Terminologija AI, objašnjena za ljude

Terminologija AI, objašnjena za ljude

Današnji članci su puni žargona o AI. Evo nekoliko definicija koje će vam pomoći da ih razumijete.

Vještačka inteligencija je najnovija stvar u tehnologiji — čini se da svaka kompanija govori o tome kako napreduje koristeći ili razvijajući AI. Ali polje AI je također toliko ispunjeno žargonom da može biti izuzetno teško razumjeti šta se zapravo dešava sa svakim novim razvojem.

Da bismo vam pomogli da bolje razumijete šta se dešava, sastavili smo listu nekih od najčešćih termina u AI. Potrudit ćemo se objasniti šta znače i zašto su važni.

Šta tačno je AI? Vještačka inteligencija: Često skraćeno kao AI, termin “vještačka inteligencija” tehnički se odnosi na disciplinu računarstva koja je posvećena stvaranju računalnih sistema koji mogu misliti kao čovjek.

Ali trenutno najčešće čujemo o AI kao tehnologiji ili čak entitetu, i šta tačno to znači je teže precizirati. Također se često koristi kao marketinška fraza, što čini njenu definiciju promjenjivijom nego što bi trebala biti.

Na primjer, Google puno govori o tome kako godinama ulaže u AI. To se odnosi na to kako su mnogi njegovi proizvodi poboljšani vještačkom inteligencijom i kako kompanija nudi alate poput Geminija koji izgledaju inteligentno, na primjer. Tu su osnovni AI modeli koji pokreću mnoge AI alate, poput GPT-a OpenAI-a. Zatim, tu je i Meta CEO Mark Zuckerberg, koji je koristio AI kao imenicu za referencu na pojedinačne chatbotove.

Kako sve više kompanija pokušava prodati AI kao sljedeću veliku stvar, načini na koje koriste taj termin i drugu srodnu nomenklaturu mogu postati još zbunjujući. Postoji mnoštvo fraza koje ćete vjerovatno naići u člancima ili marketingu o AI, pa sam za vas sastavio pregled mnogih ključnih termina u vještačkoj inteligenciji koji se trenutno koriste. U konačnici, međutim, sve se svodi na pokušaj da se računari učine pametnijima.

(Napomena da ovdje dajem samo osnovni pregled mnogih ovih termina. Mnogi od njih često mogu postati vrlo naučni, ali ovaj članak bi vam trebao pomoći da steknete osnovno razumijevanje.)

Mašinsko učenje: Sistemi mašinskog učenja se obučavaju (objasnit ćemo kasnije šta je obuka) na podacima kako bi mogli predviđati nove informacije. Na taj način mogu “učiti”. Mašinsko učenje je polje unutar vještačke inteligencije i ključno je za mnoge AI tehnologije.

Vještačka opšta inteligencija (AGI): Vještačka inteligencija koja je pametnija ili jednako pametna kao čovjek. (OpenAI posebno puno ulaže u AGI.) Ovo bi mogla biti izuzetno moćna tehnologija, ali za mnoge ljude to je također potencijalno najstrašniji aspekt mogućnosti AI — sjetite se svih filmova koje smo vidjeli o superinteligentnim mašinama koje preuzimaju svijet! Ako to nije dovoljno, također se radi na “superinteligenciji”, ili AI koja je mnogo pametnija od čovjeka.

Generativna AI: AI tehnologija sposobna za generiranje novog teksta, slika, koda i još mnogo toga. Pomislite na sve zanimljive (ako povremeno problematične) odgovore i slike koje ste vidjeli kako proizvode ChatGPT ili Googleov Gemini. Alati generativne AI su pokretani AI modelima koji su obično obučeni na ogromnim količinama podataka.

Halucinacije: Ne, ne govorimo o čudnim vizijama. To je ovo: zato što su alati generativne AI dobri samo onoliko koliko su dobri podaci na kojima su obučeni, mogu “halucinirati”, ili samouvjereno izmišljati ono što misle da su najbolji odgovori na pitanja. Ove halucinacije (ili, ako želite biti potpuno iskreni, gluposti) znače da sistemi mogu napraviti faktualne greške ili dati besmislene odgovore. Postoji čak i neka kontroverza oko toga da li se AI halucinacije ikada mogu “popraviti”.

Pristranost: Halucinacije nisu jedini problem koji se pojavio u vezi sa AI — a ovaj se možda mogao predvidjeti jer su AI, na kraju krajeva, programirali ljudi. Kao rezultat toga, ovisno o podacima na kojima su obučeni, AI alati mogu pokazivati pristranosti. Na primjer, istraživanje iz 2018. od Joy Buolamwini, računalnog znanstvenika na MIT Media Labu, i Timnit Gebru, osnivača i izvršnog direktora Instituta za distribuirana istraživanja vještačke inteligencije (DAIR), koautora rada koji je pokazao kako softver za prepoznavanje lica ima veće stope grešaka pri pokušaju identifikacije spola žena tamnije kože.

Stalno čujem puno priče o modelima. Šta su oni? AI model: AI modeli su obučeni na podacima tako da mogu samostalno obavljati zadatke ili donositi odluke.

Veliki jezički modeli, ili LLM-ovi: Tip AI modela koji može obraditi i generirati tekst prirodnog jezika. Claude od Antropica, koji, prema kompaniji, je “pomoćnik koji je koristan, iskren i bezopasan sa razgovornim tonom”, je primjer LLM-a.

Modeli difuzije: AI modeli koji se mogu koristiti za generiranje slika iz tekstualnih upita. Obučeni su tako što se prvo dodaje šum — poput statičkog šuma — slici, a zatim se proces obrnuto vraća kako bi AI naučio kako stvoriti jasnu sliku. Postoje i modeli difuzije koji rade sa zvukom i videom.

Osnovni modeli: Ovi generativni AI modeli su obučeni na ogromnoj količini podataka i, kao rezultat, mogu biti osnova za širok spektar aplikacija bez specifične obuke za te zadatke. (Termin su skovali istraživači sa Stanforda 2021. godine.) OpenAI-ov GPT, Googleov Gemini, Meta-in Llama i Antropic-ov Claude su svi primjeri osnovnih modela. Mnoge kompanije također marketiraju svoje AI modele kao multimodalne, što znači da mogu obrađivati više vrsta podataka, poput teksta, slika i videa.

Granični modeli: Pored osnovnih modela, AI kompanije rade na onome što nazivaju “graničnim modelima”, što je u suštini samo marketinški termin za njihove neobjavljene buduće modele. Teoretski, ovi modeli bi mogli biti mnogo moćniji od AI modela koji su danas dostupni, iako postoje i zabrinutosti da bi mogli predstavljati značajne rizike.

Ali kako AI modeli dobijaju sve te informacije? Pa, oni se obučavaju. Obuka je proces putem kojeg AI modeli uče razumijevati podatke na specifične načine analizirajući skupove podataka kako bi mogli predviđati i prepoznavati obrasce. Na primjer, veliki jezički modeli su obučeni “čitajući” ogromne količine teksta. To znači da kada AI alati poput ChatGPT-a odgovaraju na vaše upite, mogu “razumjeti” šta govorite i generirati odgovore koji zvuče kao ljudski jezik i obraćaju se vašem upitu.

Obuka često zahtijeva značajnu količinu resursa i računalne snage, a mnoge kompanije se oslanjaju na moćne GPU-ove kako bi pomogle u ovoj obuci. AI modeli mogu biti hranjeni različitim vrstama podataka, obično u velikim količinama, kao što su tekst, slike, muzika i video. Ovo se — logično — naziva podaci za obuku.

Parametri su, ukratko, varijable koje AI model uči kao dio svoje obuke. Najbolji opis koji sam našao o tome šta to zapravo znači dolazi od Helen Toner, direktorice strategije i osnovnih istraživačkih grantova u Centru za sigurnost i tehnologiju na Georgetownu i bivše članice upravnog odbora OpenAI-a:

Parametri su brojevi unutar AI modela koji određuju kako se ulaz (npr. dio teksta upita) pretvara u izlaz (npr. sljedeća riječ nakon upita). Proces ‘obuke’ AI modela sastoji se u korištenju matematičkih tehnika optimizacije za podešavanje vrijednosti parametara modela iznova i iznova dok model ne postane vrlo dobar u pretvaranju ulaza u izlaze.

Drugim riječima, parametri AI modela pomažu u određivanju odgovora koje će vam onda dati. Kompanije ponekad hvale koliko parametara model ima kao način da pokažu složenost tog modela.

Postoje li još neki termini na koje mogu naići? Obrada prirodnog jezika (NLP): Sposobnost mašina da razumiju ljudski jezik zahvaljujući mašinskom učenju. OpenAI-ov ChatGPT je osnovni primjer: može razumjeti vaše tekstualne upite i generirati tekst kao odgovor. Još jedan moćan alat koji može raditi NLP je OpenAI-ova tehnologija za prepoznavanje govora Whisper, koju je kompanija navodno koristila za transkripciju zvuka sa više od milion sati YouTube videozapisa kako bi pomogla u obuci GPT-4.

Zaključivanje: Kada generativna AI aplikacija zapravo nešto generira, kao što je ChatGPT odgovarajući na zahtjev o tome kako napraviti čokoladne kolačiće dijeleći recept. Ovo je zadatak koji vaš računar izvršava kada izvršavate lokalne AI komande.

Tokeni: Tokeni se odnose na dijelove teksta, poput riječi, dijelova riječi ili čak pojedinačnih znakova. Na primjer, LLM-ovi će razbiti tekst u tokene kako bi ih mogli analizirati, utvrditi kako se tokeni odnose jedni prema drugima i generirati odgovore. Što više tokena model može obraditi odjednom (količina poznata kao njegov “kontekstni prozor”), sofisticiraniji rezultati mogu biti.

Neuralna mreža: Neuralna mreža je računalna arhitektura koja pomaže računarima da obrađuju podatke koristeći čvorove, koje se mogu usporediti sa neuronima u ljudskom mozgu. Neuralne mreže su ključne za popularne generativne AI sisteme jer mogu naučiti razumjeti složene obrasce bez eksplicitnog programiranja — na primjer, obučavanje na medicinskim podacima kako bi se mogli dijagnosticirati.

Transformer: Transformer je tip neuralne mreže arhitekture koja koristi mehanizam “pažnje” kako bi obradila kako se dijelovi sekvence odnose jedni prema drugima. Amazon ima dobar primjer šta to znači u praksi:

Razmislite o ovom ulaznom nizu: “Koja je boja neba?” Transformer model koristi internu matematičku reprezentaciju koja identificira relevantnost i odnos između riječi boja, nebo i plavo. Koristi to znanje za generiranje izlaza: “Nebo je plavo.”

Transformeri nisu samo vrlo moćni, već se mogu obučavati brže od drugih tipova neuralnih mreža. Otkako su bivši Googleovi zaposlenici objavili prvi rad o transformerima 2017. godine, oni su postali ogroman razlog zašto toliko pričamo o generativnim AI tehnologijama upravo sada. (T u ChatGPT označava transformer.)

RAG: Ovaj akronim označava “generiranje s proširenjem pretrage.” Kada AI model generira nešto, RAG omogućava modelu da pronađe i doda kontekst izvan onoga na čemu je obučen, što može poboljšati tačnost onoga što na kraju generira.

Recimo da pitate AI chatbot nešto na šta, na osnovu svoje obuke, ne zna odgovor. Bez RAG-a, chatbot bi mogao jednostavno halucinirati pogrešan odgovor. Sa RAG-om, međutim, može provjeriti vanjske izvore — poput, recimo, drugih web stranica na internetu — i koristiti te podatke da pomogne u oblikovanju svog odgovora.

Kakostojimo sa hardverom? Na čemu rade AI sistemi?

Nvidia H100 čip: Jedan od najpopularnijih grafičkih procesora (GPU) koji se koriste za obuku AI. Kompanije se bore za H100 jer se smatra najboljim u rukovanju AI radnim opterećenjima u odnosu na druge server-grade AI čipove. Međutim, dok je izuzetna potražnja za Nvidia čipovima učinila je među najvrednijim kompanijama na svijetu, mnoge druge tehnološke kompanije razvijaju svoje AI čipove, što bi moglo umanjiti dominaciju Nvidie na tržištu.

Neuralne procesorske jedinice (NPU): Namjenski procesori u računarima, tabletima i pametnim telefonima koji mogu obavljati AI zaključivanje na vašem uređaju. (Apple koristi termin “neuralni motor.”) NPU mogu biti efikasniji u obavljanju mnogih AI zadataka na vašim uređajima (poput dodavanja zamućenja pozadine tokom video poziva) nego CPU ili GPU.

TOPS: Ovaj akronim, koji označava “trilijun operacija u sekundi”, je termin koji tehnološki dobavljači koriste kako bi se pohvalili koliko su njihovi čipovi sposobni za AI zaključivanje.

Koje su sve te različite AI aplikacije o kojima stalno čujem? Postoje mnoge kompanije koje su postale lideri u razvoju AI i AI-pokretanih alata. Neke su dobro ukorijenjene tehnološke gigante, ali druge su noviji startupi. Evo nekoliko igrača na sceni:

OpenAI / ChatGPT: Razlog zašto je AI sada tako velika stvar je vjerovatno zahvaljujući ChatGPT-u, AI chatbotu koji je OpenAI objavio krajem 2022. Eksplozivna popularnost usluge uglavnom je iznenadila velike tehnološke igrače, a sada skoro svaka druga tehnološka kompanija pokušava se pohvaliti svojim AI sposobnostima.

Microsoft / Copilot: Microsoft integrira Copilota, svog AI asistenta pokretanog GPT modelima OpenAI-a, u što više svojih proizvoda. Tehnološki gigant iz Seattlea također ima 49 posto udjela u OpenAI-u.

Google / Gemini: Google se utrkuje da pokrene svoje proizvode s Geminijem, što se odnosi kako na AI asistenta kompanije, tako i na njegove razne verzije AI modela.

Meta / Llama: Meta-ini AI napori se vrte oko njegovog Llama (Large Language Model Meta AI) modela, koji je, za razliku od modela drugih velikih tehnoloških kompanija, otvorenog koda.

Apple / Apple Intelligence: Apple dodaje nove AI-fokusirane funkcije u svoje proizvode pod imenom Apple Intelligence. Jedna velika nova funkcija je dostupnost ChatGPT-a unutar Siri.

Anthropic / Claude: Anthropic je AI kompanija koju su osnovali bivši zaposlenici OpenAI-a i koja pravi Claude AI modele. Amazon je uložio 4 milijarde dolara u kompaniju, dok je Google uložio stotine miliona (s potencijalom da uloži još 1,5 milijardi). Nedavno je zaposlio suosnivača Instagrama Mikea Kriegera kao svog glavnog produktnog direktora. xAI /

Grok: Ovo je AI kompanija Elona Muska, koja pravi Grok, LLM. Nedavno je prikupila 6 milijardi dolara sredstava. Perplexity: Perplexity je još jedna AI kompanija. Poznata je po svojoj AI-pokretanoj tražilici, koja je bila podložna kritikama zbog, čini se, sumnjivih praksi pretraživanja.

Hugging Face: Platforma koja služi kao direktorij za AI modele i skupove podataka.