Historija vještačke inteligencije: od mitova do generativne ere

  • Ideja o stvaranju umjetne inteligencije potiče iz mitova i formalizirana je matematičkom logikom i teorijom računanja.
  • Nakon faza entuzijazma i "zima", umjetna inteligencija se konsoliduje u praktičnim primjenama, neuronskim mrežama i inteligentnim agentima.
  • Duboko učenje, fundamentalni modeli i generativna umjetna inteligencija povećali su kapacitete, investicije, a također i rizike i etičke debate.
  • Danas je umjetna inteligencija integrirana u ekonomiju i javnu politiku, što prisiljava na njenu regulaciju i usklađivanje njenih ciljeva s ljudskim vrijednostima.

istorija veštačke inteligencije

Historija vještačke inteligencije je mnogo duža i intrigantnija nego što se obično vjeruje. Mnogo prije nego što su računari postojali, ideje o njoj pojavljivale su se u mitovima, legendama i filozofskim djelima. mašine, vještačka stvorenja i mehanički mozgovi sposobni razmišljati ili slušati ljudske naredbe. Vremenom su ove priče ustupile mjesto matematičkim teorijama, naučnim eksperimentima i konačno, vještačkoj inteligenciji koju koristimo svaki dan.

Danas, vještačka inteligencija doživljava fenomenalan procvat: chatbotovi, generativni modeli za tekst, slike i video, sistemi koji pokreću automobile ili pomažu u otkrivanju lijekova... Ali da bismo razumjeli gdje se nalazimo, moramo pratiti put koji počinje u antici i vodi do najnovijih izdanja kao što su... ChatGPT, Claude 3.5, Gemini, AlphaFold ili agentivni modeliTo putovanje je puno napredaka, pretjerivanja, kriza finansiranja i etičkih debata koje su i dalje veoma žive.

Od mitova i alhemičara do prvih automata

Mnogo prije računara, razne kulture su zamišljale oblike života koje je stvorilo čovječanstvo. Grčka mitologija priča priče o metalnim divovima, animiranim statuama i stvorenjima koje su izradili bogovi ili božanski majstori. Klasičan primjer je Čuvar Krete, koji je patrolirao ostrvom, bacajući kamenje na neprijateljske brodove i kružeći oko njegovog perimetra tri puta dnevno; prema nekim izvorima, iskovao ga je Hefest uz pomoć Kiklopa, a funkcionirao je zahvaljujući... vitalna tekućina koja se nalazi unutra i koja se može isprazniti jednostavnim uklanjanjem čepaSlika "mehaničkog tijela" koje se isključuje kada izgubi energiju podsjeća, izdaleka, na modernu ideju isključivanja mašine iz struje.

U istoj tradiciji pojavljuje se lik Pigmaliona, kipara i kralja koji se zaljubljuje u kip koji je sam stvorio. Moli boginju Veneru da mu podari ženu identičnu njegovom djelu, a mit se poigrava granicom između neživog i živog, anticipirajući upravo tu ljudsku želju za stvaranjem. umjetni pratioci koji izgledaju stvarno.

Tokom renesanse i modernog doba, alhemičari su ove fantazije odveli na "tehničkiji" nivo. Švicarac Paracelsus je opisao metodu za koju se pretpostavljalo da je sposobna proizvesti "umjetnog čovjeka" od mješavine ljudskih tekućina i gnoja, inkubiranog sedmicama i hranjenog posebnim supstancama. Rezultat bi bio homunkulus, malo živo biće stvoreno u laboratoriji, koje bi utjelovilo ambiciju... stvarati život kroz procese koje kontrolira čovjek.

U srednjovjekovnoj jevrejskoj tradiciji pojavljuje se golem: glinena figura koja oživljava kada joj se u usta stavi komad papira sa svetim imenom. Za razliku od drugih legendarnih automata, ovo biće ne govori; samo izvršava jednostavne naredbe i može postati nekontrolisano ako se ritual ne izvede ispravno. Ideja moćnog agenta bez sofisticiranog jezika i sa pomalo nespretnim ponašanjem ima mnogo zajedničkog sa određeni AI sistemi koji izvršavaju instrukcije bez potpunog razumijevanja njihovog konteksta.

U islamskom svijetu, ismailski rukopisi o alhemiji bavili su se temom takvinUmjetno stvaranje života. Autori koji se pripisuju Jabiru ibn Hayyanu opisali su pokušaje stvaranja svega, od biljaka do životinja, istražujući kako Fizički i hemijski procesi mogu dovesti do nastanka živih bićaGodinama kasnije, Goethe će se ponovo baviti likom homunkulusa u drugom dijelu Sjaj, gdje stvorenje sintetizirano u laboratoriji teži da postane potpuno ljudsko biće, ali umire kada se tegla u kojoj se nalazi razbije.

Do 19. vijeka, književna mašta se okrenula mašinama i vještačkim stvorenjima sa jačom naučnom osnovom. Mary Shelley, sa Frankenstein, predstavlja biće sastavljeno od leševa, oživljeno putem nauke i struje, a Karel Čapek uvodi u svoj pozorišni rad RUR (Rossumovi univerzalni roboti) Sama riječ "robot". Pisci poput Samuela Butlera u esejima spekulišu o mašinama koje evoluiraju poput živih bića, a slučajevi poput poznatog automatskog šahiste kojeg je analizirao Edgar Allan Poe podstiču fascinaciju... artefakti sposobni simulirati inteligencijuNaučna fantastika od tada nije napustila tu temu.

Rođenje formalne logike i ideja računarskog mišljenja

Moderna umjetna inteligencija počiva na vrlo specifičnoj hipotezi: da se ljudska misao može opisati dovoljno precizno da bi se obrada pomoću pravila i simbolaOvo se nije pojavilo niotkuda. Kineski, indijski i grčki filozofi već su stvorili strukturirane sisteme formalne dedukcije u prvom milenijumu prije nove ere. Aristotel je formulisao teoriju silogizma, Euklid je razvio svoju elementos Unutar aksiomatskog modela zaključivanja, i u islamskom kontekstu, al-Hwarizmi je promovirao algebru, što je dovelo do termina "algoritam". Kasnije su evropski skolastički mislioci poput Williama od Ockhama i Dunsa Scotusa dublje istraživali kako rigorozno zaključivati.

U kasnom srednjem vijeku, Ramon Llull je dizajnirao logičke mašine napravljene od rotirajućih diskova sa simbolima koji su, kada se kombinuju, generisali nove tvrdnje. Llull je zamišljao ove uređaje kao sposobne da sistematski proizvode sva moguća znanja iz osnovnih istina. Njegove ideje su uticale na Leibniza, koji će vekovima kasnije sanjati o... „univerzalna karakteristika“ koja bi omogućila izračunavanje argumenata kao što se to radi s brojevima.

U 17. i 18. stoljeću, ličnosti poput Hobbesa, Descartesa i samog Leibniza pitale su se da li se svo racionalno razmišljanje može svesti na neku vrstu mehaničkog računanja. Hobbes je otvoreno izjavio da je razmišljanje "sabiranje i oduzimanje", a Leibniz je zamislio jezik u kojem bi dva filozofa mogla riješiti svoje sporove jednostavnim sjedanjem pred ploču kako bi "izračunali" ko je u pravu. Ovo je označilo početak onoga što će kasnije biti nazvano hipoteza fizičkog sistema simbola: ideja da je pravilno manipulisanje simbolima dovoljno za stvaranje inteligencije.

U 19. vijeku, matematička logika je napravila veliki korak naprijed sa Georgeom Booleom i njegovom propozicionom algebrom, te sa Fregeom, koji je uveo vrlo preciznu formalnu notaciju za zaključivanje. Nadograđujući se na ove temelje, Russell i Whitehead su objavili svoj rad 1913. godine. Princip matematikeTitanski pokušaj izvođenja cijele matematike iz nekoliko formalnih aksioma. David Hilbert zatim postavlja izazov da li se svo matematičko razmišljanje može u potpunosti formalizirati.

Odgovor dolazi na iznenađujući način: Gödel pokazuje da će u svakom dovoljno moćnom sistemu uvijek postojati istinite tvrdnje koje se ne mogu dokazati unutar samog sistema, a Turing i Church definiraju apstraktne modele računanja (Turingova mašina i lambda račun) koji, iako otkrivaju ograničenja, pokazuju nešto ključno za vještačku inteligenciju: unutar tih ograničenja, Bilo koja mehanička procedura zaključivanja može se implementirati u mašiniChurch-Turingova teza tvrdi da uređaj koji manipuliše jednostavnim simbolima (kao što su 0 i 1) može, u principu, emulirati bilo koji zamislivi algoritam.

Od mehaničkih kalkulatora do elektronskog mozga

Uz ove teorijske napretke, izumitelji poput Leibniza, Jacquarda, Babbagea, Percyja Ludgatea, Leonarda Torresa Queveda i Vannevara Busha dizajnirali su i izgradili mašine sposobne za obavljanje različitih vrsta proračuna. Ada Lovelace, Babbageova saradnica, čak je predložila da bi njegova Analitička mašina mogla postati neka vrsta "mašine za razmišljanje ili rasuđivanje", iako je upozorila da se ne preuveličavaju njene mogućnosti. Ovo je bio prvi put da je neko ozbiljno razmatrao takvu mašinu. programabilna mašina sa određenom dozom inteligencije.

Prvi su se pojavili tokom Drugog svjetskog rata veliki elektronski računariZuseov Z3, britanske mašine za dešifriranje poput Colossusa ili ENIAC-a u Sjedinjenim Državama, zasnovane na konceptima koji su oživjeli Turingove teorijske ideje i koji će, pod utjecajem Johna von Neumanna, postati referenca za modernu računarsku arhitekturu.

Tokom 1930-ih i 1940-ih, nekoliko naučnih struja se snažno susrelo. Neurološke studije su pokazale da mozak funkcioniše kao mreža neurona koji emituju impulse "sve ili ništa". Norbert Wiener je definisao kibernetiku, koja opisuje kontrolu i povratne informacije u električnim sistemima. Claude Shannon je formalizirao teoriju informacija i obradu binarnih signala. A Turing je pokazao da se bilo koji oblik računanja može digitalno izraziti. Ova konvergencija sugerira nešto što nam se danas čini očiglednim: možda je moguće izgraditi "elektronski mozak" sposoban za učenje i rasuđivanje.

Tokom 40-ih i 50-ih, naučnici iz vrlo različitih oblasti (matematike, psihologije, inženjerstva, ekonomije, političkih nauka) počeli su istraživati ​​ovu ideju. Alan Turing je preuzeo vodeću ulogu 1950. godine svojim poznatim člankom "Računarske mašine i inteligencija", u kojem je direktno postavio pitanje "Mogu li mašine misliti?" i predložio da se to zamijeni operativnom vježbom: ako mašina vodi teleprinterski razgovor na takav način da je čovjek ne može razlikovati od drugog ljudskog bića, zar ne bi bilo razumno reći da ona misli? Ovo je sjeme... Tjuringov test, što postaje konceptualna prekretnica za vještačku inteligenciju.

Godine 1943., McCulloch i Pitts su formulirali prvi model umjetne neuronske mreže, pokazujući da idealizirani neuroni s Booleovim stanjima mogu implementirati osnovne logičke operacije. Njihov rad inspirirao je mlade ljude poput Marvina Minskyja, koji je 1951. godine, zajedno s Deanom Edmondsom, izgradio jednu od prvih neuronskih mrežnih mašina, SNARCU međuvremenu, drugi istraživači poput W. Greya Waltera razvijaju male autonomne robote kontrolirane analognom elektronikom, bez digitalnih računara, koji već pokazuju neobično istraživačko ponašanje.

Rađanje umjetne inteligencije kao discipline: Dartmouth i prvi programi

Godine 1956. održana je Dartmouth Workshop, koji su organizirali John McCarthy i Marvin Minsky uz podršku Claudea Shannona i Nathana Rochestera. Tamo je skovan termin "umjetna inteligencija" i iznesena je smjela tvrdnja: svaki aspekt učenja ili bilo koja druga karakteristika inteligencije može se opisati s dovoljnom preciznošću da je mašina može simulirati. Među prisutnima su bile ličnosti poput Raya Solomonoffa, Arthura Samuela, Allena Newella i Herberta Simona, koji će kasnije postati... protagonisti prvog vala istraživanja umjetne inteligencije.

Newell, Simon i Shaw u tom kontekstu predstavljaju Logic Theoreristprogram sposoban za dokazivanje teorema Princip matematike, čak pronalazeći elegantnije dokaze od originala. Simon ide toliko daleko da tvrdi da su riješili stari problem uma i tijela pokazujući kako materijalni sistem može pokazivati ​​mentalna svojstva. Ovaj stav, koji će Searle kasnije nazvati „jaka AI"On tvrdi da odgovarajući simbolički sistem ne samo simulira um, već ga zapravo i posjeduje."

U godinama koje su neposredno uslijedile, rezultati su se gomilali i atmosfera je bila potpuni optimizam. Pojavili su se programi koji su rješavali algebarske probleme, dokazivali geometrijske teoreme, igrali dame na pristojnom nivou (poput sistema Arthura Samuela, koji je već koristio mašinsko učenje za poboljšanje) ili vodili jednostavne dijaloge na prirodnom jeziku, poput ELIZA-e, koja je oponašala terapeuta preformulirajući korisnikove rečenice. Za štampu i veći dio javnosti, ova dostignuća su izgledala gotovo čudesno i pojačavala su osjećaj da... Mašina sa opštom inteligencijom je odmah iza ugla..

Na MIT-u, Stanfordu, Carnegie Mellonu i drugim univerzitetima otvaraju laboratorije posvećene isključivo umjetnoj inteligencijičesto uz velikodušno finansiranje agencija poput ARPA-e (buduće DARPA-e). Opći algoritmi pretraživanja kao što su Rješavač općih problemaSistemi za planiranje poput STRIPS-a (koji će kontrolirati robota Shakey), reprezentacije znanja poput semantičkih mreža i programi koji pokušavaju razumjeti i generirati jezik u kontroliranim mikrosvjetovima, poput SHRDLU-a, koji govori o svijetu obojenih blokova i može ih manipulirati pomoću robotske ruke.

Prva velika kriza: tehnička ograničenja i simbolična „zima“

Kako su se 60-te pretvorile u 70-te, stvarnost je počela davati oštru dozu realnosti. Programi koji su bili tako spektakularni u svojim verzijama igračaka nisu se uspjeli prilagoditi problemima stvarnog svijeta. Oni su se više puta susreli s onim što je poznato kao kombinatorna eksplozijaBroj mogućnosti za istraživanje raste astronomski, što naivne algoritme pretraživanja čini neizvodljivim, čak i sa heuristikom.

Ovome se dodaju i druge poteškoće: računarska snaga je smiješno niska u poređenju sa današnjim standardima, dostupna memorija prisiljava korištenje minijaturnog vokabulara, i postaje jasno da je rješavanje naizgled "jednostavnih" zadataka poput prepoznavanja lica ili snalaženja na stazi s preprekama mnogo teže od dokazivanja teorema. Ovo će se kasnije nazvati Moravec paradoksMašine su relativno dobre u onome što smatramo intelektualnim, ali ne uspijevaju u osnovnim senzomotornim vještinama.

Pokušaji obuhvatanja zdravog razuma u simboličkim bazama podataka spotiču se o ogromnost svakodnevnog znanja: bile bi potrebne milijarde činjenica i pravila, a čak i tada, visoko precizni sistemi na kraju postaju krhki jer je stvarnost prepuna izuzetaka i nijansi. Izražavanje onog što ljudi rukuju strogom logikom na difuzan i fleksibilan način postaje beznadežno. Kao što je rekao Gerald Sussman, Korištenje savršeno preciznog jezika za govor o u suštini nejasnim konceptima ne čini ih ništa jasnijim..

Agencije za finansiranje, koje su povjerovale u optimističnu retoriku 60-ih, umorile su se od prekršenih obećanja. Razorni izvještaji, poput ALPAC-a o mašinskom prevođenju iz 1966. ili Lighthillovog izvještaja u Velikoj Britaniji iz 1973., naglo su ukinuli mnoge programe vještačke inteligencije. DARPA je preusmjerila svoj budžet prema projektima s neposrednim ciljevima i jasnim vojnim primjenama. Termin "Zima u AI okruženju"da opiše ovaj period razočaranja i smanjenja obima posla, iako su historičari poput Thomasa Haigha utvrdili da je ovo područje ostalo aktivno izvan nekoliko velikih laboratorija."

Iako je situacija za određene grupe komplikovana, drugi istraživači nastavljaju svoj rad, tražeći alternativne pristupe. Istražuju logičko programiranje, nove oblike zaključivanja zasnovanog na zdravom razumu, bogatije reprezentacije i počinju razvijati kritičku struju protiv čistog simbolizma koja će otvoriti vrata... subsimboličke metode kao što su neuronske mreže, fuzzy logika ili evolucijsko računanje.

Uspon ekspertnih sistema i znanja kao ključnog resursa

Tokom 70-ih i 80-ih, jedan dio zajednice za umjetnu inteligenciju promijenio je svoj fokus: umjesto pokušaja izgradnje sistema opće namjene, koncentrirao se na vrlo specifične domene u kojima se stručno znanje može korisno prikupiti. Tako su rođeni [riječ koja nedostaje - vjerovatno "sistemi" ili "sistemi"]. ekspertni sistemi, programi koji odgovaraju na pitanja ili donose odluke u određenim oblastima (medicinska dijagnoza, hemija, konfiguracija opreme...) na osnovu pravila koje daju ljudski specijalisti.

Simbolični primjeri uključuju Dendral, koji pomaže u identifikaciji hemijskih spojeva iz spektara, i MYCIN, koji predlaže dijagnoze i tretmane za infekcije krvi. Ovi sistemi se ne pridržavaju općeg zdravog razuma, ali iznenađujuće dobro funkcionišu u svojoj niši i pokazuju da Detaljno poznavanje domena kodiranjem može stvoriti profitabilne aplikacijeKompanije poput Digital Equipment Corporation usvajaju ovaj pristup: njihov R1 sistem, završen 1980. godine, štedi im desetine miliona dolara godišnje automatskim konfigurisanjem složene opreme.

Ovaj uspjeh privlači pažnju vlada i industrije. Japan pokreće svoj ambiciozni projekat računara pete generacije, s ciljem stvaranja mašina koje mogu razgovarati, prevoditi i razmišljati poput ljudi. Ujedinjeno Kraljevstvo odgovara Projektom Alvey, a Sjedinjene Američke Države Inicijativom za strateško računarstvo. Paralelno s tim, cvjeta specijalizirana industrija hardvera i softvera: Lisp radne stanice, alati za inženjering znanja, platforme za razvoj ekspertnih sistema... Tokom nekoliko godina, vještačka inteligencija doživljava pravi procvat. trgovinski balon.

Međutim, ubrzo se javljaju problemi: ekspertni sistemi su skupi za održavanje, teški za proširivanje, nesposobni za učenje iz iskustva i vrlo nepouzdani izvan svog kontroliranog okruženja. Pojava moćnih personalnih računara čini specijalizirani hardver nepotrebnim, te do kraja 80-ih mnogi dobavljači umjetne inteligencije bankrotiraju ili bivaju preuzeti. Govori se o novoj zimi umjetne inteligencije, ali ono što se zapravo dešava je restrukturiranje: umjetna inteligencija je integrirana kao skup tehnika u širim sistemima, umjesto da se prodaje kao „to“ magično rješenje.

Subsimbolička renesansa: neuronske mreže, robotika i meko računarstvo

Dok je poslovni svijet gledao na drugu stranu, 80-ih i 90-ih godina došlo je do konsolidacije istraživačkih linija koje su danas ključne. John Hopfield je pokazao da određene neuronske mreže mogu stabilno pohranjivati ​​i preuzimati obrasce; Geoffrey Hinton je radio na Boltzmannovim mašinama i, zajedno s Davidom Rumelhartom, popularizirao je povratno širenje, algoritam za obuku višeslojnih perceptrona koji im omogućava učenje složenih internih reprezentacija. Ovaj drugi val konekcionizma revitalizirao je proučavanje... umjetne neuronske mreže kao distribuirani modeli učenja.

Ove mreže počinju nadmašivati ​​najsavremenija dostignuća u specifičnim zadacima, kao što je predviđanje sekundarnih proteinskih struktura, a 1990. godine Yann LeCun je primijenio konvolucijske mreže na... prepoznavanje rukom pisanih cifaraTo je dovelo do sistema koje banke i poštanske službe usvajaju u masovnim razmjerima. To je prva velika industrijska primjena modernih neuronskih mreža.

U međuvremenu, robotika prolazi kroz malu konceptualnu revoluciju. Istraživači poput Rodneyja Brooksa i Hansa Moraveca tvrde da postizanje istinske inteligencije zahtijeva više od pukog logičkog razmišljanja u kancelariji; potrebno je tijelo koje percipira, kreće se i opstaje u svijetu. Oni predlažu arhitekture "odozdo prema gore", gdje se senzomotorne sposobnosti grade bez pribjegavanja glomaznim simboličkim reprezentacijama, vjerujući da Dobra interakcija s okolinom je temelj na kojem se grade više kognitivne vještine.Ovo gledište se povezuje s teorijom utjelovljenog uma, koja sve više dobija na značaju u kognitivnoj nauci.

Istovremeno, alati se konsoliduju meko računarstvoFuzzy logika za rad s postepenim konceptima, Bayesove mreže i Markovljevi modeli za probabilističko zaključivanje, evolucijski algoritmi, stohastički modeli… Sve ove tehnike odustaju od apsolutne preciznosti u zamjenu za mogućnost upravljanja neizvjesnošću, šumom i nepotpunim podacima, što je vrlo praktično u mnogim domenima stvarnog svijeta.

U ovom okruženju pojavilo se i moderno učenje s potkrepljenjem. Nadovezujući se na ideje psihologa poput Thorndikea, Pavlova i Skinnera, Richard Sutton i Andrew Barto formulirali su teorijski okvir zasnovan na Markovljevim procesima odlučivanja i razvili algoritme poput učenja vremenske razlike (TD). Programi poput TD-Gammona uče igrati backgammon na ekspertskom nivou igrajući sami protiv sebe bez eksplicitnog predznanja. Decenijama kasnije, varijacije ovih metoda bit će u srži sistema kao što su AlphaGo i AlphaZerokoji će savladati složene igre poput goa ili šaha.

Standardizacija i zrelost: inteligentni agenti, veliki podaci i Deep Blue

Tokom 90-ih i 2000-ih, mnoge tehnike umjetne inteligencije prestale su se reklamirati kao egzotične i jednostavno su postale standardni alati Unutar računarstva i inženjerstva, koriste se za rudarenje podataka, medicinsku dijagnostiku, logistiku, prepoznavanje govora, bankarsko bodovanje i pretraživače, ali se rijetko reklamiraju kao "umjetna inteligencija". U stvari, mnogi istraživači svjesno izbjegavaju tu etiketu kako bi izbjegli stigmu prošlih neuspjeha i lakše pristupili finansiranju.

Tokom ovih godina, paradigma inteligentni agentVI je sistem koji percipira svoje okruženje i djeluje tako da maksimizira određenu mjeru uspjeha. Ova definicija, inspirisana teorijom odlučivanja i ekonomijom, omogućava nam da objedinimo vrlo raznolike programe pod jednim kišobranom, od kontrolera robota do sistema preporuka. Referentne knjige poput onih Russella i Norviga predstavljaju VI kao proučavanje ovih agenata, fokusirajući se na racionalno ponašanje, a ne na opsesivno imitiranje ljudskog uma.

Računarska snaga raste eksponencijalno, slijedeći Mooreov zakon, i to se vidi. Godine 1997. Deep Blue je pobijedio Garryja Kasparova u šahovskoj partiji, kombinirajući specijalizirani hardver, ogromne mogućnosti pretraživanja i ogroman broj heuristika. DARPA-ini izazovi autonomne vožnje 2005. i 2007. godine predstavili su automobile koji putuju stotinama kilometara u pustinjskim i urbanim okruženjima, poštujući prometne zakone i reagirajući na neočekivane događaje. Iza toga ne stoji neka čudesna nova teorija, već ogromna količina inženjerskog rada i činjenica da sada... Mašine su milione puta brže nego što su bile 50-ih.

Paralelno s tim, širenje interneta i široko rasprostranjena digitalizacija proizvode ogromne količine podataka. Do kraja 2000-ih, ljudi su već pričali o Veliki podacii skupove podataka označene kao Obilježena lica u divljini ili ImageNet Oni postaju standardi za obuku i evaluaciju algoritama računarskog vida. Pojavljuju se i vektorski prikazi jezika, kao što je word2vec, koji kodiraju riječi u numeričkim prostorima gdje jednostavne operacije obuhvataju iznenađujuće semantičke odnose.

IBM-ov Watson sistem je 2011. godine pobijedio dva glavna prvaka u Jeopardy!Kombiniranje obrade prirodnog jezika, masovnog pretraživanja informacija i probabilističkih modela. Ove vrste prekretnica jasno pokazuju da Vještačka inteligencija više nije samo akademsko pitanjeveć tehnologija sposobna da se takmiči sa ljudskim stručnjacima u složenim zadacima.

Revolucija dubokog učenja i prelazak na opću umjetnu inteligenciju (AGI)

Prekretnica se dogodila 2012. godine s AlexNetom, dubokom neuronskom mrežom obučenom na ImageNetu koja je pobijedila na takmičenju u prepoznavanju slika sa znatno nižom marginom greške od ostalih učesnika. Njena višeslojna konvolucijska arhitektura, u kombinaciji s tehnikama kao što su ispasti i aktivacijske funkcije ReLUTo pokazuje da, uz dovoljno podataka i računarske snage (uključujući GPU-ove), duboke mreže mogu automatski izdvojiti korisne funkcije bez potrebe za ekstremnim ručnim inženjeringom.

Odatle, tzv. duboko učenje Postaje dominantan u prepoznavanju govora, mašinskom prevođenju, analizi teksta, računarskom vidu, igrama i veoma dugoj listi drugih oblasti. Mnoge alternativne metode se napuštaju ili se prebacuju na nišne primjene. Istraživači poput Geoffreyja Hintona podsjećaju da je 80-ih i 90-ih godina jednostavno nedostajalo označenih podataka i računarske snage; kada je to riješeno, duboke mreže su pokazale svoj potencijal.

S valom uspjeha, ponovo se pojavio interes za umjetnu opću inteligenciju (AGI) - sisteme sa širokim i fleksibilnim mogućnostima usporedivim (ili premašujućim) ljudskim. Autori poput Nilsa Nilssona, Johna McCarthyja i Marvina Minskyja oživjeli su debatu, a Ben Goertzel popularizirao je termin AGI, organizirajući konferencije i objavljujući namjenske časopise. DeepMind je osnovan 2010. godine, OpenAI 2015. godine, a ubrzo nakon toga pojavili su se i drugi igrači poput Anthropica, svi s ciljem... modeli opšte namjene koji mogu naučiti rješavati gotovo svaki zadatak.

Istovremeno, knjige poput Singularnost je blizu od Raya Kurzweila ili Superinteligencija Nick Bostrom u svom radu predstavlja scenarije superinteligencije koji bi mogli radikalno transformirati društvo, nabolje ili nagore. Počinju ozbiljne diskusije o egzistencijalnim rizicima povezanim s umjetnom inteligencijom i tzv. problem poravnanjaKako osigurati da vrlo moćni sistemi teže ciljevima kompatibilnim s ljudskim vrijednostima i da ne razvijaju opasna ponašanja zasnovana na isključivo instrumentalnoj logici.

Osnovni modeli, generativna umjetna inteligencija i procvat velikih jezičkih modela

Godine 2017., Googleov tim je objavio članak „Pažnja je sve što vam treba“, predstavljajući Transformer arhitekturu. Njena centralna ideja je mehanizam samopažnje, koji omogućava svakom dijelu sekvence da „pogleda“ sve ostale kako bi odlučio šta je relevantno, eliminirajući potrebu za složenim rekurzijama. Ova arhitektura je brzo postala standard za modeli velikih jezika (LLM) a kasnije i za multimodalne modele.

OpenAI se pokreće GPT-3 U 2020. godini razvijen je model obučen na ogromnim količinama neoznačenog teksta koji je mogao pisati, prevoditi, programirati i odgovarati na pitanja s tečnošću koja je iznenadila čak i mnoge stručnjake. DeepMind je predstavio Gato, "generalistički" model koji može kontrolirati robote, igrati videoigre ili razgovarati koristeći istu mrežu. Ovi modeli se nazivaju "osnovnim" jer služe kao osnova za bezbroj narednih zadataka uz relativno male prilagodbe.

ChatGPT je pokrenut 30. novembra 2022. godine i u roku od nekoliko sedmica je nadmašio sve metrike usvajanja: preko 100 miliona korisnika za dva mjesecaKonstantno prisustvo u medijima i društvenim mrežama, te poplava kreativnih upotreba, od pisanja koda do generiranja marketinških ideja ili pomoći pri učenju. Reakcija u industriji je trenutna: Google proglašava "crveni kod" i ubrzava razvoj svoje Gemini porodice, Microsoft integrira OpenAI tehnologiju u Bing i druge proizvode, a pojavljuju se desetine konkurenata fokusiranih na generativnu umjetnu inteligenciju.

Istovremeno, modeli slika kao što su stabilna difuzijakoji omogućavaju kreiranje fotorealističnih ili umjetničkih ilustracija iz teksta, a počinju se pojavljivati ​​i sistemi za pretvaranje teksta u video poput Sore, sposobni za generiranje klipova do jedne minute s impresivnim nivoom detalja, te platforme poput Instagram integriše vještačku inteligenciju u Stories Oni predstavljaju praktične primjene umjetne inteligencije na društvenim mrežama. Alati poput 15.ai već su pokazali potencijal kloniranja glasa sa samo nekoliko sekundi zvuka, nešto što će velike kompanije kasnije potvrditi kao tehnički izvodljivo.

Trka nije ograničena samo na tekst: pojavljuju se multimodalni modeli Ove platforme kombiniraju sliku, zvuk i video, a počinju se pojavljivati ​​i agentne arhitekture, gdje nekoliko specijaliziranih modela surađuje kako bi gotovo autonomno obavljali složene zadatke. Proizvođači čipova poput NVIDIA-e postaju giganti berze, vođeni ogromnom potražnjom za GPU-ima za obuku i implementaciju ovih modela.

U 2024. godini, laboratorije poput Anthropica lansirale su porodice proizvoda kao što su Claude 3 i Claude 3.5, s lakšim verzijama i onima visokih performansi koje su se direktno takmičile s OpenAI i Google modelima. Istovremeno, testirani su novi benchmarkovi poput ARC-AGI-ja, koji je dizajnirao François Chollet za mjerenje sposobnosti apstraktnog zaključivanja izvan pukog usklađivanja uzoraka. Modeli zaključivanja poput OpenAI o3 postigli su vrlo visoke rezultate u ovim testovima, čak i premašujući ljudske prosjeke u nekim slučajevima, što je podstaklo debatu o... bez obzira da li se približavamo prvim oblicima opće umješne inteligencije (AGI) ili ne.

Društveni utjecaj, rizici i regulacija umjetne inteligencije

Ovaj ubrzani rast sa sobom nosi vrlo ozbiljne zabrinutosti. S jedne strane, istraživanja autora poput Cathy O'Neil pokazuju kako su loše osmišljeni modeli rizika doprinijeli finansijskoj krizi 2008. godine. Druge studije otkrivaju rasne i druge predrasude u algoritmima koji se koriste u pravosudnom sistemu, pri zapošljavanju i kreditiranju. Skandal oko COMPAS-a i njegove upotrebe u izricanju krivičnih kazni u Sjedinjenim Državama izazvao je javnu debatu o... jednakost, transparentnost i algoritamska odgovornost.

S druge strane, porast društvenih mreža zasnovanih na maksimiziranju interakcije, dezinformacije velikih razmjera A neregulisana upotreba ličnih podataka postavlja neugodna pitanja o tome u kojoj mjeri prepuštamo kontrolu nad svojom pažnjom i odlukama neprozirnim sistemima preporuka i predviđanja. Nakon američkih izbora 2016. godine, mnogi istraživači vještačke inteligencije preusmjerili su svoj rad na pitanja sigurnosti, objašnjivosti, upravljanja i etičkih vrijednosti.

Istovremeno, uticajni glasovi u sektoru pozivaju na oprez. 2023. godine objavljeno je otvoreno pismo pod nazivom „Pauzirajte gigantske eksperimente s umjetnom inteligencijom“, koje su potpisale desetine hiljada ljudi, uključujući Elona Muska, Yoshuu Bengia i Stevea Wozniaka, a u kojem se zahtijeva privremena pauza u obuci modela snažnijih od GPT-4 dok se ne uspostave razumne garancije kontrole i sigurnosti. Drugi stručnjaci smatraju da je potpuno zaustavljanje procesa nerealno, ali se slažu da je takva pauza neophodna. nadzorni mehanizmi, nezavisna revizija i regulacija proporcionalna riziku.

Iz političke sfere, Evropska komisija predlaže definicije umjetne inteligencije i regulatorni okviri Ove smjernice prave razliku između visokorizičnih upotreba (kao što su masovna biometrijska identifikacija, socijalno bodovanje ili sistemi u zdravstvu i pravosuđu) i lakših primjena. Ideja je omogućiti inovacije, a istovremeno zahtijevati strože zahtjeve za transparentnost, testiranje, dokumentaciju i ljudski nadzor tamo gdje bi propust mogao imati ozbiljne posljedice po temeljna prava.

U zemljama poput Španije, nacionalne strategije za vještačku inteligenciju primjenjuju se u okviru širih planova digitalizacije, s javnim i privatnim investicijama namijenjenim jačanju projekata u zdravstvu, industriji, transportu, poljoprivredi i javnoj upravi. Zvanični izvještaji pokazuju da sve veći procenat kompanija već koristi vještačku inteligenciju za... automatizirati radne procese, analizirati slike, prepoznati govor ili podržati donošenje odlukaMeđutim, usvajanje je i dalje koncentrirano u visokotehnološkim sektorima.

Paralelno s tim, otvaraju se debate o radu u vezi s automatizacijom i zapošljavanjem, kao i filozofske dileme o značenju inteligencije, kreativnosti ili čak svijesti kada postoje sistemi sposobni generirati tekstove, slike, muziku ili kod koji se u mnogim kontekstima ne može razlikovati od ljudskog. Pitanje više nije samo šta mašine mogu učiniti, već šta želimo da rade i pod kojim uslovima.

Gledajući iz perspektive, historija umjetne inteligencije je priča o drevnom snu koji prolazi kroz mitove o metalnim divovima i glinenim golemima, formalizira se u logici i računarstvu 20. stoljeća, neprestano se spotiče o vlastita ograničenja, iznova se izmišlja novim tehnikama i danas se probio u gotovo svaki kutak naših digitalnih života; razumijevanje ovog putovanja pomaže da se bolje pozicioniraju i entuzijazam i sumnje koje izaziva tehnologija kojoj, gotovo nesvjesno, dopuštamo da utječe na to kako učimo, radimo, ostajemo informirani i odnosimo se jedni prema drugima, i koja zahtijeva, više nego ikad, kombinaciju... naučna rigoroznost, društvena odgovornost i kolektivni zdrav razum.

Modeli klasičnih Google Doodle logotipa i njihova historija
Vezani članak:
Istorija Google Doodlesa