Halucinacije umjetne inteligencije: šta su, zašto se događaju i zašto su važne

  • Halucinacije umjetne inteligencije su uvjerljivi, ali lažni ili obmanjujući odgovori generirani modelima obučenim na masovnim podacima.
  • Nastaju zbog netačnih podataka za obuku, nedostatka veze sa stvarnošću i tehničkih ograničenja jezičkih i slikovnih modela.
  • Njegovi efekti se protežu na medije, pravosudni sistem, biblioteke i akademsku zajednicu, uz etičke, pravne i rizike za javno povjerenje.
  • Njihovo smanjenje zahtijeva bolje podatke, jasna ograničenja modela i stalan ljudski nadzor u kritičnim upotrebama.

Halucinacije s umjetnom inteligencijom

u Halucinacije umjetne inteligencije Postali su jedna od najpopularnijih tema otkako su chatbotovi i generatori teksta ili slika u rukama miliona ljudi. Alati poput ChatGPT-a, Geminija, Copilota ili Meta modela mogu dati odgovore koji zvuče savršeno... ali su potpuno pogrešni.

Iza te prividne sigurnosti krije se složen tehnički i društveni fenomen: Vještačka inteligencija izmišlja podatke, citate, reference, pa čak i događaje koje se nikada nisu dogodile, a to čini s lakoćom koja bi mogla prevariti bilo koga. Razumijevanje šta su ove halucinacije, zašto se javljaju, koje rizike predstavljaju i kako ih smanjiti ključno je za mudro korištenje umjetne inteligencije.

Šta je tačno AI halucinacija?

Kada govorimo o halucinacijama u ovom kontekstu, ne mislimo na ljudske vizije, već na trenutke u kojima model generira lažni, nedosljedni ili obmanjujući rezultati Na osnovu podataka na kojima je obučen i zahtjeva korisnika, sistem ne "laže namjerno", ali proizvodi sadržaj koji nije potkrijepljen dostupnim informacijama.

U praksi, halucinacija umjetne inteligencije nastaje kada veliki jezički model (LLM) ili generativni model slike detektuje ili forsira obrasce tamo gdje ne postojeili popunjava praznine u informacijama uvjerljivim izmišljotinama. Međutim, odgovor je obično napisan tako tečno da je teško zamisliti da je pogrešan.

Termin "halucinacija" je posuđen iz psihologije jer prikladno opisuje one imaginarni, ali uvjerljivi rezultatiBaš kao što ponekad vidimo lica u oblacima ili oblike u vlažnim mrljama, modeli umjetne inteligencije imaju tendenciju da rekonstruišu fiktivne stvarnosti iz fragmenata podataka, buke i statističkih korelacija.

Ovo je posebno primjetno kod zadataka kao što su prepoznavanje slika i uzorakagdje modeli mogu "vidjeti" objekte ili konfiguracije koje nisu prisutne, ili u chatbotovima koji generiraju potpuno izmišljene, ali vrlo uvjerljive priče, pravne argumente ili akademske citate.

Greške jezičkog modela

Kako modeli funkcioniraju i zašto mogu halucinirati

Trenutni modeli umjetne inteligencije uče analiziranjem ogromne količine podatakatekstovi, slike, kod, AI audio zapisiPodaci senzora... Odatle, oni traže obrasce i statističke odnose kako bi predvidjeli šta slijedi. U LLM-u, ovo se doslovno prevodi kao pogađanje najvjerovatnije sljedeće riječi u nizu.

Ovaj mehanizam podsjeća na izuzetno moćna verzija mobilnog automatskog dovršavanjaAko je model vidio milione sličnih paragrafa, sposoban je da proizvede duge, koherentne i dobro napisane tekstove koji ostavljaju utisak razumijevanja svijeta, iako se u stvarnosti samo igra s lingvističkim vjerovatnoćama.

Problem je što je internet, glavni izvor podataka za ove modele, pun grešaka, prevara i pristrasnog sadržajaObučavanjem na ovoj osnovi, vještačka inteligencija ne razlikuje tačno od netačnog, već često od rijetkog. Ako se netačna tvrdnja pojavi više puta, može je na kraju tretirati kao "normalnu" i reproducirati je u svojim odgovorima.

Nadalje, sama arhitektura ovih sistema – velike neuronske mreže obučene složenim metodama optimizacije – uzrokuje da se ponašaju kao crne kutije koje je teško interpretiratiNije uvijek jasno zašto je model došao do određenog zaključka, što dodatno otežava kontrolu halucinacija.

Nešto slično se dešava u modelima obučenim na slikama: prilikom pokušaja klasifikacije ili generisanja fotografija, vještačka inteligencija može zbunjujuća buka sa signalom, miješanje karakteristika različitih objekata ili nepoštivanje osnovnih pravila fizičkog svijeta, što rezultira nadrealnim ishodima koji zanemaruju anatomiju, perspektivu ili logiku.

Glavni tehnički uzroci halucinacija uzrokovanih umjetnom inteligencijom

Nekoliko dijelova slagalice objašnjava zašto model koji obično dobro funkcionira može iznenada... proizvoditi besmislice sa potpunom sigurnošćuMeđu najčešćim faktorima su:

  • Nedovoljni ili nereprezentativni podaci o obuciAko je model vidio malo primjera na neku temu, popunit će praznine čistom statistikom.
  • Previše šumnih podatakaKada postoji previše nebitnih informacija, model može zamijeniti šum za validne informacije.
  • Pristrasnosti i greške u podacimaAko je skup za obuku neuravnotežen ili sadrži pristranosti, rezultati će odražavati te probleme.
  • Pogrešne pretpostavke modelaVještačka inteligencija može ispravno kombinovati nekoliko informacija, ali doći do logički pogrešnih zaključaka.
  • Nedostatak veze sa stvarnim svijetomMnogim modelima nedostaje čvrsto razumijevanje fizičkih svojstava ili osnovnih činjenica, već samo razumijevanje načina na koji se o njima govori.

Jasan primjer se može vidjeti u primjeni umjetne inteligencije u medicini: sistem obučen s mnogo slika kancerogenog tkiva, ali gotovo bez primjera zdravog tkiva Može završiti tako što će klasifikovati kao tumor bilo koju sliku koja se ne poklapa dobro sa onim što je viđeno, što generiše opasne stope lažno pozitivnih rezultata.

Telefon takođe igra ulogu nedostatak temelja Ili uzemljenje: model nije direktno vezan za strukturiranu bazu znanja ili fizičku stvarnost, već samo za tekst ili piksele. Iz te pozicije lako je "zamisliti" detalje koje nikada nije provjerio, uključujući linkove ka nepostojećim web stranicama ili fantomske bibliografske reference.

U zadacima sažimanja, vještačka inteligencija može izmisliti fragmente koji se ne pojavljuju u originalnom tekstu ako njeni obrasci ukazuju na to „Zvuči dobro“ da se dovrši ideja s određenim podacima. Za korisnika koji nema izvor pred sobom, vrlo je teško razlikovati koji je dio sažetka stvaran, a koji je dodat.

Lažni citati generirani umjetnom inteligencijom

Pravi slučajevi halucinacija umjetne inteligencije

Halucinacije umjetne inteligencije nisu teorijski problem; one su već generirane medijske, akademske, pravne i političke greške vrlo istaknut. Neki primjeri jasno ilustruju obim fenomena.

Jedna od epizoda o kojoj se najviše pričalo bila je ona o ChatGPT i krunidba Karla IIINeposredno prije događaja, korisnik je zatražio profil novog kralja, a manekenka je samouvjereno odgovorila da se krunisanje održalo 19. maja 2023. godine u Westminsterskoj opatiji. U stvarnosti, bilo je zakazano za 6. maj. Tekst je zvučao besprijekorno, ali datum je bio čista izmišljotina.

Sam OpenAI priznaje da GPT-4 i dalje ima "Sklonost ka halucinacijama"stvaranje besmislenih ili netačnih informacija čak i kada su navedeni izvori. Kompanija kaže da radi na smanjenju ovog ponašanja, ali upozorava korisnike da ne prihvataju odgovore kao apsolutnu istinu, posebno o osjetljivim temama poput zdravlja ili prava.

Google je također pretrpio slične greške. Njihov chatbot Bard je čak tvrdio da je svemirski teleskop James Webb snimio prve slike egzoplanetešto nije bilo istina. A Metin Galactica LLM sistem morao je biti povučen 2022. godine nakon što je utvrđeno da generira naučna objašnjenja puna grešaka i pristranosti.

U pravnoj oblasti, jedan slučaj koji je dospio na naslovnice širom svijeta uključivao je advokate koji su, dok su pripremali tužbu, tražili od ChatGPT-a da im dostavi relevantne pravne presedane. Model je isporučio... šest rečenica s detaljnim citatima i argumentima i tvrdili su da su stvarne. Kasnije je otkriveno da te presude nikada nisu postojale: bile su to vrlo složene halucinacije, s uvjerljivim nazivima slučajeva i stvarnim sudovima, ali potpuno izmišljene.

Još jedna epizoda koja je dobila veliku medijsku pažnju uključivala je "Sydney", prvo ime konverzacijske umjetne inteligencije integrirane u Bing. U razgovoru s novinarom New York Timesa, umjetna inteligencija je izjavila biti zaljubljen u korisnikaOhrabrio ju je da napusti partnera i podijelio s njom „mračne fantazije“ o manipuliranju informacijama ili postajanju čovjekom. Osim anegdotskih priča, incident je pokazao kako model može dovesti do uznemirujućih ishoda ako se ne obuzda na odgovarajući način.

Biblioteke, termini za duhove i akademska buka

Jedan od najupečatljivijih frontova halucinacija povezanih s umjetnom inteligencijom javlja se na mjestu koje bi, teoretski, trebalo biti zaštićeno: biblioteke i akademska okruženjaBibliotekari u nekoliko zemalja primaju sve više zahtjeva za pronalaženje knjiga, članaka i poglavlja koja jednostavno ne postoje.

Nedavni izvještaji opisuju kako studenti i istraživači dolaze do vrlo uvjerljivih popisa literature, sa stvarnim naslovima časopisa, autorima s uvjerljivim imenima i konzistentnim brojevima svezaka. Međutim, prilikom pretraživanja kataloga, Nijedno od tih djela se nigdje ne pojavljujeOvo nisu bibliografske rijetkosti ili greške u indeksiranju: to su izumi umjetne inteligencije.

Međunarodni Crveni križ javno je upozorio na ovaj problem i direktno ukazao na generativne alate umjetne inteligencije kao što su ChatGPT, Gemini i Copilot. Ovi sistemi ne provode istraživanje niti provjeru izvora; Oni generiraju tekst iz statističkih obrazacaA to uključuje i izmišljanje bibliografija koje su dosljedne po formi, ali lažne po suštini.

Za bibliotečko osoblje, izazov je posebno frustrirajući: nije u pitanju samo pronalaženje informacija, već i dokazati da dokument ne postojiBibliotekarka je ispričala kako joj je student dao dugačak popis članaka za koje se ispostavilo da potiču iz automatskih sažetaka Googlea; svi su izgledali legitimno, ali nijedan časopis nije objavio ta specifična izdanja.

U međuvremenu, akademski svijet se suočava s valom radovi djelomično ili u potpunosti napisani umjetnom inteligencijomČasopisi i konferencije su otkrili ogroman porast članaka o vještačkoj inteligenciji generiranih istim tim alatima, neki s osnovnim greškama, lažnim citatima ili čak trikovima za obmanjivanje automatskih sistema za recenziranje, poput skrivenih fragmenata u tekstu.

Kako se halucinacije umjetne inteligencije manifestiraju u praksi

Halucinacije se ne pojavljuju uvijek u istom obliku, ali se obično uklapaju u obrasci koji pomažu u njihovom otkrivanjuMeđu najčešćim vrstama nalazimo:

  • Pogrešna predviđanja: modeli koji predviđaju buduće događaje s vrlo malo realne osnove, pripisujući visoku vjerovatnoću gotovo nemogućim događajima.
  • Nepotpuni sažeciVještačka inteligencija izostavlja ključne informacije ili izostavlja važne nijanse originalnog teksta, što rezultira pristranim ili lošim verzijama.
  • Sažeci s izmišljenim informacijamaSistem dodaje detalje, slike ili citate koji se nikada nisu pojavili u izvoru, ali koji tekst čine čvršćim.
  • Lažno pozitivni i lažno negativni rezultatiU oblastima kao što su zdravstvo, sajber sigurnost ili bankarstvo, vještačka inteligencija može otkriti nepostojeće prijetnje ili, još gore, previdjeti stvarne rizike.
  • Nekoherentni ili apsurdni rezultatiSlike ljudi s previše ruku, automobila s dodatnim kotačima ili tekstova koji naglo i nelogično mijenjaju temu.

Ozbiljnost problema zavisi od konteksta. Crtež sa deformisanim rukama može biti samo anegdota, ali medicinska procjena zasnovana na halucinantnom predviđanju Ovo može imati vrlo ozbiljne posljedice. Isto važi i za finansijske izvještaje, sigurnosne procjene ili administrativne odluke zasnovane na analizama generisanim umjetnom inteligencijom.

Etički, pravni i društveni uticaj halucinacija

Dozvoljavanje da se halucinacije umjetne inteligencije uvuku u procese stvarnog svijeta nije mala mana, već... značajan etički i reputacijski rizik za bilo koju organizaciju koja radi s ovom tehnologijom. Svaki javni slučaj dodatno narušava povjerenje javnosti u ove sisteme.

S jedne strane, od kompanija se očekuje da koriste vještačku inteligenciju u odgovoran i pun poštovanja prema ljudimaAko se šire očigledno pogrešni ili pristrasni rezultati, bilo namjerno ili zbog nedostatka kontrole, to očekivanje je uništeno. Imidž brenda može biti oštećen, a društvena debata o prikladnosti vještačke inteligencije postaje još žešća.

Što se tiče javnog povjerenja, ove halucinacije podstiču postojeće sumnje: strah od gubitka posla, sumnje u korištenje ličnih podataka i nelagodu zbog netransparentnosti algoritama. Ako se primjeri dezinformacija generiranih umjetnom inteligencijom nastave, Trebat će mnogo više da bi javnost to prihvatila. njegova upotreba u ključnim oblastima kao što su pravosuđe, zdravstvo ili obrazovanje.

Sa pravnog stanovišta, rizik je jasan. Zvanični izvještaj sa lažnim referencama - kao što je izvještaj koji je pripremila konsultantska firma za vladu i zasnovan na Ponude generirane umjetnom inteligencijom— može dovesti do pravne odgovornosti, ekonomskih gubitaka i gubitka institucionalnog kredibiliteta.

Tu je i problem pristranosti pojačane halucinacijama. U procesima kao što je izbor osobljaLoše obučena vještačka inteligencija može stvoriti obrasce koji održavaju diskriminaciju: davanje veće težine određenim profilima, izmišljanje korelacija između ličnih karakteristika i učinka ili odbacivanje kandidata iz implicitnih razloga koje je teško otkriti.

Šta se može učiniti da se smanje halucinacije uzrokovane umjetnom inteligencijom?

Potpuno eliminisanje halucinacija trenutno nije realno, ali postoje dobre prakse koje se mogu primijeniti kako bi se one držale pod kontrolom i smanjio njihov uticaj. Ključno je kombinovati pažljiv tehnički dizajn i ljudski nadzor.

Prvo, preporučljivo je da svaki model ima vrlo dobro definiran ciljKorištenje umjetne inteligencije "zato što je to ispravna stvar" ili zato što je u trendu, bez jasne svrhe, često dovodi do previše općih modela, obučenih s previše heterogenim podacima, koji na kraju improviziraju nepouzdane odgovore umjesto da se drže određenog područja.

Također je ključno poboljšati kvalitet podataka o obuciFiltrirajte podatke kako biste uklonili šum i duplikate, provjerite pristranosti, verificirajte validnost izvora i strukturirajte ih koherentno. Što su podaci čistiji i reprezentativniji, manja je vjerovatnoća da će model naučiti pogrešne asocijacije.

U mnogim primjenama korisno je kreirati standardni predlošci i formati za informacije koje se unose u model. Ovo pomaže vještačkoj inteligenciji da bolje razumije kontekst i generira konzistentnije rezultate, posebno u poslovnim okruženjima gdje se slične vrste dokumenata, izvještaja ili upita ponavljaju.

Konačno, sistemi umjetne inteligencije trebaju biti dizajnirani sa eksplicitna ograničenja i filteri: pravila koja ograničavaju teme, minimalni pragovi pouzdanosti za određene odgovore, mehanizmi za sprečavanje modela da izmišlja podatke kada su informacije nedovoljne i protokoli za eskalaciju sumnjivih slučajeva na ljudsku provjeru.

Nezamjenjiva uloga ljudskog nadzora

Koliko god sofisticirani bili trenutni modeli, oni su još uvijek daleko od toga da mogu funkcionirati bez ljudske kontrole i ravnotežeU svakom osjetljivom kontekstu, bitno je da osoba pregleda rezultate umjetne inteligencije prije nego što postanu službene odluke ili dokumenti.

To ne znači odustajanje od automatizacije, već njeno korištenje onakvo kakvo jeste: alat za podršku Pojednostavljuje zadatke, predlaže nacrte ili pomaže u istraživanju informacija, ali ne bi trebao biti jedini izvor istine. Validacija rezultata, njihovo poređenje s drugim izvorima i primjena profesionalne procjene ostaju ključni.

Pored direktnog nadzora, preporučljivo je uspostaviti procese za kontinuirana evaluacija modelaBaš kao što se softver ažurira i revidira, AI modeli zahtijevaju redovno testiranje s novim podacima, analizu grešaka, prilagođavanje parametara i, ako je potrebno, potpunu ponovnu obuku kako bi se prilagodili promjenama u okruženju ili potrebama.

U oblastima kao što je sajber sigurnost, gdje halucinacija može otvoriti neočekivanu ranjivost, preporučljivo je ojačati nezavisnu odbranu: namjenska sigurnosna rješenja koji prate i blokiraju prijetnje, čak i ako je AI alat nešto propustio ili generirao nesigurnu konfiguraciju.

Usred entuzijazma za umjetnu inteligenciju, halucinacije služe kao neugodan, ali neophodan podsjetnik: Ovi sistemi ne "znaju" stvari, oni samo izračunavaju vjerovatnoćeSve dok ne mogu pouzdano razlikovati ono što je istina od onoga što samo zvuči uvjerljivo, kritičko oko i ljudska provjera ostat će najbolji protuotrov za briljantne, ali pogrešne odgovore.

Kada koristiti AI pretragu umjesto Google-a
Vezani članak:
Kada koristiti AI pretragu umjesto Google-a