Nauka

Šta AI halucinacije otkrivaju o granicama vještačke inteligencije?

Šta su AI halucinacije? AI halucinacije se dešavaju kada modeli vještačke inteligencije generišu netačne ili izmišljene informacije, iako deluju uvjerljivo.

  • Zašto je važno da ih razumijemo? Razumijevanje AI halucinacija pomaže nam da prepoznamo njihove granice i važnost provjere činjenica, čime čuvamo pouzdanost informacija.
  • Šta saznajemo o sebi? AI halucinacije nas podsjećaju na ljudsku sposobnost kritičkog razmišljanja i potrebu za proaktivnim pristupom u traženju tačnih informacija.

Halucinacije umjetne/vještačke inteligencije (AI hallucinations) su jedan zanimljiv aspekt ove nove tehnologije o kojem se priča dosta, ali ne dovoljno. Dakle, skoro svi mi koji smo koristili velike jezične modele (Large language models, LLMs) kakav je Chat GPT, imali smo čast iskusiti trenutke kada nam model ispisuje tekst, daje odgovore, koji su netačni.

To se naročito vidjelo onda kada bismo ukucavali da nam model kaže nešto o nekoj osobi, pa i nama samima. Neki ljudi bi zamolili da im model napiše nekrolog,  recimo Vinton Cerf je jedne prilike kazao kako je to zatražio te je model neke stvari izmišljao.

Često bi se dešavalo da prosto izmisli mjesto rođenja i zanimanje, nekad bi izmislio i ljude koje poznajete, fakultete na koje ste išli itd.

Nekad smiješne, nekad mogu biti fatalne: AI halucinacije

Halucinacija je termin koji se koristi za fenomen kada AI algoritmi i neuronske mreže dubokog učenja generišu izlaze koji nisu stvarni, ne odgovaraju nijednom podatku na kojem je algoritam treniran niti bilo kojem drugom prepoznatljivom obrascu. Zapravo, na neki način, AI halucinacije su oblik kreativnosti generativne umjetne inteligencije (GAI).

Ne dešavaju se samo kod velikih jezičnih modela, nego i kod AI koji radi sa vizuelnim setovima podataka. Zapravo, halucinacije se mogu pojaviti u svim vrstama sintetičkih podataka, poput teksta, slika, zvuka, videa i kompjuterskog koda. To je i razlog zašto modeli poput Chata i nisu baš najbolji za kodiranje, jer često izbacuju kodove koji su netačni i time nefunkcionalni i više vremena je potrebno da bi se linija koda ispravila, našla greška nego da je čovjek kodirao/la od početka.

AI halucinacije nastaju zbog načina na koji modeli dubokog učenja, poput velikih jezičkih modela (kao što je ChatGPT), procesiraju i generišu odgovore.

Od  novembra 2022. kada je Open AI izbacio Chat GPT, ovaj LLM, pa i drugi postaju bolji i manje se događaju ovakve situacije, no ipak… probajte iznenaditi model s nekim pitanjem za podatka na koje nije navikao. Recimo, ja sam nedavno Chat GPT tražila da mi kaže koje napisao određene stihove:

Neki od vas će prepoznati divne stihove  pjesnika Vaska Pope, iz Ljubav belutka. Ali Chat GPT to ne zna i nudi, vrlo samouvjereno, odgovor da se radi o epskoj pjesmi Strahinja Banović (postoji Banović strahinja, iz ciklusa je epskih pjesama) i daje  pjesnika Pavla Radonjića. Dakle, model koji nije obučavan na poezije jednog malog jezika, dodatno nupit iskomplikovan što su stihovi na ćirilici.

Kako nastaju AI halucinacije

U anketi na Instragram profilu Nauka govori, većina pratilaca se izjasnila da želi više saznati o tome kako nastaju ovakve situacije u modelima umjetne inteligencije. I još nešto – neki sturčnjaci ne odobaravaju termin AI halucinacije”, ali se on odomaćio i prenosi dobro smisao fenomena.

Stvar je vrlo jednostavna – kada LLM nema dovoljan set podataka, on prosto podatke izmisli, nadomjesti nečim za šta principi vjerovatnoće kažu da bi bio logičan odgovor. Pri tome, često se događa da taj odgovor ne zvuči nimalo off i ako zaista vi ne znate materiju, ovakve nebuloze i nesitine vam mogu proći ispod radara.  Prosto, odgovor je koherentan, gramatički tačan, ne budi sumnju. A vi ako ne poznajete materiju, ne možete ni osjetiti da nešto ne štima.

Neki od slučajeva halucinacija uključuju situacije kada je Googleov Bard tvrdio  da je James Webb teleskop snimio prvu fotografiju planete izan sunčevog sistema ili kada je Microsoftov Sydney počeo da se zaljubljuje u korisnike i špijunira uposlenika Bing-a.

Recimo, može se dogoditi da učenici predaju rad profesoru koji je uradi Chat GPT i da ništa ne provjere, te da nastavnik otkrije netačnosti. To je zapravo jedan od najčešćih načina na koji nastavnici provale da je esej, seminarski ili zadaću napisao Chat GPT ili neki drugi model.

Osim nedostatka podataka, drugi razlog za AI halucinacije jeste treniranje na pristranim setovima podataka. Ako su podaci na kojima je model treniran nepotpuni, netačni ili kontradiktorni, model može da razvije pristrasnosti ili da generiše informacije koje nisu tačne. To je princip GIGO – garbage in – garbage out. Ako model hranite smećem, smeće ćete dobiti kao krajnji rezultat.

Chat GPT ima oko 3% halucinacija i navodno je najbolji LLM model što se toga tiče, a nastavljaju ga poboljšavati.

Stvar je u tome da morate imati dobre, široke, obimne i nepstrane setove podataka, recimo tekstova da bi model bio što bolji. Međutim, kompanijama ponestaje ljudski, stvarnih podataka, tekstova, vizuelnih materijala, a AI je gladan”.

Model ne možete hraniti podacima koje je AI već generirao, jer, kako studija pokazuju, u tim slučajevima, nekon nekoliko ciklusa hranjenja AI-generisanim podacima, dolazi do urušavanja modela.

Suvisle, koherentne, samouvjerene fabrikacije

Problem sa halucinacijama je to što zvuče ubjedljivo, suvislo iako nisu tačne. Ovo se događa zbog pretjerane optimizacije za koherentnost. Modeli funkcionišu na osnovu vjerovatnoće – biraju sljedeću reč ili frazu koja ima najveću vjerovatnoću da bude tačna. Međutim, ta vjerovatnoća ne garantuje istinitost odgovora, već samo njegovu koherentnost u datom kontekstu.

Cilj modela je da zvuči ljudski, kao da je ljudsko piće izreklo ili napisalo tekst, ali ne i da bude tačno. Pri tome, modeli djeluju sigurni u sebe i vrlo odvažno izbacuju te pačvorke riječi ili vizuala. Ta njihova ubjedljivost, sigurnost u sebe i nas prevari.

Zamislite da imate nekog ko je jako siguran u sebe i dozvoljava si da govori stvari napamet. Neupućeni ljudi će ga doživjeti kao eksperta, ali oni u manjini, a bolje upućeni će pronaći da govori gluposti.

Ali problem je dok vi objasnite cijelom svijetu da to nije tačno, glupost postaje nešto uvriježeno – baš kao sa ljudskim dezinformacijama. Zbog toga je potrebno da LLM i druge modele ne doživljavamo kao neprikoslovene autoritete. Oni su samo oruđe. No, dosta AI stručnjaka smatra kako su halucinacije neizbježne – rizik se može smanjiti, ali se ne mogu u potpunosti izbjeći.

Kako smanjiti rizik halucinacija?

Zbog toga tvorci ovih modela danas sve više guraju modele na stranu da su manje sigurni u sebe te na neka pitanja prosto odgovore iskreno”: „nemam dovoljno podataka o problemu o kojem pitate” i traže dodatna pojašnjenja. Isto tako, prilikom logovanja na neke modele vi možete birati i ton kojim vam se obraća, bilo tekstualno, bilo voice-overom. Tako možete birati empatičniji i prirodniji izraz umjesto nekog super-sigurnog.

Tvorci ovih modela nas ohrabruju da ih hranimo i to je glavni razlog zašto su osnovne verzije modela besplatne – jer inače niko ne bi davao podatke i ubacivao setove koji poboljšavaju model. Možete ocijeniti zadatak koji je uradio model i tako ga trenirati.

Recimo dosta novinara i nastavnika koristi ove modele da im edituju tekstove. Dakle, ubace u njega svoj autorski tekst i promptaju da im Chat GPT ili drugi model poboljšaju jasnoću i čitljivost teksta. Međutim, to je način na koji besplatno dajemo podatke ovim modelima. Naravno, jasno je da neko može upotrijebiti naš već objavljen i javno dostupan tekst tako što će ga ubaciti u model, ali možemo bar inicijalno pokušati da naš tekst ne bude hrana.

Problem AI halucinacija se može smanjiti korištenjem pouzdanijih i bolje kuriranih podataka, ograničavanjem domene- Ovo znači da bolje specijalizirani modeli imaju manji rizik da haluciniraju. Svakako je bitno uključivanje provjere činjenica.

Dobra strana AI halucinacija, nećete vjerovati, postoji

No, postoji i dobra strana AI halucinacija i čitavi timovi ljudi se bave ovim fenomenom – od boljeg razumijevanja, smanjenja rizika od halucinacija do upotrebe halucinacija.

AI halucinacije, iako često problematične, mogu biti korisne u kreativnim industrijama. U umetnosti i dizajnu pomažu u stvaranju nadrealnih vizija i novih umetničkih stilova. Kod vizualizacije podataka omogućavaju uvid u alternativne perspektive, što je značajno u oblastima poput finansija. U igrama i VR-u omogućavaju stvaranje inovativnih svjetova i dodaju element iznenađenja, čineći iskustva bogatijim i zanimljivijim.

Jedna od najinteresantnijih implikacija AI halucinacija iznijeta je 2024. u časopisu Wired u tekstu pod naslovom In Deffence of AI Hallucinations. U tome članku autor Stephen Levy piše sljedeće:

„Trebalo bi da slavimo ove halucinacije kao podsticaje za ljudsku kreativnost i kao barijeru koja sprečava mašine da u potpunosti preuzmu kontrolu.”

On je dodao:

„Pošto ne možemo vjerovati velikim jezičkim modelima (LLM) da budu potpuno tačni, i dalje moramo sami obavljati posao provjere činjenica. To nas održava u kontaktu sa stvarnošću – barem dok ceo posao ne prepustimo GPT-ovima.”

U nizu primjera, Levy je pokazao šta se događa kada se ljudi 100% oslone na LLM, uključujući i advokate. Postoje slučajevi oduzimanja prakse i kažnjavanja zbog potpunog oslanjanja na LLM:

„Vidjeli smo to u poznatom slučaju gde su dva advokata podnijela podnesak citirajući šest sudskih odluka za koje se ispostavilo da su u potpunosti izmišljene od strane ChatGPT-a, kojem su tražili da sastavi dokument. Sudija je kaznio advokate, postali su predmet sprdnje. Nakon toga, samo bi potpuno glup advokat koristio chatbotove kako bi iskopao presedane koji podržavaju argument, a da ne provjeri rezultate. Ispostavilo se da takvi ljudi zaista postoje. Michael Cohen trenutno služi zatvorsku kaznu zbog toga što je bio “popravljac” Donalda Trampa i apeluje svoju presudu. Svojim advokatima je dao izmišljene sudske odluke koje je izradio Googleov LLM-om pogonjen chatbot Bard, i uhvaćen je.”

Halucinacije vještačke inteligencije možda nas ponekad iznenade, nasmiju ili naprave problem ali one nas podsjećaju da mašine i algoritmi nisu savršeni – i to je u redu. Oni mogu biti polazna tačka za našu kreativnost, podstrek za provjere činjenica i podsjetnik da smo mi ti koji drže konce stvarnosti.

Umjesto da ih odbacimo, možda bismo trebali da se zabavimo i učimo iz tih zanimljivih AI izmišljenih svjetova.

 

Naslovna ilustracija nastala uz pomoć GAI.

Izvor: naukagovori.ba

Twitter
Anketa

Koliko ste vi lično zadovoljni 2024. godinom?

Rezultati ankete
Blog