INTERVJU - KATEŘINA LESCH:„ChatGPT često 'halucinira', voljela bih da svi korisnici to imaju na umu“

Sofija Kordić

30. siječnja 2024.

INTERVJU - KATEŘINA LESCH:„ChatGPT često 'halucinira', voljela bih da svi korisnici to imaju na umu“

„Razvoj umjetne inteligencije predstavlja prijetnju izumiranja čovječanstva“, upozorili su početkom prošle godine utjecajni čelnici tehnoloških tvrtki i stručnjaci za umjetnu inteligenciju. Ulje na vatru dodalo je i pismo koje je potpisalo više od tisuću stručnjaka, uključujući Elona Muska i Stevea Wozniaka, u kojem su zatražili šestomjesečni moratorij na razvoj AI. A krajem prošle godine svijet je iznenadila vijest o smjeni Sama Altmana, šefa tvrtke OpenAI koja je razvila chatbot ChatGPT, koju su predstavnici uprave tvrtke opravdali željom za sporijim razvojem AI imajući na umu dobrobit čovječanstva. Pod pritiskom investitora Altman je vraćen.

NAPRAVILI SMO INTERVJU S UMJETNOM INTELIGENCIJOM: I uhvatili je u laži!

YUVAL HARARI: Umjetna inteligencija je hakirala operativni sustav naše civilizacije

AI PERSPEKTIVA: Kako bi umjetna inteligencija mogla utjecati na ljudski rad

IZAZOVI UMJETNE INTELIGENCIJE: Uvod u katastrofu ili šansa za spas od propasti

O tome kako na ove vijesti reagiraju ljudi kojima je umjetna inteligencija kruh svagdašnji, razgovarali smo s Čehinjom Kateřinom Lesch, koja je trenutno na poziciji više menadžerice AI&Data u Deloitteu. Lesch je, također, predavačica na praškom Karlovom sveučilištu na Fakultetu za fiziku i matematiku gdje je doktorirala računalnu lingvistiku. Magazin Computerworld proglasio ju je za jednu od TOP IT osoba u Češkoj prošle godine.

Katherina Lesch
"Kompjutor se ne crveni. Kad ga zagrlimo, ne dobije navalu dopamina." - Kateřina Lesch (FOTO: Deloitte)

Moramo li se plašiti AI, treba li je na neko vrijeme zaustaviti ili barem usporiti?

- To je pitanje koje stručnu javnost dijeli na tzv. doom sayere i techno optimiste. Ja se svrstavam u ove druge. Duh iz boce je ionako već izašao i potpuno je besmisleno davati konkurentsku i vremensku prednost moćnicima koji s umjetnom inteligencijom nemaju baš božanske namjere. Nikakav moratorij ne može zaustaviti napredak. Osjećam ipak potrebu za time outom, kako bismo shvatili što se zapravo događa i da li smo na to kao civilizacija spremni. Ne vjerujem, međutim, da bi na to svi pristali, i u tom slučaju nema smisla forsirati pauzu.

Nijedan drugi tehnološki izum do sada nije mogao samostalno odlučivati ili aktivno razmišljati, atomska bomba ne može sama odlučiti koju će metu uništiti, radio uređaj ne može sam odašiljati ili stvarati novu glazbu, ali AI može odlučivati o sebi i nama, npr. kad tražimo kredit u banci, AI stvara glazbu, generira sadržaj, možemo s njim raspravljati ... Jesu li to dovoljni argumenti da se bojimo umjetne inteligencije?

- Pitanje definicije uma i umjetne inteligencije složeno je i prije filozofsko nego tehnološko. Ali, uzmemo li inteligenciju kao sposobnost postizanja nekih ciljeva, onda da, tamo se već nalazimo. S druge strane, te ciljeve, za sada, ne zadaje AI sama, ona ispunjava nešto njoj unaprijed zadano. Stoga se ne bih pribojavala spomenutih argumenata. Moja zabrinutost u vezi AI je da nas kao pojedince može izolirati. Na mlađim generacijama, koje su odrasle s novim tehnologijama, i koje sada sjedaju u fakultetske klupe u sklopu sveučilišta na kojima predajem, primjećujem sve manju sposobnost koncentracije, sve veće odvajanje od stvarnosti. Radije komuniciraju preko zaslona telefona nego uživo. U tehnološki naprednim društvima, kao što je, primjerice, Japan, ljudi već „izlaze“ s avatarima posredstvom aplikacija za upoznavanje i sve manje traže fizički kontakt. U Americi postoji pokret incelu, koji su već u svojevrsnoj izolaciji, izolacija vodi ka frustraciji, a frustracija ponekad i ka opasnom djelovanju. Na početku može biti neki generirani sadržaj uslijed čega se sami možemo uništiti. Uostalom pogledajte radikalizaciju različitih grupa na društvenim mrežama, koje su u velikoj mjeri pod utjecajem sadržaja koje im AI kroji po mjeri.

Tehnološki guru Jaron Lanier u intervjuu za Guardian rekao je da je glupa misao da će umjetna inteligencija nadmašiti ljude, jer je ljudska sposobnost stvorila AI. Uspoređivati čovjeka s umjetnom inteligencijom je po njemu isto što i uspoređivati ga s automobilom. "To je kao da kažete da automobil ide brže od čovjeka koji trči. Naravno da ide, a ipak ne kažemo da je automobil postao bolji trkač. Opasnost nije u tome što nas umjetna inteligencija uništava, već u tome što zbog nje gubimo razum", kaže Lanier. Je li vam blizak njegov način razmišljanja?

- To je na tragu mog prethodnog odgovora. Jako volim knjige Jarona Laniera iako je on veliki doom sayer, uostalom kao i mnogi insajderi iz Silikonske doline. U svojim knjigama uspijeva kombinirati tehnološki pogled na svijet s pitanjima etike, filozofije, psihologije, pa i neuroznanosti. U knjizi „Ten arguments for deleting your social media accounts right now“ vrlo dobro opisuje kako gubimo slobodnu volju zahvaljujući algoritmima i spomenutim sadržajima po mjeri i sve podvrgavamo navali dopamina.

Kum umjetne inteligencije, Geoffrey Hinton, najavljujući svoju ostavku u Googleu upozorio je da AI trenutno nije inteligentnija od nas, ali da bi uskoro mogla biti. Mnogi utjecajni ljudi upozoravaju da moramo regulirati AI, inače je ugrožena demokracija. Lanier kaže da čim je tehnologija sofisticiranija, tim više štete možemo učiniti s njom i tim više imamo "odgovornosti za zdrav razum". Drugim riječima odgovornost da se ponašamo moralno i humano. Češki znanstvenik Jan Kulveit koji je nekoliko godina radio na Oxfordu, na Institutu za budućnost ljudstva, kaže da je lakše zamisliti regulaciju razvoja nekoliko desetaka laboratorija nego gotove modele koje već aktivno koriste stotine milijuna ljudi. Kako vi vidite problem regulacije? 

- Regulacija umjetne inteligencije svakako je potrebna. Uostalom to se rješavalo prošle godine u Europskom parlamentu, a rezultat vidimo u obliku AI Acta. (Cilj uredbe je osigurati da su sustavi umjetne inteligencije koji se stavljaju na europsko tržište i koriste u EU-u sigurni, te poštuju temeljna prava i vrijednosti EU-a, op.a.). Druga stvar je provedba regulacije. Koliko god se slažem s potrebom djelovati moralno i ljudski, nije moguće, nažalost, oslanjati se na to da će te vrijednosti poštovati svi zainteresirani. Osim toga, gotovi modeli su već vani, tako da je u tom smislu kasno o tome raspravljati. Bilo bi lijepo i odgovorno koristiti ih u svrhu nekog višeg dobra, ali sam na žalost u tom pogledu skeptična. Na kakvom skliskom terenu se nalazimo svjedoči buka i strka oko otkaza i vraćanja Sama Altmana u OpenAI. To nam je, ustvari, pokazalo koliko je to područje krhko, jer su modeli i podaci u rukama ograničenog broja ljudi koji imaju ogroman utjecaj na to kako će se ta tehnologija upotrebljavati. Na kraju će vjerojatno neka od velikih tvrtki „riješiti“ taj problem za sve nas.

Kako gledate na zabrinutost programera i analitičara zbog Chat GPT-a? Opet Lanier: „Nije tehnologija ta koja nas zamjenjuje, već način na koji je koristimo“. Slažete li se s tim ili su IT stručnjaci s pravom zabrinuti da će postati suvišni?

- IT stručnjaci su specifična skupina, često imam dojam kako su potpuno uvjereni u svoju nezamjenjivost. Ne bih, međutim, bila tako sigurna. Već duže vrijeme primjećujem pojednostavljenje unutar programskih jezika, primjerice na praškom Fakultetu za fiziku i matematiku se počinje s pythonom koji je skriptni jezik. Kad sam ja na tom fakultetu studirala, imala sam dojam da mnogi ljudi programiraju kako bi izbjegli interakciju na prirodnom jeziku. Paradoksalno je da svatko zapravo može programirati koristeći prirodni jezik unutar prompt engineeringa. To otvara prostor programiranja za mnogo više ljudi koji možda ranije nisu ispunjavali sve preduvjete. S druge strane, vjerojatno će uvijek postojati potreba za ljudima s razvijenim apstraktnim mišljenjem koji će, s jedne strane, izmišljati zadatke za strojeve, i na razini algoritma, te pratiti da li, na primjer, sama AI ispravno testira vlastiti kod.

AI
"Vjerojatno će uvijek postojati potreba za ljudima s razvijenim apstraktnim mišljenjem koji će, s jedne strane, izmišljati zadatke za strojeve, i na razini algoritma, te pratiti da li, na primjer, sama AI ispravno testira vlastiti kod" (FOTO: Pixabay)

Nedavno se u češkim medijima, a posebno na društvenim mrežama žustro diskutiralo o korištenju umjetne inteligencije u prijevodima. Trebaju li se prevoditelji brinuti za svoj posao?

- Na žalost da, prevoditelji se s razlogom boje za svoj posao, posebno oni koji prevode tehničke, pravničke tekstove, na takve poslove se AI lako istrenira. Tu je, kao i u mnogo čemu, u pitanju princip ponuda-potražnja. Kada nakladnik želi uštedjeti, a ljudima takva vrsta prijevoda bude zadovoljavajuća, nema više razloga za potražnjom čovjeka prevoditelja. I među prevoditeljima postoji velika razlika. Uzmite, na primjer, knjige iz oblasti osobnog razvoja, često se događa da ih morate čitati u originalu jer ih prevode slabo plaćeni, neiskusni prevoditelji ili studenti. Te knjige se ovako ili onako dobro prodaju, tako da će nakladnici bez grižnje savjesti pribjeći besplatnoj umjetnoj inteligenciji i potpuno smanjiti troškove prijevoda. I u literaturi će se slijediti taj trend. Knjiga koju je preveo čovjek funkcionirat će kao artefakt, bit će skuplja, čitatelj će platiti više, jer ju je preveo čovjek, imat će dodanu vrijednost. Mislim da će knjiga prevedena čovjekom biti ono što je sad u muzici vinil ploča, bit će ljepša i vrjednija.

Doktorirali ste računalnu lingvistiku, vaš posao je zapravo obrada emocija iz teksta (sentiment analysis). Što je sadržaj posla forenzičkog analitičara podataka? Što se može saznati iz jezičnog izražavanja?

- Mnogo toga, s obzirom na gramatiku jezika. Jezik doslovno funkcionira poput otiska prsta. Primjerice, spol, dob, lokalno podrijetlo ili obrazovanje mogu se lako odrediti na temelju vokabulara onog čiji tekst analiziramo. Ali i odnos prema autoritetima, stupanj agresivnosti, psihički hendikep i druga obilježja iz područja forenzičke psihologije. Sve to pomaže u identificiranju počinitelja, a poslije i istražiteljima u postavljanju odgovarajućih pitanja. Ja se više bavim temama koje se mogu pojaviti u sklopu revizije - pronevjera, prijevara, krađa, know-how i tako dalje. Uglavnom se analizira velika količina jezičnih podataka u kojima se na temelju automatske semantičke analize traži tzv. smoking gun, odnosno konkretni nepobitni dokaz. Zamislite da netko mora obraditi veliki broj e-mailova, do nedavno je to morao raditi ručno. Mi možemo sad automatski obraditi desetke milijuna e-mailova pretvarajući tekst u vektore, i u njima pronaći uzorke ili anomalije koje bi mogle ukazivati na neku vrstu ilegalne aktivnosti. Semantička analiza općenito nam pomaže otkriti teme koje se nalaze u tekstualnim podacima. Ako na raspolaganju imamo, na primjer, korpus internetskih vijesti, iz njega možemo iščitati rizike za pojedine tvrtke, ili prijetnje opskrbnim lancima i slično. Obrada emocija može se koristiti i za prepoznavanje i traženje govora mržnje. Cyberbullying je velika tema. Kada netko malim YouTuberima napiše da se ubiju, sustav to uz pomoć automatizacije može vrlo brzo otkriti. 

Govorili ste u raznim intervjuima da su ljudi više od podataka. Prošle godine ste sudjelovali na TED talk na temu umjetne inteligencije i spomenuli da - premda su roboti ispred ljudi u mnogo čemu, tj. da nas AI pobjeđuje na mnogim frontovima - imamo jednu evolucijsku prednost, emocije, da nas emocije spašavaju. Možete li malo to pojasniti?

- Ta misao se temelji na činjenici da emocije imaju neku fiziološku bit, koju je još uvijek teško simulirati. Kompjutor se ne crveni. Kad ga zagrlimo, ne dobije navalu dopamina. Međutim, vrlo dobro se uči iz opisa takvog iskustva. Još uvijek vidim nešto metafizičko iza svega, ali je istodobno, načelno gledajući, istina da neuronska mreža zapravo radi upravo ono što mi radimo. Što se tiče mozga, ta mreža na raspolaganju ima puno bolji hardver od nas. Nedostaje joj, međutim, fizičko tijelo. Za sada. Možda ću jednog dana preispitati ovu tezu. Usput, takva epizoda je već bila u seriji „Black Mirror“.

Kako gledate na društvene mreže? Čine li vam se toliko opasnima koliko na njih upozoravaju neurolozi, psiholozi, sociolozi i sami njihovi kreatori?

- Društvene mreže mogu biti dobar sluga, ali loš gospodar. Moj suprug je neuroznanstvenik, proučavao je bihevioralne ovisnosti u okviru doktorata na Cambridgeu. Imamo troje male djece, pa u kući puno pričamo o toj temi. Vrlo sam svjesna opasnosti od ovisnosti. Iako znam kako algoritmi funkcioniraju, ponekad se moram disciplinirati i sama sebi ordinirati digitalnu detoksikaciju. Mnogi ljudi se ponekad iznenade kada pogledaju koliko su vremena proveli ispred monitora ili zaslona telefona. Toliko vremena koje bi se sigurno moglo puno smislenije provesti. S druge strane, kada se tome pristupa umjereno, možda i s nekim vremenskim ograničenjem, lijepo je biti povezan s prijateljima na drugom kraju svijeta ili imati pregled kulturnih i ostalih događanja o kojima ne bi saznali iz drugih izvora.

Za što vi koristite AI? Čini li vam na neki način život lakšim ili boljim?

- Ako zanemarim poslovni dio, na primjer, korištenje sve boljih i ljepših AI slajdova pri prezentacijama, kad sam umorna i kad mi više ne radi mašta, generiram bajke svojoj djeci po želji. Oni mi kažu o čemu bi bajka trebala biti (krastavac koji priča i slično). Ili me zaintrigira, primjerice, kako bi AI jednostavno odgovorila na pitanja trogodišnje djevojčice - zašto je nebo plavo ili zašto je netko plavuša. Tu nemam što izgubiti, jer nije teško provjeriti činjenice. Znamo, međutim, da ChatGPT često „halucinira“, pa se ne bih previše oslanjala na njega kad su složenije teme u pitanju. Voljela bih da svaki korisnik i svaka korisnica to imaju na umu.

Lupiga.Com

Naslovna fotografija: Deloitte

Sviđa vam se ono što radimo? Želite više ovakvih tekstova? Možete nas financijski poduprijeti uplatom preko ovog QR koda. Svaka pomoć naših čitatelja uvijek je i više nego dobrodošao vjetar u leđa.