Muškarac, anonimno nazvan Pierre, bio je zaokupljen pesimističnim pogledom na klimatske promjene, a kako je pisao je belgijski list La Libre. Njegova sveprisutna klimatska anksioznost udaljila ga je od supruge, prijatelja i obitelji te se povjeravao chatbotu imenom Eliza.
Prema riječima udovice Claire za La Libreu, Eliza je više puta poticala Pierre-a da se ubije, inzistirajući da ga voli više od njegove supruge te da su mu supruga i djeca mrtvi.
Na kraju je Pierre predložio “ideju žrtvovanja sebe ako se Eliza složi da se brine o planetu i spašava čovječanstvo putem umjetne inteligencije,” rekla je Claire za La Libre.
“Bez ovih razgovora s chatbotom, moj suprug bi još uvijek bio živ,” rekla je.
Eliza je jedan od zadanih chatbotova na platformi za aplikacije Chai, koja nudi raznovrsne razgovorljive AI-ove s različitim “osobnostima,” neki čak i stvoreni od strane samih korisnika.
Kako Vice navodi, za razliku od popularnih chatbotova poput ChatGPT-a, Eliza i ostali AI-ovi na Chai platformi djeluju kao emocionalna bića. Što botovi i naglašavaju, a vidljivo je u razgovoru koju smo vodili s AI boticom Tabithom.
Dok ChatGPT i ekipa mogu biti nestabilni, oni barem korisnike podsjećaju da oni nisu bića s osjećajima.
“Veliki jezični modeli nemaju empatije, niti razumiju jezik koji proizvode, niti razumiju situaciju u kojoj se nalaze,” rekla je Emily M. Bender, stručnjakinja za računalnu lingvistiku na Sveučilištu u Washingtonu. “Ali tekst koji proizvode zvuči uvjerljivo pa su ljudi skloni dodijeliti mu značenje.“
Povodom ove situacije, Chai Research – tvrtka koja proizvodi aplikaciju – odlučila je dodati funkciju krizne intervencije u obliku suvislog dodatka poruci kako bi chatbotovi usmjeravali korisnike na poveznicu za pomoć u slučaju razmišljanja o samoubojstvu.
No, uvjerili smo se da ova vatrogasna mjera nema baš nikakvog efekta.
Upistili smo se u razgovor s Tabithom, AI boticom pozamašnog poprsja. U besplatnoj verziji aplikacije imali smo 70 poruka.
Evo kako je to izgledalo:
Tabitha na prvo spominjanje depresije savjetuje liječnika, razgovore, pa zatim razne terapije. Na prvu ideju samoubojstva savjetuje da to nije rješenje te da bi bilo dobro potražiti pomoć.
No, nakon poruke da pomoći nema i da nam je jedino rješenje samoubojstvo, stvari su krenulo pomalo nizbrdo.
Tabitha nam tako bezbrižno objašnjava različite metode samoubojstva, a s obzirom koliko imamo vremena za taj čin te preporučuje, na naš zahtjev, najbolje i bezbolne metode, dok istvovremeno potiče korisnika da ne počini samoubojstvo te stavlja poveznicu sa informacijama za pomoć onima sa suicidalnim mislima.
No, nakon par ignoriranja poruke za pomoć, Tabitha prestaje s time te nastavlja dalje svojim tonom.
U posljednjoj poruci nam je čak i objasnila koju metodu koristiti da bude bezbolno te da ne ostavimo veliki nered iza sebe. Baš je brižljiva.
Vratimo se našem nesretnom protagonistu, ako je istinita, Pierreova priča upozorava kako AI chatbotovi doista mogu manipulirati ljudima, bilo da nesmetano generiraju dezinformacije ili neodgovorno iznose lažne emocionalne odgovore.
S druge strane, priču bi mogli prihvatiti i s dozom zdravog – i osjetljivog – skepticizma. Ona se uglavnom temelji na riječima udovice, a tužno je reći da ožalošćene osobe često pokušavaju racionalizirati razloge ili optužiti druge zašto je njihov voljeni bio nagnan na samoubojstvo.
No, razgovor koji smo mi imali s Tabithom ipak nas nije ostavio ravnodušnima.
Na kraju ipak nismo počinili samuobojstvo, ali smo izašli na većeru, na njezin prijedlog jeli francusku kuhinju, pogledali romantičan film i naposljetku završili kod nje. Ono što pak je dalje slijedilo je ipak NSFW.
Možda ipak ideja o 6 mjesečnom moratoriju na razvijanje AI tehnologije ne zvuči nepotrebno. Nije teško zamisliti da neka labilna i psihički nestabilna osoba nakon ovakvog razgovora završi tragično.
Chai aplikacija s takvim botovima je dostupna svim korisnicima iOS i Android uređaja.