Jedan od najglasnijih kritičara umjetne inteligencije uputio je ozbiljan apel ne samo da se pauzira razvoj AI-ja, već i da ga u potpunosti zaustavimo — prije nego što on okonča nas.
U članku za Time, majstor strojnog učenja Eliezer Yudkowsky, koji već više od dva desetljeća upozorava na distopijsku budućnost koja će nastupiti kada postignemo umjetnu opću inteligenciju (AGI), ponovno poziva na uzbunu.
Yudkowsky je rekao da, iako pozdravlja potpisnike nedavnog otvorenog pisma Instituta za budućnost života – među kojima su izvršni direktor SpaceX-a Elon Musk, suosnivač Applea Steve Wozniak i bivši predsjednički kandidat SAD-a Andrew Yang – koji pozivaju na šestomjesečnu pauzu u razvoju AI-ja kako bi se sagledala situacija, on sam to nije potpisao jer smatra da to nije dovoljno.
“Uzdržao sam se od potpisivanja jer mislim da pismo umanjuje ozbiljnost situacije,” napisao je Yudkowsky, “i traži se premalo da bi se problem riješio.“
Kao dugogodišnji istraživač AGI-ja, Yudkowsky kaže da ga manje brine “ljudski konkurentan” AI nego “ono što se događa poslije.“
“Ključni pragovi tamo možda nisu očiti,” napisao je, “Definitivno ne možemo unaprijed znati ni predvidjeti što se događa kada se prijeđe prag u kojem AGI postaje superiorniji, i trenutno se čini sasvim realno da bi istraživački laboratoriji mogli prijeći tu kritičnu granicu, a da to ne primijete.“
Nekada kritiziran u Bloombergu zbog toga što je AI “pesimist,” Yudkowsky kaže da nije jedini koji tako razmišlja i vjeruje da je najvjerojatniji ishod izgradnje superiorno inteligentnog AI-ja, da će na Zemlji doslovno svi umrijeti.
On ima i dokaze koji to potkrepljuju, navodeći anketu stručnjaka u kojoj su se mnogi ispitanici duboko zabrinuli zbog “egzistencijalnih rizika” koje AI predstavlja.
Prema Yudkowskom, postoji samo jedno rješenje za nadolazeću egzistencijalnu prijetnju “neprijateljske” superljudskog AGI-a: “jednostavno sve zatvoriti,” bilo kojim sredstvima neophodnim.
“Zatvorite sve velike GPU klastere (velike računalne farme gdje se najmoćniji AI-ji razvijaju),” napisao je. “Zatvorite sve velike treninge i učenja. Stavite granicu na količinu računalne snage koju bilo tko smije koristiti u treniranju AI sustava i pomaknite je prema dolje tijekom nadolazećih godina kako bi se nadoknadili učinkovitiji algoritmi treninga. Nema iznimaka za vlade i vojske.“
Ako netko prekrši te buduće anti-AI sankcije, istraživač strojnog učenja napisao je, trebalo bi doći do pakla na Zemlji.
“Ako obavještajci kažu da zemlja izvan sporazuma gradi GPU klaster, manje se moramo bojati sukoba između naroda nego kršenja tog moratorija,” savjetovao je. “Budimo spremni uništiti odmetnuti podatkovni centar zračnim udarom.“
Navodeći razgovor s partnericom i majkom svog djeteta, Yudkowsky je rekao da se par brine da njihova kći Nina neće preživjeti do odrasle dobi ako ljudi nastave graditi sve pametnije AI-je te je pozvao one koji također izražavaju zabrinutost zbog toga da zauzmu sličan čvrst stav, jer ako to ne učine, to znači da će i njihova djeca umrijeti.
S takvim “a što je s djecom” stavom, odnosno nije teško vidjeti zašto je Yudkowski nazvan “pesimistom” nakon što se sukobio s OpenAI-jevim Samom Altmanom na Twitteru.
Ipak, ako netko tko je doslovno posvetio život proučavanju opasnosti distopijske budućnosti koju nam donosi umjetna intelginecija kaže da se približavamo onome na što je upozoravao, njegovo mišljenje možda vrijedi poslušati.