Unatoč pričanjima o gubitku poslova uzrokovanih AI-jem, stvarnost je puno drugačija, a u zadnje vrijeme i uvjerljiva – AI ne dolazi po vaš posao, već da radi uz vas zbog rizika od “kolapsa modela”.
Kolaps modela, pojava opisana u članku Roberta McMillana za Wall Street Journal “AI otpad počinje zagađivati Internet,” događa se kada veliki modeli učenja postanu manje korisni dok probavljaju podatke koje su sami stvorili.
Porast upotrebe AI-ja za generiranje sadržaja mogao bi pridonijeti ovom problemu.
Kako se sadržaj generiran AI-jem širi, ovi modeli mogu završiti trenirajući na vlastitim rezultatima, što s vremenom dovodi do smanjenja kvalitete njihovih predviđanja.
To je kao da stalno skenirate i printate istu fotografiju, što na kraju smanjuje njezinu kvalitetu i detalje.
No, nije problem samo u treniranju modela sadržajem kojeg je kreirao AI, problem je i u samoj kvalitetu sadržaja kojeg je proizveo čovjek.
Jeste li u posljednje vrijeme pratili neki, domaći, medij i pitali se koja je svrha tog članka, reportaže, video zapisa? Što je autor želio reći? Ili ste ostalo šokirani što se nitko u procesu izrade tog članka nije sjetio provjeriti činjenice koje se u njemu iznose.
Internet je već ionako prepun otpada kojeg je kreirao čovjek.
Međutim, ovaj nadolazeći problem, vezan uz AI sadržaj, nije nepremostiv.
Ilia Shumailov, istraživač na Sveučilištu Oxford, u skupini za primijenjeno i teorijsko strojno učenje, sugerira da postoje potencijalna tehnička rješenja za ovaj problem. Tvrtke koje imaju pristup sadržaju generiranom od strane ljudi i dalje će moći izgraditi visokokvalitetne velike jezične modele.
Iako porast sadržaja generiranog AI-jem predstavlja nove izazove poput kolapsa modela, kontinuirana upotreba sadržaja generiranog od strane ljudi i razvoj tehničkih rješenja mogu pomoći ublažavanju ovih problema.
Izgleda da se putovanje AI-ja po našim radnim mjestima oblikuje kao priča o suživotu, a ne osvajanju.