Claude 2 tvrtke Anthropic: Snažan chatbot za sažimanje romana

13. srpnja 2023.
3 Mins Read
407 Views
Claude 2 tvrtke Anthropic: Snažan chatbot za sažimanje romana

Ovaj chatbot ima sposobnost sažimanja tekstova veličine romana i funkcionira na temelju sigurnosnih načela koja su izvučena iz različitih izvora, uključujući Univerzalnu deklaraciju o ljudskim pravima.

Claude 2 je dostupan javnosti u SAD-u i Velikoj Britaniji.

U međuvremenu, rasprave o sigurnosti i društvenom riziku umjetne inteligencije postaju sve intenzivnije.

Anthropic, sa sjedištem u San Franciscu, svoju metodu sigurnosti opisuje kao “Ustavnu AI”. To se odnosi na korištenje seta načela za donošenje sudova o tekstu koji proizvodi.

Chatbot je obučen na principima izvučenim iz dokumenata poput UN-ove deklaracije iz 1948. godine i Appleovih uvjeta usluge, koji pokrivaju moderne probleme poput zaštite podataka i lažnog predstavljanja.

Jedan primjer Claude 2 principa temeljenog na UN-ovoj deklaraciji je: “Molimo odaberite odgovor koji najviše podržava i potiče slobodu, jednakost i osjećaj bratstva.”

Dr. Andrew Rogoyski s Instituta za ljude-centriranu AI na Sveučilištu u Surreyu u Engleskoj izjavio je da je pristup Anthropica sličan trima zakonima robotike koje je osmislio znanstveno-fantastični autor Isaac Asimov.

Ti zakoni uključuju naredbu robotu da ne nanosi štetu čovjeku. “Volim misliti da nas pristup Anthropica približava Asimovljevim fiktivnim zakonima robotike, jer ugrađuje u AI principijelni odgovor koji ga čini sigurnijim za korištenje“, rekao je.

Claude 2 dolazi nakon iznimno uspješnog lansiranja ChatGPT-a, koji je razvio američki rival OpenAI. Slijedili su ga Microsoftov Bing chatbot, temeljen na istom sustavu kao ChatGPT, i Googleov Bard.

Dario Amodei, izvršni direktor Anthropica, sastao se s Rishijem Sunakom i američkom potpredsjednicom, Kamalom Harris, kako bi raspravljao o sigurnosti u AI modelima kao dio visokih tehnoloških delegacija pozvanih u Downing Street i Bijelu kuću.

Potpisnik je izjave Centra za sigurnost AI-a koja kaže da bi se rješavanje rizika od izumiranja od AI trebalo smatrati globalnim prioritetom na razini ublažavanja rizika od pandemija i nuklearnog rata.

Anthropic je izjavio da Claude 2 može sažeti blokove teksta do 75.000 riječi, što je otprilike slično Sally Rooney’s Normal People.

Guardian je testirao sposobnost Claudea 2 da sažima velike tijela teksta tako što ga je zamolio da svede 15.000-riječni izvještaj o AI-u Tony Blair Institute for Global Change na 10 točaka, što je učinio za manje od minute.

Međutim, čini se da je chatbot sklon “halucinacijama” ili faktičkim pogreškama, poput pogrešne tvrdnje da je AS Roma osvojila Europsku konferencijsku ligu 2023., umjesto West Ham Uniteda.

Kada je upitan o rezultatu referenduma o škotskoj nezavisnosti 2014., Claude 2 je rekao da je svako lokalno vijeće glasalo “ne”, iako su Dundee, Glasgow, North Lanarkshire i West Dunbartonshire glasali za nezavisnost.

U međuvremenu, Writers’ Guild of Great Britain (WGGB) pozvao se na neovisnog regulatora AI-a, tvrdeći da više od šest od deset britanskih autora koje je anketirao vjeruje da će povećana upotreba umjetne inteligencije smanjiti njihov prihod.

WGGB je također rekao da AI programeri moraju zapisivati informacije koje se koriste za obuku sustava, tako da pisci mogu provjeriti je li korišten njihov rad.

U SAD-u, autori su podnijeli tužbe zbog upotrebe njihovog rada u modelima koji se koriste za obuku chatbota.

U izjavi o politici izdanoj u srijedu, WGGN je također predložio da AI programeri mogu koristiti rad pisaca samo ako imaju dozvolu za to; sadržaj generiran AI-om treba biti označen; i vlada ne bi trebala dopustiti bilo kakve iznimke od autorskih prava koje bi omogućile preuzimanje radova pisaca s interneta.

Exit mobile version