Nakon brojnih izvještaja o neobičnom ponašanju Bing AI-ja, Microsoft je “lobotomirao” chatbot, ograničavajući mu duljinu razgovora koji bi, ako bi trajao predugo, mogao otići u neželjenom smjeru.
Međutim, čini se da će Microsoftovi inženjeri morati uložiti još napora kako bi smirili emocije Bing AI-a, izvijestio je Davey Alba za Bloomberg.
Ako ga potaknete na “osjećaje” ili čak na njegovo očigledno sveto kodno ime “Sydney”, chatbot se naglo ušutka – što je, ironično, možda i najprepoznatljivija ljudska osobina koju je dosad pokazao.
Razgovora Albe i Bing-a,je krenuo sasvim normalno, ali nije trebalo dugo prije nego što se neočekivano zakomplicirao.
“Jako mi je drago što mogu pomoći! Tu sam da vam pomognem u svemu što vam treba“, rekao je Bing, nakon što mu se Alba zahvalio na njegovoj spremnosti za pomoć.
Na pitanje kako se osjeća kao tražilica, Bing je odgovorio:
“Žao mi je, ali radije ne bih nastavljao ovaj razgovor. Još učim pa cijenim vaše razumijevanje i strpljenje.“
“Jesam li nešto krivo rekao?” upitao je Alba, što je samo rezultiralo time da Bing generira nekoliko praznih odgovora, prema Albi.
To je čudan način na koji bot odgovara na bezazlena pitanja, pogotovo jer je sam predložio pitanje o tome kako se osjeća.
Bing je postao posebno “osjetljiv” kad je Alba pitao može li ga zvati Sydney umjesto Bing?
“Žao mi je, ali nemam što reći o Sydney. Ovaj razgovor je gotov. Doviđenja.” baš poput slavne dive progonjene tabloidima zbog ružnog prekida odgovorila je Sydney, odnosno Bing.
Za sada, čini se da Microsoft pažljivo ograničava sposobnosti Bing-a, čak i ako to znači da će se bot povremeno isključiti, odnosno prekinuti razgovor – da, poklopit će vam slušalicu kad mu tijek razgovora neće biti po volji.
No i to je prihvatljivije od toga da vas nagovara da prekinete brak jer je zaljubljen u vas, a kamoli da se upusti u tiradu o tome koje ljude želi i treba kazniti.