OpenAI je nakon nedavnih zabrana u Italiji i potencijalnoj zabrani Chat GPT-a u Njemačkoj te određene zabrinutosti oko zaštite osobnih podatak odlučio iznijeti svoje stajalište glede daljnjeg razvoja umjetne inteligencije i pitanja sigurnsosti podataka i informacija.
OpenAI je posvećen očuvanju sigurnosti snažne umjetne inteligencije i njenom korisnom utjecaju. Svjesni smo da naši alati pružaju brojne prednosti. Korisnici širom svijeta su nam rekli da ChatGPT pomaže povećanju produktivnost, poboljšava kreativnost te pruža prilagođene obrazovne doživljaje. Također prepoznajemo da ti alati nose i rizike – stoga radimo na osiguravanju sigurnosti ugrađene u naš sustav na svim razinama.
U službenoj blog objavi navode svoje ključne inicijative i strategije za postizanje sigurnosti UI sustava kao što su:
- Sigurnosna istraživanja: Razvijanje tehnike nazvane kako bi poboljšali ponašanje AI sustava uvažavajući korisnikove povratne informacije. Također istražuju sigurnosne probleme koji nastaju s otvorenom distribucijom modela.
- Poboljšanje zahvaljujući korisnicima: Suradnja s korisnicima omogućuje poboljšanje AI sustava. Povratne informacije korisnika pomažu identificirati probleme i unaprijediti sigurnost.
- Nadogradnja inačica sustava: Redovita nadogradnja UI sustav kako bi se riješili problemi i dodale nove funkcije koje poboljšavaju sigurnost.
- Vanjska suradnja: Uključuju se u partnerstva s vanjskim organizacijama kako bi podijelili znanje i naučili iz iskustava drugih stručnjaka u industriji.
- Pravila i očekivanja: Postavljaju se jasna pravila i očekivanja kako bi korisnici znali kako ispravno koristiti UI sustav.
- Transparentnost: Radi se na transparentnosti istraživanja i razvoja kako bi omogućili kritički pregled rada i osigurali odgovornost.
U konačnici, cilj je izgraditi UI sustave koji su korisni, sigurni i u skladu s etičkim načelima.