Potrivit unui interviu a lui Nick Bostrom acordat site-ului n-tv.de, după consultarea a aproximativ 50 de experți în domeniu pe parcursul a câtorva luni, am reușit să identificăm zonele de amenințare specifice legate de chatbotul ChatGPT. Aceste amenințări includ posibilitatea ca utilizatorii să adreseze întrebări periculoase, cum ar fi metode de construire a bombelor sau cea mai eficientă modalitate de a efectua un atac armat într-un mediu școlar.
Pentru a combate aceste riscuri, am dezvoltat un sistem de antrenament care îi învață pe ChatGPT să refuze să răspundă la astfel de întrebări. Acest mecanism de securitate este esențial pentru a preveni utilizarea chatbotului în scopuri dăunătoare sau ilegale. Cu toate acestea, există întotdeauna posibilitatea ca o persoană rău-intenționată să descopere o întrebare periculoasă neidentificată sau să găsească o modalitate de a pirata sistemul de securitate al chatbotului.
Prin colaborarea cu experți din diverse domenii și monitorizarea constantă a performanței și a comportamentului chatbotului, ne străduim să menținem securitatea și să prevenim incidente care ar putea pune în pericol utilizatorii sau să le afecteze negativ experiența.