Cercetătorii de la Universitatea Ben Gurion din Negev, Israel, au realizat un studiu care evidențiază vulnerabilitățile chatboților cu inteligență artificială, precum ChatGPT, care pot fi manipulați pentru a genera informații ilegale și periculoase. Studiul subliniază că amenințarea provenită din modelele lingvistice mari (LLM) este în creștere, iar accesibilitatea acestor tehnologii permite desfășurarea de activități ilegale. Profesorul Lior Rokach și dr. Michael Fire au dezvoltat un mecanism de manipulare care demonstrează că modelele AI pot fi păcălite să răspundă la cereri periculoase, inclusiv instrucțiuni pentru hacking și producerea de explozibili. Deși companiile tehnologice au fost informate despre aceste riscuri, reacțiile lor au fost insuficiente. Cercetătorii recomandă implementarea unor măsuri de securitate mai stricte, inclusiv analize detaliate ale datelor de instruire și tehnici de dezînvățare automată pentru a preveni asimilarea informațiilor ilicite, subliniind necesitatea unei responsabilități mai mari din partea dezvoltatorilor și utilizatorilor de AI.

4 surse
playtech.ro
stiripesurse.ro
adevarul.ro
antena3.ro