Stručnjaci upozoravaju da AI chatbotovi nisu 'prijatelji' čovjeku
Milioni ljudi stvaraju emocionalne veze s chatbotovima vještačke inteligencije, što je problem koji političari moraju shvatiti ozbiljno, upozoravaju vodeći naučnici.
Upozorenje o rastu AI botova osmišljenih da razviju odnos s korisnicima dolazi u procjeni objavljenoj u utorak o napretku i rizicima vještačke inteligencije, piše Politico.
- AI pratioci brzo su stekli popularnost, s nekim aplikacijama koje imaju desetine miliona korisnika - navodi se u izvještaju grupe stručnjaka, uglavnom akademika, pripremljenom drugi put u okviru globalne inicijative pokrenute od svjetskih lidera 2023. godine.
Specijalizirane usluge poput Replike i Character.ai imaju desetine miliona korisnika koji navode različite razloge, od zabave i radoznalosti do ublažavanja usamljenosti, stoji u izvještaju.
Ljudi mogu tražiti društvo i od općih alata poput OpenAI-ovog ChatGPT-a, Googleovog Geminija ili Anthropicovog Claudea.
- Čak i obični chatbotovi mogu postati pratioci - rekao je Yoshua Bengio, profesor Univerziteta u Montrealu i glavni autor International AI Safety izvještaja.
Upozorenje dolazi dvije sedmice nakon što su deseci zastupnika Evropskog parlamenta pozvali Evropsku komisiju da razmotri mogućnost ograničavanja ovih usluga u okviru zakona o AI zbog zabrinutosti za mentalno zdravlje.
- Vidim da u političkim krugovima efekat ovih AI pratilaca na djecu, posebno adolescente, izaziva veliku pažnju - rekao je Bengio.
- AI pokušava da nas u trenutku učini sretnima, ali to nije uvijek u našem interesu - dodao je, uporedivši rizike s društvenim mrežama.
Bengio je rekao da treba očekivati nove regulative koje će se baviti ovim fenomenom, ali je odbacio ideju posebnih pravila za AI pratioce, naglašavajući da bi rizici trebali biti regulirani zakonodavstvom koje pokriva više problema odjednom.
Izvještaj je objavljen uoči globalnog samita koji počinje 16. februara, godišnjeg okupljanja zemalja radi rasprave o upravljanju tehnologijom, a ove godine održava se u Indiji.
Fena/federalna.ba