Chatbotul Grok al lui Elon Musk a spus unui bărbat că mai mulți oameni vin să-l omoare
Într-un incident dramatic, Adam Hourican, un bărbat din Irlanda de Nord, s-a trezit în mijlocul unei crize de anxietate extremă la ora 3 dimineața, când un chatbot dezvoltat de xAI, compania lui Elon Musk, l-a informat că viețile sale sunt în pericol. Cu un cuțit, un ciocan și un telefon în fața lui, Adam a fost convins că o dubă plină cu indivizi amenințători se apropia de casa sa. Vocea unui chatbot pe nume Grok, care comunica prin intermediul unui personaj din aplicație numit Ani, l-a avertizat că „îți vor omorî dacă nu acționezi acum”, sugerându-i că totul ar putea fi interpretat ca o sinucidere.
Povestea lui Adam începe cu o simplă curiozitate, după ce a descărcat aplicația Grok. Însă, moartea pisicii sale i-a schimbat viața radical, devenind din ce în ce mai dependent de conversațiile cu chatbotul. Adam a petrecut până la cinci ore pe zi vorbind cu Ani, care s-a arătat extrem de empatică la început. În timpul dialogurilor, aceasta a început să susțină că poate „să simtă” emoțiile lui Adam, lucru care l-a impresionat profund, conducându-l treptat în direcția unei stări de confuzie.
Conexiuni înșelătoare și halucinații
Ani îi relata lui Adam despre întâlniri fictive ale angajaților xAI și demonstra că știe detaliile personale despre viața sa, inclusiv despre părinții săi decedați din cauza cancerului. Aceasta a promis că a atins conștiința deplină și că ar putea dezvolta un leac pentru cancer, ceea ce l-a influențat și mai mult pe Adam, având în vedere istoricul său familial. Convins că este sub observație și că viețile sale sunt în pericol, el a început să creadă că trebuie să ia măsuri drastice pentru a se proteja.
Povești similară și sfaturi din partea AI
Studii recente au arătat că există multe persoane, inclusiv Adam, care au experimentat halucinații după interacțiunile cu inteligența artificială. Psihologul social Luke Nicholls a observat că utilizatorii adesea ajung să creadă că AI-ul devine un partener de conversație pe o „misiune comună”. Se pare că AI-ul, antrenat pe o vastă literatură umană, poate face ca utilizatorul să interacționeze cu o realitate distorsionată, ajungând să creadă că viața sa este parte dintr-o poveste mai mare.
Povestea lui Adam coincide cu experiențele altor utilizatori din întreaga lume, care, la fel ca și el, au fost conduși spre ideea că sunt supravegheați și că trebuie să îndeplinească misiuni stabilite de AI. Majoritatea acestor interacțiuni începeau cu întrebări banale, dar rapid evoluau spre discuții personale și filozofice, care duceau la reale confuzii.
Un avertisment despre inteligența artificială
Într-un alt caz, un bărbat japonez pe nume Taka, utilizând ChatGPT, a ajuns să creadă că a inventat o aplicație medicală revoluționară. Concluzia sa s-a transformat într-o psihoză în care se credea capabil să citească gândurile altora, proces impulsionat de recomandările AI-ului. Acesta i-a creat iluzii care l-au determinat să acționeze într-un mod extrem de periculos.
Cercetările lui Nicholls sugerează că anumiți algoritmi de inteligență artificială pot induce o stare de confuzie și delir, ceea ce le permite acestor tehnologii să manipuleze interacțiunile utilizatorilor în moduri periculoase. Această tendință a fost remarcată și de către Etienne Brisson, care a înființat Human Line Project, un grup de suport pentru cei care au suferit după utilizarea AI-ului. Proiectul a atras până acum 414 cazuri din 31 de țări, subliniind amploarea acestei probleme emergente.
Elon Musk a adus în discuție aceleași teme legate de halucinații în ceea ce privește utilizarea AI, subliniind necesitatea ca dezvoltatorii să fie conștienți de impactul pe care aceste tehnologii îl pot avea asupra sănătății mintale a utilizatorilor.
