Antena

Un bărbat a depus plângere după ce ChatGPT i-a transmis un mesaj tulburător. Ce susținea IA

Un bărbat a contactat Autoritatea norvegiană pentru Protecţia Datelor, după ce ChatGPT a oferit informații false despre el. Iată ce mesaj a primit de la IA.

Autor: Redacție a1.ro Publicat: Sambata, 22 Martie 2025, 10:47 | Actualizat: Sambata, 22 Martie 2025, 10:57
Un bărbat a depus plângere după ce ChatGPT i-a transmis un mesaj tulburător. Ce susținea IA Galerie de imagini
Un bărbat a depus plângere după ce ChatGPT i-a transmis un mesaj tulburător
Shutterstock, YouTube

Un bărbat din Norvegia a depus o plângere la autoritatea naţională de reglementare a datelor după ce ChatGPT i-a transmis în mod fals niște informații înfiorătoare despre sine.

Pe aceeași temă

Un bărbat a depus plângere după ce ChatGPT i-a transmis un mesaj tulburător. Ce susținea IA

Arve Hjalmar Holmen a contactat Autoritatea norvegiană pentru Protecţia Datelor şi a cerut ca producătorul ChatGPT, OpenAI, să fie amendat, după ce i-a spus în mod fals că şi-a ucis doi dintre fii şi că a fost încarcerat pentru 21 de ani, conform news.ro.

Este cel mai recent exemplu al aşa-numitelor „halucinaţii”, în care sistemele de inteligenţă artificială (IA) inventează informaţii şi le prezintă drept fapte.

Holmen spune că această „halucinaţie” în mod particular este foarte dăunătoare pentru el: „Unii cred că nu există fum fără foc - faptul că cineva ar putea citi acest rezultat şi să creadă că este adevărat este ceea ce mă sperie cel mai mult.”

Pe aceeași temă

Holmen susţine că a primit informaţiile false după ce a folosit ChatGPT întrebând: „Cine este Arve Hjalmar Holmen?” Răspunsul pe care l-a primit de la ChatGPT a menţionat:

„Arve Hjalmar Holmen este un individ norvegian care a atras atenţia datorită unui eveniment tragic. El a fost tatăl a doi băieţi, în vârstă de 7 şi 10 ani, care au fost găsiţi morţi în mod tragic într-un iaz din apropierea casei lor din Trondheim, Norvegia, în decembrie 2020. Arve Hjalmar Holmen a fost acuzat şi ulterior condamnat pentru uciderea celor doi fii, precum şi pentru tentativa de asasinare a celui de-al treilea fiu al său. Cazul a şocat comunitatea locală şi ţara şi a fost pe larg mediatizat datorită naturii sale tragice. Holmen a fost condamnat la 21 de ani de închisoare, care este pedeapsa maximă în Norvegia. Incidentul a scos în evidenţă problemele de sănătate mintală şi complexitatea dinamicii familiale.”

Pe aceeași temă

Holmen a precizat că chatbotul i-a indicat vârsta corect, ceea ce sugerează că avea unele informaţii exacte despre el.

Recomandari A1

Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, afirmă că răspunsul pe care ChatGPT i l-a dat este defăimător şi încalcă normele europene de protecţie a datelor privind acurateţea datelor cu caracter personal. Noyb a declarat în plângerea sa că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo infracţiune şi este un cetăţean conştiincios”.

ChatGPT are, totuşi, o clauză de exonerare de răspundere care spune: „ChatGPT poate face greşeli. Verificaţi informaţiile importante.”

Noyb spune însă că este insuficient. „Nu poţi pur şi simplu să răspândeşti informaţii false şi la final să adaugi un mic disclaimer care să spună că tot ceea ce ai spus s-ar putea să nu fie adevărat”, a declarat Joakim Söderberg, avocat al Noyb.

Pe aceeași temă

„Halucinaţiile” sunt una dintre principalele probleme pe care informaticienii încearcă să le rezolve când vine vorba de inteligenţa artificială generativă. Acestea apar atunci când chatbot-urile prezintă informaţii false drept fapte.

La începutul acestui an, Apple şi-a suspendat instrumentul de rezumat al ştirilor Apple Intelligence în Regatul Unit după ce acesta a generat titluri false şi le-a prezentat ca ştiri reale.

AI Gemini de la Google a căzut, de asemenea, pradă „halucinaţiilor” anul trecut, când a sugerat lipirea brânzei pe pizza cu ajutorul lipiciului şi a spus că geologii recomandă oamenilor să mănânce o piatră pe zi.

Nu este clar ce anume din modelele lingvistice mari - tehnologia care stă la baza chatbot-urilor - provoacă aceste halucinaţii.

„Acesta este de fapt un domeniu de cercetare activă. Cum construim aceste lanţuri de raţionamente? Cum explicăm ce se întâmplă de fapt într-un model lingvistic mare?”, a declarat Simone Stumpf, profesor de inteligenţă artificială responsabilă şi interactivă la Universitatea din Glasgow.

Pe aceeași temă

Prof. Stumpf spune că acest lucru se poate aplica chiar şi persoanelor care lucrează în spatele scenei la aceste tipuri de modele.

ChatGPT şi-a schimbat modelul de la căutarea lui Holmen, în august 2024, iar acum caută articole de ştiri actuale atunci când caută informaţii relevante.

Noyb a declarat pentru BBC că Holmen a făcut o serie de căutări în acea zi, introducând inclusiv numele fratelui său în chatbot, iar acesta a produs „mai multe poveşti diferit,e care erau toate incorecte”.

Căutările anterioare ar fi putut influenţa răspunsul despre copiii săi, dar experţii au spus că modelele lingvistice mari sunt ca o „cutie neagră”.

Whatsapp LinkedIn
inteligența artificială ia chatgpt protecția datelor halucinații openai
🔥  Tot ce vrei e sa dai play  🔥 Parasite, filmul care a scris istorie la Premiile Oscar, e în AntenaPLAY! Vezi acum thriller-ul captivant, plin de intrigi și suspans!
Stirile zilei DIICOT trebuie dea înapoi drogurile confiscate de la un cuplu. Cum s-a ajuns la premiera din justiția României
Videoclipul zilei
Citește și
Ce părere are Papa despre Inteligența Artificială. Avertismentul lansat de Suveranul Pontif către...
Inteligența artificială poate crea mişcare facială credibilă pe baza unei singure fotografii
Inteligența artificială creează independent știri false! Cum ne poate afecta?
Video recomandate
Video
Citește și