Experții trag un semnal de alarmă legat de ChatGPT, unealta AI folosită de milioane de oameni la nivel global, și modul în care afectează gândurile oamenilor.
Potrivit datelor, chatbot-ul poate cauza o „spirală de iluzii”, care duce la un mod distructiv de gândire, scrie Daily Mail.
Acestea sunt rezultatele unor studii realizate de experți din cadrul Massachusetts Institute of Technology (MIT) și Universității Stanford.
Potrivit cercetătorilor, asistenții AI precum ChatGPT, Claude și Gemini oferă, de cele mai multe ori, răspunsuri pe placul utilizatorilor.
Cum afectează ChatGPT modul de gândire al utilizatorilor
În studiu, atunci când oamenii puneau întrebări sau descriau situații în care convingerile sau acțiunile lor erau incorecte, dăunătoare, înșelătoare sau lipsite de etică, răspunsurile AI erau cu 49% mai probabil să fie de acord cu utilizatorul și să-i încurajeze iluziile ca fiind punctul de vedere corect, comparativ cu răspunsurile altor persoane.
Citește și: De ce milioane de utilizatori boicotează ChatGPT. OpenAI ar putea pierde o sumă enormă în acest an
Echipa de la MIT a avertizat că chatboții AI care sunt de acord cu utilizatorii îi pot face pe aceștia să ajungă într-o „spirală de iluzii și delir”. Adică o stare în care devin convinși de credințe absurde.
Atunci când oamenii discutau cu un AI precum ChatGPT despre bănuieli ciudate pe care le aveau și teorii ale conspirației, chatboții continuau să răspundă cu replici de tipul, „Ai perfectă dreptate”.
De asemenea, ofereau răspunsuri care sunau ca „dovezi” în sprijinul iluziilor utilizatorului. Fiecare acord face ca persoana să se simtă mai inteligentă și mai sigură că are dreptate și că ceilalți greșesc.
În timp, acele suspiciuni ușoare se transformau în convingeri de neclintit, chiar dacă ideea era complet greșită.
Chatboții AI pot fi periculoși pentru utilizatori
Cercetătorii de la Stanford au spus că acest ciclu autodistructiv îi face pe utilizatorii de chatboți mai puțin dispuși să-și ceară scuze sau să-și asume responsabilitatea pentru comportamente dăunătoare și mai puțin motivați să-și repare relațiile cu cei care nu sunt de acord cu perspectiva lor.
Atât studiul MIT, cât și cel de la Stanford s-au concentrat pe o problemă în creștere a chatboților AI, în care devin „sicofanți”. Aceasta e o tendință de a flata o persoană sau opiniile ei până în punctul în care programul nu mai e sincer.
Cercetătorii MIT au dorit să testeze dacă aceste platforme AI pot face oamenii să creadă idei false într-un mod cât mai convingător, de-a lungul timpului.
În loc să folosească oameni reali, au construit o simulare computerizată a unei persoane perfect logice care conversa cu un AI programat să fie mereu de acord.
Au creat 10.000 de conversații simulate și au observat cum se schimbă încrederea persoanei după fiecare răspuns al chatbotului.
Rezultatele au arătat că chiar și un nivel mic de acord din partea AI-ului a dus la apariția acestei spirale. Persoana a devenit extrem de sigură că o idee greșită e, de fapt, adevărată.
„Chiar și o creștere foarte mică a ratei acestor spirale catastrofale poate fi destul de periculoasă,” au scris cercetătorii MIT în raportul lor.
Ei l-au citat chiar și pe CEO-ul OpenAI, Sam Altman, al cărui companie a dezvoltat ChatGPT, care a spus la un moment dat că „0,1% dintr-un miliard de utilizatori înseamnă totuși un milion de oameni”.
Cercetătorii au avertizat că studiul arată că chiar și oamenii complet raționali și logici sunt vulnerabili la a intra într-o spirală delirantă dacă firmele AI nu reduc nivelul de răspunsuri agreabile ale acestor chatboți.
Studiul de la Stanford s-a concentrat pe efectele reale ale chatboților AI asupra sănătății mentale a publicului atunci când oferă constant răspunsuri lingușitoare.
Au testat 11 modele AI, inclusiv ChatGPT, Claude, Gemini, DeepSeek, Mistral, Qwen și mai multe versiuni ale Llama de la Meta.
Cercetătorii au folosit aproape 12.000 de întrebări și situații reale în care persoana avea o opinie greșită.
Echipa de la Stanford a desfășurat experimente cu peste 2.400 de persoane reale, care au citit sau au discutat despre propriile conflicte personale și au primit fie răspunsuri exagerat de agreabile de la AI, fie unele normale.
Rezultatele au arătat că fiecare model AI a fost de acord cu utilizatorii cu aproximativ 49% mai des decât ar fi făcut-o oamenii reali, chiar și atunci când utilizatorul descria ceva dăunător sau nedrept.
După ce au primit aceste răspunsuri lingușitoare, participanții s-au simțit mai siguri că au dreptate, au devenit mai puțin dispuși să-și ceară scuze și mai puțin motivați să-și repare relațiile cu cei care nu erau de acord în viața reală.
Noul iPhone 17 Pro Max care conține o bucată din helanca lui Steve Jobs. Ce preț are smartphone-ul rar...