Experții avertizează că chatboți precum ChatGPT și Google Gemini pot să dezvăluie numărul de telefon personal sau adresa.
Nu e prima dată când experții trag un semnal de alarmă privind pericolul acestei tehnologii, scrie MIT Technology Review.
Potrivit datelor, acest lucru se poate întâmpla dacă anumite informații de identificare au fost folosite în antrenarea acestor chatboți.
Dar nu se știe exact ce mecanism scoate la iveală anumite numere de telefon și companiile tech nu au dezvăluit procesul real.
ChatGPT poate să îți dezvăluie adresa și numărul de telefon
Experții se tem că chatboții au dezvăluit numere de telefon personale și adrese mult mai frecvent decât este raportat public.
DeleteMe, o companie care ajută clienții să își elimine informațiile personale de pe internet, susține că întrebările clienților legate de inteligența artificială generativă au crescut cu 400% în ultimele 7 luni.
Aceste solicitări „fac referire în mod specific la ChatGPT, Claude, Gemini sau alte instrumente de AI generativ,” susține Rob Shavell, cofondatorul și CEO-ul companiei. În mod concret, 55% dintre aceste solicitări vizează ChatGPT, 20% Gemini, 15% Claude și 10% alte instrumente AI, precizează Shavell.
Shavell susține că plângerile clienților legate de apariția informațiilor personale pe aceste platforme se încadrează, de obicei, în 2 categorii.
Fie „un utilizator întreabă chatbotul ceva aparent inofensiv despre el însuși și primește înapoi adrese de domiciliu corecte, numere de telefon, nume de membri ai familiei sau detalii despre angajator”. Sau un utilizator poate descoperi și raporta expunerea datelor personale ale altcuiva, când „chatbotul generează informații de contact plauzibile, dar greșite”.
Unii utilizatori care s-au confruntat cu această problemă au căutat pe Google locurile în care apar numerele lor de telefon. În multe situații, acestea se găsesc pe un singur site, de obicei al angajatorului, facultății sau alte astfel de platforme.
Chatboții sunt antrenați cu informații de pe Internet
Chatboturile precum Gemini, ChatGPT de la OpenAI și Claude de la Anthropic sunt construite pe LLM-uri antrenate pe cantități uriașe de date colectate de pe internet. Acestea includ inevitabil sute de milioane de exemple de informații personale identificabile.
De exemplu, setul de date open-source DataComp CommonPool, folosit pentru antrenarea modelelor de generare de imagini, a inclus copii ale unor CV-uri, permise de conducere și carduri bancare.
Probabilitatea ca astfel de date personale să apară în seturile de antrenare ale AI crește pe măsură ce datele publice „se epuizează”, iar companiile caută noi surse de informații de calitate.
Acestea includ date de la brokeri de date și site-uri de tip „people search”. În California, de exemplu, 31 din 578 de brokeri înregistrați au raportat că au „partajat sau vândut date ale consumatorilor către un dezvoltator de sisteme sau modele GenAI în ultimul an”.
În plus, se știe că modelele pot memora și reproduce date din seturile de antrenare. Cercetări recente sugerează că nu doar datele frecvente pot fi memorate.
În prezent, companiile tech susțin că au anumite sisteme folosite pentru a limita anumite răspunsuri, de la filtre de conținut care încearcă să blocheze expunerea de date personale până la instrucțiuni precum cele ale Anthropic pentru Claude, care îi cer să evite informații private sau confidențiale despre alții.
Dar aceste măsuri nu funcționează întotdeauna. Ca urmare, multe informații personale pot ajunge să fie dezvăluite de către chatboți.
Prima „intervenție stomatologică” nu a fost făcută de oameni. Ce specie a avut o reușită dentară istorică...