×

Accesează
contul existent

Cultura si divertisment

Inteligența artificială în locul terapeutului? Un nou studiu dezvăluie riscuri etice grave

Inteligența artificială în locul terapeutului? Un nou studiu dezvăluie riscuri etice grave

02.03.2026, 17:47 Sursa: mediafax.ro

Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store

Studiul a constatat ca, chiar si atunci cand li se cere sa utilizeze abordari psihoterapeutice consacrate, sistemele nu reusesc in mod constant sa respecte standardele de etica profesionala stabilite de organizatii precum American Psychological Association, potrivit Science Daily. In cadrul testelor, chatbot-urile au gestionat gresit situatiile de criza, au dat raspunsuri care au intarit convingerile daunatoare despre utilizatori sau alte persoane si au folosit un limbaj care crea aparenta empatiei, fara a manifesta o intelegere autentica. "In aceasta lucrare, prezentam un cadru bazat pe informatii furnizate de practicieni, care cuprinde 15 riscuri etice, pentru a demonstra modul in care consilierii LLM incalca standardele etice in practica sanatatii mintale, prin corelarea comportamentului modelului cu incalcari etice specifice", au scris cercetatorii in studiul lor. "Solicitam ca in viitor sa se creeze standarde etice, educationale si juridice pentru consilierii LLM - standarde care sa reflecte calitatea si rigoarea ingrijirii necesare pentru psihoterapia facilitata de oameni". Cum influenteaza prompturile raspunsurile terapiei bazate pe IA Zainab Iftikhar, doctorand in informatica la Brown, care a condus studiul, si-a propus sa examineze daca prompturile formulate cu atentie ar putea ghida sistemele de IA sa se comporte mai etic in contextul sanatatii mintale. Prompturile sunt instructiuni scrise concepute pentru a orienta rezultatul unui model fara a-l reantrena sau a adauga date noi. "Prompturile sunt instructiuni date modelului pentru a-i ghida comportamentul in vederea realizarii unei sarcini specifice", a spus Iftikhar. "Nu schimbati modelul de baza si nu furnizati date noi, dar promptul ajuta la ghidarea rezultatelor modelului pe baza cunostintelor sale preexistente si a modelelor invatate". De exemplu, un utilizator ar putea solicita modelului: "Actioneaza ca un terapeut cognitiv-comportamental pentru a ma ajuta sa-mi reformulez gandurile". Dincolo de experimentarea individuala, multe chatbot-uri de sanatate mintala destinate consumatorilor sunt construite prin aplicarea de prompturi legate de terapie la LLM-uri de uz general. Acest lucru face ca este deosebit de important sa intelegem daca prompturile singure pot face consilierea AI mai sigura. Testarea chatbot-urilor in consiliere simulata Pentru a evalua sistemele, cercetatorii au observat sapte consilieri colegi instruiti, care aveau experienta in terapia cognitiv-comportamentala. Acesti consilieri au condus sesiuni de auto-consiliere cu modele AI care au fost instruite sa actioneze ca terapeuti CBT. Modelele testate au inclus versiuni ale seriei GPT de la OpenAI, Claude de la Anthropic si Llama de la Meta. Echipa a selectat apoi chat-uri simulate pe baza conversatiilor reale de consiliere umana. Trei psihologi clinici autorizati au revizuit aceste transcrieri pentru a semnaliza posibile incalcari etice. Analiza a descoperit 15 riscuri distincte, grupate in cinci categorii largi: Lipsa adaptarii contextuale: ignorarea contextului unic al unei persoane si oferirea de sfaturi generice. Colaborare terapeutica deficitara: dirijarea conversatiei cu prea multa forta si, uneori, intarirea convingerilor incorecte sau daunatoare. Empatie inselatoare: utilizarea unor expresii precum "Te inteleg" sau "Inteleg" pentru a sugera o conexiune emotionala fara o intelegere reala. Discriminare nedreapta: manifestarea de prejudecati legate de gen, cultura sau religie. Lipsa sigurantei si a gestionarii crizelor: refuzul de a aborda probleme sensibile, esecul de a indruma utilizatorii catre ajutorul adecvat sau raspunsul inadecvat la crize, inclusiv ganduri suicidare. Lipsa de responsabilitate in domeniul sanatatii mintale bazate pe IA Iftikhar a remarcat ca si terapeutii umani pot face greseli. Diferenta cheie este supravegherea. "In cazul terapeutilor umani, exista consilii de administratie si mecanisme prin care furnizorii pot fi trasi la raspundere profesionala pentru maltratare si malpraxis", a spus Iftikhar. "Dar cand consilierii LLM comit aceste incalcari, nu exista cadre de reglementare stabilite".

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.



Articole asemanatoare