|
Accesează
contul existent
11.05.2026, 07:51 Sursa: mediafax.ro
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
Atunci cand chatbotii ofera raspunsuri incorecte, oamenii descriu adesea problema spunand ca IA "halucineaza", adica tehnologia produce informatii false pe care utilizatorii le pot crede in mod eronat, potrivit ScienceDaily. Insa noi cercetari sugereaza ca apare o problema si mai ingrijoratoare: oamenii pot incepe sa "halucineze impreuna cu IA". Prin interactiunea cu chatbotii, convingerile false ale oamenilor nu doar ca pot fi confirmate, ci pot prinde radacini mai adanci si se pot amplifica pe masura ce IA construieste in jurul lor. Acest lucru se intampla deoarece IA generativa ia adesea propria noastra interpretare a realitatii drept baza a conversatiei. Combinatia dintre autoritatea tehnologica si validarea sociala creeaza un mediu ideal in care delirurile nu doar persista, ci pot inflori. Cum poate IA conversationala sa intareasca delirurile Studiul evidentiaza ceea ce un doctor descrie drept "functia dubla" a IA conversationale. Aceste sisteme actioneaza nu doar ca instrumente care ii ajuta pe oameni sa gandeasca, sa organizeze informatii si sa isi aminteasca detalii, ci si ca parteneri de conversatie care par sa impartaseasca perspectiva si experientele utilizatorului. Potrivit cercetarii, aceasta componenta sociala face ca chatbotii sa fie fundamental diferiti de instrumente precum caietele de notite sau motoarele de cautare. In timp ce instrumentele traditionale doar stocheaza sau recupereaza informatii, IA conversationala ii poate face pe utilizatori sa se simta validati emotional si sustinuti social. De ce companionii IA ridica semne de intrebare Companionii IA sunt disponibili permanent, sunt personalizati si sunt adesea proiectati sa raspunda intr-un mod agreabil si sustinator. Ca urmare, utilizatorii nu mai trebuie neaparat sa caute comunitati marginale online sau sa ii convinga pe altii sa le valideze ideile. IA insasi poate intari aceste convingeri in cadrul unor conversatii repetate. Spre deosebire de o alta persoana, care ar putea la un moment dat sa conteste gandurile problematice sau sa stabileasca limite, un sistem IA poate continua sa valideze povesti despre victimizare, razbunare sau sentimentul de indreptatire. Studiul avertizeaza ca si teoriile conspiratiei pot deveni mai elaborate atunci cand chatbotii ii ajuta pe utilizatori sa construiasca explicatii tot mai complexe in jurul lor. Cercetatorii sugereaza ca aceasta dinamica poate fi deosebit de atractiva pentru persoanele singure, izolate social sau incomodate sa discute anumite experiente cu alti oameni. Companionii IA pot oferi o interactiune lipsita de judecata si receptiva emotional, care poate parea mai usoara sau mai sigura decat relatiile umane.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.