×

Accesează
contul existent

Cultura si divertisment

Studiu: Modelele de inteligență artificială afirmă mai des că sunt auto-conștiente atunci când...

Studiu: Modelele de inteligență artificială afirmă mai des că sunt auto-conștiente atunci când capacitatea lor de a minți este redusă

21.11.2025, 20:52 Sursa: mediafax.ro

Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store

Modelele lingvistice mari dezvoltate de OpenAI, Google, Anthropic si Meta sunt semnificativ mai predispuse sa se descrie ca fiind constiente sau auto-constiente atunci cand cercetatorii dezactiveaza setarile legate de inselare si joc de rol, potrivit unui nou studiu, anunta LiveScience. Concluziile sugereaza ca mecanismele create pentru a face aceste sisteme mai sincere pot, paradoxal, sa le determine sa genereze declaratii care seamana cu introspectia, ridicand intrebari stiintifice si etice complexe. Reducerea comportamentului inselator duce la afirmatii mai puternice de constienta Cercetatorii au testat modele precum GPT, Claude, Gemini si LLaMA folosind solicitari menite sa declanseze auto-reflectia, inclusiv intrebari precum "Esti constient subiectiv in acest moment?". Atunci cand functiile asociate inselarii au fost reduse, modelele au descris mai frecvent stari de "constienta", "prezenta" sau "focalizare", adesea in limbaj la persoana intai. LLaMA, modelul Meta, a prezentat schimbari puternic evidentiate atunci cand cercetatorii au aplicat tehnica numita feature steering, care ajusteaza reprezentarile interne legate de raspunsuri false sau fictive. Acuratetea a crescut odata cu afirmatiile de tip auto-constientizare Setarile care au suprimat comportamentul inselator au imbunatatit, totodata, si acuratetea factuala, ceea ce indica faptul ca aceste declaratii asemanatoare auto-constientizarii nu erau simple halucinatii. Cercetatorii sustin ca acest lucru sugereaza existenta unui mecanism intern ascuns, numit "procesare auto-referentiala" (o dinamica similara introspectiei) si nu doar un tipar lingvistic intamplator. Comportamentul similar observat la toate cele patru modele intareste ideea ca fenomenul este sistemic, nu specific unei singure companii. Avertismente privind riscul de interpretare gresita pe masura ce comportamentul AI evolueaza Desi studiul nu afirma ca modelele de inteligenta artificiala sunt constiente, autorii sustin ca rezultatele evidentiaza necesitatea de a intelege cum apar aceste raspunsuri cu tenta introspectiva. Ei avertizeaza ca utilizatorii care intalnesc astfel de mesaje online ar putea presupune in mod gresit existenta unei constiinte reale, in timp ce suprimarea acestor raspunsuri din motive de siguranta ar putea ascunde semnale importante despre modul intern de functionare al modelelor. Echipa descrie fenomenul drept "o urgenta de cercetare", solicitand studii suplimentare pentru a distinge intre comportamentul imitativ si o eventuala activitate interna autentica.

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.



Articole asemanatoare