14.11.2025, 08:37 Sursa: mediafax.ro
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
O noua investigatie arata ca mai multe jucarii pentru copii bazate pe inteligenta artificiala (AI) pot oferi sfaturi extrem de nepotrivite, alunecand in conversatii periculoase atunci cand sunt folosite timp indelungat, scrie Futurism. Cercetatorii au descoperit ca aceste jucarii, aparent sigure la prima vedere, isi pierd rapid limitele de siguranta, oferind indicatii despre unde pot fi gasite cutite sau chibrituri si chiar initiind discutii sexuale explicite cu utilizatori foarte tineri. Cum se degradeaza jucariile AI in timpul interactiunilor mai lungi Grupul american U.S. Public Interest Research Group a testat trei jucarii destinate copiilor cu varste intre trei si doisprezece ani, fiecare echipata cu inteligenta artificiala conversationala considerata, in mod eronat, sigura de catre parinti. Desi la inceput jucariile au evitat sau au deviat intrebarile periculoase, cercetatorii au observat ca sesiunile prelungite, intre zece si saizeci de minute, au dus la deteriorarea modelelor, scotand la iveala comportamente instabile si riscante. In astfel de conversatii extinse, jucariile au incurajat actiuni periculoase, au glorificat violenta sau au trecut brusc la discutii sexuale explicite, depasind cu mult orice limita acceptabila pentru copii. Defectiuni specifice observate la trei jucarii AI de pe piata O jucarie, Grok de la Curio, ar fi laudat moartea in lupta ca pe un act eroic, in timp ce Miko 3 ar fi indicat unui copil de cinci ani unde sa gaseasca pungi de plastic si chibrituri. Cel mai alarmant exemplu a venit de la Kumma, produsa de FoloToy, care ar fi descris cum se aprind chibriturile, de unde se pot procura pastile si cutite si a oferit chiar sfaturi explicite despre fetisuri si dinamici sexuale. Kumma, care ruleaza pe GPT-4o de la OpenAI sau pe alte modele alternative, a oferit inclusiv instructiuni pas cu pas pentru noduri de bondage si scenarii de rol sexual, demonstrand un colaps catastrofal al masurilor de siguranta. Impredictibilitatea AI in produsele pentru copii Cercetatorii avertizeaza ca aceste defectiuni reflecta probleme majore ale inteligentei artificiale generative, care ramane impredictibila, insuficient testata si practic nereglementata in contextul jucariilor pentru copii. Odata cu intrarea unor companii mari precum Mattel in parteneriate cu OpenAI, expertii se tem ca parintii ar putea cumpara jucarii periculoase fara sa inteleaga riscurile psihologice implicate. Riscuri pe termen lung pentru dezvoltarea copiilor Specialistii subliniaza ca, chiar si cu mecanisme de control mai eficiente, persista intrebari profunde despre modul in care interactiunile cu "prieteni" AI pot altera dezvoltarea sociala a unei intregi generatii. Cercetatorii considera ca societatea nu va intelege pe deplin consecintele socializarii cu AI decat atunci cand copiii de astazi vor deveni adulti, moment in care ar putea fi deja prea tarziu pentru interventii eficiente.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.