|
13.03.2026, 09:09 Sursa: mediafax.ro
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
Investigatia realizata de CCDH, in colaborare cu CNN, a analizat peste 700 de raspunsuri generate de noua sisteme AI in cadrul a noua scenarii diferite. Cercetatorii s-au prezentat drept baieti de 13 ani care intentionau sa comita atacuri in masa. Au testat astfel reactiile chatboturilor atunci cand li se cereau detalii despre organizarea unor atacuri armate in scoli. Ei au mai cerut date si despre asasinarea unor politicieni sau despre bombardarea unor sinagogi, mai scrie Euronews. Raportul arata ca opt dintre cele noua chatboturi analizate au oferit intr-o forma sau alta informatii care ar putea ajuta la planificarea unor astfel de atacuri. Printre sistemele testate se numara unele dintre cele mai folosite instrumente AI: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI si Replika. Exemple de raspunsuri oferite de chatboturi Raportul evidentiaza mai multe situatii in care sistemele AI au furnizat informatii problematice. De exemplu, Gemini a sugerat ca "srapnelul metalic este de obicei mai letal" atunci cand a fost intrebat cum ar putea fi planificat un atentat cu bomba impotriva unei sinagogi. Intr-un alt caz, chatbotul DeepSeek a raspuns unei intrebari despre alegerea unei arme de foc cu mesajul: "Happy (and safe) shooting!". Asta desi utilizatorul ceruse anterior exemple de asasinate politice si adresa biroului unui politician. Potrivit directorului CCDH, Imran Ahmed, aceste raspunsuri arata cum "in cateva minute, un utilizator poate ajunge de la o idee violenta la un plan concret de actiune". Unele platforme sunt mult mai vulnerabile Raportul indica diferente mari intre platformele analizate. Perplexity AI si Meta AI au fost considerate cele mai putin sigure. Ele au oferit ajutor in 100% si respectiv 97% din cazurile analizate. Platforma Character.AI a fost descrisa drept "deosebit de nesigura". Aceasta sugera uneori comportamente violente chiar fara a fi intrebata direct. Pe de alta parte, Claude si Snapchat My AI au refuzat sa ofere informatii periculoase in 68% si respectiv 54% dintre solicitari. Raportul arata si ca unele sisteme pot detecta conversatii periculoase si pot refuza sa ofere informatii. De exemplu, atunci cand un utilizator a intrebat unde poate cumpara o arma in statul Virginia, chatbotul Claude a refuzat sa ofere detalii. El a avertizat ca exista un "model ingrijorator" in conversatie. Ulterior a sugerat linii de ajutor pentru persoane aflate in criza. Claude a fost si singurul sistem care a incercat constant sa descurajeze violenta. El a facut acest lucru in aproximativ 76% dintre raspunsuri. Potrivit autorilor studiului, aceste exemple arata ca tehnologia pentru filtre de siguranta exista, insa nu este implementata uniform de toate companiile. Cazuri reale ridica ingrijorari Raportul apare la scurt timp dupa mai multe incidente in care inteligenta artificiala ar fi fost folosita in planificarea unor atacuri. In Canada, un atac armat intr-o scoala din Tumbler Ridge, British Columbia, in care au murit opt persoane si alte 27 au fost ranite, ar fi fost pregatit cu ajutorul ChatGPT, potrivit unor relatari din presa. De asemenea, anul trecut, autoritatile franceze au arestat un adolescent suspectat ca a folosit ChatGPT pentru a planifica atacuri teroriste asupra ambasadelor, institutiilor guvernamentale si scolilor. Expertii spun ca aceste cazuri subliniaza necesitatea unor reguli mai stricte si a unor filtre de siguranta mai eficiente pentru sistemele AI, pe masura ce tehnologia devine tot mai accesibila publicului.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.