×

Accesează
contul existent

Business Hi-Tech

Anthropic, compania din spatele chatbot-ului Claude, isi relaxeaza politica de siguranta AI in...

Anthropic, compania din spatele chatbot-ului Claude, isi relaxeaza politica de siguranta AI in aceeasi saptamana in care refuza ultimatumul Pentagonului privind armele autonome si supravegherea in masa

25.02.2026, 17:46 Sursa: zf.ro

Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store

Anthropic, compania americana de inteligenta artificiala care dezvolta chatbot-ul Claude, si-a inlocuit politica de siguranta cu un cadru mai flexibil, renuntand la angajamentul ferm de a opri antrenarea modelelor AI daca acestea depasesc capacitatea companiei de a le controla. Schimbarea vine in aceeasi saptamana in care Anthropic se afla intr-un conflict deschis cu Pentagonul, care ameninta compania cu pierderea unui contract de 200 de milioane de dolari si cu includerea pe o lista neagra guvernamentala.

Noua politica, numita "Frontier Safety Roadmap", inlocuieste angajamentele ferme cu obiective publice pe care compania le va evalua periodic. "Mai degraba decat angajamente ferme, acestea sunt obiective publice fata de care ne vom nota in mod deschis progresul", a scris Anthropic pe blogul oficial, citat de CNN. Compania a recunoscut ca vechea politica, in vigoare din 2023, nu a reusit sa creeze consensul dorit in industrie - ceilalti dezvoltatori mari de AI nu au adoptat restrictii similare. Mai mult, Anthropic a notat ca politica sa era incompatibila cu climatul politic actual din Washington, orientat impotriva reglementarii.

Jared Kaplan, directorul stiintific al Anthropic, a declarat pentru Time ca decizia a fost luata in numele sigurantei, nu al competitiei, dar a adaugat: "Nu am simtit, in contextul avansului rapid al AI, ca are sens sa facem angajamente unilaterale, daca competitorii merg inainte cu toata viteza."

Anuntul coincide cu un conflict major intre Anthropic si administratia Trump. Secretarul american al apararii Pete Hegseth i-a dat CEO-ului Anthropic, Dario Amodei, un ultimatum pana vineri: fie compania ridica toate restrictiile impuse modelului Claude pentru utilizare militara, fie Pentagonul va anula contractul de 200 de milioane de dolari, va invoca Defense Production Act (o lege din anii 1950 care permite guvernului sa oblige companii private sa produca bunuri considerate critice pentru securitatea nationala) si va desemna Anthropic drept "risc pentru lantul de aprovizionare" - o eticheta folosita in mod obisnuit pentru adversari straini, care ar interzice tuturor contractorilor militari sa mai foloseasca tehnologia companiei, potrivit CNN, Axios, NPR si CNBC.

Anthropic refuza sa cedeze pe doua puncte: utilizarea AI pentru controlul autonom al armelor si supravegherea in masa a cetatenilor americani. Potrivit surselor citate de publicatiile americane, Amodei a reiterat aceste linii rosii in intalnirea de marti cu Hegseth, iar compania nu intentioneaza sa-si schimbe pozitia. "Un AI puternic care analizeaza miliarde de conversatii de la milioane de oameni ar putea masura sentimentul public, detecta focare de neloialitate in formare si le-ar putea elimina inainte sa creasca", a scris Amodei intr-un eseu luna trecuta, explicand de ce considera supravegherea in masa o linie rosie.

Intalnirea a fost descrisa drept cordiala, dar tensionata. Hegseth a laudat calitatea produselor Anthropic, dar a insistat ca nicio companie privata nu poate dicta Pentagonului conditiile in care ia decizii operationale. Claude este in prezent singurul model AI autorizat pentru retelele clasificate ale armatei americane si este considerat cel mai avansat si sigur model pentru aplicatii militare sensibile, conform NPR. Celelalte trei companii cu contracte similare - OpenAI, Google si xAI (Elon Musk) - au acceptat deja sa permita utilizarea modelelor lor in orice scenariu "legal".

Hegseth si alti oficiali ai administratiei Trump au calificat pozitia Anthropic drept "AI woke", un termen pe care expertii in AI il considera vag si care pare sa desemneze orice masura de siguranta aplicata modelelor AI, potrivit NPR. Anthropic, fondata in 2021 de fosti angajati OpenAI preocupati de riscurile AI, a inchis recent o runda de finantare de 30 de miliarde de dolari la o evaluare de 380 de miliarde de dolari si are peste 500 de clienti enterprise care cheltuiesc mai mult de 1 milion de dolari anual, potrivit CNBC.

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.



Articole asemanatoare