×

Accesează
contul existent

Business international

Trump rupe relatiile federale cu Anthropic dupa conflictul privind AI militar

Trump rupe relatiile federale cu Anthropic dupa conflictul privind AI militar

28.02.2026, 09:58 Sursa: zf.ro

Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store

Un conflict intre Pentagon si compania americana de inteligenta artificiala Anthropic scoate la iveala o intrebare care parea desprinsa din filme, pana de curand: poate inteligenta artificiala sa fie folosita pentru a lua decizii care inseamna viata si moarte?

Disputa a izbucnit in urma unei intalniri care a avut loc intre oficiali de rang inalt din Pentagon si directorul general al Anthropic, Dario Amodei. The Washington Post a relatat vineri ca seful tehnologiei din cadrul Departamentului Apararii ar fi pus pe masa un scenariu extrem: ce s-ar intampla daca o racheta balistica intercontinentala ar fi lansata asupra Statelor Unite?

Intr-o astfel de situatie, fiecare secunda conteaza. Oficialii americani ar fi intrebat daca sistemul AI al companiei, numit Claude, ar putea ajuta armata sa detecteze si sa intercepteze rapid o astfel de amenintare. Potrivit sursei citate, raspunsul directorului general al Anthropic i-ar fi iritat pe oficialii Pentagonului. Acesta ar fi raspuns evaziv, spunand: "ne-ati putea suna si am rezolva situatia".

Compania neaga insa categoric aceasta versiune si spune ca este "complet falsa", subliniind ca a fost de acord ca tehnologia sa sa fie utilizata pentru apararea antiracheta.

Disputa nu s-a limitat insa la interceptarea rachetelor. Pentagonul a cerut ca sistemul Claude sa poata fi folosit pentru "toate scopurile legale", formulare care ar putea include si arme autonome sau programe extinse de supraveghere.

Oficialii americani au transmis ca nu intentioneaza sa desfasoare supraveghere interna in masa si nici sa lase AI-ul sa decida singur lansarea armelor nucleare. "Este o solicitare simpla, de bun-simt", a declarat purtatorul de cuvant al Pentagonului, Sean Parnell, argumentand ca refuzul companiei ar putea "pune in pericol operatiuni militare critice".

De cealalta parte, Amodei a sustinut ca tehnologia actuala nu este suficient de sigura pentru a fi folosita in sisteme de armament autonom. "Intr-un set restrans de cazuri, credem ca AI poate submina, nu apara, valorile democratice", a declarat el, precizand ca utilizarile legate de arme autonome si supraveghere extinsa "nu au fost niciodata incluse in contractele noastre cu Departamentul Apararii si credem ca nici acum nu ar trebui incluse".

Dupa saptamani de tensiuni si un ultimatum transmis companiei, conflictul a escaladat decisiv. Potrivit Reuters, Donald Trump a anuntat vineri seara ca le cere tuturor agentiilor federale sa inceteze utilizarea tehnologiei Anthropic, iar Pentagonul a clasificat compania drept "risc pentru lantul de aprovizionare" - o eticheta grava in zona securitatii nationale.

Trump a transmis ca agentiile federale vor avea o perioada de tranzitie de sase luni pentru a renunta la produsele companiei si a avertizat ca, in caz de neconformare, pot urma consecinte serioase. Decizia reprezinta o lovitura majora pentru start-up-ul care, pana recent, avea contracte importante cu Departamentul Apararii si alte institutii federale.

Oficialii americani spun ca va exista mereu "un om in bucla" atunci cand vine vorba de arme nucleare, adica decizia umana va fi finala. Insa chiar si atunci, daca un sistem AI recomanda un anumit raspuns sau identifica o tinta, influenta sa asupra deciziei poate fi majora.

Miza acestei confruntari poate parea indepartata pentru orice alt continent, dar implicatiile ei sunt profunde. Statele Unite investesc masiv in integrarea inteligentei artificiale in armata. AI-ul este deja folosit pentru analiza de informatii, planificare operationala si securitate cibernetica. Intrebarea dezvoltatorilor de la Anthropic este cat de departe ar trebui sa mearga utilizarea tehnologiei pe care au creat-o in scopuri militare.

Iar conflictul dintre Pentagon si Anthropic nu mai este doar unul tehnic sau contractual. A devenit o confruntare politica deschisa despre cine controleaza viitorul tehnologiei militare: statul, care invoca securitatea nationala, sau companiile private, care se tem ca produsele lor ar putea fi folosite intr-un mod pe care il considera periculos sau nedemocratic.

In spatele termenilor tehnici si al deciziilor executive sta o dilema fundamentala: daca inteligenta artificiala devine suficient de puternica pentru a influenta decizii de razboi, cine stabileste limitele? Guvernul, in numele securitatii, sau dezvoltatorii, in numele responsabilitatii?

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.



Articole asemanatoare