|
17.03.2026, 05:45 Sursa: mediafax.ro
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
Cu alte cuvinte, se teme ca instrumentele sale de IA ar putea indica cuiva cum sa fabrice arme chimice sau radioactive si doreste ca un expert sa se asigure ca masurile de protectie sunt suficient de solide, potrivit BBC. In anuntul de recrutare de pe LinkedIn, firma precizeaza ca candidatii trebuie sa aiba o experienta de cel putin cinci ani in "apararea impotriva armelor chimice si/sau a explozivilor", precum si cunostinte despre "dispozitive de dispersie radiologica", cunoscute si sub denumirea de bombe murdare. Firma a declarat pentru BBC ca rolul este similar cu posturile din alte domenii sensibile pe care le-a creat deja. Mai multe companii au adoptat strategia Anthropic nu este singura firma de IA care adopta aceasta strategie. Un post similar a fost publicat de OpenAI, dezvoltatorul ChatGPT. Pe site-ul sau de recrutare, compania listeaza un post vacant pentru un cercetator in "riscuri biologice si chimice", cu un salariu de pana la 455.000 de dolari, aproape dublu fata de cel oferit de Anthropic. Insa unii experti sunt ingrijorati de riscurile acestei abordari, avertizand ca aceasta ofera instrumentelor de IA informatii despre arme, chiar daca li s-a cerut sa nu le foloseasca. Industria IA a avertizat in mod continuu cu privire la potentialele pe care le prezinta tehnologia sa, dar nu s-a facut nicio incercare de a incetini progresul acesteia. Legaturile cu razboiul din Iran Problema a capatat un caracter urgent, intrucat guvernul SUA apeleaza la firmele de IA in timp ce declanseaza razboiul in Iran si operatiuni militare in Venezuela. Anthropic a initiat o actiune in justitie impotriva Departamentului Apararii al SUA, pe care a desemnat-o drept un risc pentru lantul de aprovizionare atunci cand firma a insistat ca sistemele sale nu trebuie utilizate nici in arme complet autonome, nici in supravegherea in masa a americanilor. Co-fondatorul Anthropic, Dario Amodei, a scris in februarie ca nu crede ca tehnologia este inca suficient de buna si ca nu ar trebui utilizata in aceste scopuri. Casa Alba a transmis ca armata SUA nu va fi condusa de companii de tehnologie. Eticheta de risc plaseaza compania americana in aceeasi situatie cu firma chineza de telecomunicatii Huawei, care a fost, de asemenea, inclusa pe lista neagra din cauza unor preocupari diferite legate de securitatea nationala. OpenAI a declarat ca este de acord cu pozitia Anthropic, dar a negociat apoi propriul contract cu guvernul SUA, care, potrivit companiei, nu a intrat inca in vigoare. Asistentul AI al Anthropic, numit Claude, nu a fost inca eliminat treptat si este in prezent inca integrat in sistemele furnizate de Palantir si utilizat de SUA in razboiul dintre SUA, Israel si Iran.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.