|
30.03.2026, 00:04 Sursa: zf.ro
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
¬ Modelul, denumit intern Claude Mythos, face parte dintr-o noua categorie de modele numita Capybara - mai mare, mai inteligenta si mai costisitoare decat Opus, care era pana acum gama cea mai puternica a Anthropic.
Anthropic, compania americana care dezvolta asistentul de inteligenta artificiala Claude, a confirmat ca testeaza un nou model AI pe care il descrie drept "un salt calitativ" si "cel mai capabil pe care l-am construit vreodata", dupa ce o scurgere accidentala de date a dezvaluit existenta modelului si a declansat o reactie in lant pe pietele financiare, potrivit Fortune, publicatia care a descoperit si raportat planurile Anthropic. "Dezvoltam un model de uz general cu progrese semnificative in rationament, programare si securitate cibernetica. Avand in vedere puterea capabilitatilor sale, suntem foarte atenti la modul in care il lansam. Asa cum este practica standard in industrie, lucram cu un grup restrans de clienti cu acces anticipat pentru a testa modelul. Consideram acest model un salt calitativ si cel mai capabil pe care l-am construit vreodata", a declarat un purtator de cuvant al Anthropic pentru Fortune. Modelul, denumit intern Claude Mythos, face parte dintr-o noua categorie de modele pe care Anthropic planuieste sa o numeasca Capybara. Pana acum, compania comercializa fiecare generatie de modele Claude in trei dimensiuni: Opus (cel mai mare si mai capabil), Sonnet (mai rapid si mai ieftin) si Haiku (cel mai mic si cel mai rapid). Capybara ar reprezenta un nivel superior chiar si fata de Opus - "mai mare si mai inteligent decat modelele noastre Opus, care erau, pana acum, cele mai puternice", se arata in articolul de blog nepublicat descoperit de Fortune.
"Comparativ cu cel mai bun model anterior al nostru, Claude Opus 4.6, Capybara obtine scoruri dramatic mai mari la teste de programare software, rationament academic si securitate cibernetica, printre altele", scrie Anthropic in documentul nepublicat, potrivit Fortune. Opus 4.6 ocupase recent prima pozitie in clasamentul Terminal-Bench 2.0, cu un scor de 65,4%, potrivit Techzine. Cel mai notabil aspect al documentului scurs nu este performanta modelului, ci avertismentul explicit al Anthropic cu privire la riscurile pe care le prezinta. "In pregatirea lansarii Claude Capybara, vrem sa actionam cu precautie suplimentara si sa intelegem riscurile pe care le prezinta - chiar dincolo de ceea ce aflam din propriile noastre teste. In special, vrem sa intelegem riscurile potentiale pe termen scurt ale modelului in domeniul securitatii cibernetice - si sa impartasim rezultatele pentru a-i ajuta pe aparatorii cibernetici sa se pregateasca", se arata in document, potrivit Fortune. Compania descrie modelul ca fiind "in prezent cu mult inaintea oricarui alt model AI in capabilitati cibernetice" si avertizeaza ca acesta "prefigureaza un val iminent de modele care pot exploata vulnerabilitati intr-un ritm care depaseste cu mult eforturile aparatorilor". Cu alte cuvinte, Anthropic se teme ca hackerii ar putea folosi modelul pentru a lansa atacuri cibernetice la scara larga, potrivit Fortune.
Strategia de lansare reflecta aceste preocupari: Anthropic planuieste sa ofere acces timpuriu organizatiilor de securitate cibernetica, "oferindu-le un avans in imbunatatirea robustetii bazelor de cod impotriva valului iminent de exploituri generate de AI", potrivit documentului citat de Fortune.
Riscurile nu sunt teoretice. Anthropic a documentat deja un caz in care un grup de hackeri sponsorizat de statul chinez a folosit Claude Code - instrumentul de programare al companiei - pentru a infiltra aproximativ 30 de organizatii, inclusiv companii de tehnologie, institutii financiare si agentii guvernamentale, inainte ca Anthropic sa detecteze operatiunea. Compania a investigat amploarea atacului pe parcursul a 10 zile, a blocat conturile implicate si a notificat organizatiile afectate, potrivit Fortune.
De altfel, cea mai recenta generatie de modele AI de frontiera de la ambele companii - Anthropic si OpenAI - a depasit un prag care ridica noi riscuri cibernetice. In februarie, cand OpenAI a lansat GPT-5.3-Codex, a anuntat ca este primul model pe care l-a clasificat drept "capabilitate ridicata" pentru sarcini de securitate cibernetica conform propriului cadru de evaluare (Preparedness Framework) - si primul pe care l-a antrenat direct sa identifice vulnerabilitati software, potrivit Fortune.
Scurgerea de date a fost cauzata de o "eroare umana" in configurarea sistemului de gestionare a continutului (CMS) folosit de Anthropic pentru publicarea blogului companiei, a confirmat un purtator de cuvant al Anthropic pentru Fortune. Documentele digitale create prin CMS sunt setate ca publice in mod implicit si primesc de obicei o adresa URL accesibila public atunci cand sunt incarcate - cu exceptia cazului in care utilizatorul modifica in mod explicit o setare pentru a le pastra private. Ca urmare, aproximativ 3.000 de documente interne - imagini, fisiere PDF, fisiere audio si, in mod critic, un articol de blog nepublicat care anunta noul model - au fost accesibile public, potrivit Fortune.
Documentele au fost localizate si verificate independent de Roy Paz, cercetator senior in securitate AI la LayerX Security, si Alexandre Pauwels, cercetator in securitate cibernetica la Universitatea Cambridge, potrivit Fortune.
Ironia situatiei nu a scapat presei de specialitate: "o companie care avertizeaza cu privire la riscuri cibernetice fara precedent ale AI a demonstrat ea insasi practici de securitate deficitare prin protectia inadecvata a propriei documentatii interne", a remarcat publicatia Futurism.
Printre documentele scurse se numara si un PDF cu informatii despre o reuniune exclusiva, doar pe invitatie, pentru CEO-ii unor companii europene, care urmeaza sa aiba loc in Marea Britanie, cu participarea CEO-ului Anthropic, Dario Amodei. Evenimentul este descris ca "o intalnire intima" intr-un "conac din secolul al XVIII-lea transformat in hotel si spa" din campania britanica, potrivit Fortune. Un purtator de cuvant al Anthropic a declarat ca evenimentul "face parte dintr-o serie de evenimente pe care le-am organizat in ultimul an", potrivit Fortune.
Dezvaluirea a provocat scaderi semnificative pe pietele financiare americane, in special in sectorul securitatii cibernetice - investitorii temandu-se ca un model AI capabil sa exploateze vulnerabilitati software ar putea face redundante produsele actuale de securitate.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.