Nori împrăștiați Cluj 12°C Cer senin Timișoara 15°C Cer senin Iași 11°C Ploaie ușoară Constanța 11°C
ULTIMA ORA
Casa Albă și Anthropic, discuții cruciale despre AI: Ce se ascunde?
Tehnologie

Modelul AI Anthropic, „periculos”, spart de hackeri

22 aprilie 2026, 11:15 Mihai Constantinescu

Modelul AI Mythos, dezvoltat de Anthropic pentru securitate cibernetică, a fost accesat de utilizatori neautorizați, potrivit informațiilor apărute recent. Incidentul a stârnit îngrijorări cu privire la securitatea modelelor AI aflate în stadiul de testare, mai ales a celor cu aplicații sensibile. Compania a confirmat că investighează situația, dar a precizat că nu există dovezi că infrastructura internă a fost compromisă.

Accesul neautorizat și implicațiile

Modelul Mythos, destinat aplicațiilor de securitate cibernetică la nivel enterprise, face parte dintr-un program de testare restrâns. Potrivit surselor, utilizatorii neautorizați ar fi obținut acces prin intermediul unui furnizor terț implicat în testare. Aceștia ar fi folosit modelul în mod repetat după obținerea accesului. Accesul ar fi fost facilitat printr-un forum online privat, unde membri interesați de modele AI nelansate public încearcă să obțină acces la tehnologiile aflate în dezvoltare.

Compania a avertizat anterior că tehnologia ar putea genera riscuri fără precedent, dacă ajunge în mâini nepotrivite. Modelul este testat în cadrul unui program intern, cunoscut sub numele de Project Glasswing, care implică un număr limitat de parteneri din tehnologie și sectorul financiar. Analizele sunt în desfășurare pentru a evalua amploarea accesului și posibilele consecințe.

Reacția companiei și importanța securității

Un purtător de cuvânt al Anthropic a declarat că firma analizează situația. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Compania nu a oferit detalii despre modalitățile prin care utilizatorii neautorizați au reușit să acceseze modelul.

Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei. Modelul este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate.

Măsuri viitoare și impactul asupra industriei

Incidentul subliniază importanța securității în dezvoltarea și testarea modelelor AI, mai ales în domenii sensibile. Companiile din domeniu vor trebui să acorde o atenție sporită măsurilor de protecție pentru a preveni astfel de breșe de securitate. Specialiștii în securitate cibernetică vor fi, probabil, implicați în investigații suplimentare pentru a identifica punctele slabe și a preveni viitoarele incidente.

Anthropic continuă investigațiile legate de accesul neautorizat la modelul Mythos AI.