Modelul AI Anthropic, „periculos”, spart de hackeri
Modelul AI Mythos, dezvoltat de Anthropic pentru securitate cibernetică, a fost accesat de utilizatori neautorizați, potrivit informațiilor apărute recent. Incidentul a stârnit îngrijorări cu privire la securitatea modelelor AI aflate în stadiul de testare, mai ales a celor cu aplicații sensibile. Compania a confirmat că investighează situația, dar a precizat că nu există dovezi că infrastructura internă a fost compromisă.
Accesul neautorizat și implicațiile
Modelul Mythos, destinat aplicațiilor de securitate cibernetică la nivel enterprise, face parte dintr-un program de testare restrâns. Potrivit surselor, utilizatorii neautorizați ar fi obținut acces prin intermediul unui furnizor terț implicat în testare. Aceștia ar fi folosit modelul în mod repetat după obținerea accesului. Accesul ar fi fost facilitat printr-un forum online privat, unde membri interesați de modele AI nelansate public încearcă să obțină acces la tehnologiile aflate în dezvoltare.
Compania a avertizat anterior că tehnologia ar putea genera riscuri fără precedent, dacă ajunge în mâini nepotrivite. Modelul este testat în cadrul unui program intern, cunoscut sub numele de Project Glasswing, care implică un număr limitat de parteneri din tehnologie și sectorul financiar. Analizele sunt în desfășurare pentru a evalua amploarea accesului și posibilele consecințe.
Reacția companiei și importanța securității
Un purtător de cuvânt al Anthropic a declarat că firma analizează situația. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Compania nu a oferit detalii despre modalitățile prin care utilizatorii neautorizați au reușit să acceseze modelul.
Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei. Modelul este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate.
Măsuri viitoare și impactul asupra industriei
Incidentul subliniază importanța securității în dezvoltarea și testarea modelelor AI, mai ales în domenii sensibile. Companiile din domeniu vor trebui să acorde o atenție sporită măsurilor de protecție pentru a preveni astfel de breșe de securitate. Specialiștii în securitate cibernetică vor fi, probabil, implicați în investigații suplimentare pentru a identifica punctele slabe și a preveni viitoarele incidente.
Anthropic continuă investigațiile legate de accesul neautorizat la modelul Mythos AI.