DCBusiness IT&C Breșă într-un sistem AI de top. Un grup neautorizat ar fi spart Mythos

Breșă într-un sistem AI de top. Un grup neautorizat ar fi spart Mythos

Inteligență artificială
Un grup neautorizat ar fi accesat Mythos, un instrument AI de securitate dezvoltat de Anthropic. Compania investighează incidentul.

Breșă de securitate la un instrument AI de top. Un grup neautorizat ar fi accesat Mythos de la Anthropic

Un grup neautorizat ar fi reușit să obțină acces la Mythos, un instrument avansat de securitate cibernetică dezvoltat de Anthropic, potrivit unor informații apărute în presa internațională. Incidentul ridică semne de întrebare privind protecția unor tehnologii AI sensibile, care ar putea fi folosite inclusiv în scopuri malițioase.

Acces obținut printr-un furnizor terț

Potrivit informațiilor publicate de Bloomberg, accesul ar fi fost obținut prin intermediul unui mediu operat de un furnizor terț care colaborează cu Anthropic.

Compania a confirmat că investighează situația: reprezentanții au transmis că analizează o posibilă accesare neautorizată a versiunii Claude Mythos Preview, însă până în acest moment nu există indicii că sistemele interne ar fi fost compromise.

Cum ar fi fost spart sistemul

Conform relatării, grupul ar fi folosit mai multe metode pentru a accesa modelul, inclusiv exploatarea accesului unui angajat al unui contractor implicat în proiect.

Mai mult, membrii grupului ar fi făcut o presupunere informată privind locația online a modelului, bazându-se pe modul în care Anthropic a structurat accesul la alte produse AI.

Accesul ar fi fost obținut chiar în ziua lansării oficiale a instrumentului.

Demonstrații și dovezi

Grupul ar fi prezentat dovezi privind accesul la Mythos, inclusiv capturi de ecran și o demonstrație live a funcționalităților, potrivit sursei citate.

Membrii acestuia activează pe un canal de Discord dedicat identificării și testării modelelor AI nelansate public, interesul lor fiind, potrivit declarațiilor, mai degrabă explorator decât distructiv.

Mythos este un produs AI conceput pentru securitatea cibernetică a companiilor, dar chiar dezvoltatorul său a avertizat că, în mâini nepotrivite, ar putea fi transformat într-un instrument de hacking.

Modelul a fost lansat într-un cadru restrâns, către un număr limitat de parteneri, inclusiv companii mari precum Apple, în cadrul inițiativei Project Glasswing.

Această distribuție limitată a fost gândită tocmai pentru a preveni accesul actorilor rău intenționați.

Ce riscă Anthropic

Dacă informațiile se confirmă, incidentul ar putea afecta credibilitatea Anthropic în zona securității enterprise, acolo unde controlul accesului este esențial.

În același timp, cazul scoate în evidență o problemă mai largă: dificultatea de a controla distribuția și utilizarea tehnologiilor AI avansate, chiar și atunci când acestea sunt lansate într-un cadru restrâns.

Accesul neautorizat la astfel de instrumente ridică întrebări serioase despre modul în care companiile gestionează securitatea produselor AI sensibile.

Pe măsură ce aceste tehnologii devin tot mai puternice, riscul ca ele să fie folosite în scopuri abuzive crește, iar incidentele de acest tip ar putea deveni tot mai frecvente.