DCBusiness IT&C Parteneriatul Anthropic–Palantir și utilizarea AI în războiul din Iran

Parteneriatul Anthropic–Palantir și utilizarea AI în războiul din Iran

Un avion decolează de pe un portavion / Foto: US Pacific Fleet / Flikr
Inteligența artificială începe să fie folosită direct în operațiuni militare. Modelul Claude ar fi ajutat armata SUA la identificarea țintelor și simularea scenariilor de luptă.

Inteligența artificială generativă, cunoscută publicului mai ales pentru redactarea de texte, rețete sau emailuri, începe să fie folosită și în operațiuni militare reale. Potrivit unui material publicat de Wall Street Journal, Comandamentul Central al Statelor Unite (CENTCOM) ar fi utilizat modelul de inteligență artificială Claude, dezvoltat de compania Anthropic, pentru evaluări de intelligence, identificarea țintelor și simularea scenariilor de luptă în timpul atacurilor asupra Iranului.

Informația ridică întrebări serioase despre rolul real al inteligenței artificiale în război și despre lipsa unui cadru clar de reglementare pentru astfel de tehnologii.

AI militară integrată deja în sistemele Pentagonului

Potrivit informațiilor citate, Claude ar fi fost utilizat pentru analize de informații și simulări tactice în cadrul operațiunilor militare americane. Sistemul era deja integrat în infrastructura tehnologică a Pentagonului, ceea ce a făcut dificilă eliminarea sa rapidă din sistem, chiar și după ce Donald Trump a cerut agențiilor federale să înceteze utilizarea modelului în urma unui conflict cu compania dezvoltatoare.

Integrarea inteligenței artificiale în sistemele militare americane este mult mai avansată decât se credea public. Același model ar fi fost folosit și într-o operațiune desfășurată în ianuarie care a dus la capturarea liderului venezuelean Nicolás Maduro.

Totuși, nu este clar ce rol concret a avut AI în luarea deciziilor militare. Nu există informații oficiale despre faptul dacă sistemul a sugerat ținte de atac sau a estimat numărul potențial de victime.

Parteneriat cu Palantir și planuri pentru drone autonome

În noiembrie anul trecut, Anthropic a anunțat un parteneriat cu compania Palantir Technologies, specializată în analiză de date și contractor important al Pentagonului. În acest parteneriat, modelul Claude urma să devină motorul de raționament al unui sistem militar de sprijin decizional.

Mai mult, în ianuarie, compania a depus o propunere de aproximativ 100 de milioane de dolari către Pentagon pentru dezvoltarea unor roiuri de drone autonome controlate prin voce. Conceptul presupunea folosirea modelului Claude pentru a traduce intențiile unui comandant militar în instrucțiuni digitale care să coordoneze simultan o flotă de drone.

Proiectul nu a fost aprobat, însă documentația licitației arată că obiectivul depășea cu mult analiza informațiilor. Contractul urmărea dezvoltarea unor sisteme capabile să gestioneze întregul ciclu operațional al unor drone armate, de la identificarea țintei până la finalizarea misiunii.

Problema majoră: erorile sistemelor AI

Specialiștii în etica tehnologiilor militare avertizează că utilizarea inteligenței artificiale în astfel de contexte ridică riscuri serioase. Modelele de limbaj mari, precum cele folosite în chatboturi, sunt cunoscute pentru fenomenul de „halucinație”, atunci când generează răspunsuri greșite prezentate ca fiind corecte.

Unele sisteme similare au fost deja utilizate în conflicte recente. În Gaza, armata israeliană ar fi folosit un sistem numit Lavender pentru identificarea persoanelor suspectate de legături cu Hamas. Programul analiza date de supraveghere, conexiuni sociale și istoricul locațiilor pentru a acorda fiecărei persoane un scor de risc.

Potrivit unor investigații jurnalistice, sistemul ar fi avut o rată de eroare de aproximativ 10%. Conform estimărilor citate de cercetători din domeniul eticii digitale, aproximativ 3.600 de persoane ar fi fost identificate greșit drept ținte militare.

Un vid de reglementare pentru armele bazate pe inteligență artificială

Experții spun că utilizarea acestor tehnologii are loc într-un vid legislativ. Deși dreptul internațional umanitar prevede reguli stricte pentru testarea armelor noi, sistemele bazate pe inteligență artificială sunt dificil de încadrat în aceste norme.

Articolul 36 din Convențiile de la Geneva obligă statele să testeze armele înainte de utilizare. În cazul AI, problema este că sistemele învață și se modifică permanent, ceea ce face dificilă evaluarea lor ca produs final stabil.

Cercetătorii avertizează că presiunea pentru decizii rapide pe câmpul de luptă poate duce la creșterea dependenței de algoritmi, reducând în același timp controlul uman asupra deciziilor critice.

Lipsa transparenței, principala temere

Un alt motiv de îngrijorare este lipsa transparenței. Companiile de inteligență artificială nu dezvăluie în general datele pe care sunt antrenate modelele și nici modul exact în care acestea ajung la anumite concluzii.

În domeniul militar, această opacitate este amplificată de secretul operațiunilor. Experții spun însă că este necesar un cadru minim de raportare publică pentru a permite controlul democratic asupra modului în care aceste tehnologii sunt utilizate.

Presiunea pentru transparență ar putea deveni tot mai importantă în anii următori, pe măsură ce inteligența artificială este integrată tot mai mult în operațiuni militare.

Miza este una fundamentală: dacă societatea acceptă sau nu ca decizia privind viața sau moartea unui om să fie influențată de un algoritm.