Oameni ”vânați” de drone militare complet autonome. Anchetă a Consiliul de Securitate al ONU

60b12f0285f54078a771fd1e_24846000
Drona fabricată de turci ar putea avea probleme
Potrivit unui raport recent al Consiliului de Securitate al ONU, o dronă militară ar fi putut ataca oamenii pentru prima dată fără a fi programată să facă acest lucru.

Raportul, publicat în martie, susținea că drona, un quadcopter Kargu-2, produsă de compania de tehnică militară turcă STM, a atacat soldații în retragere fideli generalului libian Khalifa Haftar.

Raportul de 548 de pagini al Grupului de experți al Consiliului de Securitate al ONU asupra Libiei nu a detaliat dacă au existat victime din cauza incidentului, dar ridică întrebări dacă mai au rost eforturile globale de interzicere a roboților autonomi ucigași.

Pe parcursul anului, Guvernul de acord național recunoscut de ONU a împins forțele afiliate Haftar (HAF) înapoi din capitala libiană Tripoli, iar drona ar fi putut fi funcțională din ianuarie 2020, au remarcat experții citați de New Scientist

„Convoaiele logistice și retragerea forțelor afiliate Haftar (HAF) au fost urmărite ulterior și atacate la distanță de vehiculele aeriene de luptă fără pilot sau de sistemele letale de arme autonome, cum ar fi STM Kargu-2”, a menționat raportul ONU.

Kargu este o dronă care folosește clasificarea obiectelor bazată pe învățarea automată pentru a selecta și angaja ținte, conform STM, și are, de asemenea, capacități de a zbura în roiuri pentru a permite 20 de drone să lucreze împreună.

„Sistemele de arme autonome letale au fost programate pentru a ataca ținte fără a necesita conectivitate între operator și muniție”, au scris experții în raport.

Drona fanion a lui Erdogan îi convinge pe aliați. Care țară din NATO a spart gheața

Mulți cercetători în domeniul roboticii și AI în trecut, inclusiv Elon Musk, și alte câteva personalități proeminente precum Stephen Hawking și Noam Chomsky au cerut interzicerea „armelor autonome de atac”, cum ar fi cele cu potențialul de a căuta și ucide anumite persoane pe baza programării lor.

Experții au avertizat că seturile de date utilizate pentru instruirea acestor roboți ucigași autonomi pentru a clasifica și identifica obiecte precum autobuze, mașini și civili ar putea să nu fie suficient de complexe sau robuste și că sistemul de inteligență artificială (AI) ar putea învăța greșit.

Ei au avertizat, de asemenea, despre „cutia neagră” în învățarea automată, în care procesul de luare a deciziilor în sistemele de AI este adesea opac, prezentând un risc real ca dronele militare complet autonome să execute ținte greșite, motivele rămânând greu de dezlegat.

Zachary Kallenborn, un consultant de securitate națională specializat în vehicule aeriene fără pilot, consideră că există un risc mai mare ca ceva să mearga prost atunci când mai multe astfel de drone autonome comunică și își coordonează acțiunile, cum ar fi un roi de drone.

„Comunicarea creează riscuri de eroare în cascadă, în care o eroare a unei unități este împărtășită cu alta”, a scris Kallenborn în Buletin.

„Dacă cineva ar fi ucis într-un atac autonom, ar reprezenta probabil un prim caz istoric cunoscut de arme autonome bazate pe inteligență artificială folosite pentru a ucide”, a adăugat el.

Oana Pavelescu este jurnalist specializat în domeniul economic și financiar, cu experiență solidă în analiza politicilor fiscale, a piețelor energetice și a evoluțiilor macroeconomice din România și din spațiul european. Abordează subiectele cu rigoare, atenție la detaliu și orientare către impactul concret asupra mediului de afaceri și asupra populației. Are expertiză în interpretarea documentelor oficiale – de la acte normative publicate în Monitorul Oficial până la rapoarte ale BNR, ANRE sau ale altor instituții-cheie – pe care le transformă în materiale clare, bine structurate și relevante pentru publicul interesat de economie, companii și politici publice.
Articole recomandate Vezi toate articolele
x close