Inteligența artificială este deja folosită în război

de Aniello Fasano

În ochii opiniei publice, inteligența artificială (IA) va avea evoluții enorme, mai ales în aspectele recreative, schimbând viața fiecăruia dintre noi fără să ne putem imagina cât de mult. Totul devine mult mai serios și îngrijorător la simplul gând de a putea aplica noi tehnologii pentru a conduce războaie. Pe de altă parte, IA este deja utilizată pe scară largă atât în ​​Ucraina, cât și în Gaza, unde conflictele în curs au adus instrumente și programe în continuă evoluție și perfecționare pe câmpul de luptă. Multe decizii „esențiale” ar fi luate deja pe baza aplicării algoritmilor generați cu AI, ridicând multe îndoieli cu privire la etica, moralitatea și legitimitatea utilizării anumitor tehnologii în scenarii de război. Și este, în mod realist, o cale care va fi parcursă de toate armatele în scurt timp. În practică, algoritmul achiziționează date care sunt ulterior amestecate cu o multitudine de alte informații obținute de la drone, camere și sisteme de supraveghere. Rezultatul acestei împletiri „inteligente” de informații sunt liste cu posibile ținte de lovit.

Sursa TRT World

În urmă cu câteva luni această știre a devenit cunoscută public prin ancheta efectuată de +972 Revista e Apel local, conform căreiaForța de Apărare a Israelului (IDF) ar dezvolta și va folosi un program bazat pe inteligență artificială, numit Lavandă, să identifice și să lovească ținte palestiniene, în special în primele etape ale războiului. Forțele israeliene au negat folosirea acestuia. Armata israeliană ar folosi inteligența artificială pentru a identifica potențiale ținte din Gaza și apoi le va bombarda. Pentru a dezvălui posibila existență a acestui „mașină de război avansată„Ar fi fost niște oficiali ai serviciilor de informații israeliene care, după cum a raportat revista independentă israeliano-palestiniană,”au servit în armată în timpul războiului din Gaza și au fost implicați personal în utilizarea AI pentru a identifica țintele de lovit”. Această știre, dacă ar fi confirmată, ar oferi explicații valoroase asupra numărului mare de victime civile din Gaza și ar reprezenta o dovadă a tranziției către un război modern care se bazează aproape în întregime pe aplicarea algoritmilor generați de IA.

Nimic nou până la urmă Calculator a fost nascut"în război și din război". Colos a fost construit în 1944 pentru a sparge codurile naziste. Progresul exponențial recent al inteligenței artificiale permite fapte uimitoare în recunoașterea obiectelor și rezolvarea problemelor de ordin superior. Astăzi, cipurile foarte mici și ieftine ghidează dronele către țintele lor, extinzând o tehnologie limitată cândva la rachetele unei superputeri. În fiecare an, lideri internaționali se întâlnesc pentru a discuta despre utilizarea militară responsabilă a IA, stimulând o discuție etică cu privire la preocupările privind apariția acestei tehnologii și utilizarea ei în timpul conflictelor armate. 

După cum a raportatEconomist, tehnologia revoluționează înainte de toate comanda și controlul războaielor. Dronele reprezintă doar ultima și cea mai dramatică verigă din lanțul uciderii, a setului de pași care încep cu căutarea țintei și se termină cu distrugerea acesteia. AI selectează și procesează datele la viteză supraomenească, poate localiza cu precizie un rezervor din mii de imagini din satelit sau poate interpreta lumina, căldura, sunetul și undele radio. Sistemele de inteligență artificială, asociate cu roboți autonomi pe uscat, pe mare și pe aer, vor găsi și distruge ținte cu o viteză fără precedent și la scară masivă.

Dacă, în mod tragic, primul război alimentat de inteligență artificială ar declanșa, este posibil ca dreptul internațional să fie împins rapid pe margine. Un motiv în plus să ne gândim astăzi la cum să limităm distrugerea totală a planetei. China, de exemplu, ar trebui să acorde mai multă atenție cererii SUA de a exclude controlul inteligenței artificiale asupra armelor nucleare. Sistemele de inteligență artificială concepute pentru a maximiza avantajul militar ar trebui să fie codificate cu valori și restricții pe care comandanții umani le consideră naiv de bune, punând o valoare implicită vieții umane. Stabilirea câți civili este acceptabil să ucizi în urmărirea unui obiectiv de mare valoare nu este doar o problemă etică, ci o problemă de supraviețuire.

Incertitudinile sunt profunde, în timp ce singurul lucru sigur este că schimbarea determinată de inteligența artificială este acum o realitate. Armatele care anticipează și stăpânesc progresele tehnologice mai întâi și cel mai eficient vor prevala probabil.

Sistemul Lavandă

Lavandă, potrivit unui raport aprofundat al Postului, a fost dezvoltat de divizia de elită a Forțelor de Apărare Israel (IDF), Unitatea 8200, cu scopul de a îmbunătăți strategiile de atac asupra populației din Fâșia Gaza. Înainte de angajare Lavandă alegerea țintei umane a fost limitată la un membru de nivel înalt al aripii militare a Hamas.

După 7 octombrie, armata a decis să indice ca posibilă țintă umană toți operatorii aripii militare Hamas, indiferent de nivelul lor de importanță. Problema tehnică a identificării unui număr mare de ținte într-un timp scurt a fost rezolvată cu Lavandă, folosit pentru a sistematiza identificarea persoanelor care ar putea fi considerate militanți Hamas.

Software-ul Lavandă analizează informațiile colectate de sistemul de supraveghere în masă activ în Fâșie și atribuie un scor de la 1 la 100 aproape fiecărui palestinian, evaluând probabilitatea ca acesta să fie militant. Lavanda a fost instruită să distingă caracteristicile agenților Hamas, apoi a învățat să găsească aceleași caracteristici în populația generală. O persoană cu caracteristici mai asemănătoare primește un scor mare și este automat o țintă potențială.

Cu Lavender, țintele nu sunt identificate de om, ci de inteligența artificială care a desfășurat cea mai mare parte a lucrării, uneori comitând greșeli și, de asemenea, identificând drept ținte lucrători de poliție, rude ale militanților sau rezidenți care aveau un nume și porecla identice cu cele ale lui. militanţii.

Unele surse ale armatei israeliene au explicat funcționarea „toleranțe preautorizate” privind numărul de civili care ar putea fi uciși într-un atac împotriva țintelor identificate de Lavandă. În primele săptămâni de război a fost permisă uciderea a 15 sau 20 de civili pentru a ucide militanți de rang inferior, în timp ce limita a fost ridicată la 100 pentru militanții de rang înalt. Acest lucru ar explica numărul mare de civili uciși până în prezent în Fâșia Gaza.

Aboneaza-te la newsletter-ul nostru!

Inteligența artificială este deja folosită în război