Intelligence artificielle : opportunité ou arme catastrophique ? Arme infaillible même pour les terroristes

Massimiliano D'Elia

Chaque soir, dans l'émission télévisée "Striscia la Notizia" d'Antonio Ricci, nous regardons, apprécions, leader les hommes politiques et les institutions jonglent avec des danses improbables tout en chantant des chansons bizarres. Les protagonistes sont des personnalités illustres comme le Premier ministre italien en exercice, le Président de la République et les différents dirigeants de l'opposition. Ce sont précisément eux, bien vivants, qui répandent agréablement des bêtises à la télévision. 

Le mérite de l'artefact est un ,software qui utilise des rudiments de l'Intelligence Artificielle (IA) pour réaliser un véritable miracle télévisuel. Des applications similaires sont également disponibles moyennant un supplément sur les réseaux sociaux (Tik Tok). Nous ne sommes qu'au début de cette technologie innovante et passionnante qui doit cependant être « manipulée avec précaution » en raison des effets qu'elle pourrait avoir dans un avenir pas trop lointain. C’est pour cette raison que l’on parle de plus en plus de la nécessité d’adopter un code d’éthique lors de la recherche, du développement et de l’utilisation d’applications dans lesquelles l’IA pourrait être appelée à réaliser une action physique susceptible d’interférer avec le monde réel.

Par exemple, tout le monde s’accorde sur le fait que les appareils équipés d’IA doivent encore être autorisés par des humains avant de commettre un acte meurtrier (dans le domaine purement militaire). Axiome qui devient cependant réducteur face à une technologie qui, en théorie, saura apprendre, évoluer et surtout confondre l'adversaire qui pourrait un jour coïncider avec l'homme chargé de la contrôler.  

Quelques capacités d'IA simulées

En Chine, dans une université prestigieuse (Université d'aéronautique et d'astronautique de Nanjing), ils ont développé un programme qui simule une bataille aérienne entre deux chasseurs de dernière génération : l'un piloté par un être humain avec toutes ses limitations physiques et psychologiques, l'autre par l'IA. En moins de huit secondes à vitesse hypersonique, le combattant IA a facilement abattu son adversaire, tirant un missile « à l'envers », défiant toutes les lois connues de la physique.

Dans la simulation informatique, l'avion hypersonique a combattu un avion à réaction ennemi volant à Mach 1.3, proche de la vitesse maximale d'un F-35. Le pilote de l'avion hypersonique a reçu l'ordre d'abattre l'ennemi. L'instinct aurait dû diriger le pilote vers la cible, mais le pilote, guidé par l'Intelligence Artificielle, s'est dirigé vers une position inattendue, loin devant l'avion ennemi et a tiré un missile en arrière. Le missile a touché l'adversaire qui se trouvait à 30 km, mettant ainsi fin à la bataille en quelques secondes.

Nets de considérations et de craintes, les États, du moins en ce qui concerne leur propre dissuasion militaire, ont déjà lancé des programmes futuristes, comme des avions de sixième génération qui seront soutenus dans leurs missions par des appareils guidés par des entités équipées d'IA. Dans cette perspective, divers gouvernements tentent de réglementer, dans la mesure du possible, l'approche culturelle, sociale et productive de cette technologie nouvelle et inexplorée.

Chine

Exigences de sécurité de base pour le service d'intelligence artificielle générative est le titre d'un document récemment publié sous forme de projet parOrganisme national chinois le Standardisation de la sécurité de l'information qui dicte les spécifications auxquelles les fournisseurs doivent se conformer services basés sur l'IA générative. Le document, bien qu'encore dans une version non définitive, met en évidence l'approche du gouvernement chinois dans la gestion de l'impact de l'IA sur les relations sociales et politiques. Elle ne comprend pas seulement des règles juridiques, mais aussi des règles techniques, capables d'avoir une plus grande efficacité concrète, car elles doivent être respectées. première rendre un service disponible.

États-Unis

Le président américain, Joe Biden devrait signer la semaine prochaine un document traitant des progrès rapides de l'intelligence artificielle, ouvrant la voie à l'adoption par Washington de l'IA comme outil dans son arsenal de sécurité nationale. Une condition essentielle est que les entreprises développent la technologie de manière sûre, précise le rapport. Le document cherche donc à établir des lignes directrices pour l'utilisation de l'IA par les agences fédérales, tout en exploitant le pouvoir d'achat du gouvernement pour orienter les entreprises vers ce qu'il considère comme les meilleures pratiques. La Maison Blanche a également organisé un événement intitulé « Une IA sûre, sécurisée et fiable ».

L’administration américaine doit donc réglementer la question pour développer des capacités militaires nouvelles et innovantes afin de garantir une dissuasion mondiale crédible dans le temps. Il est prévu d'utiliser le Institut National des Standards et de la technologie identifier les références de l’industrie pour tester et évaluer les systèmes d’IA. Une autre condition est la surveillance par le gouvernement des engagements en matière d’IA récemment pris par les grandes entreprises américaines.

Parmi certains secteurs identifiés par le gouvernement américain figurent les menaces pour la cybersécurité suite à l’avènement de l’intelligence artificielle. 

On s’attend à ce que l’intelligence artificielle devienne une ressource importante pour identifier les menaces en analysant les vulnérabilités et les tentatives. phishing, réseaux sociaux, e-mail et chat. Cela pourrait également être utile pour trouver des modèles dans les rapports de renseignement que les humains pourraient manquer. Les chercheurs en sécurité et les responsables du renseignement ont déclaré que l’IA peut être un outil nécessaire pour améliorer considérablement les cyberdéfenses des entreprises, des infrastructures critiques, des agences gouvernementales et des particuliers. Mais il pourrait également être utilisé comme une arme par des gouvernements étrangers et des pirates informatiques pour écrire malware, automatisez plus facilement les tentatives d'intrusion et réagissez rapidement à l'évolution des défenses de sécurité.

Angleterre

L'intelligence artificielle pourrait aider les terroristes à développer des armes de destruction massive, l'avertissement est contenu dans un document rédigé pour le Premier ministre Rishi Sunak à l'occasion de son discours aux Chambres. L'analyse du rapport explique comment l'intelligence artificielle, tout en offrant des opportunités significatives, «implique également de nouveaux dangers et de nouvelles peurs« . Le document gouvernemental, rédigé avec le soutien de 50 experts, affirme que d’ici 2025, l’IA pourrait être utilisée pour commettre des fraudes et des cyberattaques. Le document explique que l’IA aura le potentiel de « renforcer les capacités terroristes » en matière de développement d’armes, de planification d’attaques et de dans la production de propagande. La gamme des risques les plus graves qui pourraient apparaître d’ici 2030 comprend les « désinformation de masse » et une « crise » de l’emploi suite à l’utilisation massive de l’IA dans les métiers manuels où l’utilisation de l’humain est actuellement attendue.

Mais dans le même temps, l’IA débouchera sur « de nouvelles connaissances, de nouvelles opportunités de croissance économique, de nouveaux progrès dans les capacités humaines et la possibilité de résoudre des problèmes autrefois considérés comme insolubles ». 

Le document indique également qu’il n’existe actuellement pas suffisamment de preuves pour exclure une menace pour l’humanité de l’IA. 

D’ici 2030, souligne le rapport, les entreprises technologiques pourraient en développer un "superintelligence" dispositif artificiel capable d'accomplir des tâches complexes et de tromper les êtres humains, ce qui représenterait un risque « catastrophique ». Un autre exemple explique comment une entreprise pourrait acquérir une domination technologique au détriment de ses concurrents mondiaux. Le rapport prévient également que l’IA pourrait « considérablement exacerber les cyber-risques existants » si elle est utilisée de manière inappropriée, par exemple en lançant des cyberattaques de manière autonome.

"Ces systèmes sont capables d'accomplir des tâches complexes qui nécessitent une planification et un raisonnement et peuvent interagir les uns avec les autres de manière flexible.», lit-on dans le rapport. "Une fois qu’ils ont défini une tâche, ils développent une stratégie avec des sous-objectifs et acquièrent de nouvelles compétences.

Cependant, des « conséquences inattendues » peuvent survenir, notamment le « détournement » d’informations et de ressources pour atteindre des objectifs.

Les innovations futures en matière de logiciels et de matériel permettront à l’IA « d’interagir avec le monde physique » via des robots et des voitures autonomes. "Ces systèmes autonomes collecteront de grandes quantités de données, qui seront canalisées pour affiner leurs capacités", indique le rapport.

Intelligence artificielle : opportunité ou arme catastrophique ? Arme infaillible même pour les terroristes