L'IA utilisée par les terroristes ? Il faut une réglementation mondiale de la technologie

(Pour Massimiliano D'Elia) L'intelligence artificielle représente une menace pour la sécurité nationale, selon les experts britanniques de la lutte contre le terrorisme. La technologie pourrait être utilisée pour persuader les personnes vulnérables de commettre des attentats terroristes, avertissent les experts.

Le débat en Angleterre entre les législateurs est suffisamment ouvert pour placer la question parmi les plus sensibles concernant la sécurité nationale. La technologie devra être conçue en tenant compte des risques associés à son utilisation par les différents groupes terroristes dans le monde.

À ce jour, le développement de l'IA ne s'est intéressé qu'aux aspects positifs de son utilisation, négligeant ceux qui peuvent devenir dangereux pour la sécurité d'une nation. Les terroristes pourraient utiliser le potentiel inexploré de l'IA pour mener des attaques terroristes sans précédent à des coûts relativement bien inférieurs à ceux du passé.

Les experts britanniques sont très préoccupés par la capacité des différents chatbots IA qui existent déjà à influencer la pensée et l'action d'un simple utilisateur. L'interaction entre l'être humain et l'IA est choquante puisqu'un logiciel sophistiqué parvient facilement à simuler et traiter des conversations humaines (écrites ou parlées) vous permettant d'interagir comme une vraie personne cogitant.

LA FAIBLESSE.L'être humain vis-à-vis du logiciel est suggestible, d'où la faiblesse de l'homme vis-à-vis de l'évolution interactive de l'IA. Cela pourrait arriver au point où vous êtes persuadé d'agir. Il est possible que cette faiblesse humaine puisse être utilisée par des terroristes pour recruter de nouveaux adeptes prêts à sacrifier leur vie pour la cause.

À cet égard, le MI5 anglais analyse attentivement les capacités de certains chatbots, étudiés et déjà utilisés avec des enfants à des fins purement éducatives.

L'alarme a également été tirée par des centaines d'experts de l'industrie dans le monde entier qui ont appelé à une réglementation urgente de la technologie, allant jusqu'à déclarer publiquement que l'évolution précipitée des applications de l'IA pourrait menacer l'existence de la race humaine elle-même.

Il insiste sur le fait que la question centrale est de savoir comment les humains maintiennent «l'autonomie cognitive», c'est-à-dire le contrôle sur l'IA et comment ce contrôle est intégré à la technologie.

Le Premier ministre, Rishi Sunak, il soulèvera la question lorsqu'il se rendra aux États-Unis pour rencontrer le président Biden et des membres éminents du Congrès. La semaine dernière, Sunak a déclaré que la Grande-Bretagne souhaitait devenir un centre mondial pour l'IA et sa réglementation, insistant sur le fait qu'elle pourrait encore apporter "d'énormes avantages à l'économie et à la société".

Au Royaume-Uni, pendant ce temps, les efforts s'intensifient pour relever les défis de sécurité nationale posés par l'IA avec un partenariat entre M15 et l'Institut Alan Turing, l'organisme national pour la science des données et l'intelligence artificielle.

L'IA utilisée dans une bataille aérienne simulée en Chine révolutionne le concept de supériorité de l'aviation traditionnelle

En Chine, des chercheurs de l'Université d'aéronautique et d'astronautique de Nanjing ont déclaré que leur IA était la première à simuler une bataille aérienne impliquant un avion hypersonique volant à Mach 11. La technologie utilisée pour l'expérience a mis au point une tactique étonnante pour vaincre l'ennemi.
Dans la simulation informatique, un avion hypersonique est entré en collision avec un avion de chasse ennemi volant à Mach 1.3, proche de la vitesse maximale d'un F-35.
Le pilote de l'avion hypersonique a reçu l'ordre d'abattre l'ennemi. L'instinct aurait dû diriger le pilote vers la cible, mais le pilote, guidé par l'intelligence artificielle développée par l'équipe, a volé vers une position inattendue loin devant les avions ennemis et a tiré un missile vers l'arrière sur l'ennemi.
Le missile a touché le chasseur ennemi, qui se trouvait à 30 km (18,6 miles) derrière l'avion hypersonique, à une vitesse de Mach 11, mettre fin à la bataille en moins de huit secondes.

L'IA utilisée par les terroristes ? Il faut une réglementation mondiale de la technologie

| NOUVELLES ", PREUVE 1 |