Ethique et intelligence artificielle

(par Michele Gorga) En évaluant le chemin de l'humanité de son origine à nos jours, nous pouvons atteindre une certitude qui est que notre réalité de développement technologique n'est pas linéaire, mais exponentielle et ce en vertu de la loi fondamentale qui va sous le nom de loi d'accélération des rendements. Une loi, celle-ci, qui ne peut être comprise que si l'on joint des points sur un plan cartésien: sur l'axe des abscisses le x (horizontal) on fixe le temps, sur l'axe des ordonnées (vertical) le y le niveau de progrès technologique atteint à une certaine date. Le résultat, cependant, n'est pas une ligne droite plus ou moins inclinée mais une courbe exponentielle et sur la base de la tendance que l'on peut en déduire, on peut croire que dans quelques années elle deviendra une droite parallèle à l'ordonnée. Il n'y aura donc plus de point de contact avec l'ordonnée et la conséquence sera que nous ne connaîtrons plus l'abscisse où nous sommes à chaque instant et, par conséquent, nous sauterons dans la condition que la physique quantique appelle singularité.

Par «singularité», nous entendons la condition dans laquelle opèrent les quatre forces fondamentales de la nature, à savoir: la gravité; électromagnétisme; la force forte qui unit les protons dans le noyau de l'atome; la force faible qui régit le principe de la désintégration radioactive. Nous pouvons identifier ces forces avec les quatre lettres correspondantes qui est le G de la génétique; le R de la robotique; le N de la nanotechnologie; le I de l'intelligence artificielle.

En procédant dans l'ordre, le G de la «génétique» nous permet d'identifier, de tous les êtres vivants, le code génétique nous permettra d'améliorer la race selon le normotype qu'à un moment historique donné la morale et l'idéologie en vigueur permettront sa atterrir et pouvoir être, pour l'homme, ce qu'il souhaite être, quel qu'il soit, et donc des organismes génétiquement modifiés sur la base de ce que la morale et la politique permettront dans la période historique relative. En nous tournant vers le R de la "robotique", il faut dire, non pas ce qu'est la robotique aujourd'hui, mais des machines avancées qui auront à la fois la connaissance de l'espace et du temps et capables de prendre des aspects humains, les androïdes, capables d'avoir une conscience émotionnelle [7 ]. Donc la robotique non seulement en tant que machines intelligentes ou assistants de travail, mais en tant qu'entités capables de nouer des relations professionnelles avec l'Homme. La conséquence que la robotique aura sur la société et sur la politique sera des mouvements sociaux visant à reconnaître les droits civils aux androïdes et en général à toute la création, au monde animal et végétal, à l'environnement, etc., également dans ce cas, la morale et la politique seront forcé de prendre position.

En passant à N pour «nanotechnologie», il faut dire pour cela une microtechnique infinie, des éléments liquides capables de changer instantanément l'extérieur et l'intérieur de la réalité en remplaçant et en modifiant l'espace même de l'existence humaine. Enfin, par I d '«intelligence artificielle», nous entendons ce que l'on peut historiquement comparer au Saint Graal, - au sens de l'IA comme algorithme de vie et de connaissance éternelle - ou Deus ex-machina [8], la technologie la plus dangereuse et, pour les scénarios futur, une technologie si envahissante qu'elle sape le système de valeurs et les fondements de la civilisation humaine et de l'homme tel qu'il a été historiquement déterminé avec le temps.

En fait, l'Intelligence Artificielle repose sur des algorithmes qui peuvent être de domination, de contrôle, de carriérisme, de consumérisme, de concurrence, autant de technologies qui fulminent pour la sénescence humaine et qui pourraient saper l'existence même de l'humanité. Et c'est précisément l'intelligence artificielle qui, plus que toute autre technologie, se développe rapidement dans notre société et par conséquent change nos vies en améliorant les services de santé, en augmentant l'efficacité de l'agriculture, en aidant à atténuer changement climatique et améliorer l'efficacité des systèmes de production grâce à l'analyse prédictive avec une augmentation des aspects de sécurité. Dans le même temps, cependant, l'intelligence artificielle comporte de nouveaux risques liés à des mécanismes de décision opaques, à une éventuelle discrimination fondée sur le sexe, à des intrusions dans la vie privée ou à l'utilisation d'appareils utilisés à des fins criminelles. La technologie IE est puissante car elle est devenue transparente, et nous comptons tous sur des appareils que nous pouvons désormais définir comme nos prothèses technologiques et cognitives. Pour cette raison, nous sommes devenus plus vulnérables, par ceux qui utilisent la technologie à des fins non éthiques ou à des fins criminelles.

Telles sont les raisons qui ont conduit à la nécessité d'une coordination européenne pour la discipline de l'IE et cela est dû aux implications humaines et éthiques inhérentes à l'intelligence artificielle, avec la nécessité d'une réflexion approfondie pour améliorer l'utilisation des grands donné pour l'innovation, qui en raison de la nécessité d'une discipline réglementaire obligatoire et des investissements visant à atteindre un double objectif, à savoir celui de promouvoir, d'une part, l'utilisation généralisée de l'IA et, d'autre part, d'atténuer tous les risques associés aux nouvelles technologies numériques.

Telles sont les raisons profondes qui sous-tendent les communications du 25 avril 2018 et du 7 décembre 2018, avec lesquelles la Commission européenne a présenté sa vision de l'intelligence artificielle (IA), baptisée «IA 'made in Europe' éthique, sûr et avant-gardiste ".

La vision de la Commission repose sur trois piliers: 1) accroître les investissements publics et privés dans l'IA pour promouvoir son adoption, 2) se préparer au changement socio-économique et 3) garantir un cadre éthique et juridique approprié pour renforcer les valeurs européennes. Pour soutenir la mise en œuvre de cette vision, la Commission a créé le groupe d'experts de haut niveau sur l'intelligence artificielle, un groupe indépendant chargé d'élaborer deux documents: 1) les lignes directrices éthiques pour l'IA et 2) les recommandations d'investissement et la politique.

Pour le groupe, s'agissant du document sur les lignes directrices éthiques de l'IA, il faut garder à l'esprit que les systèmes d'IA, tout en offrant des bénéfices concrets aux individus et à la société, comportent toujours des risques et ont des effets négatifs, voire difficiles à prévoir. , par exemple sur la démocratie, l'état de droit, la justice distributive ou l'esprit humain lui-même. C’est pourquoi il est nécessaire, selon le groupe d’experts, de prendre les mesures appropriées pour atténuer les risques, de manière proportionnée à leur ampleur, et d’envisager des méthodes pour assurer leur mise en œuvre. Tout d'abord, pour les experts, il est nécessaire de favoriser la recherche et l'innovation pour soutenir l'évaluation des systèmes d'IA et la réalisation du respect des exigences, en diffusant les résultats, pour former une nouvelle génération d'experts en éthique de l'IA. Par conséquent, informez clairement les parties prenantes des capacités et des limites du système. Être transparent, faciliter la traçabilité et la vérifiabilité des systèmes d'IA, en particulier dans des contextes ou des situations critiques, devient essentiel ainsi que d'impliquer les parties prenantes tout au long du cycle de vie du système d'IA et de promouvoir la formation et l'éducation afin que toutes les parties prenantes soient formées et informées sur une IA digne de confiance. Partant de cette dernière, c'est-à-dire la nécessité de disposer d'une IA fiable, il faut souligner que pour les personnes et les entreprises, la fiabilité est une condition préalable au développement, à la distribution et à l'utilisation des systèmes eux-mêmes. Sinon, l'utilisation des technologies connexes pourrait être entravée et ainsi les avantages sociaux et économiques possibles seraient ralentis. La confiance dans le développement, la distribution et l'utilisation des systèmes d'IA ne concerne donc pas seulement les propriétés intrinsèques de la technologie, mais aussi les qualités des systèmes techniques et sociaux. Le groupe de travail a ainsi établi, dans son premier document, les lignes directrices d'une intelligence artificielle fiable, à condition qu'elle repose sur trois composantes.

Celles-ci ont été identifiées: a) dans la légalité, l'IA qui est une Intelligence Artificielle soumise à toutes les lois et réglementations applicables en la matière; b) l'éthique, l'IA devant être comprise comme l'ensemble des règles du code d'éthique et les principes et valeurs éthiques connexes à toujours garder à l'esprit; c) robustesse, d'un point de vue technique et social car même avec les meilleures intentions, les systèmes d'IA peuvent causer des dommages involontaires. Or chacun des composants précités est en soi nécessaire mais néanmoins insuffisant pour une Intelligence Artificielle fiable. Ces trois éléments s'adressent principalement aux parties prenantes et sont des indications contraignantes sur la manière dont les principes éthiques susmentionnés peuvent être rendus opérationnels dans les systèmes sociaux et techniques.

En partant de l'approche fondée sur les droits fondamentaux, tout d'abord, les principes éthiques et les valeurs associées sont identifiés et doivent être respectés dans le développement, la distribution et l'utilisation des systèmes d'IA pour ensuite passer aux indications sur la manière de créer une IA fiable. à travers la déclinaison des sept exigences que les systèmes d'IA doivent satisfaire et pour lesquelles des méthodes techniques et non techniques de mise en œuvre peuvent être utilisées et qui sont identifiées: 1) - en intervention humaine et en surveillance; 2) - en robustesse technique et sécuritaire, 3) - en confidentialité des données et gouvernance, 4) -en transparence, 5) -en diversité, non-discrimination et équité, 6) -en bien-être social et environnemental et 7) -en 'responsabilité. Enfin, le groupe d'experts a proposé une liste de contrôle pour évaluer la fiabilité de l'IA qui peut aider à rendre opérationnelles les sept exigences énumérées ci-dessus. Enfin, dans la dernière partie du document, des exemples d'opportunités avantageuses et de graves préoccupations que les systèmes d'IA suscitent malgré la conscience que l'Europe bénéficie d'un avantage exclusif, qui découle de son engagement à placer le citoyen au centre de propres activités.

Michele Gorga, avocate et composante observatoire pour la coordination des OPH AIDR

Ethique et intelligence artificielle

| NOUVELLES ", PREUVE 3 |