(par Michele Gorga, avocate et membre de l'observatoire pour la coordination des DPD, RDT et Responsable de la réputation d'Aidr) En ce qui concerne la procédure automatisée de traitement des données à caractère personnel aux fins d'une décision administrative, la norme de référence comme on le sait est celle du 'art. 22 du RGPD de 2016/679 qui dispose que: «L'intéressé a le droit de ne pas être soumis à une décision fondée uniquement sur un traitement automatisé, y compris le profilage, qui produit des effets juridiques le concernant ou qui l'affecte de manière significative sur sa personne. " Ce principe peut se résumer dans la maxime que nul ne peut subir de conséquences sur ses droits en vue d'une décision entièrement adoptée à travers une machine, un algorithme, un autre processus décisionnel non humain, trouve sa correspondance dans le 15ème CONSIDÉRANT du RGPD 2016/679, où il est prévu que " Afin d'éviter l'apparition de risques graves de contournement, la protection des personnes physiques (le traitement) devrait être neutre d'un point de vue technologique et ne devrait pas dépendre des techniques utilisées… ». Les deux dispositions exprimées dans le règlement 2016/679 de l'UE sont donc parfaitement cohérentes avec les principes établis par le droit administratif interne qui, dans la coordination entre les règles de transparence et la nécessité de se conformer à la législation sur la protection des données, se combinent d'une part avec le pouvoir discrétionnaire administratif. , d'autre part avec la catégorie de l'acte lié auquel toutes les administrations publiques sont soumises et qui place, à notre attention, d'autres questions critiques par rapport à l'algorithme supposé à la base d'une décision adoptée par le système d'intelligence artificielle.

Le premier profil concerne la nécessité de respecter le principe de transparence, qui est désormais au cœur de l'activité de l'AP et doit être à la base des nouveaux services publics basés sur des algorithmes et des décisions automatisées. En ce sens, il sera nécessaire d'assurer la transparence non seulement des données, mais aussi des algorithmes, des logiques de construction de la base de données, du processus de fonctionnement du service. La seconde concerne la responsabilité juridique de l'administration publique même lorsqu'elle recourt à des solutions d'intelligence artificielle dans la fourniture de services ou dans les décisions de recourir à des procédures entièrement automatisées et la jurisprudence administrative a traité des affaires dans lesquelles la procédure administrative est entièrement régie par un machine et elle a évolué tout en maintenant l'hypothèse fondamentale, à savoir que la protection judiciaire ne peut être exclue ou limitée pour certaines catégories d'actes. Le juge administratif a abordé le problème du processus d'automatisation de la procédure administrative dans quelques sentences très récentes et a identifié trois principes de base en tant que régulateurs de la question; celui de la connaissabilité; celle de la non-exclusivité de la décision algorithmique; celui de la non-discrimination algorithmique.

S'appuyer sur le premier principe qui est «le droit de ne pas être soumis à une décision fondée uniquement sur un traitement automatisé, y compris le profilage», cela implique que toute décision algorithmique, prise par l'AP ne peut jamais être sans un contrôle par un fonctionnaire - personne physique accusation -, un principe déjà affirmé par le US District Court of Wisconsin et accepté par notre jurisprudence administrative avec l'arrestation jurisprudentielle cristallisée en 2019, ce qu'un récent avis rendu par le Privacy Guarantor semble ne pas reconnaître.

Et en fait sur la demande d'avis de la Province Autonome de Trente, concernant une proposition normalement préparée pour pouvoir effectuer des traitements qui impliquent des décisions entièrement automatisées, pour l'approbation éventuelle d'un futur projet de loi dans le cadre d'interventions de soutien économique- financière décaissée, c'est-à-dire relative à l'octroi de subventions, subventions, subventions et autres formes d'avantages économiques pour les résidents, la province a exprimé la possibilité d'utiliser, dans ces procédures, des systèmes, même totalement automatisés, de la logique algorithmique même si périodiquement vérifiés à afin de minimiser le risque d'erreurs, de distorsions ou de discrimination de toute nature.

Dans la demande, cependant, même s'il était prévu que la formule algorithmique serait pleinement portée à la connaissance des destinataires intéressés par la procédure administrative, - même si dans la même disposition, les prescriptions sur la manière de faire connaître la formule algorithmique aux destinataires - uniquement de manière générique il a été envisagé qu'il aurait été possible pour les parties intéressées de "contester les décisions prises sur la base de la même formule et de demander une intervention humaine effective" et, par conséquent, une intervention ex post et non ex ante avec violation conséquente du critère supplémentaire fixé par la législation Commission européenne de non-aggravation de la procédure administrative au détriment des utilisateurs de l'AP, le Garant, malgré les criticités évidentes, a émis un avis favorable sur les grandes lignes de la norme proposée et dicté des prescriptions et conditions qui apparaissent pourtant marginales et résiduelles. 

Confidentialité et prise de décision automatisée dans l'AP