Ethiek en kunstmatige intelligentie

(door Michele Gorga) Door het pad van de mensheid vanaf haar oorsprong tot op de dag van vandaag te evalueren, kunnen we een zekerheid bereiken, namelijk dat onze realiteit van technologische ontwikkeling niet lineair is, maar exponentieel en dit op grond van de fundamentele wet die de naam draagt wet van versnelling van rendement. Een wet, dit laatste, die alleen begrepen kan worden als we de punten op een cartesiaans vlak met elkaar verbinden: op de x-as (horizontaal) plaatsen we de tijd, op de ordinaat (verticale) as de y het niveau van technologische vooruitgang bereikt op een Bepaalde datum. Het resultaat is echter geen min of meer hellende rechte lijn, maar een exponentiële curve en op basis van de trend die we daaruit kunnen afleiden, kunnen we geloven dat deze over een paar jaar een rechte lijn zal worden parallel aan de ordinaat. Daarom zal er geen enkel contactpunt meer zijn met de ordinaat en het gevolg zal zijn dat we niet langer de abscis zullen kennen waar we ons op elk moment bevinden en daarom zullen we in de toestand springen die de kwantumfysica singulariteit noemt.

Met ‘singulariteit’ bedoelen we die toestand waarin de vier fundamentele krachten van de natuur werken, namelijk: zwaartekracht; elektromagnetisme; de sterke kracht is die welke de protonen in de kern van het atoom verenigt; de zwakke kracht die het principe van radioactief verval beheerst. We kunnen deze krachten identificeren met de vier overeenkomstige letters, namelijk de G van genetica; de R voor robotica; de N van nanotechnologie; het ik van kunstmatige intelligentie.

Als we op volgorde te werk gaan, stelt de G van ‘genetica’ ons in staat om van alle levende wezens de genetische code te identificeren, die ons in staat zal stellen het ras te verbeteren volgens het normotype dat op een bepaald historisch moment de geldende moraliteit en ideologie aankomst en voor de mens kunnen zijn wat hij wil zijn, ongeacht wat hij is, en dus genetisch gemodificeerde organismen op basis van wat de moraal en de politiek in de relevante historische periode zullen toestaan. Als we verder gaan met de R van ‘Robotica’, moeten we niet begrijpen wat robotica vandaag de dag is, maar geavanceerde machines die zowel kennis van ruimte als tijd zullen hebben en in staat zijn menselijke aspecten over te nemen, Androids, die in staat zijn een emotioneel bewustzijn te hebben. ]. Daarom is robotica niet alleen een door intelligentie aangedreven machine of werkassistent, maar ook een entiteit die in staat is om in professionele activiteiten met de mens om te gaan. Het gevolg dat robotica zal hebben op de samenleving en de politiek zullen sociale bewegingen zijn die gericht zijn op het erkennen van burgerrechten voor Androids en in het algemeen voor de hele schepping, voor de dieren- en plantenwereld, voor het milieu, enz., zelfs in dit geval zullen moraliteit en politiek gedwongen worden een standpunt in te nemen.

Als we verdergaan met de N voor 'nanotechnologie', dan moeten we hiermee oneindige microtechnologie bedoelen, vloeibare elementen die onmiddellijk in staat zijn om de buitenkant en binnenkant van de werkelijkheid te veranderen, en de ruimte van het menselijke bestaan ​​te vervangen en te wijzigen. Ten slotte bedoelen we met ‘kunstmatige intelligentie’ wat historisch gezien kan worden vergeleken met de Heilige Graal, – in de zin van AI als algoritme van eeuwig leven en kennis – of Deus ex-machina[8], de gevaarlijkste technologie en, voor de toekomstscenario's, een technologie die zo invasief is dat ze het waardensysteem en de fundamenten van de menselijke beschaving en van de mens ondermijnt, zoals dit historisch gezien in de loop van de tijd is bepaald.

Kunstmatige intelligentie is in feite gebaseerd op algoritmen die kunnen leiden tot overheersing, controle, carrièrisme, consumentisme, concurrentie, allemaal fulminerende technologieën voor menselijke veroudering en die het voortbestaan ​​van de mensheid zelf zouden kunnen ondermijnen. En het is precies de kunstmatige intelligentie die zich, meer dan welke andere technologie dan ook, snel ontwikkelt in onze samenleving en bijgevolg onze levens verandert door de gezondheidszorg te verbeteren, de efficiëntie van de landbouw te vergroten, de klimaatverandering te helpen verzachten en de efficiëntie van productiesystemen te verbeteren. door voorspellende analyses met een toename van veiligheidsgerelateerde aspecten. Tegelijkertijd brengt kunstmatige intelligentie echter nieuwe risico's met zich mee die verband houden met ondoorzichtige besluitvormingsmechanismen, mogelijke discriminatie op grond van geslacht, inbreuken op het privéleven of het gebruik van apparaten die voor criminele doeleinden worden gebruikt. IE-technologie is krachtig omdat deze transparant is geworden, en we vertrouwen allemaal op apparaten die we nu kunnen definiëren als onze technologische en cognitieve prothesen. Om deze reden zijn we kwetsbaarder geworden voor degenen die technologie gebruiken voor onethische of criminele doeleinden.

Dit zijn de redenen die hebben geleid tot de noodzaak van Europese coördinatie voor de discipline IE en dit zowel vanwege de menselijke als ethische implicaties die inherent zijn aan kunstmatige intelligentie, met de behoefte aan diepgaande reflectie om het gebruik van grote gegeven voor innovatie te verbeteren, en voor de noodzaak van bindende regelgevingsdiscipline en investeringen die gericht zijn op het bereiken van een dubbele doelstelling, namelijk het bevorderen van enerzijds het wijdverbreide gebruik van AI en anderzijds het beperken van alle mogelijke risico’s die met nieuwe digitale technologie gepaard gaan.

Dit zijn de diepgaande redenen die ten grondslag liggen aan de mededelingen van 25 april 2018 en 7 december 2018, waarmee de Europese Commissie haar visie op kunstmatige intelligentie (AI) uiteenzette, gedoopt als ‘ethische AI ​​‘made in Europe’, veilig en baanbrekend’ .

De visie van de Commissie is gebaseerd op drie pijlers: 1) het verhogen van de publieke en private investeringen in AI om de adoptie ervan te bevorderen, 2) het voorbereiden op sociaal-economische veranderingen en 3) het waarborgen van een adequaat ethisch en juridisch kader om de Europese waarden te versterken. Om de implementatie van deze visie te ondersteunen heeft de Commissie de High Level Expert Group on Artificial Intelligence opgericht, een onafhankelijke groep die tot taak heeft twee documenten te ontwikkelen: 1) de ethische richtlijnen voor AI en 2) de investeringsaanbevelingen en de politiek.

Voor de groep is het met betrekking tot het document over ethische richtlijnen voor AI noodzakelijk om in gedachten te houden dat AI-systemen weliswaar concrete voordelen bieden voor individuen en de samenleving, maar ook risico’s met zich meebrengen en negatieve effecten hebben, die bijvoorbeeld ook moeilijk te voorspellen zijn. over de democratie, de rechtsstaat, de verdelende rechtvaardigheid of de menselijke geest zelf. Daarom is het volgens de groep van deskundigen noodzakelijk om passende maatregelen te nemen die gericht zijn op het mitigeren van de risico's, op een wijze die in verhouding staat tot de omvang ervan, en om methoden te overwegen die erop gericht zijn de implementatie ervan te garanderen. In de eerste plaats is het voor experts noodzakelijk om onderzoek en innovatie aan te moedigen om de evaluatie van AI-systemen en het bereiken van naleving van de vereisten te ondersteunen, de resultaten te verspreiden en een nieuwe generatie experts op te leiden in AI-ethiek. Informeer belanghebbenden daarom duidelijk over de mogelijkheden en beperkingen van het systeem. Transparant zijn, het faciliteren van de traceerbaarheid en verifieerbaarheid van AI-systemen, vooral in kritieke contexten of situaties, wordt essentieel, evenals het betrekken van belanghebbenden gedurende de gehele levenscyclus van het AI-systeem en het bevorderen van training en opleiding om ervoor te zorgen dat alle belanghebbenden worden opgeleid en getraind. geïnformeerd over betrouwbare AI. Juist uitgaande van dit laatste, namelijk de noodzaak om over betrouwbare AI te beschikken, moet worden onderstreept dat betrouwbaarheid voor mensen en samenlevingen een voorwaarde is voor de ontwikkeling, distributie en gebruik van de systemen zelf. Anders zou het gebruik van de relevante technologieën kunnen worden belemmerd en zouden de mogelijke sociale en economische voordelen worden afgeremd. Vertrouwen in de ontwikkeling, inzet en het gebruik van AI-systemen heeft dus niet alleen betrekking op de intrinsieke eigenschappen van de technologie, maar ook op de kwaliteiten van de technische en sociale systemen. De werkgroep heeft dus in haar eerste document de richtlijnen voor betrouwbare kunstmatige intelligentie vastgelegd, waarbij zij voorzag dat deze gebaseerd zou moeten zijn op drie componenten.

Deze zijn geïdentificeerd: a) op het gebied van legaliteit, AI of kunstmatige intelligentie, met inachtneming van alle wet- en regelgeving die op de specifieke kwestie van toepassing is; b) ethiek, AI moet worden opgevat als het geheel van regels van de ethische code en de daarmee samenhangende ethische principes en waarden die altijd in gedachten moeten worden gehouden; c) robuustheid, vanuit technisch en sociaal oogpunt, aangezien AI-systemen zelfs met de beste bedoelingen onbedoelde schade kunnen veroorzaken. Nu is elk van de bovengenoemde componenten op zichzelf noodzakelijk maar toch niet voldoende voor betrouwbare Kunstmatige Intelligentie. Deze drie componenten zijn primair gericht op belanghebbenden en vormen bindende indicaties over hoe de bovengenoemde ethische principes in sociale en technische systemen operationeel kunnen worden gemaakt.

Vertrekkend van de aanpak gebaseerd op fundamentele rechten, identificeren we allereerst de ethische principes en daaraan gerelateerde waarden die gerespecteerd moeten worden bij de ontwikkeling, distributie en gebruik van AI-systemen en gaan vervolgens verder met indicaties over hoe betrouwbare AI gecreëerd kan worden. door de declinatie van de zeven eisen waaraan AI-systemen moeten voldoen en voor de implementatie waarvan technische en niet-technische methoden kunnen worden gebruikt en die worden geïdentificeerd: 1) - bij menselijk ingrijpen en toezicht; 2)- op het gebied van technische en beveiligingsrobuustheid, 3)- op het gebied van gegevensprivacy en -beheer, 4)- op het gebied van transparantie, 5)- op het gebied van diversiteit, non-discriminatie en gelijkheid, 6)- op het gebied van sociaal en ecologisch welzijn en 7)- op het gebied van ‘verantwoording. Ten slotte heeft de expertgroep een checklist voorgesteld voor het beoordelen van de betrouwbaarheid van AI, die kan helpen de zeven hierboven genoemde vereisten te operationaliseren. Ten slotte werden in het laatste deel van het document voorbeelden geïllustreerd van voordelige kansen en ernstige zorgen die AI-systemen oproepen, ondanks het besef dat Europa een exclusief voordeel geniet, dat voortkomt uit zijn toewijding om de burger in het middelpunt van zijn eigen activiteiten te plaatsen.

Michele Gorga, advocaat en lid van het observatorium voor de coördinatie van AIDR DPO's

Ethiek en kunstmatige intelligentie

| NIEUWS ', BEWIJS 3 |