Etica ed Intelligenza Artificiale

Views

(di Michele Gorga) Valutando il percorso dell’umanità dall’origine sino ai giorni nostri possiamo giungere ad una certezza ossia che la nostra realtà di sviluppo tecnologico non è lineare, ma esponenziale e ciò in forza della legge fondamentale che va sotto il nome di legge dell’accelerazione dei ritorni. Una legge, quest’ultima, che può essere compresa solo se uniamo dei punti su un piano cartesiano: sull’asse delle ascisse la x (orizzontale) poniamo il tempo, sull’asse delle ordinate (verticale) la y il livello del progresso tecnologico raggiunto a una certa data. La risultanza non è però una linea retta più o meno inclinata ma una curva esponenziale e in base alla tendenza che ne possiamo ricavare, possiamo ritenere che in pochi anni la stessa diventerà una retta parallela all’ordinata. Quindi non vi sarà più alcun punto di contatto con l’ordinata e la conseguenza sarà che non sapremo più rispetto l’ascissa dove in ogni singolo momento ci troviamo e, quindi, balzeremo nella condizione che la fisica quantistica chiama singolarità.

Per “singolarità” intendiamo quella condizione nella quale operano le quattro forze fondamentali della natura ossia: la gravità; l’elettromagnetismo; la forza forte quella che unisce i protoni nel nucleo nell’atomo; la forza debole che governa il principio del decadimento radioattivo. Queste forze le possiamo identificarle con le quattro lettere corrispondenti ossia la G di genetica; la R di robotica; la N di nano tecnologia; la I di intelligenza artificiale.

Procedendo con ordine, la G di “genetica” ci consente di identificare, di tutti gli esseri viventi, il codice genetico ci consentirà di migliorare la razza secondo il normotipo che in un dato momento storico la morale e l’ideologia vigente ne consentirà l’approdo e il poter essere, per l’uomo, quello che desidera essere, a prescindere di quello che si è, e quindi, organismi geneticamente modificati sulla base di ciò che la morale e la politica consentirà nel periodo storico relativo. Passando alla R di “Robotica” per essa dobbiamo intendere, non ciò che oggi è la robotica, ma macchine evolute che avranno sia le cognizioni di spazio che del tempo e in grado di assumere aspetti umani, Androidi, capaci di avere coscienza emotiva[7]. Quindi robotica non solo come macchine a guida intelligenza o assistenti di lavoro, ma entità capaci di relazionarsi in attività professionali con l’Uomo. La conseguenza che la robotica avrà sulla società e sulla politica saranno movimenti sociali volti a far riconoscere diritti civili agli Androidi e in generale a tutto il creato al mondo animale e vegetale all’ambiente ecc., anche in questo caso la morale e la politica sarà costretta a prendere posizione.

Passando alla N per “nano tecnologia” per essa dobbiamo intendere la tecnologia infinitamente micro, elementi liquidi che istantaneamente sono in grado di cambiare l’esterno e l’interno della realtà sostituendo e modificando lo stesso spazio dell’esistenza dell’uomo. Infine per I di “intelligenza artificiale” intendiamo ciò che storicamente può essere paragonato al Santo Graal, – nel senso di IA come algoritmo di vita e conoscenza eterna – o Deus ex-machina[8], la tecnologia più pericolosa e, per gli scenari futuri, una tecnologia così invasiva da minare il sistema dei valori e le fondamenta della civiltà umana e dell’uomo come storicamente è venuta nel tempo a determinarsi.

L’Intelligenza Artificiale si basa, infatti, su algoritmi i quali possono essere di dominio, di controllo, di arrivismo, di consumismo, di competizione, tutte tecnologie fulminanti per la senescenza umana e che potrebbero minare la stessa esistenza dell’umanità. Ed è proprio l’intelligenza artificiale che, più di ogni altra tecnologia, si sta sviluppando rapidamente nella nostra società e di conseguenza sta cambiando la nostra vita migliorando i servizi dell’assistenza sanitaria, aumentando l’efficienza dell’agricoltura, contribuendo a mitigare i cambiamenti climatici e a migliorare l’efficienza dei sistemi di produzione mediante l’analisi predittiva con aumento degli aspetti legati alla sicurezza. Al tempo stesso l’intelligenza artificiale, però, porta con sé nuovi rischi che sono connessi a meccanismi decisionali opachi, alle possibili discriminazioni basate sul genere, intrusioni nelle vite private o l’utilizzo di dispositivi in uso per scopi criminali. La tecnologia della IE è potente perché è diventata trasparente, e tutti ci affidiamo ai dispositivi che possiamo definire oramai come nostre protesi tecnologiche e cognitive. Per questo motivo siamo diventati più vulnerabili, da chi usa la tecnologia per scopi non etici o per scopi criminali.

Sono questi i motivi che hanno spinto verso la necessità di un coordinamento europeo per la disciplina della IE e ciò sia in ragione delle implicazioni umane ed etiche, insite nell’intelligenza artificiale, con la necessità di una profonda riflessione per migliorare l’uso dei big data per l’innovazione, che per la necessità di una disciplina normativa cogente e investimenti volti a realizzare un duplice obiettivo ossia quello di  promuovere, da un lato, l’utilizzo capillare dell’IA e, dall’altro, di mitigare tutti i possibili rischi associati alla nuova tecnologia digitale.

Queste le ragioni profonde che sono alla base delle comunicazioni del 25 aprile 2018 e del 7 dicembre 2018, con le quali la Commissione europea ha esposto la propria visione sull’ intelligenza artificiale (IA), battezzata come “IA ‘made in Europe’ etica, sicura e all’avanguardia”.

La visione della Commissione si fonda su tre pilastri: 1) aumentare gli investimenti pubblici e privati nell’IA per promuoverne l’adozione, 2) prepararsi ai cambiamenti socioeconomici e 3) garantire un quadro etico e giuridico adeguato a rafforzare i valori europei. Per sostenere l’attuazione di tale visione, la Commissione ha istituito il gruppo di esperti ad alto livello sull’intelligenza artificiale, un gruppo indipendente incaricato di elaborare due documenti: 1) gli orientamenti etici per l’IA e 2) le raccomandazioni sugli investimenti e la politica.

Per il gruppo, per quanto riguarda il documento sugli orientamenti etici per l’IA, occorre tenere presente che i sistemi di IA, pur offrendo vantaggi concreti agli individui e alla società, comportano comunque anche dei rischi e avere effetti negativi, anche difficili da prevedere,  ad esempio sulla democrazia, sullo Stato di diritto, sulla giustizia distributiva o sulla stessa mente umana. Ecco perché è necessario, per secondo il gruppo di esperti, adottare provvedimenti adeguati volti ad attenuare i rischi, in modo proporzionato alla loro portata e prendere in considerazione metodi volti a garantirne l’attuazione. In primis per gli esperti occorre favorire la ricerca e l’innovazione a sostegno della valutazione dei sistemi di IA e del raggiungimento del rispetto dei requisiti, diffonderne i risultati, per formare una nuova generazione di esperti in etica dell’IA. Di conseguenza informare in modo chiaro i portatori di interessi in merito a quelle che sono le capacità e i limiti del sistema. Essere trasparenti, agevolare la tracciabilità e la verificabilità dei sistemi di IA, in particolare in contesti o situazioni critiche, diventa essenziale così come coinvolgere i portatori di interessi durante l’intero ciclo di vita del sistema di AI e promuovere la formazione e l’istruzione affinché tutti i portatori di interessi siano formati e informati in merito all’IA affidabile.  Proprio muovendo da quest’ultima, ossia l’esigenza di avere una AI affidabile, occorre sottolineare che per le persone e le società l’affidabilità rappresenta un prerequisito per lo sviluppo, la distribuzione e l’utilizzo di sistemi stessi. Diversamente l’utilizzo delle relative tecnologie ne potrebbe risultare ostacolata e così verrebbero rallentati i possibili   benefici sociali ed economici.  La fiducia, quindi, nello sviluppo, nella distribuzione e nell’utilizzo dei sistemi di IA non riguarda solo le proprietà intrinseche della tecnologia, ma anche le qualità dei sistemi tecnici e sociali. Il gruppo di lavoro ha così fissato, nel relativo primo documento gli orientamenti per una intelligenza artificiale, affidabile prevedendo che la stessa dovrebbe basarsi su tre componenti.

Queste sono state individuate: a) nella legalità, l’IA ossia una Intelligenza Artificiale sottomessa  a tutte le leggi e ai regolamenti applicabili nella specifica materia;  b) eticità, l’IA da intendere come l’insieme delle norme del codice etico e dei relativi principi e valori etici da tenere sempre presente; c) robustezza, dal punto di vista tecnico e sociale poiché anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali. Ora ciascuna delle predette componenti per sé è necessaria ma tuttavia non sufficiente per una Intelligenza Artificiale affidabile. Queste tre componenti sono innanzitutto rivolta ai portatori di interessi e sono indicazioni cogenti su come i predetti principi etici possano essere resi operativi in sistemi sociali e tecnici.

Muovendo dall’approccio basato sui diritti fondamentali vengono individuati, anzitutto, i principi etici e i valori correlati che devono essere rispettati nello sviluppo e nella distribuzione e nell’utilizzo dei sistemi di IA per passare, poi, alle indicazioni su come realizzare un’IA affidabile mediante la declinazione dei  sette requisiti che i sistemi di IA dovrebbero soddisfare e per la cui attuazione possono essere utilizzati metodi tecnici e non tecnici e che vengono individuati: 1)- nello intervento e sorveglianza umani;  2)- nella robustezza tecnica e di sicurezza, 3)- nella riservatezza e governance dei dati, 4)-nella trasparenza, 5)-nella diversità, non discriminazione ed equità, 6)-nel benessere sociale e ambientale e 7)-nell’accountability. Infine il gruppo degli esperti ha proposto una lista di controllo per la valutazione dell’affidabilità dell’IA che può aiutare a rendere operativi i sette requisiti appena elencati. Nella sezione finale del documento, infine, sono stati illustrati esempi di opportunità vantaggiose e di serie preoccupazioni che i sistemi di IA  suscitano pur nella consapevolezza che l’Europa gode di un vantaggio esclusivo, che deriva dal suo impegno a porre il cittadino al centro delle proprie attività.

Michele Gorga, avvocato e componente osservatorio per il coordinamento dei DPO di AIDR

Etica ed Intelligenza Artificiale

| ATTUALITA', EVIDENZA 3 |