L’Ue regolamenta per prima l’intelligenza artificiale

La normativa Ue vuole impedire discriminazioni, sorveglianza massiccia e la manipolazione creativa attraverso l’intelligenza artificiale. L’urgenza di regolamentare l’intelligenza artificiale è motivata dai rischi di abusi che potrebbero minacciare regimi democratici e la vita civile. Nonostante il successo dell’accordo, rimangono dubbi e velati risentimenti riguardo alla mancata regolamentazione di assistenti virtuali già diffusamente utilizzati come ChatGPT o Bard.

di Massimiliano D’Elia

Dopo una intensa settimana di incontri e discussioni, Parlamento e Consiglio hanno finalmente trovato la quadra, a livello politico, per la prima architettura normativa globale sull’utilizzo dell’intelligenza artificiale. L’obiettivo principale è stato quello di bilanciare le straordinarie opportunità di questa rivoluzionaria tecnologia con la necessità prioritaria di proteggere i diritti fondamentali dei cittadini comunitari. Le nuove regole saranno applicate in contesti sensibili come scuole, luoghi di lavoro, ospedali e tribunali, focalizzandosi sulla tutela delle persone più vulnerabili.

Durante le trattative, il Parlamento ha cercato norme più restrittive, mentre i governi hanno insistito su margini di manovra, sia in termini di sicurezza che nel settore economico. L’intesa, ora raggiunta, prevede l’applicazione a livello europeo di divieti con alcune eccezioni per l’identificazione biometrica a distanza da parte delle autorità di polizia e di sicurezza negli spazi pubblici. Inoltre, si introdurrà l’obbligo di condurre valutazioni più dettagliate per chi utilizza sistemi di intelligenza artificiale ad alto rischio.

Per quanto riguarda l’intelligenza artificiale generativa, il compromesso stabilisce regole comuni per garantire la qualità dei dati, verificare la conformità alle leggi sul diritto d’autore e identificare chiaramente suoni, immagini e testi artificiali. Vincoli più severi si applicheranno solo ai sistemi più potenti.

Il testo legislativo, che prevede sanzioni pecuniarie contro le imprese che violano i principi, richiederà ulteriori dettagli prima del voto definitivo di Parlamento e Consiglio. L’entrata in vigore completa del regolamento è prevista in due anni, rendendo l’Unione europea la prima giurisdizione al mondo a regolamentare l’intelligenza artificiale.

Emergenza Microchip

Nonostante i progressi normativi, l’Europa rimane in ritardo sul fronte dei microchip: solo Francia e Germania investono in promettenti start-up per colmare il divario. L’European Chips Act mira a raddoppiare la produzione di microchip entro il 2030. L’Italia, ad oggi, dimostra una mancanza di strategia chiara e dovrà muoversi in fretta iniziando, ad esempio, alla creazione di “foundation models” nazionali in grado di intercettare prima degli altri opportunità culturali nazionali.

L’AI Act

L’Artificial Intelligence Act suddivide i sistemi di intelligenza artificiale in quattro categorie di rischio, con agevolazioni per quelli a basso rischio e obblighi specifici per quelli ad alto rischio. I sistemi a rischio inaccettabile sono chiaramente vietati, mentre il rischio di trasparenza è valutato in casi come il “deep fake”.

Per quanto riguarda il riconoscimento biometrico, è permesso solo in contesti specifici, come ricerche mirate di vittime o prevenzione di minacce terroristiche. Si vietano pratiche che coinvolgono caratteristiche sensibili nei sistemi di categorizzazione biometrica.

L’accordo regolamenta i “foundation models“, richiedendo una valutazione preventiva per quelli ad alto impatto prima dell’accesso al mercato. Per i sistemi ad alto rischio, gli obblighi spaziano dalla valutazione del modello alla sicurezza informatica. I sistemi a rischio inaccettabile, come quelli che manipolano il comportamento umano, sono inequivocabilmente vietati, così come quelli che consentono il “social scoring” da parte di aziende e governi.

Inoltre, il testo menziona ChatGPT di OpenAI come una delle IA generative più potenti, mentre Gemini di Google è presentato come una risposta significativa. In Europa, il laboratorio di ricerca Kyutai si concentra sull’open source e sulla democratizzazione dell’intelligenza artificiale. Dalla Cina, Ernie Bot emerge come un’app di IA domestica con funzionalità simili a ChatGPT, specializzata in conversazioni di testo, risposta a domande e risoluzione di problemi matematici.

Subscribe to our newsletter!

L’Ue regolamenta per prima l’intelligenza artificiale

| ECONOMIA, EVIDENZA 1 |