L’Intelligenza Artificiale corre mentre  la regolamentazione rallenta

di Massimiliano D’Elia

Dopo un anno dall’inizio della rivoluzione tecnologica, legata alle nuove opportunità che offrono le applicazioni di sistemi studiati, tramite algoritmi di intelligenza artificiale (IA), si evidenziano preoccupazioni etiche e di sicurezza, inclusi rischi come la disinformazione e la perdita di controllo sulla tecnologia. La rottura a seguito di rumors e allontanamenti forzati all’interno di OpenAI, società leader nell’IA, tra la componente filantropica e quella commerciale, è una conseguenza diretta di questa rivoluzione che investe comuni cittadini, grandi aziende ma anche gli Stati che cercano di scongiurare l’utilizzo malevolo dell’IA da parte di gruppi terroristici e cybercriminali.

Il fondatore della prima azienda del settore la Open AI, Sam Altman, inizialmente orientato verso scopi non profit, ha spostato l’attenzione verso il business per via di nuove straordinarie opportunità di mercato. Il successo della prima piattaforma ChatGPT ha amplificato, di fatto, le contraddizioni di una struttura che, nonostante l’obiettivo iniziale era quello di evitare un capitalismo senza regole, si è trovata a governare una realtà impegnata a massimizzare il profitto.

OpenAI, la prima organizzazione che ha proposto sul mercato un innovativo modello di IA, denominato ChatGPT, ha dovuto, quindi, affrontare una cruenta lotta interna presso il consiglio di amministrazione, composto sia da membri della componente filantropica che da quelli della componente affaristica-commerciale. Sono emerse, con forza, contraddizioni e visioni divergenti riguardo all’etica e al profitto. In particolare Altman, pur avendo preoccupazioni etiche, ha gradualmente spostato l’equilibrio verso il business, riconoscendo le straordinarie opportunità di mercato offerte dall’intelligenza artificiale.

La recente lotta interna a OpenAI è descritta come la prima battaglia per definire il futuro dell’IA, dove la componente orientata al commercio e al business ha surclassato quella associativa e senza scopi di lucro.

Occore però ora affrontare le sfide immediate, come il rischio di disinformazione nelle elezioni del 2024, e il pericolo di scenari apocalittici. Condizioni estreme dove la macchina (dotata di superintelligenza) potrebbe prevalere sulle decisioni dell’uomo amplificando il concetto Terminator, più volte evocato da coloro che rimangono scettici di fronte a questa inesplorata tecnologia alla quale, secondo opinione condivisa, occorre imporre dei freni regolatori universali per evitare situazioni imprevedibili e senza via di ritorno.

Nonostante gli sforzi di collaborazione tra aziende e governi, ci si sta, comunque, dirigendo verso prossime importanti scadenze elettorali (Usa, Ue e Taiwan) senza adeguate difese. In Europa, ad esempio, si dibatte ancora sul IA Act, documento che dovrebbe regolare lo sviluppo e l’utilizzo di piattaforme che sfruttano modelli di intelligenza arificiale. Tra problemi legati alla privacy dei cittadini e all’utilizzo indiscrimintao del riconoscimento facciale, la strada apprare tutta in salita, in un momento dove si sta costituendo un nuovo ordine mondiale a seguito della serrata contrapposizione tra superpotenze tradizionali ed emergenti.

Si prova a regolamentare

Unione europea. L’Unione europea si è impegnata a diventare un attore chiave nella regolamentazione dell’Intelligenza Artificiale (IA) attraverso il “AI Act”. Il prossimo trilogo, in programma il 6 dicembre 2023, sarà cruciale per determinare la possibilità di approvare il testo entro la fine del 2023. Nel contesto dell'”Hiroshima AI Process”, i leader del G7 hanno annunciato undici principi-guida e un Codice di Condotta per gli sviluppatori di IA.

I principi-guida mirano a fornire indicazioni a sviluppatori, enti accademici e settori pubblico e privato coinvolti nello sviluppo di sistemi avanzati di IA. Essi includono misure per valutare e mitigare rischi, trasparenza nelle capacità e limitazioni dei sistemi, e promozione di politiche di governance basate sul rischio. Il Codice di Condotta dettaglia le indicazioni pratiche per gli sviluppatori di IA, con particolare enfasi sulla trasparenza dei modelli, la pubblicazione di rapporti e la condivisione di informazioni nella società civile.

Il Codice di Condotta, applicabile su base volontaria, riveste un’importanza significativa poiché è immediatamente applicabile e può estendersi a livello globale. A differenza dell’AI Act, il Codice può influenzare la regolamentazione della IA in un contesto di crescente attenzione e valutazioni di accountability da parte delle imprese.

USA. L’Ordine Esecutivo statunitense, emesso il 30 ottobre 2023 dal Presidente Joe Biden, affronta questioni cruciali legate all’uso sicuro dell’Intelligenza Artificiale (IA). Esso impone trasparenza agli sviluppatori, richiedendo la condivisione dei risultati dei test con il governo e affidando al National Institute of Standards and Technology il compito di definire standard per modelli di IA sicuri. Inoltre, si concentra sulla prevenzione di disinformazione, assegnando al Department of Commerce la guida tecnica per garantire l’autenticità dei contenuti generati dall’IA.

L’Ordine affronta anche la questione dei bias cognitivi, cercando di evitare discriminazioni in settori sensibili. Si richiede una revisione dei criteri utilizzati nei sistemi di IA per individuare eventuali distorsioni o disparità. Inoltre, si prevede un approfondito studio sull’impatto delle tecnologie sull’occupazione e l’elaborazione di best practice per mitigare potenziali danni e massimizzare benefici.

Accordo trinazionale. Inoltre esiste un accordo informale tra Italia, Francia e Germania del 19 novembre 2023 riguardante la regolamentazione dei modelli di fondazione nell’IA generativa. Questo accordo, diverso dall’approccio basato sul rischio dell’AI Act, propone un’autoregolamentazione obbligatoria attraverso codici di condotta. Gli sviluppatori di IA sono chiamati a redigere “model cards” con informazioni sulle capacità e limiti dei modelli. Un organo di governance dell’IA verificherà l’applicazione di questi codici di condotta. Cruciale è il punto che non prevede sanzioni alla “prima infrazione”, riservando sanzioni solo a violazioni sistematiche dei codici di condotta. Questo accordo può influenzare le negoziazioni sull’AI Act tra gli Stati membri, potenzialmente ritardandone l’emanazione.

Subscribe to our newsletter!

L’Intelligenza Artificiale corre mentre la regolamentazione rallenta

| OPINIONI |