OpenAI sta pensando a un “acchiappa” deep fake

di Emanuela Ricci

Con importanti appuntamenti elettorali alle porte, quelle europee di giugno e americane di novembre aumenta la preoccupazione da parte delle big tech sull’utilizzo malevolo che può essere fatto di modelli avanzati di intelligenza artificiale per condizionare l’opinione pubblica, tramite mirate campagne pervasive sui social con l’utilizzo di narrativa, immagini, video ma anche audio opportunamente edulcorati dalle macchine. Negli ultimi mesi, audio e immagini hanno già influenzato le campagne politiche e il voto in Slovacchia, Taiwan e India. Possedere uno strumento acchiappa fake news o deep fake sarebbe l’ideale per certificare fonti e prodotti pubblicati; uno strumento di IA in grado di scovare e rendere evidenti i prodotti fake messi in rete, specialemente quelli riferiti a immagini, video e audio che, notoriamente, hanno un maggiore impatto mediatico.

Gli esperti chiedono, pertanto, alle big dell’hitech di cercare soluzioni per impedire agli utenti di generare materiale fuorviante e malizioso e di iniziare a pensare a modalità efficaci per tracciare origine e distribuzione di tale materiale.

OpenAI, sviluppatore del potente modello di IA generativa, Chatgpt che ha già all’attivo 1,7 miliardi di utenti in tutto il mondo, sta lavorando ad un rilevatore di deepfake. La sperimentazione del rilevatore avviene con il popolare generatore di immagini DALL-E. Gli esperti concordano sul fatto che i rilevatori di deepfake riusciranno a scovare prodotti contraffatti o creati ex novo non in maniera assoluta e definitiva poichè, essendo programmati con algoritmi che analizzano probabilità e informazioni reali possedute in quel momento non potranno mai essere fedeli alla velocità dell’infodemia dei nostri giorni.

Ieri OpenAI ha annunciato che avrebbe condiviso il suo nuovo rilevatore di deepfake con un piccolo gruppo di ricercatori di disinformazione affinché potessero testare lo strumento in situazioni reali e aiutare a individuare modi per migliorarlo. Open AI ha comunque dichiarato che il suo nuovo cacciatore di deep fake riuscirà a identificare correttamente il 98,8 percento delle immagini create da DALL-E 3.

L’azienda ha, tuttavia, precisato che lo strumento non è stato progettato per rilevare immagini prodotte da altri generatori popolari come Midjourney e Stability.

ChatGPT da pochi giorni chiede agli utenti di identificarsi mediante la propria immagine personale che viene scattata in real time dalla piattaforma, ovvero chiede di poter fotografare un documento di riconoscimento. Identificato il fruitore del servizio, conservando negli archivi anche tutti i prompt, ChatGPT dovrebbe riuscire a tracciare, potenzialmente, la genealogia dei contenuti per eventuali futuri impieghi degli stessi nella sconfinata galassia delle rete web.

Altra iniziativa per risolvere il problema a monte è quello di individuare enti certificatori “universali” di contenuti. OpenAI, alla pari di giganti come Google e Meta, si sta unendo al comitato direttivo della Coalizione per la Provenienza e l’Autenticità dei Contenuti – C2PA. Iniziativa che intende sviluppare credenziali per i contenuti digitali. Lo standard C2PA è una sorta di “etichetta” per immagini, video, clip audio e altri file che mostra quando e come sono stati prodotti o modificati, incluso tramite applicativi di l’IA. OpenAI ha anche dichiarato di stare sviluppando modi per marchiare i suoni generati dall’IA in modo che possano essere facilmente identificati nel momento in cui vengono riprodotti. L’azienda spera di rendere questi marchi difficili da rimuovere.

Importante è comunque il fatto che se ne parli e che sorgano iniziative spontanee in grado di certificare la genealogia del materiale che viene messo in rete. Siamo ancora agli albori di questa tecnologia che già si preannuncia come una nuova rivoluzione industriale.

C2PA

La Coalition for Content Provenance and Authenticity (C2PA) è un progetto della Joint Development Foundation, un’organizzazione no-profit con sede a Washington, che riunisce gli sforzi della Content Authenticity Initiative (CAI) e del Project Origin.

Fondata alla fine del 2019 da Adobe in collaborazione con il New York Times e Twitter, la CAI sta costruendo un sistema per fornire provenienza e storia dei media digitali, fornendo uno strumento ai creatori per rivendicare la paternità e consentendo ai consumatori di prendere decisioni informate su cosa fidarsi. Project Origin, fondato nel 2019 da BBC, CBC Radio Canada, Microsoft e New York Times, si concentra sulla lotta alla disinformazione nelle notizie digitali definendo un processo end-to-end per la pubblicazione, la distribuzione e l’aggiunta di segni distintivi a un contenuto per dimostrarne l’integrità.

Il C2PA unisce gli sforzi di questi due gruppi e si concentra esclusivamente sullo sviluppo di standard tecnici aperti e globali per incanalare gli sforzi di provenienza dei contenuti del CAI e di Project Origin.

Subscribe to our newsletter!

OpenAI sta pensando a un “acchiappa” deep fake

| ATTUALITA' |