La corsa per trovare un modo migliore per etichettare l’intelligenza artificiale
Un protocollo Internet chiamato C2PA utilizza la crittografia per etichettare immagini, video e audio
Questo articolo è tratto da The Technocrat, la newsletter settimanale sulla politica tecnologica del MIT Technology Review su potere, politica e Silicon Valley. Per riceverlo nella tua casella di posta ogni venerdì, iscriviti qui.
Recentemente ho scritto un breve racconto su un progetto sostenuto da alcune importanti società tecnologiche e di media che cercano di aiutare a identificare i contenuti realizzati o modificati dall'intelligenza artificiale.
Con il boom di testi, immagini e video generati dall’intelligenza artificiale, sia i legislatori che gli utenti medi di Internet hanno chiesto maggiore trasparenza. Anche se potrebbe sembrare una richiesta molto ragionevole quella di aggiungere semplicemente un'etichetta (e lo è), in realtà non è facile e le soluzioni esistenti, come il rilevamento e la filigrana basati sull'intelligenza artificiale, presentano alcune gravi insidie.
Come ha scritto la mia collega Melissa Heikkilä, la maggior parte delle attuali soluzioni tecniche “non hanno alcuna possibilità contro l’ultima generazione di modelli linguistici dell’intelligenza artificiale”. Tuttavia, la corsa per etichettare e rilevare i contenuti generati dall’intelligenza artificiale è iniziata.
È qui che entra in gioco questo protocollo. Avviato nel 2021, C2PA (dal nome del gruppo che lo ha creato, Coalition for Content Provenance and Authenticity) è un insieme di nuovi standard tecnici e un codice disponibile gratuitamente che etichetta in modo sicuro i contenuti con informazioni che chiariscono da dove provengono da.
Ciò significa che un'immagine, ad esempio, è contrassegnata con informazioni dal dispositivo da cui ha avuto origine (come la fotocamera di un telefono), da eventuali strumenti di modifica (come Photoshop) e, infine, dalla piattaforma di social media su cui viene caricata. Nel tempo, queste informazioni creano una sorta di cronologia, che viene tutta registrata.
La tecnologia stessa, e il modo in cui C2PA è più sicuro rispetto ad altre alternative di etichettatura AI, è piuttosto interessante, anche se un po’ complicata. Ne approfondirò di più nel mio articolo, ma forse è più semplice pensarla come un'etichetta nutrizionale (che è l'analogia preferita dalla maggior parte delle persone con cui ho parlato). Puoi vedere un esempio di video deepfake qui con l'etichetta creata da Truepic, membro fondatore di C2PA, con Revel AI.
"L'idea di provenienza è quella di contrassegnare il contenuto in modo interoperabile e a prova di manomissione in modo che possa viaggiare attraverso Internet con quella trasparenza, con quella etichetta nutrizionale", afferma Mounir Ibrahim, vicepresidente delle relazioni pubbliche di Truepic.
Quando è stata lanciata per la prima volta, C2PA era sostenuta da una manciata di aziende importanti, tra cui Adobe e Microsoft, ma negli ultimi sei mesi la sua adesione è aumentata del 56%. Proprio questa settimana, la principale piattaforma multimediale Shutterstock ha annunciato che utilizzerà C2PA per etichettare tutti i suoi media generati dall’intelligenza artificiale.
Si basa su un approccio opt-in, quindi i gruppi che desiderano verificare e rivelare la provenienza dei contenuti, come un giornale o un inserzionista, sceglieranno di aggiungere le credenziali a un elemento multimediale.
Uno dei responsabili del progetto, Andy Parsons, che lavora per Adobe, attribuisce il nuovo interesse e l'urgenza attorno al C2PA alla proliferazione dell'intelligenza artificiale generativa e all'aspettativa di una legislazione, sia negli Stati Uniti che nell'UE, che imporrà nuovi livelli di trasparenza .
La visione è grandiosa: le persone coinvolte mi hanno ammesso che il vero successo qui dipende da un’adozione diffusa, se non universale. Hanno detto che sperano che tutte le principali società di contenuti adottino lo standard.
Per questo, dice Ibrahim, l'usabilità è fondamentale: "Vuoi assicurarti che, indipendentemente da dove vada su Internet, verrà letto e assimilato nello stesso modo, proprio come la crittografia SSL. È così che si riesce a creare un ecosistema online più trasparente."
Questo potrebbe essere uno sviluppo critico mentre entriamo nella stagione elettorale degli Stati Uniti, quando tutti gli occhi saranno puntati sulla disinformazione generata dall’intelligenza artificiale. I ricercatori del progetto affermano che stanno correndo per rilasciare nuove funzionalità e corteggiare più piattaforme di social media prima dell’assalto previsto.
Attualmente, C2PA lavora principalmente su immagini e video, anche se i membri affermano che stanno lavorando su come gestire i contenuti basati su testo. Nell'articolo affronterò alcune delle altre carenze del protocollo, ma ciò che è veramente importante capire è che anche quando l'uso dell'intelligenza artificiale viene divulgato, potrebbe non arginare il danno della disinformazione generata dalle macchine. Le piattaforme di social media dovranno ancora decidere se mantenere tali informazioni sui propri siti e gli utenti dovranno decidere da soli se fidarsi e condividere il contenuto.