Skip to main content

Google ci dirà se un’immagine è generata con AI

Google ci dirà se un'immagine è generata con AI
18 Settembre 2024, 14:34 | Lorenzo Ricciutelli Lorenzo Ricciutelli

Google ha deciso di affrontare una delle questioni più spinose dell’era digitale: l’utilizzo improprio delle immagini generate dall’intelligenza artificiale.

In un contesto in cui la manipolazione delle immagini può avere conseguenze di vasta portata, l’azienda ha iniziato un percorso verso una maggiore trasparenza, cercando di rassicurare tanto il pubblico quanto gli artisti e i creativi preoccupati per i rischi associati a questa tecnologia.

Diversi artisti e professionisti del settore temono che le loro opere possano essere sfruttate senza consenso dai servizi di IA, alimentando così una crescente sfiducia verso questi strumenti. Altri, invece, guardano con preoccupazione all’eventualità che le immagini modificate possano essere utilizzate in contesti illegali o per truffe digitali. La sfida per Google è dunque quella di dimostrare che l’uso dell’IA può essere reso trasparente e responsabile, senza compromettere la fiducia del pubblico.

La nuova funzione “Informazioni su questa immagine”

Google ha annunciato importanti aggiornamenti alla funzione “Informazioni su questa immagine”.

Questa miglioria rientra nell’impegno dell’azienda verso una maggiore trasparenza, in particolare riguardo le immagini generate dall’IA. Già a inizio anno, Google si è unita alla Coalition for Content Provenance and Authenticity (C2PA), un consorzio che lavora allo sviluppo di standard per garantire l’autenticità e la tracciabilità dei contenuti digitali.

Entro i prossimi mesi, gli utenti di Google Search potranno accedere a una versione potenziata della funzione, che incorporerà i metadati C2PA. Questi metadati permetteranno di indicare chiaramente se un’immagine è stata creata da un’IA, modificata da software o catturata direttamente da una fotocamera.

La funzione “Informazioni su questa immagine”, già presente, verrà così arricchita, offrendo un livello di dettaglio mai visto prima sull’origine delle immagini.

Il ruolo dello standard C2PA nella lotta contro le manipolazioni digitali

Lo standard C2PA rappresenta un passo importante verso la trasparenza nel mondo delle immagini digitali. Colossi come Google, Amazon, OpenAI, Microsoft, Adobe, Intel e Arm hanno tutti espresso il loro sostegno a questo sistema, che punta a creare un tracciato di provenienza chiaro e verificabile per ogni immagine. Tuttavia, nonostante l’importanza di tale standard, l’adozione su larga scala procede lentamente.

Attualmente, solo alcune fotocamere di marca Leica e Sony supportano i metadati C2PA, mentre altri produttori come Nikon e Canon dovrebbero integrare questa tecnologia nei prossimi modelli. Per quanto riguarda i dispositivi mobili, resta ancora incerto quando vedremo il supporto per Android e iOS.

Sul fronte del software, solo alcuni strumenti professionali, come Adobe Photoshop e Lightroom, hanno già integrato lo standard C2PA, mentre altri software di editing come Affinity Photo e Gimp sono ancora indietro. La diffusione dello standard sui social network è anch’essa limitata, con poche piattaforme che attualmente supportano le etichette relative alle immagini generate dall’IA.

Un futuro di regolamentazione e standardizzazione

L’adozione di massa degli standard C2PA e delle normative riguardanti l’intelligenza artificiale è, secondo gli esperti, solo una questione di tempo.

I modelli di intelligenza artificiale, come i LLM (Large Language Models), continuano a evolversi a una velocità impressionante, lasciando legislatori e sviluppatori di standard in una costante rincorsa.

Un primo passo significativo è stato compiuto con l’introduzione dell’AI Act da parte dell’Unione Europea nell’agosto 2024, un segnale chiaro dell’intenzione dei governi di intervenire e regolamentare un settore in rapida espansione.

FonteVia

Google ha deciso di affrontare una delle questioni più spinose dell’era digitale: l’utilizzo improprio delle immagini generate dall’intelligenza artificiale.

In un contesto in cui la manipolazione delle immagini può avere conseguenze di vasta portata, l’azienda ha iniziato un percorso verso una maggiore trasparenza, cercando di rassicurare tanto il pubblico quanto gli artisti e i creativi preoccupati per i rischi associati a questa tecnologia.

Diversi artisti e professionisti del settore temono che le loro opere possano essere sfruttate senza consenso dai servizi di IA, alimentando così una crescente sfiducia verso questi strumenti. Altri, invece, guardano con preoccupazione all’eventualità che le immagini modificate possano essere utilizzate in contesti illegali o per truffe digitali. La sfida per Google è dunque quella di dimostrare che l’uso dell’IA può essere reso trasparente e responsabile, senza compromettere la fiducia del pubblico.

La nuova funzione “Informazioni su questa immagine”

Google ha annunciato importanti aggiornamenti alla funzione “Informazioni su questa immagine”.

Questa miglioria rientra nell’impegno dell’azienda verso una maggiore trasparenza, in particolare riguardo le immagini generate dall’IA. Già a inizio anno, Google si è unita alla Coalition for Content Provenance and Authenticity (C2PA), un consorzio che lavora allo sviluppo di standard per garantire l’autenticità e la tracciabilità dei contenuti digitali.

Entro i prossimi mesi, gli utenti di Google Search potranno accedere a una versione potenziata della funzione, che incorporerà i metadati C2PA. Questi metadati permetteranno di indicare chiaramente se un’immagine è stata creata da un’IA, modificata da software o catturata direttamente da una fotocamera.

La funzione “Informazioni su questa immagine”, già presente, verrà così arricchita, offrendo un livello di dettaglio mai visto prima sull’origine delle immagini.

Il ruolo dello standard C2PA nella lotta contro le manipolazioni digitali

Lo standard C2PA rappresenta un passo importante verso la trasparenza nel mondo delle immagini digitali. Colossi come Google, Amazon, OpenAI, Microsoft, Adobe, Intel e Arm hanno tutti espresso il loro sostegno a questo sistema, che punta a creare un tracciato di provenienza chiaro e verificabile per ogni immagine. Tuttavia, nonostante l’importanza di tale standard, l’adozione su larga scala procede lentamente.

Attualmente, solo alcune fotocamere di marca Leica e Sony supportano i metadati C2PA, mentre altri produttori come Nikon e Canon dovrebbero integrare questa tecnologia nei prossimi modelli. Per quanto riguarda i dispositivi mobili, resta ancora incerto quando vedremo il supporto per Android e iOS.

Sul fronte del software, solo alcuni strumenti professionali, come Adobe Photoshop e Lightroom, hanno già integrato lo standard C2PA, mentre altri software di editing come Affinity Photo e Gimp sono ancora indietro. La diffusione dello standard sui social network è anch’essa limitata, con poche piattaforme che attualmente supportano le etichette relative alle immagini generate dall’IA.

Un futuro di regolamentazione e standardizzazione

L’adozione di massa degli standard C2PA e delle normative riguardanti l’intelligenza artificiale è, secondo gli esperti, solo una questione di tempo.

I modelli di intelligenza artificiale, come i LLM (Large Language Models), continuano a evolversi a una velocità impressionante, lasciando legislatori e sviluppatori di standard in una costante rincorsa.

Un primo passo significativo è stato compiuto con l’introduzione dell’AI Act da parte dell’Unione Europea nell’agosto 2024, un segnale chiaro dell’intenzione dei governi di intervenire e regolamentare un settore in rapida espansione.

FonteVia


Lorenzo Ricciutelli
Fondatore e autore di Techdot. Vivo da sempre con un’amore sfrenato per l’informatica e la tecnologia. Homo sanza lettere, discepolo della esperienza. Imprenditore digitale.