Il consiglio di sorveglianza di Facebook critica le regole sui video che diffamano Biden
Il Comitato di Vigilanza critica aspramente la politica di Meta relativa ai video manipolati e diffamatori, ritenendola eccessivamente incentrata sull’intelligenza artificiale e definendola “incoerente”.
Il consiglio di sorveglianza di Meta ha constatato che un video su Facebook, che insinua impropriamente che il Presidente degli Stati Uniti, Joe Biden, sia un pedofilo, non contravviene alle attuali normative dell’azienda. Ciononostante, ha definito queste regole “incoerenti” e indebitamente limitate ai contenuti generati dall’IA.
Il video incriminato su Facebook mostrava filmati reali di Biden che scambiava adesivi “Ho votato” con sua nipote durante le elezioni di midterm del 2022 negli USA, baciandola poi sulla guancia.
Questo organismo, finanziato da Meta – società a capo di Facebook – ma operante autonomamente, ha preso in esame il caso del video su Biden in ottobre, a seguito di un reclamo riguardante una clip di sette secondi del Presidente, opportunamente modificata.
Il verdetto ha riconosciuto la correttezza di Meta nel non rimuovere il video, conformemente alla sua politica vigente che vieta i video alterati in modo fuorviante solo se sono stati prodotti mediante intelligenza artificiale o se inducono a credere che le persone pronuncino parole mai effettivamente espresse.
Questa sentenza rappresenta però la prima critica esplicita alla politica di Meta sui “media manipolati”, in un periodo di crescente allarme per il potenziale impiego delle nuove tecnologie IA per influenzare le elezioni di quest’anno.
Il Consiglio ha osservato che la politica “è priva di una giustificazione convincente, risulta incoerente e confonde gli utenti, senza specificare chiaramente quali danni intende evitare”. Ha quindi suggerito a Meta di rivederla per includere contenuti audio e video, applicando etichette che ne indicano la manipolazione a prescindere dall’uso dell’IA.
Il Consiglio si è tuttavia astenuto dal richiedere l’estensione della politica alle fotografie, argomentando che ciò potrebbe complicarne eccessivamente l’applicazione alla scala operativa di Meta. Meta, che detiene anche Instagram e WhatsApp, ha informato il Consiglio durante la revisione che intendeva aggiornare la politica “in risposta all’evoluzione di nuove e sempre più realistiche tecnologie IA”, come indicato dal verdetto.
Il Consiglio ha affermato che i contenuti alterati senza l’uso dell’IA sono “diffusi e non necessariamente meno ingannevoli” rispetto a quelli generati da strumenti IA. Ha aggiunto che l’azione correttiva dovrebbe consistere nell’applicare etichette informative piuttosto che nell’attuale strategia di Meta di eliminare i post dalle sue piattaforme.
Lunedì, l’azienda ha comunicato tramite una nota stampa di essere in fase di valutazione della sentenza e che fornirà una risposta pubblica entro 60 giorni.