I dipendenti di OpenAI e Google sono preoccupati dai pericoli dell’IA
Alcuni dipendenti di OpenAI e Google DeepMind hanno scritto una lettera aperta per avvertire dei pericoli legati all’IA avanzata legata alla mancanza di supervisione delle aziende che la sviluppano.
Gli impiegati, sia attuali che ex dipendenti, hanno sottolineato tutti i rischi associati allo sviluppo dell’intelligenza artificiale. Il più grande pericolo è che possa intensificare le disuguaglianze esistenti, manipolare e creare disinformazione in ogni ambito e, in generale, che l’IA possa portare all’estinzione dell’umanità per via della poca sicurezza che le aziende che la sviluppano esercitano su di essa.
Nella lettera si legge: “Finchè non si sarà una supervisione governativa efficace su queste corporazioni, gli attuali ed ex dipendenti rimangono tra i pochi in grado di rendere le aziende responsabili verso il pubblico. In ogni caso, gli accordi di riservatezza di impediscono di esprimere le nostre preoccupazioni, se non alle stesse aziende che potrebbero non affrontare mai questi problemi. Le normali protezioni per i whistleblower sono insufficienti perché si concentrano solamente sulle attività illegali, mentre molti dei rischi che ci preoccupano non sono ancor regolamentati.”
Nella lettera si evince chiaramente che le aziende “hanno forti incentivi finanziari per avanzare nello sviluppo ed evitare di condividere informazioni sulle misure di sicurezza e sui livelli di rischio”.
Quello che chiedono i dipendenti può essere riassunto in alcuni punti chiave:
- Evitare di creare o far rispettare accordi che impediscano critiche dai ricercatori legati alle preoccupazioni e ad i rischi
- Comunicazioni anonime dei dipendenti che sollevano questioni relative ai rischi delle tecnologie al pubblico, al consiglio di amministrazione, ai regolatori e agli entri, pur mantenendo privati i segreti commerciali
- Evitare ritorsioni ai dipendenti che condividono pubblicamente le informazioni relative ai rischi
Dopo che i dipendenti hanno firmato la lettera, alcuni di loro sono stati presi di mira da OpenAI: alcuni di loro avevano firmato degli accordi di non divulgazione che impediscono tali pubblicazioni.