Skip to main content

OpenAI annuncia GPT-4o, il nuovo modello di IA più veloce e gratuito per gli utenti

Open AI annuncia gpt-4o il nuovo modello di ia con foto video e testo in real time
14 Maggio 2024, 10:28 | Lorenzo Ricciutelli

OpenAI ha presentato GPT-4o, il nuovo modello di intelligenza artificiale descritto come “il futuro dell’interazione tra l’uomo e le macchine”.

Lunedì 13 Maggio, OpenAI ha annunciato il nuovo modello di intelligenza artificiale GPT-4o insieme ad altri aggiornamenti incluso una nuova app desktop – per ora solo su Mac – e dei miglioramenti relativi alla capacità dell’assistente vocale.

Mira Murati, CTO di OpenAI, è apparsa sul palco di fronte a una folla entusiasta negli uffici di OpenAI, lodando il nuovo modello come un passo avanti nell’IA. Il nuovo modello porterà il più veloce e accurato modello di intelligenza artificiale GPT-4 agli utenti premium e non. “Stiamo guardando al futuro dell’interazione tra noi e le macchine” ha detto Murati. “Pensiamo che GPT-4o stia davvero cambiando quel paradigma.”

Le prestazioni del modello gpt-4o

Tra gli aggiornamenti che OpenAI ha rivelato lunedì ci sono il miglioramento della qualità e della velocità delle capacità linguistiche internazionali di ChatGPT, nonché la possibilità di caricare immagini, audio e documenti di testo per l’analisi del modello. L’azienda ha detto che rilascerà le funzionalità gradualmente per garantire che siano utilizzate in modo sicuro.

Durante l’evento c’è stato spazio per una dimostrazione dal vivo delle nuove capacità vocali del modello, con due ricercatori di OpenAI che parlavano con l’IA. L’assistente vocale ha generato una storia della buonanotte sull’amore e i robot, con differenti inflessioni emotive e vocali. Un’altra dimostrazione ha utilizzato la funzione fotocamera di un telefono per mostrare al modello di IA un’equazione matematica e poi ha fatto sì che la modalità vocale di ChatGPT spiegasse come risolverla.

A un certo punto della dimostrazione, un ricercatore ha chiesto al modello di IA di leggere l’espressione del suo volto e giudicare le sue emozioni. L’assistente vocale di ChatGPT ha valutato che sembrava “felice e allegro con un grande sorriso e forse anche un pizzico di eccitazione”.

“Qualunque cosa stia succedendo, sembra che tu sia di ottimo umore” ha detto ChatGPT con una voce femminile e vivace. “Vuoi condividere la fonte di queste buone vibrazioni?”

La scorsa settimana si vociferava che l’annuncio di OpenAI sarebbe stato il lancio di un motore di ricerca in competizione con Google, ma Reuters ha riferito che l’azienda ha rinviato la presentazione del progetto. Il CEO Sam Altman ha negato che l’annuncio di lunedì fosse un motore di ricerca, ma ha twittato venerdì che “abbiamo lavorato duramente su alcune nuove cose che pensiamo piaceranno alla gente! sembra magia per me”.

A parte piccoli glitch o risposte involontarie, la maggior parte della dimostrazione è andata liscia e le funzionalità hanno funzionato come previsto. Sebbene Murati abbia affermato che OpenAI stava prendendo misure per prevenire l’uso improprio delle nuove capacità vocali, l’evento ha fornito pochi dettagli su come l’azienda affronterà i probabili problemi attorno al riconoscimento facciale e alla generazione audio.

Questa è la dimostrazione dal vivo tenuta da OpenAI:

Fonte


Lorenzo Ricciutelli
Lorenzo Ricciutelli
Fondatore e autore di Techdot. Vivo da sempre con un’amore sfrenato per l’informatica e la tecnologia. Homo sanza lettere, discepolo della esperienza. Imprenditore digitale.