Skip to main content

Google I/O 2024: tutte le novità dall’IA ad Android

Riassunto del google i/O 2024
16 Maggio 2024, 10:43 | Lorenzo Ricciutelli Lorenzo Ricciutelli

Durante l’evento Google I/O 2024, l’azienda ha presentato incredibili funzionalità legate soprattutto al mondo dell’intelligenza artificiale. Scopri tutte le novità in questo articolo.

Gemini 1.5 Flash

Gemini 1.5 flash

La presentazione inizia la presentazione di Gemini 1.5 Flash da parte di Sundar Pichai, CEO di Google.

Come suggerisce il nome, Google ha creato un modello che esegue i compiti in modo più efficiente, “in un lampo”. Google afferma che Gemini 1.5 Flash può gestire “compiti ad alto volume e alta frequenza su larga scala”. I test hanno dimostrato che questa IA eccelle nella sintesi, nelle chat, nella didascalia di immagini e video, nell’estrazione di dati, nelle tabelle e altro ancora. Google ha dimostrato la capacità multimodale del modello 1.5 Pro nella sua app di note potenziata dall’IA, aiutando gli utenti a scomporre informazioni complesse in tempo reale.

Oltre a Flash, anche Gemini Nano è stato migliorato. Il modello va oltre i semplici prompt testuali. Presto gli utenti potranno interagire con Gemini utilizzando immagini, permettendogli di “comprendere il mondo come fanno le persone—attraverso immagini, video e linguaggio parlato”.

Google ha in programma di implementare il modello 1.5 Pro nelle app Gemini Advanced e Google Workspace. Un modello aggiornato sarà disponibile a breve anche per Gmail e NotebookLM e sarà disponibile in 30 lingue diverse.

Google ha anche mostrato “Gemini Live” per gli abbonati a Gemini Advanced. Proprio come ChatGPT-4o, Gemini Live permetterà agli utenti di conversare con il modello IA, parlando al proprio ritmo o interrompendo le risposte con domande di chiarimento in tempo reale.

C’è stato spazio per un’anteprima del progetto “Astra”, un’IA multimodale in tempo reale sviluppata dal team di Google DeepMind, che osserva l’ambiente circostante attraverso una fotocamera e risponde alle domande in real time.

Imagen 3 e Google Veo

imagen 3 google ia

Imagen 3 e Google Veo sono due strumenti IA in grado di produrre rispettivamente foto e video a partire da un prompt testuale. Secondo Google, il nuovo Imagen 3 genera immagini di alta qualità e comprende il contenuto e l’intento del prompt. Questo significa che, indipendentemente dalla lunghezza del prompt, Imagen 3 produrrà “immagini fotorealistiche e realistiche” con massima comprensione. Questa tecnologia può aiutare gli utenti a creare messaggi personalizzati, presentazioni, diapositive o meme divertenti.

A seguire, c’è Veo, il nuovo modello di generazione video alimentato dall’IA di Google, in grado di produrre video in risoluzione 1080p in una vasta gamma di stili cinematografici e visivi che superano il minuto di durata. Come Imagen 3, questo modello comprende il linguaggio naturale catturando accuratamente il tono del prompt e producendo video che corrispondono alle esigenze dell’utente. Il modello è in grado di comprendere termini come “timelapse” o “riprese aeree di un paesaggio”. Veo crea filmati con minimi difetti, con animali e oggetti che si muovono realisticamente nelle riprese.

Imagen 3 e Veo sono disponibili solo per alcuni creatori selezionati tramite ImageFX e VideoFX, ma in futuro Google prevede di portare alcune delle funzionalità di Veo su YouTube Shorts, aiutando quindi i creator a generare nuovi video.

Google Search, la ricerca si potenzia (ancora) con l’IA

Durante l’I/O di quest’anno, Google ha annunciato che Google Search riceverà una serie di aggiornamenti con AI Overviews, funzione introdotta per la prima volta a gennaio.

Le Overviews generate tramite intelligenza artificiale sono dei riassunti di argomenti (query complesse, piuttosto che singole keyword) di argomenti difficili direttamente in cima ai risultati di ricerca. Questa funzione avrà il compito di comprendere rapidamente un concetto di un determinato argomento e rispondere all’utente con tutte le informazioni trovare in rete. Oltre al riassunto, gli Overviews conterranno link alle fonti, in modo che l’utente possa verificare manualmente le informazioni.

Google afferma che se le risposte non sono abbastanza semplici, apparirà un’opzione per “aggiustare” il riassunto, semplificando le informazioni: una funzione molto utile a scuola per ogni fascia di età.

Sebbene gran parte di questa funzionalità è basata su informazioni testuali, Google afferma che con l’aiuto di Google Lens sarà presto possibile registrare un video e porre domande vocali, facendo l’esempio su un “prodotto rotto e come riparlarlo passo dopo passo”.

Android e l’IA andranno di pari passo

mascotte di android 15 potenziato da intelligenza artificiale

Sembra proprio che Android e IA vadano di pari passo e poiché ’IA è ormai al centro della maggior parte dei dispositivi e dei sistemi operativi Android, ecco alcune delle novità discusse all’evento di quest’anno—specificamente pensate per gli utenti Android.

Rilevamento delle chiamate phishing/spam in tempo reale

Google sta introducendo un software che permette agli utenti di rilevare chiamate phishing o spam in tempo reale, avvisandoli di riagganciare prima di fornire dettagli personali. Questa funzione può essere particolarmente utile per utenti anziani o bambini, che potrebbero essere più vulnerabili alle truffe.

Più Gemini in ogni app

Gli utenti Android potranno presto utilizzare Gemini su qualsiasi app. Con l’IA integrata nei telefoni Android, sarà possibile generare immagini divertenti e inserirle in app come Gmail e Google Messaggi, oppure creare meme da aggiungere alle chat. Con le funzioni “Chiedi a questo video” e “Chiedi a questo PDF”, gli utenti potranno ottenere informazioni su un video YouTube che stanno guardando o risposte su un PDF senza dover scorrere le pagine informative.

Cerchia e cerca

Questa funzione sarà in grado di risolvere problemi complessi di matematica e fisica fornendo un processo passo-passo e esempi per aiutare l’utente a comprendere meglio i concetti.

‌ Gemini Nano con multimodalità

Questa versione potenzierà l’opzione TalkBack già esistente, permettendo ai telefoni Android di processare testo con una migliore comprensione di suoni, immagini e linguaggio parlato. Ad esempio, quando viene condivisa l’immagine di un vestito, TalkBack descriverà il colore esatto, la lunghezza delle maniche e altri accessori, aiutando l’utente a visualizzare il vestito senza doverlo guardare. Gemini Nano con multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, anche se non è ancora chiaro quali modelli lo riceveranno. Dovremo aspettare gli aggiornamenti mensili per vedere quando queste nuove funzionalità saranno disponibili.

Wear OS 5: le novità sostanziali

Il secondo giorno del Google I/O è stato dedicato alle anteprime per sviluppatori, dando un’occhiata al nuovo Wear OS 5. Questa versione, basata su Android 14, arriverà “entro la fine dell’anno” e promette una migliore durata della batteria, nuove watch faces con “Flavors” e Complicazioni esclusive.

Il nuovo OS aggiungerà quattro misurazioni avanzate per la corsa: tempo di contatto con il suolo, lunghezza del passo, oscillazione verticale e rapporto verticale. Wear OS 5 introdurrà anche un nuovo “concetto di obiettivi” per gli allenamenti, che permetteranno agli utenti di iniziare un allenamento con obiettivi di frequenza cardiaca o velocità di corsa.

Per chi ama cambiare le watch faces, Wear OS 5 offrirà “Flavors” per scegliere tra diversi colori, font, complicazioni e configurazioni in un unico menu. Due nuove complicazioni WFF saranno “Progresso degli obiettivi” e “Elementi ponderati”, permettendo di controllare la percentuale verso un obiettivo di fitness o di vedere porzioni colorate che sommano al 100%, simile agli anelli di attività dell’Apple Watch.

Secondo Google, è in lavorazione anche un widget meteo richiesto da tempo, che permetterà di controllare le condizioni attuali, temperature minime e massime, indice UV, probabilità di pioggia e altri dati.

Puoi dare un’occhiata all’anteprima per sviluppatori di Wear OS 5 su questa pagina.

Arriva la Beta 2 di Android 15

Google ha appena rilasciato Android 15 Beta 2, che offre importanti miglioramenti in termini di produttività, privacy, sicurezza, prestazioni delle app e salute della batteria.

La novità principale di questa Beta è “Private Space”, che permette di nascondere le app in uno spazio protetto da impronte digitali, simile alla Secure Folder di Samsung. Private Space utilizza un profilo separato, quindi le app nascoste non possono essere viste da altri né funzionare in background quando bloccate.

Google sta potenziando la sicurezza in Android 15 dando agli utenti il controllo per impedire alle app dannose di operare in background e portare altre app in primo piano. Questo aggiornamento mira a bloccare le app dannose che cercano di ottenere privilegi e sfruttare le interazioni degli utenti.

Poche le novità hardware, tante le aspettative per il futuro

L’edizione del Google I/O 2024 non è stata così entusiasmante, sono stati pochi gli annunci significativi per la parte hardware: nessun nuovo foldable da accompagnare il nuovo Pixel 8a e il Pixel Tablet presentato pochi giorni prima.

È possibile vedere su Youtube l’intero evento:


Lorenzo Ricciutelli
Fondatore e autore di Techdot. Vivo da sempre con un’amore sfrenato per l’informatica e la tecnologia. Homo sanza lettere, discepolo della esperienza. Imprenditore digitale.