È stato il Gemini I/O 2025: ecco tutte le novità per l’assistente presentate da Google


È stato un keynote di apertura del Google I/O 2025 a forti tinte blu/viola, tipica gradazione che caratterizza Gemini, l’espressione ormai quasi agenziale dell’intelligenza artificiale con cui Google prova, giorno dopo giorno, a ridefinire il modo in cui interagiamo con i nostri dispositivi e i servizi utilizzati nel quotidiano.

In questo articolo andiamo a ripercorrere tutte le novità che riguardano Gemini, sia inteso come assistente (e quindi app) che inteso come modello di intelligenza artificiale, vero e proprio protagonista sul palco dello Shoreline Amphitheatre di Mountain View.

Gemini diventa più personale, proattivo e utile

L’app di Gemini ha ricevuto un’infinità di nuove funzioni nell’ultimo anno e, come sottolineato dal CEO di Google e Alphabet, Sundar Pichai, può contare su oltre 400 milioni di utenti attivi al mese.

Di conseguenza, Big G ha capito che l’app dell’assistente è un prodotto attraente per gli utenti e continua ad apportare migliormenti, introdurre nuove funzionalità e democratizzare funzionalità che in passato erano disponibili solo per gli abbonati Advanced.

Project Astra in Gemini Live per tutti

Le funzionalità di Project Astra, ovvero la possibilità di condividere lo schermo o il flusso della fotocamera con Gemini Live durante una conversazione in tempo reale, sono disponibili per tutti, abbonati e non, sia su Android e iOS. Ne abbiamo parlato in questo articolo dedicato.

Google Gemini standard - Gemini Live con Project Astra

Imagen 4 e Veo 3

Google continua a evolvere gli strumenti integrati all’interno di Gemini: tra questi, da quando la famiglia di modelli di IA è diventata multimodale, rientrano Imagen (per la creazione di immagini a partire da un input testuale) e Veo (per la creazione di video a partire da un input testuale).

Ecco che Google sfrutta la conferenza annuale per sviluppatori per annunciare le nuove versioni di questi due modelli, con l’obiettivo di alimentare la creatività degli utenti:

  • Imagen 4 migliora il predecessore Imagen 3 sul fronte dei dettagli, della precisione e dell’integrazione del testo all’interno delle immagini generate.
  • Veo 3 permette di generare brevi video con annesso audio o dialoghi tra i personaggi, grazie all’implementazione della generazione audio nativa.

Deep Research e Canvas

La funzionalità Deep Research di Gemini permette ora di ottenere report completi e personalizzati che combinano dati pubblici con i file (PDF o immagini) fornite dagli utenti: in futuro, verrà integrata la ricerca tra Google Drive e Gmail, in modo che gli utenti possano prelevare informazioni anche da queste due fonti.

Canvas diventa più potente con i modelli 2.5 di Gemini, permettendo agli utenti di creare infografiche interattive, quiz e Panoramiche Audio in stile podcast (in 45 lingue). Con il modello 2.5 Pro, inoltre, può tradurre idee complesse in codice all’istante.

Nuovi abbonamenti Google AI Pro e Google AI Ultra

Google ha annunciato due nuovi abbonamenti di Google One che danno accesso a una vera e propria suite di strumenti basati sull’intelligenza artificiale: questi si chiamano Google AI Pro Google AI Ultra (costosissimo e disponibile esclusivamente negli Stati Uniti). Ne abbiamo parlato nel dettaglio in questo articolo dedicato.

Integrazione di Gemini in Chrome

A partire da domani, Gemini verrà integrato nel browser Google Chrome ma solo negli Stati Uniti, in lingua inglese, per gli abbonati ai costosissimi piani AI Pro e AI Ultra e solo nella versione desktop del browser (per Windows e Chrome).

In questa prima versione, l’aggiunta si concretizzerà con una versione agenziale di Gemini che sarà in grado di chiarire informazioni complesse su qualsiasi pagina Web o riassumere informazioni. In futuro, l’assistente potrà funzionare su più schede in contemporanea o “navigare il Web” al posto dell’utente.

Più avanti, poi, arriveranno nel browser le potenzialità di Project Mariner, ovvero quel progetto che permette ai modelli avanzati di intelligenza artificiale di accedere agli strumenti per svolgere le operazioni al posto dell’utente (ma sotto la sua supervisione).

Offerte Bomba!

Solo errori di prezzo o sconti incredibili ma verificati!

Google potenzia i modelli della famiglia Gemini 2.5

La serie di modelli della famiglia Gemini 2.5 è protagonista al Google I/O 2025, con il team di Google che annuncia tantissimi miglioramenti che investono i due modelli che la compongono e le funzionalità multimodali a disposizione.

Miglioramenti del modello 2.5 Pro

Sul palco dello Shoreline Amphiteatre di Mountain View, sono state elogiate le capacità del modello 2.5 Pro in versione aggiornata che ha raggiunto la vetta della classifica WebDev Arena con un punteggio ELO di 1420 (ed è anche in testa alle varie categorie della classifica di LMArena).

Come vedremo più avanti, grazie all’integrazione di LearnLM nella famiglia 2.5 di modelli, il modello 2.5 Pro è divenuto anche un modello leader nel settore dedicato agli strumenti per l’apprendimento.

2.5 Pro Deep Think

Alla base dei modelli della famiglia 2.5 di Gemini vi è il ragionamento. La nuova frontiera in tal senso si chiama Deep Think, strumento di ragionamento che sfrutta nuove tecniche di ricerca e permette al modello di considerare svariate ipotesi prima di fornire una risposta.

Attualmente, il modello 2.5 Pro Deep Think è riservato a un gruppo di esperti di sicurezza ma, già nelle prossime settimane, verrà condiviso con alcuni tester “fidati” tramite l’API di Gemini.

Miglioramenti del modello 2.5 Flash

Anche il modello 2.5 Flash riceve miglioramenti sotto (quasi) ogni punto di vista (benchmark per ragionamento, multimodalità, programmazione, contesto, efficienza) ed è già disponibile in anteprima per sviluppatori su Google AI Studio, in anteprima per le aziende su Vertex AI e in anteprima per gli utenti nell’app di Gemini. La disponibilità generale è prevista per il mese di giugno. Trovate qua maggiori dettagli.

Nuove funzionalità della famiglia di modelli

La famiglia di modelli Gemini 2.5 guadagna nuove funzionalità grazie ad aggiornamenti dell’API Live che introduce (in anteprima) una versione di dialogo con input audio-visivo e output audio nativo, rendendo le conversazioni con l’assistente più naturali ed espressive (dato che è possibile definire tono, accento e stile del parlato).

Altre novità sono il dialogo empatico (risposta basata sulla “emozione” nella voce dell’utente), l’audio proattivo (capacità di ignorare le conversazioni di sottofondo e comprendere quando rispondere), il Ragionamento nell’API Live (supporto ad attività più complesse).

Nei modelli 2.5 Pro 2.5 Flash debuttano nuove anteprime relative alla sintesi vocale che includono un supporto inedito per più interlocutori (sintesi vocale con due voci) e l’espressività. Tale funzionalità supporta 24 lingue e può passare facilmente dall’una all’altra.

Le potenzialità di Project Mariner stanno per essere integrate nell’API di Gemini (e in Vertex AI), per dar vita all’era agenziale (potete approfondire con questo articolo), offrendo supporto a svariate aziende che potranno testarne le capacità. In ultimo, ci sono alcune novità sul fronte della sicurezza, soprattutto per scongiurare le prompt injection indirette (incorporamento di istruzioni dannose nei dati recuperati da un modello di IA).

Miglioramenti per gli sviluppatori

Per quanto concerne gli sviluppatori, ci sono fondamentelamente tre novità che riguardano la famiglia di modelli 2.5 di Gemini:

  • Riassunti del ragionamento (organizzano i processi di ragionamento in un formato chiaro con intestazioni, dettagli chiave e informazioni sulle azioni del modello).
  • 2.5 Flash con budget di ragionamento (gli sviluppatori possono decidere il numero di token che il modello utilizza per pensare prima di fornire la risposta, controllando così i costi).
  • Supporto MCP (Model Context Protocol) nell’API di Gemini (facilita l’integrazione con gli strumenti open source).

Strumenti di apprendimento potenziati da Gemini

Al Google I/O 2025, Google ha annunciato che LearnML, la famiglia di modelli e funzionalità di Google Cloud che sono ottimizzati per l’apprendimento e sono sviluppati in collaborazione con esperti del settore educationalviene integrato direttamente in Gemini 2.5, modello che diventa così “il modello di apprendimento leader a livello mondiale”.

Google Gemini 2.5 Pro con LearnML - confronto modelli apprendimento

Tra le novità di NotebookLM spiccano le Panoramiche Video

Fresco di rilascio sul Google Play Store, NotebookLM è quello strumento di Google che permette di ricercare e apprendere a partire da una serie di fonti: basta dargli in pasto le fonti per trasformarlo in un vero esperto in grado di trasformare le informazioni in Panoramiche Audio (disponibili in più di 80 lingue) e mappe mentali.

Le Panoramiche Audio diventano più “flessibili” con l’aggiunta della possibilità di selezionare la lunghezza ideale del riassunto (tra corta, normale o lunga), disponibile inizialmente in lingua inglese (ma più avanti verrà estesa ad altre lingue).

La vera novità è però rappresentata dalle Panoramiche Video, strumento con cui gli utenti potranno trasformare tutte le fonti in veri e propri video didattici. La funzionalità è ancora in fase di sviluppo e Google ne ha condiviso una anteprima (il seguente video).

Novità legate alla AI Mode

Sempre rimanendo in ambito apprendimento, una componente fondamentale per imparare è la conoscenza e, al giorno d’oggi, tra gli strumenti più utilizzati per cercare qualcosa rientra per forza di cose Ricerca Google che, potenziata grazie all’IA, guadagna la AI Mode.

Questa modalità di ricerca conversazionale e multimodale, disponibile per tutti gli utenti statunitensi a partire da oggi (in passato era disponibile attraverso una lista d’attesa), guadagnerà nuovi strumenti parte dell’essenza di Gemini, come Deep Research.

La AI Mode sarà presto arricchita anche con le potenzialità di Project Astra e consentirà agli utenti di esplorare nuovi modi per ricercare contenuti, anche mostrando all’app ciò che l’utente vede in tempo reale e porvi domande. Questa funzionalità sarà disponibile tramite Labs nel corso dell’estate.

Novità dell’app di Gemini per gli studenti

A partire da oggi, gli studenti maggiorenni di tutto il mondo potranno creare quiz personalizzati chiedendo a Gemini di creare un quiz ad hoc su un argomento qualsiasi o sulla base di un documento caricato. L’esperienza del quiz sarà interattiva: l’assistente potrà fornire suggerimenti, mostrare spiegazioni per le risposte (corrette o errate che siano) e offrire un riepilogo finale che mette in risalto punti di forza e aspetti su cui lavorare.

Sparkify, il nuovo esperimento su Google Labs

Consci del fatto che i video costituiscono un potente e utile strumento didattico, i membri del team di Google hanno lanciato il nuovo esperimento Sparkify sulla piattaforma Labs: esso permette agli utenti di trasformare domande o idee in brevi video animati, sfruttando le potenzialità congiunte di Gemini e Veo.

Project Astra esce dall’app di Gemini per trasformarsi in un tutor

Un’altra novità legata all’apprendimento ha alla base Project Astra, quel “progetto” che ha portato condivisione dello schermo e condivisione del flusso della fotocamera nell’app di Gemini, in quella che potremo definire (sfruttando termini filo-Apple) Visual Intelligence.

Un nuovo progetto punta a sfruttare Project Astra per prototipare un tutor conversazionale che possa aiutare bambini e ragazzi coi compiti, con capacità di guidare passo dopo passo nella risoluzione dei problemi, nell’individuazione degli errori e nel generare elementi che possano semplificare i concetti.

Novità per “Learn About”

Learn About, un progetto sperimentale di Labs che sfrutta l’intelligenza artificiale conversazionale per stuzzicare la curiosità, è in grado di offrire spiegazioni più dettagliate e collegamenti più pertinenti: verrà presto aggiunta anche la cronologia delle sessioni per fare in modo che gli studenti possano riprendere dal punto in cui avevano lasciato in precedenza.

Nuove potenzialità di Workspace con Gemini

Google ha pian piano implementato le potenzialità di Gemini anche nella suite Workspace seguendo l’approccio del “supporto concreto, senza sensazionalismo“. Al Google I/O 2025, il colosso di Mountain View ha mostrato gli aggiornamenti più recenti che riguardano strumenti che possono far comodo nell’uso quotidiano.

Novità per Gmail

Gmail, il client per la posta elettronica del colosso di Mountain View, guadagna alcune novità legate a Gemini pensate per far sì che gli utenti possano “recuperare il proprio tempo” e risultare ancor più produttivi (ne abbiamo parlato in maniera più approfondita in questo articolo dedicato):

  • Il contesto viene esteso ai documenti e alle lunghe conversazioni, in modo tale che l’assistente possa fare riferimento a questi contenuti nelle risposte (disponibilità in Labs il prossimo trimestre).
  • Capacità di organizzare e “pulire” la casella di posta elettronica, in modo tale che gli utenti possano dare indicazioni all’assistente che si preoccuperà di gestire e alleggerire la casella di posta (disponibilità generale il prossimo trimestre).
  • Pianificazione degli eventi più immediata, grazie alla nuova potenzialità dell’assistente che è in grado di capire quando, in uno scambio di e-mail, l’utente sta cercando di organizzare un incontro (disponibilità generale il prossimo trimestre).

Novità per Google Vids

Google Vids è un’app lanciata da Google lo scorso anno nella suite Workspace e che, da oggi, è disponibile anche per gli abbonati ai piani Google One AI Pro e AI Ultra. Ci sono tre novità nell’app:

  • Creazione di un video da prompt testuale grazie all’integrazione di Veo 2 (disponibile da oggi).
  • Convertire una presentazione in un video condivisibile, rendendola coinvolgente per il pubblico grazie a Gemini che può generare script, voiceover, animazioni e altro ancora (verrà distribuita nel prossimo trimestre).
  • Avatar AI che possono presentare gli script, consentendo alle persone di “raccontare una storia” senza apparire effettivamente (arriverà su Labs nel mese di giugno).

Novità per Google Meet

Per quanto concerne Google Meet, invece, la novità principale è pensata per far sì che gli utenti di tutto il mondo possano comunicare tra loro senza barriere: è così che arriva la traduzione vocale in tempo reale (ne abbiamo parlato in questo articolo)

Si tratta di una funzionalità che traduce le parole pronunciate da un utente nella lingua del suo interlocutore, preservandone tono ed espressività. In questa prima fase, la funzionalità è disponibile in beta (per i soli abbonati a Google One AI Pro e AI Ultra) e supporta le lingue inglese, francese, italiano, spagnolo e portoghese.


Questi aggiornamenti non sono funzionalità indipendenti — fanno parte di una visione più ampia: creare una AI che si inserisca nei flussi di lavoro quotidiani, aiutandoti ad agire e permettendoti di dedicare più tempo a ciò che davvero fa la differenza. Con questi annunci compiamo un ulteriore passo verso la diffusione di strumenti AI utili per il lavoro, pensati per tutti.



Vedi Post Originale: https://www.tuttoandroid.net/news/2025/05/21/recap-novita-gemini-google-i-o-2025-1095397/


0 Comments

Lascia un commento