Google ha appena mostrato dove sta andando Android — e no, non è l'ennesimo aggiornamento grafico con qualche animazione più fluida. È una cosa diversa. Gemini è integrato direttamente nel sistema operativo come uno strato intelligente che gira sotto tutto, dentro le app, attraverso i dispositivi. Non è un'icona che apri quando vuoi fare una domanda. È più vicino a un secondo sistema nervoso del telefono.
Beh, prima di entusiasmarci troppo — diciamo le cose come stanno. Molte di queste funzioni arriveranno «questo autunno», che in gergo tecnologico significa «forse tra sei mesi, forse mai in Italia il primo anno». L'architettura è annunciata, non consegnata. Ma alcune cose sono già disponibili o quasi, e vale la pena capire cosa cambia davvero per chi lavora, non per chi colleziona specifiche tecniche. Ecco quattro funzioni concrete — con una lettura onesta su cosa è hype e cosa no.
Gemini Intelligence: uno strato AI nel sistema operativo, non un'app
Gemini Intelligence è la nuova piattaforma AI trasversale di Google per dispositivi Android, capace di eseguire azioni autonome dentro le app e leggere il contesto dello schermo in tempo reale. Non è un'app separata — è un livello del sistema operativo. La differenza pratica è questa: stai leggendo un'email con un indirizzo di consegna e una data di scadenza. Invece di copiare l'indirizzo, aprire Maps, incollare, tornare all'email, copiare la data, aprire il calendario, inserirla — hai presente quel balletto? ci siamo passati tutti — Gemini vede lo schermo e propone entrambe le azioni direttamente, senza che tu cambi applicazione.
Il confronto più onesto è con Siri di Apple — che dopo anni di promesse rimane fondamentalmente un assistente vocale con capacità limitate di operare dentro le app di terze parti. Google sta dicendo: noi facciamo la cosa che Siri non ha mai fatto davvero, quella che opera dentro le app, non accanto a esse. La differenza tecnica esiste — i modelli attuali di Gemini hanno capacità di ragionamento contestuale che nel 2016, quando Google Assistant fu lanciato, semplicemente non esistevano. Se l'implementazione regge fuori dalle demo è un'altra questione.
Per chi lavora in autonomia o gestisce una piccola struttura, il guadagno potenziale è sulla riduzione del cambio di contesto. Ogni volta che passi da un'app all'altra perdi un pezzo di concentrazione. Se un sistema AI può fare da tramite senza che tu debba spostare fisicamente file o testi tra applicazioni, quello è tempo reale recuperato — non in senso motivazionale, in senso letterale.
Rambler e la dettatura intelligente: utile adesso, ma non in italiano
Rambler è lo strumento di dettatura che filtra automaticamente le parole di riempimento — «ehm», «tipo», «cioè», «praticamente» — mentre parli. Il risultato è un testo pulito senza doverlo rileggere e correggere a mano. È pensato per chi produce molto testo su smartphone: risposte email, note, messaggi lunghi ai clienti.
Il problema storico della dettatura non era il riconoscimento vocale — era che il testo usciva pieno di intercalari che poi bisognava ripulire manualmente, rendendo il processo più lento della tastiera. Nelle demo mostrate all'Android Show di giugno 2025, Rambler filtra in tempo reale durante la dettatura, non in post-processing: il testo che appare sullo schermo è già quello finale. È la differenza tra uno strumento usabile e uno che si usa una volta sola.
Limite concreto: funziona bene in inglese. La localizzazione italiana di queste funzioni arriva storicamente con sei-dodici mesi di ritardo rispetto al lancio US — e non sempre arriva completa. Circle to Search, per esempio, ha impiegato otto mesi ad attivarsi su tutti i dispositivi compatibili in Italia. Prima di riorganizzare il tuo flusso di lavoro attorno a Rambler, aspetta che sia testabile in italiano da fonti indipendenti.
Create My Widget: abbassa la barriera che nessuno ammette di avere
Create My Widget genera widget personalizzati per la schermata home di Android usando istruzioni in linguaggio naturale. Dici cosa vuoi vedere — «email non lette del cliente X», «promemoria riunione del giovedì», «meteo e agenda del giorno» — e Gemini costruisce il widget senza configurazione manuale.
I widget personalizzati esistono già su Android, ma configurarli richiede trovare l'app giusta, installarla, autorizzarla, impostare i parametri. Per la maggior parte delle persone quella catena è abbastanza lunga da non completarla mai. È come quella lampada che hai comprato e che è ancora nel sacchetto perché «bisogna montarla». Se qualcuno la monta automaticamente, la usi. La barriera non è la volontà — è la lunghezza del processo che scoraggia prima che inizi.
Il limite reale è nella profondità: un widget generato da linguaggio naturale copre casi semplici. Quanto si avvicina a quello che farebbe un widget configurato con precisione da uno sviluppatore? Le demo non lo mostrano. Questa è la domanda da fare prima di entusiasmarsi — e la risposta arriverà solo dai test indipendenti post-lancio.
Googlebook: ha senso solo se sei già dentro l'ecosistema Google
I Googlebook sono la nuova linea di laptop prodotta in collaborazione con Dell, HP, Lenovo, Acer e Asus, con Gemini integrato nativamente e un cursore AI chiamato Magic Pointer. Eseguono app Android direttamente, unificando l'ecosistema mobile e desktop di Google in un'unica macchina. Il Magic Pointer suggerisce azioni contestuali mentre navighi: se sei su un documento con una data, propone di aggiungerla al calendario; se sei su un indirizzo, propone di aprirlo in Maps. Non è completamento automatico del testo — è completamento automatico delle azioni.
Il punto più concreto per chi lavora in mobilità non è il cursore. È l'unificazione dei file e delle app tra telefono e laptop. Chi lavora su Android e usa un laptop con Windows o macOS ha inevitabilmente due ambienti che si sincronizzano in modo imperfetto. Un Googlebook che gira le stesse app del telefono, con gli stessi file, senza passaggi intermedi, è una semplificazione misurabile. I prezzi annunciati partono da 799 dollari per i modelli entry-level — in linea con i Chromebook premium, non con i laptop Windows di fascia media. Per l'Italia, il lancio è previsto per fine 2025, con disponibilità reale probabilmente nel primo trimestre 2026.
Vale la pena aspettarli? Dipende da quanto il tuo lavoro è già dentro l'ecosistema Google. Se usi Gmail, Google Drive e Meet come strumenti principali — sì, ha senso tenerli d'occhio. Se sei su Microsoft 365 o Apple, l'integrazione sarà molto meno fluida di quanto le demo mostrino. I Chromebook esistenti, nel frattempo, riceveranno parte delle stesse funzioni AI via aggiornamento software — senza comprare hardware nuovo.
C'è una cosa che vale per tutte e quattro queste funzioni, e conviene dirla chiaramente: Google è bravissima ad annunciare, un po' meno brava a consegnare puntualmente. L'assistente Google esiste dal 2016. Siri dal 2011. Cortana è praticamente in pensione. Il fatto che nessuno di questi abbia ancora raggiunto la promessa originale di «assistente che capisce il contesto e agisce» dovrebbe renderci tutti un po' prudenti.
Quello che è diverso questa volta — e qui ci sembra onesto riconoscerlo — è che Gemini parte da modelli con capacità di ragionamento contestuale che nel 2016 semplicemente non esistevano. I benchmark pubblici su task multi-step mostrano un salto reale rispetto alle generazioni precedenti. La domanda aperta è se queste capacità reggono nell'uso quotidiano fuori dagli auditorium, e quella risposta arriva solo quando ci si mette le mani sopra ogni giorno.
Nel frattempo, se vuoi capire come l'AI sta già cambiando il lavoro dei consulenti italiani adesso — non tra sei mesi — qui trovi un'analisi concreta sul perché la domanda di competenze AI supera l'offerta.