Oggi a Las Vegas, Sundar Pichai ha acceso i riflettori su quello che Google considera il prossimo capitolo del cloud: non più tool isolati, ma reti di agenti AI che lavorano in autonomia attraverso intere organizzazioni. Si chiama Gemini Enterprise Agent Platform, ed è la risposta diretta a OpenAI e Anthropic nella gara per il mercato enterprise dell’intelligenza artificiale.
Google ha fatto molto più di un restyling. Ha riorganizzato la strategia intorno a Vertex AI, aggiunto strumenti per costruire e governare flotte di agenti, e si è posizionata su un terreno dove vuole distinguersi dalla concorrenza: non coding tools per sviluppatori, ma agenti per il business. Thomas Kurian, CEO di Google Cloud, lo ha detto in modo esplicito: l’uso principale di Vertex AI è passato dal machine learning tradizionale alla costruzione di agenti personalizzati.
Gemini Enterprise: 200 modelli e un’identità per ogni agente
La piattaforma unifica selezione dei modelli, training, deploy e orchestrazione in un unico ambiente. Ci sono oltre 200 modelli disponibili: Gemini 3.1 Pro, la famiglia Gemma open source, e addirittura Claude Opus 4.7 di Anthropic. Sì, Google vende l’accesso al modello del suo rivale diretto sulla propria piattaforma.
Per gli sviluppatori ci sono Agent Development Kit con supporto al protocollo MCP, un Memory Bank per la delega tra agenti, e un tool di simulazione per stress-testare gli agenti prima del deploy in produzione. Per chi non scrive codice, Agent Studio e Agent Designer permettono di costruire agenti con interfacce visive e pubblicarli nell’app Gemini Enterprise per l’uso interno.
La governance è il punto su cui Google insiste di più. Ogni agente riceve un’identità crittografica, c’è un single control plane per la gestione centralizzata, e Google promette lo stesso livello di auditability che un’azienda applica a sistemi come il payroll o la contabilità trimestrale. Se le aziende devono delegare decisioni operative a software autonomo, la trasparenza non è opzionale.
TPU di ottava generazione: due chip, due missioni
Google ha presentato due varianti della sua ottava generazione di chip custom. Il TPU 8t, pensato per il training, arriva con superpod da 9.600 chip e 2 petabyte di memoria condivisa, con prestazioni triple rispetto alla generazione Ironwood e il doppio delle performance per watt. Il TPU 8i, ottimizzato per l’inference, ha il triplo della SRAM on-chip per gestire la latenza quando milioni di agenti operano contemporaneamente.
La scala dell’infrastruttura Google ormai parla da sola: 16 miliardi di token processati al minuto via API diretta, in crescita dai 10 miliardi del trimestre scorso. Più del 50% degli investimenti in compute ML del 2026 va al business Cloud.
La partnership con Salesforce: agenti senza confini
Insieme a Salesforce, Google ha annunciato l’integrazione tra Agentforce e Gemini Enterprise. Gli agenti operano attraverso Slack e Google Workspace, leggono dati da BigQuery senza copiarli, e gestiscono workflow completi. Il problema che risolvono è concreto: secondo Google, il “hidden toggling tax”, il tempo perso a saltare tra app diverse, costa al dipendente medio 2 ore di produttività al giorno.
Slackbot genererà presentazioni Google Slides partendo da thread Slack e documenti Google. Agentforce Sales opererà dentro Gemini Enterprise per gestire pipeline e aggiornamenti CRM senza cambiare strumento. Wayfair e Pepkor sono tra i primi clienti. Pepkor, in particolare, ha unificato 64 milioni di profili cliente in 24 milioni, raggiungendo il 25% in più della propria base con engagement personalizzato.
Google mangia il proprio cibo
Il dato che forse racconta meglio la direzione: il 75% del nuovo codice scritto in Google è generato da AI, approvato dagli ingegneri. Le migrazioni di codice complesso sono sei volte più veloci con agenti e ingegneri insieme rispetto agli ingegneri da soli. I SOC agent triagano automaticamente decine di migliaia di report di minacce al mese, riducendo i tempi di mitigazione oltre il 90%.
È anche un modo per dire ai clienti: lo usiamo noi, funziona.
La scommessa di Google è chiara. Mentre OpenAI e Anthropic spingono sui coding tools, il segmento dove monetizzano più velocemente, Google punta su una visione più ampia dove agenti autonomi gestiscono processi aziendali end-to-end. Le announcement sul coding sono state rimandate a Google I/O, il 19 maggio, probabilmente perché Kurian vuole che il Cloud Next racconti una storia diversa.
Se la strategia funziona, Google ha un vantaggio che pochi possono replicare: lo stack completo, dai chip custom ai modelli, dalla piattaforma ai dati enterprise già ospitati nel cloud. Se non funziona, sarà perché le aziende non sono pronte a delegare processi critici ad agenti autonomi. La domanda vera è un’altra: chi ci arriverà per primo, e con quale infrastruttura. Google vuole essere lì quando succede.