Google ha rilasciato A2UI v0.9, un protocollo aperto che permette agli AI agent di costruire interfacce utente in tempo reale. Se finora i chatbot ti hanno risposto con testo, immagine o codice, con A2UI possono generare pulsanti, form, grafici e dashboard interattive che funzionano davvero, su qualsiasi dispositivo e framework.

Il nome sta per Agent-to-User Interface. Invece di far eseguire codice arbitrario generato da un modello, con tutti i problemi di sicurezza che comporta, A2UI usa un formato dichiarativo in JSON. L’agente descrive cosa vuole mostrare, il client decide come renderizzarlo usando i propri componenti nativi. È la differenza tra dare a qualcuno le chiavi di casa tua e chiedergli di scegliere i mobili dal catalogo che gli hai preparato.

Come funziona nella pratica

Il flusso è lineare anche se l’architettura sotto è tutt’altro che semplice. Un agente AI genera un payload JSON che descrive l’interfaccia. Questo payload viaggia verso il client attraverso protocolli come A2A, AG-UI, WebSocket o una REST API. Il client riceve il JSON e lo trasforma in componenti nativi con un renderer dedicato. React, Flutter, Angular, Lit: stessi dati, stessa logica, schermi diversi.

La versione 0.9 porta diversi aggiornamenti concreti. C’è un Agent SDK con supporto Python (Go e Kotlin in arrivo), una libreria web-core condivisa per i renderer browser, e un renderer React ufficiale che fino ad ora mancava. Ma il vero salto è nelle funzionalità: il protocollo ora supporta funzioni definite dal client per la validazione, la sincronizzazione dati client-server per editing collaborativo, e uno streaming resiliente che renderizza i componenti man mano che il modello li genera. Niente più schermate bianche di attesa.

L’ecosistema si allarga

Google non ha costruito A2UI da sola. Il protocollo è open source sotto licenza Apache 2.0 su GitHub, con oltre 14.000 star e 60 contributori. Più dei numeri contano le integrazioni. AG2, il framework nato da AutoGen, supporta A2UI nativamente. A2A 1.0, il protocollo agent-to-agent lanciato di recente, lo usa come layer di presentazione. Vercel ha un renderer proof-of-concept. Oracle ha integrato A2UI nel suo Agent Spec con una definizione precisa: “Agent Spec definisce cosa gira, AG-UI trasporta l’interazione, A2UI definisce cosa tocca l’utente”.

Due app demo mostrano il potenziale. La prima è un Personal Health Companion di Rebel App Studio e Codemate, che genera widget dinamici per risultati di analisi, scadenze vaccini e posizioni cliniche, collegando cartelle mediche e dati da wearable in tempo reale. La seconda è un Life Goal Simulator di Very Good Ventures, l’agenzia che lavora con Toyota e GEICO: interfacce finanziarie personalizzate costruite al momento in base agli obiettivi dell’utente.

E qui la cosa si fa interessante per chi non sviluppa.

Perché cambia il modo di usare il software

Il passaggio dal testo alle interfacce generative è uno spostamento che ora sembra tecnico e tra un anno cambierà come tutti usano le applicazioni. Oggi un AI agent ti dice “ecco i voli disponibili per Milano”. Con A2UI ti mostra una card interattiva con filtri, orari e un pulsante di prenotazione che funziona, costruita in quel momento per quella specifica richiesta. Non è una conversazione. È un’applicazione usa-e-getta generata al volo.

La sicurezza è il punto di forza del design. Il client mantiene un catalogo di componenti approvati e l’agente può richiedere solo quelli. Nessun codice arbitrario, nessuna sorpresa. Un approccio che rende A2UI utilizzabile anche in contesti enterprise dove la sicurezza non è negoziabile.

La roadmap di Google punta alla versione 1.0 con renderer per Jetpack Compose e iOS SwiftUI, supporto REST e integrazioni con LangGraph e Genkit. Se il progetto mantiene il ritmo di questi mesi, A2UI potrebbe diventare lo standard per come gli AI agent comunicano con le persone. Non con parole, ma con interfacce.

Categorized in:

Breaking AI,

Last Update: Aprile 19, 2026