Qualche miliardo di dollari per un’azienda che non ha ancora rilasciato un prodotto pubblico. È il tipo di scommessa che definisce un mercato, e Google l’ha appena fatta con Thinking Machines Lab, la startup fondata dall’ex CTO di OpenAI Mira Murati.

L’accordo, anticipato in esclusiva da TechCrunch e confermato da fonti interne, prevede un investimento pluriennale valutato nell’ordine dei single-digit billion — quindi tra uno e nove miliardi di dollari — per fornire a Thinking Machines Lab l’infrastruttura computazionale necessaria a addestrare e deployare i propri modelli AI. La particolarità: il deal include accesso prioritario ai nuovi chip Nvidia GB300, la generazione Blackwell Ultra che ha iniziato a essere distribuita a clienti selezionati nelle prime settimane del 2026, affiancati dai TPU di Google. Un mix di tecnologie che poche startup al mondo possono permettersi.

Murati ha lasciato OpenAI nel settembre 2024, in un momento già turbolento per l’azienda di Sam Altman. La sua non è stata una dipartita silenziosa: come CTO aveva guidato lo sviluppo di GPT-4 e DALL-E, i due prodotti che hanno ridefinito la percezione pubblica dell’intelligenza artificiale. Quando ha fondato Thinking Machines Lab nel febbraio 2025, il suo telefono ha continuato a squillare. Nel giro di pochi mesi ha raccolto un seed round da 2 miliardi di dollari a una valutazione di 12 miliardi — cifre che in qualsiasi altro settore sarebbero considerate una Serie C, non un lancio.

Nel ottobre 2025 la startup ha lanciato Tinker, un tool che automatizza la creazione di modelli AI personalizzati per le aziende. Da lì, silenzio operativo. Murati ha mantenuto un profilo basso, ha continuato ad assumere ricercatori da OpenAI e altri lab di frontiera, e ha lavorato dietro le quinte a quella che sembra essere una nuova generazione di sistemi di reasoning — modelli capaci di pianificare, ragionare in più passaggi e risolvere problemi complessi in autonomia.

Cosa contiene l’accordo

I dettagli contrattuali non sono pubblici, ma dalle fonti emerge che l’accordo è non esclusivo — Thinking Machines Lab potrà utilizzare altri provider cloud in futuro. Dettaglio rilevante, perché le grandi alleanze tech-AI tendono all’esclusiva: Microsoft con OpenAI, Amazon con Anthropic (5 miliardi di investimenti e un impegno fino a 100 miliardi su AWS). Google sta scegliendo un approccio diverso, puntando sulla qualità dell’infrastruttura piuttosto che sulla gabbia contrattuale.

Non che manchi la strategia. Google Cloud ha storicamente faticato a competere con AWS e Azure nelle quote di mercato cloud generale, ma si è ritagliata il ruolo di piattaforma di riferimento per i carichi di lavoro machine learning. Il deal con Thinking Machines Lab arriva in una settimana di annunci importanti: al Google Cloud Next 2026 di Las Vegas, l’azienda ha presentato i nuovi TPU di ottava generazione, divisi in due varianti — TPU 8t per il training e TPU 8i per l’inference — con performance dichiarate fino a 3x superiori alla generazione precedente e un miglioramento dell’80% nel rapporto performance-dollaro.

Myle Ott, founding researcher di Thinking Machines Lab, ha dichiarato che Google Cloud ha permesso alla startup di operare “a una velocità record con l’affidabilità richiesta”. Frase costruita con cura, che suggerisce meno un matrimonio romantico e più una partnership pragmatica: la startup ha bisogno di calcolo, Google ha bisogno di clienti che consumino calcolo a scala massiva.

La vera posta in gioco

Quello che sta succedendo tra Google, Microsoft, Amazon e le startup AI non è un normale mercato B2B. È una corsa per assicurarsi l’accesso alla risorsa più scarsa del decennio: il calcolo per addestrare modelli di frontiera. I modelli di reasoning — quelli che Murati e altri stanno sviluppando — richiedono carichi di reinforcement learning tra i più costosi in termini computazionali mai tentati. Non basta una GPU. Non basta un cluster. Servono data center dedicati, ottimizzati, collegati con reti ad altissima velocità.

Il deal ha un valore che va oltre i dollari. Per Google significa aggiungere un nome di peso alla lista di partner AI — un nome che potrebbe produrre modelli competitivi con GPT-5 e Claude. Per Thinking Machines Lab significa avere la potenza di fuoco per competere con aziende che hanno infrastrutture consolidate da anni, senza dover costruire data center propri.

Il fatto che una startup di nemmeno due anni possa negoziare un accordo pluriennale da miliardi di dollari con uno dei tre provider cloud più grandi del mondo la dice lunga. Il calcolo non è più un costo operativo: è il mozzo di un sistema dove chi controlla i chip controlla l’accesso al futuro dell’AI. E chi controlla le relazioni con i talenti come Murati controlla la domanda di quel calcolo.

Chi sta con chi

La mappa delle alleanze AI si sta consolidando. Microsoft resta ancorata a OpenAI, con cui ha investito 13 miliardi di dollari, anche se il recente lancio dei modelli proprietari MAI suggerisce una diversificazione in corso. Amazon ha puntato su Anthropic, con 5 miliardi di investimento e fino a 5 gigawatt di capacità per il training di Claude. Google costruisce una rete più diversificata: Anthropic ha accordi TPU con Google e Broadcom, e ora Thinking Machines Lab si aggiunge.

Nel frattempo Nvidia continua a vincere da ogni lato. I suoi chip — H100, poi B200, ora GB300 — sono il denominatore comune di quasi tutti questi accordi. Anche quando un provider cloud spinge chip custom, come Google con i TPU o Amazon con Trainium, i clienti chiedono comunque le GPU Nvidia. Il deal Thinking Machines Lab-Google lo conferma: la startup ha specificamente richiesto accesso ai GB300, e Google l’ha accontentata.

Come nota AI Productivity, il termine “deepens” usato nella comunicazione suggerisce che Google aveva già una relazione con Thinking Machines Lab. Non è un accordo a freddo, ma l’estensione di una collaborazione iniziata ai tempi del lancio. Google non sta scommettendo su un cavallo sconosciuto. Sta raddoppiando su una puntata già in corso.

Cosa cambia per chi lavora con l’AI

Per gli sviluppatori e le aziende che costruiscono prodotti AI, il deal è un segnale chiaro: il mercato dei modelli di base sta per diventare più affollato. Oggi le opzioni serie per un modello di frontiera si contano sulle dita di una mano — OpenAI, Anthropic, Google, Meta con i modelli open source. Se Thinking Machines Lab riesce a rilasciare modelli competitivi, tra qualche mese potrebbe esserci un nuovo player nel club.

Più concorrenza tra provider significa pressione sui prezzi, iterazione più rapida sulle capability e, potenzialmente, modelli specializzati per settori verticali oggi poco serviti dai generalisti. Tinker, il prodotto già sul mercato, va nella direzione della personalizzazione enterprise — un’area dove la domanda supera di gran lunga l’offerta.

Per il mercato europeo, c’è anche una lettura regolatoria. L’EU AI Act è entrato in piena applicazione da marzo 2026, e un nuovo provider di modelli di frontiera dovrà confrontarsi con requisiti di trasparenza e classificazione del rischio che oggi gravano soprattutto su OpenAI, Google e Anthropic. Più player ci sono, più il mercato si normalizza. E più la regolamentazione europea diventa un filtro competitivo, non solo un vincolo.

Categorized in:

Breaking AI,

Last Update: Aprile 23, 2026