Memo interno di OpenAI trapelato: il modello in codice “Spud” mira a contrastare Claude Mythos, pianificata una controffensiva su vasta scala contro Anthropic per il 2026

Technology15.Apr.2026 03:223 min read

Un memo interno trapelato di OpenAI rivela che l’azienda prevede di competere direttamente con Anthropic nel Q2 2026 lanciando un nuovo modello di ragionamento in codice “Spud” e costruendo la piattaforma Agent di livello enterprise Frontier. Il memo critica inoltre Anthropic su questioni tra cui risorse computazionali, partnership nell’ecosistema e metriche di fatturato.

Memo interno di OpenAI trapelato: il modello in codice “Spud” mira a contrastare Claude Mythos, pianificata una controffensiva su vasta scala contro Anthropic per il 2026

Secondo un memorandum interno trapelato di OpenAI, il Chief Revenue Officer Dennis Dresser ha delineato la roadmap strategica dell’azienda per il Q2 2026. Il documento rivela che OpenAI sta preparando una controffensiva su vasta scala contro il concorrente Anthropic nel mercato enterprise attraverso iterazione tecnologica e partnership di ecosistema.

Nome in codice Spud: un nuovo modello di ragionamento di punta

Il memo rivela un nuovo modello di IA con nome in codice Spud (ampiamente ipotizzato come GPT-5o o GPT-5.5). Il modello è esplicitamente posizionato per competere direttamente con Claude Mythos di Anthropic come offerta di punta principale.

  • Basato sull’architettura Blackwell: Si riferisce che Spud sia stato addestrato utilizzando i chip Blackwell di NVIDIA.

  • Miglioramenti delle prestazioni: I primi feedback dei clienti indicano prestazioni superiori nel ragionamento complesso, nel riconoscimento delle intenzioni e nell’affidabilità in ambienti di produzione.

  • Visione SuperApp: OpenAI prevede di integrare profondamente Spud nel proprio ecosistema di prodotti principali, accelerando l’evoluzione delle sue offerte verso un’esperienza unificata di “SuperApp”.

Piattaforma Frontier: costruire un’infrastruttura di agenti di livello enterprise

Oltre agli aggiornamenti dei modelli, OpenAI sta anche sviluppando una piattaforma di Agent chiamata Frontier, con l’obiettivo di diventare il livello infrastrutturale predefinito per agenti autonomi in ambito enterprise.

  • Vantaggio computazionale: Sfruttare la propria capacità di calcolo per offrire limiti di token più elevati e minore latenza.

  • Governance e orchestrazione: Rafforzare le capacità di orchestrazione, controllo e governance della sicurezza per flussi di lavoro aziendali complessi nel mondo reale.

Per quanto riguarda la strategia di partnership, Dresser avrebbe espresso una visione sfumata del rapporto tra OpenAI e Microsoft, suggerendo che un’eccessiva dipendenza da Microsoft potrebbe limitare la capacità di OpenAI di raggiungere una gamma più ampia di scenari cliente.

  • Amazon Bedrock: Dall’avvio della collaborazione a fine febbraio, la domanda sarebbe stata elevata.

  • Ambiente di runtime con stato: Il memo evidenzia il supporto di Amazon per un runtime con stato, che consente memoria tra interazioni e continuità contestuale, contribuendo a ridurre le barriere all’adozione per i clienti in settori regolamentati.

Confronto diretto: diverse critiche ad Anthropic

Il memo include anche diverse critiche mirate ad Anthropic:

  • Colli di bottiglia computazionali: Si afferma che Anthropic non sia riuscita a garantirsi risorse computazionali sufficienti, con conseguenti limitazioni di utilizzo per i clienti—definite un “errore strategico”.

  • Posizionamento di mercato: Si sostiene che l’attenzione iniziale di Anthropic sugli strumenti di coding possa lasciarla in svantaggio nella competizione più ampia tra piattaforme.

  • Dubbi sulla rendicontazione dei ricavi: Il memo mette in discussione il tasso di ricavi annualizzati dichiarato da 30 miliardi di dollari di Anthropic, suggerendo che includere le quote di ricavi destinate ad Amazon e Google non sia in linea con le pratiche standard di riconoscimento dei ricavi netti delle società quotate.

La fuga di questo memo segnala che nel 2026 la corsa globale all’IA sta passando da un focus ristretto sulla “scala dei parametri” a una competizione più ampia incentrata sulle capacità di implementazione enterprise e sull’infrastruttura di ecosistema.