Thinking Machines presenta il modello AI ‘Full Duplex’ che ascolta mentre parla
La startup di Mira Murati, Thinking Machines Lab, ha introdotto un’anteprima di ricerca di un modello di intelligenza artificiale “full duplex” progettato per elaborare input e generare risposte simultaneamente, con l’obiettivo di rendere le conversazioni con l’AI più simili a telefonate in tempo reale piuttosto che a scambi di testo a turni.

Thinking Machines Lab, la startup di intelligenza artificiale fondata dall’ex CTO di OpenAI Mira Murati, ha annunciato un nuovo approccio all’IA conversazionale che potrebbe cambiare radicalmente il modo in cui gli esseri umani interagiscono con i modelli linguistici di grandi dimensioni. Invece del familiare formato a turni—dove gli utenti parlano o digitano, attendono una risposta e poi continuano—l’azienda sta sviluppando quello che definisce un “modello di interazione” capace di ascoltare e rispondere simultaneamente.
Dal modello a turni all’IA in tempo reale
I sistemi di IA mainstream di oggi operano secondo uno schema sequenziale. Un utente fornisce un input, il modello lo elabora e poi genera una risposta. Questa struttura ricorda più i messaggi di testo che una conversazione naturale. Thinking Machines punta a sostituire questo paradigma con un’architettura “full duplex”, che consenta l’elaborazione simultanea dell’input e la generazione dell’output.
Il modello di anteprima di ricerca dell’azienda, denominato TML-Interaction-Small, risponderebbe in circa 0,40 secondi—una latenza vicina a quella tipica del parlato umano. Secondo Thinking Machines, ciò lo renderebbe significativamente più veloce rispetto a offerte comparabili dei principali fornitori di IA, anche se benchmark indipendenti devono ancora convalidare tali affermazioni.
Perché il full duplex è importante
Nel dialogo umano, i partecipanti interrompono, intervengono o modificano il proprio discorso a metà frase in risposta a segnali sottili. Gli attuali assistenti vocali basati su IA faticano con questa dinamica fluida perché devono attendere la conclusione dell’input prima di generare un output. Un modello full duplex nativo potrebbe consentire scambi più fluidi, interruzioni più naturali e risposte adattive che evolvono mentre l’utente continua a parlare.
Se avrà successo, questo cambiamento potrebbe avere implicazioni che vanno oltre i chatbot per i consumatori. L’IA conversazionale in tempo reale è fondamentale per applicazioni come assistenti virtuali, automazione del servizio clienti, strumenti di accessibilità, sistemi di tutoraggio e ambienti di lavoro collaborativi. Una latenza ridotta e l’elaborazione simultanea potrebbero diminuire gli attriti e rendere l’IA meno meccanica.
Ancora un’anteprima di ricerca
Nonostante le affermazioni tecniche, l’annuncio di Thinking Machines rimane saldamente nella fase di ricerca. L’azienda non ha rilasciato pubblicamente il modello. Un’anteprima di ricerca limitata è prevista nei prossimi mesi, con un lancio più ampio atteso entro la fine dell’anno.
Ciò significa che restano aperte domande fondamentali: quanto bene il modello gestisce parlato rumoroso o sovrapposto? Può mantenere l’accuratezza mentre genera risposte in tempo reale? E l’esperienza utente nel mondo reale corrisponderà ai benchmark di prestazione dichiarati dall’azienda?
Un segnale strategico da una startup di alto profilo
L’annuncio è rilevante non solo per la sua ambizione tecnica, ma anche per la sua provenienza. Murati, che in precedenza ha contribuito a guidare lo sviluppo di ChatGPT e di altri prodotti OpenAI, ha fondato Thinking Machines Lab nel 2025. Il focus iniziale della startup su un’IA nativa per l’interazione suggerisce che potrebbe puntare a un cambiamento strutturale nel modo in cui i modelli vengono progettati, piuttosto che competere esclusivamente sulla dimensione del modello o sui punteggi nei benchmark.
Se l’interazione full duplex diventerà il nuovo standard per l’IA conversazionale dipenderà dall’esecuzione, dalla scalabilità e dall’adozione da parte degli sviluppatori. Ma questa mossa segnala un crescente riconoscimento nel settore: rendere l’IA più intelligente potrebbe non essere sufficiente—renderla più umana potrebbe essere altrettanto importante.