Thinking Machines dezvăluie modelul AI „Full Duplex” care ascultă în timp ce vorbește
Startup-ul Mirei Murati, Thinking Machines Lab, a prezentat o versiune de cercetare a unui model AI „full duplex” conceput pentru a procesa inputul și a genera răspunsuri simultan, cu scopul de a face conversațiile cu AI să pară mai mult ca apelurile telefonice în timp real decât schimburile de mesaje bazate pe rânduri.

Thinking Machines Lab, startup-ul de inteligență artificială fondat de fosta CTO OpenAI, Mira Murati, a anunțat o nouă abordare a AI-ului conversațional care ar putea schimba fundamental modul în care oamenii interacționează cu modelele lingvistice de mari dimensiuni. În locul formatului familiar bazat pe rânduri—în care utilizatorii vorbesc sau tastează, așteaptă un răspuns și apoi continuă—compania dezvoltă ceea ce numește un „model de interacțiune” capabil să asculte și să răspundă în același timp.
De la AI bazat pe rânduri la AI în timp real
Sistemele AI mainstream de astăzi funcționează într-un tipar secvențial. Un utilizator furnizează o intrare, modelul o procesează, iar apoi generează un răspuns. Această structură seamănă mai mult cu mesageria text decât cu o conversație naturală. Thinking Machines își propune să înlocuiască această paradigmă cu o arhitectură „full duplex”, care permite procesarea simultană a intrării și generarea ieșirii.
Modelul de cercetare prezentat de companie, denumit TML-Interaction-Small, răspunde, potrivit informațiilor, în aproximativ 0,40 secunde—aproape de latența tipică a vorbirii umane. Potrivit Thinking Machines, acest lucru îl face semnificativ mai rapid decât ofertele comparabile ale marilor furnizori de AI, deși evaluările independente nu au confirmat încă aceste afirmații.
De ce contează Full Duplex
În dialogul uman, participanții întrerup frecvent, intervin sau își ajustează discursul la mijlocul frazei ca răspuns la indicii subtile. Asistenții vocali AI actuali au dificultăți cu acest flux dinamic deoarece trebuie să aștepte finalizarea intrării înainte de a genera un răspuns. Un model full duplex nativ ar putea permite schimburi mai fluide, întreruperi mai naturale și răspunsuri adaptive care evoluează pe măsură ce utilizatorul continuă să vorbească.
Dacă va avea succes, această schimbare ar putea avea implicații dincolo de chatbot-urile pentru consumatori. AI-ul conversațional în timp real este esențial pentru aplicații precum asistenți virtuali, automatizarea serviciilor pentru clienți, instrumente de accesibilitate, sisteme de tutorat și medii de lucru colaborative. Latența mai redusă și procesarea simultană ar putea diminua fricțiunea și ar face ca AI-ul să pară mai puțin mecanic.
Încă în faza de cercetare
În ciuda afirmațiilor tehnice, anunțul Thinking Machines rămâne ferm în faza de cercetare. Compania nu a lansat public modelul. O previzualizare limitată pentru cercetare este așteptată în lunile următoare, iar o lansare mai amplă este anticipată mai târziu în acest an.
Asta înseamnă că rămân întrebări esențiale fără răspuns: Cât de bine gestionează modelul vorbirea zgomotoasă sau suprapusă? Poate menține acuratețea în timp ce generează răspunsuri în timp real? Și va corespunde experiența utilizatorilor din lumea reală cu indicatorii de performanță prezentați de companie?
Un semnal strategic din partea unui startup de profil înalt
Anunțul este notabil nu doar prin ambiția sa tehnică, ci și prin sursa sa. Murati, care anterior a contribuit la conducerea dezvoltării ChatGPT și a altor produse OpenAI, a fondat Thinking Machines Lab în 2025. Accentul timpuriu al startup-ului pe AI nativ orientat spre interacțiune sugerează că acesta ar putea urmări o schimbare fundamentală în modul în care sunt arhitecturate modelele, mai degrabă decât să concureze exclusiv pe dimensiunea modelului sau pe scorurile din benchmark-uri.
Dacă interacțiunea full duplex va deveni următorul standard pentru AI-ul conversațional va depinde de execuție, scalabilitate și adoptarea de către dezvoltatori. Însă această mișcare semnalează o recunoaștere tot mai mare la nivelul industriei: a face AI-ul mai inteligent poate să nu fie suficient—iar a-l face să pară mai uman ar putea fi la fel de important.