Thinking Machines prezentuje model AI „Full Duplex”, który słucha, gdy mówi

AI Startups12.May.2026 10:083 min read

Startup Miry Murati, Thinking Machines Lab, zaprezentował wersję badawczą modelu AI „full duplex”, zaprojektowanego do jednoczesnego przetwarzania danych wejściowych i generowania odpowiedzi, aby rozmowy z AI bardziej przypominały rozmowy telefoniczne w czasie rzeczywistym niż wymianę tekstową opartą na turach.

Thinking Machines prezentuje model AI „Full Duplex”, który słucha, gdy mówi

Thinking Machines Lab, startup AI założony przez byłą CTO OpenAI Mirę Murati, ogłosił nowe podejście do konwersacyjnej sztucznej inteligencji, które może zasadniczo zmienić sposób, w jaki ludzie wchodzą w interakcję z dużymi modelami językowymi. Zamiast znanego formatu opartego na turach — gdzie użytkownicy mówią lub piszą, czekają na odpowiedź, a następnie kontynuują — firma opracowuje to, co nazywa „modelem interakcji”, zdolnym do jednoczesnego słuchania i odpowiadania.

Od modelu turowego do AI w czasie rzeczywistym

Dzisiejsze główne systemy AI działają w schemacie sekwencyjnym. Użytkownik wprowadza dane, model je przetwarza, a następnie generuje odpowiedź. Taka struktura bardziej przypomina wymianę wiadomości tekstowych niż naturalną rozmowę. Thinking Machines zamierza zastąpić ten paradygmat architekturą „full duplex”, umożliwiającą jednoczesne przetwarzanie danych wejściowych i generowanie odpowiedzi.

Model badawczy firmy, nazwany TML-Interaction-Small, według doniesień odpowiada w około 0,40 sekundy — czyli z opóźnieniem zbliżonym do typowego w ludzkiej mowie. Według Thinking Machines czyni to go znacznie szybszym niż porównywalne rozwiązania głównych dostawców AI, choć niezależne testy porównawcze nie potwierdziły jeszcze tych twierdzeń.

Dlaczego full duplex ma znaczenie

W ludzkim dialogu uczestnicy często przerywają sobie, wtrącają uwagi lub modyfikują wypowiedź w połowie zdania w odpowiedzi na subtelne sygnały. Obecne asystenty głosowe AI mają trudności z taką dynamiczną wymianą, ponieważ muszą czekać na zakończenie wypowiedzi, zanim wygenerują odpowiedź. Natywny model full duplex mógłby umożliwić płynniejsze rozmowy, bardziej naturalne przerywanie oraz adaptacyjne odpowiedzi, które ewoluują w trakcie dalszej wypowiedzi użytkownika.

Jeśli to podejście okaże się skuteczne, zmiana może wykraczać poza chatboty konsumenckie. Konwersacyjna AI w czasie rzeczywistym ma kluczowe znaczenie dla zastosowań takich jak wirtualni asystenci, automatyzacja obsługi klienta, narzędzia dostępności, systemy tutoringowe czy środowiska pracy zespołowej. Niższe opóźnienia i jednoczesne przetwarzanie mogą zmniejszyć tarcia i sprawić, że AI będzie wydawać się mniej mechaniczna.

Nadal na etapie zapowiedzi badawczej

Mimo technicznych deklaracji ogłoszenie Thinking Machines pozostaje zdecydowanie na etapie badań. Firma nie udostępniła jeszcze modelu publicznie. Ograniczona zapowiedź badawcza spodziewana jest w nadchodzących miesiącach, a szersze wdrożenie planowane jest na późniejszą część roku.

Oznacza to, że kluczowe pytania pozostają bez odpowiedzi: Jak dobrze model radzi sobie z hałasem lub nakładającą się mową? Czy potrafi utrzymać dokładność podczas generowania odpowiedzi w czasie rzeczywistym? I czy rzeczywiste doświadczenie użytkownika będzie odpowiadać wskaźnikom wydajności przedstawianym przez firmę?

Sygnał strategiczny od startupu o wysokim profilu

Ogłoszenie jest istotne nie tylko ze względu na ambicje technologiczne, ale także ze względu na jego źródło. Murati, która wcześniej współkierowała rozwojem ChatGPT i innych produktów OpenAI, założyła Thinking Machines Lab w 2025 roku. Wczesne skupienie startupu na AI natywnie zorientowanej na interakcję sugeruje, że może on dążyć do fundamentalnej zmiany w sposobie projektowania modeli, zamiast konkurować wyłącznie rozmiarem modelu czy wynikami w benchmarkach.

To, czy interakcja full duplex stanie się kolejnym standardem w konwersacyjnej AI, będzie zależeć od realizacji, skalowalności i adopcji przez deweloperów. Ten krok sygnalizuje jednak rosnące w branży przekonanie: uczynienie AI inteligentniejszą może nie wystarczyć — sprawienie, by wydawała się bardziej ludzka, może być równie ważne.