Thinking Machines stellt „Full Duplex“-KI-Modell vor, das zuhört, während es spricht

AI Startups12.May.2026 10:083 min read

Das Startup Thinking Machines Lab von Mira Murati hat eine Forschungsvorschau eines „Full Duplex“-KI-Modells vorgestellt, das darauf ausgelegt ist, Eingaben zu verarbeiten und gleichzeitig Antworten zu generieren. Ziel ist es, KI-Gespräche eher wie Echtzeit-Telefonate als wie abwechselnde Textunterhaltungen wirken zu lassen.

Thinking Machines stellt „Full Duplex“-KI-Modell vor, das zuhört, während es spricht

Thinking Machines Lab, das KI-Startup, das von der ehemaligen OpenAI-CTO Mira Murati gegründet wurde, hat einen neuen Ansatz für konversationelle KI angekündigt, der grundlegend verändern könnte, wie Menschen mit großen Sprachmodellen interagieren. Anstelle des vertrauten, rundenbasierten Formats – bei dem Nutzer sprechen oder tippen, auf eine Antwort warten und dann fortfahren – entwickelt das Unternehmen ein sogenanntes „Interaktionsmodell“, das gleichzeitig zuhören und reagieren kann.

Von rundenbasiert zu Echtzeit-KI

Heutige Mainstream-KI-Systeme arbeiten in einem sequenziellen Muster. Ein Nutzer gibt eine Eingabe ein, das Modell verarbeitet sie und erzeugt anschließend eine Antwort. Diese Struktur ähnelt eher dem Schreiben von Textnachrichten als einem natürlichen Gespräch. Thinking Machines möchte dieses Paradigma durch eine „Full-Duplex“-Architektur ersetzen, die eine gleichzeitige Verarbeitung von Eingaben und Generierung von Ausgaben ermöglicht.

Das Forschungs-Vorschaumodell des Unternehmens mit dem Namen TML-Interaction-Small reagiert Berichten zufolge in etwa 0,40 Sekunden – nahe an der für menschliche Sprache typischen Latenz. Laut Thinking Machines ist es damit deutlich schneller als vergleichbare Angebote großer KI-Anbieter, auch wenn unabhängige Benchmarks diese Behauptungen bislang nicht bestätigt haben.

Warum Full Duplex wichtig ist

In menschlichen Dialogen unterbrechen sich Gesprächspartner häufig, werfen Zwischenbemerkungen ein oder passen ihre Aussagen mitten im Satz als Reaktion auf subtile Hinweise an. Aktuelle KI-Sprachassistenten haben Schwierigkeiten mit diesem dynamischen Ablauf, da sie warten müssen, bis eine Eingabe abgeschlossen ist, bevor sie eine Ausgabe generieren. Ein natives Full-Duplex-Modell könnte flüssigere wechselseitige Gespräche, natürlichere Unterbrechungen und adaptive Antworten ermöglichen, die sich weiterentwickeln, während ein Nutzer noch spricht.

Wenn dieser Ansatz erfolgreich ist, könnte er Auswirkungen über Consumer-Chatbots hinaus haben. Echtzeit-Konversations-KI ist entscheidend für Anwendungen wie virtuelle Assistenten, automatisierten Kundenservice, Barrierefreiheits-Tools, Tutorensysteme und kollaborative Arbeitsumgebungen. Geringere Latenz und gleichzeitige Verarbeitung könnten Reibungsverluste reduzieren und KI weniger mechanisch wirken lassen.

Weiterhin eine Forschungsvorschau

Trotz der technischen Versprechen befindet sich die Ankündigung von Thinking Machines klar noch in der Forschungsphase. Das Unternehmen hat das Modell nicht öffentlich veröffentlicht. Eine begrenzte Forschungsvorschau wird in den kommenden Monaten erwartet, mit einer breiteren Einführung später in diesem Jahr.

Das bedeutet, dass zentrale Fragen offenbleiben: Wie gut kommt das Modell mit lauter oder überlappender Sprache zurecht? Kann es die Genauigkeit aufrechterhalten, während es Antworten in Echtzeit generiert? Und wird die tatsächliche Nutzererfahrung den Leistungsbenchmarks des Unternehmens entsprechen?

Ein strategisches Signal eines prominenten Startups

Die Ankündigung ist nicht nur wegen ihrer technischen Ambition bemerkenswert, sondern auch wegen ihrer Herkunft. Murati, die zuvor an der Entwicklung von ChatGPT und anderen OpenAI-Produkten mitwirkte, gründete Thinking Machines Lab im Jahr 2025. Der frühe Fokus des Startups auf interaktionsnative KI deutet darauf hin, dass es einen grundlegenden Wandel in der Architektur von Modellen anstreben könnte, anstatt ausschließlich über Modellgröße oder Benchmark-Ergebnisse zu konkurrieren.

Ob Full-Duplex-Interaktion zum nächsten Standard für konversationelle KI wird, hängt von Umsetzung, Skalierbarkeit und der Akzeptanz durch Entwickler ab. Doch der Schritt signalisiert eine wachsende Erkenntnis in der Branche: KI intelligenter zu machen reicht möglicherweise nicht aus – sie menschlicher wirken zu lassen, könnte ebenso wichtig sein.