Suchen

Bedienelemente Ford und RWTH Aachen entwickeln differenzierende Spracherkennung

| Redakteur: Wolfgang Sievernich

Künftige Assistenz-Systeme sollen mit Mikrofonen auf veränderte Stimmlagen reagieren. Ford und die RWTH Aachen arbeiten deshalb an einer differenzierten Spracherkennung.

Firmen zum Thema

Ford und die RWTH Aachen entwickeln eine differenzierte Spracherkennung. Sie soll die Muttersprache, Dialekte und Formulierungen besser verarbeiten.
Ford und die RWTH Aachen entwickeln eine differenzierte Spracherkennung. Sie soll die Muttersprache, Dialekte und Formulierungen besser verarbeiten.
(Bild: Ford)

Bis zum Jahr 2022 sollen rund 90 Prozent der Neuwagen über eine Spracherkennung verfügen. Ihre fehlerfreie Funktion ist die Voraussetzung für künftige Assistenzsysteme, die mit Mikrofonen und Kameras auf winzige Veränderungen unseres Gesichtsausdrucks oder die Tonlage unserer Stimme reagieren. So sollen Assistenzsysteme in Zukunft wissen, ob der Fahrer gestresst ist, ob und welche Musik er hören möchte oder ob er lieber ein Hörbuch vorzieht. „Das Auto wird zu unserem Assistenten und Reisebegleiter, der uns unterwegs zuhören wird. Wir werden vergessen, dass wir letztlich doch nur mit einer Maschine sprechen“, meint Dominic Watt, Senior Lecturer, Department of Language and Linguistic Science, University of York in Großbritannien.

Entwicklung an Muttersprachen und Formulierungen

Nuance Communications, ein Anbieter von Sprach- und Bildverarbeitung ist an der Entwicklung des sprachgesteuerten Kommunikations- und Entertainmentsystems „Ford Sync“ beteiligt. Der Anbieter prognostiziert, dass intelligente Sprachsysteme innerhalb der nächsten zwei Jahre auch differenzierte Fragen stellen können. Ob die Blumen zum Muttertag bestellt werden sollen, Schokolade gekauft oder eine Route ohne Staus gewählt wird: Die Spracherkennung muss den Fahrer besser verstehen und seine Aussagen verarbeiten. Aus diesem Grund arbeiten Ford und die Hochschule der RWTH Aachen in NRW an der Implementierung und Erprobung neuer Ansätze der automatischen Spracherkennung, wie der Signalanalyse oder der Sprachmodellierung. Dabei sollen künftig weder Akzente bei der Muttersprache noch eigene Formulierungen eine Hürde des Verständnisses darstellen. Schon jetzt erkennt das Ford-Sync-System 23 Sprachen inklusive Dialekte wie australisches, amerikanisches und britisches Englisch oder französisches und kanadisches Französisch. Mittels Zugriff auf cloud-basierte Dienste sollen künftig rund 75 Prozent der Fahrzeuge mit Sprachsteuerung noch mehr Sprachvariationen verstehen und verarbeiten können.

(ID:44538434)