DE19908137A1 - Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog - Google Patents

Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog

Info

Publication number
DE19908137A1
DE19908137A1 DE19908137A DE19908137A DE19908137A1 DE 19908137 A1 DE19908137 A1 DE 19908137A1 DE 19908137 A DE19908137 A DE 19908137A DE 19908137 A DE19908137 A DE 19908137A DE 19908137 A1 DE19908137 A1 DE 19908137A1
Authority
DE
Germany
Prior art keywords
commands
action
critical
voice
kom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19908137A
Other languages
English (en)
Inventor
Matthias Heimermann
Holger Ebert
Ingo Boeckmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE19908137A priority Critical patent/DE19908137A1/de
Priority to AT99970775T priority patent/ATE221242T1/de
Priority to CN99809626A priority patent/CN1312936A/zh
Priority to PCT/EP1999/006476 priority patent/WO2000023982A1/de
Priority to DE59902143T priority patent/DE59902143D1/de
Priority to EP99970775A priority patent/EP1121684B1/de
Priority to KR1020007014276A priority patent/KR20010052920A/ko
Priority to JP2000577649A priority patent/JP4705242B2/ja
Publication of DE19908137A1 publication Critical patent/DE19908137A1/de
Priority to US12/193,367 priority patent/US7991618B2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog , umfassend einen Sprachspeicher, in dem für die Sprachausgabe benötigte Kommandos (KOM) in unterschiedlichen Intonationen abgelegt sind, wobei mindestens die Kommandos (KOM) für handlungskritische Anweisungen eine Befehlsintonation aufweisen.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog.
Verfahren bzw. Vorrichtungen dieser Art werden allgemein in sogenannten Sprachdialog- bzw. Sprachbediensystemen z. B. für Fahrzeuge, Computer, Roboter, Maschinen, Anlagen usw. eingesetzt.
Ein Sprachdialogsystem (SDS) läßt sich i. a. im wesentlichen auf folgende Komponenten reduzieren:
  • - Spracherkennungssystem, welches ein eingesprochenes Kommando ("Sprachkommando") mit anderen erlaubten Sprachkommandos vergleicht und eine Entscheidung trifft, welches Kommando aller Wahrscheinlichkeit nach eingesprochen wurde,
  • - Sprachausgabe, welche die zur Benutzerführung erforderlichen Sprachbefehle und Signalisierungstöne ausgibt und ggf. das Erkennergebnis rückmeldet,
  • - Dialog- und Ablaufsteuerung, um dem Benutzter zu verdeutlichen, welche Art von Eingabe erwartet wird, bzw. um zu prüfen, ob die erfolgte Eingabe konsistent ist mit der Aufforderung und mit dem momentanen Status der Applikation, und um die resultierende Aktion bei der Applikation (z. B. dem zu steuemden Gerät) anzustoßen,
  • - Kontrollinterface als Schnittstelle zur Applikation: Dahinter verbergen sich Hard- und Softwaremodule, um verschiedene Aktuatoren bzw. Rechner anzusteuern, die die Applikation beinhalten,
  • - Applikation, die per Sprache angesteuert wird: Das kann z. B. ein Bestell- oder Auskunftssystem, ein CAE-Arbeitsplatz oder ein behindertengerechter Rollstuhl sein.
Ein solches Sprach-Dialog-System ist beispielsweise aus der DE 195 33 541 C1 bekannt. Zur Verbesserung der Akzeptanz eines solchen Mensch-Maschinen-Dialogs wird dort beispielsweise vorgeschlagen, für die Kommandos synonyme Worte bzw. unterschiedliche Aussprachevarianten zu verwenden oder aber die Wörter in den Kommandos umzustellen, beispielsweise "Größerer Radius bei linkem Kreis" oder alternativ hierzu "Bei linkem Kreis größerer Radius". Des weiteren wird vorgeschlagen, durch einen erweiterten Speicher ein multilinguales sprecherunabhängiges Dialogsystem aufzubauen, wobei wahlweise zwischen den Dialogsystemen verschiedener Sprachen umgeschaltet werden kann. Weiter wird vorgeschlagen, sogenannte Ellipsen einzubinden, d. h. Verzicht auf Wiederholung ganzer Kommandosätze und statt dessen Kommandos wie "höher", "stärker" oder "weiter", wobei dann das Sprachdialog-System diese den vorangegangenen Kommandos zuordnet. Des weiteren kann das Sprach-Dialog-System bei unsicherem Erkennen Rückfragen wie beispielsweise "Wie bitte?", "Bitte wiederholen" oder "Und weiter?" stellen oder bestimmte Anregungen wie "Bitte lauter" ausgeben. All diese Maßnahmen dienen dazu, eine monotone Kommunikation zu vermeiden und den Dialog stärker einer Mensch-Mensch-Kommunikation anzunähern. Zur Verbesserung der Kommunikation wird das Sprachsystem mit einem optischen Anzeigemedium gekoppelt, auf dem erkannte Befehle zu Kontrollzwecken angegeben werden. Weiter ermöglicht das optische Anzeigemedium die Darstellung der vom Zielgerät als Reaktion auf das Sprachkommando eingestellten Funktionen und/oder verschiedener Funktionen/Alternativen, die per Sprachkommando anschließend eingestellt bzw. ausgewählt werden können. Nachteilig an der bekannten Vorrichtung und des damit durchgeführten Verfahrens ist, daß trotz der dargestellten Verbesserungen die Sprachausgabe aufgrund ihrer Monotonie den Nutzer ermüdet, so daß dessen Reaktionszeit bei handlungskritischen Aktionen zu groß ist. Ein weiteres Problem ist, daß bei Erkennungsschwierigkeiten die bekannten Sprach-Dialog-Systeme eine Endlosschleife durchlaufen und dem Nutzer immer wieder die gleiche Aufforderung ausgeben, so daß der work-flow unterbrochen ist.
Der Erfindung liegt daher das technische Problem zugrunde, ein Verfahren und eine Vorrichtung zur automatischen Steuerung eines Gerätes per Sprachdialog zu schaffen, bei denen bei handlungskritischen Anweisungen eine verbesserte Aufmerksamkeit des Nutzers erreicht wird sowie der work-flow sichergestellt ist.
Die Lösung des technischen Problems ergibt sich durch die Merkmale der Patentansprüche 1, 2 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
Durch die Verwendung unterschiedlicher Intonationen, wobei bei handlungskritischen Anweisungen die Kommandos eine Befehlsintonation aufweisen, wird bereits unmittelbar bei der Sprachausgabe die Aufmerksamkeit des Nutzers geweckt, so daß die Reaktionszeit zur Durchführung der geforderten Anweisung erheblich verkürzt wird.
Zur weiteren Erhöhung der Aufmerksamkeit und Unterscheidung von handlungskritischen Anweisungen kann die Lautstärke der Sprachausgabe bei handlungskritischen Anweisungen erhöht werden und/oder diese besonders hart bzw. abrupt eingeblendet werden.
Weiter kann das Sprach-Dialog-System multilingual ausgebildet sein, so daß beispielsweise zwischen einer Männer- und einer Frauenstimme gewählt werden kann, wobei dann bei handlungskritischen Anweisungen die eine und bei handlungsunkritischen Anweisungen die andere Stimme vom System ausgewählt wird.
Zur Sicherstellung des work-flows wird das Sprach-Dialog-System nur durch Betätigung eines "Push to talk" PTT-Schalters aktiviert, wobei bei Ausbleiben einer gültigen Interaktion die Dialog-Kommunikations-Ebene gewechselt wird. Zur Erhöhung der Erkennungssicherheit bzw. zur Verbesserung der Nutzerführung können einzelne Kommandos in verschiedenen alternativen Ausgabeformen abgespeichert sein, die dann bei einer ungültigen Interaktion sukzessive ausgegeben werden, wobei die Dialog-Kommunikations-Ebene erst gewechselt wird, wenn auf alle Kommandoformen keine gültige Interaktion erfolgt ist. Zur Vermeidung von Monotonie kann die Reihenfolge der Ausgabe durch einen Zufallsgenerator permutiert werden.
Der Grundgedanke der Erfindung besteht darin, durch die Art der Sprachausgabe beim Kraftfahrzeugführer eine Emotion zu wecken, die ein situationsgerechtes Handeln provoziert.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figur zeigen:
Fig. 1 ein schematisches Flußdiagramm des Verfahrens zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog,
Fig. 2a einen schematischen Verlauf des Gefahrenpotentials bei handlungsunkritischen Interaktionen,
Fig. 2b einen zugehörigen Denotationsverlauf,
Fig. 2c einen zugehörigen Intonationsverlauf,
Fig. 2d einen zugehörigen Konnotationsverlauf,
Fig. 3a einen schematischen Verlauf des Gefahrenpotentials bei handlungskritischen Interaktionen,
Fig. 3b einen zugehörigen Denotationsverlauf,
Fig. 3c einen zugehörigen Intonationsverlauf und
Fig. 3d einen zugehörigen Konnotationsverlauf.
Durch die Betätigung des PTT-Schalters wird das Sprach-Dialog-System aktiviert. Zum besseren Verständnis wird die Sprachausgabe des Sprachdialog-Systems in Kommandos KOM und Aufforderungen Auff unterteilt, die in Realität identisch sein können. Nachfolgend wird unter Kommandos KOM eine direkte Anweisung zum Handeln verstanden, wie beispielsweise "BREMSEN", "LICHTEINSCHALTEN", wohingegen Aufforderungen eine Interaktion in Form einer Eingabe anfordern, wie beispielsweise "Bitte gewünschte Temperatur in Grad Celsius angeben".
Erzeugt nun das Sprach-Dialog-System ein Kommando KOM, so wird dieses Kommando KOM danach unterteilt, ob es sich um eine handlungskritische Anweisung oder eine handlungsunkritische Anweisung handelt. Vereinfacht sind handlungskritische Anweisungen, Kommandos KOM, die ein schnelles Durchführen der Handlung erfordern. Ein Beispiel hierfür ist das Kommando KOM "Bremsen", wenn ein ADR-System oder eine Prescrash- Sensorik ein Kollisionsobjekt erfaßt haben. Handlungsunkritische Anweisungen sind beispielsweise Kommandos KOM eines Navigationssystems. Dabei werden handlungskritische Anweisungen mit einer Befehlsintonations-Sprache S1, mit großer Lautstärke L1 hart und abrupt in einer Zeit t1 eingeblendet, um beim Nutzer einen hohen Aufmerksamkeitsgrad zu erzeugen. Handlungsunkritische Anweisungen werden hingegen weich bei geringerer Lautstärke L2 und normaler Intonation S2 eingeblendet.
Aufforderungen Auff sind in der Regel zeitunkritisch, so daß hier ein gute Benutzerführung im Vordergrund steht. Dazu kann eine Aufforderung Auff in n verschiedenen Alternativen im Sprachspeicher abgelegt sein. Die Alternativen können beispielsweise unterschiedliche Betonungen, Aussprachen, Wortumstellungen oder synonyme Begriffe sein. Nach akustischer Ausgabe der ersten Alternative wartet das Sprach-Dialog-System eine vorgegebene Zeit auf eine Interaktion. Erfolgt innerhalb dieser Zeit keine oder eine ungültige Interaktion, so wiederholt das Sprach-Dialog-System die Aufforderung mit der zweiten Alternative, gegebenenfalls bis zur n-ten Alternative. Erfolgt eine gültige Interaktion, so wird diese ausgeführt und gegebenenfalls eine neue Aufforderung Auff ausgegeben. Erfolgt hingegen auf die n-te Alternative der Aufforderung Auff keine gültige Interaktion, so wird auf eine andere Dialog-Kommunikations-Ebene DKE gewechselt, um den work-flow sicherzustellen. Die neue Dialog-Kommunikatons-Ebene DKE ist dann beispielsweise eine Auswahlliste, die auf dem Bordmonitor dargestellt wird, woraus sich der Nutzer ein entsprechendes Menü auswählen kann.
In den Fig. 2a-d sind schematisch die Verhältnisse für eine handlungsunkritische Anweisung, wie beispielsweise eine Angabeanforderung für ein Navigationssystem, dargestellt. Dabei ist in Fig. 2a die Wichtigkeit der Interaktion über die Zeit t aufgetragen, wobei zu den Zeitpunkten t0-t2 Handlungsanweisungen ausgegeben werden, wobei angenommen wird, daß auf jede vorangegangenen Aufforderung nicht reagiert wurde. Da eine fehlende Eingabe in das Navigationssystem nur dazu führt, daß diese Komfortkomponente nicht arbeiten kann, was gegebenenfalls auch nicht vom Kraftfahrzeugführer erwünscht ist, ändert sich die Wichtigkeit über die Zeit nicht. Ebenso bleibt der die Inhaltsangabe des Befehls, die sogenannte Denotation, nämlich die Eingabeanforderung über die Zeit konstant, was in Fig. 2b dargestellt ist. Zum Zeitpunkt t0 wird nun beispielsweise der Kraftfahrzeugführer aufgefordert, "Bitte geben Sie nun Ihr gewünschtes Fahrziel ein". Diese Aufforderung erfolgt mit einer bestimmten Intonation I1 und einem bestimmten Begriffsinhalt (Konnotat) K1, was in Fig. 2c-d dargestellt ist. Erfolgt nun keine Eingabe, so weiß das System nicht, warum dies unterblieben ist, beispielsweise ob der Kraftfahrzeugführer die Aufforderung überhöht hat oder willentlich nicht vorzunehmen gedenkt. Daher erfolgt zum Zeitpunkt t1 eine erneute Aufforderung "Wollen Sie ein Fahrziel eingeben" mit einer verstärkten Intonation I2, um eine verbesserte Wahrnehmbarkeit zu erreichen, wobei jedoch die Konnotationsstufe K2 abnimmt. Erfolgt hierauf wieder keine Eingabe, so kann das System davon ausgehen, daß dies der Kraftfahrzeugführer wohl nicht wünscht. Um die Belästigung des Kraftfahrzeugführeres durch permanente Wiederholungen gering zu halten, erfolgt dann zum Zeitpunkt t2 eine letztmalige Aufforderung, wie beispielsweise "Falls Sie keinen Zielort wünschen, schalte ich mich jetzt ab". Diese letzte Aufforderung wird mit einer sehr geringen Intonation I3 ausgegeben und weist nur noch eine geringe Konnotation auf. Wie aus dem Verlauf in Fig. 2d zu entnehmen ist, bildet die Konnotation einen Antiklimax, also einen Übergang vom stärkeren zum schwächeren Ausdruck, wohingegen bei der Intonation eine gewisse Variation auftritt, um Monotonie entgegenzuwirken.
Im Gegensatz hierzu ist in Fig. 3a-d eine Situation dargestellt, bei der Wichtigkeit der Interaktion mit der Zeit zunimmt und schließlich handlungskritisch wird. Beispielsweise fährt das Kraftfahrzeug mit einer Geschwindigkeit oberhalb einer zugelassenen Geschwindigkeit auf der Autobahn unter Einhaltung des Sicherheitsabstandes hinter einem Kraftfahrzeug hinterher. Zum Zeitpunkt t0 gibt das System eine Handlungsanweisung, beispielsweise der Form "Bitte passen Sie Ihre Geschwindigkeit an", an den Kraftfahrzeugführer. Die Handlungsanweisung weist einen geringen lntonationsgrad I1 und eine entsprechend geringe Konnotationsstufe K1 auf, da der Kraftfahrzeugführer zwar eine Ordnungswidrigkeit begeht, jedoch keine unmittelbare Gefahr besteht. Weiter sei angenommen, daß nun der Kraftfahrzeugführer seine Geschwindigkeit nicht anpaßt und zusätzlich zum Zeitpunkt t1 der Sicherheitsabstand bereits knapp unterschritten wird, d. h. das Gefahrenpotential der Verkehrssituation nimmt zu, was durch die ansteigende Kurve in Fig. 3a symbolisiert wird. Das System gibt daraufhin eine Handlungsanweisung, beispielsweise der Form "Sie müssen bremsen" oder "Bitte bremsen Sie" an den Kraftfahrzeugführer, wobei diese einen höheren lntonationsgrad I2 mit entsprechend höherer Konnotationsstufe K2 aufweist. Reagiert der Kraftfahrzeugführer auch hierauf nicht, so wird das Gefahrenpotential der Verkehrssituation noch gesteigert, was anhand des weiteren Anstiegs in Fig. 3a dargestellt ist. Dies bedeutet, daß ein weiteres Nicht-Reagieren des Kraftfahrzeugführers innerhalb kürzester Zeit zu einem Unfall führen könnte. Diese handlungskritische Anweisung wird beispielsweise in der Form "Vollbremsung" mit einer Befehlsintonation 13 ausgegeben. Die in Fig. 3d dargestellten Konnotationsstufen stellen dabei einen Klimax dar, also die Steigerung des Ausdrucks vom weniger Wichtigen zum Wichtigeren. Ergänzend sei angemerkt, daß die in Fig. 2a-d und Fig. 3a-d dargestellten Veränderungen nicht maßstäblich sind, sondern nur als qualitative Angaben zu verstehen sind.

Claims (8)

1. Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog, umfassend einen Sprachspeicher, in dem für die Sprachanlage benötigte Kommandos abgelegt sind, dadurch gekennzeichnet, daß die Kommandos (KOM) in unterschiedlichen Intonationen abgelegt sind, wobei mindestens die Kommandos (KOM) für handlungskritische Anweisungen eine Befehlsintonation aufweisen.
2. Verfahren zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog, mittels mindestens eines Sprachspeichers, in dem für die Sprachausgabe benötigte Kommandos (KOM) abgelegt sind, dadurch gekennzeichnet, daß bei handlungskritischen Anweisungen die Kommandos (KOM) mit Befehlsintonation ausgegeben werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die handlungskritischen Kommandos (KOM) mit einer höheren Lautstärke (L1) ausgegeben werden.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß die handlungskritischen Kommandos (KOM) hart eingeblendet werden.
5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, daß die Kommandos (KOM) multilingual im Sprachspeicher abgelegt sind und bei handlungskritischen Kommandos (KOM) die Sprache gewechselt wird.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, daß bei handlungskritischen Kommandos (KOM) die Intonation I und die Konnotation K entsprechend der Wichtigkeit gesteigert wird.
7. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, daß bei handlungsunkritischen Aufforderungen die Intonation bei abnehmender Konnotation K variiert wird.
8. Verfahren zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog, mittels mindestens eines PTT-Schalters, eines Bordmonitor und eines Sprach-Dialog- Systems, umfassend folgende Verfahrensschritte:
  • a) Einleiten des Verfahrens durch Betätigung des PTT-Schalters,
  • b) Darstellen der möglichen Steuermöglichkeiten alphanumerisch in der Kommandoform und grafisches Hervorheben der sprachaktiven Funktionen und
  • c) Wechseln der Dialog-Kommunikations-Ebene, falls keine erwartete Interaktion erfolgt.
DE19908137A 1998-10-16 1999-02-25 Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog Withdrawn DE19908137A1 (de)

Priority Applications (9)

Application Number Priority Date Filing Date Title
DE19908137A DE19908137A1 (de) 1998-10-16 1999-02-25 Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog
AT99970775T ATE221242T1 (de) 1998-10-16 1999-09-03 Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
CN99809626A CN1312936A (zh) 1998-10-16 1999-09-03 通过语音输出信息和/或信号的方法和装置
PCT/EP1999/006476 WO2000023982A1 (de) 1998-10-16 1999-09-03 Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
DE59902143T DE59902143D1 (de) 1998-10-16 1999-09-03 Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
EP99970775A EP1121684B1 (de) 1998-10-16 1999-09-03 Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
KR1020007014276A KR20010052920A (ko) 1998-10-16 1999-09-03 음성 정보 및/또는 음성 메시지 출력 방법 및 장치
JP2000577649A JP4705242B2 (ja) 1998-10-16 1999-09-03 情報および/またはメッセージを音声によって出力する方法および装置
US12/193,367 US7991618B2 (en) 1998-10-16 2008-08-18 Method and device for outputting information and/or status messages, using speech

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19847879 1998-10-16
DE19908137A DE19908137A1 (de) 1998-10-16 1999-02-25 Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog

Publications (1)

Publication Number Publication Date
DE19908137A1 true DE19908137A1 (de) 2000-06-15

Family

ID=26049577

Family Applications (2)

Application Number Title Priority Date Filing Date
DE19908137A Withdrawn DE19908137A1 (de) 1998-10-16 1999-02-25 Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog
DE59902143T Expired - Lifetime DE59902143D1 (de) 1998-10-16 1999-09-03 Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE59902143T Expired - Lifetime DE59902143D1 (de) 1998-10-16 1999-09-03 Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache

Country Status (8)

Country Link
US (1) US7991618B2 (de)
EP (1) EP1121684B1 (de)
JP (1) JP4705242B2 (de)
KR (1) KR20010052920A (de)
CN (1) CN1312936A (de)
AT (1) ATE221242T1 (de)
DE (2) DE19908137A1 (de)
WO (1) WO2000023982A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10001263A1 (de) * 2000-01-14 2001-07-19 Daimler Chrysler Ag Sprachbasiertes Fahrzeuginformationsausgabesystem
DE10061696A1 (de) * 2000-12-12 2002-06-27 Bernhard Lehmeier Fahrzeug-Navigationssystem
EP1275935A2 (de) * 2001-07-13 2003-01-15 Robert Bosch Gmbh Verfahren zur akustischen Wiedergabe von Informationen im Rahmen eines Fahrerinformationssystems

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10063503A1 (de) * 2000-12-20 2002-07-04 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur differenzierten Sprachausgabe
DE10207875A1 (de) * 2002-02-19 2003-08-28 Deutsche Telekom Ag Parametergesteuerte Sprachsynthese
JP2006018614A (ja) * 2004-07-02 2006-01-19 Oki Electric Ind Co Ltd 入場者案内システムおよび係員端末機
JP2008065789A (ja) * 2006-09-11 2008-03-21 Canon Inc 入力操作支援装置およびその制御方法
ITMO20110274A1 (it) * 2011-10-28 2013-04-29 Scm Group Spa Metodo e apparato per lavorare legno
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
KR20140112911A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 표시부 미확인 모드에서 액션을 실행하는 모바일 장치 및 그 제어 방법
US10564928B2 (en) * 2017-06-02 2020-02-18 Rovi Guides, Inc. Systems and methods for generating a volume- based response for multiple voice-operated user devices

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3032286C2 (de) 1979-08-31 1982-12-16 Nissan Motor Co., Ltd., Yokohama, Kanagawa Akustische Warneinrichtung für ein mit einem Tonwiedergabegerät ausgerüstetes Kraftfahrzeug
JPS5667470A (en) 1979-11-07 1981-06-06 Canon Inc Voice desk-top calculator
US4623970A (en) * 1979-11-07 1986-11-18 Canon Kabushiki Kaisha Electronic equipment which outputs data in synthetic voice
KR830008274A (ko) 1980-10-17 1983-11-16 미다 가쓰시게 음성 출력장치
US4400787A (en) 1980-12-12 1983-08-23 Westinghouse Electric Corp. Elevator system with speech synthesizer for repetition of messages
JPH06101013B2 (ja) 1986-03-07 1994-12-12 株式会社日立製作所 音声出力方式
JP2595235B2 (ja) 1987-03-18 1997-04-02 富士通株式会社 音声合成装置
JPS6439892A (en) 1987-08-05 1989-02-10 Hitachi Ltd Video tex with sound
JPH01148240A (ja) 1987-12-04 1989-06-09 Toshiba Corp 診断用音声指示装置
US5012221A (en) 1989-03-24 1991-04-30 Siren Sounds, Inc. Emergency vehicle audible warning system and method
US5559927A (en) * 1992-08-19 1996-09-24 Clynes; Manfred Computer system producing emotionally-expressive speech messages
US5584052A (en) 1992-11-16 1996-12-10 Ford Motor Company Integrated microphone/pushbutton housing for voice activated cellular phone
US5796916A (en) * 1993-01-21 1998-08-18 Apple Computer, Inc. Method and apparatus for prosody for synthetic speech prosody determination
CA2119397C (en) 1993-03-19 2007-10-02 Kim E.A. Silverman Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation
DE4325096C2 (de) 1993-07-27 1998-12-17 Computervision Corp Ein Datenverarbeitungssystem, welches einen Benutzer-Dialog in mehreren natürlichen Sprachen ermöglicht
US5612869A (en) 1994-01-21 1997-03-18 Innovative Enterprises International Corporation Electronic health care compliance assistance
JPH08167091A (ja) * 1994-12-14 1996-06-25 Nippon Signal Co Ltd:The 警告装置
JPH08211885A (ja) * 1995-02-01 1996-08-20 Fujitsu Ten Ltd 音声処理装置
DE19503419A1 (de) 1995-02-03 1996-08-08 Bosch Gmbh Robert Verfahren und Einrichtung zur Ausgabe von digital codierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache
JPH08247779A (ja) * 1995-03-09 1996-09-27 Honda Motor Co Ltd 音声出力装置
DE19533541C1 (de) 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
JP3580643B2 (ja) * 1996-07-24 2004-10-27 株式会社デンソー 音声認識方法及び音声認識装置
JPH10104011A (ja) * 1996-09-30 1998-04-24 Mazda Motor Corp ナビゲーション装置
DE19646634A1 (de) * 1996-11-12 1998-05-14 Bosch Gmbh Robert Verfahren zur Befehlseingabe mit Sprache
US5864805A (en) 1996-12-20 1999-01-26 International Business Machines Corporation Method and apparatus for error correction in a continuous dictation system
US5966691A (en) 1997-04-29 1999-10-12 Matsushita Electric Industrial Co., Ltd. Message assembler using pseudo randomly chosen words in finite state slots
US6173266B1 (en) 1997-05-06 2001-01-09 Speechworks International, Inc. System and method for developing interactive speech applications
JP3884851B2 (ja) 1998-01-28 2007-02-21 ユニデン株式会社 通信システムおよびこれに用いられる無線通信端末装置
US6598045B2 (en) 1998-04-07 2003-07-22 Intel Corporation System and method for piecemeal relevance evaluation
US6446040B1 (en) * 1998-06-17 2002-09-03 Yahoo! Inc. Intelligent text-to-speech synthesis
GB9929284D0 (en) 1999-12-11 2000-02-02 Ibm Voice processing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10001263A1 (de) * 2000-01-14 2001-07-19 Daimler Chrysler Ag Sprachbasiertes Fahrzeuginformationsausgabesystem
DE10001263C2 (de) * 2000-01-14 2002-06-13 Daimler Chrysler Ag Sprachbasiertes Fahrzeuginformationsausgabesystem
DE10061696A1 (de) * 2000-12-12 2002-06-27 Bernhard Lehmeier Fahrzeug-Navigationssystem
EP1275935A2 (de) * 2001-07-13 2003-01-15 Robert Bosch Gmbh Verfahren zur akustischen Wiedergabe von Informationen im Rahmen eines Fahrerinformationssystems
EP1275935A3 (de) * 2001-07-13 2005-04-27 Robert Bosch Gmbh Verfahren zur akustischen Wiedergabe von Informationen im Rahmen eines Fahrerinformationssystems

Also Published As

Publication number Publication date
ATE221242T1 (de) 2002-08-15
KR20010052920A (ko) 2001-06-25
CN1312936A (zh) 2001-09-12
US7991618B2 (en) 2011-08-02
EP1121684B1 (de) 2002-07-24
DE59902143D1 (de) 2002-08-29
WO2000023982A1 (de) 2000-04-27
JP4705242B2 (ja) 2011-06-22
US20090157388A1 (en) 2009-06-18
EP1121684A1 (de) 2001-08-08
JP2002528751A (ja) 2002-09-03

Similar Documents

Publication Publication Date Title
DE60032193T2 (de) Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache
DE10338512A1 (de) Unterstützungsverfahren für Sprachdialoge zur Bedienung von Kraftfahrzeugfunktionen
EP1127748B1 (de) Vorrichtung und Verfahren zur Sprachsteuerung
EP1121684B1 (de) Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
EP1892700A1 (de) Verfahren zur Spracherkennung und Sprachwiedergabe
DE102005047591A1 (de) Verfahren zur Entlastung des Fahrers bei der Bedienung eines Kraftfahrzeugs
DE102005007317A1 (de) Verfahren und Vorrichtung zur Sprachsteuerung eines Gerätes oder eines Systems in einem Kraftfahrzeug
DE102014017384A1 (de) Kraftfahrzeug-Bedienvorrichtung mit Korrekturstrategie für Spracherkennung
WO2018069027A1 (de) Multimodaler dialog in einem kraftfahrzeug
DE19717601A1 (de) Navigationsverfahren und Vorrichtung dafür
EP1673762B1 (de) Nutzeradaptive dialogunterstützung für sprachdialogsysteme
DE19959755A1 (de) Verfahren und Vorrichtung zur Information über die Bedienung eines Kraftfahrzeuges
DE102017206876B4 (de) Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Kraftfahrzeug undSprachsteuerungssystem
DE102020001658B3 (de) Verfahren zur Absicherung der Übernahme der Kontrolle über ein Fahrzeug
DE102020100638A1 (de) System und Verfahren für einen Dialog mit einem Nutzer
DE102007042583B4 (de) Verfahren zur Kommunikation zwischen einer natürlichen Person und einem künstlichen Sprachsystem sowie Kommunikationssystem
DE102010051833A1 (de) Verfahren und Vorrichtung zur Interaktion
DE10001263C2 (de) Sprachbasiertes Fahrzeuginformationsausgabesystem
DE102021132712A1 (de) Unterstützung eines Fahrers eines Fahrzeugs
DE102012201934A1 (de) Verfahren zur Ausgabe von Fahrerassistenzinformationen
DE102008025532B4 (de) Kommunikationssystem und Verfahren zum Durchführen einer Kommunikation zwischen einem Nutzer und einer Kommunikationseinrichtung
EP3115886A1 (de) Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem
DE102021005546B3 (de) Verfahren zum Betrieb eines Sprachdialogsystems
DE102007042580A1 (de) Verfahren zur Kommunikation zwischen einer natürlichen Person und einem künstlichen Sprachsystem sowie Kommunikationssystem
DE102005010230A1 (de) Verfahren zum Ausgeben von Hilfeinformationen

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee