DE19847419A1 - Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung - Google Patents

Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung

Info

Publication number
DE19847419A1
DE19847419A1 DE1998147419 DE19847419A DE19847419A1 DE 19847419 A1 DE19847419 A1 DE 19847419A1 DE 1998147419 DE1998147419 DE 1998147419 DE 19847419 A DE19847419 A DE 19847419A DE 19847419 A1 DE19847419 A1 DE 19847419A1
Authority
DE
Germany
Prior art keywords
letters
letter
linguistic
user
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1998147419
Other languages
English (en)
Inventor
Friedhelm Wuppermann
Volker Stahl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Original Assignee
Philips Corporate Intellectual Property GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Corporate Intellectual Property GmbH filed Critical Philips Corporate Intellectual Property GmbH
Priority to DE1998147419 priority Critical patent/DE19847419A1/de
Priority to EP99203303A priority patent/EP0994461A2/de
Priority to US09/415,832 priority patent/US6725197B1/en
Priority to JP29160599A priority patent/JP2000122691A/ja
Publication of DE19847419A1 publication Critical patent/DE19847419A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/086Recognition of spelled words

Abstract

Die Erfindung betrifft ein Verfahren zur automatischen Erkennung einer wenigstens teilweise buchstabierten sprachlichen Äußerung mit einer auf statistischen Modellen einschließlich eines linguistischen Sprachmodells (6) basierenden Spracherkennungseinheit (2). DOLLAR A Um dieses Verfahren so zu verbessern, daß neben einer komfortablen Eingabe auch eine verringerte Spracherkennungsfehlerrate erreicht wird, wird vorgeschlagen, daß DOLLAR A - nach Eingabe der wenigstens teilweise buchstabierten sprachlichen Äußerung die Spracherkennungseinheit (2) ein erstes Erkennungsergebnis für die gesamte sprachliche Äußerung ermittelt; DOLLAR A - einzelne erkannte Buchstaben an den Benutzer zur Bestätigung oder Ablehnung ausgegeben werden; DOLLAR A - nach Bestätigung eines Buchstabens eine Anpassung des linguistischen Sprachmodells (6) vorgesehen ist, das nach seiner Anpassung die Menge solcher Buchstaben festlegt, die als Nachfolger für den bestätigten Buchstaben zulässig sind, und das die Richtigkeit bereits bestätigter Buchstaben voraussetzt; DOLLAR A - die Spracherkennungseinheit (2) mittels des angepaßten linguistischen Sprachmodells (6) ein weiteres Erkennungsergebnis für die sprachliche Äußerung ermittelt, aus dem der nächste an den Benutzer zur Bestätigung auszugebende Buchstabe bestimmt wird.

Description

Die Erfindung betrifft ein Verfahren zur automatischen Erkennung einer wenigstens teilweise buchstabierten sprachlichen Äußerung mit einer auf statistischen Modellen einschließlich eines linguistischen Sprachmodells basierenden Spracherkennungseinheit.
Die automatische Erkennung buchstabierter sprachlicher Äußerungen ist zum gegenwärti­ gen Zeitpunkt noch mit hohen Fehlerraten behaftet. Einerseits besteht die Schwierigkeit, die Grenzen zwischen den einzelnen Buchstaben zu detektieren, da ein Benutzer beim Buchstabieren die einzelnen Buchstaben regelmäßig ohne Pausen, d. h. Stillephasen zwi­ schen den Buchstaben, ausspricht. Weiterhin ist die akustische Modellierung der kurze sprachliche Einheiten darstellenden und ohne Kontext zu verarbeitenden Buchstaben schwierig.
Auf dem Gebiet der Navigationssysteme für Landkraftfahrzeuge ist es bekannt, einem Benutzer einen Eingabemodus zur Verfügung zu stellen, in dem die Eingabe von Naviga­ tionsdaten - beispielsweise Ortsnamen - durch Buchstabieren erfolgt (vgl. das Navigations­ system CARIN).
Bei der im folgenden kurz erläuterten Eingabe eines Ortsnamens in ein solches Naviga­ tionssystem werden dem Benutzer nach der Aktivierung des Eingabemodus zur Eingabe von Ortsnamen auf einem Bildschirm die eingebbaren Buchstaben des jeweiligen Alpha­ bets angezeigt. Durch Drehen eines Multifunktionsknopfes kann der Benutzer zwischen den einzelnen Buchstaben hin- und herschalten. Die Auswahl und damit Eingabe eines Buchstabens erfolgt durch Druckausübung auf den Multifunktionsknopf. Vor der Eingabe des ersten Buchstabens des jeweiligen Ortsnamens werden dem Benutzer alle Buchstaben des jeweiligen Alphabets zur Auswahl angeboten. Nachdem der Benutzer einen ersten Buchstaben ausgewählt hat, führt das Navigationssystem einen Abgleich mit einer Daten­ bank, die auf einer Compact Disk (CD) abgespeichert ist, durch. Das Ergebnis liefert Informationen darüber, welche Buchstaben in den vom System verarbeitbaren Ortsnamen aufeinander folgen können. Nachdem also der Benutzer einen ersten Buchstaben eingeben hat, wird der Abgleich mit der Datenbank dazu führen, daß nicht mehr das gesamte Alphabet für die Eingabe des nächsten Buchstabens in Frage kommt, sondern nur noch eine Teilmenge des Alphabets. Als zweiter Buchstabe läßt sich demgemäß dann nur noch ein zu dieser Teilmenge gehöriger Buchstabe mittels des Multifunktionsknopfes auswählen. Mit jeder Eingabe eines Buchstabens reduziert sich in den meisten Fällen die Teilmenge auswählbarer Buchstaben; in Ausnahmefällen kann eine solche Teilmenge nach Eingabe eines Buchstabens auch unverändert bleiben. Für den Fall, daß auf eine bestimmte einge­ gebene Buchstabenfolge nur ein bestimmter Buchstabe oder eine bestimmte Buchstaben­ folge nachfolgen kann, ist die Eingabe dieser Buchstaben durch den Benutzer nicht mehr erforderlich, sondern das Navigationssystem setzt automatisch diese(n) Buchstaben als durch den Benutzer eingegeben voraus. Der beschriebene Eingabemodus führt zu einer schnelleren und für den Benutzer komfortableren Eingabe von buchstabierten Ortsnamen.
Der Erfindung liegt nun die Aufgabe zugrunde, daß eingangs erwähnte Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung so zu verbessern, daß neben einer komfortablen Eingabe auch eine verringerte Spracherkennungsfehlerrate erreicht wird.
Die Aufgabe wird dadurch gelöst, daß
  • - nach Eingabe des buchstabierten Teils der sprachlichen Äußerung die Spracherkennungs­ einheit ein erstes Erkennungsergebnis für die sprachliche Äußerung ermittelt;
  • - einzelne erkannte Buchstaben an den Benutzer zur Bestätigung oder Ablehnung ausgegeben werden;
  • - nach Bestätigung eines Buchstabens eine Anpassung des linguistischen Sprachmodells vorsehen ist, das nach seiner Anpassung die Menge solcher Buchstaben festlegt, die als Nachfolger für den bestätigten Buchstaben zulässig sind, und das die Richtigkeit bereits bestätigter Buchstaben voraussetzt;
  • - die Spracherkennungseinheit mittels des angepaßten linguistischen Sprachmodells ein weiteres Erkennungsergebnis für die sprachliche Äußerung ermittelt, aus dem der nächste an den Benutzer zur Bestätigung auszugebende Buchstabe bestimmt wird.
Durch die Verarbeitungsschritte, in denen der Benutzer zur Bestätigung oder Ablehnung von erkannten Buchstaben aufgefordert wird, wird dem System sukzessive eine Rückkopp­ lung bezüglich der Richtigkeit des bis dahin vorliegenden Erkennungsergebnisses bezogen auf die zu erkennende sprachliche Äußerung gegeben. Die zu erkennende sprachliche Äußerung kann ein Einzelwort oder eine Wortfolge sein, wobei die bei dem erfindungs­ gemäßen Verfahren verarbeitete Eingabe die gesamte sprachliche Äußerung in buchstabier­ ter Form oder ein Teil der sprachlichen Äußerung in buchstabierter Form ist. Die sukzessi­ ve Rückkopplung wird zur schrittweisen Verbesserung der im Spracherkenner verwendeten statistischen Modellierung durch Reduzierung des Suchraums verwendet. Dies führt dazu, daß mit jeder Verbesserung die Wahrscheinlichkeit sinkt, daß an den Benutzer ein falscher Buchstabe zur Bestätigung ausgegeben wird, was wiederum die erforderliche Zeitdauer bis zum Abschluß der Erkennung der buchstabierten sprachlichen Äußerung absenkt. Das Verfahren erhöht somit den Komfort für den Benutzer. Die in der Spracherkennungsein­ heit verwendeten akustischen Modelle, die auf der Grundlage des buchstabierten Teils der sprachlichen Äußerung geschätzt wurden, müssen bei der erfindungsgemäßen Erkennungs­ prozedur nicht angepaßt werden. Lediglich das jeweils verwendete linguistische Modell ist abhängig von der gerade bearbeiteten Position innerhalb der sprachlichen Äußerung.
Zur Reduzierung des Suchraums bei der Spracherkennung werden üblicherweise lingui­ stische Sprachmodelle verwendet. Dies reduziert einerseits den von der Spracherkennungs­ einheit zu bewältigenden Rechenaufwand und bewirkt andererseits auch eine Verbesserung des Erkennungsergebnisses. Allerdings besteht das Problem, daß ein langreichweitiges linguistisches Sprachmodell zu großen akustischen Suchräumen führt. Die Verarbeitung eines solchen Sprachmodells erfordert sehr viel Speicherplatz und ist derzeit mit üblichen für Spracherkennungsanwendungen verwendeten Signalprozessoren nicht realisierbar oder unwirtschaftlich. Bei der Erfindung ist die Komplexität des verwendeten linguistischen Sprachmodells dagegen auf ein Minimum reduziert. Es wird sukzessive in Abhängigkeit von den Bestätigungen von Buchstaben durch den Benutzer angepaßt. Dabei werden bereits bestätigte Buchstabenfolgen als gegeben vorausgesetzt. Lediglich für den zuletzt bestätigten Buchstaben wird mit Hilfe des linguistischen Sprachmodells ermittelt, welche Buchstaben als Nachfolgebuchstabe in Fragen kommen. Ein solches Sprachmodell ist äußerst unkompliziert und leicht mittels üblicher Signalprozessoren mit einem geringen Rechen- und Speicheraufwand in den verwendeten Spracherkennungsprozeduren umzusetzen.
Für den Fall einer Ablehnung eines erkannten Buchstabens durch den Benutzer werden kommen vorzugsweise zwei Alternativen für eine Weiterverarbeitung in Betracht. Einer­ seits kann die Spracherkennungseinheit nach einer diese Information verarbeitenden Anpassung des linguistischen Sprachmodells einen erneuten Erkennungsvorgang bezüglich der gesamten sprachlichen Äußerung durchführen. Hierbei wird die Wahrscheinlichkeit erheblich erhöht, daß an den Benutzer als nächstem Buchstabenvorschlag der korrekte Buchstabe ausgegeben wird. Anderseits besteht auch die Möglichkeit, daß die Spracherken­ nungseinheit als Erkennungsergebnis eine Liste N bester Erkennungsalternativen für die sprachliche Äußerung ermittelt und daß nach einer Ablehnung eines erkannten Buchsta­ bens durch den Benutzer der entsprechende Buchstabe der zweitbesten Lösungsalternative an den Benutzer ausgegeben wird. Dies hat den Vorteil, daß nach einer Ablehnung eines als Erkennungsvorschlag an den Benutzer ausgegebenen Buchstabens von der Spracherken­ nungseinheit nicht erneut die Spracherkennungsprozeduren bezüglich der (gesamten) buchstabierten sprachlichen Äußerung durchzuführen sind, was bewirkt, daß nach einer Ablehnung eines ausgegebenen Buchstabens durch den Benutzer mit minimaler Zeitverzö­ gerung eine weitere Buchstabenalternative an den Benutzer ausgegeben wird.
Werden einzelnen Buchstaben individuelle, insbesondere von allen Vorgängerbuchstaben abhängige positionsspezifische Wahrscheinlichkeitswerte zugeordnet, was als Spezifizierung des verwendeten linguistischen Sprachmodells umsetzbar ist, erhöht sich die Wahrschein­ lichkeit, daß schon ein erster an den Benutzer ausgegebener Vorschlag für einen an einer bestimmten Stelle der zu erkennenden sprachlichen Äußerung stehenden Buchstaben richtig ist und vom Benutzer bestätigt wird. Hier wird ausgenutzt, daß bestimmte Buch­ stabenkombinationen häufiger auftreten als andere Buchstabenkombinationen.
In einer anderen Ausgestaltung der Erfindung wird bei der Ermittlung einer Alternative zu einem durch den Benutzer abgelehnten Buchstaben der durch Wahrscheinlichkeitswerte ausgedrückte Grad der Verwechselbarkeit mit anderen Buchstaben berücksichtigt. Bestimmte Buchstaben, wie beispielsweise "d" und "t", ähneln sich akustisch mehr als andere Buchstaben. Dies kann als Information im linguistischen Sprachmodell so umge­ setzt werden, daß bei der Ablehnung eines solchen Buchstabens durch den Benutzer eine im Vergleich zur Wahrscheinlichkeit anderer Buchstaben höhere Wahrscheinlichkeit dafür angenommen wird, daß ein diesem Buchstaben als akustisch ähnlich definierter Buchstabe der richtige und tatsächlich als Teil der buchstabierten sprachlichen Äußerung eingegebe­ ner Buchstabe ist.
Als weitere Ausgestaltung wird vorgeschlagen, daß ungültige und fälschlicherweise erkannte Anfangsbuchstabenkombinationen im linguistischen Sprachmodell als unzulässig definiert und dem Benutzer nicht vorgeschlagen werden und daß die Spracherkennungseinheit mittels des angepaßten linguistischen Sprachmodells in solch einem Fall ein weiteres Erkennungsergebnis für die sprachliche Äußerung ermittelt, aus dem der an den Benutzer zur Bestätigung auszugebende Buchstabe bestimmt wird. Um das Sprachmodell klein zu halten, werden unzulässige Anfangsbuchstabenkombinationen als solche erst dann ins Sprachmodell aufgenommen, wenn sie der Spracherkenner fälschlicherweise hypothetisiert hat. Wird vorausgesetzt, daß die eingegebene sprachliche Äußerung nur Wörter einer begrenzten Wortmenge enthält, beispielsweise bei der Eingabe in ein Navigationssystem für Landkraftfahrzeuge in einem bestimmten Eingabemodus nur Ortsnamen, kann mittels dieser Erfindungsvariante das zugrundeliegende linguistische Sprachmodell entsprechend angepaßt werden, da die Menge möglicher Spracherkennungsergebnisse bezüglich der eingegebenen sprachlichen Äußerung tatsächlich als beschränkt angenommen werden kann. Dies führt zu einem reduzierten Suchraum des Spracherkenners und schließlich zu einer Vermeidung von vorgeschlagenen Erkennungsergebnissen mit a priori falschen und nicht in Frage kommen Anfangsbuchstaben oder Anfangsbuchstabenkombinationen.
Die Erfindung bezieht sich auch auf ein elektrisches Gerät, insbesondere Navigations­ system für Landkraftfahrzeuge, zur Durchführung eines der oben beschriebenen Verfah­ ren. Es kommen alle elektrischen Geräte mit eine Spracherkennungseinheit einschließen­ den Funktionseinheiten in Betracht, bei denen auch eine Eingabe mittels buchstabierter sprachlicher Äußerungen möglich ist.
Ausführungsbeispiele der Erfindung werden im folgenden anhand der Figuren näher erläutert. Es zeigen:
Fig. 1 die in Form von erfindungswesentlichen Funktionsblöcken dargestellte Grundstruktur eines erfindungsgemäßen elektrischen Geräts und
Fig. 2 und 3 zwei zur Spracherkennung verwendete linguistische Sprachmodelle.
Das in Fig. 1 dargestellte elektrische Gerät 1, insbesondere ein Navigationssystem für Landkraftfahrzeuge, ist mittels Funktionsblöcken dargestellt, die die erfindungswesent­ lichen Funktionen des Geräts 1 darstellen. Andere Funktionen des elektrischen Geräts sind aus Gründen der Übersichtlichkeit außer Betracht gelassen. Ein Funktionsblock 2 stellt eine Spracherkennungseinheit ("automatic speech recognizer", ASR) dar, der an ihrem Eingang 3 eine in Form von Merkmalsvektoren vorliegende sprachliche Äußerung zugeführt wird.
Bei einem Navigationssystem für Landkraftfahrzeuge wird beispielsweise in einem bestimmten Eingabemodus ein Ortsname als Fahrziel eingegeben. Das dieser sprachlichen Äußerung entsprechende und mittels Mikrofon empfangene akustische Signal wird in üblicher Weise in ein elektrisches Signal umgewandelt, welches anschließend abgetastet und quantisiert wird. Die so erhaltenen Digitalsignale werden zur Bildung der Merkmals­ vektoren vorzugsweise einer Cepstralanalyse unterworfen. Die Bildung von Merkmals­ vektoren ist in Fig. 1 - da schon bekannt - nicht näher dargestellt. Die Spracherkennungs­ einheit 2 speichert die Merkmalsvektoren für die weitere Verarbeitung ab und ermittelt aus diesen ein Erkennungsergebnis für die eingegebene gesamte sprachliche Äußerung. Die Spracherkennung durch die Spracherkennungseinheit 2 beruht - wie üblich - auf statisti­ scher Sprachmodellierung, wobei sogenannte Hidden-Markov-Modelle (HMM) eingesetzt werden.
Das in der Regel noch mit Erkennungsfehlern behaftete erste Erkennungsergebnis zu der sprachlichen Äußerung wird noch nicht an den Benutzer ausgegeben, sondern es folgt eine Ausgabe einzelner erkannter Buchstaben an den Benutzer mit der Aufforderung, diese zu bestätigen oder abzulehnen. Dies wird im folgenden zur Besserung Illustration anhand einer konkreten eingegebenen sprachliche Äußerung, der Eingabe des Ortsnamens "AACHEN", näher beschrieben.
Nachdem ein Benutzer also den Ortsnamen "AACHEN" eingegeben hat und zu diesem ein erstes Erkennungsergebnis für die gesamte Äußerung vorliegt, erfolgt eine Prozedur, deren Koordinierungsmechanismen durch einen Funktionsblock 4 zusammengefaßt sind. Dabei wird eine Ausgabe einzelner erkannter Buchstaben über eine Schnittstelle 5 ("user interface", UI) bewirkt mit einer Aufforderung an den Benutzer, die Richtigkeit dieses Buchstabens entweder zu bestätigen oder abzulehnen. Die durch den Benutzer über die Schnittstelle 5 eingegebene Antwort, die als akustische Eingabe aber auch beispielsweise als Eingabe durch Bedienungstasten erfolgen kann, wird zur Bestimmung und Anpassung eines von der Spracherkennungseinheit 2 verwendeten linguistischen Modells (Funktions­ block 6) eingesetzt. Das hier verwendete linguistische Modell ist eine aus Knoten und Kanten bestehende Netzwerkgrammatik mit einer endlichen Zahl Zustände ("finite state network grammar", FSN), deren Funktionsweise später anhand der Fig. 2 und 3 noch näher erläutert wird. Die Werte der Parameter der jeweiligen von der Spracherkennungs­ einheit 2 verwendeten Netzwerkgrammatik des Funktionsblocks 6 werden aus einer Datenbank 7 ("data base", DB) ausgelesen, die beispielsweise bei Navigationssystemen für Landkraftfahrzeuge auf einer CD abgespeichert sind und schon in erhältlichen Systemen zur Verfügung stehen.
Angenommen sei nun beispielhaft, die Spracherkennungseinheit 2 befinde sich in einem Modus zur Eingabe von Ortsnamen und habe im ersten Schritt als Erkennungsergebnis "AADAEM" für die eingegebene sprachliche Äußerung "AACHEN" ermittelt, wobei bei den Spracherkennungsprozeduren eine Netzwerkgrammatik verwendet wurde, die noch keinerlei Einschränkung bezüglich der zu erkennenden Buchstaben der sprachlichen Äußerung enhält. Die Netzwerkgrammatik besteht bis dahin lediglich aus zwei Knoten K0 und K1, wobei als Kanten zwischen diesen beiden Knoten alle Anfangsbuchstaben der zu erkennenden Orte festgelegt sind. Die Kanten zwischen den beiden Knoten K0 und K1 repräsentieren dabei die zulässigen Zustände bezüglich des ersten zu erkennenden Buchsta­ bens. Die von K1 nach K1 laufenden Kanten umfassen alle Buchstaben des Alphabets. Bezüglich der Wirkungsweise einer derartigen Netzwerkgrammatik in der Spracherken­ nungseinheit 2 wird hier auf den Artikel von Nam-Yong Han et. al. "A CONTINUOUS SPEECH RECOGNITION SYSTEM USING FINITE STATE NETWORK AND VITERBI BEAM SEARCH FOR THE AUTOMATIC INTERPRETATION", ICASSP 1995, Seiten 117 bis 120 verwiesen, der nähere Erläuterungen gibt. Die Funktion und die Umsetzung einer solchen Netzwerkgrammatik kann daher hier als bekannt vorausgesetzt werden und wird nicht näher erläutert.
An den Benutzer wird nun als (richtiges) Erkennungsergebnis bezüglich des ersten Buch­ stabens der sprachlichen Äußerung über die Schnittstelle 5 der Buchstabe "A" ausgegeben. Nachdem der Benutzer die Richtigkeit dieses Erkennungsergebnisses bestätigt hat, wird dieses zur Anpassung der Netzwerkgrammatik benutzt. Diese wird erweitert auf ein Netzwerk mit drei Knoten K0, K1 und K2 mit einer einzigen Kante zwischen den beiden Knoten K0 und K1, die bezüglich des ersten zu erkennenden Buchstabens den Zustand "Buchstabe A" repräsentiert (siehe Fig. 2). Bezüglich des zweiten zu erkennenden Buch­ stabens liefert eine Abfrage der Datenbank 7 als mögliche Erkennungsergebnisse einen der Buchstaben von A bis I oder einen der Buchstaben von K bis P oder einen der Buchstaben von R bis U. Die entsprechende in Fig. 2 dargestellte angepaßte Netzwerkgrammatik weist deshalb zwischen den Knoten K1 und K2 entsprechende Kanten, die wie oben bereits erwähnt zulässigen Zuständen (hier bezüglich des zweiten Buchstabens der sprachlichen Äußerung) entsprechen, auf. Der Übersichtlichkeit wegen sind nicht alle Kanten einzeln dargestellt. In der Fig. 2 ist deshalb für die Buchstabengruppe der benachbarten Buchsta­ ben A . . . I nur eine Kante eingezeichnet. Entsprechendes gilt für die beiden anderen Buchstabengruppen K . . . P und R . . . U. Die Buchstaben J, Q und V . . . Z sind als nicht mehr als zweiter Buchstabe in Frage kommende Buchstaben der zu erkennenden sprach­ lichen Äußerung gemäß den in der Datenbank 7 abgelegten Informationen festgelegt. Diese Informationen werden aus den als zulässige Ortsnamen definierten Wörtern abge­ leitet. Bezüglich des dritten Buchstabens und weiterer Buchstaben legt die Netzwerkgram­ matik keine Einschränkung fest. Alle Buchstaben bzw. Buchstabenfolgen werden in diesem Verarbeitungsschritt als noch möglich angesetzt.
Unter Verwendung der angepaßten Netzwerkgrammatik gemäß Fig. 2 als linguistischem Sprachmodell wird nun durch die Spracherkennungseinheit 2 für die abgespeicherten und aus der ursprünglich eingegebenen buchstabierten sprachlichen Äußerung "AACHEN" abgeleiteten Merkmalsvektoren erneut ein Spracherkennungsvorgang durchgeführt, was wiederum zum Erkennungsergebnis "AADAEM" führt. Nachdem an den Benutzer als Vorschlag für den zweiten Buchstaben "A" ausgegeben und dieses Erkennungsergebnis vom Benutzer ebenfalls als richtig bestätigt wurde, wird unter Ausnutzung der Datenbank­ informationen zu zulässigen Ortsnamen wiederum eine Anpassung des verwendeten linguistischen Sprachmodells, d. h. der Netzwerkgrammatik durchgeführt. Es ergibt sich nach der Anpassung ein auf vier Knoten K0, K1, K2 und K3 erweitertes Netzwerk, daß in Fig. 3 dargestellt ist. Entsprechend der Folge "AA" als bestätigte Anfangsbuchstaben werden diese als bekannt vorausgesetzt, so daß sowohl zwischen dem Knoten K0 und dem Knoten K1 als auch zwischen dem Knoten K1 und dem Knoten K2 nur eine Kante ange­ setzt wird, denen jeweils ein dem Buchstaben "A" entsprechender Zustand zugeordnet ist. Die Menge zulässiger Buchstaben für den dritten Buchstaben des zu erkennenden Orts­ namens umfaßt nun gemäß den betreffenden Datenbankinformationen nur noch die Buchstaben "C", "L", "R" oder "S". Die Fig. 3 zeigt entsprechende Kanten zwischen den beiden Knoten K2 und K3, wobei für die beiden benachbarten Buchstaben "R" und "S" der Übersichtlichkeit wegen wiederum nur eine Kante gezeichnet ist. Dieses angepaßte Netzwerk enthält keine (beschränkende) Information über den vierten und eventuelle weitere Buchstaben der zu erkennenden sprachlichen Äußerung.
Mit dem erneut modifizierten linguistischen Sprachmodell (= Netzwerkgrammatik) wird nun ein weiterer Spracherkennungsvorgang mittels der Spracherkennungseinheit 2 durch­ geführt, wobei wiederum von den gespeicherten Merkmalsvektoren der ursprünglich detektierten buchstabierten sprachlichen Äußerung "AACHEN" ausgegangen wird. Dies­ mal wird allerdings aufgrund des geänderten linguistischen Sprachmodells ein verbessertes Erkennungsergebnis geliefert, nämlich "AACHEM", das nur noch geringfügig von der tatsächlichen sprachlichen Äußerung abweicht.
Entsprechend den obigen Ausführungen schließen sich nun weitere Verarbeitungszyklen an, bis ein Erkennungsergebnis mit sämtlichen Buchstaben der zu erkennenden buchsta­ bierten sprachlichen Äußerung vorliegt, bei dem alle erkannten Buchstaben als richtig bestätigt sind. Dieses Ergebnis wird schließlich vom elektrischen Gerät 1 in der von der jeweiligen Anwendung abhängigen Weise weiterverarbeitet. Im Fall eines Navigations­ systems für Landkraftfahrzeuge beispielsweise als Zielort für eine Fahrroute.
Für den Fall, daß ein an den Benutzer ausgegebener Buchstabe von diesem als falsch abgelehnt wird, werden - wie nachfolgend erläutert - zwei Möglichkeiten der Weiterverar­ beitung angegeben.
Eine Möglichkeit der Weiterverarbeitung besteht darin, das linguistische Modell so zu modifizieren, daß die zugehörige Kante zwischen zwei Knoten entfernt wird und mit der so modifizierten Netzwerkgrammatik ein erneuter Spracherkennungsprozeß mittels der Spracherkennungseinheit 2 für die gespeicherte sprachliche Äußerung durchgeführt wird. Beispielsweise sei angenommen, nach einer Durchführung der Spracherkennungsprozedu­ ren durch die Spracherkennungseinheit 2 unter Zugrundelegung der Netzwerkgrammatik gemäß Fig. 2 sei als zweiter Buchstabe nicht ein "A", sondern ein "K" ermittelt worden. Nach einer Ablehnung dieses somit falsch erkannten Buchstabens durch den Benutzer würde die dem Buchstaben "K" zugeordnete Kante zwischen den Knoten K1 und K2 ent­ fernt und mit dieser modifizierten - aber ansonsten unveränderten - Netzwerkgrammatik würde ein erneuter Erkennungsvorgang bezüglich der gesamten sprachlichen (gespeicher­ ten) Äußerung durch die Spracherkennungseinheit 2 durchgeführt. Die Wahrscheinlich­ keit, daß nunmehr der Buchstabe "A" als zweiter Buchstabe richtig erkannt würde, ist dann erhöht. Dieser Vorgang wird gegebenenfalls bis zur richtigen Erkennung des zweiten Buchstabens wiederholt.
Die andere Variante setzt eine Spracherkennungseinheit 2 voraus, die nach der Durchfüh­ rung eines Erkennungsvorgangs N beste Lösungsalternativen als Erkennungsergebnis ausgibt, was eine bekannte Variante eines Spracherkenners ist. Wird nun wie oben ange­ nommen beispielsweise der zweite Buchstabe der buchstabierten sprachlichen Äußerung nicht richtig erkannt und vom Benutzer als falsch abgelehnt, so entfällt ein erneutes Durchführen eines Erkennungsvorgangs mittels der Spracherkennungseinheit 2. Statt­ dessen schließt der Funktionsblock 4 eine Verarbeitung ein, bei der automatisch die zweitbeste Lösungsvariante der Liste N bester Lösungsalternativen zur Ermittlung des zweiten Buchstabens der sprachlichen Äußerung verwendet wird. Ist auch jetzt noch der erkannte zweite Buchstabe falsch und wird vom Benutzer abgelehnt, wird der zweite Buchstabe der drittbesten Lösungsvariante der Liste N bester Lösungsalternativen an den Benutzer ausgegeben. Diese Verarbeitung setzt sich solange fort, bis der Benutzer einen an ihn ausgegebenen Buchstaben als richtig bestätigt.
Zur Beschleunigung des erfindungsgemäßen Arbeitsverfahrens kann weiterhin vorgesehen werden, daß den als Nachfolger eines vom Benutzer bestätigten Buchstabens in Frage kommenden Buchstaben individuelle Wahrscheinlichkeitswerte zugeordnet werden. Beispielsweise werden dann in der Netzwerkgrammatik gemäß Fig. 2 bezüglich der Kanten zwischen den beiden Knoten K1 und K2 der Kante mit dem Buchstaben "A" ein erster Wahrscheinlichkeitswert, der Kante mit dem Buchstaben "B" ein zweiter Wahrscheinlich­ keitswert und den anderen Kanten mit den Buchstaben "C" bis "I", "K" bis "P" und "R" bis "U" entsprechende individuelle Wahrscheinlichkeitswerte zugeordnet. Die Größe der einzelnen Wahrscheinlichkeitswerte hängt dabei von den statistischen Eigenschaften des bei der jeweiligen Anwendung des elektrischen Geräts 1 verwendeten Vokabulars ab.
Bestimmte Buchstaben sind als akustische Signale bestimmten anderen Buchstaben ähn­ licher als den übrigen Buchstaben des verwendeten Alphabets. So ist beispielsweise die akustische Realisierung des Buchstabens "D" der akustischen Realisierung des Buchstabens "T" ähnlicher als den akustischen Realisierungen anderer Buchstaben. Dies wird in einer Ausführungsvariante der Erfindung berücksichtigt. Wird ein Buchstabe der buchstabierten Äußerung nicht richtig erkannt und vom Benutzer als falsch abgelehnt, so entfällt ein erneutes Durchführen eines Erkennungsvorgangs mittels der Spracherkennungseinheit 2. Stattdessen wird ein akustisch ähnlicher Buchstabe angeboten. Die akustische Ähnlichkeit zwischen Buchstaben kann z. B. statistisch berechnet werden.
Eine weitere Verfeinerung des linguistischen Sprachmodells ergibt sich dadurch, daß bestimmte Anfangsbuchstaben oder Anfangsbuchstabenkombinationen a priori als unzu­ lässig eingeordnet werden. Beispielsweise wäre die Buchstabenfolge "XX" bei der Eingabe eines Ortsnamens unzulässig, da kein Ortsname mit solchen Anfangsbuchstaben existiert. Erkennt der Erkenner eine solche Anfangsbuchstabenfolge, so wird das linguistische Modell dahingehend modifiziert, daß der Erkenner im nächsten Erkennungslauf diese Kombination ausschließt. Bei der Spracherkennung mittels der Spracherkennungseinheit 2 ist dann der Suchraum entsprechend eingeschränkt und eine Ermittlung von Erken­ nungsergebnissen mit a priori als unzulässig definierten Anfangsbuchstabenfolgen wird von vornherein vermieden.
In einer weiteren Ausgestaltung des elektrischen Geräts 1 werden einzelne Buchstaben oder Buchstabenkombinationen, die gemäß den in der Datenbank abgelegten Informationen als alleinige Nachfolger für einen vom Benutzer bestätigten Buchstaben in Betracht kommen, automatisch als bestätigte Buchstaben definiert, ohne daß in solchen Fällen noch für diese Buchstaben jeweils eine Bestätigungsprozedur duchgeführt wird. Auch dies führt zu einer beschleunigten Erkennung der buchstabierten sprachlichen Äußerung und erhöht der Komfort für den Benutzer.
Insbesondere kann es auch ausreichen, wenn der Benutzer nur einen Teil der zu erkennenden sprachlichen Äußerung buchstabiert und als akustisch zu modellierende Buchstabenfolge eingibt. Auch dann wird regelmäßig noch eine befriedigend schnelle Erkennung der sprachlichen Äußerung durch das erfindungsgemäße elektrische Gerät 1 bzw. Verfahren gewährleistet.

Claims (8)

1. Verfahren zur automatischen Erkennung einer wenigstens teilweise buchstabierten sprachlichen Äußerung mit einer auf statistischen Modellen einschließlich eines linguistischen Sprachmodells (6) basierenden Spracherkennungseinheit (2), wobei:
  • 1. nach Eingabe des buchstabierten Teils der sprachlichen Äußerung die Spracherkennungs­ einheit (2) ein erstes Erkennungsergebnis für die sprachliche Äußerung ermittelt;
  • 2. einzelne erkannte Buchstaben an den Benutzer zur Bestätigung oder Ablehnung ausgegeben werden;
  • 3. nach Bestätigung eines Buchstabens eine Anpassung des linguistischen Sprachmodells (6) vorsehen ist, das nach seiner Anpassung die Menge solcher Buchstaben festlegt, die als Nachfolger für den bestätigten Buchstaben zulässig sind, und das die Richtigkeit bereits bestätigter Buchstaben voraussetzt;
  • 4. die Spracherkennungseinheit (2) mittels des angepaßten linguistischen Sprachmodells (6) ein weiteres Erkennungsergebnis für die sprachliche Äußerung ermittelt, aus dem der nächste an den Benutzer zur Bestätigung auszugebende Buchstabe bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß nach einer Ablehnung eines erkannten Buchstabens das linguistische Sprachmodell (6) entsprechend dieser Information angepaßt wird und die Spracherkennungseinheit (2) einen erneuten Erkennungsvorgang durchführt.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Spracherkennungseinheit (2) als Erkennungsergebnis eine Liste N bester Erken­ nungsalternativen für die sprachliche Äußerung ermittelt und daß nach einer Ablehnung eines erkannten Buchstabens durch den Benutzer der entspre­ chende Buchstabe der zweitbesten Lösungsalternative an den Benutzer ausgegeben wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß einzelnen Buchstaben individuelle insbesondere von allen Vorgängerbuchstaben abhängige, positionsspezifische Wahrscheinlichkeitswerte zugeordnet werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß bei der Ermittlung einer Alternative zu einem durch den Benutzer abgelehnten Buchstaben der durch Wahrscheinlichkeitswerte ausgedrückte Grad der Verwechselbarkeit mit anderen Buchstaben berücksichtigt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet,
  • 1. daß ungültige und fälschlicherweise erkannte Anfangsbuchstabenkombinationen im linguistischen Sprachmodell (6) als unzulässig definiert und dem Benutzer nicht vorgeschlagen werden;
  • 2. die Spracherkennungseinheit (2) mittels des angepaßten linguistischen Sprachmodells (6) in solch einem Fall ein weiteres Erkennungsergebnis für die sprachliche Äußerung ermittelt, aus dem der an den Benutzer zur Bestätigung auszugebende Buchstabe bestimmt wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß Buchstaben, für die keine Erkennungsalternativen bestehen, automatisch auch ohne Bestätigung durch den Benutzer als bestätigte Buchstaben verarbeitet werden.
8. Elektrisches Gerät (1), insbesondere Navigationssystem für Landkraftfahrzeuge, zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 6.
DE1998147419 1998-10-14 1998-10-14 Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung Withdrawn DE19847419A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE1998147419 DE19847419A1 (de) 1998-10-14 1998-10-14 Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung
EP99203303A EP0994461A2 (de) 1998-10-14 1999-10-07 Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
US09/415,832 US6725197B1 (en) 1998-10-14 1999-10-12 Method of automatic recognition of a spelled speech utterance
JP29160599A JP2000122691A (ja) 1998-10-14 1999-10-13 綴り字読み式音声発話の自動認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1998147419 DE19847419A1 (de) 1998-10-14 1998-10-14 Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung

Publications (1)

Publication Number Publication Date
DE19847419A1 true DE19847419A1 (de) 2000-04-20

Family

ID=7884486

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1998147419 Withdrawn DE19847419A1 (de) 1998-10-14 1998-10-14 Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung

Country Status (4)

Country Link
US (1) US6725197B1 (de)
EP (1) EP0994461A2 (de)
JP (1) JP2000122691A (de)
DE (1) DE19847419A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10030713A1 (de) * 2000-06-23 2002-01-03 Deutsche Telekom Ag Verfahren zur Parametereinstellung von Funktionsaufrufen in Dialog-Systemen
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE10013879A1 (de) * 2000-03-21 2001-09-27 Bosch Gmbh Robert Verfahren zur Sprachsteuerung eines elektrischen Geräts
US20020178004A1 (en) * 2001-05-23 2002-11-28 Chienchung Chang Method and apparatus for voice recognition
US6975986B2 (en) * 2001-05-30 2005-12-13 International Business Machines Corporation Voice spelling in an audio-only interface
US7809574B2 (en) 2001-09-05 2010-10-05 Voice Signal Technologies Inc. Word recognition using choice lists
US7526431B2 (en) * 2001-09-05 2009-04-28 Voice Signal Technologies, Inc. Speech recognition using ambiguous or phone key spelling and/or filtering
US7505911B2 (en) * 2001-09-05 2009-03-17 Roth Daniel L Combined speech recognition and sound recording
US7444286B2 (en) 2001-09-05 2008-10-28 Roth Daniel L Speech recognition using re-utterance recognition
US7467089B2 (en) * 2001-09-05 2008-12-16 Roth Daniel L Combined speech and handwriting recognition
US20040153975A1 (en) * 2003-02-05 2004-08-05 Williams Roland E. Text entry mechanism for small keypads
US7729913B1 (en) * 2003-03-18 2010-06-01 A9.Com, Inc. Generation and selection of voice recognition grammars for conducting database searches
US7865363B2 (en) * 2004-03-09 2011-01-04 Ashwin Rao System and method for computer recognition and interpretation of arbitrary spoken-characters
US20050209853A1 (en) * 2004-03-19 2005-09-22 International Business Machines Corporation Speech disambiguation for string processing in an interactive voice response system
US20060173680A1 (en) * 2005-01-12 2006-08-03 Jan Verhasselt Partial spelling in speech recognition
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8255216B2 (en) * 2006-10-30 2012-08-28 Nuance Communications, Inc. Speech recognition of character sequences
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8965765B2 (en) * 2008-09-19 2015-02-24 Microsoft Corporation Structured models of repetition for speech recognition
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
GB0911353D0 (en) * 2009-06-30 2009-08-12 Haq Saad U Discrete voice command navigator
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8195456B2 (en) * 2009-12-04 2012-06-05 GM Global Technology Operations LLC Robust speech recognition based on spelling with phonetic letter families
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9183832B2 (en) * 2011-06-07 2015-11-10 Samsung Electronics Co., Ltd. Display apparatus and method for executing link and method for recognizing voice thereof
KR20130005160A (ko) * 2011-07-05 2013-01-15 한국전자통신연구원 음성인식기능을 이용한 메세지 서비스 방법
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
DE102011116460A1 (de) 2011-10-20 2013-04-25 Volkswagen Aktiengesellschaft Verfahren für eine Benutzerschnittstelle
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
KR101759009B1 (ko) * 2013-03-15 2017-07-17 애플 인크. 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
CN105264524B (zh) 2013-06-09 2019-08-02 苹果公司 用于实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
EP3149728B1 (de) 2014-05-30 2019-01-16 Apple Inc. Eingabeverfahren durch einzelne äusserung mit mehreren befehlen
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10832675B2 (en) 2018-08-24 2020-11-10 Denso International America, Inc. Speech recognition system with interactive spelling function
US20220157315A1 (en) * 2020-11-13 2022-05-19 Apple Inc. Speculative task flow execution

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903864A (en) * 1995-08-30 1999-05-11 Dragon Systems Speech recognition
US5995928A (en) * 1996-10-02 1999-11-30 Speechworks International, Inc. Method and apparatus for continuous spelling speech recognition with early identification
US6163768A (en) * 1998-06-15 2000-12-19 Dragon Systems, Inc. Non-interactive enrollment in speech recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10030713A1 (de) * 2000-06-23 2002-01-03 Deutsche Telekom Ag Verfahren zur Parametereinstellung von Funktionsaufrufen in Dialog-Systemen
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung

Also Published As

Publication number Publication date
US6725197B1 (en) 2004-04-20
JP2000122691A (ja) 2000-04-28
EP0994461A2 (de) 2000-04-19

Similar Documents

Publication Publication Date Title
DE19847419A1 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung
DE69829235T2 (de) Registrierung für die Spracherkennung
DE60004862T2 (de) Automatische bestimmung der genauigkeit eines aussprachewörterbuchs in einem spracherkennungssystem
EP1466317B1 (de) Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
DE60032193T2 (de) Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache
DE69834553T2 (de) Erweiterbares spracherkennungssystem mit einer audio-rückkopplung
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
DE69923379T2 (de) Nicht-interaktive Registrierung zur Spracherkennung
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE69827988T2 (de) Sprachmodelle für die Spracherkennung
DE60207742T2 (de) Korrektur eines von einer spracherkennung erkannten textes mittels vergleich der phonemfolgen des erkannten textes mit einer phonetischen transkription eines manuell eingegebenen korrekturwortes
DE69725091T2 (de) Verfahren und System zum Editieren von Sätzen während der kontinuierlichen Spracherkennung
DE602005000308T2 (de) Vorrichtung für sprachgesteuerte Anwendungen
EP1264302B1 (de) Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
DE60318385T2 (de) Sprachverarbeitungseinrichtung und -verfahren, aufzeichnungsmedium und programm
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE112006000322T5 (de) Audioerkennungssystem zur Erzeugung von Antwort-Audio unter Verwendung extrahierter Audiodaten
WO2001018792A1 (de) Verfahren zum trainieren der grapheme nach phonemen regeln für die sprachsynthese
EP0987682B1 (de) Verfahren zur Adaption von linguistischen Sprachmodellen
EP0981129A2 (de) Verfahren und Anordnung zum Durchführen einer Datenbankabfrage
EP3152753B1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
DE10040063A1 (de) Verfahren zur Zuordnung von Phonemen
WO2000005709A1 (de) Verfahren und vorrichtung zur erkennung vorgegebener schlüsselwörter in gesprochener sprache
EP1238250B1 (de) Spracherkennungsverfahren und -einrichtung
DE19532114C2 (de) Sprachdialog-System zur automatisierten Ausgabe von Informationen

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee