CA2107712A1 - Procede et dispositif d'analyse d'un message fourni par des moyens d'interaction a un systeme de dialogue homme-machine - Google Patents

Procede et dispositif d'analyse d'un message fourni par des moyens d'interaction a un systeme de dialogue homme-machine

Info

Publication number
CA2107712A1
CA2107712A1 CA002107712A CA2107712A CA2107712A1 CA 2107712 A1 CA2107712 A1 CA 2107712A1 CA 002107712 A CA002107712 A CA 002107712A CA 2107712 A CA2107712 A CA 2107712A CA 2107712 A1 CA2107712 A1 CA 2107712A1
Authority
CA
Canada
Prior art keywords
analysis
interaction
syntactic
execution
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
CA002107712A
Other languages
English (en)
Inventor
Jean-Jacques Favot
Jean-Noel Perbet
Bruno Barbier
Patrick Lach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Avionics SAS
Original Assignee
Jean-Jacques Favot
Jean-Noel Perbet
Bruno Barbier
Patrick Lach
Sextant Avionique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jean-Jacques Favot, Jean-Noel Perbet, Bruno Barbier, Patrick Lach, Sextant Avionique filed Critical Jean-Jacques Favot
Publication of CA2107712A1 publication Critical patent/CA2107712A1/fr
Abandoned legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

17 PROCEDE ET DISPOSITIF D'ANALYSE D'UN MESSAGE FOURNI PAR DES MOYENS D'INTERACTION A UN SYSTEME DE DIALOGUE HOMME-MACHINE L'invention concerne un procédé et dispositif d'analyse d'un message fourni par des moyens d'interaction à un système de dialogue homme-machine. Le procédé comprend trois étapes consécutives, une première étape d'analyse syntaxique (1, 2, 3), une deuxième étape d'analyse sémantique (5) et une troisième étape d'analyse d'exécution (6). L'analyse syntaxique (1, 2, 3) évalue la conformité d'un message (4) fourni par les moyens d'interaction à une forme de dialogue prédéfinie, l'analyse sémantique (5) évalue le sens de la demande de l'opérateur dialoguant avec la machine et l'analyse d'exécution (6) détermine la réalisation d'une action à entreprendre issue de l'étape d'analyse sémantique. Application : Systèmes de dialogue homme-machine comportant plusieurs moyens d'interaction tels que la parole, le geste ou le regard notamment. Figure 1.

Description

:, - 21 ~7 ~

PROCEDE ET DISPOSITIF D'ANALYSE
D'UN MESSAGE FOURNI PAR DES NlOYENS
D'INTERACTION A UN SYSTEME DE
DIALOGUE HOMME-MACHINE

La présente invention concerne un procédé et un dispositif d'analyse d'un rnessage fourni par des moyens 10 d'interaction ~ un système de dialogue homme-machine. Elle s'applique notamment aux systèmes d'interaction homme-machine comportant plusieurs moyens d'interaction tels que la parole, le geste ou le regard par exemple.
Dans un système d'interaction homme-machine, I'activité
15 d'un opérateur est captée par des moyens d'interaction de l'homme vers la machine, ou moyens d'interaction d'entrée. Différents modules peuvent par exemple être affcctés au traitement des informations fournies par ces moyens d'interaction. Les moyens d'interaction étant généralement de plusieurs types, ces 20 informations fournies sont appelées messages multimédia. Un module peut par exemple traduire sous forme d'évènements I'activité de l'opérateur, ces évènements peuvent ensuite etre analysés par un autre module et enfin un troisième module peut les envoyer vers l'application.
2s Une limitation de tels syst~mes est que toute action de I'utilisateur est traduite sous forme d'évènements datés, c'est-à-dire finis, localisés et fortement espacés dans le temps. Une information de type continu comme, par exemple, le déplacement de la main ou du regard est ainsi perdue, rendant impossible la~ gestion d'actions 30 con~inues, no~amment le déplacement en continu d'un objet virtuel ou l'ajustement d'un réglage virtuel.
En conséquence/ ces systèmes d'interaction homme~
machine sont difficilement utilisables dans des applications ~elles qu'un pilotage d'avion notamment, où le flux d'informations à

""~
.e ~ ~ ~ :

21077~2 .. :

prendre en compte devient de plus en plus important et où les temps de prise de décision deviennent de plus en plus courts. ~ ~ m~
Le but de l'invention est de pallier les inconvénients précit~s, notamment en permettant une ana!yse temps réel d'un s message multimédia, cornposé d'éléments caractéristiques de I'activité de l'opérateur à un instant donné.
A cet effet, I'invention a pour objet un procéd~ d'analyse d'un message contenant des évènements et des données continues provenant d'un opérateur et transmis par des moyens d'interaction 10 à un système de dialogue entre un homme et une machine, caractérisé en ce qu'il comprend trois étapes consécutives, une première étape d'analyse syntaxique, une deuxième étape d'analyse sémantique et une troisième étape d'analyse d'exécution, I'analyse syntaxique évaluant ia conformité d'un message fourni par les 15 moyens d'interaction par rapport à une forme de dialogue prédéfinie, I'analyse sémantique évaluant le sens de la dernande de l'opérateur et l'analyse d'exécution déterminant la réalisation d'une action à entreprendre issue de l'étape d'analyse sémantique.
L'invention a également pour objet un dispositif pour la 20 mise en oeuvre du procédé précité.
L'invention a pour principaux avantages qu'elle améliore l'ergonomie des systèmes de dialogue homme-machine, qu'elle permet à ces systèmes de traiter un plus grand nombre d'informations dans un temps plus court, qu'elle les rend plus 25 efficaces et plus fiables notamment en conservant l'opérateur dans la boucle d'interactivité, qu'elle est économique et aisée à mettre en oeuvre. ~ ~:
D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description qui suit, faite en regard des 30 dessins annexés qui représentent:
- la figure 1, une illustration du procédé selon l'invention;

:'.',, ' ' , ,.:~, ;~' J~
"`"'"'" ""~''' ~

~ : :
2 ~ 0 ~ 7 ~ 2 - la Figure 2, une illustration d'une ~tape du procédé selon I'invention; -- la figure 3, un mode de r~alisation possible d'un dispositif selon l'invention;
s - la figure 4, une illustration d'un exemple d'application du procédé selon l'invention.
La figure 1 illustre le procédé d'analyse selon l'invention.
Sur cette figure, le sens des fl~ches indique le sens des informations, une flèche indiquant le passage d'informations d'un 0 point à un au~re. Le principe du procédé selon l'invention est de réaliser une analyse progressive de messages multimédia en suivant trois étapes consécutives, une première étape d'analyse syntaxique, une deuxième étape d'analyse sémantique et une troisième étape d'analyse d'exécution. Cette analyse d'un message mul~imédia, ce s message étant le résultat d'une action de l'homme sur la machine, doit permettre d'en dégager l'aspect sémantique et en déduire les actions correspondantes à entreprendre. Un message est composé
d'évènements, aléatoires par nature, des phrases parlées ou des postures rnanuelles par exemple, et est aussi composé de données 20 continues et non aléatoires, notamment des mesures de positions, de la main ou de direction du regard par exemple. Ce message arrive aux rnoyens d'analyse cycliquement, et à la demande de ceux-ci par exemple. La cadence d'arriv~e des messa~es doit notamment être suffisante pour donner une impression de temps 25 réei à l'échelle humaine et pour ne pas perdre d'informations de nature continue. A cet effet, la duree entre deux messages consécutifs peut être inférieure à 100 ms par exemple.
La figure 1 montre les trois étapes d'analyse selon `
I'invention. La première étape 1, 2, 3 réalise des analyses 30 syntaxiques d'un message mul~imédia 4 fourni par des rnoyens d'interaction homme-rnachine connus de l'homme du métier. La figure 1 illustre un cas où le message 4 contient des informations :; ~ . ':

` ~ `.` ~ .'!, ' : ' .

~ ~ 2 t ~ 7 ~ ~ 2 ~ ~ ~

fournies par N média. L'information relative ~ chaque média est analysée séparément, ces analyses peuvent par exemple être effectuées en parallèle et de façons indépendantes. Ainsi, dans la première étape 1, 2, 3 une première analyse syn~axique 1 traite un 5 premier média, une deuxième analyse syntaxique 2 traite un deuxième média et Nième analyse syntaxique traite un Nième média, N étant un nombre entier supérieur ou égal à 1.
Les résultats de la première étape 1, 2, 3 d'analyse syntaxique sont ensuite analysés dans la deuxibme étape 5 0 d'analyse sémantique. Puis les résultats de cette deuxième étape sont analysés dans la troisième étape 6 d'analyse d'execution.
Cette dernière étape détermine notamment comment réaliser une action 10 à entreprendre, notamment si elle est exécutable ou non, les actions étant appliquées à la machine 12 sur laquelle un 5 opérateur interagit ou vers l'opérateur via des interfaces. Les étapes d'analyse 1, 2, 3, 5, 6 utilisent par exempie des informations issues de la machine 12.
Des bases de faits 7, 8 fournissent par exemple des informations aux moyens d'analyse durant les trois étapes 1, 2, 3, 20 5, 6 précitées. Une base de faits statiques 7 peut par exemple fournir des inforrnations prédéfinies concernant notamment le vocabulaire vocal ou gestuel, des données constantes du système ou l'état du système notamment. ~Jne base de faits dynamiques 8 peut par exemple servir à stocker des données transitoires, telles 2s que des résultats intermédiaires ou encore l'état du système notamment. Un historique 9 est utilisé par exemple pour mémoriser ie déroulement du dialogue et des actions. Les données continues du message multimédia 4 sont traduites sous forme de faits et sont stockées dans la base de faits dynamiques 8. Cela a pour avantage 30 notamment de ne pas saturer ou encombrer les étapes d'analyse 1, 2, 3, 5, 6 avec des données qui n'interviqnnent pas au niveau syntaxique car ces données continues ne sont pas en tant que telles , ~ .

i'''""'"''''.''.''''' ~; ~

~`" 2~7~2 ~;

des ~venements à interpréter. Ces donn~es continues interviennent notamment dans l'interprétation des ~vènements, par exemple vocaux ou gestuels, cette interpr~tation faisant appel ~ la base de faits dynamiques.
S La figure 2 illustre un mode d'analyse syntaxique possible pouvant être utilisé par le procédé selon l'invention. Le rôle de I'étape d'analyse syntaxique est d'évaluer si un évènement issu d'un média ou moyen d'interaction donné est conforme a l'une des formes de dialogue définies pour le média en question. n appelant 10 "arbre de syntaxe" ou tout simplement "arbre", chaque ~orme de dialogue possible d'un média donné, en appelant "feuilles", les termes se trouvant aux extrémités de ces arbres et en appelant "phrase" une suite ordonnée d'un ou plusieurs mots du vocabulaire du média analysé, vocabulaire vocal ou gestuel par exen-ple, il 15 s'ensuit que l'analyse syntaxique d'un média se résume à identifier parmi les arbres possibles, celui dont la liste ordonnée des feuilles est identique, élément par élément, b la phrase du message multimédia reçu. Une fois l'arbre identifié, I'étape d'analyse documente chaque mot de la phrase en iui 3ssociant un attribut. Cet 20 attribut définit la participation du mot au sens de ia phrase.
La figure 2 présente deux exemples de phrase à analyser, dans un cas d'application de pilotage d'avion par exemple. L'arbre de syntaxe définit par exemple une phrase possible de dialogue comme possédant un verbe d'action suivi d'un type d'objet suivi 2~ d'un nom d'obje~. Une première phrase à analyser est par exemple "fermer page radar" et une deuxième phrase "éteindre voyant alarme". L'arbre de la figure 2 est analysé dans la premiere étape qui en déduit la validité de la syntaxe. Si celle-ci ~st correcte, la première étape d'analyse syntaxique délivre alors trois mots, un 30 prernier mot indiquant le verbe d'action, un deuxième mot indiquant 18 type d'objet de l'action et un troisieme mot indiquant le nom de I'objet. D'autres types de syntaxe, c'est-~-dire d'arbres syntaxiques, ','' ': '.'~', : , 2~Q77~ 2 peuvent être analysés, pouvant notamment comprendre plus ou rnoins de mots.
Dans le cas d'utilisation de certains média comme par exemple des moyens de reconnaissance gestuelle, ceux-ci peuvent s nécessi~er des modes d'analyse particuliers car la phrase définie précédemment est répartie sur plusieurs messages. L'analyse syntaxique peut alors ~tre réalisée s~iquentiellement et les résultats des étapes d'analyse syntaxique intermédiaires peuvent être par exemple mémorisés dans la base des faits dynamiques 8.
Si une phrase ne correspond pas à une syntaxe correcte, elle est rejetée e~ l'utilisateur peut par exemple être averti par un signal sonore ou visuel, ou un message.
Comme l'illustre la figure 1, la première ét~pe d'analyse syntaxique peut être constituée par exemple de plusieurs analyses 15 syntaxiques 1, 2, 3 indépendantes, le nombre d'analyses syntaxiques étant égal au nombre de médias ou moyens d'interactions, un média ~tant associé à chaque analyse. Dans ce cas, du point de vue de la syntaxe, chaque média est traité
indépendamment des autres. Cela permet notamment d'assurer une 20 bonne souplesse de dialogue entre l'homme et la machine. Chaque moyen d'analyse affecté à une analyse de la première étape reçoit la partie du message multimédia qui conceme cette analyse, c'est-à-dire l'information provenant de son rnédia associé. Chaque moyen d'analyse fournit un message qui est traité par la deuxibme étape 2s d'analyse sémantique. Ce message contient par exemple une partie identifiant le média d'où provient l'information ainsi que des attributs de sens affectés aux mots de la phrase. Un tel message ; `
peut alors avoir la forme suivante par exemple ~
NMédia (Atb)(premier mot), Atb~(deuxième mot), Atb(troisième mot) od NMédia représente une identification d'un média, i Atb représente un attribut de sens de mot, les premier, deuxiame et troisième mots pouvant être par exemple les mots ; . ~
~:

/. ~ ' . ' . . . ' ' ~ . . ' .' . ' '. . . ' ' ' '~ ' ; ! . , ' .

~1~77 ~ :

précités, notamment "fermer", "page", "radar". Les vocabulaires associés aux différen~s médias sont par exemple stockés dans la base des faits statiques 7.
Une fois analysée et acceptée, la phrase documentée est S transmise à des moyens d'analyse sémantique réalisant la deuxième étape du procédé selon l'invention.
Le rôle de l'étape d'analyse sémantique est notamment d'évaluer le sens de la requête de l'opérateur d'après les résultats de l'étape d'analyse syntaxique. Elle permet par exemple d'identifier 10 I'astion à entreprendre, I'objet de l'action, c'est-~-dire sur quoi porte l'action, et les modali~és d'application dé~inies par des paramètres.
Si le contenu des resultats des analyses syntaxiques ne suffit pas pour établir le sens de la requête, I'analyse sémantique tente notamment d'y parvenir en utilisant des informations 15 complémentaires issues par exemple des bases de faits 7, 8 ou de l'historique 9. Ce peut être le cas par exemple pour des requêtes faisant intervenir des désignations d'objets, I'objet de i'action étant alors issu de la base des faits dynamiques 8. C'est aussi le cas par exemple pour des phrases comportant des ellipses, c'est-à-dire des 20 phrases ayant des éléments manquants faisant référence au dialo~ue antérieur, où le sens ne peut être trouvé notamrnent que par une analyse de l'his~orique du dialogue.
Toute requête sémantiquement correcte est ensuite traitée par la troisième étape d'analyse d'exécution. Cette requête ~s comporte par exemple le type d'actions 3 exécuter, I'ob3et sur iequel porte cette action et la liste des paramètres à prendre en compte. Une requête peut alors être transmise à l'étape d'analyse d'actions par une suite ayant la ~orme suivante par exemple (Action, Objet, Par 1, Par 2, ... Par N) Action indiquant le type d'action, Objet indiquant l'objet sur lequel elle porte et Par 1, Par 2, ... Par N une liste de N
paramètres.

:

- 2~7~2 En cas de requ8te incomplète, le système d'interaction homme-machine peut par exemple demander à l'opérateur un complément d'informa~ion, cette demande ~tant réalis~e par voix synthétique, par texte ou par image par exemple. L'his~orique peut s alors servir notamrnent à mémoriser l'~itat interméidiaire de la re~uête. Toute requête n'ayant aucun sens dans le contexte du dialo~ue est par exemple sanctionnée par un message d'erreur.
Le rôle de l'étape d'analyse d'exécution est notamment de déterminer la réalisation d ' une action à entreprendre vers I'opérateur ou vers ia machine 12 sur laquelle l'opérateur interagit issue de l'étape d'analyse sémantique. L'analyse porte notamment sur le contexte dans lequel i'action a ~ se dérouler. Ce contexte concerne par exemple l'état de la machine de l'application ou du système de dialogue. Par exemple, dans le cas de la demande "fermer page radar" précitée, I'étape d'analyse d'exécution v~rifie par exemple que la page radar est ouverte, cette page étant représentée sur un écran de visualisation, que la page n'est pas liée à une autre action en cours et qu'il n'y a pas d'interdiction pour la fermer.
Pour toute action juaée exécutable, I'étape d'analyse d'exécution compose et transmet vers un processeur d'exécution, une séquence d'ordres él~mentaires, les actions étan~ exécutées sur des objets graphiques sur un écran de visualisation ou de façon sonore par exemple. Ces ordres sont par exemple transmis par une 25 séquence ayant la forme suivante:
(Cde, Par 1, Par 2, ... Par N) Cde désignant une commande donnée, et Par 1, Par 2, ...
Par N étant une liste de paramètres.
Toute ac~ion non exécutable est par exemple sanctionnée 30 par l'émission d'un message d'erreur vocal ou visuel.
La figure 3 présente un mode de réalisation possible d'un dispositif pour la mise en oeuvre du procédé selon l'invention. Il ::, ^`^ 21077~2 g :
comprend en entr~e des moyens d'interaction 31. Ceux-ci peuven~
être par exemple des moyens de reconnaissance vocale ou gestuelle, les gestes étan~ notamment ceux de la main de l'op~rateur reconnu au moyen d'un gant numérique ou tout autre s geste corporel de l'opérateur, ces moyens d'interaction peuvent encore permettre par exemple de détecter le regard de l'opérateur, grâce à l'utilisation d'un oculomètre notamment, ou de détecter la position de la main ou de la tête de l'opéra~eur à l'aide de capteurs électromagnétiques. Ces moyens d'interaction 31 sont reliés à des 10 moyens d'analyse syntaxique réalisant la première étape 1, 2, 3 du procéd~ selon l'invention. Ces derniers comportent par exemple autant de moyens de syntaxe indépendants qu'il y a de médias, voix, geste, regard par exemple. Les moyens d'analyse syntaxique 32 sont reliés à des moyens d'analyse sémantique 33 réalisant la 5 deuxième étape 5. Ces moyens sont eux-mêmes reliés à des moyens d'analyse d'exécution 34 réalisant la troisième étape 6. Ils sont couplés à un processeur d'exécution 35, lequel est relié à des moyens d'interaction 36, des moyens de synthèse vocale ou des rnoyens de visualisation, écran de visualisation par exemple. Ils sont ;
20 aussi couplés à la machine 12. Les moyens d'analyses 32, 33, 34 peuvent être implantés sur un même calculateur ou répartis sur plusieurs calculateurs, un calculateur étant affecté à chaque étape d'analyse. Une mémoire 37 contenant les faits statiques est reliée aux moyens d'analyse 32, 33, 34. De même, une mémoire 38 est 2s reliée aux moyens d'analyse 32, 33, 34, à la machine 11 et aux moyens d'interaction 31. Une mémoire 39 contenant notamment ` ~; `
I'historique d'un dialogue homme-machine est reliée aux moyens d'analyse sémantique 33 et d'exécution 34.
La figure 4 illustre un exemple d'application du procédé
30 selon l'invention, dans le cas notamment d'un système de dialogue homme-machine dont un moyen d'interaction es~ constitué par exemple d'un écran et d'un dispositif de synthèse vocale d'une : ;'-~

2~07712 part, et d'autre part de médias d'entrée constitués de la voix et des gestes de la main, les gestes comprenant la posture et la position de la main.
L'utilisation du dispositif est notamment de permettre la s gestion de systèmes complexes en fournissant à l'opérateur des moyens de dialogue riches, tels que la voix, les gestes de la main ou le regard par exemple, et des informations de sortie du type graphique ou sonore, grâce à un écran de visualisation et des moyens de synthèse vocale et sonore. Un exemple d'utilisation est 10 la gestion d'une planche de bord virtuelie d'un avion.
L'illustration de la figure 4 rnontre que la première étape d'analyse syntaxique comporte une analyse syntaxique vocale 1 et une anaiyse syntaxique gestuelle 2, correspondant chacune respectivement à un premier média, la voix, et à un deuxième 15 média, le geste de la main par exemple, tel que défini précédemment, éventuellement, les gestes pourraient concerner d'autres parties du corps. Les autres étapes 5, 6 sont les mêmes que celles définies par la figure 1. De même, les bases de faits statiques 7 et dynamiques 8, ainsi que l'historique 9 s'articulent 20 autour de ces étapes conformément ~ ce qui a été décrit en regard de la figure 1. Les actions définies par l'étape d'analyse d'exécution 6 sont des actions graphiques 11 portant sur des objets visualisés par l'écran. Les actions générées par ia troisième étape 6 d'analvse d'exécution peuvent aussi porter sur les moyens de synthèse vocale 2s ou sonore, et sur la machine 12.
Un systeme expert, encore appelé système à règles de production peut permettre par exemple de réaliser les trois étapes du procédé d'analyse selon l'invention et assurer ainsi la compréhension d'un message multimédia contenant l'activité de 30 I'opérateur, dans une tranche de temps donnée, le temps d'application étant divisé en tranches d'une durée d'environ 100 ms par exemple.

~ .

rrr~ ,t.~ .Ut,~ o,,,~

~ 210~712 Dans le cas d'application de la figure 4, un message multimédia est par exemple transmis au système expert sous la forme d'une liste de données informatiques. Cette liste comprend par exemple une suite ordonnée de mots vocaux, une posture 5 manuelle reconnue, une identification d'objet désigné. Par ailleurs elle contient par exemple la distance de la main de l'opérateur à
I'écran ou la position angulaire de la main autour de l'axe du bras.
La base de faits statiques 7 est par exemple stockée dans une mémoire 37 à lecture seule comme l'illustre la figure 3.
10 Elle contient par exemple un vocabulaire vocal, un vocabulaire postural et des positions, tailles et attributs par defaut d'objets graphiques.
La base de faits dynamiques 8 est contenue dans une -- - `
mémoire 38 à lecture et écriture. Elle contient par exemple les ~ :
15 positions et tailles courantes des objets présentés sur l'écran de visualisation, un identificateur de l'objet désigné, les dernières ~ :~
positions et orientations de la main, I'état courant des moyens d'analyse syntaxique gestuelle et l'état des médias, notamment en ce qui concerne leur disponibilité et leur activation, et des 20 paramètres de la machine 12. ~ ~ :
L'historique 9 est contenu dans une mémoire 39 à
lecture et écriture. E!le contient par exemple les ordres en cours dans le processeur d'exécution 35 et les objets en cours de manipulation, notamment en ce qui concerne leur état initial et leur 2s état courant.
Les moyens d'analyse vocale comportent par exemple un ensemble de règles permettant notamment le codage de la ;
syntaxe et le mécanisme de recherche de l'arbre syntaxique précédemment défini. Ils fournissent aux moyens d'analyse 30 sémantique l'arbre trouvé. 1 Les moyens d'analyse gestuelle comportent par cxemple un automate a etats finis. Au fur et à mesure du ~ ~ ~

.~ . ..

210 7 ~
- 12 ~ -, .. . .
fonctionnement de i'automa~e, les moyens d'analyse gestuelle envoient aux moyens d'analyse sémantique des messages. Les ordres transmis sont notamment des mots associés à un arbre syntaxique tels que par exemple, prendre, déplacer, poser, jeter, 5 diminuer ou augmenter, ces ordres étant appliqués à un objet graphique.
Les moyens d'analyse sémantique comportent un ensemble de règles dont le rôle est no~amment d'interpréter le sens des messages entrants pour synthétiser les actions à entreprendre.
lls fournissent en sortie un message indiquant l'action à
exécuter, I'objet de l'action et divers paramètres associés. Ils identifient l'action en utilisant notamment les mots diattribut associés précédemment définis ou en les reconstituant à partir du contexte du dialogue. Ils identifient i'objet de l'action en utilisant le 5 mot d'attribut associé ou en le reconstituant ~ partir de la base de faits dynamiques contenant notamment l'objet désigné. Ils identifient les paramètres en utilisant notamment les mots d'attribut par 1, par 2, ... par N précités. Ils éliminent par exemple tous les mots n'ayant pas d'attribut.
Les moyens d'analyse d'exécution comportent par exemple un ensemble de règles dont le rôle est notarnment d'analyser la manière d'exécuter une action issue des moyens d'analyse sémantique, et de générer pour le processeur d'exécution 35, les commandes ~lémentaires nécessaires. Dans le cas où
2s l'analyse d'exécution concerne l'exemple de requête suivant (OUVRiR, RADAR, 0) I'analyse nécessite au moins trois règles, OUVRIR étant l'ac~ion, P~ADAR étant l'objet de l'action et 0 un paramètre. Une première règle traite le cas où une fenêtre graphique associée à l'objet RADAR est déjà ouverte, une deuxième 30 règle traite le cas où cette fenêtre n'est pas ouverte. Une troisibme règle traite le cas où le deuxième argument de la requête, RADAR, n'est pas un nom de fenêtre. L'ordre d'écriture des règles peut être ~, .

~ 2 1 ~ 7 7 1 ~ ~ :

important, I'analyseur ~valuant les r~gles précédentes dans l'ordre précité. Il est en effet concevable que la troisi~me règte ne se d~clenche que si la première r~gle et la deuxibme rbgle ont échoué. .

"
. ~ , . . ;. "
~ , . ..

., "~

"~
. . .

. , ., ,, .~, ~.~ . ., , ~

,~ ~ . - ~, ~'

Claims (10)

1. Procédé d'analyse d'un message contenant des évènements et des données continues, provenant d'un opérateur et transmis par des moyens d'interaction à un système de dialogue entre un homme et une machine (12), caractérisé en ce qu'il comprend trois étapes consécutives, une première étape d'analyse syntaxique (1, 2, 3), une deuxième étape d'analyse sémantique (5) et une troisième étape d'analyse d'exécution (6), l'analyse syntaxique (1, 2, 3) évaluant la conformité d'un message (4) fourni par les moyens d'interaction par rapport à une forme de dialogue prédéfinie, l'analyse sémantique (5) évaluant le sens de la demande de l'opérateur et l'analyse d'exécution (6) déterminant la réalisation d'une action à entreprendre issue de l'étape d'analyse sémantique.
2. Dispositif selon la revendication 1, caractérisé en ce que les données continues sont traduites sous forme de faits et sont stockées dans une base de faits dynamiques (8), les étapes d'analyse (1, 2, 3, 5, 6) utilisant les informations issues de la base de faits dynamiques (8).
3. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que les étapes (1, 2, 3, 5, 6) utilisent des informations issues d'une base de faits statiques (7) contenant des données prédéfinies.
4. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que les étapes ( 1, 2, 3, 5, 6) utilisent des informations issues d'un historique (9) mémorisant le déroulement du dialogue et des actions.
5. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que la première étape d'analyse syntaxique comporte une analyse syntaxique vocale et une analyse syntaxique gestuelle.
6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que les étapes utilisent des informations issues de la machine (12).
7. Dispositif pour la mise en oeuvre du procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend au moins:
- en entrée, des moyens d'interaction 131) - des moyens d'analyse syntaxique (32) reliés aux moyens d'interaction (31) d'entrée - des moyens d'analyse sémantique (33) reliés aux moyens d'analyse syntaxique - des moyens d'analyse d'exécution (34) reliés aux moyens d'analyse sémantique - un processeur d'exécution (35) relié aux moyens d'analyse d'exécution et à la machine (12) - en sortie, des moyens d'interaction 136) reliés au processeur d'exécution (35).
8. Dispositif selon la revendication 7, caractérisé en ce qu'il comprend en outre:
- une mémoire contenant la base de faits statiques (7), reliée aux moyens d'analyse (32, 33, 34) - une mémoire contenant la base de faits dynamiques (8), reliée aux moyens d'analyse (32, 33, 34) - une mémoire contenant l'historique (9), reliée aux moyens d'analyse sémantique (33) et d'exécution (34).
9. Dispositif selon l'une quelconque des revendications 7 ou 8, caractérisé en ce qu'il comprend autant de moyens d'analyse syntaxique que de moyens d'interaction d'entrée.
10. Dispositif selon l'une quelconque des revendications 7 à 9, caractérisé en ce que les moyens d'analyse (32, 33, 34) sont réalisés par un système à règles de production.
CA002107712A 1992-10-06 1993-10-05 Procede et dispositif d'analyse d'un message fourni par des moyens d'interaction a un systeme de dialogue homme-machine Abandoned CA2107712A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9211816A FR2696574B1 (fr) 1992-10-06 1992-10-06 Procédé et dispositif d'analyse d'un message fourni par des moyens d'interaction à un système de dialogue homme-machine.
FR9211816 1992-10-06

Publications (1)

Publication Number Publication Date
CA2107712A1 true CA2107712A1 (fr) 1994-04-07

Family

ID=9434174

Family Applications (1)

Application Number Title Priority Date Filing Date
CA002107712A Abandoned CA2107712A1 (fr) 1992-10-06 1993-10-05 Procede et dispositif d'analyse d'un message fourni par des moyens d'interaction a un systeme de dialogue homme-machine

Country Status (5)

Country Link
US (1) US5809269A (fr)
EP (1) EP0592280A1 (fr)
JP (1) JPH06266495A (fr)
CA (1) CA2107712A1 (fr)
FR (1) FR2696574B1 (fr)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2744277B1 (fr) * 1996-01-26 1998-03-06 Sextant Avionique Procede de reconnaissance vocale en ambiance bruitee, et dispositif de mise en oeuvre
US20050182765A1 (en) * 1996-02-09 2005-08-18 Technology Innovations, Llc Techniques for controlling distribution of information from a secure domain
US6097927A (en) * 1998-01-27 2000-08-01 Symbix, Incorporated Active symbolic self design method and apparatus
US6236968B1 (en) * 1998-05-14 2001-05-22 International Business Machines Corporation Sleep prevention dialog based car system
US7711672B2 (en) * 1998-05-28 2010-05-04 Lawrence Au Semantic network methods to disambiguate natural language meaning
US8396824B2 (en) * 1998-05-28 2013-03-12 Qps Tech. Limited Liability Company Automatic data categorization with optimally spaced semantic seed terms
US20070294229A1 (en) * 1998-05-28 2007-12-20 Q-Phrase Llc Chat conversation methods traversing a provisional scaffold of meanings
US20070094222A1 (en) * 1998-05-28 2007-04-26 Lawrence Au Method and system for using voice input for performing network functions
US6714909B1 (en) 1998-08-13 2004-03-30 At&T Corp. System and method for automated multimedia content indexing and retrieval
US7137126B1 (en) * 1998-10-02 2006-11-14 International Business Machines Corporation Conversational computing via conversational virtual machine
US6311159B1 (en) 1998-10-05 2001-10-30 Lernout & Hauspie Speech Products N.V. Speech controlled computer user interface
US7082397B2 (en) * 1998-12-01 2006-07-25 Nuance Communications, Inc. System for and method of creating and browsing a voice web
US7263489B2 (en) 1998-12-01 2007-08-28 Nuance Communications, Inc. Detection of characteristics of human-machine interactions for dialog customization and analysis
US6807574B1 (en) 1999-10-22 2004-10-19 Tellme Networks, Inc. Method and apparatus for content personalization over a telephone interface
US7941481B1 (en) 1999-10-22 2011-05-10 Tellme Networks, Inc. Updating an electronic phonebook over electronic communication networks
US7376586B1 (en) 1999-10-22 2008-05-20 Microsoft Corporation Method and apparatus for electronic commerce using a telephone interface
US6970915B1 (en) 1999-11-01 2005-11-29 Tellme Networks, Inc. Streaming content over a telephone interface
US6598018B1 (en) * 1999-12-15 2003-07-22 Matsushita Electric Industrial Co., Ltd. Method for natural dialog interface to car devices
US7143039B1 (en) 2000-08-11 2006-11-28 Tellme Networks, Inc. Providing menu and other services for an information processing system using a telephone or other audio interface
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US7580837B2 (en) 2004-08-12 2009-08-25 At&T Intellectual Property I, L.P. System and method for targeted tuning module of a speech recognition system
US7242751B2 (en) 2004-12-06 2007-07-10 Sbc Knowledge Ventures, L.P. System and method for speech recognition-enabled automatic call routing
US7751551B2 (en) 2005-01-10 2010-07-06 At&T Intellectual Property I, L.P. System and method for speech-enabled call routing
US7412389B2 (en) * 2005-03-02 2008-08-12 Yang George L Document animation system
US7657020B2 (en) 2005-06-03 2010-02-02 At&T Intellectual Property I, Lp Call routing system and method of using the same
US7774713B2 (en) 2005-06-28 2010-08-10 Microsoft Corporation Dynamic user experience with semantic rich objects
US7774202B2 (en) * 2006-06-12 2010-08-10 Lockheed Martin Corporation Speech activated control system and related methods
FR2902543A1 (fr) 2006-06-20 2007-12-21 Alcatel Sa Procede de creation de contenus multimedia pour terminaux mobiles, produit programme d'ordinateur pour la mise en oeuvre d'un tel procede
US20080189268A1 (en) * 2006-10-03 2008-08-07 Lawrence Au Mechanism for automatic matching of host to guest content via categorization
TWI331309B (en) * 2006-12-01 2010-10-01 Ind Tech Res Inst Method and system for executing correlative services
FR2938396A1 (fr) * 2008-11-07 2010-05-14 Thales Sa Procede et systeme de spatialisation du son par mouvement dynamique de la source
CN103000052A (zh) * 2011-09-16 2013-03-27 上海先先信息科技有限公司 人机互动的口语对话系统及其实现方法
US9432278B2 (en) * 2013-03-07 2016-08-30 Microsoft Technology Licensing, Llc Simulation of interactions between network endpoints

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
DE3732849A1 (de) * 1987-09-29 1989-04-20 Siemens Ag System-architektur fuer ein akustisches mensch/maschine-dialogsystem
JPH02159674A (ja) * 1988-12-13 1990-06-19 Matsushita Electric Ind Co Ltd 意味解析装置と構文解析装置
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5157384A (en) * 1989-04-28 1992-10-20 International Business Machines Corporation Advanced user interface
GB8913048D0 (en) * 1989-06-07 1990-04-25 Marconi Co Ltd Processor
JPH0375860A (ja) * 1989-08-18 1991-03-29 Hitachi Ltd パーソナライズド端末
EP0450196B1 (fr) * 1990-04-02 1998-09-09 Koninklijke Philips Electronics N.V. Système de traitement de données utilisant des données basées sur des gestes
JP3009215B2 (ja) * 1990-11-30 2000-02-14 株式会社日立製作所 自然語処理方法および自然語処理システム
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5463696A (en) * 1992-05-27 1995-10-31 Apple Computer, Inc. Recognition system and method for user inputs to a computer system
US5502774A (en) * 1992-06-09 1996-03-26 International Business Machines Corporation Automatic recognition of a consistent message using multiple complimentary sources of information
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method

Also Published As

Publication number Publication date
EP0592280A1 (fr) 1994-04-13
US5809269A (en) 1998-09-15
FR2696574A1 (fr) 1994-04-08
JPH06266495A (ja) 1994-09-22
FR2696574B1 (fr) 1994-11-18

Similar Documents

Publication Publication Date Title
CA2107712A1 (fr) Procede et dispositif d'analyse d'un message fourni par des moyens d'interaction a un systeme de dialogue homme-machine
EP0589754B1 (fr) Dispositif de gestion d'un système d'interaction homme-machine
JP7459153B2 (ja) 音声駆動コンピューティングインフラストラクチャによるグラフィカルユーザインターフェースレンダリング管理
CN105224278B (zh) 语音交互服务处理方法及装置
Pfister et al. Real-time recognition of affective states from nonverbal features of speech and its application for public speaking skill analysis
EP0818036A1 (fr) Procede de reconnaissance vocale en ambiance severe, et dispositif de mise en oeuvre
US9633008B1 (en) Cognitive presentation advisor
EP3593346B1 (fr) Sélection de données graphiques et présentation de contenu numérique
US11776536B2 (en) Multi-modal interface in a voice-activated network
CA2592994A1 (fr) Procede de recherche d'informations dans une base de donnees
CA2942116A1 (fr) Reconnaissance vocale automatique avec detection d'au moins un element contextuel, et application au pilotage et a la maintenance d'un aeronef
CN103197767B (zh) 利用手势虚拟键盘输入的方法及装置
Pascoal et al. Adapting speech recognition in augmented reality for mobile devices in outdoor environments
EP0591044B1 (fr) Dispositif d'exécution de commandes virtuelles autoadaptatif
EP1376395A2 (fr) Procédé et dispositif pour élaborer une forme abrégée d'un terme
US10224026B2 (en) Electronic device, system, method and computer program
Ribeiro et al. Assessing user expertise in spoken dialog system interactions
Chu Feeling is believing: viewing movies through emotional arcs
KR20240023400A (ko) 얼굴 인식 기술을 기반으로 한 개인화된 예술 작품 추천 서비스
Shimizu Dominant metaphor factors in business speech communication: A chronological view
KR20220061476A (ko) 적응형 기계학습 기반 자율지능 디지털 동반자를 이용하는 시스템
FR2860898A1 (fr) Systeme d'interface homme-machine a utilisation de dispositifs par auxiliaires dedies cooperants
Perakakis Blending Speech and Graphical User Interfaces
FR2946768A1 (fr) Procede d'entree tactile d'instructions de commande d'un programme d'ordinateur et systeme pour la mise en oeuvre de ce procede
FR2911416A1 (fr) Procede et dispositif de dialogue entre un utilisateur et un systeme informatique en vue d'etablir, entre ces derniers un dialogue en langage naturel

Legal Events

Date Code Title Description
FZDE Discontinued