CA2489326C - Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede - Google Patents

Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede Download PDF

Info

Publication number
CA2489326C
CA2489326C CA2489326A CA2489326A CA2489326C CA 2489326 C CA2489326 C CA 2489326C CA 2489326 A CA2489326 A CA 2489326A CA 2489326 A CA2489326 A CA 2489326A CA 2489326 C CA2489326 C CA 2489326C
Authority
CA
Canada
Prior art keywords
signal
active
impact
acoustic
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CA2489326A
Other languages
English (en)
Other versions
CA2489326A1 (fr
Inventor
Ros Kiri Ing
Stefan Catheline
Nicolas Quieffin
Mathias Fink
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elo Touch Solutions Inc
Original Assignee
Tyco Electronics Service GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tyco Electronics Service GmbH filed Critical Tyco Electronics Service GmbH
Publication of CA2489326A1 publication Critical patent/CA2489326A1/fr
Application granted granted Critical
Publication of CA2489326C publication Critical patent/CA2489326C/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member

Abstract

Procédé dans lequel on localise un impact sur une surface (9) appartenant à un objet (5) formant interface acoustique, dote d'au moins un capteur acoustique (6), procédé dans lequel on capte au moins un signal à partir d'ondes acoustiques générées dans l'objet formant interface acoustique par l'impact et on localise l'impact au cours d'une étape de reconnaissance au cours de laquelle on compare le signal capte à au moins un signal prédéterminé
correspondant au signal capté lorsqu'on génère un impact sur au moins une zone active appartenant à la surface de l'objet formant interface acoustique, et on associe l'impact à cette zone active si le signal capté est suffisamment voisin dudit signal prédéterminé.

Description

Procédé pour localiser un impact sur une surface et dispositif pour la mise en ceuvre de ce procédé.
La présente invention est relative aux procédés pour localiser un impact sur une surface et aux dispositifs pour la mise en ouvre de ces procédés.
Plus particulièrement, l'invention concerne un procédé dans lequel on localise un impact sur une surface appartenant à un objet formant interface acoustique, doté
d'au moins un capteur acoustique (l'objet formant interface acoustique peut être fait d'une seule pièce ou de plusieurs éléments, assemblés ou au moins en contact mutuel), procédé
dans lequel on capte au moins un signal à partir d'ondes acoustiques . générées dans l'objet formant interface acoustique par. ledit impact et on localise l'impact par traitement dudit signal capté.
Le document FR-A-2 811 107 décrit un exemple d'un tel procédé qui s'applique en particulier à une vitre. Dans ce procédé connu, on calcule la position de l'impact sur la surface de l'objet en mesurant les différences de temps de vol des ondes acoustiques jusqu'à différents capteurs.
Ce procédé connu requiert toutefois .
- que la vitre utilisée présente une parfaite homogénéitë et un parfait état de surface, - que les champs de la vitre soient ,traités spécialement notamment pour éviter les réflexions des ondes acoustiques, - que l'on connaisse à l'avance la célérité des ondes acoustiques dans la vitre, ce qui suppose de connaître précisément sa composition, - que l'on utilise au moins quatre capteurs.
Il en résulte que ce procédé connu est particulièrement coûteux à mettre en ceuvre et ne peut pas s'appliquer à des objets pré-existants quelconques, notamment des objet hétérogènes constitués d'assemblages de
2 pièces, des objets de forme irrégulière, etc.
Za présente invention a notamment pour but de pallier ces inconvénients.
A cet effet, selon l'invention, un procédé du genre en question est caractérisé en ce qu'il comporte une étape de reconnaissance au cours de laquelle on compare le signal capté à au moins un signal prédéterminé correspondant au signal qui est capté lorsqu'on génère un impact sur au moins une zone active appartenant à la surface de l'objet formant interface acoustique (cette comparaison, qui peut être faite aussi bien dans le domaine temporel que dans le domaine fréquentiel, peut éventuellement s'effectuer sur uniquement une partie du signal capté ou sur des données extraites du signal capté après traitement, auquel cas ledit signal prédéterminé peut être réduit à la partie sur laquelle se fait la comparaison ou aux données sur lesquelles se fait la comparaison), et on associe l'impact à ladite zone active si le signal capté est suffisamment voisin dudit signal prédéterminé.
30 Grâce à ces dispositions, on obtient un procédé de positionnement d'impact qui est robuste, adaptable à tous les objets (y compris les objets hétérogènes constitués par assemblage de plusieurs pièces ou par mise en contact de plusieurs pièces), facile et peu coûteux à mettre en ~euvre.
35 Dans des modes de réalisation préférés de l'invention, on peut éventuellement avoir recours en outre à l'une et/ou à l'autre des dispositions suivantes .
- la surface de l'objet formant interface acoustique comporte plusieurs zones actives, et au cours de 30 l'étape de reconnaissance, on compare le signal capté à
plusieurs signaux prédéterminés correspondant chacun au signal capté lorsqu'on génère un impact sur une desdites zones actives ;
- on utilise un seul capteur acoustique ;
35 - on utilise plusieurs capteurs acoustiques et au
3 cours de l'étape de reconnaissance, on capte un signal pour chaque capteur acoustiques et les signaux captés par les différents capteurs acoustiques sont comparés aux signaux prédéterminés indépendamment les uns des autres ;
- les signaux captés par les différents capteurs acoustiques sont comparés aux signaux prédéterminés différemment les uns des autres ;
- on utilise plusieurs capteurs acoustiques mesurant plusieurs grandeurs différentes ;
- on utilise au plus deux capteurs acoustiques ;
- le procédé comprend une étape initiale d'apprentissage au cours de laquelle on détermïne expérimentalement chaque signal prédéterminé en générant au moins un impact sur chaque zone active ;
- chaque signal prédéterminé est un signal théorique (calculé ou déterminé expérimentalement sur un objet identique ou très similaire du point de vue acoustique à celui utilisé) ;
- au cours de l'étape de reconnaissance, on compare le signal capté audit au moins un signal prédéterminé par intercorrélation - au cours de l'étape de reconnaissance, on compare le signal capté audit au moins un signal prédéterminé par un procédé de reconnaissance choisï parmi une reconnaissance vocale, une reconnaissance de signaux, une reconnaissance de forme, et une reconnaissance par réseau neuronal ;
- au cours de l'étape de reconnaissance, on associe le signal capté soit à une seule zone active, soit à aucune zone active - on associe chaque zone active à une information prédéterminée (par exemple, un caractère alphanumérique, une commande, etc.) et lorsqu'on associe l'impact à une zone active, on fait utiliser l'information prédéterminée correspondant à cette zone active par un dispositif
4 électronique ;
- la surface de l'objet formant interface acoustique comporte un nombre n de zones actives, n étant au moins égal à 2, et l'étape de reconnaissance comprend les sous-étapes suivantes .
on procède à une intercorrélation du signal captë
(généralement après normalisation) avec lesdits signaux prédéterminés Ri(t), i étant un entier naturel compris entre 1 et n qui désigne une zone active, et on obtient ainsi des fonctions d'intercorrélation Ci(t), on détermine une zone active j potentiellement activée qui correspond au résultat d'intercorrélation Cj(t) ayant un maximum d'amplitude plus élevée que ceux des autres résultats Ci(t), . on détermine également la distribution D(i) des maxima d'amplitude des résultats d'intercorrélation .
D(i)=Max( (Ci(t)), on détermine également la distribution D'(i) des maxima d'amplitude des résultats d'intercorrélation C'i(t) entre Rj(t) et les différents signaux prédéterminés Rift) .
D' (i)=Max( (C'i(t)), on détermine si l'impact a été généré sur la zone active j en fonction d' un niveau de corrélation entre les distribution D (i) et D' (i) - au cours de l'étape de reconnaissance, on traite le signal capté pour en extraire des données représentatives de certaïnes caractéristiques du signal capté et on compare les données ainsi extraites à des données de référence extraites du signal qui est capté
lorsqu'un impact est généré sur chaque zone active ;
- au cours de l'étape de reconnaissance, on détermine .un code à partir desdites données extraites du signal capté et on compare ce code à une table qui donne une correspondance entre au moins certains codes et chaque zone active ;

- l'objet formant interface acoustique comporte au moins deux zones actives et au cours de l'étape de reconnaissance, on détermine des valeurs de ressemblance représentatives de la ressemblance entre le signal capté et
5 les signaux prédéterminés (notamment une valeur issue de la fonction d'intercorrélation, par exemple son maximum), on associe l'impact avec plusieurs zones actives adjacentes correspondant à un maximum de ressemblance, dites zones actives de référence, puis on détermine la position de l'impact sur la surface en fonction des valeurs de ressemblance attribuées aux zones actives de référence ;
- on détermine la position de l'impact sur la surface de façon que les valeurs de ressemblance attribuées aux zones actives de référence, correspondent le mieux possible à des valeurs de ressemblance théoriques calculées pour lesdites zones actives de référence pour un impact généré dans ladite position sur la surface - les valeurs de ressemblance théoriques sont des fonctions de la position de l'impact sur la surface, déterminëes à l'avance pour opaque ensemble possible de zones actives de référence ;
- on identifie la zone active par comparaison entre la phase des signaux prédéterminés Rift) et du signal capté
- lors de la phase d'apprentissage, on calcule la transformée de Fourier Ri (c~) - I Ri (c~) I . e' '~1~'~~ de chaque signal acoustique Rift) généré par un impact sur la zone active i, où i est un indice compris entre 1 et n, et on ne conserve de cette transformée de Fourier que la composante de phase e~ '~1 ~~'~ , dans les seules bandes de fréquence c~ où
l'amplitude IRi(t~)I est supérieure à un seuil prédéterminé, puis on applique le même traitement à chaque signal acoustique capté S(t) pendant le fonctionnement normal du dispositif ;
- le seuil prédéterminé est égal au maximum de
6 MAX/D et de I B (c~) I ~ où
MAX est choisi parmi la valeur maximale des modules IR~(~)I, la valeur maximale des modules IRi(w)I normalisés chacun en énergie, et la valeur maximale de l'enveloppe de la moyenne des modules IRi(c~)I normalisés chacun en énergie, . D est une constante, I B (c~) I est la moyenne de plusieurs spectres de bruit dans l'objet formant interface acoustique, acquis à
différents instants ;
- pendant le fonctionnement normal du disp~sitif .
on calcule un produit Pi (c~) égal à S' (c~) multiplié
par le conjugué de Ri' (e~) pour références i = 1 ... n, puis on normalise les produits Pi(c~), . on effectue ensuite la transformée de Fourier inverse de tous les produits Pi(e~), et on obtient des fonctions temporelles Xi(t), et on attribue le signal S(t) à une zone active (10) en fonctïon desdites fonctions temporelles Xi(t) - on attribue le signal S(t) à une zone active en fonction des valeurs maximales desdites fonctions temporelles Xi(t).
Par ailleurs, invention a également pour objet un dispositif spécialement adapté pour mettre en oeuvre un procédé d'interfaçage tel que défini ci-dessus.
D'autres caractéristiques et avantages de l'invention apparaîtront au cours de la description suivante de cinq de ses formes de réalisation, données à
titre d'exemples non limitatifs, en regard des dessins j oints .
Sur les dessins .
- la figure 1 est une vue schématique en perspective montrant un exemple de dispositif comprenant une interface acoustique adaptée pour mettre en oeuvre un procédé selon une première forme de réalisation de
7 l'invention, - la figure 2 est un schéma bloc du dispositif de la figure 1, - la figure 3 représente un graphe illustrant un exemple de mëthode qui permet d'associer un impact sur la surface de l'interface acoustique visible sur la figure 1, avec une zone active de cette surface, - la figure 4 représente schématiquement une interface acoustique utilisable dans un dispositif de mise en ouvre d'un procédé selon une deuxième forme de réalisation de l'invention, - la figure 5 est un schéma bloc d'un exemple de dispositif pouvant utiliser l'interface d'entrée de la figure 4, - et les figures 6 à 9 représentent schématiquement des interfaces acoustiques utilisables dans un dispositif de mise en oeuvre d'un procédé selon des troisième, quatrième et cinquième formes de réalisation de l'invention.
Sur les différentes figures, les mêmes références désignent des élêments identiques ou similaires.
La figure 1 représente un dispositif 1 destinë à
mettre en oeuvre la présente invention, qui comporte par exemple .
~5 - une unité centrale 2 de micro-ordinateur, - un écran 3 relié à l'unité centrale 2, - et une interface d'entrée acoustique 4 qui permet de communiquer des informations à l'unité centrale dans l'exemple considéré.
30 L'interface d'entrée acoustique 4 comprend un objet solide 5, constitué ici par une table dans laquelle on fait propager des ondes acoustiques en générant des impacts sur sa surface 9, comme il sera expliqué ci-après.
On notera toutefois que l'objet formant interface 35 acoustique pourrait être constitué par tout autre objet,
8 homogène ou hétérogène, constitué d'une seule pièce ou de plusieurs pièces assemblées ou simplement en contact mutuel, tel que . vitre, porte, fenêtre, tablette portatïve, écran d'ordinateur, panneau d'affichage, borne interactive, jouet, tableau de bord de véhicule, arrière de dossier de siège avant de véhicule automobile ou de siège d'avion, mur, sol, pare-chocs de véhicule (l'information transmise par l'interface acoustique étant alors la position d'un impact sur le pare-chocs), etc..
Au moins un capteur acoustique 6 (un seul capteur 6 dans l'exemple représenté) est fixé à l'objet 5, ce capteur acoustique 6 étant relié par exemple à l'entrée microphonique 7 de l'unité centrale 2, par l'intermédiaire d'un câble 8 ou par tout autre moyen de transmission (radio, infra-rouge ou autre), de façon à capter lesdites ondes acoustiques et les transmettre à l'unité centrale 2.
Ze capteur acoustique 6 peut être par exemple un capteur piézo-électrique, ou autre (par exemple, un capteur capacitif, un capteur magnëtostrictif, un capteur électromagnétique, un vélocimètre acoustique, un capteur optique [interféromètre laser, vibromètre laser, ...], etc.).
Il peut être adapté pour mesurer par exemple les amplitudes des déplacements dus à la propagation des ondes sonores dans l'objet 5 formant interface acoustique, ou encore la vitesse ou l'accélération de tels déplacements, ou bien encore il peut s'agir d'un capteur de pression mesurant les variations de pression dues à la propagation des ondes acoustiques dans l'objet 5.
Sur la surface externe 9 de l'objet 5 (en l'occurrence sur la face supérieure de la table constituant ledit objet 5 dans l'exemple représenté sur la figure 1), sont définies plusieurs zones actives 10, qui peuvent être délimitées par exemple .
- par un marquage physique, amovible ou non, apposé sur la surface 9 de l'objet 5,
9 - ou encore par un marquage lumineux obtenu par projection d'une image sur la surface 9.
La surface 9 pourrait aussi comporter des parties où l'on interdirait de générer un impact par exemple en les recouvrant d'un matériau souple ou simplement inaccessible à l'utilisateur, notamment pour une meilleure fiabilité du système.
Les différentes zones actives 10 peuvent être simplement des portions de la surface 9, identiques au reste de la surface 9. Ces zones actives se différencient toutefois les unes des autres et du reste de la surface 9, dans la mesure où un impact sur une des zones 10 génère un signal acoustique différent du signal généré par un impact sur une autre des zones actives 10 ou sur une autre partie de la surface 9.
Chacune des zones actives 10 est associée à une information prédéterminée qu'un utïlisateur peut vouloir communiquer à l'unité centrale 2. L'information en question peut par exemple être une commande, un chiffre, une lettre, une position sur la surface 9, ou toute autre information pouvant être habituellement transmise à un dispositif électronique tel qu'un micro-ordinateur (ou à l'unité
centrale d'un autre appareil électronique) au moyen des interfaces d'entrées classiques telles que claviers, boutons de commande, souris ou autres.
Les informations en question peuvent éventuellement être indiquées en clair par des marquages 10a sur la surface 9 (comme pour les repères des zones 10, ces marquages peuvent être apposés physiquement sur la surface 9 de manière définitive ou amovible, ou encore ils peuvent être projetés sous forme d'images lumineuses sur ladite surf ace 9 ) .
En variante, la surface 9 de l'objet 5 peut simplement comporter des repères (apposés physiquement ou lumineux) permettant de distinguer les zones actives les unes des autres. Ces repères peuvent par exemple être des numéros ou des couleurs, et leur signification peut éventuellement être rappelée par un affichage généré par l'unité centrale 2 sur l'écran 3.
5 Eventuellement, la surface 9 peut aussi ne comporter aucun marquage, ni pour délimiter les zones actives, ni pour identifier les informations auxquelles elles correspondent, auquel cas les zones actives 10 ne seraient connues que des seuls utilisateurs autorisés du
10 dispositif 1.
On notera que les informations prédéterminées associées à chaque zone active 10 peuvent être sôit toujours les mêmes, soit varier en fonction du déroulement d'un programme dans l'unité centrale 2, soit encore dépendre des actionnements précédents d'autres zones actives 10 (certaines zones actives 10 peuvent par exemple être actionnées pour changer la fonction attribuée à une ou plusieurs zones) actives) 10 actionnëe(s) après elle, de façon, par exemple, à accéder à des fonctions spécifiques, à des caractères .spéciaux, ou encore pour mettre des lettres en majuscules, etc.).
Les différentes zones actives 10 de l'objet 5 constituent donc un véritable clavier virtuel que l'on actionne en tapant sur les zones actives, indifféremment avec l'ongle d'un doigt, avec l'extrémité des doigts, avec un objet tel que stylo, stylet ou autre.
On notera que la surface 9 de l'objet 5 pourrait le cas échéant comporter une seule zone active 10 dans les cas les plus simples, cette zone active 10 ne s'étendant toutefois pas à l' ensemble de la surface 9 et constituant de préférence une faible portion de ladite surface 9.
Comme représenté sur la figure 2, le capteur 6 (SENS.) peut classiquement être relié par intermédiaire de l'entrée 7 à un amplificateur 11 lui-même relié à un convertisseur analogique-numérique 12 (A/D) qui transmet
11 les signaux reçus au processeur 13 de l'unité centrale 2 (CPU) lequel processeur est lui-même relié à une ou plusieurs mémoires 14 (MEM.) et commande l'écran 3 susmentionné (SCR.) ou toute autre interface de sortie renvoyant des informations vers l'utilisateur.
On notera que l'interface acoustique 4 pourrait servir d'interface d'entrée d'informations vers tous autres dispositifs électroniques qu'un micro-ordinateur, par exemple un appareil électronique ménager ou professionnel, un digicode, une unité centrale électronique de véhicule, etc. Dans tous les cas, les signaux électriques générés par le ou les capteurs 6 peuvent être traités soit dans cet appareil électronique, soit dans un dispositif numérique externe de traitement du signal (DSP).
Pendant l'utilisation du dispositif 1 décrit précédemment, lorsqu'un utilisateur génère un impact sur la surface 9 de l'objet 5, cet impact engendre une onde acoustique qui se propage dans l'objet 5 jusqu'au capteur acoustique 6. Le capteur acoustique 6 génère alors un signal électrique S(t) qui, après numérisation, est traité
par le processeur 13 (ou par un autre processeur dédié, interne ou externe à l'unité centrale 2).
Le processeur 13 compare ensuite le signal reçu avec différents signaux prédéterminés appartenant à une bibliothèque de signaux mémorisés préalablement dans la mémoire 14, ces signaux prédéterminés correspondant respectivement à des impacts générés sur les différentes zones actives 10 de l'objet 5.
Cette comparaison permet de savoir si le signal acoustique provient d'une des zones actives 10, et laquelle, quel que soit le mode d'excitation de ladite surface active (impact d'un ongle, d'une extrémité de doigt, d'une paume de main, d'un objet tel qu'un stylo ou un stylet, etc.).
Les signaux prédéterminés de la bibliothèque de
12 signaux peuvent avoir été déterminés au cours d'une phase d'apprentissage initial dans laquelle on génère des impacts successivement sur toutes les zones actives 10 de l'objet 5, en enregistrant les signaux correspondants (de préférence après normalisation, par exemple pour que l'énergie de chaque signal de référence soit égale à 1) reçus dans l'unité centrale 2 par l'intermédiaire du capteur acoustique 6.
En variante, lorsque l'objet 5 a une forme géométrique simple et/ou répétitive, il est possible que les signaux prédéterminés de la bibliothèque de signaux soient obtenus par modélisation ou soient déterminés expérimentalement une seule fois pour tous les objets 5 d'une série d'objets identiques . dans ces deux cas, il n'y aurait donc pas de phase préalable d'apprentissage pour l'objet 5 particulier connecté à l'unité centrale 2, mais simplement installation de la bibliothèque de signaux dans la mémoire 14 de ladite unitë centrale.
On notera que dans certains cas (notamment si l'objet 5 est en bois), on peut faire varier les signaux prédéterminés de la bibliothèque de signaux en fonction des conditions ambiantes, notamment la température et l'humidité. Ces variations peuvent être calculées ou bien résulter d'une nouvelle phase d'apprentissage.
Za comparaison des signaux reçus pendant l'utilisation du dispositif 1, avec les signaux prédéterminés de la bibliothèque de signaux, peut être effectuée .
- directement sur les signaux temporels S(t) reçus du capteur 6, - ou encore sur le spectre en fréquence de ces signaux (par exemple après transformée de Fourier des signaux temporels reçus du capteur 6), - ou sur d'autres données caractéristiques du signal, notamment sa phase.
13 Za comparaison des signaux captés avec les signaux prédéterminés de la bibliothèque de signaux peut être effectuée par tout moyen connu, notamment .
- par intercorrélation, - par des procédés connus de reconnaissance vocale, de reconnaissance de signaux ou de reconnaissance de forme, - par utilisation de réseaux neuronaux, ou autres.
A titre d'exemple plus précis, on peut notamment utiliser, pour reconnaître la zone active 10 d'où vient le signal capté S(t), le procédé suivant .
(1) Après normalisation du signal capté S(t) (par exemple, on calibre S(t) pour que son énergie soit égale à
1), on précède à une intercorrélation du signal S(t) généré
par le capteur 6 avec les n signaux prédéterminés de la bibliothèque également normalisés, notés Rift) avec i=l.. n.
On obtient ainsi des fonctions Ci(t), qui sont les résultats temporels du produit d'intercorrélation du signal S(t) respectivement avec les signaux Rift) de la bibliothèque. A partir de ces calculs, on détermine une zone active potentiellement activée j correspond au résultat d'intercorrélation Cj(t) ayant un maximum d'amplitude plus élevée que ceux des autres résultats Ci (t) .
(2) On détermine également la distribution D(i) des maxima d'amplitude des résultats d'intercorrélation .
D(i)=Max( (Ci(t)) avec ï=l.. n.
(3) On calcule une deuxième fonction de distribution D'(i) obtenue de façon identique au calcul de la fonction D(i) mais en remplaçant S(t) par Rj(t).
(4) On procède à une intercorrélation des distributions des maximas d'amplitudes D(i) et D'(i). Si l'amplitude maximale E du résultat d'intercorrélation entre D(i) et D'(i) est suffisante, alors j est le numéro considéré de la zone activée. Sinon, le signal généré par le capteur
14 correspond à une fausse alerte.
Au cours de cette étape (4), on peut simplement calculer E et la valeur maximale de D(i), soit Max(D(ï)) .
si l'on considère ces deux valeurs comme les coordonnées d'un point dans un espace bidïmensionnel d'axes x=Max(D(i)) et y=E, comme représenté sur la figure 3, on peut déterminer à l'avance (empiriquement ou par le calcul) une courbe seuil Z qui délimite un domaine D correspondant aux points validés (ce domaine est fini et limité à x=1 et y=1, valeurs maximales absolues de D(i) et E. Zes signaux captés qui donnent des points hors du domaine D, quant à eux, sont éliminés comme étant de fausses alertes.
Dans l'exemple considéré, la ligne D est une droite qui peut passer par exemple par les points (S1, 0) et (0, S2). Par exemple, S1=0,4 et S2=0,4 ou 0,6.
On notera qu'en plus d'identifier la zone active 10 d'où vient l'impact, il serait possible de mesurer la force de l'impact, par exemple pour guider l'utilisateur dans sa façon de se servir de l'interface acoustique, ou encore pour moduler l'action déclenchée par un impact sur une zone active 10, selon l'intensité de cet impact.
On notera par ailleurs que la reconnaissance des signaux provenant des zones actives 10 peut éventuellement se faire en utilisant uniquement une partie des signaux S(t) reçus ou une partie de leur spectre en fréquence ou plus généralement une partie de leurs caractéristiques.
Dans ce cas, au cours de l'étape de reconnaissance, on traite le signal capté pour en extraire des données représentatives de certaines caractéristiques du signal capté et on compare les données ainsi extraites à des données de référence extraites du signal qui est capté
lorsqu'un impact est généré sur chaque zone active.
Ainsi, il est par exemple possible de mesurer l'amplitude et la phase du signal pour m fréquences prédéterminées (m étant un entier naturel au moins égal à

1), et de comparer ces amplitudes mesurées a1-am et ces phases mesurées p1-pn avec les amplitudes Ail-Aim et les phases Pi1-Pim mesurées auxdites fréquences prédéterminées à partir des signaux reçus au cours de la phase 5 d'apprentissage (ou déterminés par modélisation) pour les différentes zones actives 10 de numéro i (i étant compris entre 1 et n, où n est le nombre de zones actives 10).
En variante, il est possible de déterminer un code à partir desdites données extraites du signal capté et de 10 comparer ce code à une table qui donne une correspondance entre au moins certains codes et chaque zone active (les codes contenus dans cette table représentent alors les signaux prédéterminés de la bibliothèque de signaux mentionnée précédemment).
15 A titre d'exemple non limitatif, on peut déterminer un code à 16 bits à partir du signal capté S(t), de la façon suivante .
- les 8 premiers bits du code sont déterminés à
partir du spectre en fréquence du signal S(t) que l'on subdivise en 8 tranches fréquentielles prédéterminées [fk, fx+i]. k=1..8 . le bit de rang k est égal à 1 par exemple si la valeur finale d'énergie donnée par le spectre à la fréquence fk+1 est supérieure à la valeur moyenne d'énergie de l'onde acoustique dans la tranche de fréquence [fk, fk+1], et ce bit vaut 0 dans le cas contraire ;
- les 8 derniers bits du code sont déterminés à
partir du signal temporel S(t) que l'on subdivise en 9 tranches temporelles prédéterminées [tk, tk+1]. k=1..9 . le bit de rang k+8 est égal à 1 par exemple si la valeur moyenne de la puissance du signal pendant l'intervalle de temps [tk, tk+z] est supérieure à la valeur moyenne de la puissance du signal pendant l'intervalle de temps [tk+i.
tk+~], pou k=1..8, et ce bit vaut 0 dans le cas contraire.
Dans cet exemple particulier, les codes de la table de correspondance seraient déterminés lors de la phase
16 d'apprentissage, en calculant comme indiqué ci-dessus les codes qui correspondent aux signaux captés par le capteur acoustique 6 lorsqu'on génère des impacts sur les différentes zones actives 10.
Par ailleurs, comme représenté sur les figures 4 et 5, il peut être possible d'utilïser deux capteurs acoustiques 6 (SENS.1 et SENS.2), notamment lorsque l'objet 5 présente des symétries telles qu'il puisse exister un risque de confusion entre les signaux provenant de deux zones actives 10 différentes. Ze cas échéant, on pourrait utiliser plus de deux capteurs acoustiques 6, bien que les solutions préférées fassent appel à un ou deux capteurs 6.
Lorsque deux capteurs ou plus sont utilisés, deux choix sont possibles .
1) mélange des signaux des différents capteurs et traitement du signal global suivant le procédé décrit ci-dessus.
2) ou, de façon préférée, traitement individuel des signaux des différents capteurs avec le procédé décrit ci dessus et recoupement des résultats .
- si les zones actives 10 déterminées à partir des différents capteurs ont des numéros identiques alors on détermine que la zone qui a reçu un impact est celle-ci, - dans les autres cas, on peut soit considérer le signal capté comme étant une fausse alerte, soit déterminer la zone qui a reçu un impact par exemple par intercorrélation entre les fonctions d'intercorrélation Ci(t) déterminées pour chaque capteur, ou par des moyens plus complexes tels que réseaux de neurones ou autres.
On notera que les deux capteurs acoustiques peuvent être de types différents et/ou capter des grandeurs différentes et/ou leurs signaux peuvent être traités différemment pour identifier les zones actives 10 recevant des impacts. Par exemple, l'un des capteurs acoustiques peut servir à enregistrer le signal S(t) reçu, tandis que
17 l'autre peut servir uniquement à déterminer un décalage temporel entre l'arrivée de l'onde acoustique sur les deux capteurs.
Ze second capteur pourrait par ailleurs ne pas capter l'onde acoustique propagée dans l'objet solide 5, mais l'onde acoustique propagée dans l'air lors de l'impact.
Comme représenté sur la figure 6, l'objet formant interface acoustique peut être constitué par un écran d'ordinateur 3 ou un écran de télévision auquel on fixe le capteur 6. Za surface recevant les impacts peut être avantageusement la vitre 15 de l'écran, ce qui peut permettre notamment de faire afficher par l'écran 3 la délimitation des zones actives 10 et leur signification.
Cette variante serait utilisable par exemple pour programmer un magnétoscope, notamment dans le cas où
l'écran 3 serait un écran de télévision (l'unité centrale 2 serait alors remplacée par le magnétoscope).
Comme représenté sur la figure 7, l'objet formant interface acoustique peut également être constitué par une porte vitrée 16 ou similaire. Dans l'exemple représenté sur la figure 7, la surface 17 qui porte les zones actives 10 est constituée par la surface vitrée de la porte, et, toujours dans l'exemple particulier représenté sur cette figure, le capteur acoustique 6 est fixé sur une partie en bois de la porte 16.
Dans l' exemple représenté sur la figure 8, l' objet formant interface acoustique est une tablette 18 conçue spécifiquement pour servir d'interface acoustique. Cette tablette peut par exemple comporter un cadre rigide 19 solidaire d'un fond 20 également rigide qui porte le capteur acoustique 6.
Une membrane souple 22, réalisée par exemple en élastomère, est tendue sur le cadre 19 à faible distance au-dessus du fond 21. Cette membrane souple 22 est pourvue
18 de picots rigides 23 sous sa face inférieure (il peut s'agir par exemple de demi-sphères de verre qui sont collées sous la membrane 22). Ainsi, lorsqu'un utilisateur tape sur la membrane 22 et notamment sur une zone active 10 portée par cette membrane, cette action génère un impact d'au moins un picot 23 sur le fond 21 du cadre de la tablette 18. Cette variante présente l'avantage de produire des impacts dépendants relativement peu de la façon dont l'utilisateur tape sur la membrane 22 (avec le doigt ou l'ongle ou un outil, avec plus ou moins de force, etc.).
Dans les modes de réalisation des figures 6 à 8, le procédé mïs en oeuvre peut être ïdentique ou similaire à
celui décrit précédemment et permettre de faire correspondre un impact généré sur la surface de l'objet formant interface acoustique, soit avec une zone active 10, soit avec aucune zone active.
Mais il est aussi possible, dans tous les modes de réalisation de l'invention faisant appel à plusieurs surfaces actives (éventuellement ponctuelles), de déterminer la position de l'impact sur la surface 9 de l'objet 5 formant interface acoustique (voir l'exemple de la figure 9), même lorsque cet impact n'est pas sur une des zones actives. On obtient ainsi une interface acoustique continue ou pseudo-continue (permettant un fonctionnement similaire par exemple à une souris d'ordinateur, à un crayon optique, à un écran tactile ou similaires).
Dans ce cas, au cours de l'étape de reconnaissance .
- on détermine des valeurs de ressemblance représentatives de la ressemblance entre le signal capté et les signaux prédéterminés (notamment des valeurs issues de des fonctions d'intercorrélation Ci(t) susmentionnées, par exemple leur maxima D(i) dëfini ci-dessus), - on associe l'impact avec un nombre p au moins égal à 2 de zones actives adjacentes correspondant à un
19 maximum de ressemblance, dites zones actives de référence R1-R4 (p peut valoir avantageusement 4 notamment pour positionner l'impact selon deux dimensions x, y, ou le cas échéant moins de 4 notamment si l'impact ne doit être positionné que selon une seule dimension x ou y) : on peut par exemple déterminer en premier lieu la zone R1 comme étant la zone active 10 ayant la valeur ressemblance D(i) maximale, puis déterminer, parmi les zones actives adjacentes à R1, les trois zones R2-R4 qui donnent les valeurs les plus élevées de la valeur de ressemblance D (i) ) ;
- puis on détermine la position de l'impact I sur la surface 9 en fonction des valeurs de ressemblance D(i) attribuées aux zones actives de référence R1-R4.
Au cours de cette dernière étape, on peut avantageusement déterminer la position de l'impact sur la surface de façon que les valeurs de ressemblance attribuées aux zones actives de référence, correspondent le mieux possible à des valeurs de ressemblance théoriques calculées pour lesdites zones actives de référence pour un impact généré dans ladite position sur la surface.
Ces valeurs de ressemblance théoriques peuvent notamment étre des fonctions de la position de l'impact sur la surface, dêterminées à l'avance pour chaque ensemble possible de zones actives de référence.
Zes fonctions en question peuvent être déterminées lors de l'étape d'apprentissage, par exemple en ajustant une fonction-type sur les valeurs de ressemblance des zones actives entre elles. Za fonction-type en question peut dépendre de la forme de l'objet et être déterminée à
l'avance, soit de façon théorique, soit expérimentalement.
Pour prendre un exemple concret, la fonction de ressemblance théorique Rth(X,Y) entre deux points X, Y de la surface 9 peut correspondre au maximum de la fonction d'intercorrélation entre les signaux Sx(t) et Sy(t) captés par le capteur 6 respectivement lorsque des impacts sont générés en ces deux points X, Y, et cette fonction peut par exemple être du type Rth(X, Y)=(sin(a((3) .d)) / (a((3) .d), approximé par exemple par Rth (X, Y) =1- [a ((3) . d] 2/6, où
5 - d est la distance entre X et Y, - (3 est un angle entre par exemple l'axe x (ou l'axe y) et la direction X-Y, - et a ((3) est un coefficient dépendant de l' angle (3 selon une fonction elliptique .
10 a((3)=al.cos((3+(30)+a2.sin( ((3+(30), où (30 est un angle représentatif de l'orientation de l'ellipse.
On peut déterminer la fonction Rth pour chaque ensemble possible de zones actives de références R1-R4, à
15 partir des signaux prëdéterminés Rift) de la bibliothèque de signaux, captés en générant des impacts respectivement sur ces zones actives de référence au cours de la phase d'apprentissage.
A cet effet, pour un ensemble donné de quatre zones
20 de référence R1-R4, on peut calculer le maximum de la fonction d'intercorrélation du signal R1(t) correspondant à
R1, avec chacun des signaux R2(t), R3(t), R4(t) correspondant aux zones R2-R4. On en déduit des valeurs de a1, a2 et (30. On peut procéder ensuite de même à partir des zones de référence R2, R3 et R4, ce qui donne à chaque fois des valeurs de a1, a2 et (30, puis prendre la moyenne des quatre valeurs ainsi trouvées respectivement pour a1, a2 et ~i0 . ces valeurs moyennes déterminent alors 1a fonction Rth pour l'ensemble de zones de référence R1-R4. En variante, la fonction Rth pourrait être déterminée par un processus itératif d'optimisation (de type méthode des moindres carrés) pour minimiser une fonction d'erreur entre la fonction de ressemblance théorique et les maxima des
21 fonctions d'intercorrélation entre les signaux R1(t), R~ ( t ) , R3 ( t ) et R4 ( t ) pri s deux à deux .
Une fois déterminées les fonctions de ressemblance théoriques Rth susmentionnées, lorsqu'on cherche à
déterminer la position d'un impact I entre quatre zones actives adjacentes R1-R4 (avantageusement ponctuelles), cette position peut par exemple être déterminée par un processus itératif d'optimisation en minimisant une fonction d'erreur entre les valeurs D(i) définies précédemment (D(i)=Max(Ci(t)) i étant ici le numéro de la zone active de référence Ri considérée) et les valeurs de ressemblance théorique Rth(I, Ri). Par exemple, on peut minimiser une fonction d'erreur E égale à la somme des valeurs (D(i)-Rth(I, Ri))2.
Le procédé qui vient d'être décrit ne se limïte bien entendu pas aux exemples qui viennent d'être décrits ;
il a de nombreuses applications, parmi lesquelles .
- l'utilisation de vitres ou d'autres surfaces à
titre d'interface d'entrée 4, dans des magasins, des musées, des galeries d'art, ou autres pour permettre aux clients ou aux visiteurs de se faire présenter des détails sur un écran ou au moyen d'un haut parleur concernant les produits ou les oeuvres exposés, - l'utilisation de vitres ou autres surfaces de panneaux d'affichage comme interfaces d'entrée 4, permettant aux passants de se faire présenter par exemple des détails sur les publicités en cours d'affichage, ou encore de se faire présenter des informations générales concernant une commune ou un autre lieu (par exemples, des actualités ou des informations pratiques, par exemple un plan du lieu), ou autres, ces détails ou informations étant présentés par exemple sur un écran visible en partie inférieure du panneau d'affichage, - l'utilisation de parties de murs, du sol, ou de tout autre objet comme interface d'entrée 4 par exemple
22 pour commander des systèmes domotiques (on peut ainsi notamment permettre aux habitants d'un appartement de déterminer eux-mémes les emplacements des interrupteurs, constïtués simplement par les zones actives 10 susmentionnées, positionnées sur les murs ou autres aux endroits souhaités), - l'utilisation de parties de murs, du sol, ou de tout autre objet comme interface d'entrée 4 par exemple pour commander des machines industrielles notamment en milieu hostile (lieux contenant des explosifs, lieux à
température élevée, lieux à radioactivitë élevée, etc.), - l'utilisation de surfaces lisses et faciles d'entretien comme interface d'entrée 4, pour constituer des claviers d'entrée d'objets domestiques tels que réfrigérateur, machine à laver ou autres, - l'utilisation de panneaux de portes d'immeubles comme interfaces d'entrée 4, constituant par exemple des claviers virtuels de digicode, - l'utilisation du sol pour localiser la position d'une personne marchant dessus, - la réalisation de claviers ou panneaux de commande insensibles aux pollutions, intempéries ou aux autres agressions extérieures, dans des applications industrielles, militaires ou même domestiques (le ou les capteurs acoustiques peuvent éventuellement être totalement intégrés à l'objet qui sert d'interface d'entrée, notamment s'il s'agit d'un objet au moins partiellement moulé en matière plastique) ; lorsque ces interfaces d'entrée doivent commander un dispositif (par exemple un micro-ordinateur) comprenant un écran de visualisation, le clavier ou panneau de commande acoustique peut être constitué par l'écran lui-même ou par une paroi transparente recouvrant cet écran.
- la réalisation d'interfaces d'entrée dans des automobiles ou autres véhicules.
23 On notera par ailleurs que l'interface d'entrée 4 décrite précédemment pourrait être dotée de moyens de traitement permettant d'effectuer localement la reconnaissance des signaux acoustiques S(t) provenant des zones actives 10, l'interface d'entrée 4 envoyant alors directement à l'unité centrale 2, ou à tout autre appareil électronique utilisateur, uniquement des signaux codés indiquant directement quelle zone active 10 a été touchée par l'utilisateur et le cas échéant des informations relatives à l'impact: force de l'impact et nature de l'impact.
On notera que le procédé selon l'invention ne requiert pas que l'objet 5 présente une structure homogène ou prédéterminée, ou soit réalisé avec un soin particulier, ou soit réalisé avec des dimensions très précises, ou avec des états de surface spëcifiques. Bien au contraire, plus l'objet 5 est hétérogène et/ou irrégulier, plus les signaux acoustiques ëmis par les différentes zones actives 10 seront différents les uns des autres, et meilleure sera la reconnaissance des signaux acoustiques. On peut même dans certains cas créer volontairement des hétérogénéité telles que cavités ou autres dans l'objet 5 pour faciliter la reconnaissance des signaux acoustiques provenant des zones actives 10.
Par ailleurs, lorsque les signaux prédéterminés de la bibliothèque de signaux sont déterminés au cours d'une phase d'apprentissage, il est possible d'utiliser un capteur piézo=électrique relié par tous moyens connus à
l'unité centrale 2 et fixé soit au doigt de l'utilisateur, soit à l'objet (stylet ou autre) utilisé pour générer des impacts sur les zones actives de l'objet 5. Dans ce cas, le signal impulsionnel généré par le capteur piézo-électrique lors de chaque impact peut être utilisé pour déclencher l'acquisition du signal acoustique prédéterminé destiné à
alimenter la bibliothèque de signaux, et/ou pour mesurer l'intensité de l'impact, cette mesure d'intensité pouvant être utilisée par exemple pour invalider certaines acquisitions de signaux prédéterminés notamment lorsque l'intensité est ïnférieure à un seuil prédéterminé ou lorsque cette intensité n'est pas comprise dans un intervalle prédéfini.
Par ailleurs, lorsque les signaux prédéterminës de la bibliothèque de signaux sont déterminés au cours d'une phase d'apprentissage, il peut être avantageux de ne retenir que les signaux acoustiques captés dont l'amplitude est supérieure à un premier seuil de référence relativement élevé. Dans ce cas, pendant le fonctionnement normal du dispositif, on peut ensuite prendre en compte les signaux acoustiques dont l'amplitude dépasse un deuxième seuil prédêterminé nettement inférieur au premier seuil. Le premier seuil prédéterminé peut ainsi être égal à plusieurs fois (au moins deux à trois fois) la valeur moyenne temporelle de l'amplitude absolue du bruit ambiant, mesuré
par exemple sur quelques secondes, tandis que le deuxième seuil prédéterminé peut par exemple être égal à 1,5 fois cette valeur moyenne. De cette façon, on n'enregistre que des signaux de référence de bonne qualité lors de la phase d'apprentissage, tout en conservant une grande sensibilitë
du dispositif pendant son fonctionnement normal.
35 Le cas échéant, l'unité centrale 2 peut être dotée d'un clavier auxiliaire de programmation (non représenté) qui peut être utilisé notamment pendant la phase d'apprentissage, pour indiquer par exemple quel type de signal est généré. Le type de signal généré peut notamment être l'un des types suivants .
- nouveau signal en remplacement d'un des signaux de référence de la bibliothèque de signaux (l'identification du signal de référence remplacé peut ainsi être communiquée à l'unité centrale 3 au moyen du clavier auxiliaire), - nouveau signal de référence (soit pour une bibliothèque de référence préexistante mais incomplète, soit pour une nouvelle bibliothèque de référence correspondant notamment à de nouvelles conditions de 5 température, d'humidité ou d'état de l'objet 5), - nouveau signal destiné à vérifier un signal de référence déjà existant dans une bibliothèque de signaux.
Par ailleurs, lorsque les signaux prédéterminés de la bibliothèque de signaux sont déterminés au cours d'une 10 phase d'apprentissage, il peut être prévu le cas échéant de ne valider les signaux de référence de cette bibliothèque que lorsque ils sont confirmés par génération d'un ou plusieurs impacts ( s ) sur la même zone active, dans un laps de temps prédéterminé suivant la gënération d'un premier 15 impact.
Lorsque les signaux prédéterminés de la bibliothèque de signaux sont déterminés aux cours d'une phase d'apprentissage, les impacts générés sur l'objet 5 au cours de cette phase d'apprentissage peuvent être générës .
20 - soit avec un objet dur tel qu'un stylet, auquel cas le même stylet sera de préférence utilisé pendant le fonctionnement normal du dispositif, - soit avec un objet plus amortissant tel que par exemple une gomme plastique dure fixée à l'extrémité d'un 25 stylo ou similaire (les inventeurs ont ainsi pu obtenir de bons résultats avec une gomme plastique dure pour transparents de marque "Staedler"), auquel cas les impacts sur l'objet 5 peuvent ensuite être générés aussi bien avec des objets relativement durs qu'avec des objets moins durs (ongle du doigt, pulpe du doigt ou autre) pendant le fonctionnement normal du dispositif.
Par ailleurs, en variante du procédé décrit précédemment pour reconnaître la zone active 10 d'où vient le signal capté S(t), il est possible d'utiliser le procédé
suivant .

(1) lors de la phase d'apprentissage, on calcule la transformée de Fourier Ri(c~) de chaque signal acoustique Ri f t ) généré par un impact sur la zone active ï, où i est un indice compris entre 1 et n .
Ri (~) - ~ Ri (~) ~ . e~ '~i(w) On ne conserve de cette transformée de Fourier que la composante de phase, dans les seules bandes de fréquence c~ où l'amplitude du spectre est supérieure à un seuil prédéterminé.
La forme fréquentielle du signal de référence conservé s' exprime donc sous la forme R' i (c~) - e~ '~i(w) pour les fréquences c~ auxquelles ~ Ri (c~) ~ est supérieur au seuil prédéterminé, et R' i (c~) - 0 aux autres fréquences c~.
Le seuil prédéterminé en question peut être par exemple égal au maximum de MAX/D et de ~B(c~)~, où .
- MAX peut être soit la valeur maximale de ~ Ri (c~) ~ , soit la valeur maximale des modules ~ Ri (c~) I
normalisés chacun en énergïe, soit la valeur maximale de l'enveloppe de la moyenne des modules~Ri(c~)~ normalisés chacun en énergie, - D est une constante, par exemple égale à 100, - ~B(c~)~ est la moyenne de plusieurs spectres de bruit dans l'objet 5, acquis à différents instants.
(2) Pendant le fonctionnement normal du dispositif, chaque signal capté S(t) subit le même traitement qu'à
l'ëtape (1) ci-dessus, de sorte que l'on obtient un signal S' (e~) - e~'~(w) pour les fréquences c~ auxquelles ~ S (c~) ~ est supérieur au seuil prédéterminé susmentionné, S'(c~) étant égal à 0 aux autres fréquences.
(3) On calcule ensuite un produit Pi(c~) égal à
S' (c~) multiplié par le conjugué de R' (c~) pour i = 1 ...n.
( 4 ) On normalise les produits Pi (c~) en les divisant par leurs intégrales.
(5) On effectue ensuite la transformée de Fourier inverse de tous les produits Pi(c~), et on obtient des fonctions temporelles X;, (t) .
Suivant les différentes fonctions Xi(t), et notamment suivant leur maximum, on peut alors attribuer le signal S (t) à une des zones actives 10. A titre d' exemple, on peut calculer la valeur maximale (en valeur relative ou en valeur absolue), des différentes fonctions X;,(t), et attribuer le signal S(t) à la zone active i qui correspond à la fonction Xi(t) présentant le plus grand maximum.
Éventuellement, on peut également comparer le maximum de la fonction X;,(t) retenue avec un seuil défini à l'avance, par exemple égal à 0,6, et dëcider que le signal S(t) doit être attribué à la zone i lorsque le maximum de Xi(t) est supérieur à ce seuil (si plusieurs fonctions Xi(t) ont leur maximum supérieur à 0,6, on ne conserve alors que la fonction Xi(t) de plus grand maximum).
Il est possible éventuellement de vérifier que l'attribution du signal S(t) à la zone active i est correct, par exemple en calculant une valeur MMi = Mi/M où
Mi est le maximum de la valeur absolue de Xi(t)et M est la valeur moyenne de toutes les valeurs Mi. L'attribution du signal S (t) à la zone active i peut alors être considérée comme correcte si cette valeur MMi est supérieure à une certaine limite, égale par exemple à 1,414.
On notera par ailleurs que les valeurs MMi susmentionnées peuvent être calculées en remplaçant S'(c~) par R'i(c~),de façon à obtenir une information sur la résolution spatiale des zones actives. En particulier, on peut ainsi vërifier qu'une zone active d'indice i ne risque pas d'être confondue avec une autre, en vérifiant que la valeur MMi correspondante est supérieure à une limite prédéterminée, par exemple supérieur à 1,414.
Par ailleurs, il est également possible de tenir compte de différents paramètres d'ambiance (température, hygrométrie, contraintes mécaniques, etc.) en modifiant les signaux prédéterminés de la bibliothèque de signaux en fonction du ou des paramètres d'ambiance.
A cet effet, on peut faire appel à l'une des méthodes de correction suivantes .
- dilation ou contraction temporelle linéaire des signaux de référence de la bibliothèque de signaux . dans ce cas, les signaux de référence Ri(t)de la bibliothèque de signaux sont remplacés par des signaux Ri (at) , ou a est un coefficient multiplicateur positif non nul qui est fonction des paramètres d'ambiance, ce coefficient ex pouvant être déterminé théoriquement, ou encore expérimentalement pour un matériau donné, ou encore expérimentalement pour chaque obj et 5 ;
- dilatation ou contraction temporelle linéaire des~signaux captés S(t) . dans ce cas, les signaux de référence Rift) sont laissés inchangés, mais le signal capté S(t) est remplacé par S(at)où a est un coefficient tel que défini ci-dessus ;
- dilatation ou contraction non linéaire en fréquence des signaux de référence . dans ce cas, on remplace les signaux fréquentiels R' i (c~) par R' i (ca' ) , avec z w'= ~~ , où c~N est égal à la moitié de la 1+ (wl~N).(y1) fréquence d'échantillonnage du dispositif de traitement, et (3 est un coefficient déterminé de façon théorique ou expérimentale ;
- Dilation ou contraction non linéaire en fréquence du signal capté S(t) . dans ce cas, les signaux de référence de la bibliothèque de signaux sont laissés inchangés, et le signal S' (c~) est remplacé par S' (c~' ) , c~' étant défini ci-dessus.
Dans les deux cas susmentionnés de dilatation ou contraction non linéaire en fréquence, il est possible en outre de faïre appel à une correction de phase moyennée, auquel cas les signaux Ri (w') sont remplacés par Ri (c~' ) .M' (c~) /N' (c~) ou les signaux S (c~' ) sont remplacés par S (c~' ) .M' (c~) /N' (c~) . Dans l' une ou l' autre de ces formules, N' (w) =M (c~) / i M (c~) I , et ~ N' (c~) =N (c~) / I N (c~) I , M
(c~) étant égale à la moyenne de tous les Ri (c~) et N (e~) étant égal à la moyenne de tous les Ri (c~' ) .
Les différentes corrections susmentionnées des signaux de référence Ri (c~) ou du signal capté S (c~) peuvent être effectués soit de façon automatique par l'unité
centrale 2, notamment en fonction d'informatïons données par un ou plusieurs capteurs (non représentés), ou manuellement par l'utilisateur.
Par ailleurs, on notera que l'unité centrale 2 peut comporter plusieurs bibliothèques de signaux de références adaptés à différentes valeurs des paramètres d'ambiance.
Par ailleurs, pour s'adapter aux types d'impacts générés lors de l'utilisation du dispositif, et notamment pour s'adapter à l'utilisation soit d'un doigt de l'utilisateur, soit d'un autre objet pour générer les impacts, il peut être avantageux de demander à
l'utilisateur de générer des impacts sur une ou plusieurs zones actives 10 prédéterminées, par exemple deux zones actives d'indices m et p. On capte ainsi deux signaux temporels Sm(t) et Sp(t), dont on calcule les transformées de Fourier Sm ( c~ ) et SP ( c~ ) , puis on calcule la moyenne Ml (c~) des deux termes suivants ~5 - (Rm(~) ~ Ism(~) I ) / ( IRm(~) I .Sm(~) ) r - et (Rp (e~) . I Sp (c~) I ) / ( I Rp (~) I . Sp (~) ) .
Cette moyenne M1(c~) est ensuite utilisée à l'étape (3) définie précédemment pour remplacer le produit Pi(c~) par M1 (c~) . Pi (c~) , ce produit étant ensuite utilisé à la place de Pi(e~)à l'étape (4) .
Par ailleurs, on notera que l'invention permet à un utilisateur de définir à sa guise des zones actives, et l'unité centrale 2 peut être adaptée pour maintenir active cette définition des zones actives uniquement pendant l' utilisation effective de l' obj et 5 comme interface acoustique. Dans ce cas, la définition susmentionnée des zones actives est effacée par l'unité centrale 2 après une certaine période d'inutilisation du dispositif.
On notera également que la fonction générée par un 5 impact sur une zone active peut être modulé le cas échéant en fonction de l'ïntensité de cet impact.
On notera également que, lorsque l'objet 5 présente des phénomènes de résonance qui entraînent des propagations prolongées d'ondes acoustiques à chaque impact sur les 10 zones actives, il peut être avantageux de rehausser le seuil de détection des signaux acoustiques S(t) (par exemple jusqu'à 0,5 fois la valeur maximale admissible par le système électronique d'acquisition du signal S(t)) lorsque un signal S (t) a été détecté, puis de rabaisser ce 15 seuïl de détection (notamment de façon exponentielle) jusqu' à son niveau normal . ainsi, on évite des détections multiples d'un même impact.
On notera que, dans tous les modes de réalisation de l'invention, il serait éventuellement possible de 20 définir une seule zone active sur l'objet 5, auquel cas il est néanmoins possible de coder plusieurs fonctions sur cette zone active unique, par exemple suivant le nombre d'impacts générés consécutivement sur la même zone.
Par ailleurs, les zones actives 10 peuvent 25 éventuellement ne pas être définies à l'avance, mais être simplement définies en fonction des impacts successifs reçus lors de l'utilisation du dispositif. Ainsi, le dispositif peut par exemple être conçu pour comporter trois zones actives, qui sont simplement définïes chacune à la 30 réception d'un premier impact sur chaque zone, et qüi sont ensuite reconnues comme "première zone", "deuxième zone", et "troisième zone", à réception des impacts suivants.
Par ailleurs, lorsque les zones actives sont très nombreuses, on peut le cas échéant faire appel à un dispositif automatisé pour générer les signaux de référence stockés dans la bïbliothèque de signaux au cours de la phase d'apprentissage. Ce dispositif automatisé pourrait par exemple comporter un système de déplacement à deux dimensions, comportant deux moteurs pas à pas, pour déplacer par exemple un stylet d'excitation ou similaïre à
la surface de l'objet 5 et pour générer des impacts au moyen de ce stylet, actionné par exemple par un solénoïde, au niveau des différentes zones actives.
Toujours dans le cas où les zones actives 10 sont très nombreuses, il peut être possible de les répartir en plusieurs groupes de ressemblance. Dans ce cas, lors de l'utilisation courante du dispositif, lorsqu'un impact génère un signal S(t), un premier traitement permet de rattacher ce sïgnal S(t) à l'un des groupes de ressemblance, puis un traitement affiné permet d'affecter ce signal S(t) à l'une des zones actives de ce groupe de ressemblance.
On notera aussi que la même unité centrale 2 pourrait le cas échéant traiter les signaux provenant de plusieurs objets 5. De plus, il est également possible d'interfacer directement le ou les capteurs acoustiques avec un réseau notamment IP, de façon à diriger les signaux captés vers une adresse IP unique à partir de laquelle ces signaux peuvent être exploités par n'importe quel ordinateur connecté au réseau IP.

Claims (26)

REVENDICATIONS
1. Procédé dans lequel on localise un impact sur une surface (9, 15, 17, 22) appartenant à un objet (5, 3, 16, 18) formant interface acoustique, doté d'au moins un capteur acoustique (6), procédé dans lequel on capte au moins un signal à partir d'ondes acoustiques générées dans l'objet formant interface acoustique (5, 3, 16, 18) par ledit impact et on localise l'impact par traitement dudit signal capté, caractérisé en ce qu'il comporte une étape de reconnaissance au cours de laquelle on compare le signal capté
à au moins un signal prédéterminé correspondant au signal qui est capté lorsqu'on génère un impact sur au moins une zone active (10) appartenant à la surface de l'objet formant interface acoustique (5, 3, 16, 18), et on associe l'impact à
ladite zone active (10) si le signal capté est suffisamment voisin dudit signal prédéterminé.
2. Procédé selon la revendication 1, dans lequel la surface de l'objet formant interface acoustique comporte plusieurs zones actives (10), et au cours de l'étape de reconnaissance, on compare le signal capté à plusieurs signaux prédéterminés correspondant chacun au signal capté lorsqu'on génère un impact sur une desdites zones actives (10).
3. Procédé selon la revendication 1 ou la revendication 2, dans lequel on utilise plusieurs capteurs acoustiques (6) et au cours de l'étape de reconnaissance, on capte un signal pour chaque capteur acoustiques et les signaux captés par les différents capteurs acoustiques sont comparés aux signaux prédéterminés indépendamment les uns des autres.
4. Procédé selon l'une quelconque des revendications 1 à 3, dans lequel on utilise plusieurs capteurs acoustiques (6) et au cours de l'étape de reconnaissance, on capte un signal pour chaque capteur acoustiques et les signaux captés par les différents capteurs acoustiques sont comparés aux signaux prédéterminés différemment les uns des autres.
5. Procédé selon l'une quelconque des revendications 1 à 4, dans lequel on utilise plusieurs capteurs acoustiques (6) mesurant plusieurs grandeurs différentes.
6. Procédé selon l'une quelconque des revendications 1 à 5, dans lequel on utilise au plus deux capteurs acoustiques.
7. Procédé selon la revendication 1 ou la revendication 2, dans lequel on utilise un seul capteur acoustique (6).
8. Procédé selon l'une quelconque des revendications 1 à 7, comprenant une étape initiale d'apprentissage au cours de laquelle on détermine expérimentalement chaque signal prédéterminé en générant au moins un impact sur chaque zone active (10).
9. Procédé selon l'une quelconque des revendications 1 à 8, dans lequel chaque signal prédéterminé est un signal théorique.
10. Procédé selon l'une quelconque des revendications 1 à 9, dans lequel au cours de l'étape de reconnaissance, on compare le signal capté audit au moins un signal prédéterminé
par intercorrélation.
11. Procédé selon l'une quelconque des revendications 1 à 9, dans lequel au cours de l'étape de reconnaissance, on compare le signal capté audit au moins un signal prédéterminé
par un procédé de reconnaissance choisi parmi une reconnaissance vocale, une reconnaissance de signaux une reconnaissance de forme, et une reconnaissance par réseau neuronal.
12. Procédé selon l'une quelconque des revendications 1 à 11, dans lequel au cours de l'étape de reconnaissance, on associe le signal capté soit à une-seule zone active, soit à aucune zone active.
13. Procédé selon la revendication 12, dans lequel on associe chaque zone active à une information prédéterminée et lorsqu'on associe l'impact à une zone active, on fait utiliser l'information prédéterminée correspondant à cette zone active par un dispositif électronique.
14. Procédé selon l'une quelconque des revendications 12 et 13, dans lequel la surface (9, 15, 17, 22) de l'objet formant interface acoustique comporte un nombre n de zones actives (10), n étant au moins égal à 2, et l'étape de reconnaissance comprend les sous-étapes suivantes :
- on procède à une intercorrélation du signal capté avec lesdits signaux prédéterminés Ri (t), i étant un entier naturel compris entre 1 et n qui désigne une zone active, et on obtient ainsi des fonctions d'intercorrélation Ci(t), - on détermine une zone active j potentiellement activée qui correspond au résultat d'intercorrélation Cj(t) ayant un maximum d'amplitude plus élevée que ceux des autres résultats Ci(t), - on détermine également la distribution D(i) des maxima d'amplitude des résultats d'intercorrélation D(i)=Max( (Ci(t)), - on détermine également la distribution D'(i) des maxima d'amplitude des résultats d'intercorrélation C'i(t) entre Rj(t) et les différents signaux prédéterminés Ri(t) D'(i)=Max( (C'i(t)), - on détermine si l'impact a été généré sur la zone active j en fonction d'un niveau de corrélation entre les distribution D(i) et D'(i).
15. Procédé selon l'une quelconque des revendications 12 et 13, dans lequel au cours de l'étape de reconnaissance, on traite le signal capté pour en extraire des données représentatives de certaines caractéristiques du signal capté et on compare les données ainsi extraites à
des données de référence extraites du signal qui est capté
lorsqu'un impact est généré sur chaque zone active.
16. Procédé selon la revendication 15, dans lequel au cours de l'étape de reconnaissance, on détermine un code à partir desdites données extraites du signal capté et on compare ce code à une table qui donne une correspondance entre au moins certains codes et chaque zone active.
17. Procédé selon l'une quelconque des revendications 1 à 14, dans lequel l'objet formant interface acoustique (5, 3, 16, 18) comporte au moins deux zones actives (10) et au cours de l'étape de reconnaissance, on détermine des valeurs de ressemblance représentatives de la ressemblance entre le signal capté et les signaux prédéterminés, on associe l'impact (I) avec plusieurs zones actives adjacentes (R1-R4) correspondant à
un maximum de ressemblance, dites zones actives de référence, puis on détermine la position de l'impact (I) sur la surface en fonction des valeurs de ressemblance attribuées aux zones actives de référence (R1-R4).
18. Procédé selon la revendication 17, dans lequel on détermine la position de l'impact (I) sur la surface de façon que les valeurs de ressemblance attribuées aux zones actives de référence (R1-R4), correspondent le plus possible à des valeurs de ressemblance théoriques calculées pour lesdites zones actives de référence pour un impact généré dans ladite position sur la surface.
19. Procédé selon la revendication 18, dans lequel on détermine la position de l'impact (I) sur la surface de façon que les valeurs de ressemblance attribuées aux zones actives de référence (R1-R4), correspondent le mieux possible à des valeurs de ressemblance théoriques calculées pour lesdites zones actives de référence pour un impact généré dans ladite position sur la surface.
20. Procédé selon la revendication 19, dans lequel les valeurs de ressemblance théoriques sont des fonctions de la position de l'impact sur la surface, déterminées à
l'avance pour chaque ensemble possible de zones actives de référence (R1-R4).
21. Procédé selon la revendication 8, dans lequel on identifie la zone active par comparaison entre la phase des signaux prédéterminés Ri(t) et du signal capté.
22. Procédé selon la revendication 21, dans lequel :
- lors de la phase d'apprentissage, on calcule la transformée de Fourier R i (.omega.) = 1 Ri (.omega.) 1 . e j .phi. i(.omega.) de chaque signal acoustique R i(t) généré par un impact sur la zone active i, où i est un indice compris entre 1 et n, et on ne conserve de cette transformée de Fourier que la composante de phase e j .phi. i(.omega.), dans les seules bandes de fréquence .omega. où
l'amplitude ¦R i (.omega.)¦est supérieure à un seuil prédéterminé, - puis on applique le même traitement à haque signal acoustique capté S(t) pendant le fonctionnement normal du dispositif.
23. Procédé selon la revendication 22, dans lequel Le seuil prédéterminé est égal au maximum de MAX/D et de ¦B(.omega.)¦, où :
- MAX est choisi parmi la valeur maximale des modules ¦R i (.omega.)¦, la valeur maximale des modules ¦R i (.omega.)¦
normalisés chacun en énergie, et la valeur maximale de l'enveloppe de la moyenne des modules ¦R i (.omega.)¦ normalisés chacun en énergie, - D est une constante, - ¦B(.omega.)¦ est la moyenne de plusieurs spectres de bruit dans l'objet formant interface acoustique, acquis à
différents instants.
24. Procédé selon la revendication 22 ou la revendication 23, dans lequel pendant le fonctionnement normal du dispositif :

- on calcule un produit P i(.omega.) égal à S' (.omega.) multiplié par le conjugué de R i'(.omega.) pour références i = 1 ... n, - puis on normalise les produits P i(.omega.), - on effectue ensuite la transformée de Fourier inverse de tous les produits P i(.omega.), et on obtient des fonctions temporelles X i(t), - et on attribue le signal S(t) à une zone active (10) en fonction desdites fonctions temporelles X i(t).
25. Procédé selon la revendication 24, dans lequel on attribue le signal S(t) à une zone active (10) en fonction des valeurs maximales desdites fonctions temporelles X i(t).
26. Dispositif spécialement adapté pour mettre en oeuvre un procédé selon l'une quelconque des revendications 1 à 25, destiné à localiser un impact sur une surface (9, 15, 17, 22) appartenant à un objet (5, 3, 16, 18) formant interface acoustique, doté d'au moins un capteur acoustique (6), ce dispositif comprenant des moyens pour capter au moins un signal à partir d'ondes acoustiques générées dans l'objet formant interface acoustique (5, 3, 16, 18) par ledit impact, et des moyens pour localiser l'impact par traitement dudit signal capté, caractérisé en ce qu'il comporte des moyens de reconnaissance adaptés pour comparer le signal capté à au moins un signal prédéterminé correspondant au signal qui est capté
lorsqu'on génère un impact sur au moins une zone active (10) appartenant à la surface de l'objet (5, 3, 16, 18), et des moyens pour associer l'impact à ladite zone active (10) si le signal capté est suffisamment voisin dudit signal prédéterminé.
CA2489326A 2002-06-12 2003-06-12 Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede Expired - Fee Related CA2489326C (fr)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR02/07208 2002-06-12
FR0207208A FR2841022B1 (fr) 2002-06-12 2002-06-12 Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
PCT/FR2003/001769 WO2003107261A2 (fr) 2002-06-12 2003-06-12 Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede

Publications (2)

Publication Number Publication Date
CA2489326A1 CA2489326A1 (fr) 2003-12-24
CA2489326C true CA2489326C (fr) 2011-10-04

Family

ID=29595165

Family Applications (1)

Application Number Title Priority Date Filing Date
CA2489326A Expired - Fee Related CA2489326C (fr) 2002-06-12 2003-06-12 Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede

Country Status (14)

Country Link
US (2) US7345677B2 (fr)
EP (1) EP1512116B9 (fr)
JP (1) JP4249705B2 (fr)
KR (1) KR100991955B1 (fr)
CN (1) CN100412777C (fr)
AT (1) ATE404912T1 (fr)
AU (1) AU2003253071A1 (fr)
CA (1) CA2489326C (fr)
DE (1) DE60322893D1 (fr)
DK (1) DK1512116T3 (fr)
ES (1) ES2312810T3 (fr)
FR (1) FR2841022B1 (fr)
PT (1) PT1512116E (fr)
WO (1) WO2003107261A2 (fr)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0116310D0 (en) * 2001-07-04 2001-08-29 New Transducers Ltd Contact sensitive device
US6871149B2 (en) * 2002-12-06 2005-03-22 New Transducers Limited Contact sensitive device
FR2874274B1 (fr) * 2004-08-11 2007-07-20 Sensitive Object Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
FR2876406B1 (fr) * 2004-10-12 2008-05-02 Sensitive Object Installation de controle d'acces a commande acoustique et dispositif de controle d'acces pour une telle installation
JP2008525808A (ja) 2004-12-29 2008-07-17 サンシティブ オブジェ 衝撃位置を特定するための方法
US20060139339A1 (en) * 2004-12-29 2006-06-29 Pechman Robert J Touch location determination using vibration wave packet dispersion
US7583808B2 (en) * 2005-03-28 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Locating and tracking acoustic sources with microphone arrays
DE602005020068D1 (de) * 2005-04-13 2010-04-29 Sensitive Object Verfahren zur bestimmung von aufprallstellen mittels akustischer bildgebung
US7683890B2 (en) * 2005-04-28 2010-03-23 3M Innovative Properties Company Touch location determination using bending mode sensors and multiple detection techniques
FR2885427B1 (fr) * 2005-05-09 2007-10-26 Peugeot Citroen Automobiles Sa Dispositif de controle et/ou de commande d'elements d'equipements d'un vehicule automobile a boutons-poussoirs et dalle tactile
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
US7593005B2 (en) * 2005-12-13 2009-09-22 Awr Consulting Inc. Touch detection system
EP1798634B1 (fr) * 2005-12-14 2012-02-08 Research In Motion Limited Dispositif électronique portatif comprenant un dispositif d'entrée de navigation virtuelle, et procédé associé
EP1798635A1 (fr) * 2005-12-14 2007-06-20 Research In Motion Limited Dispositif électronique portatif comprenant un dispositif d'entrée à clavier virtuel, et procédé associé
US7907129B2 (en) * 2005-12-14 2011-03-15 Research In Motion Limited Handheld electronic device having virtual keypad input device, and associated method
US7800596B2 (en) * 2005-12-14 2010-09-21 Research In Motion Limited Handheld electronic device having virtual navigational input device, and associated method
RU2395853C2 (ru) * 2006-04-12 2010-07-27 Электролюкс Хоум Продактс Корпорейшн Н.В. Бытовой электроприбор
ES2311360B1 (es) * 2006-07-07 2009-12-02 Bsh Electrodomesticos España, S.A. Aparato electrodomestico.
US8233353B2 (en) * 2007-01-26 2012-07-31 Microsoft Corporation Multi-sensor sound source localization
DE102007023826A1 (de) * 2007-05-21 2008-11-27 Polytec Gmbh Verfahren und Vorrichtung zur berührungslosen Schwingungsmessung
FR2916545B1 (fr) 2007-05-23 2009-11-20 Inst Pour Le Dev De La Science Procede pour localiser un toucher sur une surface et dispositif pour la mise en oeuvre de ce procede.
WO2008146098A1 (fr) * 2007-05-28 2008-12-04 Sensitive Object Procédé pour déterminer la position d'une excitation sur une surface et dispositif pour mettre en œuvre ce procédé
US8493332B2 (en) * 2007-06-21 2013-07-23 Elo Touch Solutions, Inc. Method and system for calibrating an acoustic touchscreen
US8730213B2 (en) * 2007-07-02 2014-05-20 Elo Touch Solutions, Inc. Method and system for detecting touch events based on redundant validation
US8378974B2 (en) * 2007-07-02 2013-02-19 Elo Touch Solutions, Inc. Method and system for detecting touch events based on magnitude ratios
EP2017703A1 (fr) * 2007-07-09 2009-01-21 Sensitive Object Système de contrôle tactile et procédé de localisation d'une excitation
GB0721475D0 (en) * 2007-11-01 2007-12-12 Asquith Anthony Virtual buttons enabled by embedded inertial sensors
ATE545083T1 (de) * 2007-12-21 2012-02-15 Tyco Electronics Services Gmbh Verfahren zur bestimmung der positionen mindestens zweier einschläge
JP4926091B2 (ja) * 2008-02-19 2012-05-09 株式会社日立製作所 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム
WO2010024029A1 (fr) * 2008-08-29 2010-03-04 日本電気株式会社 Dispositif et procédé de saisie de commandes et dispositif informatique mobile
EP2175348A1 (fr) 2008-10-07 2010-04-14 Sensitive Object Interface tactile homme-machine dotée d'une interface de communication de données
FR2939219B1 (fr) * 2008-12-03 2012-08-03 Faurecia Interieur Ind Dispositif d'interface homme-machine a detection acoustique et vehicule automobile comprenant un tel dispositif.
TW201026009A (en) * 2008-12-30 2010-07-01 Ind Tech Res Inst An electrical apparatus, circuit for receiving audio and method for filtering noise
US8797279B2 (en) 2010-05-25 2014-08-05 MCube Inc. Analog touchscreen methods and apparatus
US8928602B1 (en) 2009-03-03 2015-01-06 MCube Inc. Methods and apparatus for object tracking on a hand-held device
WO2011093837A2 (fr) * 2009-05-22 2011-08-04 Tyco Electronics Corporation Procédé et appareil pour détecter une condition de maintien sur une surface tactile acoustique
EP2264575B1 (fr) 2009-06-19 2017-08-09 Elo Touch Solutions, Inc. Procédé de détermination des emplacements d'un ou plusieurs impacts ou contacts sur la surface d'un objet incluant deux transducteurs ou plus
US8421082B1 (en) 2010-01-19 2013-04-16 Mcube, Inc. Integrated CMOS and MEMS with air dielectric method and system
US8476129B1 (en) 2010-05-24 2013-07-02 MCube Inc. Method and structure of sensors and MEMS devices using vertical mounting with interconnections
JP2012530985A (ja) * 2009-06-23 2012-12-06 タイコ エレクトロニクス サービシズ ゲゼルシャフト ミット ベシュレンクテル ハフツンク タッチセンシング方法およびこの方法を実施するための装置
US8477473B1 (en) 2010-08-19 2013-07-02 MCube Inc. Transducer structure and method for MEMS devices
US8710597B1 (en) 2010-04-21 2014-04-29 MCube Inc. Method and structure for adding mass with stress isolation to MEMS structures
US8823007B2 (en) 2009-10-28 2014-09-02 MCube Inc. Integrated system on chip using multiple MEMS and CMOS devices
US8553389B1 (en) 2010-08-19 2013-10-08 MCube Inc. Anchor design and method for MEMS transducer apparatuses
US8310457B2 (en) 2009-06-30 2012-11-13 Research In Motion Limited Portable electronic device including tactile touch-sensitive input device and method of protecting same
FR2948787B1 (fr) 2009-07-29 2011-09-09 Commissariat Energie Atomique Dispositif et procede de localisation d'un contact localement deformant sur une surface tactile deformable d'un objet
US8441790B2 (en) * 2009-08-17 2013-05-14 Apple Inc. Electronic device housing as acoustic input device
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
US9696856B2 (en) 2009-09-29 2017-07-04 Elo Touch Solutions, Inc. Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen
JP5469995B2 (ja) * 2009-10-20 2014-04-16 古野電気株式会社 ドップラ計測器、ドップラ計測方法、潮流計、および潮流計測方法
US9709509B1 (en) * 2009-11-13 2017-07-18 MCube Inc. System configured for integrated communication, MEMS, Processor, and applications using a foundry compatible semiconductor process
US20110156861A1 (en) * 2009-12-31 2011-06-30 Motorola, Inc. Electronic Device Including a Wireless Actuator and a Method Thereof
US8637943B1 (en) 2010-01-04 2014-01-28 MCube Inc. Multi-axis integrated MEMS devices with CMOS circuits and method therefor
JP2013517548A (ja) * 2010-01-13 2013-05-16 イーロ・タッチ・ソリューションズ・インコーポレイテッド タッチ検出表面を有する電子デバイスにおけるノイズ減少
US8624878B2 (en) 2010-01-20 2014-01-07 Apple Inc. Piezo-based acoustic and capacitive detection
KR101678549B1 (ko) * 2010-02-02 2016-11-23 삼성전자주식회사 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스
US8936959B1 (en) 2010-02-27 2015-01-20 MCube Inc. Integrated rf MEMS, control systems and methods
US8794065B1 (en) 2010-02-27 2014-08-05 MCube Inc. Integrated inertial sensing apparatus using MEMS and quartz configured on crystallographic planes
US8576202B2 (en) 2010-03-25 2013-11-05 Elo Touch Solutions, Inc. Bezel-less acoustic touch apparatus
EP2372509A1 (fr) 2010-03-29 2011-10-05 Tyco Electronics Services GmbH Procédé de détection d'un contact prolongé et dispositif correspondant
US8367522B1 (en) 2010-04-08 2013-02-05 MCube Inc. Method and structure of integrated micro electro-mechanical systems and electronic devices using edge bond pads
KR101997034B1 (ko) * 2010-04-19 2019-10-18 삼성전자주식회사 인터페이스 방법 및 장치
US8928696B1 (en) 2010-05-25 2015-01-06 MCube Inc. Methods and apparatus for operating hysteresis on a hand held device
US8652961B1 (en) 2010-06-18 2014-02-18 MCube Inc. Methods and structure for adapting MEMS structures to form electrical interconnections for integrated circuits
US8869616B1 (en) 2010-06-18 2014-10-28 MCube Inc. Method and structure of an inertial sensor using tilt conversion
EP2405332B1 (fr) * 2010-07-09 2013-05-29 Elo Touch Solutions, Inc. Procédé pour déterminer un événement tactile et dispositif tactile
US8993362B1 (en) 2010-07-23 2015-03-31 MCube Inc. Oxide retainer method for MEMS devices
US8941623B2 (en) 2010-07-27 2015-01-27 Motorola Mobility Llc Methods and devices for determining user input location based on device support configuration
WO2012019043A1 (fr) 2010-08-06 2012-02-09 Motorola Mobility, Inc. Procédés et dispositifs de détermination d'emplacement d'entrée d'utilisateur à l'aide d'éléments de détection acoustiques
GB201014309D0 (en) 2010-08-27 2010-10-13 Inputdynamics Ltd Signal processing systems
US9459733B2 (en) 2010-08-27 2016-10-04 Inputdynamics Limited Signal processing systems
US8723986B1 (en) 2010-11-04 2014-05-13 MCube Inc. Methods and apparatus for initiating image capture on a hand-held device
GB201019767D0 (en) 2010-11-22 2011-01-05 Bpb Ltd Actuator and method of manufacture thereof
KR20120083693A (ko) * 2011-01-18 2012-07-26 삼성모바일디스플레이주식회사 터치 감지 방법, 그 방법을 구현하기 위한 프로그램이 기록된 기록매체 및 터치 감지 시스템
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
US9477350B2 (en) 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US10198097B2 (en) 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US8576197B2 (en) * 2011-05-16 2013-11-05 Pixart Imaging, Inc. Noise blanking for capacitive touch displays
EP2525280A1 (fr) 2011-05-17 2012-11-21 Elo Touch Solutions, Inc. Procédé de détection d'un événement tactile personnalisé et dispositif correspondant
US8725451B2 (en) * 2011-06-21 2014-05-13 General Electric Company Systems and methods for use in monitoring operation of a rotating device
US8706443B2 (en) * 2011-06-21 2014-04-22 General Electric Company System and method for monitoring rotating device
US8655621B2 (en) * 2011-06-21 2014-02-18 General Electric Company Systems and methods for use in monitoring operation of a rotating device
US8969101B1 (en) 2011-08-17 2015-03-03 MCube Inc. Three axis magnetic sensor device and method using flex cables
TW201316240A (zh) * 2011-10-06 2013-04-16 Rich Ip Technology Inc 利用圖形用戶介面影像之觸碰處理方法及系統
EP2581814A1 (fr) 2011-10-14 2013-04-17 Elo Touch Solutions, Inc. Procédé de détection d'un événement tactile personnalisé et dispositif correspondant
CN104169848B (zh) 2011-11-18 2017-10-20 森顿斯公司 检测触摸输入力
KR102070612B1 (ko) 2011-11-18 2020-01-30 센톤스 아이엔씨. 국소형 햅틱 피드백
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
US9756927B2 (en) 2011-11-30 2017-09-12 Apple Inc. Mounting system for portable electronic device
US9335844B2 (en) * 2011-12-19 2016-05-10 Synaptics Incorporated Combined touchpad and keypad using force input
US8904052B2 (en) 2011-12-23 2014-12-02 Apple Inc. Combined input port
US9372581B2 (en) * 2012-01-09 2016-06-21 Broadcom Corporation Interference estimation and adaptive reconfiguration of a capacitive touch controller
US9524063B2 (en) 2012-07-18 2016-12-20 Sentons Inc. Detection of a number of touch contacts of a multi-touch input
US9078066B2 (en) 2012-07-18 2015-07-07 Sentons Inc. Touch input surface speaker
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
EP2693315A1 (fr) 2012-07-31 2014-02-05 Elo Touch Solutions, Inc. Écran tactile avec isolation acoustique
EP2693314A1 (fr) 2012-07-31 2014-02-05 Elo Touch Solutions, Inc. Écran tactile avec isolation acoustique
CN103576995A (zh) 2012-07-31 2014-02-12 电子触控产品解决方案公司 具有隔音装置的触敏显示器
US9563239B2 (en) 2012-09-10 2017-02-07 Apple Inc. Internal computer assembly features and methods
FR2995703B1 (fr) * 2012-09-14 2015-12-25 Commissariat Energie Atomique Systeme et procede de detection de l’actionnement d’une fonction materialisee par un trajet predetermine sur une surface tactile d’un objet
US9281727B1 (en) * 2012-11-01 2016-03-08 Amazon Technologies, Inc. User device-based control of system functionality
US9465413B2 (en) * 2012-12-10 2016-10-11 Intel Corporation Keyboard configuration for an electronic device
US9430098B2 (en) * 2012-12-17 2016-08-30 Apple Inc. Frequency sensing and magnification of portable device output
CN103076914B (zh) * 2012-12-20 2015-10-28 杜朝亮 一种基于能量分布向量比的触击位置和能量测量方法
US9128566B2 (en) * 2013-02-28 2015-09-08 Acs Co., Ltd. Acoustic pulse recognition with increased accuracy by localizing contact area of plate
US9507464B2 (en) * 2013-03-15 2016-11-29 Elo Touch Solutions, Inc. Acoustic touch apparatus and methods using touch sensitive lamb waves
US9588552B2 (en) 2013-09-11 2017-03-07 Sentons Inc. Attaching electrical components using non-conductive adhesive
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
US9880671B2 (en) 2013-10-08 2018-01-30 Sentons Inc. Damping vibrational wave reflections
FR3012231B1 (fr) * 2013-10-18 2016-01-01 Univ Aix Marseille Dispositif et procede de reperage de terrain en vol pour microdrone
US9836084B2 (en) * 2014-03-28 2017-12-05 Intel Corporation Inferred undocking for hybrid tablet computer
US9980434B1 (en) 2015-02-28 2018-05-29 Hydro-Gear Limited Partnership Network for placing a plurality of lawnmower components in operative communication
US10058031B1 (en) * 2015-02-28 2018-08-28 Hydro-Gear Limited Partnership Lawn tractor with electronic drive and control system
FR3035510B1 (fr) * 2015-04-21 2018-10-26 Airbus Group Sas Moyen acoustique de detection, de localisation et d'evaluation automatique d'impacts subis par une structure
US11356520B2 (en) * 2015-05-29 2022-06-07 Sound United, Llc. System and method for selecting and providing zone-specific media
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
CN105628868B (zh) * 2015-12-18 2018-08-21 北京航空航天大学 一种复合材料结构的欠采样信号冲击定位处理方法和系统
CN105527608A (zh) * 2016-01-20 2016-04-27 深圳大学 基于固体传播的声波室内定位方法
IT201600085079A1 (it) * 2016-08-12 2018-02-12 Intendime Srls Dispositivo di segnalazione per allarmi sonori e simili
FR3056780B1 (fr) 2016-09-27 2018-10-12 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif de localisation d'un impact contre une surface interactive, installations, procede et programme d'ordinateur correspondants
FR3057367B1 (fr) 2016-10-10 2018-11-09 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif de localisation d'un impact contre une surface interactive, procede et programme d'ordinateur correspondants
US10908741B2 (en) 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
GB201708100D0 (en) 2017-05-19 2017-07-05 Sintef Input device
FR3070080B1 (fr) 2017-08-09 2019-08-23 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede de fabrication d'un dispositif de localisation d'impact a au moins trois transducteurs fixes contre une surface interactive
US11009411B2 (en) 2017-08-14 2021-05-18 Sentons Inc. Increasing sensitivity of a sensor using an encoded signal
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
CN108494908B (zh) * 2018-03-09 2021-07-23 Oppo广东移动通信有限公司 电子装置和制造方法
NL2023857B1 (en) * 2019-09-19 2021-05-25 Microsoft Technology Licensing Llc Systems and methods for dynamically adjusting opening force
KR102415820B1 (ko) 2019-12-09 2022-06-30 한림대학교 산학협력단 인공지능 기반 표면 인식 방법을 통한 스마트 기기 시스템의 제어 방법, 장치 및 프로그램
US11291910B2 (en) 2020-02-14 2022-04-05 Mediatek Inc. Apparatuses and methods for providing a virtual input key
CN111721450B (zh) * 2020-06-22 2021-06-29 山东大学 一种冲击定位识别装置及方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US542189A (en) * 1895-07-02 Document file and record cabinet
GB238125A (en) 1924-12-30 1925-08-13 Joseph Walker Improvements in or relating to wheels and to the manufacture thereof
US4317227A (en) * 1980-06-09 1982-02-23 Zenith Radio Corporation Multi-mode automatic channel frequency synthesis system
US5059959A (en) 1985-06-03 1991-10-22 Seven Oaks Corporation Cursor positioning method and apparatus
FR2595744A1 (fr) * 1986-03-14 1987-09-18 Colliot Georges Cle et serrure electroacoustique correspondante
US5194852A (en) * 1986-12-01 1993-03-16 More Edward S Electro-optic slate for direct entry and display and/or storage of hand-entered textual and graphic information
JP3111087B2 (ja) * 1990-09-06 2000-11-20 シャープ株式会社 信号入力装置
JPH0736142B2 (ja) 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
US5412189A (en) 1992-12-21 1995-05-02 International Business Machines Corporation Touch screen apparatus with tactile information
US5628031A (en) 1993-07-19 1997-05-06 Elonex Ip Holdings Ltd. Personal digital assistant module implemented as a low-profile printed circuit assembly having a rigid substrate wherein IC devices are mounted within openings wholly between opposite plane surfaces of the rigid substrate
US5638093A (en) * 1993-12-07 1997-06-10 Seiko Epson Corporation Touch panel input device and control method thereof
US5691959A (en) 1994-04-06 1997-11-25 Fujitsu, Ltd. Stylus position digitizer using acoustic waves
JPH08263208A (ja) 1995-02-24 1996-10-11 Whitaker Corp:The 弾性波タッチパネル及びその製造方法
US5591945A (en) 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
GB2301217B (en) 1995-05-26 1999-12-15 Nokia Mobile Phones Ltd Display driver
FR2749938B1 (fr) 1996-06-13 1998-08-28 Fink Mathias Procede et dispositif de detection et de localisation de source sonore reflechissante
FR2757659B1 (fr) * 1996-12-20 1999-03-26 Sextant Avionique Procede d'optimisation de la detection du point d'attouchement d'une surface tactile capacitive
US6549193B1 (en) 1998-10-09 2003-04-15 3M Innovative Properties Company Touch panel with improved linear response and minimal border width electrode pattern
US6167165A (en) 1998-11-25 2000-12-26 Eastman Kodak Company Method for adjusting image detail to compensate for an applied tone scale
US6225985B1 (en) * 1999-03-26 2001-05-01 Elo Touchsystems, Inc. Acoustic touchscreen constructed directly on a cathode ray tube
GB9928682D0 (en) * 1999-12-06 2000-02-02 Electrotextiles Comp Ltd Input apparatus and a method of generating control signals
US7157649B2 (en) 1999-12-23 2007-01-02 New Transducers Limited Contact sensitive device
JP5124071B2 (ja) 1999-12-23 2013-01-23 ニュー トランスデューサーズ リミテッド 接触検知装置
US6724373B1 (en) * 2000-01-05 2004-04-20 Brother International Corporation Electronic whiteboard hot zones for controlling local and remote personal computer functions
WO2001052416A1 (fr) * 2000-01-11 2001-07-19 Cirque Corporation Grille de capteur de pointeur tactile souple epousant des surfaces arciformes
US6636201B1 (en) * 2000-05-26 2003-10-21 Elo Touchsystems, Inc. Acoustic touchscreen having waveguided reflector arrays
FR2811107B1 (fr) 2000-06-29 2002-10-18 Jean Pierre Nikolovski Plaque acoustique interactive de precision
US6555235B1 (en) 2000-07-06 2003-04-29 3M Innovative Properties Co. Touch screen system
US6738051B2 (en) 2001-04-06 2004-05-18 3M Innovative Properties Company Frontlit illuminated touch panel
GB0116310D0 (en) 2001-07-04 2001-08-29 New Transducers Ltd Contact sensitive device
GB2385125A (en) 2002-02-06 2003-08-13 Soundtouch Ltd Using vibrations generated by movement along a surface to determine position
WO2003067511A2 (fr) 2002-02-06 2003-08-14 Soundtouch Limited Pave tactile
US7643015B2 (en) 2002-05-24 2010-01-05 Massachusetts Institute Of Technology Systems and methods for tracking impacts
US7116315B2 (en) * 2003-03-14 2006-10-03 Tyco Electronics Corporation Water tolerant touch sensor
US7049960B2 (en) * 2003-12-29 2006-05-23 Lenovo (Singapore) Pte. Ltd Method and system for locating objects

Also Published As

Publication number Publication date
ES2312810T3 (es) 2009-03-01
US20050212777A1 (en) 2005-09-29
CN1669048A (zh) 2005-09-14
JP4249705B2 (ja) 2009-04-08
KR100991955B1 (ko) 2010-11-04
CN100412777C (zh) 2008-08-20
WO2003107261A2 (fr) 2003-12-24
AU2003253071A8 (en) 2003-12-31
EP1512116A2 (fr) 2005-03-09
EP1512116B1 (fr) 2008-08-13
PT1512116E (pt) 2008-11-19
DK1512116T3 (da) 2009-01-05
WO2003107261A3 (fr) 2004-07-01
AU2003253071A1 (en) 2003-12-31
ATE404912T1 (de) 2008-08-15
US20050174338A1 (en) 2005-08-11
DE60322893D1 (de) 2008-09-25
JP2005529350A (ja) 2005-09-29
FR2841022B1 (fr) 2004-08-27
US7511711B2 (en) 2009-03-31
FR2841022A1 (fr) 2003-12-19
CA2489326A1 (fr) 2003-12-24
KR20050074897A (ko) 2005-07-19
EP1512116B9 (fr) 2009-03-11
US7345677B2 (en) 2008-03-18

Similar Documents

Publication Publication Date Title
CA2489326C (fr) Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
CN108256415A (zh) 指纹识别方法、装置和系统、电子设备
WO2005057393A1 (fr) Procede et dispositif d’interface homme - machine
CN106415719A (zh) 使用说话者识别的语音信号的稳健端点指示
FR2949007A1 (fr) Dispositif et procede d'interface de commande sensible a un mouvement d'un corps ou d’un objet et equipement de commande integrant ce dispositif.
KR20150010608A (ko) 햅틱 피드백을 갖는 유용한 숨겨진 컨트롤
WO2005091104A2 (fr) Controleur par manipulation d’objets virtuels sur un ecran tactile multi-contact
CA2564786A1 (fr) Procede de reconnaissance et de suivi de supports fibreux, ainsi que les applications d'un tel procede dans le domaine informatique notamment
JPH0233192B2 (fr)
CN107506634A (zh) 数据的显示方法、装置、存储介质及终端
CN114252411A (zh) 使用自混合干涉测量法的表面品质感测
JPH08305798A (ja) 同一人物の筆記による文字パターン要素集合を用いて基準文字要素を求める方法
FR2934741A1 (fr) Dispositif interactif et procede d'utilisation.
CN108133175A (zh) 指纹识别方法、装置和系统、电子设备
CA2273279A1 (fr) Systeme de cryptage de securite biometrique
EP3479212A1 (fr) Procédé de commande et interface de commande pour véhicule automobile
WO2018219832A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
US8089456B2 (en) Inputting information using holographic techniques
KR20190087892A (ko) 촉감검출장치 및 방법
CN112863523B (zh) 语音防伪方法、装置、终端设备及存储介质
US20060222216A1 (en) Electrical apparatus and method of communication between an apparatus and a user
FR2887660A1 (fr) Procede et dispositif pour rendre un volume ou une surface interactifs
CN107680248B (zh) 一种纸币面向的识别方法和装置
Wang et al. In-situ non-invasive analysis of conservation materials on mural paintings: a systematic approach in Dahuting Han Dynasty Tomb
FR2858083A1 (fr) Dispositif d'authentification et d'identification

Legal Events

Date Code Title Description
EEER Examination request
MKLA Lapsed

Effective date: 20170612