DE10228995A1 - System und Verfahren zum Steuern elektronischer Geräte - Google Patents

System und Verfahren zum Steuern elektronischer Geräte

Info

Publication number
DE10228995A1
DE10228995A1 DE10228995A DE10228995A DE10228995A1 DE 10228995 A1 DE10228995 A1 DE 10228995A1 DE 10228995 A DE10228995 A DE 10228995A DE 10228995 A DE10228995 A DE 10228995A DE 10228995 A1 DE10228995 A1 DE 10228995A1
Authority
DE
Germany
Prior art keywords
user
sensor
controller
physiological response
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10228995A
Other languages
English (en)
Inventor
Tim Goldstein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Publication of DE10228995A1 publication Critical patent/DE10228995A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/04Contact lenses for the eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Abstract

Ein System der vorliegenden Erfindung steuert automatisch elektronische Geräte auf der Basis physiologischer Zustände eines Benutzers. Diesbezüglich umfaßt das System einen Sensor und eine Steuerung. Der Sensor ist benachbart zu einem Auge eines Benutzers positioniert und ist konfiguriert, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen. Der Sensor ist konfiguriert, um ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das Ansprechverhalten anzeigt. Die Steuerung ist konfiguriert, um das Signal zu empfangen und um ein elektronisches Gerät auf der Basis des Signals zu steuern.

Description

  • Die vorliegende Erfindung bezieht sich allgemein auf Datenverarbeitungstechniken und insbesondere auf ein System und Verfahren zum Erfassen physiologischer Zustände und zum automatischen Steuern von elektronischen Geräten auf der Basis der erfaßten physiologischen Zustände.
  • Verschiedene elektronische Geräte ermöglichen es den Benutzern, absichtliche Eingangssignale zum Steuern vieler Merkmale der elektronischen Geräte zu liefern. Beispielsweise umfaßt eine Kamera normalerweise einen Knopf oder eine andere Art von Schalter, der bewirkt, daß die Kamera ein Bild aufnimmt oder damit beginnt, eine Szene aufzuzeichnen wenn er durch einen Benutzer betätigt wird. Wenn somit der Benutzer eine Szene sieht, die er oder sie mit der Kamera erfassen möchte, stellt der Benutzer sicher, daß die Kamera zu der interessanten Szene zeigt und betätigt dann den vorhergehenden Knopf. Ansprechend darauf nimmt die Kamera ein Bild der Szene, die vor der Linse der Kamera liegt, auf oder zeichnet dieselbe auf.
  • Leider ist für einen Benutzer nur ein begrenzter Zeitraum vorhanden, um ein absichtliches Eingangssignal zu einem elektronischen Gerät zu liefern. Beispielsweise kann es sein, daß ein Benutzer eine Szene sieht, die er mit einer Kamera erfassen möchte. Zu dem Zeitpunkt, zu dem der Benutzer den Eingabeknopf betätigt, um ein Bild der Szene aufzunehmen oder damit zu beginnen, die Szene aufzuzeichnen, kann sich die Szene ändern. Folglich kann es sein, daß der Benutzer nicht in der Lage ist, das gewünschte Bild mit der Kamera zu erfassen.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein System und ein Verfahren zum verbesserten Steuern von elektronischen Geräten zu schaffen.
  • Diese Aufgabe wird durch ein System gemäß Anspruch 1, 12 oder 20 und durch ein Verfahren gemäß Anspruch 15 oder 25 gelöst.
  • Somit besteht in der Technik ein bisher nicht adressierter Bedarf nach einem effizienten System und Verfahren zum schnellen Liefern von Eingangssignalen an oder zum Steuern von verschiedenen elektronischen Geräten, wie z. B. elektronischer Kameras. Allgemein liefert die vorliegende Erfindung ein System und Verfahren zum Erfassen physiologischer Zustände und zum automatischen Steuern elektronischer Geräte auf der Basis der erfaßten physiologischen Zustände.
  • Bei der Architektur verwendet das System der vorliegenden Erfindung einen Sensor und eine Steuerung. Der Sensor ist benachbart zu einem Auge eines Benutzers positioniert ist konfiguriert, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen. Der Sensor ist konfiguriert, um ansprechend auf die Erfassung eines physiologischen Ansprechverhaltens ein Signal zu übertragen, das das Ansprechverhalten anzeigt. Die Steuerung ist konfiguriert, um das Signal zu empfangen und ein elektronisches Gerät auf der Basis des Signals zu steuern.
  • Die vorliegende Erfindung kann auch so gesehen werden, daß sie ein Verfahren zum Steuern von elektronischen Geräten auf der Basis von physiologischen Zuständen liefert. Das Verfahren kann grob durch die folgenden Schritte dargestellt werden: Positionieren eines Sensors benachbart zu einem Auge eines Benutzers; Erfassen eines Auftretens einer physiologischen Bedingung des Benutzers über den Sensor; und automatisches Steuern eines elektronischen Gerätes auf der Basis des Erfassungsschritts.
  • Die Erfindung kann mit Bezugnahme auf die folgenden Zeichnungen besser verstanden werden. Die Elemente der Zeichnung sind nicht notwendigerweise maßstabsgerecht zueinander, statt dessen wurde der Schwerpunkt darauf gelegt, die Prinzipien der Erfindung deutlich darzustellen. Ferner bezeichnen gleiche Bezugszeichen entsprechende Teile in den verschiedenen Ansichten.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend auf den beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • Fig. 1 ein Blockdiagramm, das ein Steuersystem gemäß der vorliegenden Erfindung darstellt;
  • Fig. 2 ein Blockdiagramm, das ein Computersystem darstellt, das eine Steuerung verwendet, wie sie in Fig. 1 dargestellt ist;
  • Fig. 3 ein Diagramm, das eine Seitenansicht eines in Fig. 1 dargestellten Sensors darstellt, wenn der Sensor über eine Kontaktlinse implementiert ist;
  • Fig. 4 ein Diagramm, das eine Vorderansicht der in Fig. 3 dargestellten Kontaktlinse darstellt;
  • Fig. 5 ein Diagramm, das Photoemitter und Photodetektoren darstellt, die sich in der in Fig. 4 dargestellten Kontaktlinse befinden;
  • Fig. 6 ein Blockdiagramm, das verschiedene Erfassungselemente darstellt, die sich in der Kontaktlinse von Fig. 5 befinden;
  • Fig. 7 ein Diagramm eines Okulars eines in Fig. 1 dargestellten elektronischen Gerätes, wenn das Okular in der Nähe eines Auges des Benutzers positioniert ist, so daß ein Schalter, der mit dem Okular gekoppelt ist, in der Lage ist, das Blinzeln des Augenlides des Benutzers zu erfassen
  • Fig. 8 ein Diagramm eines Okulars eines in Fig. 1 dargestellten elektronischen Gerätes, wenn ein Sensor mit dem Gesicht eines Benutzers Eingriff nimmt und an das Okular angebunden ist;
  • Fig. 9 ein Diagramm eines Okulars eines in Fig. 1 dargestellten elektronischen Gerätes, wenn das Okular einen Laser oder eine andere Art von Photoemitter zum Erfassen von Blinzeln des Augenlids eines Benutzers oder der Größe der Pupille des Benutzers umfaßt;
  • Fig. 10 ein Blockdiagramm, das eine detailliertere Ansicht eines in Fig. 1 dargestellten elektrischen Gerätes darstellt; und
  • Fig. 11 ein Flußdiagramm, das eine beispielhafte Methodik zum Steuern eines elektronischen Geräts gemäß der vorliegenden Erfindung darstellt.
  • Allgemein gesagt liefert die vorliegende Erfindung ein System und ein Verfahren zum automatischen Liefern von Steuersignalen an ein elektronisches Gerät basierend auf einem erfaßten physiologischen Zustand oder Ansprechverhalten. Somit können Steuersignale schnell und effizient an das elektronische Gerät geliefert werden. Wenn ferner der erfaßte physiologische Zustand willkürlich ist, kann der Aufwand des Benutzers, Eingangssignale an das elektronische Gerät zu liefern, wesentlich reduziert werden.
  • Fig. 1 zeigt ein beispielhaftes Steuersystem 10, das in der Lage ist, Eingangssignale oder Steuersignale an ein elektronisches Gerät 14 zu liefern. Wie der Begriff hierin verwendet wird, ist "ein elektronisches Gerät" jedes Gerät, das zumindest teilweise über elektronische Signale gesteuert wird. Zu Darstellungszwecken wird das elektronische Gerät 14 hierin als eine Kamera beschrieben, die in der Lage ist, ein Bild einer Szene zu erfassen. Es sollte jedoch angemerkt werden, daß das elektronische Gerät 14 nicht so begrenzt sein sollte, und es ist möglich, daß das elektronische Gerät 14 als andere Produkttypen zum Durchführen verschiedener anderer Funktionalitäten implementiert sein kann.
  • Darüber hinaus gibt es verschiedene Methodiken, die verwendet werden können, um ein Bild einer Szene "zu erfassen". Beispielsweise kann photoempfindliches Material (Film) mit Licht von der Szene belichtet werden, und dadurch ein Bild der Szene auf dem photographischen Material bilden. Alternativ kann Licht von der Szene in digitale Daten umgewandelt werden, die ein Bild der Szene definieren, und die digitalen Daten können im Speicher gespeichert werden und/oder verwendet werden, um das Bild der Szene aufzubereiten. Das elektronische Gerät 14 kann als eine Standbildkamera (d. h. eine Kamera, die ein Bild nach dem anderen erfaßt) entworfen sein, oder kann als eine Videokamera entworfen sein (d. h. eine Kamera, die wenn sie betätigt wird, fortlaufend die Bilder erfaßt, die vor der Linse der Kamera liegen, um ein Bewegtbild zu definieren).
  • Es ist anzumerken, daß eine Videokamera auch verwendet werden kann, um zu ausgewählten Zeiten Standbilder zu erfassen. Beispielsweise kann eine Videokamera entwickelt sein, um ansprechend auf eine Benutzereingabe das Bild, das derzeit durch die Linse der Kamera betrachtet wird, als Standbild zu speichern. Bei einem anderen Ausführungsbeispiel kann die Videokamera konfiguriert sein, um ansprechend auf eine Benutzereingabe einen speziellen Rahmen eines Bewegtbildes, das durch die Videokamera aufgezeichnet wird, mit einem Wasserzeichen zu versehen. Zu einem späteren Zeitpunkt kann das Wasserzeichenbild auf Anforderung als Standbild aufbereitet werden. Es kann verschiedene andere Methodiken geben, die verwendet werden können, um Stand- oder Bewegtbilder zu erfassen.
  • Wie es in Fig. 1 gezeigt ist, umfaßt das Steuersystem 10 einen Sensor 21, der elektrisch mit einer Steuerung 25 gekoppelt ist. Der Sensor 21 ist in der Lage, einen oder mehrere physiologische Zustände zu erfassen und ist konfiguriert, um Informationen an die Steuerung 25 zu übertragen, die sich auf die Zustände beziehen, die durch den Sensor 21 erfaßt werden. Der Sensor 21 kann über ein oder mehrere leitfähige Busse oder Drähte mit der Steuerung 25 verbunden sein. Alternativ kann der Sensor 21 physikalisch von der Steuerung 21 getrennt sein, und physiologische Zustandsinformationen drahtlos zu der Steuerung 25 kommunizieren. Falls der Sensor 21 Informationen drahtlos kommuniziert, kann der Sensor 25 eine drahtlose Schnittstelle, wie z. B. eine Antenne, umfassen, beispielsweise zum Kommunizieren mit der Steuerung 25.
  • Die Steuerung 25 ist vorzugsweise in der Lage, mit dem elektronischen Gerät 14 zu kommunizieren. Die Steuerung 25 kann über einen oder mehrere leitfähige Busse oder Drähte mit dem elektronischen Gerät 14 verbunden sein. Alternativ kann die Steuerung 25 physikalisch von dem elektronischen Gerät 14 getrennt sein, und kann drahtlos mit dem elektronischen Gerät 14 kommunizieren. Falls die Steuerung 25 Informationen drahtlos kommuniziert, kann die Steuerung 25 eine drahtlose Schnittstelle, wie z. B. eine Antenne, umfassen, beispielsweise zum Kommunizieren von Informationen zu dem elektronischen Gerät 14. Es ist anzumerken, daß es möglich ist, daß die Steuerung 25 in mechanischen Komponenten, wie z. B. einem Gehäuse des elektronischen Geräts 14, positioniert ist oder fest an denselben befestigt ist.
  • Es ist anzumerken, daß die Steuerung 25 in Software, Hardware oder einer Kombination derselben implementiert sein kann. Bei einem Ausführungsbeispiel, wie es als Beispiel in Fig. 2 dargestellt ist, ist die Steuerung 25 zusammen mit der zugeordneten Methodik in Software implementiert und in dem Speicher 31 eines Computersystems 33 gespeichert.
  • Das Computersystem 33 von Fig. 2 umfaßt ein oder mehrere herkömmliche Verarbeitungselemente 36, wie z. B. einen Digitalsignalprozessor (DSP; DSP = digital signal processor) oder eine zentrale Verarbeitungseinheit (CPU; CPU = Central Processing Unit), die die anderen Elemente in dem System 33, über eine lokale Schnittstelle 37, die einen oder mehrere Busse umfassen kann, kommunizieren und treiben. Ferner kann eine Eingabe/Ausgabe- (I/O-) Schnittstelle 39 verwendet werden, um Daten mit dem System 33 und insbesondere mit der Steuerung 25 zu kommunizieren. Die I/O-Schnittstelle 39 kann Geräte umfassen, die es ermöglichen, daß Daten von einem Benutzer eingegeben werden oder zu demselben ausgegeben werden. Solche Geräte können beispielsweise Knöpfe oder andere Arten von Schaltern umfassen, zum Eingeben von Informationen in das System 33, und eine Flüssigkristallanzeige (LCD = Liquid Crystal Display) oder eine andere Art von Anzeigegerät zum Ausgeben von Informationen von dem System 33. Das System 33 von Fig. 2 umfaßt außerdem eine Sensorschnittstelle 42 und eine Datenschnittstelle 45 zum jeweiligen Kommunizieren mit dem Sensor 21 und dem Gerät 14 (in Fig. 2 nicht gezeigt).
  • Die Steuerung 25 ist konfiguriert, um die physiologischen Zustandsinformationen zu empfangen, die von dem Sensor 21 gesendet werden, und um zu bestimmen, ob auf der Basis dieser Informationen irgendwelche Steuersignale zu dem elektronischen Gerät 14 gesendet werden. Wenn das elektronische Gerät 14 beispielsweise eine Kamera ist, kann die Steuerung 25 auf der Basis der Informationen, die durch den Sensor 21 geliefert werden, bestimmen, daß das Gerät 14 ein Bild einer Szene erfassen soll. Ansprechend darauf kann die Steuerung 25 ein Steuersignal an das elektronische Gerät senden, daß das Gerät 14 anweist, ein Bild zu erfassen. Somit wird das Gerät 14 automatisch durch das Steuersystem 10 angewiesen, ein Bild einer Szene zu erfassen, ansprechend auf einen oder mehrere physiologische Zustände, die durch den Sensor 21 erfaßt werden.
  • Es gibt verschiedene Arten von physiologischen Zuständen, die zum Zweck des Steuerns des Geräts 14 durch das Steuersystem 10 überwacht werden können. Beispielsweise kann es wünschenswert sein, daß der Erregungspegel eines Benutzers als Auslösungsmoment zum Steuern des elektronischen Geräts 14 dient. Diesbezüglich zeigt ein Benutzer einer Kamera oft Anzeichen von Erregung, wenn der Benutzer ein Bild einer Szene sieht, das er oder sie mit einer Kamera erfassen möchte. Somit kann der Sensor 21 konfiguriert sein, um eine oder mehrere physiologische Zustände oder Ansprechverhalten in dem Körper des Benutzers zu erfassen, die anzeigen, ob ein Benutzer erregt ist. Auf der Basis solcher Erfassungen durch den Sensor 21 kann die Steuerung 25 bestimmen, daß sich der Erregungspegel des Benutzers erhöht hat und ansprechend darauf das elektrische Gerät 14 anweisen, ein Bild zu erfassen. Somit bewirkt das System 10, daß das elektrische Gerät 14 auf der Basis des Erregungspegels des Benutzers ein Bild einer Szene erfaßt.
  • Verschiedene physiologische Ansprechverhalten treten in dem Körper eines Benutzers auf, wenn ein Benutzer erregt ist. Wenn ein Benutzer erregt ist, kann es beispielsweise sein, daß der Benutzer erfaßbare Mengen an Schweiß oder Pheromonen ausstößt, oder es kann sein, daß der Benutzer öfter mit seinem Auge blinzelt. Außerdem ändern sich die Körper- oder Hauttemperatur des Benutzers und das galvanische Hautansprechverhalten normalerweise mit einer Änderung bei dem Erregungspegel, und mit einer Erhöhung der Erregung erhöht sich normalerweise auch die Gehirnwellenaktivität. Wenn ein Benutzer ein interessantes Objekt sieht, das den Benutzer erregt, dreht ein Benutzer häufig seinen Augapfel, um seine oder ihre Sicht auf das Objekt zu fokussieren, und wenn der Benutzer erregter wird, erweitert sich seine Pupille normalerweise stärker. Der Sensor 21 ist konfiguriert, um ein oder mehrere der vorhergehenden physiologischen Ansprechverhalten zu überwachen, um der Steuerung 25 ausreichend Informationen zu liefern, zum Bestimmen, wie das elektronische Gerät 14 gesteuert werden soll. Es gibt verschiedene andere physiologische Ansprechverhalten, die im Körper des Benutzers auftreten, wenn der Benutzer erregt wird, und diese können durch das Steuersystem 10 zum Steuern des elektronischen Geräts 14 überwacht werden.
  • Es ist anzumerken, daß es derzeit viele Arten von herkömmlichen Sensoren zum Überwachen des galvanischen Hautansprechverhaltens, der Gehirnwellenaktivität, der Körper- und Hauttemperatur, der Herzfrequenz, des Blutsauerstoffpegels, des Schweißes und anderer Pheromone gibt, und diese herkömmliche Sensoren können beim Implementieren der vorliegenden Erfindung verwendet werden. Während dem Betrieb sind viele dieser herkömmlichen Sensoren zum Überwachen eines oder mehrerer der vorhergehenden unwillkürlichen physiologischen Ansprechverhalten vorzugsweise an dem Benutzer befestigt, der überwacht wird. Um dem Benutzer während dem Betrieb eine bessere Bewegungsfreiheit zu liefern, kann es daher wünschenswert sein, daß der Sensor 21 von der Steuerung und/oder dem elektronischen Gerät 14 physikalisch getrennt ist. Bei einem solchen Ausführungsbeispiel kann die Kommunikation zwischen der Steuerung 25 und/oder dem Gerät 14 über drahtlose Signale beibehalten werden.
  • Es gibt verschiedene Techniken, die verwendet werden können, um zu bestimmen, wann der Benutzer mit seinen Augen blinzelt. Bei einem Ausführungsbeispiel kann ein kleiner Schalter (z. B. ein Mikroschalter oder ein Nanoschalter) in enger Nähe zu dem Augenlid des Benutzers positioniert sein. Der Schalter kann betätigt werden, wenn der Benutzer blinzelt, so daß jeder Blinzelvorgang des Augenlids des Benutzers durch den Schalter erfaßt werden kann. Ein solcher Schalter ist in Fig. 3 und 4 gezeigt, und ist mit dem Bezugszeichen 25 bezeichnet.
  • Bei dem in Fig. 3 und 4 gezeigten Ausführungsbeispiel ist der Schalter 52 mit einer Kontaktlinse 55 gekoppelt, die ähnlich wie herkömmliche Kontaktlinsen auf einem der Augäpfel des Benutzers getragen werden kann. Bei Fig. 3 und 4 ist der Schalter 52 eine Reibungsrolle, obwohl andere Arten von Bauelementen verwendet werden können, um den Schalter 52 bei anderen Ausführungsbeispielen zu implementieren. Wenn der Benutzer blinzelt, verläuft das Augenlid des Benutzers über die Oberfläche der Kontaktlinse 55 und schließlich über den Schalter 52. Die Reibung zwischen dem Augenlid des Benutzers und dem Schalter 52 bewirkt, daß sich der Schalter 52 bewegt, oder genauer gesagt, dreht. Wenn das Augenlid des Benutzers geöffnet ist, bewirkt die Reibung zwischen dem Augenlid des Benutzers und dem Schalter 52, daß sich der Schalter 52 in die entgegengesetzte Richtung bewegt, und dadurch den Schalter zu seiner ursprünglichen Position oder seinem ursprünglichen Zustand zurück bewegt.
  • Die Bewegung des Schalters 52 wird durch eine Schaltungsanordnung 58 erfaßt, die eine Betätigung des Schalters 52 erfaßt, wenn der Schalter 52 durch ein Blinken des Benutzers bewegt wird, wie es oben beschrieben ist. Wenn die Schaltungsanordnung 58 die Betätigung des Schalters 52 erfaßt, überträgt die Schaltungsanordnung 58 ein Signal, um die Steuerung 25 über die Betätigung zu benachrichtigen. Falls die Steuerung 25 physikalisch von der Schaltung 58 getrennt ist, überträgt die Schaltungsanordnung 58 das Signal über eine Antenne 63 drahtlos zu der Steuerung 25. Die Steuerung 25 kann die Frequenz des Blinzeln überwachen, das durch die Schaltungsanordnung 58 erfaßt wird, um zu bestimmen, wann sich der Erregungspegel des Benutzers erhöht oder verringert hat. Die Steuerung 25 kann dann auf der Basis der Veränderung bei dem Erregungspegel des Benutzers ein Steuersignal zu dem elektronischen Gerät 14 übertragen. Falls beispielsweise die Steuerung 25 bestimmt, daß sich die Frequenz des Blinzelns des Benutzers erhöht hat, kann die Steuerung 25 bestimmen, daß sich der Erregungspegel des Benutzers erhöht hat und das Gerät 14 daher ein Bild erfassen sollte. Ansprechend darauf kann die Steuerung 25 ein Steuersignal an das Gerät 14 übertragen, um das Gerät 14 anzuweisen, ein Bild zu erfassen.
  • Es ist anzumerken, daß es für das Gerät 14 möglich ist, beim Erfassen eines Bildes bei ein Bild aufzunehmen oder das Bild aufzuzeichnen, auf der Basis von Licht, das von einem oder mehreren Photodetektoren 67 erfaßt wird, die sich auf oder in der Kontaktlinse 55 befinden. Bei einem solchen Ausführungsbeispiel können ein oder mehrere Photodetektoren 67 Bildinformationen über eine Antenne 63 zu dem Gerät 14 übertragen, und auf der Basis dieser Informationen kann das Gerät 14 ein Bild der Szene speichern, die auf die Photodetektoren 67 belichtet wird. Diesbezüglich erfassen die Photodetektoren 67, die auf oder in der Kontaktlinse 55 positioniert sind, ein Bild, und Daten, die dieses Bild definieren, werden zu dem Gerät 14, das entfernt von der Linse 55 positioniert sein kann, übertragen und in demselben gespeichert. Da sich die Kontaktlinse 55 auf dem Augapfel des Benutzers befindet, sollten die Photodetektoren 67 das gleiche Bild empfangen, das von dem Benutzer betrachtet wird. Wenn das Gerät 14 Bilddaten speichert, die von den Photodetektoren 67 übertragen werden, sollte das Gerät 14 daher das gleiche Bild erfassen, das von dem Benutzer gesehen wird.
  • Das Verwenden von Informationen von dem Sensor 21, um Steuerentscheidungen durchzuführen, kann insbesondere bei dem vorhergehenden Ausführungsbeispiel vorteilhaft sein, wo sich die Photodetektoren 67 in einer Kontaktlinse 55 befinden, oder bei einem Ausführungsbeispiel, wo sich die Photodetektoren 67 in einer Brille oder einer anderen Art von kopfbefestigten Vorrichtung befinden. Diesbezüglich können die Photodetektoren 67 bei solchen Ausführungsbeispielen automatisch durch die Szene belichtet werden, die von dem Benutzer gesehen wird, so wie es oben beschrieben ist. Wenn daher die Steuerung 25 erfaßt, daß der Benutzer erregt ist, ist es wahrscheinlich, daß die Szene, die der Benutzer betrachtet, den Benutzer erregt. Daher ist es wahrscheinlich, daß der Benutzer beabsichtigt, ansprechend auf eine Erhöhung des Erregungspegels des Benutzers, ein Bild der Szene oder des Bildes aufzunehmen, das durch das Gerät 14 erfaßt wird. Angenommen, daß das Vorhergehende stimmt, sollte das Erfassen der Szene durch das Gerät 14 sehr bald nach dem der Benutzer erregt ist, auftreten, falls das Gerät 14 automatisch auf der Basis von Erfassungen durch den Sensor 21 gesteuert wird, wie es oben beschrieben ist. In der Tat sollte das Erfassen der Szene viel früher auftreten als bei einem Ausführungsbeispiel, bei dem der Benutzer aufgefordert wird, eine herkömmliche Kamera auf die interessante Szene zu richten, und die Kamera manuell zu betätigen. Daher ist es durch Verwenden der Techniken der vorliegenden Erfindung weniger wahrscheinlich, daß sich die Szene verändert hat, bevor das Gerät 14 ein Bild der Szene erfaßt.
  • Es sollte angemerkt werden, daß jede der Komponenten der Linse 55, die in Fig. 3 und 4 gezeigt ist, eine ausreichend kleine Größe aufweisen sollte (z. B. Nanogröße oder Mikrogröße), so daß die Sicht des Benutzers durch das Vorliegen der Komponenten in der Linse 55 nicht wesentlich beeinträchtigt wird. Es ist außerdem anzumerken, daß ein Generator 68 notwendig sein kann, um die Komponenten der Linse 55 mit ausreichend Leistung zu versorgen. Der Generator 68 ist in der U. S.-Patentanmeldung mit dem Titel "System and Method for Providing Power to Electrical Devices" näher beschrieben, die gleichzeitig hiermit eingereicht wurde, und die hierin durch Bezugnahme aufgenommen ist.
  • Wie es durch Fig. 5 gezeigt ist, kann die Linse 55 Photoemitter 71 umfassen, die konfiguriert sind, um Licht zu dem Auge eines Benutzers zu emittieren, wenn der Benutzer die Linse 55 auf seinem Augapfel trägt. Dieses Licht sollte vom Auge des Benutzers reflektieren, und zumindest einige der Photodetektoren 67 können konfiguriert sein, um das reflektierte Licht zu empfangen oder zu erfassen. Daten, die dieses reflektierte Licht definieren, können dann zu der Steuerung 25 gesendet werden, die diese Daten verarbeitet, um zu bestimmen, wie das elektronische Gerät 14 gesteuert werden soll. Beispielsweise kann die Steuerung 25 die vorhergehenden Daten analysieren, um zu bestimmen, wann und/oder wie oft der Benutzer blinzelt. Alternativ kann die Steuerung 25 die vorhergehenden Daten analysieren, um zu bestimmen, ob sich die Pupille des Benutzers ausgedehnt hat oder nicht. Wie es vorher beschrieben wurde, kann die Blinzelfrequenz und der Betrag der Pupillenausdehnung anzeigen, daß der Benutzer erregt ist, und die Steuerung 25 kann diese Informationen verwenden, um das Gerät 14 auf spezielle Weise zu steuern.
  • Wie es durch Fig. 6 gezeigt ist, kann die Linse 55 einen Biegungssensor 86 umfassen, der konfiguriert ist, und so erfassen, wenn sich die Linse 55 deformiert und daher, wenn der Benutzer seinen Augapfel bewegt. Ein Benutzer bewegt bzw. biegt normalerweise seinen Augapfel, um ein Objekt von Interesse zu fokussieren. Somit kann die Steuerung 25 die Informationen, die durch den Biegungssensor 86 geliefert werden, verwenden, um dazu beizutragen, zu bestimmen, ob der Benutzer eine Szene sieht, die für den Benutzer erregend ist, und die Steuerung 25 kann daher diese Informationen verwenden, um das Gerät 14 zu steuern.
  • Verschiedene andere biometrische Sensoren können in der Linse 55 enthalten sein. Beispielsweise kann die Linse 55 einen Temperaturdetektor 91 umfassen, um die Körpertemperatur des Benutzers zu erfassen, oder einen Pulsdetektor 92 um den Puls des Benutzers zu erfassen. Außerdem kann die Linse 55 einen Galvanisches-Hautansprechverhalten-Detektor 93, einen Schweißdetektor 94, einen Pheromon-Detektor 95 und/oder einen Hirnwellendetektor 96 umfassen. Informationen von einem oder mehreren dieser Detektoren 91 bis 96 können zu der Steuerung 25 übertragen werden und von derselben verwendet werden, um den Erregungspegel des Benutzers zu erfassen, und dadurch das Gerät 14 zu steuern.
  • Es ist anzumerken, daß es nicht notwendig ist, daß sich die Komponenten von Fig. 2 bis 6 in oder auf einer Linse 55 befinden. Diesbezüglich können sich die Komponenten von Fig. 2 bis 6 in oder auf jedem Gerät befinden, das in nächster Nähe zu dem Auge des Benutzers positioniert ist. Beispielsweise können sich die Komponenten in oder auf einer Brille befinden, die von dem Benutzer getragen wird. Bei einem anderen Beispiel können sich die Komponenten in oder auf einem Okular (d. h. einer Komponente, die während dem Betrieb nahe an einem Auge des Benutzers gehalten wird) des Geräts 14 befinden, insbesondere wenn das Gerät 14 als eine Kamera implementiert ist. Bei solchen Ausführungsbeispielen können sich die Photodetektoren 67 und/oder die Photoemitter 71 in oder auf einer Linse einer Brille oder eines Okulars befinden. Ferner kann der Schalter 52 als ein Hebel implementiert werden, der sich in den Bewegungsweg des Augenlids des Benutzers erstreckt, wenn der Benutzer blinzelt. Es ist anzumerken, daß sich der Begriff "Augenlid", wie er hierin verwendet wird, auf die Wimpern des Benutzers bezieht, zusätzlich zu der Haut des Benutzers, die während einem Blinzeln über das Auge des Benutzers verläuft.
  • Fig. 7 zeigt einen Schalter 52, der in einem Bewegungsweg des Augenlids des Benutzers positioniert ist, wie es oben beschrieben ist. Der Schalter 52 von Fig. 7 ist mit einem Okular 76 gekoppelt, das genau vor dem Auge des Benutzers 83 positioniert sein sollte, wenn der Benutzer durch das Okular 76 schaut. Das Okular 76 kann jede Komponente des Geräts 14 sein, die während dem normalen Betrieb des Geräts 14 nahe an das Auge des Benutzers 83 gehalten wird. Wenn das Gerät 14 beispielsweise als eine Kamera implementiert ist, kann das Okular 76 ein Teil des Suchers der Kamera sein, der während dem normalen Betrieb der Kamera typischerweise benachbart zu dem Auge des Benutzers gehalten wird. Wenn der Benutzer blinzelt, sollte das Augenlid des Benutzers mit dem Schalter 52 Eingriff nehmen und denselben bewegen, und dadurch den Schalter 52 betätigen. Wenn der Benutzer während einem Blinzeln sein Auge öffnet, sollte der Schalter 52 konfiguriert sein, um zu seiner ursprünglichen Position zurückzukehren, so daß das nächste Blinzeln durch den Benutzer erfaßt werden kann.
  • Außerdem können ähnlich zu dem Schalter 52 alle der Detektoren 91 bis 96 von Fig. 6 mit dem Okular 76 gekoppelt sein. Es kann notwendig sein, einige dieser Detektoren 91 bis 96 mit dem Gesicht des Benutzers in Eingriff zu bringen, um das Erfassen der physiologischen Zustände von Interesse zu ermöglichen. Beispielsweise kann es notwendig oder wünschenswert sein, den Temperaturdetektor 91 oder den Galvanisches-Hautansprechverhalten-Detektor 93 mit dem Gesicht des Benutzers oder einer anderen Körperposition in Eingriff zu bringen, so daß der Detektor 91 oder 93 einen abgelesenen Meßwert aufnehmen kann. Falls beispielsweise ein Okular des Geräts 14 entworfen ist, um während dem normalen Betrieb des Geräts 14 mit dem Gesicht des Benutzers Eingriff zu nehmen, kann sich ein Sensor, wie z. B. der Detektor 91 oder 93, auf einem Abschnitt des Okulars befinden, so daß der Detektor 91 oder 93 mit dem Gesicht des Benutzers Eingriff nimmt, wenn das Okular während dem normalen Betrieb richtig positioniert ist. Bei einem weiteren Beispiel kann ein Sensor, wie z. B. der Detektor 91 oder 93, an dem Gesicht des Benutzers befestigt oder über ein flexibles Halteseil 99 an dem Okular 76 angebunden sein, wie es in Fig. 8 gezeigt ist. Andere Arten von Detektoren können bei anderen Ausführungsbeispielen auf ähnliche Weise mit dem Benutzer Eingriff nehmen.
  • Darüber hinaus kann es sein, daß es nicht notwendig ist, einen oder mehrere der Detektoren 91 bis 96 mit dem Benutzer in Eingriff zu bringen. Beispielsweise kann das Okular 76 entworfen sein, um sich eng an das Auge des Benutzers anzupassen, und der Schweißdetektor 94 kann mit dem Okular 76 gekoppelt sein, so daß sich der Detektor 94 zwischen dem Okular 76 und dem Auge des Benutzers 83 befindet. Falls der Benutzer erregt wird und mehr Schweiß ausstößt, sollte die Luft zwischen dem Auge des Benutzers und dem Okular 76 feuchter werden, und der Schweißdetektor 94 kann konfiguriert sein, um die Feuchtigkeit dieser Luft zu messen, ohne mit dem Benutzer in Eingriff zu sein. Falls sich die Feuchtigkeit dieser Luft erhöht, kann die Steuerung 25 bestimmen, daß der Benutzer erregter ist, und kann daher das Gerät 14 entsprechend steuern.
  • Bei einem weiteren Beispiel, das in Fig. 9 dargestellt ist, kann das Okular 76 einen Laser oder einen Photoemitter 101 umfassen, der Licht zu dem Auge des Benutzers 83 emittiert, ähnlich wie die Photoemitter 71 von Fig. 5. Die Photodetektoren 102, die ähnlich sind wie die Photodetektoren 67 von Fig. 5, die sich auf dem Okular 76 befinden, können dann das Licht erfassen, das von dem Auge des Benutzers 83 reflektiert wird, um die Bestimmung der Rate des Augenlidblinkens oder des Betrags der Pupillenausdehnung zu ermöglichen. Wie es hierin oben beschrieben ist, können solche Informationen durch die Steuerung 25 verwendet werden, um zu bestimmen, wie das elektronische Gerät 14 gesteuert werden sollte. Es ist anzumerken, daß bei anderen Ausführungsbeispielen andere Arten von Detektoren mit dem Okular 76 gekoppelt sein können.
  • Es sollte ferner angemerkt werden, daß die physiologischen Zustände, die hierin oben beschrieben sind, im Allgemeinen unwillkürliche Ansprechverhalten waren, die auf dem Erregungspegel eines Benutzers basieren. Es ist jedoch möglich, daß die Steuerung 25 ihren Betrieb auf andere Arten von erfaßten Zuständen basiert. Beispielsweise könnte der Benutzer gemäß einer bestimmten Struktur oder einem Algorithmus mit dem Auge absichtlich blinzeln, um einen Wunsch zu übertragen, das Gerät 14 auf spezielle Weise zu steuern.
  • Zu Darstellungszwecken nehme man an, daß die Schaltungsanordnung 58 in der Lage ist, zu erfassen, ob ein Blinzeln ein langes Blinzeln (d. h. ein Blinzeln, bei dem das Auge des Benutzers für eine spezifizierte Zeitperiode geschlossen bleibt) oder ein kurzes Blinzeln ist (d. h. ein Blinzeln, bei dem das Auge des Benutzers kürzer geschlossen bleibt als eine spezifizierte Zeitperiode). Man nehme außerdem an, daß die Steuerung 25 konfiguriert ist, um ein spezielles Steuersignal (z. B. ein Steuersignal, das das Gerät 14 anweist, das Bild zu erfassen) zu übertragen, ansprechend auf Erfassungen durch den Sensor 21, daß der Benutzer in einer spezifizierten Zeitperiode ein kurzes Blinzeln durchgeführt hat, gefolgt von einem langen Blinzeln. Bei diesem Ausführungsbeispiel kann der Benutzer durch Durchführen eines kurzen Blinzelns, gefolgt von einem langen Blinzeln, absichtlich bewirken, daß das Gerät 14 ein Bild erfaßt. Wenn dies auftritt, kommuniziert der Sensor 21 Informationen an die Steuerung 25, die das Auftreten der beiden Blinzelzeichen anzeigt, und ansprechend darauf überträgt die Steuerung 25 ein Steuersignal an das Gerät 14, das bewirkt, daß das Gerät 14 ein Bild erfaßt. Wie es durch das vorhergehende Beispiel gezeigt ist, kann somit die Steuerung 25 konfiguriert sein, um das Gerät 14 auf der Basis von absichtlichen Eingabesignalen zu konfigurieren, die durch den Sensor 21 erfaßt werden. Es ist anzumerken, daß andere Blinzelmuster zum Steuern des Geräts 14 möglich sind, ohne von den Prinzipien der vorliegenden Erfindung abzuweichen.
  • Es sollte außerdem angemerkt werden, daß es verschiedene Methodiken gibt, die für die Steuerung 25 verwendet werden können, um zu bestimmen, wie das Gerät 14 auf der Basis der Informationen, die durch den Sensor 21 geliefert werden, gesteuert werden soll. Diesbezüglich kann die Steuerung 25 analysieren, ob eine Mehrzahl der vorher erwähnten physiologischen Ansprechverhalten innerhalb einer spezifizierten Zeitperiode aufgetreten ist, um zu bestimmen, ob der Benutzer erregt ist, so daß ein spezielles Steuersignal zu dem Gerät 14 übertragen werden sollte. Bei einem solchen Ausführungsbeispiel ist das Auftreten eines der physiologischen Ansprechverhalten (z. B. eine Erhöhung bei der Blinzelfrequenz, eine Erhöhung der Körpertemperatur usw.) ein Faktor bei der Gesamtentscheidung über den Status des Erregungspegels des Benutzers, und daher darüber, ob ein spezielles Steuersignal durch die Steuerung 25 übertragen werden sollte.
  • Außerdem ist die Steuerung 25 bei dem in Fig. 1 und 2 gezeigten Ausführungsbeispiel als getrennt von dem Gerät 14 gezeigt, und ist doch in der Lage, über eine Datenschnittstelle 45 mit dem Gerät 14 zu kommunizieren. Bei einem solchen Ausführungsbeispiel kann sich die Steuerung 25 an jeder geeigneten Position befinden, einschließlich innerhalb der Linse 55. Beispielsweise können die Steuerung 25 und die anderen Komponenten des System 33 in der Gehäuseeinheit (nicht gezeigt) untergebracht sein, und diese Gehäuseeinheit kann an dem Benutzer befestigt sein (z. B. an dem Gürtel des Benutzers oder an einer anderen geeigneten Position befestigt sein). Das Befestigen einer solchen Gehäuseeinheit an dem Benutzer sollte die Steuerung 25 und den Sensor 21 vorzugsweise in enger Nähe halten. Dies kann vorteilhaft sein, um die Verbindungen zwischen dem Sensor 21 und der Steuerung 25 kurz zu halten, bei Ausführungsbeispielen, bei denen der Sensor 21 an die Steuerung angebunden ist, oder um die Sensorschnittstelle 42 (z. B. eine Antenne) innerhalb der Reichweite der Antenne 63 zu halten, bei Ausführungsbeispielen, bei denen der Sensor 21 drahtlos kommuniziert.
  • Ferner, wie es vorher ausgeführt wurde, ist es möglich, die Steuerung 25 in das Gerät 14 einzubauen. Ein beispielhaftes Ausführungsbeispiel, das die Steuerung 25 in dem Gerät 14 enthalten zeigt, ist in Fig. 10 gezeigt. Bei diesem Ausführungsbeispiel ist die Steuerung 25 in der Software implementiert und in dem Speicher 103 gespeichert, ähnlich wie bei dem Ausführungsbeispiel, das in Fig. 2 gezeigt ist. Außerdem kommunizieren ein oder mehrere herkömmliche Verarbeitungselemente 106, wie z. B. ein Digitalsignalprozessor (DSP) oder eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) mit den anderen Elementen in dem Gerät 14 und treiben dieselben über eine lokale Schnittstelle 107, die einen oder mehrere Busse umfassen kann. Insbesondere ist das Verarbeitungselement 106 konfiguriert, um die Befehle jeder Software auszuführen, einschließlich der Steuerung 25, die in dem Speicher 103 gespeichert ist. Ferner kann eine Eingabe/Ausgabe- (I/O) Schnittstelle 109 verwendet werden, um Daten zu kommunizieren. Diesbezüglich kann die I/O-Schnittstelle 109 Bauelemente umfassen, die es ermöglichen, daß Daten von einem Benutzer eingegeben werden oder zu demselben ausgegeben werden. Solche Bauelemente können beispielsweise Knöpfe oder andere Arten von Schaltern umfassen, zum Eingeben von Informationen in das Gerät 14, und eine Flüssigkristallanzeige (LCD) oder eine andere Art von Anzeigegerät zum Ausgeben von Informationen von dem Gerät 14 (in Fig. 10 nicht spezifisch gezeigt). Das Gerät 14 von Fig. 10 umfaßt außerdem eine Sensorschnittstelle 112 zum Kommunizieren mit dem Sensor 21.
  • Wie es vorher beschrieben wurde, ist die Steuerung 25 konfiguriert, um das Gerät 14 auf der Basis physiologischer Zustände zu steuern, die durch den Sensor 21 erfaßt werden. Falls das Gerät 14 beispielsweise eine Kamera ist, wie es hierin oben beschrieben ist, kann die Steuerung 25 bewirken, daß das Gerät 14 ansprechend auf Informationen, die von dem Sensor 21 gesendet werden, ein Bild aufnimmt, oder das Aufzeichnen beginnt. Diesbezüglich kann die Steuerung 25 ein Signal übertragen, das einen Aufruf einer Bildspeicherroutine 116 hervorruft, die konfiguriert ist, um zu bewirken, daß das Gerät 14 mit dem Speichern von Bilddaten in dem Speicher 103 beginnt. Diese Bilddaten können durch einen Photodetektor (nicht gezeigt) in dem Gerät 14 geliefert werden, oder können von einem oder mehreren der Photodetektoren 67 von Fig. 4 geliefert werden. In jedem Fall ist der Betrieb der Steuerung 25 bei dem in Fig. 10 gezeigten Ausführungsbeispiel ähnlich wie der Betrieb der Steuerung 25 bei dem in Fig. 2 gezeigten Ausführungsbeispiel.
  • Die bevorzugte Verwendung und der bevorzugt Betrieb des Steuersystems 10 und zugeordnete Methodiken werden hierin nachfolgend beschrieben.
  • Um die vorliegende Erfindung zu veranschaulichen, nehme man an, daß das elektronische Gerät 14 eine Videokamera ist. Man nehme ferner an, daß das Steuersystem 10 konfiguriert ist, um zu Steuern, wann das Gerät 14 das Aufzeichnen einer Szene beginnt, auf der Basis des Erregungspegels eines Benutzers, wie es oben beschrieben ist. Diesbezüglich nehme man an, daß das Steuersystem 10 konfiguriert ist, um ein Steuersignal zum Betätigen des Geräts 14 zu übertragen, wenn das Steuersystem 10 bestimmt, daß sich die Körpertemperatur des Benutzers über einen vorbestimmten Schwellenwertpegel erhöht hat, und daß der Benutzer schnell blinzelt (d. h. der Benutzer blinzelt zumindest eine vorbestimmte Anzahl von Malen innerhalb einer spezifizierten Zeitperiode). Ferner nehme man an, daß der Sensor 21 einen Temperaturdetektor 91 zum Erfassen der Körpertemperatur des Benutzers erfaßt, und den Schalter 52, der in Fig. 4 gezeigt ist, zum Erfassen der Frequenz des Blinzelns des Benutzers.
  • Es sollte angemerkt werden, daß die Erfassung der vorhergehenden physiologischen Zustände zum Aktivieren einer Videokamera lediglich zu darstellenden Zwecken präsentiert wird. Diesbezüglich kann das Steuersystem 10 verwendet werden, um bei anderen Ausführungsbeispielen andere Arten von Steuersignalen zu anderen Arten von Produkten zu liefern. Ferner kann das Steuersystem 10 beim Steuern des Geräts 14 andere Arten von physiologischen Zuständen erfassen und die Entscheidungen darauf basieren, falls dies gewünscht wird.
  • Bei Block 121 von Fig. 11 ist der Schalter 52 benachbart zu dem Auge des Benutzers basiert, so daß er betätigt wird, wenn der Benutzer blinzelt, und der Temperaturdetektor 91 ist so positioniert, daß er die Körpertemperatur des Benutzers erfassen kann. Während dem Betrieb überträgt der Sensor 21 fortlaufend, periodisch oder auf Anfrage Informationen zu der Steuerung 25, die sich auf die überwachten physiologischen Zustände beziehen. Bei dem vorliegenden Beispiel erfaßt der Temperaturdetektor 91 die Körpertemperatur des Benutzers und überträgt Informationen, die die Temperatur des Benutzers anzeigen, zu der Steuerung 25. Außerdem erfaßt die Schaltungsanordnung 58 von Fig. 4 jedes Mal, wenn der Benutzer blinzelt, und dadurch den Schalter 52 betätigt. Die Schaltungsanordnung 58 überträgt dann über die Antenne 63 Informationen, die die Blinzelfrequenz des Benutzers anzeigen. Beispielsweise überträgt die Schaltungsanordnung 58 bei einem Ausführungsbeispiel unmittelbar ein Signal eines speziellen Logikpegels, wenn die Schaltungsanordnung 58 ein Blinzeln erfaßt. Die Steuerung 25 zählt dann die Anzahl von Signalen mit dem speziellen Logikpegel, der von der Antenne 63 empfangen wird, innerhalb einer spezifischen Zeitperiode, um die Blinzelfrequenz des Benutzers zu bestimmen.
  • Wenn die Steuerung 25 erfaßt, daß die Temperatur des Benutzers einen vorbestimmten Schwellenwert überschritten hat, und daß die Blinzelfrequenz des Benutzers gleichzeitig über einen vorbestimmten Schwellenwert angestiegen ist, bestimmt die Steuerung 25, daß das Gerät 14 in Block 124 aktiviert werden sollte. Ansprechend darauf überträgt die Steuerung 25 in Block 127 ein Steuersignal an das Gerät 14, das bewirkt, daß das Gerät 14 das Aufzeichnen beginnt. Somit hat zu diesem Punkt das Steuersystem 10 unwillkürliche physiologische Ansprechverhalten des Benutzers in ein Steuersignal zum Steuern des elektronischen Geräts 14 auf gewünschte Weise umgewandelt. Es ist anzumerken, daß das System 10, wie es vorher beschrieben wurde, das elektronische Gerät 14 auf andere Weisen steuern kann und/oder auf der Basis von anderen Arten von physiologischen Ansprechverhalten oder Zuständen.

Claims (29)

1. System zum Steuern elektronischer Geräte auf der Basis von physiologischen Ansprechverhalten, das folgende Merkmale umfaßt:
einen Sensor (21), der benachbart zu einem Auge (83) eines Benutzers positioniert ist, wobei der Sensor (21) konfiguriert ist, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen, und ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das physiologische Ansprechverhalten anzeigt; und
eine Steuerung (25), die konfiguriert ist, um das Signal zu empfangen und um ein elektronisches Gerät (14) auf der Basis des Signals zu steuern.
2. System gemäß Anspruch 1, bei dem die Steuerung (25) konfiguriert ist, um auf der Basis des Signals einen Wert zu bestimmen, der einen Erregungspegel des Benutzers anzeigt, und um das elektronische Gerät (14) auf der Basis des Werts zu steuern.
3. System gemäß Anspruch 1 oder 2, bei dem das physiologische Ansprechverhalten ein Blinzeln eines Augenlids des Benutzers ist.
4. System gemäß einem der Ansprüche 1 bis 3, bei dem das physiologische Ansprechverhalten unwillkürlich ist.
5. System gemäß Anspruch 4, bei dem das physiologische Ansprechverhalten einen Erregungspegel des Benutzers anzeigt.
6. System gemäß einem der Ansprüche 1 bis 5, das ferner eine Kontaktlinse (55) umfaßt, die mit dem Sensor (21) gekoppelt ist.
7. System gemäß einem der Ansprüche 1 bis 6, bei dem das elektronische Gerät (14) eine Kamera ist.
8. System gemäß einem der Ansprüche 1 bis 7, das ferner eine Antenne umfaßt, die mit der Kontaktlinse (55) gekoppelt ist.
9. System gemäß Anspruch 8, bei dem der Sensor (21) konfiguriert ist, um das Signal über die Antenne zu der Steuerung (25) zu übertragen.
10. System gemäß einem der Ansprüche 1 bis 9, bei dem der Sensor (21) einen Schalter (52) umfaßt, der innerhalb eines Bewegungswegs eines Augenlids des Benutzers positioniert ist, wobei der Schalter (52) betätigt wird, wenn der Benutzer mit dem Augenlid blinzelt.
11. System gemäß Anspruch 10, bei dem der Schalter (52) mit dem elektronischen Gerät (14) gekoppelt ist.
12. System zum Steuern elektronischer Geräte auf der Basis von physiologischen Ansprechverhalten, das folgende Merkmale umfaßt:
eine Kontaktlinse (55);
einen Sensor (21), der mit der Kontaktlinse (55) gekoppelt ist, wobei der Sensor (21) konfiguriert ist, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen, und ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das physiologische Ansprechverhalten anzeigt; und
eine Steuerung (25), die konfiguriert ist, um das Signal zu empfangen, und ein elektronisches Gerät (14) auf der Basis des Signals zu steuern.
13. System gemäß Anspruch 12, bei dem das elektronische Gerät (14) eine Kamera ist.
14. System gemäß Anspruch 12 oder 13, bei dem der Sensor (21) einen Schalter (52) umfaßt, der innerhalb eines Bewegungswegs eines Augenlids des Benutzers positioniert ist, wobei der Schalter (52) betätigt wird, wenn der Benutzer mit dem Augenlid blinzelt.
15. Verfahren zum Steuern elektronischer Geräte auf der Basis von physiologischen Ansprechverhalten, das folgende Schritte umfaßt:
Positionieren eines Sensors (21) benachbart zu einem Auge (83) eines Benutzers;
Erfassen eines physiologischen Ansprechverhaltens des Benutzers über den Sensor (21); und
automatisches Steuern eines elektronischen Geräts (14) auf der Basis des Erfassungsschritts.
16. Verfahren gemäß Anspruch 15, bei dem der Sensor (21) mit einer Kontaktlinse (55) gekoppelt ist.
17. Verfahren gemäß Anspruch 15 oder 16, das ferner den Schritt des Zählens einer Anzahl von Augenblinzeln über den Sensor (21) umfaßt, die durch den Benutzer innerhalb einer spezifizierten Zeitperiode durchgeführt werden, wobei der Steuerschritt auf dem Zählschritt basiert.
18. Verfahren gemäß einem der Ansprüche 15 bis 17, das ferner folgende Schritte umfaßt:
Bestimmen eines Werts, der einen Erregungspegel des Benutzers anzeigt, auf der Basis des Erfassungsschritts,
wobei der Steuerschritt auf dem Wert basiert, der in dem Bestimmungsschritt bestimmt wird.
19. Verfahren gemäß einem der Ansprüche 15 bis 18, bei dem das elektronische Gerät (14) eine Kamera ist.
20. System, das folgende Merkmale umfaßt:
eine Kamera;
einen Sensor (21), der konfiguriert ist, um ein physiologisches Ansprechverhalten eines Benutzers zu erfassen; und
eine Steuerung (25), die konfiguriert ist, um zu bewirken, daß die Kamera auf der Basis einer Erfassung des physiologischen Ansprechverhaltens durch den Sensor (21) ein Bild erfaßt.
21. System gemäß Anspruch 20, bei dem das physiologische Ansprechverhalten unwillkürlich ist.
22. System gemäß Anspruch 20 oder 21, bei dem die Steuerung (25) ferner konfiguriert ist, um einen Wert zu bestimmen, der einen Erregungspegel des Benutzers auf der Basis der Erfassung anzeigt, und bewirkt, daß die Kamera das Bild auf der Basis des Werts erfaßt.
23. System gemäß einem der Ansprüche 20 bis 22, das ferner eine Kontaktlinse (55) umfaßt, die mit dem Sensor (21) gekoppelt ist.
24. System gemäß einem der Ansprüche 20 bis 23, bei dem das physiologische Ansprechverhalten ein Blinzeln eines Augenlids des Benutzers ist.
25. Verfahren, das folgende Schritte umfaßt:
Liefern einer Kamera;
Erfassen eines physiologischen Ansprechverhaltens eines Benutzers der Kamera; und
automatisches Bewirken, daß die Kamera auf der Basis des Erfassungsschritts ein Bild erfaßt.
26. Verfahren gemäß Anspruch 25, bei dem das physiologische Ansprechverhalten unwillkürlich ist.
27. Verfahren gemäß Anspruch 26, das ferner den Schritt des Bestimmens eines Wertes umfaßt, auf der Basis des Erfassungsschritts, der einen Erregungspegel des Benutzers anzeigt, wobei der Bewirkungsschritt auf der Basis des Werts durchgeführt wird.
28. Verfahren gemäß einem der Ansprüche 25 bis 27, bei dem der Erfassungsschritt durch einen Sensor (21) durchgeführt wird, der mit einer Kontaktlinse (55) gekoppelt ist.
29. Verfahren gemäß einem der Ansprüche 25 bis 28, bei dem das physiologische Ansprechverhalten ein Blinzeln eines Augenlids des Benutzers ist.
DE10228995A 2001-07-30 2002-06-28 System und Verfahren zum Steuern elektronischer Geräte Withdrawn DE10228995A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/918,211 US6885818B2 (en) 2001-07-30 2001-07-30 System and method for controlling electronic devices

Publications (1)

Publication Number Publication Date
DE10228995A1 true DE10228995A1 (de) 2003-02-27

Family

ID=25439987

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10228995A Withdrawn DE10228995A1 (de) 2001-07-30 2002-06-28 System und Verfahren zum Steuern elektronischer Geräte

Country Status (4)

Country Link
US (2) US6885818B2 (de)
JP (1) JP2003177449A (de)
DE (1) DE10228995A1 (de)
GB (1) GB2380551B (de)

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8183998B2 (en) * 1996-12-16 2012-05-22 Ip Holdings, Inc. System for seamless and secure networking of implantable medical devices, electronic patch devices and wearable devices
US6169789B1 (en) 1996-12-16 2001-01-02 Sanjay K. Rao Intelligent keyboard system
US10728381B2 (en) * 1999-06-04 2020-07-28 Raman K. Rao Reconfigurable mobile device interfaces supporting authenticated high quality video, audio, TV and multimedia services
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
US7013009B2 (en) 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
US7624023B2 (en) * 2002-06-04 2009-11-24 International Business Machines Corporation Client opportunity modeling tool
US7201732B2 (en) * 2003-04-10 2007-04-10 Hewlett-Packard Development Company, L.P. Dispensing method and device for delivering material to an eye
GB2400667B (en) * 2003-04-15 2006-05-31 Hewlett Packard Development Co Attention detection
US7316930B1 (en) 2003-04-21 2008-01-08 National Semiconductor Corporation Use of vertically stacked photodiodes in a gene chip system
US7399274B1 (en) 2003-08-19 2008-07-15 National Semiconductor Corporation Sensor configuration for a capsule endoscope
US7731360B2 (en) * 2003-11-07 2010-06-08 Neuro Kinetics Portable video oculography system
US7369951B2 (en) * 2004-02-27 2008-05-06 Board Of Trustees Of Michigan State University Digital, self-calibrating proximity switch
JP2005332376A (ja) * 2004-04-22 2005-12-02 Fuji Xerox Co Ltd 情報処理装置、システム、情報処理方法およびプログラム
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
JP2008529707A (ja) * 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御
CA2543964A1 (en) * 2005-04-19 2006-10-19 Anton Sabeta Ophthalmic lens characterization
CA2548232A1 (en) * 2005-05-24 2006-11-24 Anton Sabeta A method & system for tracking the wearable life of an ophthalmic product
CN101495942A (zh) * 2005-09-26 2009-07-29 皇家飞利浦电子股份有限公司 用于分析正被提供内容信息的用户的情绪状态的方法和设备
US20070081123A1 (en) * 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7319908B2 (en) * 2005-10-28 2008-01-15 Microsoft Corporation Multi-modal device power/mode management
WO2008076774A2 (en) 2006-12-14 2008-06-26 Oakley, Inc. Wearable high resolution audio visual interface
JP5049356B2 (ja) 2007-02-28 2012-10-17 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド テクスチャ空間分解に基づく統計的顔モデリングにおける指向性照明変動性の分離
US7995794B2 (en) * 2007-03-02 2011-08-09 Sony Ericsson Mobile Communications Ab Remote control of an image capturing unit in a portable electronic device
US7802883B2 (en) 2007-12-20 2010-09-28 Johnson & Johnson Vision Care, Inc. Cosmetic contact lenses having a sparkle effect
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
GB2462887B (en) * 2008-09-01 2011-01-26 Wing Chi Winnie Hui Improvements in digital cameras
US20100076388A1 (en) * 2008-09-19 2010-03-25 Miro Cater Discharge device for pharmaceutical media
US9675443B2 (en) 2009-09-10 2017-06-13 Johnson & Johnson Vision Care, Inc. Energized ophthalmic lens including stacked integrated components
JP4659088B2 (ja) * 2008-12-22 2011-03-30 京セラ株式会社 カメラ付き携帯端末
WO2011063131A1 (en) * 2009-11-18 2011-05-26 Nohands, Llc Method and system for preventing virus-related obesity and obesity related diseases
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US20120194549A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses specific user interface based on a connected external device type
AU2011220382A1 (en) 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US20110298794A1 (en) * 2010-06-08 2011-12-08 Barney Freedman Circular polarized contact lenses and methods thereof
ES2835886T3 (es) 2010-07-15 2021-06-23 Eyenovia Inc Dispositivo generador de gotas
US10154923B2 (en) 2010-07-15 2018-12-18 Eyenovia, Inc. Drop generating device
CN103118643B (zh) 2010-07-15 2015-06-10 艾诺维亚股份有限公司 用于执行远程治疗和监测的方法和系统
CN103124541B (zh) 2010-07-15 2015-09-30 艾诺维亚股份有限公司 眼药物递送
JP2013541049A (ja) * 2010-10-11 2013-11-07 アドレンズ ビーコン インコーポレイテッド 流体充填調整可能コンタクトレンズ
US8950862B2 (en) 2011-02-28 2015-02-10 Johnson & Johnson Vision Care, Inc. Methods and apparatus for an ophthalmic lens with functional insert layers
US9698129B2 (en) 2011-03-18 2017-07-04 Johnson & Johnson Vision Care, Inc. Stacked integrated component devices with energization
US9914273B2 (en) * 2011-03-18 2018-03-13 Johnson & Johnson Vision Care, Inc. Method for using a stacked integrated component media insert in an ophthalmic device
US9110310B2 (en) 2011-03-18 2015-08-18 Johnson & Johnson Vision Care, Inc. Multiple energization elements in stacked integrated component devices
US10451897B2 (en) 2011-03-18 2019-10-22 Johnson & Johnson Vision Care, Inc. Components with multiple energization elements for biomedical devices
US9804418B2 (en) 2011-03-21 2017-10-31 Johnson & Johnson Vision Care, Inc. Methods and apparatus for functional insert with power layer
WO2013090468A1 (en) 2011-12-12 2013-06-20 Corinthian Ophthalmic, Inc. High modulus polymeric ejector mechanism, ejector device, and methods of use
US8857983B2 (en) 2012-01-26 2014-10-14 Johnson & Johnson Vision Care, Inc. Ophthalmic lens assembly having an integrated antenna structure
US9864211B2 (en) 2012-02-17 2018-01-09 Oakley, Inc. Systems and methods for removably coupling an electronic device to eyewear
US9116545B1 (en) 2012-03-21 2015-08-25 Hayes Solos Raffle Input detection
US9128522B2 (en) 2012-04-02 2015-09-08 Google Inc. Wink gesture input for a head-mountable device
US9201512B1 (en) 2012-04-02 2015-12-01 Google Inc. Proximity sensing for input detection
US9072465B2 (en) 2012-04-03 2015-07-07 Johnson & Johnson Vision Care, Inc. Blink detection system for electronic ophthalmic lens
US9980810B2 (en) * 2012-04-03 2018-05-29 Johnson & Johnson Vision Care, Inc. System controller for variable-optic electronic ophthalmic lens
US8798332B2 (en) 2012-05-15 2014-08-05 Google Inc. Contact lenses
US9523865B2 (en) 2012-07-26 2016-12-20 Verily Life Sciences Llc Contact lenses with hybrid power sources
US8857981B2 (en) 2012-07-26 2014-10-14 Google Inc. Facilitation of contact lenses with capacitive sensors
US9298020B1 (en) 2012-07-26 2016-03-29 Verily Life Sciences Llc Input system
US9158133B1 (en) 2012-07-26 2015-10-13 Google Inc. Contact lens employing optical signals for power and/or communication
US8919953B1 (en) 2012-08-02 2014-12-30 Google Inc. Actuatable contact lenses
US9696564B1 (en) 2012-08-21 2017-07-04 Verily Life Sciences Llc Contact lens with metal portion and polymer layer having indentations
US8971978B2 (en) 2012-08-21 2015-03-03 Google Inc. Contact lens with integrated pulse oximeter
US9111473B1 (en) 2012-08-24 2015-08-18 Google Inc. Input system
US8820934B1 (en) 2012-09-05 2014-09-02 Google Inc. Passive surface acoustic wave communication
US20140192315A1 (en) 2012-09-07 2014-07-10 Google Inc. In-situ tear sample collection and testing using a contact lens
US9398868B1 (en) 2012-09-11 2016-07-26 Verily Life Sciences Llc Cancellation of a baseline current signal via current subtraction within a linear relaxation oscillator-based current-to-frequency converter circuit
US10010270B2 (en) 2012-09-17 2018-07-03 Verily Life Sciences Llc Sensing system
US9326710B1 (en) 2012-09-20 2016-05-03 Verily Life Sciences Llc Contact lenses having sensors with adjustable sensitivity
US8870370B1 (en) 2012-09-24 2014-10-28 Google Inc. Contact lens that facilitates antenna communication via sensor impedance modulation
US8960898B1 (en) 2012-09-24 2015-02-24 Google Inc. Contact lens that restricts incoming light to the eye
US20140088372A1 (en) 2012-09-25 2014-03-27 Google Inc. Information processing method
US8989834B2 (en) 2012-09-25 2015-03-24 Google Inc. Wearable device
US8979271B2 (en) 2012-09-25 2015-03-17 Google Inc. Facilitation of temperature compensation for contact lens sensors and temperature sensing
US9884180B1 (en) 2012-09-26 2018-02-06 Verily Life Sciences Llc Power transducer for a retinal implant using a contact lens
US8985763B1 (en) 2012-09-26 2015-03-24 Google Inc. Contact lens having an uneven embedded substrate and method of manufacture
US8821811B2 (en) 2012-09-26 2014-09-02 Google Inc. In-vitro contact lens testing
US8960899B2 (en) 2012-09-26 2015-02-24 Google Inc. Assembling thin silicon chips on a contact lens
US9063351B1 (en) 2012-09-28 2015-06-23 Google Inc. Input detection system
US20140098226A1 (en) * 2012-10-08 2014-04-10 Google Inc. Image capture component on active contact lens
US8965478B2 (en) 2012-10-12 2015-02-24 Google Inc. Microelectrodes in an ophthalmic electrochemical sensor
US9176332B1 (en) 2012-10-24 2015-11-03 Google Inc. Contact lens and method of manufacture to improve sensor sensitivity
US9757056B1 (en) 2012-10-26 2017-09-12 Verily Life Sciences Llc Over-molding of sensor apparatus in eye-mountable device
US8874182B2 (en) 2013-01-15 2014-10-28 Google Inc. Encapsulated electronics
US9289954B2 (en) 2013-01-17 2016-03-22 Verily Life Sciences Llc Method of ring-shaped structure placement in an eye-mountable device
US9699433B2 (en) * 2013-01-24 2017-07-04 Yuchen Zhou Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye
US9636016B1 (en) 2013-01-25 2017-05-02 Verily Life Sciences Llc Eye-mountable devices and methods for accurately placing a flexible ring containing electronics in eye-mountable devices
US20140209481A1 (en) 2013-01-25 2014-07-31 Google Inc. Standby Biasing Of Electrochemical Sensor To Reduce Sensor Stabilization Time During Measurement
US9671619B2 (en) * 2013-02-28 2017-06-06 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with eye gaze sensor
US9778492B2 (en) * 2013-02-28 2017-10-03 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with lid position sensor
US9052528B2 (en) * 2013-02-28 2015-06-09 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with multi-input voting scheme
US9468372B2 (en) 2013-02-28 2016-10-18 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with rear-facing pupil diameter sensor
US10025114B2 (en) * 2013-03-13 2018-07-17 Johnson & Johnson Vision Care, Inc. Hydrogel lens having raised portions for improved oxygen transmission and tear flow
IL231344B (en) * 2013-03-13 2018-08-30 Johnson & Johnson Vision Care Methods for the production and use of energy-filled ophthalmic devices having an electrical storage mode
US9300645B1 (en) 2013-03-14 2016-03-29 Ip Holdings, Inc. Mobile IO input and output for smartphones, tablet, and wireless devices including touch screen, voice, pen, and gestures
US9304230B2 (en) * 2013-03-15 2016-04-05 Johnson & Johnson Vision Care, Inc. Hydrogel lens including a removable media insert
US9465236B2 (en) 2013-03-15 2016-10-11 Johnson & Johnson Vision Care, Inc. Ophthalmic devices incorporating photonic elements
EP2973533A4 (de) 2013-03-15 2016-11-30 Oakley Inc Elektronische dekoration für brillen
US20140268029A1 (en) * 2013-03-15 2014-09-18 Johnson & Johnson Vision Care, Inc. Method and ophthalmic device for providing visual representations to a user
US9389433B2 (en) * 2013-03-15 2016-07-12 Johnson Johnson Vision Care, Inc. Methods and apparatus to form ophthalmic devices incorporating photonic elements
US9161712B2 (en) 2013-03-26 2015-10-20 Google Inc. Systems and methods for encapsulating electronics in a mountable device
US9113829B2 (en) 2013-03-27 2015-08-25 Google Inc. Systems and methods for encapsulating electronics in a mountable device
WO2014178221A1 (ja) * 2013-05-02 2014-11-06 ソニー株式会社 コンタクトレンズおよび記憶媒体
WO2014178212A1 (ja) * 2013-05-02 2014-11-06 ソニー株式会社 コンタクトレンズおよび記憶媒体
US9429769B2 (en) * 2013-05-09 2016-08-30 Johnson & Johnson Vision Care, Inc. Ophthalmic device with thin film nanocrystal integrated circuits
JP6402711B2 (ja) * 2013-05-09 2018-10-10 ソニー株式会社 一対のコンタクトレンズ
US8941488B2 (en) * 2013-05-17 2015-01-27 Johnson & Johnson Vision Care, Inc. System and method for a processor controlled ophthalmic lens
CN205691887U (zh) 2013-06-12 2016-11-16 奥克利有限公司 模块化通信系统和眼镜通信系统
US20140371560A1 (en) 2013-06-14 2014-12-18 Google Inc. Body-Mountable Devices and Methods for Embedding a Structure in a Body-Mountable Device
US9084561B2 (en) 2013-06-17 2015-07-21 Google Inc. Symmetrically arranged sensor electrodes in an ophthalmic electrochemical sensor
US9948895B1 (en) 2013-06-18 2018-04-17 Verily Life Sciences Llc Fully integrated pinhole camera for eye-mountable imaging system
US9685689B1 (en) 2013-06-27 2017-06-20 Verily Life Sciences Llc Fabrication methods for bio-compatible devices
US9028772B2 (en) 2013-06-28 2015-05-12 Google Inc. Methods for forming a channel through a polymer layer using one or more photoresist layers
US9492118B1 (en) 2013-06-28 2016-11-15 Life Sciences Llc Pre-treatment process for electrochemical amperometric sensor
US9307901B1 (en) 2013-06-28 2016-04-12 Verily Life Sciences Llc Methods for leaving a channel in a polymer layer using a cross-linked polymer plug
US9814387B2 (en) 2013-06-28 2017-11-14 Verily Life Sciences, LLC Device identification
US9014639B2 (en) * 2013-07-11 2015-04-21 Johnson & Johnson Vision Care, Inc. Methods of using and smartphone event notification utilizing an energizable ophthalmic lens with a smartphone event indicator mechanism
US9052533B2 (en) * 2013-07-11 2015-06-09 Johnson & Johnson Vision Care, Inc. Energizable ophthalmic lens with a smartphone event indicator mechanism
CN105378598B (zh) * 2013-07-19 2018-12-25 索尼公司 检测装置和方法
US9170646B2 (en) * 2013-09-04 2015-10-27 Johnson & Johnson Vision Care, Inc. Ophthalmic lens system capable of interfacing with an external device
US9225375B2 (en) * 2013-09-23 2015-12-29 Johnson & Johnson Vision Care, Inc. Ophthalmic lens system capable of wireless communication with multiple external devices
CN103685940A (zh) * 2013-11-25 2014-03-26 上海斐讯数据通信技术有限公司 一种通过表情识别拍摄照片的方法
US9654674B1 (en) 2013-12-20 2017-05-16 Verily Life Sciences Llc Image sensor with a plurality of light channels
US9572522B2 (en) 2013-12-20 2017-02-21 Verily Life Sciences Llc Tear fluid conductivity sensor
US9808157B2 (en) 2013-12-30 2017-11-07 Verily Life Sciences Llc Hands-free interface
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US9366570B1 (en) 2014-03-10 2016-06-14 Verily Life Sciences Llc Photodiode operable in photoconductive mode and photovoltaic mode
US9184698B1 (en) 2014-03-11 2015-11-10 Google Inc. Reference frequency from ambient light signal
US10817051B2 (en) * 2014-03-13 2020-10-27 Julian Michael Urbach Electronic contact lenses and an image system comprising the same
US9789655B1 (en) 2014-03-14 2017-10-17 Verily Life Sciences Llc Methods for mold release of body-mountable devices including microelectronics
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
US9843385B2 (en) 2014-06-13 2017-12-12 Verily Life Sciences Llc Optical communication for body mountable devices
JP2016002353A (ja) * 2014-06-18 2016-01-12 ソニー株式会社 検出装置および方法、並びにプログラム
US9748631B2 (en) * 2014-07-04 2017-08-29 Verily Life Sciences Llc Manufacturing method for wireless devices
US9599842B2 (en) 2014-08-21 2017-03-21 Johnson & Johnson Vision Care, Inc. Device and methods for sealing and encapsulation for biocompatible energization elements
US9383593B2 (en) 2014-08-21 2016-07-05 Johnson & Johnson Vision Care, Inc. Methods to form biocompatible energization elements for biomedical devices comprising laminates and placed separators
US10381687B2 (en) 2014-08-21 2019-08-13 Johnson & Johnson Vision Care, Inc. Methods of forming biocompatible rechargable energization elements for biomedical devices
US9715130B2 (en) 2014-08-21 2017-07-25 Johnson & Johnson Vision Care, Inc. Methods and apparatus to form separators for biocompatible energization elements for biomedical devices
US9793536B2 (en) 2014-08-21 2017-10-17 Johnson & Johnson Vision Care, Inc. Pellet form cathode for use in a biocompatible battery
US10361405B2 (en) 2014-08-21 2019-07-23 Johnson & Johnson Vision Care, Inc. Biomedical energization elements with polymer electrolytes
US10361404B2 (en) 2014-08-21 2019-07-23 Johnson & Johnson Vision Care, Inc. Anodes for use in biocompatible energization elements
US9941547B2 (en) 2014-08-21 2018-04-10 Johnson & Johnson Vision Care, Inc. Biomedical energization elements with polymer electrolytes and cavity structures
US10627651B2 (en) 2014-08-21 2020-04-21 Johnson & Johnson Vision Care, Inc. Methods and apparatus to form biocompatible energization primary elements for biomedical devices with electroless sealing layers
KR102367550B1 (ko) * 2014-09-02 2022-02-28 삼성전자 주식회사 생체 신호를 이용한 카메라 모듈의 제어
KR102271817B1 (ko) * 2014-09-26 2021-07-01 삼성전자주식회사 증강현실을 위한 스마트 콘택렌즈와 그 제조 및 동작방법
US9894266B2 (en) 2015-06-30 2018-02-13 International Business Machines Corporation Cognitive recording and sharing
US10101581B2 (en) 2015-07-28 2018-10-16 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with eye closed sensor with open eye prompt and data logging
US10314530B2 (en) * 2015-10-27 2019-06-11 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with sleep monitoring
US10345620B2 (en) 2016-02-18 2019-07-09 Johnson & Johnson Vision Care, Inc. Methods and apparatus to form biocompatible energization elements incorporating fuel cells for biomedical devices
US20170354326A1 (en) * 2016-06-10 2017-12-14 Johnson & Johnson Vision Care, Inc. Electronic ophthalmic lens with medical monitoring
WO2018035160A1 (en) * 2016-08-15 2018-02-22 The Regents Of The University Of California Bio-sensing and eye-tracking system
WO2018098436A1 (en) 2016-11-28 2018-05-31 Spy Eye, Llc Unobtrusive eye mounted display
US10321050B2 (en) * 2016-11-29 2019-06-11 International Business Machines Corporation Determining optimal photograph capture timing based on data from wearable computer eyewear devices
US20180239422A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Tracking eye movements with a smart device
CA3066408A1 (en) 2017-06-10 2018-12-13 Eyenovia, Inc. Methods and devices for handling a fluid and delivering the fluid to the eye
US10673414B2 (en) 2018-02-05 2020-06-02 Tectus Corporation Adaptive tuning of a contact lens
US10505394B2 (en) 2018-04-21 2019-12-10 Tectus Corporation Power generation necklaces that mitigate energy absorption in the human body
US10838239B2 (en) 2018-04-30 2020-11-17 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10895762B2 (en) 2018-04-30 2021-01-19 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10790700B2 (en) 2018-05-18 2020-09-29 Tectus Corporation Power generation necklaces with field shaping systems
US11137622B2 (en) 2018-07-15 2021-10-05 Tectus Corporation Eye-mounted displays including embedded conductive coils
US10529107B1 (en) 2018-09-11 2020-01-07 Tectus Corporation Projector alignment in a contact lens
US10838232B2 (en) 2018-11-26 2020-11-17 Tectus Corporation Eye-mounted displays including embedded solenoids
US10644543B1 (en) 2018-12-20 2020-05-05 Tectus Corporation Eye-mounted display system including a head wearable object
CN111385458A (zh) * 2018-12-27 2020-07-07 上海华博信息服务有限公司 一种基于眼部动作捕捉的拍摄方法
US10944290B2 (en) 2019-08-02 2021-03-09 Tectus Corporation Headgear providing inductive coupling to a contact lens
US11276188B2 (en) 2020-05-01 2022-03-15 Tectus Corporation Stabilizing images produced by eye-mounted displays, based on images of the external environment captured by eye-mounted imaging devices
US11353954B2 (en) 2020-08-26 2022-06-07 Tectus Corporation Operating an electronic contact lens based on recognized objects in captured images

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3507988A (en) 1966-09-15 1970-04-21 Cornell Aeronautical Labor Inc Narrow-band,single-observer,television apparatus
US3958560A (en) * 1974-11-25 1976-05-25 Wayne Front March Non-invasive automatic glucose sensor system
US4089329A (en) * 1976-03-18 1978-05-16 University Of Utah Research Institute Noninvasive, continuous intraocular pressure monitor
GB1581018A (en) * 1978-05-25 1980-12-10 Standard Telephones Cables Ltd Control devices
GB2075671B (en) * 1980-05-09 1984-03-28 Tamkin Elec Control Services Control in response to eye closure for the handicapped
US4513317A (en) 1982-09-28 1985-04-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Retinally stabilized differential resolution television display
WO1995018565A1 (en) 1991-09-26 1995-07-13 Sam Technology, Inc. Non-invasive neurocognitive testing method and system
US5570151A (en) * 1993-12-27 1996-10-29 Nikon Corporation Camera which operates a shutter according to a photographer's wink and the vibration level
US5610678A (en) 1993-12-30 1997-03-11 Canon Kabushiki Kaisha Camera including camera body and independent optical viewfinder
US5734421A (en) 1995-05-30 1998-03-31 Maguire, Jr.; Francis J. Apparatus for inducing attitudinal head movements for passive virtual reality
US6120460A (en) * 1996-09-04 2000-09-19 Abreu; Marcio Marc Method and apparatus for signal acquisition, processing and transmission for evaluation of bodily functions
DE19728069C1 (de) 1997-07-01 1999-02-11 Acritec Gmbh Vorrichtung zur Messung des Augeninnendrucks
JPH11164186A (ja) 1997-11-27 1999-06-18 Fuji Photo Film Co Ltd 画像記録装置
FR2775588B1 (fr) * 1998-03-03 2000-08-11 Jacques Patrick Andres Systeme permettant a des personnes handicapees de communiquer avec leur environnement en utilisant le mouvement de leurs yeux et paupieres
US5956122A (en) 1998-06-26 1999-09-21 Litton Systems, Inc Iris recognition apparatus and method
US6190314B1 (en) 1998-07-15 2001-02-20 International Business Machines Corporation Computer input device with biosensors for sensing user emotions
JP4174923B2 (ja) 1999-07-23 2008-11-05 コニカミノルタホールディングス株式会社 装着型カメラ

Also Published As

Publication number Publication date
US20040044418A1 (en) 2004-03-04
US20030021601A1 (en) 2003-01-30
GB0216119D0 (en) 2002-08-21
JP2003177449A (ja) 2003-06-27
US6885818B2 (en) 2005-04-26
GB2380551B (en) 2005-04-06
GB2380551A (en) 2003-04-09
US6920283B2 (en) 2005-07-19

Similar Documents

Publication Publication Date Title
DE10228995A1 (de) System und Verfahren zum Steuern elektronischer Geräte
DE60111677T2 (de) Roboter und handlungsbestimmtes Verfahren für Roboter
Hickey et al. Reward guides attention to object categories in real-world scenes.
US10064550B2 (en) Method and apparatus for obtaining an image of an ocular feature
CN109155106A (zh) 状态推定装置、状态推定方法和状态推定程序
DE112014006082T5 (de) Pulswellenmessvorrichtung, Mobilvorrichtung, medizinisches Ausrüstungssystem und biologisches Informations-Kommunikationssystem
Kurylyak et al. Detection of the eye blinks for human's fatigue monitoring
EP1422639A2 (de) Bildverarbeitungsverfahren und System
EP3641624B1 (de) Bestimmung der augenöffnung mit einer augenverfolgungsvorrichtung
CN107169309B (zh) 基于头戴式检测设备的视野检测方法、系统及检测装置
DE202013012907U1 (de) Systeme zur Bereitstellung empfindlicher und spezifischer Alarme
DE19509689A1 (de) Körperzustands-Erfassungsapparat
DE112020001332T5 (de) System zur Bewertung der Stimmwiedergabe
Ghosh et al. Real time eye detection and tracking method for driver assistance system
EP3412200B1 (de) Verfahren zur erkennung des hautzustandes, elektronische vorrichtung und system zur erkennung des hautzustandes
DE69836831T2 (de) Vorrichtung zur überwachung von physiologischen parametern und zum bio-feedback
US20220036101A1 (en) Methods, systems and computer program products for driver monitoring
DE102014216237A1 (de) System und verfahren zurdurchführung einer medizinischen ferndiagnostik
EP0743041B1 (de) Pupillen Messanordnung und Alzheimer Krankheits Diagnosesystem
DE19642830A1 (de) Verfahren und Vorrichtung zur Unterbindung des Einschlafens und der Reaktionskontrolle von Personen
Khan et al. Efficient Car Alarming System for Fatigue Detectionduring Driving
WO1997015033A2 (de) Verfahren und vorrichtung zur unterbindung des einschlafens und der reaktionskontrolle von personen
DE102015101110A1 (de) Vorrichtung und Verfahren zur Messung der Gleichgewichtswahrnehmung bei Personen
US20170304625A1 (en) Adaptive cognitive prosthetic and applications thereof
WO1998052309A1 (de) Verfahren und vorrichtung zum messen der aufmerksamkeit von lebewesen innerhalb einer menge von lebewesen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE

8130 Withdrawal