DE10228995A1 - System und Verfahren zum Steuern elektronischer Geräte - Google Patents
System und Verfahren zum Steuern elektronischer GeräteInfo
- Publication number
- DE10228995A1 DE10228995A1 DE10228995A DE10228995A DE10228995A1 DE 10228995 A1 DE10228995 A1 DE 10228995A1 DE 10228995 A DE10228995 A DE 10228995A DE 10228995 A DE10228995 A DE 10228995A DE 10228995 A1 DE10228995 A1 DE 10228995A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- sensor
- controller
- physiological response
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C11/00—Non-optical adjuncts; Attachment thereof
- G02C11/10—Electronic devices other than hearing aids
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/04—Contact lenses for the eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Abstract
Ein System der vorliegenden Erfindung steuert automatisch elektronische Geräte auf der Basis physiologischer Zustände eines Benutzers. Diesbezüglich umfaßt das System einen Sensor und eine Steuerung. Der Sensor ist benachbart zu einem Auge eines Benutzers positioniert und ist konfiguriert, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen. Der Sensor ist konfiguriert, um ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das Ansprechverhalten anzeigt. Die Steuerung ist konfiguriert, um das Signal zu empfangen und um ein elektronisches Gerät auf der Basis des Signals zu steuern.
Description
- Die vorliegende Erfindung bezieht sich allgemein auf Datenverarbeitungstechniken und insbesondere auf ein System und Verfahren zum Erfassen physiologischer Zustände und zum automatischen Steuern von elektronischen Geräten auf der Basis der erfaßten physiologischen Zustände.
- Verschiedene elektronische Geräte ermöglichen es den Benutzern, absichtliche Eingangssignale zum Steuern vieler Merkmale der elektronischen Geräte zu liefern. Beispielsweise umfaßt eine Kamera normalerweise einen Knopf oder eine andere Art von Schalter, der bewirkt, daß die Kamera ein Bild aufnimmt oder damit beginnt, eine Szene aufzuzeichnen wenn er durch einen Benutzer betätigt wird. Wenn somit der Benutzer eine Szene sieht, die er oder sie mit der Kamera erfassen möchte, stellt der Benutzer sicher, daß die Kamera zu der interessanten Szene zeigt und betätigt dann den vorhergehenden Knopf. Ansprechend darauf nimmt die Kamera ein Bild der Szene, die vor der Linse der Kamera liegt, auf oder zeichnet dieselbe auf.
- Leider ist für einen Benutzer nur ein begrenzter Zeitraum vorhanden, um ein absichtliches Eingangssignal zu einem elektronischen Gerät zu liefern. Beispielsweise kann es sein, daß ein Benutzer eine Szene sieht, die er mit einer Kamera erfassen möchte. Zu dem Zeitpunkt, zu dem der Benutzer den Eingabeknopf betätigt, um ein Bild der Szene aufzunehmen oder damit zu beginnen, die Szene aufzuzeichnen, kann sich die Szene ändern. Folglich kann es sein, daß der Benutzer nicht in der Lage ist, das gewünschte Bild mit der Kamera zu erfassen.
- Es ist die Aufgabe der vorliegenden Erfindung, ein System und ein Verfahren zum verbesserten Steuern von elektronischen Geräten zu schaffen.
- Diese Aufgabe wird durch ein System gemäß Anspruch 1, 12 oder 20 und durch ein Verfahren gemäß Anspruch 15 oder 25 gelöst.
- Somit besteht in der Technik ein bisher nicht adressierter Bedarf nach einem effizienten System und Verfahren zum schnellen Liefern von Eingangssignalen an oder zum Steuern von verschiedenen elektronischen Geräten, wie z. B. elektronischer Kameras. Allgemein liefert die vorliegende Erfindung ein System und Verfahren zum Erfassen physiologischer Zustände und zum automatischen Steuern elektronischer Geräte auf der Basis der erfaßten physiologischen Zustände.
- Bei der Architektur verwendet das System der vorliegenden Erfindung einen Sensor und eine Steuerung. Der Sensor ist benachbart zu einem Auge eines Benutzers positioniert ist konfiguriert, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen. Der Sensor ist konfiguriert, um ansprechend auf die Erfassung eines physiologischen Ansprechverhaltens ein Signal zu übertragen, das das Ansprechverhalten anzeigt. Die Steuerung ist konfiguriert, um das Signal zu empfangen und ein elektronisches Gerät auf der Basis des Signals zu steuern.
- Die vorliegende Erfindung kann auch so gesehen werden, daß sie ein Verfahren zum Steuern von elektronischen Geräten auf der Basis von physiologischen Zuständen liefert. Das Verfahren kann grob durch die folgenden Schritte dargestellt werden: Positionieren eines Sensors benachbart zu einem Auge eines Benutzers; Erfassen eines Auftretens einer physiologischen Bedingung des Benutzers über den Sensor; und automatisches Steuern eines elektronischen Gerätes auf der Basis des Erfassungsschritts.
- Die Erfindung kann mit Bezugnahme auf die folgenden Zeichnungen besser verstanden werden. Die Elemente der Zeichnung sind nicht notwendigerweise maßstabsgerecht zueinander, statt dessen wurde der Schwerpunkt darauf gelegt, die Prinzipien der Erfindung deutlich darzustellen. Ferner bezeichnen gleiche Bezugszeichen entsprechende Teile in den verschiedenen Ansichten.
- Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend auf den beiliegenden Zeichnungen näher erläutert. Es zeigen:
- Fig. 1 ein Blockdiagramm, das ein Steuersystem gemäß der vorliegenden Erfindung darstellt;
- Fig. 2 ein Blockdiagramm, das ein Computersystem darstellt, das eine Steuerung verwendet, wie sie in Fig. 1 dargestellt ist;
- Fig. 3 ein Diagramm, das eine Seitenansicht eines in Fig. 1 dargestellten Sensors darstellt, wenn der Sensor über eine Kontaktlinse implementiert ist;
- Fig. 4 ein Diagramm, das eine Vorderansicht der in Fig. 3 dargestellten Kontaktlinse darstellt;
- Fig. 5 ein Diagramm, das Photoemitter und Photodetektoren darstellt, die sich in der in Fig. 4 dargestellten Kontaktlinse befinden;
- Fig. 6 ein Blockdiagramm, das verschiedene Erfassungselemente darstellt, die sich in der Kontaktlinse von Fig. 5 befinden;
- Fig. 7 ein Diagramm eines Okulars eines in Fig. 1 dargestellten elektronischen Gerätes, wenn das Okular in der Nähe eines Auges des Benutzers positioniert ist, so daß ein Schalter, der mit dem Okular gekoppelt ist, in der Lage ist, das Blinzeln des Augenlides des Benutzers zu erfassen
- Fig. 8 ein Diagramm eines Okulars eines in Fig. 1 dargestellten elektronischen Gerätes, wenn ein Sensor mit dem Gesicht eines Benutzers Eingriff nimmt und an das Okular angebunden ist;
- Fig. 9 ein Diagramm eines Okulars eines in Fig. 1 dargestellten elektronischen Gerätes, wenn das Okular einen Laser oder eine andere Art von Photoemitter zum Erfassen von Blinzeln des Augenlids eines Benutzers oder der Größe der Pupille des Benutzers umfaßt;
- Fig. 10 ein Blockdiagramm, das eine detailliertere Ansicht eines in Fig. 1 dargestellten elektrischen Gerätes darstellt; und
- Fig. 11 ein Flußdiagramm, das eine beispielhafte Methodik zum Steuern eines elektronischen Geräts gemäß der vorliegenden Erfindung darstellt.
- Allgemein gesagt liefert die vorliegende Erfindung ein System und ein Verfahren zum automatischen Liefern von Steuersignalen an ein elektronisches Gerät basierend auf einem erfaßten physiologischen Zustand oder Ansprechverhalten. Somit können Steuersignale schnell und effizient an das elektronische Gerät geliefert werden. Wenn ferner der erfaßte physiologische Zustand willkürlich ist, kann der Aufwand des Benutzers, Eingangssignale an das elektronische Gerät zu liefern, wesentlich reduziert werden.
- Fig. 1 zeigt ein beispielhaftes Steuersystem 10, das in der Lage ist, Eingangssignale oder Steuersignale an ein elektronisches Gerät 14 zu liefern. Wie der Begriff hierin verwendet wird, ist "ein elektronisches Gerät" jedes Gerät, das zumindest teilweise über elektronische Signale gesteuert wird. Zu Darstellungszwecken wird das elektronische Gerät 14 hierin als eine Kamera beschrieben, die in der Lage ist, ein Bild einer Szene zu erfassen. Es sollte jedoch angemerkt werden, daß das elektronische Gerät 14 nicht so begrenzt sein sollte, und es ist möglich, daß das elektronische Gerät 14 als andere Produkttypen zum Durchführen verschiedener anderer Funktionalitäten implementiert sein kann.
- Darüber hinaus gibt es verschiedene Methodiken, die verwendet werden können, um ein Bild einer Szene "zu erfassen". Beispielsweise kann photoempfindliches Material (Film) mit Licht von der Szene belichtet werden, und dadurch ein Bild der Szene auf dem photographischen Material bilden. Alternativ kann Licht von der Szene in digitale Daten umgewandelt werden, die ein Bild der Szene definieren, und die digitalen Daten können im Speicher gespeichert werden und/oder verwendet werden, um das Bild der Szene aufzubereiten. Das elektronische Gerät 14 kann als eine Standbildkamera (d. h. eine Kamera, die ein Bild nach dem anderen erfaßt) entworfen sein, oder kann als eine Videokamera entworfen sein (d. h. eine Kamera, die wenn sie betätigt wird, fortlaufend die Bilder erfaßt, die vor der Linse der Kamera liegen, um ein Bewegtbild zu definieren).
- Es ist anzumerken, daß eine Videokamera auch verwendet werden kann, um zu ausgewählten Zeiten Standbilder zu erfassen. Beispielsweise kann eine Videokamera entwickelt sein, um ansprechend auf eine Benutzereingabe das Bild, das derzeit durch die Linse der Kamera betrachtet wird, als Standbild zu speichern. Bei einem anderen Ausführungsbeispiel kann die Videokamera konfiguriert sein, um ansprechend auf eine Benutzereingabe einen speziellen Rahmen eines Bewegtbildes, das durch die Videokamera aufgezeichnet wird, mit einem Wasserzeichen zu versehen. Zu einem späteren Zeitpunkt kann das Wasserzeichenbild auf Anforderung als Standbild aufbereitet werden. Es kann verschiedene andere Methodiken geben, die verwendet werden können, um Stand- oder Bewegtbilder zu erfassen.
- Wie es in Fig. 1 gezeigt ist, umfaßt das Steuersystem 10 einen Sensor 21, der elektrisch mit einer Steuerung 25 gekoppelt ist. Der Sensor 21 ist in der Lage, einen oder mehrere physiologische Zustände zu erfassen und ist konfiguriert, um Informationen an die Steuerung 25 zu übertragen, die sich auf die Zustände beziehen, die durch den Sensor 21 erfaßt werden. Der Sensor 21 kann über ein oder mehrere leitfähige Busse oder Drähte mit der Steuerung 25 verbunden sein. Alternativ kann der Sensor 21 physikalisch von der Steuerung 21 getrennt sein, und physiologische Zustandsinformationen drahtlos zu der Steuerung 25 kommunizieren. Falls der Sensor 21 Informationen drahtlos kommuniziert, kann der Sensor 25 eine drahtlose Schnittstelle, wie z. B. eine Antenne, umfassen, beispielsweise zum Kommunizieren mit der Steuerung 25.
- Die Steuerung 25 ist vorzugsweise in der Lage, mit dem elektronischen Gerät 14 zu kommunizieren. Die Steuerung 25 kann über einen oder mehrere leitfähige Busse oder Drähte mit dem elektronischen Gerät 14 verbunden sein. Alternativ kann die Steuerung 25 physikalisch von dem elektronischen Gerät 14 getrennt sein, und kann drahtlos mit dem elektronischen Gerät 14 kommunizieren. Falls die Steuerung 25 Informationen drahtlos kommuniziert, kann die Steuerung 25 eine drahtlose Schnittstelle, wie z. B. eine Antenne, umfassen, beispielsweise zum Kommunizieren von Informationen zu dem elektronischen Gerät 14. Es ist anzumerken, daß es möglich ist, daß die Steuerung 25 in mechanischen Komponenten, wie z. B. einem Gehäuse des elektronischen Geräts 14, positioniert ist oder fest an denselben befestigt ist.
- Es ist anzumerken, daß die Steuerung 25 in Software, Hardware oder einer Kombination derselben implementiert sein kann. Bei einem Ausführungsbeispiel, wie es als Beispiel in Fig. 2 dargestellt ist, ist die Steuerung 25 zusammen mit der zugeordneten Methodik in Software implementiert und in dem Speicher 31 eines Computersystems 33 gespeichert.
- Das Computersystem 33 von Fig. 2 umfaßt ein oder mehrere herkömmliche Verarbeitungselemente 36, wie z. B. einen Digitalsignalprozessor (DSP; DSP = digital signal processor) oder eine zentrale Verarbeitungseinheit (CPU; CPU = Central Processing Unit), die die anderen Elemente in dem System 33, über eine lokale Schnittstelle 37, die einen oder mehrere Busse umfassen kann, kommunizieren und treiben. Ferner kann eine Eingabe/Ausgabe- (I/O-) Schnittstelle 39 verwendet werden, um Daten mit dem System 33 und insbesondere mit der Steuerung 25 zu kommunizieren. Die I/O-Schnittstelle 39 kann Geräte umfassen, die es ermöglichen, daß Daten von einem Benutzer eingegeben werden oder zu demselben ausgegeben werden. Solche Geräte können beispielsweise Knöpfe oder andere Arten von Schaltern umfassen, zum Eingeben von Informationen in das System 33, und eine Flüssigkristallanzeige (LCD = Liquid Crystal Display) oder eine andere Art von Anzeigegerät zum Ausgeben von Informationen von dem System 33. Das System 33 von Fig. 2 umfaßt außerdem eine Sensorschnittstelle 42 und eine Datenschnittstelle 45 zum jeweiligen Kommunizieren mit dem Sensor 21 und dem Gerät 14 (in Fig. 2 nicht gezeigt).
- Die Steuerung 25 ist konfiguriert, um die physiologischen Zustandsinformationen zu empfangen, die von dem Sensor 21 gesendet werden, und um zu bestimmen, ob auf der Basis dieser Informationen irgendwelche Steuersignale zu dem elektronischen Gerät 14 gesendet werden. Wenn das elektronische Gerät 14 beispielsweise eine Kamera ist, kann die Steuerung 25 auf der Basis der Informationen, die durch den Sensor 21 geliefert werden, bestimmen, daß das Gerät 14 ein Bild einer Szene erfassen soll. Ansprechend darauf kann die Steuerung 25 ein Steuersignal an das elektronische Gerät senden, daß das Gerät 14 anweist, ein Bild zu erfassen. Somit wird das Gerät 14 automatisch durch das Steuersystem 10 angewiesen, ein Bild einer Szene zu erfassen, ansprechend auf einen oder mehrere physiologische Zustände, die durch den Sensor 21 erfaßt werden.
- Es gibt verschiedene Arten von physiologischen Zuständen, die zum Zweck des Steuerns des Geräts 14 durch das Steuersystem 10 überwacht werden können. Beispielsweise kann es wünschenswert sein, daß der Erregungspegel eines Benutzers als Auslösungsmoment zum Steuern des elektronischen Geräts 14 dient. Diesbezüglich zeigt ein Benutzer einer Kamera oft Anzeichen von Erregung, wenn der Benutzer ein Bild einer Szene sieht, das er oder sie mit einer Kamera erfassen möchte. Somit kann der Sensor 21 konfiguriert sein, um eine oder mehrere physiologische Zustände oder Ansprechverhalten in dem Körper des Benutzers zu erfassen, die anzeigen, ob ein Benutzer erregt ist. Auf der Basis solcher Erfassungen durch den Sensor 21 kann die Steuerung 25 bestimmen, daß sich der Erregungspegel des Benutzers erhöht hat und ansprechend darauf das elektrische Gerät 14 anweisen, ein Bild zu erfassen. Somit bewirkt das System 10, daß das elektrische Gerät 14 auf der Basis des Erregungspegels des Benutzers ein Bild einer Szene erfaßt.
- Verschiedene physiologische Ansprechverhalten treten in dem Körper eines Benutzers auf, wenn ein Benutzer erregt ist. Wenn ein Benutzer erregt ist, kann es beispielsweise sein, daß der Benutzer erfaßbare Mengen an Schweiß oder Pheromonen ausstößt, oder es kann sein, daß der Benutzer öfter mit seinem Auge blinzelt. Außerdem ändern sich die Körper- oder Hauttemperatur des Benutzers und das galvanische Hautansprechverhalten normalerweise mit einer Änderung bei dem Erregungspegel, und mit einer Erhöhung der Erregung erhöht sich normalerweise auch die Gehirnwellenaktivität. Wenn ein Benutzer ein interessantes Objekt sieht, das den Benutzer erregt, dreht ein Benutzer häufig seinen Augapfel, um seine oder ihre Sicht auf das Objekt zu fokussieren, und wenn der Benutzer erregter wird, erweitert sich seine Pupille normalerweise stärker. Der Sensor 21 ist konfiguriert, um ein oder mehrere der vorhergehenden physiologischen Ansprechverhalten zu überwachen, um der Steuerung 25 ausreichend Informationen zu liefern, zum Bestimmen, wie das elektronische Gerät 14 gesteuert werden soll. Es gibt verschiedene andere physiologische Ansprechverhalten, die im Körper des Benutzers auftreten, wenn der Benutzer erregt wird, und diese können durch das Steuersystem 10 zum Steuern des elektronischen Geräts 14 überwacht werden.
- Es ist anzumerken, daß es derzeit viele Arten von herkömmlichen Sensoren zum Überwachen des galvanischen Hautansprechverhaltens, der Gehirnwellenaktivität, der Körper- und Hauttemperatur, der Herzfrequenz, des Blutsauerstoffpegels, des Schweißes und anderer Pheromone gibt, und diese herkömmliche Sensoren können beim Implementieren der vorliegenden Erfindung verwendet werden. Während dem Betrieb sind viele dieser herkömmlichen Sensoren zum Überwachen eines oder mehrerer der vorhergehenden unwillkürlichen physiologischen Ansprechverhalten vorzugsweise an dem Benutzer befestigt, der überwacht wird. Um dem Benutzer während dem Betrieb eine bessere Bewegungsfreiheit zu liefern, kann es daher wünschenswert sein, daß der Sensor 21 von der Steuerung und/oder dem elektronischen Gerät 14 physikalisch getrennt ist. Bei einem solchen Ausführungsbeispiel kann die Kommunikation zwischen der Steuerung 25 und/oder dem Gerät 14 über drahtlose Signale beibehalten werden.
- Es gibt verschiedene Techniken, die verwendet werden können, um zu bestimmen, wann der Benutzer mit seinen Augen blinzelt. Bei einem Ausführungsbeispiel kann ein kleiner Schalter (z. B. ein Mikroschalter oder ein Nanoschalter) in enger Nähe zu dem Augenlid des Benutzers positioniert sein. Der Schalter kann betätigt werden, wenn der Benutzer blinzelt, so daß jeder Blinzelvorgang des Augenlids des Benutzers durch den Schalter erfaßt werden kann. Ein solcher Schalter ist in Fig. 3 und 4 gezeigt, und ist mit dem Bezugszeichen 25 bezeichnet.
- Bei dem in Fig. 3 und 4 gezeigten Ausführungsbeispiel ist der Schalter 52 mit einer Kontaktlinse 55 gekoppelt, die ähnlich wie herkömmliche Kontaktlinsen auf einem der Augäpfel des Benutzers getragen werden kann. Bei Fig. 3 und 4 ist der Schalter 52 eine Reibungsrolle, obwohl andere Arten von Bauelementen verwendet werden können, um den Schalter 52 bei anderen Ausführungsbeispielen zu implementieren. Wenn der Benutzer blinzelt, verläuft das Augenlid des Benutzers über die Oberfläche der Kontaktlinse 55 und schließlich über den Schalter 52. Die Reibung zwischen dem Augenlid des Benutzers und dem Schalter 52 bewirkt, daß sich der Schalter 52 bewegt, oder genauer gesagt, dreht. Wenn das Augenlid des Benutzers geöffnet ist, bewirkt die Reibung zwischen dem Augenlid des Benutzers und dem Schalter 52, daß sich der Schalter 52 in die entgegengesetzte Richtung bewegt, und dadurch den Schalter zu seiner ursprünglichen Position oder seinem ursprünglichen Zustand zurück bewegt.
- Die Bewegung des Schalters 52 wird durch eine Schaltungsanordnung 58 erfaßt, die eine Betätigung des Schalters 52 erfaßt, wenn der Schalter 52 durch ein Blinken des Benutzers bewegt wird, wie es oben beschrieben ist. Wenn die Schaltungsanordnung 58 die Betätigung des Schalters 52 erfaßt, überträgt die Schaltungsanordnung 58 ein Signal, um die Steuerung 25 über die Betätigung zu benachrichtigen. Falls die Steuerung 25 physikalisch von der Schaltung 58 getrennt ist, überträgt die Schaltungsanordnung 58 das Signal über eine Antenne 63 drahtlos zu der Steuerung 25. Die Steuerung 25 kann die Frequenz des Blinzeln überwachen, das durch die Schaltungsanordnung 58 erfaßt wird, um zu bestimmen, wann sich der Erregungspegel des Benutzers erhöht oder verringert hat. Die Steuerung 25 kann dann auf der Basis der Veränderung bei dem Erregungspegel des Benutzers ein Steuersignal zu dem elektronischen Gerät 14 übertragen. Falls beispielsweise die Steuerung 25 bestimmt, daß sich die Frequenz des Blinzelns des Benutzers erhöht hat, kann die Steuerung 25 bestimmen, daß sich der Erregungspegel des Benutzers erhöht hat und das Gerät 14 daher ein Bild erfassen sollte. Ansprechend darauf kann die Steuerung 25 ein Steuersignal an das Gerät 14 übertragen, um das Gerät 14 anzuweisen, ein Bild zu erfassen.
- Es ist anzumerken, daß es für das Gerät 14 möglich ist, beim Erfassen eines Bildes bei ein Bild aufzunehmen oder das Bild aufzuzeichnen, auf der Basis von Licht, das von einem oder mehreren Photodetektoren 67 erfaßt wird, die sich auf oder in der Kontaktlinse 55 befinden. Bei einem solchen Ausführungsbeispiel können ein oder mehrere Photodetektoren 67 Bildinformationen über eine Antenne 63 zu dem Gerät 14 übertragen, und auf der Basis dieser Informationen kann das Gerät 14 ein Bild der Szene speichern, die auf die Photodetektoren 67 belichtet wird. Diesbezüglich erfassen die Photodetektoren 67, die auf oder in der Kontaktlinse 55 positioniert sind, ein Bild, und Daten, die dieses Bild definieren, werden zu dem Gerät 14, das entfernt von der Linse 55 positioniert sein kann, übertragen und in demselben gespeichert. Da sich die Kontaktlinse 55 auf dem Augapfel des Benutzers befindet, sollten die Photodetektoren 67 das gleiche Bild empfangen, das von dem Benutzer betrachtet wird. Wenn das Gerät 14 Bilddaten speichert, die von den Photodetektoren 67 übertragen werden, sollte das Gerät 14 daher das gleiche Bild erfassen, das von dem Benutzer gesehen wird.
- Das Verwenden von Informationen von dem Sensor 21, um Steuerentscheidungen durchzuführen, kann insbesondere bei dem vorhergehenden Ausführungsbeispiel vorteilhaft sein, wo sich die Photodetektoren 67 in einer Kontaktlinse 55 befinden, oder bei einem Ausführungsbeispiel, wo sich die Photodetektoren 67 in einer Brille oder einer anderen Art von kopfbefestigten Vorrichtung befinden. Diesbezüglich können die Photodetektoren 67 bei solchen Ausführungsbeispielen automatisch durch die Szene belichtet werden, die von dem Benutzer gesehen wird, so wie es oben beschrieben ist. Wenn daher die Steuerung 25 erfaßt, daß der Benutzer erregt ist, ist es wahrscheinlich, daß die Szene, die der Benutzer betrachtet, den Benutzer erregt. Daher ist es wahrscheinlich, daß der Benutzer beabsichtigt, ansprechend auf eine Erhöhung des Erregungspegels des Benutzers, ein Bild der Szene oder des Bildes aufzunehmen, das durch das Gerät 14 erfaßt wird. Angenommen, daß das Vorhergehende stimmt, sollte das Erfassen der Szene durch das Gerät 14 sehr bald nach dem der Benutzer erregt ist, auftreten, falls das Gerät 14 automatisch auf der Basis von Erfassungen durch den Sensor 21 gesteuert wird, wie es oben beschrieben ist. In der Tat sollte das Erfassen der Szene viel früher auftreten als bei einem Ausführungsbeispiel, bei dem der Benutzer aufgefordert wird, eine herkömmliche Kamera auf die interessante Szene zu richten, und die Kamera manuell zu betätigen. Daher ist es durch Verwenden der Techniken der vorliegenden Erfindung weniger wahrscheinlich, daß sich die Szene verändert hat, bevor das Gerät 14 ein Bild der Szene erfaßt.
- Es sollte angemerkt werden, daß jede der Komponenten der Linse 55, die in Fig. 3 und 4 gezeigt ist, eine ausreichend kleine Größe aufweisen sollte (z. B. Nanogröße oder Mikrogröße), so daß die Sicht des Benutzers durch das Vorliegen der Komponenten in der Linse 55 nicht wesentlich beeinträchtigt wird. Es ist außerdem anzumerken, daß ein Generator 68 notwendig sein kann, um die Komponenten der Linse 55 mit ausreichend Leistung zu versorgen. Der Generator 68 ist in der U. S.-Patentanmeldung mit dem Titel "System and Method for Providing Power to Electrical Devices" näher beschrieben, die gleichzeitig hiermit eingereicht wurde, und die hierin durch Bezugnahme aufgenommen ist.
- Wie es durch Fig. 5 gezeigt ist, kann die Linse 55 Photoemitter 71 umfassen, die konfiguriert sind, um Licht zu dem Auge eines Benutzers zu emittieren, wenn der Benutzer die Linse 55 auf seinem Augapfel trägt. Dieses Licht sollte vom Auge des Benutzers reflektieren, und zumindest einige der Photodetektoren 67 können konfiguriert sein, um das reflektierte Licht zu empfangen oder zu erfassen. Daten, die dieses reflektierte Licht definieren, können dann zu der Steuerung 25 gesendet werden, die diese Daten verarbeitet, um zu bestimmen, wie das elektronische Gerät 14 gesteuert werden soll. Beispielsweise kann die Steuerung 25 die vorhergehenden Daten analysieren, um zu bestimmen, wann und/oder wie oft der Benutzer blinzelt. Alternativ kann die Steuerung 25 die vorhergehenden Daten analysieren, um zu bestimmen, ob sich die Pupille des Benutzers ausgedehnt hat oder nicht. Wie es vorher beschrieben wurde, kann die Blinzelfrequenz und der Betrag der Pupillenausdehnung anzeigen, daß der Benutzer erregt ist, und die Steuerung 25 kann diese Informationen verwenden, um das Gerät 14 auf spezielle Weise zu steuern.
- Wie es durch Fig. 6 gezeigt ist, kann die Linse 55 einen Biegungssensor 86 umfassen, der konfiguriert ist, und so erfassen, wenn sich die Linse 55 deformiert und daher, wenn der Benutzer seinen Augapfel bewegt. Ein Benutzer bewegt bzw. biegt normalerweise seinen Augapfel, um ein Objekt von Interesse zu fokussieren. Somit kann die Steuerung 25 die Informationen, die durch den Biegungssensor 86 geliefert werden, verwenden, um dazu beizutragen, zu bestimmen, ob der Benutzer eine Szene sieht, die für den Benutzer erregend ist, und die Steuerung 25 kann daher diese Informationen verwenden, um das Gerät 14 zu steuern.
- Verschiedene andere biometrische Sensoren können in der Linse 55 enthalten sein. Beispielsweise kann die Linse 55 einen Temperaturdetektor 91 umfassen, um die Körpertemperatur des Benutzers zu erfassen, oder einen Pulsdetektor 92 um den Puls des Benutzers zu erfassen. Außerdem kann die Linse 55 einen Galvanisches-Hautansprechverhalten-Detektor 93, einen Schweißdetektor 94, einen Pheromon-Detektor 95 und/oder einen Hirnwellendetektor 96 umfassen. Informationen von einem oder mehreren dieser Detektoren 91 bis 96 können zu der Steuerung 25 übertragen werden und von derselben verwendet werden, um den Erregungspegel des Benutzers zu erfassen, und dadurch das Gerät 14 zu steuern.
- Es ist anzumerken, daß es nicht notwendig ist, daß sich die Komponenten von Fig. 2 bis 6 in oder auf einer Linse 55 befinden. Diesbezüglich können sich die Komponenten von Fig. 2 bis 6 in oder auf jedem Gerät befinden, das in nächster Nähe zu dem Auge des Benutzers positioniert ist. Beispielsweise können sich die Komponenten in oder auf einer Brille befinden, die von dem Benutzer getragen wird. Bei einem anderen Beispiel können sich die Komponenten in oder auf einem Okular (d. h. einer Komponente, die während dem Betrieb nahe an einem Auge des Benutzers gehalten wird) des Geräts 14 befinden, insbesondere wenn das Gerät 14 als eine Kamera implementiert ist. Bei solchen Ausführungsbeispielen können sich die Photodetektoren 67 und/oder die Photoemitter 71 in oder auf einer Linse einer Brille oder eines Okulars befinden. Ferner kann der Schalter 52 als ein Hebel implementiert werden, der sich in den Bewegungsweg des Augenlids des Benutzers erstreckt, wenn der Benutzer blinzelt. Es ist anzumerken, daß sich der Begriff "Augenlid", wie er hierin verwendet wird, auf die Wimpern des Benutzers bezieht, zusätzlich zu der Haut des Benutzers, die während einem Blinzeln über das Auge des Benutzers verläuft.
- Fig. 7 zeigt einen Schalter 52, der in einem Bewegungsweg des Augenlids des Benutzers positioniert ist, wie es oben beschrieben ist. Der Schalter 52 von Fig. 7 ist mit einem Okular 76 gekoppelt, das genau vor dem Auge des Benutzers 83 positioniert sein sollte, wenn der Benutzer durch das Okular 76 schaut. Das Okular 76 kann jede Komponente des Geräts 14 sein, die während dem normalen Betrieb des Geräts 14 nahe an das Auge des Benutzers 83 gehalten wird. Wenn das Gerät 14 beispielsweise als eine Kamera implementiert ist, kann das Okular 76 ein Teil des Suchers der Kamera sein, der während dem normalen Betrieb der Kamera typischerweise benachbart zu dem Auge des Benutzers gehalten wird. Wenn der Benutzer blinzelt, sollte das Augenlid des Benutzers mit dem Schalter 52 Eingriff nehmen und denselben bewegen, und dadurch den Schalter 52 betätigen. Wenn der Benutzer während einem Blinzeln sein Auge öffnet, sollte der Schalter 52 konfiguriert sein, um zu seiner ursprünglichen Position zurückzukehren, so daß das nächste Blinzeln durch den Benutzer erfaßt werden kann.
- Außerdem können ähnlich zu dem Schalter 52 alle der Detektoren 91 bis 96 von Fig. 6 mit dem Okular 76 gekoppelt sein. Es kann notwendig sein, einige dieser Detektoren 91 bis 96 mit dem Gesicht des Benutzers in Eingriff zu bringen, um das Erfassen der physiologischen Zustände von Interesse zu ermöglichen. Beispielsweise kann es notwendig oder wünschenswert sein, den Temperaturdetektor 91 oder den Galvanisches-Hautansprechverhalten-Detektor 93 mit dem Gesicht des Benutzers oder einer anderen Körperposition in Eingriff zu bringen, so daß der Detektor 91 oder 93 einen abgelesenen Meßwert aufnehmen kann. Falls beispielsweise ein Okular des Geräts 14 entworfen ist, um während dem normalen Betrieb des Geräts 14 mit dem Gesicht des Benutzers Eingriff zu nehmen, kann sich ein Sensor, wie z. B. der Detektor 91 oder 93, auf einem Abschnitt des Okulars befinden, so daß der Detektor 91 oder 93 mit dem Gesicht des Benutzers Eingriff nimmt, wenn das Okular während dem normalen Betrieb richtig positioniert ist. Bei einem weiteren Beispiel kann ein Sensor, wie z. B. der Detektor 91 oder 93, an dem Gesicht des Benutzers befestigt oder über ein flexibles Halteseil 99 an dem Okular 76 angebunden sein, wie es in Fig. 8 gezeigt ist. Andere Arten von Detektoren können bei anderen Ausführungsbeispielen auf ähnliche Weise mit dem Benutzer Eingriff nehmen.
- Darüber hinaus kann es sein, daß es nicht notwendig ist, einen oder mehrere der Detektoren 91 bis 96 mit dem Benutzer in Eingriff zu bringen. Beispielsweise kann das Okular 76 entworfen sein, um sich eng an das Auge des Benutzers anzupassen, und der Schweißdetektor 94 kann mit dem Okular 76 gekoppelt sein, so daß sich der Detektor 94 zwischen dem Okular 76 und dem Auge des Benutzers 83 befindet. Falls der Benutzer erregt wird und mehr Schweiß ausstößt, sollte die Luft zwischen dem Auge des Benutzers und dem Okular 76 feuchter werden, und der Schweißdetektor 94 kann konfiguriert sein, um die Feuchtigkeit dieser Luft zu messen, ohne mit dem Benutzer in Eingriff zu sein. Falls sich die Feuchtigkeit dieser Luft erhöht, kann die Steuerung 25 bestimmen, daß der Benutzer erregter ist, und kann daher das Gerät 14 entsprechend steuern.
- Bei einem weiteren Beispiel, das in Fig. 9 dargestellt ist, kann das Okular 76 einen Laser oder einen Photoemitter 101 umfassen, der Licht zu dem Auge des Benutzers 83 emittiert, ähnlich wie die Photoemitter 71 von Fig. 5. Die Photodetektoren 102, die ähnlich sind wie die Photodetektoren 67 von Fig. 5, die sich auf dem Okular 76 befinden, können dann das Licht erfassen, das von dem Auge des Benutzers 83 reflektiert wird, um die Bestimmung der Rate des Augenlidblinkens oder des Betrags der Pupillenausdehnung zu ermöglichen. Wie es hierin oben beschrieben ist, können solche Informationen durch die Steuerung 25 verwendet werden, um zu bestimmen, wie das elektronische Gerät 14 gesteuert werden sollte. Es ist anzumerken, daß bei anderen Ausführungsbeispielen andere Arten von Detektoren mit dem Okular 76 gekoppelt sein können.
- Es sollte ferner angemerkt werden, daß die physiologischen Zustände, die hierin oben beschrieben sind, im Allgemeinen unwillkürliche Ansprechverhalten waren, die auf dem Erregungspegel eines Benutzers basieren. Es ist jedoch möglich, daß die Steuerung 25 ihren Betrieb auf andere Arten von erfaßten Zuständen basiert. Beispielsweise könnte der Benutzer gemäß einer bestimmten Struktur oder einem Algorithmus mit dem Auge absichtlich blinzeln, um einen Wunsch zu übertragen, das Gerät 14 auf spezielle Weise zu steuern.
- Zu Darstellungszwecken nehme man an, daß die Schaltungsanordnung 58 in der Lage ist, zu erfassen, ob ein Blinzeln ein langes Blinzeln (d. h. ein Blinzeln, bei dem das Auge des Benutzers für eine spezifizierte Zeitperiode geschlossen bleibt) oder ein kurzes Blinzeln ist (d. h. ein Blinzeln, bei dem das Auge des Benutzers kürzer geschlossen bleibt als eine spezifizierte Zeitperiode). Man nehme außerdem an, daß die Steuerung 25 konfiguriert ist, um ein spezielles Steuersignal (z. B. ein Steuersignal, das das Gerät 14 anweist, das Bild zu erfassen) zu übertragen, ansprechend auf Erfassungen durch den Sensor 21, daß der Benutzer in einer spezifizierten Zeitperiode ein kurzes Blinzeln durchgeführt hat, gefolgt von einem langen Blinzeln. Bei diesem Ausführungsbeispiel kann der Benutzer durch Durchführen eines kurzen Blinzelns, gefolgt von einem langen Blinzeln, absichtlich bewirken, daß das Gerät 14 ein Bild erfaßt. Wenn dies auftritt, kommuniziert der Sensor 21 Informationen an die Steuerung 25, die das Auftreten der beiden Blinzelzeichen anzeigt, und ansprechend darauf überträgt die Steuerung 25 ein Steuersignal an das Gerät 14, das bewirkt, daß das Gerät 14 ein Bild erfaßt. Wie es durch das vorhergehende Beispiel gezeigt ist, kann somit die Steuerung 25 konfiguriert sein, um das Gerät 14 auf der Basis von absichtlichen Eingabesignalen zu konfigurieren, die durch den Sensor 21 erfaßt werden. Es ist anzumerken, daß andere Blinzelmuster zum Steuern des Geräts 14 möglich sind, ohne von den Prinzipien der vorliegenden Erfindung abzuweichen.
- Es sollte außerdem angemerkt werden, daß es verschiedene Methodiken gibt, die für die Steuerung 25 verwendet werden können, um zu bestimmen, wie das Gerät 14 auf der Basis der Informationen, die durch den Sensor 21 geliefert werden, gesteuert werden soll. Diesbezüglich kann die Steuerung 25 analysieren, ob eine Mehrzahl der vorher erwähnten physiologischen Ansprechverhalten innerhalb einer spezifizierten Zeitperiode aufgetreten ist, um zu bestimmen, ob der Benutzer erregt ist, so daß ein spezielles Steuersignal zu dem Gerät 14 übertragen werden sollte. Bei einem solchen Ausführungsbeispiel ist das Auftreten eines der physiologischen Ansprechverhalten (z. B. eine Erhöhung bei der Blinzelfrequenz, eine Erhöhung der Körpertemperatur usw.) ein Faktor bei der Gesamtentscheidung über den Status des Erregungspegels des Benutzers, und daher darüber, ob ein spezielles Steuersignal durch die Steuerung 25 übertragen werden sollte.
- Außerdem ist die Steuerung 25 bei dem in Fig. 1 und 2 gezeigten Ausführungsbeispiel als getrennt von dem Gerät 14 gezeigt, und ist doch in der Lage, über eine Datenschnittstelle 45 mit dem Gerät 14 zu kommunizieren. Bei einem solchen Ausführungsbeispiel kann sich die Steuerung 25 an jeder geeigneten Position befinden, einschließlich innerhalb der Linse 55. Beispielsweise können die Steuerung 25 und die anderen Komponenten des System 33 in der Gehäuseeinheit (nicht gezeigt) untergebracht sein, und diese Gehäuseeinheit kann an dem Benutzer befestigt sein (z. B. an dem Gürtel des Benutzers oder an einer anderen geeigneten Position befestigt sein). Das Befestigen einer solchen Gehäuseeinheit an dem Benutzer sollte die Steuerung 25 und den Sensor 21 vorzugsweise in enger Nähe halten. Dies kann vorteilhaft sein, um die Verbindungen zwischen dem Sensor 21 und der Steuerung 25 kurz zu halten, bei Ausführungsbeispielen, bei denen der Sensor 21 an die Steuerung angebunden ist, oder um die Sensorschnittstelle 42 (z. B. eine Antenne) innerhalb der Reichweite der Antenne 63 zu halten, bei Ausführungsbeispielen, bei denen der Sensor 21 drahtlos kommuniziert.
- Ferner, wie es vorher ausgeführt wurde, ist es möglich, die Steuerung 25 in das Gerät 14 einzubauen. Ein beispielhaftes Ausführungsbeispiel, das die Steuerung 25 in dem Gerät 14 enthalten zeigt, ist in Fig. 10 gezeigt. Bei diesem Ausführungsbeispiel ist die Steuerung 25 in der Software implementiert und in dem Speicher 103 gespeichert, ähnlich wie bei dem Ausführungsbeispiel, das in Fig. 2 gezeigt ist. Außerdem kommunizieren ein oder mehrere herkömmliche Verarbeitungselemente 106, wie z. B. ein Digitalsignalprozessor (DSP) oder eine zentrale Verarbeitungseinheit (CPU = Central Processing Unit) mit den anderen Elementen in dem Gerät 14 und treiben dieselben über eine lokale Schnittstelle 107, die einen oder mehrere Busse umfassen kann. Insbesondere ist das Verarbeitungselement 106 konfiguriert, um die Befehle jeder Software auszuführen, einschließlich der Steuerung 25, die in dem Speicher 103 gespeichert ist. Ferner kann eine Eingabe/Ausgabe- (I/O) Schnittstelle 109 verwendet werden, um Daten zu kommunizieren. Diesbezüglich kann die I/O-Schnittstelle 109 Bauelemente umfassen, die es ermöglichen, daß Daten von einem Benutzer eingegeben werden oder zu demselben ausgegeben werden. Solche Bauelemente können beispielsweise Knöpfe oder andere Arten von Schaltern umfassen, zum Eingeben von Informationen in das Gerät 14, und eine Flüssigkristallanzeige (LCD) oder eine andere Art von Anzeigegerät zum Ausgeben von Informationen von dem Gerät 14 (in Fig. 10 nicht spezifisch gezeigt). Das Gerät 14 von Fig. 10 umfaßt außerdem eine Sensorschnittstelle 112 zum Kommunizieren mit dem Sensor 21.
- Wie es vorher beschrieben wurde, ist die Steuerung 25 konfiguriert, um das Gerät 14 auf der Basis physiologischer Zustände zu steuern, die durch den Sensor 21 erfaßt werden. Falls das Gerät 14 beispielsweise eine Kamera ist, wie es hierin oben beschrieben ist, kann die Steuerung 25 bewirken, daß das Gerät 14 ansprechend auf Informationen, die von dem Sensor 21 gesendet werden, ein Bild aufnimmt, oder das Aufzeichnen beginnt. Diesbezüglich kann die Steuerung 25 ein Signal übertragen, das einen Aufruf einer Bildspeicherroutine 116 hervorruft, die konfiguriert ist, um zu bewirken, daß das Gerät 14 mit dem Speichern von Bilddaten in dem Speicher 103 beginnt. Diese Bilddaten können durch einen Photodetektor (nicht gezeigt) in dem Gerät 14 geliefert werden, oder können von einem oder mehreren der Photodetektoren 67 von Fig. 4 geliefert werden. In jedem Fall ist der Betrieb der Steuerung 25 bei dem in Fig. 10 gezeigten Ausführungsbeispiel ähnlich wie der Betrieb der Steuerung 25 bei dem in Fig. 2 gezeigten Ausführungsbeispiel.
- Die bevorzugte Verwendung und der bevorzugt Betrieb des Steuersystems 10 und zugeordnete Methodiken werden hierin nachfolgend beschrieben.
- Um die vorliegende Erfindung zu veranschaulichen, nehme man an, daß das elektronische Gerät 14 eine Videokamera ist. Man nehme ferner an, daß das Steuersystem 10 konfiguriert ist, um zu Steuern, wann das Gerät 14 das Aufzeichnen einer Szene beginnt, auf der Basis des Erregungspegels eines Benutzers, wie es oben beschrieben ist. Diesbezüglich nehme man an, daß das Steuersystem 10 konfiguriert ist, um ein Steuersignal zum Betätigen des Geräts 14 zu übertragen, wenn das Steuersystem 10 bestimmt, daß sich die Körpertemperatur des Benutzers über einen vorbestimmten Schwellenwertpegel erhöht hat, und daß der Benutzer schnell blinzelt (d. h. der Benutzer blinzelt zumindest eine vorbestimmte Anzahl von Malen innerhalb einer spezifizierten Zeitperiode). Ferner nehme man an, daß der Sensor 21 einen Temperaturdetektor 91 zum Erfassen der Körpertemperatur des Benutzers erfaßt, und den Schalter 52, der in Fig. 4 gezeigt ist, zum Erfassen der Frequenz des Blinzelns des Benutzers.
- Es sollte angemerkt werden, daß die Erfassung der vorhergehenden physiologischen Zustände zum Aktivieren einer Videokamera lediglich zu darstellenden Zwecken präsentiert wird. Diesbezüglich kann das Steuersystem 10 verwendet werden, um bei anderen Ausführungsbeispielen andere Arten von Steuersignalen zu anderen Arten von Produkten zu liefern. Ferner kann das Steuersystem 10 beim Steuern des Geräts 14 andere Arten von physiologischen Zuständen erfassen und die Entscheidungen darauf basieren, falls dies gewünscht wird.
- Bei Block 121 von Fig. 11 ist der Schalter 52 benachbart zu dem Auge des Benutzers basiert, so daß er betätigt wird, wenn der Benutzer blinzelt, und der Temperaturdetektor 91 ist so positioniert, daß er die Körpertemperatur des Benutzers erfassen kann. Während dem Betrieb überträgt der Sensor 21 fortlaufend, periodisch oder auf Anfrage Informationen zu der Steuerung 25, die sich auf die überwachten physiologischen Zustände beziehen. Bei dem vorliegenden Beispiel erfaßt der Temperaturdetektor 91 die Körpertemperatur des Benutzers und überträgt Informationen, die die Temperatur des Benutzers anzeigen, zu der Steuerung 25. Außerdem erfaßt die Schaltungsanordnung 58 von Fig. 4 jedes Mal, wenn der Benutzer blinzelt, und dadurch den Schalter 52 betätigt. Die Schaltungsanordnung 58 überträgt dann über die Antenne 63 Informationen, die die Blinzelfrequenz des Benutzers anzeigen. Beispielsweise überträgt die Schaltungsanordnung 58 bei einem Ausführungsbeispiel unmittelbar ein Signal eines speziellen Logikpegels, wenn die Schaltungsanordnung 58 ein Blinzeln erfaßt. Die Steuerung 25 zählt dann die Anzahl von Signalen mit dem speziellen Logikpegel, der von der Antenne 63 empfangen wird, innerhalb einer spezifischen Zeitperiode, um die Blinzelfrequenz des Benutzers zu bestimmen.
- Wenn die Steuerung 25 erfaßt, daß die Temperatur des Benutzers einen vorbestimmten Schwellenwert überschritten hat, und daß die Blinzelfrequenz des Benutzers gleichzeitig über einen vorbestimmten Schwellenwert angestiegen ist, bestimmt die Steuerung 25, daß das Gerät 14 in Block 124 aktiviert werden sollte. Ansprechend darauf überträgt die Steuerung 25 in Block 127 ein Steuersignal an das Gerät 14, das bewirkt, daß das Gerät 14 das Aufzeichnen beginnt. Somit hat zu diesem Punkt das Steuersystem 10 unwillkürliche physiologische Ansprechverhalten des Benutzers in ein Steuersignal zum Steuern des elektronischen Geräts 14 auf gewünschte Weise umgewandelt. Es ist anzumerken, daß das System 10, wie es vorher beschrieben wurde, das elektronische Gerät 14 auf andere Weisen steuern kann und/oder auf der Basis von anderen Arten von physiologischen Ansprechverhalten oder Zuständen.
Claims (29)
1. System zum Steuern elektronischer Geräte auf der Basis
von physiologischen Ansprechverhalten, das folgende
Merkmale umfaßt:
einen Sensor (21), der benachbart zu einem Auge (83) eines Benutzers positioniert ist, wobei der Sensor (21) konfiguriert ist, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen, und ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das physiologische Ansprechverhalten anzeigt; und
eine Steuerung (25), die konfiguriert ist, um das Signal zu empfangen und um ein elektronisches Gerät (14) auf der Basis des Signals zu steuern.
einen Sensor (21), der benachbart zu einem Auge (83) eines Benutzers positioniert ist, wobei der Sensor (21) konfiguriert ist, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen, und ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das physiologische Ansprechverhalten anzeigt; und
eine Steuerung (25), die konfiguriert ist, um das Signal zu empfangen und um ein elektronisches Gerät (14) auf der Basis des Signals zu steuern.
2. System gemäß Anspruch 1, bei dem die Steuerung (25)
konfiguriert ist, um auf der Basis des Signals einen
Wert zu bestimmen, der einen Erregungspegel des
Benutzers anzeigt, und um das elektronische Gerät (14) auf
der Basis des Werts zu steuern.
3. System gemäß Anspruch 1 oder 2, bei dem das
physiologische Ansprechverhalten ein Blinzeln eines Augenlids
des Benutzers ist.
4. System gemäß einem der Ansprüche 1 bis 3, bei dem das
physiologische Ansprechverhalten unwillkürlich ist.
5. System gemäß Anspruch 4, bei dem das physiologische
Ansprechverhalten einen Erregungspegel des Benutzers
anzeigt.
6. System gemäß einem der Ansprüche 1 bis 5, das ferner
eine Kontaktlinse (55) umfaßt, die mit dem Sensor (21)
gekoppelt ist.
7. System gemäß einem der Ansprüche 1 bis 6, bei dem das
elektronische Gerät (14) eine Kamera ist.
8. System gemäß einem der Ansprüche 1 bis 7, das ferner
eine Antenne umfaßt, die mit der Kontaktlinse (55)
gekoppelt ist.
9. System gemäß Anspruch 8, bei dem der Sensor (21)
konfiguriert ist, um das Signal über die Antenne zu der
Steuerung (25) zu übertragen.
10. System gemäß einem der Ansprüche 1 bis 9, bei dem der
Sensor (21) einen Schalter (52) umfaßt, der innerhalb
eines Bewegungswegs eines Augenlids des Benutzers
positioniert ist, wobei der Schalter (52) betätigt wird,
wenn der Benutzer mit dem Augenlid blinzelt.
11. System gemäß Anspruch 10, bei dem der Schalter (52)
mit dem elektronischen Gerät (14) gekoppelt ist.
12. System zum Steuern elektronischer Geräte auf der Basis
von physiologischen Ansprechverhalten, das folgende
Merkmale umfaßt:
eine Kontaktlinse (55);
einen Sensor (21), der mit der Kontaktlinse (55) gekoppelt ist, wobei der Sensor (21) konfiguriert ist, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen, und ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das physiologische Ansprechverhalten anzeigt; und
eine Steuerung (25), die konfiguriert ist, um das Signal zu empfangen, und ein elektronisches Gerät (14) auf der Basis des Signals zu steuern.
eine Kontaktlinse (55);
einen Sensor (21), der mit der Kontaktlinse (55) gekoppelt ist, wobei der Sensor (21) konfiguriert ist, um ein physiologisches Ansprechverhalten des Benutzers zu erfassen, und ansprechend auf eine Erfassung des physiologischen Ansprechverhaltens ein Signal zu übertragen, das das physiologische Ansprechverhalten anzeigt; und
eine Steuerung (25), die konfiguriert ist, um das Signal zu empfangen, und ein elektronisches Gerät (14) auf der Basis des Signals zu steuern.
13. System gemäß Anspruch 12, bei dem das elektronische
Gerät (14) eine Kamera ist.
14. System gemäß Anspruch 12 oder 13, bei dem der Sensor
(21) einen Schalter (52) umfaßt, der innerhalb eines
Bewegungswegs eines Augenlids des Benutzers
positioniert ist, wobei der Schalter (52) betätigt wird, wenn
der Benutzer mit dem Augenlid blinzelt.
15. Verfahren zum Steuern elektronischer Geräte auf der
Basis von physiologischen Ansprechverhalten, das
folgende Schritte umfaßt:
Positionieren eines Sensors (21) benachbart zu einem Auge (83) eines Benutzers;
Erfassen eines physiologischen Ansprechverhaltens des Benutzers über den Sensor (21); und
automatisches Steuern eines elektronischen Geräts (14) auf der Basis des Erfassungsschritts.
Positionieren eines Sensors (21) benachbart zu einem Auge (83) eines Benutzers;
Erfassen eines physiologischen Ansprechverhaltens des Benutzers über den Sensor (21); und
automatisches Steuern eines elektronischen Geräts (14) auf der Basis des Erfassungsschritts.
16. Verfahren gemäß Anspruch 15, bei dem der Sensor (21)
mit einer Kontaktlinse (55) gekoppelt ist.
17. Verfahren gemäß Anspruch 15 oder 16, das ferner den
Schritt des Zählens einer Anzahl von Augenblinzeln
über den Sensor (21) umfaßt, die durch den Benutzer
innerhalb einer spezifizierten Zeitperiode
durchgeführt werden, wobei der Steuerschritt auf dem
Zählschritt basiert.
18. Verfahren gemäß einem der Ansprüche 15 bis 17, das
ferner folgende Schritte umfaßt:
Bestimmen eines Werts, der einen Erregungspegel des Benutzers anzeigt, auf der Basis des Erfassungsschritts,
wobei der Steuerschritt auf dem Wert basiert, der in dem Bestimmungsschritt bestimmt wird.
Bestimmen eines Werts, der einen Erregungspegel des Benutzers anzeigt, auf der Basis des Erfassungsschritts,
wobei der Steuerschritt auf dem Wert basiert, der in dem Bestimmungsschritt bestimmt wird.
19. Verfahren gemäß einem der Ansprüche 15 bis 18, bei dem
das elektronische Gerät (14) eine Kamera ist.
20. System, das folgende Merkmale umfaßt:
eine Kamera;
einen Sensor (21), der konfiguriert ist, um ein physiologisches Ansprechverhalten eines Benutzers zu erfassen; und
eine Steuerung (25), die konfiguriert ist, um zu bewirken, daß die Kamera auf der Basis einer Erfassung des physiologischen Ansprechverhaltens durch den Sensor (21) ein Bild erfaßt.
eine Kamera;
einen Sensor (21), der konfiguriert ist, um ein physiologisches Ansprechverhalten eines Benutzers zu erfassen; und
eine Steuerung (25), die konfiguriert ist, um zu bewirken, daß die Kamera auf der Basis einer Erfassung des physiologischen Ansprechverhaltens durch den Sensor (21) ein Bild erfaßt.
21. System gemäß Anspruch 20, bei dem das physiologische
Ansprechverhalten unwillkürlich ist.
22. System gemäß Anspruch 20 oder 21, bei dem die
Steuerung (25) ferner konfiguriert ist, um einen Wert zu
bestimmen, der einen Erregungspegel des Benutzers auf
der Basis der Erfassung anzeigt, und bewirkt, daß die
Kamera das Bild auf der Basis des Werts erfaßt.
23. System gemäß einem der Ansprüche 20 bis 22, das ferner
eine Kontaktlinse (55) umfaßt, die mit dem Sensor (21)
gekoppelt ist.
24. System gemäß einem der Ansprüche 20 bis 23, bei dem
das physiologische Ansprechverhalten ein Blinzeln
eines Augenlids des Benutzers ist.
25. Verfahren, das folgende Schritte umfaßt:
Liefern einer Kamera;
Erfassen eines physiologischen Ansprechverhaltens eines Benutzers der Kamera; und
automatisches Bewirken, daß die Kamera auf der Basis des Erfassungsschritts ein Bild erfaßt.
Liefern einer Kamera;
Erfassen eines physiologischen Ansprechverhaltens eines Benutzers der Kamera; und
automatisches Bewirken, daß die Kamera auf der Basis des Erfassungsschritts ein Bild erfaßt.
26. Verfahren gemäß Anspruch 25, bei dem das
physiologische Ansprechverhalten unwillkürlich ist.
27. Verfahren gemäß Anspruch 26, das ferner den Schritt
des Bestimmens eines Wertes umfaßt, auf der Basis des
Erfassungsschritts, der einen Erregungspegel des
Benutzers anzeigt, wobei der Bewirkungsschritt auf der
Basis des Werts durchgeführt wird.
28. Verfahren gemäß einem der Ansprüche 25 bis 27, bei dem
der Erfassungsschritt durch einen Sensor (21)
durchgeführt wird, der mit einer Kontaktlinse (55) gekoppelt
ist.
29. Verfahren gemäß einem der Ansprüche 25 bis 28, bei dem
das physiologische Ansprechverhalten ein Blinzeln
eines Augenlids des Benutzers ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/918,211 US6885818B2 (en) | 2001-07-30 | 2001-07-30 | System and method for controlling electronic devices |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10228995A1 true DE10228995A1 (de) | 2003-02-27 |
Family
ID=25439987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10228995A Withdrawn DE10228995A1 (de) | 2001-07-30 | 2002-06-28 | System und Verfahren zum Steuern elektronischer Geräte |
Country Status (4)
Country | Link |
---|---|
US (2) | US6885818B2 (de) |
JP (1) | JP2003177449A (de) |
DE (1) | DE10228995A1 (de) |
GB (1) | GB2380551B (de) |
Families Citing this family (183)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8183998B2 (en) * | 1996-12-16 | 2012-05-22 | Ip Holdings, Inc. | System for seamless and secure networking of implantable medical devices, electronic patch devices and wearable devices |
US6169789B1 (en) | 1996-12-16 | 2001-01-02 | Sanjay K. Rao | Intelligent keyboard system |
US10728381B2 (en) * | 1999-06-04 | 2020-07-28 | Raman K. Rao | Reconfigurable mobile device interfaces supporting authenticated high quality video, audio, TV and multimedia services |
US20120105740A1 (en) | 2000-06-02 | 2012-05-03 | Oakley, Inc. | Eyewear with detachable adjustable electronics module |
US8482488B2 (en) | 2004-12-22 | 2013-07-09 | Oakley, Inc. | Data input management system for wearable electronically enabled interface |
US7013009B2 (en) | 2001-06-21 | 2006-03-14 | Oakley, Inc. | Eyeglasses with wireless communication features |
US7624023B2 (en) * | 2002-06-04 | 2009-11-24 | International Business Machines Corporation | Client opportunity modeling tool |
US7201732B2 (en) * | 2003-04-10 | 2007-04-10 | Hewlett-Packard Development Company, L.P. | Dispensing method and device for delivering material to an eye |
GB2400667B (en) * | 2003-04-15 | 2006-05-31 | Hewlett Packard Development Co | Attention detection |
US7316930B1 (en) | 2003-04-21 | 2008-01-08 | National Semiconductor Corporation | Use of vertically stacked photodiodes in a gene chip system |
US7399274B1 (en) | 2003-08-19 | 2008-07-15 | National Semiconductor Corporation | Sensor configuration for a capsule endoscope |
US7731360B2 (en) * | 2003-11-07 | 2010-06-08 | Neuro Kinetics | Portable video oculography system |
US7369951B2 (en) * | 2004-02-27 | 2008-05-06 | Board Of Trustees Of Michigan State University | Digital, self-calibrating proximity switch |
JP2005332376A (ja) * | 2004-04-22 | 2005-12-02 | Fuji Xerox Co Ltd | 情報処理装置、システム、情報処理方法およびプログラム |
US20110102553A1 (en) * | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
JP2008529707A (ja) * | 2005-02-18 | 2008-08-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 医療機器の自動制御 |
CA2543964A1 (en) * | 2005-04-19 | 2006-10-19 | Anton Sabeta | Ophthalmic lens characterization |
CA2548232A1 (en) * | 2005-05-24 | 2006-11-24 | Anton Sabeta | A method & system for tracking the wearable life of an ophthalmic product |
CN101495942A (zh) * | 2005-09-26 | 2009-07-29 | 皇家飞利浦电子股份有限公司 | 用于分析正被提供内容信息的用户的情绪状态的方法和设备 |
US20070081123A1 (en) * | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US7319908B2 (en) * | 2005-10-28 | 2008-01-15 | Microsoft Corporation | Multi-modal device power/mode management |
WO2008076774A2 (en) | 2006-12-14 | 2008-06-26 | Oakley, Inc. | Wearable high resolution audio visual interface |
JP5049356B2 (ja) | 2007-02-28 | 2012-10-17 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | テクスチャ空間分解に基づく統計的顔モデリングにおける指向性照明変動性の分離 |
US7995794B2 (en) * | 2007-03-02 | 2011-08-09 | Sony Ericsson Mobile Communications Ab | Remote control of an image capturing unit in a portable electronic device |
US7802883B2 (en) | 2007-12-20 | 2010-09-28 | Johnson & Johnson Vision Care, Inc. | Cosmetic contact lenses having a sparkle effect |
US9812096B2 (en) | 2008-01-23 | 2017-11-07 | Spy Eye, Llc | Eye mounted displays and systems using eye mounted displays |
GB2462887B (en) * | 2008-09-01 | 2011-01-26 | Wing Chi Winnie Hui | Improvements in digital cameras |
US20100076388A1 (en) * | 2008-09-19 | 2010-03-25 | Miro Cater | Discharge device for pharmaceutical media |
US9675443B2 (en) | 2009-09-10 | 2017-06-13 | Johnson & Johnson Vision Care, Inc. | Energized ophthalmic lens including stacked integrated components |
JP4659088B2 (ja) * | 2008-12-22 | 2011-03-30 | 京セラ株式会社 | カメラ付き携帯端末 |
WO2011063131A1 (en) * | 2009-11-18 | 2011-05-26 | Nohands, Llc | Method and system for preventing virus-related obesity and obesity related diseases |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US20120194549A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses specific user interface based on a connected external device type |
AU2011220382A1 (en) | 2010-02-28 | 2012-10-18 | Microsoft Corporation | Local advertising content on an interactive head-mounted eyepiece |
US20110298794A1 (en) * | 2010-06-08 | 2011-12-08 | Barney Freedman | Circular polarized contact lenses and methods thereof |
ES2835886T3 (es) | 2010-07-15 | 2021-06-23 | Eyenovia Inc | Dispositivo generador de gotas |
US10154923B2 (en) | 2010-07-15 | 2018-12-18 | Eyenovia, Inc. | Drop generating device |
CN103118643B (zh) | 2010-07-15 | 2015-06-10 | 艾诺维亚股份有限公司 | 用于执行远程治疗和监测的方法和系统 |
CN103124541B (zh) | 2010-07-15 | 2015-09-30 | 艾诺维亚股份有限公司 | 眼药物递送 |
JP2013541049A (ja) * | 2010-10-11 | 2013-11-07 | アドレンズ ビーコン インコーポレイテッド | 流体充填調整可能コンタクトレンズ |
US8950862B2 (en) | 2011-02-28 | 2015-02-10 | Johnson & Johnson Vision Care, Inc. | Methods and apparatus for an ophthalmic lens with functional insert layers |
US9698129B2 (en) | 2011-03-18 | 2017-07-04 | Johnson & Johnson Vision Care, Inc. | Stacked integrated component devices with energization |
US9914273B2 (en) * | 2011-03-18 | 2018-03-13 | Johnson & Johnson Vision Care, Inc. | Method for using a stacked integrated component media insert in an ophthalmic device |
US9110310B2 (en) | 2011-03-18 | 2015-08-18 | Johnson & Johnson Vision Care, Inc. | Multiple energization elements in stacked integrated component devices |
US10451897B2 (en) | 2011-03-18 | 2019-10-22 | Johnson & Johnson Vision Care, Inc. | Components with multiple energization elements for biomedical devices |
US9804418B2 (en) | 2011-03-21 | 2017-10-31 | Johnson & Johnson Vision Care, Inc. | Methods and apparatus for functional insert with power layer |
WO2013090468A1 (en) | 2011-12-12 | 2013-06-20 | Corinthian Ophthalmic, Inc. | High modulus polymeric ejector mechanism, ejector device, and methods of use |
US8857983B2 (en) | 2012-01-26 | 2014-10-14 | Johnson & Johnson Vision Care, Inc. | Ophthalmic lens assembly having an integrated antenna structure |
US9864211B2 (en) | 2012-02-17 | 2018-01-09 | Oakley, Inc. | Systems and methods for removably coupling an electronic device to eyewear |
US9116545B1 (en) | 2012-03-21 | 2015-08-25 | Hayes Solos Raffle | Input detection |
US9128522B2 (en) | 2012-04-02 | 2015-09-08 | Google Inc. | Wink gesture input for a head-mountable device |
US9201512B1 (en) | 2012-04-02 | 2015-12-01 | Google Inc. | Proximity sensing for input detection |
US9072465B2 (en) | 2012-04-03 | 2015-07-07 | Johnson & Johnson Vision Care, Inc. | Blink detection system for electronic ophthalmic lens |
US9980810B2 (en) * | 2012-04-03 | 2018-05-29 | Johnson & Johnson Vision Care, Inc. | System controller for variable-optic electronic ophthalmic lens |
US8798332B2 (en) | 2012-05-15 | 2014-08-05 | Google Inc. | Contact lenses |
US9523865B2 (en) | 2012-07-26 | 2016-12-20 | Verily Life Sciences Llc | Contact lenses with hybrid power sources |
US8857981B2 (en) | 2012-07-26 | 2014-10-14 | Google Inc. | Facilitation of contact lenses with capacitive sensors |
US9298020B1 (en) | 2012-07-26 | 2016-03-29 | Verily Life Sciences Llc | Input system |
US9158133B1 (en) | 2012-07-26 | 2015-10-13 | Google Inc. | Contact lens employing optical signals for power and/or communication |
US8919953B1 (en) | 2012-08-02 | 2014-12-30 | Google Inc. | Actuatable contact lenses |
US9696564B1 (en) | 2012-08-21 | 2017-07-04 | Verily Life Sciences Llc | Contact lens with metal portion and polymer layer having indentations |
US8971978B2 (en) | 2012-08-21 | 2015-03-03 | Google Inc. | Contact lens with integrated pulse oximeter |
US9111473B1 (en) | 2012-08-24 | 2015-08-18 | Google Inc. | Input system |
US8820934B1 (en) | 2012-09-05 | 2014-09-02 | Google Inc. | Passive surface acoustic wave communication |
US20140192315A1 (en) | 2012-09-07 | 2014-07-10 | Google Inc. | In-situ tear sample collection and testing using a contact lens |
US9398868B1 (en) | 2012-09-11 | 2016-07-26 | Verily Life Sciences Llc | Cancellation of a baseline current signal via current subtraction within a linear relaxation oscillator-based current-to-frequency converter circuit |
US10010270B2 (en) | 2012-09-17 | 2018-07-03 | Verily Life Sciences Llc | Sensing system |
US9326710B1 (en) | 2012-09-20 | 2016-05-03 | Verily Life Sciences Llc | Contact lenses having sensors with adjustable sensitivity |
US8870370B1 (en) | 2012-09-24 | 2014-10-28 | Google Inc. | Contact lens that facilitates antenna communication via sensor impedance modulation |
US8960898B1 (en) | 2012-09-24 | 2015-02-24 | Google Inc. | Contact lens that restricts incoming light to the eye |
US20140088372A1 (en) | 2012-09-25 | 2014-03-27 | Google Inc. | Information processing method |
US8989834B2 (en) | 2012-09-25 | 2015-03-24 | Google Inc. | Wearable device |
US8979271B2 (en) | 2012-09-25 | 2015-03-17 | Google Inc. | Facilitation of temperature compensation for contact lens sensors and temperature sensing |
US9884180B1 (en) | 2012-09-26 | 2018-02-06 | Verily Life Sciences Llc | Power transducer for a retinal implant using a contact lens |
US8985763B1 (en) | 2012-09-26 | 2015-03-24 | Google Inc. | Contact lens having an uneven embedded substrate and method of manufacture |
US8821811B2 (en) | 2012-09-26 | 2014-09-02 | Google Inc. | In-vitro contact lens testing |
US8960899B2 (en) | 2012-09-26 | 2015-02-24 | Google Inc. | Assembling thin silicon chips on a contact lens |
US9063351B1 (en) | 2012-09-28 | 2015-06-23 | Google Inc. | Input detection system |
US20140098226A1 (en) * | 2012-10-08 | 2014-04-10 | Google Inc. | Image capture component on active contact lens |
US8965478B2 (en) | 2012-10-12 | 2015-02-24 | Google Inc. | Microelectrodes in an ophthalmic electrochemical sensor |
US9176332B1 (en) | 2012-10-24 | 2015-11-03 | Google Inc. | Contact lens and method of manufacture to improve sensor sensitivity |
US9757056B1 (en) | 2012-10-26 | 2017-09-12 | Verily Life Sciences Llc | Over-molding of sensor apparatus in eye-mountable device |
US8874182B2 (en) | 2013-01-15 | 2014-10-28 | Google Inc. | Encapsulated electronics |
US9289954B2 (en) | 2013-01-17 | 2016-03-22 | Verily Life Sciences Llc | Method of ring-shaped structure placement in an eye-mountable device |
US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
US9636016B1 (en) | 2013-01-25 | 2017-05-02 | Verily Life Sciences Llc | Eye-mountable devices and methods for accurately placing a flexible ring containing electronics in eye-mountable devices |
US20140209481A1 (en) | 2013-01-25 | 2014-07-31 | Google Inc. | Standby Biasing Of Electrochemical Sensor To Reduce Sensor Stabilization Time During Measurement |
US9671619B2 (en) * | 2013-02-28 | 2017-06-06 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with eye gaze sensor |
US9778492B2 (en) * | 2013-02-28 | 2017-10-03 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with lid position sensor |
US9052528B2 (en) * | 2013-02-28 | 2015-06-09 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with multi-input voting scheme |
US9468372B2 (en) | 2013-02-28 | 2016-10-18 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with rear-facing pupil diameter sensor |
US10025114B2 (en) * | 2013-03-13 | 2018-07-17 | Johnson & Johnson Vision Care, Inc. | Hydrogel lens having raised portions for improved oxygen transmission and tear flow |
IL231344B (en) * | 2013-03-13 | 2018-08-30 | Johnson & Johnson Vision Care | Methods for the production and use of energy-filled ophthalmic devices having an electrical storage mode |
US9300645B1 (en) | 2013-03-14 | 2016-03-29 | Ip Holdings, Inc. | Mobile IO input and output for smartphones, tablet, and wireless devices including touch screen, voice, pen, and gestures |
US9304230B2 (en) * | 2013-03-15 | 2016-04-05 | Johnson & Johnson Vision Care, Inc. | Hydrogel lens including a removable media insert |
US9465236B2 (en) | 2013-03-15 | 2016-10-11 | Johnson & Johnson Vision Care, Inc. | Ophthalmic devices incorporating photonic elements |
EP2973533A4 (de) | 2013-03-15 | 2016-11-30 | Oakley Inc | Elektronische dekoration für brillen |
US20140268029A1 (en) * | 2013-03-15 | 2014-09-18 | Johnson & Johnson Vision Care, Inc. | Method and ophthalmic device for providing visual representations to a user |
US9389433B2 (en) * | 2013-03-15 | 2016-07-12 | Johnson Johnson Vision Care, Inc. | Methods and apparatus to form ophthalmic devices incorporating photonic elements |
US9161712B2 (en) | 2013-03-26 | 2015-10-20 | Google Inc. | Systems and methods for encapsulating electronics in a mountable device |
US9113829B2 (en) | 2013-03-27 | 2015-08-25 | Google Inc. | Systems and methods for encapsulating electronics in a mountable device |
WO2014178221A1 (ja) * | 2013-05-02 | 2014-11-06 | ソニー株式会社 | コンタクトレンズおよび記憶媒体 |
WO2014178212A1 (ja) * | 2013-05-02 | 2014-11-06 | ソニー株式会社 | コンタクトレンズおよび記憶媒体 |
US9429769B2 (en) * | 2013-05-09 | 2016-08-30 | Johnson & Johnson Vision Care, Inc. | Ophthalmic device with thin film nanocrystal integrated circuits |
JP6402711B2 (ja) * | 2013-05-09 | 2018-10-10 | ソニー株式会社 | 一対のコンタクトレンズ |
US8941488B2 (en) * | 2013-05-17 | 2015-01-27 | Johnson & Johnson Vision Care, Inc. | System and method for a processor controlled ophthalmic lens |
CN205691887U (zh) | 2013-06-12 | 2016-11-16 | 奥克利有限公司 | 模块化通信系统和眼镜通信系统 |
US20140371560A1 (en) | 2013-06-14 | 2014-12-18 | Google Inc. | Body-Mountable Devices and Methods for Embedding a Structure in a Body-Mountable Device |
US9084561B2 (en) | 2013-06-17 | 2015-07-21 | Google Inc. | Symmetrically arranged sensor electrodes in an ophthalmic electrochemical sensor |
US9948895B1 (en) | 2013-06-18 | 2018-04-17 | Verily Life Sciences Llc | Fully integrated pinhole camera for eye-mountable imaging system |
US9685689B1 (en) | 2013-06-27 | 2017-06-20 | Verily Life Sciences Llc | Fabrication methods for bio-compatible devices |
US9028772B2 (en) | 2013-06-28 | 2015-05-12 | Google Inc. | Methods for forming a channel through a polymer layer using one or more photoresist layers |
US9492118B1 (en) | 2013-06-28 | 2016-11-15 | Life Sciences Llc | Pre-treatment process for electrochemical amperometric sensor |
US9307901B1 (en) | 2013-06-28 | 2016-04-12 | Verily Life Sciences Llc | Methods for leaving a channel in a polymer layer using a cross-linked polymer plug |
US9814387B2 (en) | 2013-06-28 | 2017-11-14 | Verily Life Sciences, LLC | Device identification |
US9014639B2 (en) * | 2013-07-11 | 2015-04-21 | Johnson & Johnson Vision Care, Inc. | Methods of using and smartphone event notification utilizing an energizable ophthalmic lens with a smartphone event indicator mechanism |
US9052533B2 (en) * | 2013-07-11 | 2015-06-09 | Johnson & Johnson Vision Care, Inc. | Energizable ophthalmic lens with a smartphone event indicator mechanism |
CN105378598B (zh) * | 2013-07-19 | 2018-12-25 | 索尼公司 | 检测装置和方法 |
US9170646B2 (en) * | 2013-09-04 | 2015-10-27 | Johnson & Johnson Vision Care, Inc. | Ophthalmic lens system capable of interfacing with an external device |
US9225375B2 (en) * | 2013-09-23 | 2015-12-29 | Johnson & Johnson Vision Care, Inc. | Ophthalmic lens system capable of wireless communication with multiple external devices |
CN103685940A (zh) * | 2013-11-25 | 2014-03-26 | 上海斐讯数据通信技术有限公司 | 一种通过表情识别拍摄照片的方法 |
US9654674B1 (en) | 2013-12-20 | 2017-05-16 | Verily Life Sciences Llc | Image sensor with a plurality of light channels |
US9572522B2 (en) | 2013-12-20 | 2017-02-21 | Verily Life Sciences Llc | Tear fluid conductivity sensor |
US9808157B2 (en) | 2013-12-30 | 2017-11-07 | Verily Life Sciences Llc | Hands-free interface |
US9993335B2 (en) | 2014-01-08 | 2018-06-12 | Spy Eye, Llc | Variable resolution eye mounted displays |
US9366570B1 (en) | 2014-03-10 | 2016-06-14 | Verily Life Sciences Llc | Photodiode operable in photoconductive mode and photovoltaic mode |
US9184698B1 (en) | 2014-03-11 | 2015-11-10 | Google Inc. | Reference frequency from ambient light signal |
US10817051B2 (en) * | 2014-03-13 | 2020-10-27 | Julian Michael Urbach | Electronic contact lenses and an image system comprising the same |
US9789655B1 (en) | 2014-03-14 | 2017-10-17 | Verily Life Sciences Llc | Methods for mold release of body-mountable devices including microelectronics |
US9465981B2 (en) | 2014-05-09 | 2016-10-11 | Barron Associates, Inc. | System and method for communication |
US9843385B2 (en) | 2014-06-13 | 2017-12-12 | Verily Life Sciences Llc | Optical communication for body mountable devices |
JP2016002353A (ja) * | 2014-06-18 | 2016-01-12 | ソニー株式会社 | 検出装置および方法、並びにプログラム |
US9748631B2 (en) * | 2014-07-04 | 2017-08-29 | Verily Life Sciences Llc | Manufacturing method for wireless devices |
US9599842B2 (en) | 2014-08-21 | 2017-03-21 | Johnson & Johnson Vision Care, Inc. | Device and methods for sealing and encapsulation for biocompatible energization elements |
US9383593B2 (en) | 2014-08-21 | 2016-07-05 | Johnson & Johnson Vision Care, Inc. | Methods to form biocompatible energization elements for biomedical devices comprising laminates and placed separators |
US10381687B2 (en) | 2014-08-21 | 2019-08-13 | Johnson & Johnson Vision Care, Inc. | Methods of forming biocompatible rechargable energization elements for biomedical devices |
US9715130B2 (en) | 2014-08-21 | 2017-07-25 | Johnson & Johnson Vision Care, Inc. | Methods and apparatus to form separators for biocompatible energization elements for biomedical devices |
US9793536B2 (en) | 2014-08-21 | 2017-10-17 | Johnson & Johnson Vision Care, Inc. | Pellet form cathode for use in a biocompatible battery |
US10361405B2 (en) | 2014-08-21 | 2019-07-23 | Johnson & Johnson Vision Care, Inc. | Biomedical energization elements with polymer electrolytes |
US10361404B2 (en) | 2014-08-21 | 2019-07-23 | Johnson & Johnson Vision Care, Inc. | Anodes for use in biocompatible energization elements |
US9941547B2 (en) | 2014-08-21 | 2018-04-10 | Johnson & Johnson Vision Care, Inc. | Biomedical energization elements with polymer electrolytes and cavity structures |
US10627651B2 (en) | 2014-08-21 | 2020-04-21 | Johnson & Johnson Vision Care, Inc. | Methods and apparatus to form biocompatible energization primary elements for biomedical devices with electroless sealing layers |
KR102367550B1 (ko) * | 2014-09-02 | 2022-02-28 | 삼성전자 주식회사 | 생체 신호를 이용한 카메라 모듈의 제어 |
KR102271817B1 (ko) * | 2014-09-26 | 2021-07-01 | 삼성전자주식회사 | 증강현실을 위한 스마트 콘택렌즈와 그 제조 및 동작방법 |
US9894266B2 (en) | 2015-06-30 | 2018-02-13 | International Business Machines Corporation | Cognitive recording and sharing |
US10101581B2 (en) | 2015-07-28 | 2018-10-16 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with eye closed sensor with open eye prompt and data logging |
US10314530B2 (en) * | 2015-10-27 | 2019-06-11 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with sleep monitoring |
US10345620B2 (en) | 2016-02-18 | 2019-07-09 | Johnson & Johnson Vision Care, Inc. | Methods and apparatus to form biocompatible energization elements incorporating fuel cells for biomedical devices |
US20170354326A1 (en) * | 2016-06-10 | 2017-12-14 | Johnson & Johnson Vision Care, Inc. | Electronic ophthalmic lens with medical monitoring |
WO2018035160A1 (en) * | 2016-08-15 | 2018-02-22 | The Regents Of The University Of California | Bio-sensing and eye-tracking system |
WO2018098436A1 (en) | 2016-11-28 | 2018-05-31 | Spy Eye, Llc | Unobtrusive eye mounted display |
US10321050B2 (en) * | 2016-11-29 | 2019-06-11 | International Business Machines Corporation | Determining optimal photograph capture timing based on data from wearable computer eyewear devices |
US20180239422A1 (en) * | 2017-02-17 | 2018-08-23 | International Business Machines Corporation | Tracking eye movements with a smart device |
CA3066408A1 (en) | 2017-06-10 | 2018-12-13 | Eyenovia, Inc. | Methods and devices for handling a fluid and delivering the fluid to the eye |
US10673414B2 (en) | 2018-02-05 | 2020-06-02 | Tectus Corporation | Adaptive tuning of a contact lens |
US10505394B2 (en) | 2018-04-21 | 2019-12-10 | Tectus Corporation | Power generation necklaces that mitigate energy absorption in the human body |
US10838239B2 (en) | 2018-04-30 | 2020-11-17 | Tectus Corporation | Multi-coil field generation in an electronic contact lens system |
US10895762B2 (en) | 2018-04-30 | 2021-01-19 | Tectus Corporation | Multi-coil field generation in an electronic contact lens system |
US10790700B2 (en) | 2018-05-18 | 2020-09-29 | Tectus Corporation | Power generation necklaces with field shaping systems |
US11137622B2 (en) | 2018-07-15 | 2021-10-05 | Tectus Corporation | Eye-mounted displays including embedded conductive coils |
US10529107B1 (en) | 2018-09-11 | 2020-01-07 | Tectus Corporation | Projector alignment in a contact lens |
US10838232B2 (en) | 2018-11-26 | 2020-11-17 | Tectus Corporation | Eye-mounted displays including embedded solenoids |
US10644543B1 (en) | 2018-12-20 | 2020-05-05 | Tectus Corporation | Eye-mounted display system including a head wearable object |
CN111385458A (zh) * | 2018-12-27 | 2020-07-07 | 上海华博信息服务有限公司 | 一种基于眼部动作捕捉的拍摄方法 |
US10944290B2 (en) | 2019-08-02 | 2021-03-09 | Tectus Corporation | Headgear providing inductive coupling to a contact lens |
US11276188B2 (en) | 2020-05-01 | 2022-03-15 | Tectus Corporation | Stabilizing images produced by eye-mounted displays, based on images of the external environment captured by eye-mounted imaging devices |
US11353954B2 (en) | 2020-08-26 | 2022-06-07 | Tectus Corporation | Operating an electronic contact lens based on recognized objects in captured images |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3507988A (en) | 1966-09-15 | 1970-04-21 | Cornell Aeronautical Labor Inc | Narrow-band,single-observer,television apparatus |
US3958560A (en) * | 1974-11-25 | 1976-05-25 | Wayne Front March | Non-invasive automatic glucose sensor system |
US4089329A (en) * | 1976-03-18 | 1978-05-16 | University Of Utah Research Institute | Noninvasive, continuous intraocular pressure monitor |
GB1581018A (en) * | 1978-05-25 | 1980-12-10 | Standard Telephones Cables Ltd | Control devices |
GB2075671B (en) * | 1980-05-09 | 1984-03-28 | Tamkin Elec Control Services | Control in response to eye closure for the handicapped |
US4513317A (en) | 1982-09-28 | 1985-04-23 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Retinally stabilized differential resolution television display |
WO1995018565A1 (en) | 1991-09-26 | 1995-07-13 | Sam Technology, Inc. | Non-invasive neurocognitive testing method and system |
US5570151A (en) * | 1993-12-27 | 1996-10-29 | Nikon Corporation | Camera which operates a shutter according to a photographer's wink and the vibration level |
US5610678A (en) | 1993-12-30 | 1997-03-11 | Canon Kabushiki Kaisha | Camera including camera body and independent optical viewfinder |
US5734421A (en) | 1995-05-30 | 1998-03-31 | Maguire, Jr.; Francis J. | Apparatus for inducing attitudinal head movements for passive virtual reality |
US6120460A (en) * | 1996-09-04 | 2000-09-19 | Abreu; Marcio Marc | Method and apparatus for signal acquisition, processing and transmission for evaluation of bodily functions |
DE19728069C1 (de) | 1997-07-01 | 1999-02-11 | Acritec Gmbh | Vorrichtung zur Messung des Augeninnendrucks |
JPH11164186A (ja) | 1997-11-27 | 1999-06-18 | Fuji Photo Film Co Ltd | 画像記録装置 |
FR2775588B1 (fr) * | 1998-03-03 | 2000-08-11 | Jacques Patrick Andres | Systeme permettant a des personnes handicapees de communiquer avec leur environnement en utilisant le mouvement de leurs yeux et paupieres |
US5956122A (en) | 1998-06-26 | 1999-09-21 | Litton Systems, Inc | Iris recognition apparatus and method |
US6190314B1 (en) | 1998-07-15 | 2001-02-20 | International Business Machines Corporation | Computer input device with biosensors for sensing user emotions |
JP4174923B2 (ja) | 1999-07-23 | 2008-11-05 | コニカミノルタホールディングス株式会社 | 装着型カメラ |
-
2001
- 2001-07-30 US US09/918,211 patent/US6885818B2/en not_active Expired - Lifetime
-
2002
- 2002-06-28 DE DE10228995A patent/DE10228995A1/de not_active Withdrawn
- 2002-07-11 GB GB0216119A patent/GB2380551B/en not_active Expired - Fee Related
- 2002-07-30 JP JP2002220925A patent/JP2003177449A/ja active Pending
-
2003
- 2003-09-04 US US10/654,664 patent/US6920283B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20040044418A1 (en) | 2004-03-04 |
US20030021601A1 (en) | 2003-01-30 |
GB0216119D0 (en) | 2002-08-21 |
JP2003177449A (ja) | 2003-06-27 |
US6885818B2 (en) | 2005-04-26 |
GB2380551B (en) | 2005-04-06 |
GB2380551A (en) | 2003-04-09 |
US6920283B2 (en) | 2005-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10228995A1 (de) | System und Verfahren zum Steuern elektronischer Geräte | |
DE60111677T2 (de) | Roboter und handlungsbestimmtes Verfahren für Roboter | |
Hickey et al. | Reward guides attention to object categories in real-world scenes. | |
US10064550B2 (en) | Method and apparatus for obtaining an image of an ocular feature | |
CN109155106A (zh) | 状态推定装置、状态推定方法和状态推定程序 | |
DE112014006082T5 (de) | Pulswellenmessvorrichtung, Mobilvorrichtung, medizinisches Ausrüstungssystem und biologisches Informations-Kommunikationssystem | |
Kurylyak et al. | Detection of the eye blinks for human's fatigue monitoring | |
EP1422639A2 (de) | Bildverarbeitungsverfahren und System | |
EP3641624B1 (de) | Bestimmung der augenöffnung mit einer augenverfolgungsvorrichtung | |
CN107169309B (zh) | 基于头戴式检测设备的视野检测方法、系统及检测装置 | |
DE202013012907U1 (de) | Systeme zur Bereitstellung empfindlicher und spezifischer Alarme | |
DE19509689A1 (de) | Körperzustands-Erfassungsapparat | |
DE112020001332T5 (de) | System zur Bewertung der Stimmwiedergabe | |
Ghosh et al. | Real time eye detection and tracking method for driver assistance system | |
EP3412200B1 (de) | Verfahren zur erkennung des hautzustandes, elektronische vorrichtung und system zur erkennung des hautzustandes | |
DE69836831T2 (de) | Vorrichtung zur überwachung von physiologischen parametern und zum bio-feedback | |
US20220036101A1 (en) | Methods, systems and computer program products for driver monitoring | |
DE102014216237A1 (de) | System und verfahren zurdurchführung einer medizinischen ferndiagnostik | |
EP0743041B1 (de) | Pupillen Messanordnung und Alzheimer Krankheits Diagnosesystem | |
DE19642830A1 (de) | Verfahren und Vorrichtung zur Unterbindung des Einschlafens und der Reaktionskontrolle von Personen | |
Khan et al. | Efficient Car Alarming System for Fatigue Detectionduring Driving | |
WO1997015033A2 (de) | Verfahren und vorrichtung zur unterbindung des einschlafens und der reaktionskontrolle von personen | |
DE102015101110A1 (de) | Vorrichtung und Verfahren zur Messung der Gleichgewichtswahrnehmung bei Personen | |
US20170304625A1 (en) | Adaptive cognitive prosthetic and applications thereof | |
WO1998052309A1 (de) | Verfahren und vorrichtung zum messen der aufmerksamkeit von lebewesen innerhalb einer menge von lebewesen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE |
|
8130 | Withdrawal |