DE19614975A1 - Gesichtsbildverarbeitungssystem - Google Patents

Gesichtsbildverarbeitungssystem

Info

Publication number
DE19614975A1
DE19614975A1 DE19614975A DE19614975A DE19614975A1 DE 19614975 A1 DE19614975 A1 DE 19614975A1 DE 19614975 A DE19614975 A DE 19614975A DE 19614975 A DE19614975 A DE 19614975A DE 19614975 A1 DE19614975 A1 DE 19614975A1
Authority
DE
Germany
Prior art keywords
eye
face image
processing system
image processing
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19614975A
Other languages
English (en)
Other versions
DE19614975C2 (de
Inventor
Nobumasa Suenaga
Kenji Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE19614975A1 publication Critical patent/DE19614975A1/de
Application granted granted Critical
Publication of DE19614975C2 publication Critical patent/DE19614975C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators

Description

Die vorliegende Erfindung betrifft ein Gesichtsbildverarbei­ tungssystem zum Erfassen zahlreicher Zustände, beispielsweise einem unklaren Erwachungszustand oder einem Dös- oder Dämmerzustand eines Autofahrers oder dergleichen, anhand den geöffneten oder geschlossenen Zuständen seiner Augen.
Nachfolgend wird ein bekanntes System unter Bezug auf die Fig. 63 bis 65B beschrieben. Die Fig. 63 zeigt ein Diagramm zum Darstellen der Aufbaustruktur des bekannten Systems zum Erfassen des Fahrerzustands, das beispielsweise in dem offengelegten japanischen Patent Nr. 6-32154 beschrieben ist.
Wie in Fig. 63 gezeigt ist, enthält das bekannte System: eine Bildeingabevorrichtung 1 zum Eingeben von Daten zum Darstellen eines Bilds des Gesichtes eines Fahrers und zum Durchführen einer Analog-Digital-(A/D)-Umsetzung bei den Bilddaten; eine Binärumsetzvorrichtung 2 für die Binärumsetzung des Gesichtsbilds, das von der Bildeingabevorrichtung 1 eingegeben (und durch diese umgesetzt) wird; eine Vorrichtung zum Festlegen des momentanen Augapfelbereichs 3 zum Bestimmen der Stelle, an der sich der momentane Bereich eines Augapfels in dem binär umgesetzten Bild befindet; eine Augapfel-Detektorvorrichtung 4 zum Detektieren eines Augapfels in dem momentanen Bereich des Augapfels auf der Grundlage fortlaufender schwarzer Pixel (oder Bildelemente), die entlang der Längsrichtung hiervon (insbesondere der Y-Richtung) angeordnet sind; eine Vorrichtung zum Detektieren eines geöffneten oder geschlossenen Auges 5 zum Erfassen des geöffneten oder geschlossenen Auges des Fahrers auf der Grundlage der Zahl der fortlaufenden schwarzen Pixel des detektierten Augapfels; und eine Vorrichtung zum Beurteilen des Fahrerzustands 6 zum Beurteilen des Zustands des Fahrers in Abhängigkeit von dem Muster des geöffneten oder geschlossenen Auges, das durch die Vorrichtung zum Detektieren eines geöffneten/geschlossenen Auges detektiert wird.
Die Fig. 64 zeigt ein Binärbild zum Darstellen eines Ortsbereichs des Augapfels 7, der durch die Vorrichtung zum Detektieren des geöffneten/geschlossenen Auges 5 zu verarbeiten ist.
Ein Betrieb des bekannten Systems wird wie folgt durchgeführt. Wie in Fig. 63 gezeigt ist, wird ein Gesichtsbild eines Fahrers, das unter Einsatz der Bildeingabevorrichtung 1 aufgenommen wird, in der Binärumsetzvorrichtung 2 binär umgewandelt und demnach in ein Binärbild umgesetzt. In dem Binärbild wird der Ortsbereich des Augapfels 7 durch die Vorrichtung zum Festlegen des momentanen Augapfelbereichs 3 festgestellt. Der Augapfel des Fahrers wird in dem Bereich 7 durch die Augapfel- Detektorvorrichtung 4 detektiert. Ferner wird der geöffnete oder geschlossene Zustand des Auges durch die Vorrichtung zum Detektieren des geöffneten/geschlossenen Auges detektiert. Die Muster der geöffneten und geschlossenen Augen werden bei der Vorrichtung zum Beurteilen des Fahrerzustands 6 eingegeben, worauf der Döszustand oder dergleichen des Fahrers festgestellt wird.
Ferner wird der Betrieb der Vorrichtung zum Detektieren des geöffneten/geschlossenen Auges nachfolgend detailliert beschrieben. Insbesondere bei Detektion eines geöffneten oder geschlossenen Auges in dem Binärbild, in dem beispielsweise ein linkes Auge eingestellt ist, wie in Fig. 64 gezeigt ist, sucht die Vorrichtung zum Detektieren des geöffneten/geschlossenen Auges einen Bereich (insbesondere durch Scannen), in dem Abszissenwerte (insbesondere Koordinaten entlang einer seitlichen Richtung) der Pixel in dem Bereich von X1 bis X2 liegen und Ordinaten (insbesondere Koordinaten entlang der Y- oder Längsrichtung) in dem Bereich von YB (insbesondere dem Ordinatenwert des Suchstartpunkts) bis (YB - 50) bei schwarzen Pixeln liegen. Die Längsabtastung einer Zeile oder Spalte von Pixeln wird bei allen in seitlicher Richtung angeordneten Spalten des Ortsbereichs des Augapfels 7 wiederholt und sequentiell durchgeführt. Bei Abschluß des Scannvorgangs der Spalten über die gesamte Breite des gesamten Ortsbereichs des Augapfels 7 wird die Maximalzahl fortlaufender schwarzer Pixel als Größe für die Längsrichtung (insbesondere die Y-Richtung) des abgebildeten Augapfels des linken Auges erhalten. Demnach wird ein Schwellwert zum Detektieren des geöffneten/geschlossenen Zustands eines Auges vorab auf der Grundlage von Daten im Hinblick auf die Maximalzahl fortlaufender schwarzer Pixel festgelegt, für die Fälle mit geöffneten und geschlossenen Zuständen. Anschließend läßt sich die Detektion der geöffneten/geschlossenen Zustände eines Auges durch Vergleich der Maximalzahl fortlaufender schwarzer Pixel, die durch den zuvor erläuterten Abtastbetrieb erhalten wird, mit dem festgelegten Schwellwert erzielen.
Wie oben beschrieben, wird bei dem bekannten System die Technik eingesetzt, bei der die Maximalzahl fortlaufender schwarzer Pixel, die entlang der Längsrichtung (insbesondere der Y-Richtung) angeordnet sind, für ein Auge bestimmt, damit beurteilt werden kann, ob das Auge eines Fahrers geöffnet oder geschlossen ist. Jedoch weist manchmal das Binärbild in dem zu untersuchenden Bereich eine Form auf, die in Fig. 65A oder 65B dargestellt ist, aufgrund des Vorhandenseins einer Augenbraue oder eines Schattens. In einem solchen Fall ergibt sich keine große Differenz zwischen der Maximalzahl L1 fortlaufender schwarzer Pixel entlang der Y-Richtung in dem Fall des geöffneten Zustands des Auges und derjenigen L2 der fortlaufenden schwarzen Pixel entlang derselben Richtung in dem Fall des geschlossenen Zustands von diesem. Demnach tritt bei dem bekannten System das Problem auf, daß ein Fehler bei der Beurteilung auftritt, ob das Auge geöffnet oder geschlossen ist.
Die vorliegende Erfindung wurde geschaffen, um das zuvor genannte Problem bei dem genannten System zu lösen.
Demnach besteht eine Aufgabe der vorliegenden Erfindung in der Schaffung eines Gesichtsbildverarbeitungssystems, mit dem sich genau feststellen läßt, ob ein Auge geöffnet oder geschlossen ist, selbst in den Fällen, in denen eine Veränderung der Zahl fortlaufender schwarzer Pixel entlang der Y-Richtung, die im Zeitpunkt während dem Schließen des Auges auftritt, gering ist, und in denen sich eine Veränderung der Maximalzahl fortlaufender schwarzer Pixel entlang der Y-Richtung aufgrund einer Veränderung einer Aufwärts- oder Abwärtsrichtung/Neigung eines Gesichts- oder einer Veränderung der Links- oder Rechtsneigung des Gesichts ergibt, durch Richten der Aufmerksamkeit auf eine Veränderung der Augenform, die durch das Schließen des Auges bewirkt wird.
Zum Lösen der vorgenannten Aufgabe wird gemäß der vorliegenden Erfindung ein Gesichtsbildverarbeitungssystem geschaffen, enthaltend: eine Kamera zum Aufnehmen eines Gesichtsbilds; eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals; eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds; eine Augenextrahiervorrichtung zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, aus dem binär umgesetzten Gesichtsbild; eine Bewertungsfunktions-Berechnungsvorrichtung zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft des Auges anhand des Ortsbereichs des Auges und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und eine Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
Ferner ist für den Fall einer Ausführungsform des Gesichtsbildverarbeitungssystems der vorliegenden Erfindung kennzeichnend, daß die Bewertungsfunktions- Berechnungsvorrichtung eine Formfunktion erster Ordnung auf der Grundlage des Binärbilds des Ortsbereichs des Auges bestimmt und eine Formfunktion zweiter Ordnung gemäß der Formfunktion erster Ordnung berechnet und ferner eine Bewertungsfunktion gemäß der Formfunktion zweiter Ordnung berechnet.
Ferner ist für den Fall einer anderen Ausführungsform des Gesichtsbildverarbeitungssystems der vorliegenden Erfindung kennzeichnend, daß die Bewertungsfunktions- Berechnungsvorrichtung erste und zweite Formfunktionen anhand des Binärbilds des Ortsbereichs des Auges bestimmt und eine Berechnungsfunktion gemäß den ersten und zweiten Formfunktionen berechnet.
Weitere Merkmale, Aufgaben und Vorteile der vorliegenden Erfindung ergeben sich aus der folgenden Beschreibung bevorzugter Ausführungsformen unter Bezug auf die beiliegende Zeichnung, in der gleiche Bezugszeichen gleiche oder entsprechende Teile über alle Ansichten hinweg kennzeichnen; es zeigen:
Fig. 1 ein Diagramm zum Darstellen des Aufbaus der Ausführungsform 1 der vorliegenden Erfindung;
Fig. 2 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 1 der vorliegenden Erfindung eingesetzt wird;
Fig. 3 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 1 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 4 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 2 der vorliegenden Erfindung eingesetzt wird;
Fig. 5 einen Graphen zum Darstellen, wie sich die bei der Ausführungsform 2 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 6 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 3 der vorliegenden Erfindung eingesetzt wird;
Fig. 7 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 3 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 8 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 4 der vorliegenden Erfindung eingesetzt wird;
Fig. 9 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 4 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 10 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 5 der vorliegenden Erfindung eingesetzt wird;
Fig. 11 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 5 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 12 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 6 der vorliegenden Erfindung eingesetzt wird;
Fig. 13 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 6 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 14 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 7 der vorliegenden Erfindung eingesetzt wird;
Fig. 15 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 7 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 16 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 8 der vorliegenden Erfindung eingesetzt wird;
Fig. 17 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 8 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 18 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 9 der vorliegenden Erfindung eingesetzt wird;
Fig. 19 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 9 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 20 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 10 der vorliegenden Erfindung eingesetzt wird;
Fig. 21 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 10 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 22 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 11 der vorliegenden Erfindung eingesetzt wird;
Fig. 23 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 11 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 24 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 12 der vorliegenden Erfindung eingesetzt wird;
Fig. 25 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 12 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 26 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 13 der vorliegenden Erfindung eingesetzt wird;
Fig. 27 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 13 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 28 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 14 der vorliegenden Erfindung eingesetzt wird;
Fig. 29 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 14 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 30 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 15 der vorliegenden Erfindung eingesetzt wird;
Fig. 31 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 15 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 32 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 16 der vorliegenden Erfindung eingesetzt wird;
Fig. 33 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 16 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 34 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 17 der vorliegenden Erfindung eingesetzt wird;
Fig. 35 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 17 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 36 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 18 der vorliegenden Erfindung eingesetzt wird;
Fig. 37 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 18 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 38 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 19 der vorliegenden Erfindung eingesetzt wird;
Fig. 39 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 19 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 40 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 20 der vorliegenden Erfindung eingesetzt wird;
Fig. 41 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 20 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 42 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 21 der vorliegenden Erfindung eingesetzt wird;
Fig. 43 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 21 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 44 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 22 der vorliegenden Erfindung eingesetzt wird;
Fig. 45 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 22 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 46 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 23 der vorliegenden Erfindung eingesetzt wird;
Fig. 47 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 24 der vorliegenden Erfindung eingesetzt wird;
Fig. 48 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 25 der vorliegenden Erfindung eingesetzt wird;
Fig. 49 einen Graphen zum Darstellen, wie sich eine bei der Ausführungsform 25 der vorliegenden Erfindung eingesetzte Bewertungsfunktion mit der Zeit verändert;
Fig. 50 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 26 der vorliegenden Erfindung eingesetzt wird;
Fig. 51 einen Graphen zum Darstellen, wie sich die bei der Ausführungsform 26 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 52 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 27 der vorliegenden Erfindung eingesetzt wird;
Fig. 53 einen Graphen zum Darstellen, wie sich die bei der Ausführungsform 27 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 54 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 28 der vorliegenden Erfindung eingesetzt wird;
Fig. 55 einen Graphen zum Darstellen, wie sich die bei der Ausführungsform 28 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 56 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 29 der vorliegenden Erfindung eingesetzt wird;
Fig. 57 einen Graphen zum Darstellen, wie sich die bei der Ausführungsform 29 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 58 ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 30 der vorliegenden Erfindung eingesetzt wird;
Fig. 59 einen Graphen zum Darstellen, wie sich die bei der Ausführungsform 30 der vorliegenden Erfindung eingesetzte Bewertungsfunktion über die Zeit verändert;
Fig. 60 ein Diagramm zum Darstellen des Aufbaus der Ausführungsform 31 der vorliegenden Erfindung;
Fig. 61 ein Diagramm zum Darstellen eines Verfahrens zum Extrahieren eines möglichen Ortsbereichs für ein Auge der Ausführungsform 31 der vorliegenden Erfindung;
Fig. 62 ein Diagramm zum Darstellen des Aufbaus der Ausführungsform 32 der vorliegenden Erfindung;
Fig. 63 ein Diagramm zum Darstellen des Aufbaus des bekannten Systems zum Detektieren des Zustands eines Fahrers;
Fig. 64 ein Diagramm zum Darstellen des bekannten Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges; und
Fig. 65A und 65B Diagramme zum Darstellen des Problems im Zusammenhang mit dem bekannten Verfahren beim Detektieren des geöffneten oder geschlossenen Zustands eines Auges.
Nun werden bevorzugte Ausführungsformen der vorliegenden Erfindung detailliert unter Bezug auf die beiliegende Zeichnung beschrieben.
Ausführungsform 1
Zunächst wird nachfolgend die Ausführungsform 1 der vorliegenden Erfindung unter Bezug auf die Fig. 1 bis 3 beschrieben. Die Fig. 1 zeigt ein Diagramm zum prinzipiellen Darstellen des Aufbaus eines Gesichtsbildverarbeitungssystems, das die vorliegende Erfindung realisiert, insbesondere die Ausführungsform 1 der vorliegenden Erfindung.
Wie in Fig. 1 gezeigt ist, enthält dieses Gesichtsbildverarbeitungssystem insbesondere die Ausführungsform 1 der vorliegenden Erfindung, eine Kamera 11, eine Bildeingabevorrichtung 12, eine Binärumsetzvorrichtung 13, eine Extrahiervorrichtung für das Auge 14, eine Bewertungsfunktions-Berechnungsvorrichtung 15 und eine Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands.
Die Kamera 11 ist beispielsweise eine CCD-TV-Kamera, die mit einer Instrumententafel versehen ist, und zum Aufnehmen eines Bilds des Gesichts eines Fahrers eingesetzt wird. Ferner wird ein analoges Bildsignal (oder Videosignal), das von dieser Kamera 11 ausgegeben wird, durch die zuvor erwähnten Vorrichtungen 12 bis 16 verarbeitet. Weiterhin wird dann, wenn festgestellt wird, daß sich der Fahrer in einem Döszustand befindet, die Aufmerksamkeit des Fahrers beispielsweise durch Abgabe eines Brummtons, durch Abgeben einer Sprechwarnung oder durch Vibrieren des Fahrersitzes erregt. Zudem wird - wenn es erforderlich ist - ein Fahrzeug beispielsweise durch Betätigen einer Bremse angehalten.
Ein durch die Kamera 11 aufgenommenes Gesichtsbild wird bei der Bildeingabevorrichtung 12 eingegeben, wonach eine A/D- Umsetzung bei den Daten zum Darstellen des Gesichtsbilds durchgeführt wird, um hierdurch das Gesichtsbild in ein digitales Halbtonbild (insbesondere ein digitales Gradienten- oder Grauskalenbild) umzusetzen. Anschließend erfolgt die Binärumsetzung des digitalen Halbtonbilds durch die Binärumsetzvorrichtung 13 unter Einsatz eines festgelegten Schwellwerts. Insbesondere wird das digitale Halbtonbild in ein Binärbild umgesetzt, das beispielsweise aus schwarzen und weißen Pixeln besteht. Anschließend wird ein Ortsbereich des Auges durch die Extrahiervorrichtung für das Auge 14 extrahiert. Diese Extrahiervorrichtung für das Auge 14 bestimmt den Mittelpunkt oder Schwerpunkt beispielsweise durch Berechnen des Mittelwerts oder des Durchschnitts der Koordinaten der schwarzen Pixel. Ferner extrahiert die Extrahievorrichtung für das Auge 14 ein rechteckiges Gebiet des festgelegten Seitenbereichs (insbesondere des festgelegten Bereichs entlang der X-Richtung), in dem ein Cluster der schwarzen Pixel am nächsten an dem Mittelpunkt oder Schwerpunkt liegt, als Ortsbereich des Auges. Anschließend berechnet die Bewertungsfunktions- Berechnungsvorrichtung 15 eine Formfunktion zum Darstellen der Form oder der Eigenschaft des gesamten binären Augbildes, das in dem Ortsbereich des Auges enthalten ist. Anschließend berechnet die Bewertungsfunktions-Berechnungsvorrichtung 15 eine Bewertungsfunktion, die erhalten wird, indem die Aufmerksamkeit auf die gekrümmte Form des Auges anhand dieser Formfunktion gelenkt wird. Anschließend erfaßt die Bewertungsfunktions-Berechnungsvorrichtung 15 den Wert K dieser Bewertungsfunktion in einem Speicher. Ferner bestimmt die Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands 16 einen Schwellwert anhand des Wertes K der zeitvarianten Bewertungsfunktion und bestimmt, ob das Auge geöffnet oder geschlossen ist.
Die Fig. 2 zeigt ein Diagramm zum Darstellen eines Verfahrens, das bei der Ausführungsform 1 der vorliegenden Erfindung eingesetzt wird, um festzustellen, ob das Auge geöffnet oder geschlossen ist. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, mit einem dazwischenliegenden Zwischenzeitpunkt TB), den sich während des Zeitraums verändernden Binärbildern des Ortsbereichs des Auges 8 und "Histogrammen", die Formfunktionen erster Ordnung sind und hier als Graphen definiert sind, die die Verteilung der Werte darstellen, die durch Akkumulierung der Binärtonpegel der Pixel entlang der Y-Richtung entsprechend jeder der X-Koordinaten in dem Ortsbereich des Auges 8 erhalten werden, sowie von Approximationslinien als Formfunktionen zweiter Ordnung, die auf der Grundlage der Formfunktionen erster Ordnung berechnet werden. Zusätzlich wird jedes der Y-Histogramme praktisch durch Scannen des Ortsbereichs des Auges 8 entlang der Y- Richtung und Zählen (insbesondere durch Addition der Zahl) der schwarzen Pixel gemäß jeder der X-Koordinaten erhalten (nebenbei bemerkt, stellt SUM den Zählwert (insbesondere die Gesamtzahl) der schwarzen Pixel entsprechend jeder der X- Koordinaten dar).
Die Fig. 3 zeigt eine Veränderung des Wertes K der Bewertungsfunktion als Gradienten der Approsimationslinie, die anhand des in Fig. 2 gezeigten Y-Histogramms berechnet wird.
Ferner entspricht eine Linie 9 einer Approximationslinie, die durch Einsatz eines Verfahrens mit minimalen Fehlerquadraten (insbesondere einer Methode der kleinsten Quadrate) erhalten wird, mit einem Verlauf, dessen Form ausreichend mit der Form eines festgelegten Teils der anhand der Y-Koordinaten dargestellten Kurve übereinstimmt (insbesondere dem Zählwert SUM), jeweils gemäß den X-Koordinaten von L (gemäß dem linken Ende des Ortsbereichs des Auges 8) bis (L + 20). In diesem Fall wird das Verfahren der kleinsten Quadrate gemäß der folgenden Gleichung (1) durchgeführt. Ferner entspricht K dem Gradienten der Approximationslinie 9 und stellt demnach den Wert der Bewertungsfunktion dar. Es sei angemerkt, daß in der Gleichung (1) jede Summation im Hinblick auf X zwischen L und (L + 20) durchgeführt wird.
K = {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²} (1)
Wie in Fig. 2 gezeigt ist, verändert sich die Form des Y- Histogramms, wenn sich der Zustand des Auges von dem geöffneten Zustand zu dem geschlossenen Zustand verändert. Demnach ist in dem Zeitpunkt TC, in dem das Auge geöffnet ist, der Wert K der Bewertungsfunktion niedrig, wie in Fig. 3 gezeigt ist. Demnach kann aufbauend auf einem Ergebnis durch das Sammeln von Abtastdaten und Festlegen eines Schwellwerts KB gemäß der Tendenz der Abtastwerte K bestimmt werden, ob das Auge geöffnet oder geschlossen ist. Insbesondere dann, wenn beispielsweise der Wert K der Bewertungsfunktion niedriger als der Schwellwert KB ist, wird festgestellt, daß das Auge geschlossen ist.
Ferner wird eine Approximationslinie 10, die für die Form des gesamten Auges substituiert wird, insbesondere der Form des gesamten Bereichs des Ortsbereichs des Auges 8, entsprechend erhalten. Anschließend wird der Gradient der Approximationslinie 10 berechnet. Weiterhin wird die Differenz zwischen den Gradienten der Approximationslinie 9 und 10 als Bewertungsfunktion benützt. Hierdurch bestehen bei dieser Ausführungsform Vorteile oder Wirkungen dahingehend, daß die Wahrscheinlichkeit eines Auftretens einer fehlerhaften Entscheidung aufgrund der Neigung des Gesichts des Fahrers reduziert ist und daß hierdurch die Genauigkeit beim Durchführen einer Beurteilung des geöffneten oder geschlossenen Zustands des Auges verbessert ist. Es sei bemerkt, daß der Wert der Bewertungsfunktion in diesem Fall eine Tendenz entsprechend derjenigen der in Fig. 3 gezeigten Funktion aufweist.
Weiterhin wird in dem zuvor erläuterten Fall die Form des festgelegten Bereichs in dem linken Endabschnitt des Auges zum Erhalten der Bewertungsfunktion benützt. Jedoch läßt sich, obgleich das Vorzeichen der Funktion umgekehrt ist, ein entsprechendes Ergebnis in dem Fall erhalten, in dem die Form des festgelegten Bereichs des rechten Endabschnitts des Auges, beispielsweise des Bereichs der X-Koordinaten von R bis (R - 20), hierfür eingesetzt wird. Es sei bemerkt, daß der Wert der Bewertungsfunktion in diesem Fall ebenso eine Tendenz entsprechend derjenigen der in Fig. 3 gezeigten Funktion aufweist.
Zusätzlich läßt sich die Präzision beim Durchführen einer Beurteilung des geöffneten oder geschlossenen Zustands des Auges verbessern, indem der Wert einer Funktion als Wert der Bewertungsfunktion eingesetzt wird, der durch eine der Approximationslinien dargestellt ist, deren Gradient größer als derjenige der anderen Approximationslinie ist.
Ausführungsform 2
Nun wird die Ausführungsform 2 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 4 und 5 beschrieben. Die Fig. 4 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren der geöffneten oder geschlossenen Zustände eines Auges, das bei der Ausführungsform 2 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen dazwischenliegenden Zwischenzeitpunkt TB), der sich während des Zeitablaufs verändernden Binärbilder des Ortsbereichs des Auges 8 und der Formfunktionen erster Ordnung (insbesondere Oberschranken-Formfunktionen), bei denen jeweils die Koordinaten der oberen Schranken der Binärbilder eingesetzt werden, sowie von Approximationslinien, die Formfunktionen zweiter Ordnung sind und anhand der Formfunktionen erster Ordnung berechnet werden. Zusätzlich wird jede der Oberschranken-Formfunktionen praktisch erhalten, indem der Ortsbereich des Auges 8 in Aufwärtsrichtung entlang der Y- Richtung gescannt wird und die schwarzen Pixel für jede der X-Koordinaten gezählt werden, bis das letzte schwarze Pixel erfaßt wird (es sei bemerkt, das "UF" den Zählwert (insbesondere die Gesamtzahl) der schwarzen Pixel für jede der X-Koordinaten darstellt).
Die Fig. 5 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Gradient der Approximationslinie ist, die anhand der in Fig. 4 gezeigten Oberschranken- Formfunktion berechnet wird.
In dem Fall, in dem ein Verfahren gemäß der Ausführungsform 2 der vorliegenden Erfindung eingesetzt wird, verändert sich bei geöffnetem oder geschlossenem Auge die Oberschranken- Formfunktion, wie im Fall des Einsatzes des Verfahrens der Ausführungsform 1 der Erfindung.
Ausführungsform 3
Nun wird die Ausführungsform 3 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 6 und 7 beschrieben. Die Fig. 6 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Erfassen des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 3 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischen liegenden Zwischenzeitpunkt TB), den sich während dieses Zeitablaufs verändernden Binärbildern des Ortsbereichs des Auges 8, und der Formfunktionen erster Ordnung (insbesondere der Y-Mittenort-Formfunktionen), bei denen jeweils die Form eines sogenannten Y-Mittenorts eingesetzt wird (insbesondere die Linie oder Kurve zum Verbinden der Zentren der Schnittpunkte des Binärbilds des Auges mit parallel zur Y-Achse verlaufenden Linien), und von Approximationslinien, die anhand der Formfunktionen erster Ordnung berechnete Formfunktionen zweiter Ordnung sind. Zusätzlich wird jede der Y-Mittenort-Formfunktionen praktisch erhalten, indem der Ortsbereich des Auges 8 entlang der Y- Richtung aufwärts abgetastet wird und die Y-Koordinaten des ersten und letzten schwarzen Pixels für jede der X- Koordinaten gemessen wird und indem der Mittelwert oder Durchschnitt der Y-Koordinaten des ersten und letzten Pixels für jede der X-Koordinaten bestimmt wird (es sei bemerkt, daß "CF" den Mittelwert oder Durchschnitt der Y-Koordinaten des ersten und letzten schwarzen Pixels für jede der X- Koordinaten darstellt).
Die Fig. 7 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die dem Gradienten der Approximationslinie entspricht, der durch die in Fig. 6 gezeigte Y-Mittenort-Formfunktion berechnet wird.
Im Fall des Einsatzes eines Verfahrens der Ausführungsform 3 der vorliegenden Erfindung verändert sich bei geöffnetem oder geschlossenem Auge die Y-Mittenort-Formfunktion, wie im Fall des bei der Ausführungsform 1 von dieser eingesetzten Verfahrens. Demnach läßt sich detektieren, ob das Auge geöffnet oder geschlossen ist. Es sei angemerkt, daß das bei der Ausführungsform 3 eingesetzte Verfahren demjenigen der Ausführungsform 1 entspricht, mit der Ausnahme, daß der Y- Mittenort anstelle der Formfunktion erster Ordnung eingesetzt wird.
Ausführungsform 4
Nun wird eine Ausführungsform 4 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 8 und 9 beschrieben. Die Fig. 8 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Erfassen des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 4 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen dazwischenliegenden Zwischenzeitpunkt TB), den sich während des Zeitablaufs verändernden Binärbildern des Ortsbereichs des Auges 8, und Y-Histogrammen, die Formfunktionen erster Ordnung sind, gemäß den Binärbildern des Ortsbereichs des Auges, sowie von Approximationslinien, die Formfunktionen zweiter Ordnung sind und anhand der Formfunktionen erster Ordnung berechnet werden.
Die Fig. 9 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der die Differenz der Gradienten der beiden anhand des in Fig. 8 gezeigten Y-Histogramms berechneten Approximationslinien darstellt.
Ferner sind die Linien 9 und 9′ Approximationslinien, die durch Einsatz eines Verfahrens der kleinsten Quadrate erhalten werden, als Abbildungen mit einer Form, die ausreichend nahe an den Formen der festgelegten linken und rechten Endabschnitte des Y-Histogramms liegen, die einen Bereich der X-Koordinaten zwischen L (gemäß dem linken Ende des Ortsbereichs des Auges 8) bis (L + 20) und einem anderen Bereich der X-Koordinaten von R (gemäß dem rechten Ende des Ortsbereichs des Auges 8) bis (20 - R) entspricht. In diesem Fall bildet die Differenz zwischen den Gradienten der Approximationslinien 9 und 9′, die durch Einsatz der folgenden- Gleichung (2) ausgedrückt wird, den Wert K der Bewertungsfunktion. Es sei bemerkt, daß ihn der Gleichung (2) jede Summierung des ersten Halbteils oder Punkts der linken Seite hiervon im Hinblick auf X für L bis (L + 20) durchgeführt wird und jede Summation des zweiten Halbteils oder Punkts der rechten Seite hiervon im Hinblick auf X für R bis (20 - R) durchgeführt wird.
K = {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²}
- {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²} (2)
Wie in Fig. 8 gezeigt ist, verändert sich dann, wenn das Auge geöffnet oder geschlossen ist, die Form des Y-Histogramms. Im Ergebnis ist in dem Zeitpunkt TC, in dem das Auge geschlossen ist, der Wert K der Bewertungsfunktion niedrig. Demnach wird ein Schwellwert KB festgelegt, und es kann detektiert werden, ob das Auge geöffnet oder geschlossen ist.
In dem Fall des bei dieser Ausführungsform 4 eingesetzten Verfahrens werden die Formen festgelegter Bereiche sowohl des linken und rechten Endabschnitts zum Erhalten der Bewertungsfunktion derart eingesetzt, daß die Veränderung des Werts K der Bewertungsfunktion aufgrund der Neigung des Gesichts eines Fahrers gering wird. Demnach weist diese Ausführungsform den Vorteil oder eine Wirkung dahingehend auf, daß genau erfaßt werden kann, ob das Auge geöffnet oder geschlossen ist.
Weiterhin wird in ähnlicher Weise eine Approximationslinie 10 gemäß dem gesamten Auge erhalten. Demnach läßt sich die Höhe eines durch die drei Approximationslinien 9, 9′ und 10 gebildeten Dreiecks, die jeweils den festgelegten Bereichen des linken Endabschnitts, des rechten Endabschnitts und des gesamten Auges entsprechen, als Wert der Bewertungsfunktion einsetzen. Somit weist diese Ausführungsform Vorteile und Wirkungen dahingehend auf, daß sich die Wahrscheinlichkeit eines Auftretens einer fehlerhaften Detektion aufgrund eines Schattens am Rand des Auges reduzieren läßt und daß sich die Genauigkeit beim Bestimmen des geöffneten oder geschlossenen Zustands des Auges weiter verbessern läßt.
Ausführungsform 5
Nun wird eine Ausführungsform 5 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 10 und 11 beschrieben. Die Fig. 10 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 5 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), den sich während des Zeitraums verändernden Binärbildern des Ortsbereichs des Auges 8, der Formfunktionen erster Ordnung (insbesondere der Oberschranken-Formfunktionen), jeweils unter Einsatz der Koordinaten der oberen Schranken der Binärbilder, sowie von Approximationslinien, die Formfunktionen zweiter Ordnung darstellen, die auf der Grundlage der Formfunktionen erster Ordnung berechnet werden.
Die Fig. 11 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der gleich der Differenz zwischen den Gradienten der beiden Approximationslinien ist, die durch die Berechnung aufgrund der in Fig. 10 gezeigten Oberschranken- Formfunktion erhalten werden.
In dem Fall, in dem das bei der Ausführungsform 5 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich bei geöffnetem oder geschlossenem Auge die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem Fall des bei der Ausführungsform 4 eingesetzten Verfahrens. Demnach läßt sich erfassen, ob das Auge geöffnet oder geschlossen ist. Es sei bemerkt, daß das bei der Ausführungsform 5 eingesetzte Verfahren dem bei der Ausführungsform 4 eingesetzten entspricht, mit der Ausnahme, daß die Oberschranke als Formfunktion erster Ordnung eingesetzt wird.
Ausführungsform 6
Nun wird eine Ausführungsform 6 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 12 und 13 beschrieben. Die Fig. 12 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 6 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), den sich während dem Zeitraum verändernden Binärbildern des Ortsbereichs des Auges 8, und von Formfunktionen erster Ordnung (insbesondere Y- Mittenort-Formfunktionen), jeweils unter Einsatz der Form, die als Y-Mittenort bezeichnet wird, sowie von Approximationslinien, die Formfunktionen zweiter Ordnung sind, die auf Grundlage der Formfunktionen erster Ordnung berechnet werden.
Die Fig. 13 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der die Differenz zwischen den Gradienten der beiden Approximationslinien ist, die durch die Berechnung auf Grundlage der in Fig. 12 gezeigten Y-Mittenort- Formfunktionen erhalten werden.
In dem Fall, in dem das bei der Ausführungsform 6 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich dann, wenn das Auge geöffnet oder geschlossen ist, die Y-Mittenort-Formfunktion, in ähnlicher Weise wie in dem Fall des bei der Ausführungsform 4 eingesetzten Verfahrens. Demnach läßt sich erfassen, ob das Auge geöffnet oder geschlossen ist. Es sei bemerkt, daß das bei der Ausführungsform 6 eingesetzte Verfahren ähnlich zu dem bei der Ausführungsform 4 eingesetzten ist, mit der Ausnahme, daß der Y-Mittenort als Formfunktion erster Ordnung eingesetzt wird.
Ausführungsform 7
Nun wird eine Ausführungsform 7 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 14 und 15 beschrieben. Die Fig. 14 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 4 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zeitpunkt TB), den sich während dem Zeitraum ändernden Binärbildern des Ortsbereichs des Auges 8, und den Y-Histogrammen, die Formfunktionen erster Ordnung gemäß den Binärbildern des Ortsbereichs des Auges 8 sind, sowie von Approximationslinien, die auf Grundlage der Formfunktionen erster Ordnung berechnete Formfunktionen zweiter Ordnung sind.
Die Fig. 15 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der die Differenz zwischen den Gradienten der beiden Approximationslinien ist, die auf der Grundlage der in Fig. 14 gezeigten Y-Histrogramme berechnet werden.
Ferner sind die Linien 9 und 9′′ Approximationslinien, die durch Einsatz eines Verfahrens der kleinsten Quadrate als Abbildungen erhalten werden, deren Formen ausreichend nahe an den Formen festgelegter Teile der Y-Histogramme liegen (insbesondere einem Bereich der X-Koordinaten von LL bis (LL + 20) und einem anderen Bereich der X-Koordinaten von RR (entsprechend dem rechten Endabschnitt des Ortsbereichs des Auges 8) bis (20 - RR), die den äußeren Endabschnitten sowohl des linken als auch des rechten Auges entsprechen. In diesem Fall ist die Differenz zwischen den Gradienten der Approximationslinien 9 und 9′′ der Wert K der Bewertungsfunktion.
Wie in Fig. 14 gezeigt ist, ändert sich dann, wenn das Auge geöffnet oder geschlossen ist, die Form des Y-Histogramms. Hierdurch ist in dem Zeitpunkt TC, in dem das Auge geschlossen ist, der Wert K der Bewertungsfunktion niedrig, wie in Fig. 15 gezeigt ist. Demnach wird ein Schwellwert KB festgelegt, und es läßt sich erfassen, ob das Auge geöffnet oder geschlossen ist.
Ferner werden in diesem Fall die Formen festgelegter Bereiche der äußeren Endabschnitte jeweils gemäß dem linken und rechten Auge zum Erhalten der Bewertungsfunktion eingesetzt. Jedoch läßt sich, obgleich das Vorzeichen der Funktion umgekehrt ist, eine ähnliche Wirkung in dem Fall erzielen, in dem die Formen der festgelegten Bereiche der inneren Endabschnitte des linken und rechten Auges benützt werden.
In dem Fall des bei dieser Ausführungsform 7 eingesetzten Verfahrens werden die symmetrischen Formen festgelegter Bereiche sowohl dem linken als auch des rechten Endabschnitts zum Erhalten der Bewertungsfunktion derart benützt, daß die Veränderung des Werts K der Bewertungsfunktion aufgrund der Neigung des Gesichts eines Fahrers gering wird. Demnach weist diese Ausführungsform Vorteile und Wirkungen dahingehend auf, daß sich fehlerhafte Detektionen aufgrund einer Form am Rand des Auges reduzieren lassen und daß sich genau erfassen läßt, ob das Auge geöffnet oder geschlossen ist.
Weiterhin weist in dem Fall, daß Bewertungsfunktionen jeweils gemäß den festgelegten Bereichen der äußeren Endabschnitte des linken und rechten Auges und den festgelegten Bereichen der inneren Endabschnitte des linken und rechten Auges berechnet werden und daß eine dieser Bewertungsfunktionen, die sich während des Zeitablaufs stärker als die andere Bewertungsfunktion verändert, eingesetzt wird, diese Ausführungsform einen Vorteil dahingehend auf, daß sich die Genauigkeit bei der Beurteilung der geöffneten oder geschlossenen Zustände des Auges weiter verbessern läßt.
Ausführungsform 8
Nun wird eine Ausführungsform 8 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 16 und 17 beschrieben. Die Fig. 16 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das bei der Ausführungsform 8 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen dazwischenliegenden Zwischenzeitpunkt TB), den sich während dem Zeitraum verändernden Binärbildern des Ortsbereichs des Auges 8, und Formfunktionen erster Ordnung (insbesondere Oberschranken-Formfunktionen), jeweils unter Einsatz der Koordinaten der Oberschranken der Binärbilder, sowie von Approximationslinien, die als Formfunktionen zweiter Ordnung auf der Grundlage der Formfunktionen erster Ordnung berechnet werden.
Die Fig. 17 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der die Differenz zwischen den Gradienten der beiden Approximationslinien ist, die durch die Berechnung auf der Grundlage der in Fig. 16 gezeigten Oberschranken- Formfunktion erhalten werden.
In dem Fall, in dem das bei der Ausführungsform 8 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich bei geöffnetem oder geschlossenem Auge die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem Fall des in der Ausführungsform 7 eingesetzten Verfahrens. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 9
Nun wird eine Ausführungsform 9 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 18 und 19 beschrieben. Die Fig. 18 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 9 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen dazwischenliegenden Zwischenzeitpunkt TB), den sich während des Zeitraums verändernden Binärbildern des Ortsbereichs des Auges 8, und Formfunktionen erster Ordnung (insbesondere Y- Mittenort-Formfunktionen), jeweils unter Einsatz der Form dessen, was als Y-Mittenort bezeichnet wird, sowie von Approximationslinien, die aus den Formfunktionen erster Ordnung berechnete Formfunktionen zweiter Ordnung sind.
Fig. 19 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der die Differenz zwischen den Gradienten der beiden Approximationslinien ist, die durch die Berechnung auf der Grundlage der in Fig. 18 gezeigten Y-Mittenort- Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 9 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich bei geöffnetem oder geschlossenem Auge die Y-Mittenort-Formfunktion, in ähnlicher Weise wie in dem bei der Ausführungsform 7 durchgeführten Verfahren. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 10
Nun wird eine Ausführungsform 10 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 20 und 21 beschrieben. Die Fig. 20 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 10 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen dazwischenliegenden Zwischenzeitpunkt TB), den sich während dem Zeitablauf verändernden Binärbildern des Ortsbereichs des Auges, und der Y-Histogramme, die Formfunktionen erster Ordnung gemäß den Binärbildern des Ortsbereichs des Auges 18 sind.
Die Fig. 21 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden auf der Grundlage der in Fig. 20 gezeigten Y-Histrogrammen berechneten Mittelwerten oder Durchschnittswerten entspricht.
Im Fall dieser Ausführungsform 10 ist die Differenz zwischen dem Mittelwert oder Durchschnittswert von Zählwerten der Wert K der Bewertungsfunktion, die durch die folgende Gleichung (3) gegeben ist, und zwar der für einen Teil des Y- Histogramms gezeigten Zählwerte (SUM), der dem Mittenabschnitt des Auges entspricht (insbesondere dem Bereich der X-Koordinaten von (C - 5) bis (C + 5)), und der für einen anderen Teil des Y-Historgramms gezeigten Zählwerte, der dem linken Endabschnitt des Auges entspricht (insbesondere dem Bereich der X-Koordinaten von L bis (L + 10)). Es sei bemerkt, daß in der Gleichung (3) jede Summierung des ersten Halbteils oder -punkts von dessen linken Seite im Hinblick auf X zwischen (C - 5) bis (C + 5) durchgeführt wird und jede Summierung des zweiten Halbteils oder -punkts der rechten Seite hiervon im Hinblick auf X von L bis (L + 10) durchgeführt wird.
K = (Σ SUM)/10 - (Σ SUM)/10 (3)
Wie in Fig. 20 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge die Form des Y-Histogramms. Im Ergebnis ist dann, wenn das Auge geschlossen ist, der Wert K der Bewertungsfunktion niedrig. Demnach wird ein Schwellwert KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ferner wird im Fall dieser Ausführungsform der Mittelwert oder Durchschnittswert der Zählwerte SUM in dem Teil des Y- Histogramms, der dem linken Endabschnitt des Auges entspricht, zum Erhalten der Bewertungsfunktion eingesetzt. Jedoch lassen sich ähnliche Wirkungen in dem Fall erzielen, daß der Mittelwert der Zählwerte SW in dem Teil des Y- Histogramms zum Erhalten der Bewertungsfunktion eingesetzt wird, der dem rechten Endabschnitt des Auges entspricht.
Ausführungsform 11
Nun wird eine Ausführungsform 11 der vorliegenden Erfindung nachstehend unter Bezug auf die Fig. 22 und 23 beschrieben. Die Fig. 22 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 11 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), den sich während des Zeitraums verändernden Binärbildern des Ortsbereichs des Auges 8, sowie von Formfunktionen (insbesondere Oberschranken-Formfunktionen), die jeweils die Koordinaten der Oberschranken der Binärbilder benützen.
Die Fig. 23 zeigt eine Veränderung des Werts K der Bewertungsfunktion,, der die Differenz zwischen den beiden Mittelwerten oder Durchschnittswerten ist, die durch die Berechnung auf der Grundlage der in Fig. 22 gezeigten Oberschranken-Formfunktion erhalten werden.
In dem Fall, in dem das durch diese Ausführungsform 11 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich bei geöffnetem oder geschlossenem Auge die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem Fall des Verfahrens, das durch die Ausführungsform 10 eingesetzt wird. Demnach läßt sich erfassen, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 12
Nun wird eine Ausführungsform 12 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 24 und 25 beschrieben. Die Fig. 24 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 12 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), den sich während des Zeitraums verändernden Binärbildern des Ortsbereichs des Auges 8, und von Formfunktionen (insbesondere Y-Mittenort- Formfunktionen), die jeweils die Form dessen benützen, was als Y-Mittenort bezeichnet wird.
Die Fig. 25 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittenwerten oder Durchschnittswerten entspricht, die durch die Berechnung auf Grundlage der in Fig. 24 gezeigten Y- Mittenort-Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 12 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, ändert sich bei geöffnetem oder geschlossenem Auge die Y-Mittenort-Formfunktion, in ähnlicher Weise wie bei dem durch die Ausführungsform 10 eingesetzten Verfahren. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 13
Nun wird eine Ausführungsform 13 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 26 und 27 beschrieben. Die Fig. 26 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 13 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), den sich während dieses Zeitraums verändernden Binärbildern des Ortsbereichs des Auges 8, sowie von Y-Histogrammen, die jeweils den Binärbildern entsprechen.
Die Fig. 27 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittelwerten oder Durchschnittswerten entspricht, die auf der Grundlage der in Fig. 26 gezeigten Y-Histogrammen berechnet werden.
Im Fall dieser Ausführungsform 13 ergibt sich der Wert K der Bewertungsfunktion, die durch die nachfolgende Gleichung (4) gegeben ist, als Differenz zwischen dem Mittelwert oder Durchschnittswert der Zählwerte (SUM) für einen Teil des Y- Histogramms, der dem Mittenabschnitt des Auges entspricht (insbesondere dem Bereich der X-Koordinaten von (C - 5) bis (C + 5)), und demjenigen der Zählwerte von einem anderen Teil der Y-Histogramme, der dem linken und rechten Endabschnitt des Auges entspricht (insbesondere dem Bereich der X- Koordinaten von L bis (L + 10) und dem Bereich der X- Koordinaten von (R - 10) bis R. Es sei bemerkt, daß in der Gleichung (4) die Summierung für den ersten Anteil für die linke Seite im Hinblick auf X zwischen (C - 5) bis (C + 5) durchgeführt wird und die zweite Summation (insbesondere die linksseitige Summierung des zweiten Anteils) für deren rechten Seite im Hinblick auf X von L bis (L + 10) durchgeführt wird und die dritte Summierung (insbesondere die rechtzeitige Summierung des zweiten Anteils) der rechten Seite hiervon im Hinblick auf X von (R - 10) bis R durchgeführt wird.
K = (Σ SUM)/10 - (Σ SUM + Σ SUM)/20 (4)
Wie in Fig. 26 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge das Y-Histogramm. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 27 gezeigt ist. Demnach wird ein Schwellwert KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 14
Nun wird eine Ausführungsform 14 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 28 und 29 beschrieben. Die Fig. 28 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 14 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während des Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und von Formfunktionen (insbesondere Oberschranken-Formfunktionen), jeweils unter Einsatz der Koordinaten der Oberschranken der Binärbilder.
Die Fig. 29 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittenwerten oder Durchschnittswerten entspricht, die durch die Berechnung auf Grundlage der in Fig. 28 gezeigten Oberschranken-Formfunktionen erhalten werden.
In dem Fall, in dem das bei dieser Ausführungsform 14 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich bei geöffnetem oder geschlossenem Auge die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem Fall des bei der Ausführungsform 13 durchgeführten Verfahrens. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 15
Nun wird eine Ausführungsform 15 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 30 und 31 beschrieben. Die Fig. 30 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren eines geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 15 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen dazwischenliegenden Zwischenzeitpunkt TB), der sich während des Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und Formfunktionen (insbesondere Y-Mittenort-Formfunktionen), jeweils unter Einsatz der Form dessen, was als Y-Mittenort bezeichnet wird.
Die Fig. 31 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittenwerten und Durchschnittswerten entspricht, die durch die Berechnung auf der Grundlage der in Fig. 30 gezeigten Y- Mittenort-Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 15 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, verändert sich dann, wenn das Auge geöffnet oder geschlossen ist, die Y-Mittenort-Formfunktion, in ähnlicher Weise, wie bei dem in der Ausführungsform 13 eingesetzten Verfahren. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 16
Nun wird eine Ausführungsform 16 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 32 und 33 beschrieben. Die Fig. 32 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 16 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und von Y-Histogrammen, die jeweils den Binärbildern zugeordnet sind.
Die Fig. 33 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittenwerten oder Durchschnittswerten entspricht, die auf der Grundlage der in Fig. 32 gezeigten Y-Histrogramme berechnet werden.
In dem Fall dieser Ausführungsform 16 entspricht die Differenz zwischen dem Mittenwert oder dem Durchschnittswert der Summenwerte (SUM) für die beiden Teile der Y-Histogramme, die jeweils den Mittenabschnitten des linken und rechten Auges zugeordnet sind (insbesondere gemäß den Bereichen der X-Koordinaten von ((LC - 5) bis (LC + 5) und (RC - 5) bis (RC + 5)), und den Summenwerten für die anderen beiden Teile der Y-Histogramme gemäß den äußeren Endabschnitten (insbesondere dem linken und rechten Endabschnitt) beider Augen (insbesondere gemäß den Bereichen der X-Koordinaten von LL bis (LL + 10) und dem Bereich der X-Koordinaten von (RR - 10) bis RR) dem Wert K der Bewertungsfunktion, die durch die nachfolgende Gleichung (5) gegeben ist. Es sei bemerkt, daß in der Gleichung (5) der erste oder linksseitige Summenwert des ersten Anteils der linken Seite hiervon im Hinblick auf X von (LC - 5) bis (LC + 5) bestimmt wird und der zweite rechtsseitige Summenwert des ersten Anteils der linken Seite hiervon im Hinblick auf X von (RC - 5) bis (RC + 5) bestimmt wird und der dritte Summenwert (insbesondere der linksseitige Summenwert des zweiten Anteils) der rechten Seite hiervon im Hinblick auf X von LL bis (LL + 10) bestimmt wird und der vierte Summenwert (insbesondere der rechtsseitige Summenwert des zweiten Anteils) der rechten Seite hiervon im Hinblick auf X von (RR - 10) bis RR bestimmt wird.
K = (Σ SUM + Σ SUM)/20 - (Σ SUM + Σ SUM)/20 (5)
Wie in Fig. 32 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge die Form des Y-Histogramms. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 33 gezeigt ist. Deshalb wird ein Schwellwert zu KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ferner wird im Fall dieser Ausführungsform der Durchschnitt der Zählwerte für die Y-Histogramme des festgelegten Bereichs entsprechend den äußeren Endabschnitten beider Augen zum Erhalten des Werts der Bewertungsfunktion eingesetzt. Jedoch lassen sich ähnliche Wirkungen in dem Fall erzielen, in dem der Durchschnitt der Zählwerte für die Y-Histogramme in dem festgelegten Bereich gemäß den inneren Endabschnitten beider Augen eingesetzt wird.
Ausführungsform 17
Nun wird eine Ausführungsform 17 der folgenden Erfindung nachfolgend unter Bezug auf die Fig. 34 und 35 beschrieben.
Die Fig. 34 zeigt bin Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 14 (17) der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, sowie von Formfunktionen (insbesondere Oberschranken-Formfunktionen), jeweils unter Einsatz der Koordinaten der Oberschranken der Binärbilder.
Die Fig. 35 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittenwerten oder Durchschnittswerten entspricht, die durch die Berechnung auf der Grundlage der in Fig. 34 gezeigten Oberschranken-Formfunktion erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 17 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, ändert sich bei geöffnetem oder geschlossenem Auge die Oberschranken-Formfunktion in ähnlicher Weise wie bei dem durch die Ausführungsform 16 eingesetzten Verfahren. Demnach kann festgestellt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 18
Nun wird eine Ausführungsform 18 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 36 und 37 beschrieben. Die Fig. 36 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 18 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und von Formfunktionen (insbesondere Y-Mittenort-Formfunktionen), jeweils unter Einsatz der Form dessen, was als Y-Mittenort bezeichnet wird.
Die Fig. 37 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der der Differenz zwischen den beiden Mittenwerten oder Durchschnittswerten entspricht, die durch die Berechnung auf der Grundlage der in Fig. 37 gezeigten Y- Mittenort-Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 18 der vorliegenden Erfindung eingesetzte Verfahren durchgeführt wird, ändert sich bei geöffnetem oder geschlossenem Auge die Y-Mittenort-Formfunktion, in ähnlicher Weise, wie bei dem in der Ausführungsform 16 eingesetzten Verfahren. Demnach kann festgestellt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 19
Nun wird eine Ausführungsform 19 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 38 und 39 beschrieben. Die Fig. 38 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren eines geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 19 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, sowie von Y-Histogrammen, die Formfunktionen erster Ordnung sind, gemäß den Binärbildern des Ortsbereichs des Auges 8, und von Häufigkeitsverteilungskurven, die Formfunktionen zweiter Ordnung sind und auf der Grundlage der Formfunktionen erster Ordnung berechnet werden und jeweils die Häufigkeitsanteile A der Summenwerte (SUM) darstellen.
Die Fig. 39 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die durch Ausführen von Berechnungen auf Grundlage der in Fig. 38 gezeigten Häufigkeitsverteilungskurven erhalten wird.
Ferner wird im Fall dieser Ausführungsform 19 der Wert K der Bewertungsfunktion durch die folgende Gleichung (6) erhalten, in der "MAX" dem Maximalwert der in den Häufigkeitsverteilungskurven gezeigten kumulierten Häufigkeit darstellt, und "POS" kennzeichnet den Wert des Exponenten J in dem Zeitpunkt, wenn die kumulierte Häufigkeit den Maximalwert "MAX" aufweist. Dieser Wert K zeigt den Umfang der Zentrierung des Y-Histogramms an. Es sei bemerkt, daß bei der Gleichung (6) die Summierung der rechten Seite hiervon im Hinblick auf die kumulierte Häufigkeit (insbesondere der Zählwert) von 0 bis zu dem Maximalwert erfolgt.
K = MAX/Σ {A(Pos-J) (6)
Wie in Fig. 38 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge die Form der Häufigkeitsverteilungskurve. Im Ergebnis ist, wie in Fig. 39 gezeigt ist, bei geschlossenem Auge der Wert K der Bewertungsfunktion hoch. Demnach wird ein Schwellwert zu KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 20
Nun wird eine Ausführungsform 20 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 40 und 41 beschrieben. Die Fig. 40 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 20 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und von Formfunktionen erster Ordnung (insbesondere der Oberschranken-Formfunktionen), die die (Y-)Koordinaten der Oberschranken der Binärbilder in dem Ortsbereich des Auges 8 benützten, sowie von Häufigkeitsverteilungskurven, die Formfunktionen zweiter Ordnung sind und auf der Grundlage der Formfunktionen erster Ordnung berechnet werden und hierbei die Häufigkeitsanteile A der Werte (UF) der Oberschrankenfunktionen darstellen.
Die Fig. 41 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der durch Durchführen von Berechnungen auf der Grundlage der in Fig. 40 gezeigten Häufigkeitsverteilungskurven erhalten wird.
Ferner ändert sich in dem Fall, in dem das durch diese Ausführungsform 20 eingesetzte Verfahren durchgeführt wird, bei geöffnetem oder geschlossenem Auge die Form der Häufigkeitsverteilungskurven, in ähnlicher Weise, wie in dem Fall der zuvor erläuterten Ausführungsform 19. Demnach kann festgestellt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 21
Nun wird eine Ausführungsform 21 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 42 und 43 beschrieben. Fig. 42 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch diese Ausführungsform 21 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem Zeitpunkt TC, in dem das Auge geschlossen ist), der sich während dieses Zeitraums verändernden Binärbilder der Ortsbereiche des Auges 8, und der Formfunktionen erster Ordnung (insbesondere der Y-Mittenordnung-Formfunktionen), die die Form der Y-Mittenlinien (oder -kurven) der Binärbilder benützen, und von Häufigkeitsverteilungskurven, die Formfunktionen zweiter Ordnung sind und auf der Grundlage der Formfunktionen erster Ordnung berechnet werden und jeweils die Häufigkeitsverteilung A der Werte (CF) der Y- Mittenort-Formfunktionen darstellen.
Die Fig. 43 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die durch Durchführen der Berechnungen auf der Grundlage der in Fig. 42 gezeigten Häufigkeitsverteilungskurven erhalten wird.
Ferner verändert sich in dem Fall, in dem das durch diese Ausführungsform 21 eingesetzte Verfahren durchgeführt wird, bei geöffnetem oder geschlossenem Auge die Form der Häufigkeitsverteilungskurve, in ähnlicher Weise wie im Fall der zuvor erläuterten Ausführungsform 19. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 22
Nun wird eine Ausführungsform 22 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 44 und 45 beschrieben. Die Fig. 44 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch diese Ausführungsform 22 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem Zeitpunkt TC, in dem das Auge geschlossen ist), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und von Y-Histogrammen (insbesondere von Formfunktionen erster Ordnung) der Binärbilder, sowie der Kreismittelpunkte, die Formfunktionen zweiter Ordnung sind und auf der Grundlage der gekrümmten Formen der Formfunktionen erster Ordnung erhalten werden, und zwar durch Einsatz dessen, was als Speicherfilter bezeichnet wird.
Die Fig. 45 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die durch Durchführen von Berechnungen auf der Grundlage der in Fig. 44 gezeigten Y-Histogrammen erhalten wird.
Die durch diese Ausführungsform 22 angezeigte Mittenposition ist der Mittelpunkt eines Kreises, der auf der Grundlage der gekrümmten Form der Formfunktion unter Einsatz des Speichenfilters bestimmt wird. Ferner entspricht der Wert K der Bewertungsfunktion der Differenz zwischen dem Maximalwert der Formfunktion erster Ordnung und der Ordinate (insbesondere der Y-Koordinate) dieses Mittelpunkts.
Wie in Fig. 44 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge die Form des Y-Histogramms. Im Ergebnis ist, wie in Fig. 45 gezeigt, bei geschlossenem Auge der Wert K der Bewertungsfunktion hoch. Demnach wird ein Schwellwert KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 23
Nun wird eine Ausführungsform 23 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 46 beschrieben. Diese Figur zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch diese Ausführungsform 23 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist), den sich während diesem Zeitraum verändernden Binärbildern des Ortsbereichs des Auges 8, und der Formfunktionen erster Ordnung (insbesondere von Oberschranken-Formfunktionen) der Binärbilder, sowie der Mittelpunkte der Kreise, die Formfunktionen zweiter Ordnung sind und auf der Grundlage der gekrümmten Formen der Formfunktionen erster Ordnung durch Einsatz des Speichenfilters erhalten werden.
In dem Fall der Ausführungsform 23 verändert sich bei geöffnetem oder geschlossenem Auge die Formfunktion. Hierdurch ist bei geschlossenem Auge der Wert K der Bewertungsfunktion hoch. In einem extremen Fall, der in dieser Figur gezeigt ist, ist bei geschlossenem Auge die Positionsbeziehung zwischen dem konvexen Abschnitt und dem konkaven Abschnitt umgekehrt, so daß ein divergenter/überkritischer Zustand auftritt, in dem keine Mitte erfaßt wird. Demnach kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 24
Nun wird eine Ausführungsform 24 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 47 erläutert. Diese Figur zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das für diese Ausführungsform der Fig. 24 der vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, und einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist), den sich während dieses Zeitraums verändernden Binärwerten des Ortsbereichs des Auges 8, und der Formfunktionen erster Ordnung (insbesondere der Y-Mittenort-Formfunktionen), die die Form der Y-Mittenlinien (oder -kurven) der Binärbilder benützen, sowie der Mittelpunkte der Kreise, die Formfunktionen zweiter Ordnung sind und auf der Grundlage der gekrümmten Formen der Formfunktionen erster Ordnung durch Einsatz der Speichenfilter erhalten werden.
In dem Fall des durch die Ausführungsform 24 eingesetzten Verfahrens ändert sich bei geöffnetem oder geschlossenem Auge die Formfunktion, in ähnlicher Weise wie in dem Fall des durch die Ausführungsform 22 eingesetzten Verfahrens. Demnach kann festgestellt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 25
Nun wird eine Ausführungsform 25 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 48 und 49 beschrieben. Die Fig. 48 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren eines geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 25 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder der Ortsbereiche des Auges 8, der ersten Formfunktion Ordnung (Oberschranken-Formfunktionen), die die Y-Koordinaten der Oberschranken der Binärbilder benützen, sowie von "X-Histogrammen" (insbesondere zweiter Formfunktionen), die hier als Graphen zum Darstellen der Verteilung der Werte definiert sind, die durch Akkumulieren der Binärtonpegel der Pixel entlang der X-Richtung erhalten werden, gemäß jeder der Y-Koordinaten in dem Ortsbereich des Auges 8 für jedes der Binärbilder.
Die Fig. 49 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die auf der Grundlage der ersten Formfunktion berechnet wird und der Y-Koordinate eines Spitzenwerts in dem in Fig. 48 gezeigten X-Histogramm.
In dem Fall dieser Ausführungsform 25 entspricht die Summe der Differenzen zwischen den Y-Koordinaten UF der Oberschranke in dem festgelegten Bereich des Mittenabschnitts des Auges (gemäß dem Bereich von X zwischen (C - 20) bis (C + 20)) und der Y-Koordinate POS des Spitzenwerts des X- Histogramms dem Wert K der Bewertungsfunktion, die durch die folgende Gleichung (7) bestimmt ist. Es sei bemerkt, daß in der Gleichung (7) die Summierung der rechten Seite hiervon im Hinblick auf X zwischen (C - 20) bis (C + 20) durchgeführt wird.
K = Σ (UF - POS) (7)
Wie in Fig. 48 gezeigt ist, verändern sich bei geöffnetem oder geschlossenem Auge die Form der ersten Formfunktion und diejenige des X-Histogramms. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 49 gezeigt ist. Demnach wird ein Schwellwert KB bestimmt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 26
Nun wird eine Ausführungsform 26 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 50 und 51 beschrieben. Die Fig. 50 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren eines geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 26 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, erster Formfunktionen (insbesondere Y-Mittenort-Formfunktionen), die die Form des Y-Mittenorts der Binärbilder benützen, sowie von X-Histogrammen (insbesondere zweiter Formfunktionen), die jeweils den Binärbildern zugeordnet sind.
Die Fig. 51 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der auf der Grundlage der ersten Formfunktion und der Y-Koordinate des Spitzenwerts des in Fig. 50 gezeigten X-Histogramms berechnet wird.
In dem Fall dieser Ausführungsform 26 ändert sich bei geöffnetem oder geschlossenem Auge die Form der ersten Formfunktion und diejenige des X-Histogramms, in ähnlicher Weise wie in dem Fall der zuvor erwähnten Ausführungsform 25. Demnach wird ein Schwellwert KB bestimmt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 27
Nun wird eine Ausführungsform 27 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 52 und 53 beschrieben. Die Fig. 52 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 27 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB, der sich während diesem Zeitraum verändernden Binärbilder der Ortsbereiche des Auges 8, der Mittelpunkte oder Schwerpunkte (insbesondere erste Formfunktionen) festgelegter Abschnitte oder Bereiche der Binärbilder eines Auges, sowie von Linien zum Verbinden zweier der Mittelpunkte oder Schwerpunkte (insbesondere zweite Formfunktionen) des festgelegten Abschnitts oder Bereichs der Binärbilder des Auges.
Fig. 53 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die auf der Grundlage der in Fig. 52 gezeigten Formfunktionen berechnet wird.
Bei jedem der in Fig. 52 gezeigten Graphen, markiert "+" den Mittelpunkt oder Schwerpunkt (XC, YC) eines festgelegten Teils des Mittenabschnitts des Bilds des Auges, der den Bereich von X zwischen (C - 5) bis (C + 5) zugeordnet ist, und den Mittelpunkt oder Schwerpunkt (XL, YL) eines festgelegten Teils des linken Endabschnitts des Bilds des Auges, der dem Bereich von X zwischen L bis (L + 10) zugeordnet ist. Jeder der Mittelpunkte oder Schwerpunkte entspricht dem Mittelwert oder Durchschnitt der Koordinaten schwarzer Pixel, die in dem entsprechenden Bildteil enthalten sind. Beispielsweise sind die Mittelpunkte (XC, YC) oder Schwerpunkte durch die folgende Gleichung (8) bestimmt, die die Gesamtzahl N schwarzer Pixel in dem festgelegten Teil des Mittenabschnitts des Bilds enthält.
(XC, YC) = (Σ X/N, Σ Y/N) (8)
In dem Fall dieser Ausführungsform 27 wird der Gradient einer Linie 20 zum Verbinden des Mittelpunkts oder Schwerpunkts (XC, YC) des festgelegten Teils des Mittenabschnitts des Bilds des Auges mit dem Mittelpunkt oder Schwerpunkt (XL, YL) des festgelegten Teils des linken Endabschnitts des Bilds anhand der folgenden Gleichung (9) bestimmt und stellt den Wert K der Bewertungsfunktion dar.
K = (YC - YL)/(XC - XL) (9)
Wie in Fig. 52 gezeigt ist, ändert sich bei geöffnetem oder geschlossenem Auge die Form der ersten Formfunktion und diejenige der zweiten Formfunktion. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 53 gezeigt ist. Demnach wird ein Schwellwert zu KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Weiterhin wird in dem Fall dieser Ausführungsform der Durchschnitt der Werte der ersten Formfunktion, die dem festgelegten Teil des linken Endabschnitts des Bilds des Auges zugeordnet ist, zum Erhalten der Bewertungsfunktion eingesetzt. Jedoch lassen sich ähnliche Wirkungen in dem Fall erhalten, in dem der Durchschnitt der Werte der ersten Formfunktion benützt wird, der dem festgelegten Teil des rechten Endabschnitts des Bilds zugeordnet ist.
Ausführungsform 28
Nun wird eine Ausführungsform 28 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 54 und 55 beschrieben. Die Fig. 54 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren eines geöffneten oder geschlossenen Zustands eines Auges 15132 00070 552 001000280000000200012000285911502100040 0002019614975 00004 15013, das durch die Ausführungsform 28 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, der Mittelpunkte oder Schwerpunkte (insbesondere erste Formfunktionen) festgelegter Abschnitte oder Bereiche der Binärbilder eines Auges, sowie von Linien zum Verbinden zweier der Schwerpunkte oder Mittelpunkte (insbesondere zweite Formfunktionen) für festgelegte Abschnitte oder Bereiche des Auges.
Die Fig. 55 zeigt eine Veränderung des Werts K der Bewertungsfunktion, die auf der Grundlage der in Fig. 54 gezeigten Formfunktionen berechnet wird.
Im Fall dieser Ausführungsform 28 ist die Differenz zwischen dem Gradienten einer Linie 20 zum Verbinden des Mittelpunkts oder Schwerpunkts (XC, YC) des festgelegten Teils mit dem X- Koordinatenbereich von (C - 5) bis (C + 5) und des Mittenabschnitts des Bilds des Auges mit dem Mittelpunkt oder Schwerpunkt (XL, YL) des festgelegten Teils mit dem X- Koordinatenbereich von L bis (L + 10) bei dem linken Endabschnitt des Bilds, sowie dem Gradienten einer anderen Linie 20′ zum Verbinden des Mittelpunkts oder Schwerpunkts (XC, YC) desselben (festgelegten) Teils des Mittenabschnitts des Bilds des Auges mit dem Mittelpunkt oder Schwerpunkt (XR, YR) des festgelegten Teils mit dem X-Koordinatenbereich von R bis (10 - R) des linken Endabschnitts des Bilds anhand der folgenden Gleichung (10) bestimmt, und diese bildet den Wert K der Bewertungsfunktion.
K = (YC - YL)/(XC - XL) - (YC - YR)/(XC - XR) (10)
Wie in Fig. 54 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge die Form der ersten Formfunktion und diejenige der zweiten Formfunktion. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 55 gezeigt ist. Demnach wird ein Schwellwert zu KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 29
Nun wird eine Ausführungsform 29 der vorliegenden Erfindung nachstehend unter Bezug auf die Fig. 56 und 57 beschrieben. Die Fig. 56 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 29 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zwischenzeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, der Mittelpunkte oder Schwerpunkte (insbesondere erste Formfunktionen) festgelegter Abschnitte oder Bereiche der Binärbilder eines Auges, sowie zwei Linien, von denen jede zwei der Mittelpunkte oder Schwerpunkte (insbesondere zweite Formfunktionen) des festgelegten Abschnitts oder Bereichs der Binärbilder des Auges gemäß jedem der Zeitpunkte TA, TB und TC verbindet.
Die Fig. 57 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der auf der Grundlage der in Fig. 56 gezeigten Formfunktionen berechnet wird.
In dem Fall dieser Ausführungsform 29 wird anhand der folgenden Gleichung (11) die Differenz zwischen dem Gradienten einer Linie 20 zum Verbinden des Mittelpunkts oder Schwerpunktes (XCL, YCL) des festgelegten Teils mit dem X- Koordinatenbereich von (LC - 5) bis (LC + 5) des Mittenabschnitts des Bilds des linken Auges mit dem Mittelpunkt oder Schwerpunkt (XLL, YLL) des festgelegten Teils mit dem X-Koordinatenbereich von LL bis (LL + 10) des linken Endabschnitts des Auges und dem Gradienten einer anderen Linie 20′′ zum Verbinden des Mittelpunkts oder Schwerpunkts (XCR, YCR) des zugeordneten (festgelegten) Teils mit dem X-Koordinatenbereich von (RC - 5) bis (RC + 5) des Mittenabschnitts des Bilds des rechten Auges mit dem Mittelpunkt oder Schwerpunkt (XRR, YRR) des festgelegten Teils mit dem X-Koordinatenbereich zwischen RR und (10 - RR) des linken Endabschnitts des Auges bestimmt, und diese bildet den Wert K der Bewertungsfunktion.
K = (YCL - YLL)/(XCL - XLL) - (YCR - YRR)/(XCR - XRR) (11)
Wie in Fig. 56 gezeigt ist, verändert sich bei geöffnetem oder geschlossenem Auge die Form der ersten Formfunktion und diejenige der zweiten Formfunktion. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 57 gezeigt ist. Demnach wird ein Schwellwert KB festgelegt, und es kann festgelegt werden, ob das Auge geöffnet oder geschlossen ist.
Ferner werden in diesem Fall die Formen festgelegter Bereiche jeweils der äußeren Endabschnitte gemäß dem linken und rechten Auge zum Erhalten der Bewertungsfunktion eingesetzt. Jedoch läßt sich eine ähnliche Wirkung in dem Fall erzielen, in dem die Formen festgelegter Bereiche der inneren Endabschnitte des linken und rechten Auges benützt werden.
Ausführungsform 30
Nun wird eine Ausführungsform 30 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 58 und 59 beschrieben. Die Fig. 58 zeigt ein Diagramm zum Darstellen eines Verfahrens zum Detektieren des geöffneten oder geschlossenen Zustands eines Auges, das durch die Ausführungsform 30 der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über einen zwischenliegenden Zeitpunkt TB), der sich während dieses Zeitraums verändernden Binärbilder des Ortsbereichs des Auges 8, und von X-Histogrammen (insbesondere Formfunktionen) zum Darstellen der Häufigkeit der Werte, die durch die Akkumulierung der Binärtonpegel der Pixel entlang der X-Richtung gemäß jeder der Y-Koordinaten für jedes der Binärbilder erhalten werden. Ferner wird jedes der X- Histogramme praktisch durch Scannen des Ortsbereichs des Auges 8 entlang der X-Richtung und durch Zählen der schwarzen Pixel gemäß jeder der Y-Koordinaten erhalten (es sei bemerkt, daß "SUMX" den Zählwert (insbesondere die Gesamtzahl) der schwarzen Pixel gemäß jeder der Y-Koordinaten entspricht).
Die Fig. 59 zeigt eine Veränderung des Werts K der Bewertungsfunktion, der auf der Grundlage des in Fig. 58 gezeigten X-Histogramms berechnet wird.
In dem Fall dieser Ausführungsform 30 werden die Y- Koordinaten POS, U und D des Spitzenwerts des X-Histogramms und des oberen Endes und des unteren Endes hiervon erfaßt. Ferner wird der Wert K der Bewertungsfunktion anhand der relativen Positionsbeziehung erhalten, wie sie durch die nachfolgende Gleichung (12) ausgedrückt wird. Es sei bemerkt, daß in diesem Fall der Wert K der Bewertungsfunktion die Relativposition des Spitzenwerts in dem X-Histogramm anzeigt.
K = (U - POS)/( POS - D) (12)
Wie in Fig. 58 gezeigt ist, ändert sich bei geöffnetem und geschlossenem Auge die Form des X-Histogramms. Im Ergebnis ist bei geschlossenem Auge der Wert K der Bewertungsfunktion niedrig, wie in Fig. 59 gezeigt ist. Demnach wird ein Schwellwert KB festgelegt, und es kann erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 31
Nun wird eine Ausführungsform 31 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 60 und 61 beschrieben. Die Fig. 60 zeigt ein Diagramm zum Darstellen der Anordnung dieser Ausführungsform 31 der vorliegenden Erfindung. Die Fig. 61 zeigt ein Diagramm zum Darstellen eines Verfahrens dieser Ausführungsform 31 zum Extrahieren eines möglichen Ortsbereichs für ein Auge anhand des Binärbilds eines Gesichts.
Wie in Fig. 60 gezeigt ist, ist gemäß dieser Ausführungsform 31 eine Kamera 11 vorgesehen, sowie eine Bildeingabevorrichtung 12, eine Binärumsetzvorrichtung 13, eine Bewertungsfunktions-Berechnungsvorrichtung 15A und eine Extrahiervorrichtung für ein Auge 14A.
Ein Teil des Betriebs dieser Ausführungsform 31 stimmt mit einem Teil des Betriebs der zuvor erläuterten Ausführungsform 1 zwischen dem Beginn bis zu der Binärumsetzung überein. Jedoch bestimmt die Bewertungsfunktions- Berechnungsvorrichtung 15A zunächst den Mittelpunkt oder Schwerpunkt 31 anhand des Durchschnitts der Koordinaten der schwarzen Pixel eines Binärbilds 30. Anschließend werden rechteckige Bereiche, die in den festgelegten Bereichen entlang der X-Richtung auf der linken und rechten Seite dieses Mittelpunkts oder Schwerpunkts 31 vorliegen, als Ortsbereiche des Auges 32 festgelegt. Ferner werden in dem Ortsbereich das Auges 32 X-Histogramme 33 (insbesondere 33a und 33b) generiert. Anschließend werden Bandbereiche auf der Grundlage der X-Histogramme festgelegt. Ferner werden Y- Histogramme 34 (insbesondere 34a und 34b) erzeugt, zum Darstellen der Verteilung der Werte, die durch die Akkumulierung der Binärtonpegel der Pixel entlang der Y- Richtung der Spalten der Randbereiche erhalten werden. Dann werden schraffierte mögliche Bereiche 35 (insbesondere 35a und 35b) für einen Ortsbereich eines Auges extrahiert.
Hierbei werden Bewertungsfunktionen gemäß einer der zuvor erläuterten Ausführungsformen der vorliegenden Erfindung, die jeweils allen möglichen Bereichen 35 zugeordnet sind, durch die Bewertungsfunktions-Berechnungsvorrichtung 15A berechnet. Anschließend werden die berechneten Werte der Bewertungsfunktionen in einem Speicher erfaßt. Hierbei ist zu erwähnen, daß sich bei einem Blinken die Form eines Auges verändert und sich der Wert K der zugeordneten Bewertungsfunktion verändert und daß sich im Gegensatz hierzu die Form einer Augenbraue und diejenige des Rahmens einer Brille über die Zeit kaum verändert und daß somit eine Veränderung des Werts K der zugeordneten Bewertungsfunktion sehr gering ist. Demnach überprüft die Extrahiervorrichtung für ein Auge 14A, wie sich die Werte K der Bewertungsfunktionen über die Zeit verändern. Ferner unterscheidet die Extrahiervorrichtung für ein Auge 14A zwischen dem Auge, den Brauen und dem Rahmen einer Brille gemäß den Werten K der Bewertungsfunktionen und den hierbei auftretenden Veränderungen. Demnach extrahiert die Extrahiervorrichtung für ein Auge 14A den Ortsbereich eines Auges und beurteilt, ob das Auge geöffnet oder geschlossen ist.
Ausführungsform 32
Nun wird eine Ausführungsform 32 der vorliegenden Erfindung nachfolgend unter Bezug auf die Fig. 62 beschrieben. Die Fig. 62 zeigt ein Diagramm zum Darstellen des Aufbaus dieser Ausführungsform 32 der vorliegenden Erfindung. Diese Ausführungsform ist eine Kombination der zuvor erläuterten Ausführungsform 1 und der zuvor erwähnten Ausführungsform 31. Die Bewertungsfunktionen einer der vorhergehenden Ausführungsformen, die jeweils sämtlichen möglichen Bereichen 35 zugeordnet sind, werden durch die Bewertungsfunktions- Berechnungsfunktion 15A berechnet. Anschließend werden die berechneten Werte der Berechnungsfunktionen in einem Speicher erfaßt. Hierbei ist zu erwähnen, daß sich bei einem Zwinker die Form eines Auges verändert und daß sich der Wert K der zugeordneten Bewertungsfunktion verändert und daß sich im Gegensatz hierzu die Form einer Braue und diejenige des Rahmens einer Brille über die Zeit kaum verändert, und demnach ist die Veränderung des Werts K der zugeordneten Bewertungsfunktion sehr gering. Demnach überprüft die Extrahiervorrichtung für ein Auge 14B, ob sich die Werte K der Bewertungsfunktionen über die Zeit verändern. Ferner unterscheidet die Extrahiervorrichtung für das Auge/die Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands 14B zwischen dem Auge, der Braue und dem Rahmen einer Brille in Übereinstimmung mit den Werten K der Bewertungsfunktionen und deren Veränderungen. Demnach extrahiert die Extrahiervorrichtung für ein Auge/die Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands 14B den Ortsbereich eines Auges. Gleichzeitig bestimmt die Extrahiervorrichtung für das Auge/die Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands 14B einen Schwellwert für den Wert K der Bewertungsfunktion und beurteilt anschließend, ob das Auge geöffnet oder geschlossen ist.
Jede der zuvor erläuterten Ausführungsformen der vorliegenden Erfindung kann genau beurteilen, ob ein Auge geöffnet oder geschlossen ist, selbst in den Fällen, in denen die Veränderung der Zahl fortlaufender schwarzer Pixel entlang der Y-Richtung gering ist, was in dem Zeitpunkt des Schließens des Auges der Fall ist, und in dem sich die Veränderung der Maximalzahl fortlaufender schwarzer Pixel entlang der Y-Richtung aus einer Veränderung einer Aufwärts- oder Abwärtsrichtung eines Gesichts oder aus einer Veränderung der Links- oder Rechtsneigung des Gesichts ergibt, indem die Aufmerksamkeit auf eine Veränderung der Form des Auges gerichtet wird, die durch das Schließen des Auges bewirkt wird. Weiterhin wurden bei der vorhergehenden Beschreibung der Ausführungsformen der vorliegenden Erfindung diejenigen Fälle beschrieben, bei denen die vorliegende Erfindung bei Automobilen angewandt wird. Jedoch kann die vorliegende Erfindung auf alle Arten von Fahrzeugen angewandt werden, beispielsweise einem Zug, einer Einschienenbahn, einem Flugzeug oder einem Schiff.
Obgleich die bevorzugten Ausführungsformen der vorliegenden Erfindung oben beschrieben wurden, ist zu erkennen, daß die vorliegende Erfindung nicht hierauf beschränkt ist und daß weitere Modifikationen ohne einem Abweichen von dem Sinngehalt der Erfindung für die mit dem Stand der Technik Vertrauten offensichtlich sind.
Demnach wird der Schutzbereich der vorliegenden Erfindung ausschließlich durch die nachfolgenden Patentansprüche bestimmt.

Claims (35)

1. Gesichtsbildverarbeitungssystem, enthaltend:
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Augenextrahiervorrichtung zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, aus dem binär umgesetzten Gesichtsbild;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft des Auges anhand des Ortsbereichs des Auges und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
2. Gesichtsbildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, daß die Bewertungsfunktions- Berechnungsvorrichtung eine Formfunktion erster Ordnung auf der Grundlage des Binärbilds des Ortsbereichs des Auges bestimmt und eine Formfunktion zweiter Ordnung gemäß der Formfunktion erster Ordnung berechnet und ferner eine Bewertungsfunktion gemäß der Formfunktion zweiter Ordnung berechnet.
3. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, daß die Formfunktion zweiter Ordnung eine Approximationslinie gemäß der Formfunktion erster Ordnung ist.
4. Gesichtsbildverarbeitungssystem nach Anspruch 3, dadurch gekennzeichnet, daß die Bewertungsfunktion ein Gradient der Approximationslinie ist.
5. Gesichtsbildverarbeitungssystem nach Anspruch 4, dadurch gekennzeichnet, daß die Formfunktion erster Ordnung eine Oberschranke des Binärbilds des Ortsbereichs des Auges ist.
6. Gesichtsbildverarbeitungssystem nach Anspruch 5, dadurch gekennzeichnet, daß die Approximationslinie durch Einsatz eines Verfahrens der geringsten Quadrate als eine Linie mit einer Form erhalten wird, die nahe an einer Form eines festgelegten Bereichs eines Endabschnitts der Oberschranke liegt.
7. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, daß die Formfunktion zweiter Ordnung aus zwei Approximationslinien gemäß der Formfunktion erster Ordnung besteht.
8. Gesichtsbildverarbeitungssystem nach Anspruch 7, dadurch gekennzeichnet, daß die Bewertungsfunktion einer Differenz zwischen den Gradienten der beiden Approximationslinien entspricht.
9. Gesichtsbildverarbeitungssystem nach Anspruch 8, dadurch gekennzeichnet, daß die Formfunktion erster Ordnung eine Oberschranke des Binärbilds des Ortsbereichs des Auges ist.
10. Gesichtsbildverarbeitungssystem nach Anspruch 9, dadurch gekennzeichnet, daß die beiden Approximationslinien unter Einsatz eines Verfahrens der geringsten Quadrate als Abbildungen erhalten werden, deren Formen jeweils nahe derjenigen eines festgelegten Bereichs eines Endabschnitts der Oberschranke eines Gesamtbereichs der Schranke liegt.
11. Gesichtsbildverarbeitungssystem nach Anspruch 9, dadurch gekennzeichnet, daß die beiden Approximationslinien unter Einsatz eines Verfahrens der geringsten Quadrate als Abbildungen erhalten werden, deren Formen jeweils nahe an derjenigen eines festgelegten Bereichs eines linken Endabschnitts der Oberschranke und eines festgelegten Bereichs eines rechten Endabschnitts hiervon liegen.
12. Gesichtsbildverarbeitungssystem nach Anspruch 8, dadurch gekennzeichnet, daß die ersten Formfunktionen obere Schranken des linken und rechten Auges in dem Binärbild des Ortsbereichs des Auges sind.
13. Gesichtsbildverarbeitungssystem nach Anspruch 12, dadurch gekennzeichnet, daß die beiden Approximationslinien unter Einsatz eines Verfahrens der geringsten Quadrate als Abbildungen erhalten werden, deren Formen jeweils nahe an derjenigen eines festgelegten Bereichs eines Endabschnitts der Oberschranke des linken Auges und eines festgelegten Bereichs eines Endabschnitts der Oberschranke des rechten Auges liegen.
14. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, daß die Formfunktion zweiter Ordnung einem Durchschnitt der Werte der Formfunktion erster Ordnung an zwei Stellen entspricht.
15. Gesichtsbildverarbeitungssystem nach Anspruch 14, dadurch gekennzeichnet, daß die Bewertungsfunktion einer Differenz zwischen den Durchschnittswerten der Werte der Formfunktion erster Ordnung an zwei Stellen entspricht.
16. Gesichtsbildverarbeitungssystem nach Anspruch 15, dadurch gekennzeichnet, daß die Formfunktion erster Ordnung einer Oberschranke des Binärbilds des Ortsbereichs des Auges entspricht.
17. Gesichtsbildverarbeitungssystem nach Anspruch 16, dadurch gekennzeichnet, daß der Durchschnitt der Werte der Formfunktion erster Ordnung an zwei Stellen anhand festgelegter Bereiche eines Mittenabschnitts und eines Endabschnitts der Oberschranke erhalten wird.
18. Gesichtsbildverarbeitungssystem nach Anspruch 16, dadurch gekennzeichnet, daß der Durchschnitt der Werte an den zwei Stellen anhand festgelegter Bereiche eines Mittenabschnitts und beider Endabschnitte der Oberschranke erhalten wird.
19. Gesichtsbildverarbeitungssystem nach Anspruch 15, dadurch gekennzeichnet, daß die Formfunktionen erster Ordnung Oberschranken des linken und rechten Auges in dem Binärbild des Ortsbereichs des Auge sind.
20. Gesichtsbildverarbeitungssystem nach Anspruch 19, dadurch gekennzeichnet, daß der Durchschnitt der Werte der Formfunktion erster Ordnung an den zwei Stellen anhand festgelegter Bereiche des Mittenabschnitts sowohl der Augen und der Endabschnitte der Oberschranken beider Augen erhalten wird.
21. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch gekennzeichnet, daß die Formfunktion erster Ordnung ein Mittelpunkt eines festgelegten Bereichs eines Bilds eines Auges in dem Binärbild des Ortsbereichs des Auges ist.
22. Gesichtsbildverarbeitungssystem nach Anspruch 21, dadurch gekennzeichnet, daß die Formfunktion zweiter Ordnung eine durch die beiden Mittelpunkte laufende Linie ist.
23. Gesichtsbildverarbeitungssystem nach Anspruch 22, dadurch gekennzeichnet, daß die Bewertungsfunktion einer Differenz zwischen einem Gradienten einer ersten Linie und einem Gradienten einer zweiten Linie entspricht.
24. Gesichtsbildverarbeitungssystem nach Anspruch 23, dadurch gekennzeichnet, daß die erste Linie eine durch einen Mittelpunkt eines Mittenabschnitts des Bilds des Auges und einem Mittelpunkt eines linken Endabschnitts hiervon laufende Linie ist und daß die zweite Linie eine durch den Mittelpunkt des Mittenabschnitts des Bilds des Auges und einem Mittelpunkt eines rechten Endabschnitts hiervon laufende Linie ist.
25. Gesichtsbildverarbeitungssystem nach Anspruch 21, dadurch gekennzeichnet, daß die Funktionen erster Ordnung einem Mittelpunkt eines festgelegten Bereichs eines Bilds eines linken Auges in dem Binärbild des Ortsbereichs des Auges und einem Mittelpunkt eines festgelegten Bereichs eines Bilds eines hierin enthaltenen rechten Auges entsprechen.
26. Gesichtsbildverarbeitungssystem nach Anspruch 25, dadurch gekennzeichnet, daß die Funktionen zweiter Ordnung einer ersten Linie entsprechen, die durch die beiden Mittelpunkte eines Abschnitts eines Bilds eines linken Auges verlaufen, sowie einer zweiten Linie, die durch die beiden Mittelpunkte eines Abschnitts eines Bilds eines rechten Auges verlaufen.
27. Gesichtsbildverarbeitungssystem nach Anspruch 26, dadurch gekennzeichnet, daß die Bewertungsfunktion einer Differenz zwischen einem Gradienten der ersten Linie und einem Gradienten der zweiten Linie entspricht.
28. Gesichtsbildverarbeitungssystem nach Anspruch 27, dadurch gekennzeichnet, daß die erste Linie eine durch einen Mittelpunkt eines Mittenabschnitts des Bilds des linken Auges und einem Mittelpunkt eines linken Endabschnitts hiervon verlaufenden Linie entspricht und die zweite Linie einer durch den Mittelpunkt des Mittenabschnitts des Bilds des rechten Auges und einem Mittelpunkt eines rechten Endabschnitts hiervon verlaufenden Linie entspricht.
29. Gesichtsbildverarbeitungssystem nach Anspruch 1, dadurch gekennzeichnet, daß die Bewertungsfunktions- Berechnungsvorrichtung erste und zweite Formfunktionen anhand des Binärbilds des Ortsbereichs des Auges bestimmt und eine Berechnungsfunktion gemäß den ersten und zweiten Formfunktionen berechnet.
30. Gesichtsbildverarbeitungssystem nach Anspruch 29, dadurch gekennzeichnet, daß die erste Formfunktion eine Oberschranke des Binärbilds des Ortsbereichs des Auges ist.
31. Gesichtsbildverarbeitungssystem nach Anspruch 30, dadurch gekennzeichnet, daß die zweite Formfunktion ein X-Histogramm des Binärbilds des Ortsbereichs des Auges ist.
32. Gesichtsbildverarbeitungssystem gemäß Anspruch 31, dadurch gekennzeichnet, daß die Bewertungsfunktion einer Differenz zwischen der Oberschranke und einem Spitzenwert des X-Histogramms entspricht.
33. Gesichtsbildverarbeitungssystem nach Anspruch 32, dadurch gekennzeichnet, daß die Bewertungsfunktion einer Summe der Differenzen zwischen den Koordinaten der Oberschranke und der Spitzenwerte des X-Histogramms in einem Mittenabschnitt des Binärbilds entspricht.
34. Gesichtsbildverarbeitungssystem, enthaltend:
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Extrahieren eines Extrahierbereichs eines Auges anhand des binär umgesetzten Gesichtsbilds, zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft eines Auges in dem möglichen Ortsbereich eines Auges anhand des extrahierten Augenbereichs und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Extrahiervorrichtung für ein Auge zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, gemäß der Bewertungsfunktion.
35. Gesichtsbildverarbeitungssystem, enthaltend:
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Extrahieren eines Extrahierbereichs eines Auges anhand des binär umgesetzten Gesichtsbilds, zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft eines Auges in dem möglichen Ortsbereich eines Auges anhand des extrahierten Augenbereichs und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Vorrichtung für die Augenextrahierung/zum Beurteilen des geöffneten oder geschlossenen Zustands des Auges zum Extrahieren eines Ortsbereichs des Auges, der ein Auge enthält, gemäß der Bewertungsfunktion, und zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
DE19614975A 1995-07-28 1996-04-16 Gesichtsbildverarbeitungssystem Expired - Fee Related DE19614975C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19364795A JP3426060B2 (ja) 1995-07-28 1995-07-28 顔画像処理装置

Publications (2)

Publication Number Publication Date
DE19614975A1 true DE19614975A1 (de) 1997-01-30
DE19614975C2 DE19614975C2 (de) 2000-01-13

Family

ID=16311429

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19614975A Expired - Fee Related DE19614975C2 (de) 1995-07-28 1996-04-16 Gesichtsbildverarbeitungssystem

Country Status (3)

Country Link
US (1) US5805720A (de)
JP (1) JP3426060B2 (de)
DE (1) DE19614975C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2096577A3 (de) * 2008-02-29 2013-11-06 Canon Kabushiki Kaisha Informationsverarbeitungsvorrichtung, Verfahren zur Bestimmung des Öffnungs-/Schließungsgrads von Augen, computerlesbarer Datenträger und Bilderfassungsvorrichtung

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2907120B2 (ja) * 1996-05-29 1999-06-21 日本電気株式会社 赤目検出補正装置
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
JP3600755B2 (ja) 1999-05-13 2004-12-15 三菱電機株式会社 顔画像処理装置
JP3695990B2 (ja) * 1999-05-25 2005-09-14 三菱電機株式会社 顔画像処理装置
US6243015B1 (en) * 1999-06-17 2001-06-05 Hyundai Motor Company Driver's drowsiness detection method of drowsy driving warning system
US6728401B1 (en) 2000-08-17 2004-04-27 Viewahead Technology Red-eye removal using color image processing
US20020180608A1 (en) 2001-05-04 2002-12-05 Sphericon Ltd. Driver alertness monitoring system
JP3963789B2 (ja) * 2002-06-24 2007-08-22 デジタルファッション株式会社 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
US7336804B2 (en) * 2002-10-28 2008-02-26 Morris Steffin Method and apparatus for detection of drowsiness and quantitative control of biological processes
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US20050140801A1 (en) * 2003-08-05 2005-06-30 Yury Prilutsky Optimized performance and performance for red-eye filter method and apparatus
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US7435227B2 (en) * 2004-09-13 2008-10-14 Biocognisafe (Bcs) Technologies Method and apparatus for generating an indication of a level of vigilance of an individual
US20080080744A1 (en) * 2004-09-17 2008-04-03 Mitsubishi Electric Corporation Face Identification Apparatus and Face Identification Method
US20060149426A1 (en) * 2005-01-04 2006-07-06 Unkrich Mark A Detecting an eye of a user and determining location and blinking state of the user
US7253739B2 (en) 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
US7746235B2 (en) * 2005-03-10 2010-06-29 Delphi Technologies, Inc. System and method of detecting eye closure based on line angles
US7253738B2 (en) * 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method of detecting eye closure based on edge lines
JP2006260397A (ja) * 2005-03-18 2006-09-28 Konica Minolta Holdings Inc 開眼度推定装置
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
US7650034B2 (en) * 2005-12-14 2010-01-19 Delphi Technologies, Inc. Method of locating a human eye in a video image
WO2007095553A2 (en) 2006-02-14 2007-08-23 Fotonation Vision Limited Automatic detection and correction of non-red eye flash defects
US7804983B2 (en) * 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
DE602007012246D1 (de) 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
KR100791389B1 (ko) * 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2010520567A (ja) 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド 顔の位置および向きを用いた赤目の誤検出フィルタリング
JP4309928B2 (ja) * 2007-03-15 2009-08-05 アイシン精機株式会社 瞼検出装置、瞼検出方法、及び、プログラム
JP4848303B2 (ja) * 2007-03-15 2011-12-28 アイシン精機株式会社 眼開閉判別装置及びプログラム
DE102008007152B4 (de) 2007-03-30 2019-01-17 Volkswagen Ag Verfahren zur Parametrisierung des Augenöffnungsgrades eines Fahrers eines Kraftfahrzeugs
CN101388070B (zh) * 2007-09-14 2011-11-30 鸿富锦精密工业(深圳)有限公司 选择最佳时机捕获影像的系统及方法
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8570176B2 (en) * 2008-05-28 2013-10-29 7352867 Canada Inc. Method and device for the detection of microsleep events
CN101616500B (zh) * 2008-06-23 2012-08-22 深圳富泰宏精密工业有限公司 移动设备及其密码设置方法
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
WO2010136593A2 (en) * 2009-05-29 2010-12-02 Tessera Technologies Ireland Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
JP5737400B2 (ja) * 2011-07-11 2015-06-17 トヨタ自動車株式会社 赤目検出装置
JP5418579B2 (ja) * 2011-12-06 2014-02-19 株式会社デンソー 開閉眼検出装置
DE102012208822A1 (de) * 2012-05-25 2013-11-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerzustandserkennung
US9335819B1 (en) * 2014-06-26 2016-05-10 Audible, Inc. Automatic creation of sleep bookmarks in content items
JP2017530757A (ja) 2014-09-09 2017-10-19 トーヴェック・インコーポレーテッド 装着型装置を用いて個人の注意力を監視し通知を提供するための方法及び装置
DE102015225109A1 (de) * 2015-12-14 2017-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Klassieren von Augenöffnungsdaten zumindest eines Auges eines Insassen eines Fahrzeugs und Verfahren und Vorrichtung zum Erfassen einer Schläfrigkeit und/oder eines Sekundenschlafes eines Insassen eines Fahrzeugs
KR20180111926A (ko) 2016-02-18 2018-10-11 커이지스 테크놀로지스, 인크. 각성도 예측 시스템 및 방법
CN107977622B (zh) * 2017-11-30 2021-10-26 西安科锐盛创新科技有限公司 基于瞳孔特征的眼睛状态检测方法
CN112622876B (zh) * 2021-03-09 2021-05-14 天津所托瑞安汽车科技有限公司 车辆质心位置确定方法、装置、设备和存储介质
DE102021123849A1 (de) 2021-09-15 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Überwachungseinrichtung zum Bestimmen eines Augenzustands einer Person und Kraftfahrzeug

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0632154A (ja) * 1992-07-18 1994-02-08 Nissan Motor Co Ltd 運転者の状態検出装置
DE4441332A1 (de) * 1993-11-11 1995-05-18 Mitsubishi Electric Corp Fahrer-Fotografiervorrichtung
DE19509689A1 (de) * 1994-03-10 1995-09-14 Mitsubishi Electric Corp Körperzustands-Erfassungsapparat
DE19613614A1 (de) * 1995-05-10 1996-11-14 Mitsubishi Electric Corp Vorrichtung zur Bearbeitung eines Bildes eines Gesichts
DE19603287A1 (de) * 1995-07-06 1997-01-09 Mitsubishi Electric Corp Gesichtsbildaufnahmevorrichtung

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541688B2 (ja) * 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
JP2973676B2 (ja) * 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
JPH06308918A (ja) * 1993-04-21 1994-11-04 Fujitsu Ltd 画面表示制御方法及び画面表示制御装置
US5422690A (en) * 1994-03-16 1995-06-06 Pulse Medical Instruments, Inc. Fitness impairment tester
US5570698A (en) * 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0632154A (ja) * 1992-07-18 1994-02-08 Nissan Motor Co Ltd 運転者の状態検出装置
DE4441332A1 (de) * 1993-11-11 1995-05-18 Mitsubishi Electric Corp Fahrer-Fotografiervorrichtung
DE19509689A1 (de) * 1994-03-10 1995-09-14 Mitsubishi Electric Corp Körperzustands-Erfassungsapparat
DE19613614A1 (de) * 1995-05-10 1996-11-14 Mitsubishi Electric Corp Vorrichtung zur Bearbeitung eines Bildes eines Gesichts
DE19603287A1 (de) * 1995-07-06 1997-01-09 Mitsubishi Electric Corp Gesichtsbildaufnahmevorrichtung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2096577A3 (de) * 2008-02-29 2013-11-06 Canon Kabushiki Kaisha Informationsverarbeitungsvorrichtung, Verfahren zur Bestimmung des Öffnungs-/Schließungsgrads von Augen, computerlesbarer Datenträger und Bilderfassungsvorrichtung
US8624994B2 (en) 2008-02-29 2014-01-07 Canon Kabushiki Kaisha Information processing apparatus, eye open/closed degree determination method, computer-readable storage medium, and image sensing apparatus

Also Published As

Publication number Publication date
US5805720A (en) 1998-09-08
JP3426060B2 (ja) 2003-07-14
JPH0944684A (ja) 1997-02-14
DE19614975C2 (de) 2000-01-13

Similar Documents

Publication Publication Date Title
DE19614975C2 (de) Gesichtsbildverarbeitungssystem
DE19609455C2 (de) Gesichtsbild-Verarbeitungssystem
DE2831582C2 (de) Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
EP1062640B1 (de) Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
DE4406020C1 (de) Verfahren zur automatisierten Erkennung von Objekten
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
DE60224324T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Fahrzeugbildern
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE60217589T2 (de) Vorrichtung und Verfahren zur Detektion von weissen Linien
DE19847261A1 (de) Verfahren und System zur Personenerkennung mit modellbasierter Gesichtsfindung
DE112010003914T5 (de) Verfahren und Vorrichtung zur Erkennung von Müdigkeit am Steuer sowie ein Fahrzeug
DE3916323A1 (de) Verfahren zum erkennen eines zeichens und dabei verwendbares zeichenerkennungssystem
AT523045B1 (de) Verfahren und Vorrichtung zur Sitzgurterkennung
EP1143373B1 (de) Verfahren zur störanteilsfreien Bilderfassung mittels eines elektronischen Sensors
WO2006133974A1 (de) Verfahren und vorrichtung zur erkennung einer münze unter verwendung ihres prägebildes
EP0750764B1 (de) Verfahren und anordnung zur fuzzy-regelung
DE10157959A1 (de) Vorrichtung und Verfahren zur Prüfung von Bildern
DE102022003968A1 (de) Verfahren zum Erkennen eines Schlaganfalles eines Insassen in einem Fahrzeug
DE10046859B4 (de) System zur Blickrichtungsdetektion aus Bilddaten
DE102018112171A1 (de) Verfahren zum Beurteilen von Objekten in einer Umgebung eines Kraftfahrzeugs anhand einer dreidimensionalen Fusionskarte, Steuereinrichtung; Fahrerassistenzsystem, Computerprogrammprodukt
EP1402460B1 (de) Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke
WO2000028470A2 (de) Erzeugen eines abgerollten fingerabdruckbildes aus einer serie von einzelbildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20121101