DE10030421A1 - Fahrzeugumgebungsüberwachungssystem - Google Patents

Fahrzeugumgebungsüberwachungssystem

Info

Publication number
DE10030421A1
DE10030421A1 DE10030421A DE10030421A DE10030421A1 DE 10030421 A1 DE10030421 A1 DE 10030421A1 DE 10030421 A DE10030421 A DE 10030421A DE 10030421 A DE10030421 A DE 10030421A DE 10030421 A1 DE10030421 A1 DE 10030421A1
Authority
DE
Germany
Prior art keywords
vehicle
image
data
monitoring system
environment monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10030421A
Other languages
English (en)
Other versions
DE10030421B4 (de
Inventor
Takayuki Tsuji
Nobuharu Nagaoka
Masahito Watanabe
Hiroshi Hattori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE10030421A1 publication Critical patent/DE10030421A1/de
Application granted granted Critical
Publication of DE10030421B4 publication Critical patent/DE10030421B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/082Lane monitoring; Lane Keeping Systems using alarm actuation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/089Lane monitoring; Lane Keeping Systems using optical detection

Abstract

Die Erfindung stellt ein Fahrzeugumgebungsüberwachungssystem für ein Kraftfahrzeug bereit, welches geeignet ist, genau die Bewegung eines in einer Umgebung des Fahrzeugs vorhandenen Objekts zu erfassen und die Möglichkeit für eine Kollision zwischen dem Objekt und dem Fahrzeug zu bestimmen, und dadurch den Fahrer angemessen zu warnen. Eine Relativposition des Objekts zu dem Kraftfahrzeug wird aus dem mittels einer an dem Fahrzeug angebrachten Kamera erhaltenen Bild erhalten, um Positionsdaten zu erlangen (S11-S20, S31-S33). Positionen des Objekts in einem Echtraum werden basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt erfaßten Positionsdaten berechnet (S21, S22) und ein Bewegungsvektor des Objekts wird basierend auf den Positionen im Echtraum berechnet (S23). Es wird basierend auf dem Bewegungsvektor bestimmt (S24), ob das Objekt eine bedeutende Möglichkeit für eine Kollision mit dem Kraftfahrzeug aufweist.

Description

HINTERGRUND DER ERFINDUNG Gebiet der Erfindung
Diese Erfindung betrifft ein Fahrzeugumgebungsüberwachungssystem, welches eine Umgebung eines Kraftfahrzeugs überwacht, an dem das System installiert ist, und ein Objekt erfaßt, welches mit dem Fahrzeug kollidieren könnte, aus einem Bild, das durch eine an dem Fahrzeug angebrachte Abbildungseinrichtung erhalten wird, wodurch eine Kollision mit großen Tieren wie etwa einem Reh, einem Bären und dergleichen vermieden werden, da eine derartige Kollision sich nachteilig auf die Fahrt des Fahrzeugs auswirkt.
Beschreibung des Stands der Technik
Durch die japanische Offenlegungs-Patentveröffentlichung (Kokai) Nr. 9- 226490 wurde in herkömmlicher Weise ein Erfassungssystem zum Erfassen eines eine Straße kreuzenden Objekts vorgeschlagen, welches eine Distanz zwischen dem Fahrzeug und dem Objekt basierend auf dem Versatz zwischen Bildern des Objekts erfaßt, und zwar der Parallaxe von Bildern, die durch zwei CCD(charge-coupled device)-Kameras erhalten werden, die an dem Fahrzeug angebracht sind, wodurch ein Fußgänger 30 bis 60 Meter vor dem Fahrzeug erfaßt wird.
Die obige herkömmliche Vorrichtung bestimmt die Möglichkeit einer Kollision mit einem Objekt unter Verwendung der Richtung eines optischen Flusses des erfaßten Objekts basierend auf durch die Kameras erhaltenen Bildern des Objekts, ohne weitere Verarbeitung, was zu einer verschlechterten Bestimmungsgenauigkeit führt, abhängig von einer relativen Distanz zwischen dem Fahrzeug und dem Objekt sowie der Geschwindigkeit des Fahrzeugs. Dies bedeutet, wenn eine Fahrzeuggeschwindigkeit wesentlich größer als die Geschwindigkeit eines sich bewegenden Objekts ist, so wird ein optischer Fluß auf dem Bild, der z. B. einem sich tatsächlich zur Mitte einer Straße sich bewegenden Objekt entspricht, manchmal als ein Vektor verfolgt, der sich außerhalb der Straße erstreckt, was eine fehlerhafte Bestimmung der Möglichkeit einer potentiellen Kollision zur Folge hat.
ABRISS DER ERFINDUNG
Es ist eine Aufgabe der Erfindung, ein Fahrzeugumgebungsüberwachungs­ system bereitzustellen, welches es ermöglicht, genauer die Bewegung eines in einer Umgebung des Fahrzeugs vorhandenen Objekts zu erfassen und die Möglichkeit einer Kollision zwischen dem Objekt und dem Fahrzeug zu bestimmen und dadurch den Fahrer zuverlässiger zu warnen.
Zur Lösung der obigen Aufgabe stellt die vorliegende Erfindung ein Fahrzeugumgebungsüberwachungssystem für ein Kraftfahrzeug bereit, welches ein in einer Umgebung des Kraftfahrzeugs vorhandenes Objekt aus einem Bild erfaßt, welches durch Abbildungsmittel erhalten wird, die an dem Kraftfahrzeug angeordnet sind.
Das Fahrzeugumgebungsüberwachungssystem ist dadurch gekennzeichnet, daß es umfaßt:
Relativpositionserfassungsmittel zum Erfassen einer Relativposition des Objekts zu dem Kraftfahrzeug aus dem Bild, das durch die Abbildungsmittel erhalten wird, um Positionsdaten zu erhalten;
Bewegungsvektorberechnungsmittel zum Berechnen von Positionen des Objekts in einem Echtraum, basierend auf einer Mehrzahl von Zeitreihen­ datenelementen der Positionsdaten, die mittels der Relativposition­ erfassungsmittel an dem Objekt erfaßt werden, und zum Berechnen eines Bewegungsvektors des Objekts, basierend auf den Positionen in dem Echtraum; und
Bestimmungsmittel zum Bestimmen, ob das Objekt eine bedeutende Möglichkeit einer Kollision mit dem Kraftfahrzeug besitzt oder nicht, basierend auf dem Bewegungsvektor.
Gemäß diesem Fahrzeugumgebungsüberwachungssystem wird die Relativ­ position des Objekts zu dem Kraftfahrzeug aus dem Bild erfaßt, welches durch die Abbildungsmittel erhalten wird, um die Positionsdaten zu erhalten, und werden Positionen des Objekts in einem Echtraum berechnet, basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt erfaßten Positionsdaten. Dann wird basierend auf den Positionen des Objekts in dem Echtraum ein Bewegungsvektor des Objekts berechnet, und es wird basierend auf dem Bewegungsvektor bestimmt, ob das Objekt eine bedeutende Möglichkeit einer Kollision mit dem Kraftfahrzeug besitzt. Deshalb ist es, anders als bei dem herkömmlichen System, möglich, das Auftreten einer fehlerhaften Bestimmung zu vermeiden und dadurch die Genauigkeit der Bestimmung der Möglichkeit einer Kollision zu steigern.
Vorzugsweise umfassen die Bewegungsvektorberechnungsmittel Näherungsgeradenberechnungsmittel zum Berechnen einer Näherungs­ geraden, welche eine Ortskurve der Relativbewegung des Objekts nähert, und Positionsdatenkorrekturmittel zum Korrigieren der Zeitreihen­ datenelemente der Positionsdaten unter Verwendung der Näherungs­ geraden, wobei die Bewegungsvektorberechnungsmittel den Bewegungs­ vektor basierend auf den korrigierten Zeitreihendatenelementen der Positionsdaten berechnen.
Gemäß dieser bevorzugten Ausführungsform wird eine gerade Näherungs­ linie berechnet, die eine Ortskurve der Relativbewegung des Objekts nähert, und die Zeitreihendatenelemente der Positionsdaten werden unter Verwendung der Näherungsgeraden korrigiert. Der Bewegungsvektor wird basierend auf den korrigierten Zeitreihendatenelementen der Positionsdaten berechnet. Deshalb ist es möglich, eine nachteilige Wirkung von Fehlern bei der Erfassung der Positionsdaten zu vermindern und die Möglichkeit einer Kollision mit dem Objekt im voraus genauer abzuschätzen.
Vorzugsweise führen die Bestimmungsmittel die Bestimmung durch Anwenden von Bedingungen zum Bestimmen einer potentiellen Kollision aus, wobei die Bedingungen von einer Breite des Fahrzeugs abhängig sind.
Gemäß dieser bevorzugten Ausführungsform wird die Möglichkeit einer Kollision durch Anwenden von Bedingungen für ein Bestimmen einer potentiellen Kollision bestimmt, die abhängig von einer Breite des Fahrzeugs sind. Dies ermöglicht es, die Möglichkeit einer Kollision genauer zu bestimmen und zu vermeiden, daß der Fahrer unnötigerweise gewarnt wird.
Weiter bevorzugt berechnen die Näherungsgeradenberechnungsmittel die Näherungsgerade als eine dreidimensionale Gerade, umfassend Daten einer Höhe des Objekts.
Gemäß dieser bevorzugten Ausführungsform ist es möglich, die Möglichkeit einer Kollision genau zu bestimmen, selbst wenn der Fahrer auf einer hügeligen Straße fährt.
Vorzugsweise umfassen die Abbildungsmittel zwei Infrarotkameras, die zur Erfassung von Infrarotstrahlung geeignet sind.
Gemäß dieser bevorzugten Ausführungsform kann ein Tier, ein fahrendes Kraftfahrzeug und dergleichen einfach erfaßt werden, selbst wenn der Fahrer bei Nacht fährt und es schwierig ist, diese zu erkennen.
Vorzugsweise umfassen die Abbildungsmittel zwei TV-Kameras zum Erfassen von Infrarotstrahlung oder sichtbarer Strahlung und umfassen die Relativpositionbestimmungsmittel Suchbereichsetzmittel zum Setzen, basierend auf einer Position eines Objektbilds, das in einer Bildausgabe von einer der zwei TV-Kameras enthalten ist, eines Suchbereichs in einer Bildausgabe von der anderen der zwei TV-Kameras, um ein korrespondierendes Objektbild zu suchen, das in der Bildausgabe der anderen der zwei TV-Kameras enthalten ist, Korrespondenzobjekt­ identifizierungsmittel zum Identifizieren des korrespondierenden Objektbilds durch Ausführen einer Korrelationsoperation an Daten in dem Suchbereich, und Distanzberechnungsmittel zum Berechnen einer Distanz von dem Fahrzeug zu dem Objekt basierend auf einer Parallaxe zwischen dem Objektbild und dem Korrespondenzobjektbild.
Weiter bevorzugt sind die Daten in dem Suchbereich Graustufendaten, die Halbtoninformation enthalten.
Indem nicht binäre Daten sondern Graustufendaten verwendet werden, ist es gemäß dieser bevorzugten Ausführungsform möglich, eine genauere Korrelationsoperation durchzuführen, wodurch eine fehlerhafte Identifizierung eines korrespondierenden Objektbilds vermieden wird.
Weiterhin bevorzugt umfassen die Relativpositionserfassungsmittel Verfolgungsmittel zum Verfolgen eines Objekts, das sich in dem Bild bewegt, das durch die Abbildungsmittel erhalten wird, unter Verwendung von Binärdaten, die durch Binärisierung der Graustufendaten gebildet werden.
Noch weiter bevorzugt erkennen die Verfolgungsmittel das verfolgte Objekt unter Verwendung von Lauflängendaten, die aus den Binärdaten codiert werden.
Gemäß dieser bevorzugten Ausführungsform ist es möglich, die Menge von Daten, die das verfolgte Objekt betreffen, zu reduzieren, wodurch bei der Kapazität der Speichereinrichtung gespart wird.
Noch weiter bevorzugt bestimmen die Verfolgungsmittel eine Identität des verfolgten Objekts, basierend auf Positionskoordinaten eines Flächenschwerpunkts von einem Bilds desselben, einer Fläche des Bilds desselben und einem Seitenverhältnis eines das Bild desselben umschreibenden Rechtecks.
Gemäß dieser bevorzugten Ausführungsform ist es möglich, die Identität eines verfolgten Objekts genau zu bestimmen.
Vorzugsweise umfaßt das Fahrzeugumgebungsüberwachungssystem Warnungsmittel zum Warnen eines Fahrers, wenn durch die Bestimmungsmittel bestimmt wird, daß es eine bedeutende Möglichkeit einer Kollision mit dem Objekt gibt, und sind die Warnungsmittel an einem Warnen des Fahrers gehindert, wenn der Fahrer eine Bremsoperation ausführt und die hierbei durch die Bremsoperation verursachte Verzögerung größer als eine vorbestimmte Schwelle ist.
Gemäß dieser bevorzugten Ausführungsform wird der Fahrer nicht gewarnt, wenn er das Objekt bereits erkannt hat und eine angemessene Bremsoperation ausführt. Dies ermöglicht es, zu verhindern, daß der Fahrer durch eine unnötige Warnung gestört wird.
Die obigen und weitere Aufgaben, Merkmale und Vorteile der Erfindung werden aus der folgenden detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen ersichtlicher.
KURZE BESCHREIBUNG DER ZEICHNUNGEN
Fig. 1 ist ein Blockdiagramm, das die Anordnung eines Fahrzeug­ umgebungsüberwachungssystems gemäß einer Ausführungsform der Erfindung zeigt;
Fig. 2 ist eine Darstellung, die Teile eines Fahrzeugs veranschaulicht, an welchen in Fig. 1 dargestellte Anbringungskameras angebracht sind;
Fig. 3 ist ein Flußdiagramm, das eine Verarbeitungsprozedur zeigt, die durch eine in Fig. 1 dargestellte Bildverarbeitungseinheit ausgeführt wird;
Fig. 4 ist ein Flußdiagramm, das Details eines Warnungsbestimmungs­ prozesses in Fig. 3 zeigt;
Fig. 5A und 5B sind Darstellungen, die jeweils Halbtonabschnitte als schraffierte Bereiche zeigen, welche bei der Erläuterung von Graustufenbildern nützlich sind, die durch Infrarot­ kameras erhalten werden, wobei:
Fig. 5A ein rechtes Bild zeigt, das durch eine rechte der Infrarotkameras erhalten wird;
Fig. 5B ein linkes Bild zeigt, das durch eine linke derselben erhalten wird;
Fig. 6 ist eine Darstellung, die einen schwarzen Bereich als schraffierten Bereich zeigt, welche bei der Erläuterung eines Bilds nützlich ist, das durch Binärisierung eines Graustufenbilds gebildet wird;
Fig. 7A bis 7C sind Darstellungen, die bei der Erläuterung eines Prozesses zum Umwandeln binärisierter Bilddaten in Lauflängendaten und zum Kennzeichnen von Objekten für eine Identifizierung derselben sind;
Fig. 8A und 8B sind Darstellungen, die bei der Erläuterung der Art und Weise nützlich sind, in der Objekte in Zeitintervallen verfolgt werden;
Fig. 9A ist eine Darstellung, die bei der Erläuterung eines Zielbilds in dem rechten Bild nützlich ist;
Fig. 9B ist eine Darstellung, die bei der Erläuterung eines in dem linken Bild gesetzten Suchbereichs nützlich ist;
Fig. 10A und 10B sind Darstellungen, die bei der Erläuterung einer Korrelationsoperation nützlich sind, die an Daten in dem Suchbereich ausgeführt wird;
Fig. 11A und 11B sind Darstellungen, die bei der Erläuterung einer Methode zur Berechnung einer Parallaxe nützlich sind;
Fig. 12 ist eine Darstellung, die bei der Erläuterung einer Methode zum Berechnen einer Distanz zwischen dem Fahrzeug und dem Objekt basierend auf der Parallaxe nützlich ist;
Fig. 13A und 13B sind Darstellungen, die für eine Erläuterung eines bei der vorliegenden Ausführungsform verwendeten Koordinatensystems nützlich sind;
Fig. 14 ist eine Darstellung, die bei der Erläuterung einer Wendewinkel-abhängigen Korrektur von Positionsdaten eines Objekts nützlich ist;
Fig. 15 ist eine Darstellung, die die Verlagerung des Objekts in den Bildern aufgrund einer Wendung des Fahrzeugs zeigt;
Fig. 16 ist eine Darstellung, die bei der Erläuterung einer Methode zum Berechnen eines Relativbewegungsvektors nützlich ist;
Fig. 17 ist eine Darstellung, die bei der Erläuterung von Bedingungen zur Bestimmung, ob eine Warnung ausgegeben werden soll oder nicht, nützlich ist;
Fig. 18 ist eine Darstellung, die bei der Erläuterung von Teilbereichen vor dem Fahrzeug nützlich ist;
Fig. 19 ist eine Darstellung, die bei der Erläuterung eines Falls nützlich ist, in welchem eine Kollision leicht stattfinden kann;
Fig. 20 ist eine Darstellung, die nützlich ist bei der Erläuterung einer Methode einer Eintrittsobjektkollisionsbestimmung, die von einer Breite des Fahrzeugs abhängig ist;
Fig. 21A zeigt einen Zustand, in dem ein Bildschirm eines Head-up- Displays nicht angezeigt wird; und
Fig. 21B zeigt einen Zustand, in dem ein Bildschirm des Head-up- Displays angezeigt wird.
DETAILLIERTE BESCHREIBUNG
Die Erfindung wird nun im Detail mit Bezug auf Zeichnungen beschrieben, die eine Ausführungsform derselben zeigen.
Es wird zunächst auf Fig. 1 Bezug genommen. Hier ist die Anordnung eines Fahrzeugumgebungsüberwachungssystems gemäß der Ausführungsform der Erfindung gezeigt, die aufweist: zwei zum Erfassen von Fern- Infrarotstrahlung geeignete rechte und linke Infrarotkameras 1R, 1L, einen Gierratensensor 5 zum Erfassen einer Gierrate des Fahrzeugs, einen Fahrzeuggeschwindigkeitssensor 6 zum Erfassen einer Fahrgeschwindigkeit (Fahrzeuggeschwindigkeit) VCAR des Fahrzeugs, einen Bremssensor 7 zum Erfassen eines Betriebsausmaßes einer Bremse, nicht gezeigt, eine Bildverarbeitungseinheit 2 zum Erfassen eines Objekts, wie eines Tieres oder dergleichen, vor dem Fahrzeug, basierend auf Bilddaten, die durch die obigen Kameras 1R, 1L erhalten werden, und zum Warnen des Fahrers, wenn es eine bedeutende Möglichkeit einer Kollision mit dem Objekt gibt, einen Lautsprecher 3 zum Erzeugen eines Sprachalarms zum Warnen des Fahrers und ein Head-up-Display (nachfolgend als das "HUD" bezeichnet) 4 zum Anzeigen eines durch die Kamera 1R oder 1L erhaltenen Bilds und um zu bewirken, daß der Fahrer das Objekt mit der bedeutenden Möglichkeit einer Kollision mit dem Fahrzeug erkennt.
Wie es in Fig. 2 gezeigt ist, sind die Kameras 1R, 1L in einem vorderen Teil des Kraftfahrzeugs 10 an Stellen angeordnet, die symmetrisch zu der Längsmittelachse des Fahrzeugs 10 sind, und derart fest an dem Fahrzeug befestigt, daß die zwei Kameras zueinander parallele optische Achsen und gleiche Höhen von einer Straßenoberfläche besitzen. Die Infrarotkameras 1R, 1L besitzen eine Charakteristik derart, daß der Ausgangssignalpegel größer wird (die Luminanz eines Bilds eines Objekts steigt), wenn die Temperatur des Objekts größer wird.
Die Bildverarbeitungseinheit 2 umfaßt eine A/D-Wandlerschaltung zum Umwandeln eingegebener Analogsignale in Digitalsignale, einen Bildspeicher zum Speichern digitalisierter Bildsignale, eine CPU (Central Processing Unit) zum Ausführen arithmetischer Operationen, einen RAM (Random Access Memory), der durch die CPU zum Speichern von Daten verwendet wird, die mit den arithmetischen Operationen verarbeitet werden, einen ROM (Read Only Memory), der durch die CPU ausgeführte Programme, Tabellen und Karten speichert, und eine Ausgangsschaltung zum Ausgeben von Ansteuersignalen für den Lautsprecher 3, Anzeigesignalen für das HUD 4 und dergleichen. Ausgangssignale von den Kameras 1R, 1L und den Sensoren 5 bis 7 werden in Digitalsignale umgewandelt und der CPU eingegeben.
Wie es in Fig. 2 gezeigt ist, ist das HUD 4 derart angeordnet, daß ein Bildschirm 4a desselben in einem Vorderfenster an einer Stelle vor dem Fahrer angezeigt wird.
Fig. 3 ist ein Flußdiagramm, das eine durch die Bildverarbeitungseinheit 2 ausgeführte Verarbeitungsprozedur zeigt. Zunächst werden die Ausgangssignale von den Kameras 1R, 1L durch die A/D-Wandlerschaltung einer A/D-Wandlung unterzogen und die resultierenden Digitaldaten in dem Bildspeicher gespeichert (Schritte S11, S12, S13). Daten von Bildern, die in dem Bildspeicher gespeichert sind, sind Daten von Graustufenbildern, umfassend Luminanzinformation. Die Fig. 5A und 5B sind Darstellungen zur Erläuterung von Graustufenbildern, die durch die jeweiligen Kameras 1R, 1L erhalten werden (ein rechtes Bild durch die Kamera 1R und ein linkes Bild durch die Kamera 1L). Schraffierte Bereiche in den rechten und linken Bildern sind Halbton (Grau)-Bereiche, wohingegen durch dicke durchge­ zogene Linien umgebene Bereiche Bereiche mit einem hohen Luminanzpegel (mit einer hohen Temperatur) sind, welches Bereiche (nachfolgend als "Hochluminanzbereiche" bezeichnet) der erfaßten Objekte sind, die in weiß auf dem Bildschirm angezeigt werden. In dem rechten Bild und dem linken Bild wird ein identisches Objekt in Form von Bildern angezeigt, die an jeweiligen, horizontal gegeneinander versetzten Stellen angezeigt werden, so daß es möglich ist, eine Distanz von dem Fahrzeug 10 zu dem Objekt basierend auf dem Versatz (Parallaxe) zu berechnen.
In dem Schritt S14 in Fig. 3 wird das rechte Bild als ein Referenzbild gesetzt und die für das Referenzbild repräsentativen Digitalbilddaten werden derart binärisiert (in 1-Bit-Daten umgewandelt), daß ein Bereich mit einem Pegel der Luminanz, der gleich oder größer als eine Luminanzschwelle ITH ist, die experimentell bestimmt ist, auf "1" (weiß) gesetzt wird, und ein Bereich mit einem Pegel der Luminanz, der niedriger als die Schwelle ITH ist, auf "0" (schwarz) gesetzt wird. Fig. 6 zeigt ein durch Binärisierung des Bilds von Fig. 5A erhaltenes Bild. In der Figur stellt ein schraffierter Bereich einen schwarzen Bereich dar, wohingegen durch dicke durchgezogene Linien umgebene Bereiche (Hochluminanzbereiche) jeweilige weiße Bereiche repräsentieren.
In dem nachfolgenden Schritt S15 werden die binärisierten Bilddaten in Lauflängendaten codiert. Fig. 7A ist eine Darstellung zur Erläuterung des Codierprozesses. In der Figur sind Bereiche, die durch die obige Binärisierung auf weiß gesetzt sind, durch Linien L1 bis L8 dargestellt, welche jeweilige Pixellinien angeben. Obwohl die Linien L1 bis L8 jeweils eine Breite von einem Pixel in der y-Richtung besitzen und tatsächlich Seite- an-Seite ohne irgendwelche Lücken in der y-Richtung angeordnet sind, sind sie der Klarheit der Beschreibung halber als separate Linien gezeigt, die voneinander getrennt sind. Die Linien L1 bis L8 besitzen ferner jeweilige Längen von zwei Pixeln, zwei Pixeln, drei Pixeln, acht Pixeln, sieben Pixeln, acht Pixeln, acht Pixeln und acht Pixeln in der x-Richtung. Die Lauflängendaten repräsentieren jede der Linien L1 bis L8 durch Koordinaten des Startpunkts (Punkt des linken Endes) der Linie und der Länge (die Anzahl von Pixeln) der Linie von dem Startpunkt zu dem Endpunkt (Punkt des rechten Endes) derselben. Beispielsweise ist die Linie L3 aus drei Pixeln (x3, y5), (x4, y5) und (x5, y5) gebildet und wird durch die Lauflängendaten (x3, y5, 3) repräsentiert.
In Schritten S16 und S17 wird ein Objekt extrahiert durch Kennzeichnen desselben, wie es in Fig. 7B gezeigt ist. Dies bedeutet, von den in die Lauflängendaten codierten Linien L1 bis L8 werden die in der y-Richtung überlappenden Linien L1 bis L3 als ein Objekt 1 betrachtet und die in der y- Richtung überlappenden Linien L4 bis L8 als ein Objekt 2 betrachtet, wobei Objektkennungen 1 und 2 den Lauflängendaten hinzugefügt werden. Diese Verarbeitung ermöglicht es z. B., daß die in Fig. 6 erscheinenden Hochluminanzbereiche jeweils als Objekt 1 bis 4 begriffen werden.
In einem Schritt S18, wie es in Fig. 7C gezeigt ist, werden der Flächenschwerpunkt G eines extrahierten Objekts (Bild eines Objekts), die Fläche S des extrahierten Objekts und das Seitenverhältnis ASPECT eines das extrahierte Objekt umschreibenden Rechtecks, angegeben durch gestrichelte Linien, berechnet. Die Fläche S wird durch Integrieren der Längen der Lauflängendaten eines identischen Objekts berechnet. Die Koordinaten des Flächenschwerpunkts G werden berechnet als die x- Koordinate einer Linie, die die Fläche S längs der y-Richtung hälftig teilt, und die y-Koordinate einer Linie, die die Fläche S längs der x-Richtung hälftig teilt. Das Seitenverhältnis ASPECT wird als Dy/Dx berechnet, welches ein Verhältnis von Dy zu Dx ist, wie es in Fig. 7C dargestellt ist. Es ist zu bemerken, daß die Position des Flächenschwerpunkts des umschreibenden Rechtecks anstatt des Flächenschwerpunkts G des extrahierten Objekts verwendet werden kann.
In einem Schritt S19 werden Objekte in Zeitintervallen verfolgt, d. h. es wird eine Identifizierung oder Erkennung identischer Objekte ausgeführt, jedesmal dann, wenn jede Abstastwiederholperiode abläuft. Unter der Annahme, daß eine durch Diskretisieren einer Zeit t als eine Analoggröße mit einer Abtastwiederholperiode erhaltene Zeit durch k ausgedrückt wird, werden zu der Zeit k extrahierte Objekte 1 und 2, wie es in Fig. 8A gezeigt ist, und zu der Zeit (k + 1) extrahierte Objekte 3 und 4, wie es in Fig. 8B gezeigt ist, hinsichtlich ihrer Identität überprüft. Im besonderen wird bestimmt, daß die Objekte 3 und 4 identisch mit den entsprechenden Objekten 1 und 2 sind, wenn die folgenden Identifizierungsbedingungen (1) bis (3) erfüllt sind, und die Objekte 3 und 4 werden als Objekte 1 und 2 gekennzeichnet, um dadurch die Objekte in Zeitintervallen zu verfolgen:
  • 1. Unter der Annahme, daß die Positionskoordinaten des Flächenschwerpunkts von Objekten i (= 1, 2) in einem Bild zur Zeit k ausgedrückt werden durch (xi(k), yi(k)) und die Positionskoordinaten des Flächenschwerpunkts von Objekten j (= 3, 4) in einem Bild zur Zeit (k + 1) ausgedrückt werden durch (xj(k + 1), yj(k + 1)), so sind die folgenden Bedingungen erfüllt:
    |xj(k + 1) - xi(k)| < Δx, und
    |yj(k + 1) - yi(k)| < Δy,
    wobei Δx und Δy maximal zulässige Werte für jeweilige Distanzen darstellen, die durch das in dem Bild in der x-Richtung und der y-Richtung sich bewegenden Objekts überstrichen werden.
  • 2. Unter der Annahme, daß die Flächen der Objekte i (= 1, 2) in dem Bild zur Zeit k ausgedrückt werden durch Si(k) und die Flächen der Objekte j (= 3, 4) in dem Bild zur Zeit (k + 1) ausgedrückt werden durch Sy(k + 1), so ist die folgende Bedingung erfüllt:
    Sj(k + 1)/Si(k) < 1 ± ΔS
    wobei ΔS einen maximal zulässigen Wert für eine Änderung der Fläche darstellt.
  • 3. Unter der Annahme, daß die Seitenverhältnisse von Rechtecken, welche die Objekte i (= 1, 2) zur Zeit k umschreiben, ausgedrückt werden durch ASPECT i(k) und die Seitenverhältnisse der Rechtecke, welche die Objekte j (= 3, 4) zur Zeit (k + 1) umschreiben, ausgedrückt werden durch ASPECT j(k + 1), so ist die folgende Bedingung erfüllt:
    ASPECT j(k + 1)/ASPECT i(k) < 1 ± ΔASPECT
    wobei ΔASPECT einen maximal zulässigen Wert für eine Änderung des Seitenverhältnisses darstellt.
Vergleicht man die Fig. 8A und Fig. 8B, so ist die Größe jedes Objekts in Fig. 8B vergrößert, jedoch erfüllen die Objekte 1 und 3 die obigen Identifizierungsbedingungen und erfüllen die Objekte 2 und 4 die obigen Identifizierungsbedingungen. Somit können die Objekte 3 und 4 als die jeweiligen Objekte 1 und 2 identifiziert werden. Die Positionskoordinaten (des Flächenschwerpunkts) jedes somit identifizierten Objekts werden als Zeitreihendatenelemente von Positionsdaten in dem Speicher gespeichert und zum Ausführen nachfolgender arithmetischer Operationen verwendet.
Es ist zu bemerken, daß die oben erwähnten Prozesse in den Schritten S14 bis S19 an dem binärisierten Referenzbild (dem rechten Bild in der vorliegenden Ausführungsform) ausgeführt werden.
In einem Schritt S20 in Fig. 3 werden die durch den Fahrzeug­ geschwindigkeitssensor 6 erfaßte Fahrzeuggeschwindigkeit VCAR sowie die durch den Gierratensensor 5 erfaßte Gierrate YR zur Integration der Gierrate YR über die Zeit eingelesen, wodurch der Winkel θr der Wendung des Kraftfahrzeugs 10 (siehe Fig. 14) berechnet wird.
Andererseits wird in Schritten S31 bis S33 eine Operation zum Berechnen einer Distanz z zwischen dem Objekt und dem Kraftfahrzeug 10 parallel zu den Prozessen in den Schritten S19 und S20 ausgeführt. Diese arithmetische Operation benötigt eine längere Zeitperiode als die Prozesse in den Schritten S19 und S20, und wird deshalb mit einer längeren Wiederholperiode ausgeführt als derjenigen der Prozesse in den Schritten S19 und S20 (ungefähr dreimal so lang wie die Wiederholperiode der Ausführung der Prozesse von Schritt S11 bis Schritt S20).
In dem Schritt S31 wird eines der unter Verwendung des binärisierten Bilds des Referenzbilds (rechtes Bild) verfolgten Objekts ausgewählt, wobei, wie es in Fig. 9A gezeigt ist, ein Zielbild R1 (in diesem Beispiel wird die ganze durch ein umbeschriebenes Rechteck umschlossene Fläche als ein Zielbild gesetzt) aus dem rechten Bild extrahiert. In dem folgenden Schritt S32 wird ein Suchbereich zum Durchsuchen eines Bilds (nachfolgend als das "korrespondierende Bild" bezeichnet), welches dem Zielbild entspricht, in dem linken Bild gesetzt und es wird das korrespondierende Bild durch Ausführen einer Korrelationsoperation extrahiert. Im besonderen, wie es in Fig. 9B gezeigt ist, wird ein Suchbereich R2 in dem linken Bild basierend auf den Koordinaten jedes Eckpunkts des Zielbilds R1 gesetzt, und es wird der Gesamtsummenwert C(a, b) von Luminanzdifferenzen berechnet, die einen Grad der Korrelation mit dem Zielbild R1 angeben, wie an Daten im Suchbereich R2, unter Verwendung der nachfolgenden Gleichung (1), wobei eine Fläche, die den Minimalwert des Gesamtsummenwerts C(a, b) liefert, als das Korrespondenzbild extrahiert wird. Es ist zu bemerken, daß die Korrelationsoperation nicht unter Verwendung von Daten des binärisierten Bilds (Binärdaten), sondern unter Verwendung von Daten der Graustufen­ bilder (Graustufendaten) ausgeführt wird. Ferner, wenn in der Vergangenheit erhaltene Positionsdaten eines identischen Objekts verfügbar sind, so wird ein Bereich R2a (in Fig. 9B durch gestrichelte Linien gezeigt), der schmäler als der Suchbereich R2 ist, als der Suchbereich basierend auf den Positions­ daten eingestellt.
wobei IR(m, n) einen Luminanzwert einer durch Koordinaten (m, n) in dem in Fig. 10 dargestellten Zielbild R1 angegebenen Position darstellt, und IL(a + m - M, b + n - N) einen Luminanzwert einer durch Koordinaten (m, n) in einem lokalen Bereich R3 angegebenen Position darstellt, welche die gleiche Form besitzt, wie diejenige des Zielbilds R1 mit einem Referenzpunkt (Ursprung seines eigenen Koordinatensystems), der in den Suchbereich R2 auf Koordinaten (a, b) gesetzt wird. Eine Position, die den Gesamtsummenwert C(a, b) der Luminanzdifferenzen minimiert, wird durch Ändern der Koordinaten (a, b) des Referenzpunkts erhalten, wodurch die Position des Korrespondenzbilds bestimmt werden kann.
Nachdem im Schritt S32 das Zielbild R1 und das korrespondierende Bild R4, welches diesem Zielbild R1 entspricht, wie es in den Fig. 11A und 11B gezeigt ist, extrahiert sind, werden dann im Schritt S33 eine Distanz dR (Anzahl von Pixeln) zwischen dem Flächenschwerpunkt des Zielbilds R1 und einer Mittellinie LCTR des rechten Bilds sowie eine Distanz dL (die Anzahl von Pixeln) zwischen dem Flächenschwerpunkt des Korrespondenzbilds R4 und einer Mittellinie LCTR des linken Bildes bestimmt und für die folgende Gleichung (2) verwendet, um eine Distanz z zwischen dem Kraftfahrzeug 10 und dem Objekt zu berechnen.
wobei B die Länge einer Basislinie bezeichnet, d. h. eine horizontale Distanz (in der x-Richtung) zwischen der Mittelposition eines Abbildungselements 11R der Kamera 1R und der Mittelposition eines Abbildungselements 11L der Kamera 1L (d. h. Distanz zwischen den optischen Achsen der jeweiligen Kameras), wie es in Fig. 12 gezeigt ist; wobei F die fokale Distanz der Linsen 12R, 12L bezeichnet; wobei p ein Raumintervall zwischen Pixeln in den Abbildungselementen 11R, 11L bezeichnet; und wobei Δd(= dR + dL) das Ausmaß der Parallaxe darstellt.
In dem Schritt S21 werden Koordinaten (x, y) in dem Bild sowie die unter Verwendung der Gleichung (2) berechnete Distanz z für die folgenden Gleichungen (3) für eine Umwandlung in Echtraumkoordinaten (X, Y, Z) verwendet. Das Koordinatensystem der Echtraumkoordinaten (X, Y, Z) (Echtraumkoordinatensystem) ist hierbei wie in Fig. 13A gezeigt definiert, wobei die Position eines Mittelpunkts (an dem Kraftfahrzeug 10 feste Position) von Anbringungspositionen, an welchen die Kameras 1R, 1L angebracht sind, als ein Ursprung O des Echtraumkoordinatensystems gesetzt, und Koordinaten in einem Koordinatensystem eines Bilds (imaginäres Bild, auf das nachfolgend Bezug genommen wird), welches dem Echtkoordinatensystem entspricht, werden wie in Fig. 13B gezeigt definiert, wobei das Zentrum des Bilds als der Ursprung des Koordinatensystems gesetzt wird, welches dem Echtraumkoordinatensystem entspricht, wobei die horizontale Richtung als die x-Richtung definiert wird und die vertikale Richtung als die y-Richtung definiert wird.
In diesen Gleichungen werden (xc, yc) durch Umwandeln der Koordinaten (x, y) in dem Koordinatensystem des rechten Bilds in Koordinaten im Koordinatensystem des imaginären Bilds erhalten, dessen Zentrum zur Koinzidenz mit dem Ursprung O des Echtraumkoordinatensystems gebracht wird, basierend auf der relativen Beziehung der Anbringungsposition der Kamera 1R und dem Ursprung O des Echtraumkoordinatensystems. Ferner stellt f ein Verhältnis zwischen der fokalen Distanz F und dem Pixel-zu-Pixel- Raumintervall p dar.
In einem Schritt S22 wird eine Wendewinkel-abhängige Korrektur der Positionsdaten jedes Objekts ausgeführt durch Kompensieren einer Positionsverlagerung des Objekts in dem Bild aufgrund einer Wendung des Fahrzeugs 10 entsprechend dem Wendungswinkel. Unter der Annahme, daß das Fahrzeug 10 wendet, wie es in Fig. 14 gezeigt ist, z. B. in einer Richtung nach links über einen Winkel θr der Wendung während einer Zeitperiode von einer Zeit k zu einer Zeit (k + 1), so wird ein durch die Kamera erhaltenes Bild um Δx in der x-Richtung versetzt, wie es in Fig. 15 gezeigt ist. Die Wendewinkel-abhängige Korrektur im Schritt S22 wird ausgeführt, um die Verlagerung des Bilds zu kompensieren. Im besonderen werden die Echtraumkoordinaten (X, Y, Z) für die folgende Gleichung (4) verwendet, um korrigierte Koordinaten (Xr, Yr, Zr) zu berechnen. Somit berechnete Echtraumpositionsdaten (Xr, Yr, Zr) werden in einer zu jedem korrespondierenden Objekt korrelierten Weise in dem Speicher gespeichert. Ferner werden die korrigierten Koordinaten in der folgenden Beschreibung als Koordinaten (X, Y, Z) bezeichnet.
In einem Schritt S23, wie es in Fig. 16 gezeigt ist, wird eine Näherungsgerade LMV, die einem Relativbewegungsvektor zwischen einem identischen Objekt und dem Kraftfahrzeug 10 entspricht, basierend auf N Echtraumpositionsdatendatenelementen erhalten, d. h. Zeitreihenpositions­ daten (N ist beispielsweise eine Zahl gleich oder ungefähr 10) nach der Wendewinkel-abhängigen Korrektur, die während einer Zeitperiode ΔT erhalten werden. Im besonderen, unter der Annahme, daß ein die Richtung der Näherungsgeraden LMV angegebender Richtungsvektor ausgedrückt wird durch L = (lx, ly, ly) (|L| = 1), wird eine durch die folgenden Gleichungen (5) dargestellte Gerade bestimmt:
wobei u einen Parameter darstellt, der einen beliebigen Wert besitzen kann, und Xav, Yav und Zav den Mittelwert von X-Koordinaten, den Mittelwert von Y-Koordinaten bzw. den Mittelwert von Z-Koordinaten von Reihen von Echtraumpositionsdaten darstellen. Ferner, falls der Parameter u aus den Gleichungen (5) eliminiert wird, so wird die folgende Gleichung (5a) erhalten:
(X - Xav)/lx = (Y - Yav)/ly = (Z - Zav)/lz (5a)
Fig. 16 ist eine Darstellung, die die Näherungsgerade LMV veranschaulicht. In dieser Figur bezeichnen P(0), P(1), P(2), . . ., P(N - 2), P(N - 1) Punkte, die durch jeweilige Zeitreihenpositionsdatendatenelemente (Datenpunkte) nach der Wendewinkel-abhängigen Korrektur angegeben werden. Die Näherungs­ gerade LMV wird als eine Gerade bestimmt, die sich durch die mittleren Positionskoordinaten Pav (= Xav, Yav, Zav) der Zeitreihenpositionsdaten­ datenelemente erstreckt und einen Mittelwert der Quadrate der jeweiligen Distanzen zwischen der Linie und den Datenpunkten minimiert. Ein jedem P, welches die Koordinaten jedes Datenpunkts (Positionskoordinaten) angibt, in Klammern hinzugefügter numerischer Wert gibt hier an, daß das Datendatenelement mit dem numerischen Wert umso älter ist, je größer der numerische Wert ist. Beispielsweise gibt P(0) die letzten Positions­ koordinaten an, gibt P(1) die eine Abtastwiederholperiode früher erhaltenen Positionskoordinaten an und gibt P(2) die zwei Abtastwiederholperioden früher erhaltenen Positionskoordinaten an. Das gleiche gilt für D(j), X(j), Y(j), Z(j) und dergleichen, auf die später Bezug genommen wird.
Im besonderen werden innere Produkte s des Vektors D(j) = (DX(j), DY(j), DZ(j)) = (X(j) - Xav, Y(j) - Yav, Z(j) - Zav), der sich von den mittleren Positionskoordinaten Pav zu den Koordinaten P(0) bis P(N - 1) der jeweiligen Datenpunkte erstreckt, und einem Richtungsvektor L durch die folgende Gleichung (6) berechnet, und es wird der Richtungsvektor L = (lx, ly, lz), der die Varianz des inneren Produkts s maximiert, bestimmt:
s = lx . DX(j) + ly . DY(j) + lz . DZ(j) (6)
Eine Varianz-Kovarianz-Matrix V der Koordinaten bei den jeweiligen Datenpunkten wird durch die folgende Gleichung (7) dargestellt. Da ein charakteristischer Wert σ für diese Varianz-Kovarianz-Matrix V der Varianz der inneren Produkte s entspricht, wird ein aus der Matrix berechneter, dem größten der drei charakteristischen Werte entsprechender charakteristischer Vektor der Richtungsvektor L, der erhalten werden soll. Es ist zu bemerken, daß zum Berechnen charakteristischer Werte und eines charakteristischen Vektors aus der Matrix der Gleichung (7) eine als Jacobische Methode bekannte Methode verwendet wird (z. B. beschrieben in "Suuchi-Keisan Handbook (Handbook of Numeral Calculus)" (veröffentlicht durch Ohmsha, Ltd, Tokio, Japan)).
Als nächstes werden die letzten Positionskoordinaten P(0) = (X(0), Y(0), Z(0)) und die (N - 1) Abtastwiederholperioden (Zeitperiode ΔT) früher erhaltenen Positionskoordinaten P(N - 1) = (X(N - 1), Y(N - 1), Z(N - 1)) derart korrigiert, daß deren Positionen auf der Näherungsgeraden LMV liegen. Im besonderen werden durch Verwendung der Z-Koordinaten Z(0), Z(N - 1) für die oben erwähnte Gleichung (5a), d. h. durch Verwendung der folgenden Gleichungen (8) korrigierte Positionskoordinaten Pv(0) = (Xv(0), Yv(0), Zv(0)) sowie korrigierte Positionskoordinaten Pv(N - 1) = (Xv(N - 1), Yv(N - 1), Zv(N - 1)) berechnet.
Der zuvor erwähnte Relativbewegungsvektor kann als der Vektor erhalten werden, der sich von den Positionskoordinaten Pv(N - 1) zu den Positionskoordinaten Pv(0), berechnet durch die Gleichungen (8) erstreckt. Wie es oben beschrieben ist, wird eine Näherungsgerade, die die Ortskurve der Relativbewegung eines Objekts zu dem Kraftfahrzeug 10 nähert, basierend auf einer Mehrzahl von (N) Datenelementen von Positionsdaten während einer Überwachungszeitperiode ΔT berechnet, und basierend auf der Näherungsgeraden ein Relativbewegungsvektor bestimmt. Dies ermöglicht es, eine nachteilige Wirkung von Positionserfassungsfehlern zu verringern und die Möglichkeit einer Kollision mit dem Objekt vorab genauer abzuschätzen.
Es wird nun wieder auf Fig. 3 Bezug genommen. In einem Schritt S24 wird ein Warnungsbestimmungsprozeß (Fig. 4) ausgeführt durch Bestimmen, ob es eine Möglichkeit für eine Kollision mit dem erfaßten Objekt gibt oder nicht, und Ausgeben einer Warnung, falls es eine bedeutende Möglichkeit für die Kollision gibt.
In einem Schritt S41 in Fig. 4 wird eine Relativgeschwindigkeit Vs in der Z- Richtung mittels der folgenden Gleichung (9) berechnet. Wenn die folgenden Ausdrücke (10) und (11) erfüllt sind, so wird bestimmt, daß es eine Möglichkeit für eine Kollision gibt, und das Programm schreitet zu einem Schritt S42. Falls der Ausdruck (10) und/oder der Ausdruck (11) nicht erfüllt ist, wird der Warnungsbestimmungsprozeß beendet.
Vs = (Zv(N - 1) - Zv(0))/ΔT (9)
Zv(0)/Vs ≦ T (10)
|Yv(0)| ≦ H (11)
In den obigen Ausdrücken stellt Zv(0) den zuletzt erfaßten Distanzwert dar (obwohl v dem Symbol hinzugefügt wurde, um anzugeben, daß das Symbol einen Wert eines Datenelements darstellt, das unter Verwendung der Näherungsgeraden LMV korrigiert wurde, besitzt die Z-Koordinate selbst den gleichen Wert, den sie vor der Korrektur besaß) und stellt Zv(N - 1) einen eine Zeitperiode ΔT früher erfaßten Distanzwert dar. Ferner stellt T eine Voreilzeit dar, die dazu vorgesehen ist, ein Bestimmen der Möglichkeit einer Kollision eine Zeitperiode T vor einer abgeschätzten Kollisionszeit zu ermöglichen. T ist auf eine Zeitperiode in einem Bereich von z. B. zwei bis fünf Sekunden eingestellt. Ferner stellt H eine vorbestimmte Höhe zur Definition einer Reichweite in der Y-Richtung dar, d. h. in der Richtung der Höhe, die z. B. auf eine Höhe von ungefähr der zweifachen Größe des Kraftfahrzeugs 10 eingestellt wird.
Die in dem Ausdruck (10) enthaltene Beziehung kann durch Fig. 17 dargestellt werden. Wenn der Relativgeschwindigkeit Vs und der Distanz Zv(0), die beide erfaßt oder berechnet sind, entsprechende Koordinaten in einem schraffierten Bereich in der Figur liegen und gleichzeitig |Yv(0)| ≦ H gilt, so werden in den Schritten S42 ff. Bestimmungsprozesse ausgeführt.
In Fig. 18 ist ein Bereich, der durch die Kameras 1R, 1L überwacht werden kann, durch einen Bereich AR0 dargestellt, der durch ein durch dicke durchgehende Linien angegebenes äußeres Dreieck bestimmt ist. In dem Bereich AR0 sind Bereiche AR1, AR2 und AR3 als Warnungsbestimmungs­ bereiche gesetzt, die dem Kraftfahrzeug 10 näher sind als Z1 = Vs × T (Fahrzeuggeschwindigkeit × Voreilzeit). Hierbei ist der Bereich AR1 ein einer Reichweite entsprechender Bereich, umfassend die Breite α des Kraftfahrzeugs 10 und Zuschläge β, β (die jeweils einen Wert von z. B. 50 bis 100 cm besitzen), die an entgegengesetzten Seiten des Fahrzeugs 10 vorgesehen sind, mit anderen Worten, ein Bereich mit einer Breite von (α/2 + β) auf jeder Seite der Mittelachse in der Längsrichtung des Fahrzeugs 10. Falls das Objekt in diesem Bereich vorhanden bleibt, gibt es eine sehr bedeutende Möglichkeit einer Kollision mit dem Fahrzeug 10. Daher wird dieser Bereich nachfolgend als der "Näherungsobjektbestimmungsbereich" bezeichnet. Die Bereiche AR2, AR3 sind Bereiche, die X-Koordinaten mit größeren Absolutwerten als diejenigen der X-Koordinaten in dem Näherungsobjektbestimmungsbereichs aufweisen (Bereiche seitlich außerhalb des Näherungsobjektbestimmungsbereich). Ein Objekt in einem dieser Bereiche AR2 und AR3 wird einem nachfolgend beschriebenen Eintrittsobjektkollisionsbestimmungsprozeß für ein Bestimmen der Möglichkeit einer potentiellen Kollision eines eintretenden Objekts unterzogen. Diese Bereiche AR2 und AR3 werden als die "Eintrittsobjekt­ bestimmungsbereiche" bezeichnet. Ferner besitzen die obigen Bereiche die vorbestimmte Höhe H in der Y-Richtung, wie es in dem Ausdruck (11) angegeben ist.
Die Antwort auf die Frage von Schritt S41 wird bestätigend (Ja), wenn das Objekt in dem Näherungsobjektbestimmungsbereich AR1 oder in einem der Eintrittsobjektbestimmungsbereiche AR2, AR3 vorliegt.
In dem nachfolgenden Schritt S42 wird bestimmt, ob das Objekt in dem Näherungsobjektbestimmungsbereich AR1 vorliegt oder nicht. Falls die Antwort auf die Frage von Schritt S42 bestätigend (Ja) ist, schreitet das Programm unmittelbar zu einem Schritt S44, wohingegen in dem Fall, in dem die Antwort negativ (Nein) ist, in einem Schritt S43 der Eintrittsobjektkollisionsbestimmungsprozeß zum Bestimmen der Möglichkeit einer potentiellen Kollision des eintretenden Objekts ausgeführt wird. Im besonderen wird bestimmt, ob der folgende Ausdruck (12) durch die Differenz zwischen der letzten x-Koordinate xc(0) (wie oben beschrieben, wird c dem Symbol hinzugefügt, um anzugeben, daß das Symbol die x- Koordinate darstellt, welche korrigiert wurde, indem die Mittelposition des Bilds mit dem Ursprung O des Echtraumkoordinatensystems zur Koinzidenz gebracht wurde) und einer x-Koordinate xc(N - 1) erfüllt wird oder nicht, die eine Zeitperiode ΔT früher erhalten wurde. Falls der folgende Ausdruck (12) erfüllt ist, so wird bestimmt, daß eines bedeutende Möglichkeit für eine Kollision gibt.
Wie es in Fig. 19 gezeigt ist, falls ein Tier 20 in einer Richtung kommt, die ungefähr orthogonal zu der Richtung der Fahrt des Kraftfahrzeugs 10 ist, wenn Xv(N - 1)/Zv(N - 1) = Xv(0)/Zr(0) gilt, mit anderen Worten, wenn ein Verhältnis Vp/Vs = Xr(N - 1)/Zr(N - 1) gilt (Vp ist eine Geschwindigkeit des Tiers 20 und Vs ist eine Relativgeschwindigkeit des Fahrzeugs 10), so ist ein Azimuthwinkel θd des Tiers 20, wie von dem Fahrzeug 10 betrachtet, konstant. In diesem Fall gibt es eine bedeutende Möglichkeit für eine Kollision. Der Ausdruck (12) wird zum Bestimmen der Möglichkeit verwendet, in dem die Breite α des Kraftfahrzeugs 10 berücksichtigt wird. Im folgenden wird eine Methode zum Ableiten des Ausdrucks (12) mit Bezug auf Fig. 20 beschrieben.
Wenn eine durch die letzten Positionskoordinaten des Objekts 20 sowie die eine Zeitperiode ΔT früher erhaltenen Positionskoordinaten desselben sich erstreckende Gerade, d. h. die Näherungsgerade LMV, eine X-Y-Ebene (Ebene umfassend die X-Achse und die Y-Achse, d. h. eine Ebene, die eine dem Vorderende des Fahrzeugs 10 entsprechende Linie (X-Achse) enthält und sich in einer Richtung orthogonal zu der Fahrtrichtung des Fahrzeugs 10 erstreckt) schneidet, falls die X-Koordinate des Schnittpunkts davon durch XCL ausgedrückt wird, so sind Kollisionsauftrittsbedingungen, in denen die Breite α des Fahrzeugs 10 berücksichtigt wird, durch den folgenden Ausdruck (13) gegeben:
-α/2 ≦ XCL ≦ α/2 (13)
Andererseits ist eine durch Projizieren der Näherungsgeraden LMV auf eine X-Z-Ebene gebildete Gerade durch die folgende Gleichung (14) gegeben:
Wenn Z = 0, X = XCL in dieser Gleichung substituiert werden, um XCL zu berechnen, so erhält man die folgende Gleichung (15):
Ferner, da die Echtraumkoordinate X sowie die Koordinate xc auf dem Bild eine durch die obige Gleichung (3) angegebene Beziehung besitzen, gelten die folgenden Gleichungen (16) und (17):
Xv(0) = xc(0) × Zv(0)/f (16)
Xv(N - 1) = xc(N - 1) × Zv(N - 1)/f (17)
Wenn die obigen Gleichungen (16) und (17) bei der Gleichung (15) verwendet werden, so wird die X-Koordinate XCL des Schnittpunkts durch die folgende Gleichung (18) angegeben:
Durch Substituieren von XCL in den Ausdruck (13) werden die durch den obigen Ausdruck (12) definierten Bedingungen erhalten.
Es wird wieder auf Fig. 4 Bezug genommen. Wenn bei einem Schritt S43 bestimmt wird, daß es eine bedeutende Möglichkeit für eine Kollision gibt, so schreitet das Programm zu einem Schritt S44, wohingegen, wenn bestimmt wird, daß es keine bedeutende Möglichkeit einer Kollision gibt, der Warnungsbestimmungprozeß beendet wird.
In dem Schritt S44 wird ein Warnungsausgabebestimmungsprozeß ausgeführt, um zu bestimmen, ob eine Warnung ausgegeben werden soll oder nicht. Zunächst wird aus einem Ausgangssignal von dem Bremssensor bestimmt, ob der Fahrer eine Bremsoperation, d. h. eine Betätigung der Bremse des Fahrzeugs 10, ausführt oder nicht. Falls er die Bremse nicht betätigt, schreitet das Programm unmittelbar zu einem Schritt S45, um eine Warnung auszugeben. Falls er die Bremse betätigt, wird eine durch die Bremsoperation hervorgerufene Verzögerung Gs (als ein positiver Wert) berechnet. Wenn die Verzögerung Gs gleich oder kleiner als eine vorbestimmte Schwelle GTH ist, schreitet das Programm zu einem Schritt S45, wohingegen, wenn Gs < GTH gilt, bestimmt wird, daß eine Kollision durch die Bremsoperation vermieden werden kann, gefolgt von einer Beendigung des Warnungsbestimmungsprozesses. Dies ermöglicht es, zu vermeiden, daß der Fahrer gewarnt wird, wenn er eine angemessene Bremsoperation ausführt, wodurch verhindert wird, daß der Fahrer durch unnötige Warnungen gestört wird.
Die vorbestimmte Schwelle GTH wird gemäß der folgenden Gleichung (19) eingestellt:
Die somit bestimmte Schwelle entspricht einer Bedingung zum Anhalten des Fahrzeugs 10 in einer Fahrdistanz gleich oder kleiner als die Distanz Zv(0), unter der Annahme, daß die durch die Bremsoperation hervorgerufene Verzögerung Gs beibehalten wird.
In einem Schritt S45 wird ein Sprachalarm durch den Lautsprecher 3 erzeugt, und wie es in Fig. 21B gezeigt ist, wird ein z. B. mittels der Kamera 1R erhaltenes Bild auf dem Bildschirm 4a des HUD 4 derart angezeigt, daß ein sich näherndes Objekt betont angezeigt wird (beispielsweise zur Betonung in einem Rahmen eingeschlossen). Fig. 21A zeigt einen Zustand, in dem der Bildschirm 4a nicht angezeigt wird, wohingegen Fig. 21B einen Zustand zeigt, in dem der Bildschirm 4a angezeigt wird. Dies ermöglicht es dem Fahrer, ein Objekt, welches eine bedeutende Möglichkeit einer Kollision mit dem Fahrzeug 10 besitzt, sicher zu erkennen.
Wie es oben beschrieben ist, werden in der vorliegenden Ausführungsform Positionen eines identischen Objekts in dem Echtraum basierend auf einer Mehrzahl von Zeitreihendatenelementen von Positionsdaten des Objekts berechnet und der Bewegungsvektor des Objekts wird basierend auf dessen Positionen im Echtraum erhalten. Dann wird die Möglichkeit einer Kollision zwischen dem Objekt und dem Kraftfahrzeug 10 basierend auf dem somit berechneten Bewegungsvektor derart bestimmt, daß es anders als bei dem herkömmlichen System möglich ist, das Auftreten einer fehlerhaften Bestimmung zu vermeiden und damit die Genauigkeit der Bestimmung der Möglichkeit einer Kollision zu steigern.
Ferner wird die Näherungsgerade LMV, welche die Ortskurve der Relativbewegung eines Objekts zu dem Kraftfahrzeug 10 nähert, berechnet, und die Positionskoordinaten des Objekts werden derart korrigiert, daß Positionen des erfaßten Objekts auf der Näherungsgeraden liegen, und der Bewegungsvektor des Objekts wird basierend auf den korrigierten Positionskoordinaten erhalten. Dies ermöglicht es, eine nachteilige Wirkung von Fehlern beim Erfassen der Positionen des Objekts zu reduzieren und die Möglichkeit einer Kollision genauer zu bestimmen.
Da die Bestimmung einer potentiellen Kollision unter Berücksichtigung der Breite α des Fahrzeugs 10 ausgeführt wird, ist es ferner möglich, die Möglichkeit einer Kollision genau zu bestimmen und eine unnötige Warnung des Fahrers zu vermeiden.
In der vorliegenden Ausführungsform bildet die Bildverarbeitungseinheit 2 Relativpositionserfassungsmittel, Bewegungsvektorberechnungsmittel, Bestimmungsmittel und einen Teil von Warnungsmitteln. Insbesondere entsprechen die in Fig. 3 auftretenden Schritte S14 bis S19 den Relativpositionerfassungsmitteln, entsprechen die Schritte S20 bis S23 in der Figur den Bewegungsvektorberechnungsmitteln, entsprechen die Schritte S41 bis S44 in Fig. 4 den Bestimmungsmitteln, wie auch der Schritt S45 in Fig. 4 und der Lautsprecher 3 und das HUD 4 den Warnungsmitteln entsprechen.
Es ist zu bemerken, daß die Erfindung nicht auf die obige Ausführungsform beschränkt ist, sondern verschiedene Variationen und Modifikationen möglich sind. Obwohl in der vorliegenden Ausführungsform Infrarot- Kameras als Abbildungsmittel verwendet werden, ist beispielsweise dies nicht einschränkend, sondern es könnten TV-Kameras eingesetzt werden, die zum Erfassen lediglich normaler sichtbarer Strahlung geeignet sind, wie es in der japanischen Offenlegungs-Patentveröffentlichung (Kokai) Nr. 9- 226490 offenbart ist. Durch die Verwendung von Infrarot-Kameras kann jedoch der Extraktionsprozeß zum Extrahieren eines Tiers oder eines fahrenden Fahrzeugs vereinfacht werden und das System unter Verwendung einer arithmetischen Einheit mit vergleichsweise geringen Leistungseigenschaften realisiert werden.
Obwohl in der obigen Ausführungsform ein Beispiel gezeigt ist, welches einen Frontabschnitt der Umgebung eines Kraftfahrzeugs überwacht, so ist ferner dies nicht beschränkend, sondern das System kann derart konfiguriert sein, daß irgendwelche Abschnitte der Umgebung in irgendwelchen Richtungen einschließlich einem rückwärtigen Abschnitt derselben überwacht werden können.
Für Fachleute ist es ferner verständlich, daß das Vorangegangene eine bevorzugte Ausführungsform der Erfindung ist daß verschiedene Veränderungen und Modifikationen vorgenommen werden können, ohne den Sinn und Bereich derselben zu verlassen.
Zusammenfassend stellt die Erfindung ein Fahrzeugumgebungs­ überwachungssystem für ein Kraftfahrzeug bereit, welches geeignet ist, genau die Bewegung eines in einer Umgebung des Fahrzeugs vorhandenen Objekts zu erfassen und die Möglichkeit für eine Kollision zwischen dem Objekt und dem Fahrzeug zu bestimmen, und dadurch den Fahrer angemessen zu warnen. Eine Relativposition des Objekts zu dem Kraftfahrzeug wird aus dem mittels einer an dem Fahrzeug angebrachten Kamera erhaltenen Bild erhalten, um Positionsdaten zu erlangen. Positionen des Objekts in einem Echtraum werden basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt erfaßten Positionsdaten berechnet und ein Bewegungsvektor des Objekts wird basierend auf den Positionen im Echtraum berechnet. Es wird basierend auf dem Bewegungsvektor bestimmt, ob das Objekt eine bedeutende Möglichkeit für eine Kollision mit dem Kraftfahrzeug aufweist.

Claims (11)

1. Fahrzeugumgebungsüberwachungssystem für ein Kraftfahrzeug (10), welches ein in einer Umgebung des Kraftfahrzeugs (10) vorhandenes Objekt aus einem Bild erfaßt, welches mittels an dem Kraftfahrzeug (10) angebrachter Abbildungsmittel (1R, 1L, 2) erhalten wird, wobei das Fahrzeugumgebungsüberwachungssystem umfaßt:
Relativpositionerfassungsmittel (2, S14 bis S19) zum Erfassen einer Relativposition des Objekts zu dem Kraftfahrzeug (10) aus dem mittels der Abbildungsmittel (1R, 1L, 2) erhaltenen Bild, um Positionsdaten zu erlangen;
Bewegungsvektorberechnungsmittel (2, S20 bis S23) zum Berechnen von Positionen des Objekts in einem Echtraum basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt mittels der Relativpositionerfassungsmittel (2, S14 bis S19) erfaßten Positionsdaten, und zum Berechnen eines Bewegungsvektors des Objekts basierend auf den Positionen im Echtraum; und
Bestimmungsmittel (2, S41 bis S44) zum Bestimmen, ob das Objekt eine bedeutende Möglichkeit für eine Kollision mit dem Kraftfahrzeug (10) besitzt oder nicht, basierend auf dem Bewegungsvektor.
2. Fahrzeugumgebungsüberwachungssystem nach Anspruch 1, wobei die Bewegungsvektorberechnungsmittel Näherungsgeraden­ berechnungsmittel zum Berechnen einer eine Ortskurve der Relativbewegung des Objekts nähernden Näherungsgeraden (LMV) sowie Positionsdatenkorrekturmittel zum Korrigieren der Zeitreihen­ datenelemente der Positionsdaten unter Verwendung der Näherungsgeraden (LMV) umfassen, wobei die Bewegungsvektor­ berechnungsmittel (2, S20 bis S23) den Bewegungsvektor basierend auf den korrigierten Zeitreihendatenelementen der Positionsdaten berechnen.
3. Fahrzeugumgebungsüberwachungssystem nach Anspruch 1 oder 2, wobei die Bestimmungsmittel (2, S41 bis S44) die Bestimmung unter Anwendung von Bedingungen zum Bestimmen einer potentiellen Kollision ausführen, wobei die Bedingungen von einer Breite (α) des Fahrzeugs (10) abhängig sind.
4. Fahrzeugumgebungsüberwachungssystem nach Anspruch 2 oder 3, wobei die Näherungsgeradenberechnungsmittel die Näherungsgerade (LMV) als eine dreidimensionale Gerade umfassend Daten einer Höhe des Objekts berechnen.
5. Fahrzeugumgebungsüberwachungssystem nach einem der Ansprüche 1 bis 4, wobei die Abbildungsmittel (1R, 1L, 2) zwei Infrarot-Kameras (1R, 1L) umfassen, die zum Erfassen von Infrarotstrahlung geeignet sind.
6. Fahrzeugumgebungsüberwachungssystem nach einem der Ansprüche 1 bis 5, wobei die Abbildungsmittel zwei TV-Kameras zum Erfassen von Infrarotstrahlung oder sichtbarer Strahlung umfassen, und wobei die Relativpositionerfassungsmittel (2, S14 bis S19) umfassen:
Suchbereichsetzmittel zum Setzen, basierend auf einer Position eines in einer Bildausgabe von einer der zwei TV-Kameras enthaltenen Objektbilds, eines Suchbereichs in einer Bildausgabe von der anderen der zwei TV-Kameras zum Suchen nach einem in der Bildausgabe von der anderen der zwei TV-Kameras enthaltenen korrespondierenden Objektbild,
Korrespondenzobjektbildidentifizierungsmittel zum Identifizieren des korrespondierenden Objektbilds durch Ausführen einer Korrelationsoperation an Daten in dem Suchbereich, und
Distanzberechnungsmittel zum Berechnen einer Distanz von dem Fahrzeug (10) zu dem Objekt basierend auf einer Parallaxe zwischen dem Objektbild und dem korrespondierenden Objektbild.
7. Fahrzeugumgebungsüberwachungssystem nach Anspruch 6, wobei die Daten in dem Suchbereich Graustufendaten umfassend eine Halbtoninformation sind.
8. Fahrzeugumgebungsüberwachungssystem nach Anspruch 7, wobei die Relativpositionerfassungsmittel Verfolgungsmittel zum Verfolgen eines Objekts, das sich in dem mittels der Abbildungsmittel (1R, 1L, 2) erhaltenen Bild bewegt, unter Verwendung von Binärdaten, die durch Binärisieren der Graustufendaten gebildet werden, umfassen.
9. Fahrzeugumgebungsüberwachungssystem nach Anspruch 8, wobei die Verfolgungsmittel das verfolgte Objekt unter Verwendung von Lauflängendaten erkennen, die aus den Binärdaten codiert werden.
10. Fahrzeugumgebungsüberwachungssystem nach Anspruch 8 oder 9, wobei die Verfolgungsmittel eine Identität des verfolgten Objekts bestimmen basierend auf Positionskoordinaten eines Flächen­ schwerpunkts von einem Bild desselben, einer Fläche des Bilds desselben und einem Seitenverhältnis eines das Bild desselben umschreibenden Rechtecks.
11. Fahrzeugumgebungsüberwachungssystem nach einem der Ansprüche 1 bis 10, umfassend Warnungsmittel (S45, 3, 4) zum Warnen eines Fahrers, wenn mittels der Bestimmungsmittel (2, S14 bis S19) bestimmt wird, daß es eine bedeutende Möglichkeit für eine Kollision mit dem Objekt gibt, wobei die Warnungsmittel (S45, 3, 4) an einem Warnen des Fahrers gehindert sind, wenn der Fahrer eine Bremsoperation ausführt und die durch die Bremsoperation hervorgerufene Verzögerung hierbei größer als eine vorbestimmte Schwelle ist.
DE10030421A 1999-06-23 2000-06-21 Fahrzeugumgebungsüberwachungssystem Expired - Fee Related DE10030421B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11-176727 1999-06-23
JP17672799A JP3515926B2 (ja) 1999-06-23 1999-06-23 車両の周辺監視装置

Publications (2)

Publication Number Publication Date
DE10030421A1 true DE10030421A1 (de) 2001-01-04
DE10030421B4 DE10030421B4 (de) 2006-10-05

Family

ID=16018736

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10030421A Expired - Fee Related DE10030421B4 (de) 1999-06-23 2000-06-21 Fahrzeugumgebungsüberwachungssystem

Country Status (3)

Country Link
US (1) US6327536B1 (de)
JP (1) JP3515926B2 (de)
DE (1) DE10030421B4 (de)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10030813A1 (de) * 2000-06-23 2002-01-10 Daimler Chrysler Ag Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung
DE10104734A1 (de) * 2001-02-02 2002-08-29 Daimler Chrysler Ag Verfahren zur Steuerung technischer Einrichtungen auf Grundlage von Bilddaten
DE10155742A1 (de) * 2001-10-31 2003-05-22 Daimler Chrysler Ag Vorrichtung und Verfahren zur Generierung von räumlich lokalisierten Warn- und Informationssignalen zur vorbewussten Verarbeitung
DE10161262A1 (de) * 2000-06-23 2003-07-10 Daimler Chrysler Ag Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten
DE10210301A1 (de) * 2002-03-08 2003-09-18 Valeo Schalter & Sensoren Gmbh Verfahren und System zur Erfassung von Gegenständen im Nahbereich eines Fahrzeuges
WO2003107067A2 (de) * 2002-06-18 2003-12-24 Bayerische Motoren Werke Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit abstandsabhängiger fusion eines infrarot- und eines visuell-abbilds
DE10249003A1 (de) * 2002-10-21 2004-05-19 Sassin, Wolfgang, Dr. Einrichtung zur Repräsentation eines variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator
DE10253509A1 (de) * 2002-11-16 2004-06-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges
DE10300612A1 (de) * 2003-01-10 2004-07-22 Hella Kg Hueck & Co. Nachtsichtsystem für Kraftfahrzeuge
EP1304264A3 (de) * 2001-10-19 2004-10-20 Ford Global Technologies, Inc. 360 Grad Sichtsystem für ein Fahrzeug
DE10261290B4 (de) * 2001-12-28 2007-02-15 Yazaki Corp. Im-Fahrzeug-Bildkorrektur-Einrichtung und Nachtfahrt-Sichtfeld-Unterstützungs-Einrichtung
EP1839964A1 (de) * 2006-03-27 2007-10-03 Mazda Motor Corporation Vorrichtung und Verfahren zur Fußgängererfassung sowie Computerprogrammprodukt
DE10247371B4 (de) * 2001-10-29 2007-11-22 Honda Giken Kogyo K.K. Fahrzeuginformation-Bereitstellungsvorrichtung
DE10228638B4 (de) * 2001-06-28 2007-12-20 Honda Giken Kogyo K.K. Fahrzeugzonen-Überwachungsvorrichtung
US7330568B2 (en) 2003-03-20 2008-02-12 Honda Motor Co., Ltd. Device for monitoring around vehicle
EP1245443A3 (de) * 2001-03-30 2009-08-19 Honda Giken Kogyo Kabushiki Kaisha Überwachungssystem der Umgebung eines Fahrzeuges
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE102005056645B4 (de) * 2004-11-30 2010-09-16 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056616B4 (de) * 2004-11-30 2010-09-23 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056666B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056429B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
US7834905B2 (en) 2002-06-18 2010-11-16 Bayerische Motoren Werke Aktiengesellschaft Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image
DE102005057090B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Vorrichtung zur und Verfahren der Bildextraktion
DE102005056647B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056664B4 (de) * 2004-11-30 2011-02-10 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056665B4 (de) * 2004-11-30 2011-03-17 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
CN102682571A (zh) * 2011-01-28 2012-09-19 索尼公司 信息处理装置、报警方法和程序
DE102012024874A1 (de) * 2012-12-19 2014-06-26 Audi Ag Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102013013253A1 (de) * 2013-08-09 2015-02-12 Connaught Electronics Ltd. Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs abhängig von einer ermittelten Zeit bis zur Kollision, Kamerasystem und Kraftfahrzeug
WO2020229515A1 (de) 2019-05-14 2020-11-19 Eyyes Gmbh Verfahren zum anzeigen und/oder berechnen einer relativbewegung
DE10346573B4 (de) 2003-10-07 2021-07-29 Robert Bosch Gmbh Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen

Families Citing this family (155)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
JP2001195699A (ja) * 2000-01-14 2001-07-19 Yazaki Corp 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体
JP2001216519A (ja) * 2000-02-04 2001-08-10 Fujitsu Ltd 交通監視装置
DE10007501A1 (de) * 2000-02-18 2001-09-13 Daimler Chrysler Ag Verfahren und Vorrichtung zur Erfassung und Überwachung einer Mehrzahl von vorausfahrenden Fahrzeugen
JP3867505B2 (ja) * 2001-03-19 2007-01-10 日産自動車株式会社 障害物検出装置
US7146260B2 (en) 2001-04-24 2006-12-05 Medius, Inc. Method and apparatus for dynamic configuration of multiprocessor system
US10298735B2 (en) 2001-04-24 2019-05-21 Northwater Intellectual Property Fund L.P. 2 Method and apparatus for dynamic configuration of a multiprocessor health data system
JP4480299B2 (ja) * 2001-06-21 2010-06-16 富士通マイクロエレクトロニクス株式会社 移動体を含む画像の処理方法及び装置
US6615137B2 (en) * 2001-06-26 2003-09-02 Medius, Inc. Method and apparatus for transferring information between vehicles
JP4713033B2 (ja) * 2001-06-29 2011-06-29 本田技研工業株式会社 車両周辺環境表示装置
JP3607994B2 (ja) * 2001-11-12 2005-01-05 トヨタ自動車株式会社 車両用周辺監視装置
JP3878008B2 (ja) * 2001-12-07 2007-02-07 株式会社日立製作所 車両用走行制御装置及び地図情報データ記録媒体
WO2003059697A1 (en) * 2002-01-16 2003-07-24 Autoliv Development Ab A camera arrangement
US20030222982A1 (en) * 2002-03-28 2003-12-04 Hamdan Majil M. Integrated video/data information system and method for application to commercial vehicles to enhance driver awareness
JP3939580B2 (ja) * 2002-04-12 2007-07-04 本田技研工業株式会社 障害物警報装置
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
JP2003322521A (ja) * 2002-04-26 2003-11-14 Honda Motor Co Ltd 画像認識装置
JP3776094B2 (ja) * 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
JP3936313B2 (ja) * 2002-07-02 2007-06-27 本田技研工業株式会社 画像認識装置
US7221777B2 (en) 2002-07-02 2007-05-22 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
DE10242262A1 (de) * 2002-09-12 2004-03-25 Daimlerchrysler Ag Stereo-Nachtsichtsystem für Fahrzeuge
JP3999088B2 (ja) * 2002-09-18 2007-10-31 本田技研工業株式会社 障害物検出装置
US6917305B2 (en) * 2002-09-26 2005-07-12 Ford Global Technologies, Llc Vehicle collision severity estimation system
JP4275378B2 (ja) * 2002-09-27 2009-06-10 富士重工業株式会社 ステレオ画像処理装置およびステレオ画像処理方法
DE10253510A1 (de) * 2002-11-16 2004-05-27 Robert Bosch Gmbh Vorrichtung und Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug
GB2395693A (en) * 2002-11-28 2004-06-02 Autoliv Dev A motor vehicle bonnet lifting device
JP3791490B2 (ja) * 2002-12-18 2006-06-28 トヨタ自動車株式会社 運転補助システム及び装置
JP3922173B2 (ja) * 2002-12-18 2007-05-30 トヨタ自動車株式会社 運転補助システム及び装置
US20070035625A9 (en) * 2002-12-20 2007-02-15 Hamdan Majed M Vehicle video processing system
JP2004212658A (ja) * 2002-12-27 2004-07-29 Sumitomo Electric Ind Ltd 画像表示システム、画像表示方法及び画像処理装置
JP4160848B2 (ja) * 2003-03-20 2008-10-08 本田技研工業株式会社 車両用衝突物保護装置
GB2400353A (en) * 2003-04-09 2004-10-13 Autoliv Dev Pedestrian detecting system provided on a motor vehicle
JP4244684B2 (ja) * 2003-04-10 2009-03-25 三菱自動車工業株式会社 車両用監視装置
JP4176558B2 (ja) * 2003-06-06 2008-11-05 本田技研工業株式会社 車両周辺表示装置
JP3991928B2 (ja) * 2003-06-17 2007-10-17 日産自動車株式会社 車両用接触回避制御装置
JP3987013B2 (ja) 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
DE10342128A1 (de) * 2003-09-12 2005-04-07 Valeo Schalter Und Sensoren Gmbh Verfahren und Abstandserfassungsvorrichtung zum Bestimmen des Abstandes zwischen mindestens einer Sensoreinrichtung und einem Objekt
JP3941770B2 (ja) * 2003-10-28 2007-07-04 株式会社デンソー 衝突可能性判定装置
US20050093975A1 (en) * 2003-10-30 2005-05-05 Hamdan Majed M. Adaptation of vision systems for commerical vehicles
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
JP4052650B2 (ja) 2004-01-23 2008-02-27 株式会社東芝 障害物検出装置、方法及びプログラム
JP4628683B2 (ja) * 2004-02-13 2011-02-09 富士重工業株式会社 歩行者検出装置、及び、その歩行者検出装置を備えた車両用運転支援装置
JP2005306320A (ja) * 2004-04-26 2005-11-04 Mitsubishi Motors Corp 制動制御装置
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP3987057B2 (ja) 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
SG140462A1 (en) * 2004-06-25 2008-03-28 Singapore Polytechnic A monitoring and warning system
JP4069919B2 (ja) * 2004-09-28 2008-04-02 日産自動車株式会社 衝突判定装置、および方法
US7337650B1 (en) 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
JP4234092B2 (ja) 2004-11-30 2009-03-04 本田技研工業株式会社 画像処理装置
JP4461091B2 (ja) 2004-11-30 2010-05-12 本田技研工業株式会社 位置検出装置及びその補正方法
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4130434B2 (ja) 2004-11-30 2008-08-06 本田技研工業株式会社 撮像装置の異常検知装置
JP4130435B2 (ja) 2004-11-30 2008-08-06 本田技研工業株式会社 撮像装置の異常検知装置
JP4032052B2 (ja) 2004-11-30 2008-01-16 本田技研工業株式会社 位置検出装置及びその補正方法
JP4242334B2 (ja) 2004-11-30 2009-03-25 本田技研工業株式会社 車両周辺監視装置
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7599521B2 (en) 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
ES2259543B1 (es) * 2005-02-04 2007-11-16 Fico Mirrors, S.A. Sistema para la deteccion de objetos en una zona exterior frontal de un vehiculos, aplicable a vehiculos industriales.
US7130745B2 (en) * 2005-02-10 2006-10-31 Toyota Technical Center Usa, Inc. Vehicle collision warning system
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
FR2887669A3 (fr) * 2005-06-27 2006-12-29 Renault Sas Procede et systeme embarque de prediction de choc entre un vehicule et un pieton
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US8519837B2 (en) * 2005-09-08 2013-08-27 Johnson Controls Gmbh Driver assistance device for a vehicle and a method for visualizing the surroundings of a vehicle
JP2007087203A (ja) * 2005-09-22 2007-04-05 Sumitomo Electric Ind Ltd 衝突判定システム、衝突判定方法及びコンピュータプログラム
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4970926B2 (ja) * 2006-01-16 2012-07-11 本田技研工業株式会社 車両周辺監視装置
JP4426535B2 (ja) 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US8194132B2 (en) 2006-01-20 2012-06-05 Old World Industries, Llc System for monitoring an area adjacent a vehicle
JP4456086B2 (ja) 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
JP4884806B2 (ja) * 2006-03-14 2012-02-29 本田技研工業株式会社 車両周辺監視システム
US7671725B2 (en) 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP4762774B2 (ja) * 2006-04-07 2011-08-31 本田技研工業株式会社 測距装置および車両の周辺監視装置
JP4173901B2 (ja) 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
JP4173902B2 (ja) 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP4826355B2 (ja) * 2006-06-20 2011-11-30 日産自動車株式会社 車両周囲表示装置
JP4862516B2 (ja) * 2006-06-26 2012-01-25 トヨタ自動車株式会社 車両の減速制御装置
SG139579A1 (en) * 2006-07-20 2008-02-29 Cyclect Electrical Engineering A foreign object detection system
US20080059069A1 (en) * 2006-08-30 2008-03-06 Trutna William R System and method for detecting an object in the path of a vehicle
JP4267657B2 (ja) 2006-10-31 2009-05-27 本田技研工業株式会社 車両周辺監視装置
JP2008197720A (ja) * 2007-02-08 2008-08-28 Mitsubishi Electric Corp 歩行者警報装置
JP4496383B2 (ja) * 2007-04-03 2010-07-07 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP4315991B2 (ja) 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP5145599B2 (ja) 2007-04-27 2013-02-20 本田技研工業株式会社 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP5083841B2 (ja) 2007-04-27 2012-11-28 本田技研工業株式会社 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
US20080291050A1 (en) * 2007-05-24 2008-11-27 Kerry Lebreton Wildlife alert system
US7831391B2 (en) * 2007-06-12 2010-11-09 Palo Alto Research Center Incorporated Using segmented cones for fast, conservative assessment of collision risk
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP4470067B2 (ja) 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
ES2381761T3 (es) * 2007-09-14 2012-05-31 Saab Ab Procedimiento, programa de ordenador y dispositivo para determinar el riesgo de una colisión en el aire
JP4475308B2 (ja) * 2007-09-18 2010-06-09 株式会社デンソー 表示装置
DE102009004432B4 (de) * 2008-01-25 2016-12-08 Denso Corporation Kraftfahrzeuganzeigevorrichtung zum Anzeigen eines ein vorderes Hindernis umkreisenden Bildflecks
JPWO2009099022A1 (ja) * 2008-02-04 2011-05-26 コニカミノルタホールディングス株式会社 周辺監視装置及び周辺監視方法
JP4359710B2 (ja) 2008-02-04 2009-11-04 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4521642B2 (ja) 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
JP4486997B2 (ja) 2008-04-24 2010-06-23 本田技研工業株式会社 車両周辺監視装置
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP4995778B2 (ja) * 2008-07-08 2012-08-08 本田技研工業株式会社 車両周辺監視装置
JP4644273B2 (ja) 2008-07-15 2011-03-02 本田技研工業株式会社 車両周辺監視装置
JP4631096B2 (ja) * 2008-10-20 2011-02-16 本田技研工業株式会社 車両周辺監視装置
JP4410292B1 (ja) 2008-10-20 2010-02-03 本田技研工業株式会社 車両の周辺監視装置
JP2010108264A (ja) 2008-10-30 2010-05-13 Honda Motor Co Ltd 車両周辺監視装置
US7991551B2 (en) * 2008-11-06 2011-08-02 Ford Global Technologies, Llc System and method for determining a collision status of a nearby vehicle
US7991552B2 (en) * 2008-11-06 2011-08-02 Ford Global Technologies, Llc System and method for determining a side-impact collision status of a nearby vehicle
JP4815488B2 (ja) 2008-12-22 2011-11-16 本田技研工業株式会社 車両周辺監視装置
JP5198346B2 (ja) 2009-04-23 2013-05-15 本田技研工業株式会社 車両周辺監視装置
JP4733756B2 (ja) 2009-04-28 2011-07-27 本田技研工業株式会社 車両周辺監視装置
US9358924B1 (en) 2009-05-08 2016-06-07 Eagle Harbor Holdings, Llc System and method for modeling advanced automotive safety systems
US8417490B1 (en) 2009-05-11 2013-04-09 Eagle Harbor Holdings, Llc System and method for the configuration of an automotive vehicle with modeled sensors
JP5353455B2 (ja) * 2009-06-09 2013-11-27 コニカミノルタ株式会社 周辺監視装置
JP2009295184A (ja) * 2009-09-16 2009-12-17 Mitsubishi Electric Corp 歩行者警報装置
JP4868055B2 (ja) * 2009-11-04 2012-02-01 株式会社デンソー 表示装置
JP5503728B2 (ja) * 2010-03-01 2014-05-28 本田技研工業株式会社 車両の周辺監視装置
WO2011108218A1 (ja) 2010-03-01 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
WO2011108198A1 (ja) 2010-03-03 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
EP2546819B1 (de) 2010-04-19 2015-06-03 Honda Motor Co., Ltd. Vorrichtung zur überwachung der umgebung eines fahrzeugs
JP5687702B2 (ja) 2010-08-31 2015-03-18 本田技研工業株式会社 車両周辺監視装置
EP2642463A4 (de) 2010-11-16 2014-06-25 Honda Motor Co Ltd Umgebungsüberwachungsvorrichtung für fahrzeuge
CN107423675B (zh) * 2010-12-07 2021-07-16 无比视视觉技术有限公司 对陷阱和行人进行前部碰撞警告的先进警告系统
JP5603835B2 (ja) 2011-06-27 2014-10-08 クラリオン株式会社 車両周囲監視装置
EP2711912A4 (de) * 2011-09-28 2015-04-22 Honda Motor Co Ltd Biometrische vorrichtung
JP5857183B2 (ja) * 2011-10-20 2016-02-10 パナソニックIpマネジメント株式会社 ジェスチャー解読装置
CN103167276A (zh) * 2011-12-19 2013-06-19 富泰华工业(深圳)有限公司 车辆监控系统和车辆监控方法
US8886392B1 (en) 2011-12-21 2014-11-11 Intellectual Ventures Fund 79 Llc Methods, devices, and mediums associated with managing vehicle maintenance activities
JP5877208B2 (ja) 2011-12-27 2016-03-02 本田技研工業株式会社 運転支援システム
US10008002B2 (en) * 2012-02-28 2018-06-26 NXP Canada, Inc. Single-camera distance estimation
JP5480925B2 (ja) 2012-03-05 2014-04-23 本田技研工業株式会社 車両周辺監視装置
US8948954B1 (en) * 2012-03-15 2015-02-03 Google Inc. Modifying vehicle behavior based on confidence in lane estimation
JP5898001B2 (ja) * 2012-06-26 2016-04-06 本田技研工業株式会社 車両周辺監視装置
JP5592441B2 (ja) 2012-06-26 2014-09-17 本田技研工業株式会社 配光制御装置
US9672431B2 (en) * 2012-11-09 2017-06-06 Analog Devices Global Object detection
US9063548B1 (en) 2012-12-19 2015-06-23 Google Inc. Use of previous detections for lane marker detection
US9081385B1 (en) 2012-12-21 2015-07-14 Google Inc. Lane boundary detection using images
JP5700263B2 (ja) * 2013-01-22 2015-04-15 株式会社デンソー 衝突傷害予測システム
JP6165251B2 (ja) 2013-08-01 2017-07-19 本田技研工業株式会社 車両周辺監視装置
CN104192065A (zh) * 2014-08-20 2014-12-10 刘健萍 一种可辨监控对象的汽车四周监控装置
KR102118066B1 (ko) * 2014-08-20 2020-06-03 현대모비스 주식회사 주행 안전을 위한 차량 제어방법
KR101601475B1 (ko) * 2014-08-25 2016-03-21 현대자동차주식회사 야간 주행 시 차량의 보행자 검출장치 및 방법
US9409519B2 (en) * 2014-08-27 2016-08-09 Toyota Jidosha Kabushiki Kaisha Generating spatial information for a heads-up display
CN104442569B (zh) * 2014-11-14 2016-11-02 东风汽车有限公司 一种汽车监控影像生成方法及系统
US20170270378A1 (en) * 2016-03-16 2017-09-21 Haike Guan Recognition device, recognition method of object, and computer-readable recording medium
JP6516298B2 (ja) * 2016-05-06 2019-05-22 トヨタ自動車株式会社 情報表示装置
EP3544293B1 (de) * 2016-11-21 2024-02-28 Kyocera Corporation Informationsverarbeitungsvorrichtung, bildgebungsvorrichtung und anzeigesystem
KR20180069147A (ko) * 2016-12-14 2018-06-25 만도헬라일렉트로닉스(주) 차량의 보행자 경고장치
DE102017201936A1 (de) * 2017-02-08 2018-08-09 Robert Bosch Gmbh Verfahren zur Reduzierung eines Kollisionsschadens
US10421436B2 (en) * 2017-03-24 2019-09-24 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for surveillance of a vehicle using camera images
EP3531337B1 (de) * 2018-02-21 2022-03-16 Honda Research Institute Europe GmbH Auf optischem fluss basierende unterstützung für betrieb und koordination in dynamischen umgebungen
CN110072064B (zh) * 2019-06-12 2020-07-03 睿魔智能科技(深圳)有限公司 一种图像拍摄方法、装置、设备以及存储介质
EP3782840B1 (de) * 2019-08-20 2023-08-02 Volvo Car Corporation Hilfsmittel für einen fahrer mit beeinträchtigtem sichtfeld
WO2023121688A1 (en) * 2021-12-22 2023-06-29 Harman International Industries, Incorporated System and method for displaying images to an augmented reality heads-up display rendering

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3830790A1 (de) * 1988-09-09 1990-03-15 Freund Eckhard Verfahren und vorrichtung zur automatischen kollisionsvermeidung fuer automatisch fuehrbare fahrzeuge
FR2668591A1 (fr) * 1990-10-30 1992-04-30 Philips Electronique Lab Dispositif de mesure d'efficacite de mouvement.
DE4115747C2 (de) * 1991-05-14 1998-02-26 Hipp Johann F Vorrichtung und Verfahren zur Situations-, Hindernis- und Objekterkennung
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH05312819A (ja) * 1992-05-14 1993-11-26 N T T Data Tsushin Kk 移動物体の速度検出装置
JP3263699B2 (ja) * 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
DE4309606A1 (de) * 1993-03-24 1994-09-29 Bayerische Motoren Werke Ag Verfahren zum Vermeiden von Kollisionen von Kraftfahrzeugen
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JPH07105497A (ja) * 1993-10-05 1995-04-21 Mitsubishi Electric Corp 車間距離検知装置
JP3235330B2 (ja) * 1994-03-25 2001-12-04 株式会社デンソー 車両の障害物警報装置
US5754099A (en) * 1994-03-25 1998-05-19 Nippondenso Co., Ltd. Obstacle warning system for a vehicle
JP3638323B2 (ja) * 1994-10-20 2005-04-13 本田技研工業株式会社 車両の障害物検出装置
JP3400875B2 (ja) * 1994-10-20 2003-04-28 本田技研工業株式会社 移動体の検出装置
JPH08138057A (ja) * 1994-11-04 1996-05-31 Fuji Electric Co Ltd 物体監視装置
JPH08147599A (ja) * 1994-11-25 1996-06-07 Koyo Seiko Co Ltd 障害物接近状態検出装置
DE19534230A1 (de) * 1995-09-15 1997-03-20 Daimler Benz Ag Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern
JP3727400B2 (ja) 1996-02-22 2005-12-14 株式会社日本自動車部品総合研究所 横断者の検出装置
JPH09249083A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 移動体識別装置および方法
JPH1011585A (ja) * 1996-06-20 1998-01-16 Toyota Motor Corp 物体検出装置
JP4082471B2 (ja) * 1997-04-04 2008-04-30 富士重工業株式会社 車外監視装置

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774772B2 (en) 2000-06-23 2004-08-10 Daimlerchrysler Ag Attention control for operators of technical equipment
DE10161262B4 (de) * 2000-06-23 2006-04-20 Daimlerchrysler Ag Verfahren und Vorrichtung zur Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten
DE10161262A1 (de) * 2000-06-23 2003-07-10 Daimler Chrysler Ag Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten
DE10030813A1 (de) * 2000-06-23 2002-01-10 Daimler Chrysler Ag Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung
DE10030813B4 (de) * 2000-06-23 2004-02-12 Daimlerchrysler Ag Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung
DE10104734A1 (de) * 2001-02-02 2002-08-29 Daimler Chrysler Ag Verfahren zur Steuerung technischer Einrichtungen auf Grundlage von Bilddaten
EP1245443A3 (de) * 2001-03-30 2009-08-19 Honda Giken Kogyo Kabushiki Kaisha Überwachungssystem der Umgebung eines Fahrzeuges
DE10228638B4 (de) * 2001-06-28 2007-12-20 Honda Giken Kogyo K.K. Fahrzeugzonen-Überwachungsvorrichtung
US8144195B2 (en) 2001-06-28 2012-03-27 Honda Giken Kogyo Kabushiki Kaisha Vehicle zone monitoring apparatus
EP1304264A3 (de) * 2001-10-19 2004-10-20 Ford Global Technologies, Inc. 360 Grad Sichtsystem für ein Fahrzeug
DE10247371B4 (de) * 2001-10-29 2007-11-22 Honda Giken Kogyo K.K. Fahrzeuginformation-Bereitstellungsvorrichtung
DE10155742B4 (de) * 2001-10-31 2004-07-22 Daimlerchrysler Ag Vorrichtung und Verfahren zur Generierung von räumlich lokalisierten Warn- und Informationssignalen zur vorbewussten Verarbeitung
DE10155742A1 (de) * 2001-10-31 2003-05-22 Daimler Chrysler Ag Vorrichtung und Verfahren zur Generierung von räumlich lokalisierten Warn- und Informationssignalen zur vorbewussten Verarbeitung
DE10261290B4 (de) * 2001-12-28 2007-02-15 Yazaki Corp. Im-Fahrzeug-Bildkorrektur-Einrichtung und Nachtfahrt-Sichtfeld-Unterstützungs-Einrichtung
US7433496B2 (en) 2001-12-28 2008-10-07 Yazaki Corportion In-vehicle image correcting device and night driving view field supporting device
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE10210301A1 (de) * 2002-03-08 2003-09-18 Valeo Schalter & Sensoren Gmbh Verfahren und System zur Erfassung von Gegenständen im Nahbereich eines Fahrzeuges
WO2003107067A3 (de) * 2002-06-18 2004-04-08 Bayerische Motoren Werke Ag Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit abstandsabhängiger fusion eines infrarot- und eines visuell-abbilds
WO2003107067A2 (de) * 2002-06-18 2003-12-24 Bayerische Motoren Werke Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit abstandsabhängiger fusion eines infrarot- und eines visuell-abbilds
US7834905B2 (en) 2002-06-18 2010-11-16 Bayerische Motoren Werke Aktiengesellschaft Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image
EP1788420A3 (de) * 2002-06-18 2008-04-02 Bayerische Motorenwerke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit Fusion eines Infrarot- und eines Visuell-Abbilds
EP1775619A3 (de) * 2002-06-18 2008-04-02 Bayerische Motorenwerke Aktiengesellschaft Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE10249003B4 (de) * 2002-10-21 2006-09-07 Sassin, Wolfgang, Dr. Verfahren und Vorrichtung zur Signalisierung eines zeitlich und räumlich variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator
DE10249003A1 (de) * 2002-10-21 2004-05-19 Sassin, Wolfgang, Dr. Einrichtung zur Repräsentation eines variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator
DE10253509A1 (de) * 2002-11-16 2004-06-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges
DE10300612A1 (de) * 2003-01-10 2004-07-22 Hella Kg Hueck & Co. Nachtsichtsystem für Kraftfahrzeuge
US7330568B2 (en) 2003-03-20 2008-02-12 Honda Motor Co., Ltd. Device for monitoring around vehicle
DE102004012811B4 (de) * 2003-03-20 2009-02-12 Honda Motor Co., Ltd. Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE10346573B4 (de) 2003-10-07 2021-07-29 Robert Bosch Gmbh Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen
DE102005056645B4 (de) * 2004-11-30 2010-09-16 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056616B4 (de) * 2004-11-30 2010-09-23 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056666B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056429B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005057090B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Vorrichtung zur und Verfahren der Bildextraktion
DE102005056647B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056664B4 (de) * 2004-11-30 2011-02-10 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056665B4 (de) * 2004-11-30 2011-03-17 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
EP1839964A1 (de) * 2006-03-27 2007-10-03 Mazda Motor Corporation Vorrichtung und Verfahren zur Fußgängererfassung sowie Computerprogrammprodukt
EP2668553A1 (de) * 2011-01-28 2013-12-04 Sony Corporation Informationsverarbeitungsvorrichtung, alarmverfahren und programm
EP2668553A4 (de) * 2011-01-28 2014-08-20 Sony Corp Informationsverarbeitungsvorrichtung, alarmverfahren und programm
CN102682571A (zh) * 2011-01-28 2012-09-19 索尼公司 信息处理装置、报警方法和程序
DE102012024874A1 (de) * 2012-12-19 2014-06-26 Audi Ag Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102012024874B4 (de) * 2012-12-19 2014-07-10 Audi Ag Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102013013253A1 (de) * 2013-08-09 2015-02-12 Connaught Electronics Ltd. Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs abhängig von einer ermittelten Zeit bis zur Kollision, Kamerasystem und Kraftfahrzeug
WO2020229515A1 (de) 2019-05-14 2020-11-19 Eyyes Gmbh Verfahren zum anzeigen und/oder berechnen einer relativbewegung
US11745655B2 (en) 2019-05-14 2023-09-05 Eyyes Gmbh Method for displaying and/or calculating a relative movement

Also Published As

Publication number Publication date
JP2001006096A (ja) 2001-01-12
US6327536B1 (en) 2001-12-04
JP3515926B2 (ja) 2004-04-05
DE10030421B4 (de) 2006-10-05

Similar Documents

Publication Publication Date Title
DE10030421B4 (de) Fahrzeugumgebungsüberwachungssystem
DE10251880B4 (de) Bilderkennungsvorrichtung
DE10033599B4 (de) Positionserfassungsvorrichtung
DE10301469B4 (de) Infrarotbildverarbeitungsvorrichtung
DE102005026876B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE10247371B4 (de) Fahrzeuginformation-Bereitstellungsvorrichtung
DE102005056645B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE10228638B4 (de) Fahrzeugzonen-Überwachungsvorrichtung
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE10026586B4 (de) Objekterfassungssystem
DE10301468B4 (de) Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
DE102009005860B4 (de) Umgebungs-Erkennungssystem
DE102005026875B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102007002419B4 (de) Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm
DE102005056429B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102007014012B4 (de) Fahrzeugumgebung-Überwachungsgerät, Fahrzeugumgebung-Überwachungsverfahren und Fahrzeugumgebung-Überwachungsprogramm
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102005056616B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE10102884A1 (de) Seitenüberwachungsvorrichtung für ein Kraftfahrzeug
DE10246228A1 (de) Vorrichtung zum Überwachen eines an ein Fahrzeug angrenzenden Bereichs
DE4332612A1 (de) Außenansichts-Überwachungsverfahren für Kraftfahrzeuge
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112013003276T5 (de) Objekterkennungseinrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R084 Declaration of willingness to licence
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee