DE10030421A1 - Fahrzeugumgebungsüberwachungssystem - Google Patents
FahrzeugumgebungsüberwachungssystemInfo
- Publication number
- DE10030421A1 DE10030421A1 DE10030421A DE10030421A DE10030421A1 DE 10030421 A1 DE10030421 A1 DE 10030421A1 DE 10030421 A DE10030421 A DE 10030421A DE 10030421 A DE10030421 A DE 10030421A DE 10030421 A1 DE10030421 A1 DE 10030421A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- image
- data
- monitoring system
- environment monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 18
- 238000012544 monitoring process Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 230000005855 radiation Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 7
- 230000005484 gravity Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 241001465754 Metazoa Species 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000282994 Cervidae Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/106—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/107—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
- B60R2300/305—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8053—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T2201/00—Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
- B60T2201/08—Lane monitoring; Lane Keeping Systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T2201/00—Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
- B60T2201/08—Lane monitoring; Lane Keeping Systems
- B60T2201/082—Lane monitoring; Lane Keeping Systems using alarm actuation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T2201/00—Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
- B60T2201/08—Lane monitoring; Lane Keeping Systems
- B60T2201/089—Lane monitoring; Lane Keeping Systems using optical detection
Abstract
Die Erfindung stellt ein Fahrzeugumgebungsüberwachungssystem für ein Kraftfahrzeug bereit, welches geeignet ist, genau die Bewegung eines in einer Umgebung des Fahrzeugs vorhandenen Objekts zu erfassen und die Möglichkeit für eine Kollision zwischen dem Objekt und dem Fahrzeug zu bestimmen, und dadurch den Fahrer angemessen zu warnen. Eine Relativposition des Objekts zu dem Kraftfahrzeug wird aus dem mittels einer an dem Fahrzeug angebrachten Kamera erhaltenen Bild erhalten, um Positionsdaten zu erlangen (S11-S20, S31-S33). Positionen des Objekts in einem Echtraum werden basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt erfaßten Positionsdaten berechnet (S21, S22) und ein Bewegungsvektor des Objekts wird basierend auf den Positionen im Echtraum berechnet (S23). Es wird basierend auf dem Bewegungsvektor bestimmt (S24), ob das Objekt eine bedeutende Möglichkeit für eine Kollision mit dem Kraftfahrzeug aufweist.
Description
Diese Erfindung betrifft ein Fahrzeugumgebungsüberwachungssystem,
welches eine Umgebung eines Kraftfahrzeugs überwacht, an dem das
System installiert ist, und ein Objekt erfaßt, welches mit dem Fahrzeug
kollidieren könnte, aus einem Bild, das durch eine an dem Fahrzeug
angebrachte Abbildungseinrichtung erhalten wird, wodurch eine Kollision
mit großen Tieren wie etwa einem Reh, einem Bären und dergleichen
vermieden werden, da eine derartige Kollision sich nachteilig auf die Fahrt
des Fahrzeugs auswirkt.
Durch die japanische Offenlegungs-Patentveröffentlichung (Kokai) Nr. 9-
226490 wurde in herkömmlicher Weise ein Erfassungssystem zum Erfassen
eines eine Straße kreuzenden Objekts vorgeschlagen, welches eine Distanz
zwischen dem Fahrzeug und dem Objekt basierend auf dem Versatz
zwischen Bildern des Objekts erfaßt, und zwar der Parallaxe von Bildern, die
durch zwei CCD(charge-coupled device)-Kameras erhalten werden, die an
dem Fahrzeug angebracht sind, wodurch ein Fußgänger 30 bis 60 Meter vor
dem Fahrzeug erfaßt wird.
Die obige herkömmliche Vorrichtung bestimmt die Möglichkeit einer Kollision
mit einem Objekt unter Verwendung der Richtung eines optischen Flusses
des erfaßten Objekts basierend auf durch die Kameras erhaltenen Bildern
des Objekts, ohne weitere Verarbeitung, was zu einer verschlechterten
Bestimmungsgenauigkeit führt, abhängig von einer relativen Distanz
zwischen dem Fahrzeug und dem Objekt sowie der Geschwindigkeit des
Fahrzeugs. Dies bedeutet, wenn eine Fahrzeuggeschwindigkeit wesentlich
größer als die Geschwindigkeit eines sich bewegenden Objekts ist, so wird
ein optischer Fluß auf dem Bild, der z. B. einem sich tatsächlich zur Mitte
einer Straße sich bewegenden Objekt entspricht, manchmal als ein Vektor
verfolgt, der sich außerhalb der Straße erstreckt, was eine fehlerhafte
Bestimmung der Möglichkeit einer potentiellen Kollision zur Folge hat.
Es ist eine Aufgabe der Erfindung, ein Fahrzeugumgebungsüberwachungs
system bereitzustellen, welches es ermöglicht, genauer die Bewegung eines
in einer Umgebung des Fahrzeugs vorhandenen Objekts zu erfassen und die
Möglichkeit einer Kollision zwischen dem Objekt und dem Fahrzeug zu
bestimmen und dadurch den Fahrer zuverlässiger zu warnen.
Zur Lösung der obigen Aufgabe stellt die vorliegende Erfindung ein
Fahrzeugumgebungsüberwachungssystem für ein Kraftfahrzeug bereit,
welches ein in einer Umgebung des Kraftfahrzeugs vorhandenes Objekt aus
einem Bild erfaßt, welches durch Abbildungsmittel erhalten wird, die an dem
Kraftfahrzeug angeordnet sind.
Das Fahrzeugumgebungsüberwachungssystem ist dadurch gekennzeichnet,
daß es umfaßt:
Relativpositionserfassungsmittel zum Erfassen einer Relativposition des Objekts zu dem Kraftfahrzeug aus dem Bild, das durch die Abbildungsmittel erhalten wird, um Positionsdaten zu erhalten;
Bewegungsvektorberechnungsmittel zum Berechnen von Positionen des Objekts in einem Echtraum, basierend auf einer Mehrzahl von Zeitreihen datenelementen der Positionsdaten, die mittels der Relativposition erfassungsmittel an dem Objekt erfaßt werden, und zum Berechnen eines Bewegungsvektors des Objekts, basierend auf den Positionen in dem Echtraum; und
Bestimmungsmittel zum Bestimmen, ob das Objekt eine bedeutende Möglichkeit einer Kollision mit dem Kraftfahrzeug besitzt oder nicht, basierend auf dem Bewegungsvektor.
Relativpositionserfassungsmittel zum Erfassen einer Relativposition des Objekts zu dem Kraftfahrzeug aus dem Bild, das durch die Abbildungsmittel erhalten wird, um Positionsdaten zu erhalten;
Bewegungsvektorberechnungsmittel zum Berechnen von Positionen des Objekts in einem Echtraum, basierend auf einer Mehrzahl von Zeitreihen datenelementen der Positionsdaten, die mittels der Relativposition erfassungsmittel an dem Objekt erfaßt werden, und zum Berechnen eines Bewegungsvektors des Objekts, basierend auf den Positionen in dem Echtraum; und
Bestimmungsmittel zum Bestimmen, ob das Objekt eine bedeutende Möglichkeit einer Kollision mit dem Kraftfahrzeug besitzt oder nicht, basierend auf dem Bewegungsvektor.
Gemäß diesem Fahrzeugumgebungsüberwachungssystem wird die Relativ
position des Objekts zu dem Kraftfahrzeug aus dem Bild erfaßt, welches
durch die Abbildungsmittel erhalten wird, um die Positionsdaten zu erhalten,
und werden Positionen des Objekts in einem Echtraum berechnet, basierend
auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt
erfaßten Positionsdaten. Dann wird basierend auf den Positionen des
Objekts in dem Echtraum ein Bewegungsvektor des Objekts berechnet, und
es wird basierend auf dem Bewegungsvektor bestimmt, ob das Objekt eine
bedeutende Möglichkeit einer Kollision mit dem Kraftfahrzeug besitzt.
Deshalb ist es, anders als bei dem herkömmlichen System, möglich, das
Auftreten einer fehlerhaften Bestimmung zu vermeiden und dadurch die
Genauigkeit der Bestimmung der Möglichkeit einer Kollision zu steigern.
Vorzugsweise umfassen die Bewegungsvektorberechnungsmittel
Näherungsgeradenberechnungsmittel zum Berechnen einer Näherungs
geraden, welche eine Ortskurve der Relativbewegung des Objekts nähert,
und Positionsdatenkorrekturmittel zum Korrigieren der Zeitreihen
datenelemente der Positionsdaten unter Verwendung der Näherungs
geraden, wobei die Bewegungsvektorberechnungsmittel den Bewegungs
vektor basierend auf den korrigierten Zeitreihendatenelementen der
Positionsdaten berechnen.
Gemäß dieser bevorzugten Ausführungsform wird eine gerade Näherungs
linie berechnet, die eine Ortskurve der Relativbewegung des Objekts nähert,
und die Zeitreihendatenelemente der Positionsdaten werden unter
Verwendung der Näherungsgeraden korrigiert. Der Bewegungsvektor wird
basierend auf den korrigierten Zeitreihendatenelementen der Positionsdaten
berechnet. Deshalb ist es möglich, eine nachteilige Wirkung von Fehlern bei
der Erfassung der Positionsdaten zu vermindern und die Möglichkeit einer
Kollision mit dem Objekt im voraus genauer abzuschätzen.
Vorzugsweise führen die Bestimmungsmittel die Bestimmung durch
Anwenden von Bedingungen zum Bestimmen einer potentiellen Kollision
aus, wobei die Bedingungen von einer Breite des Fahrzeugs abhängig sind.
Gemäß dieser bevorzugten Ausführungsform wird die Möglichkeit einer
Kollision durch Anwenden von Bedingungen für ein Bestimmen einer
potentiellen Kollision bestimmt, die abhängig von einer Breite des Fahrzeugs
sind. Dies ermöglicht es, die Möglichkeit einer Kollision genauer zu
bestimmen und zu vermeiden, daß der Fahrer unnötigerweise gewarnt wird.
Weiter bevorzugt berechnen die Näherungsgeradenberechnungsmittel die
Näherungsgerade als eine dreidimensionale Gerade, umfassend Daten einer
Höhe des Objekts.
Gemäß dieser bevorzugten Ausführungsform ist es möglich, die Möglichkeit
einer Kollision genau zu bestimmen, selbst wenn der Fahrer auf einer
hügeligen Straße fährt.
Vorzugsweise umfassen die Abbildungsmittel zwei Infrarotkameras, die zur
Erfassung von Infrarotstrahlung geeignet sind.
Gemäß dieser bevorzugten Ausführungsform kann ein Tier, ein fahrendes
Kraftfahrzeug und dergleichen einfach erfaßt werden, selbst wenn der
Fahrer bei Nacht fährt und es schwierig ist, diese zu erkennen.
Vorzugsweise umfassen die Abbildungsmittel zwei TV-Kameras zum
Erfassen von Infrarotstrahlung oder sichtbarer Strahlung und umfassen die
Relativpositionbestimmungsmittel Suchbereichsetzmittel zum Setzen,
basierend auf einer Position eines Objektbilds, das in einer Bildausgabe von
einer der zwei TV-Kameras enthalten ist, eines Suchbereichs in einer
Bildausgabe von der anderen der zwei TV-Kameras, um ein
korrespondierendes Objektbild zu suchen, das in der Bildausgabe der
anderen der zwei TV-Kameras enthalten ist, Korrespondenzobjekt
identifizierungsmittel zum Identifizieren des korrespondierenden Objektbilds
durch Ausführen einer Korrelationsoperation an Daten in dem Suchbereich,
und Distanzberechnungsmittel zum Berechnen einer Distanz von dem
Fahrzeug zu dem Objekt basierend auf einer Parallaxe zwischen dem
Objektbild und dem Korrespondenzobjektbild.
Weiter bevorzugt sind die Daten in dem Suchbereich Graustufendaten, die
Halbtoninformation enthalten.
Indem nicht binäre Daten sondern Graustufendaten verwendet werden, ist
es gemäß dieser bevorzugten Ausführungsform möglich, eine genauere
Korrelationsoperation durchzuführen, wodurch eine fehlerhafte
Identifizierung eines korrespondierenden Objektbilds vermieden wird.
Weiterhin bevorzugt umfassen die Relativpositionserfassungsmittel
Verfolgungsmittel zum Verfolgen eines Objekts, das sich in dem Bild
bewegt, das durch die Abbildungsmittel erhalten wird, unter Verwendung
von Binärdaten, die durch Binärisierung der Graustufendaten gebildet
werden.
Noch weiter bevorzugt erkennen die Verfolgungsmittel das verfolgte Objekt
unter Verwendung von Lauflängendaten, die aus den Binärdaten codiert
werden.
Gemäß dieser bevorzugten Ausführungsform ist es möglich, die Menge von
Daten, die das verfolgte Objekt betreffen, zu reduzieren, wodurch bei der
Kapazität der Speichereinrichtung gespart wird.
Noch weiter bevorzugt bestimmen die Verfolgungsmittel eine Identität des
verfolgten Objekts, basierend auf Positionskoordinaten eines
Flächenschwerpunkts von einem Bilds desselben, einer Fläche des Bilds
desselben und einem Seitenverhältnis eines das Bild desselben
umschreibenden Rechtecks.
Gemäß dieser bevorzugten Ausführungsform ist es möglich, die Identität
eines verfolgten Objekts genau zu bestimmen.
Vorzugsweise umfaßt das Fahrzeugumgebungsüberwachungssystem
Warnungsmittel zum Warnen eines Fahrers, wenn durch die
Bestimmungsmittel bestimmt wird, daß es eine bedeutende Möglichkeit
einer Kollision mit dem Objekt gibt, und sind die Warnungsmittel an einem
Warnen des Fahrers gehindert, wenn der Fahrer eine Bremsoperation
ausführt und die hierbei durch die Bremsoperation verursachte Verzögerung
größer als eine vorbestimmte Schwelle ist.
Gemäß dieser bevorzugten Ausführungsform wird der Fahrer nicht gewarnt,
wenn er das Objekt bereits erkannt hat und eine angemessene
Bremsoperation ausführt. Dies ermöglicht es, zu verhindern, daß der Fahrer
durch eine unnötige Warnung gestört wird.
Die obigen und weitere Aufgaben, Merkmale und Vorteile der Erfindung
werden aus der folgenden detaillierten Beschreibung in Verbindung mit den
beigefügten Zeichnungen ersichtlicher.
Fig. 1 ist ein Blockdiagramm, das die Anordnung eines Fahrzeug
umgebungsüberwachungssystems gemäß einer Ausführungsform der
Erfindung zeigt;
Fig. 2 ist eine Darstellung, die Teile eines Fahrzeugs veranschaulicht, an
welchen in Fig. 1 dargestellte Anbringungskameras angebracht sind;
Fig. 3 ist ein Flußdiagramm, das eine Verarbeitungsprozedur zeigt, die durch
eine in Fig. 1 dargestellte Bildverarbeitungseinheit ausgeführt wird;
Fig. 4 ist ein Flußdiagramm, das Details eines Warnungsbestimmungs
prozesses in Fig. 3 zeigt;
Fig. 5A und 5B sind Darstellungen, die jeweils Halbtonabschnitte als
schraffierte Bereiche zeigen, welche bei der Erläuterung
von Graustufenbildern nützlich sind, die durch Infrarot
kameras erhalten werden, wobei:
Fig. 5A ein rechtes Bild zeigt, das durch eine rechte der
Infrarotkameras erhalten wird;
Fig. 5B ein linkes Bild zeigt, das durch eine linke derselben
erhalten wird;
Fig. 6 ist eine Darstellung, die einen schwarzen Bereich als schraffierten
Bereich zeigt, welche bei der Erläuterung eines Bilds nützlich ist, das
durch Binärisierung eines Graustufenbilds gebildet wird;
Fig. 7A bis 7C sind Darstellungen, die bei der Erläuterung eines
Prozesses zum Umwandeln binärisierter Bilddaten in
Lauflängendaten und zum Kennzeichnen von Objekten
für eine Identifizierung derselben sind;
Fig. 8A und 8B sind Darstellungen, die bei der Erläuterung der Art und
Weise nützlich sind, in der Objekte in Zeitintervallen
verfolgt werden;
Fig. 9A ist eine Darstellung, die bei der Erläuterung eines Zielbilds in
dem rechten Bild nützlich ist;
Fig. 9B ist eine Darstellung, die bei der Erläuterung eines in dem linken
Bild gesetzten Suchbereichs nützlich ist;
Fig. 10A und 10B sind Darstellungen, die bei der Erläuterung einer
Korrelationsoperation nützlich sind, die an Daten in dem
Suchbereich ausgeführt wird;
Fig. 11A und 11B sind Darstellungen, die bei der Erläuterung einer
Methode zur Berechnung einer Parallaxe nützlich sind;
Fig. 12 ist eine Darstellung, die bei der Erläuterung einer Methode zum
Berechnen einer Distanz zwischen dem Fahrzeug und dem
Objekt basierend auf der Parallaxe nützlich ist;
Fig. 13A und 13B sind Darstellungen, die für eine Erläuterung eines bei der
vorliegenden Ausführungsform verwendeten
Koordinatensystems nützlich sind;
Fig. 14 ist eine Darstellung, die bei der Erläuterung einer
Wendewinkel-abhängigen Korrektur von Positionsdaten eines
Objekts nützlich ist;
Fig. 15 ist eine Darstellung, die die Verlagerung des Objekts in den
Bildern aufgrund einer Wendung des Fahrzeugs zeigt;
Fig. 16 ist eine Darstellung, die bei der Erläuterung einer Methode zum
Berechnen eines Relativbewegungsvektors nützlich ist;
Fig. 17 ist eine Darstellung, die bei der Erläuterung von Bedingungen
zur Bestimmung, ob eine Warnung ausgegeben werden soll
oder nicht, nützlich ist;
Fig. 18 ist eine Darstellung, die bei der Erläuterung von Teilbereichen
vor dem Fahrzeug nützlich ist;
Fig. 19 ist eine Darstellung, die bei der Erläuterung eines Falls nützlich
ist, in welchem eine Kollision leicht stattfinden kann;
Fig. 20 ist eine Darstellung, die nützlich ist bei der Erläuterung einer
Methode einer Eintrittsobjektkollisionsbestimmung, die von
einer Breite des Fahrzeugs abhängig ist;
Fig. 21A zeigt einen Zustand, in dem ein Bildschirm eines Head-up-
Displays nicht angezeigt wird; und
Fig. 21B zeigt einen Zustand, in dem ein Bildschirm des Head-up-
Displays angezeigt wird.
Die Erfindung wird nun im Detail mit Bezug auf Zeichnungen beschrieben,
die eine Ausführungsform derselben zeigen.
Es wird zunächst auf Fig. 1 Bezug genommen. Hier ist die Anordnung eines
Fahrzeugumgebungsüberwachungssystems gemäß der Ausführungsform der
Erfindung gezeigt, die aufweist: zwei zum Erfassen von Fern-
Infrarotstrahlung geeignete rechte und linke Infrarotkameras 1R, 1L, einen
Gierratensensor 5 zum Erfassen einer Gierrate des Fahrzeugs, einen
Fahrzeuggeschwindigkeitssensor 6 zum Erfassen einer Fahrgeschwindigkeit
(Fahrzeuggeschwindigkeit) VCAR des Fahrzeugs, einen Bremssensor 7 zum
Erfassen eines Betriebsausmaßes einer Bremse, nicht gezeigt, eine
Bildverarbeitungseinheit 2 zum Erfassen eines Objekts, wie eines Tieres oder
dergleichen, vor dem Fahrzeug, basierend auf Bilddaten, die durch die
obigen Kameras 1R, 1L erhalten werden, und zum Warnen des Fahrers,
wenn es eine bedeutende Möglichkeit einer Kollision mit dem Objekt gibt,
einen Lautsprecher 3 zum Erzeugen eines Sprachalarms zum Warnen des
Fahrers und ein Head-up-Display (nachfolgend als das "HUD" bezeichnet)
4 zum Anzeigen eines durch die Kamera 1R oder 1L erhaltenen Bilds und um
zu bewirken, daß der Fahrer das Objekt mit der bedeutenden Möglichkeit
einer Kollision mit dem Fahrzeug erkennt.
Wie es in Fig. 2 gezeigt ist, sind die Kameras 1R, 1L in einem vorderen Teil
des Kraftfahrzeugs 10 an Stellen angeordnet, die symmetrisch zu der
Längsmittelachse des Fahrzeugs 10 sind, und derart fest an dem Fahrzeug
befestigt, daß die zwei Kameras zueinander parallele optische Achsen und
gleiche Höhen von einer Straßenoberfläche besitzen. Die Infrarotkameras
1R, 1L besitzen eine Charakteristik derart, daß der Ausgangssignalpegel
größer wird (die Luminanz eines Bilds eines Objekts steigt), wenn die
Temperatur des Objekts größer wird.
Die Bildverarbeitungseinheit 2 umfaßt eine A/D-Wandlerschaltung zum
Umwandeln eingegebener Analogsignale in Digitalsignale, einen Bildspeicher
zum Speichern digitalisierter Bildsignale, eine CPU (Central Processing Unit)
zum Ausführen arithmetischer Operationen, einen RAM (Random Access
Memory), der durch die CPU zum Speichern von Daten verwendet wird, die
mit den arithmetischen Operationen verarbeitet werden, einen ROM (Read
Only Memory), der durch die CPU ausgeführte Programme, Tabellen und
Karten speichert, und eine Ausgangsschaltung zum Ausgeben von
Ansteuersignalen für den Lautsprecher 3, Anzeigesignalen für das HUD 4
und dergleichen. Ausgangssignale von den Kameras 1R, 1L und den
Sensoren 5 bis 7 werden in Digitalsignale umgewandelt und der CPU
eingegeben.
Wie es in Fig. 2 gezeigt ist, ist das HUD 4 derart angeordnet, daß ein
Bildschirm 4a desselben in einem Vorderfenster an einer Stelle vor dem
Fahrer angezeigt wird.
Fig. 3 ist ein Flußdiagramm, das eine durch die Bildverarbeitungseinheit 2
ausgeführte Verarbeitungsprozedur zeigt. Zunächst werden die
Ausgangssignale von den Kameras 1R, 1L durch die A/D-Wandlerschaltung
einer A/D-Wandlung unterzogen und die resultierenden Digitaldaten in dem
Bildspeicher gespeichert (Schritte S11, S12, S13). Daten von Bildern, die
in dem Bildspeicher gespeichert sind, sind Daten von Graustufenbildern,
umfassend Luminanzinformation. Die Fig. 5A und 5B sind Darstellungen zur
Erläuterung von Graustufenbildern, die durch die jeweiligen Kameras 1R, 1L
erhalten werden (ein rechtes Bild durch die Kamera 1R und ein linkes Bild
durch die Kamera 1L). Schraffierte Bereiche in den rechten und linken
Bildern sind Halbton (Grau)-Bereiche, wohingegen durch dicke durchge
zogene Linien umgebene Bereiche Bereiche mit einem hohen Luminanzpegel
(mit einer hohen Temperatur) sind, welches Bereiche (nachfolgend als
"Hochluminanzbereiche" bezeichnet) der erfaßten Objekte sind, die in weiß
auf dem Bildschirm angezeigt werden. In dem rechten Bild und dem linken
Bild wird ein identisches Objekt in Form von Bildern angezeigt, die an
jeweiligen, horizontal gegeneinander versetzten Stellen angezeigt werden,
so daß es möglich ist, eine Distanz von dem Fahrzeug 10 zu dem Objekt
basierend auf dem Versatz (Parallaxe) zu berechnen.
In dem Schritt S14 in Fig. 3 wird das rechte Bild als ein Referenzbild gesetzt
und die für das Referenzbild repräsentativen Digitalbilddaten werden derart
binärisiert (in 1-Bit-Daten umgewandelt), daß ein Bereich mit einem Pegel
der Luminanz, der gleich oder größer als eine Luminanzschwelle ITH ist, die
experimentell bestimmt ist, auf "1" (weiß) gesetzt wird, und ein Bereich mit
einem Pegel der Luminanz, der niedriger als die Schwelle ITH ist, auf "0"
(schwarz) gesetzt wird. Fig. 6 zeigt ein durch Binärisierung des Bilds von
Fig. 5A erhaltenes Bild. In der Figur stellt ein schraffierter Bereich einen
schwarzen Bereich dar, wohingegen durch dicke durchgezogene Linien
umgebene Bereiche (Hochluminanzbereiche) jeweilige weiße Bereiche
repräsentieren.
In dem nachfolgenden Schritt S15 werden die binärisierten Bilddaten in
Lauflängendaten codiert. Fig. 7A ist eine Darstellung zur Erläuterung des
Codierprozesses. In der Figur sind Bereiche, die durch die obige
Binärisierung auf weiß gesetzt sind, durch Linien L1 bis L8 dargestellt,
welche jeweilige Pixellinien angeben. Obwohl die Linien L1 bis L8 jeweils
eine Breite von einem Pixel in der y-Richtung besitzen und tatsächlich Seite-
an-Seite ohne irgendwelche Lücken in der y-Richtung angeordnet sind, sind
sie der Klarheit der Beschreibung halber als separate Linien gezeigt, die
voneinander getrennt sind. Die Linien L1 bis L8 besitzen ferner jeweilige
Längen von zwei Pixeln, zwei Pixeln, drei Pixeln, acht Pixeln, sieben Pixeln,
acht Pixeln, acht Pixeln und acht Pixeln in der x-Richtung. Die
Lauflängendaten repräsentieren jede der Linien L1 bis L8 durch Koordinaten
des Startpunkts (Punkt des linken Endes) der Linie und der Länge (die
Anzahl von Pixeln) der Linie von dem Startpunkt zu dem Endpunkt (Punkt
des rechten Endes) derselben. Beispielsweise ist die Linie L3 aus drei Pixeln
(x3, y5), (x4, y5) und (x5, y5) gebildet und wird durch die Lauflängendaten
(x3, y5, 3) repräsentiert.
In Schritten S16 und S17 wird ein Objekt extrahiert durch Kennzeichnen
desselben, wie es in Fig. 7B gezeigt ist. Dies bedeutet, von den in die
Lauflängendaten codierten Linien L1 bis L8 werden die in der y-Richtung
überlappenden Linien L1 bis L3 als ein Objekt 1 betrachtet und die in der y-
Richtung überlappenden Linien L4 bis L8 als ein Objekt 2 betrachtet, wobei
Objektkennungen 1 und 2 den Lauflängendaten hinzugefügt werden. Diese
Verarbeitung ermöglicht es z. B., daß die in Fig. 6 erscheinenden
Hochluminanzbereiche jeweils als Objekt 1 bis 4 begriffen werden.
In einem Schritt S18, wie es in Fig. 7C gezeigt ist, werden der
Flächenschwerpunkt G eines extrahierten Objekts (Bild eines Objekts), die
Fläche S des extrahierten Objekts und das Seitenverhältnis ASPECT eines
das extrahierte Objekt umschreibenden Rechtecks, angegeben durch
gestrichelte Linien, berechnet. Die Fläche S wird durch Integrieren der
Längen der Lauflängendaten eines identischen Objekts berechnet. Die
Koordinaten des Flächenschwerpunkts G werden berechnet als die x-
Koordinate einer Linie, die die Fläche S längs der y-Richtung hälftig teilt, und
die y-Koordinate einer Linie, die die Fläche S längs der x-Richtung hälftig
teilt. Das Seitenverhältnis ASPECT wird als Dy/Dx berechnet, welches ein
Verhältnis von Dy zu Dx ist, wie es in Fig. 7C dargestellt ist. Es ist zu
bemerken, daß die Position des Flächenschwerpunkts des umschreibenden
Rechtecks anstatt des Flächenschwerpunkts G des extrahierten Objekts
verwendet werden kann.
In einem Schritt S19 werden Objekte in Zeitintervallen verfolgt, d. h. es wird
eine Identifizierung oder Erkennung identischer Objekte ausgeführt, jedesmal
dann, wenn jede Abstastwiederholperiode abläuft. Unter der Annahme, daß
eine durch Diskretisieren einer Zeit t als eine Analoggröße mit einer
Abtastwiederholperiode erhaltene Zeit durch k ausgedrückt wird, werden zu
der Zeit k extrahierte Objekte 1 und 2, wie es in Fig. 8A gezeigt ist, und zu
der Zeit (k + 1) extrahierte Objekte 3 und 4, wie es in Fig. 8B gezeigt ist,
hinsichtlich ihrer Identität überprüft. Im besonderen wird bestimmt, daß die
Objekte 3 und 4 identisch mit den entsprechenden Objekten 1 und 2 sind,
wenn die folgenden Identifizierungsbedingungen (1) bis (3) erfüllt sind, und
die Objekte 3 und 4 werden als Objekte 1 und 2 gekennzeichnet, um
dadurch die Objekte in Zeitintervallen zu verfolgen:
- 1. Unter der Annahme, daß die Positionskoordinaten des
Flächenschwerpunkts von Objekten i (= 1, 2) in einem Bild zur Zeit k
ausgedrückt werden durch (xi(k), yi(k)) und die Positionskoordinaten des
Flächenschwerpunkts von Objekten j (= 3, 4) in einem Bild zur Zeit (k +
1) ausgedrückt werden durch (xj(k + 1), yj(k + 1)), so sind die folgenden
Bedingungen erfüllt:
|xj(k + 1) - xi(k)| < Δx, und
|yj(k + 1) - yi(k)| < Δy,
wobei Δx und Δy maximal zulässige Werte für jeweilige Distanzen darstellen, die durch das in dem Bild in der x-Richtung und der y-Richtung sich bewegenden Objekts überstrichen werden. - 2. Unter der Annahme, daß die Flächen der Objekte i (= 1, 2) in dem
Bild zur Zeit k ausgedrückt werden durch Si(k) und die Flächen der Objekte
j (= 3, 4) in dem Bild zur Zeit (k + 1) ausgedrückt werden durch Sy(k +
1), so ist die folgende Bedingung erfüllt:
Sj(k + 1)/Si(k) < 1 ± ΔS
wobei ΔS einen maximal zulässigen Wert für eine Änderung der Fläche darstellt. - 3. Unter der Annahme, daß die Seitenverhältnisse von Rechtecken,
welche die Objekte i (= 1, 2) zur Zeit k umschreiben, ausgedrückt werden
durch ASPECT i(k) und die Seitenverhältnisse der Rechtecke, welche die
Objekte j (= 3, 4) zur Zeit (k + 1) umschreiben, ausgedrückt werden durch
ASPECT j(k + 1), so ist die folgende Bedingung erfüllt:
ASPECT j(k + 1)/ASPECT i(k) < 1 ± ΔASPECT
wobei ΔASPECT einen maximal zulässigen Wert für eine Änderung des Seitenverhältnisses darstellt.
Vergleicht man die Fig. 8A und Fig. 8B, so ist die Größe jedes Objekts in
Fig. 8B vergrößert, jedoch erfüllen die Objekte 1 und 3 die obigen
Identifizierungsbedingungen und erfüllen die Objekte 2 und 4 die obigen
Identifizierungsbedingungen. Somit können die Objekte 3 und 4 als die
jeweiligen Objekte 1 und 2 identifiziert werden. Die Positionskoordinaten
(des Flächenschwerpunkts) jedes somit identifizierten Objekts werden als
Zeitreihendatenelemente von Positionsdaten in dem Speicher gespeichert
und zum Ausführen nachfolgender arithmetischer Operationen verwendet.
Es ist zu bemerken, daß die oben erwähnten Prozesse in den Schritten S14
bis S19 an dem binärisierten Referenzbild (dem rechten Bild in der
vorliegenden Ausführungsform) ausgeführt werden.
In einem Schritt S20 in Fig. 3 werden die durch den Fahrzeug
geschwindigkeitssensor 6 erfaßte Fahrzeuggeschwindigkeit VCAR sowie die
durch den Gierratensensor 5 erfaßte Gierrate YR zur Integration der Gierrate
YR über die Zeit eingelesen, wodurch der Winkel θr der Wendung des
Kraftfahrzeugs 10 (siehe Fig. 14) berechnet wird.
Andererseits wird in Schritten S31 bis S33 eine Operation zum Berechnen
einer Distanz z zwischen dem Objekt und dem Kraftfahrzeug 10 parallel zu
den Prozessen in den Schritten S19 und S20 ausgeführt. Diese
arithmetische Operation benötigt eine längere Zeitperiode als die Prozesse
in den Schritten S19 und S20, und wird deshalb mit einer längeren
Wiederholperiode ausgeführt als derjenigen der Prozesse in den Schritten
S19 und S20 (ungefähr dreimal so lang wie die Wiederholperiode der
Ausführung der Prozesse von Schritt S11 bis Schritt S20).
In dem Schritt S31 wird eines der unter Verwendung des binärisierten Bilds
des Referenzbilds (rechtes Bild) verfolgten Objekts ausgewählt, wobei, wie
es in Fig. 9A gezeigt ist, ein Zielbild R1 (in diesem Beispiel wird die ganze
durch ein umbeschriebenes Rechteck umschlossene Fläche als ein Zielbild
gesetzt) aus dem rechten Bild extrahiert. In dem folgenden Schritt S32 wird
ein Suchbereich zum Durchsuchen eines Bilds (nachfolgend als das
"korrespondierende Bild" bezeichnet), welches dem Zielbild entspricht, in
dem linken Bild gesetzt und es wird das korrespondierende Bild durch
Ausführen einer Korrelationsoperation extrahiert. Im besonderen, wie es in
Fig. 9B gezeigt ist, wird ein Suchbereich R2 in dem linken Bild basierend auf
den Koordinaten jedes Eckpunkts des Zielbilds R1 gesetzt, und es wird der
Gesamtsummenwert C(a, b) von Luminanzdifferenzen berechnet, die einen
Grad der Korrelation mit dem Zielbild R1 angeben, wie an Daten im
Suchbereich R2, unter Verwendung der nachfolgenden Gleichung (1), wobei
eine Fläche, die den Minimalwert des Gesamtsummenwerts C(a, b) liefert,
als das Korrespondenzbild extrahiert wird. Es ist zu bemerken, daß die
Korrelationsoperation nicht unter Verwendung von Daten des binärisierten
Bilds (Binärdaten), sondern unter Verwendung von Daten der Graustufen
bilder (Graustufendaten) ausgeführt wird. Ferner, wenn in der Vergangenheit
erhaltene Positionsdaten eines identischen Objekts verfügbar sind, so wird
ein Bereich R2a (in Fig. 9B durch gestrichelte Linien gezeigt), der schmäler
als der Suchbereich R2 ist, als der Suchbereich basierend auf den Positions
daten eingestellt.
wobei IR(m, n) einen Luminanzwert einer durch Koordinaten (m, n) in dem
in Fig. 10 dargestellten Zielbild R1 angegebenen Position darstellt, und IL(a
+ m - M, b + n - N) einen Luminanzwert einer durch Koordinaten (m, n) in
einem lokalen Bereich R3 angegebenen Position darstellt, welche die gleiche
Form besitzt, wie diejenige des Zielbilds R1 mit einem Referenzpunkt
(Ursprung seines eigenen Koordinatensystems), der in den Suchbereich R2
auf Koordinaten (a, b) gesetzt wird. Eine Position, die den
Gesamtsummenwert C(a, b) der Luminanzdifferenzen minimiert, wird durch
Ändern der Koordinaten (a, b) des Referenzpunkts erhalten, wodurch die
Position des Korrespondenzbilds bestimmt werden kann.
Nachdem im Schritt S32 das Zielbild R1 und das korrespondierende Bild R4,
welches diesem Zielbild R1 entspricht, wie es in den Fig. 11A und 11B
gezeigt ist, extrahiert sind, werden dann im Schritt S33 eine Distanz dR
(Anzahl von Pixeln) zwischen dem Flächenschwerpunkt des Zielbilds R1 und
einer Mittellinie LCTR des rechten Bilds sowie eine Distanz dL (die Anzahl
von Pixeln) zwischen dem Flächenschwerpunkt des Korrespondenzbilds R4
und einer Mittellinie LCTR des linken Bildes bestimmt und für die folgende
Gleichung (2) verwendet, um eine Distanz z zwischen dem Kraftfahrzeug 10
und dem Objekt zu berechnen.
wobei B die Länge einer Basislinie bezeichnet, d. h. eine horizontale Distanz
(in der x-Richtung) zwischen der Mittelposition eines Abbildungselements
11R der Kamera 1R und der Mittelposition eines Abbildungselements 11L
der Kamera 1L (d. h. Distanz zwischen den optischen Achsen der jeweiligen
Kameras), wie es in Fig. 12 gezeigt ist; wobei F die fokale Distanz der
Linsen 12R, 12L bezeichnet; wobei p ein Raumintervall zwischen Pixeln in
den Abbildungselementen 11R, 11L bezeichnet; und wobei Δd(= dR + dL)
das Ausmaß der Parallaxe darstellt.
In dem Schritt S21 werden Koordinaten (x, y) in dem Bild sowie die unter
Verwendung der Gleichung (2) berechnete Distanz z für die folgenden
Gleichungen (3) für eine Umwandlung in Echtraumkoordinaten (X, Y, Z)
verwendet. Das Koordinatensystem der Echtraumkoordinaten (X, Y, Z)
(Echtraumkoordinatensystem) ist hierbei wie in Fig. 13A gezeigt definiert,
wobei die Position eines Mittelpunkts (an dem Kraftfahrzeug 10 feste
Position) von Anbringungspositionen, an welchen die Kameras 1R, 1L
angebracht sind, als ein Ursprung O des Echtraumkoordinatensystems
gesetzt, und Koordinaten in einem Koordinatensystem eines Bilds
(imaginäres Bild, auf das nachfolgend Bezug genommen wird), welches dem
Echtkoordinatensystem entspricht, werden wie in Fig. 13B gezeigt definiert,
wobei das Zentrum des Bilds als der Ursprung des Koordinatensystems
gesetzt wird, welches dem Echtraumkoordinatensystem entspricht, wobei
die horizontale Richtung als die x-Richtung definiert wird und die vertikale
Richtung als die y-Richtung definiert wird.
In diesen Gleichungen werden (xc, yc) durch Umwandeln der Koordinaten
(x, y) in dem Koordinatensystem des rechten Bilds in Koordinaten im
Koordinatensystem des imaginären Bilds erhalten, dessen Zentrum zur
Koinzidenz mit dem Ursprung O des Echtraumkoordinatensystems gebracht
wird, basierend auf der relativen Beziehung der Anbringungsposition der
Kamera 1R und dem Ursprung O des Echtraumkoordinatensystems. Ferner
stellt f ein Verhältnis zwischen der fokalen Distanz F und dem Pixel-zu-Pixel-
Raumintervall p dar.
In einem Schritt S22 wird eine Wendewinkel-abhängige Korrektur der
Positionsdaten jedes Objekts ausgeführt durch Kompensieren einer
Positionsverlagerung des Objekts in dem Bild aufgrund einer Wendung des
Fahrzeugs 10 entsprechend dem Wendungswinkel. Unter der Annahme, daß
das Fahrzeug 10 wendet, wie es in Fig. 14 gezeigt ist, z. B. in einer Richtung
nach links über einen Winkel θr der Wendung während einer Zeitperiode von
einer Zeit k zu einer Zeit (k + 1), so wird ein durch die Kamera erhaltenes
Bild um Δx in der x-Richtung versetzt, wie es in Fig. 15 gezeigt ist. Die
Wendewinkel-abhängige Korrektur im Schritt S22 wird ausgeführt, um die
Verlagerung des Bilds zu kompensieren. Im besonderen werden die
Echtraumkoordinaten (X, Y, Z) für die folgende Gleichung (4) verwendet,
um korrigierte Koordinaten (Xr, Yr, Zr) zu berechnen. Somit berechnete
Echtraumpositionsdaten (Xr, Yr, Zr) werden in einer zu jedem
korrespondierenden Objekt korrelierten Weise in dem Speicher gespeichert.
Ferner werden die korrigierten Koordinaten in der folgenden Beschreibung
als Koordinaten (X, Y, Z) bezeichnet.
In einem Schritt S23, wie es in Fig. 16 gezeigt ist, wird eine
Näherungsgerade LMV, die einem Relativbewegungsvektor zwischen einem
identischen Objekt und dem Kraftfahrzeug 10 entspricht, basierend auf N
Echtraumpositionsdatendatenelementen erhalten, d. h. Zeitreihenpositions
daten (N ist beispielsweise eine Zahl gleich oder ungefähr 10) nach der
Wendewinkel-abhängigen Korrektur, die während einer Zeitperiode ΔT
erhalten werden. Im besonderen, unter der Annahme, daß ein die Richtung
der Näherungsgeraden LMV angegebender Richtungsvektor ausgedrückt
wird durch L = (lx, ly, ly) (|L| = 1), wird eine durch die folgenden
Gleichungen (5) dargestellte Gerade bestimmt:
wobei u einen Parameter darstellt, der einen beliebigen Wert besitzen kann,
und Xav, Yav und Zav den Mittelwert von X-Koordinaten, den Mittelwert
von Y-Koordinaten bzw. den Mittelwert von Z-Koordinaten von Reihen von
Echtraumpositionsdaten darstellen. Ferner, falls der Parameter u aus den
Gleichungen (5) eliminiert wird, so wird die folgende Gleichung (5a)
erhalten:
(X - Xav)/lx = (Y - Yav)/ly = (Z - Zav)/lz (5a)
Fig. 16 ist eine Darstellung, die die Näherungsgerade LMV veranschaulicht.
In dieser Figur bezeichnen P(0), P(1), P(2), . . ., P(N - 2), P(N - 1) Punkte, die
durch jeweilige Zeitreihenpositionsdatendatenelemente (Datenpunkte) nach
der Wendewinkel-abhängigen Korrektur angegeben werden. Die Näherungs
gerade LMV wird als eine Gerade bestimmt, die sich durch die mittleren
Positionskoordinaten Pav (= Xav, Yav, Zav) der Zeitreihenpositionsdaten
datenelemente erstreckt und einen Mittelwert der Quadrate der jeweiligen
Distanzen zwischen der Linie und den Datenpunkten minimiert. Ein jedem
P, welches die Koordinaten jedes Datenpunkts (Positionskoordinaten)
angibt, in Klammern hinzugefügter numerischer Wert gibt hier an, daß das
Datendatenelement mit dem numerischen Wert umso älter ist, je größer der
numerische Wert ist. Beispielsweise gibt P(0) die letzten Positions
koordinaten an, gibt P(1) die eine Abtastwiederholperiode früher erhaltenen
Positionskoordinaten an und gibt P(2) die zwei Abtastwiederholperioden
früher erhaltenen Positionskoordinaten an. Das gleiche gilt für D(j), X(j), Y(j),
Z(j) und dergleichen, auf die später Bezug genommen wird.
Im besonderen werden innere Produkte s des Vektors D(j) = (DX(j), DY(j),
DZ(j)) = (X(j) - Xav, Y(j) - Yav, Z(j) - Zav), der sich von den mittleren
Positionskoordinaten Pav zu den Koordinaten P(0) bis P(N - 1) der jeweiligen
Datenpunkte erstreckt, und einem Richtungsvektor L durch die folgende
Gleichung (6) berechnet, und es wird der Richtungsvektor L = (lx, ly, lz),
der die Varianz des inneren Produkts s maximiert, bestimmt:
s = lx . DX(j) + ly . DY(j) + lz . DZ(j) (6)
Eine Varianz-Kovarianz-Matrix V der Koordinaten bei den jeweiligen
Datenpunkten wird durch die folgende Gleichung (7) dargestellt. Da ein
charakteristischer Wert σ für diese Varianz-Kovarianz-Matrix V der Varianz
der inneren Produkte s entspricht, wird ein aus der Matrix berechneter, dem
größten der drei charakteristischen Werte entsprechender charakteristischer
Vektor der Richtungsvektor L, der erhalten werden soll. Es ist zu bemerken,
daß zum Berechnen charakteristischer Werte und eines charakteristischen
Vektors aus der Matrix der Gleichung (7) eine als Jacobische Methode
bekannte Methode verwendet wird (z. B. beschrieben in "Suuchi-Keisan
Handbook (Handbook of Numeral Calculus)" (veröffentlicht durch Ohmsha,
Ltd, Tokio, Japan)).
Als nächstes werden die letzten Positionskoordinaten P(0) = (X(0), Y(0),
Z(0)) und die (N - 1) Abtastwiederholperioden (Zeitperiode ΔT) früher
erhaltenen Positionskoordinaten P(N - 1) = (X(N - 1), Y(N - 1), Z(N - 1))
derart korrigiert, daß deren Positionen auf der Näherungsgeraden LMV
liegen. Im besonderen werden durch Verwendung der Z-Koordinaten Z(0),
Z(N - 1) für die oben erwähnte Gleichung (5a), d. h. durch Verwendung der
folgenden Gleichungen (8) korrigierte Positionskoordinaten Pv(0) = (Xv(0),
Yv(0), Zv(0)) sowie korrigierte Positionskoordinaten Pv(N - 1) = (Xv(N - 1),
Yv(N - 1), Zv(N - 1)) berechnet.
Der zuvor erwähnte Relativbewegungsvektor kann als der Vektor erhalten
werden, der sich von den Positionskoordinaten Pv(N - 1) zu den
Positionskoordinaten Pv(0), berechnet durch die Gleichungen (8) erstreckt.
Wie es oben beschrieben ist, wird eine Näherungsgerade, die die Ortskurve
der Relativbewegung eines Objekts zu dem Kraftfahrzeug 10 nähert,
basierend auf einer Mehrzahl von (N) Datenelementen von Positionsdaten
während einer Überwachungszeitperiode ΔT berechnet, und basierend auf
der Näherungsgeraden ein Relativbewegungsvektor bestimmt. Dies
ermöglicht es, eine nachteilige Wirkung von Positionserfassungsfehlern zu
verringern und die Möglichkeit einer Kollision mit dem Objekt vorab genauer
abzuschätzen.
Es wird nun wieder auf Fig. 3 Bezug genommen. In einem Schritt S24 wird
ein Warnungsbestimmungsprozeß (Fig. 4) ausgeführt durch Bestimmen, ob
es eine Möglichkeit für eine Kollision mit dem erfaßten Objekt gibt oder
nicht, und Ausgeben einer Warnung, falls es eine bedeutende Möglichkeit
für die Kollision gibt.
In einem Schritt S41 in Fig. 4 wird eine Relativgeschwindigkeit Vs in der Z-
Richtung mittels der folgenden Gleichung (9) berechnet. Wenn die folgenden
Ausdrücke (10) und (11) erfüllt sind, so wird bestimmt, daß es eine
Möglichkeit für eine Kollision gibt, und das Programm schreitet zu einem
Schritt S42. Falls der Ausdruck (10) und/oder der Ausdruck (11) nicht erfüllt
ist, wird der Warnungsbestimmungsprozeß beendet.
Vs = (Zv(N - 1) - Zv(0))/ΔT (9)
Zv(0)/Vs ≦ T (10)
|Yv(0)| ≦ H (11)
In den obigen Ausdrücken stellt Zv(0) den zuletzt erfaßten Distanzwert dar
(obwohl v dem Symbol hinzugefügt wurde, um anzugeben, daß das Symbol
einen Wert eines Datenelements darstellt, das unter Verwendung der
Näherungsgeraden LMV korrigiert wurde, besitzt die Z-Koordinate selbst den
gleichen Wert, den sie vor der Korrektur besaß) und stellt Zv(N - 1) einen
eine Zeitperiode ΔT früher erfaßten Distanzwert dar. Ferner stellt T eine
Voreilzeit dar, die dazu vorgesehen ist, ein Bestimmen der Möglichkeit einer
Kollision eine Zeitperiode T vor einer abgeschätzten Kollisionszeit zu
ermöglichen. T ist auf eine Zeitperiode in einem Bereich von z. B. zwei bis
fünf Sekunden eingestellt. Ferner stellt H eine vorbestimmte Höhe zur
Definition einer Reichweite in der Y-Richtung dar, d. h. in der Richtung der
Höhe, die z. B. auf eine Höhe von ungefähr der zweifachen Größe des
Kraftfahrzeugs 10 eingestellt wird.
Die in dem Ausdruck (10) enthaltene Beziehung kann durch Fig. 17
dargestellt werden. Wenn der Relativgeschwindigkeit Vs und der Distanz
Zv(0), die beide erfaßt oder berechnet sind, entsprechende Koordinaten in
einem schraffierten Bereich in der Figur liegen und gleichzeitig |Yv(0)| ≦
H gilt, so werden in den Schritten S42 ff. Bestimmungsprozesse ausgeführt.
In Fig. 18 ist ein Bereich, der durch die Kameras 1R, 1L überwacht werden
kann, durch einen Bereich AR0 dargestellt, der durch ein durch dicke
durchgehende Linien angegebenes äußeres Dreieck bestimmt ist. In dem
Bereich AR0 sind Bereiche AR1, AR2 und AR3 als Warnungsbestimmungs
bereiche gesetzt, die dem Kraftfahrzeug 10 näher sind als Z1 = Vs × T
(Fahrzeuggeschwindigkeit × Voreilzeit). Hierbei ist der Bereich AR1 ein einer
Reichweite entsprechender Bereich, umfassend die Breite α des
Kraftfahrzeugs 10 und Zuschläge β, β (die jeweils einen Wert von z. B. 50
bis 100 cm besitzen), die an entgegengesetzten Seiten des Fahrzeugs 10
vorgesehen sind, mit anderen Worten, ein Bereich mit einer Breite von (α/2
+ β) auf jeder Seite der Mittelachse in der Längsrichtung des Fahrzeugs 10.
Falls das Objekt in diesem Bereich vorhanden bleibt, gibt es eine sehr
bedeutende Möglichkeit einer Kollision mit dem Fahrzeug 10. Daher wird
dieser Bereich nachfolgend als der "Näherungsobjektbestimmungsbereich"
bezeichnet. Die Bereiche AR2, AR3 sind Bereiche, die X-Koordinaten mit
größeren Absolutwerten als diejenigen der X-Koordinaten in dem
Näherungsobjektbestimmungsbereichs aufweisen (Bereiche seitlich
außerhalb des Näherungsobjektbestimmungsbereich). Ein Objekt in einem
dieser Bereiche AR2 und AR3 wird einem nachfolgend beschriebenen
Eintrittsobjektkollisionsbestimmungsprozeß für ein Bestimmen der
Möglichkeit einer potentiellen Kollision eines eintretenden Objekts
unterzogen. Diese Bereiche AR2 und AR3 werden als die "Eintrittsobjekt
bestimmungsbereiche" bezeichnet. Ferner besitzen die obigen Bereiche die
vorbestimmte Höhe H in der Y-Richtung, wie es in dem Ausdruck (11)
angegeben ist.
Die Antwort auf die Frage von Schritt S41 wird bestätigend (Ja), wenn das
Objekt in dem Näherungsobjektbestimmungsbereich AR1 oder in einem der
Eintrittsobjektbestimmungsbereiche AR2, AR3 vorliegt.
In dem nachfolgenden Schritt S42 wird bestimmt, ob das Objekt in dem
Näherungsobjektbestimmungsbereich AR1 vorliegt oder nicht. Falls die
Antwort auf die Frage von Schritt S42 bestätigend (Ja) ist, schreitet das
Programm unmittelbar zu einem Schritt S44, wohingegen in dem Fall, in
dem die Antwort negativ (Nein) ist, in einem Schritt S43 der
Eintrittsobjektkollisionsbestimmungsprozeß zum Bestimmen der Möglichkeit
einer potentiellen Kollision des eintretenden Objekts ausgeführt wird. Im
besonderen wird bestimmt, ob der folgende Ausdruck (12) durch die
Differenz zwischen der letzten x-Koordinate xc(0) (wie oben beschrieben,
wird c dem Symbol hinzugefügt, um anzugeben, daß das Symbol die x-
Koordinate darstellt, welche korrigiert wurde, indem die Mittelposition des
Bilds mit dem Ursprung O des Echtraumkoordinatensystems zur Koinzidenz
gebracht wurde) und einer x-Koordinate xc(N - 1) erfüllt wird oder nicht, die
eine Zeitperiode ΔT früher erhalten wurde. Falls der folgende Ausdruck (12)
erfüllt ist, so wird bestimmt, daß eines bedeutende Möglichkeit für eine
Kollision gibt.
Wie es in Fig. 19 gezeigt ist, falls ein Tier 20 in einer Richtung kommt, die
ungefähr orthogonal zu der Richtung der Fahrt des Kraftfahrzeugs 10 ist,
wenn Xv(N - 1)/Zv(N - 1) = Xv(0)/Zr(0) gilt, mit anderen Worten, wenn ein
Verhältnis Vp/Vs = Xr(N - 1)/Zr(N - 1) gilt (Vp ist eine Geschwindigkeit des
Tiers 20 und Vs ist eine Relativgeschwindigkeit des Fahrzeugs 10), so ist
ein Azimuthwinkel θd des Tiers 20, wie von dem Fahrzeug 10 betrachtet,
konstant. In diesem Fall gibt es eine bedeutende Möglichkeit für eine
Kollision. Der Ausdruck (12) wird zum Bestimmen der Möglichkeit
verwendet, in dem die Breite α des Kraftfahrzeugs 10 berücksichtigt wird.
Im folgenden wird eine Methode zum Ableiten des Ausdrucks (12) mit
Bezug auf Fig. 20 beschrieben.
Wenn eine durch die letzten Positionskoordinaten des Objekts 20 sowie die
eine Zeitperiode ΔT früher erhaltenen Positionskoordinaten desselben sich
erstreckende Gerade, d. h. die Näherungsgerade LMV, eine X-Y-Ebene
(Ebene umfassend die X-Achse und die Y-Achse, d. h. eine Ebene, die eine
dem Vorderende des Fahrzeugs 10 entsprechende Linie (X-Achse) enthält
und sich in einer Richtung orthogonal zu der Fahrtrichtung des Fahrzeugs
10 erstreckt) schneidet, falls die X-Koordinate des Schnittpunkts davon
durch XCL ausgedrückt wird, so sind Kollisionsauftrittsbedingungen, in
denen die Breite α des Fahrzeugs 10 berücksichtigt wird, durch den
folgenden Ausdruck (13) gegeben:
-α/2 ≦ XCL ≦ α/2 (13)
Andererseits ist eine durch Projizieren der Näherungsgeraden LMV auf eine
X-Z-Ebene gebildete Gerade durch die folgende Gleichung (14) gegeben:
Wenn Z = 0, X = XCL in dieser Gleichung substituiert werden, um XCL zu
berechnen, so erhält man die folgende Gleichung (15):
Ferner, da die Echtraumkoordinate X sowie die Koordinate xc auf dem Bild
eine durch die obige Gleichung (3) angegebene Beziehung besitzen, gelten
die folgenden Gleichungen (16) und (17):
Xv(0) = xc(0) × Zv(0)/f (16)
Xv(N - 1) = xc(N - 1) × Zv(N - 1)/f (17)
Wenn die obigen Gleichungen (16) und (17) bei der Gleichung (15)
verwendet werden, so wird die X-Koordinate XCL des Schnittpunkts durch
die folgende Gleichung (18) angegeben:
Durch Substituieren von XCL in den Ausdruck (13) werden die durch den
obigen Ausdruck (12) definierten Bedingungen erhalten.
Es wird wieder auf Fig. 4 Bezug genommen. Wenn bei einem Schritt S43
bestimmt wird, daß es eine bedeutende Möglichkeit für eine Kollision gibt,
so schreitet das Programm zu einem Schritt S44, wohingegen, wenn
bestimmt wird, daß es keine bedeutende Möglichkeit einer Kollision gibt, der
Warnungsbestimmungprozeß beendet wird.
In dem Schritt S44 wird ein Warnungsausgabebestimmungsprozeß
ausgeführt, um zu bestimmen, ob eine Warnung ausgegeben werden soll
oder nicht. Zunächst wird aus einem Ausgangssignal von dem Bremssensor
bestimmt, ob der Fahrer eine Bremsoperation, d. h. eine Betätigung der
Bremse des Fahrzeugs 10, ausführt oder nicht. Falls er die Bremse nicht
betätigt, schreitet das Programm unmittelbar zu einem Schritt S45, um eine
Warnung auszugeben. Falls er die Bremse betätigt, wird eine durch die
Bremsoperation hervorgerufene Verzögerung Gs (als ein positiver Wert)
berechnet. Wenn die Verzögerung Gs gleich oder kleiner als eine
vorbestimmte Schwelle GTH ist, schreitet das Programm zu einem Schritt
S45, wohingegen, wenn Gs < GTH gilt, bestimmt wird, daß eine Kollision
durch die Bremsoperation vermieden werden kann, gefolgt von einer
Beendigung des Warnungsbestimmungsprozesses. Dies ermöglicht es, zu
vermeiden, daß der Fahrer gewarnt wird, wenn er eine angemessene
Bremsoperation ausführt, wodurch verhindert wird, daß der Fahrer durch
unnötige Warnungen gestört wird.
Die vorbestimmte Schwelle GTH wird gemäß der folgenden Gleichung (19)
eingestellt:
Die somit bestimmte Schwelle entspricht einer Bedingung zum Anhalten des
Fahrzeugs 10 in einer Fahrdistanz gleich oder kleiner als die Distanz Zv(0),
unter der Annahme, daß die durch die Bremsoperation hervorgerufene
Verzögerung Gs beibehalten wird.
In einem Schritt S45 wird ein Sprachalarm durch den Lautsprecher 3
erzeugt, und wie es in Fig. 21B gezeigt ist, wird ein z. B. mittels der Kamera
1R erhaltenes Bild auf dem Bildschirm 4a des HUD 4 derart angezeigt, daß
ein sich näherndes Objekt betont angezeigt wird (beispielsweise zur
Betonung in einem Rahmen eingeschlossen). Fig. 21A zeigt einen Zustand,
in dem der Bildschirm 4a nicht angezeigt wird, wohingegen Fig. 21B einen
Zustand zeigt, in dem der Bildschirm 4a angezeigt wird. Dies ermöglicht es
dem Fahrer, ein Objekt, welches eine bedeutende Möglichkeit einer Kollision
mit dem Fahrzeug 10 besitzt, sicher zu erkennen.
Wie es oben beschrieben ist, werden in der vorliegenden Ausführungsform
Positionen eines identischen Objekts in dem Echtraum basierend auf einer
Mehrzahl von Zeitreihendatenelementen von Positionsdaten des Objekts
berechnet und der Bewegungsvektor des Objekts wird basierend auf dessen
Positionen im Echtraum erhalten. Dann wird die Möglichkeit einer Kollision
zwischen dem Objekt und dem Kraftfahrzeug 10 basierend auf dem somit
berechneten Bewegungsvektor derart bestimmt, daß es anders als bei dem
herkömmlichen System möglich ist, das Auftreten einer fehlerhaften
Bestimmung zu vermeiden und damit die Genauigkeit der Bestimmung der
Möglichkeit einer Kollision zu steigern.
Ferner wird die Näherungsgerade LMV, welche die Ortskurve der
Relativbewegung eines Objekts zu dem Kraftfahrzeug 10 nähert, berechnet,
und die Positionskoordinaten des Objekts werden derart korrigiert, daß
Positionen des erfaßten Objekts auf der Näherungsgeraden liegen, und der
Bewegungsvektor des Objekts wird basierend auf den korrigierten
Positionskoordinaten erhalten. Dies ermöglicht es, eine nachteilige Wirkung
von Fehlern beim Erfassen der Positionen des Objekts zu reduzieren und die
Möglichkeit einer Kollision genauer zu bestimmen.
Da die Bestimmung einer potentiellen Kollision unter Berücksichtigung der
Breite α des Fahrzeugs 10 ausgeführt wird, ist es ferner möglich, die
Möglichkeit einer Kollision genau zu bestimmen und eine unnötige Warnung
des Fahrers zu vermeiden.
In der vorliegenden Ausführungsform bildet die Bildverarbeitungseinheit 2
Relativpositionserfassungsmittel, Bewegungsvektorberechnungsmittel,
Bestimmungsmittel und einen Teil von Warnungsmitteln. Insbesondere
entsprechen die in Fig. 3 auftretenden Schritte S14 bis S19 den
Relativpositionerfassungsmitteln, entsprechen die Schritte S20 bis S23 in
der Figur den Bewegungsvektorberechnungsmitteln, entsprechen die
Schritte S41 bis S44 in Fig. 4 den Bestimmungsmitteln, wie auch der
Schritt S45 in Fig. 4 und der Lautsprecher 3 und das HUD 4 den
Warnungsmitteln entsprechen.
Es ist zu bemerken, daß die Erfindung nicht auf die obige Ausführungsform
beschränkt ist, sondern verschiedene Variationen und Modifikationen
möglich sind. Obwohl in der vorliegenden Ausführungsform Infrarot-
Kameras als Abbildungsmittel verwendet werden, ist beispielsweise dies
nicht einschränkend, sondern es könnten TV-Kameras eingesetzt werden,
die zum Erfassen lediglich normaler sichtbarer Strahlung geeignet sind, wie
es in der japanischen Offenlegungs-Patentveröffentlichung (Kokai) Nr. 9-
226490 offenbart ist. Durch die Verwendung von Infrarot-Kameras kann
jedoch der Extraktionsprozeß zum Extrahieren eines Tiers oder eines
fahrenden Fahrzeugs vereinfacht werden und das System unter
Verwendung einer arithmetischen Einheit mit vergleichsweise geringen
Leistungseigenschaften realisiert werden.
Obwohl in der obigen Ausführungsform ein Beispiel gezeigt ist, welches
einen Frontabschnitt der Umgebung eines Kraftfahrzeugs überwacht, so ist
ferner dies nicht beschränkend, sondern das System kann derart konfiguriert
sein, daß irgendwelche Abschnitte der Umgebung in irgendwelchen
Richtungen einschließlich einem rückwärtigen Abschnitt derselben
überwacht werden können.
Für Fachleute ist es ferner verständlich, daß das Vorangegangene eine
bevorzugte Ausführungsform der Erfindung ist daß verschiedene
Veränderungen und Modifikationen vorgenommen werden können, ohne den
Sinn und Bereich derselben zu verlassen.
Zusammenfassend stellt die Erfindung ein Fahrzeugumgebungs
überwachungssystem für ein Kraftfahrzeug bereit, welches geeignet ist,
genau die Bewegung eines in einer Umgebung des Fahrzeugs vorhandenen
Objekts zu erfassen und die Möglichkeit für eine Kollision zwischen dem
Objekt und dem Fahrzeug zu bestimmen, und dadurch den Fahrer
angemessen zu warnen. Eine Relativposition des Objekts zu dem
Kraftfahrzeug wird aus dem mittels einer an dem Fahrzeug angebrachten
Kamera erhaltenen Bild erhalten, um Positionsdaten zu erlangen. Positionen
des Objekts in einem Echtraum werden basierend auf einer Mehrzahl von
Zeitreihendatenelementen der an dem Objekt erfaßten Positionsdaten
berechnet und ein Bewegungsvektor des Objekts wird basierend auf den
Positionen im Echtraum berechnet. Es wird basierend auf dem
Bewegungsvektor bestimmt, ob das Objekt eine bedeutende Möglichkeit für
eine Kollision mit dem Kraftfahrzeug aufweist.
Claims (11)
1. Fahrzeugumgebungsüberwachungssystem für ein Kraftfahrzeug (10),
welches ein in einer Umgebung des Kraftfahrzeugs (10) vorhandenes
Objekt aus einem Bild erfaßt, welches mittels an dem Kraftfahrzeug
(10) angebrachter Abbildungsmittel (1R, 1L, 2) erhalten wird, wobei
das Fahrzeugumgebungsüberwachungssystem umfaßt:
Relativpositionerfassungsmittel (2, S14 bis S19) zum Erfassen einer Relativposition des Objekts zu dem Kraftfahrzeug (10) aus dem mittels der Abbildungsmittel (1R, 1L, 2) erhaltenen Bild, um Positionsdaten zu erlangen;
Bewegungsvektorberechnungsmittel (2, S20 bis S23) zum Berechnen von Positionen des Objekts in einem Echtraum basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt mittels der Relativpositionerfassungsmittel (2, S14 bis S19) erfaßten Positionsdaten, und zum Berechnen eines Bewegungsvektors des Objekts basierend auf den Positionen im Echtraum; und
Bestimmungsmittel (2, S41 bis S44) zum Bestimmen, ob das Objekt eine bedeutende Möglichkeit für eine Kollision mit dem Kraftfahrzeug (10) besitzt oder nicht, basierend auf dem Bewegungsvektor.
Relativpositionerfassungsmittel (2, S14 bis S19) zum Erfassen einer Relativposition des Objekts zu dem Kraftfahrzeug (10) aus dem mittels der Abbildungsmittel (1R, 1L, 2) erhaltenen Bild, um Positionsdaten zu erlangen;
Bewegungsvektorberechnungsmittel (2, S20 bis S23) zum Berechnen von Positionen des Objekts in einem Echtraum basierend auf einer Mehrzahl von Zeitreihendatenelementen der an dem Objekt mittels der Relativpositionerfassungsmittel (2, S14 bis S19) erfaßten Positionsdaten, und zum Berechnen eines Bewegungsvektors des Objekts basierend auf den Positionen im Echtraum; und
Bestimmungsmittel (2, S41 bis S44) zum Bestimmen, ob das Objekt eine bedeutende Möglichkeit für eine Kollision mit dem Kraftfahrzeug (10) besitzt oder nicht, basierend auf dem Bewegungsvektor.
2. Fahrzeugumgebungsüberwachungssystem nach Anspruch 1, wobei
die Bewegungsvektorberechnungsmittel Näherungsgeraden
berechnungsmittel zum Berechnen einer eine Ortskurve der
Relativbewegung des Objekts nähernden Näherungsgeraden (LMV)
sowie Positionsdatenkorrekturmittel zum Korrigieren der Zeitreihen
datenelemente der Positionsdaten unter Verwendung der
Näherungsgeraden (LMV) umfassen, wobei die Bewegungsvektor
berechnungsmittel (2, S20 bis S23) den Bewegungsvektor basierend
auf den korrigierten Zeitreihendatenelementen der Positionsdaten
berechnen.
3. Fahrzeugumgebungsüberwachungssystem nach Anspruch 1 oder 2,
wobei die Bestimmungsmittel (2, S41 bis S44) die Bestimmung unter
Anwendung von Bedingungen zum Bestimmen einer potentiellen
Kollision ausführen, wobei die Bedingungen von einer Breite (α) des
Fahrzeugs (10) abhängig sind.
4. Fahrzeugumgebungsüberwachungssystem nach Anspruch 2 oder 3,
wobei die Näherungsgeradenberechnungsmittel die Näherungsgerade
(LMV) als eine dreidimensionale Gerade umfassend Daten einer Höhe
des Objekts berechnen.
5. Fahrzeugumgebungsüberwachungssystem nach einem der Ansprüche
1 bis 4, wobei die Abbildungsmittel (1R, 1L, 2) zwei Infrarot-Kameras
(1R, 1L) umfassen, die zum Erfassen von Infrarotstrahlung geeignet
sind.
6. Fahrzeugumgebungsüberwachungssystem nach einem der Ansprüche
1 bis 5, wobei die Abbildungsmittel zwei TV-Kameras zum Erfassen
von Infrarotstrahlung oder sichtbarer Strahlung umfassen, und wobei
die Relativpositionerfassungsmittel (2, S14 bis S19) umfassen:
Suchbereichsetzmittel zum Setzen, basierend auf einer Position eines in einer Bildausgabe von einer der zwei TV-Kameras enthaltenen Objektbilds, eines Suchbereichs in einer Bildausgabe von der anderen der zwei TV-Kameras zum Suchen nach einem in der Bildausgabe von der anderen der zwei TV-Kameras enthaltenen korrespondierenden Objektbild,
Korrespondenzobjektbildidentifizierungsmittel zum Identifizieren des korrespondierenden Objektbilds durch Ausführen einer Korrelationsoperation an Daten in dem Suchbereich, und
Distanzberechnungsmittel zum Berechnen einer Distanz von dem Fahrzeug (10) zu dem Objekt basierend auf einer Parallaxe zwischen dem Objektbild und dem korrespondierenden Objektbild.
Suchbereichsetzmittel zum Setzen, basierend auf einer Position eines in einer Bildausgabe von einer der zwei TV-Kameras enthaltenen Objektbilds, eines Suchbereichs in einer Bildausgabe von der anderen der zwei TV-Kameras zum Suchen nach einem in der Bildausgabe von der anderen der zwei TV-Kameras enthaltenen korrespondierenden Objektbild,
Korrespondenzobjektbildidentifizierungsmittel zum Identifizieren des korrespondierenden Objektbilds durch Ausführen einer Korrelationsoperation an Daten in dem Suchbereich, und
Distanzberechnungsmittel zum Berechnen einer Distanz von dem Fahrzeug (10) zu dem Objekt basierend auf einer Parallaxe zwischen dem Objektbild und dem korrespondierenden Objektbild.
7. Fahrzeugumgebungsüberwachungssystem nach Anspruch 6, wobei
die Daten in dem Suchbereich Graustufendaten umfassend eine
Halbtoninformation sind.
8. Fahrzeugumgebungsüberwachungssystem nach Anspruch 7, wobei
die Relativpositionerfassungsmittel Verfolgungsmittel zum Verfolgen
eines Objekts, das sich in dem mittels der Abbildungsmittel (1R, 1L,
2) erhaltenen Bild bewegt, unter Verwendung von Binärdaten, die
durch Binärisieren der Graustufendaten gebildet werden, umfassen.
9. Fahrzeugumgebungsüberwachungssystem nach Anspruch 8, wobei
die Verfolgungsmittel das verfolgte Objekt unter Verwendung von
Lauflängendaten erkennen, die aus den Binärdaten codiert werden.
10. Fahrzeugumgebungsüberwachungssystem nach Anspruch 8 oder 9,
wobei die Verfolgungsmittel eine Identität des verfolgten Objekts
bestimmen basierend auf Positionskoordinaten eines Flächen
schwerpunkts von einem Bild desselben, einer Fläche des Bilds
desselben und einem Seitenverhältnis eines das Bild desselben
umschreibenden Rechtecks.
11. Fahrzeugumgebungsüberwachungssystem nach einem der Ansprüche
1 bis 10, umfassend Warnungsmittel (S45, 3, 4) zum Warnen eines
Fahrers, wenn mittels der Bestimmungsmittel (2, S14 bis S19)
bestimmt wird, daß es eine bedeutende Möglichkeit für eine Kollision
mit dem Objekt gibt, wobei die Warnungsmittel (S45, 3, 4) an einem
Warnen des Fahrers gehindert sind, wenn der Fahrer eine
Bremsoperation ausführt und die durch die Bremsoperation
hervorgerufene Verzögerung hierbei größer als eine vorbestimmte
Schwelle ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11-176727 | 1999-06-23 | ||
JP17672799A JP3515926B2 (ja) | 1999-06-23 | 1999-06-23 | 車両の周辺監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10030421A1 true DE10030421A1 (de) | 2001-01-04 |
DE10030421B4 DE10030421B4 (de) | 2006-10-05 |
Family
ID=16018736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10030421A Expired - Fee Related DE10030421B4 (de) | 1999-06-23 | 2000-06-21 | Fahrzeugumgebungsüberwachungssystem |
Country Status (3)
Country | Link |
---|---|
US (1) | US6327536B1 (de) |
JP (1) | JP3515926B2 (de) |
DE (1) | DE10030421B4 (de) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10030813A1 (de) * | 2000-06-23 | 2002-01-10 | Daimler Chrysler Ag | Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung |
DE10104734A1 (de) * | 2001-02-02 | 2002-08-29 | Daimler Chrysler Ag | Verfahren zur Steuerung technischer Einrichtungen auf Grundlage von Bilddaten |
DE10155742A1 (de) * | 2001-10-31 | 2003-05-22 | Daimler Chrysler Ag | Vorrichtung und Verfahren zur Generierung von räumlich lokalisierten Warn- und Informationssignalen zur vorbewussten Verarbeitung |
DE10161262A1 (de) * | 2000-06-23 | 2003-07-10 | Daimler Chrysler Ag | Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten |
DE10210301A1 (de) * | 2002-03-08 | 2003-09-18 | Valeo Schalter & Sensoren Gmbh | Verfahren und System zur Erfassung von Gegenständen im Nahbereich eines Fahrzeuges |
WO2003107067A2 (de) * | 2002-06-18 | 2003-12-24 | Bayerische Motoren Werke | Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit abstandsabhängiger fusion eines infrarot- und eines visuell-abbilds |
DE10249003A1 (de) * | 2002-10-21 | 2004-05-19 | Sassin, Wolfgang, Dr. | Einrichtung zur Repräsentation eines variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator |
DE10253509A1 (de) * | 2002-11-16 | 2004-06-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges |
DE10300612A1 (de) * | 2003-01-10 | 2004-07-22 | Hella Kg Hueck & Co. | Nachtsichtsystem für Kraftfahrzeuge |
EP1304264A3 (de) * | 2001-10-19 | 2004-10-20 | Ford Global Technologies, Inc. | 360 Grad Sichtsystem für ein Fahrzeug |
DE10261290B4 (de) * | 2001-12-28 | 2007-02-15 | Yazaki Corp. | Im-Fahrzeug-Bildkorrektur-Einrichtung und Nachtfahrt-Sichtfeld-Unterstützungs-Einrichtung |
EP1839964A1 (de) * | 2006-03-27 | 2007-10-03 | Mazda Motor Corporation | Vorrichtung und Verfahren zur Fußgängererfassung sowie Computerprogrammprodukt |
DE10247371B4 (de) * | 2001-10-29 | 2007-11-22 | Honda Giken Kogyo K.K. | Fahrzeuginformation-Bereitstellungsvorrichtung |
DE10228638B4 (de) * | 2001-06-28 | 2007-12-20 | Honda Giken Kogyo K.K. | Fahrzeugzonen-Überwachungsvorrichtung |
US7330568B2 (en) | 2003-03-20 | 2008-02-12 | Honda Motor Co., Ltd. | Device for monitoring around vehicle |
EP1245443A3 (de) * | 2001-03-30 | 2009-08-19 | Honda Giken Kogyo Kabushiki Kaisha | Überwachungssystem der Umgebung eines Fahrzeuges |
DE10301468B4 (de) * | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
DE102005056645B4 (de) * | 2004-11-30 | 2010-09-16 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056616B4 (de) * | 2004-11-30 | 2010-09-23 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056666B4 (de) * | 2004-11-30 | 2010-09-30 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056429B4 (de) * | 2004-11-30 | 2010-09-30 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
US7834905B2 (en) | 2002-06-18 | 2010-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image |
DE102005057090B4 (de) * | 2004-11-30 | 2011-02-03 | Honda Motor Co., Ltd. | Vorrichtung zur und Verfahren der Bildextraktion |
DE102005056647B4 (de) * | 2004-11-30 | 2011-02-03 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056664B4 (de) * | 2004-11-30 | 2011-02-10 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056665B4 (de) * | 2004-11-30 | 2011-03-17 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
CN102682571A (zh) * | 2011-01-28 | 2012-09-19 | 索尼公司 | 信息处理装置、报警方法和程序 |
DE102012024874A1 (de) * | 2012-12-19 | 2014-06-26 | Audi Ag | Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche |
DE102013013253A1 (de) * | 2013-08-09 | 2015-02-12 | Connaught Electronics Ltd. | Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs abhängig von einer ermittelten Zeit bis zur Kollision, Kamerasystem und Kraftfahrzeug |
WO2020229515A1 (de) | 2019-05-14 | 2020-11-19 | Eyyes Gmbh | Verfahren zum anzeigen und/oder berechnen einer relativbewegung |
DE10346573B4 (de) | 2003-10-07 | 2021-07-29 | Robert Bosch Gmbh | Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen |
Families Citing this family (155)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
JP2001195699A (ja) * | 2000-01-14 | 2001-07-19 | Yazaki Corp | 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体 |
JP2001216519A (ja) * | 2000-02-04 | 2001-08-10 | Fujitsu Ltd | 交通監視装置 |
DE10007501A1 (de) * | 2000-02-18 | 2001-09-13 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Erfassung und Überwachung einer Mehrzahl von vorausfahrenden Fahrzeugen |
JP3867505B2 (ja) * | 2001-03-19 | 2007-01-10 | 日産自動車株式会社 | 障害物検出装置 |
US7146260B2 (en) | 2001-04-24 | 2006-12-05 | Medius, Inc. | Method and apparatus for dynamic configuration of multiprocessor system |
US10298735B2 (en) | 2001-04-24 | 2019-05-21 | Northwater Intellectual Property Fund L.P. 2 | Method and apparatus for dynamic configuration of a multiprocessor health data system |
JP4480299B2 (ja) * | 2001-06-21 | 2010-06-16 | 富士通マイクロエレクトロニクス株式会社 | 移動体を含む画像の処理方法及び装置 |
US6615137B2 (en) * | 2001-06-26 | 2003-09-02 | Medius, Inc. | Method and apparatus for transferring information between vehicles |
JP4713033B2 (ja) * | 2001-06-29 | 2011-06-29 | 本田技研工業株式会社 | 車両周辺環境表示装置 |
JP3607994B2 (ja) * | 2001-11-12 | 2005-01-05 | トヨタ自動車株式会社 | 車両用周辺監視装置 |
JP3878008B2 (ja) * | 2001-12-07 | 2007-02-07 | 株式会社日立製作所 | 車両用走行制御装置及び地図情報データ記録媒体 |
WO2003059697A1 (en) * | 2002-01-16 | 2003-07-24 | Autoliv Development Ab | A camera arrangement |
US20030222982A1 (en) * | 2002-03-28 | 2003-12-04 | Hamdan Majil M. | Integrated video/data information system and method for application to commercial vehicles to enhance driver awareness |
JP3939580B2 (ja) * | 2002-04-12 | 2007-07-04 | 本田技研工業株式会社 | 障害物警報装置 |
US7178049B2 (en) | 2002-04-24 | 2007-02-13 | Medius, Inc. | Method for multi-tasking multiple Java virtual machines in a secure environment |
JP2003322521A (ja) * | 2002-04-26 | 2003-11-14 | Honda Motor Co Ltd | 画像認識装置 |
JP3776094B2 (ja) * | 2002-05-09 | 2006-05-17 | 松下電器産業株式会社 | 監視装置、監視方法および監視用プログラム |
JP3936313B2 (ja) * | 2002-07-02 | 2007-06-27 | 本田技研工業株式会社 | 画像認識装置 |
US7221777B2 (en) | 2002-07-02 | 2007-05-22 | Honda Giken Kogyo Kabushiki Kaisha | Image analysis device |
DE10242262A1 (de) * | 2002-09-12 | 2004-03-25 | Daimlerchrysler Ag | Stereo-Nachtsichtsystem für Fahrzeuge |
JP3999088B2 (ja) * | 2002-09-18 | 2007-10-31 | 本田技研工業株式会社 | 障害物検出装置 |
US6917305B2 (en) * | 2002-09-26 | 2005-07-12 | Ford Global Technologies, Llc | Vehicle collision severity estimation system |
JP4275378B2 (ja) * | 2002-09-27 | 2009-06-10 | 富士重工業株式会社 | ステレオ画像処理装置およびステレオ画像処理方法 |
DE10253510A1 (de) * | 2002-11-16 | 2004-05-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug |
GB2395693A (en) * | 2002-11-28 | 2004-06-02 | Autoliv Dev | A motor vehicle bonnet lifting device |
JP3791490B2 (ja) * | 2002-12-18 | 2006-06-28 | トヨタ自動車株式会社 | 運転補助システム及び装置 |
JP3922173B2 (ja) * | 2002-12-18 | 2007-05-30 | トヨタ自動車株式会社 | 運転補助システム及び装置 |
US20070035625A9 (en) * | 2002-12-20 | 2007-02-15 | Hamdan Majed M | Vehicle video processing system |
JP2004212658A (ja) * | 2002-12-27 | 2004-07-29 | Sumitomo Electric Ind Ltd | 画像表示システム、画像表示方法及び画像処理装置 |
JP4160848B2 (ja) * | 2003-03-20 | 2008-10-08 | 本田技研工業株式会社 | 車両用衝突物保護装置 |
GB2400353A (en) * | 2003-04-09 | 2004-10-13 | Autoliv Dev | Pedestrian detecting system provided on a motor vehicle |
JP4244684B2 (ja) * | 2003-04-10 | 2009-03-25 | 三菱自動車工業株式会社 | 車両用監視装置 |
JP4176558B2 (ja) * | 2003-06-06 | 2008-11-05 | 本田技研工業株式会社 | 車両周辺表示装置 |
JP3991928B2 (ja) * | 2003-06-17 | 2007-10-17 | 日産自動車株式会社 | 車両用接触回避制御装置 |
JP3987013B2 (ja) | 2003-09-01 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
DE10342128A1 (de) * | 2003-09-12 | 2005-04-07 | Valeo Schalter Und Sensoren Gmbh | Verfahren und Abstandserfassungsvorrichtung zum Bestimmen des Abstandes zwischen mindestens einer Sensoreinrichtung und einem Objekt |
JP3941770B2 (ja) * | 2003-10-28 | 2007-07-04 | 株式会社デンソー | 衝突可能性判定装置 |
US20050093975A1 (en) * | 2003-10-30 | 2005-05-05 | Hamdan Majed M. | Adaptation of vision systems for commerical vehicles |
JP4206928B2 (ja) * | 2004-01-19 | 2009-01-14 | 株式会社デンソー | 衝突可能性判定装置 |
JP4052650B2 (ja) | 2004-01-23 | 2008-02-27 | 株式会社東芝 | 障害物検出装置、方法及びプログラム |
JP4628683B2 (ja) * | 2004-02-13 | 2011-02-09 | 富士重工業株式会社 | 歩行者検出装置、及び、その歩行者検出装置を備えた車両用運転支援装置 |
JP2005306320A (ja) * | 2004-04-26 | 2005-11-04 | Mitsubishi Motors Corp | 制動制御装置 |
US7561720B2 (en) * | 2004-04-30 | 2009-07-14 | Visteon Global Technologies, Inc. | Single camera system and method for range and lateral position measurement of a preceding vehicle |
JP3987057B2 (ja) | 2004-06-14 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
SG140462A1 (en) * | 2004-06-25 | 2008-03-28 | Singapore Polytechnic | A monitoring and warning system |
JP4069919B2 (ja) * | 2004-09-28 | 2008-04-02 | 日産自動車株式会社 | 衝突判定装置、および方法 |
US7337650B1 (en) | 2004-11-09 | 2008-03-04 | Medius Inc. | System and method for aligning sensors on a vehicle |
JP4234092B2 (ja) | 2004-11-30 | 2009-03-04 | 本田技研工業株式会社 | 画像処理装置 |
JP4461091B2 (ja) | 2004-11-30 | 2010-05-12 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
US7590263B2 (en) | 2004-11-30 | 2009-09-15 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
JP4130434B2 (ja) | 2004-11-30 | 2008-08-06 | 本田技研工業株式会社 | 撮像装置の異常検知装置 |
JP4130435B2 (ja) | 2004-11-30 | 2008-08-06 | 本田技研工業株式会社 | 撮像装置の異常検知装置 |
JP4032052B2 (ja) | 2004-11-30 | 2008-01-16 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
JP4242334B2 (ja) | 2004-11-30 | 2009-03-25 | 本田技研工業株式会社 | 車両周辺監視装置 |
US7483549B2 (en) | 2004-11-30 | 2009-01-27 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring apparatus |
US7403639B2 (en) | 2004-11-30 | 2008-07-22 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring apparatus |
US7599521B2 (en) | 2004-11-30 | 2009-10-06 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7561721B2 (en) * | 2005-02-02 | 2009-07-14 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
ES2259543B1 (es) * | 2005-02-04 | 2007-11-16 | Fico Mirrors, S.A. | Sistema para la deteccion de objetos en una zona exterior frontal de un vehiculos, aplicable a vehiculos industriales. |
US7130745B2 (en) * | 2005-02-10 | 2006-10-31 | Toyota Technical Center Usa, Inc. | Vehicle collision warning system |
JP4657765B2 (ja) * | 2005-03-09 | 2011-03-23 | 三菱自動車工業株式会社 | ノーズビューシステム |
FR2887669A3 (fr) * | 2005-06-27 | 2006-12-29 | Renault Sas | Procede et systeme embarque de prediction de choc entre un vehicule et un pieton |
US20070031008A1 (en) * | 2005-08-02 | 2007-02-08 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US8519837B2 (en) * | 2005-09-08 | 2013-08-27 | Johnson Controls Gmbh | Driver assistance device for a vehicle and a method for visualizing the surroundings of a vehicle |
JP2007087203A (ja) * | 2005-09-22 | 2007-04-05 | Sumitomo Electric Ind Ltd | 衝突判定システム、衝突判定方法及びコンピュータプログラム |
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP4970926B2 (ja) * | 2006-01-16 | 2012-07-11 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4426535B2 (ja) | 2006-01-17 | 2010-03-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
US8194132B2 (en) | 2006-01-20 | 2012-06-05 | Old World Industries, Llc | System for monitoring an area adjacent a vehicle |
JP4456086B2 (ja) | 2006-03-09 | 2010-04-28 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4884806B2 (ja) * | 2006-03-14 | 2012-02-29 | 本田技研工業株式会社 | 車両周辺監視システム |
US7671725B2 (en) | 2006-03-24 | 2010-03-02 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program |
JP4762774B2 (ja) * | 2006-04-07 | 2011-08-31 | 本田技研工業株式会社 | 測距装置および車両の周辺監視装置 |
JP4173901B2 (ja) | 2006-05-19 | 2008-10-29 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4173902B2 (ja) | 2006-05-19 | 2008-10-29 | 本田技研工業株式会社 | 車両周辺監視装置 |
US7786898B2 (en) | 2006-05-31 | 2010-08-31 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
JP4826355B2 (ja) * | 2006-06-20 | 2011-11-30 | 日産自動車株式会社 | 車両周囲表示装置 |
JP4862516B2 (ja) * | 2006-06-26 | 2012-01-25 | トヨタ自動車株式会社 | 車両の減速制御装置 |
SG139579A1 (en) * | 2006-07-20 | 2008-02-29 | Cyclect Electrical Engineering | A foreign object detection system |
US20080059069A1 (en) * | 2006-08-30 | 2008-03-06 | Trutna William R | System and method for detecting an object in the path of a vehicle |
JP4267657B2 (ja) | 2006-10-31 | 2009-05-27 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP2008197720A (ja) * | 2007-02-08 | 2008-08-28 | Mitsubishi Electric Corp | 歩行者警報装置 |
JP4496383B2 (ja) * | 2007-04-03 | 2010-07-07 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム |
JP4315991B2 (ja) | 2007-04-20 | 2009-08-19 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム |
JP5145599B2 (ja) | 2007-04-27 | 2013-02-20 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
JP5083841B2 (ja) | 2007-04-27 | 2012-11-28 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
US20080291050A1 (en) * | 2007-05-24 | 2008-11-27 | Kerry Lebreton | Wildlife alert system |
US7831391B2 (en) * | 2007-06-12 | 2010-11-09 | Palo Alto Research Center Incorporated | Using segmented cones for fast, conservative assessment of collision risk |
US20090005948A1 (en) * | 2007-06-28 | 2009-01-01 | Faroog Abdel-Kareem Ibrahim | Low speed follow operation and control strategy |
JP4470067B2 (ja) | 2007-08-07 | 2010-06-02 | 本田技研工業株式会社 | 対象物種別判定装置、車両 |
ES2381761T3 (es) * | 2007-09-14 | 2012-05-31 | Saab Ab | Procedimiento, programa de ordenador y dispositivo para determinar el riesgo de una colisión en el aire |
JP4475308B2 (ja) * | 2007-09-18 | 2010-06-09 | 株式会社デンソー | 表示装置 |
DE102009004432B4 (de) * | 2008-01-25 | 2016-12-08 | Denso Corporation | Kraftfahrzeuganzeigevorrichtung zum Anzeigen eines ein vorderes Hindernis umkreisenden Bildflecks |
JPWO2009099022A1 (ja) * | 2008-02-04 | 2011-05-26 | コニカミノルタホールディングス株式会社 | 周辺監視装置及び周辺監視方法 |
JP4359710B2 (ja) | 2008-02-04 | 2009-11-04 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法 |
JP4521642B2 (ja) | 2008-02-13 | 2010-08-11 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視プログラム |
JP4486997B2 (ja) | 2008-04-24 | 2010-06-23 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4377439B1 (ja) * | 2008-06-12 | 2009-12-02 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4995778B2 (ja) * | 2008-07-08 | 2012-08-08 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4644273B2 (ja) | 2008-07-15 | 2011-03-02 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4631096B2 (ja) * | 2008-10-20 | 2011-02-16 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4410292B1 (ja) | 2008-10-20 | 2010-02-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP2010108264A (ja) | 2008-10-30 | 2010-05-13 | Honda Motor Co Ltd | 車両周辺監視装置 |
US7991551B2 (en) * | 2008-11-06 | 2011-08-02 | Ford Global Technologies, Llc | System and method for determining a collision status of a nearby vehicle |
US7991552B2 (en) * | 2008-11-06 | 2011-08-02 | Ford Global Technologies, Llc | System and method for determining a side-impact collision status of a nearby vehicle |
JP4815488B2 (ja) | 2008-12-22 | 2011-11-16 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP5198346B2 (ja) | 2009-04-23 | 2013-05-15 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP4733756B2 (ja) | 2009-04-28 | 2011-07-27 | 本田技研工業株式会社 | 車両周辺監視装置 |
US9358924B1 (en) | 2009-05-08 | 2016-06-07 | Eagle Harbor Holdings, Llc | System and method for modeling advanced automotive safety systems |
US8417490B1 (en) | 2009-05-11 | 2013-04-09 | Eagle Harbor Holdings, Llc | System and method for the configuration of an automotive vehicle with modeled sensors |
JP5353455B2 (ja) * | 2009-06-09 | 2013-11-27 | コニカミノルタ株式会社 | 周辺監視装置 |
JP2009295184A (ja) * | 2009-09-16 | 2009-12-17 | Mitsubishi Electric Corp | 歩行者警報装置 |
JP4868055B2 (ja) * | 2009-11-04 | 2012-02-01 | 株式会社デンソー | 表示装置 |
JP5503728B2 (ja) * | 2010-03-01 | 2014-05-28 | 本田技研工業株式会社 | 車両の周辺監視装置 |
WO2011108218A1 (ja) | 2010-03-01 | 2011-09-09 | 本田技研工業株式会社 | 車両の周辺監視装置 |
WO2011108198A1 (ja) | 2010-03-03 | 2011-09-09 | 本田技研工業株式会社 | 車両の周辺監視装置 |
EP2546819B1 (de) | 2010-04-19 | 2015-06-03 | Honda Motor Co., Ltd. | Vorrichtung zur überwachung der umgebung eines fahrzeugs |
JP5687702B2 (ja) | 2010-08-31 | 2015-03-18 | 本田技研工業株式会社 | 車両周辺監視装置 |
EP2642463A4 (de) | 2010-11-16 | 2014-06-25 | Honda Motor Co Ltd | Umgebungsüberwachungsvorrichtung für fahrzeuge |
CN107423675B (zh) * | 2010-12-07 | 2021-07-16 | 无比视视觉技术有限公司 | 对陷阱和行人进行前部碰撞警告的先进警告系统 |
JP5603835B2 (ja) | 2011-06-27 | 2014-10-08 | クラリオン株式会社 | 車両周囲監視装置 |
EP2711912A4 (de) * | 2011-09-28 | 2015-04-22 | Honda Motor Co Ltd | Biometrische vorrichtung |
JP5857183B2 (ja) * | 2011-10-20 | 2016-02-10 | パナソニックIpマネジメント株式会社 | ジェスチャー解読装置 |
CN103167276A (zh) * | 2011-12-19 | 2013-06-19 | 富泰华工业(深圳)有限公司 | 车辆监控系统和车辆监控方法 |
US8886392B1 (en) | 2011-12-21 | 2014-11-11 | Intellectual Ventures Fund 79 Llc | Methods, devices, and mediums associated with managing vehicle maintenance activities |
JP5877208B2 (ja) | 2011-12-27 | 2016-03-02 | 本田技研工業株式会社 | 運転支援システム |
US10008002B2 (en) * | 2012-02-28 | 2018-06-26 | NXP Canada, Inc. | Single-camera distance estimation |
JP5480925B2 (ja) | 2012-03-05 | 2014-04-23 | 本田技研工業株式会社 | 車両周辺監視装置 |
US8948954B1 (en) * | 2012-03-15 | 2015-02-03 | Google Inc. | Modifying vehicle behavior based on confidence in lane estimation |
JP5898001B2 (ja) * | 2012-06-26 | 2016-04-06 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP5592441B2 (ja) | 2012-06-26 | 2014-09-17 | 本田技研工業株式会社 | 配光制御装置 |
US9672431B2 (en) * | 2012-11-09 | 2017-06-06 | Analog Devices Global | Object detection |
US9063548B1 (en) | 2012-12-19 | 2015-06-23 | Google Inc. | Use of previous detections for lane marker detection |
US9081385B1 (en) | 2012-12-21 | 2015-07-14 | Google Inc. | Lane boundary detection using images |
JP5700263B2 (ja) * | 2013-01-22 | 2015-04-15 | 株式会社デンソー | 衝突傷害予測システム |
JP6165251B2 (ja) | 2013-08-01 | 2017-07-19 | 本田技研工業株式会社 | 車両周辺監視装置 |
CN104192065A (zh) * | 2014-08-20 | 2014-12-10 | 刘健萍 | 一种可辨监控对象的汽车四周监控装置 |
KR102118066B1 (ko) * | 2014-08-20 | 2020-06-03 | 현대모비스 주식회사 | 주행 안전을 위한 차량 제어방법 |
KR101601475B1 (ko) * | 2014-08-25 | 2016-03-21 | 현대자동차주식회사 | 야간 주행 시 차량의 보행자 검출장치 및 방법 |
US9409519B2 (en) * | 2014-08-27 | 2016-08-09 | Toyota Jidosha Kabushiki Kaisha | Generating spatial information for a heads-up display |
CN104442569B (zh) * | 2014-11-14 | 2016-11-02 | 东风汽车有限公司 | 一种汽车监控影像生成方法及系统 |
US20170270378A1 (en) * | 2016-03-16 | 2017-09-21 | Haike Guan | Recognition device, recognition method of object, and computer-readable recording medium |
JP6516298B2 (ja) * | 2016-05-06 | 2019-05-22 | トヨタ自動車株式会社 | 情報表示装置 |
EP3544293B1 (de) * | 2016-11-21 | 2024-02-28 | Kyocera Corporation | Informationsverarbeitungsvorrichtung, bildgebungsvorrichtung und anzeigesystem |
KR20180069147A (ko) * | 2016-12-14 | 2018-06-25 | 만도헬라일렉트로닉스(주) | 차량의 보행자 경고장치 |
DE102017201936A1 (de) * | 2017-02-08 | 2018-08-09 | Robert Bosch Gmbh | Verfahren zur Reduzierung eines Kollisionsschadens |
US10421436B2 (en) * | 2017-03-24 | 2019-09-24 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for surveillance of a vehicle using camera images |
EP3531337B1 (de) * | 2018-02-21 | 2022-03-16 | Honda Research Institute Europe GmbH | Auf optischem fluss basierende unterstützung für betrieb und koordination in dynamischen umgebungen |
CN110072064B (zh) * | 2019-06-12 | 2020-07-03 | 睿魔智能科技(深圳)有限公司 | 一种图像拍摄方法、装置、设备以及存储介质 |
EP3782840B1 (de) * | 2019-08-20 | 2023-08-02 | Volvo Car Corporation | Hilfsmittel für einen fahrer mit beeinträchtigtem sichtfeld |
WO2023121688A1 (en) * | 2021-12-22 | 2023-06-29 | Harman International Industries, Incorporated | System and method for displaying images to an augmented reality heads-up display rendering |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3830790A1 (de) * | 1988-09-09 | 1990-03-15 | Freund Eckhard | Verfahren und vorrichtung zur automatischen kollisionsvermeidung fuer automatisch fuehrbare fahrzeuge |
FR2668591A1 (fr) * | 1990-10-30 | 1992-04-30 | Philips Electronique Lab | Dispositif de mesure d'efficacite de mouvement. |
DE4115747C2 (de) * | 1991-05-14 | 1998-02-26 | Hipp Johann F | Vorrichtung und Verfahren zur Situations-, Hindernis- und Objekterkennung |
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
JPH05312819A (ja) * | 1992-05-14 | 1993-11-26 | N T T Data Tsushin Kk | 移動物体の速度検出装置 |
JP3263699B2 (ja) * | 1992-12-22 | 2002-03-04 | 三菱電機株式会社 | 走行環境監視装置 |
DE4309606A1 (de) * | 1993-03-24 | 1994-09-29 | Bayerische Motoren Werke Ag | Verfahren zum Vermeiden von Kollisionen von Kraftfahrzeugen |
US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
US5638116A (en) * | 1993-09-08 | 1997-06-10 | Sumitomo Electric Industries, Ltd. | Object recognition apparatus and method |
JPH07105497A (ja) * | 1993-10-05 | 1995-04-21 | Mitsubishi Electric Corp | 車間距離検知装置 |
JP3235330B2 (ja) * | 1994-03-25 | 2001-12-04 | 株式会社デンソー | 車両の障害物警報装置 |
US5754099A (en) * | 1994-03-25 | 1998-05-19 | Nippondenso Co., Ltd. | Obstacle warning system for a vehicle |
JP3638323B2 (ja) * | 1994-10-20 | 2005-04-13 | 本田技研工業株式会社 | 車両の障害物検出装置 |
JP3400875B2 (ja) * | 1994-10-20 | 2003-04-28 | 本田技研工業株式会社 | 移動体の検出装置 |
JPH08138057A (ja) * | 1994-11-04 | 1996-05-31 | Fuji Electric Co Ltd | 物体監視装置 |
JPH08147599A (ja) * | 1994-11-25 | 1996-06-07 | Koyo Seiko Co Ltd | 障害物接近状態検出装置 |
DE19534230A1 (de) * | 1995-09-15 | 1997-03-20 | Daimler Benz Ag | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
JP3727400B2 (ja) | 1996-02-22 | 2005-12-14 | 株式会社日本自動車部品総合研究所 | 横断者の検出装置 |
JPH09249083A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 移動体識別装置および方法 |
JPH1011585A (ja) * | 1996-06-20 | 1998-01-16 | Toyota Motor Corp | 物体検出装置 |
JP4082471B2 (ja) * | 1997-04-04 | 2008-04-30 | 富士重工業株式会社 | 車外監視装置 |
-
1999
- 1999-06-23 JP JP17672799A patent/JP3515926B2/ja not_active Expired - Fee Related
-
2000
- 2000-06-09 US US09/590,980 patent/US6327536B1/en not_active Expired - Lifetime
- 2000-06-21 DE DE10030421A patent/DE10030421B4/de not_active Expired - Fee Related
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6774772B2 (en) | 2000-06-23 | 2004-08-10 | Daimlerchrysler Ag | Attention control for operators of technical equipment |
DE10161262B4 (de) * | 2000-06-23 | 2006-04-20 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten |
DE10161262A1 (de) * | 2000-06-23 | 2003-07-10 | Daimler Chrysler Ag | Aufmerksamkeitsteurung für Bediener einer technischen Einrichtung, basierend auf Infrarot-Bilddaten |
DE10030813A1 (de) * | 2000-06-23 | 2002-01-10 | Daimler Chrysler Ag | Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung |
DE10030813B4 (de) * | 2000-06-23 | 2004-02-12 | Daimlerchrysler Ag | Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung |
DE10104734A1 (de) * | 2001-02-02 | 2002-08-29 | Daimler Chrysler Ag | Verfahren zur Steuerung technischer Einrichtungen auf Grundlage von Bilddaten |
EP1245443A3 (de) * | 2001-03-30 | 2009-08-19 | Honda Giken Kogyo Kabushiki Kaisha | Überwachungssystem der Umgebung eines Fahrzeuges |
DE10228638B4 (de) * | 2001-06-28 | 2007-12-20 | Honda Giken Kogyo K.K. | Fahrzeugzonen-Überwachungsvorrichtung |
US8144195B2 (en) | 2001-06-28 | 2012-03-27 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle zone monitoring apparatus |
EP1304264A3 (de) * | 2001-10-19 | 2004-10-20 | Ford Global Technologies, Inc. | 360 Grad Sichtsystem für ein Fahrzeug |
DE10247371B4 (de) * | 2001-10-29 | 2007-11-22 | Honda Giken Kogyo K.K. | Fahrzeuginformation-Bereitstellungsvorrichtung |
DE10155742B4 (de) * | 2001-10-31 | 2004-07-22 | Daimlerchrysler Ag | Vorrichtung und Verfahren zur Generierung von räumlich lokalisierten Warn- und Informationssignalen zur vorbewussten Verarbeitung |
DE10155742A1 (de) * | 2001-10-31 | 2003-05-22 | Daimler Chrysler Ag | Vorrichtung und Verfahren zur Generierung von räumlich lokalisierten Warn- und Informationssignalen zur vorbewussten Verarbeitung |
DE10261290B4 (de) * | 2001-12-28 | 2007-02-15 | Yazaki Corp. | Im-Fahrzeug-Bildkorrektur-Einrichtung und Nachtfahrt-Sichtfeld-Unterstützungs-Einrichtung |
US7433496B2 (en) | 2001-12-28 | 2008-10-07 | Yazaki Corportion | In-vehicle image correcting device and night driving view field supporting device |
DE10301468B4 (de) * | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
DE10210301A1 (de) * | 2002-03-08 | 2003-09-18 | Valeo Schalter & Sensoren Gmbh | Verfahren und System zur Erfassung von Gegenständen im Nahbereich eines Fahrzeuges |
WO2003107067A3 (de) * | 2002-06-18 | 2004-04-08 | Bayerische Motoren Werke Ag | Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit abstandsabhängiger fusion eines infrarot- und eines visuell-abbilds |
WO2003107067A2 (de) * | 2002-06-18 | 2003-12-24 | Bayerische Motoren Werke | Verfahren und vorrichtung zur sichtbarmachung der umgebung eines fahrzeugs mit abstandsabhängiger fusion eines infrarot- und eines visuell-abbilds |
US7834905B2 (en) | 2002-06-18 | 2010-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for visualizing the environment of a vehicle with a distance-dependent merging of an infrared and a visual image |
EP1788420A3 (de) * | 2002-06-18 | 2008-04-02 | Bayerische Motorenwerke Aktiengesellschaft | Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit Fusion eines Infrarot- und eines Visuell-Abbilds |
EP1775619A3 (de) * | 2002-06-18 | 2008-04-02 | Bayerische Motorenwerke Aktiengesellschaft | Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds |
DE10249003B4 (de) * | 2002-10-21 | 2006-09-07 | Sassin, Wolfgang, Dr. | Verfahren und Vorrichtung zur Signalisierung eines zeitlich und räumlich variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator |
DE10249003A1 (de) * | 2002-10-21 | 2004-05-19 | Sassin, Wolfgang, Dr. | Einrichtung zur Repräsentation eines variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator |
DE10253509A1 (de) * | 2002-11-16 | 2004-06-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges |
DE10300612A1 (de) * | 2003-01-10 | 2004-07-22 | Hella Kg Hueck & Co. | Nachtsichtsystem für Kraftfahrzeuge |
US7330568B2 (en) | 2003-03-20 | 2008-02-12 | Honda Motor Co., Ltd. | Device for monitoring around vehicle |
DE102004012811B4 (de) * | 2003-03-20 | 2009-02-12 | Honda Motor Co., Ltd. | Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs |
DE10346573B4 (de) | 2003-10-07 | 2021-07-29 | Robert Bosch Gmbh | Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen |
DE102005056645B4 (de) * | 2004-11-30 | 2010-09-16 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056616B4 (de) * | 2004-11-30 | 2010-09-23 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056666B4 (de) * | 2004-11-30 | 2010-09-30 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056429B4 (de) * | 2004-11-30 | 2010-09-30 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005057090B4 (de) * | 2004-11-30 | 2011-02-03 | Honda Motor Co., Ltd. | Vorrichtung zur und Verfahren der Bildextraktion |
DE102005056647B4 (de) * | 2004-11-30 | 2011-02-03 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056664B4 (de) * | 2004-11-30 | 2011-02-10 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
DE102005056665B4 (de) * | 2004-11-30 | 2011-03-17 | Honda Motor Co., Ltd. | Fahrzeugumgebungsüberwachungsvorrichtung |
EP1839964A1 (de) * | 2006-03-27 | 2007-10-03 | Mazda Motor Corporation | Vorrichtung und Verfahren zur Fußgängererfassung sowie Computerprogrammprodukt |
EP2668553A1 (de) * | 2011-01-28 | 2013-12-04 | Sony Corporation | Informationsverarbeitungsvorrichtung, alarmverfahren und programm |
EP2668553A4 (de) * | 2011-01-28 | 2014-08-20 | Sony Corp | Informationsverarbeitungsvorrichtung, alarmverfahren und programm |
CN102682571A (zh) * | 2011-01-28 | 2012-09-19 | 索尼公司 | 信息处理装置、报警方法和程序 |
DE102012024874A1 (de) * | 2012-12-19 | 2014-06-26 | Audi Ag | Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche |
DE102012024874B4 (de) * | 2012-12-19 | 2014-07-10 | Audi Ag | Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche |
DE102013013253A1 (de) * | 2013-08-09 | 2015-02-12 | Connaught Electronics Ltd. | Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs abhängig von einer ermittelten Zeit bis zur Kollision, Kamerasystem und Kraftfahrzeug |
WO2020229515A1 (de) | 2019-05-14 | 2020-11-19 | Eyyes Gmbh | Verfahren zum anzeigen und/oder berechnen einer relativbewegung |
US11745655B2 (en) | 2019-05-14 | 2023-09-05 | Eyyes Gmbh | Method for displaying and/or calculating a relative movement |
Also Published As
Publication number | Publication date |
---|---|
JP2001006096A (ja) | 2001-01-12 |
US6327536B1 (en) | 2001-12-04 |
JP3515926B2 (ja) | 2004-04-05 |
DE10030421B4 (de) | 2006-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10030421B4 (de) | Fahrzeugumgebungsüberwachungssystem | |
DE10251880B4 (de) | Bilderkennungsvorrichtung | |
DE10033599B4 (de) | Positionserfassungsvorrichtung | |
DE10301469B4 (de) | Infrarotbildverarbeitungsvorrichtung | |
DE102005026876B4 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung | |
DE10247371B4 (de) | Fahrzeuginformation-Bereitstellungsvorrichtung | |
DE102005056645B4 (de) | Fahrzeugumgebungsüberwachungsvorrichtung | |
DE10228638B4 (de) | Fahrzeugzonen-Überwachungsvorrichtung | |
DE69932021T2 (de) | Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge | |
DE10026586B4 (de) | Objekterfassungssystem | |
DE10301468B4 (de) | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs | |
DE102009005860B4 (de) | Umgebungs-Erkennungssystem | |
DE102005026875B4 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung | |
DE102007002419B4 (de) | Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm | |
DE102005056429B4 (de) | Fahrzeugumgebungsüberwachungsvorrichtung | |
DE102007014012B4 (de) | Fahrzeugumgebung-Überwachungsgerät, Fahrzeugumgebung-Überwachungsverfahren und Fahrzeugumgebung-Überwachungsprogramm | |
DE102005056647B4 (de) | Fahrzeugumgebungsüberwachungsvorrichtung | |
DE102007019491B4 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm | |
DE102005056616B4 (de) | Fahrzeugumgebungsüberwachungsvorrichtung | |
DE10102884A1 (de) | Seitenüberwachungsvorrichtung für ein Kraftfahrzeug | |
DE10246228A1 (de) | Vorrichtung zum Überwachen eines an ein Fahrzeug angrenzenden Bereichs | |
DE4332612A1 (de) | Außenansichts-Überwachungsverfahren für Kraftfahrzeuge | |
DE102018212655A1 (de) | Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern | |
DE102017218366A1 (de) | Verfahren und system zur fussgängererfassung in einem fahrzeug | |
DE112013003276T5 (de) | Objekterkennungseinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R084 | Declaration of willingness to licence | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |