DE10101250A1 - Überwachung der Umgebung eines Motorfahrzeugs auf Kollisionsgefahr - Google Patents

Überwachung der Umgebung eines Motorfahrzeugs auf Kollisionsgefahr

Info

Publication number
DE10101250A1
DE10101250A1 DE10101250A DE10101250A DE10101250A1 DE 10101250 A1 DE10101250 A1 DE 10101250A1 DE 10101250 A DE10101250 A DE 10101250A DE 10101250 A DE10101250 A DE 10101250A DE 10101250 A1 DE10101250 A1 DE 10101250A1
Authority
DE
Germany
Prior art keywords
vehicle
expected
determining
location
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10101250A
Other languages
English (en)
Inventor
Masaki Saito
Naoto Ishikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Publication of DE10101250A1 publication Critical patent/DE10101250A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

Die Position eines Objektes im seitwärtigen Bereich eines Fahrzeuges wird innerhalb vorgegebener Zeitintervalle ermittelt. Der erwartete Ort eines Objektes wird auf der Grundlage der innerhalb vorgegebener Zeitintervalle ermittelten Position des Objektes berechnet. Der erwartete Ort des Fahrzeuges wird ebenso berechnet. Es wird ermittelt, ob es, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeuges, die Gefahr einer Kollision gibt oder nicht. Mit dieser Konfiguration ist eine Vorrichtung zur Überwachung der Umgebung eines Fahrzeuges vorgeschlagen worden, die in der Lage ist, die Gefahr einer Kollision auf der Grundlage der relativen Bewegungen des Fahrzeuges und des Objektes festzustellen.

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zur Überwachung der Umgebung eines Motorfahrzeugs (im folgenden als im Fahrzeug eingebaute Vorrichtung zur Überwachung der Umgebung bezeichnet) und eine Vorrichtung zur Aufzeichnung von Daten für das Fahrzeug, die ein Programm zur Ermittlung der Gefahr einer Kollision aufweist. Insbesondere betrifft die vorliegende Erfindung eine im Fahrzeug eingebaute Vorrichtung zur Überwachung der Umgebung zur Beobachtung eines Objektes, wie eines Fussgängers oder eines Fahrrades, in der Umgebung des Motorfahrzeuges, um die Gewährleistung von Verkehrssicherheit durch den Fahrer zu unterstützen, und auf eine Vorrichtung zur Aufzeichnung von Daten, die ein Programm zur Ermittlung der Gefahr einer Kollision zwischen dem Fahrzeug und dem Objekt mittels eines Computers aufweist.
Wenn ein Fahrer ein Motorfahrzeug oder Auto fährt, gibt es in der Umgebung des Motorfahrzeuges ein Gebiet ausserhalb seines Gesichtsfeldes, auch wenn sein Gesichtsfeld durch einen Kotflügelspiegel oder einen Rückspiegel erweitert wird. Im besonderen hat er, wenn er ein grosses Fahrzeug bewegt, wie einen Lastwagen oder Bus, einen besonders grossen toten Winkel. Zum Beispiel kann der Fahrer daher, wenn ein Fahrzeug mit Rechtssteuerung nach links abbiegt, ein niedriges Objekt, dass das Fahrzeug passiert, wie z. B. ein Kind, das auf einem Bürgersteig in Richtung des Fahrzeuges läuft, nicht entdecken, was zu einem Unfall mit einem Zusammenstoss führt oder dazu, dass dem Objekt der Weg abgeschnitten wird. Um solche Schwierigkeiten zu umgehen, ist eine in ein Fahrzeug eingebaute Vorrichtung zur Überwachung der Umgebung vorgeschlagen worden, welche das seitliche Gesichtsfeld mittels des Bildes, das eine auf einem grossen Fahrzeug, wie einem Bus, seitlich montierte Kamera aufnimmt, überwachen kann, um das Überwachen der Umgebung während des Rechts- oder Linksabbiegens sicherzustellen.
Wie auch immer muss der Fahrer, wenn er die im Fahrzeug eingebaute Vorrichtung zur Überwachung der Umgebung benutzt, die Anzeigevorrichtung im Auge behalten, um in dieser Richtung Sicherheit zu gewährleisten, was für die Gesamtsicherheit gefährlich ist. Um eine solche Gefahr zu vermeiden, ist die nachfolgend beschriebene Vorrichtung zum Vermeiden von Unfällen aufgrund des Abschneidens des Weges vorgeschlagen worden. Die Vorrichtung zum Vermeiden von Unfällen aufgrund des Abschneidens des Weges entscheidet auf der Basis des von einer Kamera, die an der Seite des Fahrzeugs angebracht ist, aufgenommenen Bildes, ob es ein Objekt in der Nachbarschaft eines Fahrzeuges innerhalb eines vorgegebenen Gebietes gibt, oder nicht. Falls ein Objekt in der Nachbarschaft des Fahrzeuges innerhalb des vorgegebenen Gebietes existiert, gibt die Vorrichtung zum Vermeiden von Unfällen aufgrund des Abschneidens des Weges eine Warnmeldung aus, dass die Möglichkeit besteht, dass dem Objekt der Weg abgeschnitten wird, wenn ein Lenkvorgang oder Blinkvorgang ausgeführt wird. Diese Vorrichtung zum Vermeiden von Unfällen aufgrund des Abschneidens des Weges macht es unnötig, die Sicherheit durch Blickkontakt festzustellen und informiert über die Gefahr des Wegabschneidens durch die Warnmeldung, wodurch die Fahrsicherheit verbessert wird.
Wenn sich das Objekt, wie z. B. ein Fussgänger oder ein Fahrrad, bewegt, kann es der Fall sein, dass es trotzdem, auch wenn sich das Objekt in der Nähe des Fahrzeuges befindet, keine Möglichkeit des Kontaktes des Fahrzeuges mit dem Objekt gibt, wenn dieses sich vom Fahrzeug wegbewegt.
Umgekehrt gibt es, auch wenn sich das Objekt nicht in der Nähe des Fahrzeuges befindet, eine große Wahrscheinlichkeit einer Kollision zwischen dem Fahrzeug und dem Objekt, wenn sich das Objekt auf das Fahrzeug zu bewegt. Das heisst, dass die Gefahr der Kollision zwischen dem Fahrzeug und dem Objekt nicht notwendigerweise von dem momentanen Abstand zwischen dem Fahrzeug und dem Objekt abhängt.
Jedenfalls entscheidet die oben beschriebene Vorrichtung zum Vermeiden von Unfällen durch Wegabschneiden die Gefahr des Wegabschneidens oder einer Kollision während des Links- oder Rechtsabbiegens nur gemäß der Tatsache, ob es ein Objekt in einer vorbestimmten Region in der Umgebung des Fahrzeuges gibt, oder nicht und kann daher die Gefahr einer Kollision nicht genau feststellen.
Unter Berücksichtigung der oben beschriebenen Probleme ist es ein vorrangiges Ziel der vorliegenden Erfindung, eine im Fahrzeug eingebaute Überwachungsvorrichtung bereitzustellen, die die Gefahr einer Kollision zwischen einem Fahrzeug und einem Objekt auf der Basis der Relativbewegungen des Fahrzeuges und des Objektes entscheiden kann.
Ein weiteres Ziel der Erfindung ist es, eine Vorrichtung zur Aufzeichnung von Daten bereitzustellen, die ein Programm zum geeigneten Feststellen der Gefahr einer Kollision zwischen dem Fahrzeug und dem Objekt aufweist.
Um das erste Ziel in Übereinstimmung mit der Erfindung zu erreichen, wird, wie in dem grundlegenden Strukturdiagramm in Fig. 1 zu sehen ist, eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug bereitgestellt, die Folgendes aufweist: Eine Vorrichtung zum Ermitteln der Objektposition 51a zum Ermitteln der Positionen eines Objektes in der Nähe eines Fahrzeuges innerhalb festgelegter Zeitintervalle, eine Vorrichtung zur Berechnung 51b für den erwarteten Ort des Objektes, zur Berechnung des erwarteten Ortes des Objektes auf der Basis der Positionen des Objektes, die mittels der Vorrichtung zum Ermitteln der Objektposition ermittelt worden sind, eine Vorrichtung zur Berechnung 51c des erwarteten Ortes des Fahrzeugs, zur Berechnung des erwarteten Ortes des Fahrzeugs und eine Vorrichtung zur Ermittlung der Gefahr 51d für die Ermittlung der Tatsache, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug, beurteilt auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeuges, gibt, oder nicht.
Mittels dieser Vorrichtung kann die Gefahr genau ermittelt werden, da auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des Fahrzeuges ermittelt wird, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
Bevorzugterweise weist die Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug weiterhin auf: Eine Vorrichtung zum Ermitteln der Geschwindigkeit des Objektes und eine Vorrichtung zur Ermittlung der Geschwindigkeit des Fahrzeuges, wobei die Vorrichtung zur Ermittlung der Gefahr auf der Basis sowohl des erwarteten Ortes des Objektes, berechnet auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Objektes, als auch der erwarteten Position des Fahrzeuges, berechnet auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Fahrzeuges, ermittelt, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
Mittels dieses Aufbaus kann die Gefahr genauer ermittelt werden, da die Gefahr auf der Grundlage der Geschwindigkeit sowohl des Objektes und des Fahrzeuges als auch ihrer jeweiligen Orte ermittelt wird.
In Übereinstimmung mit der vorliegenden Erfindung wird ein Gerät zur Überwachung der Umgebung für ein Fahrzeug bereitgestellt, welches Folgendes aufweist: Eine Vorrichtung zur Ermittlung der Objektposition, welche eine im Fahrzeug eingebaute Vorrichtung zur Überwachung für die Überwachung der Umgebung eines Fahrzeuges aufweist, die ein Überwachungssignal bereitstellt, das repräsentativ für die Umgebungssituation ist; eine Vorrichtung zum Ermitteln der Objektposition zum Ermitteln der Position eines Objektes, innerhalb vorgegebener Zeitintervalle auf der Basis des Überwachungssignals, in einem Koordinatensystem, welches mit Bezug auf die Position und die Überwachungsrichtung der Überwachungsvorrichtung gewählt wird; eine Vorrichtung zur Ermittlung der Bewegungsgrößen, zur Ermittlung der Position und der Bewegungsgrößen der Überwachungsvorrichtung in Überwachungsrichtung, da die Überwachungsvorrichtung sich innerhalb eines vorgegebenen Zeitintervalls bewegt, wenn sich das Fahrzeug bewegt; eine Vorrichtung zur Berechnung des erwarteten Ortes eines Objektes zur Berechnung des wirklichen Ortes des Objektes auf der Grundlage der Position des Objektes und der Bewegungsgrößen der Überwachungsvorrichtung und für die Berechnung des erwarteten Ortes des Objektes auf der Grundlage des wirklichen Ortes des Objektes; eine Vorrichtung zur Berechnung des erwarteten Ortes des Fahrzeuges zur Berechnung des erwarteten Ortes des Fahrzeuges; und eine Vorrichtung zur Ermittlung der Gefahr für die Beurteilung, ob es, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeuges, die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug, gibt, oder nicht.
Mittels dieses Aufbaus kann die Gefahr genau ermittelt werden, weil die Beurteilung, ob es die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt oder nicht, auf der Basis sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeuges getroffen wird.
In dem Gerät zur Überwachung der Umgebung für ein Fahrzeug ist die Überwachungsvorrichtung bevorzugterweise eine bildaufnehmende Vorrichtung, die eine Mehrzahl von Bildsignalen bereitstellt, welche durch Aufnehmen der Umgebung des Fahrzeuges aus zwei Positionen, die voneinander um eine vorgeschriebene Distanz getrennt sind, erhalten werden, wobei die Vorrichtung zur Ermittlung der Objektposition die Position eines Objektes auf der Grundlage der Mehrzahl von Bildsignalen, welche von der bildaufnehmenden Vorrichtung bereitgestellt werden, ermittelt.
Mit Hilfe dieses Aufbaus kann die Gefahr einer Kollision genauer ermittelt werden, weil die bildaufnehmende Vorrichtung das Objekt in einem weiteren räumlichen Bereich überwacht.
Bevorzugterweise ermittelt die Vorrichtung zur Ermittlung der Objektposition im Gerät zur Überwachung der Umgebung für ein Fahrzeug jedes einzelne der Mehrzahl von Objekten in Koordinaten, wie sie von der bildaufnehmenden Vorrichtung aufgenommen werden. Die Vorrichtung zur Berechnung des erwarteten Ortes des Objektes berechnet unterscheidbar den erwarteten Ort jedes einzelnen der Objekte und die Vorrichtung zur Ermittlung der Gefahr stellt auf der Grundlage sowohl des erwarteten Ortes jedes der Objekte als auch des erwarteten Ortes des Fahrzeuges fest, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
Mittels dieses Aufbaus kann, auch wenn es eine Mehrzahl von Objekten gibt, die Gefahr für jedes einzelne der Objekte ermittelt werden, so dass sie insgesamt genauer ermittelt werden kann.
Die Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug weist weiterhin auf: Eine Vorrichtung zur Ermittlung der Geschwindigkeit des Objektes auf der Basis des wirklichen Ortes des Objektes; eine Vorrichtung zur Ermittlung der Geschwindigkeit des Fahrzeuges, wobei die Vorrichtung zur Ermittlung der Gefahr auf der Grundlage sowohl der erwarteten Position des Objektes, welche auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Objektes berechnet wird, als auch der erwarteten Position des Fahrzeuges, welche auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Fahrzeugs berechnet wird, ermittelt, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
Mittels dieses Aufbaus kann die Gefahr genauer ermittelt werden, weil die Gefahr auf der Grundlage sowohl der Geschwindigkeit jedes der Objekte und des Fahrzeuges als auch ihrer jeweiligen Orte ermittelt wird.
Bevorzugterweise weist die Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug weiterhin eine Warnvorrichtung für die Ausgabe eines Warnsignals auf, dass ausgegeben wird, wenn die Vorrichtung zur Ermittlung der Gefahr ermittelt, dass es eine Gefahr gibt. Mittels dieser Konfiguration wird ein Fahrer im voraus über die Gefahr einer Kollision informiert.
Die Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug weist weiterhin auf: Eine Vorrichtung zur Berechnung des erwarteten Kollisionszeitpunktes, zur Berechnung eines erwarteten Kollisionszeitpunktes auf der Basis der erwarteten Position des Objektes und der erwarteten Position des Fahrzeugs, wenn die Vorrichtung zur Ermittlung einer Gefahr ermittelt, dass es eine Gefahr gibt, und eine Vorrichtung zur Ausgabe einer Warnmeldung für das Ausgeben von mehrstufigen Warnmeldungen gemäß der erwarteten Kollisionszeit.
Mittels dieser Konfiguration kann der Fahrer im voraus vom Grad der Gefahr einer Kollision informiert werden.
In Übereinstimmung mit einem zweiten Aspekt der Erfindung wird eine Vorrichtung zur Aufzeichnung von Daten bereitgestellt, die ein Programm für die Ermittlung der Kollisionsgefahr eines Fahrzeuges und eines Objektes mittels eines Computers aufweist, wobei das auszuführende Programm die folgenden Schritte aufweist: Die Ermittlung der Position eines Objektes in der Umgebung eines Fahrzeuges innerhalb vorgegebener Zeitintervalle; das Berechnen des erwarteten Ortes eines Objektes auf der Grundlage der Positionen des Objektes, die mittels der Vorrichtung zum Ermitteln der Objektposition ermittelt worden sind; das Berechnen eines erwarteten Ortes des Fahrzeuges und die Beurteilung, auf der Grundlage sowohl der erwarteten Orte des Fahrzeugs als auch des Objektes, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
Weiterhin wird eine Vorrichtung zur Aufzeichnung von Daten bereitgestellt, die ein Programm zur Ermittlung der Gefahr einer Kollision des Fahrzeuges und eines Objektes mittels eines Computers aufweist, wobei das mittels des Computers auszuführende Programm die folgenden Schritte aufweist: Das Aufnehmen eines Überwachungssignals, welches von der im Fahrzeug eingebauten Überwachungsvorrichtung zur Überwachung der Umgebung des Fahrzeuges bereitgestellt wird, das repräsentativ für die Umgebungssituation ist; die Ermittlung der Positionen eines Objektes in bestimmten Koordinaten innerhalb vorgegebener Zeitintervalle auf der Basis des Überwachungssignals; die Ermittlung der Position und der Bewegungsgrößen der Überwachungsvorrichtung in Überwachungsrichtung, da die Überwachungsvorrichtung sich innerhalb eines vorgegebenen Zeitraums bewegt, wenn sich das Fahrzeug bewegt; das Berechnen des wirklichen Ortes eines Objektes auf der Grundlage der Positionen des Objektes und der Bewegungsgrößen der Überwachungsvorrichtung; das Berechnen des erwarteten Ortes eines Objektes auf der Grundlage des wirklichen Ortes des Objektes; das Berechnen des erwarteten Ortes des Fahrzeuges; und die Beurteilung, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeugs, ob es eine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
Mittels der Konfiguration gemäß diesem Aspekt der vorliegenden Erfindung kann die Gefahr genau ermittelt werden, weil die Beurteilung, ob es die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeugs getroffen wird.
Die oben beschriebenen und weitere Ziele und Eigenschaften der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung in Verbindung mit den begleitenden Zeichnungen klarer ersichtlich werden.
Fig. 1 ist ein Blockdiagramm, welches den grundlegenden Aufbau einer im Fahrzeug eingebauten Vorrichtung zur Überwachung des seitwärtigen Bereiches gemäß der Erfindung darstellt.
Fig. 2 ist ein Blockdiagramm, dass eine Ausführungsform einer im Fahrzeug eingebauten Vorrichtung zur Überwachung des seitwärtigen Bereiches gemäß der Erfindung darstellt.
Fig. 3 ist eine perspektivische Ansicht der Art und Weise, in der eine Kamera gemäß einer Ausführungsform der Erfindung angebracht wird.
Fig. 4 ist ein Flussdiagramm, welches die Verarbeitungsprozedur in einer CPU zeigt, die einen wichtigen Bestandteil der im Fahrzeug eingebauten Vorrichtung zur Überwachung des seitwärtigen Bereiches darstellt, die in Fig. 2 dargestellt ist.
Fig. 5 ist eine Ansicht zur Erklärung der Korrektur des Senkungswinkels der Kamera gemäß einer Ausführungsform der Erfindung.
Die Fig. 6A und 6B sind Ansichten zur Erklärung der Messung einer dreidimensionalen Position gemäß dieser Ausführungsform der Erfindung.
Die Fig. 7A bis 7D sind Ansichten zur Erklärung des Entfernens eines Bildes der Strassenoberfläche.
Die Fig. 8A bis 8C sind Ansichten zur Erklärung der Ermittlung einer Objektkante gemäß der vorliegenden Erfindung.
Die Fig. 9A und 9B sind Ansichten zur Erklärung der Arbeitsweise der CPU.
Die Fig. 10A und 10B sind Ansichten zur Erklärung der Entscheidung über eine Gefahr, die mittels der CPU ausgeführt wird.
Die Fig. 11A und 11B sind Ansichten zur Erklärung der Entscheidung über eine Gefahr, die mittels der CPU ausgeführt wird.
Nachfolgend wird eine Erklärung der bevorzugten Ausführungsformen der vorliegenden Erfindung mit Bezug auf die Zeichnungen gegeben.
Fig. 2 zeigt eine im Fahrzeug eingebaute Überwachungsvorrichtung gemäß der Erfindung.
In Fig. 2 bezeichnet die Referenznummerierung 1 eine bildaufnehmende Einheit, die in einem Fahrzeug eingebaut ist, um die Umgebung des Fahrzeugs zu überwachen; 2 bezeichnet eine Steuerrichtungsbestimmungseinheit für die Ermittlung von Lenkbewegungen des Fahrzeugs; 3 eine Geschwindigkeitsermittlungseinheit für die Ermittlung der Geschwindigkeit des Fahrzeugs; 4 eine Speichereinheit für das Speichern von Bildinformationen und anderen Informationen; 5 einen Mikrocomputer (µCOM); 6 eine Anzeigeeinheit; und 7 eine geräuscherzeugende Einheit für die Ausgabe eines Warntones oder einer Richtungsanweisung mittels Sprache.
Die bildaufnehmende Einheit 1 aufweist eine rechte CCD-Kamera (bildaufnehmende Vorrichtung) 11R, eine linke CCD-Kamera (bildaufnehmende Vorrichtung) 11L, eine rechte Bildebene 12R, auf die die mittels der rechten CCD-Kamera 11R aufgenommene Bildinformation projiziert wird und eine linke Bildebene 12R, auf die die Bildinformation, die mittels der linken CCD- Kamera 11L aufgenommen worden ist, projiziert wird. Wie in Fig. 3 dargestellt, ist die bildaufnehmende Einheit 1 in einer Position mit der Höhe H an der vorderen seitwärtigen Position des Fahrzeugs 100 so angeordnet, dass sie in eine Richtung vom Fahrzeug weg orientiert ist. Das Paar der CCD- Kameras 11, welche die bildaufnehmende Einheit 1 bilden, sind parallel in einer vorgegebenen Distanz voneinander mit einem Senkungswinkel θs angeordnet. Daher nimmt die bildaufnehmende Einheit 1 die Überwachungsregion 100a [100a(11R) und 100a(11L)] im vorderen seitwärtigen Gebiet des Fahrzeugs auf.
Die Steuerrichtungsbestimmungseinheit 2 umfasst einen Lenkradsensor für die Ermittlung des Einschlags und der Drehrichtung des Lenkrads und einen Steuerwinkelsensor für die Ermittlung des Steuerwinkels des steuernden Rades (im allgemeinen vorderes Rad; beide Sensoren sind nicht dargestellt) und erzeugt eine Drehsinninformation, inklusive der Drehrichtung des Fahrzeuges und des Steuerwinkels, der von diesen Sensoren ermittelt wird. Die Geschwindigkeitsermittlungseinheit 3 kann ein Entfernungssensor sein (nicht dargestellt), der immer dann, wenn das Fahrzeug eine Entfernungseinheit zurücklegt, ein Pulssignal erzeugt, um die Fahrzeuggeschwindigkeit, die auf der Grundlage des Pulssignals berechnet wird, als Geschwindigkeitsinformation bereitzustellen.
Die Speichereinheit 4 aufweist einen rechten Einzelbildspeicher 41R für das zeitweise Speichern der Bildinformation der bildaufnehmenden Einheit 1, die auf die rechte Bildebene 12R projiziert worden ist, als sogenanntes rechtes Bildsignal; einen linken Einzelbildspeicher 41L für das zeitweise Speichern der Bildinformation der bildaufnehmenden Einheit 1, die auf die linke Bildebene 12L projiziert worden ist, als sogenanntes linkes Bildsignal; einen differentiellen Bildspeicher 42 für das Speichern eines differentiellen Bildes; einen Speicher für ein differenziertes Bild 43 für das Speichern eines differenzierten Bildes; und einen Kantenbildspeicher 44 für das Speichern einer Bildkante (das differentielle Bild, das differenzierte Bild und das Kantenbild werden später beschrieben). Diese Speicher 41 bis 45 sind in Form einer Matrix mit m Zeilen und n Spalten aufgebaut, z. B. als ein Feld von 512(m) × 512(n) Pixeln. Jeder der Pixel, die den Speicher aufbauen, stellt Luminanzdaten mit z. B. 256 Grauabstufungen dar.
Der µCOM 5 weist einen ROM 52, der eine Vorrichtung zur Aufzeichnung von Daten darstellt, die ein Programm für die Entscheidung der Gefahr einer Kollision zwischen dem Fahrzeug und dem Objekt speichert, eine CPU 51, die gemäß des Programms arbeitet und einen RAM 53 für das zeitweise Speichern der benötigten Information auf, wenn die CPU 51 arbeitet. Die Anzeigeeinheit 6 weist eine Anzeige 61 auf, auf der auf der Grundlage des von der CPU 51 bereitgestellten darzustellenden Bildsignals entweder das von der Kamera 11 aufgenommene Bild, oder eine Nachricht für den Fahrer dargestellt wird. Die geräuscherzeugende Einheit 7 gibt auf der Grundlage des Summtonsignals oder der Verkehrsführung durch Sprache, die von der CPU 51 bereitgestellt wird, ein Summgeräusch oder eine Richtungsanweisung mittels eines Lautsprechers 71 aus.
Die CPU 51 innerhalb des µCOM 5 ermittelt zu jedem der vorgegebenen Zeitintervalle Δt die Position eines Objektes in einem Koordinatensystem mit Bezug auf die Position der CCD- Kamera, auf der Basis der Bildsignale, die in dem rechten Einzelbildspeicher 41R und dem linken Einzelbildspeicher 41L der bildaufnehmenden Einheit 1 gespeichert sind (Vorrichtung zum Ermitteln der Objektposition). Die CPU 51 ermittelt, auf der Grundlage des sich bewegenden Ortes der CCD Kamera 11, der sich während der vorgegebenen Zeit bewegt, die Position und die Bewegungsgrößen der CCD-Kamera 11 in Überwachungsrichtung (Vorrichtung zur Ermittlung der Bewegungsgrößen). Die CPU 51 berechnet den wirklichen Ort des Objektes auf der Grundlage der Positionen des Objektes, wie sie zu zwei Zeitpunkten, getrennt durch ein Intervall der vorgegebenen Länge Δt ermittelt worden sind und der Bewegungsgrößen, die mittels der Vorrichtung zur Ermittlung der Bewegungsgrößen ermittelt worden sind und berechnet den erwarteten Ort des Objektes auf der Grundlage des wirklichen Ortes, der vorher wie beschrieben berechnet worden ist (Vorrichtung zur Berechnung des erwarteten Ortes). Die CPU 51 ermittelt die Geschwindigkeit des Objektes auf der Grundlage des wirklichen Ortes des Objektes, wie er berechnet worden ist, und berechnet die erwartete Position des Objektes nach Δt1, Δt2,. . .,Δtn auf der Grundlage des erwarteten Ortes des Objektes und der Objektgeschwindigkeit.
Die CPU 51 berechnet den erwarteten Ortes eines Fahrzeuges auf der Grundlage der Information über Lenkbewegungen von der Steuerrichtungsbestimmungseinheit 2 (Vorrichtung zur Berechnung des erwarteten Ortes des Fahrzeuges), und berechnet die erwarteten Positionen des Fahrzeuges nach Δt1, Δt2,. . .,Δtn auf der Grundlage des erwarteten Ortes des Fahrzeuges und der Geschwindigkeitsinformation, die von der Geschwindigkeitsbestimmungseinheit 3 bereitgestellt wird. Die CPU 51 ermittelt auf der Grundlage der erwarteten Objektpositionen und der erwarteten Fahrzeugposition, ob es die Gefahr einer Kollision zwischen dem Fahrzeug und dem Objekt gibt, oder nicht (Vorrichtung zum Ermitteln einer Gefahr), und gibt eine Warnmeldung aus, wenn entschieden worden ist, dass es die Gefahr einer Kollision gibt (Vorrichtung zur Ausgabe einer Warnmeldung).
Im folgenden wird unter Bezugnahme auf das in Fig. 4 dargestellte Flussdiagramm eine Erklärung der Arbeitsweise der im Fahrzeug eingebauten Vorrichtung zur Überwachung der Umgebung, die eine wie oben beschriebene Konfiguration aufweist, gegeben.
Die CPU 51 beginnt zu arbeiten, wenn der Zündschalter (nicht dargestellt) umgelegt wird. In einem Initialisierungsschritt (nicht dargestellt) werden initialisierende Einstellungen für die verschiedenen Gebiete des µCOM 5 durchgeführt. Danach schreitet das Programm zum Anfangsschritt S1 fort.
Im Schritt S1 wird das Bildsignal, welches von der bildaufnehmenden Einheit zum Zeitpunkt t aufgenommen worden ist, einmal auf die Bildebenen 12R und 12L projiziert und dann im rechten Einzelbildspeicher 41R und im linken Einzelbildspeicher 41L als Luminanzdaten für jedes der Pixel gespeichert.
Im Schritt S2 wird die Ermittlung der Gegenwart/Abwesenheit eines Objektes auf der Grundlage des in Schritt S1 gespeicherten Bildsignals getroffen.
Im Schritt S3 wird entschieden, ob die Gegenwart eines Objektes in Schritt 2 ermittelt worden ist, oder nicht. Falls "JA" (ein Objekt ist vorhanden), schreitet die Verarbeitung zu Schritt S4 fort. Im Schritt S4 wird die Ermittlung der Position des Objektes im Koordinatensystem mit Bezug auf die Position der CCD-Kamera 11 getroffen. Falls "NEIN" in Schritt S3, schreitet das Programm zu Schritt S6 fort.
Im folgenden wird eine detaillierte Erklärung für den Programmschritt der Ermittlung der Gegenwart/Abwesenheit eines Objektes in Schritt S2 und den Programmschritt des Feststellens der Objektposition in Schritt S4 gegeben. In dem Programmschritt der Ermittlung der Gegenwart/Abwesenheit eines Objektes, entfernt die CPU 51 ein Hintergrundbild (Bild auf Höhe "0") und schafft eines Kantenbild des Objektes. Zum Zwecke der Erleichterung der Erklärung dieser Arten von Programmschritten wird der Programmschritt der Entdeckung des Objektes im Schritt S4 zunächst erklärt werden.
Die bildaufnehmende Einheit 1 (z. B. CCD-Kameras 11), wie in Verbindung mit Fig. 3 erklärt, ist mit dem Senkungswinkel es an der vorderen seitwärtigen Position des Fahrzeugs angebracht und nimmt das Überwachungsgebiet 100a auf. Daher ist das Bild, das von der bildaufnehmenden Einheit 1 aufgenommen wird, ein Bild mit Bezug auf diesen Ort. Daher wird die Position des Objektes mit Bezug auf seine Position bezüglich der bildaufnehmenden Einheit genommen. Wie aus der oberen Erklärung entnommen werden kann, dient die bildaufnehmende Einheit 1, die am Fahrzeug angebracht ist, als Überwachungsvorrichtung, die die Umgebung des Fahrzeugs überwacht und ebenso ein Signal erzeugt, dass ein Anhaltspunkt für die Position des Objektes im Koordinatensystem mit Bezug auf den Ort der bildaufnehmenden Einheit 1 ist (im folgenden als "Kameraposition" bezeichnet). Zum Zwecke der Erklärung werden, wie in Fig. 5 dargestellt, die Koordinaten mit Bezug auf den Ort, wie oben beschrieben, repräsentiert durch X', Y' und Z', während diejenigen auf der Strasse durch X, Y und Z repräsentiert sind.
Im X'Y'Z'-Koordinatensystem ist, wie in Fig. 6a gezeigt, die Z'-Achse definiert als die optische Linsenachse jeder der CCD-Kameras 11; die X'-Achse ist definiert als eine Achse parallel zur Strassenoberfläche und die Y'-Achse ist definiert als eine Achse senkrecht sowohl zu der Y' als auch der Z'-Achse. Daher sind die rechte CCD-Kamera 11R und die linke CCD-Kamera 11L so angeordnet, dass ihre optischen Linsenachsen koinzident mit der Z'-Achse sind. Mit Bezug auf die X'-Achse sind die CCD-Kameras 11 so angeordnet, dass ihre Mittelpunkte auf der X'-Achse in einem Abstand dXa voneinander angeordnet sind. Zum Zwecke der Erleichterung der nachfolgenden Erklärung ist der Ursprung "0" der X'-, Y'- und Z'-Achsen definiert als der Mittelpunkt der Linse der linken CCD-Kamera 11R.
Der Punkt P (XP', YP', ZP') auf dem von den CCD-Kameras 11 aufgenommenen Objekt wird als PR (xRP, yRP) in dem rechten Einzelbildspeicher 41R und als PL (xLP, yLP) im linken Einzelbildspeicher 41L gespeichert. Die Z' Koordinate ZP' des Punktes P kann auf gleichartige Weise aus einem Dreieck erhalten werden, wie in der schematischen Ansicht der X'Z'- Ebene in Fig. 6B zu sehen ist. Namentlich kann die Koordinate ZP' durch die Gleichung (1)
ZP' = dxa.f(xLP - xRP) (1)
ausgedrückt werden, wobei dxa die Entfernung zwischen beiden Linsen und f die Brennweite der Linsen ist.
Auf gleiche Art und Weise kann die X'-Koordinate XP' des Punktes P ebenso in gleichartiger Weise aus einem Dreieck erhalten werden, wie aus der schematischen Ansicht der X'Z'- Ebene in Fig. 6B ersichtlich. Die Y'-Koordinate YP' des Punktes P kann ebenso auf gleichartige Weise aus der Y'Z'- Ebene, die nicht dargestellt ist, gewonnen werden. So können die X'-Koordinate XP' und die Y'-Koordinate YP' mittels der Gleichungen (2) und (3)ausgedrückt werden.
XP' = ZP' = ZP'xLP/f = dxa.xLP (xLP - xRP) (2)
YP' = ZP'yLP/f = dxa.yLP (xLP - xRP) (3)
Bezüglich der Koordinate XP' kann, falls der Ursprung des Standardkoordinatensystems genau zwischen der rechten CCD- Kamera 11R und der linken CCD-Kamera 11L gewählt wird, die Differenz zwischen den gemäß Gleichung (2) berechneten Koordinaten XP' und der Hälfte des Abstandes dxa zwischen beiden Linsen genommen werden.
Da der Punkt P (XP', YP', ZP') im X'Y'Z'-Koordinatensystem, der gemäß den Gleichungen (1) bis (3) berechnet worden ist, den Koordinatenwert im Koordinatensystem mit Bezug auf die Kameraposition darstellt, muss dieser Koordinatenwert in das XYZ-Koordinatensystem auf der Strassenoberfläche umgerechnet werden. In diesem Fall ist, unter der Annahme, dass der Senkungswinkel der bildaufnehmenden Einheit 1 (CCD-Kameras 11) θs ist, die Beziehung zwischen den Koordinaten (XP', YP', ZP') des Punktes P im X'Y'Z'-Koordinatensystem und dem XYZ-Koordinatensystem mit Bezug auf die Strassenoberfläche, wie in Fig. 5 dargestellt.
So können die Koordinaten (ZP', YP', XP'), die mittels der Gleichung (1) bis (3) berechnet worden sind, in die Koordinaten (XP, YP, ZP) durch Anwenden der nachfolgenden Gleichungen (4) bis (6) umgerechnet werden.
XP = XP' (4)
YP = H - ZP' cosθs + YP'sinθs (5)
ZP = ZP' sinθs + YP'cosθs (6)
Auf der Grundlage der Gleichungen (1) bis (6) wird eine Erklärung des Programmschrittes der Ermittlung der Gegenwart/Abwesenheit eines Objektes mittels der CPU 51 in Schritt S2 angegeben. Zuerst wird das Entfernen eines Hintergrundbildes (des Bildes in Höhe "0") erklärt.
Fig. 7A zeigt das rechte Bild, welches mittels der rechten CCD-Kamera 11R aufgenommen worden ist und das im rechten Einzelbildspeicher 41R gespeichert wird. In Fig. 7A bezeichnet die Referenznummerierung 300 eine weisse Linie und die Referenznummerierung 240 ein pfahlartiges Objekt.
Im folgenden wird angenommen, dass das gesamte im rechten Einzelbildspeicher 32R gehaltene Bild das Bild auf Höhe "0" ist, z. B. das auf der Strassenoberfläche gezeichnete Bild. Das so aufgenommene rechte Bild wird in das an der Position der linken CCD-Kamera 11L (Fig. 7B) aufgenommene Bild umgerechnet (projiziert).
Der Programmschritt der Berechnung des projizierten Bildes wird nachfolgend erklärt. Es wird angenommen, dass der Punkt PL (xLP, yLP) des projizierten Bildes, welcher dem Punkt PR des rechten Bildes (xRP,yRP) entspricht, PL (xLP,yLP) ist. Wie in Fig. 3 zu sehen ist, sind unter der Annahme, dass die X'- Achse relativ zur Kamera und die X-Achse relativ zur Strassenoberfläche parallel sind und die x-Achsen der von den Kameras aufzunehmenden Linien (xL-Achse und xR-Achse in Fig. 6) ebenso parallel sind, der yL-Wert und der yR-Wert des Bildes einander gleich, wenn das identische Objekt aufgenommen worden ist. Weiterhin wird unter der Annahme, dass sich das gesamte Bild auf der Strasse befindet, der Wert YP in Gleichung (6) gleich Null. Dies führt zu den nachfolgenden Gleichungen (7) und (8).
Durch Einsetzen von ZP' aus Gleichung (1) und YP' aus Gleichung (3) in ZP' und YP' in Gleichung (8) kann XLP', wie in Gleichung (9) ausgedrückt, erhalten werden.
yLP = yRP (7)
O = HP - ZP'cosθs + YP'sinθs (8)
XLP = (dxa.fcosθs + dxa.yRPsinθs)/H + xRP (9)
Durch Berechnung der Gleichungen (8) und (9) erzeugt der µCOM 5 das projizierte Bild (Fig. 7B).
Eine Superposition des so erzeugten Bildes mit dem linken Bild erzeugt ein Bild wie in Fig. 7C dargestellt. Namentlich wird, wenn das rechte Bild, das von der rechten CCD-Kamera 11R aufgenommen worden ist, der linken Bildebene superponiert wird, das Muster, inklusive der weissen Linie, das auf der Höhe der Strassenoberfläche liegt, in Position und Lumineszenz koinzident mit dem Muster, das von der linken CCD-Kamera 11L aufgenommen worden ist, die Differenz steigt jedoch an, wenn der Ort des Objektes höher als die Strassenoberfläche liegt. Wenn die Differenz zwischen den linken Bilddaten und den projizierten rechten Bilddaten genommen wird, wird der Wert der Lumineszenz jedes der Pixel, die die Strassenoberfläche abbilden und die nicht zum Objekt gehören, gleich Null oder ein Wert in der Nähe von Null. Unter der Annahme, dass die Werte, die nicht größer als ein vorgegebener Schwellenwert sind, gleich Null gesetzt werden, werden alle diese Pixel den Wert Null annehmen. Auf diese Art und Weise wird in dem differentiellen Bild das Bild der Strassenoberfläche (Hintergrundbild auf der Höhe Null) entfernt, wenn die Differenz zwischen den linken Bilddaten und den projizierten rechten Bilddaten genommen wird, wie in Fig. 7D dargestellt, und nur der Teil, der eine gewisse Höhe aufweist, wird mit von Null verschiedenen Werten aufgenommen. Das differentielle Bild wird im differentiellen Bildspeicher 42 des Speicherteils 4 gespeichert.
Auf diese Art und Weise wird das Hintergrundbild mit der Höhe Null entfernt und nur das Bild des Objektes mit einer von Null verschiedenen Höhe wird herausgelöst. Nachfolgend wird der Programmschritt der Kantenextraktion für das Objektbild, das in der unten beschriebenen Art und Weise herausgelöst worden ist, ausgeführt.
Der Programmschritt der Kantenextraktion wird auf der Grundlage der Bildinformation, die im linken Einzelbildspeicher 41L gespeichert ist, ausgeführt. Im linken Bild, das im linken Einzelbildspeicher 41L gespeichert ist, werden die Lumineszenzwerte Im,n der Bilddaten in einer Matrix mit m Reihen und n Spalten in horizontaler Richtung gescannt, z. B. in Richtung der X'-Achse in Fig. 6. Die Berechnung gemäß Gleichung (10) erzeugt ein differenziertes Bild.
If ¦Im,n + 1 - Im,n¦ = E0 Em,n = 1
If ¦Im,n + 1 - Im,n¦ < E0 Em,n = 0 (10)
Hierbei ist E0 ein Schwellenwert.
Das differenzierte Bild, wie in Fig. 8B dargestellt, führt zu einem Bild mit longitudinalen Kantenbereichen mit dem Wert "1", wobei der übrige Teil den Wert "0" annimmt. Das differenzierte Bild wird im differenzierten Bildspeicher 43 der Speichereinheit gespeichert.
Das so erhaltene differenzierte Bild (Fig. 8B) und das im differentiellen Bildspeicher 42 gespeicherte differentielle Bild (erhalten mittels des Programmschritts des Entfernens des Bildes der Strassenoberfläche) werden superponiert, um ihre "UND"-Verknüpfung zu erzeugen. Auf diese Art und Weise wird das Bild der Objektkante, das nur den extrahierten Kantenteil des Objektes aufweist, wie in Fig. 8C dargestellt, geschaffen. Das Objektkantenbild wird im Kantenbildspeicher 35 gespeichert.
Im Schritt S3 der in Fig. 4 dargestellten Programmschritte wird gemäß der Tatsache, ob eine Objektkante erzeugt worden ist, oder nicht, entschieden, ob ein Objekt entdeckt worden ist, oder nicht.
Das Programm schreitet weiter zu Schritt S4, wenn das Objekt mittels der bildaufnehmenden Einheit 1 aufgenommen worden ist und das Objektkantenbild, das dem so aufgenommenen Objekt entspricht, erzeugt worden ist.
Auf der anderen Seite schreitet das Programm sofort weiter zu Schritt S6, wenn das Objekt nicht mittels der bildaufnehmenden Einheit 1 aufgenommen worden ist und daher ein Objektkantenbild nicht erzeugt worden ist. In Schritt S4 werden unter Benutzung der Gleichungen (4) bis (6) die Kantenpunkte des erzeugten Objektkantenbildes in die Koordinaten des XYZ-Koordinatensystems auf der Strassenoberfläche umgeformt. Die Koordinaten werden im RAM 53 gespeichert. Das Programm schreitet zu Schritt S5 weiter.
Im Schritt S5 werden zu einem Zeitpunkt t, wie in Fig. 9A dargestellt, die Kartendaten, die repräsentativ für die lagemäßige Beziehung zwischen dem Fahrzeug 100A und dem Objekt 240A im X1Z1-Koordinatensystem auf der Strassenoberfläche relativ zu den CCD-Kameras 11 sind, erzeugt. Die Kartendaten werden im RAM 53 gespeichert.
Das Programm schreitet zu den Schritten S6 und S7 fort. Nach einer vorgegebenen Zeitdauer Δ vom Zeitpunkt des Schrittes S1 oder des Schrittes S6 aus, die vorher ausgeführt worden sind, werden die gleichen Schritte wie in den obigen Programmschritten S1 und S2 wiederholt, um die Gegenwart oder Abwesenheit des Objektes festzustellen. In Schritt S8 wird entschieden, ob ein Objekt in dem Programmschritt S7 der Ermittlung der Gegenwart oder Abwesenheit eines Objektes entdeckt worden ist, oder nicht. Falls "JA", schreitet das Programm zu Schritt S9 fort. Auf der anderen Seite wird, falls in Schritt S8 "NEIN" ermittelt wird, festgelegt, dass es keine Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt und das Programm kehrt zu Schritt S6 zurück.
In Schritt S9 werden dieselben Aufgaben wie in Schritt S4 ausgeführt. Zu einem Zeitpunkt t + Δ wird, wie in Fig. 9B dargestellt, die Position des Objektes 240B im X2Y2- Koordinatensystem relativ zu den CCD-Kameras 11, die im Fahrzeug 100B angebracht sind, berechnet und im RAM 53 gespeichert. In Schritt S10 wird auf der Grundlage der Steuerungsinformation der Steuerungserkennungseinheit 2 und der Geschwindigkeitsinformation der Geschwindigkeitsermittlungseinheit 3 der Ort L3 der CCD- Kamera 11, der sich während der vorgegebenen Zeit Δt gemäß der Fahrbewegung des Fahrzeugs bewegt hat, ebenso ermittelt. Auf der Grundlage des bewegten Ortes L3 werden die Positionen der CCD-Kameras 11 und ihre Bewegungsgrößen in Beobachtungsrichtung ermittelt. Ebenso müssen, wenn die CCD- Kameras gemäß dem Linksabbiegen oder Rechtsabbiegen des Fahrzeugs gedreht werden, die Bewegungsgrößen unter Berücksichtigung des Drehwinkels berechnet werden.
Auf der Grundlage der erhaltenen Bewegungsgrößen und der Position des Objektes 240B in der X2Z2-Koordinatenebene werden Kartendaten, die repräsentativ für die örtliche Beziehung zwischen dem Fahrzeug 100B und dem Objekt 240B in der XlZl-Koordinatenebene sind, erzeugt. Die Kartendaten werden im RAM 53 gespeichert.
In Schritt S11 wird die Aufgabe des Ermittlens von identischen Objekten gelöst. Dieser Schritt stellt eine Korrelation zwischen dem Objekt, das zur Zeit t entdeckt worden ist und dem Objekt, das zum Zeitpunkt t + Δt entdeckt wird, her. Während dieses Programmschrittes wird das Objektbild, das repräsentativ für das zum Zeitpunkt t aufgenommene Objekt 240A ist, mit dem für das Objekt 240B repräsentativen Bild verglichen. Wenn beide Bilder aufeinander passen, wird ermittelt, dass die Objekte 240A und 240B identisch sind.
Wenn eine Mehrzahl von Objekten mittels der CCD-Kameras aufgenommen wird, wird der Programmschritt der Identitätsermittlung für jedes der Mehrzahl der Objekte ausgeführt.
Im Schritt S12 wird entschieden, ob das Objekt identisch ist, oder nicht. Falls "NEIN", kehrt das Programm zum Schritt S6 zurück. Falls "JA", fährt das Programm mit Schritt S13 fort. In Schritt S13 wird die Aufgabe der Berechnung des erwarteten Ortes des inneren Rades L22 und des erwarteten Ortes des äusseren Rades L22 auf der Grundlage der Lenkungsinformation von der Steuerungserkennungseinheit 2, wie in Fig. 10a dargestellt, gelöst. Im Schritt S14 werden nachfolgend, auf der Grundlage der Geschwindigkeitsinformationen von der Geschwindigkeitsbestimmungseinheit 3 und den erwarteten Orten L22 und L21, die erwarteten Positionen des Fahrzeugs 100C, 100D, 100E,. . . nach ΔT1, ΔT2, ΔT3,. . . berechnet und im RAM 53 gespeichert.
In Schritt S15 wird die Aufgabe der Berechnung des erwarteten Ortes des Objektes gelöst. Spezifisch wird der wirkliche Ort L11 des Objektes auf der Grundlage der Positionen der Objekte 240A und 240B, wie in Fig. 10a dargestellt, die zu vorgegebenen Zeitintervallen Δt entdeckt worden sind und die als identisch angesehen werden können, berechnet und der so berechnete Ort L11 wird benutzt, um einen erwarteten Objektort L12 zu berechnen.
In Schritt S16 wird die Aufgabe der Berechnung der erwarteten Objektposition gelöst. Spezifisch wird die in Schritt S15 erhaltene Entfernung des wirklichen Ortes L11 geteilt durch ein vorgegebenes Zeitintervall Δt, um die Objektgeschwindigkeit zu erhalten. Auf der Basis der so erhaltenen Geschwindigkeit und des erwarteten Objektortes L12 werden die erwarteten Positionen 240C, 240D, 240E,. . . ΔT1, ΔT2, ΔT3,. . . berechnet und im RAM 53 gespeichert. Die Abarbeitung des Programms mittels der CPU 51 schreitet zu Schritt S17 fort.
In Schritt S17 wird entschieden, ob die erwarteten Objektorte für alle Objekte berechnet worden sind, die im Schritt S11 der IdentitätsErmittlung korreliert worden sind, oder nicht. Falls "NEIN", wird das Programm von Schritt S15 zu Schritt 516 wiederholt. So werden die erwarteten Objektpositionen für alle Objekte berechnet. Durch Wiederholung des Programms von Schritt S15 zu Schritt S16 wird der erwartete Ort und so ebenfalls die erwartete Position jedes der Objekte, die im Schritt S4 des Entdeckens der Position entdeckt werden können, berechnet. Falls "JA" in Schritt S17, schreitet das Programm zu Schritt S18 fort.
In Schritt S18 wird auf der Grundlage der erwarteten Positionen 240C, 240D, 240E,. . . der Objekte nach ΔT1, ΔT2, ΔT3,. . . die in Schritt S16 berechnet worden sind und der erwarteten Positionen 100C, 100D, 100E des Fahrzeugs nach ΔT1, tT2, ΔT3,. . . die in Schritt S14 berechnet worden sind, entschieden, ob es die Gefahr einer Kollision zwischen beiden gibt. Spezifischerweise wird, wenn es ein Objekt gibt, das sich dem Fahrzeug annähert (Fig. 10a) oder ein Objekt, das innerhalb des erwarteten Ortes des Fahrzeuges stillsteht (Fig. 10B), ermittelt, dass es die Gefahr einer Kollision gibt ("JA"). Die Bearbeitung des Programms mittels der CPU 51 schreitet zu Schritt S19 fort. Auf der anderen Seite wird, wenn sich das Objekt vom Fahrzeug entfernt (Fig. 11A) oder wenn das Objekt ein vorherfahrendes Fahrzeug ist, welches mit der gleichen oder einer höheren Geschwindigkeit als das betreffende Fahrzeug fährt (Fig. 11B), ermittelt, dass es keine Gefahr einer Kollision gibt. Dann kehrt das Programm zum Schritt S6 zurück.
Wie oben bereits beschrieben, kann die Gefahr einer Kollision genau bestimmt werden, da sie nicht nur unter Berücksichtigung der erwarteten Position des Fahrzeugs, sondern auch derjenigen des Objektes ermittelt wird.
Weiterhin wird in Schritt S19 der erwartete Zeitpunkt der Kollision mittels der CPU 51 auf der Grundlage der erwarteten Positionen 240C, 240D, 240E,. . . des Objektes nach ΔT1, ΔT2, ΔT3,. . . und der erwarteten Positionen 100C, 100D, 100E des Fahrzeugs nach ΔT1, AT2, ΔT3,. . . berechnet. Zum Beispiel ist im Falle der Fig. 10A und 10B der erwartete Zeitpunkt derjenige nach ΔT3. In diesem Schritt dient die CPU 51 zur Berechnung des Zeitpunkts der Kollision.
Nachfolgend wird im Schritt S20, in dem ein Warnsignal ausgegeben wird, ein mehrstufiges Summer-"AN"-Signal oder ein Audioverkehrsführungssignal, welches mit dem erwarteten Zeitpunkt der Kollision, der in Schritt S19 berechnet worden ist, korrespondiert, zum Lautsprecher 71 geschickt.
Spezifischerweise wird, falls der erwartete Zeitpunkt der Kollision früher als ein vorgegebener Zeitpunkt liegt, nach der Entscheidung, dass die Gefahr gross ist, ein Audioverkehrsführungssignal ausgegeben, so dass der Lautsprecher 71 angibt: "Kollision tritt auf" und "Kollision sofort abwenden". Auf der anderen Seite wird, falls der erwartete Zeitpunkt der Kollision nicht früher als ein vorgegebener Zeitpunkt liegt, nach der Entscheidung, dass die Gefahr gering ist, ein Audioverkehrsführungssignal in folgender Art ausgegeben: "Eine Kollision kann auftreten" und "Vorsicht".
Ein Bildanzeigesignal wird ausgegeben, um die von den CCD- Kameras 11 aufgenommenen Bilder auf dem Display 61 anzuzeigen und ein Markierungsrahmensignal wird ausgegeben, um einen Markierungsrahmen anzuzeigen, der das Objekt einkreist, mit dem eine Kollision wahrscheinlich ist. Wenn es eine Mehrzahl von Objekten mit Kollisionswahrscheinlichkeit gibt, wird die Warnung an das Objekt mit dem erwarteten frühesten Kollisionszeitpunkt angepasst.
Wie oben beschrieben, wird durch das Ausgeben von mehrstufigen Warnmeldungen, die an die Kollisionszeitpunkte angepasst sind, nicht nur die Kollisionsgefahr zwischen dem Fahrzeug und dem Objekt, sondern ebenso der Gefährlichkeitsgrad dem Fahrer zu einem frühen Zeitpunkt zur Kenntnis gebracht. Daher kann die Kollision zwischen dem Fahrzeug und dem Objekt vermieden werden.
In der oben beschriebenen Ausführungsform wurde die räumliche Beziehung zwischen dem Fahrzeug und dem Objekt auf der Grundlage der von den zwei CCD-Kameras aufgenommenen Bilder ermittelt. Sie kann aber ebenso auf der Grundlage der Zeit, die ein Ultraschallsignal, das von einem Ultraschallgenerator zu einem Empfänger übertragen wird, benötigt, oder der Zeit, die ein Laserstrahl, der von einer Laserlichtquelle emittiert wird, zum Erreichen eines Empfängers benötigt, ermittelt werden. In diesem Fall werden der Ultraschallgenerator oder die Laserlichtquelle an Stelle der zwei CCD-Kameras 11 an dem Fahrzeug angebracht.
Jedenfalls erlaubt Laserlicht oder ein Ultraschallsignal nur die Bestimmung der relativen Position eines Objektes, das sich sehr nahe beim Fahrzeug befinden muss. Zusätzlich wurden in der oben beschriebenen Ausführungsform die zum Zeitpunkt t und t + Δt entdeckten Objekte auf der Grundlage der von den CCD-Kameras 11 aufgenommenen Bilder korreliert. Jedenfalls ist es bei der Ermittlung der Objektpositionen mittels Laserlicht oder Ultraschallsignal schwierig zu entscheiden, ob die Objekte, die zum Zeitpunkt Δt entdeckt worden sind, identisch sind, oder nicht. Bevorzugterweise werden daher, um die Kollisionsgefahr zwischen dem Fahrzeug und dem Objekt genauer bestimmen zu können, die relativen Positionen des Fahrzeugs und der Objekte auf der Basis der Bilder ermittelt, die von den CCD-Kameras 11 aufgenommen worden sind, wobei die CCD-Kameras wie beschrieben in der Lage sind, die relativen Positionen aller Objekte und des Fahrzeuges zu ermitteln.
Weiterhin wurde in der oben beschriebenen Ausführungsform die Kollisionsgefahr zwischen dem Objekt und dem Fahrzeug auf der Grundlage der erwarteten Position des Objektes nach ΔT1, ΔT2, ΔT3 bestimmt, unter Berücksichtigung der Geschwindigkeit und der erwarteten Orte des Objektes und der erwarteten Positionen des Fahrzeugs nach ΔT1, ΔT2, ΔT3, unter Berücksichtigung der Geschwindigkeit und des erwarteten Ortes des Fahrzeugs. Jedenfalls kann, wenn ein Objekt, welches sich dem Fahrzeug annähert, auf der Grundlage der erwarteten Orte des Objektes und des Fahrzeuges, entdeckt wird, ermittelt werden, dass es eine Gefahr gibt, ohne die Geschwindigkeit des Objektes und des Fahrzeuges in Betracht zu ziehen. In diesem Fall müssen die erwarteten Orte unter Berücksichtigung der Differenzstrecke zwischen den inneren und den äusseren Rädern berechnet werden. Jedenfalls ist es möglich, dass es keine Gefahr einer Kollision gemäß den Geschwindigkeiten des Objektes und des Fahrzeuges gibt, auch wenn sich das Objekt dem Fahrzeug annähert. Daher wird, um die Kollisionsgefahr zwischen dem Fahrzeug und dem Objekt genauer feststellen zu können, die Kollisionsgefahr bevorzugterweise auf der Grundlage sowohl der erwarteten Positionen des Fahrzeugs als auch der erwarteten Positionen des Objektes ermittelt, wie in der oben beschriebenen Ausführungsform.
In der oben beschriebenen Ausführungsform wurden die Steuerrichtungsbestimmungseinheit 2 und die Geschwindigkeitsermittlungseinheit 3 als Mittel zur Bestimmung der Bewegungsgrößen angewandt. Wie auch immer können z. B. GPS oder ein Kreiselkompass eingesetzt werden, um die Bewegungsgrößen während der vorgegebenen Zeit Δt zu bestimmen. Weiterhin wird in der oben beschriebenen Ausführungsform der Vorgang der Überwachung der Umgebung begonnen, wenn der Zündschalter umgelegt wird. Jedenfalls kann der Vorgang, beginnend mit der Entscheidung zum Rechtsabbiegen oder Linksabbiegen, gestartet werden, wenn der Blinker betätigt wird oder ein Navigationssystem ein Rechtsabbiegen oder Linksabbiegen anweist, und der Vorgang kann beendet werden, wenn das Rechtsabbiegen oder Linksabbiegen, auf der Basis der Steuerrichtungsinformationen, die von der Steuerrichtungsüberwachungseinheit 2b erzeugt werden, als beendet angesehen werden kann. In diesem Fall wird der Seitenbereich des Fahrzeugs nur zum Zeitpunkt des Rechtsabbiegens oder Linksabbiegens überwacht. Zu anderen Zeitpunkten als zu den Zeitpunkten des Rechts- oder Linksabbiegens können die CCD Kameras 11 seitwärts nach hinten gerichtet sein, um den hinteren Bereich während des Fahrens oder Einparkens zu überwachen.
Weiterhin wurde in der oben beschriebenen Ausführungsform ein ROM innerhalb des ìCOM 5 als Vorrichtung zur Aufzeichnung von Daten, die ein Programm zur Ermittlung der Gefahr einer Kollision speichert, eingesetzt. Als weitere Beispiele können Vorrichtungen, die in der Lage sind, das Programm zu speichern, wie eine Speichervorrichtung, eine Magnetplattenvorrichtung oder eine optische Platte, als Vorrichtung zur Aufzeichnung von Daten angewendet werden. Es kann ebenfalls eine Vorrichtung zur Überwachung der Umgebung bereitgestellt werden, in der das Speichermedium nur das Programm starten muss.

Claims (11)

1. Eine Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs, die Folgendes aufweist:
eine Objektpositions-Ermittlungs-Vorrichtung zur Ermittlung der Position eines Objektes in der Umgebung eines Fahrzeuges innerhalb vorgegebener Zeitintervalle;
eine Objekt-Ortsberechnungs-Vorrichtung zur Berechnung des erwarteten Ortes eines Objektes auf der Grundlage der Positionen des Objektes, die mittels der Vorrichtung zur Ermittlung der Objektposition ermittelt worden sind;
eine Fahrzeug-Ortsberechnungs-Vorrichtung zur Berechnung des erwarteten Ortes des Fahrzeuges; und
eine Gefahr-Ermittlungs-Vorrichtung zur Ermittlung, ob es, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeuges, die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
2. Eine Vorrichtung zur Überwachung der Umgebung eines Fahrzeuges gemäß Anspruch 1, die weiterhin aufweist:
eine Vorrichtung zur Bestimmung der Geschwindigkeit des Objektes; und
eine Vorrichtung zur Bestimmung der Geschwindigkeit des Fahrzeuges,
wobei die Gefahr-Ermittlungs-Vorrichtung bestimmt, ob es, beurteilt auf der Basis sowohl der erwarteten Position des Objektes, welche auf der Basis des erwarteten Ortes und der Geschwindigkeit des Objektes berechnet wird, als auch der erwarteten Position des Fahrzeuges, welche auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Fahrzeugs berechnet wird, eine Kollisionsgefahr zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
3. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug, die Folgendes aufweist:
eine Vorrichtung zur Bestimmung der Position eines Objektes, die eine im Fahrzeug eingebaute Vorrichtung zur Überwachung der Umgebung eines Fahrzeuges aufweist, um ein Überwachungssignal zu erzeugen, dass repräsentativ für die Umgebungssituation ist, wobei die Vorrichtung zur Bestimmung der Position eines Objektes zur Bestimmung der Position eines Objektes in einem Koordinatensystem mit Bezug auf die Position und Überwachungsrichtung der Überwachungsvorrichtung innerhalb vorgegebener Zeitintervalle auf der Grundlage des Überwachungssignals dient;
eine Vorrichtung zur Bestimmung der Bewegungsgrößen zur Bestimmung der Position und der Bewegungsgrößen der Überwachungsvorrichtung in Überwachungsrichtung, die sich innerhalb einer vorgegebenen Zeit bewegt, wenn sich das Fahrzeug bewegt;
eine Vorrichtung zur Berechnung des erwarteten Ortes des Objektes, zur Berechnung des wirklichen Ortes des Objektes auf der Grundlage der Position des Objektes und der Bewegungsgrößen der Überwachungsvorrichtung und zur Berechnung des erwarteten Ortes des Objektes auf der Grundlage des wirklichen Ortes des Objektes;
eine Vorrichtung zur Berechnung des Ortes des Fahrzeugs zur Berechnung des erwarteten Ortes des Fahrzeuges; und
eine Vorrichtung zur Gefahrbestimmung, zur Beurteilung, ob es, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des Fahrzeugs, die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
4. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug gemäß Anspruch 3, wobei die Überwachungsvorrichtung eine bildaufnehmende Vorrichtung ist, die eine Mehrzahl von Bildsignalen erzeugt, die mittels Aufnahme der Umgebung des Fahrzeuges aus zwei Positionen, die voneinander durch eine vorgegebene Distanz getrennt sind, erhalten werden; und die Vorrichtung zur Bestimmung der Objektposition die Position eines Objektes auf der Grundlage der Mehrzahl von Bildsignalen der bildaufnehmenden Vorrichtung bestimmt.
5. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug gemäß Anspruch 4, wobei die Vorrichtung zur Ermittlung der Objektposition die Position jedes einer Mehrzahl von Objekten in einem Koordinatensystem ermittelt, wenn sie mittels der bildaufnehmenden Vorrichtung aufgenommen werden;
die Vorrichtung zur Berechnung des erwarteten Ortes des Objektes einen erwarteten Ort jedes einzelnen der Objekte unterscheidbar berechnet; und
eine Vorrichtung zur Gefahrbestimmung zur Beurteilung, ob es, auf der Grundlage sowohl des Ortes jedes der Objekte, als auch des erwarteten Ortes des Fahrzeuges, die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
6. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug gemäß Anspruch 4, die weiterhin aufweist:
eine Vorrichtung zur Bestimmung der Geschwindigkeit des Objektes auf der Grundlage des wirklichen Ortes des Objektes; und
eine Vorrichtung zur Bestimmung der Geschwindigkeit des Objektes; und
eine Vorrichtung zur Bestimmung der Geschwindigkeit des Fahrzeugs,
wobei die Vorrichtung zur Bestimmung der Gefahr beurteilt, ob es, auf der Grundlage sowohl der erwarteten Position des Objektes, welche auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Objektes berechnet wird, als auch der erwarteten Position des Fahrzeuges, welche auf der Grundlage des erwarteten Ortes und der Geschwindigkeit des Fahrzeuges berechnet wird, die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug, gibt, oder nicht.
7. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug gemäß Anspruch 1, die weiterhin eine Warnvorrichtung für die Ausgabe eines Warnsignals aufweist, wenn die Vorrichtung zur Ermittlung der Gefahr ermittelt, dass es eine Gefahr gibt.
8. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug gemäß Anspruch 2, die weiterhin aufweist:
eine Vorrichtung zur Berechnung der erwarteten Kollisionszeit, zur Berechnung der erwarteten Kollisionszeit auf der Grundlage der erwarteten Position des Objektes und der erwarteten Position des Fahrzeugs, wenn die Vorrichtung zur Ermittlung der Gefahr ermittelt, dass es eine Gefahr gibt; und
eine Vorrichtung zur Ausgabe einer Warnmeldung zur Ausgabe einer mehrstufigen Warnmeldung gemäß der erwarteten Kollisionszeit.
9. Eine Vorrichtung zur Überwachung der Umgebung für ein Fahrzeug gemäß Anspruch 5, die weiterhin aufweist:
eine Vorrichtung zur Berechnung der erwarteten Kollisionszeit auf der Grundlage der erwarteten Position des Objektes und der erwarteten Position des Fahrzeugs, wenn die Vorrichtung zur Ermittlung der Gefahr ermittelt, dass es eine Gefahr gibt; und
eine Vorrichtung zur Ausgabe einer Warnmeldung für das Ausgeben einer mehrstufigen Warnmeldung gemäß der erwarteten Kollisionszeit.
10. Eine Vorrichtung zur Aufzeichnung von Daten, die ein Programm für die Bestimmung der Gefahr der Kollision eines Fahrzeuges und eines Objektes mittels eines Computers aufweist, wobei das Programm, das ausgeführt werden soll, nachfolgende Schritte aufweist:
Bestimmen der Position eines Objektes in der Umgebung eines Fahrzeugs innerhalb vorgegebener Zeitintervalle;
Berechnen der erwarteten Orte des Objektes auf der Grundlage der Positionen des Objektes, die mittels der Vorrichtung zum Ermitteln der Objektposition ermittelt worden sind;
Berechnen des erwarteten Ortes des Fahrzeuges; und
Ermitteln, ob es eine, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des erwarteten Ortes des Fahrzeuges, Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
11. Eine Vorrichtung zur Aufzeichnung von Daten, die ein Programm zur Ermittlung der Gefahr einer Kollision eines Fahrzeuges und eines Objekts mittels eines Computers aufweist, wobei das Programm, dass mittels besagten Computers ausgeführt werden soll, folgende Schritte aufweist:
Aufnehmen eines Überwachungssignals, das repräsentativ für die Umgebungssituation ist und von einer im Fahrzeug eingebauten Überwachungsvorrichtung zur Überwachung der Umgebung des Fahrzeuges erzeugt wird;
Feststellen der Position eines Objektes in einem Koordinatensystem innerhalb vorgegebener Zeitintervalle auf der Grundlage des Überwachungssignals;
Feststellen der Position und Bewegungsgrößen der Überwachungsvorrichtung in Überwachungsrichtung, die sich innerhalb einer vorgegebenen Zeit bewegt, wenn sich das Fahrzeug bewegt;
Berechnen des wirklichen Ortes des Objektes auf der Grundlage der Positionen des Objektes und der Bewegungsgrößen der Überwachungsvorrichtung;
Berechnen des erwarteten Ortes des Objektes auf der Grundlage des wirklichen Ortes des Objektes;
Berechnen des erwarteten Ortes des Fahrzeuges; und
Beurteilen, ob es, auf der Grundlage sowohl des erwarteten Ortes des Objektes als auch des Ortes des Fahrzeuges, die Gefahr einer Kollision zwischen dem Objekt und dem Fahrzeug gibt, oder nicht.
DE10101250A 2000-01-14 2001-01-12 Überwachung der Umgebung eines Motorfahrzeugs auf Kollisionsgefahr Withdrawn DE10101250A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000005597A JP2001195699A (ja) 2000-01-14 2000-01-14 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
DE10101250A1 true DE10101250A1 (de) 2001-07-26

Family

ID=18534241

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10101250A Withdrawn DE10101250A1 (de) 2000-01-14 2001-01-12 Überwachung der Umgebung eines Motorfahrzeugs auf Kollisionsgefahr

Country Status (4)

Country Link
US (1) US6714139B2 (de)
JP (1) JP2001195699A (de)
DE (1) DE10101250A1 (de)
GB (1) GB2358751A (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10352596B4 (de) * 2002-11-12 2014-07-24 Nissan Motor Co., Ltd. Warnvorrichtung und Warnverfahren für ein Fahrzeug
DE10240018B4 (de) * 2002-08-27 2016-09-15 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Warnsignals vor einer Notmaßnahme eines Fahrerassistenzsystems eines Fahrzeugs
DE102006026370B4 (de) * 2006-06-07 2020-03-19 Volkswagen Ag Fahrzeug mit einem Fahrerassistenzsystem

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6951259B2 (en) * 1998-12-03 2005-10-04 Koji Irikura Multi-wheel vehicle
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US10298735B2 (en) 2001-04-24 2019-05-21 Northwater Intellectual Property Fund L.P. 2 Method and apparatus for dynamic configuration of a multiprocessor health data system
US7146260B2 (en) 2001-04-24 2006-12-05 Medius, Inc. Method and apparatus for dynamic configuration of multiprocessor system
JP3606223B2 (ja) * 2001-04-26 2005-01-05 住友電気工業株式会社 車両側方映像生成方法及び車両側方映像生成装置
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
DE10332502A1 (de) * 2003-07-17 2005-02-03 Daimlerchrysler Ag Verfahren und Vorrichtung zur Gefahrenwarnanzeige, insbesondere in einem Kraftfahrzeug
US7243013B2 (en) 2002-11-13 2007-07-10 Ford Global Technologies, Llc Vehicle radar-based side impact assessment method
JP3945467B2 (ja) * 2003-10-02 2007-07-18 日産自動車株式会社 車両後退支援装置および方法
JP3941770B2 (ja) * 2003-10-28 2007-07-04 株式会社デンソー 衝突可能性判定装置
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
JP4244887B2 (ja) * 2004-08-31 2009-03-25 日産自動車株式会社 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法
JP4140588B2 (ja) * 2004-09-01 2008-08-27 日産自動車株式会社 移動物体検出装置
DE102004044517A1 (de) * 2004-09-15 2006-04-13 Daimlerchrysler Ag Einrichtung zur vorausschauenden Kollisionserkennung und -vermeidung
US7262710B2 (en) * 2004-09-22 2007-08-28 Nissan Motor Co., Ltd. Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
US7337650B1 (en) 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
JP4573242B2 (ja) * 2004-11-09 2010-11-04 アルパイン株式会社 運転支援装置
JP2006160193A (ja) * 2004-12-10 2006-06-22 Alpine Electronics Inc 車両運転支援装置
US7130745B2 (en) * 2005-02-10 2006-10-31 Toyota Technical Center Usa, Inc. Vehicle collision warning system
JP4687160B2 (ja) * 2005-03-14 2011-05-25 アイシン精機株式会社 周辺監視装置
EP1696669B1 (de) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Gerät zur Fahrzeugumgebungsbeobachtung
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
JP4774849B2 (ja) * 2005-07-27 2011-09-14 日産自動車株式会社 車両の障害物表示装置
JP4744995B2 (ja) * 2005-09-08 2011-08-10 クラリオン株式会社 車両用障害物検出装置
US7496439B2 (en) * 2005-10-17 2009-02-24 Lang Mekra North America, Llc Multifunction exterior display for a vehicle mirror
WO2007055242A1 (ja) * 2005-11-10 2007-05-18 Pioneer Corporation 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
EP1813959B1 (de) * 2006-01-31 2009-01-28 MEKRA Lang GmbH & Co. KG Rückspiegel für Fahrzeuge mit einer elektronischen Display zur Anzeige von Objektion in einem überwachten Bereich zur Kollisionsvermeidung
JP4800078B2 (ja) * 2006-03-23 2011-10-26 本田技研工業株式会社 車両周辺監視システム
JP4846426B2 (ja) * 2006-04-20 2011-12-28 パナソニック株式会社 車両周囲監視装置
DE102007040539B4 (de) * 2006-09-04 2014-03-27 Denso Corporation Fahrzeugsteuersystem
JP5132164B2 (ja) * 2007-02-22 2013-01-30 富士通株式会社 背景画像作成装置
US7831391B2 (en) * 2007-06-12 2010-11-09 Palo Alto Research Center Incorporated Using segmented cones for fast, conservative assessment of collision risk
JP4412356B2 (ja) * 2007-06-13 2010-02-10 株式会社デンソー 車両用衝突緩和装置
JP5023869B2 (ja) * 2007-08-01 2012-09-12 日産自動車株式会社 車両用運転操作支援装置、および車両用運転操作支援方法
JP4950150B2 (ja) * 2008-08-27 2012-06-13 トヨタ自動車株式会社 移動体の位置情報取得システム及び取得方法
US7991551B2 (en) * 2008-11-06 2011-08-02 Ford Global Technologies, Llc System and method for determining a collision status of a nearby vehicle
US7991552B2 (en) * 2008-11-06 2011-08-02 Ford Global Technologies, Llc System and method for determining a side-impact collision status of a nearby vehicle
US9358924B1 (en) 2009-05-08 2016-06-07 Eagle Harbor Holdings, Llc System and method for modeling advanced automotive safety systems
US8417490B1 (en) 2009-05-11 2013-04-09 Eagle Harbor Holdings, Llc System and method for the configuration of an automotive vehicle with modeled sensors
JP5436086B2 (ja) * 2009-08-03 2014-03-05 アルパイン株式会社 車両周辺画像表示装置および車両周辺画像表示方法
US8633810B2 (en) 2009-11-19 2014-01-21 Robert Bosch Gmbh Rear-view multi-functional camera system
JP5525277B2 (ja) * 2010-02-10 2014-06-18 株式会社小糸製作所 カメラを内蔵した車両用灯具
US8878660B2 (en) 2011-06-28 2014-11-04 Nissan North America, Inc. Vehicle meter cluster
CN103148183B (zh) * 2011-12-07 2017-10-24 舍弗勒技术股份两合公司 用于连续牵引机构的板簧张紧器
US8886392B1 (en) 2011-12-21 2014-11-11 Intellectual Ventures Fund 79 Llc Methods, devices, and mediums associated with managing vehicle maintenance activities
DE102012215350A1 (de) * 2012-08-29 2014-03-06 Continental Automotive Gmbh Multisensuelle Aufmerksamkeitslenkung
US10065562B2 (en) 2013-12-31 2018-09-04 International Business Mahcines Corporation Vehicle collision avoidance
JP6281289B2 (ja) * 2014-01-10 2018-02-21 アイシン精機株式会社 周辺監視装置、及びプログラム
JP2015191441A (ja) * 2014-03-28 2015-11-02 三菱電機株式会社 衝突判定装置
JP6451464B2 (ja) 2015-04-02 2019-01-16 株式会社デンソー 衝突回避装置、及び衝突回避システム
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
JP6787376B2 (ja) * 2018-09-06 2020-11-18 株式会社デンソー 運転支援方法
US11138449B2 (en) * 2018-09-28 2021-10-05 Intel Corporation Obstacle representation display

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3737902A (en) * 1970-08-19 1973-06-05 State Street Bank & Trust Co Collision avoidance system providing a vector signal representative of the distance and bearing between a prime vehicle and target object at a predicted closest point of approach therebetween
GB2020938B (en) * 1978-05-10 1982-09-02 Sperry Rand Ltd Collision avoidance apparatus
US4313115A (en) * 1978-05-10 1982-01-26 Sperry Limited Collision avoidance apparatus
FR2458113A1 (fr) * 1979-05-31 1980-12-26 Degre Thomas Procede et dispositif de detection et de prevention de risques de collisions dans la navigation en haute mer et cotiere
DE3830790A1 (de) * 1988-09-09 1990-03-15 Freund Eckhard Verfahren und vorrichtung zur automatischen kollisionsvermeidung fuer automatisch fuehrbare fahrzeuge
US5249157A (en) * 1990-08-22 1993-09-28 Kollmorgen Corporation Collision avoidance system
US5313201A (en) * 1990-08-31 1994-05-17 Logistics Development Corporation Vehicular display system
DE4115747C2 (de) 1991-05-14 1998-02-26 Hipp Johann F Vorrichtung und Verfahren zur Situations-, Hindernis- und Objekterkennung
US5235316A (en) * 1991-12-20 1993-08-10 Qualizza Gregory K Vehicle collision avoidance system
US5598164A (en) * 1992-08-10 1997-01-28 Reppas; George S. Vehicle obstacle avoidance system
DE69333543T2 (de) * 1992-09-30 2005-06-02 Hitachi, Ltd. Unterstützungssystem für den Fahrer eines Fahrzeugs und damit ausgerüstetes Fahrzeug
US5339075A (en) * 1992-11-24 1994-08-16 Terrill Abst Vehicular collision avoidance apparatus
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
JP2786809B2 (ja) * 1994-03-08 1998-08-13 株式会社トキメック 船舶用航行支援装置
US5594414A (en) * 1994-08-02 1997-01-14 Namngani; Abdulatif Collision probability detection system
JP3132361B2 (ja) * 1995-03-17 2001-02-05 トヨタ自動車株式会社 車載用レーダ装置
JPH08263793A (ja) * 1995-03-23 1996-10-11 Honda Motor Co Ltd 車両制御装置
US5767793A (en) * 1995-04-21 1998-06-16 Trw Inc. Compact vehicle based rear and side obstacle detection system including multiple antennae
US5734336A (en) * 1995-05-01 1998-03-31 Collision Avoidance Systems, Inc. Collision avoidance system
US5907293A (en) * 1996-05-30 1999-05-25 Sun Microsystems, Inc. System for displaying the characteristics, position, velocity and acceleration of nearby vehicles on a moving-map
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JP3314623B2 (ja) * 1996-08-12 2002-08-12 トヨタ自動車株式会社 車載走査型レーダ装置
JP3214364B2 (ja) 1996-08-14 2001-10-02 富士電機株式会社 車間距離測定装置
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
JP3645988B2 (ja) * 1997-06-30 2005-05-11 本田技研工業株式会社 車両の障害物検知装置
DE19821803A1 (de) 1998-05-15 1999-11-18 Daimler Chrysler Ag Verfahren und Vorrichtung zur Längsgeschwindigkeitssteuerung eines Kraftfahrzeuges
JPH11345394A (ja) * 1998-06-03 1999-12-14 Mitsubishi Electric Corp 車両の周辺監視装置
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
US6269308B1 (en) * 1998-08-20 2001-07-31 Honda Giken Kogyo Kabushiki Kaisha Safety running system for vehicle
US5969665A (en) * 1999-01-04 1999-10-19 Yufa; Aleksandr L. Method and apparatus for control of vessel maneuvering
JP3513428B2 (ja) * 1999-06-02 2004-03-31 三菱電機株式会社 車両の車線変更時警報装置
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP2001233150A (ja) * 2000-02-22 2001-08-28 Yazaki Corp 車両用危険判断装置及び、車両用周辺監視装置
US8966079B2 (en) 2007-06-26 2015-02-24 Qualcomm Incorporated Technique for enabling multiple actions to be performed on an active data item

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10240018B4 (de) * 2002-08-27 2016-09-15 Volkswagen Ag Verfahren und Vorrichtung zur Erzeugung eines Warnsignals vor einer Notmaßnahme eines Fahrerassistenzsystems eines Fahrzeugs
DE10352596B4 (de) * 2002-11-12 2014-07-24 Nissan Motor Co., Ltd. Warnvorrichtung und Warnverfahren für ein Fahrzeug
DE102006026370B4 (de) * 2006-06-07 2020-03-19 Volkswagen Ag Fahrzeug mit einem Fahrerassistenzsystem

Also Published As

Publication number Publication date
GB2358751A (en) 2001-08-01
JP2001195699A (ja) 2001-07-19
US20010008992A1 (en) 2001-07-19
GB0100036D0 (en) 2001-02-14
US6714139B2 (en) 2004-03-30

Similar Documents

Publication Publication Date Title
DE10101250A1 (de) Überwachung der Umgebung eines Motorfahrzeugs auf Kollisionsgefahr
DE60122963T2 (de) Navigationsvorrichtung
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE60009976T2 (de) Rück- und Seitenblickmonitor mit Kamera für Fahrzeug
DE60126382T2 (de) Verfahren und Gerät zur Erkennung von Gegenständen
DE102019205223A1 (de) Einfädelverhaltenssysteme und Verfahren zum Einfädeln von Fahrzeugen
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
DE202016008786U1 (de) Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung
DE10108646A1 (de) Gefahrenentscheidungsvorrichtung für ein Kraftfahrzeug und Umgebungsüberwachungsvorrichtung für dasselbe
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
EP2869284B1 (de) Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
DE102010051206A1 (de) Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
EP1037189B1 (de) Verfahren zur Anzeige von Objekten für Fahrzeug
DE102009012917A1 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
EP1593552A1 (de) Überwachung eines PKW-Anhängers mit einer Rückfahrkamera
DE102018127164A1 (de) Vorrichtung zum bestimmen abgelenkten fahrens, verfahren zum bestimmen abgelenkten fahrens, und programm zum bestimmen abgelenkten fahrens
WO2007036397A1 (de) Nachtsichteinrichtung für ein kraftfahrzeug
DE102008010119A1 (de) Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE202010018439U1 (de) Vorrichtung zum Unterstützen eines Fahrers beim Steuern eines Fahrzeugs entlang einer Engstelle
DE102010051204A1 (de) Verfahren zum Darstellen eines Hindernisses und Abbildungsvorrichtung
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
EP1028387B1 (de) Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung
EP3078015A1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
WO2017198429A1 (de) Ermittlung von fahrzeugumgebungsdaten

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal