WO2004045912A1 - Bildgeber - Google Patents

Bildgeber Download PDF

Info

Publication number
WO2004045912A1
WO2004045912A1 PCT/DE2003/002507 DE0302507W WO2004045912A1 WO 2004045912 A1 WO2004045912 A1 WO 2004045912A1 DE 0302507 W DE0302507 W DE 0302507W WO 2004045912 A1 WO2004045912 A1 WO 2004045912A1
Authority
WO
WIPO (PCT)
Prior art keywords
imager
image
functionality
monitoring
self
Prior art date
Application number
PCT/DE2003/002507
Other languages
English (en)
French (fr)
Inventor
Thomas Engelberg
Heiko Freienstein
Hoang Trinh
Hans-Dieter Bothe
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to JP2004570259A priority Critical patent/JP2006506924A/ja
Priority to EP03797951A priority patent/EP1575808B1/de
Priority to US10/532,375 priority patent/US7619650B2/en
Priority to DE50308293T priority patent/DE50308293D1/de
Publication of WO2004045912A1 publication Critical patent/WO2004045912A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • B60R21/33Arrangements for non-electric triggering of inflation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Definitions

  • the invention is based on an image generator according to the type of the independent claim.
  • the imager according to the invention with the features of the independent claim has the advantage that the imager monitors its functionality based on its image signal. This fulfills a security requirement for such an image recognition system.
  • the imager can be used both for occupant detection, determining the pose of the occupant or for classifying the occupancy situation, but also for monitoring the environment and also for example for rollover detection.
  • an additional sensor system for monitoring the functionality is no longer necessary, or the requirements for additional monitoring devices can be reduced.
  • imaging devices can be used here in safety-relevant applications, such as systems for occupant protection.
  • the functionality of the imaging device is essential for the functionality.
  • the imager has an evaluation unit that derives at least one value from the image signal, which the evaluation unit compares with at least one limit value for monitoring the functionality. Knowledge of experience about measurement signal curves can then be incorporated. In particular, it is possible to compare a limit value set that is stored in a memory that is assigned to the imager. A system state can be determined in particular by comparing with several limit values. This system state is then advantageously transmitted to other systems via an interface.
  • This interface can be designed as a two-wire interface, for example to a control unit, but it can also be designed as one. Be formed bus interface. Optical, electrical or radio bus configurations can then be used for this.
  • the imager generates the image signal on the basis of at least one invariant pattern.
  • This invariant image signal is then used for self-monitoring by comparing it to an internal reference pattern.
  • naturally occurring invariant features of the environment or invariant features automatically induced by a system can be generated, for example with the aid of a lighting module or artificially induced invariant features of the environment, for example intended targets, or by means of a test image method.
  • a simulated sensor signal is fed to the evaluation unit. The associated measurement signal is specified. Deviations then lead to an error message.
  • the imager monitors its functionality on the basis of a profile of the image signal. This can be done, for example, by simply comparing adjacent areas of the imaging device. A pattern comparison, i.e. a comparison with qualitative signal curves, is also possible here. Trends can be analyzed or statistical parameters, or correlation methods can be applied to the image signal curve. Spectral methods such as the analysis of the Fourier spectrum, the wavelet spectrum or the contrast spectrum can also be used here. Furthermore, it is advantageous that the imaging device, if it has at least two imaging sensors, checks its functionality by comparing the output signals of these two imaging sensors. This allows the redundancy of a group of high-resolution sensors, such as an array or a stereo camera, to be used. The methods of analyzing the image signal curve can then also be used here. It is also possible to use redundancy over time by analyzing the sensor signal over time or analyzing recorded dynamic processes.
  • the self-monitoring of the imaging device can be carried out in an initialization phase or continuously or intermittently during operation.
  • the imaging device can be connected to a diagnostic unit that activates the self-monitoring of the imaging device.
  • This diagnostic unit can be arranged in the vehicle or also outside the vehicle in order to then carry out self-monitoring via a radio link. It is conceivable that if the diagnosis unit is activated, an extended test program is also carried out, since it is possible, for example, to transfer sample files or to carry out long-term tests.
  • the imager can be activated manually for self-monitoring. For this purpose, the imager then has corresponding operating elements or interfaces which initiate self-monitoring by actuating a device.
  • the imaging device can in particular be configured to provide depth imaging, i.e.
  • two image sensors are used to obtain a depth resolution of an object.
  • a matrix or an array of image sensors can also be used for this.
  • a depth image sensor that works according to other physical principles, such as the runtime principle or the principle of structured lighting, is also conceivable.
  • FIG. 1 shows a first block diagram of the imaging device according to the invention
  • FIG. 2 shows a second block diagram of the imaging device according to the invention
  • FIG. 3 shows a third block diagram of the imaging device according to the invention
  • Figure 4 is a fourth block diagram
  • Figure 5 is a fifth block diagram.
  • a self-monitoring functionality is realized in that, using methods of signal processing with the aid of the evaluation unit, quantities are determined from the sensor signals that indicate the functionality of the sensor or the measuring system , Prior and experience knowledge of signal profiles is suitably evaluated.
  • a parameter which has been derived from the image signal is compared with a limit value or a limit value set which is stored in a memory which is assigned to the image generator.
  • Another possibility is to carry out an assessment of the system status on the basis of several different sizes. If limit values are exceeded or a restricted functionality up to sensor failure is determined in some other way, a corresponding status report is transmitted via a suitable interface, or at least the failure of the imager is reported.
  • Self-monitoring can be carried out during the initialization phase of the imager at certain times or permanently. Self-monitoring can also be activated externally, ie by a higher-level system such as a diagnostic unit, or manually. It is conceivable that, if activated by a diagnostic system, an extended test program is also carried out, since it is possible, for example, to transfer sample files or to carry out long-term tests.
  • FIG. 1 shows the imager according to the invention in a first block diagram.
  • the physical process 10 (the scene) is imaged by the sensor 12 as an image signal.
  • the sensor 12 forms a measuring system with a processing unit 13.
  • the image signal generated by the sensor 12 is processed and processed by the processing unit 13.
  • the measurement signal that is to say the image signal, is transmitted to further systems, such as, for example, a control device for occupant detection, via a first interface 14.
  • the status of the imager which is shown here, and which was also determined on the basis of the image signal, is transmitted via a further interface 15.
  • the status of the imager that is to say its self-monitoring, is carried out either by using the prior knowledge about its invariant pattern, or by using knowledge of measurement signal courses or redundancy of a combination of sensors or by using temporal redundancy.
  • the interfaces 14 and 15 can also be combined in one interface and are then only logically separated.
  • the interfaces here can be two-wire interfaces or interfaces to a bus system.
  • FIG. 2 now shows an imaging device that has more than one sensor for image acquisition and is therefore also configured for depth imaging.
  • Three sensors 22 to 24 are shown here by way of example, but it is possible to use only two sensors or more Sensors to use.
  • the measuring system 21 is therefore formed from the sensors 22 to 24 and the processing unit 25.
  • the physical process 20 (the scene) is mapped by sensors 22-24.
  • the processing unit 25 picks up the image signals from the image sensors 22 to 24, processes them and then, depending on the evaluation of these image signals, routes signals to the interfaces 26 and 27 in order to transmit the status of the imager on the one hand and the measurement signal itself on the other.
  • the sensors 22 to 24 can be connected to individual interface modules of the processing unit 25, but they can also be connected to the processing unit 25 via a multiplexer or an internal bus.
  • the imaging device can be implemented in a structural unit in which the interfaces 26 and 27 are also integrated. However, it is possible that there is no housing for all of these components, but that they are arranged in a distributed manner.
  • the processing unit 25 then, as described above, carries out the analysis of the image signal in order to carry out the self-monitoring of the image generator.
  • FIG. 3 shows the image generator according to the invention in a third block diagram.
  • two sensors as video cameras 31 and 32 which are connected to a processing unit 33.
  • This has a program 34 for sensor data processing and a program 35 for self-monitoring.
  • the self-monitoring 35 is also carried out on the image signals of the video cameras 31 and 32.
  • the processing unit 33 controls a lighting unit or a signal transmitter 36, for example in order to carry out self-monitoring by comparing self-induced patterns with their internal representation.
  • the processing unit 33 is also connected to interfaces 37 and 38, which each serve to transmit the measurement signal, that is to say the image or depth image and the status or the result of the self-monitoring.
  • the measuring system 30 thus consists of the video cameras 31 and 32, the processing unit 33 and the lighting unit 36.
  • the entire image generator is supplemented by the interfaces 37 and 38.
  • the sensors 31 and 32 are designed here as video cameras.
  • the output signals are fed to the evaluation unit 33, which carries out suitable processing steps such as image processing, correlation methods or triangulation in order to generate the spatial data.
  • This processing unit 33 also executes suitable methods for self-monitoring of the measuring system.
  • output signals of the stero-video measurement system are image, depth image and status signal of the measurement system 30.
  • a stereo video-based measuring system can be seen as a typical example of a high-resolution imaging or depth imaging measuring system, to which many of the methods of signal processing or pattern recognition for self-monitoring can be applied.
  • a largely independent one Generation of the individual sensor signals should enable powerful self-monitoring functionality.
  • FIG. 4 shows a fourth block diagram of the imager according to the invention.
  • a video sensor system 40 has a camera system 42 which is connected on the one hand to an image preprocessing 43 and on the other hand to an output of the video sensor system.
  • the image preprocessing 43 is connected to a comparison unit 44, which is connected via an output to an evaluation unit 45 and via an input to a device for structured lighting.
  • the evaluation unit 45 supplies the sensor status via an output of the video sensor system 40.
  • the device for structured lighting 41 irradiates the surroundings of the video sensor system 40 with a structured light as a reference pattern and in particular a surface 47 on which the reference pattern is imaged. This surface is then referred to as the reference surface 47.
  • the reference surface 47 is rigid and stationary.
  • Object surfaces present in the detection range of the video sensor system 40 are conceivable as reference surfaces, such as, for example, a headliner when the sensor is used to monitor a motor vehicle interior.
  • special calibration bodies are also possible, which are introduced in a defined position and orientation, for example during the manufacturing process.
  • the camera system 42 which can consist of one or more cameras, captures the reference pattern on the reference surface 47.
  • the two-dimensional camera images are compared in the comparison unit 44 with the reference pattern, which can also be two-dimensional camera images that are used in the optional image preprocessing 43 were processed. This treatment can be filtering.
  • the comparison unit 44 can have a storage unit in which, for example, the reference patterns are stored, provided that these are not supplied by the structured lighting unit in the form of a signal.
  • the sensor status is then determined in the evaluation unit 45 on the basis of the results of the comparison unit 44. The sensor status can be seen, for example, that the sensor is covered or uncovered and / or the sensor optics is focused or unfocused and / or the optical image is distorted or undistorted.
  • the evaluation unit 45 can also contain a memory in which, for example, certain patterns that are used when comparing the Reference patterns with the camera images of a disturbed video sensor system can be saved.
  • the device described above can be used to determine defocusing of the sensor by analyzing whether there is a sharp image of the reference pattern in the camera image.
  • complete or partial masking of the sensor can be detected by checking whether the reference pattern is completely and undistorted in the camera image. Distortions in the optical image lead to a distorted image of the reference pattern in the camera image and can thus be determined with the aid of the comparison unit 44 and the evaluation unit 45.
  • Other errors that can be detected with this system are contamination of the optics and a misalignment of the absolute calibration. The resulting shift and distortion of the reference pattern is detected here. This data can even be initially calibrated or recalibrated.
  • the device for structured lighting 41 can be integrated in the video sensor.
  • a device for structured lighting that is separate from the video sensor.
  • a defined orientation of the device for structured lighting in relation to the video sensor is required.
  • the video image of the structured lighting is interpreted directly. An evaluation of a three-dimensional image is also possible.
  • FIG. 5 shows another block diagram.
  • a video sensor system 50 has two cameras 52 and 53, each of which delivers its camera image to a unit 54 for determining three-dimensional measurement values. This then results in a three-dimensional point cloud, which is fed to signal preprocessing 55 on the one hand and to an output of video sensor system 50 on the other hand.
  • the signal preprocessing 55 is connected to a comparison unit 56, to which a device 51 for structured lighting is also connected.
  • the comparison unit 56 is connected via a data output to an evaluation unit 57, which in turn outputs the sensor status.
  • the structured lighting device 51 illuminates a reference surface in the surroundings 58 of the video sensor.
  • the reflected pattern is recorded by the cameras 52 and 53.
  • the unit 54 determines the three-dimensional point cloud from the camera images on the basis of the stereo measurement principle.In addition to determining the three-dimensional point cloud, the two-dimensional camera images can also be evaluated directly.Another possibility is to evaluate the three-dimensional measured values by a range sensor that works according to the time-of-flight principle

Abstract

Es wird ein Bildgeber, der in einem Fahrzeug angeordnet ist, vorgeschlagen, der derart konfiguriert ist, dass er eine Selbstüberwachung durchführt. Dies kann anhand von der Auswertung von invarianten Mustern, von Erfahrungswissen über Mess-Signalverläufe, durch Ausnutzung der Redundanz eines Verbundes von Sensoren oder durch die Ausnutzung von zeitlicher Redundanz erfolgen.

Description

Bildgeber
Stand der Technik
Die Erfindung geht aus von einem Bildgeber nach der Gattung des unabhängigen Patentanspruchs.
Aus WO 01/60662 AI ist bereits ein Bildgeber, der in einem Fahrzeug angeordnet ist, bekannt. Er wird hier zur Sitzbelegungserkennung verwendet.
Vorteile der Erfindung
Der erfindungsgemäße Bildgeber mit den Merkmalen des unabhängigen Patentanspruchs hat demgegenüber den Vorteil, dass der Bildgeber anhand seines Bildsignals seine Funktionsfähigkeit überwacht. Dadurch wird eine Sicherheitsanforderung an ein solches Bilderkennungssystem erfüllt. Der Bildgeber kann dabei sowohl zur Insassenerkennung, Bestimmung der Pose des Insassen oder zur Klassifizierung der Belegungssituation verwendet werden, aber auch zur Umfeldübei-wachung und auch dabei beispielsweise zur Überrollerkennuag. Insbesondere ist damit eine zusätzliche Sensorik zur Überwachung der Funktionsfähigkeit nicht mehr notwendig, bzw. es können Anforderungen an zusätzliche Überwachungsvorrichtungen reduziert werden. Insbesondere sind hier Bildgeber in sicherheitsrelevanten Anwendungen anwendbar, wie es Systeme zum Insassenschutz sind. Gerade hier ist die Funktionsfähigkeit des Bildgebers essentiell für die Funktionsfähigkeit. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen und Weiterbildungen sind vorteilhafte Verbesserungen des im unabhängigen Patentanspruch angegebenen
Bildgebers möglich.
Besonders vorteilhaft ist, dass der Bildgeber eine Auswerteeinheit aufweist, die aus dem Bildsignal wenigstens einen Wert ableitet, den die Auswerteeinheit mit wenigstens einem Grenzwert zur Überwachung der Funktionsfähigkeit vergleicht. Dabei kann dann ein Erfahrungswissen über Mess-Signalverläufe einfließen. Insbesondere ist es dabei möglich, einen Grenzwertesatz zu vergleichen, der in einem Speicher, der dem Bildgeber zugeordnet ist, abgelegt ist. Durch den Vergleich mit mehreren Grenzwerten kann insbesondere ein Systemzustand bestimmt werden. Vorteilhafterweise wird dann dieser Systemzustand über eine Schnittstelle an weitere Systeme übermittelt. Diese Schnittstelle kann als eine Zweidrahtschnittstelle beispielsweise zu einem Steuergerät ausgebildet sein, sie kann aber auch als eine. Busschnittstelle ausgebildet sein. Dafür können dann beispielsweise optische, elektrische oder Funkbuskonfigurationen verwendet werden.
Weiterhin ist es von Vorteil, dass der Bildgeber anhand wenigstens eines invarianten Musters das Bildsignal erzeugt. Dieses invariante Bildsignal wird dann zur Selbstüberwachung verwendet, indem es mit einem internen Referenzmuster verglichen wird. Dazu können natürlich vorkommende invariante Merkmale des Umfeldes oder von einem System automatisch induzierte invariante Merkmale, beispielsweise mit Hilfe eines Beleuchtungsmoduls oder künstlich induzierte invariante Merkmale des Umfeldes, zum Beispiel vorgesehene Targets, oder durch ein Testbildverfahren erzeugt werden. Beim Testbildverfahren wird der Auswerteeinheit ein simuliertes Sensorsignal zugeführt. Das dazugehörige Mess-Signal ist vorgegeben. Abweichungen führen dann zu einer Fehlermeldung.
Weiterhin ist es von Vorteil, dass der Bildgeber anhand eines Verlaufs des Bildsignals seine Funktionsfähigkeit überwacht. Dies kann beispielsweise durch einen einfachen Vergleich benachbarter Bereiche des Bildgebers durchgeführt werden. Auch ein Mustervergleich, also ein Vergleich mit qualitativen Signalverläufen ist hier möglich. Trends können analysiert werden oder statistische Parameter, oder es können Korrelationsverfahren auf den Bildsignalsverlauf angewendet werden. Aber auch spektrale Methoden wie die Analyse des Fourierspektrums, des Waveletspektrums oder des Kontrastspektrums können hier Anwendung finden. Darüber hinaus ist es von Vorteil, dass der Bildgeber, wenn er wenigstens zwei bildgebende Sensoren aufweist, durch einen Vergleich der Ausgangssignale dieser zwei bildgebenden Sensoren seine Funktionsfähigkeit überprüft. Dadurch kann die Redundanz eines Verbundes von hoch auflösenden Sensoren, wie es beispielsweise ein Array oder auch eine Stereokamera ist, ausgenutzt werden. Auch hier sind dann die Methoden der Analyse des Bildsignalverlaufs anwendbar. Auch die Ausnutzung einer zeitlichen Redundanz durch eine zeitliche Analyse des Sensorsignals bzw. Analyse von aufgezeichneten dynamischen Vorgängen ist hier möglich.
Die Selbstüberwachung des Bildgebers kann in einer Initialisierungsphase oder auch dauernd oder intermittierend während des Betriebs durchgeführt werden.
Darüber hinaus ist es von Vorteil, dass der Bildgeber mit einer Diagnoseeinheit verbindbar ist, die die Selbstüberwachung des Bildgebers aktiviert. Diese Diagnoseeinheit kann im Fahrzeug angeordnet sein oder auch außerhalb des Fahrzeugs, um dann über eine Funkverbindung die Selbstüberwachung durchzuführen. Denkbar ist, dass im Falle einer Aktivierung durch die Diagnoseeinheit auch ein erweitertes Testprogramm durchgeführt wird, da es möglich ist, zum Beispiel Musterdateien zu übertragen, oder auch Langzeittests durchzuführen. Weiterhin kann es von Vorteil sein, dass der Bildgeber manuell zur Selbstüberwachung aktivierbar ist. Dafür weist dann der Bildgeber entsprechende Bedienelemente oder Schnittstellen auf, die durch eine Betätigung eines Gerätes die Selbstüberwachung einleiten.
Der Bildgeber kann insbesondere tiefenbildgebend konfiguriert sein, d.h. es werden beispielsweise zwei Bildsensoren verwendet, um eine Tiefenauflösung eines Objekts zu erhalten. Dafür kann auch eine Matrix oder ein Array von Bildsensoren verwendet werden. Denkbar ist auch ein Tiefenbildsensor, der nach anderen physikalischen Prinzipien arbeitet, wie beispielsweise dem Laufzeitprinzip oder der Prinzip der strukturierten Beleuchtung.
Zur Selbstüberwachung, aber auch für andere Zwecke, kann es vorteilhaft sein, eine Beleuchtungsvorrichtung aufzuweisen, die dem Bildgeber zugeordnet ist. Zeichnung
Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert.
Es zeigen
Figur 1 ein erstes Blockschaltbild des erfindungsgemäßen Bildgebers,
Figur 2 ein zweites Blockschaltbild des erfindungsgemäßen Bildgebers,
Figur 3 ein drittes Blockschaltbild des erfindungsgemäßen Bildgebers,
Figur 4 ein viertes Blockschaltbild und
Figur 5 ein fünftes Blockschaltbild.
Beschreibung
Hochentwickelte, hochauflösende bild- bzw. tiefenbildgebende Mess-Systeme sind für Anwendungen in der Kraftfahrzeugtechnik zunehmend interessant. Als videobasierte Assistenzsysteme und Sicherheitssysteme sind hier besondere Anwendungen vorgesehen. Je stärker der Mensch entlastet werden soll, desto zuverlässiger muss ein solches Mess- System sein. In diesem Zusammenhang kommt auch der Fähigkeit des Systems, einen Ausfall zu detektieren und geeignete Maßnahmen einzuleiten, eine große Bedeutung zu. Erfindungsgemäß wird nun ein solcher Bildgeber vorgeschlagen, der diese Fähigkeit zur Selbstüberwachung hat, wobei dieser Bildgeber im Kraftfahrzeug eingebaut ist. Kern der Erfindung ist die Integration dieser Selbstüberwachungsfunktionalität in ein hoch auflösendes bild- bzw. tiefenbildgebendes Mess-System.
Da solche Mess-Systeme zur Messwertgenerierung über mindestens eine leistungsfähige Auswerteeinheit verfügen, wird eine Selbstüberwachungsfunktionalität realisiert, indem durch Methoden der Signalverarbeitung mit Hilfe der Auswerteeinheit aus den Sensorsignalen selbst Größen ermittelt werden, die auf die Funktionstüchtigkeit des Sensors bzw. des Mess-Systems schließen lassen. Vor- und Erfahrungswissen über Signalverläufe wird geeigneterweise ausgewertet. Im einfachsten Fall wird eine Kenngröße, die aus dem Bildsignal abgeleitet wurde, mit einem Grenzwert bzw. einem Grenzwertesatz verglichen, der in einem Speicher, der dem Bildgeber zugeordnet ist, abgelegt ist. Eine andere Möglichkeit ist, auf Basis mehrerer verschiedener Größen eine Bewertung des Systemzustands durchzuführen. Werden Grenzwerte überschritten oder auf andere Weise eine eingeschränkte Funktionalität bis hin zum Sensorversagen festgestellt, so wird über eine geeignete Schnittstelle ein entsprechender Statusreport übermittelt, zumindest aber der Ausfall des Bildgebers gemeldet. Über diese Schnittstelle wird im anderen Fall die Funktionstüchtigkeit des Bildgebers übermittelt. Die Selbstüberwachung kann während der Initialisierungsphase des Bildgebers zu bestimmten Zeitpunkten oder permanent durchgeführt werden. Die Selbstüberwachimg kann auch von außen, d.h. durch ein übergeordnetes System wie eine Diagnoseeinheit oder manuell aktiviert werden. Denkbar ist, dass im Falle einer Aktivierung durch ein Diagnosesystem auch ein erweitertes Testprogramm durchgeführt wird, da es möglich ist, beispielsweise Musterdateien zu übertragen oder auch Langzeittests durchzuführen.
Figur 1 zeigt in einem ersten Blockschaltbild den erfindungsgemäßen Bildgeber. Der physikalische Prozess 10 (die Szene) wird durch den Sensor 12 als Bildsignal abgebildet. Der Sensor 12 bildet mit einer Verarbeitungseinheit 13 ein Mess-System. Das Bildsignal, das vom Sensor 12 erzeugt wird, wird von der Verarbeitungseinheit 13 aufbereitet und verarbeitet. Über eine erste Schnittstelle 14 wird das Mess-Signal, also das Bildsignal zu weiteren Systemen, wie beispielsweise einem Steuergerät für die Insassenerkennung übertragen.
Über eine weitere Schnittstelle 15 wird der Status des Bildgebers, der hier dargestellt ist, übertragen und der auch anhand des Bildsignals festgestellt wurde. Wie oben dargestellt wird der Status des Bildgebers, also seine Selbstüberwachung, entweder durch die Ausnutzung des Vorwissens über ihre invarianten Muster, oder Erfahrungswissen über Mess-Signalverläufe oder Redundanz eines Verbundes von Sensoren oder durch die Ausnutzung von zeitlicher Redundanz durchgeführt. Die Schnittstellen 14 und 15 können auch in einer Schnittstelle zusammengefasst sein und sind dann nur logisch getrennt. Die Schnittstellen können hier Zweidrahtschnittstellen sein oder auch Schnittstellen zu einem Bussystem.
Figur 2 zeigt nun einen Bildgeber, der mehr als einen Sensor zur Bildaufnahme aufweist und damit auch zur Tiefenbildgebung konfiguriert ist. Beispielhaft sind hier drei Sensoren 22 bis 24 dargestellt, es ist jedoch möglich, lediglich zwei Sensoren oder auch mehr Sensoren zu verwenden. Das Mess-System 21 wird daher aus den Sensoren 22 bis 24 und der Verarbeitungseinheit 25 gebildet. Der physikalische Prozess 20 (die Szene) wird durch die Sensoren 22-24 abgebildet. Die Verarbeitungseinheit 25 nimmt die Bildsignale der Bildsensoren 22 bis 24 auf, verarbeitet diese und führt dann in Abhängigkeit von der Auswertung dieser Bildsignale Signale auf die Schnittstellen 26 und 27, um einerseits den Status des Bildgebers und andererseits das Mess-Signal selbst zu übertragen. Die Sensoren 22 bis 24 können an einzelne Schnittstcllenbausteine der Verarbeitungseinheit 25 angeschlossen sein, sie können jedoch auch über einen Multiplexer oder einen internen Bus mit der Verarbeitungseinheit 25 verbunden sein. Der Bildgeber kann in einer baulichen Einheit, in der auch die Schnittstellen 26 und 27 integriert sind, ausgeführt sein. Es ist jedoch möglich, dass kein Gehäuse für diese gesamten Komponenten vorliegt, sondern diese verteilt angeordnet sind. Die Verarbeitungseinheit 25 führt dann, wie oben beschrieben, die Analyse des Bildsignals durch, um die Selbstüberwachung des Bildgebers durchzuführen.
Figur 3 zeigt in einem dritten Blockschaltbild den erfindungsgemäßen Bildgeber. Hier sind zwei Sensoren als Videokameras 31 und 32 vorhanden, die an eine Verarbeitungseinheit 33 angeschlossen sind. Diese weist ein Programm 34 zur Sensordatenverarbeitung und ein Programm 35 zur Selbstüberwachung auf. Die Selbstüberwachung 35 wird auch an den Bildsignalen der Videokameras 31 und 32 durchgeführt. Zusätzlich steuert die Verarbeitungseinheit 33 eine Beleuchtungseinheit bzw. einen Signalgeber 36 an, um beispielsweise die Selbstüberwachung durch Vergleich selbstinduzierter Muster mit deren interner Repräsentation durchzuführen. Die Verarbeitungseinheit 33 ist weiterhin an Schnittstellen 37 und 38 angeschlossen, die jeweils zur Übertragung des Mess-Signals, also des Bilds oder Tiefenbilds und des Status bzw. des Ergebnisses der Selbstüberwachung dienen. Das Mess-System 30 besteht also aus den Videokameras 31 und 32, der Verarbeitungseinheit 33 und der Beleuchtungseinheit 36. Der gesamte Bildgeber wird durch die Schnittstellen 37 und 38 ergänzt. Die Sensoren 31 und 32 sind hier als Videokameras ausgebildet. Die Ausgangssignale werden der Auswerteeinheit 33 zugeführt, die zur Erzeugung der räumlichen Daten geeignete Verarbeitungsschritte wie Bildverarbeitung, Korrelationsverfahren oder Triangulation ausführt. Diese Verarbeitungseinheit 33 führt aber auch geeignete Verfahren zur Selbstüberwachung des Mess-Systems aus. Ausgangssignale des Stero-Video-Mess-Systems sind in diesem Ausführungsbeispiel Bild, Tiefenbild und Statussignal des Mess-Systems 30. In der nachfolgenden Tabelle sind mögliche Probleme, die zu einer eingeschränkten Funktionsfähigkeit des ausgeführten Mess-Systems führen können, aufgeführt. Spalte 2 und 3 enthalten die geeigneten Daten und Methoden der Signalverarbeitung, um die
Figure imgf000009_0001
Figure imgf000010_0001
Ein stereo-video-basiertes Mess-System ist als ein typisches Beispiel für ein hochauflösendes bild- oder tiefenbildgebendes Mess-System zu sehen, auf das man viele der vorgestellten Methoden der Signalverarbeitung bzw. Mustererkennung zur Selbstüberwachung anwenden kann. Insbesondere eine weitgehend unabhängige Erzeugung der Einzelsensorsignale sollte eine leistungsfähige Selbstüberwachungsfunktionalität ermöglichen.
Figur 4 zeigt ein viertes Blockschaltbild des erfindungsgemäßen Bildgebers. Ein Video- Sensorsystem 40 weist ein Kamerasystem 42 auf, das einerseits mit einer Bildvorverarbeitung 43 und andererseits mit einem Ausgang des Video-Sensorsystems verbunden ist. Die Bildvorverarbeitung 43 ist mit einer Vergleichseinheit 44 verbunden, die über einen Ausgang mit einer Auswerteeinheit 45 und über einen Eingang mit einer Einrichtung zur strukturierten Beleuchtung verbunden ist. Die Auswerteeinheit 45 liefert über einen Ausgang des Video-Sensorsystems 40 den Sensorstatus.
Die Einrichtung zur strukturierten Beleuchtung 41 bestrahlt mit einem strukturierten Licht als ein Referenzmuster die Umgebung des Video-Sensorsystems 40 und dabei insbesondere eine Oberfläche 47, auf der das Referenzmuster abgebildet wird. Diese Oberfläche wird dann als Referenzoberfläche 47 bezeichnet. Die Referenzoberfläche 47 ist starr und ortsfest. Als Referenzoberflächen sind im Erfassungsbereich des Video- Sensorsystems 40 vorhandene Objektoberflächen denkbar, wie beispielsweise ein Dachhimmel bei Verwendung des Sensors zur Überwachung eines Kraftfahrzeugsinnenraums. Es sind jedoch auch spezielle Kalibrierkörper möglich, die beispielsweise während des Fertigungsprozesses in einer definierten Lage und Orientierung eingebracht werden.
Das Kamerasystem 42, das aus einer oder mehreren Kameras bestehen kann, erfasst das Referenzmuster auf der Referenzoberfläche 47. Die zweidimensionalen Kamerabilder werden in der Vergleichseinheit 44 mit dem Referenzmuster verglichen, wobei es sich auch um zweidimensionale Kamerabilder handeln kann, die in der optionalen Bildvorverarbeitung 43 aufbereitet wurden. Diese Aufbereitung kann eine Filterung sein. Die Vergleichseinheit 44 kann eine Speichereinheit aufweisen, in der beispielsweise die Referenzmuster gespeichert sind, sofern diese nicht von der Einheit zur strukturierten Beleuchtung in Form eines Signals zugeführt werden. In der Auswerteeinheit 45 wird dann auf Basis der Ergebnisse der Vergleichseinheit 44 der Sensorstatus ermittelt. Als Sensorstatus kann beispielsweise gesehen werden, dass der Sensor verdeckt oder unverdeckt ist und/oder die Sensoroptik fokussiert oder unfokussiert ist und/oder die optische Abbildung verzerrt oder unverzerrt ist. Die Auswerteeinheit 45 kann auch einen Speicher enthalten, in dem beispielsweise bestimmte Muster, die beim Vergleich des Referenzmusters mit den Kamerabildem eines gestörten Video-Sensorsystems entstehen, gespeichert werden können.
Beispielsweise kann mit der oben beschriebenen Einrichtung eine Defokussierung des Sensors festgestellt werden, indem analysiert wird, ob eine scharfe Abbildung des Referenzmusters in das Kamerabild vorliegt. Außerdem kann eine vollständige oder teilweise Verdeckung des Sensors detektiert werden, indem geprüft wird, ob das Referenzmuster vollständig und unverzerrt im Kamerabild abgebildet wird. Verzerrungen der optischen Abbildung führen zu einer verzerrten Abbildung des Referenzmusters in das Kamerabild und können so mit Hilfe der Vergleichseinheit 44 und der Auswerteeinheit 45 festgestellt werden. Weitere Fehler, die sich mit diesem System detektieren lassen, sind eine Verschmutzung der Optik und eine Dejustierung der absoluten Kalibrierung. Hier wird die resultierende Verschiebung und Verzerrung des Referenzmusters detektiert. Auf diese Daten kann sogar initial kalibriert oder nachkalibriert werden.
Die Einrichtung zur strukturierten Beleuchtung 41 kann im Videosensor integriert sein. Speziell im Fertigungsprozeß und für die Überprüfung des Videosensors in einer Werkstatt ist aber auch eine vom Videosensor getrennte Einrichtung zur strukturierten Beleuchtung. In diesem Fall ist eine definierte Ausrichtung der Einrichtung zur strukturierten Beleuchtung im Bezug zum Videosensor erforderlich. Bei dieser Vorgehensweise wird also im einfachsten Fall das Videobild der strukturierten Beleuchtung direkt interpretiert. Es ist auch eine Auswertung eines dreidimensionalen Bildes möglich.
Figur 5 zeigt ein weiteres Blockschaltbild. Ein Video-Sensorsystem 50 weist zwei Kameras 52 und 53 auf, die ihr Kamerabild jeweils an eine Einheit 54 zur Bestimmung von dreidimensionalen Messwerten liefern. Daraus ergibt sich dann eine dreidimensionale Punktwolke, die einerseits einer Signalvorverarbeitung 55 und andererseits einem Ausgang des Video-Sensorsystems 50 zugeführt wird. Die Signalvorverarbeitung 55 ist an eine Vergleichseinheit 56 angeschlossen, an die auch eine Einrichtung 51 zur strukturierten Beleuchtung angeschlossen ist. Die Vergleichseinheit 56 ist über einen Datenausgang an eine Auswerteeinheit 57 angeschlossen, die wiederum den Sensorstatus ausgibt. Die Einrichtung zur strukturierten Beleuchtung 51 beleuchtet eine Referenzoberfläche in der Umgebung 58 des Videosensors. Das reflektierte Muster wird von den Kameras 52 und 53 aufgenommen Die Einheit 54 bestimmt die dreidimensionale Punktewolke aus den Kamerabildern auf Basis des Stereomessprinzips Zusätzlich zur Bestimmung der dreidimensionalen Punktewolke können auch die zweidimensionalen Kamerabilder direkt ausgewertet werden Eine weitere Möglichkeit besteht in dei Auswertung der dreidimensionalen Messwerte mittels eines Range-Sensois, dei nach dem Time-of-Flight- Pπnzip arbeitet

Claims

Ansprüche
1. Bildgeber, der in einem Fahrzeug angeordnet ist, dadurch gekennzeichnet, dass der Bildgeber derart konfiguriert ist, dass der Bildgeber anhand eines Bildsignals seine Funktionsfähigkeit überwacht.
2. Bildgeber nach Anspruch 1, dadurch gekennzeichnet, dass der Bildgeber eine Auswerteeinheit ( 13, 25, 33) aufweist, die aus dem Bildsignal wenigstens einen Wert ableitet, den die Auswerteeinheit (13, 25, 33) mit wenigstens einem Grenzwert zur Überwachung der Funktionsfähigkeit vergleicht.
3. Bildgeber nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Bildgeber eine Schnittstelle ( 15, 26, 37) aufweist, die derart konfiguriert ist, dass über die Schnittstelle ( 15, 26, 37) die Funktionsfähigkeit des Bildgebers übertragen wird.
4. Bildgeber nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Bildgeber derart konfiguriert ist, dass der Bildgeber anhand wenigstens eines invarianten Musters das Bildsignal erzeugt.
5. Bildgeber nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Bildgeber derart konfiguriert ist, dass der Bildgeber anhand eines Verlaufs des Bildsignals seine Funktionsfähigkeit überwacht.
6. Bildgeber nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildgeber wenigstens zwei bildgebende Sensoren (31 , 32) aufweist, wobei der Bildgeber durch einen Vergleich von Ausgangssignalen der wenigstens zwei bildgebenden Sensoren (31 , 32) seine Funktionsfähigkeit überprüft.
7. Bildgeber nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildgeber derart konfiguriert ist, dass der Bildgeber während einer Initialisierungsphase seine Funktionsfähigkeit überwacht.
8. Bildgeber nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildgeber mit einer Diagnoseeinheit verbindbar ist, die die Selbstüberwachung des Bildgebers aktiviert.
9. Bildgeber nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildgeber derart konfiguriert ist, dass die Selbstüberwachung manuell aktivierbar ist.
10. Bildgeber nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildgeber tiefenbildgebend konfiguriert ist.
11. Bildgeber nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildgeber Mittel zur Beleuchtung (36) aufweist.
PCT/DE2003/002507 2002-11-16 2003-07-25 Bildgeber WO2004045912A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004570259A JP2006506924A (ja) 2002-11-16 2003-07-25 画像生成器
EP03797951A EP1575808B1 (de) 2002-11-16 2003-07-25 Bildgeber
US10/532,375 US7619650B2 (en) 2002-11-16 2003-07-25 Imaging sensor that monitors operability of the imaging sensor
DE50308293T DE50308293D1 (de) 2002-11-16 2003-07-25 Bildgeber

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE10253501.9 2002-11-16
DE10253501A DE10253501A1 (de) 2002-11-16 2002-11-16 Bildgeber
PCT/DE2003/001735 WO2004045911A1 (de) 2002-11-16 2003-05-28 Bildgeber
DEPCT/DE03/01735 2003-05-28

Publications (1)

Publication Number Publication Date
WO2004045912A1 true WO2004045912A1 (de) 2004-06-03

Family

ID=32185764

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/DE2003/001735 WO2004045911A1 (de) 2002-11-16 2003-05-28 Bildgeber
PCT/DE2003/002507 WO2004045912A1 (de) 2002-11-16 2003-07-25 Bildgeber

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/DE2003/001735 WO2004045911A1 (de) 2002-11-16 2003-05-28 Bildgeber

Country Status (6)

Country Link
US (1) US7619650B2 (de)
EP (1) EP1575808B1 (de)
JP (1) JP2006506924A (de)
CN (1) CN100360346C (de)
DE (2) DE10253501A1 (de)
WO (2) WO2004045911A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2005747A1 (de) * 2006-03-29 2008-12-24 Curtin University Of Technology Prüfung von überwachungskamerainstallationen
WO2011157454A1 (de) * 2010-06-18 2011-12-22 Hella Kgaa Hueck & Co. Optische selbstdiagnose eines stereoskopischen kamerasystems
WO2018082836A1 (de) * 2016-11-02 2018-05-11 Robert Bosch Gmbh Verfahren und vorrichtung zum überwachen eines bildsensors

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10318500A1 (de) * 2003-04-24 2004-11-25 Robert Bosch Gmbh Vorrichtung und Verfahren zur Kalibrierung eines Bildsensors
DE102005021693A1 (de) * 2005-05-08 2006-11-09 Massen Machine Vision Systems Gmbh Selbstüberwachung von Systemen für die automatische optische Inspektion und Sortierung von Produkten
EP1881699A1 (de) * 2005-05-11 2008-01-23 Matsushita Electric Industrial Co., Ltd. Halbleiter-bildabnehmereinrichtung, kamera, automobil- und überwachungseinrichtung
JP4658899B2 (ja) * 2006-10-24 2011-03-23 本田技研工業株式会社 車両の乗員検知装置
EP2017571B1 (de) 2007-07-20 2010-01-27 Sick Ag 3D-Sicherheits-Sensor und Verfahren zum Testen eines 3D-Sicherheits-Sensors
DE102009031650A1 (de) 2009-07-03 2011-01-05 Volkswagen Ag Verfahren zur Erweiterung eines Kamerasystems, Kamerasystem, Fahrerassistenzsysem und entsprechendes Fahrzeug
JP5863968B2 (ja) * 2012-07-03 2016-02-17 クラリオン株式会社 車載環境認識装置
US9852502B2 (en) 2014-10-27 2017-12-26 Denso Corporation Image processing apparatus
EP3031668A1 (de) * 2014-12-10 2016-06-15 Application Solutions (Electronics and Vision) Limited Bildkalibrierungs- und Überwachungsvorrichtung sowie Bildkalibrierungs- und Überwachungsverfahren
DE102014226020A1 (de) 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung
EP3518523A4 (de) * 2016-09-23 2020-06-10 Hitachi Automotive Systems, Ltd. Bildverarbeitungsvorrichtung
US11222379B2 (en) 2016-12-15 2022-01-11 Snap-On Incorporated Methods and systems for automatically generating repair orders
DE102018125790A1 (de) * 2018-10-17 2020-04-23 Rheinmetall Electronics Gmbh Vorrichtung zur validierbaren Ausgabe von Bildern

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0246085A2 (de) * 1986-05-13 1987-11-19 Sony Corporation Überwachungssystem
EP0332715A1 (de) * 1988-03-18 1989-09-20 Deutsche Aerospace AG Aufprallsensor für ein Fahrzeug mit einer Prüfschaltung
JPH10322513A (ja) * 1997-05-21 1998-12-04 Canon Inc イメージセンサーのセルフチェック方法と画像読み取り装置
DE19757118A1 (de) * 1997-12-20 1999-07-01 Bosch Gmbh Robert Verfahren und Vorrichtung zum Überwachen der Funktionsfähigkeit eines Crashsensors
WO2001060662A1 (de) * 2000-02-16 2001-08-23 Robert Bosch Gmbh Verfahren und vorrichtung zur sitzbelegungserkennung mittels videosensorik und fussraumsensorik

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5845000A (en) * 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
JPS59100685A (ja) * 1982-11-30 1984-06-09 Toshiba Corp カラ−テレビジヨンカメラ装置
GB9022710D0 (en) * 1990-10-18 1990-11-28 Crosfield Electronics Ltd Methods and apparatus for testing image processing apparatus
US5581625A (en) * 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5822542A (en) * 1996-10-31 1998-10-13 Sensormatic Electronics Corporation Electronic and structural components of an intelligent video information management apparatus
US20020105582A1 (en) * 1997-01-09 2002-08-08 Osamu Ikeda Electronic camera with self-explanation/diagnosis mode
AU2001252223A1 (en) * 2000-04-07 2001-10-23 Pilz Gmbh And Co. Protective device for safeguarding a dangerous area and method for verifying thefunctional reliability of such device
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
US6726103B1 (en) * 2001-11-07 2004-04-27 Pixim, Inc. Imaging system with built-in diagnostics
US7373395B2 (en) * 2004-02-04 2008-05-13 Perseus Wireless, Inc. Method and system for providing information to remote clients
US7324628B2 (en) * 2005-04-22 2008-01-29 General Electric Company Method of testing a medical imaging device
EP1790541A2 (de) * 2005-11-23 2007-05-30 MobilEye Technologies, Ltd. Verfahren und Systeme zur Erfassung von Behinderungen in einem Blickfeld einer Kamera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0246085A2 (de) * 1986-05-13 1987-11-19 Sony Corporation Überwachungssystem
EP0332715A1 (de) * 1988-03-18 1989-09-20 Deutsche Aerospace AG Aufprallsensor für ein Fahrzeug mit einer Prüfschaltung
JPH10322513A (ja) * 1997-05-21 1998-12-04 Canon Inc イメージセンサーのセルフチェック方法と画像読み取り装置
DE19757118A1 (de) * 1997-12-20 1999-07-01 Bosch Gmbh Robert Verfahren und Vorrichtung zum Überwachen der Funktionsfähigkeit eines Crashsensors
WO2001060662A1 (de) * 2000-02-16 2001-08-23 Robert Bosch Gmbh Verfahren und vorrichtung zur sitzbelegungserkennung mittels videosensorik und fussraumsensorik

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN vol. 1999, no. 03 31 March 1999 (1999-03-31) *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2005747A1 (de) * 2006-03-29 2008-12-24 Curtin University Of Technology Prüfung von überwachungskamerainstallationen
EP2005747A4 (de) * 2006-03-29 2010-04-07 Univ Curtin Tech Prüfung von überwachungskamerainstallationen
AU2007231552B2 (en) * 2006-03-29 2011-10-20 Dti Group Ltd Testing surveillance camera installations
WO2011157454A1 (de) * 2010-06-18 2011-12-22 Hella Kgaa Hueck & Co. Optische selbstdiagnose eines stereoskopischen kamerasystems
US8854431B2 (en) 2010-06-18 2014-10-07 Hella Kgaa Hueck & Co. Optical self-diagnosis of a stereoscopic camera system
WO2018082836A1 (de) * 2016-11-02 2018-05-11 Robert Bosch Gmbh Verfahren und vorrichtung zum überwachen eines bildsensors
US10715796B2 (en) 2016-11-02 2020-07-14 Robert Bosch Gmbh Method and device for monitoring an image sensor

Also Published As

Publication number Publication date
US20060187303A1 (en) 2006-08-24
WO2004045911A1 (de) 2004-06-03
EP1575808B1 (de) 2007-09-26
CN100360346C (zh) 2008-01-09
EP1575808A1 (de) 2005-09-21
JP2006506924A (ja) 2006-02-23
CN1649757A (zh) 2005-08-03
US7619650B2 (en) 2009-11-17
DE50308293D1 (de) 2007-11-08
DE10253501A1 (de) 2004-05-27

Similar Documents

Publication Publication Date Title
WO2004045912A1 (de) Bildgeber
DE102016112800B4 (de) Geführte prüfung einer eingebauten komponente unter verwendung eines mobilen prüfgeräts
EP2025991B1 (de) Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
DE102013215756B4 (de) Vorrichtung zum Überwachen der Funktionsfähigkeit einer Übertragungsstrecke, insbesondere einer Kamera
DE102016220757A1 (de) Verfahren und Vorrichtung zur Materialbahnbeobachtung und Materialbahninspektion
EP2275989A1 (de) Stereoskopische 3D-Kamera
DE102019103963A1 (de) Ildgebungsvorrichtung
EP1472890B1 (de) Verfahren zum überprüfen der funktionssicherheit eines bildsensors sowie vorrichtung mit einem bildsensor
DE10302671A1 (de) Verfahren und Vorrichtung zur Einstellung eines Bildsensorsystems
EP3535965B1 (de) Verfahren und vorrichtung zum überwachen eines bildsensors
DE102005015826A1 (de) Verfahren und System zur optischen Inspektion von Kontaktflächen (Kontaktpads) an Halbleiter-Bauelementen mit unterschiedlichem Erscheinungsbild
DE102013214497A1 (de) Stereo-Bildverarbeitungsvorrichtung und Verfahren derselben
DE102019206760A1 (de) Sensorsystem und verfahren zum prüfen von diesem
DE102019206083A1 (de) Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug
DE102018216395A1 (de) Verfahren und Vorrichtung zum Überwachen einer Anordnung zumindest eines ortsfest oder variierbar angeordneten Kalibriermarkers unter Verwendung zumindest eines ortsfest oder variierbar angeordneten fahrzeugexternen Referenzsensors zur Kalibrierung von Umfeldsensoren eines Fahrzeugs
EP1390913B1 (de) Vorrichtung und verfahren zur verarbeitung von bilddaten
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen
DE102018205146B4 (de) Testverfahren für hochauflösende Scheinwerfer mittels KI
EP2194510A2 (de) Datenaufzeichnungssystem
DE102018117274A1 (de) Sichere Kamera und Verfahren zur sicheren Aufnahme und Auswertung von Bilddaten
EP3496398B1 (de) Sichere stereokamera und verfahren zum prüfen der funktionsfähigkeit der bildsensoren
EP3855735B1 (de) Absichern einer maschine
DE102018222526A1 (de) Verfahren und Steuergerät zur Detektion eines Objekts
DE102019209849B4 (de) Verfahren und Steuergerät zur abstandsmessenden Bildverarbeitung für eine Stereokameraeinrichtung für ein Fahrzeug und Stereokamerasystem mit einer Stereokameraeinrichtung und einem Steuergerät
DE102017127129A1 (de) System und Verfahren zum Überprüfen von zumindest einer Funktionseigenschaft einer Laserscaneinrichtung für Fahrzeuge

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2003797951

Country of ref document: EP

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 20038098016

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2004570259

Country of ref document: JP

WWP Wipo information: published in national office

Ref document number: 2003797951

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006187303

Country of ref document: US

Ref document number: 10532375

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10532375

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2003797951

Country of ref document: EP