DE69636925T2 - Verfahren und vorrichtung zur feststellung der ausrichtung von kraftfahrzeugrädern - Google Patents

Verfahren und vorrichtung zur feststellung der ausrichtung von kraftfahrzeugrädern Download PDF

Info

Publication number
DE69636925T2
DE69636925T2 DE69636925T DE69636925T DE69636925T2 DE 69636925 T2 DE69636925 T2 DE 69636925T2 DE 69636925 T DE69636925 T DE 69636925T DE 69636925 T DE69636925 T DE 69636925T DE 69636925 T2 DE69636925 T2 DE 69636925T2
Authority
DE
Germany
Prior art keywords
target
orientation
wheels
image information
positional relationships
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69636925T
Other languages
English (en)
Other versions
DE69636925D1 (de
Inventor
Bernie Fergus Los Gatos JACKSON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap On Inc
Original Assignee
Snap On Inc
Snap On Tools Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24171927&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69636925(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Snap On Inc, Snap On Tools Corp filed Critical Snap On Inc
Application granted granted Critical
Publication of DE69636925D1 publication Critical patent/DE69636925D1/de
Publication of DE69636925T2 publication Critical patent/DE69636925T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/275Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing wheel alignment
    • G01B11/2755Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing wheel alignment using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/12Method or fixture for calibrating the wheel aligner
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/14One or more cameras or other optical devices capable of acquiring a two-dimensional image
    • G01B2210/143One or more cameras on each side of a vehicle in the main embodiment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/26Algorithms, instructions, databases, computerized methods and graphical user interfaces employed by a user in conjunction with the wheel aligner
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/30Reference markings, reflector, scale or other passive device

Description

  • HINTERGRUND DER ERFINDUNG
  • Technisches Gebiet der Erfindung
  • Diese Erfindung betrifft eine Methode und eine Vorrichtung zum Bestimmen der Ausrichtung von Rädern von Kraftfahrzeugen. Insbesondere betrifft die Erfindung ein Verfahren und eine Vorrichtung, welche einen opto-elektronischen Bilddetektor zur Detektion einer Radorientierung und zur Produktion solcher, die Räder bzw. eine darauf angebrachten Referenz repräsentierender, elektronischer Bilddaten aufweist. Ferner weist die Vorrichtung Berechnungsmittel zur Bestimmung der Ausrichtung der Räder und Mittel zum Vergleichen der elektronischen Bilder oder dementsprechender Daten mit vorab gespeicherten Ausrichtungsdaten und zum Erzeugen von Informationen auf, welche zur Durchführung der notwendigen Justage des Fahrzeugs herangezogen werden können.
  • Bezugnahme auf verwandte Anmeldungen
  • Diese Anmeldung ist eine Continuation-In-Part-Anmeldung der am 29. September 1993 eingereichten U.S.-Patentanmeldung Nr. 08/122,550. Diese ist wiederum eine Continuation-In-Part-Anmeldung der am 4. September 1992 eingereichten U.S.-Patentanmeldung Nr. 07/940935. Beide sind mit der Überschrift "Verfahren und Vorrichtung zum Bestimmen der Ausrichtung von Kraftfahrzeugrädern" versehen. Zu beiden Anmeldungen wurden die Rechte auf den Rechteinhaber der vorliegenden Erfindung übertragen. Ferner beziehen sich beide Anmeldungen auf die in ternationale Patentanmeldung Nr. PCT/US93/08333, die am 3. September 1993 eingereicht wurde und die Überschrift "Verfahren und Vorrichtung zum Bestimmen der Ausrichtung von Kraftfahrzeugrädern" aufweist, und deren Rechte ebenfalls auf den Rechteinhaber der vorliegenden Erfindung übertragen wurden. Die internationale Anmeldung ist unter WO 94/05969 veröffentlicht.
  • Begriffe und Definitionen
  • Im Allgemeinen werden in der die Ausrichtung von Kraftfahrzeugrädern betreffenden Industriesparte die folgenden Begriffe mit entsprechenden Definitionen verwendet:
    Radsturz ist derjenige Winkel, welcher die einwärts oder auswärts gerichtete Neigung gegenüber der tatsächlichen Vertikalen des Rads repräsentiert, und welcher positiv ist, wenn das obere Ende des Rads sich nach außen neigt.
    Nachlauf ist derjenige Winkel, welcher die vorwärts- oder rückwärtsgerichtete Neigung der Lenkachse gegenüber der tatsächlichen Vertikalen bezeichnet. Wird das Rad von der Seite betrachtet, so ist der Winkel positiv, wenn das obere Kugelgelenk (oder das obere Teil des Königszapfens oder die obere Befestigung eines McPherson-Federbeins) gegenüber dem unteren Kugelgelenk (oder dem unteren Teil des Königszapfens, oder der unteren Befestigung eines McPherson-Federbeins) in rückwärtiger Richtung angeordnet ist.
    Stützlinie (T/L) bezeichnet eine Linie, die den durch die hinteren Spurlinien gebildeten Winkel halbiert. Im Uhrzeigersinn von der 12:00-Achse ausgehend gemessene Linien und Winkel sind positiv.
    Geometrische Zentrallinie bezeichnet diejenige Linie, die sich von einem Punkt auf der Hinterachse mittig zwischen den Hinterrädern bis zu einem Punkt auf der Frontachse mittig zwischen den Fronträdern erstreckt.
    Individuelle Spur bezeichnet den Winkel, welcher durch eine von vorn nach hinten durch das Rad gezogene Linie und die geometrische Zentrallinie gebildet wird. Auf die linke Seite bezogene Winkel sind positiv, wenn sie im Uhrzeigersinn von der Stützlinie ausgehen, und Winkel bezogen auf die rechte Seite sind positiv, wenn sie entgegengesetzt dem Uhrzeigersinn von der Stützlinie ausgehen.
    Offset bezeichnet dasjenige Maß, mit dem ein Vorderrad und das entsprechende Hinterrad von einer gemeinsamen Linie abweichen. Wenn kein Offset vorliegt, so ist das Hinterrad direkt in Linie hinter dem Vorderrad.
    Rückstellung ist dasjenige Maß, in welchem ein Rad auf der einen Seite des Fahrzeugs gegenüber dem entsprechenden Rad auf der anderen Seite des Fahrzeugs nach hinten verschoben ist.
    Lenkachse bezeichnet eine Linie, die von dem oberen Drehpunkt des oberen Kugelgelenks oder von dem oberen Teil des Königszapfens oder von dem McPherson-Federbein durch das untere Kugelgelenk projiziert wird.
    Lenkachsneigung (SAI) bezeichnet den Winkel zwischen der Lenkachse und der tatsächlichen Vertikalen. Wenn die Lenkachse sich von der Fahrerposition aus betrachtet im unteren Teil des Rades nach innen zu neigen scheint, dann ist die SAI positiv. Die SAI ist auch bekannt als Königszapfenneigung (KPI).
    Stützwinkel (T/A) bezeichnet den Winkel zwischen der Stützlinie und der geometrischen Zentrallinie. Die im Uhrzeigersinn von der geometrischen Zentrallinie gemessenen Winkel sind positiv.
    Totalspur ist die Summe der individuellen, Seite an Seite durchgeführten Spurmessungen. Wenn sich parallel zu den Hauptebenen der Räder projizierte Linien in einem Punkt vor den Seite an Seite liegenden Rädern schneiden, ist der Winkel positiv (Vorspur). Wenn sich die Linien hinter den Seite an Seite liegenden Rädern schneiden würden, ist der Winkel negativ (Nachspur). Wenn die projizierten Linien parallel sind, ist die Spur null.
  • Herkömmlich sind die Radsturz- und Spurmessungen für jedes Rad des Fahrzeugs Relativmessungen. D.h., relativ zu einer Vertikalebene oder zu einem anderen Rad. Diese Messungen werden daher durchgeführt, wenn die Räder stehen. Andererseits ist die Berechnung des Nachlaufs und der SAI eine dynamische Prozedur und schließt die Bestimmung dessen ein, wie der Radsturz der Vorderräder sich in Bezug auf eine Änderung im Lenkwinkel ändert. Dies wird üblicherweise durchgeführt, indem die Vorderräder von links nach rechts über einen Winkel zwischen 10° und 30° oder anders herum geschwenkt werden. Während dessen werden die resultierenden Änderungen im Radsturz des Rades als Funktion der Variation des Lenkwinkels bestimmt. Aus diesen Ergebnissen werden der Nachlauf und die SAI durch in der Industriegewerbe der Radausrichtung wohlbekannte Verfahren bestimmt.
  • Auf ähnliche Weise können, wenn einmal der Radsturz, die Spur, der Nachlauf und die SAI gemessen wurden, alle anderen relevanten Radjustageparameter berechnet werden anhand von Verfah ren und Richtlinien, die in dieser Industriesparte wohlbekannt sind.
  • Kurze Beschreibung des Stands der Technik
  • Die Räder eines Kraftfahrzeugs müssen in regelmäßigen Abständen überprüft werden, um zu bestimmen, ob sie gegeneinander ausgerichtet sind oder nicht. Dies gilt deshalb, weil eine übermäßige oder ungleichmäßige Abnutzung der Reifen des Fahrzeugs und/oder ein nachteiliger Einfluß auf die Handhabung und Stabilität des Fahrzeugs daraus resultieren kann, dass irgendeines der Räder nicht mehr ausgerichtet ist.
  • Die typischen Schritte zur Bestimmung und zur Korrektur der Ausrichtung eines Rades des Fahrzeugs sind wie folgt:
    • 1. Das Fahrzeug wird auf einen Prüfstand oder eine Bühne gefahren, die vorher eben ausgerichtet wurde, um eine nivellierte Grundlage für das Fahrzeug zu schaffen.
    • 2. Einige Bauteile der Vorrichtung zur Bestimmung der Ausrichtung werden an den Rädern des Fahrzeugs befestigt. Diese Bauteile müssen nicht notwendig hochgenau in Bezug auf die Radachse plaziert werden. Das Maß an Ungenauigkeit, mit welcher diese Bauteile befestigt werden, wird "Befestigungsfehler" genannt.
    • 3. Eine "Rundlauf"-Berechnung wird durch Aufbocken des Fahrzeugs und Drehen jedes der Räder durchgeführt. Messungen der Ausrichtung dieses Rades werden bei verschiedenen Positionen vorgenommen. Diese Messungen werden dann verwendet, um Korrekturfaktoren zum Ausgleich des "Befestigungs fehlers" sowie des tatsächlichen Felgenrundlaufs zu berechnen.
    • 4. Eine Bestimmung der Ausrichtung jedes der Räder wird durchgeführt. Die Ergebnisse dieser Bestimmungen werden mit Spezifikationen der Ausrichtparameter für das Fahrzeug, das getestet wird, verglichen.
    • 5. Anschließend richtet der Bediener diverse Verbindungen jedes der Räder aus, um die Fehlausrichtung der Räder zu korrigieren, soweit diese überhaupt vorliegt.
    • 6. Die Schritte 4 und 5 werden wiederholt, bis die Ausrichtung einen Standardwert erreicht und/oder innerhalb der Herstellerspezifikationen ist.
  • Es existiert eine große Vielzahl von Vorrichtungen zum Messen der Ausrichtung der Räder eines Kraftfahrzeugs. Viele davon nutzen optische Instrumente und/oder Lichtstrahlen, um die Ausrichtung der Räder zu bestimmen. Beispiele sind in den U.S.-Patenten Nr. 3,951,551 (MacPherson); 4,150,897 (Roberts); 4,154,531 (Roberts); 4,249,824 (Weiderrich); 4,302,104 (Hunter); 4,311,386 (Coetsier); 4,338,027 (Eck); 4,349,965 (Alsina); 4,803,785 (Reilly) sowie 5,048,954 (Madey) angegeben.
  • Alle diese Geräte arbeiten mit Vorrichtungen, die an dem Rad eines Fahrzeugs befestigt sind, und die einen Lichtstrahl emittieren oder reflektieren, um eine Fläche auf einer Referenzausformung wie etwa ein Referenzgitter zu belichten. Weil die Position der von dem Strahl beleuchteten Fläche auf der Referenz eine Funktion der Ablenkung des Strahls ist, welches seinerseits eine Funktion der Ausrichtung des Rades ist, kann die Ausrichtung des Rads aus der Positionierung der belichteten Fläche auf der Referenz berechnet werden.
  • Andere Geräte verwenden einen Meßkopf, der auf jedem Rad des Fahrzeugs befestigt ist. Diese Köpfe weisen typischerweise Gravitationslehren auf, die entweder mit benachbarten Köpfen mittels dazwischen gespannter Leitungen oder Drähten verbunden sind, oder die alternativ mit Lichtstrahlen versehen sind, die zwischen benachbarten Köpfen strahlen. Die Meßköpfe, die eben gehalten werden müssen, sind dann in der Lage, die Relativwinkel zwischen benachbarten Leitungen/Lichtstrahlen wie auch die Winkel zwischen jedem Rad und seiner nächsten Leitung/Lichtstrahl zu messen. Aus diesen Messungen kann die Ausrichtung der Räder berechnet werden.
  • Ein anderer Typ eines Ausrichtgeräts ist in den U.S.-Patenten Nr. 4,899,218 (Waldecker) und 4,745,469 (Waldecker et al.) angegeben. Dieses Gerät wird betrieben, indem strukturiertes Licht auf ein Rad des Kraftfahrzeugs projiziert wird, so daß wenigstens zwei Konturlinien der Oberfläche des Rads beleuchtet werden. Diese Konturlinien werden dann durch Videokameras aufgenommen, die in einem Abstand von der optischen Ebene des strukturierten Lichts positioniert sind, und welche mit einem Prozessor verbunden sind, der die räumliche Position der Konturlinien und damit auch des Rades anhand einer Triangulation berechnet.
  • Im Allgemeinen sind die in den vorbeschriebenen Radausrichtungsgeräten verwendeten Köpfe empfindlich und teuer, sowie schwierig in der Handhabung. Ferner müssen sie mit Vorsicht eingerichtet werden. Darüber hinaus basieren einige dieser Geräte auf einer genauen Plazierung der optischen oder anderer Meßvorrichtungen entweder auf oder in eine vorgegebene Positi on relativ zum Rad des Fahrzeugs. Dies kann zeitaufwendig und umständlich für die die Vorrichtung zur Bestimmung der Ausrichtung bedienenden Techniker sein. Ein solches Equipment hat ferner den Nachteil, daß unvorsichtigerweise am Rad belassene Bauteile leicht zerstört werden können, wenn das Fahrzeug aus dem Testbereich wegbewegt wird. Eine solche Zerstörung kann insbesondere im Fall eines anspruchsvollen Equipments kostenaufwendig sein.
  • Die deutsche Patentanmeldung DE 29 48 573 im Namen der Siemens Aktiengesellschaft zeigt eine Vorrichtung, mit der sowohl die Ausrichtung wie auch die räumliche Position der Radebene eines Kraftfahrzeugs sowie auch die dreidimensionale Position der Lenkachse des Rades bestimmt werden kann. Die Anmeldung zeigt ein Verfahren, bei dem eine Fernsehkamera ein Bild der Radfelge aus zwei verschiedenen, bekannten Höhenpositionen aufnimmt. Diese Bilder werden einem Prozessor zugeleitet, welcher sie in Beziehung zu bekannten Koordinaten und Sichtwinkeln der Kamera bei deren zwei Höhenpositionen setzt, und welcher dann die dreidimensionale Position der Felge bestimmt.
  • Auf ähnliche Weise wird eine Anzahl von Bildern jedes Rades in verschiedenen Lenkpositionen aufgenommen, um einen dreidimensionalen Rotationskörper des Rades zu bestimmen. Aus der Achse dieses Rotationskörpers kann die Lenkachse des betrachteten Rades bestimmt werden. Als Ergebnis kann die dreidimensionale Position sowohl der Lenkachse als auch der Mittelpunkt der Ebene, die durch die Radfelge definiert wird, bestimmt werden.
  • Zusätzlich zu der Tatsache, daß wenig Hinweise angegeben sind, wie die oben beschriebenen Werte bestimmt werden können, weist das Verfahren und die Vorrichtung der beschriebenen Anmeldung den Nachteil auf, daß wenigstens zwei Bilder (von verschiede nen Kameras oder von einer einzelnen Kamera, die entlang verschiedener Achsen aufnimmt) des Rades aufgenommen werden müssen, gerade weil die Triangulationstechnik verwendet wird. Ferner müssen sowohl die jedem Punkt zugeordnete dreidimensionale Position, von welcher aus ein Bild des Rads aufgenommen wird, sowie auch die Orientierung jeder der Sichtlinien genauestens bekannt sein.
  • Dies ist ein Hauptnachteil der Erfindung, weil die genaue Bestimmung der dreidimensionalen Positionen und die Orientierung der Sichtlinien ein anspruchsvolles Equipment benötigen, welches nämlich leicht aufgrund von Temperaturänderungen, Vibrationen, Bodenbewegung, etc. außer Kalibration geraten kann.
  • Ein weiterer Nachteil ist, daß das Verfahren gemäß der Anmeldung nicht aufzeigt, wie der perspektivischen Verzerrung des Bildes der Radfelge Rechnung getragen wird. Diese perspektivische Verzerrung führt dazu, dass in dem Bild der Felge diese in Form einer verzerrten Ellipse erscheint, wobei die Kante der Ellipse, die der Fernsehkamera am nächsten ist, größer erscheint, und das Bild der Kante, die der Kamera am entferntesten liegt, kleiner erscheint. Wenn dieser Verzerrung nicht Rechnung getragen wird, können Ungenauigkeiten resultieren. Es gibt daher ein nach wie vor bestehendes Bedürfnis nach einer Vorrichtung zum Ausrichten eines Rads, welches einfach und leicht zu handhaben ist, bei welchem die anspruchsvollen Bauteile zur Detektion der Ausrichtung entfernt von den Rädern des Kraftfahrzeugs vorliegen, und welche verläßliche, genaue Ausrichtungsmessungen über einen großen Bereich von Felgendurchmessern, Spurweiten und Radständen ermöglicht.
  • ÜBERSICHT ÜBER DIE ERFINDUNG
  • Aufgaben der Erfindung
  • Es ist daher eine Aufgabe dieser Erfindung, eine Vorrichtung für die Radausrichtung zur Verfügung zu stellen, die einfach, leicht und schnell zu handhaben ist.
  • Es ist ferner eine Aufgabe dieser Erfindung, eine Vorrichtung für die Radausrichtung bereitzustellen, die mit Präzisionsbauteilen betrieben werden kann, die nicht am Kraftfahrzeug angebracht sind.
  • Es ist eine weitere Aufgabe der Erfindung, eine Vorrichtung für die Radausrichtung bereitzustellen, in welcher ein optoelektronisches Bildaufnahmegerät verwendet wird, um die Ausrichtung des Rads zu bestimmen.
  • Es ist noch eine weitere Aufgabe der Erfindung, eine Vorrichtung zur Ausrichtung eines Rads bereitzustellen, bei welcher ein perspektivisches Bild eines an dem Rad angebrachten bekannten Zielobjekts verwendet wird, um die Orientierung und die Ausrichtung des Rads zu bestimmen.
  • Übersicht
  • Die vorliegende Erfindung ist in den Ansprüchen 1, 15, 21 und 25 angegeben.
  • Kurzgefaßt umfaßt ein derzeit bevorzugtes Ausführungsbeispiel der Erfindung eine Vorrichtung zum Bestimmen der Ausrichtung eines Rads eines Kraftfahrzeugs. Sie umfaßt ein optisches Erkennungsmittel wie etwa eine Fernsehkamera, ein elektronisches Verarbeitungsmittel, das mit dem optischen Erkennungsmittel verbunden ist, wenigstens ein vorbestimmtes Zielobjekt, welches entweder Teil des Rads ist oder daran befestigt ist, und eine Anzeige zur Ausgabe der ermittelten Ausrichtung. Das optische Erkennungsmittel sichtet das an dem Rad befestigte Zielobjekt und bildet daraus eine perspektivische Darstellung jedes Zielobjekts. Die jedem der Darstellungen entsprechenden elektronischen Signale werden dem elektronischen Verarbeitungsmittel übermittelt, welches die perspektivische Darstellung jedes der Zielobjekte mit der wahren Form des jeweiligen Zielobjekts korreliert. Dabei werden von dem Prozessor die Größen bekannter geometrischer Elemente des Zielobjekts mit den Größen der entsprechenden Elemente in der perspektivischen Darstellung in Beziehung gesetzt und durch Ausführung bestimmter trigonometrischer Berechnungen (oder einer beliebig anderen, geeigneten mathematischen oder numerischen Methode) wird die Ausrichtung der Räder des Fahrzeugs berechnet. Diese Erfindung kann ebenfalls dazu eingesetzt werden, die dreidimensionale Position und Orientierung der Rotationsachse des Rads (Radachse) zu berechnen. Die ermittelte Ausrichtung wird dann zum Zweck der Durchführung von Anpassungen in der Ausrichtung an dem Fahrzeug angezeigt.
  • Das optische Erkennungsmittel erstellt Bilder des Zielobjekts, das an jedem von wenigstens zwei Rädern angebracht ist, die an derselben Achse des Fahrzeugs befestigt sind. Das elektronische Verarbeitungsmittel berechnet die Relativwinkel zwischen den beiden Rädern. Vorzugsweise erstellt das optische Erkennungsmittel Bilder aller Zielobjekte an den Rädern, während das elektronische Verarbeitungsmittel die Berechnungen der relativen Ausrichtung für alle diese Bilder berechnet.
  • BESCHREIBUNG DER FIGUREN
  • 1(a)–(c) zeigen drei unterschiedliche Darstellungen eines Kreises resultierend aus verschiedenen Graden der Rotation um unterschiedliche Achsen;
  • 2 zeigt eine schematische Darstellung einer Vorrichtung und Methode, die zum Verständnis der Erfindung nützlich sind;
  • 2(a) zeigt eine Darstellung einer quasi dreidimensionalen Wiedergabe eines Typs, die auf einem Systembildschirm erzeugt werden kann, um die detektierte Ausrichtung auszugeben und um den Techniker bei der Ausführung geeigneter Anpassungen an dem Fahrzeug anzuleiten;
  • 2(b) zeigt einen Querschnitt durch einen Schwenk- und Neigespiegel;
  • 3 zeigt eine Wiedergabe eines beispielhaften Zielobjekts, das mit der Vorrichtung gemäß 2 eingesetzt werden kann;
  • 4 zeigt eine schematische Wiedergabe eines alternativen Ausführungsbeispiels der Vorrichtung;
  • 5 zeigt eine perspektivische Ansicht eines alternativen Zielobjekts, das an dem Fahrzeugrad befestigt ist;
  • 6 zeigt eine schematische Wiedergabe eines Bilds des in 5 gezeigten Zielobjekts, das unter Verwen dung des optischen Systems gemäß 4 erstellt wurde;
  • 7 zeigt ein Verfahren, wie die Vorrichtung den Auslauffaktor des Rades berechnet;
  • 8(a)8(c) illustrieren bestimmte Aspekte der bei dem Verfahren und der Vorrichtung durchgeführten Mathematik;
  • 9 zeigt ein ein Ausführungsbeispiel der vorliegenden Erfindung schematisch illustrierendes Diagramm;
  • 10 zeigt Details des Kamera/Lichtsubsystems gemäß 9; und
  • 11 illustriert ein alternatives Ausführungsbeispiel eines Zielobjekt-Arrays.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSBEISPIELE
  • Grundlegende Theorie der Erfindung
  • Diese Erfindung basiert auf der Tatsache, daß die bildliche Darstellung eines Körpers sich entsprechend der Perspektive, aus welcher der Körper betrachtet wird, ändert, und daß die Änderung in der bildlichen Darstellung direkt mit dem Perspektivwinkel des Sichtwegs, entlang welchem der Körper betrachtet wird, in Beziehung steht und aus diesem ableitbar ist.
  • Darüber hinaus ist bekannt, dass es möglich ist, die Perspektivwinkel zu bestimmen, unter denen ein Objekt betrachtet wird, indem lediglich die Perspektivdarstellung des Objekts mit einer tatsächlich nicht-perspektivischen Bilddarstellung desselben in Beziehung gesetzt wird.
  • Anders ausgedrückt ist es möglich, diejenigen Winkel zu bestimmen, unter denen ein Objekt gegenüber einem Sichtweg orientiert ist (oder gegenüber einer dazu senkrechten Ebene), indem eine perspektivische Darstellung eines Objekts mit einer nicht-perspektivischen Darstellung desselben verglichen wird.
  • Dies ist in den 1(a)–(c) mit Bezug auf einen Kreis 10 illustriert. Dieser ist so dargestellt, wie wenn er unter drei verschiedenen Perspektiven betrachtet würde. In 1(a) ist der Kreis 10 dargestellt, wie wenn er entlang einer zu seiner Hauptebene senkrechten Achse, die im vorliegenden Fall die Blattebene ist, betrachtet werden würde. Wenn dieser Kreis um einen Winkel Θ weniger als 90° um die y-Achse 12 gedreht und entlang demselben Sichtweg betrachtet wird, dann wird die bildliche Darstellung des Kreises 10 zu derjenigen einer Ellipse, wie in 1(b) gezeigt ist. Ähnlich wird, wenn der Kreis sowohl um seine X- als auch um seine Y-Achse mit entsprechenden Bezugszeichen 12 und 14 jeweils um den Winkel Θ und Φ gedreht wird, die bildliche Darstellung des Kreises (die Ellipse) so aussehen wie es in 1(c) dargestellt ist. Dort ist gezeigt, daß die Hauptachse 16 der Ellipse sowohl gegenüber der X- als auch gegenüber der Y-Achse angewinkelt ist.
  • Es wird jedoch sogleich erkannt werden, daß die Ellipsen hierbei idealisiert sind, indem sie nämlich keine Möglichkeit der Verzerrung bieten, wie sie in einer unter einem Perspektivwinkel betrachteten Darstellung resultieren würde. Diese Verzerrung ist durch die gestrichelten Linien 11 in den 1(b) und (c) dargestellt. Wie aus diesen Figuren ersichtlich ist, erscheint die Kante der Ellipse 11, die näher an dem Betrachter liegt, größer, während die Kante 11, die weiter von dem Betrachter entfernt liegt, kleiner erscheint. Die resultierende bildliche Darstellung 11 ist daher eine verzerrte Ellipse.
  • Zurückkehrend zu den in diesen Figuren gezeigten idealisierten Bedingungen und unter der Annahme, daß die Winkel Θ und Φ unbekannt sind, wird es möglich, die Orientierung der Hauptebene der Ellipse, die in 1(c) dargestellt ist, zu bestimmen, indem die Darstellung der Ellipse zu dem Kreis 10 in 1(a) in Beziehung gesetzt wird. Dies wird für gewöhnlich durch ein in Beziehung Setzen der geometrischen Eigenschaften (z.B. Größe) wenigstens eines Elements der Ellipse (beispielsweise die großen oder kleinen Halbachsen 16, 18 derselben) zu den Eigenschaften der entsprechenden Elemente (der Durchmesser) des Kreises in 1(a) bewerkstelligt.
  • Unter idealisierten Bedingungen werden diese Berechnungen der Orientierung durch Anwendung trigonometrischer Funktionen oder beliebig anderer mathematischer/numerischer Verfahren auf die Verhältnisse zwischen der kleinen und/großen Halbachse und dem Durchmesser ausgeführt. Außerdem können die Winkel der kleinen und großen Halbachsen gegenüber der Horizontalen (X)-Achse oder der Vertikalen (Y)-Achse berechnet werden. Sind alle diese Winkel bestimmt worden, so wird die Raumorientierung der Hauptebene der Ellipse bestimmt.
  • Obwohl nicht dargestellt, ist es ebenso möglich, die Raumposition des Kreises 10 zu bestimmen. Dies wird jedoch weiter unten mit Bezug auf 8 demonstriert.
  • Die Ausführung der oben beschriebenen Berechnungen ist wegen der lebensnahen perspektivischen Verzerrung der bildlichen Darstellungen kompliziert, wie durch die gestrichelten Linien 11 dargestellt ist. Wie dieser Verkürzung Rechnung getragen wird, wird wie erwähnt mit Bezug auf die in 8 dargestellten Mathematik weiter unten diskutiert.
  • Kurze Beschreibung eines Ausführungsbeispiels einer Vorrichtung zum Ausrichten
  • Die Vorrichtung, mit welcher diese Theorie angewendet wird, ist in der schematischen Darstellung in 2 gezeigt. In dieser Figur ist ein Kraftfahrzeug 20 durch eine schematische Wiedergabe seines Chassis repräsentiert. Ferner ist gezeigt, daß es zwei Vorderräder 22L und 22R sowie zwei Hinterräder 24L und 24R aufweist. Das Fahrzeug 20 ist auf einem konventionellen Prüfstand 26 für die Radausrichtung positioniert, dargestellt durch gepunktete Linien, wobei dieser Prüfstand nicht Teil der Erfindung ist.
  • Die Vorrichtung zum Ausrichten ist so dargestellt, daß sie sich aus einer Videokamera 30, die in elektrischer Verbindung mit einem elektronischen Verarbeitungsmittel wie etwa einem Computer 32 steht, zusammensetzt. Der Computer 32 zeigt im Betrieb Ergebnisse und Berechnungen auf einer visuellen Anzeigeeinheit 34 an. Ferner weist die Vorrichtung eine Tastatur 36 (oder ein anderes entsprechendes Mittel) zur Eingabe von Daten und relevanter Informationen in den Computer 32 auf. Es ist anzumerken, daß die Anzeige und die Tastatureingabe ebenso auch durch eine entfernt liegende Einheit, die mit dem Computer durch ein Kabel, eine Lichtwellen- oder Radioverbindung verbunden ist, bereitgestellt werden könnte.
  • In Übereinstimmung mit einem bevorzugten Ausführungsbeispiel, und wie auch in 2a gezeigt ist, kann eine vom Computer erzeugte, quasi dreidimensionale Wiedergabe der auszurichtenden Räder auf der Anzeigeeinheit 34 zusammen mit geeigneten Beweisanzeichen für die detektierte Ausrichtung angezeigt werden. Darüber hinaus können alphanumerische und/oder bildliche Hinweise oder Vorschläge angezeigt werden, um den Techniker bei der Anpassung der verschiedenen Fahrzeugparameter so anzuleiten, wie es für eine mit vorbestimmten Spezifikationen konforme Ausrichtung erforderlich ist.
  • Die Videokamera 30 ist auf die Räder 22L, 22R, 24L und 24R entlang einem Sichtweg 38 gerichtet, der eine Linse 40 sowie einen Strahlteiler 42 passiert. Der Strahlteiler 42 teilt den Sichtweg 38 in zwei Komponenten 38L und 38R entsprechend auf. Wie aus der Figur ersichtlich wird, wird die Komponente 38L linker Hand des Sichtwegs 38 senkrecht zu dem anfänglichen Sichtweg durch den Strahlteiler 42 geteilt, während die Komponente 38R rechter Hand senkrecht zu dem anfänglichen Sichtweg durch einen Spiegel oder ein Prisma 44, das direkt dem Strahlteiler folgend befestigt ist, reflektiert. Die Vorrichtung weist auch ein Gehäuse 48 auf, in welches der Strahlteiler 42, der Spiegel 44 und wenigstens zwei Schwenk- und Neigungsspiegel 46L und 46R angebracht sind. Von diesem Punkt aus gesehen sind die entsprechenden Komponenten der Vorrichtung und des Sichtwegs für die linke und die rechte Seite des Kraftfahrzeugs identisch, so daß die Beschreibung lediglich einer Seite hinreichend ist.
  • Die Komponente 38L linker Hand des Sichtwegs wird durch den linksseitigen Schwenk- und Neigungsspiegel 46L auf die Räder 22L und 24L reflektiert. Dieser Spiegel ist beweglich, so daß die Videokamera 30 aufeinanderfolgend das Vorderrad 22L und das Hinterrad 24L des Fahrzeugs 20 betrachten kann. In einigen Ausführungsbeispielen kann der Schwenk- und Neigungsspiegel 46L so eingerichtet werden, daß sowohl die Vorder- wie auch die Hinterräder des Kraftfahrzeugs gleichzeitig betrachtet werden können.
  • In diesem Ausführungsbeispiel passiert der Sichtweg 38L nach dem Schwenk- und Neigungsspiegel 46L eine Öffnung 50L in der Wand des Gehäuses 48 und trifft auf die entsprechenden Räder 22L und 24L. Eine Blende 52L ist derart angeordnet, daß sie die Öffnung 50L schließen kann, wobei sie den Sichtweg 38L effektiv blockiert, so daß die Videokamera 30 nur noch auf die rechte Seite des Fahrzeugs 20 sehen kann. Alternativ könnten Blenden an den Orten 53L und 53R plaziert werden, und/oder es könnte eine elektronische Blende innerhalb der Kamera 30 mit einer oder mehreren Blitzlichtquellen synchronisiert werden, um die Aufnahme eines Bildes nur dann zu erlauben, wenn ein besonders Zielobjekt oder Zielobjekte beleuchtet wird/werden.
  • Betrieb der Ausrichtvorrichtung
  • In typischen Betrieb arbeitet die Vorrichtung gemäß diesem Ausführungsbeispiel wie folgt: Das Fahrzeug 20 wird auf einen Prüfstand 26 gefahren, der im wesentlichen aus zwei parallelen Metallstreifen besteht, auf denen die Räder des Fahrzeugs ruhen. Unter dem Prüfstand ist ein Hebemechanismus angeordnet (nicht gezeigt), welcher dazu dient, die Metallstreifen und das Fahrzeug anzuheben, so daß der Techniker für die Radausrichtung Zugang zu den Radbefestigungen zwecks Korrektur einer Fehlausrichtung der Räder hat. Außerdem ist unter jedem Vorderrad des Fahrzeugs eine drehbar gelagerte Kreisplatte, die üblicherweise als Drehplatte (nicht gezeigt) bezeichnet wird, angeordnet. Die Drehplatten erlauben es, daß die Vorderräder leichtgängig um ihre Drehachsen gedreht werden können. Dies ermöglicht es, das Verfahren während der Berechnung des Nach laufs und anderer Winkel dynamisch durchzuführen. Die Hinterräder sind auf länglichen, rechteckförmigen, weichen Metallplatten angeordnet, die an den Metallstreifen befestigt sind. Diese Platten werden gewöhnlich als Gleitplatten bezeichnet und erlauben es, dass die Hinterräder durch einen Techniker justiert werden, sobald die Befestigungen an den Hinterrädern gelöst werden. Solche Platten verhindern außerdem, daß die Räder vorgespannt werden, welches wiederum die Winkelposition entsprechend beeinflussen könnte.
  • Zusätzlich können in einigen anspruchsvollen Ausrichtmaschinen das Herstellungsdatum und das Modelljahr zu einem frühen Zeitpunkt während des Verfahrens in die Vorrichtung eingegeben werden. Diese Information wird durch die Vorrichtung dazu verwendet, für das betrachtete Fahrzeug aus vorab in dem Computer 32 programmierten Nachschlagtabelle die Ausrichtparameter zu bestimmen. Weiter können aus dem Herstellungsdatum und dem Modelljahr die Spurweite und der Radstand durch Auslesen von Daten aus dem Speicher bestimmt werden. Diese werden dazu verwendet, die Spiegel der Ausrichtvorrichtung mit höherer Genauigkeit auf die Räder des Fahrzeugs zu steuern. Alternativ können auch Informationen vorhergegangener Betriebsabläufe verwendet werden, um die wahrscheinliche Radposition auszuwählen. Noch eine andere Möglichkeit ist es, die Spiegel dazu zu bringen, über ein besonderes Muster zu schwenken.
  • Sobald das Fahrzeug 20 auf den Prüfstand 26 gefahren ist, wird ein Zielobjekt 54 an jedem Rad befestigt. Die Form und der Aufbau des Zielobjekts wird später mit Bezug auf 3 erläutert. Die Vorrichtung führt zunächst die Berechnung eines Auslauffaktors entsprechend einem Verfahren durch, das nahezu vollständig mit Bezug auf 7 beschrieben wird.
  • Sobald der Auslauffaktor berechnet ist, erstellt die Vorrichtung zum Ausrichten eine bildliche Darstellung (ein detektiertes Bild) von jedem der Zielobjekte 54 auf den Rädern des Kraftfahrzeugs 20. Diese detektierten Bilder werden in dem elektronischen Verarbeitungsmittel/Computer 32 prozessiert, welches die Orientierung jedes der Zielobjekte in Bezug auf die entsprechenden Sichtwege 38L, 38R unter Einsatz des noch vollständig zu beschreibenden Verfahrens berechnet. Der Computer 32 berücksichtigt dann den beschriebenen Auslauffaktor, um die tatsächliche Orientierung der Räder relativ zu den entsprechenden Sichtwegen zu berechnen. Danach bezieht die Vorrichtung die Orientierung der Schwenk- und Neigungsspiegel 46L, 46R in die Berechnung der tatsächlichen Orientierung der Hauptebenen jedes der Räder mit ein. Dabei werden die Ergebnisse der Berechnung auf der Anzeige 34 angezeigt, welches dem Bediener die benötigten Anweisungen dahingehend angibt, inwieweit Korrekturen erforderlich sind, um zum Beispiel Anpassungen an den Lenkverbindungen 60 der Vorderräder 22L und 22R vorzunehmen, so daß eine detektierte Fehlausrichtung der Räder des Fahrzeugs korrigiert werden kann.
  • Berechnungen der Orientierung
  • Der Computer 32 führt alle benötigten Berechnungen unter Verwendung eines Computerprogramms wie etwa IMAGE ANALYST aus. Das Programm ist in der Lage, Bilder und dazugehörige Werte zu analysieren. Typischerweise produziert IMAGE ANALYST Werte für die Mittelpunkte dieser Bilder in Koordinaten, die sich auf die Pixel auf dem Schirm der Videokamera beziehen. Diese Werte werden dann durch eine Software prozessiert, welche die mit Bezug auf 8 noch zu beschreibende Mathematik beinhaltet. Obwohl eine Software wie IMAGE ANALYST viele Merkmale aufweisen kann, wird es bei dieser Anwendung offensichtlich, daß die wesentlichen Merkmale, von denen bei dieser Anwendung Gebrauch gemacht wird, diejenigen sind, die es ermöglichen, Bildschirmkoordinaten für die durch die Videokamera detektierten Bilder bereitzustellen. Es ist daher auch genauso möglich, andere Software als IMAGE ANALYST bei dem hier vorgeschlagenen Verfahren und der Vorrichtung einzusetzen. IMAGE ANALYST wird durch die Firma AUTOMATIX, INC. aus 755 Middlesex Turnpike, Billerca, MA 01821 geliefert.
  • Orientierung der Schwenk- und Neigungsspiegel
  • Bei dem oben beschriebenen Verfahren ist es offensichtlich, daß das Wissen um die Orientierung der Schwenk- und Neigungsspiegel 46L, 46R für die effektive Berechnung der Relativausrichtung der Räder des Fahrzeugs 20 zueinander erforderlich ist. Die Orientierung dieser Spiegel 46L, 46R kann auf zwei unterschiedliche Arten bestimmt werden. Ein Weg der Bestimmung der Orientierung besteht darin, die Spiegel 46L, 46R mit einem empfindlichen Gerät zum Nachverfolgen und Bestimmen der Orientierung zu verbinden, welches Daten an den Computer 32 ausgibt, welcher wiederum die Orientierung der Spiegel im dreidimensionalen Raum berechnet. Alternativ, und bevorzugt, weist die Oberfläche jedes Spiegels ein klar definiertes Muster – gewöhnlich in der Form einer Anzahl von kleinen beabstandeten Punkten – auf, die ein identifizierbares Muster definieren, das durch die Videokamera 30 detektiert werden kann, wenn diese auf die Räder des Kraftfahrzeugs 20 gerichtet ist. Hat die Videokamera 30 das Muster auf den Spiegeln 46L, 46R detektiert, so kann sie daraus ein Bild erstellen. Ein Bild, bei dem es sich aufgrund der Orientierung der Spiegel um eine perspektivische Darstellung handelt. Dieses Bild kann dann auf elektronische Weise in den Computer gefüttert werden, welcher wiederum die Berechnung der Spiegelorientierung im dreidimen sionalen Raum entlang denselben Linien durchführt, wie sie auch für die Orientierung der Räder des Kraftfahrzeugs 20 berechnet wurden. Diese zweite Alternative ist deshalb bevorzugt, weil kein anspruchsvolles und teures Equipment erforderlich ist, mit welchem die Nachverfolgung und die Bestimmung der Orientierung durchgeführt werden müsste.
  • Ein Weg zur Implementierung dieser zweiten, bevorzugten Alternative ist es, eine Linse 40 in der Vorrichtung vorzusehen. Die Linse besitzt eine Fokuslänge, so daß sie ein angemessen klares Bild sowohl der Zielobjekte wie auch der Spiegel auf die Kamera 30 projiziert.
  • In 2b ist ein Weg zur Verbesserung der Bilder der Punkte auf den Schwenk- und Neigungsspiegeln illustriert. Diese Figur zeigt einen Querschnitt durch einen Schwenk- und Neigungsspiegel 46L mit zwei Punkten 41, die als auf dessen oberer Oberfläche gebildet gezeigt sind. Eine plan-konvexe Linse 43 ist oberhalb jedes Punktes angeordnet. Die Fokuslänge von jeder dieser Linsen ist derart, daß sie ein klares Bild gemeinsam mit der Linse 40 von den Punkten in der Videokamera 30 bildet. Obwohl diese Figur zwei individuelle plan-konvexe Linsen 43 zeigt, ist es einleuchtend, dass eine einzelne Linse, die zwei oder mehrere Punkte überspannt, analog verwendet werden könnte. Gleichermaßen können andere optische Verfahren eingesetzt werden, um dies zu erreichen.
  • Orientierung der Zielobjekte
  • Ein Beispiel eines typischen Zielobjekts 54, das auf den Rädern des Fahrzeugs 20 verwendet werden kann, ist in 3 gezeigt. Wie aus dieser Figur ersichtlich ist, besteht das Zielobjekt aus einer flachen Platte mit einem Muster von zwei ver schieden großen Kreisen 62, 63, die darauf in einem vorbestimmten Format markiert sind. Obwohl in dieser Figur ein spezielles Muster gezeigt ist, leuchtet es ein, dass eine große Zahl von verschiedenen Mustern auf dem Zielobjekt 54 eingerichtet werden kann. Zum Beispiel braucht das Zielobjekt nicht kreisförmig zu sein, eine größere oder geringere Zahl von Punkten könnte gleichermaßen vorgesehen sein. Ferner können andere Größen und Formen für die Punkte verwendet werden. Darüber hinaus können vielfältige Platten oder Objekte als Zielobjekte eingesetzt werden.
  • In der Praxis werden eine mathematische Repräsentation bzw. Daten, die einem tatsächlichen Bild entsprechen (d.h. einem durch Betrachten des Zielobjekts senkrecht zu dessen Hauptebene aufgenommenen Bildes) sowie die Größen des Zielobjekts in dem Speicher des Computers 32 vorprogrammiert, so daß während des Ausrichtprozesses dem Computer ein Referenzbild vorliegt, mit dem die betrachteten, perspektivischen Bilder des Zielobjekts verglichen werden können.
  • Die Art und Weise, wie der Computer die Orientierung des Zielobjekts 54 berechnet, besteht darin, bestimmte geometrische Eigenschaften des Zielobjekts 54 zu identifizieren, perspektivische Messungen derselben aufzunehmen und diese Messungen mit dem in dem Speicher des Computers vorprogrammierten tatsächlichen Bild zu vergleichen.
  • Die Vorrichtung könnte zum Beispiel die Mitte jedes der Kreise 62a, 62b anhand z.B. einer Methode namens Zentrierung berechnen. Diese Methode wird für gewöhnlich in Bildanalysecomputern verwendet, um die Positionierung des Mittelpunkts oder der Mittellinie eines Objekts zu bestimmen. Sind einmal die Mittelpunkte der beiden Kreise 62a, 62b bestimmt, so kann der Ab stand zwischen den beiden gemessen werden. Dieser Prozeß wird dann für andere Kreise in dem Muster auf dem Zielobjekt 54 wiederholt. Diese Abstände können dann mit den tatsächlichen Abständen (d.h. den nicht-perspektivischen Abständen) zwischen den entsprechenden Mittelpunkten verglichen werden. Auf ähnliche Weise kann der Winkel gegenüber der Horizontalen (oder der Vertikalen) der die beiden Mittelpunkte verbindenden Linie bestimmt werden. Ist der Effekt der Fokallänge der Linse 40 in Betracht gezogen und sind andere optische Eigenschaften der Komponenten wie etwa des Strahlungsteilers 42, des Spiegels 44 und der Spiegel 46L, 46R berücksichtigt, so kann eine Berechnung dahingehend angestellt werden, wie die Orientierung des Zielobjekts 54 aussieht. Diese Berechnung kann anhand von trigonometrischen Funktionen oder anderer geeigneter mathematischer oder numerischer Verfahren durchgeführt werden. Wie eingangs beschrieben wurde, wird dies auch die Orientierung der Hauptebene des Rads des Fahrzeugs liefern.
  • Obwohl oben ein Verfahren zur Berechnung der Orientierung des Zielobjekts 54 beschrieben ist, leuchtet es ein, dass andere Verfahren ebenso anwendbar sind. Zum Beispiel könnte die Vorrichtung auch auf lediglich nur einen der Kreise, z.B. den Kreis 63, gerichtet sein und durch Verwendung des perspektivischen Bilds desselben (die verzerrte Ellipse) auf ähnliche Weise wie mit Bezug auf 1 beschrieben die Orientierung dieses Kreises berechnen. Daraus ergibt sich die Orientierung des Zielobjekts 54. Ein anderes Beispiel betrifft die Aufnahme zweier um 60° relativ zueinander rotierter Bilder. Diese Information wird dazu verwendet, die Orientierung des Zielobjekts in Bezug auf seine Drehachse zu berechnen. Es ist anzumerken, daß lediglich zwei Bilder erforderlich sind, solange die Radachse ihre Achsorientierung nicht ändert. Es wird zusätzlich auch ins Auge gefaßt, daß in anspruchsvollen Ausrich tungssystemen mehr als eine Berechnung für jedes Zielobjekt ausgeführt wird, und daß verschiedene Ergebnisse dieser Berechnungen miteinander verglichen werden, um die benötige Genauigkeit abzusichern.
  • Darüber hinaus können das Verfahren und die Vorrichtung dazu eingesetzt werden, die exakte Position der Räder im dreidimensionalen Raum zu bestimmen, weil die wahren Größen des Zielobjekts in dem Speicher des Computers 32 vorprogrammiert sind. Dies kann durchgeführt werden, indem zunächst das perspektivische Bild von bestimmten Musterelementen auf dem Zielobjekt (beispielsweise die Abstände zwischen den Kreisen) ermittelt wird. Dann werden die Größen aus diesem Bild mit den tatsächlichen Größen jener Elemente verglichen. Daraus ergibt sich der Abstand, den das Element und entsprechend das Zielobjekt 54 von der Videokamera einnimmt.
  • Weil die oben beschriebenen Prozesse bereits die Orientierung des Zielobjekts 54 in Bezug auf den Sichtweg und/oder einer beliebigen anderen Referenzebene ergeben haben, kann dieses Ergebnis mit dem berechneten Abstand und den geometrischen Koordinaten der Ausrichtvorrichtung kombiniert werden, um eine Position des Zielobjekts 54 relativ zu der Ausrichtvorrichtung zu erhalten. Während dieses Vergleichsprozesses müssen der Effekt der Fokallänge der Linse 40 sowie auch die optischen Eigenschaften des Strahlteilers 42, des Spiegels 44 und der Schwenk- und Neigungsspiegel 46L und 46R in Betracht gezogen werden. Typischerweise werden diese Eigenschaften in den Computer mittels Direkteingabe oder bevorzugt anhand von Kalibrationstechniken, eingegeben. Auf diese Weise kann die exakte Positionierung jedes der Räder des Fahrzeugs 20 berechnet werden.
  • Eine kurze Beschreibung eines alternativen Ausführungsbeispiels der Vorrichtung
  • Es erscheint dem einschlägigen Fachmann klar, dass eine Anzahl von verschiedenen Konfigurationen aus Linse, Strahlungsteiler und Spiegeln (d.h., das optische System) möglich sind, um das erforderliche Ergebnis mit dem Verfahren und der Vorrichtung zu erhalten. Eine solche Konfiguration ist in 4 der beigefügten Zeichnung dargestellt.
  • In dieser Figur ist das Equipment als oberhalb des Kraftfahrzeugs 20 angebracht dargestellt und schließt eine Videokamera 30, einen Computer 32 mit zugehöriger Anzeige 34 und Eingabetastatur 36 sowie eine Linse 40 ähnlich derjenigen, wie sie in 2 dargestellt ist, ein. Wie bei der Konfiguration gemäß 2 wird der Sichtweg oder die optische Mittellinie der Videokamera 30 in zwei Richtungen 38L und 38R durch eine Kombination aus Strahlungsteiler 42 und Planspiegel 44 abgelenkt.
  • Diese Konfiguration schließt ebenfalls zwei Schwenk- und Neigungsspiegel 70L, 72L ein, die auf der linken Seite der Vorrichtung angeordnet sind, sowie zwei Schwenk- und Neigungsspiegel 70R und 72R, die auf der rechten Seite der Vorrichtung angeordnet sind. Die Spiegel 70L, 72L sind so eingerichtet, daß sie die linken Vorder- und Hinterräder 22L, 24L entsprechend sichten. Die Spiegel 70R, 72R sind derart eingerichtet, daß sie die rechten Räder 22R, 24R entsprechend sichten. Weil die Spiegel 70L, 72L, 70R, 72R Schwenk- und Neigungsspiegel sind, können sie so bewegt werden, daß sie die Räder des Fahrzeugs 20 überstreichen, obwohl das Fahrzeug nicht genau unterhalb der Vorrichtung zentriert angeordnet ist. Diese Spiegel sind ebenfalls nützlich bei der Berücksichtigung von Fahrzeugen verschiedener Längen des Achsstandes und der Spurbreite.
  • Eine weitere Modifikation dieser Vorrichtung würde den Ersatz des Strahlungsteilers 42 und des Planspiegels 44 durch ein einziges reflektierendes Prisma betreffen. Das Prisma besitzt den Vorteil über die Strahlungsteilerkombination, daß mehr Licht von dem Prisma in die Kamera 30 reflektiert wird. Daraus resultiert ein helleres Bild des Zielobjekts 54, das in der Kamera 30 erzeugt wird.
  • Zielobjekt und Bilddetails des Zielobjekts
  • Mit der in dieser Figur abgebildeten Vorrichtung kann wie bei den anderen abgebildeten Vorrichtungen eine Modifikation des Zielobjekts wie in 5 dargestellt verwendet werden. In dieser Figur ist das im allgemeinen mit 80 bezeichnete Zielobjekt als eine flache, rechteckförmige Platte 82 aufweisend dargestellt, die an der Felge 84 des Rads 86 mittels eines Klemmmechanismus 88 festgeklemmt ist. Aus 5 wird offensichtlich, daß die Platte 82 relativ zu der Hauptebene des Rads 86 angewinkelt ist, sowie auch zu dessen Drehachse 89.
  • Die präzise Orientierung dieser Platte 82 relativ zu der Radachse ist jedoch nicht bekannt. Sie wird wie weiter unten beschrieben relativ zu der Radachse durch Bestimmung eines Auslauffaktors für dieses Rad berechnet. Die allgemeine Orientierung der Platte 82 ist jedoch so gewählt, daß sie in angemessener Weise durch die Videokamera 30, die auf sie gerichtet ist, betrachtet werden kann.
  • Schließlich weist die Platte 82 eine Vielzahl von Punkten 90 auf, die wie gezeigt ein Muster nicht unähnlich dem in 3 dargestellten Zielobjekt zusammensetzen.
  • Mit den Zielobjekten dieser Art sehen die durch die Videokameras 30 erstellten Bilder ähnlich wie diejenigen aus 6 aus, wenn diese zusammen mit der Vorrichtung gemäß 4 eingesetzt werden. Bei dieser Figur werden offenbar vier diskrete Bilder 92, 94, 96, 98 erstellt, die ein vollständiges Bild zusammensetzen, im Allgemeinen mit 99 bezeichnet, und erstellt durch die Videokamera 30. Jedes dieser vier Bilder, die das vollständige Bild 99 zusammensetzen, ist ein Bild einer der rechteckförmigen Platten 82, die entsprechend auf den vier Rädern des Kraftfahrzeugs angeordnet sind. Zum Beispiel könnte das Bild 92 im oberen Teil des Bildes 100 mit der Platte 82 auf dem rechten Hinterrad 24R des Fahrzeugs 20 korrespondieren. Auf ähnliche Weise könnte das Bild 94 mit dem rechten Vorderrad 22R, das Bild 96 mit dem linken Vorderrad 22L und das Bild 98 mit dem linken Hinterrad 24L korrespondieren.
  • Der Vorteil des Zielobjekts 80 bei Verwendung in der Vorrichtung gemäß 4 besteht darin, daß ein einzelnes Bild gleichzeitig für alle vier Räder aufgenommen werden kann. Dieses einzelne Bild kann dann in ziemlich genau der gleichen Weise wie oben beschrieben prozessiert werden, um die Orientierung und die Position für alle Räder in Bezug aufeinander zu erhalten. Genauer gesagt kann die relative Orientierung des rechten Vorderrads zum linken Vorderrad und des rechten Hinterrades zu dem linken Hinterrad berechnet werden.
  • An jedem Ende der Bilder 92, 94, 96, 98 kann entsprechend ein Paar von Punkten 100 gesehen werden. Diese Punkte 100 sind tatsächlich Bilder der Punkte auf den entsprechenden Schwenk- und Neigungsspiegeln, auf die in der Diskussion zu 2 Bezug genommen wurde. Wie in jener Diskussion hervorgehoben wurde, werden diese Punkte dazu verwendet, die Orientierung der Schwenk- und Neigungsspiegel relativ zum Sichtweg der Kamera zu berechnen. Eine Berechnung, die zur Bestimmung sowohl der Orientierung wie auch der Position der Hauptebene von jedem der Räder des Fahrzeugs essentiell ist.
  • Zusätzlich zeigt diese Figur an, daß die Bilder der Marken 100 von den Bildern der Muster auf den Platten mittels einer vertikalen Linie 101 getrennt werden können. Diese Linie 101 dient als Grenzlinie zwischen dem Muster (aus welchem die Orientierung des Zielobjekts berechnet wird) und dem Bild der Punkte 100 (aus welchen die Orientierung der Schwenk- und Neigungsspiegel berechnet wird).
  • Berechnungen des Auslauffaktors
  • In 7 der Zeichnung ist ein Verfahren zur Berechnung des Auslauffaktors für ein Zielobjekt 104 dargestellt, das auf eine etwas andere Weise an dem Rad 103 befestigt ist. Bei diesem Verfahren wird das Rad 103 langsam gedreht, während eine Anzahl von unterschiedlichen Bildern von dem Zielobjekt 104 aufgenommen wird. Das Zielobjekt ist der verbesserten Übersichtlichkeit halber erheblich von dem Mittelpunkt des Rads beabstandet. In der Praxis wird das Zielobjekt jedoch näher an dem Mittelpunkt angebracht, etwa so wie das in 5 dargestellte Zielobjekt. Für jedes Bild wird die Neigung der Ebene des Zielobjekts sowie auch seine Position im Raum berechnet. Sind diese erst einmal für jedes Bild bestimmt, so werden sie zur Definition einer Oberfläche 106 der Umdrehung aufintegriert. Diese Oberfläche 106 der Umdrehung repräsentiert den Weg, den das Zielobjekt 104 nachverfolgt, wenn das Rad um seine Achse gedreht wird. Die Drehachse 108 des Zielobjekts ist die gleiche wie die Drehachse des Rads. Das bedeutet, daß eine Ebene senkrecht zur Drehachse 108 der Oberfläche 106 der Umdrehung parallel zur Hauptebene des Rads 106 ist. Weil die Drehoberfläche 106 bestimmt ist, kann auf die Drehachse 108 sowie daraus die Orientierung und die Position der Hauptebene des Rads des Fahrzeugs im Raum bestimmt werden.
  • Aus diesen Ergebnissen kann der Auslauffaktor durch Berechnung des Winkels zwischen der Ebene des Zielobjekts und der Hauptebene des Rads berechnet werden. Dieser Auslauffaktor wird dann in dem Computer 32 gespeichert und kann verwendet werden, wenn die Ausrichtung des Rads aus einem einzelnen Bild des Zielobjekts berechnet wird.
  • Die Berechnung des Auslauffaktors kann ebenso verwendet werden, um zu bestimmen, ob die Aufhängung des Fahrzeugs schädigend abgenutzt wurde oder nicht. Unter Einsatz des Verfahrens kann der sichtbare Auslauffaktor (d.h., die Orientierung des Zielobjekts in Bezug auf das Rad) für jedes Bild, das von dem Zielobjekt aufgenommen wurde, bestimmt werden. Aus dieser Gruppe von individuellen Auslauffaktoren kann ein Mittelwert berechnet werden (welcher den tatsächlichen Auslauffaktor repräsentiert) sowie auch das Ausmaß der Abweichung von dem Durchschnitt der einzelnen Faktoren. Wenn diese Abweichung oberhalb einer bestimmten Toleranz liegt, zeigt dies an, daß die Aufhängung des Kraftfahrzeugs so stark abgenutzt ist, so dass diesem Punkt Aufmerksamkeit zugewendet werden muß.
  • Bestimmung der Genauigkeit
  • Wieder zurückkehrend zu den Zielobjekten sollte erkannt werden, daß ein wichtiges Merkmal des sowohl in 3 als auch in 5 dargestellten Zielobjekts (oder eines anderen, diesen Gegenstand betreffenden Zielobjekts) darin besteht, daß hinreichend viele Datenpunkte vorliegen, um redundante Berechnungen unter Verwendung verschiedener Sätze von Datenpunkten zu ermöglichen. Daraus können viele Radausrichtwinkel erhalten werden, die zur Verbesserung der Genauigkeit der letztendlichen Messung gemittelt werden können. Außerdem kann eine statistische Verteilung der verschiedenen Ausrichtwinkel, die für jedes Rad berechnet wurden, als Maß für die Genauigkeit des Betriebs der Vorrichtung verwendet werden. Wenn ein geeignetes Prüfverfahren in dem Computer 32 vorgesehen ist, dann kann eine solche statistische Verteilung wie diese den Computer 32 in die Lage versetzen, zu bestimmen, ob eine hinreichende Genauigkeit vorliegt oder nicht. Wenn dies nicht der Fall ist, dann kann ein Signal erzeugt werden, das einen Bediener auf diese Tatsache hinweisen kann.
  • Wenn gleichermaßen das obige Prüfverfahren anzeigt, daß eines oder mehrere der verwendeten Zielobjekte unakzeptabel schlechte Ergebnisse liefert, während die übrigen Zielobjekte akzeptable Ergebnisse liefern, kann angenommen werden, daß einige der verwendeten Zielobjekte nicht akzeptabel sind. Der Computer kann dies anzeigen, und der Bediener kann zum Beispiel angewiesen werden, das diese Bedingungen verletzende Zielobjekt zu entfernen, zu säubern oder wieder Instand zu setzen.
  • Ein weiterer Vorteil, der aus der Bildung geeigneter vielfacher Bilder und der Berechnung einer statistischen Analyse abgeleitet werden kann, besteht darin, daß der Computer 32 feststellen kann, ob genügend Bilder aufgenommen wurden, um die benötigte Genauigkeit des Meßprozesses für die Ausrichtung sicherzustellen. Wenn unzureichend viele Auslesungen vorliegen, kann der Computer die Vorrichtung anweisen, weitere Auslesungen durchzuführen, die trotz einer Beeinträchtigung der Geschwindigkeit in einer verbesserten Genauigkeit der Messung resultieren würden.
  • Ferner könnte das Zielobjekt einen maschinenlesbaren Barcode oder ähnliches, das zur Identifikation, zur Nachverfolgung des Zielobjekts, zur Messung von Intensitätsgrenzwerten, zur Evaluation der Beleuchtungsqualität, und zur Entschlüsselung von Defekten eingesetzt werden kann, aufweisen, um die Verwendung preiswerter Zielobjekte zu ermöglichen. Wenn zum Beispiel das Zielobjekt verdreht ist und das Ausmaß an Verdrehung in dem Barcode codiert ist, dann kann der Computer diese Verdrehung ausgleichen. Ein anderes wichtiges Merkmal des Zielobjekts besteht darin, daß das darauf angebrachte Muster eine sehr schnelle und genaue Lokalisierung des Musters mit einer sich an weniger als ein Kamerapixel annähernden Auflösung erlaubt. Um dies zu erreichen, sollte das Muster einen hohen Kontrast aufzeigen und eine Konfiguration aufweisen, die es der verwendeten speziellen Vorrichtung erlaubt, die benötigte Geschwindigkeit und Genauigkeit zu erreichen. In einem Ausführungsbeispiel werden für die Punkte retro-reflektive Materialien verwendet sowie eine Farbe für den Hintergrund, die speziell das verwendete Licht absorbiert.
  • Diese Vorrichtung ermöglicht ebenso eine Kalibration, welches deshalb wichtig ist, weil alle optischen Systeme etwas geometrische Verzerrung aufweisen. Die gesamte Bildgröße der Vorrichtung könnte zum Beispiel unter Verwendung eines perfekten Zielobjekts berechnet werden. Das Ergebnis wird verwendet, um Korrekturwerte zu bestimmen, die zur Verwendung genau dann gespeichert werden, wenn das System in der Ausrichtprozedur betrieben wird.
  • Die absolute Genauigkeit der Vorrichtung kann überprüft oder kalibriert werden anhand eines einfachen, zweiseitigen, flachen, plattenförmigen Zielobjekts, welches so plaziert wird, daß die Vorrichtung gleichzeitig beide Seiten sichtet. Weil die Platte flach ist, sollte der Nettowinkel (die relative Ausrichtung) zwischen den beiden Ebenen des Zielobjekts null sein. Wenn dies nicht der Fall ist, kann ein geeigneter Korrekturfaktor in dem Computer gespeichert werden. Alternativ könnten zwei Ansichten derselben Seite des Zielobjekts, die aus verschiedenen Winkeln aufgenommen wurden, zu diesem Zweck verwendet werden.
  • Verwendete mathematische Algorithmen
  • Dieser Abschnitt beschreibt die für die Verringerung der Messungen notwendige Mathematik, wobei die Messungen durch die Videokamera an den Radpositionen im Raum unter Verwendung augenblicklicher Messungen gemacht werden.
  • Annahmen
  • Das Kamerasystem kann so definiert werden, daß es zwei beliebig gegeneinander positionierte Ebenen (innerhalb begründeter Einschränkungen der Sichtbarkeit) aufweist. Die eine ist die Bildebene, die abbildet, was durch die Kamera "gesehen wird", und die andere ist die Objektebene, welche dreidimensionale, essentiell punktförmige Zielobjekte beinhaltet.
  • Darauf basierend werden folgende Annahmen gemacht:
    • (i) Die Hauptachse der Kamera ist senkrecht zur Bildebene (viele Kameras sind auf diese Weise angeordnet);
    • (ii) Es gibt bei einem bekannten Abstand von f (d.h., die Fokallänge des Abbildungssystems, wenn es auf unendlich gesetzt wird) von der Bildebene entlang der Hauptachse der Kamera einen Punkt, der Mittelpunkt der Perspektivität (center of perspectivity: CP) ge nannt wird. Dieser Punkt ist der Gestalt, daß das Verhalten der Kamera so ist, daß das Bild eines betrachteten Punkts irgendwo im Kamerabildfeld auf die Bildebene durch dessen Bewegung entlang einer Linie, die sowohl durch den betrachteten Punkt im Raum wie auch durch den CP verläuft, projiziert wird;
    • (iii) Der Ursprung des Koordinatensystems, das in der Bildebene fixiert ist, befindet sich im Mittelpunkt der Perspektivität, wobei der Einheitsvektor z auf die Kamera hin entlang seiner Hauptachse gerichtet ist; und
    • (iv) die Einheiten der Bildebenenmessungen sind die gleichen wie jene der Objektebenenmessungen.
  • Diese Annahmen sind üblich im Bereich der optischen Wissenschaften.
  • Überblick
  • Für diesen Aufbau kann eine Mathematik aufgestellt werden, um die relativen Orientierungen und Positionen der Objekt- und Bildebenen zu bestimmen.
  • Diese Mathematik kann auf zwei Arten verwendet werden:
    • (i) während der Kalibration, um die Position der Bildebene in Bezug auf den Ort der Objektebene einer bekannten Position eines Kalibrations-Zielobjekts zu finden; und
    • (ii) während des Ausrichtprozesses, um die Position und die Orientierung der Hauptebene des Zielobjekts, das an den Rädern des Fahrzeugs befestigt ist, zu finden. Es ist wichtig, daß in diesem Schritt das bekannte Koordinatensystem im Raum fixiert ist, und daß es das gleiche bleibt für alle vier Räder des Fahrzeugs.
  • Wie eingangs beschrieben wurde, kann die Drehachse der Räder bestimmt werden, sobald die Positionierung der Zielobjektebenen auf den Rädern bekannt ist, indem die Räder rotiert werden. Daraus kann die Ausrichtung der Räder bestimmt werden.
  • Hauptalgorithmus
  • Es sollte angemerkt werden, daß dieser Hauptalgorithmus keine Behandlung der verschiedenen Schwenk- und Neigungsspiegel präsentiert; dies wird später durchgeführt.
  • Der Hauptalgorithmus benötigt die folgenden Angaben:
    • (i) eine Liste von Punkten, die in den Koordinaten der Objektebene ausgedrückt sind. 0qj = (xj, yj), j = 1, n/n ≥ 4Dies sind tatsächlich dreidimensionale Punkte, jedoch kann das Koordinatensystem der Objektebene immer so gewählt werden, daß die dritte Koordinate zi = 0.
    • (ii) Eine entsprechende Liste von Punktkoordinaten in der Bildebene iqj = (uj, vj), j = 1, n.
  • Für diese Angaben produziert der Algorithmus eine Ausgabe, die eine Matrix homogener Koordinatentransformation betrifft. Diese drückt den Mittelpunkt der Perspektivität und die Einheitsvektoren, die in Bezug auf die Hauptachsen der Bildebene fixiert sind, aus. Diese Matrix wird normalerweise invertiert, und dann angewendet, um die betrachteten Punkte in das Bildkoordinatensystem zu transformieren.
  • Schritt 1: Bestimmen einer Kollination
  • Konvertiere alle zweidimensionalen Input-Koordinaten in eine affine Form und finde eine 3 × 3 Transformationsmatrix T, so daß:
    Figure 00360001
    für i = 1, n und wobei ki beliebige skalare Konstanten sind.
  • Ein Weg, in welchem die Transformationsmatrix T bestimmt werden kann, ist unten angegeben.
  • Schritt 2: Bestimme die Transformationen der Schlüsselpunkte und Invarianten
  • Die Transformationsmatrix T wird Punkte in der Objektebene in Punkte in der Bildebene unter der Projektivität transformieren, deren Mittelpunkt der Mittelpunkt der Perspektivität (CP) ist. Sobald invertiert, wird diese ebenso die umgekehrte Transformation ausführen, d.h.:
    Figure 00360002
  • Es ist anzumerken, Dass die gesamte Gleichung mit einem beliebigen Skalar multipliziert werden kann und trotzdem gültig bleibt. Der Wert mi ist ein solcher Skalar und wird benötigt, um die Normalisierung von (ui vi 1)T zu erlauben, so Dass seine dritte Koordinate eine Einheit ist. Die Matrix T ist ebenso nützlich zur Transformation von Linien, die dual gegenüber Punkten auf der projektiven Ebene sind. Die Gleichung einer Linie in der projektiven Ebene lautet:
    Figure 00370001
    wobei c den Koordinatenvektor der Linie und X den Mustervektor bezeichnet. Eine beliebige homogene Repräsentation eines Punktes, der Gleichung 3 genügt, liegt auf der Linie. Man nehme an, dass eine Objektkoordinate 0c auf einer Linie liegt, dann gilt: [0c][0x] = 0 (4)ist die Gleichung einer Linie in der Objektebene, ausgedrückt in Objektebenenkoordinaten. Unter Ausnutzung von Gleichung 2 können wir in Bildebenenkoordinaten transformieren: [0c][T–1][ix] = 0 (5)oder
    Folglich ist [ic][ix] = 0 [ic] = [T–1][0c] (6)der Ansatz, um Linienkoordinaten von der Objektebene in die Bildebene zu transformieren, und [0c] = [TT][ic] (7)ist der Ansatz zur Durchführung der inversen Transformation.
  • Es ist anzumerken, daß die projektive Ebene sich von der nichtprojektiven Ebene darin unterscheidet, daß sie Punkte im Unendlichen aufweist, deren projektive Koordinate 0 ist. Diese Punkte bilden gemeinsam eine Linie im Unendlichen, deren Koordinaten sind [0, 0, 1], bzw.
  • Figure 00380001
  • Dies ist in 8a dargestellt, die eine Seitenansicht einer Objektebene OP und einer Bildebene IP repräsentiert, die nicht parallel gegeneinander unter einem Winkel Θ angeordnet sind.
  • Die Objektebene OP schneidet eine Ebene parallel zur Bildebene IP, die aber nicht durch den Mittelpunkt der Perspektivität CP verläuft. Diese Ebene wird auch Sichtbildebene (view image plane VIP) bezeichnet und schneidet die Objektebene OP in der "verschwindenden Linie", die auf die Objektebene abgebildet wird, welches als Punkt VLO dargestellt ist. In ähnlicher Weise zeigt die Figur eine Ebene parallel zu der Objektebene, die auch als betrachtete Objektebene (view object plane VOP) bezeichnet wird, und welche die Bildebene IP in eine "verschwindenden Linie" schneidet, die auf die Bildebene abgebildet wird, welches als Punkt VLI dargestellt ist.
  • Weil VIP parallel zu IP ist, schneiden sie sich im Unendlichen. Die Kollineationsmatrix T kann folglich dazu verwendet werden, die Linie im Unendlichen des Bildes auf ihre entsprechend transformierte Position in der Objektebene wie folgt abzubilden:
    Figure 00390001
  • Und auf ähnliche Weise:
    Figure 00390002
  • Aufgrund der oben beschriebenen Annahmen in Bezug auf das Kamerasystem sind die Koordinaten des Hauptpunktes PPI des Bildes:
    Figure 00390003
  • Die Koordinaten des Hauptpunktes PPO des Objekts sind:
    Figure 00400001
  • Schritt 3: Vollständig verbleibende Neigungswerte
  • Die Minimaldistanz zwischen einer Linie mit Linienkoordinaten [z1 z2 z3]T in einer projektiven Ebene und einem Punkt mit den Koordinaten [p1 p2 p3]T ist gegeben durch
    Figure 00400002
  • Dies macht es möglich, nach DI, Θ und DO aufzulösen:
    Figure 00400003
  • Schritt 4: Berechne die Schwenkwerte
  • 8b zeigt eine Draufsicht der Objektebene, herabgesehen von dem Zentrum der Perspektivität:
    Wir haben:
    Figure 00410001
  • Sei
  • Figure 00410002
  • Schritt 5: Löse nun nach den verbleibenden Unbekannten auf
  • Mit Bezug auf die 8a und 8b ergibt sich zusammen: DCP = |DO·sinΘ| (20)
    Figure 00410003
    00i = 0PPI = 0PPO + DCP·0i (22)
    Figure 00420001
  • Dies ist der Ursprung des Koordinatensystems der Bildebene, ausgedrückt in Koordinaten der Objektebene. Er befindet sich im Punkt CP.
  • 0xi und 0yi, die verbleibenden Einheitsvektoren, können durch Transformation der entsprechenden Einheitsvektoren in der Bildebene mit nachfolgender Orthogonalisierung mit Bezug auf zi berechnet werden.
  • Sei
    Figure 00420002
    dann kann
    Figure 00420003
    mit Bezug auf 0zi orthogonalisiert 0x ~i' = 0x ~i – (0x ~i·0i)0f (25) und renormiert werden: 0x ^i = 0x ~i'/0x ~4' (26)
  • Sei gleichermaßen
  • Figure 00430001
  • Dann ist
    Figure 00430002
    0x ~i' = 0y ~i – (0y ~i·0z ^i)0z ^i (29)und 0y ^i = 0y ~i/0y ~4' (30)
  • Schließlich ergibt sich
  • Figure 00430003
  • Die Rahmen transformieren vom Bildraum in den Objektraum. Um mit einem Rahmen zurückzukehren und um in Koordinaten der Ob jektebene angegebene Punkte hinsichtlich des mit Bezug auf die Bildebene fixierten Koordinatensystems auszudrücken, ist anzumerken, daß F0 = 0Fi –1 (32)und
  • Figure 00440001
  • Dies ist der allgemeine Fall, es gibt jedoch auch Spezialfälle, bei denen die Objekt- und Bildebenen parallel sind. Dies wird detektierbar, wenn VLO oder VLI (Gleichungen 9 oder 10) letztendlich selbst im Unendlichen liegen (was bedeutet, daß ihre ersten beiden Koordinaten hinreichend nah an 0 liegen).
  • In diesem Fall wird
    Figure 00440002
    so daß der Abstand DCP durch Auswahl eines beliebigen Punkts in der Objektebene (xk, yk) bestimmt werden kann, deren Entsprechung (uk, vk) nicht 0 ist. Die Berechnung entsprechend dem in 8(c) gezeigten Diagramm liefert:
    Sei
    Figure 00440003
    Figure 00450001
  • Anschließend wird gemäß Gleichung (22) fortgefahren.
  • Damit ist die Beschreibung des Hauptalgorithmus zur Bestimmung der Ebenenverschiebungen abgeschlossen.
  • 9.4 Bestimmung der Transformationsmatrix
  • Dieser Abschnitt beschreibt, wie die Transformationsmatrix T berechnet wird, die in Gleichung (1) verwendet wird.
  • Die hier vorgestellte Methode ist eine analytische Methode, die zwischen lediglich vier koplanaren Punkten abbildet und auf den Fundamentaltheorien der projektiven Geometrie beruht. Dies sagt aus, dass vier gegebene Punkte in der Projektivebene ausgedrückt sind durch: p1 = (x1 y1 w1) p2 = (x2 y2 w2) p3 = (x3 y3 w3) p4 = (x4 y4 w4) (38)
  • Konstanten c1, c2 und c3 können gefunden werden, so dass p4 = c1p1 + c2p2 + c3p3 (39)
  • Wird dies in Matrixform ausgedrückt:
    Figure 00460001
    dann wird die aus
    Figure 00460002
    zusammengesetzte Matrix M die idealen Ursprungspunkte und die Einheitspunkte wie folgt transformieren: p1 = (1 0 0) M = ixM (Einheitsvektor x) p2 = (0 1 0) M = iyM (Einheitsvektor y) p3 = (0 0 1) M = oM (Ursprung) p4 = (1 1 1) M = uM (Einheitspunkt) (42)
  • Folglich müssen zwei Transformationen konstruiert werden, um eine Transformation zu erzielen, die vier willkürliche Punkte p1, p2, p3, p4 in vier willkürliche andere Punkte q1, q2, q3, q4 überführt:
    Figure 00460003
  • Dann wird M konstruiert, so dass sich aus: qi = piM (44)ergibt: M = Mi –1M2. (45)
  • Es ist anzumerken, dass die p's und q's nunmehr Vektoren sind. Im Hauptabschnitt werden Spaltenvektoren verwendet, so dass T = MT. (46)
  • Schließlich ist anzumerken, daß eine andere Methode, die hier nicht dargestellt ist, mehr als vier Punkte akzeptiert und eine Näherung mittels kleinster Quadrate unter Verwendung von Pseudoinversen ausführt. Diese zweite Methode kann in dem Fall verwendet werden, in dem die Zahl der gemessenen Punkte zum Ausgleich von erwarteten Fehlern angehoben wurde.
  • Berücksichtigung von Schwenk- und Neigungsspiegeln
  • Nachdem die abgebildeten Datenpunkte zu den in Bildebenenkoordinaten angegebenen dreidimensionalen Punkten zurückkonvertiert wurden, verbleibt nun noch, die Reflexionen durch die Strahlungsteileranordnung und die Schwenk- und Neigungsspiegel zu berücksichtigen.
  • Wenn ix einen zu reflektierenden Punkt bezeichnet, und in eine zur Reflexionsebene senkrechte Einheitslänge bezeichnet, und ix0 einen Punkt in der Reflexionsebene bezeichnet (alle in Bildebenenkoordinaten ausgedrückt), dann ist ixr, d.h. dessen Reflexion, angegeben durch
    Figure 00480001
  • Die oben angegebene Matrix stellt eine Transformation vom Typ standardmäßiger Verschiebungen dar. Diese kann unter Verwendung von Standardmethoden invertiert werden, obwohl in der vorliegenden Anwendung keine Notwendigkeit dazu besteht. Diese Matrizen können ebenso wie gewöhnlich von rechts nach links kaskadiert werden, um zunächst mit dem Strahlungsteiler und dann mit dem Schwenk- und Neigungsspiegel umzugehen, jedoch müssen zunächst der Reflexionsebenenpunkt ix0 und die Normale in für den Schwenk- und Neigungsspiegel anhand der Reflexionsmatrix für den Strahlungsteiler transformiert werden, bevor die Schwenk- und Neigungsspiegel-Reflexionsmatrix darauf basierend gebildet wird.
  • Schließlich sollte angemerkt sein, daß, wenn der Hauptalgorithmus zum Auffinden der Position des Schwenk- und Neigungsspiegels verwendet wird, diese einmal durch den Strahlungsteiler reflektiert wurden. iž0 und i00 sind direkt als Normale und Punkt in der Reflexionsebene verwendbar.
  • Eine nachfolgende Verwendung eines iterativen Anpaßverfahrens könnte in verbesserter Genauigkeit resultieren.
  • Andere mathematische Prozesse können ebenso eingesetzt werden, um die mittels der Vorrichtung gemäß der vorliegenden Erfindung detektierten Bilder zu prozessieren.
  • Ausführungsbeispiel mit zwei Kameras
  • In der 9 der Zeichnung ist ein Ausführungsbeispiel der vorliegenden Erfindung dargestellt unter dem Bezugszeichen 110, bei dem ein Paar von festen, voneinander beabstandeten Kameras verwendet wird. Ein vierrädriges Fahrzeug, das sich auf einer Hebebühne 111 zur Radausrichtung befindet, ist durch die vier Räder 112, 113, 114, und 115 angedeutet. Im gewöhnlichen Fall wird die Bühne 111 nicht dargestellte Drehplatten aufweisen, mit denen eine Richtungsänderung wenigstens eines der Vorderräder ermöglicht wird. In diesem Ausführungsbeispiel weist eine Kamera, die eine Suprastruktur unterstützt, einen sich horizontal erstreckenden Träger 116 auf, der an einem Meßschrank 117 angebracht ist. Der Meßschrank 117 kann eine Vielzahl von Schubladen 118 aufweisen, die beispielsweise Geräte, Handbücher, Teile, etc. beinhalten. Der Meßschrank kann ebenso als Standfläche für einen Videomonitor 119 und eine Eingabetastatur 120 dienen.
  • An jedem Ende des Trägers 116 ist eine Kamera und ein Lichtquellen-Subsystem angebracht, die entsprechend mit 122 und 124 bezeichnet sind. Die Länge des Trägers 116 wird so gewählt, daß sie lang genug ist, um eine Positionierung des Kamera/Licht-Subsystems jenseits der Außenseiten des durch das System zu justierenden Fahrzeugs zu ermöglichen. Der Träger und das Kamera/Licht-Subsystem 122, 124 sind hoch genug über den Boden 125 der Werkstatt angeordnet, um sicherzustellen, daß die beiden Zielobjekte auf der linken Seite des Fahrzeugs beide innerhalb des Bildfelds der Kameraanordnung 122 liegen, und daß die beiden Zielobjekte auf der rechten Seite des Fahrzeugs beide innerhalb des Bildfelds der Kameraanordnung 124 liegen. Mit anderen Worten, die Kameras sind hoch genug angeordnet, so daß ihre Sichtlinie eines hinteren Zielobjekts über den oberen Bereich eines vorderen Zielobjekts liegt. Dies kann natürlich auch dadurch erreicht werden, indem die Länge des Trägers 116 so gewählt wird, daß die Kameras außerhalb der vorderen Zielobjekte positioniert sind und eine klare Sicht auf die hinteren Zielobjekte besitzen. Details des Kamera/Licht-Subsystems 122, 124 werden weiter unten mit Bezug auf die 10 erläutert.
  • Entsprechend diesem Ausführungsbeispiel ist eine Objektvorrichtung 126 einschließlich einer Felgenklemm-Vorrichtung 128 und eines Zielobjekts 130 an jedem Rad angebracht. Ein geeigneter Felgenklemm-Mechanismus ist in der U.S.-Patentanmeldung Nr. 5,024,001 mit dem Titel "Wheel Alignment Rim Clamp Claw" beschrieben. Wie weiter unten genauer beschrieben werden wird, besitzt ein bevorzugtes Zielobjekt wenigstens eine planare, lichtreflektive Oberfläche mit einer Vielzahl von visuell erkennbaren, geometrisch konfigurierten, retro-reflektiven Zielelementen 132, die auf dem Zielobjekt gebildet sind. Solche Zielobjekt-Oberflächen können auf einer oder mehreren Seiten des Zielobjekts gebildet sein. Bei der Verwendung muß jede Zielvorrichtung auf einem Fahrzeugrad mit einer Orientierung derart positioniert sein, daß die Zielelemente innerhalb des Bildfelds wenigstens einer der Kamera/Licht-Subsysteme liegt.
  • In 10 sind weitere Details der Kamera und der Lichtkomponenten dargestellt. Innerhalb des in der Figur teilweise weggebrochenen Endes des Trägers 120 angebracht, weist das Subsystem 122 eine Belichtungseinheit 140 auf, die eine Vielzahl von lichtemittierenden Dioden (LED) als Lichtquellen 142 umfaßt, die zu einem Feld über einer Öffnung 144 zusammengefaßt sind, durch welche die Input-Optik 146 einer geeigneten Videokamera 148 hindurch projiziert. Die Anordnung von Lichtquellen gemäß den bevorzugten Ausführungsbeispielen weist 64 LEDs auf (eine geringere Anzahl ist der Einfachheit der Abbildung halber dargestellt), die eine hochintensive Quelle für eine auf der Achse ausgerichtete Bestrahlung bereitstellen, welche die Kameralinse umgibt. Damit ist sichergestellt, daß maximales Licht von den Zielobjekten retro-reflektiert wird. Um die Unterscheidung gegenüber anderen möglichen Lichtquellen, die der Kamera 148 Licht zuführen, zu ermöglichen, wird ein an das Lichtspektrum der LEDs angepaßtes schmalbandiges Filter vor der Linse 146 positioniert.
  • Obwohl jeder geeignete Typ einer Videokamera verwendet werden kann, wird gemäß dem bevorzugten Ausführungsbeispiel ein CCD-Gerät eingesetzt. Eine solche Kamera besitzt eine für die vorliegende Anwendung geeignete Auflösefähigkeit.
  • In 11 ist ein Beispiel eines Zielobjekts gemäß einem bevorzugten Ausführungsbeispiel dargestellt. Es weist eine Vielzahl von licht-reflektiven, kreisförmigen Zielelementen oder Punkten aus hellfarbigem oder weißem retro-reflektivem Material auf. Sie sind in einem Feld über einer weniger reflektiven oder dunkelfarbigen Oberfläche eines festen Substrats angeordnet. Geeignete retro-reflektive Materialien sind beispielsweise NikkaliteTM 1053, das durch Nippon Carbide Industries, USA, ScotchliteTM 7610, das durch 3M Company, und D66-15xxTM, das durch Reflexite, Inc. vertrieben wird.
  • Das Zielobjekt weist viele kreisförmige Punkte auf, um sicherzustellen, daß ein hinreichender Dateninput durch die Kamera auch dann erfaßt werden kann, wenn einige der Zielelemente durch Handhabung verschmutzt wurden oder auf andere Weise nicht voll detektierbar sind. Gemäß dem bevorzugten Ausführungsbeispiel umfaßt ein wohldefiniertes Zielobjekt ungefähr dreißig kreisförmige Punkte, die sehr genau (innerhalb 0.0002'' bzw. 0.00008 cm) in Bezug aufeinander positioniert sind. Bei einem speziellen Beispiel könnte das in 11 dargestellte Zielobjekt achtundzwanzig kreisförmige Punkte mit einem Durchmesser von 1'' (2.5 cm) aufweisen, die sehr genau auf einem Gitter von 2'' × 2'' (5 cm × 5 cm) positioniert sind, wobei strategisch vier Punkte mit einem Durchmesser von 1¼'' (3.125 cm) und ein Punkt mit einem Durchmesser von 1½'' (3.75 cm) innerhalb des Feldes positioniert sind. Durch mathematisches Bewegen des mathematischen Bildes eines Zielobjekts so lange, bis die mathematische Position und Orientierung der Punkte mit den Punkten des realen Zielobjekts in dem realen Bild übereinstimmen, kann die Position und die Orientierungsinformation erhalten werden. Diese mathematische Manipulation eines wohldefinierten Zielobjekts so lange, bis es auf gleiche Weise orientiert ist wie das Bild, wird auch als "Fitten des Zielobjekts" bezeichnet. Ist das Fitten einmal durchgeführt, so sind die Position und die Orientierung des Zielobjektes sehr genau bekannt (innerhalb 0.05'' [0.125 cm], und 0.005'' [0.0125 cm]). Diese Genauigkeit kann erhalten werden, weil das Zielobjekt bei sehr strengen Toleranzen hergestellt ist und weil das Design die Messung von vielen Punkten (1,500 gemessene Punkte, d.h. ungefähr 30 Meßmarken (Punkte), welche jeweils mit 50 Eckpunkten detektiert werden) ermöglicht. Ferner erhöht die Nutzung von Sub-Pixel-Interpolation die Genauigkeit der Messungen bis hin zu jenseits der Pixel-Auflösung der CCD-Kameras.
  • Das Zielobjekt wird typischerweise anhand eines fotolithographischen Prozesses hergestellt, mit welchem die Punktgrenzen definiert sowie scharfkantige Übergänge zwischen den hellen und dunklen Bereichen sichergestellt werden. Ferner wird dadurch eine sichere und wiederholbare Positionierung der etlichen Zielelemente auf der Zieloberfläche erreicht. Die Oberfläche des Zielobjekts kann genauso mit Glas oder einer anderen Schutzschicht überzogen sein. Es ist anzumerken, daß, weil alle von einem bestimmten Zielobjekt erhaltenen Informationen eindeutig mit dem Zielobjekt verbunden sind, die zur Ausrichtung eines Fahrzeugs verwendeten, etlichen Zielobjekte nicht identisch sein müssen und tatsächlich auch eine andere Form und Größe aufweisen können. Zum Beispiel kann es nützlich sein, größere Zielobjekte an den Hinterrädern zu benutzen, um den Unterschied in den Abständen zur Kamera auszugleichen.
  • Um die Position zwischen den Rädern auf der einen Seite des Fahrzeugs und den Rädern auf der anderen Seite des Fahrzeugs sicher bestimmen zu können, muß dem System bekannt sein, wo die eine Kamera in Bezug auf die andere Kamera positioniert ist. Dies wird während einer Kalibrations- und Setup-Operation ermittelt, bei der wie in 9 gezeigt ein größeres Zielobjekt 150 (derzeit 3' × 3' [ungefähr 90 cm × 90 cm]) im Bildfeld beider Kameras typischerweise entlang der Mittellinie der Bühne 111 und ungefähr 30 Fuß von den Kameras entfernt positioniert wird. Die von jeder Kamera erhaltene Information wird dazu benutzt, die relativen Positionen und Ausrichtungen der Kameras zu bestimmen. Da jede Kamera anzeigen wird, wo das Zielobjekt in Bezug zu ihr selbst positioniert ist, und weil jede Kamera das gleiche Zielobjekt sichtet, kann das System insbesondere berechnen, wo sich jede Kamera befindet und wie sie in Bezug auf die jeweils andere Kamera ausgerichtet ist. Dies wird auch als Kalibration der relativen Kameraposition (relative camera position RCP) bezeichnet. Eine solche Kalibration erlaubt es, die von einer Seite des Fahrzeugs erhaltenen Ergebnisse mit den jeweils anderen zu vergleichen. Folglich kann das System dazu verwendet werden, die Position der Räder auf der einen Seite des Fahrzeugs in Bezug auf die andere Seite von diesem Punkt an zu bestimmen, indem die beiden Kameras ortsfest mit Bezug aufeinander befestigt werden, um dann eine RCP-Kalibration durchzuführen. Das heißt, daß die RCP-Übertragungsfunktion dazu verwendet wird, das Koordinatensystem der einen Kamera in dasjenige Koordinatensystem der anderen Kamera zu konvertieren, so daß ein von der einen Kamera betrachtetes Zielobjekt unmittelbar zu einem Zielobjekt in Beziehung gesetzt werden kann, das von der anderen Kamera betrachtet wird.
  • Das Prüfverfahren entsprechend der vorliegenden Erfindung ist monokular, was bedeutet, daß durch Verwendung einer Kamera in einer Position die Position und Ausrichtung eines Zielobjekts in Bezug auf diese Kamera bestimmt werden kann. Dies erfordert natürlich, daß das Zielobjekt im Sichtfeld der Kamera sein muß, um die Messung zu ermöglichen. Weil aber eine Kamera lediglich eine Seite des Fahrzeugs auf einmal sichten kann, ohne daß die vorbeschriebenen Reflektoren verwendet werden, müssen zwei räumlich aufeinander bezogene Kameras verwendet werden, um beide Seiten zu betrachten. Die RCP-Übertragungsfunktion erlaubt es dann, die von den zwei Kameras erhaltene Information einander zuzuordnen mit dem gleichen Effekt, als wenn alle Informationen von einer einzelnen Kamera erhalten worden wären. Ein Vorteil des Einsatzes eines solchen Systems ist es, daß das System unabhängig von der Ebene ist und keinen Ebenenausgleich der Fahrzeugtragbühne oder des Bodens erforderlich macht, weil jedes Rad unabhängig voneinander untersucht und lediglich in Beziehung zu den anderen gesetzt wird. Darüber hinaus ist es nicht erforderlich, daß die Achsen aller Räder auf derselben Höhe liegen, d.h. Unterschiede in den Reifengrößen oder im Reifendruck werden nicht auf nachteilhafte Weise die Messung beeinträchtigen.
  • Ist das System erst einmal unter Verwendung des Kalibrationsobjektes 150 wie in 9 dargestellt kalibriert worden, so kann ein Fahrzeug im Betrieb auf die Bühne 133 gefahren werden und, falls gewünscht, in eine angemessene Instandsetzungshöhe angehoben werden. Die Zielobjektanordnungen 126 werden dann an die Radfelgen angebracht und manuell ausgerichtet, so daß die Zielobjektoberflächen auf die entsprechenden Kamera/Licht-Subsysteme ausgerichtet sind. Das Fahrzeug und das Modelljahr werden dann in die Tastatur 120 zusammen mit anderen relevanten Informationen eingegeben, die beispielsweise die Fahrzeug-VIN-Nummer, Zulassungsnummer, Fahrzeugbesitzer, etc. einschließen, eingegeben werden. Die Systemdatenbank umfaßt Spezifikationen für jedes Modell, das überprüft werden könnte und extrahiert diese Information im Falle einer Identifikation des aktuellen Prüffahrzeugs, um ein schnelles Auffinden der Bilder der Zielobjekte zu unterstützen. Alternativ kann auch die vorherige Prüfhistorie verwendet werden, um die wahrscheinliche Position des Zielobjekts anzuzeigen.
  • Die Zielobjekte sind hochgenau und ihre Position und Ausrichtung in Bezug auf die Radfelge, an welcher sie angebracht sind, sind bis zu einer Genauigkeit von 0.01'' (0.025 cm) und 0.001° bekannt. Wäre jedes Rad perfekt und wäre die Klemmung perfekt angebracht, so könnte argumentiert werden, daß die Radachse senkrecht (90° in allen Richtungen) zur Radebene ausgerichtet sei, die durch die Felgenkante bestimmt wird. Weil jedoch Räder im allgemeinen nicht perfekt und die Zielobjekte nicht immer perfekt angebracht sind, würde eine solche Information lediglich die Ausrichtung und Position der Radebene und hinsichtlich der Ausrichtung der Radachse nicht notwendigerweise gesicherte Information bereitstellen. Solche Annahmen werden daher hier nicht gemacht. Es kann aber durch Rollen des Rades von einer Position zu einer anderen ein neues Bild aufgenommen werden und aus der Position und Ausrichtung des Zielobjekts in den beiden Positionen die tatsächliche Position und Ausrichtung der Radachse berechnet werden.
  • Gleichermaßen können zur Berechnung der Lenkachse (um welche sich die Räder drehen, wenn das Steuerrad gedreht wird) wiederum zwei Zielobjektpositionen verglichen werden, eine mit zu einer Seite hingedrehten Rädern, und eine mit zur andern Seite hin gedrehten Rädern. Die Berechnung der Achse, um welche sich die Zielobjekte gedreht haben müssen, liefert folglich die Position und die Ausrichtung der Lenkachse.
  • Da nun bekannt, wo jede Radachse positioniert und wie sie ausgerichtet ist, und wo die Lenkachsen positioniert und wie sie ausgerichtet sind, kann das Fahrzeug mathematisch in drei Dimensionen modelliert werden und die Ausrichtwerte in Spur, Radsturz, Nachlauf, Stützwinkel, etc. können mit Bezug auf das Fahrzeug selbst angezeigt werden.
  • Sind die Zielobjekte an jedem Rad installiert und ist das System in Betrieb genommen, so sind genug Informationen vorhanden, um ein Bild wie das in 2a gezeigte zu erzeugen. Weil jedoch wie oben hervorgehoben die Rotationsachse der Räder nicht genau senkrecht zu der durch den Außenrand der Felgen definierten Radebene ist (an der Felge ist die Zielobjektanordnung angebracht), wird der Bediener des Systems angewiesen werden, das Fahrzeug um 6 oder 8 Zoll vor- oder zurückzubewegen, um die Räder um einen Winkel von ungefähr 30° zu drehen. Anhand von an wenigstens zwei unterschiedlichen Radpositionen durchgeführten Messungen kann das System optisch genügend Informationen erhalten, um für jedes Rad auf sichere Weise die wahre Achsposition und -ausrichtung zu bestimmen. Hochgenaue Berechnungen können dann durchgeführt und auf einem wieder aufgefrischtem Bildschirm angezeigt werden, wie in 2a dargestellt ist.
  • Bei diesem Punkt kann die tatsächliche Ausrichtprozedur durch den Bediener fortgesetzt werden. Weil die Überprüfung fortlaufend ist, werden die Ergebnisse jeder Anpassung auf dem Videobildschirm des Systems wiedergespiegelt. In dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung kann der Bediener verschiedene Grade an Hilfestellung einschließlich tatsächlicher Darstellungen der Positionierung und der anzupassenden Teile auswählen, um Korrekturmaßnahmen durchführen zu können. Solche Informationen können sogar die angemessene Auswahl eines zu verwendenden Gerätes beinhalten.
  • Weil – wie oben hervorgehoben wurde – jede Kamera mit der anderen in Beziehung gesetzt ist, ist es nicht notwendig, daß die tragende Bühne eben ist oder daß sogar alle Räder in derselben Ebene liegen. Obwohl jede Radprüfung unabhängig von den anderen ist, muß aber dennoch eine Referenzebene identifiziert werden. Dies kann erfolgen, indem eine durch die Achsen verlaufende Referenzebene definiert wird. Weil aber eine der Achsen nicht in derjenigen Ebene liegen könnte, die durch die anderen drei definiert ist, müssen einige Freiheiten in Kauf genommen werden. Zum Zweck der Ausrichtung der Vorderräder könnte man beispielsweise die durch die Frontachse definierte Ebene verwenden sowie eine Mittelung der Hinterachsen. Eine ähnliche Prozedur könnte mit Bezug auf die Hinterräder, etc. verwendet werden. Die Radausrichtung würde dann zu dieser Ebene oder zu diesen Ebenen in Beziehung gesetzt werden. Ferner würden die Messungen der Radposition und der Stützlinie auch zu dieser Ebene oder zu diesen Ebenen in Beziehung gesetzt werden. Aufgrund der Unabhängigkeit der Messung würde es nicht notwendigerweise die mit anderen Rädern verbundenen Messungen beeinflussen, wenn nach Definition einer Referenzebene eines der Zielobjekte in der Sicht blockiert werden würde oder lose wird oder sogar vom Rad abgetrennt wird.
  • Es wurden nun einige Ausführungsbeispiele der vorliegenden Erfindung beschrieben, die sich zur Ausrichtung von Rädern in einem Fahrzeug eignen. Es wurde hervorgehoben, daß die Position und die Orientierung jedes Zielobjekts und des entsprechenden Rades unabhängig von den anderen Zielobjekten bzw. Rädern bestimmt werden können. Der auf dem Fachgebiet einschlägige Fachmann wird in Betracht ziehen, daß durch eine Modifizierung der Struktur der Objektanbringung, mit welcher die Fixierung der Zielobjekte an anderen besonderen Punkten auf dem Fahrzeug, oder an anderen Typen von Strukturen wie z.B. einer Gebäudestruktur, einem Herstellungsartikel, einem Roboterarm oder sogar einem territorialem Gebiet, ermöglicht wird, das gleiche System zur Messung einer relativen räumlichen Position oder einer Ausrichtung der etlichen Punkte, an welchen die Zielobjekte befestigt sind, eingesetzt werden kann. So kann z.B. im Fall eines automobilen Fahrzeugs oder ähnlichem das beschriebene System dazu verwendet werden, die Ausrichtung des Fahrzeugchassis oder des Körpers, oder vielleicht der Fahrhöhe zuzumessen. Und weil die Daten bei einer hohen Rate wieder aufgefrischt werden, können auch sogenannte Rüttel-("Jounce")-Messungen (d.h., eine Messung der Dynamik der Aufhängung) gemacht werden. Im Fall von Herstellungsartikeln wäre es wünschenswert, ein Zielobjekt in Form eines Labels auszubilden und das Label an den Teilen einer Fertigungslinie anzubringen. Die vorliegende Erfindung könnte dann dazu verwendet werden, die Position und/oder die Orientierung des Artikels nachzuverfolgen, während es sich auf der Linie vorwärts bewegt. Im Fall eines Roboterarms könnten ein oder mehrere Zielobjekte an verschiedenen beweglichen Teilen angebracht werden, um die Bewegung des Arms genau zu verfolgen, während damit Objekte getragen werden. Im Fall von Gebäudestrukturen könnte man das System gemäß der vorliegenden Erfindung dazu verwenden, die Aus richtung verschiedener Punkte auf der Struktur in Bezug auf andere Punkte zu bestimmen oder zu erhalten. Im Fall territorialer Gebiete könnte man das System dazu verwenden, topologische Surveys von Konturen der Grundoberfläche zu entwickeln.
  • Es wird ebenso erkennbar, daß mehr als zwei Kameras verwendet werden könnten, ob Objekte oder Sichtfelder zu untersuchen, die nicht sofort mit einer oder zwei Kameras untersucht werden können. In einem solchen Fall würde man einer Kalibrationsprozedur mit einer RCP-Übertragungsfunktion ähnlich der oben beschriebenen folgen.
  • Weitere Merkmale der Erfindung
  • Wie oben angedeutet kann die Erfindung auch dazu verwendet werden, den Zustand der Stoßdämpfer des Fahrzeugs zu bestimmen. Dies wird zunächst durch das sogenannte "Jouncing" des Fahrzeugs bewerkstelligt. Das Jouncing eines Fahrzeugs ist ein normaler Schritt in Ausrichtprozeduren bzw. diesbezüglich bei der Prüfung von Stoßdämpfern. Es umfaßt die Anwendung einer einzelnen vertikalen Kraft auf das Fahrzeug, indem beispielsweise das Fahrzeugdach heruntergedrückt und nachfolgend wieder losgelassen wird, um eine oszillierende Bewegung nach oben und unten hervorzurufen. Während dann das Fahrzeug auf- und aboszilliert nimmt die Vorrichtung gemäß der Erfindung Auswertungen der Zielobjekte auf jedem der Räder vor. Dabei wird die Bewegung der Zielobjekte, die eine gedämpfte Wellenform definiert, überwacht, um das Ausmaß der Dämpfung zu bestimmen. Ist die Dämpfung nicht hinreichend, d.h. die Auf- und Abbewegung oder die Rollbewegung des Fahrzeugs stoppt nicht frühzeitig genug, deutet dies an, daß die Stoßdämpfer fehlerhaft sind. Dieses Verfahren ist insbesondere in der Hinsicht vorteilhaft, daß Aussagen betreffend die Zuverlässigkeit eines speziellen Stoßdämpfers getroffen werden können; ein Ergebnis, das dem Bediener der Ausrichtvorrichtung anhand des Computers 32 angezeigt werden kann.
  • Es ist offensichtlich, daß bei der Bestimmung des Zustands des Stoßdämpfers des Fahrzeugs ein beliebiger, geeigneter Teil des Körpers des Kraftfahrzeugs ausgewählt werden kann, um die Oszillation des Fahrzeugs zu überwachen. So kann die Vorrichtung beispielsweise auf die Kante des Radgehäuses fokussiert sein, oder alternativ kann ein kleines Zielobjekt an geeigneter Stelle auf dem Fahrgestellt des Kraftfahrzeugs positioniert sein.
  • Ferner kann diese Vorrichtung verwendet werden, die Fahrhöhe des Kraftfahrzeugs zu berechnen. Dieser Parameter ist besonders wichtig bei der Bestimmung der Ausrichtung der Fahrzeugräder etwa bei Pick-Ups, die im Betrieb eine Last befördern können. Diese Last würde sich in einer Tieferlegung des Fahrzeugs auswirken, so daß es vorzuziehen ist, auch diesem während der Ausrichtprozedur Rechnung zu tragen. Traditionell wurde die Fahrhöhe (oder die Höhe des Chassis des Fahrzeugs) physikalisch mit einem Instrument wie etwa einem Meßband vom Boden aus gemessen. Diese Messung wird dann mit Standardtabellen verglichen, die einen Ausgleichsfaktor für das betreffende Fahrzeug liefern.
  • Das Verfahren und die Vorrichtung gemäß dieser Erfindung kann jedoch diese Messung direkt durch Betrachten eines geeigneten Teils des Körpers durchführen und dessen Höhe vom Prüfstand, auf dem das Fahrzeug steht, bestimmen. Ist diese Höhe bestimmt worden, so kann sie mit standardmäßigen Nachschlagtabellen, die im Computer gespeichert sind, verglichen werden, so daß wiederum der Ausgleichsfaktor erhalten wird.
  • Vorteile der Erfindung
  • Ein allgemeiner Vorteil der Vorrichtung dieser Erfindung besteht darin, daß sie relativ einfach zu handhaben ist, weil keine empfindlichen mechanischen oder elektronischen Bauteile an den Rädern des betrachteten Kraftfahrzeugs angebracht werden müssen. Da das empfindliche Equipment innerhalb eines Gehäuses befestigt ist, das unabhängig und beabstandet vom zu testenden Kraftfahrzeug aufgestellt ist, kann ihm auch keine Zerstörung zugefügt werden, wie etwa in dem Fall, wo das Kraftfahrzeug von der Radführung herunterzufahren wäre. Während Köpfe gemäß dem Stand der Technik durch einfaches Rütteln oder Herunterfallen außer Kalibration gebracht werden können, betrifft die Hauptschädigung die am Rad befestigten Bauteile, so daß die berechneten Ergebnisse beeinträchtigt werden.
  • Ein anderer Vorteil besteht darin, daß das Equipment sehr wenig Bedieneranweisungen erforderlich macht. Das Equipment könnte leicht auf freihändige Bedienung umgestellt werden mit einfacher akustischer Ausgabe und gleichermaßen einfacher Stimmenerkennung, um die Antworten und/oder Befehle des Bedieners zu erhalten und/oder aufzunehmen.
  • Die vorliegende Erfindung hat ferner den Vorteil, daß die Bestimmung der Ausrichtung relativ schnell durchgeführt werden kann. Dies ermöglicht einen höheren Umsatz innerhalb des Geschäftsbereichs, in welchem die Bestimmungen der Ausrichtung durchgeführt werden.
  • Weitere Vorteile dieser Vorrichtung bestehen darin, daß es wie in 4 gezeigt oberhalb und fern von dem zu testenden Kraftfahrzeug plaziert werden kann. Dies besitzt den besonde ren Vorteil, daß die Wahrscheinlichkeit der Zerstörung der empfindlichen Vorrichtung zur Bestimmung der Ausrichtung erheblich reduziert ist, weil die Vorrichtung dem Kraftfahrzeug nicht im Wege steht. Ein anderer Vorteil dieses Aufbaus besteht darin, daß die Meßvorrichtung eine minimale Bodenfläche verbraucht und außerdem nicht den Zugang zum Equipment im Vorderteil des Kraftfahrzeugs blockiert.
  • Weil das Fahrzeug zurück- und vorwärtsbewegt werden kann, besitzt diese Vorrichtung den Vorteil, daß ein Anheben des Fahrzeugs zur Durchführung der erforderlichen Berechnung des "Auslaufs" nicht mehr notwendig ist. Außerdem kann diese Vorrichtung dazu benutzt werden, andere Informationen als die relative Ausrichtung der Räder zu bestimmen. Zum Beispiel könnte die Ausrichtvorrichtung, falls sie mit einer geeigneten Zeichenerkennung ausgestattet ist, dazu verwendet werden, die Zulassungsplatine auf dem Kraftfahrzeug auszulesen, welches wiederum Informationen wie etwa den Hersteller und das Modell des Fahrzeugs sowie seine Werkstatthistorie (soweit vorhanden) und deshalb die erforderlichen Ausrichtparameter dieses Fahrzeugs liefern könnte. Dies würde den Bediener davor bewahren, mühsam die Details des Kraftfahrzeugs in die Vorrichtung einzugeben. Weil mehr Hersteller Barcodes der VIN-Nummernplatine hinzufügen, können ähnliche Informationen auch durch optische Betrachtung und Prozessierung der mit dem Barcode versehenen Platine erhalten werden. Außerdem würde es auch möglich, den Fahrzeugtyp optisch durch Vergleich bestimmter Merkmale des Körpers zu identifizieren oder diese mit Informationen aus der Datenbank abzugleichen.
  • Noch ein weiterer Vorteil der Erfindung besteht darin, daß sich keine Leitungen, Drähte oder Lichtstrahlen um das zu testende Fahrzeug herum erstrecken. Weil die meisten Ausrichtkor rekturen durch Zugriff auf die Räder des Fahrzeugs von der Vorderseite aus gemacht werden, neigen Leitungen, Drähte oder Lichtstrahlen, die sich vor dem Auto erstrecken, dazu, dem Techniker im Wege zu stehen. Oftmals sind diese Leitungen, Drähte oder Strahlen empfindlich gegenüber Beeinträchtigungen, so daß ihr Fehlen hier die Ausrichtkorrekturen wesentlich einfacher machen.
  • Bezogen auf diesen Vorteil ist auch die Tatsache, daß sich weder Leitungen oder Drähte zwischen den Zielobjekten auf den Rädern erstrecken, noch irgendwelche Drähte den Zielobjekten eine Leistungsversorgung von einer entfernten Leistungsquelle zuführen. Wiederum macht das Fehlen der Leitungen oder Drähte die Arbeit an dem Fahrzeug einfacher.
  • Ferner sind die Zielobjekte nicht miteinander verbunden oder voneinander abhängig. Nach einer ersten Aufnahme von Bildern der Zielobjekte ist es daher möglich, eines der Zielobjekte aus dem Bildfeld der Kamera auszublenden, ohne daß die Berechnungen der Orientierung für die anderen Räder beeinträchtigt werden. In den eingangs beschriebenen Geräten gemäß dem Stand der Technik sind alle Prüfköpfe voneinander abhängig und können nicht funktionieren, wenn einer der Köpfe "ausgeblendet" wird.
  • Es wird dem einschlägigen Fachmann sofort klar sein, daß das Konzept gemäß der Erfindung auf viele unterschiedliche Weisen angewendet werden kann, um die Ausrichtung von Rädern eines Kraftfahrzeugs zu bestimmen. So könnte zum Beispiel die Vorrichtung für jedes Rad einen Referenzpunkt definieren, wobei der Referenzpunkt, sagen wir, am Schnittpunkt der Drehachse des Rads mit diesem Rad positioniert ist. Diese Punkte können dann prozessiert werden, um eine nahezu horizontale Referenz ebene zu definieren, relativ zu welcher die Ausrichtung der Räder berechnet werden kann.
  • Dieses Verfahren besitzt den besonderen Vorteil, daß die Bühne, von welcher das Fahrzeug getragen wird, nicht nivelliert, d.h. eben gemacht werden muß. Ein solcher Prozeß würde teure Vorrichtungen erforderlich machen, wäre aber notwendig zur Definition einer horizontalen Referenzebene wie es bei Ausrichtgeräten gemäß dem Stand der Technik der Fall ist.
  • Die Erfindung wurde insbesondere mit Bezug auf bestimmte bevorzugte Ausführungsbeispiele gezeigt und beschrieben. Sie ist aber durch den einschlägigen Fachmann auch so zu verstehen, daß verschiedene Änderungen und Modifikationen in der Form und im Detail daran gemacht werden können. Die nachfolgenden Ansprüche sind daher so zu verstehen, daß sie alle solche Änderungen und Modifikationen umfasst, so wie sie innerhalb des wahren Schutzumfangs der Erfindung fallen können.

Claims (25)

  1. Eine Vorrichtung zur Bestimmung der Ausrichtung von Rädern eines Kraftfahrzeugs, umfassend: ein Zielmittel (130), das wenigstens ein erstes und ein zweites Zielobjekt zum Anbringen an einem ersten und einem zweiten Rad (112115) auf entsprechenden ersten und zweiten Seiten eines Prüffahrzeugs aufweist, wobei jedes der Zielobjekte eine Vielzahl von visuell wahrnehmbaren, geometrisch konfigurierten Zielelementen mit bekannten geometrischen Eigenschaften und Positionsbeziehungen untereinander aufweist; ein optisches Prüfmittel (116), welches ein räumliches Referenzsystem mit ersten und zweiten Sichtwegen definiert, die die Zielobjekte schneiden, wenn diese an den ersten und zweiten der Räder (112115) angebracht sind, wobei das optische Prüfmittel (116) dazu eingesetzt werden kann: (i) wenigstens ein erstes und ein zweites Bild des entsprechend entlang dem ersten und zweiten Sichtweg betrachteten ersten und zweiten Zielobjekts zu prüfen, und (ii) solche, die geometrischen Eigenschaften und räumlichen Beziehungen der ersten und zweiten Zielelemente untereinander beschreibende Bildinformationen zu erzeugen; ein Prozessierungsmittel (119), mit welchem: (i) diese Bildinformationen mit solchen, die bekannten geometrischen Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente untereinander beschreibenden, vorbestimmten Referenzinformationen in Beziehung gesetzt wird, um die Position und die Winkelorientierung der ersten und zweiten Zielobjekte relativ zum räumlichen Referenzsystem zu bestimmen, und (ii) damit übereinstimmende erste und zweite Positions- und Orientierungsinformationen erzeugt werden; und ein Wiedergabemittel, das in Abhängigkeit von den ersten und zweiten Positions- und Orientierungsinformationen die Position und die Ausrichtung des ersten und des zweiten der Räder (112115), an welchen die ersten und zweiten Zielobjekte angebracht sind, wiedergibt: dadurch gekennzeichnet, dass (a) das optische Prüfmittel (116) erste und zweite Kameras (122, 124) aufweist, wobei die erste Kamera (122) dazu eingerichtet ist, (i) ein erstes Bild eines ersten Zielobjekts in einem ersten Koordinatensystem zu prüfen, das entlang dem ersten Sichtweg aufgenommen wird, und (ii) erste Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der ersten Zielelemente beschreiben, und wobei die zweite Kamera (124) dazu eingesetzt werden kann, (i) ein zweites Bild eines zweiten Zielobjekts in einem zweiten Koordinatensystem zu prüfen, das entlang dem zweiten Sichtweg aufgenommen wird, und (ii) zweite Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der zweiten Zielelemente beschreiben; und (b) das Prozessierungsmittel (119) dazu eingerichtet ist, das erste Koordinatensystem in das zweite Koordinatensystem zu konvertieren, so dass die ersten und die zweiten Bildinformationen einander zugeordnet werden, um es dem Prozessierungsmittel zu gestatten, (i) die zugeordneten ersten und zweiten Bildinformationen mit der vorbestimmten Referenzinformation, welche die bekannten geometrischen Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente untereinander beschreibt, in Beziehung setzt, um die Position und die Winkelorientierung des ersten und zweiten Zielobjekts relativ zum räumlichen Referenzsystem zu bestimmen, und (ii) damit übereinstimmende erste und zweite Positions- und Orientierungsinformationen zu erzeugen.
  2. Die Vorrichtung gemäß Anspruch 1, bei der das Wiedergabemittel zum Wiedergeben der Position und der Ausrichtung der Räder (112115) ein Anzeigemittel aufweist, das die Orientierungsinformation verwendet, um die Ausrichtung der ersten und zweiten Räder wiederzugeben.
  3. Die Vorrichtung gemäß Anspruch 2, bei der die Ausrichtung jedes der Räder in Form von Radsturz, Nachlauf und Spurmessungen ausgedrückt wird.
  4. Die Vorrichtung gemäß Anspruch 1, bei der das Zielmittel ferner dritte und vierte Zielobjekte zum Abringen an einem dritten und vierten der Räder (112115) aufweist, die jeweils entsprechend auf den ersten und zweiten Seiten angeordnet sind, wobei die dritten und vierten Zielobjekte jeweils eine Vielzahl von visuell wahrnehmbaren, geometrisch konfigurierten Zielelementen mit bekannten geometrischen Eigenschaften und Positionsbeziehungen umfassen, und wobei das räumliche Referenzsystem ferner dritte und vierte Sichtwege aufweist, die die dritten und vierten Zielobjekte schneiden, wenn diese an den dritten und vierten der Räder angebracht sind, wobei die erste Kamera (122) eingerichtet ist, (i) ein drittes Bild eines dritten Zielobjekts in dem ersten Koordinatensystem zu prüfen, das entlang dem dritten Sichtweg aufgenommen wird, und (ii) dritte Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der dritten Zielelemente beschreiben, und wobei die zweite Kamera (124) dazu eingerichtet ist, (i) ein viertes Bild eines vierten Zielobjekts in dem zweiten Koordinatensystem zu prüfen, das entlang dem vierten Sichtweg aufgenommen wird, und (ii) vierte Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der vierten Zielelemente beschreiben; wobei das Prozessierungsmittel (119) ferner eingerichtet ist, das erste Koordinatensystem in das zweite Koordinatensystem zu konvertieren, so dass die dritten und die vierten Bildinformationen einander zugeordnet werden, um es dem Prozessierungsmittel zu gestatten, (i) die zugeordneten dritten und vierten Bildinformationen mit der vorbestimmten Referenzinformation, welche die bekannten geometrischen Eigenschaften und Positionsbeziehungen der dritten und vierten Zielelemente untereinander beschreibt, in Beziehung setzt, um die Position und die Winkelausrichtung des dritten und vierten Zielobjekts relativ zum räumlichen Referenzsystem zu bestimmen, und (ii) damit übereinstimmende dritte und vierte Positions- und Orientierungsinformationen zu erzeugen, und wobei das Mittel zur Wiedergabe der Position und Ausrichtung der Räder (112115) ferner in Abhängigkeit von den dritten und vierten Positions- und Orientierungsinformationen die Ausrichtung der Räder (112115) wiedergibt, an welche die dritten und vierten Zielobjekte angebracht sind.
  5. Die Vorrichtung gemäß Anspruch 4, bei der das Prozessierungsmittel (119) ferner die Relativpositionen der ersten, zweiten, dritten und vierten Räder bestimmt.
  6. Die Vorrichtung gemäß Anspruch 1, bei der das optische Prüfmittel ferner jeder der Kameras (122, 124) zugeordnete Beleuchtungsmittel aufweist, um für die Zielobjekte eine auf der Achse liegende Beleuchtung zu bewirken.
  7. Die Vorrichtung gemäß Anspruch 6, bei der das Beleuchtungsmittel ein Feld von Licht emittierenden Dioden aufweist, die um die optische Achse jeder der entsprechenden Kameraanordnung angeordnet sind.
  8. Die Vorrichtung gemäß Anspruch 7, bei der die Licht emittierenden Dioden eine bestimmte Wellenlängencharakteristik aufweisen, und bei der wellenlängenabhängige Filtermittel eingesetzt sind, um zwischen dem von den Zielobjekten reflektierten Diodenlicht und dem von anderen Quellen herrührenden Licht zu unterscheiden.
  9. Die Vorrichtung gemäß Anspruch 1, bei der jedes der Zielobjekte eine ebene Platte aufweist, die auf einer ihrer Oberflächen mit der Vielzahl der Zielelemente versehen ist, und die Mittel zum Anbringen der Platte an einem Rad des Prüffahrzeugs umfassen.
  10. Die Vorrichtung gemäß Anspruch 9, bei der das Mittel zum Anbringen die Ebene der Oberfläche im Wesentlichen senkrecht zur Felgenebene des Rads orientiert, an welchem das Zielobjekt angebracht ist.
  11. Die Vorrichtung gemäß einem der Ansprüche 1, 4, 6 oder 7, bei der die Zielelemente aus retro-reflektivem Material gebildet sind.
  12. Die Vorrichtung gemäß einem der Ansprüche 1 oder 4, bei der das Zielmittel Klemmungen zum klemmenden Eingriff in die Felgen der Räder aufweist.
  13. Die Vorrichtung gemäß Anspruch 1, die ferner Trägermittel zum Tragen der ersten und zweiten Kameras (122, 124) in einem vorbestimmten Abstand voneinander umfasst, der größer ist, als die Breite eines Fahrzeugs, dessen Räder auszurichten sind.
  14. Die Vorrichtung gemäß Anspruch 13, bei der das Trägermittel die ersten und zweiten Kameras (122, 124) an fester Position in vorbestimmter Höhe hält.
  15. Verfahren zur Bestimmung der relativen Orientierung der Räder (112115) eines Fahrzeugs, umfassend die Schritte: Einrichten eines ersten Zielmittels (130) auf einem ersten Rad auf einer ersten Seite des Fahrzeugs; Einrichten eines zweiten Zielmittels (130) auf einem zweiten Rad auf einer zweiten Seite des Fahrzeugs, wobei jedes der ersten und zweiten Zielmittel (i) eine Vielzahl von Zielelementen bekannter geometrischer Eigenschaften und Positionsbeziehungen aufweist, und (ii) eine vorbestimmte Positionsbeziehung zu den Rädern besitzen, an denen sie angebracht sind; Verwenden eines optischen Prüfmittels (116), welches ein räumliches Referenzsystem definiert, das erste und zweite Sichtwege aufweist, die die ersten und zweiten Zielobjekte schneiden, wenn diese an ersten und zweiten Rädern (112115) angebracht sind, um (i) wenigstens ein erstes und ein zweites Bild der ersten und zweiten Zielobjekte jeweils entsprechend entlang den ersten und zweiten Sichtwegen aufzunehmen, und (ii) um solche, die geometrischen Eigenschaften und Positionsbeziehungen unter den ersten und zweiten Zielelementen beschreibenden Bildinformationen zu erzeugen; in Beziehung Setzen der bestimmten geometrischen Eigenschaften und der Positionsbeziehungen wenigstens der ersten und zweiten Bilder mit den bekannten geometrischen Eigenschaften und Positionsbeziehungen der entsprechenden Elemente der ersten und zweiten Zielmittel, um die Winkelorientierung der ersten und zweiten Zielmittel entsprechend zu bestimmen; und Verwenden der Winkelorientierungen der ersten und zweiten Zielmittel, um die Ausrichtung der ersten und zweiten Räder zu bestimmen, dadurch gekennzeichnet, dass das optische Prüfmittel (116) erste und zweite Kameras (122, 124) aufweist; der Schritt der Verwendung des optischen Prüfmittels umfasst: Verwenden der ersten Kamera (122), um (i) in einem ersten Koordinatensystem ein erstes Bild eines ersten Zielmittels entlang des ersten Sichtwegs aufzunehmen, und (ii) erste Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der ersten Zielelemente beschreiben; und Verwenden der zweiten Kamera (124), um (i) in einem zweiten Koordinatensystem ein zweites Bild eines zweiten Zielmittels entlang des zweiten Sichtwegs aufzunehmen, und (ii) zweite Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der zweiten Zielelemente beschreiben; und der Schritt des in Beziehung Setzens der vorbestimmten geometrischen Eigenschaften und Positionsbeziehungen umfasst: Konvertieren des ersten Koordinatensystems in das zweite Koordinatensystem, um die ersten und zweiten Bildinformationen einander zuzuordnen; In Beziehung Setzen der einander zugeordneten ersten und zweiten Bildinformationen zu vorbestimmter Referenzinformation, welche bekannte geometrische Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente beschreibt, um die Winkelorientierung der ersten und zweiten Zielmittel in Bezug auf das räumliche Referenzsystem zu bestimmen.
  16. Das Verfahren nach Anspruch 15, bei dem der Schritt des In Beziehung Setzen der einander zugeordneten ersten und zweiten Bildinformationen zu vorbestimmter Referenzinformation, welche bekannte geometrische Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente beschreibt, außerdem dazu verwendet wird, Achspositionen der ersten und zweiten Räder zu bestimmen.
  17. Das Verfahren nach Anspruch 16, das ferner den Schritt des Verwendens der Winkelorientierungen der ersten und zweiten Zielmittel und der Achspositionen der ersten und zweiten Räder umfasst, um die Ausrichtung der ersten und zweiten Räder wiederzugeben.
  18. Das Verfahren nach Anspruch 16, das ferner umfasst: Einrichten eines dritten Zielmittels (130) auf einem dritten Rad auf einer ersten Seite des Fahrzeugs umfasst, wobei das dritte Zielmittel (i) eine Vielzahl von Zielelementen bekannter geometrischer Eigenschaften und Positionsbeziehungen aufweist, und (ii) eine vorbestimmte Positionsbeziehung zu dem dritten Rad besitzt, an denen es angebracht ist, wobei das räumliche Referenzsystem ferner einen dritten Sichtweg aufweist, der das dritte Zielobjekt schneidet, wenn dies am dritten Rad angebracht ist, weiter umfassend die Schritte des Verwendens der ersten Kamera (122), um (i) in dem ersten Koordinatensystem ein drittes Bild des dritten Zielmittels zu prüfen, das entlang des dritten Sichtwegs betrachtet wird, und um (ii) dritte Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen des dritten Zielmittels beschreiben, wobei der Schritt des in Beziehung Setzens der geometrischen Eigenschaften und Positionsbeziehungen untereinander eine Konvertierung des ersten Koordinatensystems in das zweite Koordinatensystem umfasst, so dass die ersten, zweiten und dritten Bildinformationen einander zugeordnet werden; und in Beziehung Setzen der einander zugeordneten ersten, zweiten und dritten Bildinformationen zu vorbestimmten Referenzinformationen, welche die bekannten geometrischen Eigenschaften und Positionsbeziehungen der ersten, zweiten, und dritten Zielelemente beschreiben, um die Winkelorientierung der ersten, zweiten und dritten Zielmittel bezüglich des räumlichen Referenzsystems zu bestimmen, und ferner umfassend den Schritt: Verwenden der Winkelorientierungen der ersten, zweiten und dritten Zielmittel, um die Ausrichtung der ersten, zweiten und dritten Räder wiederzugeben.
  19. Das Verfahren nach Anspruch 18, bei dem der Schritt des in Beziehung Setzens der zugeordneten ersten und zweiten Bildinformationen mit vorbestimmten Referenzinformationen, welche die bekannten geometrischen Eigenschaften und Positionsbeziehungen der entsprechenden Elemente der ersten, zweiten und dritten Zielmittel untereinander beschreiben, darüber hinaus auch dazu verwendet wird, um Positionen der Achsen der ersten, zweiten und dritten Räder zu bestimmen, wobei die Positionen eine Referenzebene definieren, in Bezug auf welche die Ausrichtung der Räder berechnet werden kann.
  20. Das Verfahren nach Anspruch 15, bei dem die Schritte des Verwendens der ersten und zweiten Kameras (122, 124) zur entsprechenden Prüfung der ersten und zweiten Bilder mit den ersten und zweiten in einer ersten Position durchgeführt werden, ferner umfassend die Verwendung der ersten und zweiten Kameras (122, 124), um (i) dritte und vierte Bilder der ersten und zweiten Zielmittel zu prüfen, nachdem die ersten und zweiten Räder um ihre entsprechenden Achsen in zweite Positionen gedreht wurden, und um (ii) dritte und vierte Bildinformationen zu erzeugen, die die geometrischen Attribute und Beziehungen der ersten und zweiten Zielobjekte untereinander beschrieben so wie sie in den dritten und vierten Bildinformationen erscheinen, und in Beziehung Setzen der dritten und vierten Bildinformationen zu den ersten und zweiten Bildinformationen, um die Beziehungen der ersten und zweiten Zielmittel zu den Drehachsen der ersten und zweiten Räder zu bestimmen.
  21. Eine Vorrichtung zum Bestimmen der relativen Ausrichtung einer Vielzahl von Bauteilen, umfassend: Zielmittel (130), die wenigstens eine erstes und ein zweites Zielobjekt zum Anbringen an erste und zweite Seiten eines zu prüfenden Geräts aufweisen, wobei jedes der Zielobjekte eine Vielzahl von visuell wahrnehmbaren, geometrisch konfigurierten Zielelementen mit bekannten geometrischen Eigenschaften und Positionsbeziehungen untereinander aufweist; ein optisches Prüfmittel (116), welches ein räumliches Referenzsystem mit ersten und zweiten Sichtwegen definiert, die die Zielobjekte schneiden, wobei das optische Prüfmittel (116) dazu eingesetzt werden kann: (i) wenigstens ein erstes und ein zweites Bild des entsprechend entlang dem ersten und zweiten Sichtweg betrachteten ersten und zweiten Zielobjekts zu prüfen, und (ii) solche, die geometrischen Eigenschaften und räumlichen Beziehungen der ersten und zweiten Zielelemente untereinander beschreibenden Bildinformationen zu erzeugen; ein Prozessierungsmittel (119), mit welchem: (i) diese Bildinformationen mit solchen, die bekannten geometrischen Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente untereinander beschreibenden, vorbestimmten Referenzinformationen in Beziehung gesetzt wird, um die Position und die Winkelorientierung der ersten und zweiten Zielobjekte relativ zum räumlichen Referenzsystem zu bestimmen, und (ii) damit übereinstimmende erste und zweite Positions- und Orientierungsinformationen erzeugt werden; und ein Wiedergabemittel, das in Abhängigkeit von den ersten und zweiten Positions- und Orientierungsinformationen die Position und die Ausrichtung der ersten und der zweiten Zielobjekte wiedergibt: dadurch gekennzeichnet, dass (a) das optische Prüfmittel (116) erste und zweite Kameras (122, 124) aufweist, wobei die erste Kamera (122) dazu eingerichtet ist, (i) ein erstes Bild eines ersten Zielobjekts in einem ersten Koordinatensystem zu prüfen, das entlang dem ersten Sichtweg aufgenommen wird, und (ii) erste Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der ersten Zielelemente beschreiben, und wobei die zweite Kamera (124) dazu eingesetzt werden kann, (i) ein zweites Bild eines zweiten Zielobjekts in einem zweiten Koordinatensystem zu prüfen, das entlang dem zweiten Sichtweg aufgenommen wird, und (ii) zweite Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der zweiten Zielelemente beschreiben; und (b) das Prozessierungsmittel (119) dazu eingerichtet ist, das erste Koordinatensystem in das zweite Koordinatensystem zu konvertieren, so dass die ersten und die zweiten Bildinformationen einander zugeordnet werden, um es dem Prozessierungsmittel zu gestatten, (i) die einander zugeordneten ersten und zweiten Bildinformationen mit der vorbestimmten Referenzinformation, welche die bekannten geometrischen Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente untereinander beschreibt, in Beziehung setzt, um die Position und die Winkelorientierung des ersten und zweiten Zielobjekts relativ zum räumlichen Referenzsystem zu bestim men, und (ii) damit übereinstimmende erste und zweite Positions- und Orientierungsinformationen zu erzeugen.
  22. Die Vorrichtung nach Anspruch 21, bei der das Wiedergabemittel die erste und zweite Positions- und Orientierungsinformation verwendet, um die Position der Bauteile wiederzugeben.
  23. Die Vorrichtung nach Anspruch 22, bei der jede der ersten und zweiten Kameras (122, 124) Videokameramittel und Beleuchtungsmittel aufweist, die eine auf der optischen Achse liegende Beleuchtung für das Videokameramittel ermöglichen.
  24. Die Vorrichtung nach Anspruch 23, bei der die visuell wahrnehmbaren, geometrisch konfigurierten Zielelemente als geometrische Formen ausgeführt sind, die aus einem Körper aus retro-reflektivem Material gebildet sind.
  25. Verfahren zur Bestimmung der relativen Ausrichtung von Bauteilen eines Objekts, umfassend die Schritte: Einrichten wenigstens eines ersten und eines zweiten Zielmittels (130) auf jedem Bauteil des Objekts, so dass jedes Zielmittel eine bestimmbare Beziehung zu dem Bauteil besitzt und jedes eine Vielzahl von detektierbaren Attributen mit bekannten geometrischen Eigenschaften und Positionsbeziehungen aufweist; Verwenden eines optischen Prüfmittels (116), um jedes Zielmittel entlang eines entsprechenden Sichtwegs zu aufzunehmen, so dass wenigstens ein detektiertes Bild jedes Zielmittels gebildet wird; Bestimmen der geometrischen Eigenschaften und Beziehungen von wenigstens zwei Attributen jedes detektierten Bilds untereinander; in Beziehung Setzen der bestimmten geometrischen Eigenschaften und der Positionsbeziehungen jedes der detektierten Bilder mit den bekannten geometrischen Eigenschaften und Beziehungen der entsprechenden Attribute, um die Winkelorientierung jedes der Zielmittel gegenüber dem entsprechenden Sichtweg zu bestimmen; und Verwenden der Winkelorientierungen der bestimmbaren Beziehungen, um die relative Ausrichtung der Bauteile des Objekts zu bestimmen, dadurch gekennzeichnet, dass das optische Prüfmittel (116) erste und zweite Kameras (122, 124) aufweist; der Schritt der Verwendung des optischen Prüfmittels umfasst: Verwenden der ersten Kamera (122), um (i) in einem ersten Koordinatensystem ein erstes Bild eines ersten Zielmittels entlang des ersten Sichtwegs aufzunehmen, und (ii) erste Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der ersten Zielelemente beschreiben; und Verwenden der zweiten Kamera (124), um (i) in einem zweiten Koordinatensystem ein zweites Bild eines zweiten Zielmittels entlang des zweiten Sichtwegs aufzunehmen, und (ii) zweite Bildinformationen zu erzeugen, die die geometrischen Eigenschaften und Positionsbeziehungen der zweiten Zielelemente beschreiben; und der Schritt des in Beziehung Setzens der vorbestimmten geometrischen Eigenschaften und Positionsbeziehungen umfasst: Konvertieren des ersten Koordinatensystems in das zweite Koordinatensystem, um die ersten und zweiten Bildinformationen einander zuzuordnen; In Beziehung Setzen der einander zugeordneten ersten und zweiten Bildinformationen zu vorbestimmter Referenz information, welche bekannte geometrische Eigenschaften und Positionsbeziehungen der ersten und zweiten Zielelemente beschreibt, um die Winkelorientierung der ersten und zweiten Zielmittel in Bezug auf das räumliche Referenzsystem zu bestimmen.
DE69636925T 1995-10-10 1996-10-10 Verfahren und vorrichtung zur feststellung der ausrichtung von kraftfahrzeugrädern Expired - Lifetime DE69636925T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US544378 1995-10-10
US08/544,378 US5724743A (en) 1992-09-04 1995-10-10 Method and apparatus for determining the alignment of motor vehicle wheels
PCT/US1996/016362 WO1997014016A1 (en) 1995-10-10 1996-10-10 Method and apparatus for determining the alignment of motor vehicle wheels

Publications (2)

Publication Number Publication Date
DE69636925D1 DE69636925D1 (de) 2007-04-05
DE69636925T2 true DE69636925T2 (de) 2007-11-08

Family

ID=24171927

Family Applications (2)

Application Number Title Priority Date Filing Date
DE0880677T Pending DE880677T1 (de) 1995-10-10 1996-10-10 Verfahren und vorrichtung zur feststellung der alignierung von kraftfahrzeugradern
DE69636925T Expired - Lifetime DE69636925T2 (de) 1995-10-10 1996-10-10 Verfahren und vorrichtung zur feststellung der ausrichtung von kraftfahrzeugrädern

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE0880677T Pending DE880677T1 (de) 1995-10-10 1996-10-10 Verfahren und vorrichtung zur feststellung der alignierung von kraftfahrzeugradern

Country Status (7)

Country Link
US (3) US5724743A (de)
EP (1) EP0880677B1 (de)
JP (1) JPH11513789A (de)
AU (1) AU711728B2 (de)
CA (1) CA2232534C (de)
DE (2) DE880677T1 (de)
WO (1) WO1997014016A1 (de)

Families Citing this family (198)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5724743A (en) * 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
US5969246A (en) * 1995-10-10 1999-10-19 Snap-On Technologies, Inc. Apparatus and method for determining axial stability
US6298284B1 (en) * 1995-12-28 2001-10-02 Hunter Engineering Company Apparatus and method with improved field of view for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations
US6285959B1 (en) * 1996-02-06 2001-09-04 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US6064750A (en) * 1997-01-10 2000-05-16 Hunter Engineering Company Apparatus and method for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations
US6189223B1 (en) * 1997-03-11 2001-02-20 Werner Haug Device for measuring volume
SE512165C2 (sv) * 1997-05-22 2000-02-07 Jonas Samuelsson Förfarande jämte anordning för mätning av fordons hjulvinklar
AU8403198A (en) * 1997-07-10 1999-02-08 Snap-On Technologies, Inc. Apparatus and method for adjusting wheel alignment camera height
IT1294940B1 (it) * 1997-08-01 1999-04-23 Corghi Spa Metodo e dispositivo per regolare l'assetto di un autoveicolo
DE19805779A1 (de) * 1998-02-12 1999-08-19 Hofmann Werkstatt Technik Verfahren und Vorrichtung zur Bestimmung der Einpreßtiefe eines Reifens an einem Scheibenrad eines Kraftfahrzeugs
US6282469B1 (en) 1998-07-22 2001-08-28 Snap-On Technologies, Inc. Computerized automotive service equipment using multipoint serial link data transmission protocols
US7065462B2 (en) * 1998-07-24 2006-06-20 Merilab, Inc. Vehicle wheel alignment by rotating vision sensor
US6178358B1 (en) 1998-10-27 2001-01-23 Hunter Engineering Company Three-dimensional virtual view wheel alignment display system
US6483577B2 (en) 1998-11-02 2002-11-19 Hunter Engineering Company Vehicle alignment sensor system
US6134792A (en) * 1998-11-19 2000-10-24 Hunter Engineering Company Method and apparatus for determining wheel alignment optical target orientation parameters
AU4850300A (en) * 1999-05-17 2000-12-05 Snap-On Technologies, Inc. Active target wheel aligner
US7982725B2 (en) * 1999-05-25 2011-07-19 Silverbrook Research Pty Ltd Sensing device with inductive charging
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
GB9928124D0 (en) * 1999-11-26 2000-01-26 Instro Prec Ltd An optical position detector
US6323776B1 (en) * 1999-12-21 2001-11-27 Snap-On Technologies, Inc. Method and apparatus of automatically identifying faults in a machine vision measuring system
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
US6327548B1 (en) * 2000-01-10 2001-12-04 Snap-On Technologies, Inc. Method of adjusting wheel alignment angles
US6498959B1 (en) 2000-01-19 2002-12-24 Hunter Engineering Company Apparatus and method for controlling a mechanism for positioning video cameras for use in measuring vehicle wheel alignment
GB2358709B (en) * 2000-01-25 2003-03-05 Supertracker Ltd Wheel alignment apparatus
US6275753B1 (en) * 2000-02-15 2001-08-14 Meritor Heavy Vehicle Systems, Llc Method and system for detecting and adjusting wheel misalignment of a vehicle
US6968282B1 (en) 2000-05-22 2005-11-22 Snap-On Incorporated Self-calibrating, multi-camera machine vision measuring system
WO2001071280A2 (en) 2000-03-23 2001-09-27 Snap-On Technologies, Inc. Self-calibrating, multi-camera machine vision measuring system
US6456372B1 (en) * 2000-03-31 2002-09-24 General Motors Corporation Steering aligning apparatus and method
US6823246B2 (en) * 2000-04-25 2004-11-23 Snap-On Incorporated Measuring wheel base parallelism with a position determination system
EP1277027B1 (de) * 2000-04-25 2009-07-22 Snap-on Incorporated Spur- und achsvermessung an kraftfahrzeugen
US7295297B2 (en) * 2000-05-05 2007-11-13 Hunter Engineering Company Image sensing wheel alignment system
US6560883B2 (en) 2000-06-28 2003-05-13 Snap-On Technologies, Inc. Method and system for conducting wheel alignment
US6658749B2 (en) 2000-06-28 2003-12-09 Snap-On Technologies, Inc. 3D machine vision measuring system with vehicle position adjustment mechanism for positioning vehicle
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
CA2412878C (en) * 2000-07-05 2015-02-03 Smart Technologies Inc. Camera-based touch system
DE60136279D1 (de) 2000-08-14 2008-12-04 Snap On Tools Corp Selbstkalibrierendes 3D Messystem zur Ausrichtung von Kraftfahrzeugrädern
DE10043358A1 (de) * 2000-09-02 2002-03-14 Beissbarth Gmbh Verfahren und Vorrichtung zur programmgesteuerten Fahrwerkvermessung
ATE391895T1 (de) * 2000-09-11 2008-04-15 Leica Geosystems Ag Verfahren zum identifizieren von messpunkten in einem optischen mess-system
DE10050653A1 (de) * 2000-10-13 2002-05-02 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad-und/oder Achsgeometrie
US6965324B1 (en) * 2000-10-21 2005-11-15 Robert W. Suggs, Sr. Automotive picture and data acquisition center and method
DE10054189C2 (de) * 2000-11-02 2003-08-07 Tuev Automotive Gmbh Unternehm Verfahren und Vorrichtung zum Erfassen der Position eines Fahrzeugrades in einem fahrzeugfesten Bezugssystem
US6892216B2 (en) 2001-02-13 2005-05-10 Snap-On Incorporated Common platform for use in automotive services
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
US6919880B2 (en) * 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
WO2002103286A1 (en) * 2001-06-15 2002-12-27 Snap-On Technologies, Inc. Self-calibrating position determination system
US7062861B2 (en) 2001-06-28 2006-06-20 Snap-On Incorporated Self-calibrating position determination system and user interface
US6661505B2 (en) * 2001-06-28 2003-12-09 Snap-On Technologies, Inc. Method and system for measuring caster trail
US6600555B2 (en) 2001-10-15 2003-07-29 Hunter Engineering Company Apparatus and method for target identification in a vehicle wheel alignment system
US6634109B1 (en) 2001-11-26 2003-10-21 Snap-On Technologies, Inc. Method and system for determining symmetry and Ackermann geometry status of the steering system of a vehicle
ES2335196T3 (es) 2002-02-04 2010-03-23 Corghi S.P.A. Dispositivo para medir los parametros de posicion caracteristicos de un vehiculo.
US7302093B2 (en) * 2002-03-26 2007-11-27 Hunter Engineering Company Color vision vehicle wheel alignment system
US6728609B2 (en) 2002-09-16 2004-04-27 Snap-On Technologies, Inc. Diagnostic method and system for a multiple-link steering system
US6823601B2 (en) * 2002-09-17 2004-11-30 Snap-On Incorporated Apparatus for use with a 3D image wheel aligner for facilitating adjustment of an adaptive cruise control sensor on a motor vehicle
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US20040172170A1 (en) * 2002-12-02 2004-09-02 Lesert Brooks R. Portable wheel alignment device
US6871409B2 (en) 2002-12-18 2005-03-29 Snap-On Incorporated Gradient calculating camera board
US6931736B2 (en) * 2003-01-09 2005-08-23 Magnum Marketing Ltd. Method of and apparatus for the inspection of vehicle wheel alignment
EP1588126B1 (de) * 2003-01-27 2008-06-18 Snap-on Technologies, Inc. Kalibrationszertifikation für radausrichtungsgeräte
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7121011B2 (en) * 2003-05-09 2006-10-17 Snap-On Incorporated Camera technique for adaptive cruise control (ACC) sensor adjustment
EP1659364B1 (de) * 2003-07-28 2007-09-12 HONDA MOTOR CO., Ltd. Verfahren und einrichtung zur messung der ausrichtung von kraftfahrzeugrädern
WO2005012832A1 (en) * 2003-07-31 2005-02-10 Snap-On Incorporated Vehicle wheel alignment adjustment method
EP1649246A1 (de) * 2003-07-31 2006-04-26 Snap-on Incorporated Ausrichtungs-justiermethode für zwei räder
DE10335829A1 (de) * 2003-08-05 2005-03-10 Siemens Ag Verfahren zur Bestimmung der Achsgeometrie und Sensor zu dessen Durchführung
US20050038580A1 (en) * 2003-08-15 2005-02-17 Seim Kerri Jean Information about structural integrity of vehicles
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US20050060899A1 (en) * 2003-09-23 2005-03-24 Snap-On Technologies, Inc. Invisible target illuminators for 3D camera-based alignment systems
US6823598B1 (en) * 2003-09-30 2004-11-30 Michael C. Loescher Laser supporting attachment for vehicle alignment system
US7164472B2 (en) * 2003-10-09 2007-01-16 Hunter Engineering Company Common reference target machine vision wheel alignment system
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7308971B2 (en) * 2003-12-19 2007-12-18 Hunter Engineering Company Turn plate and slip plate centering and locking mechanism
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
GB0413827D0 (en) 2004-06-21 2004-07-21 Renishaw Plc Scale reading apparatus
GB0428165D0 (en) * 2004-12-23 2005-01-26 Renishaw Plc Position measurement
WO2006074026A1 (en) * 2004-12-30 2006-07-13 Snap-On Incorporated Non-contact vehicle measurement method and system
US7143519B2 (en) 2004-12-30 2006-12-05 Snap-On Incorporated Alignment system with locking turntables and skid plates
JP2006252473A (ja) * 2005-03-14 2006-09-21 Toshiba Corp 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
US7538864B2 (en) * 2005-03-24 2009-05-26 Hunter Engineering Company Vehicle wheel alignment system scanned beam imaging sensor
US7518714B2 (en) * 2005-04-07 2009-04-14 Hunter Engineering Company Vehicle service system with variable-lens imaging sensors
DE102005017624A1 (de) * 2005-04-15 2006-10-19 Robert Bosch Gmbh Verfahren zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen
CN101175971B (zh) * 2005-05-13 2010-06-16 斯耐普昂公司 车轮校准器测量模块附连系统
US7113878B1 (en) 2005-05-18 2006-09-26 Perceptron, Inc. Target for calibrating a non-contact sensor
US20060271332A1 (en) * 2005-05-18 2006-11-30 Perceptron, Inc. Method for calibrating a non-contact sensor using a robot
JP4712631B2 (ja) * 2005-07-28 2011-06-29 京セラ株式会社 撮像装置
US20070074199A1 (en) * 2005-09-27 2007-03-29 Sebastian Schoenberg Method and apparatus for delivering microcode updates through virtual machine operations
US7444752B2 (en) 2005-09-28 2008-11-04 Hunter Engineering Company Method and apparatus for vehicle service system optical target
US7810244B2 (en) * 2005-09-28 2010-10-12 Hunter Engineering Company Vehicle wheel optical target mounting assembly
US8341848B2 (en) 2005-09-28 2013-01-01 Hunter Engineering Company Method and apparatus for vehicle service system optical target assembly
WO2007053462A1 (en) 2005-10-28 2007-05-10 Snap-On Incorporated Retro-reflective target wafer for a visual position determination system
US7373726B2 (en) * 2005-10-28 2008-05-20 Snap-On Technologies, Inc. Retro-reflective target wafer for a position determination system
US7181856B1 (en) * 2005-11-09 2007-02-27 Hanchett Michael T Laser measurement system
US20070112485A1 (en) * 2005-11-17 2007-05-17 Snap-On Incorporated Vehicle service device and system powered by capacitive power source
DE102005063051A1 (de) * 2005-12-29 2007-07-05 Robert Bosch Gmbh Verfahren zur optischen Fahrwerksvermessung
JP2007322560A (ja) * 2006-05-30 2007-12-13 Kyocera Corp 撮像装置、並びにその製造装置および製造方法
US7710555B2 (en) * 2006-06-27 2010-05-04 Burke E. Porter Machinery Company Apparatus and method for determining the orientation of an object such as vehicle wheel alignment
JP4749959B2 (ja) * 2006-07-05 2011-08-17 京セラ株式会社 撮像装置、並びにその製造装置および製造方法
US7313869B1 (en) * 2006-07-18 2008-01-01 Snap-On Incorporated Vehicle wheel alignment system and methodology
ITFI20060196A1 (it) * 2006-08-04 2008-02-05 Fasep 2000 S R L Metodo e dispositivo per la misura senza contatto dell'allineamento di ruote di autoveicoli
JP2008048293A (ja) * 2006-08-18 2008-02-28 Kyocera Corp 撮像装置、およびその製造方法
JP4749984B2 (ja) * 2006-09-25 2011-08-17 京セラ株式会社 撮像装置、並びにその製造装置および製造方法
JP4749985B2 (ja) * 2006-09-28 2011-08-17 京セラ株式会社 撮像装置、並びにその製造装置および製造方法
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US7500318B2 (en) * 2006-12-08 2009-03-10 Toyota Motor Engineering & Manufacturing North America, Inc. Threaded attachment position adapter
KR100802675B1 (ko) * 2006-12-14 2008-02-12 현대자동차주식회사 차량 장착 레이더 얼라이먼트 조절 장치
WO2008081903A1 (ja) * 2006-12-27 2008-07-10 Kyocera Corporation 撮像装置および情報コード読取装置
US20080170222A1 (en) * 2007-01-16 2008-07-17 Strege Timothy A Methods and systems for determining vehicle wheel alignment
US7681322B1 (en) * 2007-01-18 2010-03-23 Snap-On Incorporated Steering wheel level verification with alignment sensors attached
US8567678B2 (en) * 2007-01-30 2013-10-29 Kyocera Corporation Imaging device, method of production of imaging device, and information code-reading device
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US7424387B1 (en) 2007-04-18 2008-09-09 Snap-On Incorporated Method for use with an optical aligner system for positioning a fixture relative to a vehicle
US7864309B2 (en) * 2007-05-04 2011-01-04 Burke E. Porter Machinery Company Non contact wheel alignment sensor and method
DE202007018657U1 (de) 2007-05-15 2009-02-26 Hüsges, Mark Fahrwerksvermessungseinrichtung
US7953247B2 (en) * 2007-05-21 2011-05-31 Snap-On Incorporated Method and apparatus for wheel alignment
CN105373792A (zh) * 2007-05-21 2016-03-02 实耐宝公司 车轮定位的方法和设备
WO2008143614A1 (en) 2007-05-21 2008-11-27 Snap-On Incorporated Method and apparatus for wheel alignment
US7870677B2 (en) * 2007-05-31 2011-01-18 Snap-On Incorporated Lightweight wheel clamp for vehicle wheel alignment system
JP2009010730A (ja) * 2007-06-28 2009-01-15 Kyocera Corp 画像処理方法と該画像処理方法を用いた撮像装置
DE102007032471A1 (de) * 2007-07-10 2009-01-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung der Lage eines Kamerasystems relativ zu einem Objekt
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US7640673B2 (en) * 2007-08-01 2010-01-05 Snap-On Incorporated Calibration and operation of wheel alignment systems
AU2008280952A1 (en) 2007-08-30 2009-03-19 Next Holdings Ltd Low profile touch panel systems
CN101802760B (zh) 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
JP4844979B2 (ja) * 2007-08-30 2011-12-28 京セラ株式会社 画像処理方法と該画像処理方法を用いた撮像装置
US7855783B2 (en) * 2007-09-18 2010-12-21 Snap-On Incorporated Integrated circuit image sensor for wheel alignment systems
SE531784C2 (sv) 2007-10-11 2009-08-04 Jonas Samuelsson Förfarande och anordning för hjulmätning
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
DE102008006329A1 (de) * 2008-01-28 2009-07-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überprüfen der Referenzierung von Messköpfen eines Fahrwerksvermessungssystems
DE102008000833A1 (de) * 2008-03-26 2009-10-01 Robert Bosch Gmbh Messkopf für ein Fahrwerksvermessungssystem, Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems
DE102008001339A1 (de) * 2008-04-23 2009-10-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrwerksvermessung
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
EP2131146A1 (de) * 2008-06-02 2009-12-09 Saab Ab Positionierung eines lichtreflektierenden Objekts durch das Schwenken von linienförmigen Lichtstrahlen
US8363129B2 (en) * 2008-06-27 2013-01-29 Kyocera Corporation Imaging device with aberration control and method therefor
JP4658162B2 (ja) * 2008-06-27 2011-03-23 京セラ株式会社 撮像装置および電子機器
US8502877B2 (en) 2008-08-28 2013-08-06 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
US7974806B1 (en) 2008-09-09 2011-07-05 Hunter Engineering Company Method for rolling compensation with wheel-mounted sensors
DE102008042018A1 (de) * 2008-09-12 2010-03-18 Robert Bosch Gmbh Verfahren zum Justieren oder Kalibrieren eines Fahrzeugumfeldsensors sowie Fahrzeugumfeldsensor-Justier- oder Kalibrier-Anordnung
DE102008042024A1 (de) * 2008-09-12 2010-03-18 Robert Bosch Gmbh Verfahren und Vorrichtung zur optischen Achsvermessung von Kraftfahrzeugen
CN102150010A (zh) * 2008-09-12 2011-08-10 罗伯特·博世有限公司 用于光学地测量轴的靶结构,靶结构组件和装置
JP4743553B2 (ja) * 2008-09-29 2011-08-10 京セラ株式会社 レンズユニット、撮像装置、および電子機器
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US8020307B2 (en) * 2009-01-26 2011-09-20 Robert Bosch Gmbh Alignment system and method for vehicle-mounted devices
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
US7913404B1 (en) 2009-10-06 2011-03-29 Smith Dennis K Alignment tool and method of checking wheel alignment
US8104185B2 (en) * 2009-12-18 2012-01-31 Snap-On Incorporated Lightweight wheel clamp for vehicle wheel alignment system
CN102803017B (zh) * 2010-02-04 2016-04-20 实耐宝公司 用户界面中的嵌套控件
US20110193969A1 (en) * 2010-02-09 2011-08-11 Qisda Corporation Object-detecting system and method by use of non-coincident fields of light
US8573363B2 (en) * 2010-02-12 2013-11-05 Snap-On Incorporated Apparatus for guiding a vehicle onto a service lift using a machine vision wheel alignment system
IT1399988B1 (it) * 2010-05-05 2013-05-09 Space S R L Con Unico Socio Sistema, e relativo metodo, di determinazione dell'allineamento delle ruote di un veicolo
KR101189568B1 (ko) * 2010-12-01 2012-10-11 현대자동차주식회사 스티어링 휠 레벨러 자동화 시스템 및 방법
IT1404235B1 (it) * 2010-12-30 2013-11-15 Space S R L Con Unico Socio Dispositivo di rilevamento, e relativo sistema di determinazione dell'orientamento delle ruote di un veicolo
DE102011086548A1 (de) 2011-05-24 2012-11-29 Robert Bosch Gmbh Vorrichtung und Verfahren zur Fahrwerksvermessung eines Kraftfahrzeugs
US8480099B2 (en) * 2011-06-13 2013-07-09 Scott S. Porta Apparatus and method for adjusting toe angle in the wheels of a solid axle
DE102011077897A1 (de) * 2011-06-21 2012-12-27 Robert Bosch Gmbh Vorrichtung und Verfahren zum Positionieren einer externen Einrichtung bezüglich eines Kraftfahrzeugs
US9212907B2 (en) 2012-04-27 2015-12-15 Snap-On Incorporated Short rolling runout compensation for vehicle wheel alignment
GB2540075B (en) 2012-05-18 2017-04-19 Acergy France SAS Improvements relating to pipe measurement
US9157724B2 (en) * 2012-10-26 2015-10-13 Vladimir Vladimirovich Nagornov Method and system for determining vehicle wheel alignment based on the application of systems using gyroscopic sensors and/or MEMS angular rate sensors (MEMS gyroscopes)
KR101286096B1 (ko) * 2013-02-01 2013-07-15 조이엠(주) 타원 시각 특성에 기반한 자동차의 휠 정렬 검사방법
CN103144054B (zh) * 2013-02-07 2016-05-04 上海一成汽车科技有限公司 汽车四轮定位仪单点夹具及其使用方法
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9852512B2 (en) 2013-03-13 2017-12-26 Electronic Scripting Products, Inc. Reduced homography based on structural redundancy of conditioned motion
KR101461423B1 (ko) * 2013-04-17 2014-11-20 장철환 타이어 얼라인먼트 검출장치
WO2015002946A1 (en) * 2013-07-02 2015-01-08 Snap-On Incorporated Wheel alignment with target marking for secure logo validation process
CN105518427B (zh) * 2013-08-19 2018-06-12 实耐宝公司 改进的自标定多相机定位系统
DE102013223921A1 (de) 2013-11-22 2015-05-28 Robert Bosch Gmbh Vorrichtung und Verfahren zur Vermessung eines Kraftfahrzeuges
DE102013223924A1 (de) 2013-11-22 2015-05-28 Robert Bosch Gmbh Vorrichtung und Verfahren zur Vermessung eines Kraftfahrzeuges
DE102013114579A1 (de) * 2013-12-19 2015-06-25 Dürr Assembly Products GmbH Verfahren und eine Vorrichtung zur Einstellung der Parameter der Fahrwerkgeometrie der Räder eines Fahrzeugs
DE102013226656A1 (de) * 2013-12-19 2015-06-25 Robert Bosch Gmbh Optisches System zur Fahrzeugvermessung
CN107110647B (zh) 2014-12-17 2020-10-27 实耐宝公司 实时车身高度测量
WO2016112185A1 (en) 2015-01-07 2016-07-14 Snap-On Incorporated Rolling virtual wheel spindle calibration
US10578713B2 (en) * 2015-06-24 2020-03-03 Panasonic Corporation Radar axis displacement amount calculation device and radar axis displacement calculation method
WO2017062658A1 (en) 2015-10-06 2017-04-13 Snap-On Incorporated Self-calibrating wheel aligner with improved portability
US10480937B2 (en) 2016-01-28 2019-11-19 Manatec Electronics Pvt. Ltd. System for simultaneous measurement of wheel alignment angles and wheel runout of multi-axle vehicles
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
US10634492B2 (en) * 2016-08-31 2020-04-28 Deere & Company Methods and apparatus to track a blade
US10551180B2 (en) 2016-09-30 2020-02-04 Burke E. Porter Marchinery Company Wheel alignment measurement method and system for vehicle wheels
EP3523604B1 (de) * 2016-10-04 2020-05-13 Hunter Engineering Company Unterstützungsstruktur für fahrwerksvermessungssystemkamera und fahrassistenzsystemkalibrierung
US10508917B1 (en) * 2017-04-20 2019-12-17 The United States Of America As Represented By The Secretary Of The Navy Spring-loaded target carrier for laser tracking
US10974546B2 (en) * 2018-04-20 2021-04-13 Robotire, Inc. Automated removal and replacement of vehicle wheels and tires
US11597091B2 (en) 2018-04-30 2023-03-07 BPG Sales and Technology Investments, LLC Robotic target alignment for vehicle sensor calibration
US11781860B2 (en) 2018-04-30 2023-10-10 BPG Sales and Technology Investments, LLC Mobile vehicular alignment for sensor calibration
US11624608B2 (en) 2018-04-30 2023-04-11 BPG Sales and Technology Investments, LLC Vehicular alignment for sensor calibration
US11243074B2 (en) 2018-04-30 2022-02-08 BPG Sales and Technology Investments, LLC Vehicle alignment and sensor calibration system
US11835646B2 (en) 2018-04-30 2023-12-05 BPG Sales and Technology Investments, LLC Target alignment for vehicle sensor calibration
WO2020056303A1 (en) 2018-09-13 2020-03-19 Snap-On Incorporated Automotive aligner with improved accuracy and no-stop positioning using a drive direction calculation
CN109872365A (zh) * 2019-02-20 2019-06-11 上海鼎盛汽车检测设备有限公司 3d四轮定位仪目标盘图像识别方法
EP3719696A1 (de) * 2019-04-04 2020-10-07 Aptiv Technologies Limited Verfahren und vorrichtung zur lokalisierung eines sensors in einem fahrzeug
US11557061B2 (en) * 2019-06-28 2023-01-17 GM Cruise Holdings LLC. Extrinsic calibration of multiple vehicle sensors using combined target detectable by multiple vehicle sensors
JP2022111730A (ja) * 2021-01-20 2022-08-01 本田技研工業株式会社 ターゲット設置装置及びそれを用いたターゲット設置方法
US20240044643A1 (en) * 2021-10-12 2024-02-08 Pantin Enterprises Inc. System for simulating a second axle on a three-wheel vehicle and related alignment process

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2353965A1 (de) * 1973-10-27 1975-05-07 Fraunhofer Ges Forschung Verfahren und einrichtung zur beruehrungslosen messung von sturz und spur von kraftfahrzeugraedern
US3951551A (en) * 1974-10-07 1976-04-20 American Tatra, Inc. Apparatus for testing the front wheel alignment of automotive vehicles
US4150897A (en) * 1977-03-02 1979-04-24 FMC Corporaton Wheel-mounted vehicle wheel aligner
US4180915A (en) * 1978-03-23 1980-01-01 Fmc Corporation Runout compensation in vehicle wheel alignment measuring apparatus
US4154531A (en) * 1978-04-17 1979-05-15 Fmc Corporation Time base swept-beam wheel aligning system
US4249824A (en) * 1978-06-08 1981-02-10 Fmc Corporation Apparatus for measuring wheel alignment of motor vehicles
US4338027A (en) * 1978-09-08 1982-07-06 Kansas Jack, Inc. Line of sight wheel alignment apparatus for vehicles
FR2451020A1 (fr) * 1979-03-09 1980-10-03 Muller Et Cie Ets Procede pour controler le parallelisme des roues des trains avant et arriere de vehicules automobiles et appareil pour la mise en oeuvre de ce procede
US4302104A (en) * 1979-10-02 1981-11-24 Lee Hunter Vehicle wheel alignment apparatus
USRE33144E (en) * 1979-10-02 1990-01-09 Hunter Engineering Company Vehicle wheel alignment apparatus
DE2948573A1 (de) * 1979-12-03 1981-06-04 Siemens AG, 1000 Berlin und 8000 München Verfahren und anordnung zur beruehrungslosen achsvermessung an kraftfahrzeugen
US4349965A (en) * 1980-09-17 1982-09-21 Security Trust Company Of Rochester Four wheel alignment method and apparatus for automotive vehicles
US4803785A (en) * 1986-01-17 1989-02-14 Joyce Lynette Reilly Wheel alignment apparatus
FI74556C (fi) * 1986-04-11 1988-02-08 Valtion Teknillinen Foerfarande foer tredimensionell oevervakning av ett maolutrymme.
US4745469A (en) * 1987-02-18 1988-05-17 Perceptron, Inc. Vehicle wheel alignment apparatus and method
US4899218A (en) * 1987-02-18 1990-02-06 Perceptron, Inc. Vehicle wheel alignment apparatus and method
US4942539A (en) * 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
US5048954A (en) * 1989-07-07 1991-09-17 Miradco Laser-based wheel alignment system
ATE203320T1 (de) * 1992-09-04 2001-08-15 Snap On Tech Inc Verfahren und vorrichtung zur bestimmung der ausrichtung von kraftfahrzeugrädern
US5724743A (en) * 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
US5809658A (en) * 1993-09-29 1998-09-22 Snap-On Technologies, Inc. Method and apparatus for calibrating cameras used in the alignment of motor vehicle wheels
US5532816A (en) * 1994-03-15 1996-07-02 Stellar Industries, Inc. Laser tracking wheel alignment measurement apparatus and method
US5675515A (en) * 1995-12-28 1997-10-07 Hunter Engineering Company Apparatus and method for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations
US5724128A (en) * 1995-12-28 1998-03-03 Hunter Engineering Company Apparatus and method for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations

Also Published As

Publication number Publication date
US5943783A (en) 1999-08-31
CA2232534A1 (en) 1997-04-17
EP0880677A4 (de) 2000-01-19
CA2232534C (en) 2002-08-20
DE69636925D1 (de) 2007-04-05
DE880677T1 (de) 1999-05-06
JPH11513789A (ja) 1999-11-24
US5724743A (en) 1998-03-10
WO1997014016A1 (en) 1997-04-17
AU711728B2 (en) 1999-10-21
EP0880677A1 (de) 1998-12-02
EP0880677B1 (de) 2007-02-21
AU7442596A (en) 1997-04-30
US6148528A (en) 2000-11-21

Similar Documents

Publication Publication Date Title
DE69636925T2 (de) Verfahren und vorrichtung zur feststellung der ausrichtung von kraftfahrzeugrädern
DE69721022T2 (de) Kalibrierung von kameras bei anwendung in radjustierung
EP0674759B1 (de) Verfahren und vorrichtung zur bestimmung der ausrichtung von kraftfahrzeugrädern
DE60119708T2 (de) Vorrichtung und verfahren zum kalibrieren der relativlage zweier messeinrichtungen eines messsystems
DE69826753T2 (de) Optischer Profilsensor
EP2260263B1 (de) Fahrwerksvermessungssystem sowie verfahren zum bestimmen der lageparameter von messköpfen eines fahrwerksvermessungssystems
EP2064517B1 (de) Verfahren zum auffinden eines geometriedetails zur bestimmung der räumlichen lage einer radfelge zu einem messgerät sowie verfahren und vorrichtung zur bestimmung der räumlichen lage einer radfelge zu einem messgerät
DE102011114674B4 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
EP1953518A2 (de) Verfahren und Vorrichtung zum Ausrichten eines Fahrzeug-Umfeldsensors oder Scheinwerfers
DE102006056232B4 (de) Vorrichtung zur Kalibrierung einer Kamera
DE102008000837A1 (de) Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems
WO2022096280A1 (de) Verfahren und system zum bestimmen der lage eines fahrzeugs zur vorbereitung einer sensorkalibrierung
EP1953519B1 (de) Verfahren und Vorrichtung zum Ausrichten eines Fahrzeug-Umfeldsensors
WO2007077063A1 (de) Verfahren und vorrichtung zur berührungslosen messung der achsgeometrie
EP1930688B1 (de) Verfahren zur optischen Fahrwerksvermessung
EP2724118A1 (de) Vorrichtung und verfahren zum positionieren einer externen einrichtung bezüglich eines kraftfahrzeugs

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: EISENFUEHR, SPEISER & PARTNER, 80335 MUENCHEN