DE60131884T2 - System und verfahren zur kamerakalibration - Google Patents

System und verfahren zur kamerakalibration Download PDF

Info

Publication number
DE60131884T2
DE60131884T2 DE60131884T DE60131884T DE60131884T2 DE 60131884 T2 DE60131884 T2 DE 60131884T2 DE 60131884 T DE60131884 T DE 60131884T DE 60131884 T DE60131884 T DE 60131884T DE 60131884 T2 DE60131884 T2 DE 60131884T2
Authority
DE
Germany
Prior art keywords
camera
images
reference points
edge
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60131884T
Other languages
English (en)
Other versions
DE60131884D1 (de
Inventor
Michael C. Portland PARK
Scott Wilson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imove Inc
Original Assignee
Imove Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imove Inc filed Critical Imove Inc
Application granted granted Critical
Publication of DE60131884D1 publication Critical patent/DE60131884D1/de
Publication of DE60131884T2 publication Critical patent/DE60131884T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Description

  • Gebiet der Erfindung:
  • Die vorliegende Erfindung bezieht sich auf Kameras und hierbei insbesondere auf ein System und ein Verfahren zum Bestimmen der Eigenschaften von Kameras.
  • Hintergrund der Erfindung:
  • Panoramabilder können erzeugt werden, indem mehrere Einzelbilder miteinander verbunden werden. Es existieren Mehrlinsenkameras, die gleichzeitig mehrere Einzelbilder aufnehmen können. Die Bilder, die von einer solchen Kamera aufgenommen wurden, können anschließend zu einem Panoramabild verbunden werden. Die Patentanmeldung mit der Seriennummer 09/338,790, zu den Akten genommen am 23. Juni 1999 (veröffentlicht unter der Patentnummer US 6,323,858 ) beschreibt eine Mehrlinsenkamera.
  • Es ist praktisch unmöglich, einen Satz von Einzelbildern zu erhalten, die sich perfekt zu einem Panorama zusammenfügen. Parameter wie beispielsweise Heading, Pitch, Bank, Versatz, Helligkeit und Kontrast eines jeden Bildes müssen angepasst werden, damit sich die Bilder zu einem Panorama zusammenfügen. Einer der Gründe dafür, dass die Parameter der einzelnen Bilder angepasst werden müssen ist der, dass die einzelnen Kameraelemente in den Kameras, welche die Bilder aufgenommen haben, ihre eigenen Besonderheiten und Eigenarten haben. Im Allgemeinen besitzt jede einzelne Kamera und jede einzelne Kameralinse Parameter und Eigenarten, die ausschließlich und speziell diese Linse allein aufweist.
  • Wenn man die Einstellungen bestimmt, mit Hilfe derer ein Satz von Bildern (aufgenommen von einer speziellen Kamera) zusammengefügt werden kann um ein Panorama zu bilden, werden diese Einstellungen im Allgemeinen eine akzeptable Modifikation für einen anderen Satz von Bildern von der gleichen Kamera bereitstellen, so dass der zweite Satz von Bildern in ein Panorama passen wird.
  • Zusammenfassung der Erfindung:
  • Die vorliegende Erfindung stellt ein Verfahren zum Kalibrieren einer Mehrlinsenkamera nach Anspruch 1 bereit sowie ein computerlesbares Medium, das ein Softwareprogramm enthält, nach Anspruch 6.
  • Ausführungen der vorliegenden Erfindung stellen ein Verfahren zum Bestimmen der Einstellungen bereit, welche an den einzelnen, von einer Mehrlinsenkamera aufgenommenen Bildern vorgenommen werden müssen, damit die sich Bilder zu einem Panorama zusammenfügen. Bei der vorliegenden Erfindung wird die Kamera in der Mitte einer Struktur platziert, deren Kanten mindestens eine Reihe von Referenzpunkten aufweisen. Jede Kamera nimmt ein Bild auf, das die Referenzpunkte entlang jeder Kante umfasst, die mit der Kante eines weiteren Bildes zusammengefügt wird, um ein Panorama zu bilden. Jede Kante der Struktur, die sich entlang eines Randes befindet, der mit einer Kante eines anderen Bildes verbunden wird, wird von zwei Linsen auf der Kamera aufgezeichnet. Anschließend wird die Größe der Einstellung bestimmt, die erforderlich ist, damit die Referenzpunkte in den beiden Bildern zusammenpassen. Die Werte dieser Einstellungen werden zusammen mit einer Identifizierung der Kamera aufgezeichnet, welche die Bilder aufgenommen hat. Aufeinander folgende Sätze von Bildern, die von dieser selben Kamera aufgezeichnet wurden, können dann unter Verwendung der gleichen Einstellungen miteinander verbunden werden.
  • Ein weiteres Merkmal der vorliegenden Erfindung umfasst die Bereitstellung von zwei Reihen von Referenzpunkten entlang der Kanten des Würfels. Die zwei Reihen von Referenzpunkten beabstanden einander um eine Größe gleich dem Abstand zwischen den Linsen auf der Kamera. Somit wird die Notwendigkeit eliminiert, eine Parallaxenkorrektur durchzuführen oder die Kamera in der exakten Mitte des Würfels zu positionieren.
  • Ein weiteres Merkmal dieser Erfindung ist, dass die Form der Referenzpunkte verzerrt ist, so dass bei Aufzeichnung der Referenzpunkte durch ein Fischaugenobjektiv die Punkte unverzerrt erscheinen, und dadurch eine exakte Ausrichtung der Bilder ermöglichen.
  • Kurzbeschreibung der Zeichnungen:
  • 1 ist ein Flussdiagramm des gesamten Prozesses.
  • 2A ist ein Gesamtdiagramm des Kalibrationswürfels.
  • 2B ist eine detailliertere Ansicht eines Abschnitts des Kalibrationswürfels.
  • 2C ist eine Abbildung zur Veranschaulichung, warum die Reihen von Punkten einander beabstanden.
  • 3A zeigt ein Bild, das durch eine einzelne Linse auf der Kamera aufgenommen wurde.
  • 3B stellt zwei Bilder dar, die nebeneinander angezeigt werden, so dass korrespondierende Punkte identifiziert werden können.
  • 3C zeigt eine leere Einheitskugel und die Standardparameter, die verwendet werden, um die Bilder zu Anfang zu einem Panorama zu verbinden.
  • 4 zeigt mehrere Bilder, die mit Hilfe der Standardparameter verbunden wurden und deren Reihen von Punkten nicht übereinstimmen.
  • 5 zeigt die Verzeichnung der Punkte, verursacht durch eine Linse.
  • 6 ist ein Flussdiagramm, das die Funktionsweise des Programms darstellt.
  • 7 ist ein Flussdiagramm einer alternativen Ausführung der Erfindung.
  • Detaillierte Beschreibung:
  • Ein Flussdiagramm des gesamten Prozesses, ausgeführt von einer bevorzugten Ausführung der vorliegenden Erfindung, ist in 1 dargestellt. Die verwendete Kalibrationsstruktur ist in den 2A und 2B dargestellt. Die Kalibrationsstruktur 200 ist würfelförmig. Zunächst wird, wie in Block 101 angezeigt, eine spezielle Kamera 213 verwendet, um Bilder der Kanten des Kalibrationswürfels 200 aufzunehmen. Die so aufgenommenen Bilder können als Kalibrationsbilder bezeichnet werden.
  • Bei der Kamera handelt es sich um eine Mehrlinsenkamera, bei der eine Linse in Richtung einer jeden Seite des Würfels 200 zeigt. Eine detaillierte Beschreibung der Kamera 213 ist in der Parallelanmeldung mit der Seriennummer 09/338,790 zu finden, zu den Akten genommen am 23. Juni 1999 (veröffentlicht unter Patentnummer US 6,323,858 ).
  • Die Kamera 213 verfügt über sechs Linsen, und sechs Bilder, eines an jeder Seite des Würfels 200, werden gleichzeitig aufgenommen. Zwei Linsen der Kamera 213 nehmen ein Bild von jeder Kante des Würfels 200 auf.
  • 3A zeigt ein Beispiel eines Bildes 331, aufgenommen von einer Linse der Kamera 213. An der Kante des Bildes 331 (und an der Kante jedes von der Kamera 213 aufgenommenen Bildes) sind zwei Reihen von Punkten, die mit den Punkten entlang einer Kante des Würfels 200 korrespondieren. Da zwei Linsen jede Kante des Würfels 200 aufnehmen, gibt es für jede Kante des Würfels 200 zwei Bilder, welche die gleiche Reihe von Punkten zeigen.
  • Nachdem die Bilder aufgenommen worden sind, zeigt die Bedienperson dem Programm (wie in Block 102 angezeigt) manuell an, welche Punkte in den verschiedenen Bildern miteinander korrespondieren.
  • In diesem Schritt werden die beiden Bilder, welche dieselbe Kante des Würfels abbilden, nebeneinander angezeigt, wie in 3B dargestellt. Die Bedienperson zeigt dem Programm manuell an, welche Punkte in den zwei Bildern übereinstimmen. Die Bedienperson tut dies, indem sie zunächst auf eine Schaltfläche "Start" (mit einer Maus) klickt und anschließend die zwei korrespondierenden Punkte in Folge "anklickt". Das Programm erkennt die aufeinanderfolgenden "Klicks" als Anzeige, dass die Punkte korrespondieren.
  • Wie in Block 104 dargestellt, findet die Bedienperson als nächstes die Einstellungen der verschiedenen Parameter, die benötigt werden, um die Bilder solcherart auszurichten, dass sie ohne Artefakte zu einem Panorama verbunden werden können. Die gefundenen Korrekturfaktoren werden zusammen mit einer Identifizierung der Kamera aufgezeichnet, welche die aufgenommenen Bilder erzeugt hat. In der ersten bevorzugten Ausführung sind die Kameraparameter, die für jede der sechs Kameralinsen bestimmt werden:
    • a) Kameraausrichtung, umfassend Heading, Pitch und Bank,
    • b) Sichtfeld,
    • c) Versatz der Kameralinse zum CCD,
    • d) Größe der Kissenverzeichnung in der Kameralinse,
    • e) Größe von Pitch, Roll, Heading und Versatz.
  • Wenn in der folgenden Erörterung Bezug auf Kameraparameter genommen wird, handelt es sich um die oben genannten Parameter. Es sei jedoch angemerkt, dass die Erfindung auf andere Kameraparameter erweitert werden kann (oder einige weggelassen werden könnten), je nachdem, wie es für spezielle Anwendungen notwendig ist.
  • Eine Kamera, die den oben beschriebenen Prozess durchlaufen hat, kann anschließend verwendet werden, um einen anderen Satz von Bildern aufzunehmen und die wie oben beschrieben bestimmten Parameter können verwendet werden, um diesen neuen Satz von Bildern zu verbinden. Das heißt, der letzte in 1 gezeigte Schritt 105 wird an einem neuen Satz von Bildern durchgeführt, die mit einer zuvor kalibrierten Kamera aufgezeichnet wurden. An diesem Punkt werden die zuvor bestimmten Korrekturfaktoren auf den neuen Satz von Bildern angewendet.
  • 2A ist ein Gesamtdiagramm des Kalibrationswürfels 200 und zeigt die zwölf Kantenpanels, gekennzeichnet mit 201 bis 212. Eine Kamera 213 wird ungefähr in der Mitte des Würfels positioniert. Alle zwölf Panels 201 bis 212 sind identisch und daher wird nur Panel 202 detailliert beschrieben. 2B zeigt Panel 202 und die sich daran anschließenden Panels detaillierter. Panel 202 weist zwei Reihen von Punkten auf, gekennzeichnet mit 202A und 202B. Die Panels sind in einem 45 Grad Winkel im Verhältnis zu den Seiten des Würfels positioniert. Zöge man eine Linie von der Mitte eines jeden Panels (zum Beispiel von Punkt 202C) im rechten Winkel zu der Oberfläche des Panels, würde die Linie zur Mitte der Kamera 213 führen.
  • Bei Auslösung nimmt die Kamera 213 ein Bild von jeder Seite des Würfels 200 auf. Jedes so aufgezeichnete Bild umfasst die vier Panels, welche die Seiten des aufgenommenen Würfels umgeben. Ein Beispiel eines solchen Bildes ist in 3A dargestellt. Es ist wichtig, anzumerken, dass jedes Kantenpanel von zwei Linsen von Kamera 213 aufgezeichnet wird. Somit erscheint jede Kante des Würfels auf zwei Bildern.
  • Der Abstand zwischen den zwei Reihen von Punkten auf jedem Panel entspricht dem Abstand zwischen den Linsen auf der Kamera 213. Dies ist der Fall, um die Notwendigkeit für durch die Parallaxe bedingte Einstellungen zu eliminieren. Der Grund hierfür ist in 2C dargestellt, in der zwei Linsen 213A und 213B auf Kamera 213 gezeigt werden und die zwei Punkte 202A und 202B auf Panel 202. Da die Punkte einander um die gleiche Distanz beabstanden wie die Linsen, welche die Punkte aufgenommen haben, besteht keine Notwendigkeit für eine Parallaxeneinstellung, um den Abstand der Kamera 213 von dem Panel 202 einzukalkulieren. Natürlich muss das Programm, das die von den zwei Linsen aufgenommenen Bilder zusammenfügt, berücksichtigen, dass die zwei Reihen von Punkten durch einen Abstand von einer gewissen Größe voneinander getrennt sind.
  • 3B stellt dar, wie die Bedienperson dem Programm aufzeigt, welche Punkte in benachbarten Bildern korrespondieren. Die in 3B dargestellten Bilder sind ein Beispiel der Bilder, die bei dem in Block 102 in 2 angezeigten Vorgang verwendet werden. Wie in 3B dargestellt, zeigt das Programm zwei Bilder 331 und 332 nebeneinander an, so dass die Bedienperson zumindest einen Teil beider Reihen von Punkten in beiden Bildern sehen kann. 3B zeigt zum Beispiel das von Linse 213A aufgenommene Bild neben dem von Linse 213B aufgenommenen Bild. Die Reihen von Punkten auf Panel 202 erscheinen in beiden Bildern. Das Programm enthält eine Form-Erkennungslogik, welche die Position jedes Punktes lokalisiert und in einer Tabelle aufzeichnet.
  • Ein Beispiel der Hauptelemente einer solchen Tabelle ist in Tabelle Eins unten dargestellt.
    Bild ID # Punkt ID # X Position Y Position Kor-Punkt ID
    IM0097 D301 456 237 D302
    IM0098 D302 159 857 D301
    TABELLE EINS
  • In der oben abgebildeten Tabelle bezieht sich jede Reihe auf einen speziellen Punkt. Die Spalten in der Tabelle liefern die folgenden Informationen:
  • Bild ID #
    Eine eindeutige Zahl, die ein bestimmtes Bild identifiziert
    Punkt ID #
    Eine eindeutige Zahl, die einen bestimmten Punkt identifiziert
    X Position
    Die X-Position des bestimmten Punktes
    Y Position
    Die Y-Position des bestimmten Punktes
    Kor-Punkt ID
    Die Punkt-ID-Nummer eines korrespondierenden Punktes auf einem anderen Bild. Die Information in dieser Spalte wird eingegeben, nachdem die Bedienperson dem Programm aufgezeigt hat, welche Punkte in den zwei Bildern korrespondieren.
  • Wenn, wie in 3B dargestellt, die Bilder nebeneinander angezeigt werden, kann eine Bedienperson die korrespondierenden Punkte problemlos optisch identifizieren. Beispielsweise stimmt Punkt 301 mit Punkt 302 überein. Nach Klicken auf eine Schaltfläche "Start", um den Vorgang zu initiieren, "klickt" die Bedienperson zunächst auf Punkt 301 und anschließend auf Punkt 302. Dies sagt dem Programm, dass diese zwei Punkte korrespondieren, und das Programm zeichnet in der letzten Spalte der oben abgebildeten Tabelle die Tatsache auf, dass diese zwei Punkte korrespondieren. Die Bedienperson verfährt so mit jedem Punkt entlang der Kante 202P nacheinander. Der Vorgang wird für jede der zwölf Kanten des Würfels 200 wiederholt.
  • Es sei angemerkt, dass nicht jedes Bild unbedingt eine komplette Abbildung beider Reihen von Punkten enthalten muss.
  • Beispielsweise enthält der untere Teil von Bild 331, dargestellt in 3A und 3B, keine komplette Abbildung beider Reihen von Punkten. Es kann so betrachtet werden, dass die zwei benachbarten Punkte (beispielsweise die Punkte 271 und 272 in 2B) eine hypothetische Schranke oder einen Bereich konstituieren, der an einem Punkt beginnt und an dem anderen Punkt endet. Wenn die Bedienperson nacheinander auf die Punkte 301 und 302 klickt (siehe 3B), zeigt die Bedienperson dem Programm an, dass die zwei "hypothetischen Schranken" oder der Bereich korrespondierende Punkte in den zwei Bildern enthalten. Da jedes Bild zumindest die innere Reihe von Punkten auf jedem Panel zeigt, und der Abstand zwischen den Reihen von Punkten dem Programm bekannt ist, kann das Programm den Ort aller Punkte bestimmen, auch wenn diese nicht explizit auf dem Bild zu sehen sind.
  • Anschließend verbindet das Programm die Bilder unter Verwendung eines Satzes von Standardparametern zu einem Panorama. Wenn das Programm initiiert ist, zeigt es das in 3C dargestellte Fenster. Das Fenster zeigt ein Panorama, in dem noch keine Bilder geladen wurden. Auf der rechten Seite des Bildschirms sind verschiedene Einstellungen, die an Bildern vorgenommen werden können, welche zu einem Panorama zusammengefügt werden sollen. Diese Parameter werden zu Beginn auf einen Satz von Standardparametern eingestellt, wie unten dargestellt.
  • Die sechs Kameras werden als oben, vorne, unten, hinten, links und rechts definiert. Das Sichtfeld (SF), Heading, Pitch, Bank, x-Versatz und y-Versatz für die Kameras werden zu Beginn auf Werte eingestellt, die in der folgenden Tabelle dargestellt sind. Es versteht sich, dass die folgenden Anfangswerte nur Beispiele sind, und es bei den Werten für verschiedene Kameratypen am besten experimentell bestimmt wird, welche zu den besten Ergebnissen führen.
    Kamera SF Heading Pitch Bank x-Versatz y-Versatz
    Oben 95 180 90 0 0 0
    Vorne 95 0 0 0 0 0
    Unten 95 0 –90 0 0 0
    Hinten 95 180 0 0 0 0
    Links 95 –90 0 0 0 0
    Rechts 95 90 0 0 0 0
    Tabelle Zwei
  • Es sind auch Vorkehrungen für weitere Parameter getroffen, die auf Wunsch verwendet werden können. Beispielsweise kann die Größe der Fischaugeneinstellung oder Kissenverzeichnung eingestellt werden.
  • Die unter Verwendung der Standardparameter verbundenen Bilder werden der Bedienperson angezeigt, wie in 3C dargestellt. Wie in 4 zu sehen, wurden die Bilder verbunden, die Punkte auf den verschiedenen Bildern korrespondieren jedoch nicht. So sollte beispielsweise Punkt 304D aus Bild 304 mit Punkt 305D aus Bild 305 übereinstimmen. Die Standardparameter, mit Hilfe derer das Panorama in 4 erzeugt wurde, haben die Bilder nicht so miteinander verbunden, wie es sein sollte und somit stimmen Punkt 304D und Punkt 305D nicht überein. Die Bedienperson kann dann die verschiedenen, beim Verbinden verwendeten Parameter ändern, damit die Punkte übereinstimmen.
  • 6 ist ein Flussdiagramm des Programms, das detailliert darstellt, wie das Programm die durch die Blöcke 102, 104 und 105 in 1 angezeigten Vorgänge ausführt. Das heißt, 6 ist ein Flussdiagramm, das zeigt, wie die korrespondierenden Punkte auf einem Satz von Bildern identifiziert werden, die entsprechenden Korrekturfaktoren bestimmt werden, damit die Punkte übereinstimmen (d. h. die entsprechenden Korrekturfaktoren werden bestimmt, um die Bilder richtig zu verbinden) und wie schließlich diese Parameter verwendet werden, um einen weiteren Satz von Bildern, aufgezeichnet von derselben Kamera, zu verbinden. Wie in Block 601 angezeigt werden zunächst die sechs Bitmaps (d. h. die sechs Bilder), aufgezeichnet von einer bestimmten Kamera 213, in dem Programm geladen. Diese Bilder zeigen die Kanten des Kalibrationswürfels 200. Jede Kante erscheint in zwei der Bilder. Dann wird, wie in Block 602 angezeigt, eine herkömmliche Form-Erkennungsroutine verwendet, um zu identifizieren, wo sich die Mitte der Punkte an der Peripherie jedes Bildes befindet.
  • Anschließend zeigt die Bedienperson dem Programm korrespondierende Punkte an, wie angezeigt in Block 603. Die Bedienperson kann zum Beispiel optisch bestimmen, dass es sich bei den Punkten 301 und 302, dargestellt in 3B, tatsächlich um ein und denselben Punkt auf der Rahmenkante handelt, und dass diese Punkte übereinstimmen sollten. Die Bedienperson verwendet eine Maus, um nacheinander auf die übereinstimmenden Punkte zu klicken. Das Programm erkennt die Klicks als Anzeige, dass die zwei Punkte, auf welche die Bedienperson geklickt hat, korrespondieren. Die Identität der korrespondierenden Punkte wird dann in einer Tabelle, wie zum Beispiel der oben abgebildeten Tabelle Eins, aufgezeichnet. Übereinstimmende Punkte werden als Ausrichtungspunkte bezeichnet.
  • Wie in Block 605 angezeigt, werden anschließend die Ausrichtungspunkte auf einer Kugel mit einem Einheitsradius abgebildet. Das Abbilden geschieht unter Verwendung eines Standardsatzes von Parametern für Kamerarichtung, Sichtfeld, Linsenverzeichnung, etc. Heading und Pitch eines jeden Ausrichtungspunktes auf der Kugel werden bestimmt. Null Pitch und Null Heading werden als lotrecht zu der Mitte eines jeden Bildes genommen.
  • Die nächste Folge von Schritten, 606A bis 606D, ist der Kern des Kalibrationsvorgangs. Ein Anpassungsprozess nach der Methode der kleinsten Quadrate wird angewendet, um die verschiedenen Parameter zu ändern, so dass die korrespondierenden Punkte in den Bildern miteinander übereinstimmen. Zunächst wird, wie in Block 606A angezeigt, ein Vektor zwischen jedem Paar von korrespondierenden Punkten gebildet. So wird beispielsweise ein Vektor zwischen 301 und 302 in 3B berechnet. In ähnlicher Weise wird für jedes Paar von Punkten ein Vektor berechnet. Die Länge des Vektors stellt die Größe des Fehlers in der Ausrichtung der Punkte dar.
  • Anschließend wird, wie in Block 606B angezeigt, die Größe der Änderung in jedem Vektor bestimmt, die aus einer kleinen Änderung in jedem Linsenparameter resultiert. Das heißt, jeder der Linsenparameter wie zum Beispiel Heading, Sichtfeld, etc. wird um ein kleines Inkrement geändert und die daraus resultierende Änderung der Vektorlänge wird bestimmt. Die Linsenparameter werden einer nach dem anderen verändert, und die resultierende Änderung in jedem Vektor wird bestimmt.
  • Eine Anpassung für die Fehlervektoren nach der herkömmlichen Methode der kleinsten Quadrate wird berechnet, um die Änderungen der Kameraparameter zu bestimmen, welche die Fehlervektoren auf die kleinsten Werte reduzieren. Dies ist in Block 606C angezeigt. Anschließend werden die Änderungen auf die Parameter angewendet, wie in Block 606D angezeigt. Wäre der Effekt der Änderungen bei den Kameraparametern auf die Fehlervektoren linear, müssten die Schritte 606A bis 606D lediglich einmal durchlaufen werden. Der Effekt auf die Fehlervektoren bei Änderung der Kameraparameter ist jedoch nicht linear, und daher werden die Schritte 606A bis 606D dreimal ausgeführt, wie in Block 607 angezeigt. Jedes Mal, wenn die Schritte 606A bis 606D ausgeführt werden, nähert sich das Ergebnis den Optimalwerten mehr an. Für Fachleute versteht es sich natürlich, dass die Auswahl von drei Mal zufällig ist und auf Erfahrung beruht und dass eine Anzahl ausgewählt wird, welche zu einem Ergebnis von ausreichender Genauigkeit führt.
  • Nachdem der Prozess in den Blöcken 606A bis 606D dreimal wiederholt wurde, wird das daraus resultierende Panorama der Bedienperson angezeigt, um sicherzustellen, dass der Prozess erfolgreich war. Wenn das angezeigte Panorama nicht befriedigend ist, werden die Vorgänge wiederholt. Ist das resultierende Panorama akzeptabel, speichert die Bedienperson die Werte der Parameter, die das befriedigende Panorama erzeugt haben.
  • Es hat sich gezeigt, dass, lässt man das Programm alle Kameraparameter ändern, das Ergebnis eine relativ große Änderung im Sichtfeld von einer bestimmten Kamera zu einer anderen bestimmten Kamera sein kann. Zwar werden die Bilder zusammengefügt, doch erhält das Bild so eine gewisse Größenverzeichnung. Dieses potenzielle Problem kann vermieden werden, wenn die Bedienperson die Möglichkeit erhält, einige der Kamera-Versatzparameter während des Anpassungsvorgangs nach der Methode der kleinsten Quadrate auszuschließen (nicht zu nutzen). Andere Ausführungen stellen einen Mechanismus bereit, bei dem das Programm automatisch bestimmt, welche Versatzparameter während des Anpassungsvorgangs nach der Methode der kleinsten Quadrate auszuschließen sind.
  • Ein weiteres Merkmal der vorliegenden Erfindung ist, dass die Punkte an den Kanten des Würfels 200 faktisch nicht rund sind. Es ist bekannt, dass, betrachtet man einen Kreis durch ein Fischaugenobjektiv, das Bild des Kreises nicht rund ist. Die durch ein Fischaugenobjektiv verursachte Verzeichnung wird deutlich, wenn man 5 betrachtet. 5 zeigt eine Anordnung von Punkten, die solcherart verzerrt wurden, dass sie als eine quadratische Anordnung erscheinen, betrachtet man sie durch ein Fischaugenobjektiv. Die Größe der theoretisch von einem Fischaugenobjektiv erzeugten Verzeichnung ist Fachleuten bekannt. Jeder in 5 abgebildete Punkt weist eine Form auf, die rund erscheint, wenn der Punkt durch ein Fischaugenobjektiv betrachtet wird. Dieselbe Art von Verzeichnung ist für die Punkte auf den Panels 201 bis 212 vorgesehen. Das heißt, jeder Punkt auf den Panels 201 bis 212 weist eine Form auf, die rund erscheint, wenn der Punkt durch ein Fischaugenobjektiv betrachtet wird. Dies ermöglicht die Erkennung und Lokalisierung der Punkte durch das Programm. Es sei angemerkt, dass die Reihen von Punkten in 5 nicht gerade sind, das heißt, die Reihen sind konkav. Die Form der einzelnen Punkte auf den Panels 201 bis 212 ist verzerrt wie oben beschrieben, die Reihen der Punkte sind jedoch gerade. Da die Reihen der Punkte auf den Panels 201 bis 212 gerade sind, sind die Reihen von Punkten auf den Bildern, wie in 3A gezeigt, konvex aufgrund der Wirkung des Fischaugenobjektivs. Wenn natürlich ein anderer Linsentyp als ein Fischauge in dem System verwendet würde, hätten die Punkte eine Verzeichnung entsprechend der Verzeichnung, die von dem speziellen, verwendeten Linsentyp verursacht würde.
  • In einer alternativen Ausführung der Erfindung ist ein Programm vorgesehen, das die korrespondierenden Punkte in benachbarten Bildern automatisch identifiziert, wodurch die Notwendigkeit eliminiert wird, dass eine Bedienperson dem Programm die korrespondierenden Punkte anzeigt.
  • Es sei angemerkt, dass die Kalibrationsstruktur, die in der bevorzugten Ausführung verwendet wird, die Form eines Würfels hat. Der Grund dafür ist der, dass die Kamera 213 die Form eines Würfels hat. Das heißt, die Linsen auf der Kamera 213 sind an den Seiten eines Würfels positioniert. Wären die Linsen anders positioniert, hätte die Struktur eine andere Form. Mit dem Ausdruck "zu verbindende Kante" ist die Kante eines Bildes gemeint, das mit der Kante eines anderen Bildes verbunden wird, um ein Panorama zu bilden. Die Struktur muss eine solche Form aufweisen, dass (a) jede zu verbindende Kante von zwei Linsen aufgenommen wird, und (b) das von jeder Kamera aufgenommene Bild zumindest eine Reihe von Punkten entlang jeder zu verbindenden Kante enthält. In der bevorzugten Ausführung wird jedes Kantenpanel 201 bis 212 von zwei Linsen aufgenommen, und das von jeder Linse aufgenommene Bild enthält zumindest eine Reihe von Punkten entlang jeder Kante. Wären die Linsen einer Kamera in einer Konfiguration positioniert, die zu anderen Linsenpositionen als bei Kamera 213 führt, hätte die Kalibrationsstruktur eine andere Form. Der wesentliche Punkt ist, dass die Kalibrationsstruktur eine solche Form aufweisen würde, dass (a) jede zu verbindende Kante von zwei Linsen aufgenommen wird, und (b) das von jeder Kamera aufgenommene Bild zumindest eine Reihe von Punkten entlang jeder zu verbindenden Kante enthält. Es ließen sich viele Alternativen finden, welche die oben genannten Kriterien erfüllen. Um ein einfaches Beispiel zu nennen: wenn die Kamera ein Würfel mit zwei Linsen auf der Oberseite des Würfels wäre, von denen jede 45 Grad aufnähme, wäre die Kalibrationsstruktur ein Würfel mit einem Panel in der Mitte der Oberseite des Würfels.
  • Es sei angemerkt, dass in der bevorzugten Ausführung die Referenzpunkte entlang den Kanten des Würfels die Form von Punkten aufweisen, welche als rund auf den aufgenommenen Bildern erscheinen (nachdem sie durch ein Fischaugenobjektiv verzerrt wurden). Alternativ können auch Referenzpunkte mit anderen Formen verwendet werden. Beispielsweise könnten die Referenzpunkte auf den Panels 201 bis 212 die Form von Stäben besitzen. Diese Stäbe könnten vor-verzerrt sein, so dass sie nach Verzeichnung durch ein Fischaugenobjektiv rechteckig erscheinen. Diese Vor-Verzerrung ist lediglich erforderlich, um die Erkennungslogik in dem Programm einfacher zu gestalten, sie wird für die Funktionsweise der Erfindung nicht benötigt. Für die Referenzpunkte gibt es eine große Vielfalt an Formen, die alternativ zu der in der bevorzugten Ausführung verwendeten Form genutzt werden könnten.
  • Die Identifizierung der Kamera, welche einen bestimmten Satz von Bildern aufgenommen hat, kann manuell aufgezeichnet werden, und anschließend kann diese Identifizierung auf einen wie oben beschrieben bestimmten Satz von Kameraparametern angewendet werden. In einer alternativen Ausführung, beschrieben mit Bezug auf 7, zeichnet die Mehrlinsenkamera automatisch eine Identifizierung auf jedem Bild auf.
  • Es sei angemerkt, dass die Bilder, die von den hier beschriebenen Kameras aufgezeichnet werden, digitaler Natur sind. Infolgedessen können die aufgenommenen Bilder in einer Datei gespeichert werden. Die Kameraidentifizierung wird in einem Header in dieser Datei platziert.
  • Bei dieser Ausführung liest das Kalibrationsprogramm diese Kameraidentifizierung aus dem Datei-Header der Datei, welche die Bilder enthält. Das Kalibrationsprogramm speichert anschließend die Kameraidentifizierung zusammen mit den Kalibrationsparametern für diese spezielle Kamera. Das Ergebnis ist eine Tabelle mit den Kameraidentifizierungsnummern und entsprechenden Kalibrationsparametern. Wenn ein Satz von Bildern von dem Verbindungs-Programm gelesen wird, liest das Programm automatisch die Kameraidentifizierung aus dem Datei-Header der Datei, welche die Bilder enthält. Der Prozess ist in 7 dargestellt. Zunächst, wie in Block 761 angezeigt, zeichnet eine Kamera ein Bild von dem Kalibrationswürfel auf, wie oben beschrieben. Die erzeugten Einzelbilder werden zusammen mit der Kameraidentifizierung aufgezeichnet, wie in der oben angeführten Patentanmeldung beschrieben. Der nächste Schritt ist in Block 762 angezeigt: Die Kamerakalibrationsparameter werden bestimmt, wie oben beschrieben.
  • Wie in Block 765 angezeigt, wird eine Tabelle erzeugt, welche die Kamerakalibrationsparameter und die Kameraidentifizierung angibt. Zu einem späteren Zeitpunkt wird ein weiterer Satz von Bildern mit derselben Kamera aufgenommen, wie in Block 766 angezeigt. Die Kameraidentifizierung wird zusammen mit den Bildern aufgezeichnet. Abschließend werden die Bilder, wie in Block 767 angezeigt, zu einem Verbindungs-Programm gesendet, welches die Kameraidentifizierung zusammen mit den Bilddaten liest. Das Verbindungs-Programm fragt die Tabelle ab, um die korrekten Parameter zu finden, um die Bilder unter Verwendung der entsprechenden Parameter miteinander zu verbinden.
  • Die vorliegende Erfindung wurde zwar unter Bezug auf die bevorzugten Ausführungen aufgezeigt und beschrieben, doch wird es für Fachleute ersichtlich sein, dass zahlreiche Veränderungen in Bezug auf Form und Details vorgenommen werden können.
  • Es sind zahlreiche verschiedene Ausführungen der Erfindung des Anmelders möglich und die Erfindung ist nicht nur auf die hier beschriebene Ausführung beschränkt.

Claims (6)

  1. Verfahren zum Kalibrieren einer Mehrlinsenkamera (213), wobei das Verfahren umfasst: i) Montieren der Kamera (213) im Inneren einer Kalibrationsstruktur (200) umfassend eine Vielzahl von Kanten, wobei jede Kante mindestens eine Reihe von Referenzpunkten aufweist; ii) Erstellen zweier Bilder von jeder Kante unter Verwendung zweier Linsen (101); iii) Identifizieren der korrespondierenden Referenzpunkte auf den zwei Bildern (102) für jede Kante; iv) Bestimmen des Abstands zwischen den zwei Referenzpunkten bei jedem Paar von übereinstimmenden Referenzpunkten (606A); v) Modifizieren eines Parameters einer Linse, um den Abstand zwischen den zwei Referenzpunkten der identifizierten Paare korrespondierender Referenzpunkte (606B) zu reduzieren; vi) Wiederholen von Schritt (v) bei einem anderen Parameter der Linse; vii) Wiederholen der Schritte (v) und (vi), bis die Referenzpunkte in den Reihen von Referenzpunkten der beiden Bilder bis zu einer erwünschten Genauigkeit (607) übereinstimmen; und viii) Speichern der in Schritt (vii) bestimmten Parameter zusammen mit einer Identifizierung der Linse.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Modifizierens eines Parameters umfasst: Anwenden eines Anpassungsprozesses nach der Methode der kleinsten Quadrate, um den Abstand zwischen den zwei Referenzpunkten (606C) zu reduzieren.
  3. Verfahren nach Anspruch 1, wobei mindestens einer der Parameter aus einer Gruppe umfassend Versatz, Verzeichnung, Helligkeit und Kontrast ausgewählt wird.
  4. Verfahren nach Anspruch 1, wobei mindestens einer der Parameter aus einer Gruppe umfassend Heading, Pitch, Bank und Sichtfeld ausgewählt wird.
  5. Verfahren nach Anspruch 1, wobei der Schritt des Modifizierens eines Parameters umfasst: automatisches Aussperren eines oder mehrerer Kameraparameter während der Einstellung der Kameraparameter.
  6. Computerlesbares Medium, das ein Softwareprogramm enthält, welches bei Ausführung das Verfahren nach einem vorhergehenden Anspruch implementiert.
DE60131884T 2000-10-26 2001-10-25 System und verfahren zur kamerakalibration Expired - Lifetime DE60131884T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US697605 1996-08-26
US09/697,605 US7050085B1 (en) 2000-10-26 2000-10-26 System and method for camera calibration
PCT/US2001/045495 WO2002035831A1 (en) 2000-10-26 2001-10-25 System and method for camera calibration

Publications (2)

Publication Number Publication Date
DE60131884D1 DE60131884D1 (de) 2008-01-24
DE60131884T2 true DE60131884T2 (de) 2008-11-27

Family

ID=24801778

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60131884T Expired - Lifetime DE60131884T2 (de) 2000-10-26 2001-10-25 System und verfahren zur kamerakalibration

Country Status (9)

Country Link
US (1) US7050085B1 (de)
EP (1) EP1336293B1 (de)
JP (1) JP2004512778A (de)
AT (1) ATE381207T1 (de)
AU (1) AU2002230547A1 (de)
CA (1) CA2427053C (de)
DE (1) DE60131884T2 (de)
IL (2) IL155563A0 (de)
WO (1) WO2002035831A1 (de)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002047028A2 (en) * 2000-12-07 2002-06-13 Just Iced Cubed Inventions Inc. Systems and methods for registration of hemispheric images for panomaric viewing
KR100765209B1 (ko) 2006-03-23 2007-10-09 삼성전자주식회사 전방향 스테레오 카메라 및 그 제어 방법
DE102006038423A1 (de) * 2006-08-17 2008-02-21 Bayerische Motoren Werke Ag Vorrichtung zur Kalibrierung einer optischen Kamera und/oder einer Infrarot-Kamera
JP2010525387A (ja) * 2007-04-16 2010-07-22 サンダラー,ナガッパン,ムスサミー 立体視覚
TWI401526B (zh) * 2008-12-05 2013-07-11 Altek Corp The instantaneous image of the degree of integration of the instant prompt method
US8351770B2 (en) * 2009-03-16 2013-01-08 Raytheon Company Imaging station and method for repeatable alignment of images
US20110242355A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
US8896668B2 (en) * 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US8818132B2 (en) * 2010-11-29 2014-08-26 Microsoft Corporation Camera calibration with lens distortion from low-rank textures
US8774558B2 (en) 2010-11-29 2014-07-08 Microsoft Corporation Rectification of characters and text as transform invariant low-rank textures
US9519968B2 (en) 2012-12-13 2016-12-13 Hewlett-Packard Development Company, L.P. Calibrating visual sensors using homography operators
US20140300736A1 (en) * 2013-04-09 2014-10-09 Microsoft Corporation Multi-sensor camera recalibration
EP3111299A4 (de) 2014-02-28 2017-11-22 Hewlett-Packard Development Company, L.P. Kalibrierung von sensoren und projektor
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images
US10530997B2 (en) 2017-07-13 2020-01-07 Zillow Group, Inc. Connecting and using building interior data acquired from mobile devices
US10375306B2 (en) 2017-07-13 2019-08-06 Zillow Group, Inc. Capture and use of building interior data from mobile devices
US10643386B2 (en) 2018-04-11 2020-05-05 Zillow Group, Inc. Presenting image transition sequences between viewing locations
US10809066B2 (en) 2018-10-11 2020-10-20 Zillow Group, Inc. Automated mapping information generation from inter-connected images
US10708507B1 (en) 2018-10-11 2020-07-07 Zillow Group, Inc. Automated control of image acquisition via use of acquisition device sensors
CA3058602C (en) 2018-10-11 2023-01-24 Zillow Group, Inc. Automated mapping information generation from inter-connected images
US11243656B2 (en) 2019-08-28 2022-02-08 Zillow, Inc. Automated tools for generating mapping information for buildings
US11164368B2 (en) 2019-10-07 2021-11-02 Zillow, Inc. Providing simulated lighting information for three-dimensional building models
US11164361B2 (en) 2019-10-28 2021-11-02 Zillow, Inc. Generating floor maps for buildings from automated analysis of visual data of the buildings' interiors
US11676344B2 (en) 2019-11-12 2023-06-13 MFTB Holdco, Inc. Presenting building information using building models
US10825247B1 (en) 2019-11-12 2020-11-03 Zillow Group, Inc. Presenting integrated building information using three-dimensional building models
USD976992S1 (en) * 2020-05-22 2023-01-31 Lucasfilm Entertainment Company Ltd. Camera calibration tool
US11405549B2 (en) 2020-06-05 2022-08-02 Zillow, Inc. Automated generation on mobile devices of panorama images for building locations and subsequent use
US11514674B2 (en) 2020-09-04 2022-11-29 Zillow, Inc. Automated analysis of image contents to determine the acquisition location of the image
US11592969B2 (en) 2020-10-13 2023-02-28 MFTB Holdco, Inc. Automated tools for generating building mapping information
US11481925B1 (en) 2020-11-23 2022-10-25 Zillow, Inc. Automated determination of image acquisition locations in building interiors using determined room shapes
US11252329B1 (en) 2021-01-08 2022-02-15 Zillow, Inc. Automated determination of image acquisition locations in building interiors using multiple data capture devices
CA3142154A1 (en) 2021-01-08 2022-07-08 Zillow, Inc. Automated determination of image acquisition locations in building interiors using multiple data capture devices
US11836973B2 (en) 2021-02-25 2023-12-05 MFTB Holdco, Inc. Automated direction of capturing in-room information for use in usability assessment of buildings
US11790648B2 (en) 2021-02-25 2023-10-17 MFTB Holdco, Inc. Automated usability assessment of buildings using visual data of captured in-room images
US11501492B1 (en) 2021-07-27 2022-11-15 Zillow, Inc. Automated room shape determination using visual data of multiple captured in-room images
US11842464B2 (en) 2021-09-22 2023-12-12 MFTB Holdco, Inc. Automated exchange and use of attribute information between building images of multiple types
US11830135B1 (en) 2022-07-13 2023-11-28 MFTB Holdco, Inc. Automated building identification using floor plans and acquired building images

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3909121A (en) 1974-06-25 1975-09-30 Mesquita Cardoso Edgar Antonio Panoramic photographic methods
US4807158A (en) 1986-09-30 1989-02-21 Daleco/Ivex Partners, Ltd. Method and apparatus for sampling images to simulate movement within a multidimensional space
US4890314A (en) * 1988-08-26 1989-12-26 Bell Communications Research, Inc. Teleconference facility with high resolution video display
US4853764A (en) 1988-09-16 1989-08-01 Pedalo, Inc. Method and apparatus for screenless panoramic stereo TV system
US5023725A (en) 1989-10-23 1991-06-11 Mccutchen David Method and apparatus for dodecahedral imaging system
US5235198A (en) 1989-11-29 1993-08-10 Eastman Kodak Company Non-interlaced interline transfer CCD image sensing device with simplified electrode structure for each pixel
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US6020894A (en) 1990-08-16 2000-02-01 Canon Kabushiki Kaisha Full-color desktop publishing system
US6002430A (en) * 1994-01-31 1999-12-14 Interactive Pictures Corporation Method and apparatus for simultaneous capture of a spherical image
US5355450A (en) 1992-04-10 1994-10-11 Avid Technology, Inc. Media composer with adjustable source material compression
US5903782A (en) 1995-11-15 1999-05-11 Oxaal; Ford Method and apparatus for producing a three-hundred and sixty degree spherical visual data set
US5684937A (en) 1992-12-14 1997-11-04 Oxaal; Ford Method and apparatus for performing perspective transformation on visible stimuli
US6243099B1 (en) 1996-11-14 2001-06-05 Ford Oxaal Method for interactive viewing full-surround image data and apparatus therefor
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
JP3253405B2 (ja) 1993-03-26 2002-02-04 オリンパス光学工業株式会社 2群ズームレンズ
WO1994029999A1 (en) 1993-06-16 1994-12-22 Gould Kim V W System and method for transmitting video material
DE69411849T2 (de) 1993-10-20 1999-03-04 Philips Electronics Nv Verfahren zur Verarbeitung von Luminanzpegel in einem zusammengesetzten Bild und Bildverarbeitungssystem zur Anwendung dieses Verfahrens
US5648813A (en) 1993-10-20 1997-07-15 Matsushita Electric Industrial Co. Ltd. Graphical-interactive-screen display apparatus and peripheral units
US5677981A (en) 1994-06-14 1997-10-14 Matsushita Electric Industrial Co., Ltd. Video signal recording apparatus which receives a digital progressive scan TV signal and switches the progressive signal frame by frame alternately
US5774569A (en) 1994-07-25 1998-06-30 Waldenmaier; H. Eugene W. Surveillance system
US5619255A (en) * 1994-08-19 1997-04-08 Cornell Research Foundation, Inc. Wide-screen video system
US5886745A (en) 1994-12-09 1999-03-23 Matsushita Electric Industrial Co., Ltd. Progressive scanning conversion apparatus
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5990934A (en) 1995-04-28 1999-11-23 Lucent Technologies, Inc. Method and system for panoramic viewing
US5703604A (en) 1995-05-22 1997-12-30 Dodeca Llc Immersive dodecaherdral video viewing system
US5657073A (en) 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
US6549681B1 (en) * 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
US5748121A (en) 1995-12-06 1998-05-05 Intel Corporation Generation of huffman tables for signal encoding
US6141034A (en) * 1995-12-15 2000-10-31 Immersive Media Co. Immersive imaging method and apparatus
US5872575A (en) 1996-02-14 1999-02-16 Digital Media Interactive Method and system for the creation of and navigation through a multidimensional space using encoded digital video
US5852673A (en) 1996-03-27 1998-12-22 Chroma Graphics, Inc. Method for general image manipulation and composition
US5708469A (en) 1996-05-03 1998-01-13 International Business Machines Corporation Multiple view telepresence camera system using a wire cage which surroundss a plurality of movable cameras and identifies fields of view
US6118474A (en) 1996-05-10 2000-09-12 The Trustees Of Columbia University In The City Of New York Omnidirectional imaging apparatus
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
US6118454A (en) 1996-10-16 2000-09-12 Oxaal; Ford Methods and apparatuses for producing a spherical visual data set using a spherical mirror and one or more cameras with long lenses
US6058397A (en) 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
US6043837A (en) 1997-05-08 2000-03-28 Be Here Corporation Method and apparatus for electronically distributing images from a panoptic camera system
US5933137A (en) 1997-06-10 1999-08-03 Flashpoint Technology, Inc. Method and system for acclerating a user interface of an image capture unit during play mode
US5987164A (en) * 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
US6101534A (en) 1997-09-03 2000-08-08 Rothschild; Leigh M. Interactive, remote, computer interface system
US6215519B1 (en) 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
US6226035B1 (en) 1998-03-04 2001-05-01 Cyclo Vision Technologies, Inc. Adjustable imaging system with wide angle capability
US6237647B1 (en) 1998-04-06 2001-05-29 William Pong Automatic refueling station
AU4184399A (en) * 1998-05-13 1999-11-29 Infinite Pictures Inc. Panoramic movies which simulate movement through multidimensional space
US6323858B1 (en) * 1998-05-13 2001-11-27 Imove Inc. System for digitally capturing and recording panoramic movies
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6195204B1 (en) * 1998-08-28 2001-02-27 Lucent Technologies Inc. Compact high resolution panoramic viewing system
US6359617B1 (en) * 1998-09-25 2002-03-19 Apple Computer, Inc. Blending arbitrary overlaying images into panoramas
US6271752B1 (en) 1998-10-02 2001-08-07 Lucent Technologies, Inc. Intelligent multi-access system
US6346950B1 (en) 1999-05-20 2002-02-12 Compaq Computer Corporation System and method for display images using anamorphic video
US6693649B1 (en) * 1999-05-27 2004-02-17 International Business Machines Corporation System and method for unifying hotspots subject to non-linear transformation and interpolation in heterogeneous media representations
US6456323B1 (en) * 1999-12-31 2002-09-24 Stmicroelectronics, Inc. Color correction estimation for panoramic digital camera

Also Published As

Publication number Publication date
EP1336293A4 (de) 2006-04-26
AU2002230547A1 (en) 2002-05-06
IL155563A (en) 2008-06-05
ATE381207T1 (de) 2007-12-15
EP1336293B1 (de) 2007-12-12
IL155563A0 (en) 2003-11-23
EP1336293A1 (de) 2003-08-20
DE60131884D1 (de) 2008-01-24
US7050085B1 (en) 2006-05-23
WO2002035831A1 (en) 2002-05-02
JP2004512778A (ja) 2004-04-22
CA2427053C (en) 2009-01-06
CA2427053A1 (en) 2002-05-02

Similar Documents

Publication Publication Date Title
DE60131884T2 (de) System und verfahren zur kamerakalibration
DE69628228T2 (de) Bildsynthesegerät
DE112006000358B4 (de) Verfahren und Vorrichtung zur Erstellung eines Panoramabildes
DE102012001835B4 (de) Sichtsystem für ein Nutzfahrzeug zur Darstellung von gesetzlich vorgeschriebenen Sichtfeldern eines Hauptspiegels und eines Weitwinkelspiegels
DE69735488T2 (de) Verfahren und vorrichtung zum ausrichten von bildern
EP2494784B1 (de) Verfahren und vorrichtung zum erzeugen einer kalibrierten projektion
DE19782037C2 (de) Verfahren und Einrichtung zur Erzeugung eines zusammengesetzten Bildes
DE69820112T2 (de) Verbessertes bilderfassungssystem mit virtueller kamera
DE10061937B4 (de) Vorrichtung und Verfahren zum Korrigieren von Verzeichnungen eines Bildes und eine dieselben verwendende Bildwiedergabevorrichtung
DE69628723T2 (de) Gradientengestütztes Verfahren zur Erzeugung von Werten für unbekannte Pixel in einem Digitalbild
DE19507780B4 (de) Vorrichtung zur verteilten Bildverarbeitung
DE102004049676A1 (de) Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
DE102005018773A1 (de) Vorrichtung zur Sicht der Umgebung eines Fahrzeugs
DE112019001358T5 (de) Vorrichtung zur erstellung zusammengesetzter videobilder, verfahren zur erstellung zusammengesetzter videobilder und programm zur erstellung zusammengesetzter videobilder
EP3730346A1 (de) Sichtsystem für ein fahrzeug
DE1276995B (de) Photographische Mattscheibenkamera
EP1578609B1 (de) Verfahren und vorrichtung zur echzeitkontrolle von druckbildern
DE3905234C2 (de)
EP3170307B1 (de) Verfahren zur darstellung einer dreidimensionalen szene auf einem autostereoskopischen monitor
DE4137131C2 (de) Verfahren und Vorrichtung zur Rasterkorrektur
EP0897247A2 (de) Verfahren zur Berechnung von Bewegungsvektoren
DE19742931C2 (de) Verfahren und Vorrichtung zur Bildsynthese
DE102019107835A1 (de) Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm
EP3106349A1 (de) Sichtsystem für ein nutzfahrzeug zur darstellung von gesetzlich vorgeschriebenen sichtfeldern eines hauptspiegels und eines weitwinkelspiegels
DE102019104397A1 (de) Bildsynthesevorrichtung und Steuerverfahren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition