DE102010026348A1 - Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem - Google Patents

Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem Download PDF

Info

Publication number
DE102010026348A1
DE102010026348A1 DE102010026348A DE102010026348A DE102010026348A1 DE 102010026348 A1 DE102010026348 A1 DE 102010026348A1 DE 102010026348 A DE102010026348 A DE 102010026348A DE 102010026348 A DE102010026348 A DE 102010026348A DE 102010026348 A1 DE102010026348 A1 DE 102010026348A1
Authority
DE
Germany
Prior art keywords
camera
signal
external
frequency
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010026348A
Other languages
English (en)
Other versions
DE102010026348B4 (de
Inventor
Yoshiki Hashimoto
Takehisa Sera
Shougo Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102010026348A1 publication Critical patent/DE102010026348A1/de
Application granted granted Critical
Publication of DE102010026348B4 publication Critical patent/DE102010026348B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/08Separation of synchronising signals from picture signals

Abstract

Bildprozessor für ein Robotersystem, der die Bildverarbeitung eines von einer Kamera ausgegebenen Videosignals ausführt. Die Kamera kann ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein ingssignal ausgeben und ein zweites Videosignal mit Bilddaten, die auf Basis des internen sowie des engssignals erhalten werden, ausgeben. Der Bildprozessor weist einen Synchronisierungssignal-Trennabschnitt auf, der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt, einen Synchronisierungsfrequenz-Detektionsabschnitt, der die Frequenz des getrennten internen horizontalen Synchronisierungssignals erfasst, einen externen Synchronisierungssignal-Generatorabschnitt, der das externe vertikale und horizontale Synchronisierungssignal erzeugt, und einen Verarbeitungsabschnitt, der dem externen Synchronisierungssignal-Generatorabschnitt gestattet, das externe vertikale Synchronisierungssignal zu einem gewünschten Zeitpunkt zu erzeugen, das externe horizontale Synchronisierungssignal mit der erfassten Frequenz des internen horizontalen Synchronisierungssignals zu erzeugen und das erzeugte externe vertikale sowie das horizontale Synchronisierungssignal an die Kamera zu liefern.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft einen Bildprozessor für ein Robotersystem. Die vorliegende Erfindung betrifft außerdem ein Robotersystem, das einen Bildprozessor aufweist.
  • 2. Beschreibung der verwandten Technik
  • Ein Flächenbildsensor wie eine CCD-Kamera (im Folgenden als ”Kamera” bezeichnet) tastet typischerweise ein Bild, das in einem Abbildungsgerät gebildet ist, in dem Pixel (Bildpunkte) in einer Matrix angeordnet sind, waagrecht von oben links des Bildes ab und gibt nacheinander elektrische Signale der Pixel einer einzelnen Abtastzeile aus. Wenn die Kamera die gesamte Zeile bis zum rechten Ende des Bildes abgetastet hat, springt sie zum Anfang der folgenden Zeile zurück, um die folgende Zeile abzutasten und deren elektrische Signale auszugeben. Die Kamera führt die oben beschriebene Operation wiederholt aus, tastet so ein einzelnes Bild vollständig ab und gibt ein Videosignal des einzelnen Bildes aus. Zwei Abtastmodi sind bekannt: Einer ist ein progressiver Modus, bei dem eine Kamera Zeilen nacheinander von oben nach unten abtastet und das Videosignal eines vollständigen Bildes ausgibt. Der andere ist der Zeilensprungmodus, bei dem eine Kamera jede zweite Zeile abtastet und das Videosignal von ungeradzahligen Zeilen (d. h. ein erstes Feld) und das Videosignal von geradzahligen Zeilen (d. h. ein zweites Feld) ausgibt, so dass das gesamte Videosignal eines vollständigen Bildes ausgegeben wird.
  • Das Videosignal eines dynamischen Bildes enthält eine Mehrzahl aufeinander folgender Einzelbilder, wobei ein Einzelbild Bilddaten eines einzelnen Gesamtbildes, das die Bilddaten einer Mehrzahl Zeilen enthält, repräsentiert. Damit der Bildprozessor das Videosignal des dynamischen Bildes verarbeiten kann, ist es folglich erforderlich, dass der Bildprozessor die Anfangsposition jedes Einzelbildes (oder Feldes) und die Anfangsposition jeder Zeile in dem von der Kamera in den Bildprozessor eingegebenen Videosignal erkennt, um die Zeit des Beginns des Videosignals und die Zeit des Beginns der Bildverarbeitung zu synchronisieren. Zu diesem Zweck enthält das Videosignal zusätzlich zu den Bilddaten ein vertikales Synchronisierungssignal, das die Anfangsposition jedes Einzelbildes (oder Feldes) angibt, und ein horizontales Synchronisierungssignal, das die Anfangsposition jeder Zeile angibt. Das vertikale und das horizontale Synchronisierungssignal können als ein in der Kamera erzeugtes internes Synchronisierungssignal oder alternativ als ein im Bildprozessor mit einer Frequenz gleich der des internen Synchronisierungssignals erzeugtes externes Synchronisierungssignal bereitgestellt werden. Bei einem internen Synchronisierungsmodus, bei dem das interne Synchronisierungssignal verwendet wird, trennt der Bildprozessor das interne Synchronisierungssignal von dem von der Kamera ausgegebenen Videosignal und verwendet das interne Synchronisierungssignal, um die Bildverarbeitung zu synchronisieren. Bei einem externen Synchronisierungsmodus, bei dem das externe Synchronisierungssignal verwendet wird, liefert der Bildprozessor das erzeugte externe Synchronisierungssignal an die Kamera und gestattet der Kamera, das mit dem externen Synchronisierungssignal synchronisierte Videosignal auszugeben, um die Bildverarbeitung zu synchronisieren. Wenn bei der im externen Synchronisierungsmodus arbeitenden Kamera das externe Synchronisierungssignal nicht bereitgestellt wird, kann die Kamera das mit dem internen Synchronisierungssignal synchronisierte Videosignal automatisch ausgeben.
  • Eine Kamera kann individuelle Abweichungen haben, wie geringfügige Differenzen der Eigenschaften eines Abbildungsgeräts, der Anbauposition eines Objektivs und dgl. Wenn die mit einem Bildprozessor verbundene Kamera durch eine andere Kamera ersetzt wird, kann es folglich erforderlich sein, dass der Bildprozessor die Einstellungen wie Weißabgleich, Schärfe, Belichtung und dgl. korrigiert. Die japanische Offenlegungsschrift (Kokai) Nr. 11-215412 ( JP-A-11-215412 ) beschreibt ein Videobild-Eingabegerät, das die Einstellungen automatisch korrigiert, um die individuellen Abweichungen einer Kamera auszugleichen, wenn sie gegen eine andere Kamera ausgetauscht wird.
  • Ferner werden die internen Synchronisierungssignale der Kameras unabhängig voneinander erzeugt. Wenn also eine Mehrzahl verschiedener Kameras, die gleichzeitig interne Synchronisierungssignale erzeugen, mit einem einzigen Bildprozessor verbunden sind, kann es erforderlich sein, dass der Bildprozessor die zeitliche Abfolge der internen Synchronisierungssignale steuert. Die japanische Offenlegungsschrift (Kokai) Nr. 9-224192 ( JP-A-9-224192 ) beschreibt einen Bildsynthetisierer, der den jeweiligen Kameras externe Synchronisierungssignale bereitstellt, um es den Kameras zu ermöglichen, die Videosignale zeitlich passend auszugeben, wenn eine Mehrzahl verschiedener Kameras, die gleichzeitig interne Synchronisierungssignale erzeugen, mit einem einzigen Bildprozessor verbunden sind und von den Kameras aufgenommene Bilder gleichzeitig auf einem Monitor angezeigt werden.
  • Bei einem Robotersystem, das einen Bildprozessor zum Korrigieren einer Roboteroperation auf Basis von Bilddaten, die von einer Kamera erhalten werden, verwendet, kann die Robotersteuerung die Operation des Roboters nicht angemessen korrigieren, wenn sie den Zeitpunkt, in dem die von der Kamera erhaltenen Bilddaten erfasst wurden, nicht erkennen kann. In dem Fall, in dem der Roboter z. B. ein auf einer Fördereinrichtung transportiertes Objekt greift, schätzt die Robotersteuerung möglicherweise den Zeitpunkt falsch, in dem ein Objekt eine vorgegebene Position erreicht, so dass es für den Roboter schwierig wird, das Objekt zu greifen, wenn die Robotersteuerung den Zeitpunkt nicht genau erkennt, in dem die von der Kamera erhaltenen Bilddaten erfasst worden sind. Um dieses Problem zu vermeiden, ist das Robotersystem so konfiguriert, dass der Bildprozessor der Kamera das externe Synchronisierungssignal bereitstellt, das in derselben Periode wie das interne Synchronisierungssignal der Kamera erzeugt wird, und es der Kamera ermöglicht, die mit dem externen Synchronisierungssignal synchronisierten Bilddaten auszugeben, so dass die Roboteroperation auf Basis des Ergebnisses der Bildverarbeitung der zum gewünschten Zeitpunkt erhaltenen Bilddaten korrigiert werden kann. Zu diesem Zweck kann es erforderlich sein, im Bildprozessor im Voraus eine Synchronisierungssignalfrequenz einzustellen, die für die mit dem Bildprozessor verbundene Kamera geeignet ist, und der verbundenen Kamera das für diese Kamera geeignete externe Synchronisierungssignal bereitzustellen.
  • Die Frequenzen des vertikalen und horizontalen Synchronisierungssignals, die für eine Kamera geeignet sind, sind für jeden Kameratyp spezifisch, ungeachtet, ob die Synchronisierungssignale intern oder extern sind. Wenn vertikale und horizontale Synchronisierungssignale als das externe Synchronisierungssignal an die Kamera geliefert werden, deren Frequenzen von den spezifischen Frequenzen verschieden sind, können Störungen wie die Verzerrung eines Bildes auftreten. Demzufolge kann es erforderlich sein, die Frequenz des externen Synchronisierungssignals gleich der Frequenz des internen Synchronisierungssignals der mit dem Bildprozessor verbundenen Kamera einzustellen, wenn der Bildprozessor das externe Synchronisierungssignal an die Kamera liefert.
  • Wenn eine Bildverarbeitung auf Basis eines von einer Kamera ausgegebenen Bildes ausgeführt wird, erfolgt die Bildverarbeitung ferner, nachdem Bilddaten, deren Menge der Pixelzahl der mit einem Bildprozessor verbundenen Kamera entspricht, in einem Speicherabschnitt wie einem RAM des Bildprozessors gespeichert worden sind. Andererseits kann sich die Pixelzahl der Kamera mit dem Kameratyp ändern. Als Ergebnis kann es erforderlich sein, im Voraus dem Speicherabschnitt, beispielsweise wie dem RAM, einen Datenbereich zur Bildverarbeitung zuzuweisen, der die Pixelzahl der mit dem Bildprozessor verbundenen Kamera berücksichtigt.
  • Wenn folglich im Robotersystem mehrere Kameratypen mit dem Bildprozessor gleichzeitig oder abwechselnd verbunden sind, kann es erforderlich sein, die Frequenz (oder die Frequenzen) des externen Synchronisierungssignals (oder der Signale) gleich der Frequenz (oder den Frequenzen) des internen Synchronisierungssignals (oder der Signale) der verbundenen Kamera (oder Kameras) im Voraus einzustellen, um der verbundenen Kamera (oder den Kameras) ein externes Synchronisierungssignal (oder Signale) mit einer Frequenz (oder Frequenzen) bereitzustellen, die für die Kamera (oder die Kameras) geeignet ist. Um ferner die Bilddaten im Speicherabschnitt wie dem RAM des Bildprozessors zu speichern, deren Menge der Pixelzahl der Kamera (oder der Kameras) entspricht, kann es erforderlich sein, im Voraus dem Speicherabschnitt wie dem RAM den Datenbereich zur Bildverarbeitung zuzuweisen, der die Pixelzahl der mit dem Bildprozessor verbundenen Kamera (oder Kameras) berücksichtigt.
  • Die oben erläuterte Einstellung und Zuweisung werden jedoch herkömmlicherweise von Hand durch einen Bediener in Abhängigkeit vom verwendeten Kameratyp vorgenommen, und deshalb können Fehler bei der Einstellung und Zuweisung vorkommen, die Störungen verursachen können, wie das Unvermögen des Bildprozessors, Bilddaten zu importieren.
  • Ferner können das Videobild-Eingabegerät gemäß der JP-A-11-215412 oder der Bildsynthetisierer gemäß der JP-A-9-224192 nicht automatisch arbeiten, wenn eine angeschlossene Kamera durch einen anderen Kameratyp ersetzt wird, da die Einstellung der Frequenz eines Synchronisierungssignals vom Kameratyp und die Zuweisung eines Datenbereichs zur Bildverarbeitung von der Pixelzahl der Kamera abhängt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung stellt als einen Aspekt einen Bildprozessor für ein Robotersystem bereit, an den mehrere Kameratypen angeschlossen werden können und der automatisch z. B. die Frequenz eines Synchronisierungssignals in Abhängigkeit vom Typ der angeschlossenen Kamera einstellen kann.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Bildprozessor für ein Robotersystem bereitgestellt, wobei das Robotersystem eine Kamera mit einer ersten Funktion aufweist, die ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein internes vertikales Synchronisierungssignal und ein internes horizontales Synchronisierungssignal ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen Frequenz erzeugt werden, und mit einer zweiten Funktion, die ein zweites Videosignal mit den erhaltenen Bilddaten ausgibt, die auf Basis eines externen vertikalen Synchronisierungssignals und eines externen horizontalen Synchronisierungssignals erhalten werden, das als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird, wobei der Bildprozessor so konfiguriert ist, dass er das von der Kamera ausgegebene zweite Videosignal importiert und eine Bildverarbeitung ausführt, wobei der Bildprozessor aufweist:
    einen Synchronisierungssignal-Trennabschnitt, der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt; einen Synchronisierungsfrequenz-Detektionsabschnitt, der die Frequenz des internen horizontalen Synchronisierungssignals, das vom Synchronisierungssignal-Trennabschnitt getrennt wurde, erfasst; einen externen Synchronisierungssignal-Generatorabschnitt, der das externe vertikale und das externe horizontale Synchronisierungssignal erzeugt; und einen Verarbeitungsabschnitt, der dem externen Synchronisierungssignal-Generatorabschnitt zu einem gewünschten Zeitpunkt gestattet, das externe vertikale Synchronisierungssignal zu erzeugen, das externe horizontale Synchronisierungssignal mit derjenigen Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, zu erzeugen und das so erzeugte externe vertikale sowie das externe horizontale Synchronisierungssignal an die Kamera zu liefern.
  • Die vorliegende Erfindung stellt als einen anderen Aspekt ein Robotersystem bereit, das mit mehreren Kameratypen versehen werden kann, und das einen Bildprozessor aufweist, der automatisch z. B. die Frequenz eines Synchronisierungssignals in Abhängigkeit vom Typ der angeschlossenen Kamera einstellen kann.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Robotersystem bereitgestellt, das eine Roboteroperation auf Basis des Ergebnisses der Bildverarbeitung ausführt, wobei das Robotersystem aufweist:
    einen Roboter; eine Kamera mit einer ersten Funktion, die ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein internes vertikales Synchronisierungssignal und ein internes horizontales Synchronisierungssignal ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen Frequenz erzeugt werden, und mit einer zweiten Funktion, die ein zweites Videosignal mit den erhaltenen Bilddaten ausgibt, die auf Basis eines externen vertikalen Synchronisierungssignals und eines externen horizontalen Synchronisierungssignals erhalten werden, das als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird; und einen Bildprozessor, der so konfiguriert ist, dass er das von der Kamera ausgegebene zweite Videosignal importiert und eine Bildverarbeitung ausführt, wobei der Bildprozessor aufweist:
    einen Synchronisierungssignal-Trennabschnitt, der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt; einen Synchronisierungsfrequenz-Detektionsabschnitt, der die Frequenz des internen horizontalen Synchronisierungssignals, das vom Synchronisierungssignal-Trennabschnitt getrennt wurde, erfasst; einen externen Synchronisierungssignal-Generatorabschnitt, der das externe vertikale und das externe horizontale Synchronisierungssignal erzeugt; und einen Verarbeitungsabschnitt, der dem externen Synchronisierungssignal-Generatorabschnitt zu einem gewünschten Zeitpunkt gestattet, das externe vertikale Synchronisierungssignal zu erzeugen, das externe horizontale Synchronisierungssignal mit derjenigen Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, zu erzeugen und das so erzeugte externe vertikale sowie das externe horizontale Synchronisierungssignal an die Kamera zu liefern.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung der Ausführungsformen in Zusammenhang mit den beiliegenden Zeichnungen deutlicher; es zeigen:
  • 1 ein Blockdiagramm der Gesamtkonfiguration eines Bildprozessors gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 2 ein Blockdiagramm der Gesamtkonfiguration eines Bildprozessors gemäß einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 3 ein Blockdiagramm der Gesamtkonfiguration eines Bildprozessors gemäß einer dritten Ausführungsform der vorliegenden Erfindung;
  • 4 ein Blockdiagramm der Gesamtkonfiguration eines Bildprozessors gemäß einer vierten Ausführungsform der vorliegenden Erfindung;
  • 5 ein Flussdiagramm, das eine vorläufige Vorbereitung zur Bildverarbeitung im Bildprozessor von 1 zeigt; und
  • 6 eine Darstellung der Gesamtkonfiguration eines Robotersystems gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Die Ausführungsformen der vorliegenden Erfindung werden nachstehend ausführlich unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben. In sämtlichen Zeichnungen sind gleiche Komponenten mit identischen Bezugszeichen gekennzeichnet.
  • Anhand von 6 wird die Gesamtkonfiguration eines Robotersystems 10 gemäß einer Ausführungsform der vorliegenden Erfindung beschrieben. Das Robotersystem 10 enthält einen Roboter 12, der z. B. zum Greifen eines Werkstücks W eingesetzt wird; eine Robotersteuerung 14, die die Operationen des Roboters 12 steuert; einen Bildprozessor 16, der mit der Robotersteuerung 14 verbunden ist, und eine Kamera 18, die mit dem Bildprozessor 16 verbunden ist.
  • Bei der in 6 dargestellten Ausführungsform wird das Werkstück W durch ein Transportmittel wie eine Fördereinrichtung 20 bewegt. Der Bildprozessor 16 führt die Bildverarbeitung eines Bildes des Werkstücks W aus, das von der Kamera 18 in einem gewünschten Zeitpunkt aufgenommen wurde, erkennt dadurch die Position des Werkstücks W in dem Zeitpunkt, in dem das Werkstück W aufgenommen wird, und sendet die erkannte Position des Werkstücks W an die Robotersteuerung 14. Die Robotersteuerung 14 schätzt auf Basis der gesendeten Position des Werkstücks W und der Geschwindigkeit der Fördereinrichtung 20 einen Zeitpunkt ab, zu dem das Werkstück W eine vorgegebene Zielposition erreicht, und veranlasst dadurch den Roboter 12, das Werkstück bei Erreichen der Zielposition zu greifen und zur nächsten Stufe zu tragen.
  • Obwohl bei der dargestellten Ausführungsform der Bildprozessor 16 getrennt von der Robotersteuerung 14 vorgesehen ist, kann der Bildprozessor 16 auch als Teil der Robotersteuerung 14 konfiguriert sein.
  • Nunmehr sollen anhand der 1 bis 5 mehrere Ausführungsformen eines Bildprozessors beschrieben werden, der als der in 6 dargestellte Bildprozessor 16 verwendet werden kann.
  • Unter Bezugnahme auf 1 wird ein Bildprozessor 30 gemäß einer ersten Ausführungsform beschrieben.
  • Der Bildprozessor 30 weist eine Synchronisierungssignal-Trennschaltung (d. h. einen Synchronisierungssignal-Trennabschnitt) 32, eine A/D-Wandlerschaltung 34, eine Klemmschaltung 36, eine horizontale Synchronisierungsfrequenz-Detektionsschaltung (d. h. einen Synchronisierungsfrequenz-Detektionsabschnitt) 38, eine Bildaufnahmeschaltung 40, einen Verarbeitungsabschnitt 42, eine Synchronisierungssignal-Generatorschaltung (d. h. einen externen Synchronisierungssignal-Generatorabschnitt) 44 und einen einzelnen Anschluss 46 auf. Eine Kamera 48 zum Abbilden des Werkstücks W und dgl. ist mit dem Bildprozessor 30 über den Anschluss 46 verbunden.
  • Die Kamera 48 ist ein Flächenbildsensor wie eine CCD-Kamera, die zweidimensionale Bilddaten erfassen kann. Die Kamera 48 tastet ein auf einem Abbildungsgerät gebildetes Bild horizontal von oben links des Bildes ab, in dem Pixel in einer Matrix angeordnet sind, und gibt nacheinander elektrische Signale der Pixel einer einzelnen Abtastzeile aus. Wenn die Kamera 48 die Zeile bis zum rechten Ende des Bildes abgetastet hat, geht sie zum Anfang der folgenden Zeile zurück, um diese abzutasten und elektrische Signale davon auszugeben. Die Kamera 48 führt die oben beschriebene Operation wiederholt aus und tastet dadurch ein einzelnes Bild vollständig ab und gibt ein Videosignal des einzelnen Bildes aus. Die Kamera 48 hat eine interne Synchronisierungsfunktion (d. h. eine erste Funktion), wobei sie ein erstes zusammengesetztes Videosignal, das die erhaltenen Bilddaten sowie ein vertikales Synchronisierungssignal (d. h. eines internen vertikalen Synchronisierungssignal) und ein horizontales Synchronisierungssignal (d. h. ein internes horizontales Synchronisierungssignal) enthält, ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen spezifischen Frequenz erzeugt werden, und eine externe Synchronisierungsfunktion (d. h. eine zweite Funktion), wobei sie ein zweites zusammengesetztes Videosignal mit den erhaltenen Bilddaten auf Basis eines vertikalen Synchronisierungssignals (d. h. eines externen vertikalen Synchronisierungssignals) und eines horizontalen Synchronisierungssignals (d. h. eines externen horizontalen Synchronisierungssignals) ausgibt, die als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird. Wenn das externe Synchronisierungssignal nicht bereitgestellt wird, gibt die Kamera 48 das Videosignal synchronisiert mit dem internen Synchronisierungssignal aus, das mit der für den Typ der Kamera 48 spezifischen Frequenz erzeugt wird. Wenn andererseits das externe Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals bereitgestellt wird, gibt die Kamera 48 das mit dem externen Synchronisierungssignal synchronisierte Videosignal aus. In diesem Zusammenhang sei erwähnt, dass die im Videosignal enthaltenen Bilddaten ein Luminanzsignal bzw. Leuchtdichtesignal als analoge Bilddaten sind.
  • Entweder im internen oder im externen Synchronisierungssignal gibt das vertikale Synchronisierungssignal die Anfangsposition jedes Einzelbildes (oder Feldes) an, und das horizontale Synchronisierungssignal gibt die Anfangsposition jeder Zeile an. Bei der dargestellten Ausführungsform, wie oben beschrieben, gibt die Kamera 48 das zusammengesetzte Videosignal (für monochrome oder Farbbilder) aus, in dem die analogen Bilddaten (d. h. ein Luminanzsignal bzw. Leuchtdichtesignal) mit dem vertikalen und horizontalen Synchronisierungssignal kombiniert sind. Die Kamera 48 kann jedoch ein Y/C-Signal einschließlich des Luminanzsignals bzw. Leuchtdichtesignals (R-Signal) und ein Farbsignal (C-Signal) kombiniert mit einem Farbsynchronisierungssignal, oder ein RGB-Signal ausgeben, das ein Rot-Signal (R-Signal), ein Grün-Signal (G-Signal) kombiniert mit einem Synchronisierungssignal und einem Blau-Signal (B-Signal) ausgeben.
  • Die Synchronisierungssignal-Trennschaltung 32 hat eine bekannte Konfiguration, die das vertikale und das horizontale Synchronisierungssignal vom ersten und zweiten Videosignal, die von der Kamera 48 eingegeben werden, trennt, die analogen Bilddaten in die A/D-Wandlerschaltung 34 und das getrennte horizontale Synchronisierungssignal in die Klemmschaltung 36 und die horizontale Synchronisierungsfrequenz-Detektionsschaltung 38 eingibt. Falls gewünscht, gibt die Synchronisierungssignal-Trennschaltung 32 das getrennte vertikale Synchronisierungssignal ferner in eine vertikale Synchronisierungsfrequenz-Detektionsschaltung 58 ein, wie später beschrieben wird.
  • Die A/D-Wandlerschaltung 34 wandelt die von der Synchronisierungssignal-Trennschaltung 32 eingegebenen analogen Bilddaten in digitale Bilddaten um. Die Klemmschaltung 36 hält den Schwarzpegel der Bilddaten auf dem Schwarzpegel der A/D-Wandlerschaltung 34, indem sie das horizontale Synchronisierungssignal, das von der Synchronisierungssignal-Trennschaltung 32 eingegeben wird, dazu verwendet, die Schwankung des DC-Pegels der analogen Bilddaten, die von der Synchronisierungssignal-Trennschaltung 32 in die A/D-Wandlerschaltung 34 eingegeben werden, zu begrenzen und den DC-Pegel konstant zu machen. Durch Verwenden der Klemmschaltung 36 kann die A/D-Wandlerschaltung 34 die A/D-Wandlung der Bilddaten genau ausführen.
  • Die horizontale Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst die Frequenz des von der Synchronisierungssignal-Trennschaltung 32 eingegebenen horizontalen Synchronisierungssignals und sendet sie an den Verarbeitungsabschnitt 42. Die Bildaufnahmeschaltung 40 importiert die in der A/D-Wandlerschaltung 34 von analog nach digital gewandelten Bilddaten in den Verarbeitungsabschnitt 42.
  • Der Verarbeitungsabschnitt 42 weist eine CPU (Zentraleinheit) 50, einen ROM (read only memory; Festspeicher) 52 und einen RAM (random access memory; Speicher mit wahlfreiem Zugriff) 54 auf. Die CPU 50 hat ein Register 56, in dem die Frequenz des von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 empfangenen horizontalen Synchronisierungssignals gespeichert wird. Im ROM 52 sind im Voraus Informationen über eine Korrespondenzbeziehung zwischen einem Typ der Kamera 48, eine Frequenz des horizontalen Synchronisierungssignals, die für die Kamera 48 spezifisch ist und die Pixelzahl der Kamera 48 gespeichert, die mehrere Typen der Kamera 48 betreffen, die mit dem Bildprozessor 30 verbunden werden können. Im RAM 54 sind dagegen verschiedene Programme wie ein Bildverarbeitungsprogramm oder ein Kameraidentifizierungsprogramm gespeichert, und ein Datenbereich zur Bildverarbeitung ist in Abhängigkeit von der Pixelzahl der Kamera 48 zugewiesen.
  • Nach Maßgabe der verschiedenen im RAM 54 gespeicherten Programme führt die CPU 50 eine Bildverarbeitung auf Basis der digitalen Bilddaten aus. Nach Maßgabe des im RAM 54 gespeicherten Kameraidentifizierungsprogramms greift die CPU 50auf die zuvor im ROM 52 gespeicherte Korrespondenzbeziehung zurück, um den Typ der Kamera 48 und die Pixelzahl der Kamera 48 auf Basis der Frequenz des horizontalen Synchronisierungssignals als das interne Synchronisierungssignal der Kamera 48 zu identifizieren, die von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst wird, und weist automatisch dem RAM 54 einen Datenbereich zur Bildverarbeitung in Abhängigkeit von der identifizierten Pixelzahl der Kamera 48 zu.
  • Die Synchronisierungssignal-Generatorschaltung 44 gehört zu einer Gruppe Synchronisierungssignal-Generatorschaltungen, die eine Mehrzahl Synchronisierungssignal-Generatorschaltungen 44 umfasst. Die Synchronisierungssignal-Generatorschaltungen 44 in der Synchronisierungssignal-Generatorschaltungsgruppe sind jeweils den mehreren Typen der Kameras 48 zugehörig, die an den Anschluss 46 angeschlossen werden können, und jede Synchronisierungssignal-Generatorschaltung 44 ist im Voraus dazu konfiguriert worden, dass sie das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal mit den Frequenzen erzeugt, die für den zugehörigen Typ der Kamera 48 geeignet sind. Die CPU 50 wählt die Synchronisierungssignal-Generatorschaltung 44, die zu dem Typ der Kamera 48 gehört, der auf Basis der Frequenz des horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) der Kamera 48 von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst worden ist, aus der Synchronisierungssignal-Generatorschaltungsgruppe und gestattet der gewählten Synchronisierungssignal-Generatorschaltung 44, das vertikale und horizontale Synchronisierungssignal zum gewünschten Zeitpunkt als das externe Synchronisierungssignal zu erzeugen und an die Kamera 48 zu liefern.
  • Der Bildprozessor 30 kann, falls gewünscht, die vertikale Synchronisierungsfrequenz-Detektionsschaltung 58 aufweisen. Die vertikale Synchronisierungsfrequenz-Detektionsschaltung 58 erfasst die Frequenz des vertikalen Synchronisierungssignals, das von der Synchronisierungssignal-Trennschaltung 32 vom Videosignal getrennt wurde. Die vertikale Synchronisierungsfrequenz-Detektionsschaltung 58 ist in dem Fall wirksam, in dem die Frequenzen der horizontalen Synchronisierungssignale, die jeweils für die mehreren Typen der Kameras 48 spezifisch sind, einander gleich sind, aber die Frequenzen der vertikalen Synchronisierungssignale, die jeweils für die Kameras 48 spezifisch sind, verschieden voneinander sind. In diesem Fall speichert der ROM 52 im Verarbeitungsabschnitt 42 außerdem die Frequenz des vertikalen Synchronisierungssignals, die für die Kamera 48 spezifisch ist, entsprechend jedem Typ der Kamera 48.
  • In dem Fall, in dem der Typ der Kamera 48 auf Basis der Frequenz des horizontalen Synchronisierungssignals als internes Synchronisierungssignal der Kamera 48, die von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst worden ist, eindeutig identifiziert werden kann und nur eine Synchronisierungssignal-Generatorschaltung 44 jedoch entsprechend dem identifizierten Typ der Kamera 48 gewählt werden kann, erzeugt die gewählte Synchronisierungssignal-Generatorschaltung 44 das vertikale und horizontale Synchronisierungssignal mit den Frequenzen entsprechend dem Typ der Kamera 48. Es ist deshalb nicht erforderlich, die Frequenz des vertikalen Synchronisierungssignals als das interne Synchronisierungssignal der Kamera 48 zu erfassen. Ferner ist es in dem Fall, in dem der Bildprozessor 30 im Robotersystem 10 verwendet wird (6), erforderlich, dass der Bildprozessor 30 zumindest die Position des Werkstücks W auf Basis des Bildes (d. h. eines Standbildes) erkennt, das von der Kamera 48 zu einem gewünschten Zeitpunkt aufgenommen wird. Wenn das die Anfangsposition der Bilddaten des einzelnen Bildes angebende vertikale Synchronisierungssignal und das folgende horizontale Synchronisierungssignal mit einer vorgegebenen Frequenz als das externe Synchronisierungssignal zum gewünschten Zeitpunkt an die Kamera 48 geliefert werden, kann der Bildprozessor 30 deshalb die von der Kamera 48 zu diesem Zeitpunkt ausgegebenen Bilddaten als die Bilddaten des gesamten einzelnen Bildes erkennen. Vorausgesetzt, die CPU 50 ist so konfiguriert, dass sie der Synchronisierungssignal-Generatorschaltung 44 die Ausgabe des führenden vertikalen Synchronisierungssignals und des folgenden horizontalen Synchronisierungssignals mit der vorgegebenen Frequenz zum gewünschten Zeitpunkt gestattet, ist folglich die Frequenz des vertikalen Synchronisierungssignals nicht erforderlich. Der Bildprozessor 30 braucht demnach keine vertikale Synchronisierungsfrequenz-Detektionsschaltung 58 aufzuweisen.
  • In diesem Zusammenhang wird die Konfiguration, bei der der Typ der mit dem Bildprozessor 30 verbundenen Kamera 48 hauptsächlich auf Basis der Frequenz des horizontalen Synchronisierungssignals als das interne Synchronisierungssignal identifiziert wird, verwendet, weil das vertikale Synchronisierungssignal häufig eine Frequenz hat, die den mehreren Typen der Kamera 48 gemeinsam ist, aber das horizontale Synchronisierungssignal oft eine Frequenz hat, die jedem der mehreren Typen der Kamera 48 auf verschiedene Weise entspricht.
  • Im Folgenden wird auf 5 Bezug genommen, anhand der die Vorgehensweise einer vorläufigen Vorbereitung zur Bildverarbeitung durch den Bildprozessor 30 von 1 beschrieben wird.
  • Zu dem Zeitpunkt, in dem der Bildprozessor 30 aktiviert wird, stellt er das externe Synchronisierungssignal noch nicht für die Kamera 48 bereit, so dass die Kamera 48 aufgrund der internen Synchronisierungsfunktion das mit dem internen Synchronisierungssignal synchronisierte Videosignal ausgibt. Deshalb wird zuerst das mit dem internen Synchronisierungssignal synchronisierte Videosignal von der Kamera 48 in den Bildprozessor 30 eingegeben (Schritt S100). Das von der Kamera 48 ausgegebene Videosignal wird in die Synchronisierungssignal-Trennschaltung 32 eingegeben und in die Bilddaten, das horizontale Synchronisierungssignal (d. h. das interne Synchronisierungssignal) und das vertikale Synchronisierungssignal (d. h. das interne Synchronisierungssignal) getrennt (Schritt S102). Das vom Videosignal von der Synchronisierungssignal-Trennschaltung 32 getrennte horizontale Synchronisierungssignal wird in die horizontale Synchronisierungsfrequenz-Detektionsschaltung 38 eingegeben und die Frequenz des horizontalen Synchronisierungssignals wird erfasst. Die erfasste Frequenz des horizontalen Synchronisierungssignals wird im Register 56 der CPU 50 im Verarbeitungsabschnitt 42 gespeichert (Schritt S104).
  • Nach Maßgabe des im RAM 54 gespeicherten Kameraidentifizierungsprogramms liest die CPU 50 im Verarbeitungsabschnitt 42 die Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48, die im Register 56 gespeichert ist. Die CPU 50 greift dann auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals auf die Informationen über die Korrespondenzbeziehung zwischen dem Typ, der Frequenz des horizontalen Synchronisierungssignals und der Pixelzahi der mit dem Anschluss 46 des Bildprozessors 30 verbundenen Kamera 48 zurück, die zuvor im ROM 52 gespeichert wurden (Schritt S106). Dabei können im ROM 52 im Voraus die Informationen über die Korrespondenzbeziehung zwischen dem Typ, der Frequenz des vertikalen und des horizontalen Synchronisierungssignals und der Pixelzahi der Kamera 48 gespeichert werden, so dass der Typ und die Pixelzahi der mit dem Anschluss 46 des Bildprozessors 30 verbundenen Kamera 48 auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals, die von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 und der Frequenz des (internen) vertikalen Synchronisierungssignals, die von der vertikalen Synchronisierungsfrequenz-Detektionsschaltung 58 erfasst wird, identifiziert werden können.
  • Sobald der Typ der Kamera 48 identifiziert worden ist, wählt die CPU 50 aus der Synchronisierungssignal-Generatorschaltungsgruppe die Synchronisierungssignal-Generatorschaltung 44, die dem in Schritt S106 identifizierten Typ der Kamera 48 entspricht, und gestattet der gewählten Synchronisierungssignal-Generatorschaltung 44, das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal mit den für die angeschlossene Kamera 48 geeigneten Frequenzen zu einem gewünschten Zeitpunkt zu erzeugen und die Signale an die Kamera 48 zu liefern (Schritt S108). Ferner weist die CPU 50 dem RAM 54 automatisch den Datenbereich für die Bildverarbeitung in Abhängigkeit von der in Schritt S106 identifizierten Pixelzahl der Kamera 48 zu (Schritt S110).
  • Wie oben beschrieben kann der in 1 dargestellte Bildprozessor 30 als vorläufige Vorbereitung für die Bildverarbeitung die Bestimmung des Typs der mit dem Bildprozessor 30 verbundenen Kamera 48, die Einstellung der Frequenzen des vertikalen und horizontalen Synchronisierungssignals als das externe Synchronisierungssignal, die für die angeschlossene Kamera 48 geeignet sind, und die Zuweisung des Datenbereichs zur Bildverarbeitung in Abhängigkeit von der Pixelzahl der angeschlossenen Kamera 48 automatisch ausführen. Folglich braucht der Bediener des Bildprozessors 30 die vorläufige Vorbereitung entsprechend der mit dem Bildprozessor 30 verbundenen Kamera 48 nicht mehr auszuführen, wodurch beim Einstellen und Zuweisen auftretende Fehler vermieden werden können.
  • Nach Abschluss der oben beschriebenen vorläufigen Vorbereitung erzeugt der Bildprozessor 30 das vertikale und horizontale Synchronisierungssignal durch die gewählte Synchronisierungssignal-Generatorschaltung 44 und liefert das erzeugte vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal immer dann an die Kamera 48, wenn die Bildverarbeitung gewünscht wird (d. h. im gewünschten Zeitpunkt). Die Frequenzen des vertikalen und horizontalen Synchronisierungssignals als das externe Synchronisierungssignal sind für die angeschlossene Kamera 48 geeignet. Insbesondere ist die Frequenz des (externen) horizontalen Synchronisierungssignals gleich der Frequenz des (internen) horizontalen Synchronisierungssignals, die von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst wird. Die Kamera 48 gibt dann die Daten des von der Kamera 48 aufgenommenen Bildes als das mit dem externen Synchronisierungssignal synchronisierte Videosignal aus, das vom Bildprozessor 30 aufgrund der externen Synchronisierungsfunktion bereitgestellt wird. Das von der Kamera 48 ausgegebene Videosignal wird in die Synchronisierungssignal-Trennschaltung 32 im Bildprozessor 30 eingegeben und in die analogen Bilddaten, das (externe) horizontale Synchronisierungssignal und das (externe) vertikale Synchronisierungssignal getrennt. Die getrennten analogen Bilddaten werden von der A/D-Wandlerschaltung 34 in digitale Bilddaten gewandelt. Wenn die A/D-Wandlung ausgeführt wird, hält die Klemmschaltung 36 den Schwarzpegel der Bilddaten konstant, indem sie das (externe) horizontale Synchronisierungssignal, das von der Synchronisierungssignal-Trennschaltung 32getrennt worden ist, verwendet, um die A/D-Wandlung genau auszuführen.
  • Die von der A/D-Wandlerschaltung 34 ausgegebenen digitalen Bilddaten werden über die Bildaufnahmeschaltung 40 in den im RAM 54 vorbereiteten Datenbereich für die Bildverarbeitung importiert. Nach Maßgabe des im RAM 54 gespeicherten Bildverarbeitungsprogramms führt die CPU 50 die Bildverarbeitung mit den importierten digitalen Bilddaten aus und erkennt die Position des Werkstücks W. Die Robotersteuerung 14 (6) schätzt eine Zeit, zu der das Werkstück W die vorgegebene Zielposition erreicht, auf Basis der vom Bildprozessor 30 erkannten Position des Werkstücks W (6) und veranlasst den Roboter 12 (6) das die Zielposition erreichende Werkstück W zu greifen.
  • Bei der ersten Ausführungsform wird der Typ der Kamera 48 auf Basis der Frequenz des internen Synchronisierungssignals (insbesondere des horizontalen Synchronisierungssignals) der Kamera 48 identifiziert, um das externe Synchronisierungssignal mit der Frequenz zu erzeugen, die für die Kamera 48 geeignet ist, und die Pixelzahl der Kamera 48 kann ebenfalls auf Basis der Frequenz des internen Synchronisierungssignals identifiziert werden. In dem Fall, in dem Kameras 48 mit identischer Pixelzahl verwendet werden, ist es jedoch nicht erforderlich, die Pixelzahl der Kameras 48 zu identifizieren. In diesem Fall braucht die Pixelzahl entsprechend dem Typ der Kamera 48 nicht im Voraus im ROM 52 des Verarbeitungsabschnitts 42 gespeichert zu werden.
  • Unter Bezugnahme auf 2 wird ein Bildprozessor 60 gemäß einer zweiten Ausführungsform beschrieben.
  • Der Bildprozessor 60 gemäß der zweiten Ausführungsform unterscheidet sich vom Bildprozessor 30 gemäß der ersten Ausführungsform darin, dass der Bildprozessor 60 nur eine Synchronisierungssignal-Generatorschaltung 62 anstelle einer Mehrzahl Synchronisierungssignal-Generatorschaltungen 44 im Bildprozessor 30 enthält. Die Synchronisierungssignal-Generatorschaltung (d. h. ein externer Synchronisierungssignal-Generatorabschnitt) 62 im Bildprozessor 60 kann ein vertikales und ein horizontales Synchronisierungssignal mit gewünschten Frequenzen durch einen Befehl von einer CPU 50 erzeugen. In einem ROM 52 im Verarbeitungsabschnitt 42 sind im Voraus Informationen über eine Korrespondenzbeziehung zwischen dem Typ einer Kamera 48, den für die Kamera 48 spezifischen Frequenzen des vertikalen und horizontalen Synchronisierungssignals und die Pixelzahl der Kamera 48 gespeichert worden.
  • Ähnlich wie der Bildprozessor 30 der ersten Ausführungsform weist der Bildprozessor 60 eine Synchronisierungssignal-Trennschaltung 32, eine A/D-Wandlerschaltung 34, eine Klemmschaltung 36, eine horizontale Synchronisierungsfrequenz-Detektionsschaltung 38, eine Bildaufnahmeschaltung 40, einen Verarbeitungsabschnitt 42 und einen einzelnen Anschluss 46 auf. Die Kamera 48 ist über den Anschluss 46 mit dem Bildprozessor 60 verbunden. Die obige Konfiguration ist die gleiche wie die des Bildprozessors 30, so dass auf eine wiederholte Beschreibung verzichtet wird.
  • Bei der Vorgehensweise einer vorläufigen Vorbereitung zur Bildverarbeitung durch den Bildprozessor 60 wird ähnlich wie bei der im Bildprozessor 30 der ersten Ausführungsform ein Videosignal (synchronisiert mit einem internen Synchronisierungssignal), das von der Kamera 48 aufgrund einer internen Synchronisierungsfunktion ausgegeben wird, von der Synchronisierungssignal-Trennschaltung 32 in Bilddaten, das horizontale und das vertikale Synchronisierungssignal getrennt, wobei die Frequenz des getrennten horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst und die erfasste Frequenz des horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) in einem Register 56 der CPU 50 im Verarbeitungsabschnitt 42 gespeichert wird.
  • Die CPU 50 im Verarbeitungsabschnitt 42 liest die Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48, die im Register 56 gespeichert ist. Die CPU 50 greift dann auf die Informationen über die Korrespondenzbeziehung zwischen dem Typ, den Frequenzen des horizontalen und vertikalen Synchronisierungssignals und der Pixelzahl der Kamera 48 zurück, die zuvor im ROM 52 gespeichert wurden, und identifiziert den Typ der mit dem Bildprozessor 60 verbundenen Kamera 48, die Frequenz des vertikalen Synchronisierungssignals, die für die Kamera 48 geeignet ist, und die Pixelzahl der Kamera 48 auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48.
  • Danach gibt die CPU 50 einen Befehl an die Synchronisierungssignal-Generatorschaltung 62 aus, um in der Synchronisierungssignal-Generatorschaltung 62 die Frequenzen des vertikalen und horizontalen Synchronisierungssignals automatisch einzustellen, die sich für den identifizierten Typ der Kamera 48 eignen, und gestattet der Synchronisierungssignal-Generatorschaltung 62, das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal mit den automatisch eingestellten Frequenzen zu einem gewünschten Zeitpunkt zu erzeugen und die Signale an die Kamera 48 zu liefern. Ferner weist die CPU 50 einem RAM 54 automatisch einen Datenbereich für die Bildverarbeitung in Abhängigkeit von der identifizierten Pixelzahl der Kamera 48 zu. Die restlichen Operationen entsprechen denen des Bildprozessors 30 gemäß der ersten Ausführungsform, so dass die Beschreibung nicht wiederholt wird.
  • Bei der zweiten Ausführungsform ist es erforderlich, zumindest die Frequenz des vertikalen Synchronisierungssignals der Kamera 48 auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 zu identifizieren, so dass nicht immer der Typ der Kamera 48 identifiziert zu werden braucht. Ferner haben die Erfinder der vorliegenden Erfindung festgestellt, dass es eine gewisse Korrespondenzbeziehung zwischen der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 und der Pixelzahl der Kamera 48 gibt. Vorausgesetzt, die Korrespondenzbeziehung zwischen der Frequenz des vertikalen Synchronisierungssignals, der Frequenz des horizontalen Synchronisierungssignals und der Pixelzahl der Kamera 48 ist im Voraus im ROM 52 gespeichert worden, ist es demzufolge möglich, auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 die Frequenz des vertikalen Synchronisierungssignals und die dieser entsprechende Pixelzahl zu bestimmen, ohne den Typ der Kamera 48 zu identifizieren.
  • Ferner ist es in dem Fall, in dem der Bildprozessor 60 im Robotersystem 10 verwendet wird (6), erforderlich, dass der Bildprozessor 60 zumindest die Position des Werkstücks W auf Basis des von der Kamera 48 zu einem gewünschten Zeitpunkt aufgenommen Bildes erkennen kann. Wenn das die Anfangsposition der Bilddaten des einzelnen Bildes angebende vertikale Synchronisierungssignal und das folgende horizontale Synchronisierungssignal mit einer vorgegebenen Frequenz als das externe Synchronisierungssignal zum gewünschten Zeitpunkt an die Kamera 48 geliefert werden, kann der Bildprozessor 60 deshalb die von der Kamera 48 zu diesem Zeitpunkt ausgegebenen Bilddaten als die Bilddaten des gesamten einzelnen Bildes erkennen. Vorausgesetzt, die CPU 50 ist so konfiguriert, dass sie der Synchronisierungssignal-Generatorschaltung 62 die Ausgabe des führenden vertikalen Synchronisierungssignals und des folgenden horizontalen Synchronisierungssignals mit der vorgegebenen Frequenz zum gewünschten Zeitpunkt gestattet, ist folglich die Frequenz des vertikalen Synchronisierungssignals nicht erforderlich. Der Bildprozessor 60 kann demnach eine Konfiguration haben, bei der die Korrespondenzbeziehung nur zwischen der Frequenz des horizontalen Synchronisierungssignals und der Pixelzahl im Voraus im ROM 52 gespeichert wird, und nur die Pixelzahl auf Basis der entsprechenden Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 bestimmt wird. In diesem Fall ist es erforderlich, dass die CPU 50 die Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48, die von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst worden ist, zumindest in der Synchronisierungssignal-Generatorschaltung 62 einstellt und dem RAM 54 den Datenbereich für die Bildverarbeitung in Abhängigkeit von der bestimmten Pixelzahl zuweist.
  • Bei der zweiten Ausführungsform kann nicht nur das externe Synchronisierungssignal mit der für die Kamera 48 geeigneten Frequenz erzeugt, sondern auch die Pixelzahl der Kamera 48 auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 identifiziert werden. In dem Fall, in dem nur Kameras 48 mit identischer Pixelzahl verwendet werden, ist es jedoch nicht erforderlich, die Pixelzahl der Kamera 48 zu identifizieren. Wie oben beschrieben ist ferner die Frequenz des vertikalen Synchronisierungssignals nicht immer erforderlich. Folglich brauchen keine Informationen über die oben erwähnte Korrespondenzbeziehung im ROM 52 des Verarbeitungsabschnitts 42 gespeichert zu werden.
  • Unter Bezugnahme auf 3 wird ein Bildprozessor 70 gemäß einer dritten Ausführungsform beschrieben.
  • Ähnlich wie der Bildprozessor 30 der ersten Ausführungsform weist der Bildprozessor 70 gemäß der dritten Ausführungsform eine Synchronisierungssignal-Trennschaltung 32, eine A/D-Wandlerschaltung 34, eine Klemmschaltung 36, eine horizontale Synchronisierungsfrequenz-Detektionsschaltung 38, eine Bildaufnahmeschaltung 40 und einen Verarbeitungsabschnitt 42 auf. Der Bildprozessor 70 unterscheidet sich vom Bildprozessor 30 gemäß der ersten Ausführungsform darin, dass der Bildprozessor 70 außerdem eine Mehrzahl Anschlüsse 46, einen Multiplexer 72 und Synchronisierungssignal-Generatorschaltungen (d. h. externe Synchronisierungssignal-Generatorabschnitte) 74 entsprechend der Anzahl Anschlüsse 46 aufweist, so dass eine Mehrzahl Kameras 48 gleichzeitig über die Mehrzahl Anschlüsse 46 an den Bildprozessor 70 angeschlossen werden kann.
  • Der Multiplexer 72 ist zwischen den Anschlüssen 46 und der Synchronisierungssignal-Trennschaltung 32 angeordnet, und die Kameras 48 sind über die Anschlüsse 46 mit dem Multiplexer 72 verbunden. Der Multiplexer 72 wählt einen beliebigen Anschluss 46 aus der Mehrzahl Anschlüsse 46 nach Maßgabe z. B. eines Auswahlbefehls von einer CPU 50 im Verarbeitungsabschnitt 42 und sendet ein Videosignal nur von der mit dem gewählten Anschluss 46 verbundenen Kamera 48 an die Synchronisierungssignal-Trennschaltung 32. Die Synchronisierungssignal-Generatorschaltung 74 entsprechend jedem Anschluss 46 gehört zu jeder Synchronisierungssignal-Generatorschaltungsgruppe, die jeweils eine Mehrzahl Synchronisierungssignal-Generatorschaltungen 74 enthält. Die Synchronisierungssignal-Generatorschaltungen 74 in jeder Synchronisierungssignal-Generatorschaltungsgruppe sind jeweils den verschiedenen Typen der Kameras 48 zugeordnet, die mit jedem Anschluss 46 verbunden werden können, und jede Synchronisierungssignal-Generatorschaltung 74 ist im Voraus dazu konfiguriert worden, dass sie ein vertikales und horizontales Synchronisierungssignal als ein externes Synchronisierungssignal mit Frequenzen erzeugt, die für den zugehörigen Typ der Kamera 48 geeignet sind.
  • Die Synchronisierungssignal-Trennschaltung 32, die A/D-Wandlerschaltung 34, die Klemmschaltung 36, die horizontale Synchronisierungsfrequenz-Detektionsschaltung 38, die Bildaufnahmeschaltung 40 und der Verarbeitungsabschnitt 42 im Bildprozessor 70 sind identisch mit den Schaltungen des Bildprozessors 30 der ersten Ausführungsform, so dass auf eine wiederholte Beschreibung verzichtet wird.
  • Bei der Vorgehensweise für eine vorläufige Vorbereitung der Bildverarbeitung im Bildprozessor 70 werden Videosignale (mit den jeweiligen internen Synchronisierungssignalen synchronisiert), die von der Mehrzahl Kameras 48, die mit dem Bildprozessor 70 verbunden sind, aufgrund der jeweiligen internen Synchronisierungsfunktionen ausgegeben werden, über die jeweiligen Anschlüsse 46 in den Multiplexer 72 eingegeben. Dann wird nur das Videosignal von der Kamera 48, die mit einem vom Multiplexer 72 gewählten Anschluss 46 verbunden ist, in die Synchronisierungssignal-Trennschaltung 32 eingegeben. Ähnlich wie beim Bildprozessor 30 der ersten Ausführungsform wird dann das in die Synchronisierungssignal-Trennschaltung 32 eingegebene Videosignal in Bilddaten, das horizontale und das vertikale Synchronisierungssignal getrennt, wobei die Frequenz des getrennten horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst und die erfasste Frequenz des horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) in einem Register 56 der CPU 50 im Verarbeitungsabschnitt 42 gespeichert wird.
  • Die CPU 50 im Verarbeitungsabschnitt 42 liest die Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48, die im Register 56 gespeichert ist. Die CPU 50 greift dann auf die Informationen über die Korrespondenzbeziehung zwischen dem Typ, den Frequenzen des horizontalen und vertikalen Synchronisierungssignals und der Pixelzahl der Kamera 48 zurück, die zuvor in einem ROM 52 gespeichert wurden, und identifiziert den Typ der mit dem Bildprozessor 70 über den Anschluss 46, der vom Multiplexer gewählt worden ist, verbundenen Kamera 48, die Frequenz des vertikalen Synchronisierungssignals, die für die Kamera 48 geeignet ist, und die Pixelzahl dieser Kamera 48 auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48.
  • Danach wählt die CPU 50 aus der Synchronisierungssignal-Generatorschaltungsgruppe entsprechend dem vom Multiplexer 72 gewählten Anschluss 46 die Synchronisierungssignal-Generatorschaltung 74, die dem identifizierten Typ der Kamera 48 entspricht, und gestattet der gewählten Synchronisierungssignal-Generatorschaltung 74, das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal zu einem gewünschten Zeitpunkt zu erzeugen und die Signale an die Kamera 48 zu liefern. Ferner weist die CPU 50 einem RAM 54 automatisch einen Datenbereich für die Bildverarbeitung in Abhängigkeit von der identifizierten Pixelzahl der Kamera 48 zu.
  • Danach wählt der Multiplexer 72 einen anderen Anschluss 46 (und damit eine andere Kamera 48) nach Maßgabe z. B. eines Auswahlbefehls von der CPU 50 im Verarbeitungsabschnitt 42. Die CPU 50 führt eine Prozedur ähnlich der oben genannten aus und identifiziert dadurch den Typ der Kamera 48, die an dem vom Multiplexer 72 gewählten Anschluss 46 angeschlossen ist, die Frequenz des vertikalen Synchronisierungssignals, die für die Kamera 48 geeignet ist, und die Pixelzahl dieser Kamera 48. Dann wählt die CPU 50 aus der Synchronisierungssignal-Generatorschaltungsgruppe entsprechend dem gewählten Anschluss 46 die Synchronisierungssignal-Generatorschaltung 74, die dem identifizierten Typ der Kamera 48 entspricht, und gestattet der gewählten Synchronisierungssignal-Generatorschaltung 74, das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal zu einem gewünschten Zeitpunkt zu erzeugen und die Signale an die Kamera 48 zu liefern. Ferner weist die CPU 50 dem RAM 54 automatisch den Datenbereich für die Bildverarbeitung in Abhängigkeit von der identifizierten Pixelzahl der Kamera 48 zu.
  • Der Multiplexer 72 wählt nacheinander alle Anschlüsse 46 nach Maßgabe z. B. von Auswahlbefehlen von der CPU 50 im Verarbeitungsabschnitt 42, und die CPU 50 führt die Operationen für die vorläufige Vorbereitung wie oben beschrieben wiederholt aus. Die restlichen Operationen entsprechen denen der ersten Ausführungsform, so dass die Beschreibung nicht wiederholt wird.
  • Auch bei der dritten Ausführungsform ist es in dem Fall, in dem Kameras 48 mit identischer Pixelzahl verwendet werden, nicht erforderlich, die Pixelzahl der Kamera zu identifizieren. In diesem Fall brauchen keine Informationen über die Pixelzahl entsprechend dem Typ der Kamera 48 im ROM 52 des Verarbeitungsabschnitts 42 im Voraus gespeichert zu werden.
  • Unter Bezugnahme auf 4 wird ein Bildprozessor 80 gemäß einer vierten Ausführungsform beschrieben.
  • Der Bildprozessor 80 gemäß der vierten Ausführungsform hat eine ähnliche Konfiguration wie der Bildprozessor 70 gemäß der dritten Ausführungsform, unterscheidet sich aber vom Bildprozessor 70 in dem Punkt, dass der Bildprozessor 80 nur eine Synchronisierungssignal-Generatorschaltung 82 hat, um jeder der Mehrzahl Anschlüsse 46 zu entsprechen, anstelle einer Mehrzahl Synchronisierungssignal-Generatorschaltungen 74, um jedem Anschluss der Mehrzahl Anschlüsse 46 im Bildprozessor 70 zu entsprechen. Jede Synchronisierungssignal-Generatorschaltung (d. h. ein externer Synchronisierungssignal-Generatorabschnitt) 82 im Bildprozessor 80 kann ein vertikales und ein horizontales Synchronisierungssignal mit gewünschten Frequenzen durch einen Befehl von einer CPU 50 erzeugen. In einem ROM 52 im Verarbeitungsabschnitt 42 sind im Voraus Informationen über eine Korrespondenzbeziehung zwischen dem Typ einer Kamera 48, den für die Kamera 48 spezifischen Frequenzen des vertikalen und horizontalen Synchronisierungssignals und die Pixelzahl der Kamera 48 gespeichert worden.
  • Ähnlich wie der Bildprozessor 70 gemäß der dritten Ausführungsform weist der Bildprozessor 80 eine Synchronisierungssignal-Trennschaltung 32, eine A/D-Wandlerschaltung 34, eine Klemmschaltung 36, eine horizontale Synchronisierungsfrequenz-Detektionsschaltung 38, eine Bildaufnahmeschaltung 40, einen Verarbeitungsabschnitt 42 und eine Mehrzahl Anschlüsse 46 auf, wobei eine Mehrzahl Kameras 48 an den Anschlüssen 46 angeschlossen ist. Die obige Konfiguration ist die gleiche wie die des Bildprozessors 70, so dass auf eine wiederholte Beschreibung verzichtet wird.
  • Bei der Vorgehensweise einer vorläufigen Vorbereitung zur Bildverarbeitung durch den Bildprozessor 80 werden ähnlich wie bei der im Bildprozessor 70 der dritten Ausführungsform Videosignale (synchronisiert mit den jeweiligen internen Synchronisierungssignalen), die von der Mehrzahl Kameras 48, die mit dem Bildprozessor 80 verbunden sind, aufgrund jeweiliger interner Synchronisierungsfunktionen ausgegeben, über die jeweiligen Anschlüsse 46 in den Multiplexer 72 eingegeben. Dann wird nur das Videosignal von der Kamera 48, die mit dem vom Multiplexer 72 gewählten Anschluss 46 verbunden ist, an die Synchronisierungssignal-Trennschaltung 32 gesendet. Ähnlich wie beim Bildprozessor 70 der dritten Ausführungsform wird das in die Synchronisierungssignal-Trennschaltung 32 eingegebene Videosignal in Bilddaten, das horizontale und das vertikale Synchronisierungssignal getrennt, wobei die Frequenz des getrennten horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst und die erfasste Frequenz des horizontalen Synchronisierungssignals (d. h. des internen Synchronisierungssignals) in einem Register 56 der CPU 50 im Verarbeitungsabschnitt 42 gespeichert wird.
  • Die CPU 50 im Verarbeitungsabschnitt 42 liest die Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48, die im Register 56 gespeichert ist. Die CPU 50 greift dann auf die Informationen über die Korrespondenzbeziehung zwischen dem Typ, den Frequenzen des horizontalen und vertikalen Synchronisierungssignals und der Pixelzahl der Kamera 48 zurück, die zuvor im ROM 52 gespeichert wurden, und identifiziert den Typ der mit dem vom Multiplexer 72 gewählten Anschluss 46 verbundenen Kamera 48, die Frequenz des vertikalen Synchronisierungssignals, die für die Kamera 48 geeignet ist, und die Pixelzahl dieser Kamera 48 auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48.
  • Danach gibt die CPU 50 einen Befehl an die Synchronisierungssignal-Generatorschaltung 82 entsprechend dem vom Multiplexer 72 gewählten Anschluss 46 aus, um in der Synchronisierungssignal-Generatorschaltung 82 die Frequenzen des vertikalen und horizontalen Synchronisierungssignals automatisch einzustellen, die sich für den identifizierten Typ der Kamera 48 eignen, und gestattet der Synchronisierungssignal-Generatorschaltung 82, das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal mit den automatisch eingestellten Frequenzen zu einem gewünschten Zeitpunkt zu erzeugen und die Signale an die Kamera 48 zu liefern. Ferner weist die CPU 50 einem RAM 54 automatisch einen Datenbereich für die Bildverarbeitung in Abhängigkeit von der identifizierten Pixelzahl der Kamera 48 zu.
  • Danach wählt der Multiplexer 72 einen anderen Anschluss nach Maßgabe z. B. eines Auswahlbefehls von der CPU 50 im Verarbeitungsabschnitt 42. Die CPU 50 führt eine Prozedur ähnlich der oben genannten aus und identifiziert dadurch den Typ der Kamera 48, die an dem vom Multiplexer 72 gewählten Anschluss 46 angeschlossen ist, die Frequenz des vertikalen Synchronisierungssignals, die für die Kamera 48 geeignet ist, und die Pixelzahl dieser Kamera 48. Dann stellt die CPU 50 in der Synchronisierungssignal-Generatorschaltung 82 entsprechend dem gewählten Anschluss 46 die Frequenzen des vertikalen und horizontalen Synchronisierungssignals automatisch ein, die für den identifizierten Typ der Kamera 48 geeignet sind, und gestattet der Synchronisierungssignal-Generatorschaltung 82, das vertikale und horizontale Synchronisierungssignal als das externe Synchronisierungssignal zu einem gewünschten Zeitpunkt zu erzeugen und die Signale an die Kamera 48 zu liefern. Ferner weist die CPU 50 dem RAM 54 automatisch einen Datenbereich für die Bildverarbeitung in Abhängigkeit von der identifizierten Pixelzahl der Kamera 48 zu.
  • Der Multiplexer 72 wählt nacheinander alle Anschlüsse 46 nach Maßgabe z. B. von Auswahlbefehlen von der CPU 50 im Verarbeitungsabschnitt 42, und die CPU 50 führt die Operationen für die vorläufige Vorbereitung wie oben beschrieben wiederholt aus. Die restlichen Operationen entsprechen denen des Bildprozessors 70 gemäß der dritten Ausführungsform, so dass die Beschreibung nicht wiederholt wird.
  • Auch bei der vierten Ausführungsform kann ähnlich wie bei der zweiten Ausführungsform im ROM 52 die Korrespondenzbeziehung zwischen der Frequenz des vertikalen Synchronisierungssignals, der Frequenz des horizontalen Synchronisierungssignals und der Pixelzahl der Kamera 48 im Voraus gespeichert werden, um auf Basis der Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 die Frequenz des vertikalen Synchronisierungssignals und die dieser entsprechende Pixelzahl zu bestimmen. Vorausgesetzt, die CPU 50 ist so konfiguriert, dass sie der Synchronisierungssignal-Generatorschaltung 82 die Ausgabe des führenden vertikalen Synchronisierungssignals und des folgenden horizontalen Synchronisierungssignals mit der vorgegebenen Frequenz zum gewünschten Zeitpunkt gestattet, ist ferner die Frequenz des vertikalen Synchronisierungssignals nicht erforderlich. Demnach kann im ROM 52 die Korrespondenzbeziehung nur zwischen der Frequenz des horizontalen Synchronisierungssignals und der Pixelzahl im Voraus gespeichert werden, und nur die Pixelzahl wird auf Basis der entsprechenden Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48 bestimmt. In diesem Fall ist es erforderlich, dass die CPU 50 die Frequenz des (internen) horizontalen Synchronisierungssignals der Kamera 48, die von der horizontalen Synchronisierungsfrequenz-Detektionsschaltung 38 erfasst worden ist, zumindest in jeder Synchronisierungssignal-Generatorschaltung 82 einstellt und dem RAM 54 den Datenbereich für die Bildverarbeitung in Abhängigkeit von der bestimmten Pixelzahl zuweist. Wie bei der zweiten Ausführungsform beschrieben ist es ferner in dem Fall, in dem nur Kameras 48 mit identischer Pixelzahl verwendet werden, nicht erforderlich, die Pixelzahl der Kameras 48 zu identifizieren, und die Frequenz des vertikalen Synchronisierungssignals ist nicht immer erforderlich. Folglich brauchen keine Informationen über die oben erwähnte Korrespondenzbeziehung im ROM 52 des Verarbeitungsabschnitts 42 gespeichert zu werden.
  • Nachstehend werden verschiedene Aspekte der vorliegenden Erfindung beschrieben.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Bildprozessor für ein Robotersystem bereitgestellt, wobei das Robotersystem eine Kamera mit einer ersten Funktion aufweist, die ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein internes vertikales Synchronisierungssignal und ein internes horizontales Synchronisierungssignal ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen Frequenz erzeugt werden, und mit einer zweiten Funktion, die ein zweites Videosignal mit den erhaltenen Bilddaten ausgibt, die auf Basis eines externen vertikalen Synchronisierungssignals und eines externen horizontalen Synchronisierungssignals erhalten werden, das als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird, wobei der Bildprozessor so konfiguriert ist, dass er das von der Kamera ausgegebene zweite Videosignal importiert und eine Bildverarbeitung ausführt, wobei der Bildprozessor aufweist:
    einen Synchronisierungssignal-Trennabschnitt, der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt; einen Synchronisierungsfrequenz-Detektionsabschnitt, der die Frequenz des internen horizontalen Synchronisierungssignals, das vom Synchronisierungssignal-Trennabschnitt getrennt wurde, erfasst; einen externen Synchronisierungssignal-Generatorabschnitt, der das externe vertikale und das externe horizontale Synchronisierungssignal erzeugt; und einen Verarbeitungsabschnitt, der dem externen Synchronisierungssignal-Generatorabschnitt gestattet, das externe vertikale Synchronisierungssignal zu einem gewünschten Zeitpunkt zu erzeugen, das externe horizontale Synchronisierungssignal mit derjenigen Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, zu erzeugen und das so erzeugte externe vertikale sowie das externe horizontale Synchronisierungssignal an die Kamera zu liefern.
  • Der oben beschriebene Bildprozessor trennt das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal und erzeugt automatisch das externe horizontale Synchronisierungssignal mit der Frequenz des getrennten internen horizontalen Synchronisierungssignals, so dass die Frequenz des externen horizontalen Synchronisierungssignals nicht vom Bediener eingestellt zu werden braucht. Dabei ist es in dem Fall, in dem der Bildprozessor im Robotersystem bereitgestellt ist, erforderlich, dass zumindest Bilddaten zu einem gewünschten Zeitpunkt (d. h. ein Standbild) anstelle kontinuierlicher Bilddaten (d. h. ein Bewegtbild) erhalten werden. Wenn ferner das vertikale Synchronisierungssignal, das die Anfangsposition der Bilddaten des einzelnen Bildes angibt, und das folgende horizontale Synchronisierungssignal mit einer vorgegebenen Frequenz als das externe Synchronisierungssignal der Kamera im gewünschten Zeitpunkt bereitgestellt werden, werden die Bilddaten zu diesem Zeitpunkt von der Kamera ausgegeben. Folglich ist es erforderlich, dass der externe Synchronisierungssignal-Generatorabschnitt zumindest das vertikale Synchronisierungssignal zum gewünschten Zeitpunkt erzeugt, und es ist nicht immer erforderlich, die Frequenz des externen vertikalen Synchronisierungssignals einzustellen. Beim oben beschriebenen Bildprozessor braucht also der Bediener die Frequenzen des externen Synchronisierungssignals in Abhängigkeit vom Typ der Kamera nicht einzustellen.
  • Der oben beschriebene Bildprozessor kann ferner einen Speicherabschnitt aufweisen, in dem im Voraus eine Korrespondenzbeziehung zwischen einem Kameratyp und einer für die Kamera spezifischen Frequenz des horizontalen Synchronisierungssignals gespeichert worden ist. Bei dieser Konfiguration kann der Verarbeitungsabschnitt die im Speicherabschnitt gespeicherte Korrespondenzbeziehung zum Identifizieren des Kameratyps auf Basis der Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, verwenden, um das externe vertikale und das externe horizontale Synchronisierungssignal mit Frequenzen entsprechend dem so identifizierten Kameratyp zu erzeugen.
  • Der oben beschriebene Bildprozessor kann mehrere externe Synchronisierungssignal-Generatorabschnitte aufweisen, wobei jeder das externe vertikale und das externe horizontale Synchronisierungssignal mit Frequenzen erzeugt, die jedem der mehreren Kameratypen entsprechen. Bei dieser Konfiguration kann der Verarbeitungsabschnitt den dem so identifizierten Kameratyp zugeordneten externen Synchronisierungssignal-Generatorabschnitt aus den mehreren externen Synchronisierungssignal-Generatorabschnitten wählen und es dem so gewählten externen Synchronisierungssignal-Generatorabschnitt gestatten, das externe vertikale und das externe horizontale Synchronisierungssignal zu erzeugen und an die Kamera zu liefern.
  • Der oben beschriebene Bildprozessor kann ferner einen Speicherabschnitt aufweisen, in dem im Voraus eine Korrespondenzbeziehung zwischen einem Kameratyp, einer für die Kamera spezifischen Frequenz des horizontalen Synchronisierungssignals und der Pixelzahl der Kamera gespeichert worden ist. Bei dieser Konfiguration kann der Verarbeitungsabschnitt die im Speicherabschnitt gespeicherte Korrespondenzbeziehung zum Identifizieren der Pixelzahl der Kamera auf Basis der Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, verwenden und weist einen Datenbereich für die Bildverarbeitung auf Basis der so identifizierten Pixelzahl der Kamera zu. Als Ergebnis braucht der Bediener den Datenbereich für die Bildverarbeitung in Abhängigkeit von der Pixelzahl der verwendeten Kamera nicht zuzuweisen.
  • Der oben beschriebene Bildprozessor kann ferner einen mit mehreren Kameras verbundenen Multiplexer aufweisen, so dass das erste Videosignal von der vom Multiplexer gewählten Kamera in den Synchronisierungssignal-Trennabschnitt eingegeben werden kann.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Robotersystem bereitgestellt, das eine Roboteroperation auf Basis des Ergebnisses der Bildverarbeitung ausführt, wobei das Robotersystem aufweist:
    einen Roboter; eine Kamera mit einer ersten Funktion, die ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein internes vertikales Synchronisierungssignal und ein internes horizontales Synchronisierungssignal ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen Frequenz erzeugt werden, und mit einer zweiten Funktion, die ein zweites Videosignal mit den erhaltenen Bilddaten ausgibt, die auf Basis eines externen vertikalen Synchronisierungssignals und eines externen horizontalen Synchronisierungssignals erhalten werden, die als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird; und einen Bildprozessor, der so konfiguriert ist, dass er das von der Kamera ausgegebene zweite Videosignal importiert und eine Bildverarbeitung ausführt, wobei der Bildprozessor aufweist:
    einen Synchronisierungssignal-Trennabschnitt, der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt; einen Synchronisierungsfrequenz-Detektionsabschnitt, der die Frequenz des internen horizontalen Synchronisierungssignals, das vom Synchronisierungssignal-Trennabschnitt getrennt wurde, erfasst; einen externen Synchronisierungssignal-Generatorabschnitt, der das externe vertikale und das externe horizontale Synchronisierungssignal erzeugt; und einen Verarbeitungsabschnitt, der dem externen Synchronisierungssignal-Generatorabschnitt zu einem gewünschten Zeitpunkt gestattet, das externe vertikale Synchronisierungssignal zu erzeugen, das externe horizontale Synchronisierungssignal mit derjenigen Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, zu erzeugen und das so erzeugte externe vertikale sowie das externe horizontale Synchronisierungssignal an die Kamera zu liefern.
  • Obwohl die Erfindung anhand der bevorzugten Ausführungsformen beschrieben worden ist, versteht es sich für den Fachmann, dass verschiedene Änderungen oder Modifikationen daran vorgenommen werden können, ohne vom Gültigkeitsbereich der folgenden Ansprüche abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 11-215412 [0004]
    • - JP 9-224192 [0005]
    • - JP 11-215412 A [0011]
    • - JP 9-224192 A [0011]

Claims (6)

  1. Bildprozessor (16; 30; 60; 70; 80) für ein Robotersystem (10), wobei das Robotersystem eine Kamera (18; 48) mit einer ersten Funktion aufweist, die ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein internes vertikales Synchronisierungssignal und ein internes horizontales Synchronisierungssignal ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen Frequenz erzeugt werden, und mit einer zweiten Funktion, die ein zweites Videosignal mit den erhaltenen Bilddaten ausgibt, die auf Basis eines externen vertikalen Synchronisierungssignals und eines externen horizontalen Synchronisierungssignals erhalten werden, das als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird, wobei der Bildprozessor so konfiguriert ist, dass er das von der Kamera ausgegebene zweite Videosignal importiert und eine Bildverarbeitung ausführt, dadurch gekennzeichnet, dass der Bildprozessor aufweist: einen Synchronisierungssignal-Trennabschnitt (32), der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt; einen Synchronisierungsfrequenz-Detektionsabschnitt (38), der die Frequenz des internen horizontalen Synchronisierungssignals, das vom Synchronisierungssignal-Trennabschnitt getrennt wurde, erfasst; einen externen Synchronisierungssignal-Generatorabschnitt (44; 62; 74; 82), der das externe vertikale und das externe horizontale Synchronisierungssignal erzeugt; und einen Verarbeitungsabschnitt (42), der dem externen Synchronisierungssignal-Generatorabschnitt zu einem gewünschten Zeitpunkt gestattet, das externe vertikale Synchronisierungssignal zu erzeugen, das externe horizontale Synchronisierungssignal mit derjenigen Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, zu erzeugen und das so erzeugte externe vertikale sowie das externe horizontale Synchronisierungssignal an die Kamera zu liefern.
  2. Bildprozessor für ein Robotersystem nach Anspruch 1, der ferner einen Speicherabschnitt (52) aufweist, in dem zuvor eine Korrespondenzbeziehung zwischen einem Typ dieser Kamera und einer Frequenz eines für die Kamera spezifischen horizontalen Synchronisierungssignals gespeichert worden ist, wobei der Verarbeitungsabschnitt die in diesem Speicherabschnitt gespeicherte Korrespondenzbeziehung zum Identifizieren des Typs der Kamera auf Basis der Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, nutzt und dem Synchronisierungssignal-Generatorabschnitt gestattet, das externe vertikale und das externe horizontale Synchronisierungssignal mit Frequenzen entsprechend dem so identifizierten Kameratyp zu erzeugen.
  3. Bildprozessor für ein Robotersystem nach Anspruch 2, der mehrere externe Synchronisierungssignal-Generatorabschnitte aufweist, wobei jeder das externe vertikale und das externe horizontale Synchronisierungssignal mit Frequenzen entsprechend jedem der verschiedenen Kameratypen erzeugt, wobei der Verarbeitungsabschnitt den externen Synchronisierungssignal-Generatorabschnitt aus den verschiedenen externen Synchronisierungssignal-Generatorabschnitten wählt, der dem so identifizierten Kameratyp zugeordnet ist, und dem so gewählten externen Synchronisierungssignal-Generatorabschnitt gestattet, das externe vertikale und das externe horizontale Synchronisierungssignal zu erzeugen und an die Kamera zu liefern.
  4. Bildprozessor für ein Robotersystem nach Anspruch 1, der ferner einen Speicherabschnitt (52) aufweist, in dem zuvor eine Korrespondenzbeziehung zwischen einem Typ dieser Kamera, eine Frequenz eines für die Kamera spezifischen horizontalen Synchronisierungssignals und die Pixelzahl der Kamera gespeichert worden sind, wobei der Verarbeitungsabschnitt die in diesem Speicherabschnitt gespeicherte Korrespondenzbeziehung zum Identifizieren der Pixelzahl der Kamera auf Basis der Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, nutzt und einen Datenbereich für die Bildverarbeitung auf Basis der so identifizierten Pixelzahl der Kamera zuweist.
  5. Bildprozessor für ein Robotersystem nach einem der Ansprüche 1 bis 4, der ferner einen mit mehreren Kameras verbundenen Multiplexer (72) aufweist, wobei das erste Videosignal von der durch den Multiplexer gewählten Kamera in den Synchronisierungssignal-Trennabschnitt eingegeben wird.
  6. Robotersystem (10), das eine Roboteroperation auf Basis des Ergebnisses der Bildverarbeitung ausführt, aufweisend: einen Roboter (12); eine Kamera (48) mit einer ersten Funktion, die ein erstes Videosignal mit den erhaltenen Bilddaten sowie ein internes vertikales Synchronisierungssignal und ein internes horizontales Synchronisierungssignal ausgibt, die als ein internes Synchronisierungssignal mit einer vorgegebenen Frequenz erzeugt werden, und mit einer zweiten Funktion, die ein zweites Videosignal mit den erhaltenen Bilddaten ausgibt, die auf Basis eines externen vertikalen Synchronisierungssignals und eines externen horizontalen Synchronisierungssignals erhalten werden, das als ein externes Synchronisierungssignal mit einer Frequenz gleich der des internen Synchronisierungssignals sowie des externen vertikalen Synchronisierungssignals und des externen horizontalen Synchronisierungssignals bereitgestellt wird; und einen Bildprozessor (16; 30; 60; 70; 80), der so konfiguriert ist, dass er das von der Kamera ausgegebene zweite Videosignal importiert und eine Bildverarbeitung ausführt, dadurch gekennzeichnet, dass der Bildprozessor aufweist: einen Synchronisierungssignal-Trennabschnitt (32), der das interne horizontale Synchronisierungssignal von dem von der Kamera ausgegebenen ersten Videosignal trennt; einen Synchronisierungsfrequenz-Detektionsabschnitt (38), der die Frequenz des internen horizontalen Synchronisierungssignals, das vom Synchronisierungssignal-Trennabschnitt getrennt wurde, erfasst; einen externen Synchronisierungssignal-Generatorabschnitt (44; 62; 74; 82), der das externe vertikale und das externe horizontale Synchronisierungssignal erzeugt; und einen Verarbeitungsabschnitt (42), der dem externen Synchronisierungssignal-Generatorabschnitt zu einem gewünschten Zeitpunkt gestattet, das externe vertikale Synchronisierungssignal zu erzeugen, das externe horizontale Synchronisierungssignal mit derjenigen Frequenz des internen horizontalen Synchronisierungssignals, die vom Synchronisierungsfrequenz-Detektionsabschnitt erfasst wurde, zu erzeugen und das so erzeugte externe vertikale sowie das externe horizontale Synchronisierungssignal an die Kamera zu liefern.
DE102010026348A 2009-07-08 2010-07-07 Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem Expired - Fee Related DE102010026348B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009161937A JP4653844B2 (ja) 2009-07-08 2009-07-08 ロボットシステムのための画像処理装置及びこれを備えるロボットシステム
JP2009-161937 2009-07-08

Publications (2)

Publication Number Publication Date
DE102010026348A1 true DE102010026348A1 (de) 2011-01-20
DE102010026348B4 DE102010026348B4 (de) 2012-08-16

Family

ID=43382953

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010026348A Expired - Fee Related DE102010026348B4 (de) 2009-07-08 2010-07-07 Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem

Country Status (3)

Country Link
US (1) US8010233B2 (de)
JP (1) JP4653844B2 (de)
DE (1) DE102010026348B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012016544B4 (de) * 2011-08-26 2014-09-18 Fanuc Corporation Robotersystem mit einer funktion zum erfassen einer fehlfunktion einer kamera

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017033352A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 産業用遠隔操作ロボットシステム
TWI726091B (zh) 2016-04-22 2021-05-01 日商興和股份有限公司 多工器、及具備該多工器之攝影裝置
JP6888405B2 (ja) * 2017-05-10 2021-06-16 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
JP6898374B2 (ja) * 2019-03-25 2021-07-07 ファナック株式会社 ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法
CN112312069B (zh) * 2019-07-31 2023-03-24 杭州海康汽车技术有限公司 视频处理方法、装置、系统及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224192A (ja) 1996-02-15 1997-08-26 Mitsubishi Electric Corp 画面合成装置
JPH11215412A (ja) 1998-01-28 1999-08-06 Canon Inc 映像入力装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4468695A (en) * 1980-11-20 1984-08-28 Tokico Ltd. Robot
US4706120A (en) * 1985-08-30 1987-11-10 Texas Instruments Incorporated Modular, vision system for automation of inspection and process control
US4843287A (en) * 1987-12-31 1989-06-27 Westinghouse Electric Corp. Path contriving system for look-ahead sensor in a robotic control system
US5012270A (en) * 1988-03-10 1991-04-30 Canon Kabushiki Kaisha Image shake detecting device
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
US5194791A (en) * 1990-07-19 1993-03-16 Mcdonnell Douglas Corporation Compliant stereo vision target
JP3027985B2 (ja) * 1990-12-21 2000-04-04 オムロン株式会社 外部同期カメラ制御装置
US5255096B1 (en) * 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
US5331413A (en) * 1992-09-28 1994-07-19 The United States Of America As Represented By The United States National Aeronautics And Space Administration Adjustable control station with movable monitors and cameras for viewing systems in robotics and teleoperations
JP3237975B2 (ja) * 1993-09-20 2001-12-10 富士通株式会社 画像処理装置
DE69712481T2 (de) * 1996-06-28 2002-12-19 T Eric Hopkins Bilderfassungssystem und verfahren
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
JP2009010903A (ja) * 2007-05-30 2009-01-15 Sony Corp 撮像装置及び撮像方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224192A (ja) 1996-02-15 1997-08-26 Mitsubishi Electric Corp 画面合成装置
JPH11215412A (ja) 1998-01-28 1999-08-06 Canon Inc 映像入力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012016544B4 (de) * 2011-08-26 2014-09-18 Fanuc Corporation Robotersystem mit einer funktion zum erfassen einer fehlfunktion einer kamera

Also Published As

Publication number Publication date
US20110007216A1 (en) 2011-01-13
JP2011019058A (ja) 2011-01-27
JP4653844B2 (ja) 2011-03-16
DE102010026348B4 (de) 2012-08-16
US8010233B2 (en) 2011-08-30

Similar Documents

Publication Publication Date Title
DE102010026348B4 (de) Bildprozessor für ein Robotersystem und diesen aufweisendes Robotersystem
DE10226582B4 (de) Elektronisches Endoskop mit Farbeinstellfunktion
DE19816481B4 (de) Elektronisches Endoskopsystem
DE69636322T2 (de) Bildaufnahmevorrichtung mit verschiedenen Methoden zur Bildpunktverschiebung
DE3923907C2 (de)
DE112009005418B4 (de) Bildverarbeitungsgerät
DE3619708C2 (de)
DE19721713C2 (de) Elektronisches Endoskop
DE3546141C2 (de)
CH630473A5 (de) Einrichtung zur herstellung von korrigierten farbauszuegen.
DE2712025A1 (de) Anordnung zur aenderung des formats eines fernsehbildes
DE2719208A1 (de) Festkoerper-fernsehkamera
DE102016117584A1 (de) Videobildgebungssystem
DE102011006272A1 (de) Bildverarbeitungsvorrichtung und Verfahren des Steuerns von dieser
EP0737405A1 (de) Verfahren und vorrichtung zur aufzeichnung und wiedergabe von stereoskopischen videobildern
DE69833898T2 (de) Videosignalschaltvorrichtung für Endoskopsystem
DE3540875A1 (de) Bildreproduktionsgeraet
DE60034288T2 (de) Bildverarbeitungsgerät, -Verfahren und System
DE3044378C2 (de) Bild-in-Bild-Farbfernsehempfänger
DE69637168T2 (de) Klemmschaltung für mehrere Videoeingänge
DE102014223858B4 (de) Bildaufnahmevorrichtung und Bildsignalsteuerverfahren
DE3443631A1 (de) Festkoerper-kamera
DE3042919C2 (de) Verfahren und Einrichtung zur Übertragung von Farbbildern in der Faksimiletechnik
DE3225629C2 (de)
EP0087485B1 (de) IC-Satz mit drei integrierten Schaltungen zur digitalen Videosignal-Verarbeitung in Farbfernsehempfängern

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC LTD., YAMANASHI, JP

Effective date: 20111116

Owner name: FANUC CORPORATION, JP

Free format text: FORMER OWNER: FANUC LTD., YAMANASHI, JP

Effective date: 20111116

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111116

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111116

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: FANUC CORPORATION, OSHINO-MURA, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

Owner name: FANUC CORPORATION, JP

Free format text: FORMER OWNER: FANUC CORP., YAMANASHI, JP

Effective date: 20120202

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20120202

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20120202

R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20121117

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee