DE602004008975T2 - Bildverarbeitungssystem, Projektor und Bildverarbeitungsmethode - Google Patents

Bildverarbeitungssystem, Projektor und Bildverarbeitungsmethode Download PDF

Info

Publication number
DE602004008975T2
DE602004008975T2 DE602004008975T DE602004008975T DE602004008975T2 DE 602004008975 T2 DE602004008975 T2 DE 602004008975T2 DE 602004008975 T DE602004008975 T DE 602004008975T DE 602004008975 T DE602004008975 T DE 602004008975T DE 602004008975 T2 DE602004008975 T2 DE 602004008975T2
Authority
DE
Germany
Prior art keywords
image
projection area
coordinates
information
luminance distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004008975T
Other languages
English (en)
Other versions
DE602004008975D1 (de
Inventor
Masanobu Kobayashi
Osamu Wada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of DE602004008975D1 publication Critical patent/DE602004008975D1/de
Application granted granted Critical
Publication of DE602004008975T2 publication Critical patent/DE602004008975T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/24Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles
    • B60N2/26Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles for children
    • B60N2/28Seats readily mountable on, and dismountable from, existing seats or other parts of the vehicle
    • B60N2/2875Seats readily mountable on, and dismountable from, existing seats or other parts of the vehicle inclinable, as a whole or partially
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/24Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles
    • B60N2/26Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles for children
    • B60N2/28Seats readily mountable on, and dismountable from, existing seats or other parts of the vehicle
    • B60N2/2821Seats readily mountable on, and dismountable from, existing seats or other parts of the vehicle having a seat and a base part
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/64Back-rests or cushions
    • B60N2/643Back-rests or cushions shape of the back-rests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Bildverarbeitungssystem, einen Projektor und ein Bildverarbeitungsverfahren, welche eine Verzerrung in einem projizierten Bild, wie beispielsweise eine Trapezverzerrung und Drehung, korrigieren können.
  • Es wurden verschiedene Arten von Techniken zum Korrigieren einer Verzerrung, wie beispielsweise der sogenannten Trapezverzerrung, in einem Bild, das durch einen Projektor projiziert wird, vorgeschlagen.
  • Zum Beispiel ist eine Technik zum Erfassen einer Neigung in einem Projektor und automatischen Korrigieren einer vertikalen Verzerrung auf dem Fachgebiet bekannt.
  • Solch eine Technik kann es einem Benutzer jedoch nicht ermöglichen, eine horizontale Verzerrung zu korrigieren.
  • Aus diesem Grund muss der Benutzer eine Technik des manuellen Korrigierens der horizontalen Verzerrung durch Betätigen eines Korrekturschalters in einer Fernsteuerung anwenden, während er ein zu korrigierendes Bild betrachtet.
  • Solch ein manueller Vorgang braucht jedoch Zeit. Außerdem ist es schwierig, manuell eine angemessene Korrektur durchzuführen.
  • In Anbetracht solch eines Problems schlägt zum Beispiel die japanische Patentauslegeschrift Nr. 2000-241874 ein System vor, in welchem eine Projektionsebene mittels einer Kamera abgebildet oder aufgenommen wird und die gegenüberliegenden Seiten im Projektionsbereich in der Länge miteinander verglichen werden, um eine Verzerrung abzutasten, welche ihrerseits basierend auf dem Abtastergebnis korrigiert wird.
  • Die Kamera, die in dieser japanischen Patentauslegeschrift verwendet wird, ist jedoch im Projektorhauptkörper enthalten, so dass die optische Achse der Kamera im Wesentlichen identisch mit der einer Linse ist. Demnach weist der Projektionsbereich, der durch das aufgenommene Bild dargestellt wird, stets eine im Wesentlichen rechteckige Form auf. Es ist daher schwierig, die Länge der gegenüberliegenden Seiten im Projektionsbereich basierend auf dem aufgenommenen Bild zu vergleichen.
  • Sukthankar R. et al., „Automatic Keystone Correction for Camera-Assisted Presentation Interfaces", Lecture Notes in Computer Science, Springer Verlag, New York, NY, US; 14. Oktober 2000 (2000-10-14), Seiten 607–614, XP001148734 ISSN: 0302-9743, offenbart ein Projektionsverfahren, das die folgende Schritte umfasst: Bestimmen einer Abbildung zwischen Punkten in einer Computeranzeige und entsprechenden Punkten in einem Kamerabild; Identifizieren eines Vierecks, das den Grenzen eines Projektionsbildschirms des Kamerabildes entspricht, unter Verwendung einer Lichtverteilungsanalyse; Entnehmen einer Abbildung aus der Computeranzeige auf den Projektionsbildschirm; Bestimmen einer optimalen Anordnung für das korrigierte Bild auf dem Projektionsbildschirm und Vorverformen jedes Bildes, um für einen Ausgleich der Trapezverzerrung zu korrigieren.
  • US 6,367,933 offenbart ein Verfahren und eine Vorrichtung zum Verhindern einer Trapezverzerrung.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Die vorliegende Erfindung erfolgt in Anbetracht des zuvor erwähnten Problems und kann ein Bildverarbeitungssystem, einen Projektor und ein Bildverarbeitungsverfahren bereitstellen, welche eine Verzerrung in einem projizierten Bild angemessen und automatisch korrigieren können.
  • Zu diesem Zweck umfasst ein Bildverarbeitungssystem gemäß einem Aspekt der vorliegenden Erfindung: optische Abtastmittel zum Abtasten einer Abtastregion, auf welche ein vorbestimmtes Bild projiziert wird, und zum Ausgeben von Abtastinformationen; Leuchtdichteverteilungsanalysemittel zum Analysieren einer Leuchtdichteverteilung in einem Projektionsbereich, der in der Abtastregion enthalten ist, basierend auf den Abtastinformationen; wobei das System gekennzeichnet ist durch: Speichermittel, die so ausgelegt sind, dass sie Winkelkorrekturdaten speichern und außerdem Koordinatendaten, welche die Ableitungskoordinaten für den Projektionsbereich angeben, speichern; und Bildsignalkorrekturmittel zum Korrigieren von Bildsignalen basierend auf den Koordinatendaten, so dass eine Verzerrung im projizierten Bild korrigiert wird, wobei in den Winkelkorrekturdaten ein Verhältnis von mittleren Leuchtdichtewerten von verschiedenen Regionen des Projektionsbereichs mit Ableitungskoordinaten zum Ableiten von Koordinaten des Projektionsbereichs in Zusammenhang steht, und wobei das Leuchtdichteverteilungsanalysemittel in Abhängigkeit von der Leuchtdichteverteilung im Projektionsbereich auf die Winkelkorrekturdaten Bezug nimmt, um die Ableitungskoordinaten in den Koordinatendaten basierend auf den Winkelkorrekturdaten zu korrigieren.
  • Ein Projektor gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst: ein optisches Abtastmittel zum Abtasten einer Abtastregion, auf welche ein vorbestimmtes Bild projiziert wird, und zum Ausgeben von Abtastinformationen; Leuchtdichteverteilungsanalysemittel zum Analysieren einer Leuchtdichteverteilung in einem Projektionsbereich, der in der Abtastregion enthalten ist, basierend auf den Abtastinformationen; wobei der Projektor gekennzeichnet ist durch: Speichermittel, die so ausgelegt sind, dass sie Winkelkorrekturdaten speichern und außerdem Koordinatendaten, welche die Ableitungskoordinaten für den Projektionsbereich ange ben, speichern; und Bildsignalkorrekturmittel zum Korrigieren von Bildsignalen basierend auf den Koordinatendaten, so dass eine Verzerrung im projizierten Bild korrigiert wird; und Bildprojektionsmittel zum Projizieren eines Bildes basierend auf den korrigierten Bildsignalen, wobei in den Winkelkorrekturdaten ein Verhältnis von mittleren Leuchtdichtewerten von verschiedenen Regionen des Projektionsbereichs mit Ableitungskoordinaten zum Ableiten von Koordinaten des Projektionsbereichs in Zusammenhang steht, und wobei das Leuchtdichteverteilungsanalysemittel in Abhängigkeit von der Leuchtdichteverteilung im Projektionsbereich auf die Winkelkorrekturdaten Bezug nimmt, um die Ableitungskoordinaten in den Koordinatendaten basierend auf den Winkelkorrekturdaten zu korrigieren.
  • Ein Bildverarbeitungsverfahren gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst: optisches Abtasten einer Abtastregion, auf welche ein vorbestimmtes Bild projiziert wird, und Ausgeben von Abtastinformationen; Analysieren einer Leuchtdichteverteilung in einem Projektionsbereich, der in der Abtastregion enthalten ist, basierend auf den Abtastinformationen; Bezug nehmen auf Winkelkorrekturdaten, in welchen ein Verhältnis von mittleren Leuchtdichtewerten von verschiedenen Regionen des Projektionsbereichs mit Ableitungskoordinaten zum Ableiten von Koordinaten des Projektionsbereichs in Zusammenhang steht; Korrigieren der Ableitungskoordinaten in Koordinatendaten, welche die Ableitungskoordinaten für den Projektionsbereich angeben, basierend auf den Winkelkorrekturdaten; und Korrigieren von Bildsignalen basierend auf den Koordinatendaten, so dass eine Verzerrung im projizierten Bild korrigiert wird.
  • Gemäß der vorliegenden Erfindung bestimmt das Bildverarbeitungssystem und dergleichen die Verzerrung im Projektionsbereich basierend auf der Leuchtdichteverteilung. Demnach kann das Bildverarbeitungssystem und dergleichen jegliche Verzerrung im Bild angemessen bestimmen, selbst wenn es schwierig ist, die Verzerrung im Bild von seiner Form infolge der Tatsache zu bestimmen, dass die optische Achse eines projizierten Lichts im Wesentlichen dieselbe wie die optische Achse des Abtastmittels ist. Demnach kann das Bildverarbeitungssystem und dergleichen die Verzerrung im projizierten Bild angemessen und automatisch korrigieren.
  • Das Bildverarbeitungssystem und der Projektor können Umgebungsinformationsanalysemittel zum Bestimmen des Projektionsbereichs und einer Bildschirmregion, die in der Abtastregion enthalten sind, basierend auf der Leuchtdichteverteilung gemäß den Abtastinformationen, wenn ein rechteckiges Bild auf einen rechteckigen Bildschirm projiziert werden soll, und zum Aktualisieren von vier Ableitungskoordinaten in den Koordinatendaten basierend auf Lageinformationen jedes Scheitelpunkts in dem bestimmten Projektionsbereich und der bestimmten Bildschirmregion und Ableitungskoordinateninformationen von vier Ecken in der Bildschirmregion umfassen.
  • Das Bildverarbeitungsverfahren kann umfassen:
    Bestimmen des Projektionsbereichs und einer Bildschirmregion, die in der Abtastregion enthalten sind, basierend auf der Leuchtdichteverteilung gemäß den Abtastinformationen, wenn ein rechteckiges Bild auf einen rechteckigen Bildschirm projiziert werden soll; und
    Aktualisieren von vier Ableitungskoordinaten in den Koordinatendaten basierend auf Lageinformationen jedes Scheitelpunkts in dem bestimmten Projektionsbereich und der bestimmten Bildschirmregion und Ableitungskoordinateninformationen von vier Ecken in der Bildschirmregion.
  • Auf diese Weise kann das Bildverarbeitungssystem und dergleichen jegliche Verzerrung im Bild durch Verwenden von Lageinformationen für jeden Scheitelpunkt in der rechteckigen Bildschirmregion angemessen korrigieren, um die vier Ableitungskoordinaten in den Koordinatendaten zu aktualisieren.
  • Das Bildverarbeitungssystem und der Projektor können Umfeldanalysemittel zum Bestimmen eines helleren Zustands oder eines dunkleren Zustands basierend auf den Leuchtdichteinformationen gemäß den Abtastinformationen umfassen, wobei der hellere Zustand ein Zustand ist, der heller als ein vorbestimmter Zustand ist, und der dunklere Zustand ein Zustand ist, der dunkler als der vorbestimmte Zustand ist, wobei im helleren Zustand das Umgebungsinformationsanalysemittel die Ableitungskoordinaten in den Koordinatendaten aktualisieren kann und im dunkleren Zustand das Leuchtdichteverteilungsanalysemittel die Ableitungskoordinaten in den Koordinatendaten aktualisieren kann.
  • Das Bildverarbeitungsverfahren kann umfassen:
    Bestimmen eines helleren Zustands oder eines dunkleren Zustands basierend auf den Leuchtdichteinformationen gemäß den Abtastinformationen;
    Aktualisieren, im helleren Zustand, von vier Ableitungskoordinaten in den Koordinatendaten basierend auf den Lageinformationen und Ableitungskoordinateninformationen für vier Ecken in der Bildschirmregion; und
    Analysieren, im dunkleren Zustand, der Leuchtdichteverteilung im Projektionsbereich basierend auf den Abtastinformationen; Bezug nehmen auf die Winkelkorrekturdaten in Abhängigkeit von der Leuchtdichteverteilung im Projektionsbereich und Korrigieren der Ableitungskoordinaten in den Koordinatendaten basierend auf den Winkelkorrekturdaten.
  • Demnach kann das Bildverarbeitungssystem und dergleichen jegliche Verzerrung im projizierten Bild durch Korrigieren der Ableitungskoordinaten in den Koordinatendaten auf eine Weise, die mit der tatsächlichen Betriebsumgebung übereinstimmt, automatisch und angemessen korrigieren.
  • KURZE BESCHREIBUNG DER VERSCHIEDENEN ANSICHTEN DER ZEICHNUNG
  • 1 stellt ein Bild dar, welches eine Trapezverzerrung aufweist.
  • 2 stellt ein Bild dar, welches durch einen Sensor abgetastet wird, der in einen Projektor eingebaut ist.
  • 3 ist eine schematische Darstellung, die einen Helligkeitsunterschied in einem Bild veranschaulicht.
  • 4 ist ein Funktionsblockdiagramm eines Projektors gemäß einem Beispiel einer Ausführung der vorliegenden Erfindung.
  • 5A stellt die Inhalte von Koordinatendaten vor der Korrektur dar, und 5B stellt die Inhalte von Koordinatendaten nach der Korrektur dar.
  • 6 stellt die Datenstruktur von Winkelkorrekturdaten gemäß einem Beispiel dieser Ausführung dar.
  • 7 ist ein Hardwareblockdiagramm, das einen Projektor gemäß einem Beispiel dieser Ausführung veranschaulicht.
  • 8 ist ein Flussdiagramm, das einen Bildverarbeitungsfluss gemäß einem Beispiel dieser Ausführung veranschaulicht.
  • 9A ist eine schematische Darstellung eines Bildes, das in der vertikalen Richtung zweigeteilt ist, und 9B ist eine schematische Darstellung eines Bildes, das in der horizontalen Richtung zweigeteilt ist.
  • 10 ist eine schematische Darstellung, die ein Bild nach seiner Trapezverzerrungskorrektur gemäß einem Beispiel dieser Ausführung veranschaulicht.
  • 11 ist eine schematische Darstellung, die ein Bild nach seiner Trapezverzerrungskorrektur gemäß einem anderen Beispiel dieser Ausführung veranschaulicht.
  • 12 ist eine schematische Darstellung, die ein korrigiertes Bild gemäß einem Beispiel dieser Ausführungsform darstellt, das gedreht wurde.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORM
  • Die vorliegende Erfindung wird nun in Verbindung mit einem Beispiel, in welchem die vorliegende Erfindung auf einen Projektor angewendet wird, der als ein Bildverarbeitungssystem zum Korrigieren einer Trapezverformung in einem projizierten Bild fungiert, und unter Bezugnahme auf die beiliegende Zeichnung beschrieben. Es ist außerdem nicht beabsichtigt, dass eine Ausführungsform, die im Folgenden dargestellt wird, den Gegenstand der Erfindung, wie in den beiliegenden Ansprüchen beschrieben, einschränkt. Zum Realisieren der Erfindung, die durch die beiliegenden Ansprüche definiert wird, sind nicht unbedingt alle Komponenten erforderlich, die in solch einer Ausführungsform dargestellt werden.
  • Gesamtsystem
  • 1 stellt ein Bild dar, welches eine Trapezverzerrung aufweist.
  • Wenn zum Beispiel ein Projektor 20, welcher eine Art von Bildverarbeitungssystem und links vor einem rechteckigen Bildschirm 8 angeordnet ist, ein rechteckiges Bild ohne Bildkorrektur projiziert, weist der Projektionsbereich 12 die Form eines Trapezes auf, das sein kürzestes linkes Ende und sein längstes rechtes Ende so aufweist, wie in 1 dargestellt.
  • In dieser Ausführungsform tastet ein Sensor 30, welcher als Abtastmittel fungiert, eine Abtastregion 14 ab, die den Projektionsbereich 12 und eine Bildschirmregion 10 enthält.
  • 2 stellt ein Bild dar, welches durch den Sensor 30 abgetastet wird, der in den Projektor 20 eingebaut ist.
  • Wenn zum Beispiel der Sensor 30, dessen optische Achse ungefähr identisch mit der optischen Achse einer Linse im Projektor 20 ist, ein Bild abtastet, scheint das abgetastete Bild auf einem Projektionsbereich 42 in der Bildschirmregion 40 ein rechteckiges, nicht verzerrtes Bild zu sein.
  • Tatsächlich ist der Projektionsbereich 12 jedoch von der Vorderseite des Bildschirms 8 betrachtet verzerrt, wie in 1 dargestellt.
  • Diese Ausführungsform ist so ausgelegt, dass sie ein Bild gemäß einer Leuchtdichteverteilung in der Abtastregion 14 korrigiert.
  • 3 ist eine schematische Darstellung, die einen Helligkeitsunterschied in einem Bild veranschaulicht.
  • Wenn zum Beispiel ein monochromatisches Bild von der linken vorderen Seite des Bildschirms 8 projiziert wird, wie in 1 dargestellt, weist der Projektionsbereich 12 seine linke Seite so, dass sie den maximalen Leuchtdichtewert hat, und seine rechte Seite so, dass sie den minimalen Leuchtdichtewert hat.
  • Die Ausführungsform ist so ausgelegt, dass sie das Bild in Abhängigkeit von seiner Verzerrung korrigiert, welche basierend auf der Leuchtdichteverteilung im Projektionsbereich 12 erfasst wird. Demnach kann die Bildverzerrung angemessen erfasst werden, selbst wenn das Bild durch den Sensor 30 abgetastet wird, dessen optische Achse im Wesentlichen identisch mit der optischen Achse der Linse im Projektor 20 ist.
  • Funktionsblöcke
  • Als Nächstes werden die Funktionsblöcke im Projektor 20 zum Implementieren solch einer Funktion erläutert.
  • 4 ist ein Funktionsblockdiagramm eines Projektors 20 gemäß einem Beispiel dieser Ausführung.
  • Der Projektor 20 umfasst einen Signaleingabeabschnitt 110, einen Speicherabschnitt 120, einen Verzerrungskorrekturabschnitt 130, einen Sinalausgabeabschnitt 140, einen Bilderzeugungsabschnitt 150, einen Leuchtdichteverteilungsanalyseabschnitt 160, einen Umgebungsinformationsanalyseabschnitt 170, einen Umfeldanalyseabschnitt 180 und einen Bildprojektionsabschnitt 190.
  • Der Sensor 30 umfasst einen Bereichssensorabschnitt 182.
  • Der Signaleingabeabschnitt 110 funktioniert so, dass er ein analoges Bildsignal, das von einem PC (Personalcomputer) oder dergleichen eingegeben wird, in ein digitales Bildsignal umwandelt.
  • Der Speicherabschnitt 120 hat eine Koordinatentabelle 122, welche die Ableitungskoordinaten zum Ableiten der Koordinaten des Projektionsbereichs 12 angibt, und eine Winkelkorrekturtabelle 124 gespeichert, in welcher das Verhältnis von mittleren Leuchtdichtewerten für eine Mehrzahl von verschiedenen Teilen im Projektionsbereich 12 mit den Ableitungskoordinaten des Projektionsbereichs 12 in Zusammenhang steht. Die Ableitungskoordinaten können zum Beispiel Koordinaten in der Koordinatenachse eines Flüssigkristalllichtventils, Koordinaten in der Koordinatenachse eines projizierten Bildes und absolute Koordinaten in drei Achsen oder X-, Y- und Z-Achsen umfassen.
  • Die Datenstrukturen und Inhalte der Koordinatentabelle 122 und der Winkelkorrekturtabelle 124 werden im Folgenden beschrieben.
  • 5A ist eine Ansicht, welche die Inhalte von Koordinatendaten 122 vor ihrer Korrektur darstellt. 5B stellt die Inhalte von Koordinatendaten 122 nach ihrer Korrektur dar. 6 stellt die Datenstruktur der Winkelkorrekturtabelle 124 gemäß einem Beispiel dieser Ausführung dar.
  • Wie in 5A und 5B dargestellt, weist die Koordinatentabelle 122 Koordinaten in x- und y-Achsen zum Ableiten von vier Ecken A, B, C und D oder A, B', C' und D' im Projektionsbereich 12 auf.
  • In der Winkelkorrekturtabelle 124 stehen ein Verhältnis RH von mittleren Leuchtdichtewerten zwischen zwei Teilen, die durch horizontales Teilen des Projektionsbereichs 12 bereitgestellt werden, und ein Verhältnis RV von mittleren Leuchtdichtewerten zwischen zwei Teilen, die durch vertikales Teilen des Projektionsbereichs 12 bereitgestellt werden, jeweils mit Ableitungskoordinaten in Zusammenhang, die den Ableitungskoordinaten in der Koordinatentabelle 122 entsprechen, wie in 6 dargestellt. Demnach kann der Projektor 20 die Ableitungskoordinaten durch Bestimmen dieser Verhältnisse RH und RV einheitlich bestimmen.
  • Der Verzerrungskorrekturabschnitt 130, welcher als Bildsignalkorrekturmittel dient, funktioniert so, dass er Bildsignale speichert, die vom Bildsignaleingabeabschnitt 110 eingegeben werden und einem Bild entsprechen, und die Bildsignale basierend auf der Koordinatentabelle 122 korrigiert, so dass jegliche Verzerrung im projizierten Bild korrigiert (oder skaliert) werden kann.
  • Die konkrete Verzerrungskorrekturtechnik kann eine Technik des Korrigierens einer Verzerrung zum Beispiel durch die herkömmliche perspektivische Verformung umfassen.
  • Der Bilderzeugungsabschnitt 150 funktioniert so, dass er Bildsignale erzeugt, die verwendet werden, um ein Kalibrierungsbild, wie beispielsweise ein Vollschwarzbild (ein monochromatisches Schwarzbild) oder ein Vollweißbild (ein monochromatisches Weißbild) zu projizieren, wobei diese Bildsignale dann an den Signalausgabeabschnitt 140 ausgegeben werden.
  • Auf diese Wese kann der Projektor 20 die Kalibrierung allein ohne Notwendigkeit von Kalibrierungssignalen durchführen, die von einer externen Eingabevorrichtung, wie beispielsweise einem PC oder dergleichen in den Projektor 20 eingegeben werden, da die Kalibrierungsbildsignale innerhalb des Projektors 20 intern erzeugt werden. Der Bilderzeugungsabschnitt 150 kann weggelassen werden, wenn die Kalibrierungsbildsignale vom PC oder dergleichen direkt in den Projektor eingegeben werden können.
  • Der Signalausgabeabschnitt 140 funktioniert so, dass er die Bildsignale, die durch den Verzerrungskorrekturabschnitt 130 korrigiert wurden, und die Kalibrierungsbildsignale vom Bilderzeugungsabschnitt 150 empfängt und diese Bildsignale an den Bildprojektionsabschnitt 190 ausgibt, nachdem sie in analoge Bildsignale umgewandelt wurden.
  • Wenn der Projektor 20 nur digitale R-, G- und B-Signale verwendet, können die A/D-Umwandlung am Signaleingabeabschnitt 110 und die D/A-Umwandlung am Signalausgabeabschnitt 140 weggelassen werden.
  • Der Bildprojektionsabschnitt 190 umfasst einen räumlichen Lichtmodulator 192, einen Antriebsabschnitt 194 zum Antreiben des räumlichen Lichtmodulators 192, eine Lichtquelle 196 und eine Linse 198.
  • Der Antriebsabschnitt 194 funktioniert so, dass er den räumlichen Modulator 192 basierend auf den Bildsignalen vom Bildausgabeabschnitt 140 antreibt. Und die Bildprojektionseinheit 190 projiziert das Licht von der Lichtquelle 196 durch den räumlichen Lichtmodulator 192 und die Linse 198.
  • Die Lichtquelle 196 kann jede von verschiedenen Lichtquellen sein, wie beispielsweise eine Punktlichtquelle, eine Flächenlichtquelle und dergleichen.
  • Der Umfeldanalyseabschnitt 180 gemäß dieser Ausführungsform funktioniert so, dass er basierend auf Leuchtdichteinformationen in den Abtastinformationen vom Bereichssensorabschnitt 182 beurteilt, ob das Umfeld heller oder dunkler als ein vorbestimmter Zustand ist.
  • Wenn zum Beispiel ein mittlerer Leuchtdichtewert Y durch 0,3·R-Signalwert + 0,6·G-Signalwert + 0,1·B-Signalwert bestimmt wird, kann beurteilt werden, ob das Umfeld um einen Schwellenwert, bei welchem der mittlere Leuchtdichtewert Y etwa gleich 60 ist, heller oder dunkler ist. Diese Schwelle ist in Abhängigkeit von der Einstellung des Sensors 80 oder der Abtastregion 14 eigentlich veränderlich.
  • Für den helleren Zustand aktualisiert der Umgebungsinformationsanalyseabschnitt 170 die Ableitungskoordinaten in der Koordinatentabelle 122. Für den dunkleren Zustand aktualisiert der Leuchtdichteverteilungsanalyseabschnitt 160 die Ableitungskoordinaten in der Koordinatentabelle 122.
  • Eine Hardwarestruktur zum Implementieren jedes Teiles des zuvor erwähnten Projektors 20 kann sein, wie folgt.
  • 7 ist ein Hardwareblockdiagramm, das einen Projektor 20 gemäß einem Beispiel dieser Ausführung veranschaulicht.
  • Zum Beispiel kann der Signaleingabeabschnitt 110 durch einen A/D-Wandler 930 oder dergleichen implementiert sein; der Speicherabschnitt 120 kann durch einen RAM 950 oder dergleichen implementiert sein; der Verzerrungskorrekturabschnitt 130, der Bilderzeugungsabschnitt 150, der Leuchtdichteverteilungsanalyseabschnitt 160, der Umgebungsinformationsanalyseabschnitt 170 beziehungsweise der Umfeldanalyseabschnitt 180 können durch eine Bildverarbeitungsschaltung 970, einen RAM 950, eine CPU 910 und dergleichen implementiert sein; der Signalausgabeabschnitt 140 kann durch einen D/A-Wandler 940 oder dergleichen implementiert sein; und der räumliche Lichtmodulator 192 kann durch ein Flüssigkristallfeld 920, einen ROM 960 zum Speichern eines Flüssigkristalllichtventiltreibers zum Antreiben des Flüssigkristallfeldes 920 oder dergleichen implementiert sein.
  • Diese Abschnitte können so konfiguriert sein, dass sie sich die Informationen zwischen ihnen gegenseitig durch einen Systembus 980 liefern.
  • Der Bereichssensorabschnitt 182 kann durch einen CCD-Sensor oder dergleichen implementiert sein.
  • Diese Abschnitte und Teile können in Hardwareform oder in Softwareform, wie beispielsweise Treiber, implementiert werden.
  • Außerdem können die Funktionen des Leuchtdichteverteilungsanalyseabschnitts 160 und andere durch einen Computer gemäß einem Programm implementiert werden, das aus einem Informationsspeichermedium 900 ausgelesen wird, wobei das Programm so ausgelegt ist, dass es bewirkt, dass der Computer als der Leuchtdichteverteilungsanalyseabschnitt 160 und andere fungiert.
  • Solch ein Informationsspeichermedium 900 kann zum Beispiel durch CD-ROM, DVD-ROM, ROM, RAM, HDD oder dergleichen entweder durch kontaktierenden oder kontaktlosen Lesemodus realisiert werden.
  • Anstelle des Informationsspeichermediums 900 können die zuvor erwähnten Funktionen durch Herunterladen eines Programms oder dergleichen zu ihrer Implementierung von einem Hostgerät oder dergleichen durch einen Übertragungskanal implementiert werden.
  • Bildverarbeitungsfluss
  • Als Nächstes wird der Bildverarbeitungsfluss durch Verwendung dieser Teile erläutert.
  • 8 ist ein Flussdiagramm, welches einen Bildverarbeitungsfluss gemäß einem Beispiel dieser Ausführungsform veranschaulicht.
  • Nachdem der Projektor 20 aktiviert wurde, erzeugt der Bilderzeugungsabschnitt 150 Bildsignale, die verwendet werden, um ein Vollschwarzkalibrierungsbild und ein Vollweißkalibrierungsbild zu projizieren, wobei diese Bildsig nale durch den Signalausgabeabschnitt 140 an den Bildprojektionsabschnitt 190 übertragen werden.
  • Der Bildprojektionsabschnitt 190 projiziert dann das Vollschwarzbild und das Vollweißbild basierend auf den Bildsignalen auf den Bildschirm 8. Wenn jedes der Kalibrierungsbilder auf den Bildschirm 8 projiziert wird, tastet der Bereichssensorabschnitt 182 die Abtastregion 14 ab, welche die Bildschirmregion 10 und den Projektionsbereich 12 enthält (Schritt S1).
  • Der Bereichssensorabschnitt 182 überträgt die Abbildungsinformationen von Vollschwarz- und Vollweißbildern dann an den Umfeldanalyseabschnitt 180.
  • Der Umfeldanalyseabschnitt 180 erzeugt die Unterschiedsinformationen, die durch Subtrahieren der Abbildungsinformationen des Vollschwarzbildes von den Abbildungsinformationen des Vollweißbildes geliefert werden, und erfasst den Grad von geänderter Leuchtdichte basierend auf den Unterschiedsinformationen. Und der Umfeldanalyseabschnitt 180 unterscheidet den Projektionsbereich 12, der in der Abtastregion 14 enthalten ist, basierend auf dem erfassten Grad von geänderter Leuchtdichte.
  • Der Umfeldanalyseabschnitt 180 vergleicht dann den mittleren Leuchtdichtewert im Projektionsbereich 12 mit einer Schwelle, um zu beurteilen, ob das Umfeld heller oder dunkler als ein vorbestimmter Zustand ist (Schritt S2).
  • Wenn der Umfeldanalyseabschnitt 180 urteilt, dass der mittlere Leuchtdichtewert im Projektionsbereich 12 dunkler als die Schwelle ist, dann überträgt der Umfeldanalyseabschnitt 180 die Abbildungsinformationen der Vollschwarz- und Vollweißbilder und die Koordinateninformationen des Projektionsbereichs 12 an den Leuchtdichteverteilungsanalyseabschnitt 160.
  • Der Leuchtdichteverteilungsanalyseabschnitt 160 berechnet den mittleren Leuchtdichtewert zwischen den geteilten Bildteilen und dann das Verhältnis von mittleren Leuchtdichtewerten zwischen den jeweiligen Bildteilen.
  • 9A ist eine schematische Darstellung eines Bildes, das in der vertikalen Richtung zweigeteilt ist, und 9B ist eine schematische Darstellung eines Bildes, das in der horizontalen Richtung zweigeteilt ist.
  • Es wird nun angenommen, dass der Projektionsbereich 12 in rechte und linke Teile geteilt ist und dass der mittlere Leuchtdichtewert im linken Teil YL ist, während der mittlere Leuchtdichtewert im rechten Teil YR ist, wie in 9A dargestellt. Es wird weiter angenommen, dass der Projektionsbereich 12 in obere und untere Teile geteilt ist und dass der mittlere Leuchtdichtewert im oberen Teil YT ist, während der mittlere Leuchtdichtewert im unteren Teil YB ist, wie in 9B dargestellt.
  • Der Leuchtdichteverteilungsanalyseabschnitt 160 bestimmt, dass YR/YL das horizontale Verhältnis RH ist, wenn YR gleich oder höher als YL ist; dass –(YL/YR) RH ist, wenn YR niedriger als YL ist; dass YT/YB das vertikale Verhältnis RV ist, wenn YT gleich oder höher als YB ist; und dass –(YB/YT) RV ist, wenn YT niedriger als YB ist.
  • Und der Leuchtdichteverteilungsanalyseabschnitt 160 nimmt auf die Winkelkorrekturtabelle 124 Bezug, um x- und y-Werte für vier Punkte A', B', C' und D' zu erhalten, welche jeweils die Ableitungskoordinaten angeben, die in Abhängigkeit von den Werten RH und RV korrigiert wurden.
  • Der Leuchtdichteverteilungsanalyseabschnitt 160 schreibt ferner die jeweiligen erhaltenen x- und y-Werte für die vier Punkte A', B', C' und D' in die Koordinatentabelle 122, um sie zu aktualisieren.
  • Wie erwähnt, erfasst für den dunkleren Zustand der Leuchtdichteverteilungsanalyseabschnitt 160 die Lagebeziehung zwischen dem Bildschirm 8 und dem Projektor 20 basierend auf dem Leuchtdichtegradienten im Projektionsbereich 12 und korrigiert die Koordinatentabelle 122 basierend auf der Winkelkorrekturtabelle 124 (Schritt S3).
  • Wenn der Umfeldanalyseabschnitt 180 urteilt, dass der mittlere Leuchtdichtewert im Projektionsbereich 12 heller als die Schwelle ist, dann überträgt der Umfeldanalyseabschnitt 180 die Abbildungsinformationen der Vollschwarz- und Vollweißbilder und die Koordinateninformationen des Projektionsbereichs 12 an den Umgebungsinformationsanalyseabschnitt 170.
  • Der Umgebungsinformationsanalyseabschnitt 170 erfasst die Koordinateninformationen in der Bildschirmregion 10 basierend auf der Leuchtdichteverteilung aus den Abbildungsinformationen des Vollschwarzbildes.
  • Wenn die Bildschirmregion 10 vollständig im Projektionsbereich 12 enthalten ist, korrigiert der Umgebungsinformationsanalyseabschnitt 170 die Koordinatentabelle 122 unter Verwendung der Koordinaten für vier Ecken in der Bildschirmregion 10 und basierend auf den Koordinateninformationen des Projektionsbereichs 12 und den Koordinateninformationen der Bildregion 10.
  • Wenn die Bildschirmregion 10 nicht vollständig im Projektionsbereich 12 enthalten ist, legt der Umgebungsinformationsanalyseabschnitt 170 in der Bildregion 10 ein Rechteck bestehend aus vier Eckkoordinaten fest und reduziert und verschiebt das Rechteck derart, dass das Rechteck vollständig im Inneren des Projektionsbereich 12 enthalten ist, wie in 11 dargestellt. Der Umgebungsinformationsanalyseabschnitt 170 korrigiert dann die Koordinatentabelle 122 unter Verwendung der vier Eckkoordinaten zu einem Zeitpunkt, zu dem das Rechteck vollständig im Projektionsbereich 12 enthalten ist.
  • Der Abschnitt des Projektionsbereichs 12, welcher durch diese Prozeduren verborgen blieb, kann ein Bild mit einer Farbe (z.B. Schwarz) anzeigen, die identisch mit jener der Bildschirmregion 10 ist.
  • Wie erwähnt, korrigiert der Umgebungsinformationsanalyseabschnitt 170 für den helleren Zustand die Koordinatentabelle 122, um die Konfiguration des Projektionsbereichs 12 an die Bildschirmregion 10 anzupassen (Schritt S4).
  • Der Verzerrungskorrekturabschnitt 130 korrigiert dann die Bildsignale, um die Verzerrung des Bildes basierend auf den Ableitinformationen der vier Eckkoordinaten, die in der Koordinatentabelle 122 enthalten sind, welche durch den Leuchtdichteverteilungsanalyseabschnitt 160 oder den Umgebungsinformationsanalyseabschnitt 170 korrigiert wurde (Schritt S5).
  • Der Bildprojektionsabschnitt 190 projiziert dann ein Bild basierend auf den korrigierten Bildsignalen (Schritt S6).
  • Durch die zuvor erwähnte Prozedur projiziert der Projektor 20 das Bild, in welchem jegliche Trapezverzerrung korrigiert wurde.
  • 10 ist eine schematische Ansicht, die ein Bild nach der Korrektur seiner Trapezverzerrung gemäß einem Beispiel dieser Erfindung darstellt.
  • Bevor der Projektionsbereich 12 korrigiert wird, kann er zum Beispiel die Form solch eines Trapezes aufweisen, wie durch ein Viereck ABCD dargestellt. Der Projektor 20 kann einen Projektionsbereich 12 jedoch in solch eine rechteckige Form umbilden, wie durch A'B'C'D' dargestellt, indem er die Bildsignale korrigiert.
  • Wie erwähnt, kann gemäß dieser Ausführungsform der Projektor 20 eine Verzerrung im Projektionsbereich 12 basierend auf der Verteilung des Leuchtdichtewerts bestimmen. Demnach kann der Projektor 20 die Bildverzerrung selbst in solch einem Fall angemessen unterscheiden, in dem es schwierig ist, die Verzerrung von der Form des abgetasteten Bildes zu unterscheiden, da die optischen Achsen der Linse 198 und des Sensors 30 miteinander identisch sind. Demnach kann die Verzerrung im projizierten Bild automatisch und angemessen korrigiert werden. Ein Sensor mit seiner niedrigeren Auflösung kann als der Sensor 30 angewendet werden, da es nicht notwendig ist, die Form des Projektionsbereichs 12 genau zu bestimmen und da nur die Leuchtdichteverteilung im Projektionsbereich 12 benötigt wird.
  • Gemäß dieser Ausführungsform kann die Bildverzerrung durch Unterscheiden, ob das Umfeld heller oder dunkler ist, angemessen korrigiert werden. Wenn es schwierig ist, irgendeine Änderung im Leuchtdichtewert zu unterscheiden, kann solch eine Korrektur durch Aktualisieren von vier Ableitungskoordinaten in den Koordinatendaten 122 unter Verwendung der Lageinformationen in Bezug auf die jeweiligen Scheitelpunkte in der Bildschirmregion 10 realisiert werden. Demnach kann der Projektor 20 in verschiedenen Betriebsumgebungen angewendet werden.
  • Modifikationen
  • Obwohl die bevorzugte Ausführungsform der vorliegenden Erfindung beschrieben wurde, ist die vorliegende Erfindung nicht auf die zuvor erwähnten Formen beschränkt.
  • Obwohl die Ausführungsform im Hinblick auf die Trapezverzerrung im Projektionsbereich 12 beschrieben wurde, kann der Projektor 20 das Bild selbst dann korrigieren, wenn die Verzerrung im Projektionsbereich 12 infolge von Drehung auftritt.
  • 12 ist eine schematische Ansicht, welche ein korrigiertes Bild gemäß einem Beispiel dieser Ausführung. darstellt, das gedreht wurde.
  • In diesem Fall legt der Umgebungsinformationenanalyseabschnitt 170 ein Rechteck fest, das Koordinaten für vier Ecken in der Bildschirmregion 10 umfasst, und er reduziert und verschiebt das Rechteck derart, dass es vollständig im Inneren des Projektionsbereichs 12 enthalten ist. Der Umgebungsinformationsanalyseabschnitt 170 korrigiert dann die Koordinatentabelle 122 unter Verwendung der vier Eckkoordinaten zu dem Zeitpunkt, zu dem das Rechteck vollständig im Projektionsbereich 12 enthalten ist.
  • Außerdem kann ein Neigungs- oder Schwerkraftsensor in den Projektor 20 eingebaut sein, derart dass die vertikale Verzerrung in einem Trapez durch solch einen Sensor korrigiert werden kann, während die horizontale Verzerrung im Trapez basierend auf den Abtastinformationen vom Sensor 30 korrigiert werden kann.
  • Wenn eine Linse 198 eine Brennweitenverstellfunktion hat, kann der Projektor 20 Informationen in Bezug auf die Brennweitenverstellung (z.B. numerische Werte, wie durch eine Null bei der maximalen Teleskopsicht und durch eine Eins bei der maximalen Pantoskopsicht dargestellt) erfassen und dann die Trapezverzerrung basierend auf diesen Informationen korrigieren.
  • Demnach kann die Trapezverzerrung selbst dann automatisch und angemessen korrigiert werden, wenn die Teleskop- oder Pantoskopfunktion verwendet werden soll.
  • Obwohl die Ausführungsform im Hinblick auf den Projektionsbereich 12 beschrieben wurde, der durch den Projektor 20 in zwei vertikale oder horizontale Regionen geteilt wird, wie in 9A und 9B dargestellt, kann der Projektionsbereich 12 in mehr Regionen als zwei (z.B. fünf, neun oder andere) geteilt werden. In diesem Fall kann der Projektor 20 den mittleren Leuchtdichtewert für jede der geteilten Regionen zur Bildverarbeitung bestimmen.
  • Obwohl die Ausführungsform im Hinblick auf die Winkelkorrekturtabelle 124 beschrieben wurde, die bewirkt, dass das Verhältnis von mittleren Leuchtdichtewerten zwischen verschiedenen Regionen im Projektionsbereich 12 mit den Ableitungskoordinaten im Projektionsbereich 12 im Zusammenhang gebracht werden, kann das Verhältnis von mittleren Leuchtdichtewerten durch einen Differenzwert im mittleren Leuchtdichtewert ersetzt werden.
  • Obwohl die Ausführungsform im Hinblick auf Vollschwarz- und Vollweißkalibrierungsbilder beschrieben wurde, ist die vorliegende Erfindung nicht auf solche Kalibrierungsbilder beschränkt, sondern kann auf jede von verschiedenen Arten von Kalibrierungsbildern angewendet werden.
  • Obwohl die Ausführungsform im Hinblick auf den Projektor 20 beschrieben wurde, der als ein Bildverarbeitungssystem fungiert, wird die vorliegende Erfindung auf jede andere von verschiedenen Frontprojektionsbildanzeigevorrichtungen als den Projektor 20 wirksam angewendet.
  • Der Projektor 20 kann ein Flüssigkristallprojektor oder ein Projektor sein, der ein DMD (Digital Micromirror Device) verwendet. DMD ist eine Handelsmarke, die der US Texas Instruments gehört.
  • Außerdem kann die Funktion des Projektors 20 nur durch den Projektor 20 oder durch eine Mehrzahl von dezentralisierten Verarbeitungseinheiten (z.B. einen Projektor und einen PC) realisiert werden.
  • Außerdem kann der Projektor 20 vom Sensor 30 getrennt sein oder sie können als eine Einheit ausgebildet sein.

Claims (7)

  1. Bildverarbeitungssystem (20) umfassend: optische Abtastmittel (30) zum Abtasten einer Abtastregion (14), auf welche ein vorbestimmtes Bild projiziert wird, und zum Ausgeben von Abtastinformationen; Leuchtdichteverteilungsanalysemittel (160) zum Analysieren einer Leuchtdichteverteilung in einem Projektionsbereich (12), der in der Abtastregion (14) enthalten ist, basierend auf den Abtastinformationen; das System (20) gekennzeichnet durch: Speichermittel (120), die so ausgelegt sind, dass sie Winkelkorrekturdaten speichern und außerdem Koordinatendaten, welche die Ableitungskoordinaten für den Projektionsbereich (12) angeben, speichern; und Bildsignalkorrekturmittel (130) zum Korrigieren von Bildsignalen basierend auf den Koordinatendaten, so dass eine Verzerrung im projizierten Bild korrigiert wird, wobei in den Winkelkorrekturdaten ein Verhältnis von mittleren Leuchtdichtewerten von verschiedenen Regionen des Projektionsbereichs (12) mit Ableitungskoordinaten zum Ableiten von Koordinaten des Projektionsbereichs (12) in Zusammenhang steht, und wobei das Leuchtdichteverteilungsanalysemittel (160) in Abhängigkeit von der Leuchtdichteverteilung im Projektionsbereich (12) auf die Winkelkorrekturdaten Bezug nimmt, um die Ableitungskoordinaten in den Koordinatendaten basierend auf den Winkelkorrekturdaten zu korrigieren.
  2. Bildverarbeitungssystem (20) nach Anspruch 1, ferner umfassend: Umgebungsinformationsanalysemittel (170) zum Bestimmen des Projektionsbereichs (12) und einer Bildschirmregion, die in der Abtastregion (14) enthalten sind, basierend auf der Leuchtdichteverteilung gemäß den Abtastinformationen, wenn ein rechteckiges Bild auf einen rechteckigen Bildschirm projiziert werden soll, und zum Aktualisieren von vier Ableitungskoordinaten in den Koordinatendaten basierend auf Lageinformationen jedes Scheitelpunkts in dem vorbestimmten Projektionsbereich (14) und der vorbestimmten Bildschirmregion und Ableitungskoordinateninformationen von vier Ecken in der Bildschirmregion.
  3. Bildverarbeitungssystem (20) nach Anspruch 2, ferner umfassend: Umfeldanalysemittel (180) zum Bestimmen eines helleren Zustands und eines dunkleren Zustands basierend auf den Leuchtdichteinformationen gemäß den Abtastinformationen, wobei der hellere Zustand ein Zustand ist, der heller als ein vorbestimmter Zustand ist, und der dunklere Zustand ein Zustand ist, der dunkler als der vorbestimmte Zustand ist, wobei im helleren Zustand das Umgebungsinformationsanalysemittel (170) die Ableitungskoordinaten in den Koordinatendaten aktualisiert und im dunkleren Zustand das Leuchtdichteverteilungsanalysemittel (160) die Ableitungskoordinaten in den Koordinatendaten aktualisiert.
  4. Projektor (20), umfassend: optische Abtastmittel (30) zum Abtasten einer Abtastregion (14), auf welche ein vorbestimmtes Bild projiziert wird, und zum Ausgeben von Abtastinformationen; Leuchtdichteverteilungsanalysemittel (160) zum Analysieren einer Leuchtdichteverteilung in einem Projektionsbereich (12), der in der Abtastregion (14) enthalten ist, basierend auf den Abtastinformationen; der Projektor (20) gekennzeichnet durch: Speichermittel (120), die so ausgelegt sind, dass sie Winkelkorrekturdaten speichern und außerdem Koordinatendaten, welche die Ableitungskoordinaten für den Projektionsbereich (12) angeben, speichern; und Bildsignalkorrekturmittel (130) zum Korrigieren von Bildsignalen basierend auf den Koordinatendaten, so dass eine Verzerrung im projizierten Bild korrigiert wird, Bildprojektionsmittel (190) zum Projizieren eines Bildes basierend auf den korrigierten Bildsignalen, wobei in den Winkelkorrekturdaten ein Verhältnis von mittleren Leuchtdichtewerten von verschiedenen Regionen des Projektionsbereichs (12) mit Ableitungskoordinaten zum Ableiten von Koordinaten des Projektionsbereichs (12) in Zusammenhang steht, und wobei das Leuchtdichteverteilungsanalysemittel (160) in Abhängigkeit von der Leuchtdichteverteilung im Projektionsbereich auf die Winkelkorrekturdaten Bezug nimmt, um die Ableitungskoordinaten in den Koordinatendaten basierend auf den Winkelkorrekturdaten zu korrigieren.
  5. Bildverarbeitungsverfahren, umfassend: optisches Abtasten einer Abtastregion (14), auf welche ein vorbestimmtes Bild projiziert wird, und Ausgeben von Abtastinformationen; Analysieren einer Leuchtdichteverteilung in einem Projektionsbereich (12), der in der Abtastregion (12) enthalten ist, basierend auf den Abtastinformationen; Bezug nehmen auf Winkelkorrekturdaten, in welchen ein Verhältnis von mittleren Leuchtdichtewerten von verschiedenen Regionen des Projektionsbereichs (12) mit Ableitungskoordinaten zum Ableiten von Koordinaten des Projektionsbereichs (12) in Zusammenhang steht, Korrigieren der Ableitungskoordinaten in Koordinatendaten, welche die Ableitungskoordinaten für den Projektionsbereich (12) angeben, basierend auf den Winkelkorrekturdaten; und Korrigieren von Bildsignalen basierend auf den Koordinatendaten, so dass eine Verzerrung im projizierten Bild korrigiert wird.
  6. Bildverarbeitungsverfahren nach Anspruch 5, ferner umfassend: Bestimmen des Projektionsbereichs (12) und einer Bildschirmregion, die in der Abtastregion (14) enthalten sind, basierend auf der Leuchtdichteverteilung gemäß den Abtastinformationen, wenn ein rechteckiges Bild auf einen rechteckigen Bildschirm projiziert werden soll; und Aktualisieren von vier Ableitungskoordinaten in den Koordinatendaten basierend auf Lageinformationen jedes Scheitelpunkts im vorbestimmten Projektionsbereich (12) und der vorbestimmten Bildschirmregion und Ableitungskoordinateninformationen von vier Ecken in der Bildschirmregion.
  7. Bildverarbeitungsverfahren nach Anspruch 6, ferner umfassend: Bestimmen eines helleren Zustands und eines dunkleren Zustands basierend auf den Leuchtdichteinformationen gemäß den Abtastinformationen; Aktualisieren, im helleren Zustand, von vier Ableitungskoordinaten in den Koordinatendaten basierend auf den Lageinformationen und Ableitungskoordinateninformationen für vier Ecken in der Bildschirmregion; und Analysieren, im dunkleren Zustand, der Leuchtdichteverteilung im Projektionsbereich (12) basierend auf den Abtastinformationen; Bezug nehmen auf die Winkelkorrekturdaten in Abhängigkeit von der Leuchtdichteverteilung im Projektionsbereich (12) und Korrigieren der Ableitungskoordinaten in den Koordinatendaten basierend auf den Winkelkorrekturdaten.
DE602004008975T 2003-01-17 2004-01-16 Bildverarbeitungssystem, Projektor und Bildverarbeitungsmethode Expired - Lifetime DE602004008975T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003009690 2003-01-17
JP2003009690A JP3844075B2 (ja) 2003-01-17 2003-01-17 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法

Publications (2)

Publication Number Publication Date
DE602004008975D1 DE602004008975D1 (de) 2007-10-31
DE602004008975T2 true DE602004008975T2 (de) 2008-06-19

Family

ID=32588564

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004008975T Expired - Lifetime DE602004008975T2 (de) 2003-01-17 2004-01-16 Bildverarbeitungssystem, Projektor und Bildverarbeitungsmethode

Country Status (7)

Country Link
US (1) US6932479B2 (de)
EP (1) EP1439694B1 (de)
JP (1) JP3844075B2 (de)
KR (1) KR100593113B1 (de)
CN (2) CN100459676C (de)
DE (1) DE602004008975T2 (de)
TW (1) TWI235944B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3681154A1 (de) * 2019-01-10 2020-07-15 Carl Zeiss Jena GmbH Projektor zum projizieren von bildern

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4150924B2 (ja) * 2003-07-02 2008-09-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
WO2003069556A1 (fr) * 2002-02-15 2003-08-21 Fujitsu Limited Procede et dispositif de conversion d'image, dispositif de reconnaissance d'image, dispositif de commande robotisee et dispositif de projection d'image
JP3541845B1 (ja) * 2003-02-17 2004-07-14 セイコーエプソン株式会社 プロジェクタの画像補正方法及びプロジェクタ
JP3871061B2 (ja) 2003-03-25 2007-01-24 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3846592B2 (ja) * 2003-06-26 2006-11-15 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4055010B2 (ja) * 2003-09-26 2008-03-05 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
DE10347388A1 (de) * 2003-10-08 2005-05-04 Zeiss Carl Jena Gmbh Anordnung zur Korrektur der visuellen Darstellung von Bildinformationen
WO2006008791A1 (ja) * 2004-07-15 2006-01-26 Sharp Kabushiki Kaisha 画像投射方法、プロジェクタ、及びコンピュータプログラム
WO2006008792A1 (ja) * 2004-07-15 2006-01-26 Sharp Kabushiki Kaisha 画像投射方法、プロジェクタ、及びコンピュータプログラム
WO2006024254A1 (de) * 2004-08-30 2006-03-09 Bauhaus-Universität Weimar Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
JP4196951B2 (ja) * 2005-02-04 2008-12-17 セイコーエプソン株式会社 プロジェクタ、投写画像調整方法
DE102005034990B4 (de) * 2005-03-21 2008-11-20 Bauhaus Universität Weimar Verfahren und Vorrichtung zur Digitalprojektion mit hoher Bildschärfe
US20070024764A1 (en) * 2005-07-29 2007-02-01 Optoma Technology, Inc. Methods and systems that compensate for distortion introduced by anamorphic lenses in a video projector
US20070024823A1 (en) * 2005-07-29 2007-02-01 Optoma Technology, Inc. Methods and systems for improving operation of a video projector
US20070025273A1 (en) * 2005-07-29 2007-02-01 Chung Yau W Methods and systems for detecting video signals and sources
US7357514B2 (en) * 2005-07-29 2008-04-15 Optoma Technology, Inc. Methods and systems for improving operation of a video projector
US7434937B2 (en) 2005-07-29 2008-10-14 Optoma Technology, Inc. Methods and systems for calibrating rear projection video
US7701518B2 (en) * 2005-07-29 2010-04-20 Optoma Technology, Inc. Methods and systems for displaying video in multiple aspect ratios
US8089567B2 (en) 2005-07-29 2012-01-03 Optoma Technology, Inc. Methods and systems for displaying video on an adjustable screen
US7787062B2 (en) * 2006-05-19 2010-08-31 Chunghwa Picture Tubes, Ltd. Rear projection display and circuit and method for adjusting image thereof
CN100531318C (zh) * 2006-10-09 2009-08-19 亚洲光学股份有限公司 可稳定摄像的摄像系统及方法
US9143748B2 (en) * 2009-07-02 2015-09-22 Thomson Licensing Method and system for differential distortion correction for three-dimensional (3D) projection
WO2011014692A1 (en) * 2009-07-29 2011-02-03 Thomson Licensing Method for crosstalk correction for three-dimensional (3d) projection
CA2769992A1 (en) * 2009-08-12 2011-02-17 Thomson Licensing Method and system for crosstalk and distortion corrections for three-dimensional (3d) projection
JP5444947B2 (ja) * 2009-08-26 2014-03-19 株式会社ニコン プロジェクタ
DE102009046114B4 (de) * 2009-10-28 2011-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer kalibrierten Projektion
CN103020950B (zh) * 2011-09-27 2015-09-09 华为终端有限公司 亮度函数获取方法以及相关装置
JP5842694B2 (ja) 2012-03-21 2016-01-13 セイコーエプソン株式会社 画像処理装置、プロジェクター、およびプロジェクターの制御方法
JP6089424B2 (ja) * 2012-03-21 2017-03-08 セイコーエプソン株式会社 画像処理装置、プロジェクター、およびプロジェクターの制御方法
US9626748B2 (en) * 2012-07-02 2017-04-18 Seiko Epson Corporation Projector and method for controlling the same
CN103096007B (zh) * 2013-01-07 2015-10-21 苏州佳世达光电有限公司 互动式投影系统及其校正方法
JP6056692B2 (ja) * 2013-07-16 2017-01-11 株式会社デンソー 検査装置
CN105357447B (zh) * 2015-10-30 2020-03-13 努比亚技术有限公司 图片处理方法及装置
CN107422590B (zh) * 2017-09-12 2020-09-08 中广热点云科技有限公司 自动调节投影面大小的家用投影系统
CN109040725B (zh) * 2018-08-31 2020-04-14 成都极米科技股份有限公司 基于投影装置使用环境的投影角度调整方法及投影装置
KR102105801B1 (ko) * 2019-11-13 2020-04-29 주식회사 애즈원 기울기를 갖는 led 전광판에 영상을 표현하기 위한 led 전광판 시스템

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2653899B2 (ja) * 1990-06-07 1997-09-17 松下電器産業株式会社 画像補正装置
JP2861333B2 (ja) * 1990-08-29 1999-02-24 松下電器産業株式会社 画像補正装置
WO1992015084A1 (en) * 1991-02-14 1992-09-03 Proxima Corporation Method and apparatus for calibrating geometrically an optical computer input system
JP2709423B2 (ja) * 1991-11-13 1998-02-04 株式会社エイ・ティ・アール通信システム研究所 表示装置
KR0134160B1 (ko) * 1993-03-17 1998-04-22 모리시타 요이찌 화상보정장치
JPH07131672A (ja) * 1993-10-28 1995-05-19 Mitsubishi Electric Corp ワイドアスペクトテレビジョン受像機
JP3688399B2 (ja) * 1996-07-26 2005-08-24 株式会社東芝 歪補正回路
JP2002527953A (ja) * 1998-10-02 2002-08-27 マクロニクス インターナショナル カンパニー リミテッド キーストーン歪みを防止する方法および装置
JP2000241874A (ja) 1999-02-19 2000-09-08 Nec Corp プロジェクタの自動画面位置調整方法及び装置
EP1164784A1 (de) * 2000-06-13 2001-12-19 Koninklijke Philips Electronics N.V. Verhinderung des Wölbungsphänomens
JP2002044571A (ja) 2000-07-27 2002-02-08 Nec Viewtechnology Ltd 投射型の格子状表示装置及び投射映像の歪み補正方法
JP2002247614A (ja) 2001-02-15 2002-08-30 Ricoh Co Ltd プロゼェクタ
CN100465995C (zh) 2001-06-12 2009-03-04 奥普提克斯晶硅有限公司 一种将图像投射到屏幕表面的方法及系统
KR100429874B1 (ko) * 2001-07-20 2004-05-04 삼성전자주식회사 파노라마/워터글라스 기능 구현을 위한 영상 처리 장치 및그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3681154A1 (de) * 2019-01-10 2020-07-15 Carl Zeiss Jena GmbH Projektor zum projizieren von bildern
US10791306B2 (en) 2019-01-10 2020-09-29 Carl Zeiss Jena Gmbh Projector for projecting images

Also Published As

Publication number Publication date
EP1439694B1 (de) 2007-09-19
KR20040067924A (ko) 2004-07-30
JP2004222153A (ja) 2004-08-05
US6932479B2 (en) 2005-08-23
CN2686241Y (zh) 2005-03-16
TW200424917A (en) 2004-11-16
EP1439694A1 (de) 2004-07-21
KR100593113B1 (ko) 2006-06-26
JP3844075B2 (ja) 2006-11-08
CN1517784A (zh) 2004-08-04
US20040201825A1 (en) 2004-10-14
DE602004008975D1 (de) 2007-10-31
CN100459676C (zh) 2009-02-04
TWI235944B (en) 2005-07-11

Similar Documents

Publication Publication Date Title
DE602004008975T2 (de) Bildverarbeitungssystem, Projektor und Bildverarbeitungsmethode
DE602004008985T2 (de) Bildverarbeitungssystem und -verfahren
DE69914615T2 (de) Verfahren und gerät zur abgleichung einer bildanzeigevorrichtung mit einer gruppe von kameras
DE69917470T2 (de) Vorrichtung und verfahren zum kalibrieren einer verteilten anzeigevorrichtung
DE112006003735B4 (de) Bildprojektionsverfahren und -Projektor
DE60311915T2 (de) Bildprojektor mit Sensor zur Detektion von Hindernissen auf dem Projektionsschirm
EP2188661B1 (de) Verfahren und beleuchtungsvorrichtung zur optischen kontrastverstärkung
DE60126554T2 (de) Bildanzeigesystem, Bildverarbeitungsverfahren und Informationsspeichermedium
DE69933436T2 (de) Bildverarbeitungsvorrichtung und -verfahren
US7003172B2 (en) Image processing technique for images projected by projector
DE102017213779A1 (de) Dreidimensionale Messvorrichtung
JP2004507987A (ja) 光学関数生成器を使用するシームレスなタイル式ディスプレイのための電子較正
JP2007043275A (ja) 投写画像の位置調整方法
US7457458B1 (en) Method and apparatus for defining and correcting image data
CN105103541A (zh) 图案位置检测方法、图案位置检测系统以及应用了这些的画质调整技术
DE102015113015A1 (de) Bildprojektionsvorrichtung, Verfahren zum Steuern von dieser, und maschinenlesbares Medium
DE10322884B4 (de) Kameragestütztes Präsentationssystem
DE102013206832A1 (de) Bilddarstellungsvorrichtung, mobiltelefon und verfahren
CN108737806A (zh) 一种投影仪色彩校正方法及装置、计算机存储介质
DE102005022103A1 (de) Tragbares Gerät, insbesondere digitale Kamera
DE202006014883U1 (de) Aufnahmesystem, Kamera und Winkelsensor für eine Kamera
JP2746872B2 (ja) 画像処理方法
US20070035784A1 (en) Image processing method and apparatus
JPH06105185A (ja) 輝度補正方法
EP1104180A2 (de) Verfahren und Einrichtung zur Bestimmung und mindestens teilweisen Korrektur der Fehler eines Bildwiedergabesystems

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: WADA, OSAMU, SUWA-SHI NAGANO-KEN 392-8502, JP

Inventor name: KOBAYASHI, MASANOBU, SUWA-SHI NAGANO-KEN 392-8, JP

8364 No opposition during term of opposition