DE69632212T2 - Verfahren zur Bildumwandlung und -Kodierung - Google Patents

Verfahren zur Bildumwandlung und -Kodierung Download PDF

Info

Publication number
DE69632212T2
DE69632212T2 DE69632212T DE69632212T DE69632212T2 DE 69632212 T2 DE69632212 T2 DE 69632212T2 DE 69632212 T DE69632212 T DE 69632212T DE 69632212 T DE69632212 T DE 69632212T DE 69632212 T2 DE69632212 T2 DE 69632212T2
Authority
DE
Germany
Prior art keywords
video
image
images
conversion data
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69632212T
Other languages
English (en)
Other versions
DE69632212D1 (de
Inventor
Angus Duncan Como Richard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynamic Digital Depth Research Pty Ltd
Original Assignee
Dynamic Digital Depth Research Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=3791642&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69632212(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Dynamic Digital Depth Research Pty Ltd filed Critical Dynamic Digital Depth Research Pty Ltd
Application granted granted Critical
Publication of DE69632212D1 publication Critical patent/DE69632212D1/de
Publication of DE69632212T2 publication Critical patent/DE69632212T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/354Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying sequentially
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

  • Die vorliegende Erfindung ist im allgemeinen auf die Synthese eines stereoskopischen Bildes gerichtet, und genauer auf ein Verfahren zur Umwandlung von zweidimensionalen (2D) Bildern zur weiteren Codierung, Übertragung und Decodierung zum Zwecke der Anzeige des stereoskopischen Bildes auf zweidimensionalen (2D) oder dreidimensionalen (3D) stereoskopischen Anzeigesystemen.
  • Neueste Entwicklungen in der Technologie im Bereich von kompakten Hochleistungs-Videoprojektionssystemen, Bildbearbeitung, Digitalvideo und Flüssigkristallanzeigen haben viele praktische 3D-Anzeigesysteme möglich gemacht, die sowohl aktive als auch passive Polarisationsbrillen und für einzelne und für mehrere Betrachter ausgelegte autostereoskopische Anzeigen verwenden.
  • Dreidimensionale Anzeigesysteme haben sich aus dem Gebiet technischer Kuriositäten herausbewegt und werden nun praktische Anzeigesysteme für Unterhaltung, kommerzielle und wissenschaftliche Anwendungen. Nun ist Bedarf für 3D-Medien zur Anzeige auf diesen Einrichtungen entstanden. Herkömmlich gab es nur zwei Wege, diese 3D-Medien (d. h. Medien, die Bildinformationen für mindestens zwei separate Ansichten derselben Szene aus verschiedenen Perspektiven enthalten) zu erzeugen. Diese sind:
    • 1. Erzeugung zweier separater Ansichten (normalerweise in Echtzeit) durch einen Computer.
    • 2. Bei Videoaufnahmen oder beim Filmen mit zwei seitlich versetzten Kameras im Falle computererzeugter Bilder zum Gebrauch in computerunterstützten Entwurfs-(CAD)-Systemen, Simulatoren oder Videospielausstattungen ist es kein komplexer Prozeß, zwei separate Bilder mit unterschiedlichen Perspektiven zu erzeugen.
  • Die Aufnahme von Filmen unter Verwendung zweier seitlich versetzter Kameras, um 3D zu produzieren, ist seit vielen Jahren gut bekannt. Bei diesem Ansatz gibt es jedoch viele Probleme. Es ist beträchtlich schwieriger, Film- oder Videoaufnahmen in 3D herzustellen als in 2D, weil es Grenzen hinsichtlich der erlaubten Abstände zwischen den nächsten und weitest entfernten Objekten in der Szene (praktische 3D-Tiefe des Feldes) wie auch Bildeinstellungsprobleme gibt (wie z. B. das, daß nahe Objekte nur in einer Kamera gesehen werden und daher die Ungenauigkeit der 3D-Bilderzeugung hervorheben, wenn sie wiedergegeben werden).
  • Ein Verfahren, das zwei seitlich versetzte Kameras verwendet, ist beispielsweise in US-A-4 704 627 (YUYAMA, et al.) beschrieben.
  • Ein weiteres Problem ist es, einen ruhigen Kameraschwenk aufrechtzuerhalten, ohne falsche 3D-Artefakte aufgrund der Latenzzeit zwischen den Bildern von den beiden Kameras zu verursachen usw.
  • Wegen der Komplexität, der hohen Kosten für die Erzeugung und die Implementierung und wegen der Tatsache, daß bisher noch immer nur eine sehr kleine Anzahl von 3D-Anzeigesystemen für den häuslichen und den kommerziellen Bereich produziert werden, hat es keinen großen Anreiz für die bedeutenderen Produzenten von Filmen oder Videos gegeben, 3D-Medien zu produzieren. Würde jedoch ein Verfahren entwickelt, das es erlauben würde, herkömmliche 2D-Filme in eine 3D-Version umzuarbeiten, dann wäre es in erster Linie nicht nur möglich, neue Filme mit deutlich geringere Kosten als beim direkten Filmen in 3D ins 3D-Format umzuwandeln, sondern es würde auch möglich, die ausgedehnten Archive von 2D-Film- und Videomaterial zur Veröffentlichung sowohl im Kino als auch auf dem Videomarkt aufzuarbeiten.
  • Es wäre jedoch vorteilhaft, ein vorhandenes 2D-Bild umwandeln zu können, so daß es als 3D-Bild betrachtet werden kann. Ein Weg, dies zu erreichen, ist, ein einzelnes 2D-Bild in zwei separate Links- und Rechts-Bilder durch ein 'Ausschneiden und Einfügen' Verfahren umzuwandeln. In diesem Verfahren wird ein Objekt aus dem Bild 'ausgeschnitten' und seitlich links oder rechts versetzt zurück in das ursprüngliche Bild 'eingefügt', um so die benötigten gesonderten Bilder herzustellen. Dies hat jedoch einen leeren Bereich in dem Gebiet zur Folge, das ehemals durch das Objekt im Bild besetzt war. Ein solches Verfahren ist beispielsweise in US-A-4 925 294 (GESHWIND, et al.) beschrieben.
  • Dieses Dokument behandelt einige der hauptsächlichen algorithmischen Verfahren, die bei der Umwandlung von 2D-Medien in 3D-Format, einem neuen zusammengesetzten Datenformat, das zur Kommunikation und Speicherung dieser neuen 3D-Medien geeignet ist, angewandt werden. Es erläutert ferner einige Hardware-Implementierungen für die Echtzeit-Codierung, Übertragung und Decodierung dieses neuen 3D-Formats.
  • Die Hauptvorteile dieser Technologie sind, daß es zu erheblichen Kosteneinsparungen und Vorteilen hinsichtlich der Versorgung mit Medien kommt, d. h. nur eine Kamera zum Filmen verwendet werden muß. Aufgrund der Art des Verfahrens zur Umwandlung von 2D in 3D ist es möglich, die Bildmedien praktisch unverändert zu packen und zu übertragen, mit Ausnahme des Hinzufügens eines kleinen Pakets von 3D-Daten, das das endgültige 2D-Anzeigeverfahren in keiner Weise beeinträchtigt. In der Tat ermöglicht dies die Anzeige der Bilder auf Standard-2D-Fernsehgeräten in 2D oder 3D (wobei die Verwendung einer Blendenbrille oder dergleichen erforderlich ist) ohne Verschlechterung der Bildgüte, während gleichzeitig auch die Anzeige auf 3D-Fernsehgeräten oder anderen Displays in 3D möglich ist.
  • Die letzte Stufe des Verfahrens zur Umwandlung von 2D in 3D wird in Echtzeit beim Empfänger abgeschlossen, und somit sind die erhöhten Bandbreitenanforderungen für die Anzeige von 3D-Bildern in bezug auf den Fernsehdecoder lokal und beeinflussen das Kanalhandhabungsvermögen des Fernsehbetreibers nicht nachteilig.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Verfahren zum Erzeugen eines 2D-Videosignals bereitgestellt, das mit Umwandlungsdaten codiert ist, um die Umwandlung des 2D-Videosignals in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige zu unterstützen, wobei das Verfahren die folgenden Schritte aufweist:
    Bereitstellen eines 2D-Videosignals, das Daten enthält, die ein 2D-Videobild betreffen;
    Erzeugen von Umwandlungsdaten, die die Verschiebung von jeweiligen ausgewählten Punkten des 2D-Videobildes für die Umwandlung des Bildes in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige definieren, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden; und
    Addieren der Umwandlungsdaten zu dem 2D-Videosignal, um das codierte Signal zu bilden.
  • Die Umwandlungsdaten könnten in den Leerzeilen an dem oberen und/oder unteren Ende eines zu übertragenden Standard-2D-Bildes oder in der horizontalen Synchronisationsperiode eines zu übertragenden Standard-2D-Bildes oder in den horizontalen Überabtastungsbereichen ("Overscan"-Bereichen) jeder Zeile eines zu übertragenden Standard-2D-Bildes übertragen werden.
  • Das Verfahren könnte die folgenden Schritte aufweisen:
    Erzeugen von Videosignalen von Videobildern von zwei separaten Blickpunkten;
    Vergleichen der Videobilder von den getrennten Blickpunkten, um die Umwandlungsdaten zu erzeugen; und
    Kombinieren des Videosignals der Videobilder von einem der Blickpunkte mit den Umwandlungsdaten, um dadurch das codierte Videosignal zu erzeugen. Die Videosignale könnten von zwei separaten Kameras erzeugt werden, oder die Links- und Rechtsaugenvideobilder könnten von einer stereoskopischen Videokamera erzeugt werden.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Erzeugen von Links- und Rechtsaugenbildern für eine stereoskopische Anzeige aus einem codierten 2D-Videosignal bereitgestellt, wobei das Verfahren die folgenden Schritte aufweist:
    Bereitstellen eines 2D-Videosignals, das Daten enthält, die ein 2D-Videobild betreffen, wobei das Videosignal mit Umwandlungsdaten codiert wird, die die Verschiebung von jeweiligen Punkten des 2D-Videobildes für die Umwandlung des Bildes in Links- und Rechtsaugenbilder definieren, so daß sowohl die Links- als auch das Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden;
    Lesen der Umwandlungsdaten aus dem Videosignal; und
    Erzeugen von Links- und Rechtsaugenbildern aus dem 2D-Videobild zur Anzeige durch Verschieben von Objekten innerhalb des 2D-Videobildes in Abhängigkeit von den Umwandlungsdaten.
  • Ein solches Verfahren könnte ferner die folgenden Schritte aufweisen:
    Umwandeln des 2D-Videobildes in RGB-Komponenten;
    Umwandeln jeder Komponente in ein Digitalsignal; und
    Speichern der Digitalsignale vor dem Erzeugen der Links- und Rechtsaugenbilder.
  • Die Digitalsignale könnten aus einem Speicher mit einer variablen Rate als eine Funktion der Umwandlungsdaten gelesen werden, oder die Digitalsignale könnten in den Speicher mit einer variablen Rate als eine Funktion der Umwandlungsdaten gelesen werden.
  • Die Digitalsignale könnten zum Betrachten auf einem Analogsystem in Analogsignale umgewandelt werden.
  • Die Umwandlungsdaten könnten von dem Videosignal getrennt werden.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein System zum Erzeugen eines 2D-Videosignals bereitgestellt, das mit 3D-Umwandlungsdaten codiert ist, wobei das System folgendes aufweist:
    eine Einrichtung zum Erzeugen von Videosignalen von Videobildern an zwei separate Blickpunkten;
    eine Umwandlungseinrichtung zum Erzeugen von Umwandlungsdaten, wobei die Umwandlungseinrichtung die Videosignale von der Einrichtung empfängt und die Signale von den separaten Blickpunkten vergleicht, um dadurch die Umwandlungsdaten zu erzeugen, wobei die Umwandlungsdaten die Verschiebung von jeweiligen Punkten von einem der Videobilder für die Umwandlung des Videobildes in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige definieren, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden; und
    eine Codiereinrichtung zum Kombinieren des Videosignals von dem einen Videobild mit den Umwandlungsdaten von der Umwandlungseinrichtung, um dadurch ein codiertes Videosignal zu erzeugen.
  • Die Einrichtung zum Erzeugen von Videosignalen könnte eine erste und eine zweite Videokamera, die relativ zueinander seitlich verlagert sind, oder eine stereoskopische Kamera zur Aufnahme von Links- und Rechtsaugenvideobildern aufweisen.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein Decoder zum Decodieren eines Videosignals bereitgestellt, um eine stereoskopische Anzeige zu erzeugen, wobei das Signal ein 2D-Videobild liefert und ferner Umwandlungsdaten zum Umwandeln des Video bildes aufweist, wobei die Umwandlungsdaten die Verschiebung von jeweiligen Punkten des Videobildes für die Umwandlung des Videobildes in ein Bild für eine stereoskopische Anzeige definieren, wobei bestimmte von den erzeugten Bildern zum Betrachten mit dem linken Auge eines Betrachters und die anderen erzeugten Bilder zum Betrachten mit dem rechten Auge des Betrachters bestimmt sind, wobei der Decoder folgendes aufweist:
    • a) eine Einrichtung zum Empfangen des Videosignals;
    • b) eine Decodiereinrichtung zum Lesen der Umwandlungsdaten; und
    • c) eine Einrichtung zur Nutzung der Umwandlungsdaten, um das 2D-Videobild in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige umzuwandeln, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden.
  • Ein solcher Decoder könnte folgendes aufweisen:
    • a) einen RGB- oder Komponenten-Videoumwandler zum Umwandeln des Videosignals in separate Videokomponenten davon;
    • b) eine Analog-Digital-Umwandlungseinrichtung zum Umwandeln jeder Videokomponente in ein entsprechendes Digitalsignal; und
    • c) eine digitale Speichereinrichtung zum Speichern der Digitalsignale.
  • Der Decoder könnte so ausgebildet ist, daß er eine die Ausleserate der digitalen Speichereinrichtung steuernde frequenzveränderliche Taktgebereinrichtung steuert, so daß die Speichereinrichtung mit einer variablen Rate gelesen wird, um dadurch das 2D-Bild in Abhängigkeit von den Umwandlungsdaten umzuwandeln.
  • Alternativ könnte der Decoder so ausgebildet sein, daß er eine die Einleserate der digitalen Speichereinrichtung steuernde frequenzveränderliche Taktgebereinrichtung steuert, so daß die RGB- oder Videokomponenten mit einer variablen Rate in die Speichereinrichtung gelesen werden können, um dadurch das 2D-Bild in Abhängigkeit von den Umwandlungsdaten umzuwandeln.
  • Die Speichereinrichtung könnte in Form eines Zweiweg-RAM-Zeilenspeichers sein.
  • Der Decoder könnte eine einzige Videozeile oder eine Mehrzahl von Videozeilen verarbeiten.
  • Bei dem Decoder nach der Erfindung könnte eine Digital-Analog-Umwandlungseinrichtung zum Umwandeln des ausgelesenen Digitalsignals in ein umgewandeltes Videosignal vorgesehen sein, um das Betrachten auf einer Betrachtungseinrichtung zu ermöglichen. Der Decoder könnte eine Parallelspeichereinrichtung zum Speichern des Digitalsignals für die umgewandelten Links- bzw. Rechtsvideobilder aufweisen.
  • Alternativ könnte der Decoder eine Trenneinrichtung zum Trennen der Umwandlungsdaten von dem Videosignal aufweisen.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein stereoskopisches Bildanzeigesystem bereitgestellt, das folgendes aufweist:
    • a) einen Codierer zum Codieren eines Videosignals, das ein 2D-Videobild liefert, mit Umwandlungsdaten, wobei die Umwandlungsdaten die Verschiebung von jeweiligen Punkten des Videobildes zum Umwandeln des Videobildes in ein Bild für eine stereoskopische Anzeige definieren; und
    • b) einen Decoder zum Trennen der Umwandlungsdaten von dem Videosignal und zum Umwandeln des Videosignals als eine Funktion der Umwandlungsdaten, um das Videobild in Links- und Rechtsaugenbilder umzuwandeln, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden.
  • Ein solches System könnte ferner eine Einstelleinrichtung zum selektiven Einstellen der Verschiebung der jeweiligen Punkte aufweisen, um den Grad der Dehnung in den Links- und Rechtsaugenbildern zu variieren. Die Einstelleinrichtung kann eine Fernsteuerungseinrichtung aufweisen.
  • Die vorliegende Erfindung weist ferner ein stereoskopisches Mehrfachbetrachter-Anzeigesystem auf, wobei das System einen Decoder nach der Erfindung aufweist. Ein solches stereoskopisches Mehrfachbetrachter-Anzeigesystem könnte eine Vielzahl von Projektoren aufweisen, wobei der Decoder eine Serie von Bildern erzeugt, wobei jedes Bild von einem jeweiligen Projektor gezeigt wird. Das System könnte eine Lentikularlinsenanordnung aufweisen, um die Bilder von den jeweiligen Projektoren zu richten.
  • Die vorliegende Erfindung wird nachstehend beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Diese zeigen in:
  • 1 ein ursprüngliches Bild und herkömmliche Links- und Rechts-Bilder zur Bereitstellung eines 3D- oder stereoskopischen Bildes;
  • 2 ein ursprüngliches Bild und Links- und Rechts-Bilder zur Bereitstellung eines 3D-Bildes, das mittels eines Ausschneide- und Einfügeverfahrens erzeugt ist;
  • 3 ein ursprüngliches Bild und ein Bild, das mit dem "Dynamic Depth Cueing" (DDC) Verfahren gemäß der vorliegenden Erfindung erstellt ist;
  • 4 ein Links- und Rechts-Bild und das sich daraus ergebende 3D-Bild gemäß der vorliegenden Erfindung;
  • 5 ein Bild, das diskontinuierlich durch ein Verzerrungs-Gitter verzerrt ist;
  • 6 ein Bild, das kontinuierlich durch ein Verzerrungs-Gitter verzerrt ist;
  • 7 beispielhafte Daten für die räumliche Verzerrung des Gitters (mesh spatial displacement, MSD) für ein Links- und ein Rechtsgitter;
  • 8 ein Flußdiagramm, das darstellt, wie MSD-Daten einem Videobild gemäß der vorliegenden Erfindung hinzugefügt werden;
  • 9 ein Blockbild, das zeigt, wie ein DDC-Decoder in eine Videokette nach der vorliegenden Erfindung eingefügt ist;
  • 10 ein Blockbild, das eine mögliche Implementierung einer DDC-Decodereinheit nach der vorliegenden Erfindung zeigt, die feldsequentielle zusammengesetzte Videoausgänge liefert;
  • 11 ein Blockbild einer anderen möglichen Implementierung einer DDC-Decodereinheit nach der vorliegenden Erfindung, die feldparallele zusammengesetzte Videoausgänge liefert;
  • 12 ein Blockbild einer Version eines MSD-Decoders nach der vorliegenden Erfindung;
  • 13 wie MSD-Daten in dem zusammengesetzten Videosignal codiert sind;
  • 14 ein Blockbild einer Anordnung zum Liefern von in Echtzeit erzeugten DDC-codierten Videobildern;
  • 15 ein Blockbild einer alternativen Anordnung zum Bereitstellen von in Echtzeit erzeugten DDC-codierten Videobildern;
  • 16 das Prinzip des Betriebs von Mehrfachbetrachter-3D-Systemen;
  • 17 ein Blockbild, das das Prinzip des Betriebs eines 3D-Systems auf der Basis einer Lentikularlinse zeigt;
  • 18 bzw. 19 ein Mehrprojektorsystem, das eine Lentikularlinsenanordnung verwendet; und
  • 20 ein Mehrprojektorsystem, das einen DDC-Decoder nach der vorliegenden Erfindung aufweist.
  • Auf das Verfahren gemäß der vorliegenden Erfindung zur Ermöglichung der Umwandlung von 2D oder "monoskopischen" Videosignalen in 3D oder „stereoskopische" Videosignale wird in der folgenden Beschreibung als "Dynamic Depth Cueing" (DDC) Bezug genommen, und dieses umfaßt die folgenden Verfahren, ist aber nicht auf diese beschränkt:
    • a) "3D GENERATION" – Ein Verfahren und ein Vorgang zur Umwandlung von 2D-Bildern in stereoskopische 3D-Bildpaare und zur Erzeugung der 3D-Umwandlungsdaten.
    • b) "3D-SCRIPTING" – Ein Verfahren, um die Änderungen zu beschreiben, die an einem 2D-Bild vorgenommen werden müssen, um es zu einem stereoskopischen 3D-Bildpaar umzuwandeln. Es beschreibt, welche Objekte ausgewählt werden, wie sie bearbeitet werden, und es stellt eine Einrichtung zur Speicherung von 3D-Daten bereit.
    • c) "3D DATA ENCODING" – Ein Verfahren zur Hinzufügung von Informationen zu einem 2D-Videobild in einem definierten Format. Das entstehende modifizierte Video ist kompatibel mit existierenden Videoaufzeichnungs-, -editier-, -übertragungs- und -empfangssystemen.
    • d) "3D STANDARDISED PROTOCOL" – Die 3D-Umwandlungsdaten werden zu dem 2D-Video hinzugefügt, unter Verwendung eines definierten Datenformats oder eines standardisierten Protokolls. Dieses Protokoll kann gut ein weltweiter Standard zur Hinzufügung von 3D-Umwandlungsdaten zu 2D-Übertragungen werden.
    • e) "3D DATA DECODING" – Ein Verfahren zum Empfang des 2D-Videobildes zuzüglich der Umwandlungsdaten, und um die Informationen, die zu einem 2D-Videobild hinzugefügt sind, zu entnehmen, so daß ein stereoskopisches 3D-Bildpaar aufgebaut werden kann.
    • f) "3D SYNTHESIS" – Ein Verfahren, um das 2D-Videobild unter Nutzung der Umwandlungsdaten zu manipulieren, um ein stereoskopisches 3D-Bildpaar aufzubauen.
  • Um ein 2D-Bild in ein simuliertes 3D-Bild umzuwandeln, ist es notwendig, das ursprüngliche Bild zu modifizieren, um zwei leicht unterschiedliche Bilder zu erzeugen und diese getrennten Bilder dem linken und dem rechten Auge unabhängig zu zeigen. Die Modifikation des ursprünglichen Bildes besteht aus einer seitlichen Verschiebung von Objekten in der Bildebene (gelegen auf dem Projektions- oder Bildschirm), um den Eindruck von Tiefe zu erzeugen.
  • Um ein Objekt in einem Bild hinsichtlich der Bildebene weiter wegliegend vom Betrachter erscheinen zu lassen, ist es notwendig, das Objekt im Bild dem linken Auge mit einer leichten linken seitlichen Verschiebung und dem rechten Auge mit einer leichten rechten seitlichen Verschiebung zu zeigen. Dies ist in 1 dargestellt. Um ein Objekt dem Betrachter näher erscheinen zu lassen, ist es nötig, das Objekt im Bild für das linke Auge seitlich nach rechts und das Objekt im Bild für das rechte Auge seitlich nach links zu verschieben. Für ein Objekt, das in der Bildebene positioniert werden soll, wird das Objekt im Bild für beide Augen an derselben Position plaziert.
  • Bei der Betrachtung von Objekten in der Wirklichkeit macht ein Betrachter ebenso Gebrauch von Fokusinformationen. Bei simuliertem 3D jedoch sind diese Informationen nicht vorhanden, und falls die seitlichen Verschiebungen zu groß gemacht werden, insbesondere um ein Objekt näher zum Betrachter zu bringen, scheint das Objekt in zwei getrennte Bilder aufzubrechen, und der 3D-Effekt ist verloren.
  • Die Links- und Rechts-Bilder können unter Verwendung eines Computers erzeugt werden. Das Bild wird zuerst unter Verwendung eines Videodigitalisierers digitalisiert, und die daraus entstehenden Daten werden im Speicher gespeichert. Dann können die zwei neuen Bilder erzeugt werden.
  • Der einfachste Weg, um die neuen Links- und Rechts-Bilder mit der benötigten seitlichen Verschiebung zu erzeugen, ist, die Objekte aus dem Bild "auszuschneiden" und sie mit der nötigen seitlichen Versetzung wieder "einzufügen". Darauf wird als "Ausschneide- und Einfüge"-Verfahren Bezug genommen. Dies kann dadurch geschehen, daß zuerst die Position eines Objekts, das "bewegt" werden soll, durch seine Identifizierung definiert wird, und dann das Objekt aus dem Bild "ausgeschnitten" und seitlich bewegt wird.
  • Das Problem bei diesem einfachen Verfahren ist, daß, sobald das ausgewählte Objekt bewegt ist, auch der Hintergrund entfernt ist und ein leerer Bereich im Hintergrund daraus entsteht, siehe 2.
  • Gemäß der vorliegenden Erfindung wird ein Objekt in einem Bild "gedehnt", um die notwendige seitliche Verschiebung bereitzustellen und die ursprünglichen Hintergrunddetails zu bewahren. Die entstehenden seitlichen Verzerrungen des Bildes werden mathema tisch geglättet, so daß der resultierende Effekt als "echtes" 3D mit nur geringen oder gar keinen sichtbaren Artefakten wahrgenommen wird.
  • Um den Effekt dieser Dehnung auf das Bild besser sichtbar zu machen, stelle man sich vor, daß das umzuwandelnde Bild auf einen dünnen Flächenkörper aus Gummi gedruckt worden ist. Es ist möglich, einen Punkt auf der Oberfläche des Bildes, der einem Objekt benachbart ist, auszuwählen und in eine neue Position zu dehnen, z. B. zur Rechten seiner ursprünglichen Position. Der Abschnitt des Bildes zur Rechten des Objekts ist deshalb komprimiert und der zur Linken ist gedehnt, siehe 3. Dem Betrachter erscheint das Objekt nun verzerrt, wenn es mit beiden Augen betrachtet wird.
  • Falls ein ähnliches, aber entgegengesetzt gedehntes Bild dem anderen Auge gezeigt wird, sieht der Betrachter nicht ein verzerrtes Bild, vielmehr sieht er ein Objekt, das 3D-Merkmale besitzt. Dies ist in 4 dargestellt.
  • Das "Dehnen" eines Objekts in einem Bild kann elektronisch vorgenommen werden. Die Objekte von Interesse in jedem Videobild werden zuerst durch Umreißen derselben festgelegt. Für jedes Objekt wird auch ein Tiefen- oder Gitterverzerrungs-Merkmal definiert. Die Dehnung kann durchgeführt werden, indem man es einem Anwender ermöglicht, das Bild zu dehnen und den Effekt des sich daraus ergebenden 3D-Bildes in Echtzeit zu betrachten. Das Geschick des Anwenders und gestalterisches Eingreifen können benutzt werden, um die 3D-Ausivirkung des sich ergebenden Bildes und der folgenden Videosequenz zu bestimmen. Während einzelne Videobilder manuell umgewandelt werden könnten (d. h. nicht in Echtzeit), sehen wir auch eine automatische Umwandlung (d. h. in Echtzeit) einer Folge von ähnlichen Bildern vor, die einen Video-"Clip" bilden. Der Anwender definiert die Start- und Endbilder des Video-Clips, der umgewandelt werden soll. Diese bestimmen auch die relative Tiefe jedes Objekts bezüglich der Bildebene, im Start- und Endbild. Der Video-Clip wird unter Verwendung der Anfangs- und Endpositionen und der Tiefe jedes Objekts in dem Clip bearbeitet, um die benötigte Dehnung zu interpolieren oder die dazwischenliegenden Einzelbilder zu manipulieren.
  • Im Falle von mehreren überlappten Objekten, welche unterschiedliche Tiefen haben, wird Objekten im Vordergrund Vorrang gegeben. Dies ist schon an sich der Fall, da das ur sprüngliche 2D-Bild mit einer einzelnen Kamera aufgenommen wurde, und daher die Pixelinformation automatisch dem Vordergrund den Vorrang gegeben hat.
  • Dieses "Dehnen" des Bildes kann elektronisch durch Manipulation des digitalisierten Bildes unternommen werden. Ein Netz (Gitter) wird zeitweilig über dem zu verzerrenden Bild plaziert, so daß vor der Verzerrung die Koordinaten jeder Zeile und Spalte des Netzes 0,0 sind. Die x-Koordinaten des Netzes werden verändert, was eine Verzerrung des zugrundeliegenden Bildes zur Folge hat. Statt daß nur der Bildbereich unmittelbar unter der Netzlinie bewegt werden, was eine Diskontinuität zur Folge haben würde – siehe 5 –, werden auch benachbarte Netzlinien bewegt, um eine glatte Verzerrung herzustellen (siehe 6).
  • Die Rasterung des Verzerrungsnetzes bestimmt die Auswirkung des 3D-Effekts. Je gröber das Netz, desto mehr gesplint werden andere Objekte näher zu dem Objekt, das gedehnt wird, beeinflußt. Dies hat eine kleinere 3D-Auswirkung im resultierenden Bild zur Folge. Ein feineres Netz hat schärfere Ränder der Objekte, einen 3D-Effekt mit größerer Auswirkung, aber größere Randdiskontinuitäten zur Folge. Die Größenordnung des Verzerrungsnetzes wird zu Erklärungszwecken als 16 × 16 angenommen. Informationen über jeden Unterpunkt auf dem Netz (d. h. Koordinatenpositionen nach der Verzerrung) werden codiert, um Hintergrund- und Vordergrund-Unterpunkte zu erzeugen. Beispielsweise können 4 Bits für die Codierung des Unterpunkts verwendet werden, was 16 verschiedene Level zur Folge hat, 4 Hintergrund- und 12 Vordergrund-Level. Das Format der Unterpunkt-Codierung kann auch mittels Experimenten bestimmt und so angepaßt werden, daß es sich für die Anwendung eignet.
  • Alternativ kann dieser Netzverzerrungsprozeß durch einen mathematischen Algorithmus definiert werden, was eine automatische Behandlung von Bildern ermöglichen würde.
  • Man beachte, daß, sobald die Netzverzerrungen für das linke Auge bestimmt sind, die Koordinaten der Verzerrungen für das rechte Auge einfach durch skalare Multiplikation der Matrix mit –1 (d. h. in die entgegengesetzte seitliche Richtung um denselben Betrag verschoben) erhalten werden und automatisch berechnet werden können. Dies ist in 7 dargestellt.
  • Die Matrix, die vom relativen horizontalen Abstand jedes Schnittpunktes des verzerrten Netzes gebildet wird, definiert die Daten für die räumliche Verzerrung des Gitters (MSD-Daten).
  • Alles, was nötig ist, um das resultierende 3D-Bild völlig zu definieren und zu reproduzieren, ist, das ursprüngliche, unveränderte 2D-Bild und die MSD-Daten bereitzustellen. Demzufolge können 3D-Bilder durch Berücksichtigung des 2D-Bildes und einer zugehörigen MSD-Datei gespeichert, übertragen, erzeugt, editiert und manipuliert werden.
  • Deshalb ist es möglich, 3D-Bilder über herkömmliche 2D-Videosysteme durch Codieren der MSD-Daten in jedem Videobild zu speichern und zu übertragen. Da das ursprüngliche 2D-Videobild gespeichert wird und ohne Änderung übertragen werden kann, ist das resultierende Video mit allen existierenden Video- und Fernsehsystemen völlig kompatibel. Existierende 2D-Fernsehgeräte zeigen ein normales Bild an.
  • Eine Anzahl existierender Verfahren kann angewandt werden, um die MSD-Daten dem 2D-Bild hinzuzufügen, so daß es vom Betrachter nicht entdeckt wird und mit existierenden Videostandards kompatibel ist. Diese Verfahren schließen folgende ein, sind aber nicht auf diese beschränkt:
    • a) Einfügen der MSD-Information in die freien Zeilen am oberen und unteren Ende des Bildes, die schwarz gesetzt sind, d. h. in einer ähnlichen Weise wie die Hinzufügung von "Teletext"-Daten,
    • b) im unsichtbaren "over-scan" (jenseits der Abtastung liegenden) Bereich an der linken und der rechten Seite jedes Bildes,
    • c) in der horizontalen Synchronisationsperiode gemäß dem British Broadcasting Corporation "Sound in Sync"-System.
  • In Zukunft, mit Einführung des digitalen HDTV, werden freie digitale Datenrahmen verfügbar sein, um die MSD-Daten einzufügen.
  • Der Vorgang des Hinzufügens der MSD-Daten zu einem 2D-Videobild, um ein DDC-codiertes Videobild zu bilden, ist in 8 dargestellt.
  • Die MSD-Datenmenge ist gering, sie ist geschätzt ungefähr 100 Bytes pro Bild. Diese kann, falls notwendig, zur Speicherung und Übertragung durch Anwendung von Standard-Datenkompressionsverfahren wie z. B. Lauflängen- oder differentielle Codierung weiter komprimiert werden.
  • Aufgrund der kleinen Datenmenge ist auch die benötigte Datenrate gering. Es ist auch möglich, räumliche und zeitliche Kompression anzuwenden, um die benötigten Daten weiter zu reduzieren, da die MSD-Daten nicht schnell über eine Anzahl von Bildern variieren. Die exakte zeitliche Beziehung zwischen den MSD-Daten und ihren zugehörigen Bildern ist nicht kritisch, ein Verschiebungsirrtum von einem Bild ist wahrscheinlich annehmbar.
  • Wiederum aufgrund der kleinen Datenmenge, der niedrigen Datenrate und der nicht kritischen Ausrichtung könnten die MSD-Daten über eine Anzahl von Bildern gesendet werden, d. h. 4 Bilder mit einem Viertel der Information in jedem Bild.
  • Ein Blockbild, das zeigt, wie ein DDC-Decoder in eine Videokette eingefügt ist, ist in 9 gezeigt. Das DDC-codierte Video, das über jede existierende Videoquelle, d. h. terrestrisch, über Satellit usw. erhalten werden kann, wird dem Eingang eines DDC-Decoders zugeführt. Ein Ausgang des Decoders ist eine Standard-Videowellenform (oder ein videomoduliertes Hochfrequenzsignal), das eine Standard-TV-Anzeige treibt und es einem Betrachter, der eine von dem DDC-Decoder synchronisierte Blendenbrille trägt, ermöglicht, ein 3D-Bild zu betrachten.
  • Außerdem sind Ausgänge von dem DDC-Decoder verfügbar, um andere 3D-Anzeigeeinrichtungen wie etwa Kopfhörer für virtuelle Realität oder eine autostereoskopische Anzeige zu treiben, wie in der AU-Anmeldung Nr. 66718/94 beschrieben ist.
  • Eine mögliche Implementierung des DDC-Decoders ist in 10 gezeigt. Ein ankommendes Video, das PAL oder NTSC in Verbund- oder S-Videoformat sein kann, wird einem Verbund-RGB- oder Komponentenvideoumwandler zugeführt. Jeder von den RGB- oder Komponentenvideoausgängen wird einem A/D-Wandler zugeführt, und der digitale Ausgang wird dem Eingangsport eines Zweiweg-RAM-Zeilenspeichers zugeführt. Jede Zeile von digitalen Videodaten wird mit einer konstanten Geschwindigkeit in den RAM eingegeben. Die Daten werden aus dem Zeilenspeicher mit einer Rate ausgelesen, die von einem frequenzveränderlichen Takt bestimmt wird, der von dem Ausgang des MSD-Decoders gesteuert wird.
  • Die Wirkung des Auslesens der Zeilendaten aus dem RAM mit einer veränderlichen Rate bewirkt, daß das resultierende Video in Abhängigkeit von den MSD-Daten gedehnt oder komprimiert wird.
  • Die umgewandelten Daten werden dann einem A/D-Wandler und einem PAL/NTSC-Codierer zugeführt. Das resultierende feldsequentielle zusammengesetzte 3D-Videosignal wird der Anzeige zugeführt. (Es ist zu beachten, daß dieser Vorgang auch ausgeführt werden kann, wenn die Videosignale mit einer veränderlichen Rate in die Zeilenspeicher eingelesen und mit einer festen Rate ausgelesen werden. Es ist erforderlich ist, das ankommende zusammengesetzte Videosignal in ein RGB- oder Komponentenvideo umzuwandeln, da aufgrund der Tatsache, daß der Ausgang aus dem Zeilenspeicher mit einer veränderlichen Rate ausgelesen wird, sich die Chrominanzfrequenz ändern und Anzeigefehler verursachen würde.)
  • Die DDC-Decodierung kann ferner unter Verwendung eines Feld- oder Bildspeichers implementiert werden. Dabei wird das gesamte Netz aus den MSD-Daten wiederhergestellt, wobei Pixelverzerrungen (seitliche Verschiebungen) über das gesamte Feld oder Bild berechnet werden.
  • Das stereoskopische 3D-Bildpaar wird dann aufgrund des resultierenden RGB- oder Komponentenvideoausgangs angezeigt.
  • Die Blendenbrillensteuereinheit bildet eine IR-Lichtquelle, die Taktimpulse für die Blendenbrille liefert. Die Steuereinheit wird von dem PAL/NTSC-Codierer synchronisiert. Außerdem befiehlt die Steuereinheit der Blendenbrille, während Szenen, die nicht 3D-codiert oder für eine 3D-Codierung nicht geeignet sind, offen zu bleiben, so daß eine verbesserte Bildgüte während dieser Abschnitte der Videosequenz erhalten wird.
  • 11 zeigt das Blockbild eines DDC-Decoders, der feldparallele zusammengesetzte 3D-Videoausgänge erzeugt. Der MSD-Decoder erzeugt zwei geschwindigkeitsveränderli che Takte, einen für den linken und einen für den rechten RAM-Zeilenspeicher. Diese Art von Decoder ist zum Ersetzen der Feldspeicher in den existierenden autostereoskopischen 3D-Anzeigen der Anmelderin geeignet. Es ist zu beachten, daß dieses Verfahren linke und rechte Videoquellen vorsieht, die die gleiche Feldrate wie die ursprüngliche 2D-Videoquelle haben, d. h. ein feldsequentieller Videoausgang wird erzeugt.
  • Alternativ kann ein Nicht-Feldvideoausgang an dem Ausgang mit einer Abtastrate mit höherer Auflösung als bei dem 2D-Bild erzeugt werden.
  • 12 zeigt ein Blockbild einer Version eines MSD-Decoders. Dabei wird angenommen, daß die MSD-Daten in dem zusammengesetzten Videosignal in den ersten 16 Zeilen des Videosignals codiert sind, 13. Das ankommende zusammengesetzte Video wird einer Synchronisationstrenneinrichtung zugeführt, die vertikale und horizontale Taktsignale für den Mikroprozessor liefert. Außerdem wird das Video einer Schwarzlevel-Klemmschaltung, einem Vergleicher und einer Levelverschiebeeinrichtung zugeführt. Der Ausgang von der Levelverschiebeeinrichtung ist ein TTL-Levelsignal, das die seriellen codierten MSD-Daten auf den Zeilen 1 bis 16 des Videosignals enthält. Der Mikroprozessor geht in eine Schleife und wartet auf einen horizontalen Synchronisationsimpuls und, nachdem der horizontale Synchronisationsimpulse für Zeile 1 bestimmt ist, liest der Mikroprozessor die nächsten 16 Bytes. Ein ähnlicher Vorgang wird mit den folgenden 15 Zeilen wiederholt, bis die MSD Daten gelesen sind. Auf der Basis der empfangenen MSD-Daten liefert der Mikroprozessor den geschwindigkeitsveränderlichen Takt für den digitalen Videozeilenspeicher auf jeder nachfolgenden Videozeile. Der Mikroprozessor unterhält einen Index darüber, welche Videozeile gerade bearbeitet wird, indem er die Zeilensynchronisationsimpulse zählt.
  • Die Tiefenwahrnehmung von 3D-Bildern variiert unter Betrachtern. Beim Betrachten von 3D-Bildern mit einer Blendenbrille erfordert ferner die "Intensität" des 3D-Bildes eine Einstellung relativ zu dem Betrachtungsabstand. Die Intensität des 3D-Bildes kann mit einer Fernbedienungseinrichtung geändert werden, die über einen von dem Mikroprozessor angewandten Algorithmus die Änderung der Intensität des 3D-Bildes durch den Betrachter ermöglicht. Der Algorithmus ändert die Größe jedes Elements in der MSD-Matrix, so daß die Intensität des 3D-Effekts geändert wird. Es ist daran gedacht, daß, so bald die Präferenz für einen bestimmten Betrachter eingegeben ist, die Einstellung von der Decodereinheit beibehalten wird.
  • Es gibt viele Verfahren für die Echtzeit-Erzeugung von DDC-codierten Videobildern. Bei einem solchen Verfahren wird der Abstand zwischen dem Kameraobjektiv und einem zusätzlichen, die Entfernung messenden CCD-Array (ladungsgekoppelten Schaltungsarray) geändert 14. Dies erzeugt in variierenden Fokussierstadien eine Serie von Bildern für jedes Objekt in dem Bild. Dann läuft ein Schärfedetektieralgorithmus über die Serie von Bildern, und ein Schärfeindex für jedes Objekt in dem Bild wird bestimmt. Dann wird bestimmt, an welchem Bild jedes Objekt am schärfsten war, was anzeigt, in welcher Brennebene sich das Objekt befindet. Diese Information wird dann dazu genutzt, die MSD-Daten zu bilden.
  • 15 zeigt ein anderes Verfahren, wobei zwei Videokameras dazu verwendet werden, separate Links- und Rechtsaugenbilder zu erzeugen. Die Leuchtdichteinformation von jeder Kamera wird digitalisiert und einem Zeilenspeicher zugeführt. Ein Autokorrelierer oder ein ähnlicher Vorgang vergleicht die Bitmuster in den zwei Zeilenspeichern (um 16 Elemente links und rechts) und sucht nach einer Übereinstimmung. Die Differenz (der Abstand) zwischen den Videomustern, die Objekte in dem Bild repräsentiert, wird dazu genutzt, die MSD-Daten zu erzeugen. Einer von den Kameraausgängen wird mit den MSD-Daten in Echtzeit kombiniert, um ein DDC-codiertes Video zu erzeugen.
  • Alternativ kann anstelle der zwei Videokameras eine stereoskopische Videokamera verwendet werden.
  • DDC kann dazu verwendet werden, einen schwerwiegenden Nachteil von existierenden, nicht dem Auge folgenden autostereoskopischen 3D-Mehrfachbetrachtersystemen zu überwinden. Diese Systeme liefern ein 3D-Bild, indem sie eine sich wiederholende Sequenz von Links-Rechtsaugenbildern erzeugen, wie in 16 gezeigt ist. Der Abstand zwischen jedem aufeinanderfolgenden Bild ist 65 mm, was gleich dem Abstand zwischen den Augen des Betrachters ist. Deshalb sieht ein Betrachter, der sich in Position A befindet, ein korrekt sequentialisiertes 3D-Bild.
  • Sollte sich jedoch der Betrachter um 32 mm zur Seite bewegen oder in Position B sein, wird das linke Bild von dem rechten Augen und das rechte Bild von dem linken Auge gesehen, d. h. der Betrachter sieht ein "umgekehrtes 3D"-Bild. Das Betrachten des umgekehrten 3D-Bildes ist sehr unangenehm und bereitet dem Betrachter nach kurzer Zeit Beschwerden, d. h. Kopfschmerzen.
  • Die meisten autostereoskopischen Mehrfachbetrachtersysteme haben diesen Nachteil, insbesondere diejenigen auf der Basis von Lentikularlinsen und gitterartigen Bildtrenneinrichtungen. Ein autostereoskopisches Lentikularlinsen-basiertes Mehrbetrachtersystem ist in 17 gezeigt. Das Bild von dem linken Projektor geht durch die erste Lentikularlinse und wird auf der Oberfläche eines Mattbildschirms fokussiert. Eine zweite Lentikularlinse refokussiert dieses Bild, um einen vertikalen Lichtstreifen in der Betrachtungsdistanz zu bilden. Ein zweiter Projektor, der das rechte Bild enthält, beleuchtet auch die erste Lentikularlinse; aufgrund einer seitlichen Verschiebung zwischen den zwei Projektoren wird jedoch das resultierende Rechtsaugenbild in der Betrachterebene um 65 mm von dem linken Bild verschoben. Diese Sequenz von alternierenden Links-Rechts-Bildern, die um 65 mm beabstandet sind, wird wiederholt.
  • Ein Betrachter in der richtigen Position betrachtet ein richtiges 3D-Bild, umgekehrte 3D-Bilder werden jedoch ebenfalls präsentiert, falls sich der Betrachter bewegt oder in einer unrichtigen Position ist, wie vorstehend erläutert wurde.
  • Wenn sich der Betrachter setzt, um ein Lentikularlinsen-basiertes 3D-System auf zu betrachten, ist es in der Praxis für ihn zunächst schwierig zu bestimmen, ob er ein richtiges oder umgekehrtes 3D-Bild betrachtet. Erst wenn der Betrachter Beschwerden empfindet, wird er sich bewußt, daß er sich in einer unrichtigen Position befindet.
  • Außerdem ist es für einen Betrachter schwierig, die richtige Betrachtungsposition über einen längeren Zeitraum aufrechtzuerhalten. Es ist ferner erforderlich, daß der Betrachter um den richtigen Abstand von der zweiten Lentikularlinse entfernt positioniert ist, da bei Betrachtung in dem unrichtigen Abstand die Tendenz zum Auftreten von Moirestreifenbildungs- und Nebensprecheffekten besteht.
  • Ein zusätzliches Problem bei Lentikularlinsen-basierten Systemen auf ist die Auflösung. Die Auflösung ist durch das Rastermaß jeder "kleinen sphärischen Linse" in der gesamten Lentikularlinse begrenzt, die in der Größenordnung von 1 mm in Querrichtung ist.
  • Anstatt einfach Links- und Rechtsbilder zu projizieren, wird ein Lentikularlinsen-basiertes System in Betracht gezogen, das eine Reihe von Projektoren, beispielsweise vier, verwendet, um eine Serie von Bildern 1, 2, 3, 4 zu erzeugen, die jeweils um 65 mm voneinander beabstandet sind, wie 18 zeigt. Die ursprüngliche Szene ist unter Verwendung von vier Kameras mit der gleichen Sequenz und dem gleichen Abstand aufgezeichnet worden. Ein Betrachter in den Positionen A, B oder D sieht ein richtiges 3D-Bild, wogegen der Betrachter in Position C ein umgekehrtes 3D-Bild sieht.
  • Dies ist eine erhebliche Verbesserung gegenüber dem bisherigen Links-Rechts-System, da nun ein akzeptables 3D-Bild über das 3fache des seitlichen Abstands betrachtet werden kann. Es ist zu beachten, daß wie bei dem bisherigen Links-Rechts-System sich ein Betrachter erst dann, wenn er Beschwerden empfindet, bewußt wird, daß die Position D ein umgekehrtes 3D-Bild ergibt.
  • Wenn nun der Projektor vier durch ein "Null"-Bild (schwarz) ersetzt wird, 19, haben die Positionen A und B die Wirkung wie vorher. Die Position C erzeugt ein monoskopisches Bild in dem rechten Auge und ein schwarzes Bild in dem linken, was immer noch ohne Beschwerden für den Betrachter betrachtet werden kann. Gleichermaßen erzeugt die Position D ein monoskopisches Bild, jedoch wiederum ohne einen umgekehrten 3D-Effeikt. Wir haben also ein System, bei dem 50% der Betrachterpositionen ein richtiges 3D-Bild erzeugen und 50% geringfügig schlechtere, jedoch nicht zu beanstandende Bilder und bei dem der umgekehrte 3D-Effekt eliminiert ist.
  • Durch Erhöhen der Anzahl von Projektoren und Einfügen eines Null-Bildes wird der seitliche Abstand, über den ein richtiges 3D-Bild betrachtet werden kann, vergrößert, und der umgekehrte 3D-Effekt wird eliminiert.
  • Es wird jedoch nicht als praktikabel erachtet, ein solches Mehrfach-Projektorsystem zu implementieren, und zwar hauptsächlich weil die Übertragungs-/Aufzeichnungs- Bandbreite, die erforderlich ist, um jedem Projektor Videobilder zu liefern, mit zunehmender Anzahl von Projektoren impraktikabel wird.
  • Die Begrenzungen dieser Vorgehensweise können überwunden werden durch Übertragung eines DDC-codierten 2D-Bildes und Verwendung von DDC, um die erforderliche Anzahl von Projektionsbildern aufzubauen. Innerhalb des DDC-Decoders ist zwar eine große Bandbreite erforderlich, die ursprüngliche 2D-Bandbreite an der Sender- und/oder Aufzeichnungseinrichtung jedoch wird aufrechterhalten.
  • Ein Lentikularlinsen-basiertes Mehrfachbetrachter-3D-System auf, das einen DDC-Decoder verwendet, ist in 20 gezeigt.
  • Die DDC-Codierung/Decodierung ermöglicht die Erzeugung einer Sequenz von Videobildern, die den Bereich von möglichen Bildern von der äußersten Linken des ursprünglichen Bildes zu der äußersten Rechten wie folgt darstellt:
    [L, L1, L2 ..... R2, R1, R]
  • Zusammenfassend können einige der Anwendungen wie folgt beschrieben werden:
  • DDC oder "Dynamic Depth Cueing" ist ein Begriff für eine Form von Daten, die aus dem Umwandlungsvorgang von 2D in 3D abgeleitet werden, der eine Zwischenstufe der Umwandlung ist. In dieser Stufe bestehen die Daten aus dem ursprünglichen Videosignal und einem Datenpaket (entweder in Digital- oder Analogform codiert), so daß diese zusätzlichen Daten alles sind, was erforderlich ist, um die spezielle Elektronik-Hardware und/oder Software anzuweisen, die Umwandlungsaufgabe abzuschließen. Die resultierende 3D-Information kann die Form von entweder einem Videoformat vom feldsequentiellen Typ (d. h. Links-/Rechts-Typ), zwei separaten Videoströmen, eines Zeile-um-Zeile-Systems (d. h. 1 Zeile von dem linken Feld, 1 Zeile von dem rechten Feld) oder irgendeinem anderen Format haben, das vorteilhaft ist.
  • Durch sorgfältige Konfiguration des Formats des Umwandlungsdatenpakets ist es möglich, diese zusätzlichen Daten einzufügen, so daß es nicht bemerkt wird, wenn die Anzeige auf einem Standard-TV-Gerät erfolgt. Es wird also möglich, 3D- Fernsehübertragungen einzuführen, ohne die existierende Fernsehinfrastruktur durcheinanderzubringen. Der Decoder könnte nahe der Betrachtungseinrichtung (d. h. dem Fernsehgerät) angeordnet und im wesentlichen ein 'schwarzer Kasten' sein, der das Übertragungssignal abfängt, es decodiert und dann an das Fernsehgerät zum Betrachten ausgibt. Deshalb würde das Hochrüsten von existierenden 2D-Pay-TV- oder Fernsehnetzstrukturen durch das Hinzufügen eines 'schwarzen Kastens'" zu jedes Fernsehgerät vereinfacht.
  • Vorsehen von Medien für autostereoskopische 3D-Anzeigesysteme vom MULTIIMAGE-Typ (MEHRFACHBILD-Typ). Diese Systeme beruhen auf dem Vorsehen von Mehrfachbildern mit geringfügig unterschiedlichen perspektivischen Ansichten. Sie können recht wirksam sein, wenn die Anzahl von verschiedenen Ansichten groß ist (beispielsweise 8 bis 16), da sie ein echtes Mehrfachbetrachtervermögen zulassen. Ihr Hauptnachteil ist, daß, da sie erfordern, daß viele verschiedene Ansichten sämtlich zur gleichen Zeit verfügbar sind, das Vorsehen der Medien äußerst schwierig ist, und zwar selbst bei Anwendung von hochentwickelten Videokompressionsverfahren. Wenn jedoch ein DDC-Decoder verwendet wird, um die 3D-Medien zu erzeugen, ist es möglich, so viele einzelne perspektivische Ansichten zu erzeugen, wie benötigt werden, und sie mit diesen Bildeinrichtungen, d. h. Fernsehgeräten und Videorecordern, als normale 2D-Bilder zu erzeugen. Der Betrachter ist sich keiner Änderungen an dem übertragenen Bild bewußt.
  • Standard-2D-Videobilder, die DDC-codiert sind, haben die folgenden Charakteristiken:
    • – DDC-codierte 2D-Bilder können auf Standard-Videoeinrichtungen, d. h. Fernsehgeräten und Videorecordern, als normale 2D-Bilder empfangen werden. Der Betrachter ist sich keiner Änderungen an dem übertragenen Bild bewußt.
    • – DDC-codierte Bilder sind mit sämtlichen Video-, Editier-, Aufzeichnungs-, Empfangs- und Übertragungssystemen und -technologien vollständig kompatibel. DDC-codierte 2D-Bideobilder sind also für sämtliche existierenden analogen Video- und Fernsehtechnologien transparent.
    • – DDC-codiertes 2D-Video kann auf dem Markt auf ähnliche Weise wie Fahrfernsehen oder Stereoton eingeführt werden. Nur Fernhsehgeräte, die mit DDC-Decodern ausgerüs tet sind (wobei Betrachter geeignete Fernsehbrillen tragen) oder 3D-Fernsehgeräte zeigen die 3D-Bilder.
    • – DDC-Codierung ermöglicht den nahtlosen Übergang zwischen Szenen, die aus 3D-Codierung Nutzen ziehen, und solchen, die günstiger in 2D angezeigt werden. Der Übergang wird von dem Betrachter nicht bemerkt.
    • – DDC-codiertes Video kann auf sämtlichen existierenden 3D-Anzeigen angezeigt werden und ist für Mehrfachbetrachter-Systeme geeignet.
    • – DDC-Codierung bewahrt die Zeilen- und Feldstandards der ursprünglichen Videoquelle.
    • – DDC-Codierung reduziert nicht die Häufigkeit der Bildaktualisierung, wie dies beim Codieren von 3D-Videobildern in feldsequentiellem Links-/Rechtsformat der Fall ist.

Claims (32)

  1. Verfahren zum Erzeugen eines 2D-Videosignals, das mit Umwandlungsdaten codiert ist, um die Umwandlung des 2D-Videosignals in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige zu unterstützen, wobei das Verfahren die folgenden Schritte aufweist: Bereitstellen eines 2D-Videosignals, das Daten enthält, die ein 2D-Videobild betreffen; Erzeugen von Umwandlungsdaten, die die Verschiebung von jeweiligen ausgewählten Punkten des 2D-Videobilds für die Umwandlung des Bilds in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige definieren, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden; und Addieren der Umwandlungsdaten zu dem 2D-Videosignal, um das codierte Signal zu bilden.
  2. Verfahren nach Anspruch 1, wobei die Umwandlungsdaten in den Leerzeilen an dem oberen und/oder unteren Rand eines zu übertragenden Standard-2D-Bilds übertragen werden.
  3. Verfahren nach Anspruch 1, wobei die Umwandlungsdaten in der horizontalen Synchronisationsperiode eines zu übertragenden Standard-2D-Bilds übertragen werden.
  4. Verfahren nach Anspruch 1, wobei die Umwandlungsdaten in den horizontalen Überabtastungsbereichen ("Overscan"-Bereichen) jeder Zeile eines zu übertragenden Standard-2D-Bilds übertragen werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren die folgenden Schritte aufweist: Erzeugen von Videosignalen von Videobildern von zwei separaten Blickpunkten; Vergleichen der Videobilder von den separaten Blickpunkten, um die Umwandlungsdaten zu erzeugen; und Kombinieren des Videosignals der Videobilder von einem der Blickpunkte mit den Umwandlungsdaten, um dadurch das codierte Videosignal zu erzeugen.
  6. Verfahren nach Anspruch 5, wobei die Videosignale von zwei separaten Kameras erzeugt werden.
  7. Verfahren nach Anspruch 5, wobei die Videosignale Links- und Rechtsaugenvideobilder von einer stereoskopischen Videokamera sind.
  8. Verfahren zum Erzeugen von Links- und Rechtsaugenbildern für eine stereoskopische Anzeige aus einem codierten 2D-Videosignal, wobei das Verfahren die folgenden Schritte aufweist: Bereitstellen eines 2D-Videosignals, das Daten enthält, die ein 2D-Videobild betreffen, wobei das Videosignal mit Umwandlungsdaten codiert wird, die die Verschiebung von jeweiligen Punkten des 2D-Videobilds für die Umwandlung des Bilds in Links- und Rechtsaugenbilder definieren, so daß sowohl die Links- als auch die Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden; Lesen der Umwandlungsdaten aus dem Videosignal; und Erzeugen von Links- und Rechtsaugenbildern zur Anzeige aus dem 2D-Videobild durch Verschieben von Objekten innerhalb des 2D-Videobilds in Abhängigkeit von den Umwandlungsdaten.
  9. Verfahren nach Anspruch 8, wobei das Verfahren ferner die folgenden Schritte aufweist: Umwandeln des 2D-Videobilds in RGB-Komponenten; Umwandeln jeder Komponente in ein Digitalsignal; und Speichern der Digitalsignale vor dem Erzeugen der Links- und Rechtsaugenbilder.
  10. Verfahren nach Anspruch 8 oder Anspruch 9, wobei die Digitalsignale mit einer variablen Rate als eine Funktion der Umwandlungsdaten aus einem Speicher ausgelesen werden.
  11. Verfahren nach Anspruch 8 oder Anspruch 9, wobei die Digitalsignale mit einer variablen Rate als eine Funktion der Umwandlungsdaten in den Speicher eingelesen werden.
  12. Verfahren nach einem der Ansprüche 8 bis 11, wobei die Digitalsignale zum Betrachten auf einem Analogsystem in Analogsignale umgewandelt werden.
  13. Verfahren nach einem der Ansprüche 8 bis 12, wobei die Umwandlungsdaten von dem Videosignal getrennt werden.
  14. System zum Erzeugen eines 2D-Videosignals, das mit 3D-Umwandlungsdaten codiert ist, wobei das System folgendes aufweist: eine Einrichtung zum Erzeugen von Videosignalen von Videobildern an zwei separaten Blickpunkten; eine Umwandlungseinrichtung zum Erzeugen von Umwandlungsdaten, wobei die Umwandlungseinrichtung die Videosignale von der Einrichtung empfängt und die Signale von den separaten Blickpunkten vergleicht, um dadurch die Umwandlungsdaten zu erzeugen, wobei die Umwandlungsdaten die Verschiebung von jeweiligen Punkten von einem der Videobilder für die Umwandlung des Videobilds in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige definieren, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden; und eine Codiereinrichtung zum Kombinieren des Videosignals von dem einen Videobild mit den Umwandlungsdaten von der Umwandlungseinrichtung, um dadurch ein codiertes Videosignal zu erzeugen.
  15. System nach Anspruch 14, wobei die Einrichtung eine erste und eine zweite Videokamera aufweist, die relativ zueinander seitlich verlagert sind.
  16. System nach Anspruch 14, wobei die Einrichtung eine stereoskopische Kamera zur Aufnahme von Links- und Rechtsaugenvideobildern aufweist.
  17. Decodierer zum Decodieren eines Videosignals, um eine stereoskopische Anzeige zu erzeugen, wobei das Signal ein 2D-Videobild liefert und ferner Umwandlungs daten zum Umwandeln des Videobilds aufweist, wobei die Umwandlungsdaten die Verschiebung von jeweiligen Punkten des Videobilds für die Umwandlung des Videobilds in ein Bild für eine stereoskopische Anzeige definieren, wobei bestimmte von den erzeugten Bildern zum Betrachten mit dem linken Auge eines Betrachters und die anderen erzeugten Bilder zum Betrachten mit dem rechten Auge des Betrachters bestimmt sind, wobei der Decodierer folgendes aufweist: a) eine Einrichtung zum Empfangen des Videosignals; b) eine Decodiereinrichtung zum Lesen der Umwandlungsdaten; und c) eine Einrichtung zur Nutzung der Umwandlungsdaten, um das 2D-Videobild in Links- und Rechtsaugenbilder für eine stereoskopische Anzeige umzuwandeln, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden.
  18. Decodierer nach Anspruch 17, wobei der Decodierer folgendes aufweist: a) einen RGB- oder Komponenten-Videoumwandler zum Umwandeln des Videosignals in separate Videokomponenten davon; b) eine Analog-Digital-Umwandlungseinrichtung zum Umwandeln jeder Videokomponente in ein entsprechendes Digitalsignal; und c) eine digitale Speichereinrichtung zum Speichern der Digitalsignale.
  19. Decodierer nach Anspruch 17 oder Anspruch 18, wobei der Decodierer so ausgebildet ist, daß er eine die Ausleserate der digitalen Speichereinrichtung steuernde frequenzveränderliche Taktgebereinrichtung steuert, wobei die Speichereinrichtung mit einer variablen Rate ausgelesen wird, um dadurch das 2D-Bild in Abhängigkeit von den Umwandlungsdaten umzuwandeln.
  20. Decodierer nach Anspruch 17 oder Anspruch 18, wobei der Decodierer so ausgebildet ist, daß er eine die Einleserate der digitalen Speichereinrichtung steuernde frequenzveränderliche Taktgebereinrichtung steuert, wobei die RGB- oder Videokomponenten mit einer variablen Rate in die Speichereinrichtung eingelesen werden können, um dadurch das 2D-Bild in Abhängigkeit von den Umwandlungsdaten umzuwandeln.
  21. Decodierer nach einem der Ansprüche 17 bis 20, wobei die Speichereinrichtung in Form eines Zweiweg-RAM-Zeilenspeichers ausgebildet ist.
  22. Decodierer nach einem der Ansprüche 17 bis 21, wobei der Decodierer eine einzige Videozeile verarbeitet.
  23. Decodierer nach einem der Ansprüche 17 bis 21, wobei der Decodierer eine Mehrzahl von Videozeilen verarbeitet.
  24. Decodierer nach einem der Ansprüche 17 bis 23, wobei eine Digital-Analog-Umwandlungseinrichtung zum Umwandeln des ausgelesenen Digitalsignals in ein umgewandeltes Videosignal vorgesehen ist, um das Betrachten auf einer Betrachtungseinrichtung zu ermöglichen.
  25. Decodierer nach einem der Ansprüche 17 bis 23, wobei der Decodierer eine Parallelspeichereinrichtung zum Speichern des Digitalsignals für die umgewandelten Links- bzw. Rechtsvideobilder aufweist.
  26. Decodierer nach einem der Ansprüche 17 bis 23, wobei der Decodierer eine Trenneinrichtung zum Trennen der Umwandlungsdaten von dem Videosignal aufweist.
  27. Stereoskopisches Bildanzeigesystem, das folgendes aufweist: a) einen Codierer zum Codieren eines Videosignals, das ein 2D-Videobild liefert, mit Umwandlungsdaten, wobei die Umwandlungsdaten die Verschiebung von jeweiligen Punkten des Videobilds zum Umwandeln des Videobilds in ein Bild für eine stereoskopische Anzeige definieren; und b) einen Decodierer zum Trennen der Umwandlungsdaten von dem Videosignal und zum Umwandeln des Videosignals als eine Funktion der Umwandlungsdaten, um das Videobild in Links- und Rechtsaugenbilder umzuwandeln, so daß sowohl die Links- als auch Rechtsaugenbilder Abschnitte aufweisen, die komprimiert wurden, und Abschnitte aufweisen, die gedehnt wurden.
  28. Stereoskopisches Anzeigesystem nach Anspruch 27, das ferner eine Einstelleinrichtung zum selektiven Einstellen der Verschiebung der jeweiligen Punkte aufweist, um den Grad der Dehnung in den Links- und Rechtsaugenbildern zu variieren.
  29. Stereoskopisches Anzeigesystem nach Anspruch 28, wobei die Einstelleinrichtung eine Fernsteuerungseinrichtung aufweist.
  30. Stereoskopisches Mehrfachbetrachter-Anzeigesystem (multiviewer stereoscopic display), wobei das System einen Decodierer nach Anspruch 17 aufweist.
  31. Stereoskopisches Mehrfachbetrachter-Anzeigesystem nach Anspruch 30, das eine Vielzahl von Projektoren aufweist und wobei der Decodierer eine Serie von Bildern erzeugt, wobei jedes Bild von einem jeweiligen Projektor gezeigt wird.
  32. Stereoskopisches Mehrfachbetrachter-Anzeigesystem nach Anspruch 31, das eine Lentikularlinsenanordnung aufweist, um die Bilder von den jeweiligen Projektoren aus zu richten.
DE69632212T 1995-12-22 1996-12-20 Verfahren zur Bildumwandlung und -Kodierung Expired - Lifetime DE69632212T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AUPN7323A AUPN732395A0 (en) 1995-12-22 1995-12-22 Image conversion and encoding techniques
AUPN732395 1995-12-22

Publications (2)

Publication Number Publication Date
DE69632212D1 DE69632212D1 (de) 2004-05-19
DE69632212T2 true DE69632212T2 (de) 2005-03-10

Family

ID=3791642

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69628662T Expired - Lifetime DE69628662T2 (de) 1995-12-22 1996-12-20 Bildumwandlungs- und kodierungstechniken
DE69632212T Expired - Lifetime DE69632212T2 (de) 1995-12-22 1996-12-20 Verfahren zur Bildumwandlung und -Kodierung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69628662T Expired - Lifetime DE69628662T2 (de) 1995-12-22 1996-12-20 Bildumwandlungs- und kodierungstechniken

Country Status (14)

Country Link
US (2) US6477267B1 (de)
EP (2) EP1187494B1 (de)
JP (3) JP3819434B2 (de)
CN (1) CN1136737C (de)
AT (2) ATE264527T1 (de)
AU (2) AUPN732395A0 (de)
CA (2) CA2435044C (de)
DE (2) DE69628662T2 (de)
DK (1) DK1187494T3 (de)
ES (1) ES2219473T3 (de)
HK (2) HK1040864B (de)
MY (1) MY114040A (de)
PT (1) PT1187494E (de)
WO (1) WO1997024000A1 (de)

Families Citing this family (137)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP2252071A3 (de) 1997-12-05 2017-04-12 Dynamic Digital Depth Research Pty. Ltd. Verbesserte Bildumwandlungs- und Kodierungstechniken
US6515659B1 (en) 1998-05-27 2003-02-04 In-Three, Inc. Method and system for creating realistic smooth three-dimensional depth contours from two-dimensional images
US7116323B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US6208348B1 (en) 1998-05-27 2001-03-27 In-Three, Inc. System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
WO2000019265A1 (de) * 1998-09-30 2000-04-06 Siemens Aktiengesellschaft Anordnung und verfahren zur stereoskopischen darstellung eines objekts
US20020051491A1 (en) * 1998-11-20 2002-05-02 Kiran Challapali Extraction of foreground information for video conference
US6363362B1 (en) 1999-04-07 2002-03-26 Checkfree Services Corporation Technique for integrating electronic accounting systems with an electronic payment system
US6807295B1 (en) * 1999-06-29 2004-10-19 Fuji Photo Film Co., Ltd. Stereoscopic imaging apparatus and method
US20030061188A1 (en) * 1999-12-23 2003-03-27 Linus Wiebe General information management system
US7184002B2 (en) * 2001-03-29 2007-02-27 Stereographics Corporation Above-and-below stereoscopic format with signifier
KR20020081661A (ko) * 2001-04-19 2002-10-30 주식회사 오픈비주얼 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한방법 및 장치
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
WO2003077549A1 (en) 2002-03-13 2003-09-18 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
ES2515090T3 (es) 2002-07-31 2014-10-29 Koninklijke Philips N.V. Método y aparato para codificar una señal de vídeo digital
US20040032489A1 (en) * 2002-08-13 2004-02-19 Tyra Donald Wayne Method for displaying a visual element of a scene
US7660356B2 (en) * 2002-10-02 2010-02-09 Lsi Corporation Compressed video format with partial picture representation
JP3970192B2 (ja) * 2003-02-14 2007-09-05 シャープ株式会社 投映画像補正装置及びプロジェクタ装置
WO2005013623A1 (en) * 2003-08-05 2005-02-10 Koninklijke Philips Electronics N.V. Multi-view image generation
EP1705929A4 (de) 2003-12-25 2007-04-04 Brother Ind Ltd Bildanzeigevorrichtung und signalverarbeitungsvorrichtung
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
US20050207486A1 (en) * 2004-03-18 2005-09-22 Sony Corporation Three dimensional acquisition and visualization system for personal electronic devices
FR2873214B1 (fr) * 2004-07-13 2008-10-10 Canon Res Ct France S A S Soc Procede et dispositif d'obtention d'un signal stereoscopique
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US20080259073A1 (en) * 2004-09-23 2008-10-23 Conversion Works, Inc. System and method for processing video images
US20080246836A1 (en) * 2004-09-23 2008-10-09 Conversion Works, Inc. System and method for processing video images for camera recreation
IL166305A0 (en) * 2005-01-14 2006-01-15 Rafael Armament Dev Authority Automatic conversion from monoscopic video to stereoscopic video
KR100813961B1 (ko) * 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) * 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
EP1750460A1 (de) * 2005-08-05 2007-02-07 Samsung SDI Co., Ltd. 3D-Graphikprocessor und autostereoskopische Anzeigevorrichtung damit
US8325220B2 (en) * 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
EP1977395B1 (de) 2006-01-27 2018-10-24 Imax Corporation Verfahren und system zum digitalen remastering von 2d- und 3d-filmen zur steigerung von deren visueller qualität
US7760429B2 (en) * 2006-01-27 2010-07-20 Reald Inc. Multiple mode display device
KR101345364B1 (ko) * 2006-02-27 2013-12-30 코닌클리케 필립스 엔.브이. 출력 영상 렌더링
US8106705B2 (en) * 2006-05-05 2012-01-31 Synopsys, Inc. Control circuit for PVT conditions of a module
US7573489B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic Infilling for 2D to 3D image conversion
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
CA2884702C (en) * 2006-06-23 2018-06-05 Samuel Zhou Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8970680B2 (en) * 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US20080228449A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US20080226160A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for filling light in frames during 2-d to 3-d image conversion
US20080225040A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method of treating semi-transparent features in the conversion of two-dimensional images to three-dimensional images
US20080226181A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
US20080225042A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US20080226194A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for treating occlusions in 2-d to 3-d image conversion
US20080225059A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method for using off-screen mask space to provide enhanced viewing
US20080225045A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
US20080226128A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device
FR2914437A1 (fr) * 2007-04-02 2008-10-03 Artistic Images Soc Par Action Procede de traitement d'image pour la synthese d'image autostereoscopique
EP2757788B1 (de) * 2007-06-19 2020-03-11 Electronics and Telecommunications Research Institute Metadatenstruktur zum Speichern und Wiedergeben von stereoskopischen Daten und Verfahren zum Speichern einer stereoskopischen Inhaltsdatei unter Verwendung dieser Metadaten
DE102007029787B3 (de) * 2007-06-27 2008-09-11 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Verfahren zum Ermitteln eines Berührungspunkts eines Laserstrahls an einer Kante eines Körpers und Laserbearbeitungsmaschine
KR101086437B1 (ko) * 2007-11-23 2011-11-25 삼성전자주식회사 영상 송신 및 수신 방법과 장치 및 이의 전송 스트림 구조
CN101453662B (zh) * 2007-12-03 2012-04-04 华为技术有限公司 立体视频通信终端、系统及方法
US7746098B2 (en) * 2008-03-10 2010-06-29 Qimonda North America Corp. Termination switching based on data rate
KR101488199B1 (ko) * 2008-03-12 2015-01-30 삼성전자주식회사 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체
JP4591548B2 (ja) 2008-06-04 2010-12-01 ソニー株式会社 画像符号化装置及び画像符号化方法
JP5083052B2 (ja) 2008-06-06 2012-11-28 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
US8490205B2 (en) * 2008-08-26 2013-07-16 Pitney Bowes Inc. Method for protecting signatures stored in a database
US9172940B2 (en) 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
US8395709B2 (en) * 2009-03-04 2013-03-12 ATI Technology ULC 3D video processing
KR101648455B1 (ko) 2009-04-07 2016-08-16 엘지전자 주식회사 방송 송신기, 방송 수신기 및 3d 비디오 데이터 처리 방법
KR101719980B1 (ko) * 2010-06-22 2017-03-27 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
KR101044952B1 (ko) * 2009-07-13 2011-06-28 삼성전자주식회사 영상 송신 및 수신 방법과 장치 및 이의 전송 스트림 구조
TW201130289A (en) * 2009-07-14 2011-09-01 Panasonic Corp Image reproducing apparatus
CA2772607A1 (en) * 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US8884948B2 (en) * 2009-09-30 2014-11-11 Disney Enterprises, Inc. Method and system for creating depth and volume in a 2-D planar image
US8502862B2 (en) * 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US8947422B2 (en) * 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
ES2464341T3 (es) 2009-12-15 2014-06-02 Deutsche Telekom Ag Procedimiento y dispositivo para resaltar objetos seleccionados en mensajes de imagen y video
PL2337327T3 (pl) 2009-12-15 2014-04-30 Deutsche Telekom Ag Sposób i urządzenie do identyfikowania rozmówcy w informacjach obrazowych lub wideo
US8884982B2 (en) 2009-12-15 2014-11-11 Deutsche Telekom Ag Method and apparatus for identifying speakers and emphasizing selected objects in picture and video messages
US9042636B2 (en) 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
GB2477793A (en) 2010-02-15 2011-08-17 Sony Corp A method of creating a stereoscopic image in a client device
TW201031179A (en) * 2010-04-15 2010-08-16 Xiu-Ping Zhou Image transform method, imaging methods and system for stereo vision
US9699438B2 (en) 2010-07-02 2017-07-04 Disney Enterprises, Inc. 3D graphic insertion for live action stereoscopic video
US8848038B2 (en) * 2010-07-09 2014-09-30 Lg Electronics Inc. Method and device for converting 3D images
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8571314B2 (en) 2010-09-02 2013-10-29 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
US8933927B2 (en) 2010-09-02 2015-01-13 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof
US8831273B2 (en) 2010-09-10 2014-09-09 Reald Inc. Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files
US9485497B2 (en) 2010-09-10 2016-11-01 Reald Inc. Systems and methods for converting two-dimensional images into three-dimensional images
WO2012046270A1 (en) * 2010-10-05 2012-04-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
US8849011B2 (en) * 2010-10-07 2014-09-30 Himax Media Solutions, Inc. Video processing system and method thereof for compensating boundary of image
JP5468526B2 (ja) * 2010-11-25 2014-04-09 株式会社東芝 画像処理装置及び画像処理方法
US9386294B2 (en) 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
TW201248552A (en) * 2011-04-13 2012-12-01 Stereo Screen Systems Pty Ltd Method, system and apparatus for producing three dimensional (3D) imagery
US8681182B2 (en) 2011-04-19 2014-03-25 Deluxe 3D Llc Alternate viewpoint rendering
TWI482484B (zh) * 2011-06-17 2015-04-21 Wistron Corp 立體顯示系統及其方法
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
KR101859412B1 (ko) * 2011-09-05 2018-05-18 삼성전자 주식회사 컨텐츠변환장치 및 컨텐츠변환방법
EP2764696B1 (de) 2011-10-05 2020-06-03 Bitanimate, Inc. Verfahren für 3d-video-rendering mit verbesserter auflösung
US9414048B2 (en) 2011-12-09 2016-08-09 Microsoft Technology Licensing, Llc Automatic 2D-to-stereoscopic video conversion
KR101953306B1 (ko) 2012-02-08 2019-03-04 삼성전자주식회사 사용자 인터랙션에 기초하여 3d 영상을 생성하기 위한 방법 및 장치
US20140062999A1 (en) * 2012-09-05 2014-03-06 Shenzhen China Star Optoelectronics Technology Co., Ltd. Display system and display control method thereof
KR101917224B1 (ko) * 2012-09-18 2018-11-13 엘지이노텍 주식회사 영상데이터 전송장치
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9123172B2 (en) * 2013-05-20 2015-09-01 Steven Sebring Systems and methods for producing visual representations of objects
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
USD798936S1 (en) 2015-12-03 2017-10-03 Durst Sebring Revolution, Llc Photo booth
USD782559S1 (en) 2015-12-03 2017-03-28 Durst Sebring Revolution, Llc Photo booth
USD781948S1 (en) 2015-12-03 2017-03-21 Durst Sebring Revolution, Llc Photographic imaging system
USD812671S1 (en) 2015-12-03 2018-03-13 Durst Sebring Revolution, Llc 3D imaging system
CN105608666A (zh) * 2015-12-25 2016-05-25 普瑞福克斯(北京)数字媒体科技有限公司 一种二维图形生成三维图像的方法及系统
USD822746S1 (en) 2016-02-05 2018-07-10 Durst Sebring Revolution, Llc Photo booth
KR101764531B1 (ko) * 2016-02-29 2017-08-04 한경대학교 산학협력단 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
CN106027541A (zh) * 2016-06-17 2016-10-12 北京世纪东方通讯设备有限公司 一种用于gsm-r通信系统的语音编解码装置及方法
CN108681189B (zh) * 2018-03-26 2024-03-29 国网浙江省电力有限公司杭州供电公司 一种胶片数字化处理设备及其方法
WO2019199670A1 (en) * 2018-04-08 2019-10-17 Vefxi Corporation Virtual reality environment
TW202316239A (zh) * 2021-10-11 2023-04-16 美商元平台技術有限公司 具有應用程式產生的移動向量和深度之圖框外插
US11783533B2 (en) 2021-10-11 2023-10-10 Meta Platforms Technologies, Llc Frame extrapolation with application generated motion vector and depth

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE233475C (de)
NL7410780A (nl) * 1973-09-07 1975-03-11 Kraftwerk Union Ag Inrichting voor het bepalen van oppervlaktevari-
WO1981001201A1 (en) * 1979-10-16 1981-04-30 Secr Defence Brit Methods and apparatus for producing three-dimensional displays
US4413289A (en) * 1981-03-13 1983-11-01 Sri International Digital recording and playback method and apparatus
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
US4704627A (en) * 1984-12-17 1987-11-03 Nippon Hoso Kyokai Stereoscopic television picture transmission system
DD233475A1 (de) * 1984-12-28 1986-02-26 Univ Berlin Humboldt Verfahren und vorrichtung zur 3-d-farbumsetzung
GB8721565D0 (en) * 1987-09-14 1987-10-21 Rca Corp Video signal processing system
US5760927A (en) * 1987-10-16 1998-06-02 Canon Kabushiki Kaisha Color image reproduction apparatus for reproducing retained stored images after elimination of printer trouble
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
US5173948A (en) * 1991-03-29 1992-12-22 The Grass Valley Group, Inc. Video image mapping system
US5149387A (en) * 1991-05-06 1992-09-22 Administrator Of The National Aeronautics And Space Administration Flush mounting of thin film sensors
JPH0591545A (ja) 1991-09-30 1993-04-09 Toshiba Corp 立体画像記録再生システム
GB2260421A (en) * 1991-10-09 1993-04-14 Nader Esfahani Rahim Two dimensional picture giving 3- or 4-D impression
US5289722A (en) * 1992-04-27 1994-03-01 Kansas State University Research Foundation Preassembled, easily mountable strain gage
JPH0686270A (ja) 1992-08-31 1994-03-25 Olympus Optical Co Ltd 3次元画像信号処理装置
US5390964A (en) * 1992-10-01 1995-02-21 Gray, Jr.; Lawrence C. Labeled pipe fitting and method
US5327238A (en) * 1992-11-10 1994-07-05 Chou Wayne W Method and apparatus for modulating a separated television horizontal sync pulse as a subcarrier of audio information
WO1994014285A1 (en) * 1992-12-10 1994-06-23 Dasso John M Method and apparatus for generating a three-dimensional effect for two-dimensional images
US5583656A (en) * 1992-12-31 1996-12-10 Eastman Kodak Company Methods and apparatus for attaching compressed look-up table (LUT) representations of N to M-dimensional transforms to image data and for processing image data utilizing the attached compressed LUTs
DE69329332T2 (de) * 1993-05-26 2001-02-22 St Microelectronics Srl Fernsehbilderdekodierarchitektur zur Ausführung eines 40 ms-Prozessalgorithmus in HDTV
EP0641132B1 (de) 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoskopischer Abtastapparat
EP0669758B1 (de) * 1993-09-06 2000-03-08 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Verarbeitungs-und anzeigevorrichtung für zeitlich variable bilder
EP0730732A1 (de) * 1993-11-23 1996-09-11 Grumman Aerospace Corporation Mit instrumenten versehener flicken zum reparieren einer durch ermüdung beschädigten oder dafür anfälligen struktur
US5720342A (en) * 1994-09-12 1998-02-24 Pes, Inc. Integrated converter for extending the life span of electronic components
US6414709B1 (en) * 1994-11-03 2002-07-02 Synthonics Incorporated Methods and apparatus for zooming during capture and reproduction of 3-dimensional images
US5505093A (en) * 1994-11-21 1996-04-09 Brewer Science, Inc. Homogeneously conductive polymer films as strain gauges
FR2729266A1 (fr) * 1995-01-10 1996-07-12 France Telecom Procede d'interpolation d'images
WO1996037799A1 (en) * 1995-05-24 1996-11-28 Malcolm Henry Fletcher Stereoscopic viewing device
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
US5819017A (en) 1995-08-22 1998-10-06 Silicon Graphics, Inc. Apparatus and method for selectively storing depth information of a 3-D image
US6068394A (en) * 1995-10-12 2000-05-30 Industrial Sensors & Instrument Method and apparatus for providing dynamic data during drilling
JP3231618B2 (ja) * 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
US6031564A (en) 1997-07-07 2000-02-29 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
GB2340520B (en) * 1998-08-15 2000-11-01 Schlumberger Ltd Data acquisition apparatus
CA2252063C (en) 1998-10-27 2009-01-06 Imax Corporation System and method for generating stereoscopic image data
US6679332B2 (en) * 2000-01-24 2004-01-20 Shell Oil Company Petroleum well having downhole sensors, communication and power
US20010029989A1 (en) * 2000-02-17 2001-10-18 Paz German N. Pipeline identification and positioning system

Also Published As

Publication number Publication date
AU1088497A (en) 1997-07-17
WO1997024000A1 (en) 1997-07-03
EP0868818A4 (de) 1999-07-07
HK1040864B (zh) 2005-01-21
EP1187494A3 (de) 2002-04-10
CN1209248A (zh) 1999-02-24
PT1187494E (pt) 2004-07-30
EP0868818A1 (de) 1998-10-07
JP2005065336A (ja) 2005-03-10
JP4427032B2 (ja) 2010-03-03
MY114040A (en) 2002-07-31
DE69628662T2 (de) 2004-04-29
JP3819434B2 (ja) 2006-09-06
HK1040864A1 (en) 2002-06-21
JP4295711B2 (ja) 2009-07-15
CA2241078C (en) 2004-10-26
US7999844B2 (en) 2011-08-16
AU714759B2 (en) 2000-01-13
CA2435044A1 (en) 1997-07-03
US6477267B1 (en) 2002-11-05
CA2241078A1 (en) 1997-07-03
AUPN732395A0 (en) 1996-01-25
ATE242950T1 (de) 2003-06-15
JP2006222978A (ja) 2006-08-24
CN1136737C (zh) 2004-01-28
DK1187494T3 (da) 2004-05-10
DE69628662D1 (de) 2003-07-17
ES2219473T3 (es) 2004-12-01
ATE264527T1 (de) 2004-04-15
HK1010624A1 (en) 1999-06-25
CA2435044C (en) 2006-04-18
JP2000502234A (ja) 2000-02-22
EP1187494B1 (de) 2004-04-14
DE69632212D1 (de) 2004-05-19
EP1187494A2 (de) 2002-03-13
US20030007681A1 (en) 2003-01-09
EP0868818B1 (de) 2003-06-11

Similar Documents

Publication Publication Date Title
DE69632212T2 (de) Verfahren zur Bildumwandlung und -Kodierung
DE69812591T2 (de) Autostereoskopische Anzeigevorrichtung
DE69534763T2 (de) Vorrichtung zur Darstellung stereoskopischer Bilder und Bildaufnahmevorrichtung dafür
EP0722256B1 (de) Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
DE69733233T2 (de) Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts
EP2027728B1 (de) Verfahren und vorrichtung zur pseudoholographischen bilderzeugung
EP1451775A1 (de) Erzeugung einer stereo-bildfolge aus einer 2d-bildfolge
DE102006055641A1 (de) Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
DE10197255T5 (de) VTV-System
DE112011103739T5 (de) Empfangsvorrichtung und Verfahren zum Empfang dreidimensionaler Multiview-Sendesignale
DE112012000563T5 (de) Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals
DE102013217826A1 (de) Verfahren zum erzeugen, übertragen und empfangen stereoskopischer bilder, und zugehörige geräte
DE3217849C1 (de) Verfahren und Vorrichtung zum Erzeugen eines raeumlich wirkenden Schirmbildes eines Fernsehempfaengers
DE19500699A1 (de) Personen-adaptiver stereoskoper Video-Schirm (PASS)
DE19542308A1 (de) Verfahren und Vorrichtung zur Darstellung dreidimensionaler Videobilder
DE102009041328A1 (de) Verfahren und Vorrichtung zum Erzeugen von Teilansichten und/oder einer Raumbildvorlage aus einer 2D-Ansicht für eine stereoskopische Wiedergabe
KR100496513B1 (ko) 영상변환방법및영상변환시스템과,부호화방법및부호화시스템
DE3530610C2 (de)
WO2010022805A1 (de) Anzeigesystem
EP3907987B1 (de) Verfahren und vorrichtung zur projektion individueller bilder für eine mehrzahl an betrachtern
WO1983004155A1 (en) Stereoscopic television
EP2495978A1 (de) Bildwiedergabeverfahren für ein autostereoskopisches Display
DE4100992A1 (de) Verfahren zur wiedergabe dreidimensionaler szenen
DE10154976A1 (de) Anordnung und Verfahren zur Darstellung und Aufnahme von Schichtbildern
DE10048884A1 (de) Verfahren zur Skalierung eines zeilenweise aufgebauten stereoskopischen Bild- oder Laufbildsignals

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 1187494

Country of ref document: EP

Representative=s name: HOEGER, STELLRECHT & PARTNER PATENTANWAELTE, DE