DE69333508T2 - Vorrichtung und Verfahren zur Verarbeitung von Videosignalen - Google Patents

Vorrichtung und Verfahren zur Verarbeitung von Videosignalen Download PDF

Info

Publication number
DE69333508T2
DE69333508T2 DE69333508T DE69333508T DE69333508T2 DE 69333508 T2 DE69333508 T2 DE 69333508T2 DE 69333508 T DE69333508 T DE 69333508T DE 69333508 T DE69333508 T DE 69333508T DE 69333508 T2 DE69333508 T2 DE 69333508T2
Authority
DE
Germany
Prior art keywords
image
data
texture
image data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69333508T
Other languages
English (en)
Other versions
DE69333508D1 (de
Inventor
Masakazu Shinagawa-ku Suzuoki
Makoto Shinagawa-ku Furuhashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP33659492A external-priority patent/JP3229042B2/ja
Priority claimed from JP4336593A external-priority patent/JPH06161876A/ja
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of DE69333508D1 publication Critical patent/DE69333508D1/de
Application granted granted Critical
Publication of DE69333508T2 publication Critical patent/DE69333508T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/203Image generating hardware
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Description

  • Die Erfindung bezieht sich generell auf eine Bildverarbeitungsvorrichtung und auf ein Verfahren zur Erzeugung eines Bildes aus in einem Speicher gespeicherten Daten und insbesondere auf die Erzeugung eines Bildes, welches in seinen Flächen eine Struktur bzw. Textur oder Dekoration aufweist, wie ein Bild, für die Verwendung in einem Computerspiel.
  • Um sich eines Computerspiels zu erfreuen, sind eine hohe Verarbeitungsgeschwindigkeit und eine ausgezeichnete grafische Anzeigefähigkeit erforderlich. Bei Videospielen ist es erforderlich, ein dreidimensionales Objekt mit hoher Geschwindigkeit anzuzeigen, visuelle Effekte, wie Strukturen bzw. Texturen oder dergleichen zu realisieren oder andere Information real anzuzeigen. Die Struktur bzw. Textur ist dazu bestimmt, einen visuellen Effekt, der für das bestimmte dreidimensionale Objekt eigentümlich ist, dadurch hervorzurufen, dass ein Muster, welches an einer anderen Stelle festgelegt ist, anscheinend an bzw. auf der Oberfläche des dreidimensionalen Objekts haftet bzw, hängt. Als Beispiele derartiger Muster, die an der Oberfläche des Objekts hängen bzw. haften, gibt es ein geometrisches Muster oder ein Standbildmuster, wie eine Fotografie, eine von Hand erstellte Zeichnung oder dergleichen.
  • Es ist ferner erwünscht, dass ein Bewegtbild als Texturmuster verwendet wird, um spezifische Computergrafiken bereitzustellen. Bisher ist jedoch ein Texturmuster zuvor festgelegt worden, und das Texturmuster kann nicht dynamisch auf bzw. in ausgewählten Bildern neu geschrieben werden. Deshalb kann das Texturmuster eines Bewegtbildes nicht an der Oberfläche eines Objekts unter Verwendung von Computergrafiken angeheftet bzw. angehängt werden.
  • Da das Texturmuster, wie oben erwähnt, nicht dynamisch neu geschrieben werden kann, kann ferner eine Struktur bzw. Textur mit einer starken Änderung nicht an der Oberfläche eines Objekts angehängt bzw. angeheftet werden.
  • Bisher ist die Anzahl von Farben des Texturmusters aufgrund einer Beschränkung in der Anzahl von Bits und einer Anzahl von Farben, die ausgedrückt werden können, begrenzt.
  • In der US 4.935.879 ist eine Texturabbildungsvorrichtung für die Echtzeitanzeige einer Figur beschrieben, in der ein animiertes Bild abgebildet worden ist. Die Vorrichtung weist eine Einrichtung auf, die 2D-(zweidimensionale)-Quellkoordinatendaten erzeugt, welche eine Quelle für Texturabbildungsdaten darstellen, und zwar entsprechend 3D-(dreidimensionalen)-Zielkoordinatendaten, die ihrerseits Ziele für Texturabbildungsdaten liefern.
  • Im SMPTE JOURNAL, Vol. 100, Nr. 3, März 1991, White Plains, NY, US Seiten 162 bis 166 beschreiben Vigneaux und andere in "A RealTime Video Mapping and Manipulation System" ein System, das eine Echtzeit-Eingangsvideoabbildung zur internen Erzeugung von 3d-Auflösungsobjekten vorschlägt. Diese Objekte können rein krummlinig sein oder eine Vielzahl von individuell erstellten lokalen Deformationen aufweisen. Ein Vollbewegungsvideo kann dann auf dem Objekt in Echtzeit abgebildet werden (Echtzeit ist definiert als Videorate mit 30 Vollbildern/s).
  • In der EP-A-0.447.227 sind Verfahren und Vorrichtungen zur Texturabbildung von grafischen Darstellungselementen in einem Grafik-Pipelinearchitektursystem beschrieben. Die Verfahren und Vorrichtungen verwenden rechteckige Behälter-Filter, um Original-Texturabbildungen herunter abzutasten, um dadurch eine Faltung und ein Verwaschen zu optimieren, wenn grafische Darstellungselemente eine zweidimensionale Textur aufweisen, die auf einem dreidimensionalen Objekt abgebildet wird. Die Verfahren umfassen die Schritte des Bestimmens einer Original-Texturabbildung zweier Dimensionen für eine Fläche, das Speichern der Original-Texturabbildung im Bild- bzw. Vollbildspeicher, das unabhängige Abtasten der Original-Texturabbildung unter Verwendung eines asymmetrischen Filters zur Konstruktion von Mehrfachversionen einer Textur und zur Abgabe von strukturierten Pixeln an eine Anzeige bzw. Anzeigeeinrichtung in Vollbild-Puffergrafiksystemen, die Abbildung der strukturierten Pixel auf Bereiche in dem Vollbildpuffer und die Anzeige der strukturierten grafischen Darstellungselemente in der Anzeigeeinrichtung.
  • Gemäß einem Aspekt der Erfindung ist ein Echtzeit-Struktur- bzw. Texturabbildungsverfahren (oder Echtzeitbemusterungsverfahren) zur Erzeugung eines zweidimensionalen Bildes eines Objekts bzw. Gegenstands mit einer Oberfläche, welche eine dynamisch wechselnde Struktur bzw. Textur besitzt, mittels dreidimensionaler Bilddaten und zweidimensionaler Bewegtbilddaten geschaffen, umfassend die Schritte:
    • a) Empfangen der dreidimensionalen Bilddaten und der zweidimensionalen Bewegtbilddaten;
    • b) Umwandeln der dreidimensionalen Bilddaten in entsprechende zweidimensionale Bilddaten;
    • c) Speichern der zweidimensionalen Bilddaten in einem Zeichnungsbereich eines Bildspeichers;
    • d) Speichern der zweidimensionalen Bewegtbilddaten Bild für Bild als Texturmusterdaten in einem Texturbereich des Bildspeichers; und
    • e) Abbilden eines Bildes der in dem Texturbereich gespeicherten Bewegtbilddaten je vertikaler Anzeigeperiode auf der Oberfläche des durch die in dem Zeichnungsbereich des Bildspeichers gespeicherten zweidimensionalen Bilddaten dargestellten Gegenstandes.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Videospielgerät zum Erzeugen eines Videosignals entsprechend einem Bild eines Objekts bzw. Gegenstands mit einer dynamisch wechselnden Textur mittels dreidimensionaler Bilddaten und Bewegtbild-Texturmusterdaten geschaffen, umfassend einen Hauptspeicher zum Empfangen und Speichern der dreidimensionalen Bilddaten, wobei die dreidimensionalen Bilddaten eine Form, eine Koordinatenposition und eine Orientierung bzw. Ausrichtung des Gegenstandes in einem dreidimensionalen Raum angeben;
    eine Einrichtung zum Durchführen einer dreidimensionalen Koordinatentransformation bezüglich der in dem Hauptspeicher gespeicherten dreidimensionalen Bilddaten zum Umwandeln der betreffenden transformierten dreidimensionalen Bilddaten in jeweilige zweidimensionale Bilddaten zur Anzeige auf einer Anzeigeeinrichtung und zum Übertragen der zweidimensionalen Bilddaten zurück zu dem Hauptspeicher, wobei die dreidimensionale Koordinatentransformation eine geometrische Transformation des Gegenstandes in dem dreidimensionalen Raum enthält;
    eine Empfangseinrichtung zum Empfangen der Bewegtbild-Texturmusterdaten und zum Bereitstellen der Bewegtbild-Texturmusterdaten Bild um Bild; einen Bildspeicher mit einem Texturbereich zum Speichern der durch die Empfangseinrichtung Bild um Bild zugeführten Bewegtbild-Texturmusterdaten, einem Anzeigebereich zum Speichern von Bilddaten eines angezeigten aktuellen Bildes und einem Zeichnungsbereich, der einen Arbeitsbereich zum Zusammensetzen von Bilddaten eines nächsten anzuzeigenden Bildes vorsieht, wobei die zweidimensionalen Bilddaten des in einem nächsten Bild anzuzeigenden Gegenstands in dem Anzeigebereich gespeichert sind;
    eine Bildsynthetisier- bzw. Bildaufbaueinrichtung zum Aufbauen eines Bildes mit dynamisch wechselnder Textur des Gegenstandes mittels der zweidimensionalen Bilddaten und der Bewegtbild-Texturmusterdaten, die in dem Hauptspeicher gespeichert sind; und
    eine Ausgabeeinrichtung zum Umwandeln der Bilddaten eines aktuellen Bildes, welche in dem Anzeigebereich gespeichert sind, um das Videosignal bereitzustellen.
  • Die vorliegende Erfindung wird aus der folgenden detaillierten Beschreibung, die lediglich als Beispiel gegeben ist, unter Bezugnahme auf die beigefügten Zeichnungen leichter verständlich. In den Zeichnungen zeigen
  • 1 ein Blockdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung,
  • 2 ein Flussdiagramm, welches bei der Erläuterung eines Ausführungsbeispiels der vorliegenden Erfindung von Nutzen ist,
  • 3 ein Diagramm, welches bei der Erläuterung eines Speicheraufbaus bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist,
  • 4A4C Diagramme, die bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen sind.
  • 5A5C Diagramme, die bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen sind,
  • 6 ein Diagramm, welches bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist,
  • 7 ein Diagramm, welches bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist, und
  • 8 ein Diagramm, welches bei der Erläuterung einer Farbnachschlagtabelle bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist.
  • 1 zeigt ein Ausführungsbeispiel der vorliegenden Erfindung, bei dem eine Zentraleinheit bzw. CPU 2, ein Hauptspeicher 3, eine Bilderweiterungseinrichtung 4, ein CD-ROM-Decoder 5, eine Bildsynthetisiereinheit 6, eine Koordinatentrans formationseinheit 7 und eine DMA-Steuereinrichtung bzw. ein DMA-Controller 8 an einem Systembus 1 angeschlossen sind.
  • In vorteilhafter Weise wird eine 32-Bit-CPU als CPU 2 verwendet, und diese CPU 2 leitet das gesamte System. So wird beispielsweise ein Sortierprozess für eine Entscheidung der Reihenfolge, in der ein Polygon auf einem Bildschirm zu zeichnen ist, durch die CPU 2 ausgeführt.
  • Die Bilderweiterungs- bzw. Bilddehnungseinheit 4 führt einen Dehnungsprozess eines Bildes aus, das beispielsweise durch eine diskrete Kosinustransformation (DCT) komprimiert war.
  • Der CD-ROM-Decoder 5 ist mit einem CD-ROM-Laufwerk 9 verbunden und decodiert ein Anwendungsprogramm oder Daten von einer CD-ROM, die in das CD-ROM-Laufwerk 9 geladen ist. Bewegtbilddaten, die durch eine diskrete Kosinustransformation komprimierte Bilddaten sein können, können auf der CD-ROM aufgezeichnet sein.
  • Die Bildsynthetisiereinheit 6 ist über einen lokalen Bus 11 mit einem Bild- bzw. Vollbildspeicher 10 verbunden. Der Bildspeicher 10 ist aus zwei Bild- bzw. Vollbildspeichern aufgebaut, und die beiden Vollbildspeicher werden je Vertikal-Periode umgeschaltet. Der Bildspeicher 10 weist einen Texturbereich für die Speicherung eines Texturbildes und einen Zeichenbereich für die Speicherung eines zu zeichnenden Bildes auf. Ferner ist eine Farbnachschlagtabelle (CLUT) in dem Bildspeicher 10 vorgesehen. Ein Ausgangssignal für eine Anzeige des durch die Bildsynthetisiereinheit 6 erzeugten Bildes wird durch einen Digital-/Analog-D/A-Wandler 12 erzeugt.
  • Als ein Beispiel der computererzeugten Bildoperation führt die Bildsynthetisiereinheit 6 eine Neigungsberechnung und ein Polygonzeichnen aus. Die Polygondaten in dem Hauptspeicher 3, der durch die CPU 2 sortiert worden ist, werden an die Bildsynthetisiereinheit 6 in der sortierten Reihenfolge abgege ben, und durch eine (nicht dargestellte) Neigungsrecheneinheit, die Teil der Bildsynthetisiereinheit 6 ist, wird eine Neigung berechnet. Die Neigungsberechnung ist eine Berechnung, um eine Neigung einer Ebene der modifizierten Abbildungsdaten zu erhalten, wenn die Innenseite eines Polygons mit Abbildungsdaten in der Zeichnung eines Polygons gefüllt wird bzw. ist. Im Falle einer Textur wird das Polygon mit Texturdaten gefüllt, und im Falle einer Gouraud-Schattierung wird das Polygon mit Luminanzwerten gefüllt.
  • Die Koordinatentransformationseinheit 7 führt eine dreidimensionale Koordinatentransformation und eine Umsetzung von dreidimensionalen Daten in zweidimensionale Daten auf dem Bildschirm durch. Die Koordinatenkordinationseinheit 7 und der Hauptspeicher 3 können eine direkte Speicherzugriffs-(DMA)-Übertragung der Daten durch den DMA-Controller 8 ausführen. Die Koordinatentransformationseinheitsvorrichtung 7 erhält die Daten von dem Hauptspeicher 3 über den Systembus 1 und führt eine Koordinatentransformation der Daten durch und überträgt dann die umgesetzten Daten wieder in den Hauptspeicher 3 über den Systembus 1 zurück. Daten eines Objekts, der im dreidimensionalen Raum dargestellt ist, umfassen Modelldaten, die kennzeichnend sind für eine Form des Objekts und Geometriedaten, die kennzeichnend sind für die Koordinatenposition, in der das Objekt angezeigt wird.
  • Der DM-Controller 8 führt Steuerungen aus, die für Bildsynthetisierprozesse relevant sind, welche Speicher nutzen, wie das Schreiben von Daten in Speicher und das Lesen von Daten aus Speichern.
  • 2 veranschaulicht ein Flussdiagramm der Gesamtschritte, die bei der Vornahme des Polygonzeichnens involviert sind. Wenn von der CPU 2 beim Schritt 101 ein Befehl erzeugt wird, werden die Daten von dem Hauptspeicher 3 über den Systembus 1 zu der Koordinatentransformationsvorrichtung 7 übertragen. Sodann wird die dreidimensionale Koordinatentransformation beim Schritt 102 in der Koordinatentransformationsvorrichtung 7 ausgeführt, so dass die Daten von dreidimensionalen Daten in zweidimensionale Daten beim Schritt 103 umgesetzt werden. Die umgesetzten Daten werden über den Systembus 1 zu dem Hauptspeicher 3 übertragen und beim Schritt 104 durch die CPU 2 sortiert. Die durch die CPU 2 sortierten Daten werden über den Systembus 1 an die Bildsynthetisiereinheit 6 abgegeben. Die Neigung wird beim Schritt 105 durch die Bildsynthetisiervorrichtung 6 berechnet, und beim Schritt 106 wird ein Polygon gezeichnet bzw. gezogen. Das resultierende Bild wird beim Schritt 107 erzeugt und angezeigt.
  • Der Bildspeicher 10 weist einen Texturbereich zur Speicherung des Texturbildes und einen Zeichenbereich zur Speicherung des zu zeichnenden Bildes auf, und 3 veranschaulicht einen Speicherplatz des Bildspeichers 10. Der Bildspeicher 10 ist durch zweidimensionale Adressen aus Spalten und Zeilen adressiert worden. In dem zweidimensionalen Adressenraum sind Bereiche AT1, AT2, AT3 und so weiter als Texturbereiche festgelegt, und irgendeine Anzahl von Arten von Texturmustern kann in den Texturbereiche n AT1, AT2, AT3, und so weiter angeordnet sein. AD1 bezeichnet einen Zeichenbereich, und eine zu zeichnende Bildebene wird in dem Zeichenbereich AD1 entwickelt. Die Bereiche AC1, AC2, AC3 und so weiter bezeichnen Farbnachschlagtabellen-(CLUT)-Bereiche.
  • Im Falle des Anhaftens der Textur an der Fläche des Objekts, das erzeugt worden ist, werden die Texturdaten in den Texturbereiche n AT1, AT2, AT3 einer zweidimensionalen Abbildungstransformation unterzogen. So wird beispielsweise das Texturmuster TP1, wie es in 4A gezeigt ist, einer Koordinatentransformation in einen zweidimensionalen Bildschirm unterzogen, wie dies in 4B gezeigt ist. Das einer Abbildungstransformation unterzogene Texturmuster TP1 wird an den Zeichenbereich AD1, wie in 4C gezeigt, abgegeben und auf der Oberfläche des Objekts in dem Zeichenbereich AD1 synthetisiert.
  • Im Falle der Abbildung der Textur auf einem Bild eines Polygons werden Texturmuster T1, T2 und T3 in den Texturbereiche n AT1, AT2 und AT3, wie in 5A gezeigt, ausgelesen und einer zweidimensionalen Abbildungstransformation unterzogen und an den Flächen eines festen bzw. massiven Objekts OB1 angeheftet, wie dies in 5B gezeigt ist. Anschließend werden, wie in 5C gezeigt, die Texturen T1, T2 und T3 an den Flächen des Objekts OB1 angeheftet und in dem Zeichenbereich AD1 angeordnet. Die Bildebene des Zeichenbereichs AD1 wird dann auf dem Bildschirm als computererzeugte Grafik angezeigt.
  • Im Falle einer Standbildstruktur werden die Texturmuster in dem Hauptspeicher 3 durch die Bildsynthetisiereinheit 6 in die Texturbereiche AT1, AT2, AT3 und so weiter in den Bildspeicher 10 übertragen, und die Bildsynthetisiereinheit 6 haftet die Texturmuster an die Flächen des Polygons an, das auf dem Bildschirm erscheint. Aufgrund dieser Operation wird die Textur des Standbildes an dem Objekt realisiert.
  • Ferner kann eine Textur auch auf ein Bewegtbild angewandt werden. Im Falle einer Bewegtbildtextur werden die komprimierten Bewegtbilddaten von der CD-ROM einmal in den Hauptspeicher 3 gelesen, und die komprimierten Bilddaten werden an die Bilderweiterungs- bzw. Bilddehnungseinrichtung 4 gesendet. Die Bilddaten werden durch die Bilddehnungseinrichtung gedehnt, und die Bewegtbilddaten werden an die Texturbereiche AT1, AT2, AT3 und so weiter in dem Bildspeicher 10 abgegeben. Da die Texturdaten AT1, AT2, AT3 in dem Bildspeicher 10 vorgesehen sind, kann das Texturmuster selbst je Bild bzw. Vollbild neu geschrieben werden. Wenn ein Bewegtbild an die Texturbereiche AT1, AT2 und AT3 abgegeben wird bzw. ist, wird die Textur dynamisch neu geschrieben, und Änderungen in der Textur des Bewegtbildes werden realisiert.
  • Die komprimierten Bewegtbilddaten von der CD-ROM werden in den Hauptspeicher 3 gelesen, die komprimierten Bilddaten werden durch die Bilddehnungseinrichtung 4 gedehnt, und die gedehnten Daten werden an den Zeichenbereich AD1 in dem Bildspeicher 10 abgegeben, so dass das Bewegtbild direkt auf dem Bildschirm gezeichnet werden kann.
  • Ferner kann das Objekt in dem Zeichenbereich AD1 in dem Bildspeicher 10 zu den Texturbereiche n AT1, AT2, AT3 hin bewegt werden. Aufgrund dieser Tatsache kann das Objekt mit der Textur bezüglich der Textur dafür ferner für das nächste Texturmuster festgelegt werden. Aufgrund dieses Umstands kann ein Texturmuster mit einer sehr großen Veränderung gebildet werden.
  • So werden beispielsweise, wie in 7 gezeigt, Texturmuster T11, T12 und T13, die in den Texturbereiche n AT1, AT2 bzw. AT3 existieren, an dem Objekt angeheftet und in dem Zeichenbereich AD1 entwickelt. Die Bildebene in dem Zeichenbereich AD1 wird anschließend in den Texturbereich AT4 bewegt, und ein Texturmuster T14 in dem Texturbereich AT4 wird ferner an einem Objekt OB22 angeheftet. Wie oben erwähnt, kann das Objekt, an das die Textur angeheftet bzw. angebracht wurde, selbst eine Textur werden.
  • Die Farbnachschlagtabellen-(CLUT)-Bereiche AC1, AC2 und AC3 sind in dem Bildspeicher 10 vorgesehen. Die CLUT-Tabellen C1, C2, C3 sind beispielsweise, wie in 8 gezeigt, in den Bereichen AC1, AC2, AC3 für Texturmuster T21, T22 bzw. T23 vorgesehen. Die Farben der Texturmuster T21, T22, T23 sind durch die CLUT-Tabellen C1, C2 bzw. C3 bestimmt.
  • In vielen Fällen, wie in dem Fall, dass ein Bild als ein Texturmuster verwendet wird, wird eine Spezialfarbe, wie ein Oberflächenmuster eines Ziegelsteins verwendet. In einem solchen Bild kann durch vorheriges Registrieren der Farben, die verwendet sind, in der bzw. den CLUT-Tabelle(n) die Anzahl der Bits pro Pixel verringert werden. Trotzdem weisen im allgemeinen die Arten von Farben, die verwendet werden, eine solche Neigung auf, dass sie für jede Textur unterschiedlich sind, beispielsweise für das Oberflächenmuster eines Ziegelsteins und das Oberflächenmuster eines Steines. Wenn derartige unterschiedliche Oberflächen durch eine einzige CLUT-Tabelle ausgedrückt werden müssen, ist die Bildqualität aufgrund der Verringerung der Anzahl von Farben verschlechtert. Gemäß einer Ausführungsform der Erfindung wird daher eine Vielzahl von CLUT-Tabellen C1, C2 und C3 erstellt, und die CLUT-Tabelle kann für jede spezifische Textur ausgewählt werden.
  • Es besteht keinerlei Bedarf, zwischen der CLUT-Tabelle und dem Texturmuster eine entsprechende 1-zu-1-Beziehung zu haben. Eine CLUT-Tabelle kann außerdem von einer Vielzahl von Texturmustern gemeinsam verwendet werden. Unter der Annahme, dass beispielsweise die Anzahl der Bits der Textur gleich 4 ist, wenn eine einzelne bzw. einzige CLUT-Tabelle verwendet wird, beträgt die Anzahl der Farben, die durch die Texturabbildung ausgedrückt werden kann, gleich lediglich 16; falls jedoch die CLUT-Tabelle für jedes Texturmuster ausgewählt werden kann, beträgt die Anzahl der Farben, die ausgedrückt werden können, gleich 48 Farben, und zwar sogar dann, wenn die Anzahl von Bits lediglich gleich 4 beträgt.
  • Nachdem ein spezifisches bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben worden ist, ist einzusehen, dass die Erfindung auf die betreffende bestimmte Ausführungsform nicht beschränkt ist und dass verschiedene Änderungen und Modifikationen darin vom Durchschnittsfachmann ohne Abweichung vom Erfindungsgedanken oder von der Wesensart der Erfindung vorgenommen werden können, wie er in den beigefügten Ansprüchen definiert ist.
  • So sind beispielsweise gemäß dem oben beschriebenen Ausführungsbeispiel die Bilddaten komprimiert und in der CD-ROM aufgezeichnet worden; die Bilddaten können jedoch auch komprimiert und auf einem anderen Aufzeichnungsträger aufgezeichnet sein bzw. werden, wie auf einer Magnetplatte oder in einem Halbleiterspeicher, wie einer Speicherkarte.
  • Das Bildkompressionsverfahren ist auf die diskrete Kosinustransformation DCT nicht beschränkt, sondern es können andere Kompressionsverfahren ebenso in vorteilhafter Weise angewandt werden.

Claims (13)

  1. Echtzeit-Texturabbildungsverfahren (Echtzeitbemusterungsverfahren) zum Erzeugen eines zweidimensionale Bildes eines Gegenstandes mit einer Oberfläche, welche eine dynamisch wechselnde Textur besitzt, mittels dreidimensionaler Bilddaten und zweidimensionaler Bewegtbilddaten, mit den Schritten: a) Empfangen der dreidimensionalen Bilddaten und der zweidimensionalen Bewegtbilddaten; b) Umwandeln der dreidimensionalen Bilddaten in entsprechende zweidimensionale Bilddaten; c) Speichern der zweidimensionalen Bilddaten in einem Zeichnungsbereich (AD1) eines Bildspeichers (10); d) Speichern der zweidimensionalen Bewegtbilddaten Bild für Bild als Texturmusterdaten in einem Texturbereich (AT1, AT2, AT3, AT4) des Bildspeichers (10); und e) Abbilden eines Bildes der in dem Texturbereich (AT1, AT2, AT3, AT4) gespeicherten Bewegtbilddaten je vertikaler Anzeigeperiode auf der Oberfläche des durch die in dem Zeichnungsbereich (AD1) des Bildspeichers (10) gespeicherten zweidimensionalen Bilddaten dargestellten Gegenstandes.
  2. Echtzeit-Texturabbildungsverfahren nach Anspruch 1, ferner mit dem Schritt des Wiedergebens der Bewegtbilddaten von einer CD-ROM, wobei der Wiedergabeschritt dem Empfangsschritt voransteht.
  3. Echtzeit-Texturabbildungsverfahren nach Anspruch 1 oder 2, bei welchem der Schritt e) mehrere Bilder von Bewegtbilddaten in entsprechend mehreren Unterbereichen des Texturbereichs (AT1, AT2, AT3, AT4) speichert.
  4. Echtzeit-Texturabbildungsverfahren nach Anspruch 1 oder 2, bei welchem der Schritt e) mehrere Bilder von Bewegtbilddaten in einem einzigen Texturbereich (AT1, AT2, AT3, AT4) mit einem Bild je vertikaler Anzeigeperiode speichert.
  5. Echtzeit-Texturabbildungsverfahren nach Anspruch 1, ferner mit den Schritten: Speichern der neuen zweidimensionalen Bilddaten mit den auf der Oberfläche des Gegenstandes abgebildeten Texturmusterdaten darin als neue Texturmusterdaten in dem Texturbereich (AT1, AT2, AT3, AT4) des Bildspeichers (10); Verwenden der neuen zweidimensionalen Bilddaten mit den auf der Oberfläche des Gegenstandes abgebildeten Texturmusterdaten darin als aktuelles Bild für die Anzeige; und Verwenden der neuen Texturmusterdaten des Gegenstandes mit den darauf abgebildeten Texturmusterdaten als neues Texturmuster, um auf einem in dem Zeichnungsbereich (AD1) gespeicherten zweiten Gegenstand für ein nächstes anzuzeigendes Bild abzubilden.
  6. Echtzeit-Texturabbildungsverfahren nach Anspruch 5, ferner mit dem Schritt des Wiedergebens der Texturmusterdaten von einer CD-ROM, wobei die Texturmusterdaten von der CD-ROM Bilder eines Bewegtbildes aufweisen, wobei der Wiedergabeschritt dem Empfangsschritt voransteht.
  7. Videospielgerät zum Erzeugen eines Videosignals entsprechend einem Bild eines Gegenstandes mit einer dynamisch wechselnden Textur mittels dreidimensionaler Bilddaten und Bewegtbild-Texturmusterdaten, mit einem Hauptspeicher (3) zum Empfangen und Speichern der dreidimensionalen Bilddaten, wobei die dreidimensionalen Bilddaten eine Form, eine Koordinatenposition und eine Orientierung bzw. Ausrichtung des Gegenstandes in einem dreidimensionalen Raum angeben; einer Einrichtung (7) zum Durchführen einer dreidimensionalen Koordinatentransformation bezüglich der in dem Hauptspeicher (3) gespeicherten dreidimensionalen Bilddaten zum Umwandeln der transformierten dreidimensionalen Bilddaten in jeweilige zweidimensionale Bilddaten zur Anzeige auf einer Anzeigeeinrichtung, und zum Übertragen der zweidimensionalen Bilddaten zurück zu dem Hauptspeicher (3), wobei die dreidimensionale Koordinatentransformation eine geometrische Transformation des Gegenstandes in dem dreidimensionalen Raum enthält; einer Empfangseinrichtung zum Empfangen der Bewegtbild-Texturmusterdaten und zum Bereitstellen der Bewegtbild-Texturmusterdaten Bild um Bild; einem Bildspeicher (10) mit einem Texturbereich (AT1, AT2, AT3, AT4) zum Speichern der durch die Empfangseinrichtung Bild um Bild zugeführten Bewegtbild-Texturmusterdaten, einem Anzeigebereich zum Speichern von Bilddaten eines angezeigten aktuellen Bildes und einem Zeichnungsbereich (AD1), der einen Arbeitsbereich zum Zusammensetzen von Bilddaten eines nächsten anzuzeigenden Bildes vorsieht, wobei die zweidimensionalen Bilddaten des in einem nächsten Bild anzuzeigenden Gegenstands in dem Anzeigebereich gespeichert sind; einer Bildaufbaueinrichtung (6) zum Aufbauen eines Bildes mit dynamisch wechselnder Textur des Gegenstandes mittels der zweidimensionalen Bilddaten und der Bewegtbild-Texturmusterdaten, die in dem Hauptspeicher (10) gespeichert sind; und einer Ausgabeeinrichtung (12) zum Umwandeln der Bilddaten eines aktuellen Bildes, welche in dem Anzeigebereich gespeichert sind, um das Videosignal bereitzustellen.
  8. Videospielgerät nach Anspruch 7, bei welchem die Anzeige- und Zeichnungsbereiche (AD1) des Bildspeichers (10) während einer ersten vertikalen Anzeigeperiode, in welcher der eine Bereich der Anzeige- und Zeichnungsbereiche (AD1) eine erste Funktion des Speicherns von Bilddaten eines angezeigten aktuellen Bildes durchführt und in welcher der andere Bereich der Anzeige- und Zeichnungsbereiche (AD1) eine zweite Funktion als Arbeitsbereich zum Zusammensetzen von Bilddaten eines nächsten anzuzeigenden Bildes durchführt, und während einer zweiten vertikalen Anzeigeperiode, in welcher der eine Bereich der Anzeige- und Zeichnungsbereiche (AD1) die zweite Funktion durchführt und in welcher der andere Bereich der Anzeige- und Zeichnungsbereiche (AD1) die erste Funktion durchführt, funktionell austauschbar sind.
  9. Videospielgerät nach Anspruch 7, ferner mit einer Wiedergabeeinrichtung (5, 9) zum Wiedergeben komprimierter Bewegtbilddaten von einem Aufzeichnungsmedium und zum Bereitstellen der wiedergegebenen komprimierten Bewegtbilddaten für die Empfangseinrichtung, wobei die Empfangseinrichtung die komprimierten Bewegtbilddaten dehnt und die gedehnten Daten Bild um Bild als Bewegtbild-Texturmusterdaten dem Bildspeicher (10) zuführt.
  10. Videospielgerät nach Anspruch 9, bei welchem die Wiedergabeeinrichtung (5, 9) die komprimierten Bewegtbilddaten von dem Aufzeichnungsmedium optisch wiedergibt.
  11. Videospielgerät nach Anspruch 9, bei welchem das Aufzeichnungsmedium eine CD-ROM ist und die Wiedergabeeinrichtung (5, 9) aufweist: ein CD-ROM-Laufwerk (9) zum Wiedergeben von auf der CD-ROM aufgezeichneten Daten; und einen mit dem Systembus verbundenen CD-ROM-Decoder (5) zum Decodieren der komprimierten Bewegtbilddaten aus den durch das CD-ROM-Laufwerk (9) wiedergegebenen Daten und Bereitstellen der decodierten komprimierten Bewegtbilddaten für die Empfangseinrichtung.
  12. Videospielgerät nach einem der Ansprüche 7 bis 11, bei welchem die Ausgabeeinrichtung (12) einen Digital/Analog-Wandler (12) aufweist.
  13. Videospielgerät nach einem der Ansprüche 7 bis 12, ferner mit einem Systembus, wobei der Hauptspeicher (3) und die Bildaufbaueinrichtung (6) mit dem Systembus verbunden sind und der Hauptspeicher (10) mit dem Systembus durch die Bildaufbaueinrichtung (6) verbunden ist.
DE69333508T 1992-11-24 1993-11-22 Vorrichtung und Verfahren zur Verarbeitung von Videosignalen Expired - Lifetime DE69333508T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP33659492A JP3229042B2 (ja) 1992-11-24 1992-11-24 画像処理装置および画像処理方法
JP33659492 1992-11-24
JP33659392 1992-11-24
JP4336593A JPH06161876A (ja) 1992-11-24 1992-11-24 画像処理方法

Publications (2)

Publication Number Publication Date
DE69333508D1 DE69333508D1 (de) 2004-06-09
DE69333508T2 true DE69333508T2 (de) 2005-04-14

Family

ID=26575522

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69331893T Expired - Lifetime DE69331893T2 (de) 1992-11-24 1993-11-22 Eine Vorrichtung zur Verarbeitung von Videosignalen
DE69333379T Expired - Lifetime DE69333379T2 (de) 1992-11-24 1993-11-22 Vorrichtung und Verfahren zur Verarbeitung von Videosignalen
DE69333508T Expired - Lifetime DE69333508T2 (de) 1992-11-24 1993-11-22 Vorrichtung und Verfahren zur Verarbeitung von Videosignalen

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE69331893T Expired - Lifetime DE69331893T2 (de) 1992-11-24 1993-11-22 Eine Vorrichtung zur Verarbeitung von Videosignalen
DE69333379T Expired - Lifetime DE69333379T2 (de) 1992-11-24 1993-11-22 Vorrichtung und Verfahren zur Verarbeitung von Videosignalen

Country Status (4)

Country Link
US (2) US5537224A (de)
EP (3) EP0599579B1 (de)
CA (1) CA2103395C (de)
DE (3) DE69331893T2 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5537224A (en) * 1992-11-24 1996-07-16 Sony Corporation Texture mapping image processing method and apparatus
JPH06236316A (ja) * 1992-12-18 1994-08-23 Toshiba Corp 情報伝送システム
US5774125A (en) * 1993-11-18 1998-06-30 Sony Corporation Texture mapping method in which 3-D image data is transformed into 2-D data and mapped onto a surface of an object for display
JP3313221B2 (ja) * 1993-12-28 2002-08-12 松下電器産業株式会社 画像生成方法及び画像生成装置
JP3492761B2 (ja) * 1994-04-07 2004-02-03 株式会社ソニー・コンピュータエンタテインメント 画像生成方法及び装置
JP2846252B2 (ja) * 1994-08-22 1999-01-13 株式会社ナムコ 3次元シミュレータ装置及び画像合成方法
JP2637931B2 (ja) * 1994-12-01 1997-08-06 インターナショナル・ビジネス・マシーンズ・コーポレイション テクスチャ・マッピングを行うコンピュータ・システム
US5949409A (en) * 1994-12-02 1999-09-07 Sony Corporation Image processing in which the image is divided into image areas with specific color lookup tables for enhanced color resolution
JPH08275117A (ja) * 1995-03-30 1996-10-18 Toshiba Corp 画像処理装置
US5793379A (en) * 1995-04-03 1998-08-11 Nvidia Corporation Method and apparatus for scaling images having a plurality of scan lines of pixel data
US5801708A (en) * 1995-06-06 1998-09-01 Hewlett-Packard Company MIP map texture storage by dividing and allocating among multiple blocks
EP0747859B1 (de) 1995-06-06 2005-08-17 Hewlett-Packard Company, A Delaware Corporation Unterbrechungsschema zum Aktualisieren eines Lokalspeichers
US5751292A (en) * 1995-06-06 1998-05-12 Hewlett-Packard Company Texture mapping method and system
US5790130A (en) * 1995-06-08 1998-08-04 Hewlett-Packard Company Texel cache interrupt daemon for virtual memory management of texture maps
US5772297A (en) * 1995-11-15 1998-06-30 Creative Technology, Ltd. 3D graphics library
JP3402926B2 (ja) * 1996-05-15 2003-05-06 シャープ株式会社 3次元画像処理装置
US5818420A (en) * 1996-07-31 1998-10-06 Nippon Hoso Kyokai 3D object graphics display device, 3D object graphics display method, and manipulator for 3D object graphics display
US6088469A (en) * 1996-09-30 2000-07-11 Sony Corporation Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
US5956043A (en) * 1997-09-18 1999-09-21 Novell, Inc. Textured tile rotation system and method
US6032242A (en) * 1997-10-15 2000-02-29 Industrial Technology Research Institute Methods and systems for generating alternate and zigzag address scans based on feedback addresses of alternate and zigzag access patterns
JP3315363B2 (ja) * 1998-03-18 2002-08-19 松下電器産業株式会社 動画像再生品質制御装置およびその制御方法
WO1999060523A1 (fr) * 1998-05-20 1999-11-25 Sony Computer Entertainment Inc. Procede et appareil de traitement d'images, et support
US6201546B1 (en) 1998-05-29 2001-03-13 Point Cloud, Inc. Systems and methods for generating three dimensional, textured models
US6822658B1 (en) 1999-10-25 2004-11-23 Intel Corporation Rendering a silhouette edge
US6798411B1 (en) * 1999-10-29 2004-09-28 Intel Corporation Image processing
JP3367934B2 (ja) * 2000-03-24 2003-01-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム、ゲームシステムにおける画像描画方法およびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体
US7180523B1 (en) 2000-03-31 2007-02-20 Intel Corporation Trimming surfaces
US7061501B1 (en) * 2000-11-07 2006-06-13 Intel Corporation Rendering a pencil-sketch image
US7116330B2 (en) 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US7190374B2 (en) 2001-02-28 2007-03-13 Intel Corporation Shading polygons from a three-dimensional model
US6980206B2 (en) * 2001-06-07 2005-12-27 Intel Corporation Rendering a three-dimensional model using a dither pattern
US6924804B2 (en) * 2001-09-25 2005-08-02 Intel Corporation Reducing the resolution of bones in a three-dimensional model
US6906724B2 (en) * 2001-10-17 2005-06-14 Lntel Corporation Generating a shadow for a three-dimensional model
US7548241B2 (en) * 2002-01-04 2009-06-16 Intel Corporation Determining a node path through a node graph
US7301547B2 (en) 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
US7146297B2 (en) * 2002-03-27 2006-12-05 Intel Corporation Detecting collisions of three-dimensional models
US6975318B2 (en) * 2002-06-25 2005-12-13 Intel Corporation Polygon binning process for tile-based rendering
US6982715B2 (en) * 2002-07-26 2006-01-03 Intel Corporation Mesh compression process
US6744654B2 (en) * 2002-08-21 2004-06-01 Micron Technology, Inc. High density dynamic ternary-CAM memory architecture
WO2005051504A1 (en) * 2003-11-28 2005-06-09 Mario Castellani Electronic game for computer or slot machine
US7953260B2 (en) * 2006-06-09 2011-05-31 Craniosim Solutions, Inc. Predicting movement of soft tissue of the face in response to movement of underlying bone
GB2448185A (en) * 2007-04-05 2008-10-08 Generated Packaging Ltd Comp High definition image generation from low definition representation
US20150228106A1 (en) * 2014-02-13 2015-08-13 Vixs Systems Inc. Low latency video texture mapping via tight integration of codec engine with 3d graphics engine
US11127106B2 (en) 2019-06-28 2021-09-21 Intel Corporation Runtime flip stability characterization
US11409341B2 (en) 2019-10-01 2022-08-09 Intel Corporation Repeating graphics render pattern detection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1147858A (en) * 1980-07-16 1983-06-07 Discovision Associates System for recording digital information in a pulse-length modulation format
JPS60186967A (ja) * 1984-03-05 1985-09-24 Fanuc Ltd 画像表示方法
US4974177A (en) * 1985-10-04 1990-11-27 Daikin Industries Ltd. Mapping circuit of a CRT display device
US4935879A (en) * 1987-08-05 1990-06-19 Daikin Industries, Ltd. Texture mapping apparatus and method
US5175806A (en) * 1989-03-28 1992-12-29 Computer Design, Inc. Method and apparatus for fast surface detail application to an image
US5222205A (en) * 1990-03-16 1993-06-22 Hewlett-Packard Company Method for generating addresses to textured graphics primitives stored in rip maps
JP3179474B2 (ja) * 1990-11-28 2001-06-25 株式会社日立製作所 コンピュータグラフィックの表示方法及び情報処理装置
US5537224A (en) * 1992-11-24 1996-07-16 Sony Corporation Texture mapping image processing method and apparatus

Also Published As

Publication number Publication date
CA2103395C (en) 2004-08-17
DE69331893D1 (de) 2002-06-13
DE69333508D1 (de) 2004-06-09
CA2103395A1 (en) 1994-05-25
EP1148443B1 (de) 2004-05-06
EP1143384A3 (de) 2002-01-16
EP1148443A2 (de) 2001-10-24
DE69333379D1 (de) 2004-02-12
EP0599579B1 (de) 2002-05-08
DE69331893T2 (de) 2002-12-12
US5949969A (en) 1999-09-07
US5537224A (en) 1996-07-16
EP0599579A1 (de) 1994-06-01
DE69333379T2 (de) 2004-12-09
EP1143384A2 (de) 2001-10-10
EP1148443A3 (de) 2002-01-23
EP1143384B1 (de) 2004-01-07

Similar Documents

Publication Publication Date Title
DE69333508T2 (de) Vorrichtung und Verfahren zur Verarbeitung von Videosignalen
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE69432385T2 (de) Bilderzeugung
DE69836924T2 (de) Block- und bandorientierter durchlauf in dreidimensionaler dreieckswiedergabe
DE69534751T2 (de) Bilddatenerzeugungsverfahren, Bilddatenverarbeitungsvorrichtung und Aufzeichnungsmedium
DE60120474T2 (de) Rasterung von dreidimensionalen bildern
DE69839277T2 (de) Verfahren und anordnung zur ausführung von farbschlüsseln, transparenz und nebelfunktionen
DE69636599T2 (de) Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild
DE602004009591T2 (de) Differenz-codierung durch verwendung eines 3d-graphikprozessors
DE60126967T2 (de) Verfahren und Vorrichtung für Anti-Aliasing durch Überabtastung
DE60105510T2 (de) Bilderzeugungsgerät
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE19531004C2 (de) Verfahren und Vorrichtung zur wahrnehmungsoptimierten Übertragung von Video- und Audio-Daten
DE60000686T2 (de) Graphisches system mit super-abgetastetem musterpuffer mit erzeugung von ausgangpixeln unter verwendung von selektiven adjustierung der filterung zur artifaktverminderung
DE69722139T2 (de) Dreidimensionale abbildung von bildtexturen
DE19807053B4 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE3518416A1 (de) Speicher- und prozessorsystem mit schnellem zugriff zur rasteranzeige
DE69533911T2 (de) Verfahren und Gerät zum Erzeugen von Bildern
DE10101073B4 (de) Bildaufbereitungsvorrichtung mit niedrigeren Speicherkapazitätsanforderungen und Verfahren dafür
DE102018125472B4 (de) Grafikprozessor, der Abtastungs-basiertes Rendering durchführt, und Verfahren zum Betreiben desselben
DE60301303T2 (de) Videoverarbeitung
DE69733228T2 (de) Adressgenerator, Bildanzeigegerät, Adressenerzeugungsverfahren und Bildanzeigeverfahren
DE69722535T2 (de) Verfahren und Gerät zum Schaffen von Texturdaten
DE60033589T2 (de) Bildverarbeitung
DE3490148C2 (de) Vorrichtung zur Erzeugung unterschiedlicher Figuren in einem computergesteuerten Darstellungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 1148443

Country of ref document: EP

Representative=s name: MITSCHERLICH & PARTNER, 80331 MUENCHEN, DE