DE69333508T2 - Vorrichtung und Verfahren zur Verarbeitung von Videosignalen - Google Patents
Vorrichtung und Verfahren zur Verarbeitung von Videosignalen Download PDFInfo
- Publication number
- DE69333508T2 DE69333508T2 DE69333508T DE69333508T DE69333508T2 DE 69333508 T2 DE69333508 T2 DE 69333508T2 DE 69333508 T DE69333508 T DE 69333508T DE 69333508 T DE69333508 T DE 69333508T DE 69333508 T2 DE69333508 T2 DE 69333508T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- data
- texture
- image data
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/20—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
- A63F2300/203—Image generating hardware
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Description
- Die Erfindung bezieht sich generell auf eine Bildverarbeitungsvorrichtung und auf ein Verfahren zur Erzeugung eines Bildes aus in einem Speicher gespeicherten Daten und insbesondere auf die Erzeugung eines Bildes, welches in seinen Flächen eine Struktur bzw. Textur oder Dekoration aufweist, wie ein Bild, für die Verwendung in einem Computerspiel.
- Um sich eines Computerspiels zu erfreuen, sind eine hohe Verarbeitungsgeschwindigkeit und eine ausgezeichnete grafische Anzeigefähigkeit erforderlich. Bei Videospielen ist es erforderlich, ein dreidimensionales Objekt mit hoher Geschwindigkeit anzuzeigen, visuelle Effekte, wie Strukturen bzw. Texturen oder dergleichen zu realisieren oder andere Information real anzuzeigen. Die Struktur bzw. Textur ist dazu bestimmt, einen visuellen Effekt, der für das bestimmte dreidimensionale Objekt eigentümlich ist, dadurch hervorzurufen, dass ein Muster, welches an einer anderen Stelle festgelegt ist, anscheinend an bzw. auf der Oberfläche des dreidimensionalen Objekts haftet bzw, hängt. Als Beispiele derartiger Muster, die an der Oberfläche des Objekts hängen bzw. haften, gibt es ein geometrisches Muster oder ein Standbildmuster, wie eine Fotografie, eine von Hand erstellte Zeichnung oder dergleichen.
- Es ist ferner erwünscht, dass ein Bewegtbild als Texturmuster verwendet wird, um spezifische Computergrafiken bereitzustellen. Bisher ist jedoch ein Texturmuster zuvor festgelegt worden, und das Texturmuster kann nicht dynamisch auf bzw. in ausgewählten Bildern neu geschrieben werden. Deshalb kann das Texturmuster eines Bewegtbildes nicht an der Oberfläche eines Objekts unter Verwendung von Computergrafiken angeheftet bzw. angehängt werden.
- Da das Texturmuster, wie oben erwähnt, nicht dynamisch neu geschrieben werden kann, kann ferner eine Struktur bzw. Textur mit einer starken Änderung nicht an der Oberfläche eines Objekts angehängt bzw. angeheftet werden.
- Bisher ist die Anzahl von Farben des Texturmusters aufgrund einer Beschränkung in der Anzahl von Bits und einer Anzahl von Farben, die ausgedrückt werden können, begrenzt.
- In der
US 4.935.879 ist eine Texturabbildungsvorrichtung für die Echtzeitanzeige einer Figur beschrieben, in der ein animiertes Bild abgebildet worden ist. Die Vorrichtung weist eine Einrichtung auf, die 2D-(zweidimensionale)-Quellkoordinatendaten erzeugt, welche eine Quelle für Texturabbildungsdaten darstellen, und zwar entsprechend 3D-(dreidimensionalen)-Zielkoordinatendaten, die ihrerseits Ziele für Texturabbildungsdaten liefern. - Im SMPTE JOURNAL, Vol. 100, Nr. 3, März 1991, White Plains, NY, US Seiten 162 bis 166 beschreiben Vigneaux und andere in "A RealTime Video Mapping and Manipulation System" ein System, das eine Echtzeit-Eingangsvideoabbildung zur internen Erzeugung von 3d-Auflösungsobjekten vorschlägt. Diese Objekte können rein krummlinig sein oder eine Vielzahl von individuell erstellten lokalen Deformationen aufweisen. Ein Vollbewegungsvideo kann dann auf dem Objekt in Echtzeit abgebildet werden (Echtzeit ist definiert als Videorate mit 30 Vollbildern/s).
- In der EP-A-0.447.227 sind Verfahren und Vorrichtungen zur Texturabbildung von grafischen Darstellungselementen in einem Grafik-Pipelinearchitektursystem beschrieben. Die Verfahren und Vorrichtungen verwenden rechteckige Behälter-Filter, um Original-Texturabbildungen herunter abzutasten, um dadurch eine Faltung und ein Verwaschen zu optimieren, wenn grafische Darstellungselemente eine zweidimensionale Textur aufweisen, die auf einem dreidimensionalen Objekt abgebildet wird. Die Verfahren umfassen die Schritte des Bestimmens einer Original-Texturabbildung zweier Dimensionen für eine Fläche, das Speichern der Original-Texturabbildung im Bild- bzw. Vollbildspeicher, das unabhängige Abtasten der Original-Texturabbildung unter Verwendung eines asymmetrischen Filters zur Konstruktion von Mehrfachversionen einer Textur und zur Abgabe von strukturierten Pixeln an eine Anzeige bzw. Anzeigeeinrichtung in Vollbild-Puffergrafiksystemen, die Abbildung der strukturierten Pixel auf Bereiche in dem Vollbildpuffer und die Anzeige der strukturierten grafischen Darstellungselemente in der Anzeigeeinrichtung.
- Gemäß einem Aspekt der Erfindung ist ein Echtzeit-Struktur- bzw. Texturabbildungsverfahren (oder Echtzeitbemusterungsverfahren) zur Erzeugung eines zweidimensionalen Bildes eines Objekts bzw. Gegenstands mit einer Oberfläche, welche eine dynamisch wechselnde Struktur bzw. Textur besitzt, mittels dreidimensionaler Bilddaten und zweidimensionaler Bewegtbilddaten geschaffen, umfassend die Schritte:
- a) Empfangen der dreidimensionalen Bilddaten und der zweidimensionalen Bewegtbilddaten;
- b) Umwandeln der dreidimensionalen Bilddaten in entsprechende zweidimensionale Bilddaten;
- c) Speichern der zweidimensionalen Bilddaten in einem Zeichnungsbereich eines Bildspeichers;
- d) Speichern der zweidimensionalen Bewegtbilddaten Bild für Bild als Texturmusterdaten in einem Texturbereich des Bildspeichers; und
- e) Abbilden eines Bildes der in dem Texturbereich gespeicherten Bewegtbilddaten je vertikaler Anzeigeperiode auf der Oberfläche des durch die in dem Zeichnungsbereich des Bildspeichers gespeicherten zweidimensionalen Bilddaten dargestellten Gegenstandes.
- Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Videospielgerät zum Erzeugen eines Videosignals entsprechend einem Bild eines Objekts bzw. Gegenstands mit einer dynamisch wechselnden Textur mittels dreidimensionaler Bilddaten und Bewegtbild-Texturmusterdaten geschaffen, umfassend einen Hauptspeicher zum Empfangen und Speichern der dreidimensionalen Bilddaten, wobei die dreidimensionalen Bilddaten eine Form, eine Koordinatenposition und eine Orientierung bzw. Ausrichtung des Gegenstandes in einem dreidimensionalen Raum angeben;
eine Einrichtung zum Durchführen einer dreidimensionalen Koordinatentransformation bezüglich der in dem Hauptspeicher gespeicherten dreidimensionalen Bilddaten zum Umwandeln der betreffenden transformierten dreidimensionalen Bilddaten in jeweilige zweidimensionale Bilddaten zur Anzeige auf einer Anzeigeeinrichtung und zum Übertragen der zweidimensionalen Bilddaten zurück zu dem Hauptspeicher, wobei die dreidimensionale Koordinatentransformation eine geometrische Transformation des Gegenstandes in dem dreidimensionalen Raum enthält;
eine Empfangseinrichtung zum Empfangen der Bewegtbild-Texturmusterdaten und zum Bereitstellen der Bewegtbild-Texturmusterdaten Bild um Bild; einen Bildspeicher mit einem Texturbereich zum Speichern der durch die Empfangseinrichtung Bild um Bild zugeführten Bewegtbild-Texturmusterdaten, einem Anzeigebereich zum Speichern von Bilddaten eines angezeigten aktuellen Bildes und einem Zeichnungsbereich, der einen Arbeitsbereich zum Zusammensetzen von Bilddaten eines nächsten anzuzeigenden Bildes vorsieht, wobei die zweidimensionalen Bilddaten des in einem nächsten Bild anzuzeigenden Gegenstands in dem Anzeigebereich gespeichert sind;
eine Bildsynthetisier- bzw. Bildaufbaueinrichtung zum Aufbauen eines Bildes mit dynamisch wechselnder Textur des Gegenstandes mittels der zweidimensionalen Bilddaten und der Bewegtbild-Texturmusterdaten, die in dem Hauptspeicher gespeichert sind; und
eine Ausgabeeinrichtung zum Umwandeln der Bilddaten eines aktuellen Bildes, welche in dem Anzeigebereich gespeichert sind, um das Videosignal bereitzustellen. - Die vorliegende Erfindung wird aus der folgenden detaillierten Beschreibung, die lediglich als Beispiel gegeben ist, unter Bezugnahme auf die beigefügten Zeichnungen leichter verständlich. In den Zeichnungen zeigen
-
1 ein Blockdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung, -
2 ein Flussdiagramm, welches bei der Erläuterung eines Ausführungsbeispiels der vorliegenden Erfindung von Nutzen ist, -
3 ein Diagramm, welches bei der Erläuterung eines Speicheraufbaus bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist, -
4A –4C Diagramme, die bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen sind. -
5A –5C Diagramme, die bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen sind, -
6 ein Diagramm, welches bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist, -
7 ein Diagramm, welches bei der Erläuterung einer Texturoperation bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist, und -
8 ein Diagramm, welches bei der Erläuterung einer Farbnachschlagtabelle bei einer Ausführungsform der vorliegenden Erfindung von Nutzen ist. -
1 zeigt ein Ausführungsbeispiel der vorliegenden Erfindung, bei dem eine Zentraleinheit bzw. CPU2 , ein Hauptspeicher3 , eine Bilderweiterungseinrichtung4 , ein CD-ROM-Decoder5 , eine Bildsynthetisiereinheit6 , eine Koordinatentrans formationseinheit7 und eine DMA-Steuereinrichtung bzw. ein DMA-Controller8 an einem Systembus1 angeschlossen sind. - In vorteilhafter Weise wird eine 32-Bit-CPU als CPU
2 verwendet, und diese CPU2 leitet das gesamte System. So wird beispielsweise ein Sortierprozess für eine Entscheidung der Reihenfolge, in der ein Polygon auf einem Bildschirm zu zeichnen ist, durch die CPU2 ausgeführt. - Die Bilderweiterungs- bzw. Bilddehnungseinheit
4 führt einen Dehnungsprozess eines Bildes aus, das beispielsweise durch eine diskrete Kosinustransformation (DCT) komprimiert war. - Der CD-ROM-Decoder
5 ist mit einem CD-ROM-Laufwerk9 verbunden und decodiert ein Anwendungsprogramm oder Daten von einer CD-ROM, die in das CD-ROM-Laufwerk9 geladen ist. Bewegtbilddaten, die durch eine diskrete Kosinustransformation komprimierte Bilddaten sein können, können auf der CD-ROM aufgezeichnet sein. - Die Bildsynthetisiereinheit
6 ist über einen lokalen Bus11 mit einem Bild- bzw. Vollbildspeicher10 verbunden. Der Bildspeicher10 ist aus zwei Bild- bzw. Vollbildspeichern aufgebaut, und die beiden Vollbildspeicher werden je Vertikal-Periode umgeschaltet. Der Bildspeicher10 weist einen Texturbereich für die Speicherung eines Texturbildes und einen Zeichenbereich für die Speicherung eines zu zeichnenden Bildes auf. Ferner ist eine Farbnachschlagtabelle (CLUT) in dem Bildspeicher10 vorgesehen. Ein Ausgangssignal für eine Anzeige des durch die Bildsynthetisiereinheit6 erzeugten Bildes wird durch einen Digital-/Analog-D/A-Wandler12 erzeugt. - Als ein Beispiel der computererzeugten Bildoperation führt die Bildsynthetisiereinheit
6 eine Neigungsberechnung und ein Polygonzeichnen aus. Die Polygondaten in dem Hauptspeicher3 , der durch die CPU2 sortiert worden ist, werden an die Bildsynthetisiereinheit6 in der sortierten Reihenfolge abgege ben, und durch eine (nicht dargestellte) Neigungsrecheneinheit, die Teil der Bildsynthetisiereinheit6 ist, wird eine Neigung berechnet. Die Neigungsberechnung ist eine Berechnung, um eine Neigung einer Ebene der modifizierten Abbildungsdaten zu erhalten, wenn die Innenseite eines Polygons mit Abbildungsdaten in der Zeichnung eines Polygons gefüllt wird bzw. ist. Im Falle einer Textur wird das Polygon mit Texturdaten gefüllt, und im Falle einer Gouraud-Schattierung wird das Polygon mit Luminanzwerten gefüllt. - Die Koordinatentransformationseinheit
7 führt eine dreidimensionale Koordinatentransformation und eine Umsetzung von dreidimensionalen Daten in zweidimensionale Daten auf dem Bildschirm durch. Die Koordinatenkordinationseinheit7 und der Hauptspeicher3 können eine direkte Speicherzugriffs-(DMA)-Übertragung der Daten durch den DMA-Controller8 ausführen. Die Koordinatentransformationseinheitsvorrichtung7 erhält die Daten von dem Hauptspeicher3 über den Systembus1 und führt eine Koordinatentransformation der Daten durch und überträgt dann die umgesetzten Daten wieder in den Hauptspeicher3 über den Systembus1 zurück. Daten eines Objekts, der im dreidimensionalen Raum dargestellt ist, umfassen Modelldaten, die kennzeichnend sind für eine Form des Objekts und Geometriedaten, die kennzeichnend sind für die Koordinatenposition, in der das Objekt angezeigt wird. - Der DM-Controller
8 führt Steuerungen aus, die für Bildsynthetisierprozesse relevant sind, welche Speicher nutzen, wie das Schreiben von Daten in Speicher und das Lesen von Daten aus Speichern. -
2 veranschaulicht ein Flussdiagramm der Gesamtschritte, die bei der Vornahme des Polygonzeichnens involviert sind. Wenn von der CPU2 beim Schritt101 ein Befehl erzeugt wird, werden die Daten von dem Hauptspeicher3 über den Systembus1 zu der Koordinatentransformationsvorrichtung7 übertragen. Sodann wird die dreidimensionale Koordinatentransformation beim Schritt102 in der Koordinatentransformationsvorrichtung7 ausgeführt, so dass die Daten von dreidimensionalen Daten in zweidimensionale Daten beim Schritt103 umgesetzt werden. Die umgesetzten Daten werden über den Systembus1 zu dem Hauptspeicher3 übertragen und beim Schritt104 durch die CPU2 sortiert. Die durch die CPU2 sortierten Daten werden über den Systembus1 an die Bildsynthetisiereinheit6 abgegeben. Die Neigung wird beim Schritt105 durch die Bildsynthetisiervorrichtung6 berechnet, und beim Schritt106 wird ein Polygon gezeichnet bzw. gezogen. Das resultierende Bild wird beim Schritt107 erzeugt und angezeigt. - Der Bildspeicher
10 weist einen Texturbereich zur Speicherung des Texturbildes und einen Zeichenbereich zur Speicherung des zu zeichnenden Bildes auf, und3 veranschaulicht einen Speicherplatz des Bildspeichers10 . Der Bildspeicher10 ist durch zweidimensionale Adressen aus Spalten und Zeilen adressiert worden. In dem zweidimensionalen Adressenraum sind Bereiche AT1, AT2, AT3 und so weiter als Texturbereiche festgelegt, und irgendeine Anzahl von Arten von Texturmustern kann in den Texturbereiche n AT1, AT2, AT3, und so weiter angeordnet sein. AD1 bezeichnet einen Zeichenbereich, und eine zu zeichnende Bildebene wird in dem Zeichenbereich AD1 entwickelt. Die Bereiche AC1, AC2, AC3 und so weiter bezeichnen Farbnachschlagtabellen-(CLUT)-Bereiche. - Im Falle des Anhaftens der Textur an der Fläche des Objekts, das erzeugt worden ist, werden die Texturdaten in den Texturbereiche n AT1, AT2, AT3 einer zweidimensionalen Abbildungstransformation unterzogen. So wird beispielsweise das Texturmuster TP1, wie es in
4A gezeigt ist, einer Koordinatentransformation in einen zweidimensionalen Bildschirm unterzogen, wie dies in4B gezeigt ist. Das einer Abbildungstransformation unterzogene Texturmuster TP1 wird an den Zeichenbereich AD1, wie in4C gezeigt, abgegeben und auf der Oberfläche des Objekts in dem Zeichenbereich AD1 synthetisiert. - Im Falle der Abbildung der Textur auf einem Bild eines Polygons werden Texturmuster T1, T2 und T3 in den Texturbereiche n AT1, AT2 und AT3, wie in
5A gezeigt, ausgelesen und einer zweidimensionalen Abbildungstransformation unterzogen und an den Flächen eines festen bzw. massiven Objekts OB1 angeheftet, wie dies in5B gezeigt ist. Anschließend werden, wie in5C gezeigt, die Texturen T1, T2 und T3 an den Flächen des Objekts OB1 angeheftet und in dem Zeichenbereich AD1 angeordnet. Die Bildebene des Zeichenbereichs AD1 wird dann auf dem Bildschirm als computererzeugte Grafik angezeigt. - Im Falle einer Standbildstruktur werden die Texturmuster in dem Hauptspeicher
3 durch die Bildsynthetisiereinheit6 in die Texturbereiche AT1, AT2, AT3 und so weiter in den Bildspeicher10 übertragen, und die Bildsynthetisiereinheit6 haftet die Texturmuster an die Flächen des Polygons an, das auf dem Bildschirm erscheint. Aufgrund dieser Operation wird die Textur des Standbildes an dem Objekt realisiert. - Ferner kann eine Textur auch auf ein Bewegtbild angewandt werden. Im Falle einer Bewegtbildtextur werden die komprimierten Bewegtbilddaten von der CD-ROM einmal in den Hauptspeicher
3 gelesen, und die komprimierten Bilddaten werden an die Bilderweiterungs- bzw. Bilddehnungseinrichtung4 gesendet. Die Bilddaten werden durch die Bilddehnungseinrichtung gedehnt, und die Bewegtbilddaten werden an die Texturbereiche AT1, AT2, AT3 und so weiter in dem Bildspeicher10 abgegeben. Da die Texturdaten AT1, AT2, AT3 in dem Bildspeicher10 vorgesehen sind, kann das Texturmuster selbst je Bild bzw. Vollbild neu geschrieben werden. Wenn ein Bewegtbild an die Texturbereiche AT1, AT2 und AT3 abgegeben wird bzw. ist, wird die Textur dynamisch neu geschrieben, und Änderungen in der Textur des Bewegtbildes werden realisiert. - Die komprimierten Bewegtbilddaten von der CD-ROM werden in den Hauptspeicher
3 gelesen, die komprimierten Bilddaten werden durch die Bilddehnungseinrichtung4 gedehnt, und die gedehnten Daten werden an den Zeichenbereich AD1 in dem Bildspeicher10 abgegeben, so dass das Bewegtbild direkt auf dem Bildschirm gezeichnet werden kann. - Ferner kann das Objekt in dem Zeichenbereich AD1 in dem Bildspeicher
10 zu den Texturbereiche n AT1, AT2, AT3 hin bewegt werden. Aufgrund dieser Tatsache kann das Objekt mit der Textur bezüglich der Textur dafür ferner für das nächste Texturmuster festgelegt werden. Aufgrund dieses Umstands kann ein Texturmuster mit einer sehr großen Veränderung gebildet werden. - So werden beispielsweise, wie in
7 gezeigt, Texturmuster T11, T12 und T13, die in den Texturbereiche n AT1, AT2 bzw. AT3 existieren, an dem Objekt angeheftet und in dem Zeichenbereich AD1 entwickelt. Die Bildebene in dem Zeichenbereich AD1 wird anschließend in den Texturbereich AT4 bewegt, und ein Texturmuster T14 in dem Texturbereich AT4 wird ferner an einem Objekt OB22 angeheftet. Wie oben erwähnt, kann das Objekt, an das die Textur angeheftet bzw. angebracht wurde, selbst eine Textur werden. - Die Farbnachschlagtabellen-(CLUT)-Bereiche AC1, AC2 und AC3 sind in dem Bildspeicher
10 vorgesehen. Die CLUT-Tabellen C1, C2, C3 sind beispielsweise, wie in8 gezeigt, in den Bereichen AC1, AC2, AC3 für Texturmuster T21, T22 bzw. T23 vorgesehen. Die Farben der Texturmuster T21, T22, T23 sind durch die CLUT-Tabellen C1, C2 bzw. C3 bestimmt. - In vielen Fällen, wie in dem Fall, dass ein Bild als ein Texturmuster verwendet wird, wird eine Spezialfarbe, wie ein Oberflächenmuster eines Ziegelsteins verwendet. In einem solchen Bild kann durch vorheriges Registrieren der Farben, die verwendet sind, in der bzw. den CLUT-Tabelle(n) die Anzahl der Bits pro Pixel verringert werden. Trotzdem weisen im allgemeinen die Arten von Farben, die verwendet werden, eine solche Neigung auf, dass sie für jede Textur unterschiedlich sind, beispielsweise für das Oberflächenmuster eines Ziegelsteins und das Oberflächenmuster eines Steines. Wenn derartige unterschiedliche Oberflächen durch eine einzige CLUT-Tabelle ausgedrückt werden müssen, ist die Bildqualität aufgrund der Verringerung der Anzahl von Farben verschlechtert. Gemäß einer Ausführungsform der Erfindung wird daher eine Vielzahl von CLUT-Tabellen C1, C2 und C3 erstellt, und die CLUT-Tabelle kann für jede spezifische Textur ausgewählt werden.
- Es besteht keinerlei Bedarf, zwischen der CLUT-Tabelle und dem Texturmuster eine entsprechende 1-zu-1-Beziehung zu haben. Eine CLUT-Tabelle kann außerdem von einer Vielzahl von Texturmustern gemeinsam verwendet werden. Unter der Annahme, dass beispielsweise die Anzahl der Bits der Textur gleich 4 ist, wenn eine einzelne bzw. einzige CLUT-Tabelle verwendet wird, beträgt die Anzahl der Farben, die durch die Texturabbildung ausgedrückt werden kann, gleich lediglich 16; falls jedoch die CLUT-Tabelle für jedes Texturmuster ausgewählt werden kann, beträgt die Anzahl der Farben, die ausgedrückt werden können, gleich 48 Farben, und zwar sogar dann, wenn die Anzahl von Bits lediglich gleich 4 beträgt.
- Nachdem ein spezifisches bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben worden ist, ist einzusehen, dass die Erfindung auf die betreffende bestimmte Ausführungsform nicht beschränkt ist und dass verschiedene Änderungen und Modifikationen darin vom Durchschnittsfachmann ohne Abweichung vom Erfindungsgedanken oder von der Wesensart der Erfindung vorgenommen werden können, wie er in den beigefügten Ansprüchen definiert ist.
- So sind beispielsweise gemäß dem oben beschriebenen Ausführungsbeispiel die Bilddaten komprimiert und in der CD-ROM aufgezeichnet worden; die Bilddaten können jedoch auch komprimiert und auf einem anderen Aufzeichnungsträger aufgezeichnet sein bzw. werden, wie auf einer Magnetplatte oder in einem Halbleiterspeicher, wie einer Speicherkarte.
- Das Bildkompressionsverfahren ist auf die diskrete Kosinustransformation DCT nicht beschränkt, sondern es können andere Kompressionsverfahren ebenso in vorteilhafter Weise angewandt werden.
Claims (13)
- Echtzeit-Texturabbildungsverfahren (Echtzeitbemusterungsverfahren) zum Erzeugen eines zweidimensionale Bildes eines Gegenstandes mit einer Oberfläche, welche eine dynamisch wechselnde Textur besitzt, mittels dreidimensionaler Bilddaten und zweidimensionaler Bewegtbilddaten, mit den Schritten: a) Empfangen der dreidimensionalen Bilddaten und der zweidimensionalen Bewegtbilddaten; b) Umwandeln der dreidimensionalen Bilddaten in entsprechende zweidimensionale Bilddaten; c) Speichern der zweidimensionalen Bilddaten in einem Zeichnungsbereich (AD1) eines Bildspeichers (
10 ); d) Speichern der zweidimensionalen Bewegtbilddaten Bild für Bild als Texturmusterdaten in einem Texturbereich (AT1, AT2, AT3, AT4) des Bildspeichers (10 ); und e) Abbilden eines Bildes der in dem Texturbereich (AT1, AT2, AT3, AT4) gespeicherten Bewegtbilddaten je vertikaler Anzeigeperiode auf der Oberfläche des durch die in dem Zeichnungsbereich (AD1) des Bildspeichers (10 ) gespeicherten zweidimensionalen Bilddaten dargestellten Gegenstandes. - Echtzeit-Texturabbildungsverfahren nach Anspruch 1, ferner mit dem Schritt des Wiedergebens der Bewegtbilddaten von einer CD-ROM, wobei der Wiedergabeschritt dem Empfangsschritt voransteht.
- Echtzeit-Texturabbildungsverfahren nach Anspruch 1 oder 2, bei welchem der Schritt e) mehrere Bilder von Bewegtbilddaten in entsprechend mehreren Unterbereichen des Texturbereichs (AT1, AT2, AT3, AT4) speichert.
- Echtzeit-Texturabbildungsverfahren nach Anspruch 1 oder 2, bei welchem der Schritt e) mehrere Bilder von Bewegtbilddaten in einem einzigen Texturbereich (AT1, AT2, AT3, AT4) mit einem Bild je vertikaler Anzeigeperiode speichert.
- Echtzeit-Texturabbildungsverfahren nach Anspruch 1, ferner mit den Schritten: Speichern der neuen zweidimensionalen Bilddaten mit den auf der Oberfläche des Gegenstandes abgebildeten Texturmusterdaten darin als neue Texturmusterdaten in dem Texturbereich (AT1, AT2, AT3, AT4) des Bildspeichers (
10 ); Verwenden der neuen zweidimensionalen Bilddaten mit den auf der Oberfläche des Gegenstandes abgebildeten Texturmusterdaten darin als aktuelles Bild für die Anzeige; und Verwenden der neuen Texturmusterdaten des Gegenstandes mit den darauf abgebildeten Texturmusterdaten als neues Texturmuster, um auf einem in dem Zeichnungsbereich (AD1) gespeicherten zweiten Gegenstand für ein nächstes anzuzeigendes Bild abzubilden. - Echtzeit-Texturabbildungsverfahren nach Anspruch 5, ferner mit dem Schritt des Wiedergebens der Texturmusterdaten von einer CD-ROM, wobei die Texturmusterdaten von der CD-ROM Bilder eines Bewegtbildes aufweisen, wobei der Wiedergabeschritt dem Empfangsschritt voransteht.
- Videospielgerät zum Erzeugen eines Videosignals entsprechend einem Bild eines Gegenstandes mit einer dynamisch wechselnden Textur mittels dreidimensionaler Bilddaten und Bewegtbild-Texturmusterdaten, mit einem Hauptspeicher (
3 ) zum Empfangen und Speichern der dreidimensionalen Bilddaten, wobei die dreidimensionalen Bilddaten eine Form, eine Koordinatenposition und eine Orientierung bzw. Ausrichtung des Gegenstandes in einem dreidimensionalen Raum angeben; einer Einrichtung (7 ) zum Durchführen einer dreidimensionalen Koordinatentransformation bezüglich der in dem Hauptspeicher (3 ) gespeicherten dreidimensionalen Bilddaten zum Umwandeln der transformierten dreidimensionalen Bilddaten in jeweilige zweidimensionale Bilddaten zur Anzeige auf einer Anzeigeeinrichtung, und zum Übertragen der zweidimensionalen Bilddaten zurück zu dem Hauptspeicher (3 ), wobei die dreidimensionale Koordinatentransformation eine geometrische Transformation des Gegenstandes in dem dreidimensionalen Raum enthält; einer Empfangseinrichtung zum Empfangen der Bewegtbild-Texturmusterdaten und zum Bereitstellen der Bewegtbild-Texturmusterdaten Bild um Bild; einem Bildspeicher (10 ) mit einem Texturbereich (AT1, AT2, AT3, AT4) zum Speichern der durch die Empfangseinrichtung Bild um Bild zugeführten Bewegtbild-Texturmusterdaten, einem Anzeigebereich zum Speichern von Bilddaten eines angezeigten aktuellen Bildes und einem Zeichnungsbereich (AD1), der einen Arbeitsbereich zum Zusammensetzen von Bilddaten eines nächsten anzuzeigenden Bildes vorsieht, wobei die zweidimensionalen Bilddaten des in einem nächsten Bild anzuzeigenden Gegenstands in dem Anzeigebereich gespeichert sind; einer Bildaufbaueinrichtung (6 ) zum Aufbauen eines Bildes mit dynamisch wechselnder Textur des Gegenstandes mittels der zweidimensionalen Bilddaten und der Bewegtbild-Texturmusterdaten, die in dem Hauptspeicher (10 ) gespeichert sind; und einer Ausgabeeinrichtung (12 ) zum Umwandeln der Bilddaten eines aktuellen Bildes, welche in dem Anzeigebereich gespeichert sind, um das Videosignal bereitzustellen. - Videospielgerät nach Anspruch 7, bei welchem die Anzeige- und Zeichnungsbereiche (AD1) des Bildspeichers (
10 ) während einer ersten vertikalen Anzeigeperiode, in welcher der eine Bereich der Anzeige- und Zeichnungsbereiche (AD1) eine erste Funktion des Speicherns von Bilddaten eines angezeigten aktuellen Bildes durchführt und in welcher der andere Bereich der Anzeige- und Zeichnungsbereiche (AD1) eine zweite Funktion als Arbeitsbereich zum Zusammensetzen von Bilddaten eines nächsten anzuzeigenden Bildes durchführt, und während einer zweiten vertikalen Anzeigeperiode, in welcher der eine Bereich der Anzeige- und Zeichnungsbereiche (AD1) die zweite Funktion durchführt und in welcher der andere Bereich der Anzeige- und Zeichnungsbereiche (AD1) die erste Funktion durchführt, funktionell austauschbar sind. - Videospielgerät nach Anspruch 7, ferner mit einer Wiedergabeeinrichtung (
5 ,9 ) zum Wiedergeben komprimierter Bewegtbilddaten von einem Aufzeichnungsmedium und zum Bereitstellen der wiedergegebenen komprimierten Bewegtbilddaten für die Empfangseinrichtung, wobei die Empfangseinrichtung die komprimierten Bewegtbilddaten dehnt und die gedehnten Daten Bild um Bild als Bewegtbild-Texturmusterdaten dem Bildspeicher (10 ) zuführt. - Videospielgerät nach Anspruch 9, bei welchem die Wiedergabeeinrichtung (
5 ,9 ) die komprimierten Bewegtbilddaten von dem Aufzeichnungsmedium optisch wiedergibt. - Videospielgerät nach Anspruch 9, bei welchem das Aufzeichnungsmedium eine CD-ROM ist und die Wiedergabeeinrichtung (
5 ,9 ) aufweist: ein CD-ROM-Laufwerk (9 ) zum Wiedergeben von auf der CD-ROM aufgezeichneten Daten; und einen mit dem Systembus verbundenen CD-ROM-Decoder (5 ) zum Decodieren der komprimierten Bewegtbilddaten aus den durch das CD-ROM-Laufwerk (9 ) wiedergegebenen Daten und Bereitstellen der decodierten komprimierten Bewegtbilddaten für die Empfangseinrichtung. - Videospielgerät nach einem der Ansprüche 7 bis 11, bei welchem die Ausgabeeinrichtung (
12 ) einen Digital/Analog-Wandler (12 ) aufweist. - Videospielgerät nach einem der Ansprüche 7 bis 12, ferner mit einem Systembus, wobei der Hauptspeicher (
3 ) und die Bildaufbaueinrichtung (6 ) mit dem Systembus verbunden sind und der Hauptspeicher (10 ) mit dem Systembus durch die Bildaufbaueinrichtung (6 ) verbunden ist.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33659492A JP3229042B2 (ja) | 1992-11-24 | 1992-11-24 | 画像処理装置および画像処理方法 |
JP33659492 | 1992-11-24 | ||
JP33659392 | 1992-11-24 | ||
JP4336593A JPH06161876A (ja) | 1992-11-24 | 1992-11-24 | 画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69333508D1 DE69333508D1 (de) | 2004-06-09 |
DE69333508T2 true DE69333508T2 (de) | 2005-04-14 |
Family
ID=26575522
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69331893T Expired - Lifetime DE69331893T2 (de) | 1992-11-24 | 1993-11-22 | Eine Vorrichtung zur Verarbeitung von Videosignalen |
DE69333379T Expired - Lifetime DE69333379T2 (de) | 1992-11-24 | 1993-11-22 | Vorrichtung und Verfahren zur Verarbeitung von Videosignalen |
DE69333508T Expired - Lifetime DE69333508T2 (de) | 1992-11-24 | 1993-11-22 | Vorrichtung und Verfahren zur Verarbeitung von Videosignalen |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69331893T Expired - Lifetime DE69331893T2 (de) | 1992-11-24 | 1993-11-22 | Eine Vorrichtung zur Verarbeitung von Videosignalen |
DE69333379T Expired - Lifetime DE69333379T2 (de) | 1992-11-24 | 1993-11-22 | Vorrichtung und Verfahren zur Verarbeitung von Videosignalen |
Country Status (4)
Country | Link |
---|---|
US (2) | US5537224A (de) |
EP (3) | EP0599579B1 (de) |
CA (1) | CA2103395C (de) |
DE (3) | DE69331893T2 (de) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5537224A (en) * | 1992-11-24 | 1996-07-16 | Sony Corporation | Texture mapping image processing method and apparatus |
JPH06236316A (ja) * | 1992-12-18 | 1994-08-23 | Toshiba Corp | 情報伝送システム |
US5774125A (en) * | 1993-11-18 | 1998-06-30 | Sony Corporation | Texture mapping method in which 3-D image data is transformed into 2-D data and mapped onto a surface of an object for display |
JP3313221B2 (ja) * | 1993-12-28 | 2002-08-12 | 松下電器産業株式会社 | 画像生成方法及び画像生成装置 |
JP3492761B2 (ja) * | 1994-04-07 | 2004-02-03 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成方法及び装置 |
JP2846252B2 (ja) * | 1994-08-22 | 1999-01-13 | 株式会社ナムコ | 3次元シミュレータ装置及び画像合成方法 |
JP2637931B2 (ja) * | 1994-12-01 | 1997-08-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | テクスチャ・マッピングを行うコンピュータ・システム |
US5949409A (en) * | 1994-12-02 | 1999-09-07 | Sony Corporation | Image processing in which the image is divided into image areas with specific color lookup tables for enhanced color resolution |
JPH08275117A (ja) * | 1995-03-30 | 1996-10-18 | Toshiba Corp | 画像処理装置 |
US5793379A (en) * | 1995-04-03 | 1998-08-11 | Nvidia Corporation | Method and apparatus for scaling images having a plurality of scan lines of pixel data |
US5801708A (en) * | 1995-06-06 | 1998-09-01 | Hewlett-Packard Company | MIP map texture storage by dividing and allocating among multiple blocks |
EP0747859B1 (de) | 1995-06-06 | 2005-08-17 | Hewlett-Packard Company, A Delaware Corporation | Unterbrechungsschema zum Aktualisieren eines Lokalspeichers |
US5751292A (en) * | 1995-06-06 | 1998-05-12 | Hewlett-Packard Company | Texture mapping method and system |
US5790130A (en) * | 1995-06-08 | 1998-08-04 | Hewlett-Packard Company | Texel cache interrupt daemon for virtual memory management of texture maps |
US5772297A (en) * | 1995-11-15 | 1998-06-30 | Creative Technology, Ltd. | 3D graphics library |
JP3402926B2 (ja) * | 1996-05-15 | 2003-05-06 | シャープ株式会社 | 3次元画像処理装置 |
US5818420A (en) * | 1996-07-31 | 1998-10-06 | Nippon Hoso Kyokai | 3D object graphics display device, 3D object graphics display method, and manipulator for 3D object graphics display |
US6088469A (en) * | 1996-09-30 | 2000-07-11 | Sony Corporation | Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus |
US5956043A (en) * | 1997-09-18 | 1999-09-21 | Novell, Inc. | Textured tile rotation system and method |
US6032242A (en) * | 1997-10-15 | 2000-02-29 | Industrial Technology Research Institute | Methods and systems for generating alternate and zigzag address scans based on feedback addresses of alternate and zigzag access patterns |
JP3315363B2 (ja) * | 1998-03-18 | 2002-08-19 | 松下電器産業株式会社 | 動画像再生品質制御装置およびその制御方法 |
WO1999060523A1 (fr) * | 1998-05-20 | 1999-11-25 | Sony Computer Entertainment Inc. | Procede et appareil de traitement d'images, et support |
US6201546B1 (en) | 1998-05-29 | 2001-03-13 | Point Cloud, Inc. | Systems and methods for generating three dimensional, textured models |
US6822658B1 (en) | 1999-10-25 | 2004-11-23 | Intel Corporation | Rendering a silhouette edge |
US6798411B1 (en) * | 1999-10-29 | 2004-09-28 | Intel Corporation | Image processing |
JP3367934B2 (ja) * | 2000-03-24 | 2003-01-20 | 株式会社コナミコンピュータエンタテインメントジャパン | ゲームシステム、ゲームシステムにおける画像描画方法およびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体 |
US7180523B1 (en) | 2000-03-31 | 2007-02-20 | Intel Corporation | Trimming surfaces |
US7061501B1 (en) * | 2000-11-07 | 2006-06-13 | Intel Corporation | Rendering a pencil-sketch image |
US7116330B2 (en) | 2001-02-28 | 2006-10-03 | Intel Corporation | Approximating motion using a three-dimensional model |
US7190374B2 (en) | 2001-02-28 | 2007-03-13 | Intel Corporation | Shading polygons from a three-dimensional model |
US6980206B2 (en) * | 2001-06-07 | 2005-12-27 | Intel Corporation | Rendering a three-dimensional model using a dither pattern |
US6924804B2 (en) * | 2001-09-25 | 2005-08-02 | Intel Corporation | Reducing the resolution of bones in a three-dimensional model |
US6906724B2 (en) * | 2001-10-17 | 2005-06-14 | Lntel Corporation | Generating a shadow for a three-dimensional model |
US7548241B2 (en) * | 2002-01-04 | 2009-06-16 | Intel Corporation | Determining a node path through a node graph |
US7301547B2 (en) | 2002-03-22 | 2007-11-27 | Intel Corporation | Augmented reality system |
US7146297B2 (en) * | 2002-03-27 | 2006-12-05 | Intel Corporation | Detecting collisions of three-dimensional models |
US6975318B2 (en) * | 2002-06-25 | 2005-12-13 | Intel Corporation | Polygon binning process for tile-based rendering |
US6982715B2 (en) * | 2002-07-26 | 2006-01-03 | Intel Corporation | Mesh compression process |
US6744654B2 (en) * | 2002-08-21 | 2004-06-01 | Micron Technology, Inc. | High density dynamic ternary-CAM memory architecture |
WO2005051504A1 (en) * | 2003-11-28 | 2005-06-09 | Mario Castellani | Electronic game for computer or slot machine |
US7953260B2 (en) * | 2006-06-09 | 2011-05-31 | Craniosim Solutions, Inc. | Predicting movement of soft tissue of the face in response to movement of underlying bone |
GB2448185A (en) * | 2007-04-05 | 2008-10-08 | Generated Packaging Ltd Comp | High definition image generation from low definition representation |
US20150228106A1 (en) * | 2014-02-13 | 2015-08-13 | Vixs Systems Inc. | Low latency video texture mapping via tight integration of codec engine with 3d graphics engine |
US11127106B2 (en) | 2019-06-28 | 2021-09-21 | Intel Corporation | Runtime flip stability characterization |
US11409341B2 (en) | 2019-10-01 | 2022-08-09 | Intel Corporation | Repeating graphics render pattern detection |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1147858A (en) * | 1980-07-16 | 1983-06-07 | Discovision Associates | System for recording digital information in a pulse-length modulation format |
JPS60186967A (ja) * | 1984-03-05 | 1985-09-24 | Fanuc Ltd | 画像表示方法 |
US4974177A (en) * | 1985-10-04 | 1990-11-27 | Daikin Industries Ltd. | Mapping circuit of a CRT display device |
US4935879A (en) * | 1987-08-05 | 1990-06-19 | Daikin Industries, Ltd. | Texture mapping apparatus and method |
US5175806A (en) * | 1989-03-28 | 1992-12-29 | Computer Design, Inc. | Method and apparatus for fast surface detail application to an image |
US5222205A (en) * | 1990-03-16 | 1993-06-22 | Hewlett-Packard Company | Method for generating addresses to textured graphics primitives stored in rip maps |
JP3179474B2 (ja) * | 1990-11-28 | 2001-06-25 | 株式会社日立製作所 | コンピュータグラフィックの表示方法及び情報処理装置 |
US5537224A (en) * | 1992-11-24 | 1996-07-16 | Sony Corporation | Texture mapping image processing method and apparatus |
-
1993
- 1993-11-18 US US08/154,620 patent/US5537224A/en not_active Expired - Lifetime
- 1993-11-18 CA CA002103395A patent/CA2103395C/en not_active Expired - Lifetime
- 1993-11-22 DE DE69331893T patent/DE69331893T2/de not_active Expired - Lifetime
- 1993-11-22 EP EP93309290A patent/EP0599579B1/de not_active Expired - Lifetime
- 1993-11-22 EP EP01117832A patent/EP1143384B1/de not_active Expired - Lifetime
- 1993-11-22 EP EP01117833A patent/EP1148443B1/de not_active Expired - Lifetime
- 1993-11-22 DE DE69333379T patent/DE69333379T2/de not_active Expired - Lifetime
- 1993-11-22 DE DE69333508T patent/DE69333508T2/de not_active Expired - Lifetime
-
1996
- 1996-07-15 US US08/679,787 patent/US5949969A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
CA2103395C (en) | 2004-08-17 |
DE69331893D1 (de) | 2002-06-13 |
DE69333508D1 (de) | 2004-06-09 |
CA2103395A1 (en) | 1994-05-25 |
EP1148443B1 (de) | 2004-05-06 |
EP1143384A3 (de) | 2002-01-16 |
EP1148443A2 (de) | 2001-10-24 |
DE69333379D1 (de) | 2004-02-12 |
EP0599579B1 (de) | 2002-05-08 |
DE69331893T2 (de) | 2002-12-12 |
US5949969A (en) | 1999-09-07 |
US5537224A (en) | 1996-07-16 |
EP0599579A1 (de) | 1994-06-01 |
DE69333379T2 (de) | 2004-12-09 |
EP1143384A2 (de) | 2001-10-10 |
EP1148443A3 (de) | 2002-01-23 |
EP1143384B1 (de) | 2004-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69333508T2 (de) | Vorrichtung und Verfahren zur Verarbeitung von Videosignalen | |
DE60300788T2 (de) | Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung | |
DE69432385T2 (de) | Bilderzeugung | |
DE69836924T2 (de) | Block- und bandorientierter durchlauf in dreidimensionaler dreieckswiedergabe | |
DE69534751T2 (de) | Bilddatenerzeugungsverfahren, Bilddatenverarbeitungsvorrichtung und Aufzeichnungsmedium | |
DE60120474T2 (de) | Rasterung von dreidimensionalen bildern | |
DE69839277T2 (de) | Verfahren und anordnung zur ausführung von farbschlüsseln, transparenz und nebelfunktionen | |
DE69636599T2 (de) | Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild | |
DE602004009591T2 (de) | Differenz-codierung durch verwendung eines 3d-graphikprozessors | |
DE60126967T2 (de) | Verfahren und Vorrichtung für Anti-Aliasing durch Überabtastung | |
DE60105510T2 (de) | Bilderzeugungsgerät | |
DE10296401B4 (de) | Verbund-Rendering von 3-D-Graphikobjekten | |
DE19531004C2 (de) | Verfahren und Vorrichtung zur wahrnehmungsoptimierten Übertragung von Video- und Audio-Daten | |
DE60000686T2 (de) | Graphisches system mit super-abgetastetem musterpuffer mit erzeugung von ausgangpixeln unter verwendung von selektiven adjustierung der filterung zur artifaktverminderung | |
DE69722139T2 (de) | Dreidimensionale abbildung von bildtexturen | |
DE19807053B4 (de) | Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung | |
DE3518416A1 (de) | Speicher- und prozessorsystem mit schnellem zugriff zur rasteranzeige | |
DE69533911T2 (de) | Verfahren und Gerät zum Erzeugen von Bildern | |
DE10101073B4 (de) | Bildaufbereitungsvorrichtung mit niedrigeren Speicherkapazitätsanforderungen und Verfahren dafür | |
DE102018125472B4 (de) | Grafikprozessor, der Abtastungs-basiertes Rendering durchführt, und Verfahren zum Betreiben desselben | |
DE60301303T2 (de) | Videoverarbeitung | |
DE69733228T2 (de) | Adressgenerator, Bildanzeigegerät, Adressenerzeugungsverfahren und Bildanzeigeverfahren | |
DE69722535T2 (de) | Verfahren und Gerät zum Schaffen von Texturdaten | |
DE60033589T2 (de) | Bildverarbeitung | |
DE3490148C2 (de) | Vorrichtung zur Erzeugung unterschiedlicher Figuren in einem computergesteuerten Darstellungssystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
R082 | Change of representative |
Ref document number: 1148443 Country of ref document: EP Representative=s name: MITSCHERLICH & PARTNER, 80331 MUENCHEN, DE |