DE3832222A1 - Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes - Google Patents

Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes

Info

Publication number
DE3832222A1
DE3832222A1 DE3832222A DE3832222A DE3832222A1 DE 3832222 A1 DE3832222 A1 DE 3832222A1 DE 3832222 A DE3832222 A DE 3832222A DE 3832222 A DE3832222 A DE 3832222A DE 3832222 A1 DE3832222 A1 DE 3832222A1
Authority
DE
Germany
Prior art keywords
vectors
data values
generating
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE3832222A
Other languages
English (en)
Inventor
David R Baldwin
Geoffrey T Thiel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE3832222A1 publication Critical patent/DE3832222A1/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Description

Die Erfindung betrifft eine Vorrichtung gemäß Oberbegriff des Patentanspruchs 1 sowie ein Verfahren gemäß Oberbegriff des Patentanspruchs 9. Allgemein betrifft die Erfindung das Anzeigen von dreidimensionaler Information (3D), und insbe­ sondere einen modifizierten Rückkehralgorithmus für eine Kathodenstrahlröhre im 3D-Format von Schnittdaten, die bei­ spielsweise von einem Computer-Tomographie-Scanner (CT) erhalten werden.
Medizinische Abbildungssysteme wie Computer-Tomographie und Magnetresonanzabbildung verwenden Computeranalyseverfahren zum Analysieren von dreidimensionalen Bildaten eines Gegen­ standes wie einem menschlichen Organ. Je nach Orientierung des Objekts und des gewünschten Betrachtungspunktes eines Beobachters werden die dreidimensionalen Bilddaten in ein zweidimensionales Kathodenstrahlröhrenbild umgewandelt. Ein üblicher Rückkehralgorithmus, der auch als BTF-Algorithmus bezeichnet wird (Back To Front), kann zweidimensionale Bilder eines dreidimensionalen Objektes erzeugen, ohne daß Ober­ flächenkonturen ober Grenzerkennungsberechnungen, die zeit­ aufwendig sind, erforderlich wären. Ein aus einzelnen "Voxel"-Elementen zusammengesetztes Objekt kann ohne Heraus­ ziehen von Information über die Oberfläche des Objektes angezeigt werden. Ein "Voxel" ist ein parallelepipedisches Datenelement, das verwendet wird, um ein zweidimensionales Pixel, oder ein CRT-Bildelement eines Objektes zu erzeugen. Ein Schlüssel für den BTF-Algorithmus ist die Reihenfolge, in der die Voxels abgetastet werden, um ein endgültiges projiziertes Bild zu erzeugen. Später abgetastete (vordere) Voxel werden verwendet, um Pixel zu erzeugen, die darüber schreiben und daher Pixel von früher abgetasteten (hinteren) Voxeln zu verstecken. Da der PTF-Algorithmus ferner kein Überprüfen der Voxeltiefe eines projizierten Voxels erfordert, was bei Algorithmen der Fall ist, die Oberflächen­ information benötigen, wird der Anzeigespeicher durch einen verhältnismäßig schnellen Schreibvorgang aktualisiert und es erfolgt nicht ein Lesen, Tiefenprüfen und Schreiben wie bei anderen Verfahren. Auf dem Bildschirm haben Pixel eine Helligkeit, die proportional zur Nähe der Voxel zur Vorder­ seite oder Rückseite eines zu betrachtenden Objektes ist.
Ein bekannter BTF-Algorithmus erfordert Eingabedaten über etwa 40 parallele Ebenen, die durch ein Objekt gelegt werden. Jede Ebene besteht typischerweise aus 512×512 Pixeln. Um Computerspeicher aufzuheben, kann jede Scheibe auf 256×256 Pixel komprimiert werden, wenn diese von der Datenspeicherplatte gelesen werden. Hierauf werden die Daten "kuberillt", d.h. in kubische Voxelelemente umgesetzt, indem man zwischen den Ebenen Interpolationen vornimmt, um 256 gleichmäßig beabstandete Zwischenebenen zu interpolieren und dadurch ein Volumen zu schaffen, das 256×256×256= 16,777,216 Voxel erzeugt. Jedes Voxel stellt ein Datenelement mit einem Wert p dar, der in einem dreidimensionalen "Objektraum" in kartesischen Koordinaten Xv, Yv und Zv angeordnet ist. Der Datenwert p stellt eine Eigenschaft des Objektes wie beispielsweise die Dichte an dem Raumort dar.
Wird ein auf dem Rücken liegender Patient untersucht, dann ist der Ursprung des Objektkoordinatensystems üblicherweise in den Kopf des Patienten verlegt. Dabei läuft die Z-Achse vom Kopf zu den Füßen, die X-Achse durch die Ohren und die Y-Achse von der Stirn zum Hinterkopf. In jeder Ebene haben Voxel einen konstanten Z-Wert.
Jedes Voxel wird dann in binär 0 oder 1 umgesetzt, und zwar entweder durch Vergleich mit einer vorgegebenen Tabelle, oder durch Vergleichen mit einem Schwellenwert. Frieder et al. hat in "Back-to-Front Display of Voxel Based Objects" in IEEE Computer Graphics and Applications, Januar 1985, auf den Seiten 55 bis 60 beschrieben, daß die Implementation von Standard-BTF-Algorithmen das Lesen von Voxeln in einer dreidimensionalen Anordnung bedeutet, die an der vom Stand­ punkt des Beobachters entferntesten Ecke beginnt und mit fortschreitender Erhöhung der X-, Y- und Z-Werte zunimmt. Der Algorithmus erfordert dann das Transformieren der kon­ vertierten Voxel für die Bildschirmanzeige. In der Praxis wird jede Ebene von einem Plattenspeicher in den Arbeits­ speicher nach auf- oder absteigenden Ebenen (d.h. Z-Werten) eingelesen und mit aufsteigendem X und Y in jeder Ebene gescannt und gedruckt. "Vordere" Ebenen überschreiben "hintere" Ebenen und lassen die zuvor geschriebenen Voxel verschwinden.
Eine vordere Ebene ist eine Ebene, die näher zu dem Beobachtungspunkt des Beobachters liegt und die entweder den niedersten oder höchsten Z-Wert je nach Ort des Beobachters hat.
Ein Beobachtungspunkt wird auf das Objektkoordinatensystem durch seine Position Xe, Ye und Ze in dem Koordinatensystem bezogen und durch die Beobachtungsrichtung, die als die drei Winkel eines Vektors definiert ist, der diese mit den Achsen des Objektkoordinatensystems einschließen würde.
Ein Bildkoordinatensystem für eine Kathodenstrahlröhre wird durch eine X-Achse parallel zu dem Boden der CRT, durch eine Y-Achse parallel zum linken Rand der CRT und durch eine Z-Achse definiert, die aus der Vorderseite der Bildröhre herausragt. Dieses Koordinatensystem definiert den "Bildraum".
Eine Transformationsmatrix bildet die Voxeldaten um Objekt­ raum bei Xv, Yv und Zv in Pixeldaten im Bildraum bei Xi, Yi und Zi ab. Die Xi- und Yi-Koordinaten lokalisieren den Pixel auf dem Schirm, wobei seine Helligkeit durch den Wert von Zi eingestellt wird. Die Beobachtungsposition und die Beur­ teilungstransformationen können in einer einzigen 4×4 Matrix kombiniert oder getrennt als 3×3 Matrix und als Verschiebung (Addition) berechnet werden. Ein Nachteil der bekannten BTF-Verfahren besteht darin, daß 3D-Bildrekonstruk­ tionen typischerweise bis zu 16 000 000 Matrix-Transformationen erfordern, die eine große Anzahl von Multiplikationen bein­ halten. Die üblichen BTF-Transformationen mit einer 3×3 Matrix und ohne Verschiebungskomponenten besteht aus:
oder
Xi = a*Xv + d*Yv + g*Zv
Yi = b*Xv + e*Yv + h*Zv
Zi = c*Xv + f*Yv + i*Zv (2)
Da Voxel jeweils immer nur für eine Ebene zur Zeit trans­ formiert werden, sind die Zv-Werte über die gesamte Ebene konstant. Die Transformationsberechnungen können daher folgendermaßen vereinfacht werden:
Xi = a*Xv + d*Yv + K 1, worin K 1 = g*Zv
Yi = b*Xv + e*Yv + K 2, worin K 2 = h*Zv
Zi = c*Xv + f*Yv + K 3, worin K 3 = i*Zv (3)
Die Konstanten K 1, K 2 und K 3 werden lediglich einmal je Ebene berechnet und die Verschiebungswerte lassen sich leicht in diese einschließen. Innerhalb jeder Ebene werden die Voxel zeilenweise transformiert, so daß die Yv-Werte für jede Zeile konstant sind. Die Transformationsgleichungen lassen sich also auch weiter vereinfachen, und zwar auf:
Xi = a*Vx + K 4, worin K 4 = d*Yv + K 1
Yi = b*Xv + K 5, worin K 5 = e*Yv + K 2
Zi = c*Xv + K 6, worin K 6 = f*Yv + K 3 (4)
Die Konstanten K 4, K 5 und K 6 werden nur einmal je Zeile berechnet. Um die Rechnung weiter zu unterstützen, werden auf einer Zeile benachbarte Voxel in einer schrittweisen Rechnung transformiert, was die Transformationsgleichung folgendermaßen vereinfacht:
[Xi ] u+1 = [Xi ] u + a
[Yi ] u+1 = [Yi ] u + b
[Zi ] u+1 = [Zi ] u + c (5)
Selbst mit den durch die Gleichungen (3)-(5) eingeführten Vereinfachungen ist der zuvor beschriebene, bekannte BTF- Algorithmus langsam, erfordert typischerweise mehrere Millionen Rechenvorgänge je Bild und das erhaltene Bild kann dennoch verfremdende Artifakte haben, wenn der Standpunkt des Beobachters zu nahe am Objekt ist, denn das führt dazu, daß benachbarte Voxel auf nicht benachbarten Pixeln abgebildet werden, so daß im Bild Löcher erscheinen.
Es ist daher Aufgabe der Erfindung, die Anzahl der erforder­ lichen Transformationen für das Projizieren eines Bildes mit einem BTF-Algorithmus zu verringern.
Zur Lösung dieser Aufgabe dienen die Vorrichtungen nach Patentanspruch 1 bzw. das Verfahren nach Patentanspruch 9.
Es ist ferner Ziel der Erfindung, die verfremdenden Arti­ fakte zu reduzieren, indem die Voxel-Daten in einer Richtung als eine Funktion der Pixel-Auflösung des Schirmes wieder abgefragt werden.
Die Erfindung wird im folgenden anhand eines Ausführungs­ beispiels näher erläutert; es zeigt
Fig. 1 ein Blockschaltbild einer Vorrichtung zum Erzeugen, Transformieren und Anzeigen von 3D-Abbildungsdaten;
Fig. 2 ein Flußdiagramm der von der Vorrichtung nach Fig. 1 durchgeführten Funktionen zur Transformation von 3D-Abbildungsdaten vom Objektraum zum Bildraum;
Fig. 3 die transversen, sagittalen und koronalen Seiten einer Gruppe von Voxel-Daten im Objektraum;
Fig. 4a die Abtastfolge der Gruppe von Voxeldaten nach Fig. 3 zur Erzeugung von Lauflängen kodierten Vektoren in der transversalen Flächenrichtung;
Fig. 4b die Abtastfolge für die Gruppe von Voxeldaten nach Fig. 3 zur Erzeugung von Lauflängen kodierten Vektoren in der sagittalen Flächenrichtung;
Fig. 5 eine "Pseudocode"-Angabe für den Lauflängen-Kodier­ prozeß des Schrittes 42 von Fig. 2;
Fig. 6 eine schematische Darstellung von Ebenen von kon­ vertierten Binär-Abbildungsdaten eines repräsentativen zylindrischen Objekts vor der Transformation durch den modifizierten BTF-Algorithmus nach der Erfindung;
Fig. 7 eine schematische Darstellung eines Bildes des zylindrischen Objekts von Fig. 6, das unter Verwendung des modifizierten BTF-Algorithmus transformiert wurde; und
Fig. 8 die Leserichtung für die lauflängenkodierten Daten­ gruppen zur Erzeugung von rotierten Bildern eines abgetasteten Objekts.
Die in den Figuren dargestellte Vorrichtung zeigt ein zweidimensionales Kathodenstrahlbild eines Objekts unter Verwendung eines modifizierten BTF-Algorithmus zur Trans­ formation von Daten an, die Eigenschaften eines dreidimen­ sionalen Objektes darstellen, das durch eine medizinische Abbildungseinrichtung, beispielsweise einen Computer-Tomo­ graphen gescannt wurde.
Die Vorrichtung weist eine dreidimensionale Abbildungsein­ richtung zur Erzeugung von ersten Datenwerten auf, die eine Eigenschaft des Objekts an einer Vielzahl von Punkte über das Objekt darstellen. In der in Fig. 1 gezeigten Ausführungsform ist der Röntgenstrahl-Scanner 16 eine drei­ dimensionale Abbildungseinrichtung, die 512×512 Pixel je Ebene erzeugt, die in 40 Ebenen durch das Objekt angeordnet sind. Jedes Pixel stellt die Dichte des Objektes an der entsprechenden Stelle dar.
Die Vorrichtung besitzt ferner Interpolationseinrichtungen, die mit den Abbildungseinrichtungen gekoppelt sind, um aus den ersten Datenwerten zweite Datenwerte zu erzeugen, die die Eigenschaft des Objekts in einer Anzahl von parallelen Ebenen durch das Objekt darstellen, Lauflängenkodiermittel, die an die Umwandlungseinrichtung gekoppelt sind, um entlang einer Anzahl von Pfaden in jeder der parallelen Ebenen eine Anzahl von lauflängenkodierten Vektoren zu erzeugen, die Richtungen und Längen haben, die aus den zweiten Datenwerten bestimmt sind, und Rotiereinrichtungen zum Transformieren jedes Vektors in ein Koordinatensystem, das auf einem ausgewählten Ursprung basiert, der den Betrachtungspunkt darstellt, von dem das Objekt aus beobachtet wird. In einer zweckmäßigen Ausführungsform ist der Bildprozessor 14 ein Bildprozessor der Anmelderin mit der Typenbezeichnung CHP-01A, und der Teil des Scanners 10 ist. Zum Bildprozessor 14 gehört eine Zentraleinheit 22 mit zugehörigem Speicher 24, ein Speichermanager 26, ein Plattenspeicher 12, ein Beobachtungspunkt 18 und eine Kathodenstrahlröhre 20. Die Zentraleinheit 22, der Speicher 24 und der Speichermanager 26 steuern den Bildprozessor 14. Der Plattenspeicher dient zur Speicherung der ersten Datenwerte vom Scanner 16 und die Beobachtungspunkteinrichtung 18, die beispielsweise ein Steuerstift oder eine andere interaktive Einrichtung ist, stellt eine Einrichtung zur Auswahl eines Beobachtungspunktes im Raum dar, von der das Objekt betrachtet werden soll. Die Kathodenstrahlröhre 20 ist ein üblicher Monitor, mit dem man graphische Information anzeigen kann. Mit ihm kann ein Bild der gespeicherten Informationsvektoren aufgezeichnet werden.
Die genaue Funktion des Bildprozessors 14 im Abtastsystem wird weiter unten näher erläutert. Es wird darauf hingewiesen, daß die in Fig. 1 dargestellte Ausführungsform derzeit bevorzugt wird, ohne jedoch darauf beschränkt zu sein. Beispielsweise kann durchaus Schaltung vorgesehen sein, um die Vektoren zu interpolieren, in der Lauflänge zu kodieren und zu drehen.
Nachdem die Pixel erzeugt und auf der Platte 14 gespeichert sind, werden die Pixeldaten vom Bildprozessor 14 gemäß den Schritten des Schlußdiagramms 30 von Fig. 2 weiterverar­ beitet. Zuerst werden die Pixeldaten im Schritt 32 von der Datenspeicherplatte 12 gelesen. Hierauf wird zur Einsparung von Speicherplatz jeder Ebene mit 512×512 Pixeln auf 256× 256 Pixel im Schritt 34 komprimiert. Die Daten werden dann "kuberillt", d.h. in kubische Voxelelemente umgewandelt, indem zwischen den Ebenen interpoliert wird, um 256 paral­ lele, gleichmäßig beabstandete Zwischenebenen zu errechnen, wodurch ein Volumen geschaffen wird, das 256×256×256= 16,777,216 Voxel (Schritt 36) enthält. Die Voxel werden dann zweckmäßigerweise in Binär-Daten umgesetzt, indem man die Daten mit einem Schwellenwert (Schritt 38) vergleicht. Der Vergleichsstandard kann durch eine Tabelle gemäß Schritt 40, oder durch andere Verfahren, beispielsweise durch Berechnen, ermittelt werden.
Unter Berücksichtigung, daß eine gerade Linie im Objektraum sich in eine gerade Linie im Bildraum transformiert, brauchen nur die Endvoxel einer Voxelzeile vom Objektraum in den Bildraum transferiert zu werden, und nicht alle auf der gleichen Linie liegenden Zwischenvoxel. Dies führt zu beträchtlichen Recheneinsparungen.
Fig. 6 zeigt die konvertierten Binär-Daten 90 eines reprä­ sentativen zylindrischen Objekts, das in einer von verschie­ denen parallelen Ebenen liegt. Lineare Gruppen von zusammen­ hängenden Binär-Datenwerten 92 a und 92 b, die nicht 0 sind, können als Vektoren betrachtet werden, die durch eine Länge und einen Startpunkt definiert sind. Die Vektoren trans­ formieren sich in gerade Linien 104 a und 104 b nach Fig. 7 im Bildraum. Als Folge davon wird eine Anzahl von lauf­ längenkodierten (RLC)-Vektoren aus den Binär-Daten im Schritt 42 von Fig. 2 erzeugt. Die Lauflängenkodierung konvertiert eine Kette von Voxeln, die nicht 0 sind, entlang einem Weg im Objektraum in einem Vektor (Xv, Yv, Zv, L), wobei der Startpunkt jedes Vektors durch die Koordinaten Xv, Yv und Zv definiert ist und die Länge L ist, während die Richtung parallel zu dem vorgegebenen Pfad verläuft.
Fig. 3 zeigt einen Wüfel 70 im Objektraum, der mit einem 3D-Koordinatensystem X, Y und Z in bezug gesetzt wurde und aus 256 parallelen Ebenen besteht, die jeweils 256×256 Voxeln enthalten. Der Voxelwürfel hat drei orthogonale Flächen, die durch den Ursprung des Koordinatensystems verlaufen: (1) die transversale Fläche 72, in der alle Z-Werte konstant sind; (2) die sagittale Fläche 74, in der alle X-Werte konstant sind; und (3) die koronale Fläche 76, in der alle Y-Werte konstant sind. In einer Ausführungsform soll die Lauflängenkodierung der Voxel zu Vektoren in einer Voxelebene 80 nach Fig. 4a beginnen, welche parallel zu der Transversalfläche verläuft und bei Z = 255 liegt. Voxel werden zuerst in X-Richtung von X = 255 am Punkt 82 von Fig. 4a zu X = 0 am Punkt 84 entlang einem Weg kodiert, bei dem Y = 0 ist. Die Koordinaten des ersten Voxels, der auf dem Pfad nicht 0 ist, werden als Startpunkt eines RLC-Vek­ tors von Einheitslänge gespeichert. Während auf dem Pfad jedes nächstfolgende Voxel, das nicht 0 ist, angesprochen wird, wird die Länge des RLC-Vektors um eins erhöht. Die Länge des RLC-Vektors endet am letzten angetroffenen Voxel, das nicht Null ist.
Der nächste Voxelwert, der auf dem Pfad angetroffen wird und der nicht Null ist, stellt den Anfangspunkt für einen neuen RLC-Vektor dar und das Verfahren zum Identifizieren der Startkoordinaten eines Einheitsvektors und das Vergrößern der Länge des Vektors, wenn weitere Voxel angetroffen werden, die nicht Null sind, wird für einen neuen Vektor wiederholt. Am Ende des Pfades, wenn X = 0 ist, wird der Wert für Y um ein Voxel erhöht und das Verfahren wird entlang des neuen Pfades fortgesetzt. Das Verfahren zum Scannen eines Pfades, Erhöhen von Y und Scannen des nächsten Pfades setzt sich so lange fort, bis die gesamte Ebene bei Z = 255 durchlaufen ist. Hierauf wird der Wert für Z verringert und das Verfahren des Kodierens von Vektoren entlang der nächsten Ebene 86 wird durchgeführt.
Jede nachfolgende Ebene wird gescannt, bis alle Ebenen parallel zur Transversalfläche 72 abgetastet wurden. Das Scannen wird anschließend für jede Ebene parallel zur Sagittalfläche 74 gemäß Fig. 4b fortgesetzt und dann für jede Ebene parallel zur Koronalfläche 76, wie dies in Fig. 4c angedeutet ist. Die Abtastfolge zum Kodieren des gesamten Voxelwürfels ist eine Reihe von programmierten Schleifen, die in Fig. 5 in Form eines "Pseudocods" dargestellt ist. Jedes auf einem Pfad liegende Voxel wird kodiert und jeder Pfad wird auf einer Ebene vervollständigt und auch jede parallele Ebene zu der Seite wird in der folgenden Ordnung abgearbeitet:
  • 1. Ebenen parallel zur Transversalfläche von Z = 255 bis Z = 0.
    • a. Pfade auf jeder Transversalebene, von Y = 0 bis Y = 255.
      • i. Voxel auf jedem Pfad, von X = 255 bis X = 0.
  • 2. Ebenen parallel zur Sagittalfläche von X = 255 bis X = 0.
    • a. Pfade auf jeder Sagittalebene, von Y = 0 bis Y = 255.
      • i. Voxel auf jedem Pfad von Z = 0 bis Z = 255.
  • 3. Ebenen parallel zur Koronalfläche von Y = 0 bis Y = 255.
    • a. Pfade auf jeder Koronalfläche, von Z = 0 bis Z = 255.
      • i. Voxel auf jedem Pfad, von X = 255 bis X = 0.
Die Fig. 4a und 4b und 4c zeigen die Richtung der Scannpfade auf ein Paar parallel zu jeder Seite verlaufenden repräsentativen Ebenen. Die Lauflängenkodierung produziert auf diese Weise drei Gruppen von RLC-Vektoren. Alle Vektoren in jeder Gruppe sind parallel zueinander, und die Vektoren in jeder Gruppe sind orthogonal zu Vektoren in jeder anderen Gruppe.
Der nächste größere Schritt zur Umwandlung der Voxeldaten in ein CRT-Bild betrifft das Drehen der RLC-Vektoren (Schritt 44 in Fig. 2) im Sinne einer Anpassung an die Ausrichtung des Betrachtungspunktes eines Beobachters, wie er im Schritt 46 ausgewählt ist.
Durch das Lesen jeder der drei RLC-Datengruppen, und zwar entweder vorwärts oder rückwärts, lassen sich sechs verschiedene Ansichten des Bildes durch den Bildprozessor von Fig. 1 darstellen. Jede Ansicht kann bis zu plus oder minus 45° um die X- und Y-Achsen gedreht werden, indem ein Beobachter die Betrachtungspunkteinrichtung 18 von Fig. 1 manipuliert, während weiterhin die BTF-Anzeige erfolgt.
Fig. 8 zeigt die Datengruppen, die verwendet werden müssen, um die bestimmten Drehungen um die X- und Y-Achsen stets an dem BTF-Algorithmus angepaßt zu halten. In Fig. 8 bedeutet "Inc." und "Dec." die Richtung, die durch den Speicher verläuft, um auf die Vektordaten zu greifen, und damit die Reihenfolge, in der die Vektoren gezeichnet werden. Eine positive Drehung stellt eine Drehung im Uhrzeigersinn auf eine Achse dar, die in Richtung auf den Ursprung zeigt, und die Drehung erfolgt zuerst um die X-Achse, wonach eine Drehung um die Y-Achse vorgenommen wird, während das Dreh­ zentrum der Mittelpunkt des 256×256×256 Voxelwürfels 70 von Fig. 3 ist. Je nach verwendetem RLC-Datenset zur Erzeugung des Bildes wird eine von drei Transformations­ matrizen vom Bildprozessor 14 nach Fig. 1 verwendet, um die Vektoren von ihrer Objektraumorientierung in ihre Bildraum­ orientierung zu drehen, so daß daraus ein Objekt hervorgeht, das in der gleichzen Position und Orientierung unabhängig von dem verwendeten Datenset liegt. Die Transformations­ matrizen werden folgendermaßen zur Verwendung mit jedem Datenset ausgewählt:
Transversales RLC-Datenset:
[Xi, Yi, Zi ] = [Xv, Yv, Zv ] * [Tt ]
Sagittales RLC-Datenset: [Xi, Yi, Zi ] = [Xv, Yv, Zv ] * [Ts ]
Koronales RLC-Datenset: [Xi, Yi, Zi ] = [Xv, Yv, Zv ] * [Tc ]
Die Transformationsmatrizen werden als Produkte der Rotationsmatrizen folgendermaßen definiert:
[Tt ] = [Tx ] * [Ty ]
[Ts ] = [Zz ] * [Ty ]
[Tc ] = [Tx ] * [Ty ]
Die Rotationsmatrizen werden folgendermaßen definiert:
worin die Winkel A und B Drehungen im Uhrzeiger sind, um die X- und Y-Achsen in Richtung auf den Ursprung darzustellen.
Der letzte Schritt für die Erzeugung eines Bildes auf dem Bildschirm 20 betrifft die Scann-Umwandlung (Schritt 48). Dies besteht darin, daß die rotierten Vektoren in einen 256 ×256 "Z"-Puffer im Bildprozessor 14 geschrieben werden, beispielsweise unter Zuhilfenahme eines Zeilenschreiber­ algorithmus nach dem Prinzip Digital Differenzial Analy­ sator, wie er in "Principles of Interactive Computer Graphics" von Newman and Sproull, Computer Science Series 2d beschrieben ist. Die Länge jedes rotierten Vektors, wie er auf die X-Y-Bildebene projiziert ist, bestimmt die Anzahl der Pixel auf dem Bildschirm, die von jedem Vektor einge­ schaltet sind. Zuerst werden die Startadresse und der Anfangswert für Z für jeden Vektor berechnet. Alle Vektoren in einer Datengruppe sind sowohl vor als auch nach der Transformation parallel, so daß eine konstante Adressen- und Z-Erhöhung für alle Vektoren verwendet wird, um aufeinander­ folgende Pixeladressen und Werte innerhalb jedes Vektors zu bezeichnen. Vektoren werden daher durch wiederholtes Addieren von konstanten Adressen- und Z-Erhöhungen zu der Startadresse und dem Anfangs-Z-Wert über eine Länge von Pixeln aufgezeichnet, die der Originalvektorlänge ent­ spricht, wie er auf die Bildebene projiziert ist.
Da die originalen Voxel kodiert und als Vektoren aufge­ zeichnet sind, haben sie keine Artifakte oder Löcher, die durch eine zu geringe Datenprobennahme aus bitgepackten Daten für nicht orthogonale Objektorientierungen verursacht sind. Um jedoch Artifakte und Löcher zwischen Vektoren zu vermeiden, muß jeder Vektor auf der Bildröhre zweimal gezeichnet werden, wobei der zweite Vektor eine Startadresse und einen Anfangs-Z-Wert hat, der gegenüber dem ersten Vektor geringfügig verlagert ist.
Das Transformieren des Anfangspunkts auf einer Linie von Voxeln in dem Bildraum und das Zeichnen von beim Abtasten konvertierten lauflängenkodierten Abschnitten unter Verwendung eines erfindungsgemäßen Algorithmus führt zu einem ähnlichen Resultat wie ein bekanntes BTF-Verfahren, allerdings erfolgt eine große Einsparung an Rechenvorgängen. Diese entspricht der Lauflängenkodierung des Bildes für lediglich die Voxel, die nicht Null sind. Daher braucht die Gleichung 3 nur zur Ermittlung des Anfangspunktes für jedes lauflängenkodierte Segment Xi, Yi und Zi berechnet zu werden, und nicht jedes Voxel, wie dies bei dem bekannten BTF-Algorithmus der Fall ist. In Fig. 6 sind etwa zwei lauflängenkodierte Segmente je Zeile vorhanden, so daß zwei Anfangspunktwerte für jede Zeile berechnet werden müssen, ebenso ihre projizierten Längen auf der Bildebene.
Anstatt das bekannte BTF-Verfahren zum Berechnen eines Helligkeitswertes für jedes Voxel entlang der in den Bildraum transformierten Zeile zu verwenden, wird der ent­ sprechende Z-Wert für jeden Pixel im Bildraum, der von den scannkonvertierten, lauflängenkodierten Zeilensegmenten berührt wird, berechnet, um die Bildhelligkeit entlang der Linie zu berechnen, um einen Tiefeneindruck zu geben. Die Anzahl der Helligkeitsberechnungen hängt daher von der Anzahl der Pixel ab, die von der projizierten Linie berührt werden, und nicht von der Anzahl der Voxel, die die projizierte Linie bilden. Eine aus 100 Voxeln bestehende Linie, die lediglich 50 Pixel berührt, erfordert daher nur 50 Helligkeitsberechnungen. Das Umgekehrte ist ebenfalls richtig und zusätzliche Berechnungen können durchgeführt werden, um Löcher in den Pixeldaten aufzufüllen, wodurch verfälschende Artifakte ausgeschaltet werden, die daher stammen, daß ein Beobachter seinen Betrachtungspunkt zu nahe zu dem Objekt gewählt hat, so daß Löcher in dem CRT-Bild auftreten.
Das erfindungsgemäße Verfahren reduziert die Anzahl der für die Transformation eines Bildes vom Objektraum zu einem Bild im Bildraum wesentlich. Der Berechnungsvorteil läßt sich am besten dadurch demonstrieren, daß man die Rechenvorgänge vergleicht, die erforderlich sind, um das Bild des zylindri­ schen Objektes von Fig. 6 mit dem bekannten BTF-Algorithmus und mit dem erfindungsgemäßen modifizierten BTF-Algorithmus zu vergleichen. Es sei angenommen, daß jedes lauflängenkodierte Segment 92 a oder 92 b des zylindrischen Objekts 90 von Fig. 6 25 Voxel lang ist und in ein scannkonvertiertes, lauf­ längenkodiertes Segment 104 a und 104 b in Fig. 7 trans­ formiert wird, das 25 Pixel lang ist. Nach dem bekannten Verfahren muß die Gleichung (3) 2×256×256mal oder einmal für jedes Anfangsvoxel je Segment zusammen mit der projizierten Längenberechnung für jeden Vektor Lp berechnet werden, wobei
Lp = Lv × abs(b) .
Lv ist die Länge ds Vektors im Objektraum und b ist der Term einer Rotationsmatrix der Form
Die Gleichung (5) muß nach der erfindungsgemäßen Modifikation 25×2×256×256mal ausgewertet werden.
Die Berechnungen, die nach einem bekannten BTF-Algorithmus erforderlich wären, sind folgende
Gesamtzahl der Additionen und Multiplikationen: 50,724,864.
Die nach dem modifizierten BTF-Algorithmus gemäß Erfindung erforderlichen Rechenvorgänge setzen sich folgendermaßen zusammen:
Die Gesamtzahl der Additionen und Multiplikationen beträgt 11,534,336.
Während das Bild rotiert wird, nimmt die Anzahl der Rechen­ vorgänge aufgrund von Verkürzung ab. Beispielsweise ist bei einer 45°-Drehung die Länge der Segmente nur noch 18 Pixel anstelle von 25, was die Anzahl der arithmetischen Opera­ tionen auf etwa 10 000 000 reduziert.

Claims (16)

1. Vorrichtung zum Anzeigen eines zweidimensionalen Bildes eines dreidimensionalen Objekts, gekennzeichnet durch:
  • (a)  dreidimensionale Abbildungseinrichtungen zur Erzeugung von ersten Datenwerten, die eine Eigenschaft des Objektes an einer Anzahl von Punkten des Objektes darstellen;
  • (b) Interpolationseinrichtungen, die an die Abbildungsein­ richtungen gekopppelt sind und die zur Erzeugung von zweiten Datenwerten aus den ersten Datenwerten dienen, wobei die zweiten Datenwerte die Eigenschaften des Objektes in einer Anzahl von parallelen Ebenen durch das Objekt darstellen:
  • (c) Lauflängenkodiereinrichtungen zur Erzeugung einer Anzahl von lauflängenkodierten Vektoren entlang einer Anzahl von Pfaden in jeder der parallelen Ebenen, wobei die Vektoren Richtungen und Längen haben, die von dem zweiten Datenwerten bestimmt sind; und
  • (d) Rotationsmittel zum Transformieren jedes Vektors in ein Koordinatensystem, das auf einem ausgewählten Ursprung basiert, der den Betrachtungspunkt darstellt, von dem aus das Objekt betrachtet wird.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die dreidimensionale Abbildungseinrichtung Mittel zum Speichern der ersten Datenwerte aufweist.
3. Vorrichtung nach Anspruch 1, gekennzeichnet durch Umwandlungsmittel, die an die Interpolationsmittel angeschlossen sind, um die zweiten Daten in binäre Datenwerte umzuwandeln.
4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Lauflängenkodiereinrichtung Mittel zum Bilden der Vektoren mit Anfangspunkten aufweist, die bei einem ersten Auftreten eines binären Datenwerts liegen, der auf den Pfaden angetroffen wird, und mit Längen, die gleich wie die aufeinanderfolgende Zahl der einen binären Datenwerte ist, die auf den Pfaden angetroffen werden.
5. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Rotationseinrichtung Mittel zum Auswählen eines Betrachtungspunktes in Raum aufweist, von dem aus das Objekt betrachtet wird.
6. Vorrichtung nach Anspruch 1, gekennzeichnet durch Scann-Umwandlungseinrichtungen, die an die Rotations­ einrichtungen gekoppelt sind, um jeden der transfor­ mierten Vektoren, die auf jeder der Ebenen liegen, in vorgegebener Ordnung zu speichern.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß die Scann-Umwandlungseinrichtung eine Vektorspeicher­ einrichtung zum Speichern der transformierten Vektoren in vorgebener Ordnung aufweist, und zwar beginnend mit einer Ebene, die am weitesten von dem Beobachtungspunkt entfernt liegt.
8. Vorrichtung nach Anspruch 6, gekennzeichnet durch Anzeigemittel, die an die Scann-Umwandlungseinrichtungen gekoppelt sind, um ein Kathodenstrahlröhrenbild der gespeicherten transformierten Vektoren aufzuzeichnen.
9. Verfahren zum Anzeigen eines zweidimensionalen Bildes eines dreidimensionalen Objekts, gekennzeichnet durch die Schritte:
  • (a) Erzeugen von ersten Datenwerten, die eine Eigen­ schaft des Objektes an einer Anzahl von Punkten des Objektes darstellen;
  • (b) Interpolieren der ersten Datenwerte zur Erzeugung von zweiten Datenwerten, die die Eigenschaften des Objektes in einer Anzahl von parallelen Ebenen durch das Objekt darstellen;
  • (c) Erzeugen einer Anzahl von lauflängenkodierten Vektoren entlang einer Anzahl von Pfaden in jeder der parallelen Ebenen mit Richtungen und Längen, die von den zweiten Datenwerten bestimmt werden; und
  • (d) Transformieren jedes der Vektoren in ein Koordinaten­ system, das auf einem ausgewählten Ursprung basiert, der einen Beobachtungspunkt darstellt, von dem das Objekt zu betrachten ist.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß das Erzeugen der ersten Datenwerte auf das Speichern der ersten Datenwerte anschließt.
11. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die zweiten Datenwerte vor dem Erzeugen der lauflängen­ kodierten Vektoren in Binärwerte umgewandelt werden.
12. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß das Erzeugen der lauflängenkodierten Vektoren den Unterschritt enthält, die lauflängenkodierten Vektoren mit Anfangspunkten zu bilden, die bei einem ersten Auftreten eines binären Datenwerts liegen, der entlang jedem der Pfade angetroffen wird und wobei die Längen gleich der aufeinanderfolgenden Zahl der einen binären Datenwerte sind, die auf den Pfaden angetroffen werden.
13. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß das Transformieren jedes der Vektoren ferner das Aus­ wählen eines Betrachtungspunktes im Raum einschließt, von dem das Objekt zu betrachten ist.
14. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß jeder der transformierten Vektoren von jeder der Ebenen in vorgegebener Ordnung gespeichert wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß der Schritt des Speicherns in vorgegebener Ordnung ferner das Beginnen mit der Ebene einschließt, die von dem Betrachtungspunkt am weitesten entfernt liegt.
16. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß ein Kathodenstrahlröhrenbild der in vorgegebener Ordnung gespeicherten transformierten Vektoren gezeichnet wird.
DE3832222A 1987-06-16 1988-09-22 Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes Granted DE3832222A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/062,598 US4827413A (en) 1987-06-16 1987-06-16 Modified back-to-front three dimensional reconstruction algorithm

Publications (1)

Publication Number Publication Date
DE3832222A1 true DE3832222A1 (de) 1990-03-29

Family

ID=22043540

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3832222A Granted DE3832222A1 (de) 1987-06-16 1988-09-22 Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes

Country Status (2)

Country Link
US (1) US4827413A (de)
DE (1) DE3832222A1 (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5088054A (en) * 1988-05-09 1992-02-11 Paris Ii Earl A Computer graphics hidden surface removal system
FR2653919A1 (fr) * 1989-10-30 1991-05-03 Gen Electric Procede et appareil pour la restitution de projections volumetriques utilisant la projection inverse de rayons.
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
US5187660A (en) * 1989-12-01 1993-02-16 At&T Bell Laboratories Arrangement for displaying on a display volumetric data
US5129054A (en) * 1990-03-12 1992-07-07 International Business Machines Corporation Specifying 3d reference points in 2d graphic displays
US5555352A (en) * 1991-04-23 1996-09-10 International Business Machines Corporation Object-based irregular-grid volume rendering
US5644689A (en) * 1992-01-13 1997-07-01 Hitachi, Ltd. Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint
US5303706A (en) * 1992-05-21 1994-04-19 North American Philips Corporation Directional interpolation for magnetic resonance angiography
US5365996A (en) * 1992-06-10 1994-11-22 Amei Technologies Inc. Method and apparatus for making customized fixation devices
US5368033A (en) * 1993-04-20 1994-11-29 North American Philips Corporation Magnetic resonance angiography method and apparatus employing an integration projection
US5512920A (en) * 1994-08-17 1996-04-30 Mitsubishi Electric Research Laboratories, Inc. Locator device for control of graphical objects
US5594842A (en) * 1994-09-06 1997-01-14 The Research Foundation Of State University Of New York Apparatus and method for real-time volume visualization
AU699764B2 (en) * 1994-09-06 1998-12-17 Research Foundation Of The State University Of New York, The Apparatus and method for real-time volume visualization
US5581635A (en) * 1995-07-25 1996-12-03 United Parcel Service Of America, Inc. Method and system for fast rotation of run-length encoded images
US6222939B1 (en) 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
AU732652B2 (en) * 1997-04-15 2001-04-26 Research Foundation Of The State University Of New York, The Apparatus and method for parallel and perspective real-time volume visualization
DE69910757T2 (de) 1998-04-13 2004-06-17 Eyematic Interfaces, Inc., Santa Monica Wavelet-basierte gesichtsbewegungserfassung für avataranimation
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US6714661B2 (en) 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US7050624B2 (en) * 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
US6466695B1 (en) 1999-08-04 2002-10-15 Eyematic Interfaces, Inc. Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives
US6544178B1 (en) 1999-11-05 2003-04-08 Volumetrics Medical Imaging Methods and systems for volume rendering using ultrasound data
WO2001063561A1 (en) * 2000-02-25 2001-08-30 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US20020012472A1 (en) * 2000-03-31 2002-01-31 Waterfall Andrew E. Method for visualization of time sequences of 3D optical fluorescence microscopy images
IL136373A0 (en) * 2000-05-25 2001-06-14 Itpen Ltd Partnership Israel Representation of three-dimensional bodies on computer screens and games involving such representations
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US7392287B2 (en) * 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
US6676014B2 (en) * 2001-03-31 2004-01-13 Koninklijke Philips Electronics N.V. Machine readable label system with offline capture and processing
US20030206181A1 (en) * 2001-04-13 2003-11-06 Abb Ab System and method for organizing two and three dimensional image data
US6853379B2 (en) * 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
US7525543B2 (en) * 2004-08-09 2009-04-28 Siemens Medical Solutions Usa, Inc. High performance shading of large volumetric data using screen-space partial derivatives
DE102005044405A1 (de) * 2005-09-16 2007-03-22 Siemens Ag Verfahren zur bildlichen Darstellung eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, medizinischen Instruments
JP2012501506A (ja) * 2008-08-31 2012-01-19 ミツビシ エレクトリック ビジュアル ソリューションズ アメリカ, インコーポレイテッド 観察者位置にマッチする3dビデオコンテンツの変換
US20100225567A1 (en) * 2009-03-03 2010-09-09 Time-O-Matic, Inc. Electronic display

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3705124A1 (de) * 1986-02-21 1987-09-24 Gen Electric Anzeigeprozessor und videoverarbeitungsuntersystem fuer computergraphik

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4736330A (en) * 1984-09-04 1988-04-05 Capowski Joseph J Computer graphics display processor for generating dynamic refreshed vector images
US4737921A (en) * 1985-06-03 1988-04-12 Dynamic Digital Displays, Inc. Three dimensional medical image display system
US4729098A (en) * 1985-06-05 1988-03-01 General Electric Company System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3705124A1 (de) * 1986-02-21 1987-09-24 Gen Electric Anzeigeprozessor und videoverarbeitungsuntersystem fuer computergraphik

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Frieder, Gordon, Reynolds: "Back-to-Front Display of Voxel-Based Objects" in IEEE Computer Graphics and Applications, Januar 1985, S. 52-60 *

Also Published As

Publication number Publication date
US4827413A (en) 1989-05-02

Similar Documents

Publication Publication Date Title
DE3832222A1 (de) Vorrichtung und verfahren zum anzeigen eines 2-dimensionalen bildes eines 3-dimensionalen gegenstandes
DE4314265B4 (de) Displaysystem
DE19807053B4 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE60313742T2 (de) Verfahren und geräte für schnelle fächerstrahl-tomographie
EP0318176B1 (de) Bildverarbeitungsverfahren und -gerät
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE69919464T2 (de) Elektronische Vorrichtung zur Bildausrichtung
DE3735519C2 (de) Binäre Rauminterpolation
DE2804732C2 (de) Medizinisches Untersuchungsgerät
DE102005023964A1 (de) Volumenvisualisierung mittels Texturverschiebung
DE19858306A1 (de) C-Arm Kalibrierungsverfahren unter Anwendung einer planaren Transformation zur 3D-Rekonstruktion bei einem Bildsystem
DE102004063053A1 (de) Verfahren und System zum Visualisieren dreidimensionaler Daten
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE69916808T2 (de) Verfahren und system zur strahlverfolgung
DE2835689A1 (de) Anordnung zur veraenderung der aufloesung bei der bild-datenerfassung und -uebertragung
DE60036393T2 (de) Verfahren zur schnellen rückprojektion von bildern durch mehrstufige bereichszerlegung
DE102005029225A1 (de) System und Verfahren zur schnellen Erzeugung von Maximum/Minimum-Intensitätsprojektionen hoher Qualität
DE69720229T2 (de) Eine computertomographische methode und ein computertomograph
DE69921608T2 (de) Verfahren und vorrichtung zum zoomen von digitalen bilddateien
DE60100806T2 (de) Abbildung von volumendaten
DE10054814A1 (de) Verfahren und Vorrichtung zur Registrierung von Bildern
DE4224568A1 (de) Verfahren und vorrichtung zum aufbau der anzeige eines dreidimensionalen oberflaechen-schattierungsbildes
EP1843296A1 (de) Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten
DE3710011A1 (de) Verfahren, bei dem ein untersuchungsbereich aus mehreren strahlenquellenpositionen durchstrahlt wird
DE69935768T2 (de) Herleitung einer isofläche in einem mehrdimensionalen datenfeld

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8128 New person/name/address of the agent

Representative=s name: STOLBERG-WERNIGERODE, GRAF ZU, U., DIPL.-CHEM. DR.

D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee