DE69731775T2 - Verfahren und system zur durchführung einer virtuellen untersuchung - Google Patents

Verfahren und system zur durchführung einer virtuellen untersuchung Download PDF

Info

Publication number
DE69731775T2
DE69731775T2 DE69731775T DE69731775T DE69731775T2 DE 69731775 T2 DE69731775 T2 DE 69731775T2 DE 69731775 T DE69731775 T DE 69731775T DE 69731775 T DE69731775 T DE 69731775T DE 69731775 T2 DE69731775 T2 DE 69731775T2
Authority
DE
Germany
Prior art keywords
virtual
camera
organ
dimensional
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69731775T
Other languages
English (en)
Other versions
DE69731775D1 (de
Inventor
E. Arie KAUFMAN
Lichon Hong
Zhengrong Liang
R. Mark WAX
Ajay Viswambharan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Foundation of State University of New York
Original Assignee
Research Foundation of State University of New York
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24871098&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69731775(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Research Foundation of State University of New York filed Critical Research Foundation of State University of New York
Application granted granted Critical
Publication of DE69731775D1 publication Critical patent/DE69731775D1/de
Publication of DE69731775T2 publication Critical patent/DE69731775T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/28Force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Durchführen einer dreidimensionalen virtuellen Untersuchung auf Volumenbasis unter Nutzung geplanter und geführter Navigationstechniken. Eine solche Anwendung ist das Durchführen einer virtuellen Endoskopie.
  • ALLGEMEINER STAND DER TECHNIK
  • Kolonkrebs ist weiterhin eine der wichtigsten Todesursachen in der Welt. Ein frühes Erkennen von Krebstumoren, die sich im Kolon des Menschen zuerst als Polypen zeigen, kann die Überlebenschance eines Patienten weitgehend verbessern. Derzeit gib es zwei herkömmliche Wege zum Erkennen von Polypen oder anderer Massen in dem Kolon eines Patienten. Das erste Verfahren ist ein Kolonoskopieverfahren, das eine biegsame Lichtleitfaserröhre, ein Kolonoskop genannt, verwendet, um den Kolon über rektales Einfügen mit dem Kolonoskop visuell zu untersuchen. Der Arzt kann das Rohr manipulieren, um nach irgendwelchen anormalen Wucherungen in dem Kolon zu suchen. Die Kolonoskopie ist zwar verlässlich, ist jedoch sowohl relativ kostspielig als auch zeitaufwändig und ist eine invasive, unbequeme und schmerzliche Vorgehensweise für den Patienten.
  • Die zweite Erkennungstechnik ist der Einsatz eines Bariumeinlaufs und der zweidimensionalen Röntgenbildtechnik des Kolons. Der Bariumeinlauf wird verwendet, um den Kolon mit Barium zu beschichten, und ein zweidimensionales Röntgenbild wird aufgenommen, um ein Bild des Kolons aufzunehmen. Bariumeinläufe können jedoch nicht immer eine Ansicht des gesamten Kolons bieten, sie erfordern umfangreiche Vorbehandlung und Patientenmanipulation, hängen beim Durchführen des Vorgangs oft von der Bedienperson ab, exponieren den Patienten mit übermäßiger Strahlung und können weniger empfindlich sein als eine Kolonoskopie. Aufgrund der Mängel der herkömmlichen oben beschriebenen Praktiken, ist ein verlässlicherer, weniger invasiver und kostengünstigerer Weg wünschenswert, um den Kolon auf Polypen zu untersuchen. Ein Verfahren zum Untersuchen anderer menschlicher Organe, wie zum Beispiel der Lungen, auf Wucherungen auf verlässliche und kosteneffiziente Art und mit weniger Unbehagen für den Patienten ist ebenfalls wünschenswert.
  • Die zweidimensionale („2D") Anzeige menschlicher Organe, die derzeit verfügbare medizinische Bildsynthesegeräte verwendet, wie zum Beispiel Computertomographie und MRI (magnetic resonance imaging – Magnetresonanzbildsynthese) wurden weitgehend für die Patientendiagnose verwendet. Dreidimensionale Bilder können durch Stapeln und Interpolierung zwischen zweidimensionalen Bildern, die von Abtastmaschinen erzeugt werden, gebildet werden. Das Abbilden eines Organs und Anzeigen seines Volumens im dreidimensionalen Raum wäre aufgrund des Mangels physischen Eindringens und der Leichtigkeit der Datenmanipulation günstig. Das Erforschen des dreidimensionalen Volumenbilds muss jedoch richtig ausgeführt werden, um die Vorteile des virtuellen Anzeigens eines Organs von der Innenseite her voll zu nutzen.
  • Beim Anzeigen des virtuellen dreidimensionalen („3D") Volumenbilds einer Umgebung, muss ein funktionales Modell verwendet werden, um den virtuellen Raum zu erforschen. Ein mögliches Modell ist eine virtuelle Kamera, die als ein Referenzpunkt für den Betrachter zum Erforschen des virtuellen Raums verwendet werden kann. Die Kamerasteuerung in dem Kontext der Navigation innerhalb einer allgemeinen virtuellen 3D-Umgebung wurde früher bereits untersucht. Es gibt zwei herkömmliche Typen von Kamerasteuerung, die für die Navigation im virtuellen Raum angeboten werden. Der erste lässt der Bedienperson die volle Kontrolle der Kamera, was es der Bedienperson erlaubt, die Kamera in verschiedenen Positionen und Ausrichtungen zu manipulieren, um die erwünschte Ansicht zu erzielen. Die Bedienperson steuert nämlich die Kamera. Das erlaubt es der Bedienperson, einen bestimmten Abschnitt von Interesse zu erforschen, während sie andere Abschnitte ignoriert. Die komplette Kontrolle der Kamera ist jedoch ein weiter Bereich und wäre langwierig und ermüdend, und eine Bedienperson könnte nicht alle wichtigen Merkmale zwischen dem Start- und Endpunkt der Erforschung anzeigen. Die Kamera könnte auch leicht in entfernten Zonen „verloren" werden oder mit einer der Wände durch eine unaufmerksame Bedienperson oder zahlreiche überraschende Hindernisse kollidieren.
  • Die zweite Technik der Kamerasteuerung ist ein geplantes Verfahren, das der Kamera einen vorbestimmten einzuschlagenden Pfad zuweist und der von der Bedienperson nicht geändert werden kann. Das ähnelt einem eingelegten „Autopiloten". Es erlaubt es dem Bediener, sich auf den virtuellen Raum, der angezeigt wird, zu konzentrieren, und sich keine Sorgen über das Lenken in Wände der untersuchten Umgebung zu machen. Diese zweite Technik verleiht dem Betrachter jedoch nicht die Anpassungsfähigkeit, den Weg zu ändern oder eine interessante Zone, die entlang der Bahn angezeigt wird, zu untersuchen.
  • Systeme zum Durchführen einer dreidimensionalen virtuellen Untersuchung eines Objekts sind bekannt, wie zum Beispiel die in den folgenden Referenzen beschriebenen:
    D1: LORENSEN W E ET AL: ,The exploration of crosssectional data with a virtual endoscope' INTERACTIVE TECHNOLOGY AND THE NEW PARADIGM FOR HEALTHCARE. MEDICINE MEETS VIRTUAL REALITY III PROCEEDINGS, INTERACTIVE TECHNOLOGY AND THE NEW PARADIGM FOR HEALTHCARE. MEDICINE MEETS VIRTUAL REALITY III PROCEEDINGS, SAN DIEGO, CA, USA, 19.–22. JAN. 1995, Seiten 221–230, XP002196134 1995, Amsterdam, Niederlande, IOS Press, Niederlande
    D2: LICHAN HONG ET AL: '3D virtual colonoscopy' BIOMEDICAL VISUALIZATION, 1995. PROCEEDINGS. ATLANTA, GA, USA, 30. OKT.–3. NOV. 1995, LOS ALAMITOS, CA, USA, IEEE COMPUT. SOC, US, 30. Oktober 1995 (1995-10-30), Seiten 26–32, 83, XP010196689 ISBN: 0-8186-7198-X
  • Beide Referenzen D1 und D2 betreffen Techniken zum Erlauben der Durchführung einer virtuellen Untersuchung, die dort beschriebenen Systeme weisen jedoch eines oder mehrere der in Zusammenhang mit den oben erwähnten Techniken beschriebenen Probleme auf.
  • Es wäre wünschenswert, eine Kombination der zwei oben beschriebenen Navigationstechniken zu verwenden, um die Vorteile beider Techniken zu verwirklichen, während ihre jeweiligen Nachteile minimiert werden. Es wäre wünschenswert, eine anpassungsfähige Navigationstechnik an die Untersuchung menschlicher oder tierischer Organe anzuwenden, die in virtuellem 3D-Raum dargestellt sind, um eine nicht invasive schmerzlose gründliche Untersuchung durchzuführen. Die wünschenswerte Navigationstechnik soll ferner eine komplette Untersuchung eines virtuellen Organs im 3D-Raum durch eine Bedienperson mit Anpassungsfähigkeit erlauben, während ein gleichmäßigen Pfad und eine komplette Untersuchung durch und um das Organ sichergestellt werden. Es wäre weiter wünschenswert, die Erforschung des Organs in Echtzeit anhand einer Technik anzeigen zu können, die die Berechnungen minimiert, die zum Anzeigen des Organs erforderlich sind. Die wünschenswerte Technik sollte auch zum Erforschen irgendeines virtuellen Objekts gleichermaßen anwendbar sein.
  • KURZFASSUNG DER ERFINDUNG
  • Die Erfindung produziert ein dreidimensionales Anzeigebild eines Objekts, wie zum Beispiel eines menschlichen Organs durch Verwenden von Volumenanzeigetechniken und erforscht das virtuelle Bild anhand eines geführten Navigationssystems, das es der Bedienperson erlaubt, einer vordefinierten Bahn zu folgen und sowohl die Position als auch den Anzeigewinkel an einen bestimmten Teil von Interesse in dem Bild von dem vordefinierten Pfad weg einzustellen, um Polypen, Zysten oder andere anormale Merkmale in dem Organ zu identifizieren.
  • Die erfindungsgemäße Technik für die dreidimensionale virtuelle Untersuchung eines Objekts enthält das Produzieren einer einzelnen Darstellung des Objekts in Volumenelementen, die den Abschnitt des Objekts, das zu untersuchen ist, definieren, wobei eine Navigationsoperation in dem virtuellen Objekt durchgeführt und das virtuelle Objekt in Echtzeit während der Navigation angezeigt wird.
  • Die erfindungsgemäße Technik für eine dreidimensionale virtuelle Untersuchung zur Anwendung auf ein Organ eines Patienten umfasst das Vorbereiten des Organs auf das Abtasten, wenn erforderlich das Abtasten des Organs und Umwandeln der Daten in Volumenelemente, das Definieren des Abschnitts des Organs, der zu untersuchen ist, das Durchführen einer geführten Navigationsoperation in dem virtuellen Organ und das Anzeigen des virtuellen Organs in Echtzeit während der geführten Navigation.
  • Es ist eine Aufgabe der Erfindung, ein System und ein Verfahren zu verwenden, um eine relativ schmerzlose, kostengünstige und nicht invasive In-Vivo-Untersuchung eines Organs durchzuführen, wobei die eigentliche Analyse des abgetasteten Kolons eventuell in Abwesenheit des Patienten durchgeführt werden kann. Der Kolon kann abgetastet und in Echtzeit angezeigt werden, oder die gespeicherten Daten können zu einem späteren Zeitpunkt angezeigt werden.
  • Eine weitere Aufgabe der Erfindung ist das Erzeugen von 3D-Volumendarstellungen eines Objekts, wie zum Beispiel eines Organs, wobei Zonen des Objekts schichtweise abgeschält werden können, um eine Analyse unter der Oberfläche einer Zone des abgebildeten Objekts bereitzustellen. Eine Oberfläche eines Objekts (wie zum Beispiel eines Organs) kann durchsichtig oder durchscheinend gemacht werden, um weitere Objekte innerhalb oder hinter der Objektwand anzuzeigen. Das Objekt kann auch zerschnitten werden, um einen spezifischen Querschnitt des Objekts zu untersuchen.
  • Eine weitere Aufgabe der Erfindung besteht darin, ein System und ein Verfahren geführter Navigation durch eine 3D-Volumendarstellung eines Objekts, wie zum Beispiel eines Organs unter Einsatz von Potenzialfeldern bereitzustellen.
  • Eine weitere Aufgabe der Erfindung ist das Berechnen der Mittellinie eines Objekts, wie zum Beispiel eines Organs, für eine virtuelle Bahn unter Einsatz einer hier beschriebenen Abschälschichtentechnik.
  • Eine weitere Aufgabe der Erfindung besteht darin, eine modifizierte Z-Puffertechnik zu verwenden, um die Anzahl der Berechnungen zu minimieren, die zum Produzieren der Anzeige erforderlich sind.
  • Eine weitere Aufgabe der Erfindung besteht darin, jedem Volumenelement in der Darstellung Opazitätskoeffizienten zuzuweisen, um bestimmte Volumenelemente in verschiedenen Graden transparent oder durchscheinend zu machen, um die Anzeige des Abschnitts des angezeigten Objekts anzupassen. Ein Abschnitt des Objekts kann auch unter Einsatz von Opazitätskoeffizienten zusammengesetzt werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Weitere Aufgaben, Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden detaillierten Beschreibung gemeinsam mit den begleitenden Figuren, die eine bevorzugte Ausführungsform der Erfindung darstellen, in welchen:
  • 1 ein Flussdiagramm der Schritte zum erfindungsgemäßen Durchführen einer virtuellen Untersuchung eines Objekts, insbesondere eines Kolons ist;
  • 2 eine Darstellung eines „Unterseebot"-Kameramodells ist, welches eine geführte Navigation in einem virtuellen Organ durchführt;
  • 3 eine Darstellung eines Pendels ist, um das Neigen und Rollen der „Unterseeboot"-Kamera zu modellieren;
  • 4 ein Diagramm ist, das einen zweidimensionalen Querschnitt eines volumetrischen Kolons darstellt, der zwei blockierende Wände identifiziert;
  • 5 ein Diagramm ist, das einen zweidimensionalen Querschnitt eines volumetrischen Kolons darstellt, auf dem Start- und Endvolumenelemente ausgewählt sind;
  • 6 ein Diagramm ist, das einen zweidimensionalen Querschnitt eines volumetrischen Kolons darstellt, der ein einzelnes Untervolumen zeigt, das von blockierenden Wänden und der Kolonüberfläche eingeschlossen ist;
  • 7 ein Diagramm ist, das einen zweidimensionalen Querschnitt eines volumetrischen Kolons darstellt, von dem mehrfache Schichten abgeschält sind;
  • 8 ein Diagramm ist, das einen zweidimensionalen Querschnitt eines volumetrischen Kolons darstellt, der die restliche Bahn enthält;
  • 9 ein Flussdiagramm der Schritte des Produzierens einer Volumenanzeige des abgetasteten Organs ist;
  • 10 eine Darstellung eines virtuellen Kolons ist, der in Zellen unterteilt wurde;
  • 11A eine grafische Darstellung eines Organs ist, das virtuell untersucht wird;
  • 11B eine grafische Darstellung einer Fahnenstruktur ist, die beim Darstellen des Organs in 11A produziert wird;
  • 11C eine weitere grafische Darstellung einer Fahnenstruktur ist, die beim Abbilden des Organs in 11A produziert wird;
  • 12A eine grafische Darstellung einer Szene ist, die mit Objekten innerhalb bestimmter Zellen der Szene wiedergegeben werden soll;
  • 12B eine grafische Darstellung einer Fahnenstruktur ist, die beim Darstellen der Szene in 12A produziert wird;
  • 12C12E weitere grafische Darstellungen von Fahnenstrukturen sind, die beim Darstellen des Bilds in 12A produziert werden;
  • 13 eine zweidimensionale Darstellung eines virtuellen Kolons ist, der einen Polypen enthält, dessen Schichten entfernt werden können, und
  • 14 ein Diagramm eines Systems ist, das verwendet wird, um eine virtuelle Untersuchung eines menschlichen Organs erfindungsgemäß durchzuführen.
  • DETAILLIERTE BESCHREIBUNG
  • Auch wenn die Verfahren und Systeme, die in dieser Anwendung beschrieben werden, an jedes zu untersuchende Objekt angewandt werden können, ist die bevorzugte Ausführungsform, die hier beschrieben wird, die Untersuchung eines Organs im menschlichen Körper, spezifisch des Kolons. Der Kolon ist lang und gewunden, was ihn besonders für eine virtuelle Untersuchung geeignet macht, wobei dem Patienten sowohl Geld als auch das Unbehagen und die Gefahr eines physischen Eindringens erspart bleiben. Weitere Beispiele von Organen, die untersucht werden können, umfassen die Lungen, den Magen und Teile des Magen-Darmsystems, das Herz und Blutgefäße.
  • 1 stellt die Schritte dar, die notwendig sind, um eine virtuelle Kolonoskopie mit Volumenanzeigetechniken durchzuführen. Schritt 101 bereitet den Kolon, der abgetastet werden soll, vor, um für die Untersuchung angezeigt zu werden, wenn das vom Arzt oder von dem spezifischen Abtastgerät gefordert wird. Diese Vorbereitung könnte das Reinigen des Kolons mit einem „Cocktail" oder einer Flüssigkeit enthalten, die in den Kolon eindringt, nachdem sie oral eingenommen wurde und durch den Magen gelaufen ist. Der Cocktail zwingt den Patienten, Abfall auszuwerfen, der im Kolon präsent ist. Ein Beispiel für eine verwendete Substanz ist Golytely. Zusätzlich kann bei dem Kolon Luft oder CO2 in den Kolon forciert werden, um ihn auszudehnen und leichter abzutasten und zu untersuchen zu machen. Das wird anhand einer kleinen Röhre durchgeführt, die in das Rektum gesteckt wird, wobei etwa 1000 ccm3 Luft in den Kolon gepumpt werden, um ihn auszudehnen. Je nach dem Typ des verwendeten Abtastgeräts kann es erforderlich sein, dass der Patient ein Kontrastmittel trinkt, wie zum Beispiel Barium, um nicht ausgeworfenen Kot zu beschichten, um den Abfall in dem Kolon von den Kolonwänden selbst unterscheiden zu können. Alternativ kann das Verfahren zum virtuellen Untersuchen des Kolons zuerst den virtuellen Abfall vor oder während der virtuellen Untersuchung eliminieren, wie in dieser Spezifikation weiter unten erklärt wird. Schritt 101 braucht, wie durch die gestrichelte Linie in 1 dargestellt, nicht bei allen Untersuchungen durchgeführt zu werden.
  • Schritt 103 tastet das zu untersuchende Organ ab. Das Abtastgerät kann ein gemäß dem Stand der Technik gut bekanntes Gerät sein, wie zum Beispiel ein Spiral-CT-Scanner zum Abtasten eines Kolons oder eine Zenita MRI-Maschine zum Abtasten einer Lunge, die zum Beispiel mit Xenongas markiert ist. Der Scanner muss in der Lage sein, vielfache Bilder aus verschiedenen Positionen um den Körper während der angehaltenen Atmung aufzunehmen, um die Daten zu produzieren, die für die Volumenanzeige erforderlich sind. Ein Beispiel eines einfachen CT-Bilds würde einen Röntgenstrahl zu 5 mm Breite, 1 : 1 oder 2 : 1 Neigung verwenden, wobei ein 40 cm-Sichtfeld von der Oberseite der Milzbiegung des Kolons zum Rektum durchgeführt wird.
  • Einzelne Datendarstellungen des Objekts können durch andere Verfahren als Abtasten produziert werden. Voxeldaten, die ein Objekt darstellen, können von einem geometrischen Modell durch die im U.S. Patent Nr. 5 038 302 beschriebenen Techniken abgeleitet werden, welches Patent den Titel „Method of Converting Continuous Three-Dimensional Geometrical Representations into Discrete Three-Dimensional Voxel- Based Representations Within a Three-Dimensional Voxel-Based System" trägt, von Kaufman, herausgegeben am 8. August 1991, angemeldet am 26. Juli 1988, welches hiermit durch Bezugnahme eingegliedert wird. Zusätzlich können durch ein Computermodell Daten eines Bilds produziert werden, das in dreidimensionale Voxel umgewandelt und erfindungsgemäß untersucht werden kann. Ein Beispiel dieses Typs von Daten ist eine Computersimulation der Turbulenz, die eine Raumfähre umgibt.
  • Schritt 104 wandelt die abgetasteten Bilder in dreidimensionale Volumenelemente (Voxel) um. Bei der bevorzugten Ausführungsform zum Untersuchen eines Kolons werden die Abtastdaten in 5 mm dicke Scheiben in Inkrementen von 1 mm oder 2,5 mm neu formatiert, wobei jede Scheibe als eine Matrix aus 512 × 512 Bildpunkten dargestellt wird. Daher wird eine große Anzahl von 2D-Scheiben in Abhängigkeit von der Länge der Abtastung erzeugt. Der Satz 2D-Scheiben wird dann in 3D-Voxel umstrukturiert. Das Umwandlungsverfahren von 2D-Bildern aus dem Scanner in 3D-Voxel kann entweder durch den Scanner selbst oder durch eine getrennte Maschine durchgeführt werden, wie zum Beispiel einen Computer, anhand von Techniken, die gemäß dem Stand der Technik gut bekannt sind (siehe zum Beispiel U.S. Patent Nr. 4 985 856 mit dem Titel „Method and Apparatus for Storing, Accessing, and Processing Voxel-based Data" von Kaufman et al., herausgegeben am 15. Januar 1991, angemeldet am 11. November 1988, das hierbei durch Bezugnahme eingegliedert wird).
  • Schritt 105 erlaubt es der Bedienperson, den Abschnitt des ausgewählten Organs, das zu untersuchen ist, zu definieren. Ein Arzt kann an einem bestimmten Abschnitt des Kolons, der leicht Polypen entwickeln kann, interessiert sein. Der Arzt kann eine zweidimensionale Scheibenübersichtkarte anzeigen, um den zu untersuchenden Abschnitt anzugeben. Ein Startpunkt und ein Endpunkt des anzuzeigenden Pfads können von dem Arzt/der Bedienperson angegeben werden. Ein herkömmlicher Computer und eine Computerschnittstelle (zum Beispiel Tastatur, Maus oder Spaceball) können verwendet werden, um den Abschnitt des Kolons, der zu untersuchen ist, zu bezeichnen. Ein Rastersystem mit Koordinaten kann für die Tastatureingabe verwendet werden, oder der Arzt/die Bedienperson kann auf die gewünschten Punkte „klicken". Das gesamte Bild des Kolons kann auf Wunsch ebenfalls angezeigt werden.
  • Schritt 107 führt den geplanten oder geführten Navigationsvorgang des untersuchten virtuellen Organs durch. Das Durchführen einer geführten Navigationsoperation wird als das Navigieren durch eine Umgebung entlang einer vordefinierten oder automatisch vordefinierten Bahn definiert, die von einer Bedienperson jederzeit manuell angepasst werden kann. Nach dem Umwandeln der Abtastdaten in 3D-Voxel, muss das Innere des Organs von dem ausgewählten Startpunkt bis zum ausgewählten Endpunkt durchquert werden. Die virtuelle Untersuchung wird nach dem Modell einer winzigen Kamera modelliert, die durch den virtuellen Raum reist, wobei eine Linse zu dem Endpunkt gerichtet ist. Die Technik der geführten Navigation stellt ein Interaktionsniveau mit der Kamera bereit, so dass die Kamera automatisch durch eine virtuelle Umgebung navigieren kann, wenn keine Wechselbeziehung mit der Bedienperson existiert, und es der Bedienperson gleichzeitig erlaubt, die Kamera nach Bedarf zu handhaben. Die bevorzugte Ausführungsform zum Erzielen der geführten Navigation besteht darin, ein physikalisch basiertes Kameramodell zu verwenden, das Potenzialfelder benutzt, um die Bewegung der Kamera zu steuern, wobei die Potenzialfelder detailliert in 2 und 3 beschrieben sind.
  • Schritt 109, der gleichzeitig mit Schritt 107 ausgeführt werden kann, zeigt das Innere des Organs aus der Sicht des Kameramodells entlang des ausgewählten Pfads der geführten Navigationsoperation an. Dreidimensionale Anzeigen können anhand von Techniken produziert werden, die gemäß dem Stand der Technik gut bekannt sind, wie zum Beispiel die Marching-Cubes-Technik. Um jedoch eine Echtzeitanzeige des Kolons zu produzieren, ist eine Technik erforderlich, die die umfangreiche Anzahl von Berechnungen von Daten reduziert, die für das Anzeigen des virtuellen Organs erforderlich ist. 9 beschreibt diesen Anzeigeschritt detaillierter.
  • Das in 1 beschriebene Verfahren kann auch zum Abtasten mehrerer Organe in einem Körper gleichzeitig angewandt werden. Ein Patient kann zum Beispiel auf Krebstumore sowohl im Kolon als auch in den Lungen untersucht werden. Das Verfahren der 1 würde modifiziert, um alle Zonen von Interesse in Schritt 103 abzutasten und das aktuelle Organ, das zu untersuchen ist, in Schritt 105 auszuwählen. Der Arzt/die Bedienperson kann anfänglich zum Beispiel den Kolon auswählen, um ihn virtuell zu untersuchen, und später die Lunge untersuchen. Alternativ können zwei verschiedene Ärzte mit unterschiedlichen Fachbereichen virtuell verschiedene abgetastete Organe in Zusammenhang mit ihren jeweiligen Fachbereichen untersuchen. In dem darauf folgenden Schritt 109 wird das nächste zu untersuchende Organ ausgewählt, und sein Abschnitt wird definiert und erforscht. Das wird fortgesetzt, bis alle Organe, die untersucht werden müssen, verarbeitet wurden.
  • Die in Zusammenhang mit 1 beschriebenen Schritte können auch an die Untersuchung jedes Objekts angewandt werden, das durch Volumenelemente dargestellt werden kann. Eine architektonische Struktur oder ein unbelebtes Objekt kann zum Beispiel in der gleichen Art dargestellt und untersucht werden.
  • 2 stellt ein „Unterseeboot"-Kamerasteuermodell dar, das die Technik der geführten Navigation in Schritt 107 durchführt. Wenn während der geführten Navigation keine Bedienersteuerung besteht, ist die Standardnavigation ähnlich der der geplanten Navigation, die die Kamera automatisch entlang einer Bahn von einem ausgewählten Ende des Kolons zu einem anderen lenkt. Während der geplanten Navigationsphase bleibt die Kamera in der Mitte des Kolons, um bessere Ansichten der Kolonoberfläche zu erzielen. Wenn man auf eine interessante Zone trifft, kann die Bedienperson der virtuellen Kamera anhand der geführten Navigation die Kamera interaktiv einer spezifischen Zone nähern und die Bewegung und den Winkel der Kamera lenken, um die interessante Zone im Detail zu untersuchen, ohne unbeabsichtigt mit den Wänden des Kolons zu kollidieren. Die Bedienperson kann die Kamera mit einer Standardschnittstellenvorrichtung, wie zum Beispiel einer Tastatur, Maus oder einer Nichtstandardvorrichtung, wie zum Beispiel einem Spaceball steuern. Um eine Kamera in einer virtuellen Umgebung voll zu bedienen, sind für die Kamera sechs Freiheitsgrade erforderlich. Die Kamera muss sich in der Horizontalen, Vertikalen und Z-Richtung (Achsen 217) bewegen können und muss nach drei weiteren Freiheitsgraden (Achsen 219) drehen können, um es der Kamera zu erlauben, sich zu bewegen und alle Seiten und Winkel einer virtuellen Umgebung abzutasten. Das Kameramodell für die geführte Navigation enthält einen nicht ausdehnbaren gewichtlosen Stab 201, der zwei Partikel x1 203 und x2 205 verbindet, wobei beide Partikel einem Potenzialfeld 215 unterworfen werden. Das Potenzialfeld wird an den Organwänden als das höchste definiert, um die Kamera von den Wänden weg zuschieben.
  • Die Positionen der Partikel werden gegeben durch x1 und x2 und werden als mit der gleichen Masse m angenommen. Eine Kamera wird an dem Kopf des U-Boots x1 203 befestigt, dessen Sichtrichtung mit x1x2 zusammen fällt. Das Unterseeboot kann Verschiebung und Drehung um die Mitte der Masse x des Modells durchführen, weil die zwei Partikel von den Kräften des Potenzialfelds V(x), das unten definiert ist, jeder Reibungskraft und simulierten externen Kraft beeinflusst werden. Die Verhältnisse zwischen x1, x2 und x sind die folgenden: x = (x, y, z) r = (rsinθcosϕ, rsinθsinϕ, rcosθ), x1 = x + r, x2 = x – r, (1)wobei r, θ und ϕ die polaren Koordinaten des Vektors xx1 sind. Die kinetische Energie des Modells, T, wird als die Summierung der kinetischen Energien der Bewegungen von x1 und x2 definiert:
  • Figure 00150001
  • Danach werden die Gleichungen für die Bewegung des Unterseebootmodells anhand der LaGrange-Gleichung erzielt:
    Figure 00150002
    wobei qjs die verallgemeinerten Koordinaten des Modells sind und als die Variablen der Zeit t wie folgt betrachtet werden können: (q1, q2, q3, q4, q5, q6) = (x, y, z, θ, ϕ, ψ) = q(t), (4) wobei ψ den Rollwinkel unseres Kamerasystems, das später erklärt wird, bezeichnet. Die Fjs werden die verallgemeinerten Kräfte genannt. Die Steuerung des Unterseeboots erfolgt durch Anwenden einer simulierten externen Kraft an x1, Fext = (Fx, Fy, Fz),und es wird angenommen, dass sowohl x1 als auch x2 von den Kräften des Potenzialfelds und den Reibungen beeinflusst werden, die in die entgegengesetzte Richtung der Geschwindigkeit jedes der Partikel wirken. Die verallgemeinerten Kräfte werden daher wie folgt formuliert: F1 = –m∇V(x1) – kx1 + Fext, F2 = –m∇V(x2) – kx2, (5)wobei k den Reibungskoeffizienten des Systems bezeichnet. Die externe Kraft Fext wird von der Bedienperson durch einfaches Klicken auf die Maustaste in die gewünschte Richtung 207 in dem produzierten Bild wie in 2 gezeigt angelegt. Dieses Kameramodell würde dann in diese Richtung bewegt. Das erlaubt es der Bedienperson, zumindest fünf Freiheitsgrade der Kamera mit einem einzigen Klicken auf die Maustaste zu steuern. Aus den Gleichungen (2), (3) und (5) können die Beschleunigungen der fünf Parameter unseres Unterseebootmodells abgeleitet werden:
    Figure 00160001
    Figure 00170001
    wobei ẋ und ẍ jeweils die erste und die zweite Ableitung von x sind und
    Figure 00170002
    den Gradienten des Potenzials in einem Punkt x bezeichnet. Die Glieder ϕ .2sinθcosθ von θ .. und
    Figure 00170003
    von ϕ .. werden jeweils Zentrifugalkraft genannt und die Coriolis-Kraft, und sie befassen sich mit dem Austausch von Winkelgeschwindigkeiten des Unterseeboots. Da das Modell für den Stab des Unterseeboots kein Trägheitsmoment definiert hat, tendieren diese Glieder dazu, ein Überfließen der numerischen Berechnung von ϕ . zu verursachen. Glücklicherweise werden diese Glieder nur signifikant, wenn die Winkelgeschwindigkeiten des Unterseebootmodells signifikant sind, was im Wesentlichen bedeutet, dass sich die Kamera zu schnell bewegt. Da es sinnlos ist, es der Kamera zu erlauben, sich so schnell zu bewegen, weil das Organ nicht richtig angezeigt werden könnte, werden diese Glieder in unserer Implementierung minimiert, um das Problem des Überfließens zu vermeiden.
  • Aus den ersten drei Formeln der Gleichung (6) ist bekannt, dass das Unterseeboot nicht von der externen Kraft gegen das Potenzialfeld angetrieben werden kann, wenn die folgende Bedingung erfüllt ist:
  • Figure 00180001
  • Da die Geschwindigkeit des Unterseeboots und der externen Kraft Fext in unserer Implementierung obere Limits haben, indem an der Grenze der Objekte ausreichend hohe Potenzialwerte zugewiesen werden, kann dafür garantiert werden, dass das Unterseeboot nie gegen Objekte oder Wände in der Umgebung stößt.
  • Wie zuvor erwähnt, muss der Rollwinkel ψ des Kamerasystems berücksichtigt werden. Eine mögliche Option erlaubt der Bedienperson volle Kontrolle des Winkels ψ. Obwohl die Bedienperson die Kamera frei um den Stab des Modells drehen kann, kann er oder sie jedoch leicht die Orientierung verlieren. Die bevorzugte Technik geht davon aus, dass die Aufwärtsrichtung der Kamera mit einem Pendel mit der Masse m2 301 verbunden ist, das frei um den Stab des Unterseeboots dreht, wie in 3 gezeigt. Die Richtung des Pendels, r2, wird wie folgt ausgedrückt: r2 = r2(cosθcosϕsinψ + sinϕcosψ, cosθsinϕsinψ – cosϕcosψ, –sinθsinψ).
  • Obwohl es möglich ist, die präzise Bewegung dieses Pendels gemeinsam mit der Bewegung des Unterseeboots zu berechnen, macht das die Systemgleichungen zu kompliziert. Es wird daher angenommen, dass alle verallgemeinerten Koordinaten mit Ausnahme des Rollwinkels ψ Konstanten sind, und daher die unabhängige kinetische Energie des Pendelsystems wie folgt definieren:
  • Figure 00190001
  • Das vereinfacht das Modell für den Rollwinkel. Da in diesem Modell angenommen wird, dass die Schwerkraft Fg = m2g = (m2gx, m2gy, m2gz)als der Massepunkt m2 wirkt, kann die Beschleunigung von ψ anhand der LaGrange-Gleichung wie folgt abgeleitet werden:
  • Figure 00190002
  • Aus den Gleichungen (6) und (7) werden die verallgemeinerten Koordinaten q(t) und ihre Ableitungen q(t) asymptotisch anhand von Taylor-Serien wie folgt berechnet:
    Figure 00190003
    q .(t + h) = q .(t) + hq ..(t) + O(h2),um das Unterseeboot frei zu bewegen. Um die Bewegung des Unterseeboots zu glätten, wird der Zeitschritt h als ein Gleichgewichtswert ausgewählt, der so klein wie möglich ist, um die Bewegung zu glätten, aber so groß wie erforderlich, um die Berechnungskosten zu reduzieren.
  • DEFINITION DES POTENZIALFELDS
  • Das Potenzialfeld des Unterseebootmodells in 2 definiert die Grenzen (Wände oder andere Materie) in dem virtuellen Organ, indem der Grenze ein hohes Potenzial zugeordnet wird, um sicherzustellen, dass die Unterseebootkamera nicht mit den Wänden oder anderen Grenzen kollidiert. Versucht die Bedienperson, das Kameramodell in eine Zone mit hohem Potenzial zu bewegen, wird das Kameramodell daran gehindert, außer wenn die Bedienperson wünscht, zum Beispiel das Organ hinter der Grenze oder innerhalb eines Polypen zu untersuchen. Beim Durchführen einer virtuellen Kolonoskopie, wird jedem Teil der volumetrischen Kolondaten (Volumenelement) ein Potenzialfeldwert zugeordnet. Wenn eine bestimmte Zone von Interesse in Schritt 105 der 1 mit einem Start- und einem Endpunkt bezeichnet wird, werden die Voxel innerhalb der ausgewählten Zone des abgetasteten Kolons anhand konventioneller blockierender Operationen identifiziert. Daher wird jedem Voxel x des ausgewählten Volumens auf der Basis der folgenden drei Entfernungswerte ein Potenzialwert zugewiesen: die Entfernung von dem Endpunkt dt(x), die Entfernung von der Kolonoberfläche ds(x) und die Entfernung von der Mittellinie des Kolonraums dc(x). dt(x) wird unter Anwendung einer herkömmlichen Wachstumsstrategie berechnet. Die Entfernung von der Kolonoberfläche ds(x) wird anhand einer herkömmlichen Wachstumstechnik von den Oberflächenvoxeln nach innen berechnet. Zum Bestimmen von dc(x) wird die Mittellinie des Kolons von dem Voxel zuerst extrahiert, und dann wird dc(x) unter Verwenden der herkömmlichen Wachstumsstrategie ab der Mittellinie des Kolons berechnet.
  • Zum Berechnen der Mittellinie der ausgewählten Kolonzone, die durch den vom Benutzer festgelegten Startpunkt und Endpunkt definiert wird, wird der maximale Wert von ds(x) geortet und dmax bezeichnet. Danach wird jedem Voxel innerhalb der Zone von Interesse ein Kostenwert von dmax–ds(x) zugewiesen. Die Voxel, die der Kolonoberfläche nahe liegen, haben daher hohe Kostenwerte, und die Voxel in der Nähe der Mittellinie haben relativ niedrige Kostenwerte. Danach wird auf der Grundlage der Kostenzuweisung die Einzelursprungs-Routensuchtechnik angewandt, die gut bekannt ist, um effizient einen Mindestkostenpfad von dem Ursprungspunkt zu dem Endpunkt zu berechnen. Diese Kostengünstigkeitslinie zeigt die Mittellinie oder das Skelett des Kolonabschnitts an, der erforscht werden soll. Diese Technik zum Bestimmen der Mittellinie ist die bevorzugte Technik der Erfindung.
  • Zum Berechnen des Potenzialwerts V(x) für ein Voxel x innerhalb der Zone von Interesse wird die folgende Formel verwendet:
    Figure 00210001
    wobei C1, C2, μ und ν Konstanten sind, die für die Aufgabe ausgewählt wurden. Um jede Kollision zwischen der virtuellen Kamera und der virtuellen Kolonoberfläche zu vermeiden, wird allen Punkten außerhalb des Kolons ein ausreichend großer Potenzialwert zugewiesen. Der Gradient des Potenzialfelds wird daher so signifikant, dass die Unterseebootmodellkamera beim Betrieb nie mit der Kolonwand kollidiert.
  • Eine andere Technik zum Bestimmen der Mittellinie des Pfads in dem Kolon wird „Schälschichten"-Technik genannt und ist in 4 bis 8 gezeigt.
  • 4 zeigt einen 2D-Querschnitt des volumetrischen Kolons, wobei zwei Seitenwände 401 und 403 des Kolons gezeigt sind. Zwei Blockierungswände werden von der Bedienperson ausgewählt, um den Abschnitt des Kolons zu definieren, der zur Untersuchung interessant ist. Über diese Blockierungswände hinaus kann nichts angezeigt werden. Das hilft dabei, die Anzahl der Berechnungen beim Anzeigen der virtuellen Darstellung zu reduzieren. Die Blockierungswände identifizieren gemeinsam mit den Seitenwänden eine geschlossene volumetrische Form des Kolons, die zu erforschen ist.
  • 5 zeigt zwei Endpunkte der Bahn der virtuellen Untersuchung, das Startvolumenelement 501 und das Endvolumenelement 503. Der Start- und der Endpunkt werden von der Bedienperson in Schritt 105 der 1 ausgewählt. Die Voxel zwischen dem Start- und dem Endpunkt und den Kolonseiten werden identifiziert und markiert, wie von der Zone mit der Bezeichnung „x"-en in 6 angezeigt. Die Voxel sind dreidimensionale Darstellungen des Bildelements.
  • Die Schälschichtentechnik wird dann auf die identifizierten und gekennzeichneten Voxel in 6 angewandt. Die äußerste Schicht aller Voxel (die den Kolonwänden am nächsten liegt) wird schrittweise abgeschält, bis nur noch eine innere Voxelschicht verbleibt. Mit anderen Worten wird jedes Voxel, das von dem Mittelpunkt am weitesten entfernt ist, eliminiert, wenn das Eliminieren nicht zu einer Unterbrechung des Pfads zwischen dem Startvoxel und dem Endvoxel führt. 7 zeigt das Zwischenergebnis, nachdem eine Anzahl von Wiederholungen des Schälens von Voxeln in dem virtuellen Kolon durchgeführt wurde. Die Voxel, die den Kolonwänden am nächsten sind, wurden eliminiert. 8 zeigt die Endbahn des Kameramodells in der Mitte des Kolons hinunter nach dem Vollenden der Schälwiederholungen. Das ergibt im Wesentlichen ein Skelett in der Mitte des Kolons und wird zur gewünschten Bahn des Kameramodells.
  • SICHT MIT Z-PUFFERUNTERSTÜTZUNG
  • 9 beschreibt eine Echtzeitsichttechnik zum Anzeigen virtueller Bilder, die von dem Kameramodell in der virtuellen dreidimensionalen Volumen darstellung eines Organs gesehen werden. 9 zeigt eine Anzeigetechnik, die einen modifizierten Z-Puffer verwendet, der Schritt 109 in 1 entspricht. Die Anzahl der Voxel, die möglicherweise von dem Kameramodell angezeigt werden können, ist extrem groß. Wenn die Gesamtanzahl der Elemente (oder Vielecke), die zu berechnen und anzuzeigen ist, nicht von einem Gesamtsatz von Voxeln in der abgetasteten Umgebung reduziert wird, macht die Gesamtanzahl der Berechnungen den Anzeigeprozess für eine große interne Zone übermäßig langsam. Bei der vorliegenden Erfindung brauchen jedoch nur die Bilder, die auf der Kolonoberfläche sichtbar sind, zur Anzeige berechnet zu werden. Die abgetastete Umgebung kann in kleinere Abschnitte oder Zellen unterteilt werden. Die Z-Puffer-Technik gibt dann nur einen Abschnitt der Zellen wieder, die von der Kamera aus sichtbar sind. Die Z-Puffer-Technik wird auch für dreidimensionale Voxeldarstellungen verwendet. Der Einsatz eines modifizierten Z-Puffers reduziert die Anzahl sichtbarer Voxel, die zu berechnen sind, und ermöglicht die Echtzeituntersuchung des virtuellen Kolons durch einen Arzt oder medizinischen Techniker.
  • Die Zone von Interesse, von der die Mittellinie in Schritt 107 berechnet wurde, wird in Zellen unterteilt, bevor die Anzeigetechnik angewandt wird. Zellen sind kollektive Gruppen von Voxeln, die zu einer Sichteinheit werden. Die Voxel in jeder Zelle werden als eine Gruppe angezeigt. Jede Zelle enthält eine Anzahl von Portalen, durch welche die anderen Zellen angezeigt werden können. Der Kolon wird am ausgewählten Startpunkt beginnend und entlang der Mittellinie 1001 zu dem Endpunkt unterteilt. Der Kolon wird dann in Zellen unterteilt (zum Beispiel Zellen 1003, 1005 und 1007 in 10), wenn eine vordefinierte Schwellenentfernung entlang des Mittelpfads erreicht wird. Die Schwellenentfernung basiert auf den Spezifikationen der Plattform, auf welcher die Anzeigetechnik durchgeführt wird, und auf ihren Speicher- und Verarbeitungsfähigkeiten. Die Zellengröße hängt direkt von der Anzahl der Voxel ab, die von der Plattform gespeichert und verarbeitet werden kann. Ein Beispiel für eine Schwellenentfernung ist 5 cm, obwohl die Entfernung stark variieren kann. Jede Zelle hat zwei Querschnitte als Portale für das Anzeigen außerhalb der Zelle wie in 10 gezeigt.
  • Schritt 901 in 9 identifiziert innerhalb des ausgewählten Organs die Zelle, die derzeit die Kamera enthält. Die aktuelle Zelle wird angezeigt, sowie alle anderen Zellen, die gemäß der Richtung der Kamera sichtbar sind. Schritt 903 bildet eine Fahnenstruktur (Baumdiagramm) hierarchischer Daten potenziell von der Kamera (durch definierte Portale) sichtbarer Zellen wie weiter unten detailliert beschrieben wird. Die Fahnenstruktur enthält einen Knoten für jede Zelle, die für die Kamera sichtbar sein kann. Einige der Zellen können transparent ohne jede anwesende Blockierungskörper sein, so dass mehr als eine Zelle in eine einzelne Richtung sichtbar ist. Schritt 905 speichert einen Untersatz von Voxeln von einer Zelle, die den Schnittpunkt benachbarter Zellenkanten enthalten, und speichert sie an der Außenseitenkante der Fahnenstruktur, um effizienter zu bestimmen, welche Zellen sichtbar sind.
  • Schritt 907 prüft, ob in der Fahnenstruktur irgendwelche Schleifenknoten vorhanden sind. Ein Schleifenknoten tritt auf, wenn zwei oder mehrere Kanten einer einzelnen Zelle gleichzeitig an die gleiche benachbarte Zelle grenzen. Das kann auftreten, wenn eine einzelne Zelle von einer anderen Zelle umgeben ist. Wird in der Fahnenstruktur ein Schleifenknoten identifiziert, setzt das Verfahren bei Schritt 909 fort. Besteht kein Schleifenknoten, setzt das Verfahren bei Schritt 911 fort.
  • Schritt 909 faltet die zwei Zellen, so dass der Schleifenknoten in einen großen Schleifenknoten gebildet wird. Die Fahnenstruktur wird dann entsprechend korrigiert. Das eliminiert das Problem des Anzeigens der gleichen Zelle zweimal aufgrund des Schleifenknotens. Der Schritt wird an allen identifizierten Schleifenknoten ausgeführt. Dann setzt das Verfahren bei Schritt 911 fort.
  • Schritt 911 initiiert dann den Z-Puffer mit dem größten Z-Wert. Der Z-Wert definiert die Entfernung von der Kamera weg entlang des Skelettpfads. Die Baumstruktur wird dann durchquert, um zuerst die Schnittpunktwerte an jedem Knoten zu prüfen. Wird ein Schnittpunktknoten gedeckt, was bedeutet, dass die aktuelle Portalsequenz verschlossen ist (was von dem Z-Puffertest bestimmt wird), wird das Durchqueren des aktuellen Zweigs in der Baumstruktur gestoppt. Schritt 913 durchquert jeden der zweige, um zu prüfen, ob die Knoten gedeckt sind, und zeigt sie an, wenn das nicht der Fall ist.
  • Schritt 915 konstruiert dann das auf dem Bedienerbildschirm anzuzeigende Bild ausgehend von den Volumenelementen innerhalb der sichtbaren Zellen, die in Schritt 913 identifiziert werden, indem eine Vielzahl von Techniken gemäß dem Stand der Technik verwendet wird, wie zum Beispiel die Volumendarstellung durch Zusammensetzen. Die einzigen gezeigten Zellen sind die, die als potenziell sichtbar identifiziert werden. Diese Technik schränkt die Anzahl der Zellen ein, die Berechnungen erfordert, um eine Echtzeitanzeige zu erzielen, und steigert die Geschwindigkeit der Anzeige im Sinne der besseren Leistung entsprechend. Diese Technik ist eine Verbesserung im Vergleich zu früheren Techniken, die alle möglichen sichtbaren Datenpunkte berechnen, ob sie nun tatsächlich angezeigt werden oder nicht.
  • 11A ist eine zweidimensionale bildliche Darstellung eines Organs, das durch geführte Navigation erforscht wird und für einen Bediener angezeigt werden muss. Das Organ 1101 zeigt zwei Seitenwände 1102 und ein Objekt 1105 in der Mitte des Pfads. Das Organ wurde in vier Zellen A 1151, B 1153, C 1155 und D 1157 unterteilt. Die Kamera 1103 ist zur Zelle D 1157 gerichtet und hat ein Sichtfeld, das von Sichtvektoren 1107, 1108 definiert wird, die ein kegelförmiges Feld identifizieren können. Die Zellen, die potenziell angezeigt werden können, sind die Zellen B 1153, C 1155 und D 1157. Die Zelle C 1155 ist komplett von Zelle B umgeben und stellt daher einen Schleifenknoten dar.
  • 11B ist eine Darstellung einer Fahnenstruktur, die aus den Zellen in 11A gebildet ist. Der Knoten A 1109, der die Kamera enthält, befindet sich an der Wurzel der Baumstruktur. Eine Sichtlinie oder ein Sichtkonus, die der sichtbare Pfad ohne Blockieren ist, wird zum Knoten B 1110 gezogen. Der Knoten B hat direkt sichtbare Sichtlinien sowohl zu Knoten C 1112 als auch zu Knoten D 1114, was durch die Verbindungspfeile gezeigt wird. Die Sichtlinie des Knotens C 1112 in Richtung der Kamera kombiniert sich mit Knoten B 1110. Knoten C 1112 und Knoten B 1110 werden daher in einen großen Knoten B' 122 wie in 11C gezeigt zusammengefaltet.
  • 11C zeigt den Knoten A 1109, der die Kamera benachbart zum Knoten B' 1122 (der die beiden Knoten B und Knoten C enthält) und den Knoten D 1114 enthält. Die Knoten A, B' und D werden zumindest teilweise für die Bedienperson angezeigt.
  • 12A12E stellen den Einsatz des modifizierten Z-Puffers mit Zellen dar, die Objekte enthalten, die die Sichten verstellen. Ein Objekt könnte Abfall in einem Abschnitt des virtuellen Kolons sein. 12A zeigt einen virtuellen Raum mit 10 potenziellen Zellen: A 1251, B 1253, C 1255, D 1257, E 1259, F 1261, G 1263, H 1265, I 1267 und J 1269. Einige der Zellen enthalten Objekte. Wenn die Kamera 1201 wie von den Sichtvektoren 1203 angezeigt in Zelle I 1267 positioniert und zu Zelle F 1261 gerichtet ist, wird eine Fahnenstruktur in Übereinstimmung mit der Technik produziert, die durch das Flussdiagramm in 9 dargestellt ist. 12B zeigt die Fahnenstruktur, die mit den Schnittknoten für die virtuelle Darstellung wie in 12A gezeigt produziert wird. 12B zeigt Zelle I 1267 als den Wurzelknoten der Baumstruktur, weil sie die Kamera 1201 enthält. Der Knoten I 1211 zeigt zum Knoten F 1213 (wie durch einen Pfeil angezeigt), weil die Zelle F direkt mit der Sichtlinie der Kamera verbunden ist. Knoten F 1213 ist sowohl zum Knoten B 1215 als auch zum Knoten E 1219 gerichtet. Knoten B 1215 ist zum Knoten A 1217 gerichtet. Knoten C 1202 ist komplett von der Sichtlinie durch die Kamera 1201 blockiert und daher nicht in der Fahnenstruktur enthalten.
  • 12C zeigt die Fahnenstruktur nachdem der Knoten I 1211 auf dem Display für den Bediener wiedergegeben wurde. Knoten I 1211 wird dann aus der Fahnenstruktur entfernt, weil er bereits angezeigt wurde, und Knoten F 1213 wird zur Wurzel. 12D zeigt, dass der Knoten F 1213 nun angezeigt wird, um Knoten I 1211 zu erreichen. Die nächsten Knoten in der Baumstruktur, die mit Pfeilen verbunden sind, werden dann geprüft, um zu sehen, ob sie bereits gedeckt (bereits verarbeitet) sind. In diesem Beispiel wurden alle der schneidenden Knoten von der Kamera, die in Zelle I 1267 positioniert ist, gedeckt, so dass Knoten B 515 (und daher der abhängige Knoten A) nicht auf dem Display angezeigt werden müssen.
  • 12E zeigt Knoten E 515, der geprüft wird, um zu bestimmen, ob sein Schneiden gedeckt wurde. Da es gedeckt wurde, sind die einzigen in diesem Beispiel der 12A12E dargestellten Knoten die Knoten 1 und F, während die Knoten A, B und E nicht sichtbar sind und ihre Zellen nicht zum Anzeigen vorzubereiten sind.
  • Die modifizierte Z-Puffer-Technik, die in 9 beschrieben ist, erlaubt weniger Berechnungen und kann auf ein Objekt angewandt werden, das durch Voxel oder andere Datenelemente, wie zum Beispiel Vielecke dargestellt wurde.
  • 13 zeigt eine zweidimensionale virtuelle Anzeige eines Kolons mit einem großen Polypen entlang einer seiner Wände. 13 zeigt einen ausgewählten Abschnitt des Kolons des Patienten, der weiter untersucht werden muss. Die Ansicht zeigt zwei Kolonwände 1301 und 1303 mit der Wucherung, die als 1305 angegeben ist. Die Schichten 1307, 1309 und 1311 zeigen innere Schichten der Wucherung. Für einen Arzt ist es wünschenswert, die Schichten des Polypen oder Tumors abschälen zu können, um innerhalb der Masse nach krebsartigem oder anderem schädlichem Material zu suchen. Dieser Prozess würde in der Tat eine virtuelle Biopsie der Masse durchführen, ohne wirklich in die Masse zu schneiden. Sobald der Kolon virtuell durch Voxel dargestellt ist, kann der Prozess des Abschälens von Schichten von einem Objekt leicht ähnlich durchgeführt werden wie in Verbindung mit 4 bis 8 beschrieben. Die Masse kann in Scheiben geschnitten werden, so dass ein bestimmter Querschnitt untersucht werden kann. In 13 kann ein flacher Schnitt 1313 angelegt werden, so dass ein bestimmter Abschnitt der Wucherung untersucht werden kann. Zusätzlich können benutzerdefinierte Scheiben 1319 in beliebiger Art in der Wucherung angelegt werden. Die Voxel 1319 können entweder abgeschält oder wie weiter unten erklärt modifiziert werden.
  • An jedem Voxel in der Zone von Interesse kann eine Transferfunktion durchgeführt werden, die das Objekt durchsichtig, halbdurchsichtig oder opak machen kann, indem Koeffizienten verändert werden, die die Durchsichtigkeit für jedes Voxel darstellen. Ein Opazitätskoeffizient wird jedem Voxel auf der Basis seiner Dichte zugewiesen. Eine Kartenfunktion formt dann den Dichtewert in einen Koeffizienten um, der seine Durchsichtigkeit darstellt. Ein abgetastetes Voxel mit hoher Dichte kann entweder eine Wand oder andere dichte Materie außer einfachem freiem Raum anzeigen. Eine Bedienperson oder ein Hilfsprogramm könnte dann den Opazitätskoeffizienten eines Voxels oder einer Gruppe von Voxeln verändern, um sie für das Unterseebootkameramodell transparent oder halbtransparent erscheinen zulassen. Eine Bedienperson kann zum Beispiel einen Tumor innerhalb oder außerhalb einer ganzen Wucherung anzeigen. Oder ein transparentes Voxel kann für den Anzeigeschritt der 9 als nicht vorhanden scheinend gemacht werden. Eine Zusammensetzung eines Abschnitts des Objekts kann anhand eines gewichteten Mittels der Opazitätskoeffizienten der Voxel in diesem Abschnitt geschaffen werden.
  • Wenn der Arzt wünscht, die verschiedenen Schichten eines Polypen anzuzeigen, um nach Krebszonen zu suchen, kann das durchgeführt werden, indem die äußere Schicht des Polypen 1305 eliminiert wird, was eine erste Schicht 1307 ergibt. Zusätzlich kann die erste innere Schicht 1307 zurückgezogen werden, um die zweite innere Schicht 1309 anzuzeigen. Die zweite innere Schicht kann zurückgezogen werden, um die dritte innere Schicht 1311 anzuzeigen usw. Der Arzt könnte den Polypen 1305 auch in Scheiben schneiden und nur die Voxel anzeigen, die in einem gewünschten Abschnitt liegen. Die Scheibenschnittzone kann komplett vom Benutzer festgelegt werden.
  • Das Hinzufügen eines Opazitätskoeffizienten kann auch auf andere Art verwendet werden, um bei der Untersuchung eines virtuellen Systems zu helfen. Wenn Abfallmaterial vorhanden ist und er eine Dichte wie andere Eigenschaften innerhalb eines bestimmten bekannten Bereichs hat, kann der Abfall für die virtuelle Kamera durchsichtig gemacht werden, indem sein Opazitätskoeffizient während der Untersuchung verändert wird. Das erlaubt es dem Patienten, das Einnehmen eines Darmreinigungsmittels vor der Vorgehensweise zu vermeiden und die Untersuchung schneller und einfacher zu machen. Weitere Objekte können je nach der laufenden Anwendung gleichermaßen zum Verschwinden gebracht werden. Zusätzlich können bestimmte Objekte, wie zum Beispiel Polypen, elektronisch durch ein Kontrastmittel gefolgt vom Einsatz einer entsprechenden Transferfunktion verstärkt werden.
  • 14 zeigt ein System zum Durchführen der virtuellen Untersuchung eines Objekts, wie zum Beispiel eines menschlichen Organs, unter Einsatz der in dieser Spezifikation beschriebenen Techniken. Der Patient 1401 legt sich auf eine Plattform 1402, während die Abtastvorrichtung 1405 die Zone abtastet, die das oder die Organe enthält, die zu untersuchen sind. Die Abtastvorrichtung 1405 enthält einen Abtastabschnitt 1403, der die Bilder des Patienten aufnimmt, und einen Elektronikabschnitt 1406. Der Elektronikabschnitt 1406 enthält eine Schnittstelle 1407, eine Zentralverarbeitungseinheit 1409, einen Speicher 1411 zum vorübergehenden Speichern der Abtastdaten und eine zweite Schnittstelle 1413 zum Senden der Daten zu der virtuellen Navigationsplattform. Die Schnittstellen 1407 und 1413 könnten in einem einzigen Schnittstellenbauteil enthalten oder der gleiche Bauteil sein. Die Bauteile im Abschnitt 1406 sind untereinander mit den üblichen Steckern verbunden.
  • Im System 1400 werden die Daten, die der Vorrichtung 1403 von dem Abtastabschnitt geliefert werden, zum Abschnitt 1405 zur Verarbeitung übertragen und im Speicher 1411 gespeichert werden. Die Zentralverarbeitungseinheit 1409 wandelt die abgetasteten 2D-Daten in 3D-Voxeldaten um und speichert die Ergebnisse in einem anderen Teil des Speichers 1411. Alternativ könnten die umgewandelten Daten direkt zu der Schnittstelleneinheit 1413 gesendet werden, um zu dem virtuellen Navigationsterminal 1416 übertragen zu werden. Das Umwandeln der 2D-Daten könnte auch in dem virtuellen Navigationsterminal 1416 nach dem Übertragen von der Schnittstelle 1413 her stattfinden. Bei der bevorzugten Ausführungsform werden die umgewandelten Daten über den Träger 1414 zu dem virtuellen Navigationsterminal 1416 übertragen, so dass eine Bedienperson die virtuelle Untersuchung durchführen kann. Die Daten könnten auch auf andere herkömmliche Arten transportiert werden, wie zum Beispiel Speichern der Daten auf einem Speichermittel und physikalisches Transportieren der Daten zu dem Terminal 1416 oder durch Einsatz von Satellitenübertragungen.
  • Die abgetasteten Daten können auch nicht in ihre 3D-Darstellung umgewandelt werden, bis die Anzeigedarstellungsmaschine sie in 3D-Form braucht. Das spart an Berechnungsschritten und Speicherplatz.
  • Das virtuelle Navigationsterminal 1416 umfasst einen Bildschirm zum Anzeigen des virtuellen Organs oder anderen abgetasteten Bilds, einen Elektronikabschnitt 1415 und eine Schnittstellensteuerung 1419, wie zum Beispiel eine Tastatur, Maus oder einen Spaceball. Der Elektronikabschnitt 1415 umfasst eine Schnittstelle 1421, eine Zentralverarbeitungseinheit 1423, andere Bauteile 1427, die für den Betrieb des Terminals erforderlich sind, und einen Speicher 1425. Die Bauteile im Terminal 1416 sind miteinander mit herkömmlichen Steckern verbunden. Die umgewandelten Voxeldaten werden an der Schnittstelle 1421 empfangen und im Speicher 1425 gespeichert. Die Zentralverarbeitungseinheit 1423 baut dann die 3D-Voxel in eine virtuelle Darstellung zusammen und betätigt das Unterseebootkameramodell wie in 2 und 3 beschrieben, um die virtuelle Untersuchung durchzuführen. Während die Unterseebootkamera durch das virtuelle Organ reist, wird die Sichttechnik wie in 9 beschrieben verwendet, um nur die Zonen zu berechnen, die von der virtuellen Kamera gesehen werden können, und um auf dem Bildschirm 1417 angezeigt zu werden. Ein Grafikbeschleuniger kann ebenfalls beim Produzieren der Darstellungen verwendet werden. Die Bedienperson kann die Schnittstellenvorrichtung 1419 verwenden, um anzuzeigen, welcher Abschnitt des abgetasteten Körpers erforscht werden soll. Die Schnittstellenvorrichtung 1419 kann ferner verwendet werden, um die Unterseebootkamera nach Wunsch und wie in 2 und ihrer begleitenden Beschreibung besprochen zu steuern und zu bewegen. Der Terminalabschnitt 1415 kann die dedizierte Systembox Cube-4 sein, die im Allgemeinen beim Department of Computer Science der State University of New York in Stony Brook erhältlich ist.
  • Die Abtastvorrichtung 1405 und das Terminal 1416 oder deren Teile können zu der gleichen Einheit gehören. Eine Einzelplattform würde verwendet, um die Abtastbilddaten zu empfangen, sie bei Bedarf mit 3D-Voxel zu verbinden und die geführte Navigation durchzuführen.
  • Ein wichtiges Merkmal des Systems 1400 besteht darin, dass das virtuelle Organ zu einem späteren Zeitpunkt ohne Anwesenheit des Patienten untersucht werden kann. Ferner könnte die virtuelle Untersuchung stattfinden, während der Patient abgetastet wird. Die Abtastdaten können auch zu einer Vielzahl von Terminals gesendet werden, was es erlauben würde, dass mehr als ein Arzt das Innere des Organs gleichzeitig anzeigt. Ein Arzt in New York könnte daher den gleichen Abschnitt des Organs des Patienten gleichzeitig wie ein anderer Arzt in Kalifornien ansehen, während sie den Fall diskutieren. Alternativ können die Daten zu verschiedenen Zeiten angezeigt werden. Zwei oder mehrere Ärzte könnten in einem schwierigen Fall ihre eigene Untersuchung an den gleichen Daten durchführen. Mehrere virtuelle Navigationsterminals könnten zum Anzeigen der gleichen Abtastdaten verwendet werden. Durch Darstellen des Organs als ein virtuelles Organ mit einem einzelnen Satz von Daten erzielt man eine Vielzahl von Vorteilen in Bereichen wie zum Beispiel Präzision, Kosten und eventuell Datenmanipulationen.
  • Die oben stehende Beschreibung stellt nur die Konzepte der Erfindung dar. Natürlich kann der Fachmann zahlreiche Systeme, Geräte und Verfahren erdenken, die zwar hier nicht explizit gezeigt oder beschrieben sind, jedoch Konzepte der Erfindung darstellen und daher im Geltungsbereich der Erfindung, wie er durch seine Ansprüche definiert ist, liegen.
  • Zum Beispiel könnten die hier beschriebenen Verfahren und Systeme zum virtuellen Untersuchen eines Tiers, Fischs oder unbelebten Objekts angewandt werden. Neben den erwähnten Verwendungszwecken im medizinischen Bereich könnten Anwendungen der Technik verwendet werden, um den Inhalt versiegelter Objekte, die nicht geöffnet werden können, zu erfassen. Die Technik könnte auch innerhalb einer architektonischen Struktur, wie zum Beispiel in einem Gebäude oder einer Höhle verwendet werden, um es der Bedienperson zu erlauben, durch die Struktur zu navigieren.

Claims (38)

  1. Verfahren zur Durchführung einer dreidimensionalen virtuellen Untersuchung mindestens eines Objekts, wobei das Verfahren folgende Schritte umfasst: Abtasten (103) des Objekts mit einer Abtastvorrichtung und Produzieren zweidimensionaler Abtastdaten, die für das Objekt repräsentativ sind; Umwandeln (104) der zweidimensionalen Abtastdaten in einen Satz dreidimensionaler Volumenelemente, wodurch eine dreidimensionale Volumendarstellung des Objekts erzeugt wird; Berechnen (105) eines definierten Pfads innerhalb der dreidimensionalen Volumendarstellung; Verwendung einer virtuellen Kamera (201, 203, 205), um eine geführte Navigation (107) der dreidimensionalen Darstellung entlang dem Pfad durchzuführen; Anzeigen (109) in Echtzeit der Volumenelemente auf einer Anzeigevorrichtung, wobei das Verfahren dadurch gekennzeichnet ist, dass eine benutzergesteuerte Navigationsphase zum Navigieren vom Pfad weg bereitgestellt wird, um das manuelle Einstellen der geführten Navigation zu ermöglichen, wobei die benutzergesteuerte Phase Werte eines Potentialfelds (215) nutzt, um die Bewegung der Kamera (201, 203, 205) gemäß folgendem Schritt zu steuern: Berechnen eines Potentialfeldwerts für jedes der Volumenelemente, so dass die Potential werte während der virtuellen Untersuchung eine virtuelle Kraft auf die Kamera (201, 203, 205) definieren, wobei die Kamera daran gehindert wird, mit der Objektbegrenzung zu kollidieren, indem die höchsten Potentialfeldwerte für die Begrenzung des Objekts und niedrigere Potentialfeldwerte entlang dem definierten Pfad berechnet werden.
  2. Verfahren nach Anspruch 1, wobei die benutzergesteuerte Navigationsphase so konfiguriert ist, dass ein Benutzer sowohl die Position als auch den Betrachtungswinkel der virtuellen Kamera zu einem bestimmten Teil von Interesse in der dreidimensionalen Volumendarstellung des Objekts einstellen kann.
  3. Verfahren nach Anspruch 1, wobei sich der definierte Pfad ungefähr äquidistant von den Außenwänden des Objekts befindet.
  4. Verfahren nach Anspruch 1, wobei es sich bei dem Objekt um ein Organ handelt.
  5. Verfahren nach Anspruch 4, wobei es sich bei dem Organ um einen Dickdarm handelt.
  6. Verfahren nach Anspruch 4, wobei es sich bei dem Organ um eine Lunge handelt.
  7. Verfahren nach Anspruch 4, wobei es sich bei dem Organ um mindestens ein Blutgefäß handelt.
  8. Verfahren nach Anspruch 1, wobei der Anzeigeschritt das Identifizieren jedes der entlang dem Pfad sichtbaren Volumenelements einschließt.
  9. Verfahren nach Anspruch 8, wobei das Identifizieren unter Verwendung einer Betrachtungsdaten enthaltenden, hierarchischen Datenstruktur durchgeführt wird.
  10. Verfahren nach Anspruch 1, wobei die Position der virtuellen Kamera in sechs Freiheitsgraden geändert werden kann.
  11. Verfahren nach Anspruch 1, wobei der Pfad vorgewählt ist und weiter Änderungen in der Ausrichtung der Kamera basierend auf Eingaben von einer Bedienperson berücksichtigt.
  12. Verfahren nach Anspruch 11, wobei die virtuelle Untersuchung nur die Volumenelemente in einem Sichtkegel der virtuellen Kamera anzeigt.
  13. Verfahren nach Anspruch 1, wobei der Navigationsschritt das Wählen einer Mittellinie durch Entfernen von den Objektwänden m nächsten liegenden Volumenelementen einschließt, bis nur ein Pfad zurückbleibt.
  14. Verfahren nach Anspruch 1, wobei die virtuelle Untersuchung weiter einen Schritt des Berechnens von Opazitätskoeffizienten für jedes der Volumenelementen einschließt.
  15. Verfahren nach Anspruch 14, wobei die Opazitätskoeffizienten ausgewählter Volumenelementen als Reaktion auf eine Eingabe von einer Bedienperson verändert werden.
  16. Verfahren nach Anspruch 15, wobei die Volumenelemente mit niedrigen Opazitätskoeffizienten während des Anzeigeschritts nicht angezeigt werden.
  17. Verfahren nach Anspruch 16, wobei der Opazitätskoeffizienten mindestens eines Volumenelements verändert wird, so dass das veränderte Volumenelement im Anzeigeschritt nicht angezeigt wird.
  18. Verfahren nach Anspruch 15, wobei die Volumenelemente als zu einem Grad durchsichtig angezeigt werden, der auf die Opazitätskoeffizienten der Volumenelemente reagiert.
  19. Verfahren nach Anspruch 1, wobei die zu mindestens einem Volumenelement gehörenden Daten verändert werden, so dass das veränderte Volumenelement im Anzeigeschritt nicht angezeigt wird.
  20. Verfahren nach Anspruch 1, das weiter den Schritt der Vorbereitung des Objekts für das Abtasten umfasst.
  21. Verfahren nach Anspruch 20, wobei der Schritt des Produzierens einer diskreten Datendarstellung des Objekts das Erzeugen eines Voxelbilds von einem geometrischen Modell einschließt.
  22. Verfahren nach Anspruch 1, wobei der Schritt des Produzierens einer diskreten Datendarstellung des Objekts das Erzeugen eines Voxelbilds von einem geometrischen Modell einschließt.
  23. Verfahren nach Anspruch 1, wobei das Objekt ein Organ umfasst und die Abtastvorrichtung eine radiologische Abtastvorrichtung umfasst.
  24. Verfahren nach Anspruch 23, wobei der Anzeigeschritt das Identifizieren jedes der entlang dem Pfad sichtbaren Volumenelemente einschließt.
  25. Verfahren nach Anspruch 24, wobei das Identifizieren unter Verwendung einer Betrachtungsdaten enthaltenden, hierarchischen Datenstruktur durchgeführt wird.
  26. Verfahren nach Anspruch 23, das weiter den Schritt der Vorbereitung des Organs für das Abtasten umfaßt, wobei der Vorbereitungsschritt die Reinigung des Organs von beweglichen Objekten einschließt.
  27. Verfahren nach Anspruch 26, wobei der Vorbereitungsschritt das Beschichten des Organs mit einer Substanz einschließt, um den Kontrast des Organs zum Abtasten zu verbessern.
  28. System zur Durchführung einer virtuellen dreidimensionalen Untersuchung eines Objekts, das folgendes umfasst: eine Abtastvorrichtung (103) und Produzieren zweidimensionaler Abtastdaten, die für das Objekt repräsentativ sind; eine Vorrichtung (104) zum Umwandeln der zweidimensionalen Abtastdaten in einen Satz dreidimensionaler Volumenelemente, wodurch eine dreidimensionale Volumendarstellung des Objekts erzeugt wird; eine Vorrichtung (105) zum Berechnen eines definierten Pfads innerhalb der dreidimensionalen Volumendarstellung; eine virtuelle Kameravorrichtung (201, 203, 205) zum Durchführen einer geführten Navigation der dreidimensionalen Darstellung entlang dem Pfad; und eine Vorrichtung (109) zum Anzeigen in Echtzeit der Volumenelemente auf einer Anzeigevorrichtung, wobei das System dadurch gekennzeichnet ist, dass: die Vorrichtung für die Durchführung der geführten Navigation so konfiguriert ist, dass eine benutzergesteuerte Navigationsphase zum Navigieren vom Pfad weg bereitgestellt wird, wodurch das manuelle Einstellen der geführten Navigation ermöglicht wird, wobei die benutzergesteuerte Phase Werte eines Potentialfelds (215) nutzt, um die Bewegung der Kamera (201, 203, 205) gemäß folgendem Schritt zu steuern: Berechnen eines Potentialfeldwerts für jedes der Volumenelemente, so dass die Potentialwerte während der virtuellen Untersuchung eine virtuelle Kraft auf die Kamera definieren, wobei die Kamera daran gehindert wird, mit der Objektbegrenzung zu kollidieren, indem die höchsten Potentialfeldwerte für die Begrenzung des Objekts und niedrigere Potentialfeldwerte entlang dem definierten Pfad berechnet werden.
  29. System nach Anspruch 28, wobei die benutzergesteuerte Navigationsphase so konfiguriert ist, dass ein Benutzer sowohl die Position als auch den Betrachtungswinkel der virtuellen Kamera zu einem bestimmten Teil von Interesse in der dreidimensionalen Volumendarstellung des Objekts einstellen kann.
  30. System nach Anspruch 28, wobei die dreidimensionalen Datenelemente Opazitätskoeffizienten einschließen und die Anzeigevorrichtung auf die Opazitätskoeffizienten reagiert.
  31. System nach Anspruch 30, wobei die Durchführungsvorrichtung fähig ist, die Opazitätskoeffizienten eines ausgewählten Volumendatenelements zu verändern.
  32. System nach Anspruch 31, wobei die Anzeigevorrichtung fähig ist, als Reaktion auf die Opazitätskoeffizienten ein Volumenelement durchsichtig anzuzeigen.
  33. System nach Anspruch 28, wobei die Umwandlungsvorrichtung und die Durchführungsvorrichtung in einer einzigen Einheit enthalten sind.
  34. System nach Anspruch 28, wobei die Vorrichtung zum Produzieren einer Darstellung des Objekts Abtastdaten produziert und die Abtastdaten getrennt von der Umwandlungsvorrichtung gespeichert werden.
  35. System nach Anspruch 28, wobei die Vorrichtung zum Produzieren einer Darstellung des Objekts Abtastdaten produziert und die Abtastdaten getrennt von der Auswahlvorrichtung gespeichert werden.
  36. System nach Anspruch 28, das weiter mindestens eine zusätzliche Auswahlvorrichtung, Durchführungsvorrichtung und Anzeigevorrichtung einschließt, um zusätzliche virtuelle Untersuchungen des Objekts durchzuführen.
  37. System nach Anspruch 28, wobei das Objekt ein Organ umfasst.
  38. System nach Anspruch 28, wobei die Anzeigevorrichtung fähig ist, ein Volumenelement durchsichtig anzuzeigen.
DE69731775T 1996-09-16 1997-09-10 Verfahren und system zur durchführung einer virtuellen untersuchung Expired - Lifetime DE69731775T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/714,697 US5971767A (en) 1996-09-16 1996-09-16 System and method for performing a three-dimensional virtual examination
US714697 1996-09-16
PCT/US1997/016109 WO1998011524A1 (en) 1996-09-16 1997-09-10 System and method for performing a three-dimensional virtual examination

Publications (2)

Publication Number Publication Date
DE69731775D1 DE69731775D1 (de) 2004-12-30
DE69731775T2 true DE69731775T2 (de) 2005-12-22

Family

ID=24871098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69731775T Expired - Lifetime DE69731775T2 (de) 1996-09-16 1997-09-10 Verfahren und system zur durchführung einer virtuellen untersuchung

Country Status (12)

Country Link
US (1) US5971767A (de)
EP (3) EP1492071A1 (de)
JP (1) JP2001502197A (de)
KR (1) KR20000036177A (de)
CN (1) CN1265331C (de)
AT (1) ATE283528T1 (de)
AU (1) AU734557B2 (de)
CA (1) CA2265808C (de)
DE (1) DE69731775T2 (de)
ES (1) ES2234029T3 (de)
IL (1) IL128884A (de)
WO (1) WO1998011524A1 (de)

Families Citing this family (176)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US8682045B2 (en) * 1997-02-25 2014-03-25 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
JP4063933B2 (ja) * 1997-12-01 2008-03-19 オリンパス株式会社 手術シミュレーション装置
US6928314B1 (en) 1998-01-23 2005-08-09 Mayo Foundation For Medical Education And Research System for two-dimensional and three-dimensional imaging of tubular structures in the human body
JP2002504385A (ja) * 1998-02-23 2002-02-12 アルゴテック システムズ リミテッド 自動経路立案方法
DE19835215C2 (de) * 1998-08-05 2000-07-27 Mannesmann Vdo Ag Kombinationsinstrument
US6771262B2 (en) * 1998-11-25 2004-08-03 Siemens Corporate Research, Inc. System and method for volume rendering-based segmentation
EP2302596A1 (de) 1998-11-25 2011-03-30 Wake Forest University Virtuelle Endoskopie mit verbesserter Bildsegmentierung und Läsionsdetektion
US6314125B1 (en) * 1998-12-09 2001-11-06 Qualcomm Incorporated Method and apparatus for the construction and transmission of binary quasi orthogonal vectors
JP2002534191A (ja) * 1999-01-04 2002-10-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 管状構造を示す画像を処理し、その構造を通る経路を構成する方法、システム及び装置
US6694057B1 (en) * 1999-01-27 2004-02-17 Washington University Method and apparatus for processing images with curves
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US7477768B2 (en) * 1999-06-29 2009-01-13 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US7815590B2 (en) 1999-08-05 2010-10-19 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US6621918B1 (en) 1999-11-05 2003-09-16 H Innovation, Inc. Teleradiology systems for rendering and visualizing remotely-located volume data sets
US6488507B1 (en) * 1999-11-29 2002-12-03 Ethicon, Inc. Portable surgical trainer
EP1264281A4 (de) * 2000-02-25 2007-07-11 Univ New York State Res Found Anordnung und verfahren zur bearbeitung und wiedergabe eines volumen
US6477401B1 (en) 2000-03-10 2002-11-05 Mayo Foundation For Medical Education And Research Colonography of an unprepared colon
US8517923B2 (en) * 2000-04-03 2013-08-27 Intuitive Surgical Operations, Inc. Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities
US6468203B2 (en) 2000-04-03 2002-10-22 Neoguide Systems, Inc. Steerable endoscope and improved method of insertion
US6610007B2 (en) 2000-04-03 2003-08-26 Neoguide Systems, Inc. Steerable segmented endoscope and method of insertion
US8888688B2 (en) 2000-04-03 2014-11-18 Intuitive Surgical Operations, Inc. Connector device for a controllable instrument
US6858005B2 (en) 2000-04-03 2005-02-22 Neo Guide Systems, Inc. Tendon-driven endoscope and methods of insertion
US6947784B2 (en) * 2000-04-07 2005-09-20 The General Hospital Corporation System for digital bowel subtraction and polyp detection and related techniques
WO2001093745A2 (en) * 2000-06-06 2001-12-13 The Research Foundation Of State University Of New York Computer aided visualization, fusion and treatment planning
US7574024B2 (en) 2000-10-02 2009-08-11 The Research Foundation Of State University Of New York Centerline and tree branch skeleton determination for virtual objects
WO2002041767A1 (en) * 2000-11-25 2002-05-30 Infinitt Co., Ltd. System and method for displaying a virtual endoscopy and computer readable medium storing thereof
KR100426396B1 (ko) * 2000-11-28 2004-04-08 김종찬 3차원 영상처리방법을 이용한 가상 내시경 방법
IL140136A (en) * 2000-12-06 2010-06-16 Intumed Ltd Apparatus for self-guided intubation
US7630750B2 (en) * 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
DE10119454A1 (de) * 2001-04-20 2002-10-31 Siemens Ag Verfahren zur navigationsgestützten bildlichen Darstellung positionsabhängiger Messinformationen von längsförmigen Körperorganen
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US7043064B2 (en) * 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
JP2004529715A (ja) 2001-05-15 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 多次元データ・セットの分析
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
US7130457B2 (en) * 2001-07-17 2006-10-31 Accuimage Diagnostics Corp. Systems and graphical user interface for analyzing body images
US6901277B2 (en) 2001-07-17 2005-05-31 Accuimage Diagnostics Corp. Methods for generating a lung report
US20030028401A1 (en) * 2001-07-17 2003-02-06 Leon Kaufman Customizable lung report generator
US7039723B2 (en) 2001-08-31 2006-05-02 Hinnovation, Inc. On-line image processing and communication system
US7324104B1 (en) * 2001-09-14 2008-01-29 The Research Foundation Of State University Of New York Method of centerline generation in virtual objects
US7596256B1 (en) 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
FR2831698A1 (fr) * 2001-10-30 2003-05-02 Koninkl Philips Electronics Nv Station d'imagerie medicale a fonction d'extraction de trajectoire au sein d'un objet ramifie
EP1456805A1 (de) * 2001-11-21 2004-09-15 Viatronix Incorporated Registration von scan-daten, die von verschiedenen patientenpositionen erfasst wurden
US6711231B2 (en) * 2001-12-10 2004-03-23 Ge Medical Systems Global Technology Company, Llc Methods and apparatus to assist and facilitate vessel analysis
US20030152897A1 (en) * 2001-12-20 2003-08-14 Bernhard Geiger Automatic navigation for virtual endoscopy
US7570802B2 (en) * 2001-12-27 2009-08-04 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Automated centerline detection algorithm for colon-like 3D surfaces
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
IL162696A0 (en) 2002-01-09 2005-11-20 Neoguide Systems Inc Apparatus and method for endoscopiccolectomy
US7224827B2 (en) * 2002-09-27 2007-05-29 The Board Of Trustees Of The Leland Stanford Junior University Method for matching and registering medical image data
US7272251B2 (en) * 2002-09-30 2007-09-18 The Board Of Trustees Of The Leland Stanford Junior University Method for detecting and classifying a structure of interest in medical images
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US7346209B2 (en) * 2002-09-30 2008-03-18 The Board Of Trustees Of The Leland Stanford Junior University Three-dimensional pattern recognition method to detect shapes in medical images
JP4346297B2 (ja) * 2002-10-22 2009-10-21 株式会社東芝 X線コンピュータ断層撮影装置、画像処理装置及び画像処理方法
US8882657B2 (en) 2003-03-07 2014-11-11 Intuitive Surgical Operations, Inc. Instrument having radio frequency identification systems and methods for use
EP1610671B1 (de) * 2003-03-18 2013-08-21 The General Hospital Corporation Vorrichtungen und verfahren mit polarisiertem licht
JP3810381B2 (ja) * 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
CN101264001B (zh) * 2003-04-25 2010-11-10 奥林巴斯株式会社 图像显示装置
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
MXPA05013237A (es) * 2003-06-07 2006-03-09 Samsung Electronics Co Ltd Aparato y metodo para la organizacion e interpretacion de datos multimedia en un medio de grabacion.
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
US7850456B2 (en) * 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US20050015004A1 (en) * 2003-07-17 2005-01-20 Hertel Sarah Rose Systems and methods for combining an anatomic structure and metabolic activity for an object
US8002740B2 (en) 2003-07-18 2011-08-23 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US8308682B2 (en) 2003-07-18 2012-11-13 Broncus Medical Inc. Devices for maintaining patency of surgically created channels in tissue
US20050074150A1 (en) * 2003-10-03 2005-04-07 Andrew Bruss Systems and methods for emulating an angiogram using three-dimensional image data
WO2005043465A2 (en) * 2003-11-03 2005-05-12 Bracco Imaging S.P.A. Stereo display of tube-like structures and improved techniques therefor ('stereo display')
US20050110791A1 (en) * 2003-11-26 2005-05-26 Prabhu Krishnamoorthy Systems and methods for segmenting and displaying tubular vessels in volumetric imaging data
US20050143654A1 (en) * 2003-11-29 2005-06-30 Karel Zuiderveld Systems and methods for segmented volume rendering using a programmable graphics pipeline
US7729739B2 (en) * 2003-12-03 2010-06-01 The Board Of Trustees Of The Leland Stanford Junior University Heat diffusion based detection of structures of interest in medical images
US7289106B2 (en) 2004-04-01 2007-10-30 Immersion Medical, Inc. Methods and apparatus for palpation simulation
US7609910B2 (en) * 2004-04-09 2009-10-27 Siemens Medical Solutions Usa, Inc. System and method for creating a panoramic view of a volumetric image
US7633502B2 (en) * 2004-05-19 2009-12-15 Boston Scientific Scimed, Inc. System and method for graphically representing anatomical orifices and vessels
US8409167B2 (en) 2004-07-19 2013-04-02 Broncus Medical Inc Devices for delivering substances through an extra-anatomic opening created in an airway
US7613492B2 (en) * 2004-07-26 2009-11-03 General Electric Company Apparatus for aligning an object being scanned in multi-modality systems
US7835892B2 (en) * 2004-09-28 2010-11-16 Immersion Medical, Inc. Ultrasound simulation apparatus and method
EP1643453B1 (de) * 2004-09-30 2017-04-05 Toshiba Medical Systems Corporation Bildverarbeitungsvorrichtung und - verfahren zur gekrümmten, multiplanaren Schnittbildanalyse
WO2006042077A2 (en) * 2004-10-09 2006-04-20 Viatronix Incorporated Sampling medical images for virtual histology
US20060079746A1 (en) * 2004-10-11 2006-04-13 Perret Florence M Apparatus and method for analysis of tissue classes along tubular structures
US8031921B2 (en) * 2005-02-14 2011-10-04 Mayo Foundation For Medical Education And Research Electronic stool subtraction in CT colonography
US20080160489A1 (en) * 2005-02-23 2008-07-03 Koninklijke Philips Electronics, N.V. Method For the Prediction of the Course of a Catheter
US7893938B2 (en) * 2005-05-04 2011-02-22 Siemens Medical Solutions Usa, Inc. Rendering anatomical structures with their nearby surrounding area
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7586501B2 (en) * 2005-05-24 2009-09-08 Siemens Medical Solutions Usa, Inc. Simultaneous projection of multi-branched vessels and their context on a single image
US20100067753A1 (en) * 2005-06-21 2010-03-18 Koninklijke Philips Electronics, N.V. Method and device for imaging a blood vessel
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
US20070046661A1 (en) * 2005-08-31 2007-03-01 Siemens Medical Solutions Usa, Inc. Three or four-dimensional medical imaging navigation methods and systems
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US7711168B2 (en) * 2005-10-19 2010-05-04 Siemens Medical Solutions Usa, Inc. Method for tracking blood vessels
US8548566B2 (en) * 2005-10-21 2013-10-01 Koninklijke Philips N.V. Rendering method and apparatus
CN101351236B (zh) 2005-11-15 2013-05-29 约翰霍普金斯大学 一种用于生物感应和外科手术的活性套管
JP4450786B2 (ja) * 2005-11-15 2010-04-14 ザイオソフト株式会社 画像処理方法および画像処理プログラム
US20070109299A1 (en) * 2005-11-15 2007-05-17 Vital Images, Inc. Surface-based characteristic path generation
EP1956962B1 (de) 2005-11-22 2020-09-16 Intuitive Surgical Operations, Inc. Systeme zur bestimmung der form eines biegbaren instruments
JP2009517608A (ja) 2005-11-23 2009-04-30 ネオガイド システムズ, インコーポレイテッド 操舵可能な装置用の非金属マルチストランド制御ケーブル
WO2007064980A2 (en) * 2005-11-30 2007-06-07 The Research Foundation Of State University Of New York Electronic colon cleansing method for virtual colonoscopy
US20100260390A1 (en) * 2005-11-30 2010-10-14 The Research Foundation Of State University Of New York System and method for reduction of false positives during computer aided polyp detection
US8290225B2 (en) * 2005-12-14 2012-10-16 Koninklijke Philips Electronics N.V. Method and device for relating medical 3D data image viewing planes to each other
DE102006003179B4 (de) * 2006-01-23 2009-02-26 Siemens Ag Verfahren und Vorrichtung zur virtuellen Endoskopie eines Hohlkanals
JP2007260144A (ja) * 2006-03-28 2007-10-11 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
US7893940B2 (en) 2006-03-31 2011-02-22 Calgary Scientific Inc. Super resolution contextual close-up visualization of volumetric data
JP4738236B2 (ja) * 2006-04-05 2011-08-03 株式会社日立メディコ 画像表示装置
US8568299B2 (en) 2006-05-19 2013-10-29 Intuitive Surgical Operations, Inc. Methods and apparatus for displaying three-dimensional orientation of a steerable distal tip of an endoscope
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US7517320B2 (en) * 2006-06-30 2009-04-14 Broncus Technologies, Inc. Airway bypass site selection and treatment planning
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US20090156895A1 (en) * 2007-01-31 2009-06-18 The Penn State Research Foundation Precise endoscopic planning and visualization
US8023710B2 (en) * 2007-02-12 2011-09-20 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Virtual colonoscopy via wavelets
US8175348B2 (en) * 2007-06-05 2012-05-08 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Segmenting colon wall via level set techniques
US9220398B2 (en) 2007-10-11 2015-12-29 Intuitive Surgical Operations, Inc. System for managing Bowden cables in articulating instruments
CN101842814B (zh) * 2007-11-02 2013-02-13 皇家飞利浦电子股份有限公司 自动影像运行路径计算
WO2009057031A1 (en) * 2007-11-02 2009-05-07 Koninklijke Philips Electronics N.V. Enhanced coronary viewing
US8103070B2 (en) * 2007-11-22 2012-01-24 Toshiba Medical Visualization Systems Europe, Limited Volume rendering apparatus and method
US8182418B2 (en) 2008-02-25 2012-05-22 Intuitive Surgical Operations, Inc. Systems and methods for articulating an elongate body
US9171484B2 (en) * 2008-03-06 2015-10-27 Immersion Corporation Determining location and orientation of an object positioned on a surface
US8243334B2 (en) 2008-06-06 2012-08-14 Virginia Venture Industries, Llc Methods and apparatuses for printing three dimensional images
US8200466B2 (en) 2008-07-21 2012-06-12 The Board Of Trustees Of The Leland Stanford Junior University Method for tuning patient-specific cardiovascular simulations
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
EP2350999A4 (de) * 2008-09-25 2017-04-05 CAE Healthcare Canada Inc. Simulation der medizinischen bildgebung
WO2010048475A1 (en) * 2008-10-23 2010-04-29 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
US20100123715A1 (en) * 2008-11-14 2010-05-20 General Electric Company Method and system for navigating volumetric images
US9405886B2 (en) 2009-03-17 2016-08-02 The Board Of Trustees Of The Leland Stanford Junior University Method for determining cardiovascular information
WO2011021254A1 (ja) * 2009-08-21 2011-02-24 株式会社 東芝 医用画像処理装置及びその方法
EP2400465A3 (de) * 2009-09-10 2012-02-15 Infinitt Healthcare Co., Ltd. Virtuelle Endoskopievorrichtung, Antriebsverfahren dafür sowie medizinisches Untersuchungsgerät
US8442806B2 (en) * 2010-03-03 2013-05-14 Immersion Medical, Inc. Systems and methods for simulations utilizing a virtual coupling
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5486432B2 (ja) * 2010-07-28 2014-05-07 富士フイルム株式会社 画像処理装置、その作動方法およびプログラム
US8315812B2 (en) 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US8157742B2 (en) 2010-08-12 2012-04-17 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
BR112013028853A2 (pt) * 2011-05-10 2017-01-31 Koninklijke Philips Nv método e sistema para planejamento de caminho em tempo real, guiado pelo usuário em um procedimento endoscópico, orientado por imagem; e produto de programa de computador
US8709034B2 (en) 2011-05-13 2014-04-29 Broncus Medical Inc. Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
JP2014521381A (ja) 2011-05-13 2014-08-28 ブロンカス テクノロジーズ, インコーポレイテッド 組織の切除のための方法およびデバイス
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
CN106913366B (zh) 2011-06-27 2021-02-26 内布拉斯加大学评议会 工具承载的追踪系统和计算机辅助外科方法
KR101305678B1 (ko) * 2011-07-27 2013-09-09 가톨릭대학교 산학협력단 가상 대장내시경에서 전자적 장세척 방법 및 장치
WO2013078235A1 (en) 2011-11-23 2013-05-30 Broncus Medical Inc Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
US20150230730A1 (en) * 2012-10-16 2015-08-20 Koninklijke Philips N.V. Pulmonary plethysmography based on optical shape sensing
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9459770B2 (en) 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
US9639666B2 (en) 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
WO2014168350A1 (ko) 2013-04-10 2014-10-16 재단법인 아산사회복지재단 폐동맥과 폐정맥을 구분하는 방법 및 이를 이용한 혈관의 정량화 방법
JP6026357B2 (ja) * 2013-06-13 2016-11-16 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
CA2953146A1 (en) 2014-07-02 2016-01-07 Covidien Lp System and method for segmentation of lung
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US9754367B2 (en) 2014-07-02 2017-09-05 Covidien Lp Trachea marking
WO2016004310A2 (en) 2014-07-02 2016-01-07 Covidien Lp Real-time automatic registration feedback
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
EP3164073B1 (de) 2014-07-02 2020-07-01 Covidien LP System und verfahren zur erkennung der luftröhre
US10643371B2 (en) 2014-08-11 2020-05-05 Covidien Lp Treatment procedure planning system and method
US10497284B2 (en) * 2015-03-20 2019-12-03 The Governing Council Of The University Of Toronto Systems and methods of ultrasound simulation
US10986990B2 (en) 2015-09-24 2021-04-27 Covidien Lp Marker placement
US10709352B2 (en) 2015-10-27 2020-07-14 Covidien Lp Method of using lung airway carina locations to improve ENB registration
CN105686803B (zh) * 2016-01-08 2019-06-14 上海伴诚医疗科技有限公司 扫描数据处理方法及装置
WO2017174351A1 (en) 2016-04-04 2017-10-12 Koninklijke Philips N.V. Imaging system and method
CN114777683A (zh) 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
CN107993294A (zh) * 2017-12-14 2018-05-04 山东数字人科技股份有限公司 一种局部解剖数据处理方法、装置及系统
US11224392B2 (en) 2018-02-01 2022-01-18 Covidien Lp Mapping disease spread
CN108711313A (zh) * 2018-05-22 2018-10-26 哈尔滨医科大学 胃镜检查术自助学习方法
US11628020B2 (en) 2019-06-19 2023-04-18 Virtuoso Surgical, Inc. Insertable robot for minimally invasive surgery
CN113696484B (zh) * 2021-08-27 2022-05-24 吉林大学 应用3d打印技术制造人体透明椎管管腔的方法
CN116614617B (zh) * 2023-05-29 2024-03-19 广东横琴全域空间人工智能有限公司 多视角三维建模方法、系统、自动化设备以及拍摄终端

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038302A (en) * 1988-07-26 1991-08-06 The Research Foundation Of State University Of New York Method of converting continuous three-dimensional geometrical representations into discrete three-dimensional voxel-based representations within a three-dimensional voxel-based system
US4985856A (en) * 1988-11-10 1991-01-15 The Research Foundation Of State University Of New York Method and apparatus for storing, accessing, and processing voxel-based data
DE4117117A1 (de) * 1991-05-25 1992-11-26 Hoehne Karl Heinz Prof Dr Dreidimensionale darstellung von raeumlichen strukturen
US5361385A (en) * 1992-08-26 1994-11-01 Reuven Bakalash Parallel computing system for volumetric modeling, data processing and visualization
JP3483929B2 (ja) * 1994-04-05 2004-01-06 株式会社日立製作所 3次元画像生成方法
US5458111A (en) * 1994-09-06 1995-10-17 William C. Bond Computed tomographic colonoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system

Also Published As

Publication number Publication date
IL128884A0 (en) 2000-01-31
AU4267897A (en) 1998-04-02
CN1230271A (zh) 1999-09-29
EP1482470A2 (de) 2004-12-01
EP1012812A4 (de) 2002-06-12
KR20000036177A (ko) 2000-06-26
ATE283528T1 (de) 2004-12-15
CN1265331C (zh) 2006-07-19
ES2234029T3 (es) 2005-06-16
WO1998011524A1 (en) 1998-03-19
CA2265808A1 (en) 1998-03-19
AU734557B2 (en) 2001-06-14
IL128884A (en) 2002-03-10
EP1012812B1 (de) 2004-11-24
US5971767A (en) 1999-10-26
EP1482470A3 (de) 2004-12-08
JP2001502197A (ja) 2001-02-20
EP1012812A1 (de) 2000-06-28
CA2265808C (en) 2006-06-06
DE69731775D1 (de) 2004-12-30
EP1492071A1 (de) 2004-12-29

Similar Documents

Publication Publication Date Title
DE69731775T2 (de) Verfahren und system zur durchführung einer virtuellen untersuchung
DE69836255T2 (de) Bildanzeige
DE19543410B4 (de) Verfahren zum Simulieren von Endoskopie und virtuelles Untersuchungssystem zum Betrachten innerer Hohlräume
JP4435430B2 (ja) 3次元仮想細分化および検査を実施するシステムおよび方法
KR100701234B1 (ko) 3차원 가상 검사, 네비게이션 및 가시화 시스템 및 방법
Lorensen et al. The exploration of cross-sectional data with a virtual endoscope
AU2009201075B2 (en) System and method for analyzing and displaying computed tomography data
JP4421016B2 (ja) 医用画像処理装置
DE102005046385B4 (de) Verfahren und Vorrichtung zur Nachbearbeitung eines 3D-Bilddatensatzes, insbesondere für die virtuelle Kolonographie
DE602005003015T2 (de) Verfahren und Vorrichtung für Rekonstruktion der zweidimensionalen Schnittbilder
DE102012207629B4 (de) CT-Bildrekonstruktion im erweiterten Messfeld
DE102004022902B4 (de) Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
DE19955690A1 (de) System und Verfahren zur auf einer Volumendarstellung basierenden Segmentation
DE19962666A1 (de) Verfahren zum Rekonstruieren von 3D-Bilddaten bezüglich eines interessierenden Volumens eines Untersuchungsobjekts
DE102006046735A1 (de) Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz
DE112004000352T5 (de) System und Verfahren zum Durchführen einer virtuellen Endoskopie
EP1654710B1 (de) Darstellung von 3D-Bilddaten
DE102005009271A1 (de) System und Verfahren zur Durchführung einer virtuellen Endoskopie in einer Verzweigungsstruktur
DE10254907B4 (de) Verfahren zur Oberflächenkonturierung eines dreidimensionalen Abbildes
DE102014009733A1 (de) Animation zum Übertragen von räumlichen Beziehungen bei einer multiplanaren Rekonstruktion
EP1914685A2 (de) Bildliche Darstellung dreidimensionaler Datensätze
CN101299965A (zh) 用于在介入操作期间进行轮廓绘制和图像显示的图像处理系统和方法
JPH08280710A (ja) 実時間医用装置及び患者に医用手順を遂行するために操作者を支援する方法
Toriwaki et al. Visualization of the human body toward the navigation diagnosis with the virtualized human body
DE202008003517U1 (de) Vorrichtung zur Volumendarstellung medizinischer Datensätze und Datenträger

Legal Events

Date Code Title Description
8363 Opposition against the patent