DE102008017111B4 - System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt - Google Patents

System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt Download PDF

Info

Publication number
DE102008017111B4
DE102008017111B4 DE102008017111.5A DE102008017111A DE102008017111B4 DE 102008017111 B4 DE102008017111 B4 DE 102008017111B4 DE 102008017111 A DE102008017111 A DE 102008017111A DE 102008017111 B4 DE102008017111 B4 DE 102008017111B4
Authority
DE
Germany
Prior art keywords
image
coordinate system
navigation
spatial relationship
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102008017111.5A
Other languages
English (en)
Other versions
DE102008017111A1 (de
Inventor
Jeremie Pescatore
Michel F. Grimaud
Gerald L. Beauregard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102008017111A1 publication Critical patent/DE102008017111A1/de
Application granted granted Critical
Publication of DE102008017111B4 publication Critical patent/DE102008017111B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Abstract

System (100) zur Navigation eines bildgeführten Objektes (105), das sich in einem interessierenden Bereich eines abgebildeten Subjektes (110) bewegt, in Bezug auf wenigstens ein akquiriertes Bild (425) des abgebildeten Subjektes (110), das durch ein Bildgebungssystem (115) erzeugt wird, wobei eine räumliche Beziehung des wenigstens einen Bildes (425) in Bezug auf ein Bildkoordinatensystem (415) definiert ist, wobei das System aufweist: ein Navigationssystem (125), das eingerichtet ist, um eine Bewegung des Objektes (105) in dem abgebildeten Subjekt (110) zu verfolgen, wobei das Objekt (110) in räumlicher Beziehung zu einem Navigationskoordinatensystem (420) verfolgt wird; und eine Steuerungseinrichtung (130), die mit dem Bildgebungssystem (115) und dem Navigationssystem (125) elektrisch in Kommunikationsverbindung steht, wobei die Steuerungseinrichtung (130) einen Prozessor (240) aufweist, der eingerichtet ist, um mehrere Programmanweisungen auszuführen, die in einem Speicher (245) abgespeichert sind, wobei die mehreren Programmanweisungen aufweisen: Registrierung einer räumlichen Beziehung des Bildgebungskoordinatensystems (415) in Bezug auf das Navigationskoordinatensystem (420), Detektion eines Bildes des Objektes (105) in dem wenigstens einen Bild (425) des abgebildeten Subjektes (110), Berechnung einer räumlichen Beziehung zwischen der Position des Bildes des Objektes (105) und einer verfolgten Position des Objektes (105) und Modifikation der räumlichen Beziehung des Bildkoordinatensystems (415) in Bezug auf das Navigationskoordinatensystem (420), um die Differenz zwischen der Position des Bildes des Objektes (105) und der durch das Navigationssystem (125) verfolgten Position des Objektes (105) relativ zu dem wenigsten einen Bild (425) zu reduzieren.

Description

  • HINTERGRUND ZU DER ERFINDUNG
  • Der hier beschriebene Gegenstand betrifft allgemein medizinische Bildgebung und insbesondere ein System und Verfahren zur Navigation eines Objektes durch ein abgebildetes Subjekt.
  • Bildgeführte Chirurgie ist eine sich entwickelnde Technologie, die einem operierenden Arzt im Wesentlichen eine virtuelle Karte zu einer Patientenanatomie bereitstellt. Diese virtuelle Karte ermöglicht dem operierenden Arzt, die Eintritts- oder Einschnittgröße in dem Patienten zu reduzieren, was den Schmerz und die Verletzung bei dem Patienten minimieren und zu kürzeren Krankenhausaufenthalten führen kann. Zu Beispielen bildgeführter Prozeduren gehören laparoskopische Chirurgie, thoracoscopische Chirurgie, endoskopische Chirurgie, etc. Herkömmliche medizinische diagnostische Bildgebungsmittel, wie beispielsweise Computertomographie-(CT-), Magnetresonanzbildgebungs-(MR-Bildgebungs-), Positronen-Emissions-Tomographie-(PET-), Ultraschall-, radiologische Geräte bzw. Maschinen, etc. können nützlich sein, um bei derartigen Prozeduren eine durch statische Bilder geführte Unterstützung zu liefern. Die vorstehend beschriebenen Bildgebungsmittel können zweidimensionale oder dreidimensionale Bilder liefern, die angezeigt werden können, um einen Chirurgen oder Kliniker mit einer anschaulichen Karte oder Abbildung eines interessierenden Bereichs eines Patientenkörpers zu versehen.
  • Zur Überwachung der Position und Bewegung eines chirurgischen Instrumentes oder Objektes relativ zu den vorbeschriebenen Bildern sind bestimmte Navigationssysteme entwickelt worden. Im Allgemeinen werden, wenn ein Chirurg das medizinische Instrument in Bezug auf die Patientenanatomie bewegt, virtuelle Bilder des Instrumentes oder Objektes relativ zu den akquirierten Bildern angezeigt. Diese bestimmten herkömmlichen Navigationssysteme nutzen den Einsatz passiver mechanischer Gelenkarme, elektromagnetischer Erfassung, optischer Erfassung und Ultraschallerfassung, um eine Position Ort des Instrumentes in Bezug auf die Patientenanatomie zu verfolgen. Anschließend werden computerprogrammierte Algorithmen dazu verwendet, die räumliche Beziehung zwischen dem verfolgten Instrument oder Objekt und dem akquirierten Bild zu verfolgen.
  • US 2005 / 0 281 385 A1 beschreibt ein System und Verfahren zur Navigation eines bildgeführten Objektes, das sich in einem interessierenden Bereich eines abgebildeten Subjektes bewegt, in Bezug auf wenigstens ein akquiriertes Bild des abgebildeten Subjektes, das durch ein Bildgebungssystem erzeugt wird, wobei eine räumliche Beziehung des wenigstens einen Bildes in Bezug auf ein Bildkoordinatensystem definiert ist. Das System enthält ein Navigationssystem, das eingerichtet ist, um eine Bewegung des Objektes in dem abgebildeten Subjekt zu verfolgen, wobei das Objekt in räumlicher Beziehung zu einem Navigationskoordinatensystem verfolgt wird. Das System enthält ferner eine Steuerungseinrichtung, die mit dem Bildgebungssystem und dem Navigationssystem elektrisch in Kommunikationsverbindung steht, wobei die Steuerungseinrichtung einen Prozessor aufweist, der eingerichtet ist, um mehrere Programmanweisungen auszuführen, die in einem Speicher abgespeichert sind. Die mehreren Programmanweisungen enthalten Anweisungen zur Registrierung einer räumlichen Beziehung des Bildgebungskoordinatensystems in Bezug auf das Navigationskoordinatensystem.
  • Es besteht ein Bedarf nach einem Verfolgungssystem und -verfahren, das die Qualität und Genauigkeit bei der Veranschaulichung einer verfolgten Stelle des Objektes relativ zu den umgebenden anatomischen Merkmalen und Strukturen des abgebildeten Subjektes verbessert.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Dem vorstehend erwähnten Bedarf widmen sich die Ausführungsformen des auf ein System gemäß dem Anspruch 1 und ein Verfahren gemäß dem Anspruch 10 gerichteten jeweiligen Gegenstands, der hier in der folgenden Beschreibung beschrieben ist.
  • Gemäß einer Ausführungsform ist ein System zur Navigation eines bildgeführten Objektes, das sich in einem interessierenden Bereich eines abgebildeten Subjektes bewegt, in Bezug auf wenigstens ein akquiriertes Bild des abgebildeten Subjektes, wie es durch ein Bildgebungssystem erzeugt wird, geschaffen. Die räumliche Beziehung des wenigstens einen Bildes ist in Bezug auf ein Bildkoordinatensystem definiert. Das System enthält ein Navigationssystem, das dazu eingerichtet ist, eine Bewegung des Objektes in dem abgebildeten Subjekt zu verfolgen, wobei das Objekt in räumlicher Beziehung zu einem Navigationskoordinatensystem verfolgt wird. Das System enthält ferner eine Steuerungseinrichtung, die mit dem Bildgebungssystem und dem Navigationssystem elektrisch in Kommunikationsverbindung steht. Die Steuerungseinrichtung enthält einen Prozessor, der eingerichtet ist, um mehrere in einem Speicher abgespeicherte Programmanweisungen auszuführen. Die mehreren Programmanweisungen kennzeichnen die Schritte einer Registrierung einer räumlichen Beziehung des Bildkoordinatensystems in Bezug auf das Navigationskoordinatensystem, einer Erfassung eines Bildes des Objektes in dem wenigstens einen Bild des abgebildeten Subjektes, einer Berechnung einer räumlichen Beziehung zwischen der Position des Bildes des Objektes und einer verfolgten Position des Objektes und einer Modifikation der räumlichen Beziehung des Bildkoordinatensystems in Bezug auf das Navigationskoordinatensystem, um den Unterschied bzw. die Differenz zwischen der Position des Bildes des Objektes und der durch das Navigationssystem verfolgten Position des Objektes relativ zu dem wenigstens einen Bild zu reduzieren.
  • Es ist ferner eine Ausführungsform eines Verfahrens zur Navigation eines Objektes durch einen interessierenden Bereich eines abgebildeten Subjektes geschaffen. Das Verfahren weist die Schritte auf: Registrierung einer räumlichen Beziehung eines Bildgebungskoordinatensystems in Bezug auf ein Navigationskoordinatensystem, wobei das Bildgebungskoordinatensystem eine räumliche Beziehung wenigstens eines Bildes des abgebildeten Subjektes bestimmt, wie es durch ein Bildgebungssystem akquiriert wird, wobei das Navigationskoordinatensystem durch ein Navigationssystem definiert ist, das konfiguriert ist, um eine Stelle des Objektes in dem abgebildeten Subjekt zu verfolgen; Detektion eines Bildes des Objektes in dem wenigstens einen Bild des abgebildeten Subjektes; Registrierung einer Stelle des Bildes des Objektes in Bezug auf das Bildkoordinatensystem; Vergleich der Stelle des Bildes des Objektes mit einer verfolgten Stelle des Objektes relativ zu dem wenigstens einen Bild, wie sie durch das Navigationssystem gemessen wird; Anzeige der räumlichen Beziehung zwischen der Stelle des Bildes des Objektes und der verfolgten Stelle des Objektes relativ zu dem wenigstens einen Bild; und Modifikation einer räumlichen Beziehung des Bildkoordinatensystems in Bezug auf das Navigationskoordinatensystem, um die Differenz zwischen der Position des Bildes des Objektes und der durch das Navigationssystem verfolgten Position des Objektes relativ zu dem wenigstens einen Bild zu reduzieren.
  • Es sind hier Systeme und Verfahren unterschiedlichen Umfangs beschrieben. Zusätzlich zu den in dieser Kurzbeschreibung beschriebenen Aspekten und Vorteilen werden sich weitere Aspekte und Vorteile unter Bezugnahme auf die Zeichnungen und unter Bezugnahme auf die detaillierte Beschreibung, die folgt, erschließen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein schematisiertes Blockschaltbild, das eine Ausführungsform eines Systems veranschaulicht, das zur Verfolgung eines Objektes durch eine Anatomie eines abgebildeten Subjektes eingerichtet ist.
  • 2 zeigt ein Flussdiagramm einer Ausführungsform eines Verfahrens zum Betreiben des Systems nach 1, um das Objekt durch die Anatomie des abgebildeten Subjektes zu verfolgen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • In der folgenden detaillierten Beschreibung wird auf die beigefügten Zeichnungen Bezug genommen, die einen Teil der Beschreibung bilden und in denen zu Veranschaulichungszwecken spezielle Ausführungsformen dargestellt sind, die ausgeführt werden können. Diese Ausführungsformen sind in ausreichenden Einzelheiten beschrieben, um einen Fachmann in die Lage zu versetzen, die Ausführungsformen auszuführen, wobei es verständlich ist, dass andere Ausführungsformen verwendet werden können und dass logische, mechanische, elektrische und sonstige Veränderungen vorgenommen werden können, ohne von dem Rahmen der Ausführungsformen abzuweichen. Die folgende detaillierte Beschreibung soll folglich in keinem beschränkenden Sinne ausgelegt werden.
  • 1 veranschaulicht eine Ausführungsform eines Systems 100, das betriebsfähig ist, um eine Bewegung eines Werkzeugs oder Objektes 105 durch eine Anatomie eines abgebildeten Subjektes 110 zu verfolgen. Das System 100 enthält im Wesentlichen ein Bildgebungssystem 115, ein Navigationssystem 125 und eine Steuerungseinrichtung 130, die in Kommunikationsverbindung angeschlossen sind, um eine Position des Objektes 105, das sich durch das abgebildete Subjekt 110 bewegt, zu verfolgen. Ein technischer Effekt des Systems 100 besteht darin, dass es eine Modifikation der Registrierung des Bildgebungssystems 115 mit dem Navigationssystem 125 auf der Basis eines Vergleichs einer identifizierten Position des Objektes 105 in einem akquirierten Bild in Bezug auf die verfolgte Position des Objektes 105 ermöglicht. Dadurch verbessert das System 100 die Fähigkeit, eine Bewegung des Objektes 105 genauer zu verfolgen, um die Durchführung schwierigerer Prozeduren bei reduzierter Gefahr, dass kritische Umgebungsstrukturen, wie beispielsweise Arterien und Nerven, beschädigt werden, zu ermöglichen.
  • Das Bildgebungssystem 115 lässt sich allgemein betreiben, um ein zweidimensionales, dreidimensionales oder vierdimensionales Bild 135 zu erzeugen, das einem interessierenden Bereich des abgebildeten Subjektes 110 entspricht. Beispiele für die Art des Bildgebungssystems 115 umfassen, nicht ausschließlich, Computertomographie (CT), Magnetresonanzbildgebung (MR-Bildgebung), Röntgen, Positronen-Emissions-Tomographie (PET), Tomosynthese, Ultraschall, Angiographie, Fluoroskopie und dergleichen oder Kombinationen von diesen. Das Bildgebungssystem 115 kann eingerichtet sein, um statische Bilder, die durch statische Bildgebungsdetektoren (z.B. CT-Systeme, MR-Bildgebungssysteme, etc.) vor einer medizinischen Prozedur akquiriert werden, oder Echtzeitbilder zu erzeugen, die mit Echtzeit-Bildgebungsdetektoren (z.B. Fluoroskopiesystemen, laparoskopischen Systemen, endoskopischen Systemen, etc.) während der medizinischen Prozedur akquiriert werden. Somit können die Bilder von diagnostischer oder eingriffsbezogener Art sein. In einem Beispiel enthält das Bildgebungssystem 115 ein statisches Bildgebungssystem in Kombination mit einem Echtzeit-Bildgebungssystem. In einem anderen Beispiel ist das Bildgebungssystem 115 dazu konfiguriert, eine Verknüpfung oder Verschmelzung aus einem durch ein CT-Bildgebungssystem akquirierten Bild mit einem durch ein MR-Bildgebungssystem akquirierten Bild zu erzeugen. Diese Ausführungsform kann bei der chirurgischen Tumorentfernung eingesetzt werden. Der Tumor ist im Allgemeinen in dem MR-Bild sichtbar, während die Knochenstruktur im Allgemeinen in dem CT-Bild sichtbar ist. Die akquirierten Bilddaten werden direkt oder indirekt von dem Bildgebungssystem 115 über eine Kommunikationsverbindung zu dem Navigationssystem 125 übermittelt.
  • Ein beispielhaftes Bildgebungssystem 115 ist ein Röntgen-Bildgebungssystem, das einen Röntgengenerator oder eine Röntgenquelle (nicht veranschaulicht), der bzw. die eingerichtet ist, um Röntgenstrahlen 140 abzugeben, die durch das abgebildete Subjekt 110 hindurchtreten, und einen (nicht veranschaulichten) Detektor enthält, der eingerichtet ist, um ein diagnostisches Bild zu erzeugen. Das Bildgebungssystem 115 kann ferner eine bewegbare Trägeranordnung oder Gantry (nicht veranschaulicht) enthalten, die einen bewegbaren Arm (z.B. einen C-förmigen Arm, etc.) zur bewegbaren Halterung der Röntgenquelle und des Detektors in Bezug auf das abgebildete Subjekt 110 aufweist.
  • Das Objekt 105 kann ein Werkzeug in Zusammenhang mit einer anatomischen Struktur sein. Zu Beispielen von Werkzeugen gehören ein chirurgisches Werkzeug, ein Navigationswerkzeug, ein Führungsdraht, ein Katheter, ein endoskopisches Werkzeug, ein laparoskopisches Werkzeug, eine Ultraschallsonde, ein Zeiger, ein Saugapparat, eine Spule oder dergleichen, wie sie in einer medizinischen Prozedur eingesetzt werden. Jedoch kann die Art des Objektes 105 variieren.
  • Das Navigationssystem 125 lässt sich allgemein betreiben, um eine Position des Objektes 105 relativ zu dem wenigstens einen akquirierten Bild 135 zu verfolgen oder zu detektieren, das durch das Bildgebungssystem 115 erzeugt wird. Das beispielhafte Navigationssystem 125 enthält eine Anordnung oder Reihe von Verfolgungselementen 180 und 185, die (z.B. über eine fest verdrahtete oder drahtlose Verbindung) angeschlossen sind, um Positionsdaten zu übermitteln (siehe 1). Jedoch sollte es verständlich sein, dass die Anzahl der Verfolgungselemente variieren kann. Eine Ausführungsform der Verfolgungselemente 180 und 185 weist einen oder mehrere Sender bzw. Geber oder dynamische Referenzen auf, die mit einem oder mehreren Empfängern in elektromagnetischer Kommunikationsverbindung stehen oder elektromagnetisch gekoppelt sind. Wenigstens eines der Verfolgungselemente 180 und 185 sendet ein elektromagnetisches Energiefeld (z.B. 10–20 kHz) aus, das dazu dient, durch wenigstens ein anderes Verfolgungselement 180 und 185 erfasst zu werden. In Abhängigkeit von dem Durchlaufen eines elektromagnetischen Energiefeldes erzeugt der Empfänger ein Signal, das eine räumliche Beziehung zu dem Sender kennzeichnet. Jedoch sollte es verständlich sein, dass die Art oder Wirkungsweise der Kopplung, Verbindung oder Kommunikation (z.B. HF, Infrarotlicht, etc.), die dazu dient, eine räumliche Beziehung zu messen, variieren kann.
  • Gemäß einer Ausführungsform ist das Verfolgungssystem 180 an dem Objekt 105 angebracht, das verfolgt wird, während es sich durch das abgebildete Subjekt 110 bewegt. Das Verfolgungselement 180 kann an dem Objekt 105 über eine Aufschnappeinrichtung, durch einen Einschub in ein Loch lösbar angeschlossen sein oder irgendeine sonstige aus der Technik bekannte mechanische Anschlusseinrichtung enthalten. Das Verfolgungselement 185 ist an einer Referenzstelle (z.B. dem Tisch des abgebildeten Subjektes 110, der Gantry, etc.) angebracht. Eine Ausführungsform wenigstens eines der Verfolgungselemente 180 und 185 enthält einen Sender mit mehreren Spulen (z.B. Helmholz’schen Spulen), die betrieben werden können, um ein elektromagnetisches Gradientenfeld in dem interessierenden Bereich zu erzeugen, in dem eine Verfolgung stattfinden soll. Eine weitere Ausführungsform wenigstens eines der Verfolgungselemente 180 und 185 enthält wenigstens eine Leiterschleife, die betrieben werden kann, um ein elektrisches Signal zu erzeugen, das eine Position relativ zu einem elektromagnetischen Feld kennzeichnet, das durch ein oder mehrere der weiteren Verfolgungselemente 180 und 185 in dem vorbestimmten Arbeitsraum oder interessierenden Bereich erzeugt wird, in dem eine Verfolgung erfolgen soll.
  • Das Navigationssystem 125 lässt sich betreiben, um eine Bewegung des Objektes 105 gemäß bekannten mathematischen Algorithmen zu verfolgen, die in Form von Programmanweisungen einer Software programmiert sind. Zu Beispielen für bekannte Navigationssoftware zur Verfolgung einer Bewegung gehören INSTATRAK®, wie durch die GENERAL ELECTRIC® Corporation hergestellt, die STEALTHSTATION®, wie durch MEDTRONIC® Corporation hergestellt, und KOLIBRI®, wie durch BRAINLAB® Corporation hergestellt. Die beispielhafte Software lässt sich ferner betreiben, um durch MR-Bildgebung, CT und/oder Röntgen durch das Bildgebungssystem 115 akquirierte zwei- oder dreidimensionale Bilddaten zu verwenden, um eine digitalisierte drei- oder vierdimensionale anatomische Karte oder ein entsprechendes Modell 205 einer Patientenanatomie aufzubauen und eine elektromagnetische (EM) Verfolgungstechnologie einzusetzen, die als eine Art eines „globalen Positionierungssystems“ funktioniert, um die Lage des Objektes 105 in Echtzeit in räumlicher Beziehung zu der anatomischen Landkarte 205 anzuzeigen. Eine Darstellung 210 des Objektes 105 in räumlicher Beziehung zu der anatomischen Karte 205 kann auf einer Anzeige 230 des Bildgebungssystems 115 oder einem sonstigen Display 220 des Systems 100 erscheinen, um den Arzt während schwieriger Prozeduren, wie beispielsweise chirurgischer Hals-Nasen-Ohr-(HNO-), Neurokranial- oder Spinal-Prozeduren, zu führen. Es können verschiedene Arten von Symbolen, beispielsweise ein Cursor, ein Dreieck, ein Quadrat, ein Fadenkreuz, etc. als die Darstellung oder Verkörperung 210 der verfolgten Stelle des Objektes 105 verwendet werden.
  • Weiterhin bezugnehmend auf 1 ist die Steuerungseinrichtung 130 allgemein mit jedem der Verfolgungselemente 180, 185, einer Eingabevorrichtung 230 und der Anzeige bzw. Ausgabe 220 (z.B. einem Monitor, einem berührungsempfindlichen Bildschirm, einem Lautsprecher, etc.) kommunikationsmäßig verbunden. Die Steuerungseinrichtung 130 kann gemeinsam mit entweder dem Bildgebungssystem 115 und/oder dem Navigationssystem 125 integriert sein oder ein eigenständiges, unabhängiges System bilden. Eine Ausführungsform der Steuerungseinrichtung 130 enthält allgemein einen Prozessor 240, der mit einem Speicher 245 in Kommunikationsverbindung steht. Der Prozessor 240 kann unabhängig von oder gemeinsam mit dem Speicher 245 integriert eingerichtet sein.
  • Der Prozessor 240 lässt sich allgemein betreiben, um die Programmanweisungen auszuführen, die hierin beschriebene Handlungen kennzeichnen und in dem Speicher 245 abgespeichert sind. Der Prozessor 240 kann auch in der Lage sein, Eingangsdaten oder Informationen von dem Eingang 230 zu empfangen oder Ausgangsdaten zu übermitteln, die auf der Anzeige 230 veranschaulicht werden sollen. Beispiele für den Prozessor 240 können eine zentrale Verarbeitungseinheit eines Tischcomputers, einen Mikroprozessor, einen Mikrocontroller oder eine Speicher programmierbare Steuerung (PLC, Programable Logic Controller) oder dergleichen oder eine Kombination von diesen enthalten.
  • Eine Ausführungsform des Speichers 245 weist im Allgemeinen ein oder mehrere Computer lesbare Medien, wie beispielsweise eine Festplatte, Diskette, CD, CD-ROM, DVD, ein kompaktes Speichermedium, einen Flash-Speicher, Direktzugriffsspeicher, Festwertspeicher, programmierbaren Festwertspeicher, Memorystick oder dergleichen oder Kombinationen von diesen auf. Der Speicher 245 dient im Betrieb dazu, die mehreren Programmanweisungen zur Ausführung durch den Prozessor 240 zu speichern sowie Daten zu speichern, die durch die Steuerungseinrichtung 130 erzeugt und/oder über den Eingang 230 zu der Steuerungseinrichtung 130 empfangen werden.
  • Der Eingang kann eine beliebige Vorrichtung enthalten, die im Betrieb dazu dient, Informationsdaten von einem Benutzer für die Steuerungseinrichtung 130 zu empfangen und an diese zu übermitteln. Die Eingabevorrichtung 230 kann eine Mausvorrichtung, eine Zeigervorrichtung, eine Tastatur, einen berührungsempfindlichen Bildschirm oder eine sonstige ähnliche Vorrichtung enthalten, die in der Lage ist, eine Benutzeranweisung zu empfangen. Die Eingabevorrichtung 230 kann Einrichtungen zur Spracherkennung, Bewegungsverfolgung und/oder Blickbewegungsregistrierung (Eye Tracking) enthalten.
  • Die Anzeige 230 ist allgemein eine Vorrichtung, die im Betrieb dazu dient, Ausgangsdaten zur Überprüfung durch den Benutzer zu veranschaulichen. Die beispielhafte Anzeige 230 ist eingerichtet, um statische oder Echtzeit-Bilddaten, die von dem Bildgebungssystem 115 erzeugt werden, mit Verfolgungsdaten, die von dem Navigationssystem 125 erzeugt werden, simultan darzustellen oder zu verschmelzen. Die Anzeige 230 kann einen Kathodenstrahlröhrenmonitor, einen Flüssigkristallanzeige-Monitor (LCD-Monitor), einen Plasma-Monitor oder dergleichen oder Kombinationen von diesen enthalten. Die Anzeige 230 ist in der Lage, ein zweidimensionales, dreidimensionales Bild und/oder vierdimensionale Bilddaten durch Schattierung oder Grautönung, Färbung und/oder dergleichen darzustellen.
  • Nachdem vorstehend eine Beschreibung des allgemeinen Aufbaus des Systems 100 angegeben ist, enthält das Folgende eine Beschreibung eines Verfahrens 400 (siehe 2) zum Betreiben des Systems 100 in Bezug auf das abgebildete Subjekt 110. Obwohl nachstehend eine beispielhafte Ausführungsform des Verfahrens 400 erläutert ist, sollte es verständlich sein, dass eine oder mehrere Handlungen oder Schritte, die das Verfahren 400 aufweisen, weggelassen oder hinzugefügt werden können. Es sollte ferner verständlich sein, dass eine oder mehrere der Handlungen gleichzeitig oder wenigstens im Wesentlichen gleichzeitig durchgeführt werden können und dass die Reihenfolge der Handlungen variieren kann. Außerdem wird auch zum Ausdruck gebracht, dass wenigstens einige der folgenden Handlungen als eine Folge von Modulen von Computer lesbaren Programmanweisungen dargestellt werden können, die in dem Speicher 245 der Steuerungseinrichtung 130 gespeichert sein sollen, um durch den Prozessor 240 ausgeführt zu werden.
  • Es wird angenommen, dass das Verfolgungselement 180 an dem Objekt 105 befestigt ist, während das andere Verfolgungselement 185 an einer Referenz (z.B. dem Tisch, der Gantry des Bildgebungssystems 115, dem abgebildeten Subjekt 110, etc.) angebracht ist. Indem nun auf 2 Bezug genommen wird, enthält eine Handlung 410 eine anfängliche Registrierung eines Bildkoordinatensystems 415 in Bezug auf ein Navigationskoordinatensystem 420. Die Steuerungseinrichtung 130 ist eingerichtet, um das Bildkoordinatensystem 415 in Bezug auf das Navigationskoordinatensystem 420 in einer bekannten Weise automatisch zu registrieren. Die Registrierungshandlung 410 kann eine Ausführung eines vorbestimmten Registrierungsalgorithmus in der vorstehend beschriebenen Software, der früher erlangt oder verwendet worden ist, um die Koordinatensysteme 415 und 420 automatisch zu registrieren, oder eines anfänglich angenommenen Registrierungsalgorithmus enthalten. Ein Beispiel für die Handlung 410 enthält eine Lokalisierung der Verfolgungselemente 180 und 185 relativ zu Referenzbildern oder Bezugsmarkierungen (nicht veranschaulicht), die in einer bekannten räumlichen Beziehung angeordnet sind, oder Bildern eines Phantoms (nicht veranschaulicht), das sich in einer bekannten räumlichen Anordnung befindet, oder einer Kombination der obigen, um eine räumliche Beziehung zwischen dem Bildkoordinatensystem 415 des Bildgebungssystems 115 und dem Navigationskoordinatensystem 420 des Navigationssystems 125 auf eine bekannte Weise zu berechnen.
  • Eine Handlung 425 enthält eine Akquisition einer Folge von Bildern 135 des Objektes 105, das in das abgebildete Subjekt 110 eingeführt worden ist. Es sollte verständlich sein, dass die Folge akquirierter Bilder 135 unterschiedliche Arten von diagnostischen Bildern, eingriffsbezogenen Bildern oder Verschmelzungen von Bildern, wie sie durch unterschiedliche Arten des Bildgebungssystems 115, einschließlich der vorstehend beschriebenen Beispiele, akquiriert werden, enthalten kann.
  • Eine Handlung 430 enthält eine Verfolgung einer Bewegung oder Position des Objektes 105 in dem Subjekt 110. Wenn sich das Objekt 105 in dem abgebildeten Subjekt 110 bewegt, verfolgt die Steuerungseinrichtung 130 eine Bewegung des Objektes 105 in räumlicher Beziehung relativ zu dem Navigationskoordinatensystem 420 zur Darstellung auf der Anzeige 205 beispielsweise in einem Chirurgiesaal oder Operationsraum. Die Handlung 430 kann die Erzeugung eines zusammengesetzten Bildes enthalten, das die Darstellung 210 des Objektes 105 in räumlicher Beziehung zu dem akquirierten Bild 135 des abgebildeten Subjektes 110, wie es durch das Bildgebungssystem 115 akquiriert wird, aufweist.
  • In einem Beispiel enthält das Bildgebungssystem 115 ein CT-Bildgebungssystem, das im Betrieb dazu dient, einen CT-Bildscann zu erhalten, und ein endoskopisches Bildgebungssystem, das im Betrieb dazu dient, einen endoskopischen Bildscann zu erhalten, wobei die CT- und endoskopischen Scannbilder in der anatomischen Karte 205 zur Darstellung auf der Anzeige 220 simultan dargestellt oder miteinander verschmolzen werden, während der Chirurg das Objekt 105 durch das abgebildete Subjekt 110 bewegt. Das Navigationssystem 125 erzeugt die Darstellung 210 (z.B. ein Fadenkreuz) des Objektes 105 zur Visualisierung auf der anatomischen Karte 205, die sowohl das CT-Scannbild als auch das endoskopische Scannbild enthält. Das System 100 kann dazu verwendet werden, verschiedene Objekte 105, wie beispielsweise Shunts und Katheter, zu führen oder Biopsien durchzuführen. Das System 100 kann auch durch Neurochirurgen bei der Durchführung von Schädeloperationen eingesetzt werden, um das Risiko für Motorik-, Sprach- und somatosensible Bereiche zu reduzieren.
  • Eine Handlung 440 enthält eine Identifikation eines interessierenden Bereichs (ROI, Region of Interest) 445 in einem oder mehreren akquirierten Bildern 135 des abgebildeten Subjektes 110, in dem erwartet wird oder eine erhöhte Wahrscheinlichkeit dafür besteht, dass ein akquiriertes Bild 425 des Objektes 105 aufgefunden wird. Eine Ausführungsform der Handlung 440 enthält eine Berechnung und Lokalisierung einer erwarteten Stelle des Objektes 105 relativ zu den akquirierten Bildern 135, wie sie entsprechend einer durch das Navigationssystem 125 verfolgten Stelle des Objektes 105 in Bezug auf eine Registrierung mit dem Navigationskoordinatensystem 420 und dem Bildgebungskoordinatensystem 415 identifiziert wird. Die Handlung 440 kann eine Überlagerung einer graphischen Darstellung (z.B. eines Kreises, eines Quadrats, eines Dreiecks oder einer sonstigen geometrischen Form) des ROI 445 in einer die erwartete Stelle des Objektes umgebenden Weise in einem oder mehreren der akquirierten Bilder 135 des abgebildeten Subjektes 110 enthalten.
  • Eine Handlung 450 enthält eine Durchführung einer Bildfilterung (z.B. Linienfilterung) oder einer gefilterten Rückprojektion oder lokaler tomographischer Rekonstruktionsverfahren, um einen Kontrast eines Bildes 452 des Objektes 105 im Verhältnis zu anderer Anatomie, anatomischen Referenzmarkierungen oder einer sonstigen Referenz in dem akquirierten Bild 135 des abgebildeten Subjektes 110 zu steigern. Eine Ausführungsform der Handlung 450 enthält eine Gewinnung eines vorbestimmten Grauskalenwertes eines Bildes 452 des Objektes 105, wie es zuvor durch das Bildgebungssystem 115 akquiriert oder bestimmt worden ist. Jedoch können andere bekannte Filterungs- oder Bildrekonstruktionstechniken eingesetzt werden, um den Kontrast des Objektes 105 in dem akquirierten Bild 135 zu erhöhen.
  • Eine Handlung 455 enthält eine Identifikation und Messung einer Position des Bildes 452 des Objektes 105 in den akquirierten Bildern des abgebildeten Subjektes 110. Die Handlung 455 enthält eine automatische Registrierung der Stelle des Bildes 452 des Objektes 105 in Bezug auf das Bildkoordinatensystem und das Navigationskoordinatensystem.
  • Eine Handlung 460 enthält einen Vergleich der Position des Bildes 452 des Objektes 105 in Bezug auf die verfolgte Position des Objektes 105, wie sie über die Verfolgungselemente 180 und 185 des Navigationssystems 125 gemessen wird. Eine Ausführungsform der Handlung 460 enthält eine Berechnung einer starren Transformation oder Registrierung an der Stelle des Objektes 105 relativ zu der verfolgten Stelle des Bildes 452 des Objektes 105 und einen Vergleich mit einer Schwelle. Der Unterschied bzw. die Differenz kann Rotations- oder Translationskomponenten oder beides enthalten.
  • Eine Handlung 470 enthält eine Darstellung des Unterschieds bzw. der Differenz zwischen der Stelle bzw. Position des Bildes 452 des Objektes 105 und der verfolgten Stelle bzw. Position des Objektes 105 auf der Anzeige zur Veranschaulichung für den Bediener. Eine Ausführungsform der Handlung 470 enthält auch eine Überlagerung der Darstellung 210 der verfolgten Stelle des Objektes 105 in räumlicher Beziehung zu der identifizierten oder detektierten Stelle des Bildes 452 des Objektes 105 in dem akquirierten Bild 135. Alternativ kann die Handlung 470 eine Überlagerung der Darstellung 210 der verfolgten Stelle des Objektes 105 in räumlicher Beziehung zu einer Darstellung der detektierten Stelle des Bildes 452 des Objektes 105 enthalten.
  • Eine Handlung 475 enthält eine Modifikation der Registrierung des Bildkoordinatensystems 415 und des Navigationskoordinatensystems 420 in Bezug aufeinander, wenn die Schwelle überschritten ist. Eine Ausführungsform der Modifikationshandlung 475 enthält eine Anpassung der räumlichen Beziehung des Bildgebungskoordinatensystems 415 relativ zu dem Navigationskoordinatensystem 420, um die identifizierte Position des Bildes 452 des Objektes 105 in dem akquirierten Bild 135 zu veranlassen, mit der verfolgten Position des Objektes 105 gemäß dem Navigationssystem 125 zusammenzupassen oder zusammenzutreffen oder, in anderen Worten, um den Unterschied bzw. die Differenz zwischen der Stelle des Bildes 452 des Objektes 105 und der durch das Navigationssystem 125 verfolgten Stelle des Objektes 105 zu reduzieren. Alternativ kann die Handlung 475 eine Modifikation der räumlichen Beziehung des Bildgebungskoordinatensystems 415 relativ zu dem Navigationskoordinatensystem 420 um einen vorbestimmten oder eingegebenen Prozentsatz der vorstehend beschriebenen Differenz enthalten, um das Bild 452 des Objektes 105 in dem akquirierten Bild 135 zu veranlassen, wenigstens besser mit der verfolgten Stelle des Objektes 105 entsprechend dem Navigationssystem 125 zusammenzupassen oder dieser zu entsprechen.
  • Die angegebene Beschreibung verwendet Beispiele, um den erfindungsgemäßen Gegenstand, einschließlich der besten Ausführungsform, zu beschreiben und um ferner einen Fachmann in die Lage zu versetzen, den hier beschriebenen Gegenstand auszuführen und zu verwenden. Der Patentschutzfähige Umfang des Gegenstands ist durch die Ansprüche definiert und kann weitere Beispiele enthalten, die einem Fachmann einfallen. Derartige weitere Beispiele sollen in dem Rahmen der Ansprüche liegen, wenn sie strukturelle Elemente aufweisen, die sich von dem Wortlaut bzw. Wortsinn der Ansprüche nicht unterscheiden, oder wenn sie äquivalente strukturelle Elemente mit gegenüber dem Wortlaut bzw. Wortsinn der Ansprüche unwesentlichen Unterschieden enthalten.
  • Es ist ein System 100 geschaffen, das dazu dient, ein bildgeführtes Objekt 105, das sich in einem interessierenden Bereich eines abgebildeten Subjektes 110 bewegt, in Bezug auf ein akquiriertes Bild 425 des abgebildeten Subjektes 110, wie es durch ein Bildgebungssystem 115 erzeugt wird, zu navigieren. Das System 100 enthält ein Navigationssystem 125, um eine Bewegung des Objektes 105 in dem abgebildeten Subjekt 110 in räumlicher Beziehung zu einem Navigationskoordinatensystem 420 zu verfolgen, und eine Steuerungseinrichtung 130. Die Steuerungseinrichtung 130 ist dazu eingerichtet, ein Bild des Objektes 105 in dem wenigstens einem Bild 425 des abgebildeten Subjektes 110 zu detektieren, eine räumliche Beziehung zwischen der Position des Bildes des Objektes 105 und einer verfolgten Position des Objektes 105 zu berechnen und die räumliche Beziehung des Bildkoordinatensystems 415 in Bezug auf das Navigationssystem 420 zu modifizieren, um die Differenz zwischen der Position des Bildes des Objektes 105 und der durch das Navigationssystem 125 verfolgten Position des Objektes 105 zu reduzieren.
  • Bezugszeichenliste
  • 100
    System
    105
    Werkzeug oder Objekt
    110
    Abgebildetes Subjekt
    115
    Bildgebungssystem
    125
    Navigationssystem
    130
    Steuerungseinrichtung
    135
    Zwei-, Drei- oder Vierdimensionales Bild
    140
    Röntgenstrahlen
    180, 185
    Verfolgungselemente
    205
    Digitalisierte(s) drei- oder vierdimensionale(s) anatomische(s) Karte oder Modell
    210
    Darstellung der verfolgten Stelle des Objektes
    220
    Anzeige
    230
    Eingang, Eingabevorrichtung
    240
    Prozessor
    245
    Speicher
    400
    Verfahren
    410
    Vorgang der Registrierung
    415
    Bildkoordinatensystem
    420
    Navigationskoordinatensystem
    425
    Vorgang der Akquisition einer Folge von Bildern
    430
    Vorgang der Verfolgung einer Bewegung oder Position des Objektes
    440
    Vorgang der Identifikation eines interessierenden Bereiches (ROI)
    445
    Interessierender Bereich
    452
    Akquiriertes Bild
    450
    Vorgang der Durchführung einer Bildfilterung
    455
    Vorgang der Identifikation und Messung einer Position des Objektes 452
    460
    Vorgang des Vergleichs der Position des Bildes relativ zu der verfolgten Stelle
    470
    Vorgang der Veranschaulichung der Differenz der Position des Bildes
    475
    Vorgang der Modifikation der Registrierung des Bildgebungskoordinatensystems

Claims (10)

  1. System (100) zur Navigation eines bildgeführten Objektes (105), das sich in einem interessierenden Bereich eines abgebildeten Subjektes (110) bewegt, in Bezug auf wenigstens ein akquiriertes Bild (425) des abgebildeten Subjektes (110), das durch ein Bildgebungssystem (115) erzeugt wird, wobei eine räumliche Beziehung des wenigstens einen Bildes (425) in Bezug auf ein Bildkoordinatensystem (415) definiert ist, wobei das System aufweist: ein Navigationssystem (125), das eingerichtet ist, um eine Bewegung des Objektes (105) in dem abgebildeten Subjekt (110) zu verfolgen, wobei das Objekt (110) in räumlicher Beziehung zu einem Navigationskoordinatensystem (420) verfolgt wird; und eine Steuerungseinrichtung (130), die mit dem Bildgebungssystem (115) und dem Navigationssystem (125) elektrisch in Kommunikationsverbindung steht, wobei die Steuerungseinrichtung (130) einen Prozessor (240) aufweist, der eingerichtet ist, um mehrere Programmanweisungen auszuführen, die in einem Speicher (245) abgespeichert sind, wobei die mehreren Programmanweisungen aufweisen: Registrierung einer räumlichen Beziehung des Bildgebungskoordinatensystems (415) in Bezug auf das Navigationskoordinatensystem (420), Detektion eines Bildes des Objektes (105) in dem wenigstens einen Bild (425) des abgebildeten Subjektes (110), Berechnung einer räumlichen Beziehung zwischen der Position des Bildes des Objektes (105) und einer verfolgten Position des Objektes (105) und Modifikation der räumlichen Beziehung des Bildkoordinatensystems (415) in Bezug auf das Navigationskoordinatensystem (420), um die Differenz zwischen der Position des Bildes des Objektes (105) und der durch das Navigationssystem (125) verfolgten Position des Objektes (105) relativ zu dem wenigsten einen Bild (425) zu reduzieren.
  2. System (100) nach Anspruch 1, wobei die Detektion eine Identifikation eines interessierenden Bereichs (445) in dem wenigstens einen Bild (425) enthält, der eine erhöhte Wahrscheinlichkeit für eine Stelle des Bildes des Objektes (105) aufweist.
  3. System (100) nach Anspruch 2, wobei die Detektion eine Anwendung eines Filters enthält, um einen Kontrast des Bildes des Objektes (105) im Verhältnis zu einem Kontrast eines Bildes einer anatomischen Struktur in dem wenigstens einen Bild (425) zu erhöhen.
  4. System (100) nach Anspruch 1, wobei die mehreren programmierbaren Anweisungen aufweisen: Anzeige der räumlichen Beziehung in Bezug auf eine vorbestimmte Schwelle.
  5. System (100) nach Anspruch 1, wobei die mehreren programmierbaren Anweisungen aufweisen: Anzeige der räumlichen Beziehung zwischen der Stelle des Bildes des Objektes (105) und der verfolgten Stelle des Objektes (105).
  6. System (100) nach Anspruch 5, wobei die Anzeige eine Überlagerung des Bildes des Objektes (105) und einer Darstellung (210) der verfolgten Stelle des Objektes (105) enthält.
  7. System (100) nach Anspruch 5, wobei die Anzeige eine Überlagerung einer ersten Darstellung der Stelle des Bildes des Objektes (105) und einer zweiten Darstellung (210) der verfolgten Stelle des Objektes (105) enthält.
  8. System (100) nach Anspruch 1, wobei die Modifikation eine Anpassung der räumlichen Beziehung des Bildkoordinatensystems (415) relativ zu dem Navigationskoordinatensystem (420) um einen vorbestimmten Prozentsatz der räumlichen Beziehung enthält.
  9. System (100) nach Anspruch 1, wobei die räumliche Beziehung eine oder mehrere Komponenten der Gruppe enthält, zu der Rotation und Translation gehören.
  10. Verfahren (400) zur Navigation eines Objektes (105) durch einen interessierenden Bereich eines abgebildeten Subjektes (110), wobei das Verfahren die Schritte aufweist: Registrierung einer räumlichen Beziehung eines Bildgebungskoordinatensystems (415) in Bezug auf ein Navigationskoordinatensystem (420), wobei das Bildgebungskoordinatensystem (415) eine räumliche Beziehung wenigstens eines Bildes des abgebildeten Subjektes (110) bestimmt, wie es durch ein Bildgebungssystem (115) akquiriert wird, wobei das Navigationskoordinatensystem (420) durch ein Navigationssystem (125) definiert ist, das konfiguriert ist, um eine Stelle des Objektes (105) in dem abgebildeten Subjekt (110) zu verfolgen; Detektion eines Bildes des Objektes (105) in dem wenigstens einen Bild (425) des abgebildeten Subjektes (110); Registrierung einer Stelle des Bildes des Objektes (105) in Bezug auf das Bildkoordinatensystem (415), Vergleich der Stelle des Bildes des Objektes (105) mit einer verfolgten Stelle des Objektes (105) relativ zu dem wenigstens einen Bild (425), wie sie durch das Navigationssystem (125) gemessen wird, Anzeige einer räumlichen Beziehung zwischen der Stelle des Bildes des Objektes (105) und der verfolgten Stelle des Objektes (105) relativ zu dem wenigstens einen Bild (425); und Modifikation der räumlichen Beziehung des Bildkoordinatensystems (415) in Bezug auf das Navigationskoordinatensystem (420), um die Differenz zwischen der Position des Bildes des Objektes (105) und der durch das Navigationssystem (125) verfolgten Position des Objektes (105) relativ zu dem wenigsten einen Bild (425) zu reduzieren.
DE102008017111.5A 2007-04-03 2008-04-02 System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt Active DE102008017111B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/695,808 2007-04-03
US11/695,808 US7899226B2 (en) 2007-04-03 2007-04-03 System and method of navigating an object in an imaged subject

Publications (2)

Publication Number Publication Date
DE102008017111A1 DE102008017111A1 (de) 2008-10-09
DE102008017111B4 true DE102008017111B4 (de) 2017-03-23

Family

ID=39736437

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008017111.5A Active DE102008017111B4 (de) 2007-04-03 2008-04-02 System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt

Country Status (4)

Country Link
US (1) US7899226B2 (de)
JP (1) JP5207795B2 (de)
DE (1) DE102008017111B4 (de)
FR (1) FR2914765B1 (de)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8425418B2 (en) * 2006-05-18 2013-04-23 Eigen, Llc Method of ultrasonic imaging and biopsy of the prostate
US8064664B2 (en) * 2006-10-18 2011-11-22 Eigen, Inc. Alignment method for registering medical images
US7804989B2 (en) * 2006-10-30 2010-09-28 Eigen, Inc. Object recognition system for medical imaging
US20080161687A1 (en) * 2006-12-29 2008-07-03 Suri Jasjit S Repeat biopsy system
US8175350B2 (en) 2007-01-15 2012-05-08 Eigen, Inc. Method for tissue culture extraction
US7856130B2 (en) * 2007-03-28 2010-12-21 Eigen, Inc. Object recognition system for medical imaging
US8414123B2 (en) * 2007-08-13 2013-04-09 Novartis Ag Toric lenses alignment using pre-operative images
US9655775B2 (en) 2007-08-13 2017-05-23 Novartis Ag Toric lenses alignment using pre-operative images
US8571277B2 (en) 2007-10-18 2013-10-29 Eigen, Llc Image interpolation for medical imaging
US7942829B2 (en) * 2007-11-06 2011-05-17 Eigen, Inc. Biopsy planning and display apparatus
US9168173B2 (en) 2008-04-04 2015-10-27 Truevision Systems, Inc. Apparatus and methods for performing enhanced visually directed procedures under low ambient light conditions
US9226798B2 (en) * 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
US10117721B2 (en) 2008-10-10 2018-11-06 Truevision Systems, Inc. Real-time surgical reference guides and methods for surgical applications
EP2184005B1 (de) * 2008-10-22 2011-05-18 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und Vorrichtung zur Bildverarbeitung für computerunterstützte Augenoperationen
US9119565B2 (en) 2009-02-19 2015-09-01 Alcon Research, Ltd. Intraocular lens alignment
US9173717B2 (en) 2009-02-20 2015-11-03 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for intraocular lens implantation
DE102009010263B4 (de) 2009-02-24 2011-01-20 Reiner Kunz Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung
US8503745B2 (en) * 2009-05-13 2013-08-06 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8238631B2 (en) * 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8737708B2 (en) 2009-05-13 2014-05-27 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US11231787B2 (en) 2010-10-06 2022-01-25 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures
US8751063B2 (en) 2011-01-05 2014-06-10 Orbotix, Inc. Orienting a user interface of a controller for operating a self-propelled device
US9058647B2 (en) * 2012-01-16 2015-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US8924320B2 (en) * 2012-02-07 2014-12-30 Caterpillar Inc. Systems and methods for forecasting using process constraints
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
US9292758B2 (en) * 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
WO2013173389A1 (en) 2012-05-14 2013-11-21 Orbotix, Inc. Operating a computing device by detecting rounded objects in an image
WO2014036499A1 (en) 2012-08-30 2014-03-06 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
EP3152737A4 (de) * 2014-06-03 2018-01-24 Jones, Freddy Rechtzeitige registrierung von zeitlich getrennter bilderfassung
US9974525B2 (en) 2014-10-31 2018-05-22 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716544B2 (en) 2015-10-08 2020-07-21 Zmk Medical Technologies Inc. System for 3D multi-parametric ultrasound imaging
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US10299880B2 (en) 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10893843B2 (en) 2017-10-10 2021-01-19 Covidien Lp System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction
CN112040901A (zh) 2018-01-12 2020-12-04 彼得·L·波纳 外科手术传感器锚系统
US11364004B2 (en) 2018-02-08 2022-06-21 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6389104B1 (en) * 2000-06-30 2002-05-14 Siemens Corporate Research, Inc. Fluoroscopy based 3-D neural navigation based on 3-D angiography reconstruction data
US20050197568A1 (en) * 2002-03-15 2005-09-08 General Electric Company Method and system for registration of 3d images within an interventional system
US20050228270A1 (en) * 2004-04-02 2005-10-13 Lloyd Charles F Method and system for geometric distortion free tracking of 3-dimensional objects from 2-dimensional measurements
US20050281385A1 (en) * 2004-06-02 2005-12-22 Johnson Douglas K Method and system for improved correction of registration error in a fluoroscopic image

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5603318A (en) * 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
JP3668822B2 (ja) * 1996-11-11 2005-07-06 株式会社島津製作所 医用画像処理装置
WO2001093745A2 (en) * 2000-06-06 2001-12-13 The Research Foundation Of State University Of New York Computer aided visualization, fusion and treatment planning
US6725079B2 (en) * 2001-06-20 2004-04-20 Odin Medical Technologies, Ltd. Dual pointer device and method for surgical navigation
DE10210645B4 (de) * 2002-03-11 2006-04-13 Siemens Ag Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
US7599730B2 (en) * 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
JP2008534109A (ja) * 2005-03-31 2008-08-28 パイエオン インコーポレイテッド 管状器官内の機器を位置決めする装置および方法
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
CA2617730A1 (en) * 2005-08-05 2007-02-15 Volker Rasche Catheter navigation system
US7522701B2 (en) * 2005-12-20 2009-04-21 General Electric Company System and method for image composition using position sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6389104B1 (en) * 2000-06-30 2002-05-14 Siemens Corporate Research, Inc. Fluoroscopy based 3-D neural navigation based on 3-D angiography reconstruction data
US20050197568A1 (en) * 2002-03-15 2005-09-08 General Electric Company Method and system for registration of 3d images within an interventional system
US20050228270A1 (en) * 2004-04-02 2005-10-13 Lloyd Charles F Method and system for geometric distortion free tracking of 3-dimensional objects from 2-dimensional measurements
US20050281385A1 (en) * 2004-06-02 2005-12-22 Johnson Douglas K Method and system for improved correction of registration error in a fluoroscopic image

Also Published As

Publication number Publication date
FR2914765A1 (fr) 2008-10-10
JP5207795B2 (ja) 2013-06-12
US20080247616A1 (en) 2008-10-09
DE102008017111A1 (de) 2008-10-09
FR2914765B1 (fr) 2018-01-26
JP2008253763A (ja) 2008-10-23
US7899226B2 (en) 2011-03-01

Similar Documents

Publication Publication Date Title
DE102008017111B4 (de) System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt
DE60317358T2 (de) System zur Positionierung einer medizinischen Vorrichtung
DE102005037000B4 (de) Vorrichtung zur automatisierten Planung eines Zugangspfades für einen perkutanen, minimalinvasiven Eingriff
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
EP2445437B1 (de) Verfahren zum erzeugen von positionsdaten eines instrumentes
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
EP2044975B1 (de) Verfahren zum Registrieren von 2D-Bilddaten, Computerprogrammprodukt, Navigationsverfahren zum Navigieren eines Behandlungsgerätes im Bereich der Medizin und Recheneinrichtung zum Registrieren von 2D-Bilddaten
DE102015226669A1 (de) Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
EP1321101A2 (de) Verfahren zur Unterstützung der Orientierung im Gefässsystem
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
DE102005059804A1 (de) Verfahren und Vorrichtung zur Bewegungskorrektur bei der Bildgebung während einer medizinischen Intervention
EP1925256A1 (de) Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
DE102005036322A1 (de) Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion
DE102005007893A1 (de) Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgengerät
DE102012216327A1 (de) Verfahren zur Erfassung einer Bewegung eines Patienten während einer medizinischen Bildgebungsuntersuchung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE102007009764A1 (de) Verfahren und Vorrichtung zur visuellen Unterstützung einer Katheteranwendung
DE102005045602B4 (de) Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs
DE102019214887A1 (de) Verfahren zu einem automatischen Positionieren eines zu untersuchenden Bereichs eines Patienten für eine medizinische Bildgebungsuntersuchung sowie eine medizinische Bildgebungsvorrichtung, die zu einem Durchführen des Verfahrens ausgelegt ist
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE102012224057B4 (de) Verfahren und Vorrichtung zur Bildunterstützung
DE102005022901B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung eines sich in einem Objekt befindlichen Instruments
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102005051102B4 (de) System zur medizinischen Navigation
DE102005022541A1 (de) Verfahren und Gerät zur Darstellung von Strukturen auf einem 2D-Durchleuchtungsbild

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20150217

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: INTUITIVE SURGICAL OPERATIONS. INC. (N.D. GES., US

Free format text: FORMER OWNER: GENERAL ELECTRIC CO., SCHENECTADY, N.Y., US

R082 Change of representative

Representative=s name: RUEGER ABEL PATENT- UND RECHTSANWAELTE, DE

Representative=s name: RUEGER ABEL PATENTANWAELTE PARTGMBB, DE