DE69721045T2 - Vorrichtung und verfahren zur darstellung von ultraschallbildern - Google Patents
Vorrichtung und verfahren zur darstellung von ultraschallbildern Download PDFInfo
- Publication number
- DE69721045T2 DE69721045T2 DE69721045T DE69721045T DE69721045T2 DE 69721045 T2 DE69721045 T2 DE 69721045T2 DE 69721045 T DE69721045 T DE 69721045T DE 69721045 T DE69721045 T DE 69721045T DE 69721045 T2 DE69721045 T2 DE 69721045T2
- Authority
- DE
- Germany
- Prior art keywords
- instrument
- images
- spatial
- orientation
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/10—Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/899—Combination of imaging systems with ancillary equipment
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/5205—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52071—Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/916—Ultrasound 3-D imaging
Description
- GEBIET DER ERFINDUNG
- Die Erfindung betrifft im Allgemeinen das Gebiet der Ultraschall-Bildgebung. Speziell betrifft die vorliegende Erfindung die Verarbeitung von Ultraschallbildern aus einem Ultraschallwandler. Noch spezieller betrifft die Erfindung ein Verfahren und ein System zum Bestimmen der Raumposition eines medizinischen Instruments sowie der Bilder, die durch den Ultraschall-Bildgebungswandler akquiriert werden, und das Verwenden dieser Information zur Erzeugung von verarbeiteten Bildern des Körpers aus der Perspektive des Instruments.
- HINTERGRUND DER ERFINDUNG
- Es ist in der Technik bekannt, Ultraschall-Bildgebungssysteme zu verwenden, um innere Bilder eines Körpers zu akquirieren, wie z. B. eines anatomischen Körpers, um eine medizinische Prozedur zu planen oder durchzuführen, sei sie diagnostisch, therapeutisch oder chirurgisch. Es gibt verschieden Vorteile bei Verwendung von Ultraschall-Bildgebungssystemen gegenüber anderen Bildgebungssystemen. Beispielsweise neigen Ultraschall-Bildgebungssysteme dazu, weniger körperintrusiv zu sein und sie setzen den Patienten nicht größeren Mengen an Strahlungen oder Farbstoffen aus. Zusätzlich sind Ultraschall-Bildgebungssysteme eher weniger teuer im Einkauf. Ultraschall-Bildgebungssysteme sind auch billiger im Betrieb, da weniger Personal involviert ist, es ist nicht notwendig, den Patienten stabil zu halten und die Ultraschallbilder müssen nicht "vorakquiriert" werden, sondern sie können während der medizinischen Prozedur akquiriert werden.
- Der prinzipielle Vorteil von Bildgebungssystemen im Allgemeinen ist die Fähigkeit, innere Bereiche eines Patienten sichtbar zu machen und medizinische Instrumente oder Sonden in den Körper eines Patienten zu führen, ohne große Einschnitte in den Körper des Patienten zu machen. Wenn kleinere Einschnitte in den Patientenkörper gemacht werden, verringert dies das Risiko für den Patienten und ebenfalls die Dauer des Krankenhausaufenthaltes des Patienten.
- Um jedoch Bilder wirksam als Navigationshilfe während einer Prozedur am Patienten verwenden zu können, müssen die durch den Ultraschall-Bildgebungssysteme akquirierten Bilder in klarer, genauer und verwenderfreundlicher Weise angezeigt werden. Nur dann kann der Mediziner den Innenbereich des Körpers in einfacher Weise visualisieren.
- In der Vergangenheit konnten die durch einen Ultraschall-Bildgebungswandler akquirierten Bilder nur aus einer Perspektive oder Sicht gesehen werden, nämlich aus der Perspektive des Ultraschall-Bildgebungswandlers, der die Bilder akquirierte. Während der Bildgebungswandler um den Körper herum bewegt werden konnte, um Bilder aus unterschiedlichen Perspektiven oder Sichten zu akquirieren, war es nicht möglich, Bilder aus der Perspektive oder der Sicht des Instruments zu akquirieren. Es blieb bei dem Mediziner, die Position, Ausrichtung und Bahn des Instruments im Körper aus den Bildern auf der Anzeige zu extrapolieren.
- Außerdem ist die Position des Instruments bei Systemen gemäß dem Stand der Technik im Allgemeinen nicht einfach auf den akquirierten Bildern zu sehen. Um die Sichtbarkeit des Instruments zu verbessern, war es oft notwendig, einen Ultraschall-Tracking-Wandler an dem Instrument zu platzieren. Der Ultraschall-Tracking-Wandler würde die Ultraschallsignale erhalten, die durch den Ultraschall-Bildgebungswandler emittiert werden, und einen "blip" zur Verfügung stellen, der das Instrument auf den Bildern repräsentiert. Dies hätte aber modifizierte Instrumente und zusätzliche Kosten notwendig gemacht.
- Deshalb hatte der Stand der Technik einige Nachteile. Speziell konnten Systeme nach dem Stand der Technik nur aus einer Perspektive oder Sicht klare Ultraschallbilder erzeugen und anzeigen, nämlich aus der Perspektive oder Sicht des Ultraschall-Bildgebungswandlers. Jedoch gibt diese Sicht ein nur eingeschränktes Navigationswerkzeug für einen Mediziner her, zumindest weil der Mediziner die Bahn des Instruments im Körper nicht einfach visualisieren kann.
- Zusätzlich erfordern die meisten der Systeme nach dem Stand der Technik einen Tracking-Wandler von irgendeinem Typ, der an der Sonde oder an dem medizinischen Instrument angeordnet werden muss, welches in den Körper des Patienten eingesetzt wird. Modifizierte Instrumente, die Tracking-Wandler umfassen, müssen verwendet werden.
- Demgemäß bestand in der Technik ein Bedarf an einem alternativen Verfahren und System zur genauen, wirksamen und robusten Präsentation der Bilder, die von einem Ultraschall-Bildgebungswandler akquiriert werden. Zusätzlich besteht ein Bedarf an einem System, welches es nicht erfordert, dass die medizinischen Instrumente Ultraschall-Tracking-Wandler aufweisen, die in den Körper eintreten.
- Die internationale Patentanmeldung WO 96/32 066 lehrt eine Vorrichtung und Verfahren zum Positionieren einer Biopsienadel zum Einsetzten um so in Echtzeit eine vorbestimmte Trajektorie zu einem Zielgewebebereich zu erlangen. Die Nadelposition wird elektronisch getrackt und dann über ein vorher gespeichertes oder Echtzeitbild des Gewebes projiziert werden. Die Vorrichtung umfasst eine Basis mit einem angebrachten Ultraschallscanner und Nadelhalterungssystem. Das Nadelhalterungssystem ist trennbar mit einem Computer gekoppelt, der ein computerbasiertes Anzeigesystem hat, so dass die Bewegung der Biopsienadel auf einem Monitor angezeigt wird. Der Ultraschallwandler kann auf einem Träger angebracht werden, der durch ein System aus Riemen, Kabeln, Antriebsspindeln oder ähnlichen Mechanismen angetrieben wird, um ein Scannen entlang einer Reihe von Ebenen bereitzustellen, die ausreichen, um ein dreidimensionales Datenmodell des Gewebes zu erzeugen, an dem die Biopsie stattfinden soll. Das Nadelhalterungssystem umfasst ein paar Linearcodierer, die Positionsinformationen für die Nadel an den Computer geben. Die Codierer geben ein Signal aus, das der Nadelverschiebung von einem voreingestellten Referenzpunkt entspricht. Obwohl die Offenbarung die Auswahl einer Bildsicht von den Ultraschallbildschnitten der inneren Merkmale des Gewebes anspricht, wird nicht gelehrt oder angesprochen wie diese Auswahl umgesetzt werden soll.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Demgemäß ist es eine Aufgabe dieser Erfindung, die Nachteile des Standes der Technik zumindest teilweise zu überwinden. Es ist ebenfalls eine Aufgabe dieser Erfindung, ein verbessertes Verfahren und ein System bereitzustellen, zur leichten Darstellung verbesserter Bilder aus den Ultraschall-Bildgebungswandlern, einschließlich dreidimensionaler Bilder der inneren Bereiche des Patienten, von der Perspektive oder Sicht des Instruments in dem Körper, so dass die Sicht mit der Position und Ausrichtung des Instruments gegenüber dem Patienten in Beziehung steht.
- Es ist ebenfalls eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Tracken der Raumposition eines medizinischen Instruments und des Ultraschall-Bildgebungswandlers bereitzustellen, und diese Information dazu zu nutzen, automatisch Bilder aus der Perspektive oder Sicht des Instruments zu erzeugen, mit oder ohne eine Darstellung des Instruments auf den Bildern.
- Die Erfindung ist in den Ansprüchen 1 und 17 definiert.
- Weitere Aspekte der Erfindung werden beim Lesen der folgenden detaillierten Beschreibung und der Zeichnungen ersichtlich, welche die Erfindung und bevorzugte Ausführungsformen der Erfindung darstellen.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- In den Zeichnungen, die Ausführungsformen der Erfindung darstellen, zeigen:
-
1 ein System gemäß einer Ausführungsform der vorliegenden Erfindung; -
2A eine vergrößerte Ansicht eines Ultraschall-Bildwandlers, der bei einer Ausführungsform der vorliegenden Erfindung verwendet wird; -
2B eine vergrößerte Ansicht eines Instruments, welches bei einer Ausführungsform der vorliegenden Erfindung verwendet werden kann; -
3A und3B verarbeitete Bilder, welche durch das System gemäß einer Ausführungsform der vorliegenden Erfindung erzeugt werden können; -
4 ein System gemäß einer anderen Ausführungsform der vorliegenden Erfindung, wobei zwei Instrumente verwendet werden; und -
5 ein System gemäß einer anderen Ausführungsform der vorliegenden Erfindung, wo zwei Ultraschall-Bildgebungswandler verwendet werden. - DETAILLIERTE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN DER ERFINDUNG
- Das Visualisierungssystem bzw. Darstellungssystem der vorliegenden Erfindung ist in
1 im Ganzen mit den Bezugszeichen10 gezeigt. Das System10 umfasst einen ersten räumlichen Determinator, der insgesamt mit 12 bezeichnet ist, zum Bestimmen von Raumpositionsinformationen für ein chirurgisches Instrument14 . Die Raumpositionsinformation, die durch den ersten räumlichen Determinator12 bestimmt oder erhalten wird, umfasst die Position und die Ausrichtung des Instruments14 in einem Referenzrahmen. Der erste räumliche Determinator12 sendet ebenfalls ein erstes räumliches SignalSp1 , welches die Raumpositionsinformation für das Instrument14 in dem Referenzrahmen repräsentiert. - In gleicher Weise umfasst das System
10 einen zweiten räumlichen Determinator16 zum Bestimmen einer Raumpositionsinformation für einen Ultraschall-Bildwandler18 . Die Raumpositionsinformation des Wandlers18 umfasst die Position und Ausrichtung des Wandlers18 im Referenzrahmen. Der zweite räumliche Determinator16 sendet ein zweites räumliches SignalSp2 , welches die Raumpositionsinformation des Wandlers18 im Referenzrahmen repräsentiert. - Die Raumpositionsinformation eines Objektes umfasst mindestens ausreichend Information, um die Raumposition zu identifizieren, nämlich die Position und Ausrichtung eines Objekts in einem Referenzrahmen. In einem Kartesischen Koordinatensystem kann die Position eines Objekts durch die x-, y- und z-Koordinaten angezeigt werden, welche die Position eindeutig in drei Dimensionen identifizieren. Die Ausrichtung eines Objekts kann durch Azimuth (a), Elevation (e) und Rollwinkel (r) wiedergegeben werden. Demgemäß identifiziert das erste räumliche Signal
Sp1 die Raumposition des Instruments14 durch die Wiedergabe der Raumpositionsinformation für das Instrument14 , wie z. B. die x-, y-, z-Koordinaten und Azimuth, Rollwinkel und Elevation. - Der erste und der zweite räumliche Determinator
12 ,16 können die Position und Ausrichtung des Instruments14 und des Ultraschall-Bildwandlers18 jeweils relativ zu einem Referenzrahmen ermitteln. Es gibt eine Anzahl alternativer Methoden und Vorrichtungen, die verwendet werden können, um die Raumpositionsinformation für das Instrument14 und den Ultraschall-Bildwandler relativ zum Referenzrahmen zu erhalten. Einrichtungen, die diese Funktion ausüben können, sind in der Technik bekannt und werden kollektiv als räumliche Determinatoren bezeichnet, wie z. B. der erste und der zweite räumliche Determinator12 ,16 . - Zum Beispiel umfasst ein räumlicher Determinator, welcher in dem System
10 entweder als erster räumlicher Determinator12 , als zweiter räumlicher Determinator16 oder für beide verwendet werden kann, einen elektromagnetischen Emitter, der an einem festen Punkt positioniert ist (gezeigt durch das Bezugszeichen24' in1 ), und zwar in einem Referenzrahmen, und einen Sensor, der an dem Instrument14 angeordnet ist, sowie einen entsprechenden Sensor, der an dem Wandler18 angeordnet ist. Durch das Vergleichen des Timings und der Phase der übertragenen Signale von dem Emitter mit empfangenen Signalen, die durch die Sensoren aufgenommen werden, können die Position und die Ausrichtung des Instruments14 und des Wandlers18 gegenüber dem festen Punkt24' bestimmt werden. Als ein weiteres Beispiel für einen räumlichen Determinator könnte das Instrument14 an einem leichten Multigelenkarm21 angebracht sein, der mehrere Sektionen aufweist, die durch Gelenke miteinander verbunden sind. Die Gelenke stellen in Kombination einen Bewegungsbereich zur Verfügung, der gleich oder größer ist als derjenige, der für eine vorgegebene Prozedur benötigt wird. Winkelsensoren erfassen jedwede Veränderung in der Position oder Ausrichtung der Sektionen und Gelenke. Unter Verwendung einfacher geometrischer Berechnungen und diese Winkelinformationen kann die Position und Ausrichtung des Instruments14 relativ zum festen Punkt24' bestimmt werden. Ein ähnlicher räumlicher Determinator könnte für den Wandler18 verwendet werden. Räumliche Determinatoren, welche diese bekannten Lokalisierungsverfahren verwenden, sind im Handel erhältlich. - Es ist zu bemerken, dass jedwede Sensoren, die an oder nahe dem Instrument
14 im System10 angeordnet sind, nicht in einer Position an dem Instrument14 angeordnet sein müssen, welche in den Körper20 des Patienten22 eintritt. Beispielsweise könnte der Sensor an jeder Stelle des Instruments14 angeordnet sein, oder an dem Arm21 , der verwendet wird, um das Instrument14 zu halten. Auf diese Weise ist der Sensor des ersten räumlichen Determinators immer für die Personen zugänglich, die das System10 verwenden, so dass er überprüft und ersetzt werden kann, wenn er für fehlerhaft befunden wird. Auch muss der Sensor des ersten räumlichen Determinators12 keine spezielle Größe und Form haben, um den Eintritt in den Körper20 des Patienten22 zu gestatten. - Es ist vorzuziehen, dass der feste Punkt
24' , von dem aus die räumlichen Determinatoren12 ,16 Raumpositionsinformationen für das Instrument14 und den Wandler18 bestimmen, ebenfalls der Ursprung (gezeigt in1 durch das Bezugszeichen24 ) des Referenzrahmens ist. Drei Achsen sind gezeigt, die von dem Ursprung24 abgehen und die x-, y- und z-Koordinaten im Referenzrahmen repräsentieren. Jeder Punkt im Referenzrahmen und speziell jeder Punkt in und außerhalb des Patienten22 , hat eine einzigartige x-, y- und z-Koordinate in diesem Referenzrahmen. Die räumlichen Determinatoren12 ,16 können die Koordinaten eines jedweden Punk im Referenzrahmen bestimmen. Es versteht sich, dass jeder Typ von Koordinatensystem, einschließlich eines Kugelkoordinatensystems, verwendet werden kann, und dass die Erfindung nicht auf die Verwendung eines x-, y-, z-Koordinatensystems beschränkt ist. - Der Ursprung
24 könnte ein fester Punkt im Operationssaal sein, wie z. B. die Basis des Ständers26 , wie in1 gezeigt. Zur zusätzlichen Stabilität wird der Ständer26 im Raum gesichert, beispielsweise durch das Verbolzen des Ständers26 und des Tisches, auf welchem der Patient22 in dem Raum angeordnet ist. Deshalb umfasst der Referenzrahmen den festen Punkt24' , welcher ebenfalls der Ursprung24 ist, und der Referenzrahmen umfasst den Ultraschall-Bildwandler18 , das Instrument14 , den Ursprung24 und mindestens den Abschnitt des Körpers20 des Patienten22 , der in der durchgeführten Prozedur von Interesse ist. Punkte außerhalb des Bereiches der räumlichen Determinatoren12 ,16 müssen innerhalb des Referenzrahmens nicht beachtet werden. Deshalb muss der Bereich des ersten und zweiten räumlichen Determinators12 ,16 nicht den gesamten Raum umfassen. Der Referenzrahmen mit dem festen Punkt24' im Operationssaal, welcher der Ursprung24 ist, kann als Labor- oder Operationssaal-Referenzrahmen angesehen werden, weil der Referenzrahmen bezüglich des Labor- oder Operationsraumes fest ist. - Der erste und der zweite räumliche Determinator
12 ,16 erhalten oder bestimmen die Raumpositionsinformation jeweils für das Instrument14 und den Wandler18 bezüglich des Ursprungs24 des Referenzrahmens. Es versteht sich, dass die Raumpositionsinformation des Instruments14 und des Ultraschall-Bildwandlers18 nicht gegenüber demselben Punkt erhalten werden müssen, nämlich dem Ursprung24 , sondern dass die Position und Ausrichtung des Instruments14 und des Wandlers18 gegenüber verschiedenen Punkten im Referenzrahmen erhalten werden könnten, vorausgesetzt die relative Position dieser verschiedenen Punkte ist bekannt. Jedoch ist es zweckdienlicherweise vorzuziehen, dass die Raumpositionsinformationen für das Instrument14 und den Wandler18 bezüglich desselben Punktes erhalten werden, nämlich des Ursprungs24 . - Bei einer weiteren Ausführungsform sind der erste räumliche Determinator
12 und der zweite räumliche Determinator16 so angeordnet, dass die Relativposition und Ausrichtung zwischen dem Wandler18 und dem Instrument14 bestimmt wird. Dies wird beispielsweise dadurch erreicht, dass ein elektromagnetischer Emitter auf entweder dem Wandler oder dem Instrument18 platziert wird, und der Sensor auf dem anderen Bauteil, dem Instrument14 oder dem Wandler18 . - Für den Fall, wo der Emitter auf dem Instrument
14 platziert wird, wird der Ursprung ein beweglicher oder nicht fester Ursprung im Operationssaal, allgemein in1 durch das Bezugszeichen24'' angezeigt. In diesem Fall kann der Referenzrahmen als Referenzrahmen des Instruments14 angesehen werden, weil der Referenzrahmen bezüglich dem Griff des Instruments14 fest ist. Der bewegliche Ursprung24'' ist gegenüber dem Labor- oder Operationssaal-Referenzrahmen beweglich, aber der bewegliche Ursprung24'' ist im Referenzrahmen des Instruments14 fixiert. - Die Position und Ausrichtung des Instruments
14 in dem Referenzrahmen des Instruments14 kann dadurch bestimmt werden, dass die Abmessungen des Instruments14 bekannt sind. Deshalb müsste nur eine Berechnung gemacht werden, um die Position und Ausrichtung des Wandlers18 im Referenzrahmen des Instruments14 zu bestimmen, nämlich die Berechnung der relativen Position und Ausrichtung des Wandlers18 und der Bilder 32 gegenüber dem beweglichen Ursprung24'' . Dies vereinfacht die Berechnungen dieser Ausführungsform gegenüber der oben beschriebenen Ausführungsform, wo der Referenzrahmen der Labor-Referenzrahmen ist und der feste Punkt24' als Ursprung24 des Referenzrahmens verwendet wird. Auch werden nur ein Emitter und ein Sensor benötigt, wenn der Referenzrahmen in Relation zum Instrument14 liegt. - Jedoch muss der Emitter in der Ausführungsform mit dem beweglichen Ursprung
24'' auf dem Instrument14 angeordnet sein. Es ist klar, dass in gleicher Weise ein beweglicher Ursprung dem Wandler18 zugeordnet werden könnte, so dass ein Referenzrahmen des Wandlers18 verwendet wird. - Wie oben angesprochen, umfasst die Raumpositionsinformation für das Instrument
14 und den Wandler18 die Position und Ausrichtung des Instruments14 und des Wandlers18 , jeweils in einem Referenzrahmen, welcher Referenzrahmen auch immer verwendet wird. Natürlich kann die Raumpositionsinformation weitere Informationen umfassen, welche die Position des Instruments14 oder des Wandlers18 im Referenzrahmen betreffen, z. B. die Geschwindigkeit, Beschleunigung oder andere Informationen bezüglich der räumlichen Position und Ausrichtung des Instruments14 und des Wandlers18 und der Änderungsrate für die Raumposition des Instruments14 und des Wandlers18 . - Der Ultraschall-Bildwandler
18 emittiert Ultraschallwellen in dem Körper20 . Der Wandler18 verwendet die Echos dieser Ultraschallwellen zur Herstellung von BildsignalenS1 , welche innere Bilder des Körpers20 repräsentieren. Die BildsignaleS1 werden in einer Bildverarbeitungseinheit28 gespeichert. - Bei einer bevorzugten Ausführungsform umfassen die vom Wandler
18 erhaltenen Bilder Schichtenstapel zweidimensionaler Bilder32 . Jedes der zweidimensionalen Bilder32 in jedem Schichtenstapel bzw. Schnittbildstapel wird in einer bekannten Position und Ausrichtung gegenüber einem festen Punkt40 auf dem Wandler18 erhalten. Auf diese Weise bildet der Schichtenstapel der zweidimensionalen Bilder32 diskrete Bilder32 , die in einem Volumen oder Raum aufgenommen wurden, der in2A im Ganzen durch den gestrichelten Kasten33 gezeigt ist. Dieses Volumen oder dieser Raum33 und die Bilder32 , welche den Schichtenstapel umfassen, sind bezüglich einem festen Punkt40 durch die Vektorposition42 eindeutig definiert. Mit anderen Worten identifiziert die Vektorposition42 eindeutig den Abstand und die Richtung des Bildgebungsvolumens33 bezüglich dem festen Punkt40 auf dem Wandler, wodurch die Position und Ausrichtung jedes Bildes32 in dem Volumen33 eindeutig identifiziert wird. Die Position und Ausrichtung der Bilder32 in dem Volumen33 , aufgenommen durch den Wandler18 , kann durch den Verwender ausgewählt werden und ist im Allgemeinen fächerförmig. - Das System
10 umfasst ferner eine Mappingeinheit34 . Die Mappingeinheit34 empfängt das erste räumliche SignalSp1 und das zweite räumliche SignalSp2 . Unter Verwendung des ersten räumlichen SignalsSp1 und des zweiten räumlichen SignalsSp2 erzeugt die Mappingeinheit34 ein erstes MappingsignalSm1 . Das erste MappingsignalSm1 zeigt die Position und die Ausrichtung des Instruments14 , gemappt auf die Position der Bilder32 an. - Mit dem ersten Mappingsignal
Sm1 kann die Bildverarbeitungseinheit28 die gespeicherten BildsignaleS1 verarbeiten und verarbeitete BildsignaleIs aus einer Sicht erzeugen, welche zur Raumposition des Instruments14 in Bezug steht. Die Bildverarbeitungseinheit28 tut dies durch ein Re-Sampling der gespeicherten BildsignaleS1 zur Erzeugung verarbeiteter BildsignaleIs aus einer bekannten Position und Ausrichtung im Referenzrahmen. Diese bekannte Position ist räumlich zu der Position und Ausrichtung des Instruments in Bezug gesetzt. Mit anderen Worten entspricht die bekannte Position einer Position an oder nahe dem Instrument14 . - Die verarbeiteten Bildsignale
Is können zweidimensionale Bilde entlang Ebenen sein, die transaxial oder orthogonal zur Position des Instruments14 liegen. Die verarbeiteten BildsignaleIs können ebenfalls dreidimensionale Projektionsbilder sein. In jedem Fall repräsentieren die verarbeiteten BildsignaleIs Bilder des Körpers20 aus der Sicht des Instruments14 , als ob der Beobachter an einer Position an oder nahe dem Instrument14 im Körper20 sitzen würde, von welchem die Bildsignale re-Sampled werden. Im Fall von dreidimensionalen Projektionsbildern werden die verarbeiteten Bilder eine Sicht und eine Perspektive aufweisen, die räumlich zur Position und Ausrichtung des Instruments14 in Bezug steht. - Es ist klar, dass eine Sicht aus der Perspektive des Instruments
14 einer Sicht aus der Perspektive des Wandlers18 vorzuziehen ist, weil die Perspektive des Instruments14 dem Mediziner dabei hilft, die inneren Merkmale des Körpers20 zu visualisieren, während er das Instrument14 führt. Zusätzlich könnte die Bildverarbeitungseinheit28 auf Wunsch des Mediziners verarbeitete BilderIs aus einer anderen Perspektive erzeugen, wie z. B. der Perspektive des Wandlers18 , oder einfach die unverarbeiteten SignalbilderSi anzeigen, wie dies bei den Systemen gemäß dem Stand der Technik getan wird. Deshalb gibt die vorliegende Erfindung dem Mediziner eine zusätzliche Vielseitigkeit. - Die Anzeigeeinheit
30 empfängt das verarbeitete BildsignalIs und zeigt verarbeitete Bilder62 entsprechend der verarbeiteten BildsignaleIs an. Die verarbeiteten Bilder62 sind die Bilder, die durch den Ultraschall-Bildwandler18 akquiriert wurden, aber erzeugt aus der Perspektive des Instruments14 im Körper20 durch das oben beschriebene Verfahren. Die1 zeigt ein Beispiel der verarbeiteten Bilder62 aus einer Sicht bei einer Position gerade hinter dem Ende des Instruments14 , das in diesem Fall eine Sonde ist. - Weil die Raumpositionsinformation für sowohl das Instrument
14 als auch die Bilder32 im selben Referenzrahmen erhalten werden, hat die Mappingeinheit34 ausreichend Informationen, um die Position und Ausrichtung des Instruments auf die Position und Ausrichtung des Wandlers18 zu mappen. Jedoch ist es, um die Raumpositionsinformation des Instruments14 auf die Raumpositionsinformation der Bilder32 zu mappen, notwendig, dass die Mappingeinheit34 die Position und Ausrichtung der Bilder32 im Referenzrahmen von der Raumpositionsinformation des Wandlers18 bestimmt. Um dies durchzuführen, umfasst die Mappingeinheit34 eine Speichereinheit38 , die aus Standard-Speicherchips gebildet sein kann, wie z. B. RAM oder Magnetdisk oder andere Datenspeichervorrichtungen, um Raumpositionsinformationen für die Bilder32 bezüglich des Wandler18 zu speichern. - Die Raumpositionsinformation der Bilder
32 bezüglich des Wandlers18 umfasst die Vektorposition42 . Die Vektorposition42 von dem festen Punkt40 gibt im Wesentlichen die Distanz und Richtung wieder, von welcher der Wandler18 aus die Bilder32 im Körper20 akquiriert, wie in2A gezeigt ist. - Die Vektorposition
42 kann durch das Kalibrieren des Wandlers18 vor dem Beginn der Prozedur bestimmt werden. Im Allgemeinen wird die Vektorposition sich während der Prozedur nicht stark verändern, und eine neue Kalibrierung des Wandlers18 ist im Allgemeinen nicht erforderlich. Abhängig von dem Typ des Wandlers18 , der verwendet wird, ist es darüber hinaus möglicherweise nicht notwendig, überhaupt eine Kalibrierung durchzuführen, sondern sie kann während der Herstellung eingestellt und ausreichend stabil sein, so dass sie sich nicht ändert. - Bei einigen Ausführungsformen kann der Wandler
18 dazu in der Lage sein, Einstellungen vorzunehmen, so dass die Tiefe oder eine andere Position der Bilder32 bezüglich des Wandler18 eingestellt werden kann. In diesen Fällen ist es klar, dass eine unterschiedliche Vektorposition42 von dem festen Punkt40 für jede Veränderung in der Tiefe der Bilder32 gegenüber dem Körper20 benötigt würde. Die Raumpositionsinformation für die Bilder32 bezüglich des Wandlers18 , die in der Speichereinheit38 gespeichert ist, würde die Vektorposition42 für die Bilder32 mit verschiedenen Tiefen im Körper20 umfassen. Eine Einstellung der Tiefe der Bilder32 im Körper20 würde bewirken, dass die Mappingeinheit34 eine entsprechende Vektorposition42 aus der Speichereinheit38 wählt. - Mit der Raumpositionsinformation der Bilder
32 bezüglich des Wandlers18 und des zweiten räumlichen SignalsSp2 , welches die Raumpositionsinformation des Wandlers18 im Referenzrahmen repräsentiert, kann die Mappingeinheit34 die Position der Bilder32 im Referenzrahmen bestimmen. Die Mappingeinheit34 führt dies durch, indem sie die Vektorposition42 der Bilder32 bezüglich des festen Punktes40 am Wandler18 , wobei diese Information in der Speichereinheit38 gespeichert ist, zur Raumpositionsinformation des Wandlers18 hinzu addiert, die durch das zweite räumliche SignalSp2 wiedergegeben wird. - Es ist vorzuziehen, dass das zweite räumliche Signal
Sp2 die Raumpositionsinformation für den festen Punkt40 des Wandlers18 repräsentiert. Wenn dies jedoch nicht der Fall ist und das zweite räumliche SignalSp2 die Raumpositionsinformation eines anderen festen Punktes (nicht gezeigt) auf dem Wandler18 wiedergibt, dann kann die Mappingeinheit34 eine weitere Addition von dem anderen festen Punkt (nicht gezeigt) zum festen Punkt40 durchführen. Die Mappingeinheit34 umfasst eine Verarbeitungseinheit39 zur Durchführung dieser Additionen. Die Verarbeitungseinheit39 mappt ebenfalls die Raumpositionsinformationen für das Instrument14 , repräsentiert durch das erste räumliche SignalSp1 , auf die Raumpositionsinformation der Bilder32 . - Bei einer bevorzugten Ausführungsform werden Raumpositionsinformationen für Teile
15 (identifiziert durch "x" in2B ) des Instruments14 bestimmt. Die Teile15 des Instruments14 könnten jedwede leicht beobachtbare Stelle auf oder nahe dem Instrument14 sein, wie z. B. das Ende einer Spritze oder Sonde. Die Teile15 könnten ebenfalls Punkte mit einem bekannten Abstand vom Instrument14 umfassen. In jedem Fall wird die Raumpositionsinformation für die Teile15 des Instruments14 gegenüber einem Punkt13 bestimmt, der fest an dem Instrument14 liegt, durch das Messen oder Kalibrieren des Instruments14 . Alternativ können sog. "intelligente" Instrumente, die Signale erzeugen, welche ihre Form angeben, verwendet werden, so dass die Position der Teile15 des "intelligenten" Instruments bezüglich einem Punkt13 , fixiert an dem Instrument14 , leicht ermittelt werden könnte. - Wenn die Position der Teile
15 des Instruments14 bezüglich eines Punktes13 , der gegenüber dem Instrument fixiert ist, bestimmt wird, wird diese Information in der Speichereinheit38 gespeichert. Die Raumpositionsinformation der Teile15 des Instruments14 kann bezüglich des Referenzrahmens durch die Verarbeitungseinheit39 bestimmt werden, welche die Raumpositionsinformation des Punktes13 , fixiert am Instrument14 , mit der Raumpositionsinformation der Teile15 des Instruments14 in Relation zu dem Punkt13 kombiniert, der an dem Instrument14 fixiert ist. Vorzugsweise entspricht der Punkt13 , der am Instrument14 fixiert ist, der Stelle, wo der erste räumliche Determinator12 an dem Instrument14 befestigt ist. Ansonsten kann die Verarbeitungseinheit39 einen zusätzlichen Ableitungsschritt für die Raumpositionsinformation des Punktes13 durchführen, der am Instrument14 fixiert ist, und zwar aus dem ersten räumlichen SignalSp1 . Mit dieser Information mappt die Mappingeinheit34 die Teile15 des Instruments14 auf die Position der Bilder32 . Das MappingsignalSm1 wird dann nicht nur die Position des Instruments14 sondern auch die Position der Teile15 des Instruments14 bezüglich der Position der Bilder32 angeben. Dies gestattet es der Bildverarbeitungseinheit28 verarbeitete BildsignaleIs aus einer Sicht zu erzeugen, die in Bezug zur Raumposition eines der Teile15 des Instruments14 steht. Die präzise, auf der Anzeigeeinheit30 anzuzeigende Sicht kann durch den Verwender des Systems10 ausgewählt werden. - Der Ultraschall-Bildwandler
18 akquiriert in einer bevorzugten Ausführungsform Bilder32 des Körpers20 . Noch bevorzugter werden die Bilder32 schnell mit geringem Zeitabstand zwischen abfolgenden Bildern akquiriert. Noch bevorzugter akquiriert der Ultraschallwandler18 die Bilder32 in Echtzeit oder im Wesentlichen in Echtzeit, so dass keine zeitliche Verzögerung oder eine vernachlässigbar kleine zeitliche Verzögerung, wie z. B. weniger als 1 Sekunde, zwischen dem abfolgenden Sampling der Bilder32 auftritt. - Auf diese Weise können die Bilder
32 in einer Abfolge dargestellt werden, um die Bewegung des Körpers20 und der inneren Merkmale des Körpers20 im Wesentlichen in Echtzeit zu zeigen. In gleicher Weise kann die Raumpositionsinformation für das Instrument periodisch gesampelt und auf die Bilder32 des Körpers20 gemappt werden. Somit werden sich die verarbeiteten Bilder32 , die auf der Anzeigeeinheit30 angezeigt werden, über die Zeit entsprechend den Änderungen der Position und Ausrichtung des Instruments gegenüber dem Körper20 ändern. Die dargestellten, verarbeiteten Bilder werden im Allgemeinen auf den aktuellsten Bildern32 und der aktuellsten Information basieren. Dies gestattet es dem Verwender des Systems10 , Veränderungen im Körper20 des Patienten22 sowie die Bewegung des Instruments14 im Körper20 zu verfolgen. Auf diese Weise hat der Verwender die Fähigkeit, der Bewegung des Instruments14 zu folgen und zu sehen, wie das Instrument14 die inneren Funktionen des Körpers20 während einer medizinischen Prozedur beeinflusst. - Bei einer bevorzugten Ausführungsform, wie sie in
1 gezeigt, ist der Körper20 der anatomische Körper20 des Patienten22 . Bei dieser Ausführungsform kann das Instrument14 ein chirurgisches Instrument sein, und es kann eine Spritze, eine Sonde oder ein anderer Typ eines chirurgischen Instruments sein. - Der Schichtenstapel der zweidimensionalen Bilder
32 kann vor der Anzeige vorverarbeitet werden, um bestimmte anatomische Merkmale des anatomischen Körpers20 zu verstärken, wie dies in der Technik bekannt ist. Die Verstärkung kann die Form einer Farbgebung für bestimmte Gewebe annehmen, die spezielle Organe repräsentieren, mit unterschiedlichen Farben, so dass die erzeugten inneren Bilder in klarer Weise unterschiedliche anatomische Merkmale im anatomischen Körper unterscheiden. Eine solche Vorverarbeitung des Schichtenstapels der zweidimensionalen Bilder kann durch die Bildverarbeitungseinheit28 in bekannter Weise durchgeführt werden. - Es ist gleichermaßen in der Technik bekannt, dass der Schichtenstapel der zweidimensionalen Bilder
32 kombiniert werden kann, um eine dreidimensionale Wiedergabe der anatomischen Merkmale im anatomischen Körper20 zu bilden. Auf diese Weise kann die Bildverarbeitungseinheit28 verarbeitete BilderIs erzeugen, die eine dreidimensionale Projektion des Volumens oder Raumes33 im Körper20 umfassen, und von der Perspektive des Instruments14 im Körper20 aus. - Wenn der Ultraschallwandler
18 ein dreidimensionaler Ultraschallwandler ist, werden die BildsignaleS1 eine dreidimensionale Wiedergabe des Körpers20 umfassen. In gleicher Weise werden die Bilder, die in der Bildverarbeitungseinheit28 gespeichert sind, und die verarbeiteten Bilder62 , die auf der Anzeigeeinheit30 angezeigt werden, dreidimensionale Bilder sein. - Wie oben erwähnt, zeigt das erste Mappingsignal
Sm1 die Position des Instruments14 gemappt auf die Position der Bilder 32 an. Das erste MappingsignalSm1 kann ebenfalls aus Videoinformationen bestehen, die ausreichen, um eine Darstellung des Instruments14 auf der Anzeigeeinheit30 in einer Position bezüglich der Bilder32 entsprechend der Position des Instruments14 bezüglich des Körpers20 darzustellen. Alternativ kann das erste MappingsignalSm1 ausreichend Informationen betreffend die Position umfassen, und, wenn gewünscht, die Ausrichtung des Instruments14 , so dass eine andere Einheit, wie z. B. die Bildverarbeitungseinheit28 eine Darstellung36 des Instruments14 erzeugen kann. Eine Darstellung36 des Instruments14 wird angezeigt, wenn beispielsweise der Verwender eine Sicht oder Perspektive wählt, bei der ein Teil des Instruments sichtbar ist. Die1 zeigt die Ausführungsform, bei der die Bildverarbeitungseinheit28 das erste Mappingsignal Sm1 erhält und eine Darstellung36 des Instruments14 erzeugt. Die Darstellung36 des Instruments14 kann in die verarbeiteten BildsignaleIs eingearbeitet werden. - Bei einer Ausführungsform können die Bilder
32 durch die Bildverarbeitungseinheit28 vorverarbeitet werden, um eine dreidimensionale Wiedergabe der anatomischen Merkmale im Körper20 bereitzustellen. Bei dieser Ausführungsform könnte eine Wiedergabe36 des Instruments14 , ebenfalls dreidimensional, auf der Anzeigeeinheit30 angezeigt werden, wenn das Instrument aus der gewählten Perspektive und Sicht sichtbar ist. Dies gibt dem Verwender des Systems10 den Anschein und das Gefühl einer chirurgischen Prozedur, jedoch ohne die Notwendigkeit eines großen Einschnitts in den Körper20 des Patienten22 . - Es wird klar, dass ein Vorteil des vorliegenden Systems
10 sowie des Verfahrens zur Verwendung des Systems10 darin liegt, dass der Schritt des Bestimmens der Position, und, wenn gewünscht, Ausrichtung des Instruments14 relativ zur Position, und, wenn gewünscht, Ausrichtung der Bilder32 , unabhängig von der Position des Körpers20 im Referenzrahmen ist. Mit anderen Worten sind alle Werte, die durch die Mappingeinheit34 verwendet werden, um die Raumpositionsinformationen des Instruments14 auf die Raumpositionsinformationen der Bilder32 zu mappen, unabhängig von der Position oder Ausrichtung des Körpers20 . Dies bedeutet, dass der Patient22 während der Prozedur nicht stabil gehalten werden muss. Der Patient22 kann sich während der Prozedur bewegen, um ihm zu mehr Bequemlichkeit zu verhelfen. Auch kann der Patient während der Prozedur bewegt werden, um die Aspekte der Patientenanatomie aus verschiedenen Stellungen oder in Bewegung zu beobachten. - Die
3A und3B zeigen die möglichen Ansichten, welche unter Verwendung des Verfahrens und Systems10 der vorliegenden Erfindung angezeigt werden können. Wie in den3A und3B gezeigt ist, wird eine Fötus-Herzprozedur an einem Patienten12 durchgeführt. Das Instrument14 wird in den Fötus des Patienten22 eingesetzt. Die Position und Ausrichtung des Instruments14 und des Wandlers18 werden unter Verwendung des Systems10 und des Verfahrens wie oben beschrieben bestimmt. Die3B zeigt die möglichen Ansichten, welche durch das System10 erzeugt werden können. - Alle verarbeiteten Bilder
62A ,62B ,62C und62D , die in3A gezeigt sind, sind aus einer Sicht erzeugt worden, die räumlich zu der Raumposition des Instruments14 in Bezug steht. Beispielsweise ist das verarbeitete Bild62A eine Axial-1-Ansicht, erzeugt von einer Raumposition entlang einer ersten Achse des Instruments14 . Das verarbeitete Bild62A zeigt den Fötus und eine Darstellung36 des Instruments14 . In gleicher Weise ist das verarbeitete Bild62B eine Axial-2-Ansicht, aufgenommen von einer Raumposition entlang einer zweiten Achse des Instruments14 , und es zeigt den Fötus und eine Darstellung36 des Instruments14 . Das verarbeitete Bild62C ist ein Bild eines Schnittes bzw. einer Schicht durch den Fötus, transaxial zum Instrument14 . Die Schichtebene ist senkrecht zu der Achse des Instruments14 , und die Spitze des Instruments14 ist am Mittelpunkt der Schichten angeordnet und auf dem Bild mit einem Cursor "+" markiert. - Die Schichtebenen "Axial-1", "Axial-2" und "Transaxial an der Spitze" sind alle der Position und Ausrichtung des Instruments
14 so zugeordnet, dass die Bewegung des Instruments14 eine Veränderung in den entsprechenden Bildern62A ,62B und62C bewirkt. - Das verarbeitete Bild
62D ist eine dreidimensionale Projektion des Fötus, erzeugt von den Bildern32 , die durch den Wandler18 akquiriert wurden. Eine dreidimensionale Darstellung36 des Instruments14 erscheint ebenfalls im verarbeiteten Bild62D . Die Ansicht des verarbeiteten Bildes62D wird von einer Position erzeugt, die um einen vorbestimmten Abstand von der Seite des Instruments14 liegt, und von einer Perspektive, die auf das Instrument14 sieht, so dass die Darstellung36 des Instruments14 im verarbeiteten Bild62D zu sehen ist. - Es wird klar, dass jede der Ansichten der verarbeiteten Bilder
62A ,62B ,62C und62D von einer Raumposition, ob Punkt oder Achse, aufgenommen oder erzeugt werden, welche räumlich der Position des Instruments14 so zugeordnet ist, dass sie entlang einer Achse von einem Punkt an oder nahe dem Instrument liegt. Dies ist der Fall obwohl die verarbeiteten Bilder62A ,62B ,62C und62D aus dem Bild32 erzeugt werden, das durch den Wandler18 akquiriert wird. - Die
4 zeigt eine weitere bevorzugte Ausführungsform der vorliegenden Erfindung. Das in4 gezeigte System110 hat einige gemeinsame Elemente mit dem in1 gezeigten System10 , und gleiche Bezugszeichen werden für gleiche Merkmale verwendet. Jedoch ist das System110 eine Erweiterung des Systems10 dahingehend, dass ein weiteres Instrument114 zusätzlich zum Instrument14 verwendet wird. Das System110 umfasst einen dritten räumlichen Determinator112 zum Bestimmen der Raumpositionsinformation des anderen Instruments114 im Referenzrahmen. Der dritte räumliche Determinator112 sendet ein drittes räumliches SignalSp3 zur Mappingeinheit38 , und zwar auf dieselbe Weise wie der erste räumliche Determinator12 das erste räumliche SignalSp1 zur Mappingeinheit34 sendet. Das dritte räumliche SignalSp3 repräsentiert die Raumpositionsinformation des anderen Instruments114 im Referenzrahmen. - Die Mappingeinheit
34 empfängt das dritte räumliche SignalSp3 und erzeugt ein zweites MappingsignalSm2 , welches die Position des anderen Instruments114 , gemappt auf die Position der Bilder32 anzeigt. Die Bildverarbeitungseinheit28 empfängt das zweite MappingsignalSm2 und erzeugt eine Darstellung136 des anderen Instruments114 , mit einer Position, und, wenn gewünscht, Ausrichtung, relativ zu den Bildern32 des Körpers20 , welche der Position, und, wenn gewünscht Ausrichtung des anderen Instruments114 relativ zum Körper20 entspricht. Die Darstellung136 des anderen Instruments114 wird auf der Anzeigeeinheit30 erscheinen, wenn das andere Instrument136 in den verarbeiteten Bildern62 zu sehen ist. - Ferner könnte der Verwender eine Ansicht von einer Sicht auswählen, die räumlich dem anderen Instrument
114 zugeordnet ist. Auf diese Weise kann die Bildverarbeitungseinheit28 die verarbeiteten BildsignaleIs von der Sicht des anderen Instrument114 her erzeugen. Eine Darstellung36 des Instruments14 würde dann erzeugt werden und auf der Anzeigeeinheit30 erscheinen. - Es versteht sich, dass das System
110 noch erweitert werden kann, so dass drei oder mehrer medizinische Instrumente oder Sonden getrackt werden können und ihre Darstellung auf der Anzeigeeinheit30 in derselben Weise angezeigt wird, wie die Darstellungen des Instruments14 und des anderen Instruments114 angezeigt werden. - Zusätzlich können die Systeme
10 und110 so erweitert werden, dass mehr als ein Wandler18 verwendet wird. Die5 zeigt eine weitere Ausführungsform, ähnlich der Ausführungsform der4 , aber mit einem zusätzlichen Wandler118 , der Bilder akquiriert, die in der Bildverarbeitungseinheit28 gespeichert und verwendet werden, um das verarbeitete BildsignalIs in derselben Weise zu erzeugen, wie oben mit einem Wandler18 erörtert wurde. - Der zusätzliche Wandler
118 sendet ein zweites BildsignalSI2 zur Bildverarbeitungseinheit28 , welches die akquirierten Bilder repräsentiert. Die Bildverarbeitungseinheit28 speichert die Bilder, die durch den zusätzlichen Wandler118 akquiriert werden, in einem zweiten Schichtenstapel132 . Der zweite Schichtenstapel132 und der Schichtenstapel32 werden durch die Verarbeitungseinheit28 verwendet, um die verarbeiteten BildsignaleIs zu erzeugen. Die Position und Ausrichtung des zusätzlichen Wandlers118 wird durch den dritten räumlichen Determinator116 auf dieselbe Weise bestimmt, wie es oben für das andere Instrument114 beschrieben wurde. In gleicher Weise können die Positionen und Ausrichtung der Bilder32 , die durch den zusätzlichen Wandler118 akquiriert werden, ebenso bestimmt werden, wie es oben unter Bezugnahme auf den Wandler18 beschrieben wurde. - Der prinzipielle Vorteil des zusätzlichen Wandlers
118 liegt darin, dass zusätzliche Bilder132 akquiriert werden, die nicht durch den Wandler18 akquiriert werden konnten, entweder weil der Wandler18 kein Volumen abtasten kann, das groß genug ist, oder weil ein Teil der Ultraschallsignale, die vom Wandler118 emittiert werden, geblockt werden, beispielsweise durch Knochen oder Knorpel. In jedem Fall kann die Bildverarbeitungseinheit28 durch Verwendung von zwei Schichtenstapel32 ,132 verarbeitete BildsignaleIs erzeugen, welche Ansichten des Körpers20 aufzeigen, die nicht erzeugt werden könnten, wenn nur ein Wandler18 oder118 verwendet würde. Dieses Prinzip kann auf mehr als zwei Wandler18 ,118 ausgedehnt werden, wenn dies gewünscht wird. - Während auf einen anatomischen Körper
20 eines Patienten22 Bezug genommen wurde, versteht es sich, dass das vorliegende Verfahren und System10 ,110 auch im Zusammenhang mit jedwedem Körper20 verwendet werden kann, der durch einen Ultraschall-Bildwandler abgebildet werden kann. In gleicher Weise versteht es sich, dass, während die vorliegende Erfindung in Bezug auf ein chirurgisches Instrument14 beschrieben worden ist, diese Erfindung nicht auf ein chirurgisches Instrument14 beschränkt ist. Vielmehr können das vorliegende Verfahren und die Systeme10 in Zuordnung zu jedwedem Typ von Instrument oder Vorrichtung verwendet werden. - Es versteht sich, dass, obwohl verschiedene Merkmale der Erfindung bezüglich der einen oder anderen Ausführungsform der Erfindung beschrieben worden sind, die verschiedenen Merkmale in den Ausführungsformen der Erfindung kombiniert oder in Zusammenwirkung mit anderen Merkmalen oder Ausführungsformen der Erfindung verwendet werden können, wie sie hierin beschrieben und dargestellt wurde.
Claims (26)
- Verfahren zur Darstellung von inneren Bildern (
32 ) eines Körpers (22 ) in Relation zu einem Instrument (14 ) in dem Körper (22 ), wobei die Bilder (32 ) durch einen Ultraschall-Bildwandler (18 ) akquiriert worden sind, wobei das Verfahren die folgenden Schritte aufweist: a) Beziehen von Raumpositionsinformationen für das Instrument (14 ), die eine Position und eine Ausrichtung des Instruments (14 ) in einem Referenzrahmen (24 ) umfassen; b) Beziehen von Raumpositionsinformationen (Sp2 ) für jedes der Bilder (32 ) des Körpers (22 ), das durch den Ultraschall-Bildwandler (18 ) akquiriert worden ist, die eine Position und eine Ausrichtung der Bilder (32 ) in dem Referenzrahmen (24 ) umfassen; c) Bestimmen der Position und der Ausrichtung des Instruments (14 ) relativ zur Position und Ausrichtung der Bilder (32 ); d) Verarbeiten der Bilder (32 ) zur Erzeugung von verarbeiteten Bildern (62 ), wobei die verarbeiteten Bilder so gewählt werden, dass sie eine Ansicht bereit stellen, die räumlich zu der Position des Instrumentes (14 ) in Beziehung steht; und e) Darstellen der verarbeiteten Bilder (62 ) des Körpers (22 ) auf einer Anzeige (30 ); dadurch gekennzeichnet, dass f) die Raumpositionsinformation des Instruments (14 ) mittels eines räumlichen Determinators (12 ) bezogen werden, der an dem Instrument (14 ) angeordnet ist; g) die Bilder (32 ), die durch den Ultraschallwandler (18 ) akquiriert werden, mit den Raumpositionsinformationen jedes Bildes gespeichert werden; und h) die verarbeiteten Bilder aus den gespeicherten Bildern erzeugt werden, basierend auf der Position und Ausrichtung des Instruments (14 ) relativ zur Position und Ausrichtung der Bilder. - Verfahren nach Anspruch 1, das ferner den Schritt des Anzeigens einer Darstellung des Instruments auf der Anzeige umfasst, wobei die Darstellung eine Position und Ausrichtung relativ zu den verarbeiteten Bildern des Körpers hat, die der Position und Ausrichtung des Instruments relativ zum Körper entspricht.
- Verfahren nach Anspruch 1, bei dem der Schritt des Beziehens der Raumpositionsinformationen für die Bilder in dem Referenzrahmen die folgenden Schritte umfasst: (a) Bestimmen der Raumpositionsinformationen der Bilder bezüglich des Wandlers; (b) Beziehen von Raumpositionsinformationen für den Wandler, die eine Position und eine Ausrichtung des Wandlers im Referenzrahmen umfassen; und (c) Bestimmen der Position der akquirierten Bilder in dem Referenzrahmen aus den Raumpositionsinformationen für den Wandler im Referenzrahmen und den Raumpositionsinformationen der Bilder bezüglich des Wandlers.
- Verfahren nach Anspruch 3, bei dem der Schritt des Bestimmens der Raumpositionsinformationen für die Bilder bezüglich des Wandlers den Schritt des Kalibrierens des Wandlers aufweist, um eine Vektorposition (
42 ) für die Bilder zu erhalten, die durch den Wandler akquiriert werden, bezüglich eines festen Punktes (24 ) auf dem Wandler. - Verfahren nach Anspruch 4, bei dem der Schritt des Beziehens von Raumpositionsinformationen für den Wandler den Schritt des Beziehens einer Position und einer Ausrichtung des festen Punktes (
24 ) auf dem Wandler im Referenzrahmen umfasst; und bei dem der Schritt des Bestimmens der Raumposition der Bilder in dem Referenzrahmen den Schritt des Addierens der Vektorposition der akquirierten Bilder bezüglich des festen Punktes auf dem Wandler zu den Raumpositionsinformationen des festen Punktes auf dem Wandler umfasst. - Verfahren nach Anspruch 5, das ferner die folgenden Schritte umfasst: (a) Bestimmen von Raumpositionsinformationen für Punkte an oder nahe dem Instrument bezüglich einem Punkt, der am Instrument fixiert ist; (b) Beziehen von Raumpositionsinformationen für das Instrument durch das Beziehen einer Position und einer Ausrichtung des Punktes, der an dem Instrument fixiert ist, bezüglich des Referenzrahmens; (c) Bestimmen der Raumpositionsinformation für einen der Punkte an oder nahe dem Instrument durch das Kombinieren der Raumpositionsinformationen für den Punkt, der an dem Instrument fixiert ist, mit den Raumpositionsinformationen des einen der Punke an oder nahe dem Instrument bezüglich des am Instrument fixierten Punktes; und (d) Verarbeiten der Bilder zur Erzeugung von verarbeiteten Bildern, die eine Ansicht von einem der Punkte an oder nahe dem Instrument im Körper aufweisen.
- Verfahren nach Anspruch 6, bei dem die Bilder des Körpers eine Sequenz dreidimensionaler Bilder umfassen, welche in einer Sequenz im Wesentlichen in Echtzeit angezeigt werden können; und bei dem die verarbeiteten Bilder, die auf der Anzeige angezeigt werden, sich entsprechend den Änderungen in der Position und Ausrichtung des Instruments relativ zum Körper verändern; und welches ferner den Schritt des Anzeigens einer dreidimensionalen Darstellung des Instruments auf der Anzeige umfasst, wobei die Darstellung eine Position und eine Ausrichtung relativ zu den verarbeiteten Bildern hat, welche der Position und der Ausrichtung des Instruments relativ zum Körper entspricht.
- Verfahren nach Anspruch 1, bei dem der Körper ein anatomischer Körper und das Instrument ein chirurgisches Instrument ist.
- Verfahren nach Anspruch 1, bei dem die gespeicherten Bilder einen Schichtenstapel zweidimensionaler Bilder umfassen.
- Verfahren nach Anspruch 9, bei dem der Schritt des Erzeugens der verarbeiteten Bilder des Körpers den Schritt des Aufbereitens der verarbeiteten Bilder umfasst, um a natomische Merkmale des anatomischen Körpers aus der Sicht des Instruments darzustellen.
- Verfahren nach Anspruch 10, bei dem die aufbereiteten Bilder dreidimensionale Darstellungen der anatomischen Merkmale sind, aus einer Sicht und einer Perspektive, die räuinlich zur Position und Ausrichtung des Instruments in Bezug steht.
- Verfahren nach Anspruch 9, bei dem der Referenzrahmen in Bezug zum Operationsraum angeordnet ist und einen Ursprung umfasst, der im Referenzrahmen des Operationsraums festliegt, und der Referenzrahmen einen Abschnitt des Körpers enthält, den Ultraschall-Bildwandler, das Instrument und den festen Punkt; und wobei die Raumpositionsinformation des Instruments und der Bilder in Bezug auf den Referenzrahmen des Operationsraumes erhalten werden.
- Verfahren nach Anspruch 9, bei dem der Referenzrahmen in Bezug auf das Instrument angeordnet ist und einen Ursprung umfasst, der am Referenzrahmen des Instruments fixiert ist; und bei dem die Raumpositionsinformationen des Instruments und der Bilder in Bezug auf den Referenzrahmen des Instruments erhalten werden.
- Verfahren nach Anspruch 9, bei dem der Referenzrahmen in Bezug auf den Wandler angeordnet ist und einen Ursprung umfasst, welcher an dem Referenzrahmen des Wandlers fixiert ist; und bei dem die Raumpositionsinformationen des Instruments und der Bilder in Bezug auf den Referenzrahmen des Wandlers erhalten werden.
- Verfahren nach Anspruch 9, bei dem die Bewegung des Körpers in dem Referenzrahmen den Schritt der Bestimmung der Position des Instruments relativ zur Position der Bilder nicht beeinflusst.
- Verfahren nach Anspruch 3, das ferner die folgenden Schritte aufweist: (a) Beziehen von Raumpositionsinformationen für ein anderes Instrument, welche eine Position und eine Ausrichtung des anderen Instruments in dem Referenzrahmen umfassen; (b) Bestimmen der Position und der Ausrichtung des anderen Instruments relativ zu der Position und Ausrichtung der Bilder; (c) Bezeichnen des Instruments und des anderen Instruments als das ausgewählte Instrument und das nicht ausgewählte Instrument entsprechend einer Wahl durch den Benutzer; (d) Verarbeiten der Bilder zur Erzeugung von verarbeiteten Bildern aus einer Sicht, die räumlich zu der Position des ausgewählten Instruments in Bezug steht; und (e) Anzeigen einer Darstellung des nicht ausgewählten Instruments, wobei die Darstellung eine Position relativ zu den Bildern des Körpers aufweist, welche der Position des nicht ausgewählten Instruments relativ zum Körper entspricht.
- System
10 zum Anzeigen innerer Bilder (32 ) eines Körpers in Bezug auf ein Instrument (14 ) in dem Körper (12 ), wobei die Bilder (32 ) durch einen Ultraschall-Wandler (18 ) akquiriert worden sind, wobei das System10 umfasst: eine erste räumliche Determinationseinrichtung (12 ) zum Bestimmen von Raumpositionsinformationen des Instruments (14 ), die eine Position und eine Ausrichtung des Instruments (14 ) in einem Referenzrahmen (24 ) umfassen, und zum Senden eines ersten räumlichen Signals (SP1 ), welches die Raumpositionsinformationen für das Instrument (14 ) für den Ultraschall-Bildwandler (18 ), welcher eine Position und eine Ausrichtung repräsentieren; eine zweite räumliche Determinationseinrichtung (16 ) zum Bestimmen von Raumpositionsinformationen des Ultraschall-Bildwandlers (18 ) in dem Referenzrahmen (24 ) umfassen, und zum Senden eines zweiten räumlichen Signals (SP1 ), welches die räumlichen Positionsinformationen für den Wandler (18 ) repräsentiert; einer Mapping-Einrichtung (34 ) zum Erhalten des ersten räumlichen Signals (Sp1 ) und des zweiten räumlichen Signals (SP2 ) und zur Erzeugung eines ersten Mapping-Signals (Sm1 ), das die Position und Ausrichtung des Instruments (14 ) relativ zur Position und Ausrichtung der Bilder (32 ) anzeigt; einer Bildverarbeitungseinrichtung (28 ) zum Empfangen des ersten Mapping-Signals (Sm1 ) und der Signale, welche die Bilder (32 ) repräsentieren, die durch den Wandler (18 ) akquiriert wurden, und zum Erzeugen von verarbeiteten Bilder (62 ) aus einer Sicht, die räumlich zu der Position des Instruments (14 ) in Bezug steht; und einer Anzeigeeinrichtung (30 ) zum Anzeigen der verarbeiteten Bilder (62 ); dadurch gekennzeichnet, dass die erste räumliche Determinationseinrichtung (12 ) an dem Instrument (14 ) angeordnet ist; und ferner gekennzeichnet durch eine Speichereinrichtung (38 ) zum Speichern von Raumpositionsinformationen der Bilder gegenüber dem Wandler (18 ); wobei die Bildverarbeitungseinrichtung (28 ) die Position der Bilder in dem Referenzrahmen aus dem zweiten räumlichen Signal (Sp2 ) und den Raumpositionsinformationen für die Bilder gegenüber dem Wandler (18 ), die in der Speichereinrichtung (38 ) gespeichert sind, bestimmt, und die Position des Instruments (14 ) auf die Position der Bilder mappt, um das erste Mapping-Signal (Sm1 ) zu erzeugen. - System nach Anspruch 17, bei dem die Bildverarbeitungseinrichtung eine Darstellung des Instruments, basierend auf dem ersten Mapping-Signal erzeugt, wobei die Darstellung des Instruments eine Position relativ zu den verarbeiteten Bildern des Körpers hat, die der Position des Instrument relativ zum Körper entspricht.
- System nach Anspruch (17), bei dem die Raumpositionsinformationen für die Bilder bezüglich des Wandlers, die in der Speichereinrichtung gespeichert sind, eine Vektorposition der Bilder umfasst, die durch den Wandler akquiriert werden, in Bezug zu einem festen Punkt auf dem Wandler, der durch das Kalibrieren des Wandlers bestimmt wird; wobei das zweite räumliche Signal, das die Raumpositionsinformationen für den Wandler repräsentiert, eine Position des festen Punktes auf dem Wandler in dem Referenzrahmen umfasst; und bei dem die Verarbeitungseinrichtung die räumliche Position der Bilder in dem Referenzrahmen durch das Addieren der Vektorposition der Bilder bezüglich des festen Punktes auf dem Wandler zu den Raumpositionsinformationen des festen Punktes auf dem Wandler bestimmt.
- System nach Anspruch 19, bei dem das Instrument Teile hat und die Speichereinrichtung Raumpositionsinformationen der Teile des Instruments bezüglich eines festen Punktes auf dem Instrument speichert; wobei das erste räumliche Signal die Raumpositionsinformationen des am Instrument fixierten Punktes repräsentiert; wobei die Verarbeitungseinrichtung räumliche Positionsinformationen der Teile des Instruments in dem Referenzrahmen bestimmt, basierend auf dem ersten räumlichen Signal und den räumlichen Positionsinformationen der Teile des Instruments bezüglich des am Instrument fixierten festen Punktes; wobei die Verarbeitungseinrichtung die Position der Teile des Instruments auf die Positionen der Bilder mappt, so dass das erste Mapping-Signal die Position eines der Teile des Instruments relativ zu der Position der Bilder anzeigt; und wobei die Bildverarbeitungseinrichtung verarbeitete Bilder erzeugt, aus einer Sicht, die räumlich zu der Position eines der Teile des Instruments im Körper in Bezug steht.
- System nach Anspruch 17, bei dem die Bildverarbeitungseinrichtung die akquirierten Bilder speichert, mit den Raumpositionsinformationen für jedes Bild in einem Schichtenstapel zweidimensionaler Bilder.
- System nach Anspruch 19, bei dem die Bilder des Körpers eine Sequenz dreidimensionaler Bilder umfassen, welche in einer Sequenz in im Wesentlichen Echtzeit angezeigt werden können; und wobei die Sicht der verarbeiteten Bilder, die auf der Anzeige angezeigt werden, sich entsprechend den Änderungen in der Position und Ausrichtung des Instruments relativ zum Körper ändert; und wobei die Bildverarbeitungseinrichtung eine dreidimensionale Darstellung des Instruments auf der Anzeige erzeugt, wobei die Darstellung eine Position und eine Ausrichtung relativ zu den verarbeiteten Bildern hat, welche der Position und Ausrichtung des Instruments relativ zum Körper entspricht.
- System nach Anspruch 22, bei dem die dreidimensionalen Bilder eine Sicht und eine Perspektive aufweisen, die räumlich zu der Position und Ausrichtung des Instruments in Bezug steht.
- System nach Anspruch 19, bei dem der Körper ein anatomischer Körper und das Instrument ein chirurgisches Instrument ist.
- System nach Anspruch 19, das ferner aufweist: eine dritte räumliche Determinationseinrichtung zum Bestimmen von Raumpositionsinformationen für ein anderes Instrument, mit einer Position und einer Ausrichtung des anderen Instruments in dem Referenzrahmen und zum Senden eines dritten räumlichen Signals, welche die Raumpositionsinformationen des anderen Instruments repräsentiert; wobei die Mapping-Einrichtung das dritte Positionssignal empfängt und ein zweites Mapping-Signal erzeugt, das die Position und Ausrichtung des anderen Instruments, gemappt auf die Position und Ausrichtung der Bilder, anzeigt; und wobei die Bildverarbeitungseinrichtung das zweite Mapping-Signal empfängt und verarbeitete Bilder aus einer Sicht erzeugt, die zur räumlichen Position des Instruments oder des anderen Instruments in Bezug steht, abhängig von der Wahl des Benutzers.
- System nach Anspruch 19, das ferner aufweist: eine dritte räumliche Determinationseinrichtung zum Bestimmen von Raumpositionsinformationen eines zusätzlichen Ultraschall-Bildwandlers, der Bilder des Körpers akquiriert, welche eine Position und eine Ausrichtung des zusätzlichen Wandlers im Referenzrahmen umfassen, und zum Senden eines dritten räumlichen Signals, das die Raumpositionsinformationen des zusätzlichen Wandlers repräsentiert; wobei die Mapping-Einrichtung das dritte Positionssignal empfängt und ein zweites Mapping-Signal erzeugt, das die Position und die Ausrichtung des Instruments relativ zu einer Position und einer Ausrichtung der Bilder anzeigt, die durch den zusätzlichen Wandler akquiriert wurden; wobei die Bildverarbeitungseinrichtung das zweite Mapping-Signal empfängt, sowie Signale, welche die Bilder wiedergeben, die durch den zusätzlichen Wandler akquiriert wurden, und verarbeitete Bilder erzeugt, aus einer Sicht, welche zu der Position und der Ausrichtung des Instruments in Bezug steht, basierend auf den Signalen, welche die Bilder repräsentieren, die durch den Wandler und den zusätzlichen Wandler akquiriert wurden.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/758,721 US5810008A (en) | 1996-12-03 | 1996-12-03 | Apparatus and method for visualizing ultrasonic images |
US758721 | 1996-12-03 | ||
PCT/CA1997/000908 WO1998025159A1 (en) | 1996-12-03 | 1997-11-28 | Apparatus and method for visualizing ultrasonic images |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69721045D1 DE69721045D1 (de) | 2003-05-22 |
DE69721045T2 true DE69721045T2 (de) | 2004-02-05 |
Family
ID=25052825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69721045T Expired - Lifetime DE69721045T2 (de) | 1996-12-03 | 1997-11-28 | Vorrichtung und verfahren zur darstellung von ultraschallbildern |
Country Status (8)
Country | Link |
---|---|
US (3) | US5810008A (de) |
EP (1) | EP0946886B1 (de) |
JP (1) | JP2001514533A (de) |
AU (1) | AU5113098A (de) |
CA (1) | CA2273874C (de) |
DE (1) | DE69721045T2 (de) |
IL (1) | IL130268A (de) |
WO (1) | WO1998025159A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004026525A1 (de) * | 2004-05-25 | 2005-12-22 | Aesculap Ag & Co. Kg | Verfahren und Vorrichtung zur eingriffslosen Bestimmung markanter Strukturen des menschlichen oder tierischen Körpers |
Families Citing this family (302)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2652928B1 (fr) | 1989-10-05 | 1994-07-29 | Diadix Sa | Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene. |
US5603318A (en) | 1992-04-21 | 1997-02-18 | University Of Utah Research Foundation | Apparatus and method for photogrammetric surgical localization |
WO1994004938A1 (en) | 1992-08-14 | 1994-03-03 | British Telecommunications Public Limited Company | Position location system |
DE69531994T2 (de) | 1994-09-15 | 2004-07-22 | OEC Medical Systems, Inc., Boston | System zur positionserfassung mittels einer an einem patientenkopf angebrachten referenzeinheit zur anwendung im medizinischen gebiet |
US6216029B1 (en) * | 1995-07-16 | 2001-04-10 | Ultraguide Ltd. | Free-hand aiming of a needle guide |
US6296613B1 (en) | 1997-08-22 | 2001-10-02 | Synthes (U.S.A.) | 3D ultrasound recording device |
US5810008A (en) * | 1996-12-03 | 1998-09-22 | Isg Technologies Inc. | Apparatus and method for visualizing ultrasonic images |
US6314310B1 (en) * | 1997-02-14 | 2001-11-06 | Biosense, Inc. | X-ray guided surgical location system with extended mapping volume |
US6226548B1 (en) | 1997-09-24 | 2001-05-01 | Surgical Navigation Technologies, Inc. | Percutaneous registration apparatus and method for use in computer-assisted surgical navigation |
US6585763B1 (en) | 1997-10-14 | 2003-07-01 | Vascusense, Inc. | Implantable therapeutic device and method |
US6050943A (en) | 1997-10-14 | 2000-04-18 | Guided Therapy Systems, Inc. | Imaging, therapy, and temperature monitoring ultrasonic system |
US6120453A (en) * | 1997-11-17 | 2000-09-19 | Sharp; William A. | Three-dimensional ultrasound system based on the coordination of multiple ultrasonic transducers |
US6021343A (en) | 1997-11-20 | 2000-02-01 | Surgical Navigation Technologies | Image guided awl/tap/screwdriver |
US6348058B1 (en) | 1997-12-12 | 2002-02-19 | Surgical Navigation Technologies, Inc. | Image guided spinal surgery guide, system, and method for use thereof |
US6241675B1 (en) * | 1998-06-09 | 2001-06-05 | Volumetrics Medical Imaging | Methods and systems for determining velocity of tissue using three dimensional ultrasound data |
CA2335867C (en) | 1998-06-22 | 2008-12-30 | Synthes (U.S.A.) | Fiducial matching by means of fiducial screws |
US6477400B1 (en) | 1998-08-20 | 2002-11-05 | Sofamor Danek Holdings, Inc. | Fluoroscopic image guided orthopaedic surgery system with intraoperative registration |
DE19854905C2 (de) * | 1998-11-27 | 2002-08-14 | Siemens Ag | Verfahren zur Darstellung der Spitze eines im Körper eines Patienten befindlichen medizinischen Instrumentes |
US6174285B1 (en) * | 1999-02-02 | 2001-01-16 | Agilent Technologies, Inc. | 3-D ultrasound imaging system with pre-set, user-selectable anatomical images |
US6285902B1 (en) * | 1999-02-10 | 2001-09-04 | Surgical Insights, Inc. | Computer assisted targeting device for use in orthopaedic surgery |
US6106464A (en) * | 1999-02-22 | 2000-08-22 | Vanderbilt University | Apparatus and method for bone surface-based registration of physical space with tomographic images and for guiding an instrument relative to anatomical sites in the image |
DE69931074T2 (de) | 1999-03-17 | 2006-11-16 | Synthes Ag Chur | Gerät zur darstellung und planung von kreuzbandersatzoperationen |
US6470207B1 (en) | 1999-03-23 | 2002-10-22 | Surgical Navigation Technologies, Inc. | Navigational guidance via computer-assisted fluoroscopic imaging |
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
JP2002541947A (ja) | 1999-04-15 | 2002-12-10 | ウルトラガイド・リミテッド | 医療行為中の医療用侵襲器具の曲がり具合を検出する装置及びその方法 |
US6491699B1 (en) * | 1999-04-20 | 2002-12-10 | Surgical Navigation Technologies, Inc. | Instrument guidance method and system for image guided surgery |
AU766981B2 (en) * | 1999-04-20 | 2003-10-30 | Ao Technology Ag | Device for the percutaneous obtainment of 3D-coordinates on the surface of a human or animal organ |
US6233476B1 (en) * | 1999-05-18 | 2001-05-15 | Mediguide Ltd. | Medical positioning system |
US7840252B2 (en) | 1999-05-18 | 2010-11-23 | MediGuide, Ltd. | Method and system for determining a three dimensional representation of a tubular organ |
US7386339B2 (en) | 1999-05-18 | 2008-06-10 | Mediguide Ltd. | Medical imaging and navigation system |
US7343195B2 (en) * | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
US7778688B2 (en) | 1999-05-18 | 2010-08-17 | MediGuide, Ltd. | System and method for delivering a stent to a selected position within a lumen |
US8442618B2 (en) * | 1999-05-18 | 2013-05-14 | Mediguide Ltd. | Method and system for delivering a medical device to a selected position within a lumen |
US9572519B2 (en) * | 1999-05-18 | 2017-02-21 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
US9833167B2 (en) | 1999-05-18 | 2017-12-05 | Mediguide Ltd. | Method and system for superimposing virtual anatomical landmarks on an image |
JP2001061861A (ja) | 1999-06-28 | 2001-03-13 | Siemens Ag | 画像撮影手段を備えたシステムおよび医用ワークステーション |
US6712812B2 (en) | 1999-08-05 | 2004-03-30 | Broncus Technologies, Inc. | Devices for creating collateral channels |
US6749606B2 (en) | 1999-08-05 | 2004-06-15 | Thomas Keast | Devices for creating collateral channels |
WO2001010314A2 (en) | 1999-08-05 | 2001-02-15 | Broncus Technologies, Inc. | Methods and devices for creating collateral channels in the lungs |
US7815590B2 (en) | 1999-08-05 | 2010-10-19 | Broncus Technologies, Inc. | Devices for maintaining patency of surgically created channels in tissue |
WO2001012057A1 (en) * | 1999-08-16 | 2001-02-22 | Super Dimension Ltd. | Method and system for displaying cross-sectional images of a body |
US6368285B1 (en) * | 1999-09-21 | 2002-04-09 | Biosense, Inc. | Method and apparatus for mapping a chamber of a heart |
US6878117B1 (en) * | 1999-09-29 | 2005-04-12 | Zargis Medical Corp. | Handheld sensor for acoustic data acquisition |
US6474341B1 (en) | 1999-10-28 | 2002-11-05 | Surgical Navigation Technologies, Inc. | Surgical communication and power system |
US11331150B2 (en) | 1999-10-28 | 2022-05-17 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
US6499488B1 (en) | 1999-10-28 | 2002-12-31 | Winchester Development Associates | Surgical sensor |
US8239001B2 (en) | 2003-10-17 | 2012-08-07 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
US6493573B1 (en) | 1999-10-28 | 2002-12-10 | Winchester Development Associates | Method and system for navigating a catheter probe in the presence of field-influencing objects |
US8644907B2 (en) | 1999-10-28 | 2014-02-04 | Medtronic Navigaton, Inc. | Method and apparatus for surgical navigation |
US6381485B1 (en) | 1999-10-28 | 2002-04-30 | Surgical Navigation Technologies, Inc. | Registration of human anatomy integrated for electromagnetic localization |
US7366562B2 (en) | 2003-10-17 | 2008-04-29 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
US7003143B1 (en) * | 1999-11-02 | 2006-02-21 | Hewitt Charles W | Tomographic microscope for high resolution imaging and method of analyzing specimens |
US6544178B1 (en) * | 1999-11-05 | 2003-04-08 | Volumetrics Medical Imaging | Methods and systems for volume rendering using ultrasound data |
US6413215B1 (en) * | 2000-04-05 | 2002-07-02 | The University Of Vermont | Implant wear debris detection apparatus and method |
US6676607B2 (en) * | 2000-01-03 | 2004-01-13 | The Johns Hopkins University | Intraoperative microsurgical ultrasonic device and methods related thereto |
US6725080B2 (en) | 2000-03-01 | 2004-04-20 | Surgical Navigation Technologies, Inc. | Multiple cannula image guided tool for image guided procedures |
FR2806611B1 (fr) * | 2000-03-22 | 2004-10-15 | Hossein Kafai | Appareil d'echographie pour l'exploration d'articulation temporo-mandibulaire |
US6535756B1 (en) | 2000-04-07 | 2003-03-18 | Surgical Navigation Technologies, Inc. | Trajectory storage apparatus and method for surgical navigation system |
US7085400B1 (en) | 2000-06-14 | 2006-08-01 | Surgical Navigation Technologies, Inc. | System and method for image based sensor calibration |
WO2005119025A2 (en) | 2004-06-01 | 2005-12-15 | Spectrum Dynamics Llc | Radioactive-emission-measurement optimization to specific body structures |
US8565860B2 (en) * | 2000-08-21 | 2013-10-22 | Biosensors International Group, Ltd. | Radioactive emission detector equipped with a position tracking system |
US6517491B1 (en) | 2000-10-31 | 2003-02-11 | Koninklijke Philips Electronics N.V | Transducer with spatial sensor |
US6618620B1 (en) | 2000-11-28 | 2003-09-09 | Txsonics Ltd. | Apparatus for controlling thermal dosing in an thermal treatment system |
IL140136A (en) * | 2000-12-06 | 2010-06-16 | Intumed Ltd | Apparatus for self-guided intubation |
US7914453B2 (en) | 2000-12-28 | 2011-03-29 | Ardent Sound, Inc. | Visual imaging system for ultrasonic probe |
US6695786B2 (en) | 2001-03-16 | 2004-02-24 | U-Systems, Inc. | Guide and position monitor for invasive medical instrument |
US6685644B2 (en) * | 2001-04-24 | 2004-02-03 | Kabushiki Kaisha Toshiba | Ultrasound diagnostic apparatus |
US8417536B2 (en) * | 2001-05-18 | 2013-04-09 | Mayo Foundation For Medical Education And Research | Ultrasound laboratory information management system and method |
US6636757B1 (en) | 2001-06-04 | 2003-10-21 | Surgical Navigation Technologies, Inc. | Method and apparatus for electromagnetic navigation of a surgical probe near a metal object |
US7708712B2 (en) | 2001-09-04 | 2010-05-04 | Broncus Technologies, Inc. | Methods and devices for maintaining patency of surgically created channels in a body organ |
US6947786B2 (en) | 2002-02-28 | 2005-09-20 | Surgical Navigation Technologies, Inc. | Method and apparatus for perspective inversion |
US6990368B2 (en) | 2002-04-04 | 2006-01-24 | Surgical Navigation Technologies, Inc. | Method and apparatus for virtual digital subtraction angiography |
US7998062B2 (en) | 2004-03-29 | 2011-08-16 | Superdimension, Ltd. | Endoscope structures and techniques for navigating to a target in branched structure |
US7697972B2 (en) | 2002-11-19 | 2010-04-13 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
US7599730B2 (en) | 2002-11-19 | 2009-10-06 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
US8088067B2 (en) | 2002-12-23 | 2012-01-03 | Insightec Ltd. | Tissue aberration corrections in ultrasound therapy |
US7505809B2 (en) * | 2003-01-13 | 2009-03-17 | Mediguide Ltd. | Method and system for registering a first image with a second image relative to the body of a patient |
US7660623B2 (en) | 2003-01-30 | 2010-02-09 | Medtronic Navigation, Inc. | Six degree of freedom alignment display for medical procedures |
US7542791B2 (en) | 2003-01-30 | 2009-06-02 | Medtronic Navigation, Inc. | Method and apparatus for preplanning a surgical procedure |
JP2006521146A (ja) * | 2003-03-27 | 2006-09-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 広いビューの三次元超音波イメージングにより侵襲的医療装置を案内する方法及び装置 |
US7270634B2 (en) * | 2003-03-27 | 2007-09-18 | Koninklijke Philips Electronics N.V. | Guidance of invasive medical devices by high resolution three dimensional ultrasonic imaging |
JP5208415B2 (ja) * | 2003-04-16 | 2013-06-12 | イースタン バージニア メディカル スクール | 超音波画像を生成する方法、システムおよびコンピュータ・プログラム |
US8083678B2 (en) * | 2003-04-16 | 2011-12-27 | Eastern Virginia Medical School | System, method and medium for acquiring and generating standardized operator independent ultrasound images of fetal, neonatal and adult organs |
US7611462B2 (en) | 2003-05-22 | 2009-11-03 | Insightec-Image Guided Treatment Ltd. | Acoustic beam forming in phased arrays including large numbers of transducer elements |
US7377900B2 (en) * | 2003-06-02 | 2008-05-27 | Insightec - Image Guided Treatment Ltd. | Endo-cavity focused ultrasound transducer |
US8308682B2 (en) | 2003-07-18 | 2012-11-13 | Broncus Medical Inc. | Devices for maintaining patency of surgically created channels in tissue |
US8002740B2 (en) | 2003-07-18 | 2011-08-23 | Broncus Technologies, Inc. | Devices for maintaining patency of surgically created channels in tissue |
US7313430B2 (en) | 2003-08-28 | 2007-12-25 | Medtronic Navigation, Inc. | Method and apparatus for performing stereotactic surgery |
EP2316328B1 (de) | 2003-09-15 | 2012-05-09 | Super Dimension Ltd. | Umhüllungsvorrichtung zur Fixierung von Bronchoskopen |
ATE438335T1 (de) | 2003-09-15 | 2009-08-15 | Super Dimension Ltd | System aus zubehör zur verwendung mit bronchoskopen |
US7835778B2 (en) * | 2003-10-16 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation of a multiple piece construct for implantation |
US7840253B2 (en) | 2003-10-17 | 2010-11-23 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
WO2005065407A2 (en) * | 2003-12-30 | 2005-07-21 | Liposonix, Inc. | Position tracking device |
US7968851B2 (en) | 2004-01-13 | 2011-06-28 | Spectrum Dynamics Llc | Dynamic spect camera |
US8764725B2 (en) | 2004-02-09 | 2014-07-01 | Covidien Lp | Directional anchoring mechanism, method and applications thereof |
EP1744676B1 (de) * | 2004-04-15 | 2015-07-22 | The Johns Hopkins University | Ultraschallkalibrierung und echtzeit-qualitätssicherung auf basis einer formulierung mit geschlossener form |
US7567834B2 (en) | 2004-05-03 | 2009-07-28 | Medtronic Navigation, Inc. | Method and apparatus for implantation between two vertebral bodies |
US8235909B2 (en) * | 2004-05-12 | 2012-08-07 | Guided Therapy Systems, L.L.C. | Method and system for controlled scanning, imaging and/or therapy |
US8409167B2 (en) | 2004-07-19 | 2013-04-02 | Broncus Medical Inc | Devices for delivering substances through an extra-anatomic opening created in an airway |
US8409099B2 (en) | 2004-08-26 | 2013-04-02 | Insightec Ltd. | Focused ultrasound system for surrounding a body tissue mass and treatment method |
US9011336B2 (en) | 2004-09-16 | 2015-04-21 | Guided Therapy Systems, Llc | Method and system for combined energy therapy profile |
US7824348B2 (en) | 2004-09-16 | 2010-11-02 | Guided Therapy Systems, L.L.C. | System and method for variable depth ultrasound treatment |
US7393325B2 (en) | 2004-09-16 | 2008-07-01 | Guided Therapy Systems, L.L.C. | Method and system for ultrasound treatment with a multi-directional transducer |
US8444562B2 (en) | 2004-10-06 | 2013-05-21 | Guided Therapy Systems, Llc | System and method for treating muscle, tendon, ligament and cartilage tissue |
US8535228B2 (en) | 2004-10-06 | 2013-09-17 | Guided Therapy Systems, Llc | Method and system for noninvasive face lifts and deep tissue tightening |
US10864385B2 (en) | 2004-09-24 | 2020-12-15 | Guided Therapy Systems, Llc | Rejuvenating skin by heating tissue for cosmetic treatment of the face and body |
US8133180B2 (en) | 2004-10-06 | 2012-03-13 | Guided Therapy Systems, L.L.C. | Method and system for treating cellulite |
US11235179B2 (en) | 2004-10-06 | 2022-02-01 | Guided Therapy Systems, Llc | Energy based skin gland treatment |
US9694212B2 (en) | 2004-10-06 | 2017-07-04 | Guided Therapy Systems, Llc | Method and system for ultrasound treatment of skin |
US11883688B2 (en) | 2004-10-06 | 2024-01-30 | Guided Therapy Systems, Llc | Energy based fat reduction |
US9827449B2 (en) | 2004-10-06 | 2017-11-28 | Guided Therapy Systems, L.L.C. | Systems for treating skin laxity |
US8690778B2 (en) | 2004-10-06 | 2014-04-08 | Guided Therapy Systems, Llc | Energy-based tissue tightening |
JP5094402B2 (ja) | 2004-10-06 | 2012-12-12 | ガイデッド セラピー システムズ, エル.エル.シー. | 超音波組織処理ための方法およびシステム |
EP2279698A3 (de) | 2004-10-06 | 2014-02-19 | Guided Therapy Systems, L.L.C. | Verfahren und System zur nicht invasiven kosmetischen Verbesserung von Dehnstreifen |
US7758524B2 (en) | 2004-10-06 | 2010-07-20 | Guided Therapy Systems, L.L.C. | Method and system for ultra-high frequency ultrasound treatment |
US20060111744A1 (en) | 2004-10-13 | 2006-05-25 | Guided Therapy Systems, L.L.C. | Method and system for treatment of sweat glands |
US11207548B2 (en) | 2004-10-07 | 2021-12-28 | Guided Therapy Systems, L.L.C. | Ultrasound probe for treating skin laxity |
US11724133B2 (en) | 2004-10-07 | 2023-08-15 | Guided Therapy Systems, Llc | Ultrasound probe for treatment of skin |
US7833221B2 (en) | 2004-10-22 | 2010-11-16 | Ethicon Endo-Surgery, Inc. | System and method for treatment of tissue using the tissue as a fiducial |
US9943274B2 (en) | 2004-11-09 | 2018-04-17 | Spectrum Dynamics Medical Limited | Radioimaging using low dose isotope |
EP1835855B1 (de) * | 2005-01-11 | 2017-04-05 | Volcano Corporation | Ko-registrierung von gefässabbildungen |
US20060173350A1 (en) * | 2005-01-11 | 2006-08-03 | Scimed Life Systems, Inc. | Systems and methods for three dimensional imaging with an orientation adjustable array |
EP1847222B1 (de) * | 2005-02-09 | 2011-04-13 | Hitachi Medical Corporation | Ultraschallvorrichtung und ultraschallverfahren |
US20070064987A1 (en) * | 2005-04-04 | 2007-03-22 | Esham Matthew P | System for processing imaging device data and associated imaging report information |
US7571336B2 (en) | 2005-04-25 | 2009-08-04 | Guided Therapy Systems, L.L.C. | Method and system for enhancing safety with medical peripheral device by monitoring if host computer is AC powered |
US8870779B2 (en) * | 2005-04-26 | 2014-10-28 | Biosense Webster, Inc. | Display of two-dimensional ultrasound fan |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US11259870B2 (en) | 2005-06-06 | 2022-03-01 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for minimally invasive telesurgical systems |
EP2289453B1 (de) | 2005-06-06 | 2015-08-05 | Intuitive Surgical Operations, Inc. | Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke |
US8398541B2 (en) | 2006-06-06 | 2013-03-19 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for robotic minimally invasive surgical systems |
US20070016039A1 (en) | 2005-06-21 | 2007-01-18 | Insightec-Image Guided Treatment Ltd. | Controlled, non-linear focused ultrasound treatment |
WO2007002685A2 (en) | 2005-06-24 | 2007-01-04 | Volcano Corporation | Co-registration of graphical image data representing three-dimensional vascular features |
US8784336B2 (en) | 2005-08-24 | 2014-07-22 | C. R. Bard, Inc. | Stylet apparatuses and methods of manufacture |
US7835784B2 (en) | 2005-09-21 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for positioning a reference frame |
EP1937176B1 (de) | 2005-10-20 | 2019-04-17 | Intuitive Surgical Operations, Inc. | Hilfsbildanzeige und manipulation auf einer computeranzeige in einem medizinischen robotersystem |
US20070100234A1 (en) * | 2005-10-27 | 2007-05-03 | Arenson Jerome S | Methods and systems for tracking instruments in fluoroscopy |
US8608672B2 (en) | 2005-11-23 | 2013-12-17 | Insightec Ltd. | Hierarchical switching in ultra-high density ultrasound array |
US9168102B2 (en) | 2006-01-18 | 2015-10-27 | Medtronic Navigation, Inc. | Method and apparatus for providing a container to a sterile environment |
WO2008054496A2 (en) * | 2006-04-05 | 2008-05-08 | California Institute Of Technology | 3- dimensional imaging by acoustic warping and defocusing |
US8112292B2 (en) | 2006-04-21 | 2012-02-07 | Medtronic Navigation, Inc. | Method and apparatus for optimizing a therapy |
US8235901B2 (en) | 2006-04-26 | 2012-08-07 | Insightec, Ltd. | Focused ultrasound system with far field tail suppression |
US20070288264A1 (en) * | 2006-05-01 | 2007-12-13 | Image Exchange Partners, Llc | Method and system for peer-to-peer radiology network tool |
US20080064921A1 (en) | 2006-06-13 | 2008-03-13 | Intuitive Surgical, Inc. | Guide tube control of minimally invasive surgical instruments |
US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US7728868B2 (en) | 2006-08-02 | 2010-06-01 | Inneroptic Technology, Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
US9566454B2 (en) | 2006-09-18 | 2017-02-14 | Guided Therapy Systems, Llc | Method and sysem for non-ablative acne treatment and prevention |
US7656990B2 (en) * | 2006-09-19 | 2010-02-02 | The Board Of Trustees Of The Leland Stanford Junior University | Adaptive anisotropic filtering of projection data for computed tomography |
US8660635B2 (en) | 2006-09-29 | 2014-02-25 | Medtronic, Inc. | Method and apparatus for optimizing a computer assisted surgical procedure |
EP2068716B1 (de) * | 2006-10-02 | 2011-02-09 | Hansen Medical, Inc. | System für dreidimensionale ultraschall-abbildung |
US7794407B2 (en) | 2006-10-23 | 2010-09-14 | Bard Access Systems, Inc. | Method of locating the tip of a central venous catheter |
US8388546B2 (en) | 2006-10-23 | 2013-03-05 | Bard Access Systems, Inc. | Method of locating the tip of a central venous catheter |
JP5186389B2 (ja) * | 2006-12-01 | 2013-04-17 | パナソニック株式会社 | 超音波診断装置 |
JP2010526589A (ja) | 2007-05-07 | 2010-08-05 | ガイデッド セラピー システムズ, エル.エル.シー. | 音響エネルギーを使用してメディカントを調節するための方法およびシステム |
US20150174388A1 (en) | 2007-05-07 | 2015-06-25 | Guided Therapy Systems, Llc | Methods and Systems for Ultrasound Assisted Delivery of a Medicant to Tissue |
PT2152167T (pt) | 2007-05-07 | 2018-12-10 | Guided Therapy Systems Llc | Métodos e sistemas para acoplamento e focagem de energia acústica utilizando um componente acoplador |
US8989842B2 (en) | 2007-05-16 | 2015-03-24 | General Electric Company | System and method to register a tracking system with intracardiac echocardiography (ICE) imaging system |
US8527032B2 (en) | 2007-05-16 | 2013-09-03 | General Electric Company | Imaging system and method of delivery of an instrument to an imaged subject |
US8428690B2 (en) | 2007-05-16 | 2013-04-23 | General Electric Company | Intracardiac echocardiography image reconstruction in combination with position tracking system |
US8364242B2 (en) * | 2007-05-17 | 2013-01-29 | General Electric Company | System and method of combining ultrasound image acquisition with fluoroscopic image acquisition |
US20090156947A1 (en) * | 2007-05-22 | 2009-06-18 | Seward James B | Knowledgebased image informatics system and method |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
EP2031531A3 (de) * | 2007-07-20 | 2009-04-29 | BrainLAB AG | Integriertes medizintechnisches Anzeigesystem |
EP2017756A1 (de) * | 2007-07-20 | 2009-01-21 | BrainLAB AG | Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung |
US8905920B2 (en) | 2007-09-27 | 2014-12-09 | Covidien Lp | Bronchoscope adapter and method |
US8251908B2 (en) | 2007-10-01 | 2012-08-28 | Insightec Ltd. | Motion compensated image-guided focused ultrasound therapy system |
WO2009051847A1 (en) | 2007-10-19 | 2009-04-23 | Calin Caluser | Three dimensional mapping display system for diagnostic ultrasound machines and method |
ES2651898T3 (es) | 2007-11-26 | 2018-01-30 | C.R. Bard Inc. | Sistema integrado para la colocación intravascular de un catéter |
US8781555B2 (en) | 2007-11-26 | 2014-07-15 | C. R. Bard, Inc. | System for placement of a catheter including a signal-generating stylet |
US9456766B2 (en) | 2007-11-26 | 2016-10-04 | C. R. Bard, Inc. | Apparatus for use with needle insertion guidance system |
US8849382B2 (en) | 2007-11-26 | 2014-09-30 | C. R. Bard, Inc. | Apparatus and display methods relating to intravascular placement of a catheter |
US10524691B2 (en) | 2007-11-26 | 2020-01-07 | C. R. Bard, Inc. | Needle assembly including an aligned magnetic element |
US10751509B2 (en) | 2007-11-26 | 2020-08-25 | C. R. Bard, Inc. | Iconic representations for guidance of an indwelling medical device |
US9521961B2 (en) | 2007-11-26 | 2016-12-20 | C. R. Bard, Inc. | Systems and methods for guiding a medical instrument |
US9636031B2 (en) | 2007-11-26 | 2017-05-02 | C.R. Bard, Inc. | Stylets for use with apparatus for intravascular placement of a catheter |
US9649048B2 (en) | 2007-11-26 | 2017-05-16 | C. R. Bard, Inc. | Systems and methods for breaching a sterile field for intravascular placement of a catheter |
US10449330B2 (en) | 2007-11-26 | 2019-10-22 | C. R. Bard, Inc. | Magnetic element-equipped needle assemblies |
US10299753B2 (en) | 2007-11-29 | 2019-05-28 | Biosense Webster, Inc. | Flashlight view of an anatomical structure |
WO2009094646A2 (en) | 2008-01-24 | 2009-07-30 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for image guided ablation |
US8340379B2 (en) | 2008-03-07 | 2012-12-25 | Inneroptic Technology, Inc. | Systems and methods for displaying guidance data based on updated deformable imaging data |
US9575140B2 (en) | 2008-04-03 | 2017-02-21 | Covidien Lp | Magnetic interference detection system and method |
DE102008023218A1 (de) * | 2008-05-10 | 2009-11-12 | Aesculap Ag | Verfahren und Vorrichtung zur Untersuchung eines Körpers mit einem Ultraschallkopf |
US8473032B2 (en) | 2008-06-03 | 2013-06-25 | Superdimension, Ltd. | Feature-based registration method |
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
KR102352609B1 (ko) | 2008-06-06 | 2022-01-18 | 얼테라, 인크 | 초음파 치료 시스템 |
WO2009156894A1 (en) * | 2008-06-25 | 2009-12-30 | Koninklijke Philips Electronics, N.V. | Method and system for cardiac resynchronization therapy |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US8932207B2 (en) | 2008-07-10 | 2015-01-13 | Covidien Lp | Integrated multi-functional endoscopic tool |
US8172753B2 (en) | 2008-07-11 | 2012-05-08 | General Electric Company | Systems and methods for visualization of an ultrasound probe relative to an object |
EP2313143B1 (de) | 2008-08-22 | 2014-09-24 | C.R. Bard, Inc. | Katheteranordnung mit ekg-sensor und magnetischen baugruppen |
US8165658B2 (en) | 2008-09-26 | 2012-04-24 | Medtronic, Inc. | Method and apparatus for positioning a guide relative to a base |
US8437833B2 (en) | 2008-10-07 | 2013-05-07 | Bard Access Systems, Inc. | Percutaneous magnetic gastrostomy |
US8963804B2 (en) * | 2008-10-30 | 2015-02-24 | Honeywell International Inc. | Method and system for operating a near-to-eye display |
US8425424B2 (en) | 2008-11-19 | 2013-04-23 | Inightee Ltd. | Closed-loop clot lysis |
US8175681B2 (en) | 2008-12-16 | 2012-05-08 | Medtronic Navigation Inc. | Combination of electromagnetic and electropotential localization |
JP2012513837A (ja) | 2008-12-24 | 2012-06-21 | ガイデッド セラピー システムズ, エルエルシー | 脂肪減少および/またはセルライト処置のための方法およびシステム |
US8641621B2 (en) | 2009-02-17 | 2014-02-04 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US8554307B2 (en) | 2010-04-12 | 2013-10-08 | Inneroptic Technology, Inc. | Image annotation in image-guided medical procedures |
US8690776B2 (en) | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US11464578B2 (en) | 2009-02-17 | 2022-10-11 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US8611984B2 (en) | 2009-04-08 | 2013-12-17 | Covidien Lp | Locatable catheter |
US8617073B2 (en) | 2009-04-17 | 2013-12-31 | Insightec Ltd. | Focusing ultrasound into the brain through the skull by utilizing both longitudinal and shear waves |
US9895135B2 (en) * | 2009-05-20 | 2018-02-20 | Analogic Canada Corporation | Freehand ultrasound imaging systems and methods providing position quality feedback |
US10039527B2 (en) * | 2009-05-20 | 2018-08-07 | Analogic Canada Corporation | Ultrasound systems incorporating spatial position sensors and associated methods |
US9532724B2 (en) | 2009-06-12 | 2017-01-03 | Bard Access Systems, Inc. | Apparatus and method for catheter navigation using endovascular energy mapping |
ES2745861T3 (es) | 2009-06-12 | 2020-03-03 | Bard Access Systems Inc | Aparato, algoritmo de procesamiento de datos asistido por ordenador y medio de almacenamiento informático para posicionar un dispositivo endovascular en o cerca del corazón |
US9623266B2 (en) | 2009-08-04 | 2017-04-18 | Insightec Ltd. | Estimation of alignment parameters in magnetic-resonance-guided ultrasound focusing |
EP2464407A4 (de) | 2009-08-10 | 2014-04-02 | Bard Access Systems Inc | Vorrichtungen und verfahren für endovaskuläre elektrographie |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9289154B2 (en) | 2009-08-19 | 2016-03-22 | Insightec Ltd. | Techniques for temperature measurement and corrections in long-term magnetic resonance thermometry |
WO2011024074A2 (en) | 2009-08-26 | 2011-03-03 | Insightec Ltd. | Asymmetric phased-array ultrasound transducer |
US8494614B2 (en) | 2009-08-31 | 2013-07-23 | Regents Of The University Of Minnesota | Combination localization system |
US8494613B2 (en) | 2009-08-31 | 2013-07-23 | Medtronic, Inc. | Combination localization system |
WO2011045669A2 (en) | 2009-10-14 | 2011-04-21 | Insightec Ltd. | Mapping ultrasound transducers |
US8368401B2 (en) | 2009-11-10 | 2013-02-05 | Insightec Ltd. | Techniques for correcting measurement artifacts in magnetic resonance thermometry |
US8715186B2 (en) | 2009-11-24 | 2014-05-06 | Guided Therapy Systems, Llc | Methods and systems for generating thermal bubbles for improved ultrasound imaging and therapy |
WO2011085815A1 (en) | 2010-01-14 | 2011-07-21 | Brainlab Ag | Controlling a surgical navigation system |
US9579120B2 (en) | 2010-01-29 | 2017-02-28 | University Of Virginia Patent Foundation | Ultrasound for locating anatomy or probe guidance |
JP2013518676A (ja) | 2010-02-02 | 2013-05-23 | シー・アール・バード・インコーポレーテッド | カテーテルナビゲーションおよびチップの位置を特定するための装置および方法 |
US9113848B2 (en) * | 2010-02-03 | 2015-08-25 | Covidien Lp | Surgical retrieval apparatus |
US8932237B2 (en) | 2010-04-28 | 2015-01-13 | Insightec, Ltd. | Efficient ultrasound focusing |
US9852727B2 (en) | 2010-04-28 | 2017-12-26 | Insightec, Ltd. | Multi-segment ultrasound transducers |
CN103037762B (zh) | 2010-05-28 | 2016-07-13 | C·R·巴德股份有限公司 | 用于与针插入引导系统一起使用的装置 |
US10582834B2 (en) | 2010-06-15 | 2020-03-10 | Covidien Lp | Locatable expandable working channel and method |
US9504446B2 (en) | 2010-08-02 | 2016-11-29 | Guided Therapy Systems, Llc | Systems and methods for coupling an ultrasound source to tissue |
US10183182B2 (en) | 2010-08-02 | 2019-01-22 | Guided Therapy Systems, Llc | Methods and systems for treating plantar fascia |
MX338127B (es) | 2010-08-20 | 2016-04-04 | Bard Inc C R | Reconfirmacion de colocacion de una punta de cateter asistida por ecg. |
US9981148B2 (en) | 2010-10-22 | 2018-05-29 | Insightec, Ltd. | Adaptive active cooling during focused ultrasound treatment |
CN103189009B (zh) | 2010-10-29 | 2016-09-07 | C·R·巴德股份有限公司 | 医疗设备的生物阻抗辅助放置 |
US8857438B2 (en) | 2010-11-08 | 2014-10-14 | Ulthera, Inc. | Devices and methods for acoustic shielding |
RU2591595C2 (ru) | 2011-01-17 | 2016-07-20 | Конинклейке Филипс Электроникс Н.В. | Система и способ детектирования размещения иглы при биопсии под контролем изображения |
WO2012101563A2 (en) * | 2011-01-27 | 2012-08-02 | Koninklijke Philips Electronics N.V. | Integration of fiber optic shape sensing within an nterventional environment |
WO2012117381A1 (en) * | 2011-03-03 | 2012-09-07 | Koninklijke Philips Electronics N.V. | System and method for automated initialization and registration of navigation system |
US10368834B2 (en) | 2011-04-26 | 2019-08-06 | University Of Virginia Patent Foundation | Bone surface image reconstruction using ultrasound |
US8709034B2 (en) | 2011-05-13 | 2014-04-29 | Broncus Medical Inc. | Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall |
US9486229B2 (en) | 2011-05-13 | 2016-11-08 | Broncus Medical Inc. | Methods and devices for excision of tissue |
US11911117B2 (en) | 2011-06-27 | 2024-02-27 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
WO2013052187A2 (en) | 2011-06-27 | 2013-04-11 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US9498231B2 (en) | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
AU2012278809B2 (en) | 2011-07-06 | 2016-09-29 | C.R. Bard, Inc. | Needle length determination and calibration for insertion guidance system |
US9452302B2 (en) | 2011-07-10 | 2016-09-27 | Guided Therapy Systems, Llc | Systems and methods for accelerating healing of implanted material and/or native tissue |
EP2731675B1 (de) | 2011-07-11 | 2023-05-03 | Guided Therapy Systems, L.L.C. | Systeme und verfahren zur kopplung einer quelle an ein gewebe |
WO2013078235A1 (en) | 2011-11-23 | 2013-05-30 | Broncus Medical Inc | Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall |
US11109835B2 (en) | 2011-12-18 | 2021-09-07 | Metritrack Llc | Three dimensional mapping display system for diagnostic ultrasound machines |
US9295449B2 (en) | 2012-01-23 | 2016-03-29 | Ultrasonix Medical Corporation | Landmarks for ultrasound imaging |
US8670816B2 (en) | 2012-01-30 | 2014-03-11 | Inneroptic Technology, Inc. | Multiple medical device guidance |
EP2811909A4 (de) * | 2012-02-08 | 2015-11-18 | Smith & Nephew Inc | Ultraschallabtastung |
US8945113B2 (en) | 2012-04-05 | 2015-02-03 | Covidien Lp | Electrosurgical tissue ablation systems capable of detecting excessive bending of a probe and alerting a user |
US9263663B2 (en) | 2012-04-13 | 2016-02-16 | Ardent Sound, Inc. | Method of making thick film transducer arrays |
US9498182B2 (en) | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US9439622B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical navigation system |
US9439627B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Planning system and navigation system for an ablation procedure |
US9439623B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical planning system and navigation system |
US8750568B2 (en) | 2012-05-22 | 2014-06-10 | Covidien Lp | System and method for conformal ablation planning |
US9510802B2 (en) | 2012-09-21 | 2016-12-06 | Guided Therapy Systems, Llc | Reflective ultrasound technology for dermatological treatments |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
CN113648551A (zh) | 2013-03-08 | 2021-11-16 | 奥赛拉公司 | 用于多焦点超声治疗的装置和方法 |
US10314559B2 (en) | 2013-03-14 | 2019-06-11 | Inneroptic Technology, Inc. | Medical device guidance |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US10561862B2 (en) | 2013-03-15 | 2020-02-18 | Guided Therapy Systems, Llc | Ultrasound treatment device and methods of use |
JP6123458B2 (ja) * | 2013-04-25 | 2017-05-10 | コニカミノルタ株式会社 | 超音波画像診断装置及び超音波画像診断装置の作動方法 |
CN103735312B (zh) * | 2013-12-11 | 2016-01-27 | 中国科学院深圳先进技术研究院 | 多模影像超声引导手术导航系统 |
ES2811323T3 (es) | 2014-02-06 | 2021-03-11 | Bard Inc C R | Sistemas para el guiado y la colocación de un dispositivo intravascular |
MX371246B (es) | 2014-04-18 | 2020-01-22 | Ulthera Inc | Terapia de ultrasonido con transductor de banda. |
US10952593B2 (en) | 2014-06-10 | 2021-03-23 | Covidien Lp | Bronchoscope adapter |
US9950194B2 (en) | 2014-09-09 | 2018-04-24 | Mevion Medical Systems, Inc. | Patient positioning system |
US9901406B2 (en) | 2014-10-02 | 2018-02-27 | Inneroptic Technology, Inc. | Affected region display associated with a medical device |
US10188467B2 (en) | 2014-12-12 | 2019-01-29 | Inneroptic Technology, Inc. | Surgical guidance intersection display |
US10973584B2 (en) | 2015-01-19 | 2021-04-13 | Bard Access Systems, Inc. | Device and method for vascular access |
US10426555B2 (en) | 2015-06-03 | 2019-10-01 | Covidien Lp | Medical instrument with sensor for use in a system and method for electromagnetic navigation |
US10349890B2 (en) | 2015-06-26 | 2019-07-16 | C. R. Bard, Inc. | Connector interface for ECG-based catheter positioning system |
US9949700B2 (en) | 2015-07-22 | 2018-04-24 | Inneroptic Technology, Inc. | Medical device approaches |
US9962134B2 (en) | 2015-10-28 | 2018-05-08 | Medtronic Navigation, Inc. | Apparatus and method for maintaining image quality while minimizing X-ray dosage of a patient |
WO2017127328A1 (en) | 2016-01-18 | 2017-07-27 | Ulthera, Inc. | Compact ultrasound device having annular ultrasound array peripherally electrically connected to flexible printed circuit board and method of assembly thereof |
US11000207B2 (en) | 2016-01-29 | 2021-05-11 | C. R. Bard, Inc. | Multiple coil system for tracking a medical device |
US9675319B1 (en) | 2016-02-17 | 2017-06-13 | Inneroptic Technology, Inc. | Loupe display |
US10478254B2 (en) | 2016-05-16 | 2019-11-19 | Covidien Lp | System and method to access lung tissue |
RU2748788C2 (ru) | 2016-08-16 | 2021-05-31 | Ультера, Инк. | Системы и способы для косметической ультразвуковой обработки кожи |
US10278778B2 (en) | 2016-10-27 | 2019-05-07 | Inneroptic Technology, Inc. | Medical device navigation using a virtual 3D space |
US10615500B2 (en) | 2016-10-28 | 2020-04-07 | Covidien Lp | System and method for designing electromagnetic navigation antenna assemblies |
US10517505B2 (en) | 2016-10-28 | 2019-12-31 | Covidien Lp | Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system |
US10446931B2 (en) | 2016-10-28 | 2019-10-15 | Covidien Lp | Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same |
US10751126B2 (en) | 2016-10-28 | 2020-08-25 | Covidien Lp | System and method for generating a map for electromagnetic navigation |
US10722311B2 (en) | 2016-10-28 | 2020-07-28 | Covidien Lp | System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map |
US10418705B2 (en) | 2016-10-28 | 2019-09-17 | Covidien Lp | Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same |
US10792106B2 (en) | 2016-10-28 | 2020-10-06 | Covidien Lp | System for calibrating an electromagnetic navigation system |
US10638952B2 (en) | 2016-10-28 | 2020-05-05 | Covidien Lp | Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system |
US11832877B2 (en) | 2017-04-03 | 2023-12-05 | Broncus Medical Inc. | Electrosurgical access sheath |
US11259879B2 (en) | 2017-08-01 | 2022-03-01 | Inneroptic Technology, Inc. | Selective transparency to assist medical device navigation |
US11219489B2 (en) | 2017-10-31 | 2022-01-11 | Covidien Lp | Devices and systems for providing sensors in parallel with medical tools |
US11484365B2 (en) | 2018-01-23 | 2022-11-01 | Inneroptic Technology, Inc. | Medical image guidance |
US11944849B2 (en) | 2018-02-20 | 2024-04-02 | Ulthera, Inc. | Systems and methods for combined cosmetic treatment of cellulite with ultrasound |
US11707329B2 (en) | 2018-08-10 | 2023-07-25 | Covidien Lp | Systems and methods for ablation visualization |
EP3852622A1 (de) | 2018-10-16 | 2021-07-28 | Bard Access Systems, Inc. | Sicherheitsausgerüstete verbindungssysteme und verfahren dafür zur herstellung von elektrischen verbindungen |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2443558B2 (de) * | 1974-09-11 | 1979-01-04 | Siemens Ag, 1000 Berlin Und 8000 Muenchen | Vorrichtung zum Punktieren von körperinternen Organen und Gefäßen |
DE2936259A1 (de) * | 1979-09-07 | 1981-03-19 | Siemens AG, 1000 Berlin und 8000 München | Vorrichtung zum punktieren von koerperinternen organen, gefaessen o.dgl. |
JPS5752446A (en) * | 1980-09-16 | 1982-03-27 | Aloka Co Ltd | Ultrasonic diagnostic apparatus |
JPS57131432A (en) * | 1981-02-09 | 1982-08-14 | Yokogawa Electric Works Ltd | Ultrasonic probe for drilling |
US4407294A (en) * | 1982-01-07 | 1983-10-04 | Technicare Corporation | Ultrasound tissue probe localization system |
US4567896A (en) * | 1984-01-20 | 1986-02-04 | Elscint, Inc. | Method and apparatus for calibrating a biopsy attachment for ultrasonic imaging apparatus |
US4791934A (en) * | 1986-08-07 | 1988-12-20 | Picker International, Inc. | Computer tomography assisted stereotactic surgery system and method |
US5251127A (en) * | 1988-02-01 | 1993-10-05 | Faro Medical Technologies Inc. | Computer-aided surgery apparatus |
US4899756A (en) * | 1988-07-18 | 1990-02-13 | Sonek Jiri D | Articulated needle guide for ultrasound imaging and method of using same |
ES2085885T3 (es) * | 1989-11-08 | 1996-06-16 | George S Allen | Brazo mecanico para sistema interactivo de cirugia dirigido por imagenes. |
US5158088A (en) * | 1990-11-14 | 1992-10-27 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic systems for imaging medical instruments within the body |
DE69132412T2 (de) * | 1990-10-19 | 2001-03-01 | Univ St Louis | Lokalisierungssystem für eine chirurgische sonde zur anwendung am kopf |
GB9025431D0 (en) * | 1990-11-22 | 1991-01-09 | Advanced Tech Lab | Three dimensional ultrasonic imaging |
US5161536A (en) * | 1991-03-22 | 1992-11-10 | Catheter Technology | Ultrasonic position indicating apparatus and methods |
US5261404A (en) * | 1991-07-08 | 1993-11-16 | Mick Peter R | Three-dimensional mammal anatomy imaging system and method |
US5608849A (en) * | 1991-08-27 | 1997-03-04 | King, Jr.; Donald | Method of visual guidance for positioning images or data in three-dimensional space |
US5325860A (en) * | 1991-11-08 | 1994-07-05 | Mayo Foundation For Medical Education And Research | Ultrasonic and interventional catheter and method |
US5389101A (en) * | 1992-04-21 | 1995-02-14 | University Of Utah | Apparatus and method for photogrammetric surgical localization |
FR2694881B1 (fr) * | 1992-07-31 | 1996-09-06 | Univ Joseph Fourier | Procede de determination de la position d'un organe. |
US5732703A (en) * | 1992-11-30 | 1998-03-31 | The Cleveland Clinic Foundation | Stereotaxy wand and tool guide |
US5517990A (en) * | 1992-11-30 | 1996-05-21 | The Cleveland Clinic Foundation | Stereotaxy wand and tool guide |
US5311871A (en) * | 1993-01-12 | 1994-05-17 | Yock Paul G | Syringe with ultrasound emitting transducer for flow-directed cannulation of arteries and veins |
US5483961A (en) * | 1993-03-19 | 1996-01-16 | Kelly; Patrick J. | Magnetic field digitizer for stereotactic surgery |
US5490223A (en) * | 1993-06-22 | 1996-02-06 | Kabushiki Kaisha Toshiba | Pattern recognition apparatus |
US5391199A (en) * | 1993-07-20 | 1995-02-21 | Biosense, Inc. | Apparatus and method for treating cardiac arrhythmias |
IL107523A (en) * | 1993-11-07 | 2000-01-31 | Ultraguide Ltd | Articulated needle guide for ultrasound imaging and method of using same |
US5531227A (en) * | 1994-01-28 | 1996-07-02 | Schneider Medical Technologies, Inc. | Imaging device and method |
US5398690A (en) * | 1994-08-03 | 1995-03-21 | Batten; Bobby G. | Slaved biopsy device, analysis apparatus, and process |
US5515853A (en) * | 1995-03-28 | 1996-05-14 | Sonometrics Corporation | Three-dimensional digital ultrasound tracking system |
EP0736284A3 (de) * | 1995-04-03 | 1999-06-16 | Hans Dr. Polz | Verfahren und Vorrichtung zur Erfassung von diagnostisch verwertbaren, dreidimensionalen Ultraschallbilddatensätzen |
US5660185A (en) * | 1995-04-13 | 1997-08-26 | Neovision Corporation | Image-guided biopsy apparatus with enhanced imaging and methods |
IL119262A0 (en) * | 1996-02-15 | 1996-12-05 | Biosense Israel Ltd | Locatable biopsy needle |
US5810008A (en) * | 1996-12-03 | 1998-09-22 | Isg Technologies Inc. | Apparatus and method for visualizing ultrasonic images |
-
1996
- 1996-12-03 US US08/758,721 patent/US5810008A/en not_active Expired - Lifetime
-
1997
- 1997-11-28 DE DE69721045T patent/DE69721045T2/de not_active Expired - Lifetime
- 1997-11-28 JP JP52499598A patent/JP2001514533A/ja active Pending
- 1997-11-28 CA CA002273874A patent/CA2273874C/en not_active Expired - Fee Related
- 1997-11-28 WO PCT/CA1997/000908 patent/WO1998025159A1/en active IP Right Grant
- 1997-11-28 IL IL13026897A patent/IL130268A/en not_active IP Right Cessation
- 1997-11-28 US US08/969,355 patent/US5957844A/en not_active Expired - Lifetime
- 1997-11-28 EP EP97945695A patent/EP0946886B1/de not_active Expired - Lifetime
- 1997-11-28 AU AU51130/98A patent/AU5113098A/en not_active Abandoned
-
1999
- 1999-04-21 US US09/295,508 patent/US6203497B1/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004026525A1 (de) * | 2004-05-25 | 2005-12-22 | Aesculap Ag & Co. Kg | Verfahren und Vorrichtung zur eingriffslosen Bestimmung markanter Strukturen des menschlichen oder tierischen Körpers |
US7691062B2 (en) | 2004-05-25 | 2010-04-06 | Aesculap Ag | Method and apparatus for the non-invasive determination of prominent structures of the body of a human being or an animal |
Also Published As
Publication number | Publication date |
---|---|
AU5113098A (en) | 1998-06-29 |
CA2273874A1 (en) | 1998-06-11 |
US5810008A (en) | 1998-09-22 |
JP2001514533A (ja) | 2001-09-11 |
DE69721045D1 (de) | 2003-05-22 |
US5957844A (en) | 1999-09-28 |
EP0946886A1 (de) | 1999-10-06 |
US6203497B1 (en) | 2001-03-20 |
CA2273874C (en) | 2007-05-15 |
EP0946886B1 (de) | 2003-04-16 |
IL130268A0 (en) | 2000-06-01 |
IL130268A (en) | 2004-05-12 |
WO1998025159A1 (en) | 1998-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69721045T2 (de) | Vorrichtung und verfahren zur darstellung von ultraschallbildern | |
DE60018247T2 (de) | System und Methode zur Verwendung mit bildgebenden Verfahren zur Erleichterung der Planung von chirurgischen Eingriffen | |
EP0652726B1 (de) | Verfahren zur darstellung des inneren von körpern | |
DE102005040528B4 (de) | Drahtlose Erfassung der Ausrichtung eines Endoskops | |
DE69831138T2 (de) | System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung | |
DE60317358T2 (de) | System zur Positionierung einer medizinischen Vorrichtung | |
DE69432961T2 (de) | Anordnung zur Bestimmung der gegenseitigen Lage von Körpern | |
DE69922980T2 (de) | Verfahren und vorrichtung zur positionierung eines geräts in einem körper | |
DE60010309T2 (de) | Verfahren zur echtzeitdarstellung von medizinischen bildern | |
DE69826421T2 (de) | Bildgesteuerte Eingriffsverfahren | |
DE60028487T2 (de) | Vaskuläre Rekonstruktion | |
DE69133548T2 (de) | System zum Anzeigen einer Stelle in dem Körper eines Patienten | |
DE10083670B4 (de) | System zur Translation elektromagnetischer und optischer Lagemessungssysteme | |
DE60212313T2 (de) | Vorrichtung zur Ultraschall-Bilddarstelllung einer Biopsiekanüle | |
DE10221642B4 (de) | Verfahren und Steuereinrichtung zur Steuerung einer Schichtbildaufnahmeeinrichtung | |
EP2632382B1 (de) | Navigationsaufsatz für optische geräte in der medizin und verfahren | |
DE10315242B4 (de) | Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung | |
EP1199031A2 (de) | Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren | |
EP1319368B1 (de) | Verfahren zur Bestimmung der Orientierung und Relativposition eines medizinischen Instruments | |
DE4417944A1 (de) | Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie | |
DE102004030836A1 (de) | Verfahren zur Bilddarstellung eines in einen sich rhythmisch oder arhythmisch bewegenden Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments, insbesondere eines Katheters | |
EP1127545A2 (de) | Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie | |
DE112007001214T5 (de) | Verfahren und Vorrichtung zur 3D-Akquisition, 3D-Visualisierung und computergeführten Operation mit Nuklearsonden | |
DE102005045602B4 (de) | Verfahren zum Unterstützen eines interventionellen medizinischen Eingriffs | |
DE102013203399A1 (de) | Verfahren und Projektionsvorrichtung zur Markierung einer Oberfläche |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: BRAINLAB AG, 85622 FELDKIRCHEN, DE |