DE19819832B4 - Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung - Google Patents

Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung Download PDF

Info

Publication number
DE19819832B4
DE19819832B4 DE19819832.9A DE19819832A DE19819832B4 DE 19819832 B4 DE19819832 B4 DE 19819832B4 DE 19819832 A DE19819832 A DE 19819832A DE 19819832 B4 DE19819832 B4 DE 19819832B4
Authority
DE
Germany
Prior art keywords
volume
data
pixel data
image
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19819832.9A
Other languages
English (en)
Other versions
DE19819832A1 (de
Inventor
William Thomas Hatfield
Todd Michael Tillman
Michael John Harsh
David John Muzilla
Anne Lindsey Hall
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819832A1 publication Critical patent/DE19819832A1/de
Application granted granted Critical
Publication of DE19819832B4 publication Critical patent/DE19819832B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • A61B8/065Measuring blood flow to determine blood output from the heart
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Abstract

Verfahren zur dreidimensionalen Bildgebung von Ultraschall streuenden Bestandteilen in einem Objektvolumen, gekennzeichnet durch die Schritte: Aussenden von Ultraschallbündeln in das Objektvolumen; Erfassen der von dem Objektvolumen als Reaktion auf die Aussendung von Ultraschallbündeln reflektierten Ultraschall-Echos; Steuern des Azimutfokus der gesendeten Ultraschallbündel um Brennweitenveränderungen zu erhalten; Steuern des Höhenfokus der gesendeten Ultraschallbündel als Funktion der Brennweite; Einstellen einer Charakteristik einer Sende-Wellenform als Funktion der Brennweite; Koordinieren der Veränderung im Azimut- und Höhenfokus sowie der Anpassungen der Sende-Wellenformcharakteristik, um ein Quellvolumen von Pixeldaten zu gewinnen, welche von Samplevolumen in dem Objektvolumen abgeleitet sind; Wiedergeben eines Satzes von Pixeldaten von dem Quellvolumen, wobei dieser Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht; Projizieren des Pixeldatensatzes auf eine erste Bildebene, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und bildliches Darstellen des ersten projizierten Bildes.

Description

  • Diese Erfindung bezieht sich allgemein auf Ultraschall-Bildgebung der menschlichen Anatomie zum Zweck der medizinischen Untersuchung. Insbesondere bezieht sich die Erfindung auf ein Verfahren zur dreidimensionalen Abbildung des menschlichen Körpers sowie des darin fließenden Blutes durch Erfassen der vom Gewebe oder Blut reflektierten Ultraschall-Echos.
  • US 5186175 A beschreibt eine Einrichtung zur dreidimensionalen Ultraschall-Bildgebung. Die Einrichtung hat ein Ultraschall-Wandler-array zum Aussenden von Ultraschallbündeln und zum Erfassen von reflektierten Ultraschall-Echos. Die Einrichtung hat einen Strahlformer, der eine Stufe zur Strahlformung in der seitlichen Richtung und eine weitere Stufe zur Strahlformung in der Azimuth-Richtung aufweist. Durch diese beiden Strahlformerstufen soll die notwendige Speicherkapazität für die Signalverarbeitung verringert werden.
  • US 5485842 A beschreibt eine Ultraschall-Bildgebungsvorrichtung mit einem Strahlformer. Es sollen eine Mehrzahl von zweidimensionalen Bildern erfasst und miteinander kombiniert werden. Jedes kombinierte Bild zeigt eine unterschiedliche Ansicht eines dreidimensionalen Bereichs. Eine Sequenz von kombinierten Bildern kann auf einem Display angezeigt werden, so dass der Betrachter den Eindruck erhält, dass der dreidimensionale Bereich vor ihm rotieren würde.
  • Ein Verfahren und eine Einrichtung zur volumetrischen Projektion ist aus US 5226113 A bekannt. Für jedes Volumenelement (Voxel) wird ein Datensatz aufgenommen und abgespeichert. Jedes Voxel wird unter dem Betrachtungswinkel auf eine Bildebene projiziert. Jedes Pixel auf der Bildebene wird entsprechend den Dimensionen des aufgenommenen Objektvolumens und dem Projektionswinkel skaliert, um die Richtungsabhängigkeit zu korrigieren.
  • Zu den am weitesten üblichen Arten der diagnostischen Ultraschall-Bildgebung zählen die (zur Abbildung interner physikalischer Strukturen benutzten) B- und M-Moden, das Doppler- sowie das Farbströmungs(CF von color flow)verfahren (wobei das letztere hauptsächlich zur Abbildung von Strömungscharakteristiken, wie zum Beispiel in Blutgefäßen, eingesetzt wird). Bei der konventionellen B-Mode-Bildgebung erzeugen Ultraschall-Abtaster bzw. -Scanner Bilder, in denen die Helligkeit bzw. Leuchtdichte eines Pixels auf der Intensität der Echorückkehr basiert. Der Farbströmungs-Mode wird typischerweise benutzt, um die Geschwindigkeit einer Fluidströmung zum/vom Wandler zu erfassen, und er verwendet im wesentlichen dieselbe Technik, wie sie beim Dopplerverfahren eingesetzt wird. Während das Dopplerverfahren die Geschwindigkeit in Abhängigkeit von der Zeit für ein einzelnes selektiertes Sample- bzw. Probevolumen anzeigt, bringt der Farbströmungs-Mode gleichzeitig Hunderte von benachbarten Samplevolumen zur Darstellung, die alle einem B-Mode-Bild überlagert und zur Darstellung der Geschwindigkeit jedes Samplevolumens farbkodiert sind.
  • Die Messung der Blutströmung im Herzen und in den Gefäßen unter Anwendung des Dopplereffekts ist bekannt. Während die Amplitude der reflektierten Wellen zur Erzeugung von Schwarzweißbildern des Gewebes benutzt wird, kann die Frequenzverschiebung von rückgestreuten Wellen zur Messung der Geschwindigkeit der rückstreuenden Bestandteile des Gewebes oder Blutes benutzt werden. Die rückgestreute Frequenz nimmt zu, wenn Blut in Richtung auf den Wandler hin strömt, und nimmt ab, wenn Blut von dem Wandler weg strömt. Farbströmungsbilder werden erzeugt, indem man eine Farbdarstellung der Geschwindigkeit von sich bewegendem Material, z. B. von Blut, dem Schwarzweißbild der Anatomie überlagert. Die gemessene Geschwindigkeit der Strömung bei jedem Pixel bestimmt seine Farbe.
  • Das erfindungsgemäße Verfahren kann mit einem Ultraschall-Bildgebungssystem ausgeführt werden, das aus vier hauptsächlichen Untersystemen besteht: einem Bündelformer 2 (vgl. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Displaysteuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung ist zentral in der Hauptsteuerung 8 vorgesehen, welche die Bedienereingaben über eine (nicht gezeigte) Bedienerschnittstelle empfängt und ihrerseits die verschiedenen Untersysteme steuert. Die Hauptsteuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Abtaststeuerbus verteilt werden.
  • Der Hauptdatenpfad beginnt mit den digitalisierten HF-Eingängen von dem Wandler an den Strahl- bzw. Bündelformer. Unter Bezugnahme auf 2 enthält ein konventionelles Ultraschall-Bildgebungssystem ein Wandlerarray 50, das mehrere separat betriebene Wandlerelemente 52 aufweist, von denen jedes einen Ausstoß (burst) von Ultraschallenergie erzeugt, wenn es über einen von einem (nicht gezeigten) Sender erzeugten Impulsverlauf mit Energie beaufschlagt wird. Die von dem untersuchten Objekt zum Wandlerarray 50 zurückreflektierte Ultraschallenergie wird von jedem empfangenden Wandlerelement 52 in ein elektrisches Signal umgesetzt und separat an den Bündelformer 2 angelegt.
  • Die bei jedem Ausstoß von Ultraschall-Energie erzeugten Echosignale reflektieren an den Objekten, die sich in aufeinanderfolgenden Entfernungen entlang des Ultraschallstrahls befinden. Die Echosignale werden von jedem Wandlerelement 52 separat abgefühlt, und die Größe des Echosignals zu einem bestimmten Zeitpunkt repräsentiert den Betrag der bei einem spezifischen Abstand auftretenden Reflexion. Aufgrund der Unterschiede in den Ausbreitungswegen zwischen einem Ultraschall streuenden Samplevolumen und jedem Wandlerelement 52 werden diese Echosignale jedoch nicht gleichzeitig erfasst und ihre Amplituden werden nicht gleich sein. Der Bündelformer 2 verstärkt die separaten Echosignale, teilt jedem die richtige Zeitverzögerung zu und summiert sie auf zur Bildung eines einzigen Echosignals, das ein genaues Maß der ingesamten Ultraschallenergie ist, die von dem Samplevolumen reflektiert wird. Jeder Strahlformungskanal 54 empfängt das analoge Echosignal von einem entsprechenden Wandlerelement 52.
  • Um gleichzeitig die elektrischen Signale zu summieren, die von den auf jedes Wandlerelement 52 auftreffenden Echos erzeugt werden, werden in jedem separaten Strahlformungskanal 54 mittels einer Strahlformersteuerung 56 Zeitverzögerungen eingebracht. Die Bündel-Zeitverzögerungen für den Empfang sind dieselben Verzögerungen wie die Sendeverzögerungen. Die Zeitverzögerung von jedem Strahlformungskanal ändert sich jedoch kontinuierlich während des Empfangs des Echos, um eine dynamische Fokussierung des aus dem Abstand, von wo das Echosignal ausgeht, empfangenen Bündels vorzusehen. Die Strahlformungskanäle weisen weiterhin (nicht gezeigte) Schaltungen für das Aufbereiten bzw. Apodisieren und Filtern der empfangenen Impulse auf.
  • Die in den Summierer 44 eintretenden Signale werden verzögert, so dass sie mit den verzögerten Signalen von jedem der anderen Strahlformungskanäle 54 summiert werden. Die summierten Signale geben die Größe und Phase des von einem entlang des gesteuerten Bündels angeordneten Samplevolumen reflektierten Echosignals an. Ein Signalprozessor oder Detektor 4 konvertiert das empfangene Signal zu Displaydaten.
  • Der Bündelformer gibt zwei aufsummierte digitale Empfangsbündel im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und an den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozessiert und als prozessierte akustische Vektor-(Bündel-)Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben werden. Der Abtastkonverter/Displayprozessor 6 nimmt die prozessierten akustischen Daten auf und gibt die Video-Displaysignale für die Abbildung in einem Rasterscanformat an einen Farbmonitor 12 aus.
  • Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvariable Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit-Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.
  • Die Frequenz der von der Innenseite von Blutgefäßen, Herzkammern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in positiver Richtung für sich auf den Wandler zu bewegende Zellen und in negativer Richtung für die sich davon wegbewegenden Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindigkeit in der Abbildungsebene vorzusehen. Die Blutgeschwindigkeit wird errechnet durch Messung der Phasenverschiebung zwischen zwei Aktivierungen (firings) bei einem spezifischen Entfernungstor (range gate). Statt einer Messung des Dopplerspektrums bei einem Entfernungstor in der Abbildung wird die mittlere Blutgeschwindigkeit von mehreren Vektorpositionen und mehreren Entfernungstoren entlang jedes Vektors berechnet, und aus dieser Information wird eine zweidimensionale Abbildung erstellt. In speziellerer Hinsicht erzeugt der Farbströmungsprozessor Geschwindigkeitssignale (8 Bits), Varianz-(Turbulenz-)Signale (4 Bits), sowie Energie- bzw. Powersignale (8 Bits). Der Bediener wählt aus, ob die Geschwindigkeit und Varianz oder die Energie an den Abtastkonverter ausgegeben werden. Letztlich wird das Ausgangssignal als Eingang für eine in den Videoprozessor 22 enthaltene Nachschlagetabelle für die Chrominanz- bzw. Buntsteuerung gegeben.
  • Die akustischen Zeilenspeicher 14A und 14B der Abtastkonverter/Displaysteuerung 6 neben jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinaten-Transformation der Farbströmungs-B-Mode-Daten vom Polarkoordinaten(R-Θ)-Sektorformat oder vom kartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldatenin kartesischen Koordinaten durch, die im XY-Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdatenim XY-Displayspeicher 18 gespeichert, wobei jede Adresse drei Intensitätspixel zu 8 Bit speichert. Im Farbströmungsmodus werden die Daten im Speicher wie folgt gespeichert: Intensitätsdaten (8 Bit), Geschwindigkeits- oder Energiedaten (8 Bit) und Turbulenzdaten (4 Bit).
  • Der Abtastkonverter 6 konvertiert die akustischen Bilddaten von Polarkoordinaten(R-Θ)-Sektorformat oder vom kartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldaten in kartesischen Koordinaten bei der Videofrequenz. Diese Abtast-konvertierten akustischen Daten werden sodann zur Darstellung auf dem Displaymonitor 12 ausgegeben. Im B-Mode bildet der Monitor die zeitvariable Amplitude der Einhüllenden des Signals als eine Grauskala ab, d. h. die Helligkeit eines Pixels basiert auf der Intensität der Echorückkehr. Im Farbströmungsmodus, wenn eine Bewegung vorliegt, zum Beispiel in einer Arterie fließendes Blut, wird eine Doppler-Verschiebung in dem rückkehrenden Signal proportional zur Geschwindigkeit der Bewegungen erzeugt. Die Anzeige bildet die Blutströmung ab, d. h. die Doppler-Verschiebung verwendet verschiedene Farben, z. B. Rot für eine Strömung zum Wandler hin und Blau für eine Strömung vom Wandler weg. Bei der Power-Doppler-Bildgebung wird die in dem zurückkehrenden Dopplersignal enthaltene Energie zur Darstellung gebracht.
  • Aufeinanderfolgende (Voll-)Bilder (Frames) von Farbströmungs- oder B-Mode-Daten werden im Filmspeicher auf einer First-In/First-Out(FIFO)-Basis gespeichert. Die Speicherung kann kontinuierlich erfolgen oder als Ergebnis eines externen Triggervorgangs. Der Filmspeicher ist ein im Hintergrund laufender ringförmiger Bildpufferspeicher, der die Bilddaten erfasst, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System ”einfriert”, hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bilddaten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen (overlays) auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeilinien/Grafikprozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multiplexbetrieb zwischen den Grafikdaten, den Bilddaten und den Zeitliniendaten hin und her, um den endgültigen Videoausgang in einem Rasterscanformat auf dem Videomonitor 12 zu erzeugen. Zusätzlich sorgt er für verschiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüpfung der Grauskala- und Farbbilder.
  • Konventionelle Ultraschall-Scanner erzeugen zweidimensionale Bilder eines ”Schnitts” (slice) durch einen Anatomiebereich. Zweidimensionale Ultraschallbilder sind oft schwer zu interpretieren aufgrund des Unvermögens des Beobachters, sich die Darstellung der gerade abgetasteten Anatomie zu veranschaulichen. Wird jedoch die Ultraschallsonde über einen interessierenden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidimensionalen Volumens akkumuliert, dann ist die Anatomie leichter vorstellbar. Die Daten können auf eine Anzahl von Wegen manipuliert werden, einschließlich einer Volumen- oder Oberflächenerstellung. Zusätzlich können die Daten erneut abgetastet und in anderen Ebenen dargestellt werden als denjenigen, in denen die Daten ursprünglich gesammelt worden sind. Dies erlaubt dem Benutzer, Ansichten der Anatomie zu erhalten, die angesichts der gegebenen Anatomie und des Unvermögens, die Sonde exakt zu positionieren, nicht möglich sein können.
  • Die obigen Techniken sind zur Darstellung von Ultraschalldaten mit unterschiedlichen Graden von Erfolg benutzt worden. Ein Problem besteht darin, dass ein Mangel an (sowohl räumlicher als auch kontrastmäßiger) Auflösung verbunden mit Flecken (Speckle) und Rauschen in den zweidimensionalen Bildern es schwierig macht, das projizierte Bild richtig zu segmentieren. Der Mangel an Auflösung bei zweidimensionalen Bildern rührt von einer Anzahl von Faktoren her, einschließlich dem Unvermögen, eine gleichmäßige Fokussierung des Bündels über einen großen Bereich aufrechtzuerhalten, einem Mangel an Bandbreite und Dynamikbereich sowie einer hohen f-Zahl (Blendwert) des Systems. Ein weiteres Problem war der begrenzte Bereich für die Höhenfokussierung des von einem Wandlerarray mit einer einzelnen Zeile und einem festen Einzelfokus erzeugten Bündels. Die bei der Rekonstruktion eines dreidimensionalen Bildes verwendeten Quelldatenschnitte variieren aufgrund der ungleichmäßigen vertikalen bzw. Höhenbündelweite in ihrer Dicke. Daher verschlechtern sich die rekonstruierten Bilder sukzessive in dem Masse, wie die Projektionen oder wieder abgetasteten Bilder sich einem Winkel senkrecht zu der Erfassungsebene annähern. Es besteht somit ein Bedarf dafür, die f-Zahl abzusenken und die Bandbreite des Systems zu erhöhen, um sowohl die räumliche als auch die kontrastmäßige Auflösung der zweidimensionalen Bilder zu verbessern, und es besteht ein weiterer Bedarf nach einer Steuerung des Erhebungs- bzw. Höhenfokus des Ultraschallbündels über einen größeren Bereich, um einen viel dünneren Schnitt mit gleichmäßigerer Dicke zu erhalten, der eine verbesserte Segmentierung bei der dreidimensionalen Bildgebung ermöglicht.
  • Die vorliegende Erfindung stellt ein Verfahren zur dreidimensionalen Bildgebung mittels Projektion von Ultraschalldaten dar, die durch Abtasten bzw. Scannen eines interessierenden Volumens gewonnen wurden. Das Objektvolumen wird unter Verwendung einer Vielzahl von Schnitten mit im wesentlichen gleichmäßiger Dicke abgetastet. Der Ultraschall-Scanner sammelt B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher auf einer kontinuierlichen Basis oder als Reaktion auf einen externen Triggervorgang, d. h. für eine Vielzahl von Schnitten. Die von einem jeweiligen interessierenden Gebiet für jeden Schnitt erhaltenen Samplevolumendaten werden an eine Hauptsteuerung gesandt, wobei diese Daten ein interessierendes Volumen bilden. Die Hauptsteuerung führt einen Algorithmus aus, der die Samplevolumendaten in dem interessierenden Volumen unter Einsatz einer Strahlwurftechnik auf mehrere gedrehte Bildebenen projiziert. Die Samplevolumendaten für jede Projektion werden gespeichert, und zwar optional mit dem Teil des letzten außerhalb des interessierenden Gebiets liegenden Hintergrundbild, in einem separaten Bild (frame), in dem Filmspeicher. Diese rekonstruierten Bilder werden sodann selektiv von dem Systembediener zur Anzeige gebracht.
  • Gemäß der vorliegenden Erfindung wird die Segmentierung der dreidimensionalen Projektionsbilder verbessert durch Verringern der Dicke und Erhöhen der Auflösung (d. h. Verringern der Punktausbreitungsfunktion) der zweidimensionalen Schnitte, von denen die Projektionen abgeleitet werden. Die Schnittdicke wird verringert durch Erhöhen des Höhenfokus des Bündels.
  • Die zweidimensionale Auflösung wird erhöht durch Öffnen der Apertur, d. h. durch Verringern der f-Zahl, sowie durch Erhöhen der Bandbreite. Das Ergebnis ist eine außerordentlich kleine Voxelgröße.
  • Das Verfahren nach der Erfindung verwendet eine Anzahl von Techniken einschließlich der Benutzung von mehrfachen Sende-Brennweiten sowie von Sende- und Empfangsaperturen mit kleinen f-Zahlen, d. h. 0,5 bis 2,0 für den B-Mode und 1,0 bis 3,0 für den Farbströmungs-Mode. Die Benutzung von Mehrfachbrennweiten mit niedrigen f-Zahlen erlaubt eine enge Fokussierung über einen größeren Schärfentiefenbereich. Darüber hinaus können besondere Wellenformen und besondere Verstärkungskurven für unterschiedliche Brennweiten (Fokalzonen) benutzt werden. Insbesondere kann die Mittenfrequenz der Wellenform mit zunehmender Tiefe verringert werden, um eine geringere Dämpfung und größere Durchdringung zu erreichen, während die Ausstoßwellenlänge (waveform burst length) mit zunehmender Tiefe erhöht werden kann, um die Empfindlichkeit bei größeren Tiefen zu verbessern.
  • Bei der B-Mode-Bildgebung werden für jedes akustische Bild (Frame) mehrfache Fokalzonen aktiviert (fired) und die außerhalb des Fokus liegenden Daten werden bei der Bündelformung ausgesondert. Bei der Farbströmungs-Mode-Bildgebung wird jede Fokalzone auf ein separates akustisches Bild aktiviert und ein adaptiver Bildmittelungsalgorithmus wird für das Zusammenmischen der innerhalb des Fokus liegenden Daten von jedem dieser akustischen Bilder benutzt.
  • Eine gleichmäßige vertikale Bündelweite wird erzielt durch Verwendung eines Wandlerarrays mit mehreren Zeilen, das eine zentrale Zeile bzw. Reihe von Wandlerelementen aufweist, die zwischen ersten und zweiten äußeren Zeilen von paarweisen Wandlerelementen angeordnet ist. Vorzugsweise ist die zentrale Reihe mit Elementen ausgeführt, die eine kleinere Fläche besitzen als die kombinierte Fläche der paarweisen Elemente der äußeren Zeilen. Diese Geometrie bietet eine exzellente Höhenleistungsfähigkeit (dünnerer und gleichmäßigerer Bildschnitt, größere Kontrastauflösung), insbesondere im ausgesprochenen Nahfeld. Vorzugsweise weist das Array fünf Zeilen sowie eine mehrfokale Linse auf, wobei die kombinierte Fläche jedes Elementpaares in den äußersten Zeilen größer ist als die Fläche jedes Elements in der zentralen Zeile und größer ist als die kombinierte Fläche von jedem Elementpaar in den Zwischenzeilen.
  • Gemäß der bevorzugten Ausführung der Erfindung werden der vertikale bzw. Höhenfokus, die Mittenfrequenz der Wellenform sowie die Wellenausstoßlänge jeweils als Funktion der Tiefe geändert. Man kann deshalb eine Anzahl von Fokalzonen programmieren und eine bessere Punktausbreitungsfunktion über das gesamte Bild erzielen. Zusätzlich ist es durch Einstellung der bündelformenden Parameter möglich, die Anzahl von aktiven Elementen zu erhöhen und dadurch die Apertur der Sonde (probe) zu öffnen, d. h. die Blenden- bzw. f-Zahl zu verkleinern. Dies hat den Effekt der Verkleinerung der Seitenkeulen, was ein besseres Spitze-zu-Spitze Grundrauschverhältnis erzeugt, was seinerseits die Kontrastauflösung verbessert. Ein breiterer Dynamikbereich lässt sich erzielen durch Erhöhen der Datenbitweite in dem Ultraschallsystem und durch Verringern des insgesamten Grundrauschens des Systems.
  • Das Ultraschall-Bildgebungssystem zur Ausführung des Verfahrens kann einen digitalen Bündelformer aufweisen, der es den bündelformenden Parametern des Systems erlaubt, den Bündelfokus sowohl hinsichtlich des Azimuts als auch der Höhe (Elevation) mit der Tiefe zu ändern. Eine andere Ausführung des Ultraschall-Bildgebungssystems weist einen digitalen Bündelformer auf, der es den strahlformenden Systemparametern gestattet, den Azimutfokus des Bündels sowie eine Linse mit festem Fokus zu ändern, um den Höhenfokus mit der Tiefe zu ändern.
  • Somit kann eine schmalere und gleichmäßigere Bündelweite über einen viel größeren Bereich aufrechterhalten werden. Zusätzlich erlaubt es der digitale Bündelformer, dass die Apertur der Sonde so gesteuert wird, dass sie eine weitere Apertur und daher eine geringere f-Zahl erzeugt.
  • Die Erfindung wird im folgenden anhand von Ausführungsbeispielen unter Zuhilfenahme der Zeichnungen näher erläutert. Es zeigen:
  • 1 ein Blockschaltbild, das die hauptsächlichen funktionalen Untersysteme in einem Echtzeit-Ultraschall-Bildgebungssystem zeigt;
  • 2 ein Blockschaltbild eines typischen 128-Kanal-Bündelformers in einem konventionellen Ultraschall-Bildgebungssystem;
  • 3 eine schematische Darstellung des akustischen bzw. Schallbündelprofils, das sich ergibt, wenn das Ultraschall-Wandlerarray eine Apertur mit einer relativ hohen f-Zahl besitzt;
  • 4 eine schematische Darstellung des akustischen Bündelprofils, das sich ergibt, wenn das Ultraschall-Wandlerarray eine Apertur mit einer relativ niedrigen f-Zahl aufweist;
  • 5 eine schematische Darstellung des akustischen Bündelprofils, das sich ergibt, wenn gemäß der vorliegenden Erfindung mehrfache Sende-Fokalzonen benutzt werden;
  • 6 eine vertikale Querschnittsansicht eines mehrzeiligen Wandlerarrays, das in dem dreidimensionalen Ultraschall-Bildgebungssystem verwendet werden kann, um den Höhenfokus mit zunehmender Tiefe zu verändern;
  • 7 ein Blockschaltbild der Einrichtung zur Bildrekonstruktion mit aufeinanderfolgenden volumetrischen Projektionen von Pixeldaten; und
  • 8 ein Flussdiagramm der Schritte eines Algorithmus zur Bildrekonstruktion mit aufeinanderfolgenden volumetrischen Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung.
  • Gemäß einem Aspekt der vorliegenden Erfindung werden kleine Sende- und Empfangs-f-Zahlen (d. h. weite Aperturen) für eine verbesserte räumliche Auflösung benutzt. Die Auswirkung der Verwendung von Aperturen mit kleiner f-Zahl auf das Schallbündelprofil ist in den 3 und 4 dargestellt. 3 zeigt das Ergebnis der Benutzung einer höheren f-Zahl (kleinere Apertur). Die laterale Fokussierung ist am Brennpunkt nicht sehr scharf, obwohl die Schärfentiefe in der Entfernungsdimension einigermaßen groß ist. Das in 4 gezeigte Bündel ist das Ergebnis bei Benutzung einer niedrigen f-Zahl (größere Apertur). Die laterale Fokussierung ist enger am Brennpunkt und die Schärfentiefe ist schmaler. Gemäß den bevorzugten Ausführungen der Erfindung ist der Bereich von f-Zahlen für den B-Mode 0,5 bis 2,0 und für den Farbströmungs-Mode 1,0 bis 3,0.
  • Gemäß einem weiteren Merkmal der vorliegenden Erfindung werden mehrfache Sende-Fokalzonen benutzt. Eine Benutzung von mehrfachen Fokalzonen mit niedrigen f-Zahlen löst das Schärfentiefenproblem und erlaubt eine enge Fokussierung über einen größeren Schärfentiefenbereich, wie in 5 gezeigt ist. Gemäß dem System nach der vorliegenden Erfindung können entlang jeder Abtastzeile 1 bis 8 Fokalzonen benutzt werden. Das Aktivieren (firing) von mehrfachen Fokalzonen gemäß der Erfindung bedeutet eine Herausforderung für den bereits hinsichtlich der Bildrate begrenzten Farbbild-Mode, da für jede Fokalzone komplette Pakete ausgesandt bzw. aktiviert werden müssen. Diese Herausforderung wird überwunden, indem man jede Fokalzone auf einem separaten akustischen Bild (Frame) aktiviert. Somit ändert sich die Lage der Fokalzone von Bild zu Bild.
  • Zusätzlich können für jede Fokalzone spezielle Wellenformen benutzt werden. Im Nahfeld weisen die Sende-Wellenformen relativ kurze Ausstoßlängen (burst lengths) auf. Beispielsweise weisen bei der B-Mode-Abbildung gemäß einer bevorzugten Ausführung der Erfindung die Sende-Wellenformen im Nahfeld vorzugsweise nur einen Impuls auf, der mit der Pulswiederholungsfrequenz wiederholt wird. Die Benutzung von Wellenformen mit kürzerer Ausstoßlänge resultiert in einer besseren axialen Auflösung, wogegen man die Empfindlichkeit ansetzt (weniger Energie in der Wellenform), was man kompensieren kann, indem man eine größere Apertur im Nahfeld benutzt. Wellenformen mit längerer Ausstoßlänge werden oft im Fernbereich benötigt, um die geforderte Eindringtiefe bzw. Durchdringung zu erzielen. Gemäß einem weiteren Aspekt der Erfindung können die Sende-Wellenformen von Fokalzone zu Fokalzone variieren. Die Benutzung einer Wellenform mit niedrigerer Frequenz resultiert in einer stärkeren Eindringtiefe und die Benutzung einer Wellenform mit höherer Frequenz resultiert in einer besseren Nahfeldauflösung.
  • Für eine B-Mode-Abbildung des Unterleibs sendet das System gemäß der Erfindung in einem Bereich von 2,5–5 MHz unter Verwendung einer Apertur mit einer f-Zahl von 1,0. Für die B-Mode-Abbildung von kleineren Körperteilen sendet das System gemäß der Erfindung in einem Bereich von 8,75–12 MHz unter Verwendung einer Apertur mit einer f-Zahl von 1,5. Die bevorzugte Anzahl von Fokalzonen beträgt 2 bis 8.
  • Im Farbströmungs-Mode beträgt der bevorzugte Bereich für die Demodulationsfrequenz 1,25 bis 8 MHz, in Abhängigkeit von der Sonde, und die bevorzugte Anzahl von Sendezyklen (d. h. die Ausstoß(burst)länge) für jede Fokalzone beträgt 2 bis 8 Zyklen, abhängig von der Sende-Fokaltiefe der Mittenfrequenz und der gewünschten axialen Auflösung. Beispielsweise ist gemäß einem Aufbau zur Bündelformung mit hoher Auflösung für den Farbströmungs-Mode die Demodulationsfrequenz 5 MHz für alle Fokalzonen; die Anzahl von Sendezyklen ist 3 für die ersten 10 Fokalzonenpositionen (z. B. bei einer Abdeckung von 0,4 bis 3,1 cm); und die Anzahl von Sendezyklen beträgt 4 für die 11-te und 12-te Fokalzonenposition (z. B. bei 3,4 bzw. 3,7 cm).
  • Gemäß einem noch weiteren Aspekt der Erfindung werden besondere Verstärkungskurven für jede Fokalzone benutzt. Der Ausdruck ”Verstärkungskurve”, wie er hier benutzt wird, bezieht sich auf die Art, in der sich die Empfängerverstärkung des Systems mit der Tiefe ändert. Bei größeren Tiefen wird mehr Verstärkung benötigt als bei flacheren Tiefen, weil die Dämpfung des akustischen Signals bei größeren Tiefen größer ist. Um ein über die Tiefe relativ gleichmäßiges Bild (gleichmäßig in der Verstärkung) zu erzeugen, muss typischerweise eine größere Verstärkung auf die tieferen Tiefen angewendet werden. Gemäß der Erfindung erscheint jedoch die meiste Energie des ausgesendeten Signals bei oder in der Nähe der Sende-Fokalzone. Eine Verstärkungsanpassung wird vorgenommen unter Einsatz einer speziellen Verstärkungskurve für jede Fokalzone. Die Verstärkungskurven sind ein Zahlensatz in einer Datei (file) für jede Fokalzone, welche Zahlen die an das Signal in dieser Verarbeitungsstufe angelegte Verstärkung repräsentieren. Diese Verstärkungskurven werden an die Abgleicheinrichtung angelegt, die Teil des Bündelformers ist.
  • Im Farbströmungs-Mode wird die Verstärkung so eingestellt, dass das Signal etwas größer an der Fokalzone ist und kleiner etwas entfernt von der Fokalzone. Auf diese Weise erfasst der Farbströmungs-Bildmittelungsalgorithmus das im Fokus auftretende Signal und minimiert die nicht im Fokus liegenden Anteile von ”abseits” liegenden Fokalzonen.
  • Beim Scannen im Farbströmungs-Mode wird ein zweidimensionales Bild erzeugt, indem man einen vertikalen Vektor nach dem anderen von links nach rechts aussendet bzw. auslöst, um einen einzelnen zweidimensionalen Satz von Pixeldaten aufzubauen, der das Bild formen wird. Dieser Satz von vertikalen Datenvektoren ist bekannt als ein akustisches (Voll-)Bild (Frame) von Farbströmungsdaten. Wenn beim Scannen im Farbströmungs-Mode ein jeweiliges akustisches Bild von Farbströmungsdaten gewonnen worden ist, wird es weiter verarbeitet, während das nächste akustische Datenbild gewonnen wird. Gemäß dem Konzept der vorliegenden Erfindung besitzt jedes akustische Bild (Frame) für seine Vektoren eine Sende-Fokalzonenposition, die gegenüber der Fokalposition der vorhergehenden und nachfolgenden akustischen Bilder unterschiedlich sein kann. Ein adaptiver Algorithmus zur Mittelung der Bilder wird benutzt, um die im Fokus liegenden Daten von jedem dieser akustischen Bilder bei der Vorbereitung für die Darstellung zusammenzumischen. Gemäß der bevorzugten Ausführungsform werden die Fokalzonen kombiniert unter Verwendung eines nicht linearen datenabhängigen Bildmittelungsalgorithmus. Der Vorteil dieses Verfahrens ist der, dass dabei keine weitere Reduktion der realen Bildfrequenz auftritt, da keine zusätzlichen Auslösungen (firings) über den traditionellen Einzelfokus-Farb-Mode hinaus benötigt werden. Jeder gegebene Strömungssignalpegel in dem Bild würde hinsichtlich seiner Amplitude stärker sein, wenn die am nächsten an dieser Strömung liegende Fokalzone gesendet wurde. Dieselbe Strömung würde mit schwächerer Amplitude erscheinen, wenn die anderen ”abseits” liegenden Fokalzonen ausgelöst wurden. Der Bildmittelungsalgorithmus macht sich diese Tatsache zunutze, indem er die stärkere im Fokus liegende Strömungsamplitude länger anhält als die schwächere außerhalb des Fokus liegende Strömungsamplitude und dadurch ein resultierendes angezeigtes Bild erzeugt, das sowohl eine höhere räumliche Auflösung als auch eine größere Empfindlichkeit bietet. Dies funktioniert gut auch im Geschwindigkeits-Mode, da eine schwächere, außerhalb des Fokus liegende Strömung abseits von der Sende-Fokalzone dazu tendiert, unter die Amplitudenschwelle des Geschwindigkeits-Mode abzufallen, und nicht zur Anzeige gebracht wird. Die starke, im Fokus liegende Strömung am oder in der Nähe des Sendefokus tendiert dazu, über dieser Schwelle zu liegen, und daher wird das Geschwindigkeitssignal zur Anzeige gebracht.
  • Gemäß der bevorzugten Ausführung der Erfindung wird eine optimale vertikale bzw. Höhen-Leistungsfähigkeit (minimale Bildschnittdicke und maximale Kontrastauflösung) erreicht mit mehrzeiligen Wandlerarrays mit einer kürzeren (d. h. weniger hohen) Mittelzeile und größeren (d. h. mit größerer Höhe) ausgebildeten (äußersten) Zeilen. Die äußersten Zeilen sind ebenfalls größer in der Erhebungsrichtung als jegliche Zwischenzeilen.
  • Als ein Beispiel für die Anwendung der obigen Array-Auslegungsprinzipien zeigt 6 ein fünfzeiliges 1,25D-Array 100C mit einer kleinen zentralen Zeile 102a und großen äußersten Zeilen 102d und 102e, welches Array in dem vorliegenden System verwendet werden kann. Die Zeilenkanten liegen bei Abständen (1/4, 1/2, 1) ymax von der Array-Mittellinie. Somit weisen die paarweisen Elemente der Zwischenzeilen 102b und 102c eine Fläche auf, die gleich ist zu der Fläche jedes Elements der mittleren Zeile 102a; und die paarweisen Elemente der äußersten Zeilen 102d und 102e besitzen eine Fläche gleich dem Doppelten der Fläche jedes Elements der mittleren Zeile 102a. Die Ultraschallimpulse werden ausgesendet über eine Mehrfachfokuslinse 116 mit Linsenbrennweiten von 35, 65 und 90 mm. Der zentrale Abschnitt der Linse 116 mit einer Brennweite von 35 mm fokussiert die von der zentralen Zeile 102a gesendeten Ultraschallbündel; die benachbarten Linsenabschnitte (mit 65 mm Brennweite) fokussieren die jeweils von den Zeilen 102b und 102c gesendeten Bündel; und die äußersten Linsenabschnitte (mit 90 mm Brennweite) fokussieren die jeweils von den äußersten Zeilen 102d und 102e gesendeten Bündel. Die Mehrfachfokuslinse verbessert die Gleichmäßigkeit des vertikalen bzw. Höhenprofils des Bündels, indem sie die zentrale Zeile im Nahfeld fokussiert, soweit lediglich die zentrale Zeile aktiv ist, und indem es die äußeren Zeilen im Fernbereich fokussiert, welches das einzige Gebiet ist, in dem diese aktiv sind.
  • In dem in 6 gezeigten 1,25D-Array 100C ist eine Vielzahl von Multiplexern 114 jeweils mit einer entsprechenden Vielzahl von Signalleitungen 118 verbunden (lediglich ein Multiplexer und eine Signalleitung sind in 6 zu sehen). Jede Signalleitung 118 ist mit einem entsprechenden (in 6 nicht gezeigten) Strahlformungskanal verbunden. Jeder Multiplexer 114 besitzt drei interne Schalter, welche die Signalleitungen 108a108c im Multiplexbetrieb zur Verbindung mit der Signalleitung 118 schalten. Jede Spalte von Wandlerelementen ist mit einem entsprechenden Satz solcher Signalleitungen verbunden; das zentrale Zeilenelement 102a ist mit der Signalleitung 108a verbunden; die paarweisen Elemente 102b, 102c der Zwischenzeilen sind mit der Signalleitung 108b verbunden; und die paarweisen Elemente 102d, 102e der äußersten Zeilen sind an die Signalleitung 108c angeschlossen. In der Praxis sind die Elementpaare (d. h. die Verbindung von 102b mit 102c und von 102d mit 102e) innerhalb des Sondenkopfes miteinander verbunden, während die Multiplexer innerhalb des Sondenkopfes, am konsolenseitigen Ende des Sondenkabels oder innerhalb der Systemkonsole selbst lokalisiert sein können.
  • Da der Zustandswechsel der Multiplexerschalter Rauschen erzeugt, erfordert die Benutzung dieser Sonde typischerweise drei Sende-Empfangszyklen pro Bündel. Bei geschlossenen Multiplexerschaltern 114a für die zentrale Zeile der Elemente 102a und bei geöffneten Schaltern 114b und 114c werden die Sendeverzögerungen so eingestellt, dass sie eine Azimutfokussierung im Nahfeld vorsehen und der Nahbereichsteil der Bündeldaten gewonnen wird. Als nächstes werden die Schalter 114a und 114b geschlossen, die Sende- und Empfangsverzögerungen umkonfiguriert, und es werden unter Benutzung der Zeilen 102a, 102b und 102c die Mittelfelddaten gewonnen. Schließlich werden alle Multiplexerschalter geschlossen, die Sende- und Empfangsverzögerungen werden umkonfiguriert, und die Fernfelddaten werden unter Benutzung der Zeilen 102a102e gewonnen. Die Daten von den drei Zonen werden in dem Abbildungssystem miteinander verwoben, wobei dafür Sorge getragen wird, die Empfindlichkeitsveränderung beim Übergang zu kompensieren. Somit wird gemäß der vorliegenden Erfindung der Bündelfokus sowohl in der vertikalen bzw. Erhebungs- als auch in der Azimutrichtung als Funktion der Tiefe verändert.
  • Wenn die Abbildungstiefe vom Nahfeld zum Fernfeld hin zunimmt, werden weitere Zeilen von Wandlerelementen hinzugezogen. Um eine gleichmäßige Leistungsfähigkeit in der vertikalen bzw. Höhendimension über einen maximalen Bereich zu erzielen, würde man es vorziehen, dass die effektive Brennweite bzw. Fokaldistanz des Arrays mit der Zunahme der aktiven Apertur zunimmt. Bei dem in 6 gezeigten Array wird die gesamte Höhenfokussierung durch die akustische Linse vorgesehen. Um die Fokusposition mit der Aperturvergrößerung zu erhöhen, wird eine Mehrfachfokuslinse 116 benutzt.
  • Gemäß einer Variante der in 6 gezeigten bevorzugten Ausführungsform besitzt jedes Wandlerelement in der zentralen Zeile 102a eine vorbestimmte Fläche, jedes Paar von Wandlerelementen in den äußeren Zeilen 102d und 102e besitzt eine erste kombinierte Fläche, die größer ist als die vorbestimmte Fläche, und jedes Paar von Wandlerelementen in den Zwischenzeilen 102b und 102c weist eine zweite kombinierte Fläche auf, die größer ist als die vorbestimmte Fläche, jedoch kleiner als die erste kombinierte Fläche.
  • Eine vertikale bzw. höhenmäßige Bündelsteuerung für das in 6 gezeigte Array wird mit lediglich einer Linse und einem Multiplexer erreicht. Alle Elemente innerhalb jeder vertikalen Spalte des Arrays sind mit demselben Strahlformungskanal verbunden und teilen sich dieselbe elektronische Zeitverzögerung und Schattierung. Jedoch könnten ebenfalls 1,5D-Arrays in der vorliegenden Erfindung benutzt werden, um die vertikale Fokussierung zu erzielen. 1,5D-Arrays benutzen eine dynamische Fokussierung und Schattierung zur Steuerung des Höhenbündels. Bei Vorliegen von Höhensymmetrie (keine Steuerung) erfordert dies einen unabhängigen Strahlformungskanal für jeden Satz von paarweisen vertikalen (elevational) Elementen.
  • Die oben beschriebenen Techniken werden angewandt, um einen Stapel von Bildern (frames) von Pixeldaten zu erhalten, die von einem Objektvolumen gewonnen werden. Wenn die Sonde (probe) über einen Anatomiebereich, sei es durch freihändiges Scannen oder mittels eines Systems für die Sondenbewegung, geschwenkt wird, kann ein dreidimensionales Volumen erhalten werden. Die Position von jedem Vollbild (frame image) mit Bezug zum nächsten kann auf eine Anzahl von Wegen bestimmt werden. Die Scan-Bewegung der Sonde kann in irgendeiner Weise erfolgen, z. B. durch eine lineare Bewegung der Sonde, durch Hin- und Herbewegen der Sonde über einen Winkel oder durch eine Drehbewegung der Sonde über einen Winkel senkrecht zur Sonden(stirn)fläche. Wenn die Sonde mit einer konstanten Geschwindigkeit weiterbewegt wird, über eine bekannte Distanz oder durch einen bekannten Winkelbereich, kann der Abstand zwischen jedem der Bilder leicht bestimmt werden. Die Abstandsbestimmung der Sondenbewegung lässt sich auf zahlreichen Wegen bestimmten, z. B. durch einfache Abstandsmessung mit einem geeigneten Messgerät, unter Verwendung von Markierungen auf oder innerhalb der Anatomie, oder durch Anbringen von Positionsfühlern an der Sonde. Die Sonde kann ebenfalls längs eines willkürlichen Weges geführt werden, und die von den auf der Sonde montierten Positionsfühlern genommenen Daten können zur Bestimmung der Lokalisierung jedes Bildes benutzt werden. Diese Bilder können dann auf ein kartesisches Volumen plaziert werden. Zusätzlich kann die Sonde in einem Gerät gehaltert werden, das die Sonde entlang einem bekannten Weg führt.
  • Unter Bezugnahme auf die 7 und 8 wird nun das Verfahren zum Projizieren von Samplevolumendaten in dreidimensionale Bilder gemäß der Erfindung beschrieben. Wie aus 7 zu ersehen, enthält die Hauptsteuerung 8 eine zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeordneten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die für die Umsetzung des gewonnenen Volumens von Intensitäts- oder Farbstrbmungs-Mode-Daten in eine Vielzahl von dreidimensionalen unter verschiedenen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Pixeldatenfluss von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher 24 zum Videoprozessor 22 und zur CPU 42 selbst. Jedes(Voll-)Bild (frame) von Pixeldaten, das einen von vielen Scans oder Schnitten durch das untersuchte Objekt repräsentiert, wird in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 übertragen. Ein das abgetastete Objektvolumen repräsentierender Stapel von Bildern wird im Abschnitt 24A des Filmspeichers 24 gespeichert. Während der Initialisierung (vgl. den Schritt 26 in 8) holt die CPU 42 vom Abschnitt 24A des Filmspeichers nur die einem interessierenden Objektvolumen entsprechenden Pixeldaten. Dies wird erreicht, indem man lediglich die Pixeldaten in einem interessierenden Gebiet von jedem gespeicherten Bild holt, das von irgendeinem Scan gewonnen wurde, der das interessierende Volumen schneidet. Mit anderen Worten, die dem interessierenden Gebiet entsprechenden Pixeldaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.
  • Wie aus 8 zu ersehen ist, werden die Intensitätsdaten in dem dem interessierenden Objektvolumen entsprechenden Pixeldatensatz vor der Projektion als Option gefiltert (Schritt 28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und Artefakte zu reduzieren. Dies vermeidet während der Projektion den Verlust von Daten aufgrund von Maserungsrauschen. Beispielsweise erzeugen Blutgefäße weniger Echo als das umgebende Gewebe. Gefäße können deshalb unter Einsatz von Projektionen mit minimaler Intensität abgebildet werden. Alternativ werden im Umkehrvideo/Minimum-Mode die Intensitätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maximaler Intensität abgebildet werden. Um die Auswahl von maximalen Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckintensitäten benutzt werden. Die aus dem Filmspeicher geholten Pixeldaten können von der CPU 42 unter Verwendung eines 3×3-Faltungsfilters mit einem 111 141 111 Kernel gefiltert werden, d. h. das zentrale Pixel der Intensitätsdaten in jedem 3×3-Pixelarray wird in jedem Schnitt oder Bild ersetzt durch einen Intensitätswert, der proportional ist zu der Summe aus dem vierfachen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefilterte Quelldatenvolumen wird sodann im Speicher 44 abgespeichert (Schritt 30). In ähnlicher Weise kann ein Faltungsfilter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minimaler Intensität zu entfernen.
  • Als nächstes führt die CPU 42 unter Verwendung des in US 5,226,113 A beschriebenen Strahlwurf-Algorithmus (ray casting algorithm), dessen Inhalt hier durch Bezugnahme ausdrücklich eingefügt wird, eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentieren Projektionen mit maximaler, minimaler oder durchschnittlicher Intensität, Geschwindigkeit oder Energie, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10 DEG, innerhalb eines Winkelbereichs, z. B. von +90 DEG bis –90 DEG, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10 DEG sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.
  • In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch angelegten Projektionsbilder einer Abtastung unter irgendeinem willkürlichen Betrachtungswinkel zur Anzeige gebracht, und zwar beim Scannen eines Objektvolumens mittels eines Ultraschall-Wandlerarrays mit im wesentlichen gleichmäßiger vertikaler bzw. Höhen-Bündelweite. Das Samplevolumen wird in einer derartigen Weise abgetastet, dass man eine Folge von geschichteten benachbarten Schnitten (slices) erzeugt, von denen jeder dieselbe Anzahl von Objektvolumenelementen (voxels) enthält. Jedes Voxel besitzt ein rechteckiges Profil in der Scheibenebene (z. B. in der XY-Ebene). Während die komplementären Seiten von gleicher Länge sein können, so dass dieses Profil quadratisch sein kann ist die Scheibendicke im allgemeinen größer als die Länge jeder Seite.
  • Jedes Objektvoxel wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein entsprechendes Datenvoxel eines Datenvolumens plaziert. Das Datenvolumen ist ein einfaches kubisches Gitter, obwohl die Dicke eines jeden Objektschnitts und jede (Stirn-)Flächengröße eines Objektvoxels (die Größe des Voxels in der XY-Ebene) im allgemeinen nicht dieselbe sein werden.
  • Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts projiziert (Schritt 34 in 8) durch Projektion eines Strahls (ray casting) von einem Gitterpunkt in jedem Datenvoxel in Richtung auf eine Bildebene. Der Einfachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspitze (vertex) sein. Obwohl alle Strahlen auf irgendeinen Teil der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Für eine maximale Pixelprojektion wird jeder projizierte Wert mit dem momentan gespeicherten Wert verglichen, und der größere der beiden Werte wird in dem Speicher für dieses Pixel 60a plaziert. Für eine minimale Pixelprojektion wird der kleinere der beiden Werte gespeichert. Da jedes Voxel in dem ausgewählten Datenvolumen sequentiell eingegeben und in Richtung auf die Bildebene projiziert wird, wird schließlich ein Datenvolumenvoxel entlang seines zugehörigen Strahls projiziert und trifft nicht innerhalb des gewünschten Pixels auf, so dass sein Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten dreidimensionalen Betrachtungswinkel der maximale Datenwert für dieses Pixel festgelegt. Alle Datenwerte werden auf Null zurückgesetzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojektionsprozedur rückgesetzt, und alle Datenvolumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jedem Datenvoxel wird durch einen zugeordneten Strahl so projiziert, dass er in einem Pixel davon auf die Bildebene auftrifft, wobei der Maximalwert in jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmend welcher größere Wert sodann als Teil des Maximalwertbildes gespeichert wird.
  • Gemäß einem anderen Aspekt der obigen Technik wird die Datenprojektion (im Schritt 36 in 8) skaliert, und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnungen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Da es sich bei dem Objektvolumen um ein reales Volumen handelt, während es sich bei dem Datenvolumen um ein abstraktes Konzept handelt, ist es nötig, den Betrag der Verzerrung der Projektionsdaten aufgrund der Darstellung des kubischen Datenvolumengitters unter einem unterschiedlichen Winkel in einer ersten Ebene zu bestimmen gegenüber dem Winkel, unter dem eine willkürliche Betrachtungsrichtung mit Bezug sowohl auf das Objektvolumen als auch auf das Datenvolumen positioniert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungswinkel ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke im Objektvolumen zur tatsächlichen Pixelgröße in demselben Objektvolumen) nicht eins beträgt (d. h. größer oder gleich eins ist), dann werden die Erhebungswinkel verschieden sein, und der effektive Erhebungswinkel in dem Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel in dem Objektvolumen unterschiedlich sein. Die Daten werden dann in Übereinstimmung mit einem Objekterhebungswinkel gedreht. Danach können die projizierten Daten so skaliert werden, dass sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit einem Höhenskalierungsfaktor. Die Elemente einer 3×3-Rotationsmatrix können bestimmt werden (wie in US 5,226,113 A beschrieben), und diese Beziehungen werden benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen. Nachdem die Daten auf die Bildebene projiziert sind, wird das Bild zur Korrektur des Effekts der anisotropen Objektvoxel skaliert. Die Faktoren in der Rotationsmatrix können zu Beginn einer Projektion vorberechnet (Schritt 32 in 8) und für alle Rotationsberechnungen benutzt werden.
  • Gemäß einem weiteren Aspekt der Erfindung werden die skalierten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünschten Kontrastbereich zu erreichen (Schritt 38 in 8).
  • Das in 8 gezeigte Verfahren kann angewendet werden auf die B-Mode-Intensitätsdaten sowie auf die Farbströmungsgeschwindigkeits- oder Energiedaten für das interessierende von dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem projizierten Bild schließt die transformierten Intensitätsdaten und die transformierten Geschwindigkeits- oder Energiedaten ein, welche von der Projektion auf eine vorgegebene Bildebene abgeleitet wurden. Zusätzlich speichert während der Zeit, in welcher der Filmspeicher vom Bediener ”eingefroren”, war, die CPU 42 als Option das letzte Bild (frame) aus dem XY-Speicher 18 unter mehrfachen aufeinanderfolgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bilddaten für den ersten projizierten Betrachtungswinkel werden in die erste Adresse im Filmspeicherabschnitt 24D eingeschrieben, so dass die projizierten Bilddaten in einem interessierenden Bereich dem Hintergrundbild (background frame) überlagert werden. Dieser Prozess wird für jedes Winkelinkrement wiederholt, bis alle projizierten Bilder im Filmspeicherabschnitt 24B gespeichert sind, wobei jedes projizierte Bild (frame) aus einem interessierenden Gebiet besteht, das transformierte Daten und als Option einen Peripheriehintergrund enthält, der das interessierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformierten Daten aus dem interessierenden Gebiet überschrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projektion betrachtet wird. Der Bediener kann dann ein jedes der projizierten Bilder für die Darstellung auswählen. Zusätzlich kann die Abfolge der projizierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Betrachter rotieren würde.
  • Die vorhergehenden bevorzugten Ausführungen wurden zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifikationen des Grundkonzepts werden sich unschwer für Fachleute auf den Gebieten der Ultraschall-Bildgebung oder der Computergrafik ergeben. Alle derartigen Abänderungen und Modifikationen sollen durch die nachfolgend aufgeführten Ansprüche mitumfasst werden.

Claims (9)

  1. Verfahren zur dreidimensionalen Bildgebung von Ultraschall streuenden Bestandteilen in einem Objektvolumen, gekennzeichnet durch die Schritte: Aussenden von Ultraschallbündeln in das Objektvolumen; Erfassen der von dem Objektvolumen als Reaktion auf die Aussendung von Ultraschallbündeln reflektierten Ultraschall-Echos; Steuern des Azimutfokus der gesendeten Ultraschallbündel um Brennweitenveränderungen zu erhalten; Steuern des Höhenfokus der gesendeten Ultraschallbündel als Funktion der Brennweite; Einstellen einer Charakteristik einer Sende-Wellenform als Funktion der Brennweite; Koordinieren der Veränderung im Azimut- und Höhenfokus sowie der Anpassungen der Sende-Wellenformcharakteristik, um ein Quellvolumen von Pixeldaten zu gewinnen, welche von Samplevolumen in dem Objektvolumen abgeleitet sind; Wiedergeben eines Satzes von Pixeldaten von dem Quellvolumen, wobei dieser Pixeldatensatz einem interessierenden Volumen in dem Objektvolumen entspricht; Projizieren des Pixeldatensatzes auf eine erste Bildebene, wobei ein ein erstes projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und bildliches Darstellen des ersten projizierten Bildes.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Pixeldaten B-Mode-Intensitätsdaten enthalten.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Pixeldaten Geschwindigkeitsdaten enthalten.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Pixeldaten Power-Doppler-Daten enthalten.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Ausstoßlänge der Sende-Wellenform mit einer Zunahme der Brennweite erhöht wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Frequenz der Sende-Wellenform mit einer Zunahme der Brennweite verringert wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Ultraschallbündel von einem Wandlerarray (50) gesendet und empfangen werden, das mit einer lateralen Apertur mit einer f-Zahl von kleiner als 1,5 betrieben wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Ultraschallbündel von einem Wandlerarray (50) gesendet und empfangen werden, das mit einer Höhenapertur betrieben wird, die mit zunehmender Brennweite vergrößert wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, gekennzeichnet durch die Schritte: Projizieren des Pixeldatensatzes auf eine zweite Bildebene, die relativ zur ersten Bildebene gedreht ist, wobei ein ein zweites projiziertes Bild repräsentierender projizierter Datensatz gebildet wird; und bildliches Darstellen des zweiten projizierten Bildes auf dem Displaymotor (12).
DE19819832.9A 1997-05-07 1998-05-04 Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung Expired - Fee Related DE19819832B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US852699 1986-04-16
US08/852,699 US5865750A (en) 1997-05-07 1997-05-07 Method and apparatus for enhancing segmentation in three-dimensional ultrasound imaging

Publications (2)

Publication Number Publication Date
DE19819832A1 DE19819832A1 (de) 1998-11-12
DE19819832B4 true DE19819832B4 (de) 2015-03-12

Family

ID=25314017

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819832.9A Expired - Fee Related DE19819832B4 (de) 1997-05-07 1998-05-04 Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung

Country Status (4)

Country Link
US (1) US5865750A (de)
JP (1) JPH1128210A (de)
DE (1) DE19819832B4 (de)
IL (1) IL124165A (de)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
DE69710932T2 (de) * 1997-12-31 2003-09-04 Ge Ultrasound Israel Ltd Verfahren und vorrichtung zur bestimmung der relativlage von tomographischen schichten
JP4260920B2 (ja) * 1998-05-13 2009-04-30 株式会社東芝 超音波診断装置
US6102859A (en) * 1998-12-01 2000-08-15 General Electric Company Method and apparatus for automatic time and/or lateral gain compensation in B-mode ultrasound imaging
US6071241A (en) * 1998-12-31 2000-06-06 General Electric Company Ultrasound color flow display optimization by adjustment of threshold using sampling
WO2000063719A1 (en) * 1999-04-20 2000-10-26 Synthes Ag Chur Device for the percutaneous obtainment of 3d-coordinates on the surface of a human or animal organ
US6139501A (en) * 1999-06-08 2000-10-31 Atl Ultrasound, Inc. Coincident tissue and motion ultrasonic diagnostic imaging
US6685645B1 (en) * 2001-10-20 2004-02-03 Zonare Medical Systems, Inc. Broad-beam imaging
US6503199B1 (en) * 1999-11-03 2003-01-07 Atl Ultrasound Uniform volumetric scanning ultrasonic diagnostic imaging system
US6484063B1 (en) 1999-11-10 2002-11-19 Visteon Global Technologies, Inc. System and method of inspecting tooling for feasibility
IL134017A (en) * 2000-01-13 2008-04-13 Capsule View Inc Camera for photography inside the intestines
US6515657B1 (en) 2000-02-11 2003-02-04 Claudio I. Zanelli Ultrasonic imager
US6517484B1 (en) * 2000-02-28 2003-02-11 Wilk Patent Development Corporation Ultrasonic imaging system and associated method
US6221022B1 (en) 2000-04-03 2001-04-24 G.E. Medical Systems Global Technology Company Llc Multiple transmit scanning to increase ultrasonic frame rate
US6744911B1 (en) 2000-11-22 2004-06-01 General Electric Company Tomographic segmentation
US7940966B2 (en) 2000-11-24 2011-05-10 U-Systems, Inc. Full-field breast image data processing and archiving
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
US6547735B1 (en) 2001-12-05 2003-04-15 Koninklijke Philips Electronics N.V. Partial rayline volumetric scanning ultrasonic diagnostic imaging system
US6723050B2 (en) 2001-12-19 2004-04-20 Koninklijke Philips Electronics N.V. Volume rendered three dimensional ultrasonic images with polar coordinates
US6866632B1 (en) * 2002-09-18 2005-03-15 Zonare Medical Systems, Inc. Adaptive receive aperture for ultrasound image reconstruction
US7850613B2 (en) * 2003-05-30 2010-12-14 Orison Corporation Apparatus and method for three dimensional ultrasound breast imaging
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
WO2005060832A1 (ja) * 2003-12-19 2005-07-07 Hitachi Medical Corporation 超音波診断装置および超音波イメージング方法
US7914454B2 (en) * 2004-06-25 2011-03-29 Wilk Ultrasound Of Canada, Inc. Real-time 3D ultrasonic imaging apparatus and method
US20060173350A1 (en) * 2005-01-11 2006-08-03 Scimed Life Systems, Inc. Systems and methods for three dimensional imaging with an orientation adjustable array
EP1951124B1 (de) * 2005-11-10 2017-01-04 Bracco Suisse SA Detektion von immobilisiertem kontrastmittel bei medizinischen bildgebungsverfahren basierend auf der analyse der strömungsdynamik
JP5028041B2 (ja) * 2006-07-14 2012-09-19 親良 炭 ビームフォーミング装置及び方法
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
JP2008228873A (ja) * 2007-03-19 2008-10-02 Hitachi Medical Corp 超音波探触子及び超音波診断装置
WO2009020617A1 (en) 2007-08-06 2009-02-12 Orison Corporation System and method for three-dimensional ultrasound imaging
CN102551811B (zh) * 2010-12-30 2015-11-25 深圳迈瑞生物医疗电子股份有限公司 一种彩色血流增益调整的方法及装置
JP6253350B2 (ja) * 2013-10-31 2017-12-27 フクダ電子株式会社 超音波診断装置
JP2022092888A (ja) * 2020-12-11 2022-06-23 コニカミノルタ株式会社 音響レンズ、超音波探触子、及び、超音波診断装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5186175A (en) * 1990-07-11 1993-02-16 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3187148B2 (ja) * 1991-08-26 2001-07-11 株式会社東芝 超音波診断装置
US5322067A (en) * 1993-02-03 1994-06-21 Hewlett-Packard Company Method and apparatus for determining the volume of a body cavity in real time
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5409007A (en) * 1993-11-26 1995-04-25 General Electric Company Filter to reduce speckle artifact in ultrasound imaging
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
DE19681455T1 (de) * 1995-06-15 1998-07-02 Regent Of The University Of Mi Verfahren und Vorrichtung für eine Zusammensetzung und eine Darstellung eines dreidimensionalen Bildes von zweidimensionalen Ultraschall (Abtastdaten)
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data
US5588435A (en) * 1995-11-22 1996-12-31 Siemens Medical Systems, Inc. System and method for automatic measurement of body structures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
US5186175A (en) * 1990-07-11 1993-02-16 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing

Also Published As

Publication number Publication date
US5865750A (en) 1999-02-02
JPH1128210A (ja) 1999-02-02
IL124165A (en) 2000-06-29
DE19819832A1 (de) 1998-11-12

Similar Documents

Publication Publication Date Title
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE19819801B4 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE60025438T2 (de) Verfahren und Gerät zum Einstellen eines interessanten Gebiets in einer Abbildung
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE60316584T2 (de) Ultraschallabbildungssystem und verfahren für eine benutzergeführte dreidimensionale volumenscansequenz
DE69923430T2 (de) Diagnostisches Ultraschall-Bilderzeugungssystem mit variabler räumlicher Bildzusammensetzung
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE69933851T2 (de) Verfahren zur Reduzierung der Bildschärfeverzerrung in räumlich vermehrten Diagnostikbildern
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE60219138T2 (de) Adaptive bildverarbeitung für räumliche zusammensetzung
DE60222476T2 (de) Ultraschallwandler
DE102005034697B9 (de) Kontrastmittelbildgebung mit einer (Kontrast)mittelspezifischen Ultraschalldetektion
DE69937422T2 (de) Ultraschallabbildung mittels kodierter Anregung beim Senden und selektiver Filterung beim Empfang
DE19756730B4 (de) Verfahren, Einrichtung und Anwendungen zur Verknüpfung von Sende-Wellenfunktionen zur Gewinnung einer synthetischen Wellenform in einem Ultraschall-Bildgebungssystem
DE10141516B4 (de) Medizinische Diagnostische Ultraschallabbildungsverfahren für ein erweitertes Betrachtungsfeld
DE69736549T2 (de) System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
DE69936418T2 (de) Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
DE19960078A1 (de) Ultraschall-Bildgebung mit optimaler Bildqualität im interessierenden Bereich
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
CN101657160B (zh) 使用超声厚切片成像的量化灌注研究
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE19819893A1 (de) Verfahren und Einrichtung zum Verbessern der Auflösung und Empfindlichkeit bei der Farbströmungs-Ultraschall-Bildgebung
DE10322157A1 (de) Anzeigevorrichtung für Subtraktionsabbildungsverfahren
DE10238747A1 (de) Verfahren und Gerät zur verbesserten Orts- und Zeitauflösung bei der Ultraschallabbildung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee