DE3905619A1 - Bildeingabe-/ausgabevorrichtung - Google Patents

Bildeingabe-/ausgabevorrichtung

Info

Publication number
DE3905619A1
DE3905619A1 DE3905619A DE3905619A DE3905619A1 DE 3905619 A1 DE3905619 A1 DE 3905619A1 DE 3905619 A DE3905619 A DE 3905619A DE 3905619 A DE3905619 A DE 3905619A DE 3905619 A1 DE3905619 A1 DE 3905619A1
Authority
DE
Germany
Prior art keywords
image
images
input
focus
recovery processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE3905619A
Other languages
English (en)
Other versions
DE3905619C2 (de
Inventor
Junpei Tsujiuchi
Toshio Honda
Nagaaki Oyama
Tatsuo Nagasaki
Susumu Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Publication of DE3905619A1 publication Critical patent/DE3905619A1/de
Application granted granted Critical
Publication of DE3905619C2 publication Critical patent/DE3905619C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Description

Die Erfindung betrifft eine Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von Bildinformationen, nach dem Oberbegriff des Anspruches 1 bzw. 2 bzw. 14.
Ein fokussierendes optisches System mit einem optischen Element einer großen Apertur ist nötig, um Bildinformationen mit einer hohen Auflösung, einer hohen Vergrößerung und einer hohen Helligkeit optisch zu lesen. Herkömmliche optische Systeme, welche durch Linsen aufgebaut sind, haben kleinere Brennpunktstiefen (focal depth), wenn ihre Aperturgrößen vergrößert werden. Bei Anwendungsfällen, bei denen Bilderzeugungsausrüstungen verwendet werden, wie beispielsweise Mikroskope, Kameras und Endoskope haben die sich ergebenden Bilder vorzugsweise hohe Auflösungen und Helligkeiten, wobei sie gleichzeitig hohe Brennpunktstiefen haben.
Eine bekannte Technik zur Erhaltung eines Bildes mit einer hohen Brennpunktstiefe ist in "W. T. Welford, Journal of Optical Society of America, Vol. 50,. S. 749 (1960)" beschrieben. Diese bekannte Technik beschreibt eine Vorrichtung, die ein fokussierendes optisches System mit einer speziellen Apertur, wie beispielsweise einer Zonenplatte (zone plate) verwendet. Bei dieser Vorrichtung kann vorteilhafterweise ein Bild mit einer hohen Brennpunktstiefe erzeugt werden. Allerdings sind Auflösungen und Lichtmenge stark verringert, was wiederum nachteilig ist.
Weiterhin ist ein Verfahren bekannt, welches eine Bild­ verarbeitungstechnik beschreibt und die durch "S. A. Sugimoto und Y. Ichioka, Applied Optics Vol. 24, S. 2076 (1985)" oder "Takatoshi OTA, Kokichi SUGIHARA und Noburo SUGIE, Journal of the Institute of Electronic and Communication Engineers (D), J66-D, 1245, (1983)" bekannt wurde. Bei diesem Verfahren werden eine Mehrzahl von Bildern mit unterschiedlichen Brennpunkten (auf welche als innerhalb des Brennpunkts liegenden Positionen bezogen wird) in einem Objektabstand, um die lokale Verteilungsinformation zu erhalten und Bereiche in dem fokussierten Zustand synthetisiert. Hierbei kann ein Bild mit einer hohen Brennpunktstiefe synthetisiert werden, ohne hierbei Auflösung oder Helligkeit zu verringern. Somit kann diese bekannte Maßnahme als effektiv betrachtet werden. Wenn jedoch ein Objekt eine weiche Oberfläche hat oder in unterschiedlichen Lagen unterschiedlich starke Vorsprünge aufweist, ist es schwierig, diese bekannte Maßnahme auf ein derartiges Objekt anzuwenden. Zusätzlich ist eine große Hardware nötig, um dieses Verfahren zu realisieren, wobei der Algorithmus kompliziert ist, was in der Praxis zu Problemen führt.
Insoweit zusammenfassend haben herkömmliche Verfahren die folgenden Nachteile:
  • (1) Bei der Vorrichtung zur Erhöhung des Brennpunktabstandes unter Verwendung eines fokussierenden optischen System mit einer speziellen Apertur, wie beispielsweise einer Zonenplatte, werden Auflösung und Lichtmenge stark verringert. Obwohl es möglich ist, ein Bild zu erhalten, welches einen hohen Brennpunktabstand hat, werden Auflösung und Helligkeit des Bildes verloren. Somit kann diese bekannte Vorrichtung nicht als ein optisches System dienen, welches alle Faktoren erfüllt, nämlich Brennpunktabstand, Auflösung und Helligkeit.
  • (2) Bei der Vorrichtung zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen im Brennpunkt gelagerten Positionen und Synthetisierung von Teilbildern des im Fokus befindlichen Zustandes auf der Grundlage von örtlichen Verteilungsinformationen werden die Anwendungsfälle auf bestimmte Objektzustände beschränkt, was in der Praxis zu Problemen führt.
Es ist daher Aufgabe der vorliegenden Erfindung, eine Bildeingabe-/Ausgabevorrichtung nach dem Oberbegriff des Anspruches 1 bzw. 2 bzw. 14 derart auszubilden, daß Bilder mit einem hohen Brennpunktabstand ohne Verringerung von Auflösung und Helligkeit erzeugbar sind, wobei die Vorrichtung eine Vielzahl von praktischen Anwendungen bei einer Vielzahl von verschiedenen Objekten bei gleichzeitig einfacher Ausbildung erlaubt, wobei die Vorrichtung unmittelbar und geeignet für alle Praxisfälle anwendbar ist. Die Lösung dieser Aufgabe erfolgt erfindungsgemäß durch die im Anspruch 1 bzw. 2 bzw. 14 angegebenen Merkmale.
Genauer gesagt:
  • (1) Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden eingegeben;
  • (2) die eingegebenen Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden synthetisiert; und
  • (3) eine Rückgewinnungs-Verarbeitung des synthetisierten Bildes wird durchgeführt.
Diese erwähnten Schritte bringen die folgenden Funktion mit sich:
Wenn eine sich im Brennpunkt befindliche Position (im folgenden mit "In-Fokus-Position" bezeichnet) auf einer Objektebene in einem optischen System zur Bildausgabe festgesetzt wird, wird ein Defokussierungsbetrag des eingegebenen Bildes durch einen Abstand zwischen dem Objekt und der In-Fokus-Ebene bestimmt. Wenn das Objekt einen Brennpunktabstand hat, der größer ist als der des optischen Systems in der optischen Achse des optischen Systems zur Bildeingabe, sind die Defokussierungszustände der erhaltenen Bilder beim Festsetzen der In-Fokus- Position in einer gegebenen Objektebene in ihren Lagen unterschiedlich. Wenn die In-Fokus-Position geändert wird, wird ein Bild mit einer Defokussierungsverteilung unterschiedlich von der des vorhergehenden eingegebenen Bildes eingegeben. Genauer gesagt, ein Defokussierungsteil des vorher eingegebenen Bildes kann bei dem nächsten eingegebenen Bild zu einem In-Fokus-Teil werden und der In-Fokus-Teil des vorher eingegebenen Bildes kann beim nächsten Bildeingabevorgang ein defokussierter Bereich werden. Diese Beziehungen werden durch den Abstand zwischen der Struktur des Objektes und der vorgewählten In-Fokus-Ebene bestimmt. Wenn die Bilder eingegeben werden, während die In-Fokus-Position geändert wird innerhalb eines geeigneten Bereiches, kann eine Mehrzahl von Bildern erhalten werden, welche auf unterschiedliche Teile des Objektes fokussiert sind. Wenn diese Bilder sythetisiert werden, ist das synthetisierte Bild praktisch gleichmäßig über die Gesamheit des Bildes hinweg defokussiert. Das synthetisierte Bild wird dann einer Rückgewinnungs-Verarbeitung (recovery processing) unterworfen, wodurch ein Bild reproduziert wird, welches auf die gesamten Punkte des Objektes fokussiert ist.
Ein Bild mit einem hohen Brennpunktabstand kann reproduziert werden, ohne Auflösung und Helligkeit zu verringern. In diesem Fall ist die Verarbeitung sehr einfach und eine Lokalverarbeitung des Bildes muß nicht durchgeführt werden. Somit kann auch die Bildverarbeitungsvorrichtung vereinfacht werden. Die Verarbeitung kann durchgeführt werden ungeachtet unterschiedlicher Oberflächenzustände der Objekte. Somit kann die vorliegende Erfindung bei einer Vielzahl von Anwendungsfällen verwendet werden.
Weiterhin können bei der vorliegenden Erfindung die folgenden Schritte durchgeführt werden:
  • (1) Eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen wird eingegeben;
  • (2) die Bilder mit unterschiedlichen In-Fokus-Positionen werden einer Fourier-Transformation unterworfen;
  • (3) die Bilder der Fourier-Transformation mit unterschiedlichen In-Fokus-Positionen werden in Einheiten von Ortsfrequenzen gewichtet und die gewichteten Bilder werden synthetisiert; und
  • (4) das synthetisierte Fourier-Spektrumbild wird dann einer inversen Fourier-Transformation unterworfen. Genauer gesagt, die folgenden Abläufe finden statt:
  • Die Bilder mit unterschiedlichen Brennpunktlagen werden diskret eingegeben und eine Synthese von Fourier transformierten Bildern wird durchgeführt. Das sich ergebende Fourier-Spektrumbild wird einer inversen Fourier-Transformation unterworfen. Somit kann ein Bild mit einem hohen Brennpunktabstand erhalten werden, ohne daß Auflösung und Helligkeit verringert werden. Zusätzlich kann die Verarbeitung ohne irgendwelche Schwierigkeiten durchgeführt werden, ungeachtet unterschiedlicher Zustände und Arten der Oberflächen der Objekte, wobei eine Anwendung bei einer Vielzahl von Anwendungsfällen möglich ist. Weiterhin müssen spezielle Vorbereitungen und spezielle Eingabevorgänge nicht durchgeführt werden, Somit kann die vorliegenden Erfindung in geeigneter Weise bei einer Vielzahl von Anwendungsfällen ohne irgendwelche Abwandlungen verwendet werden.
Vorteilhafte Weiterbildungen der Erfindung sind in den jeweiligen Unteransprüchen angegeben.
Weitere Einzelheiten, Aspekte und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung unter Bezugnahme auf die Zeichnung.
Es zeigen:
Fig. 1 bis 48 erste Ausführungsformen der vorliegenden Erfindung; hierbei zeigt:
Fig. 1 eine schematische Darstellung einer ersten Ausführungsform;
Fig. 2 eine schematische Darstellung einer zweiten Ausführungsform;
Fig. 3 eine schematische Darstellung einer dritten Ausführungsform;
Fig. 4 eine schematische Darstellung einer vierten Ausführungsform;
Fig. 5 eine schematische Darstellung einer fünften Ausführungsform;
Fig. 6 eine Frontansicht einer Fresnel-Zonenplatte von Fig. 5;
Fig. 7 eine schematische Ansicht einer sechsten Ausführungsform;
Fig. 8 und 9 Blockschaltbilder zur Veranschaulichung unterschiedlicher Anordnungen einer Rückgewinnungs- Einheit in der ersten bis sechsten Ausführungsform;
Fig. 10 eine Darstellung zur Erläuterung der geometrischen Beziehung bei einem Verfahren zur Bestimmung eines Wiedergewinnungsfilters in der Wiedergewinnungseinheit;
Fig. 11A bis 11D grafische Ansichten von Verfahrensprozeduren bei einem Verfahren zur Bestimmung des Rückgewinnungsfilters;
Fig. 12 teilweise schematisch eine siebte Ausführungsform;
Fig. 13A bis 13C teilweise schematisch eine achte Aus­ führungsform;
Fig. 14 eine Draufsicht auf einen Rückgewinnungs­ farbfilter gemäß Fig. 13;
Fig. 15 teilweise schematisch eine neunte Ausfüh­ rungsform;
Fig. 16 teilweise schematisch eine zehnte Ausfüh­ rungsform;
Fig. 17 teilweise schematisch eine elfte Ausfüh­ rungsform;
Fig. 18 eine Ansicht zur Erläuterung eines optischen Rückgewinnungs-Vorganges bei einem auf einem Film aufgezeichneten Bild;
Fig. 19 die Netzstruktur in einem Fibroskop-Bild;
Fig. 20 eine Fourier-Spektrumbild eines Fibroskop-Bildes, welches während des optischen Rückgewinnungsganges erscheint;
Fig. 21 Vorderansicht eines Filters, das im optischen Rückgewinnungsvorgang verwendet wird;
Fig. 22 teilweise schematisch eine zwölfte Ausfüh­ rungsform;
Fig. 23 teilweise schematisch eine dreizehnte Aus­ führungsform;
Fig. 24 grafisch die Beziehung Amplitude und Frequenzleistung einer speziellen Ortsfrequenz zur Erläuterung einer Funktion der dreizehnten Ausführungsform;
Fig. 25 schematisch eine vierzehnte Ausführungsform;
Fig. 26 die Frontansicht eines drehenden optischen Verschlusses in der vierzehnten Ausführungs­ form;
Fig. 27 eine grafische Darstellung der Charakteristik eines logarithmischen Filters in der vierzehnten Ausführungsform;
Fig. 28 die Anordnung einer fünfzehnten Ausführungsform der vorliegenden Erfindung;
Fig. 29 die Anordnung einer sechszehnten Ausführungs­ form;
Fig. 30 die Anordnung einer siebzehnten Ausführungs­ form;
Fig. 31 schematisch eine Ansicht zur Erläuterung eines Verfahrens zur Verarbeitung und Anzeige eines Farbbildes in der sechzehnten und siebzehnten Ausführungsform der vorliegenden Erfindung;
Fig. 32 eine Ansicht eines Farbbildprozessors als eine teilweise Abwandung der Anordnung der siebzehnten Ausführungsform;
Fig. 33 schematisch einen Teil einer optischen Bypass-Filteranordnung in einer achtzehnten Ausführungsform der vorliegenden Erfindung;
Fig. 34A und 34B grafische Darstellungen zur Erläuterung eines Verfahrens zur Auswahl eines Bildes in der achtzehnten Ausführungsform;
Fig. 34A und 35B Ansichten einer Anordnung einer neunzehnten Ausführungsform der vorliegenden Er­ findung;
Fig. 36A und 36B Ansichten einer linken Bildebene und einer rechten Bildebene einer Stereo-Anpassungseinrichtung der neunzehnten Ausfüh­ rungsform;
Fig. 37 die Anordnung eines Anpassungsschaltkreises in der neunzehnten Ausführungsform;
Fig. 38 eine Ansicht einer Abwandlung eines Anpassungschaltkreises und einer Speicheranordnung in der neunzehnten Ausführungsform;
Fig. 39 eine Darstellung zur Erläuterung einer Rückgewinnungs- Verarbeitungseinrichtung in der neunzehnten Ausführungsform;
Fig. 40A und 40B Ansichten einer Anordnung der zwanzigsten Ausführungsform der vorliegenden Erfin­ dung;
Fig. 41 und 42 Darstellungen zur Erläuterung der Arbeitweise der zwanzigsten Ausführungsform;
Fig. 43 eine Ansicht einer einundzwanzigsten Ausführungsform der vorliegenden Erfindung;
Fig. 44 eine Darstellung zur Erläuterung der Arbeitsweise der einundzwanzigsten Ausfüh­ rungsform;
Fig. 45 die Anordnung einer zweiundzwanzigsten Aus­ führungsform der vorliegenden Erfindung;
Fig. 46 und 47 Darstellungen zur Erläuterungen der Arbeitsweise der zweiundzwanzigsten Ausfüh­ rungsform; und
Fig. 48 schematisch die Anordnung eines optischen Systems für die In-Fokus-Positionssteuerung in der ersten Ausführungsform und der­ gleichen;
Fig. 49 bis 55 weitere Ausführungsformen im Rahmen der vorliegenden Erfindung; hierbei zeigt:
Fig. 49 die Anordnung einer dreiundzwanzigsten Aus­ führungsform;
Fig. 50 eine Darstellung zur Erläuterung der Arbeitsweise der dreiundzwanzigsten Ausfüh­ rungsform;
Fig. 51 die Ansichten einer vierundzwanzigsten Ausfüh­ rungsform;
Fig. 52 eine Darstellung zur Erläuterung einer Arbeitsweise der vierundzwanzigsten Ausfüh­ rungsform;
Fig. 53 eine fünfundzwanzigste Ausführungsform;
Fig. 54A bis 50C eine sechsundzwanzigste Ausführungsform; und
Fig. 55 die Anordnung einer siebenundzwanzigsten Ausführungsform.
Vorzugsweise Ausführungsformen der vorliegenden Erfindung werden nun im folgenden unter Bezugnahme auf die Zeichnungen näher erläutert.
Erste Ausführungsform
Fig. 1 zeigt schematisch eine erste Ausführungsform der vorliegenden Erfindung. Eine Bildebene wird mittels einer Linse 1 auf den lichtempfangenden Teil einer Abbildungsvorrichtung 2, gebildet aus einer ladungsträgergekoppelten Vorrichtung (im folgenden CCD genannt), einer Abbildungsröhre oder dergleichen fokussiert. Ein optisches Eingabesystem weist normalerweise eine Kombination aus einer Mehrzahl von Linsen auf. Aus Gründen der Einfachheit der Darstellung ist nur die eine Linse in Fig. 1 dargestellt. Ein Ausgangssignal von der Abbildungsvorrichtung 2 wird mittels eines A/D-Wandlers 3 in ein digitales Signal gewandelt. Das digitale Signal wird mittels eines Addierers 4 zu einem Bildsignal addiert, welches in einem Speicher 5 aufgezeichnet ist. Diese Summe wird wiederum in dem Speicher 5 gespeichert. Die obigen Abläufe werden unter der Annahme durchgeführt, daß die In-Fokus-Position des optischen Systems wiederholt durchgeführt wird, während die Linse 1 von einem In-Fokus-Positionssteuerer 6 bewegt wird. Das heißt, daß die obigen Abläufe derart durchgeführt werden, daß die In-Fokus-Position des optischen Systems diskret in geeigneten Intervallen innerhalb eines Abstandsbereiches geändert wird. Die Eingangsbilder werden addiert und die Summe wird in dem Speicher 5 gespeichert.
Das Summenbild wird einer geeigneten Rückgewinnungs-Verarbeitung mittels einer Rückgewinnungs-Verarbeitungseinheit 7 unterworfen. Beispielsweise wird eine Hochpaß- Filterung oder eine Bandpaß-Filterung an dem Summenbild bezüglich beispielsweise einer Ortsfrequenz durchgeführt. Das verarbeitete Ergebnis wird wieder in dem Speicher 5 abgespeichert. Das der Rückgewinnungs- Verarbeitung unterworfene Bildsignal, das in dem Speicher 5 gespeichert ist, wird mittels eines D/A-Wandlers 8 in ein Analogsignal umgesetzt. Das Analogsignal wird dann auf einem Anzeigemonitor 9 dargestellt. Die zeitliche Steuerung und die Steuerung der Signalflüsse wird hierbei von einer zentralen Steuerung 10 übernommen.
Als eine Einrichtung zur Änderung der In-Fokus-Position des optischen Systems kann die Abbildungsvorrichtung 2 bewegt werden, wohingegen das Linsensystem stationär bleiben kann. Die Rückgewinnungs-Verarbeitungseinheit 7 kann ein Rückgewinnungs-Verarbeitungsergebnis direkt an den A/D-Wandler 8 unter Verwendung eines kanalisierten Verarbeitungsschemas (pipelined processing scheme) ausgeben. Das Summenbild, das in dem Speicher 5 gespeichert ist, kann auch auf einem anderen Aufzeichnungsmedium, beispielsweise einer Floppy Disk, einem Magnetband oder einer optischen Speichereinheit gespeichert werden und das auf diesem externen Aufzeichnungsmedium gespeicherte Bildsignal kann ausgelesen und der Rückgewinnungs-Ver­ arbeitung unterworfen werden, wonach das rückgewonnene Bild angezeigt werden kann. Mit anderen Worten, Bildaufzeichnungs- und Bildwiedergabe-Einheit können off-line über ein Aufzeichnungsmedium miteinander verbunden sein.
Die beschriebene erste Ausführungsform mit dem obigen Aufbau hat die folgende Wirkungsweise:
Bilder mit unterschiedlichen In-Fokus-Positionen werden diskret eingegeben und gleichzeitig miteinander addiert. Somit kann die Verarbeitung mit relativ einfachem Aufbau durchgeführt werden. Zusätzlich könnnen Eingabe- und Ausgabevorgänge der Bilder mit hoher Geschwindigkeit durchgeführt werden.
Zweite Ausführungsform
Fig. 2 zeigt eine zweite Ausführungsform der vorliegenden Erfindung. In dieser Ausführungsform wird die Brennpunktlage kontinuierlich von der In-Fokus-Positionssteuerung 6 innerhalb eines festgelegten Distanzbereiches geändert. Bilder werden auf dem lichtempfangenden Bereich (genauer gesagt: lichtempfangende Oberfläche eines Fotosensors oder einer Bildaufnahmevorrichtung auf Halbleiterbasis oder dergleichen) der Abbildungsvorrichtung 2 fokussiert. Die in der Abbildungsvorrichtung 2 empfangenen Bilder werden von dem A/D-Wandler 3 in digitale Signale gewandelt und in dem Speicher 5 gespeichert. Von einer Rückgewinnungs-Verar­ beitungseinheit 7 wird eine geeignete Rückgewinnungs- Filterung der digitalen Signale durchgeführt. Das der Rückgewinnungs-Verarbeitung unterworfene Signal wird in dem Speicher 5 wieder abgespeichert. Das in dem Speicher 5 abgespeicherte Signal wird von dem A/D-Wandler 8 in ein Analogsignal gewandelt. Das Analogsignal wird auf dem Monitor 9 dargestellt. Zeitsteuerung und Datenflüsse in den oben beschriebenen Vorgängen werden von der Steuerung 10 kontrolliert.
Diese zweite Ausführungsform zeichnet sich wie folgt aus. Der Akkumulationseffekt der Lichtenergie der Ab­ bildungsvorrichtung 2 selbst wird verwendet, um kontinuierlich Bilder mit unterschiedlichen In-Fokus-Positionen einzugeben und gleichzeitig werden diese Bilder gespeichert. Somit können Eingabe- und Ausgabevorgänge der Bilder gleichzeitig von der Abbildungsvorrichtung 2 selbst durchgeführt werden. Der Aufbau der Vorrichtung kann vereinfacht werden und eine Hochgeschwindigkeitsverarbeitung kann durchgeführt werden. Da der Brennpunkt kontinuierlich innerhalb einer geeigneten Distanz verändert wird, kann die Steuerung der Brennpunktlagen vereinfacht werden.
Dritte Ausführungsform
Fig. 3 zeigt die Anordnung einer dritten Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform wird das von der Linse 1 fokussierte Bild von der Ab­ bildungsvorrichtung 2 in ein Bildsignal gewandelt. Das Bildsignal wird dann von dem A/D-Wandler 3 in ein Digitalsignal umgesetzt. Das digitale Signal wird in einem festgelegten Speicher von 5-1 bis 5-m mittels eines Selektors 11 abgespeichert. Die obigen Vorgänge werden wiederholt durchgeführt, während die Linse 1 von der In-Fokus-Positionssteuerung 6 bewegt wird. Genauer gesagt, die obigen Abläufe werden diskret durchgeführt, um die In-Fokus-Positionen in festgelegten Intervallen innerhalb eines festgelegten Distanzbereiches zu ändern. Die eingegebenen n (n m)-Bilder werden entsprechend in den n-Speichern der Speicher 5-1 bis 5-m gespeichert. Ein Adressenkompensator 12 führt eine Vergrößerungskorrektur und eine Korrektur von Positionsfehlern der in den Speichern 5-1 bis 5-m abgespeicherten Bilder durch. Die Korrekturergebnisse werden in den Speichern 5-1 bis 5-m wieder abgespeichert. Die adressenkorrigierten Bildsignale der Speicher 5-1 bis 5-m werden von einem Selektor 13 ausgewählt. Das heißt, von den n-Bildern in den Speichern 5-1 bis 5-m werden k (k n)-Bilder, die eine festgelegte Bedingung erfüllen, ausgewählt. Die k ausgewählten Bilder werden miteinander mittels eines Addierers 14 addiert. Das Summenbildsignal von dem Addierer 14 wird in einem Speicher 15 aufgezeichnet oder gespeichert. Das in dem Speicher 15 aufgezeichnete Bildsignal wird dann einer geeigneten Rückgewinnungs- Filterung durch die Rückgewinnungs-Verarbeitungseinheit 7 unterworfen. Das Rückgewinnungs-gefilterte Signal wird dann wieder in dem Speicher 15 gespeichert. Das in dem Speicher 15 abgespeicherte verarbeitete Signal wird mittels des D/A-Wandlers 8 in ein Analogsignal umgesetzt und dann auf dem Monitor 9 dargestellt. Zeitsteuerung und Datenstromsteuerung sowie die Festsetzung der Selektoren 11 und 13 wird durch die Steuerung 10 durchge­ führt.
Die ursprünglichen Bildsignale in den Speichern 5-1 bis 5-m können auch in einem anderen Aufzeichnungsmedium gespeichert werden und können beim Lesezugriff auf das abgespeicherte Bildsignal der Adreßkorrektur, den Additionen und der Rückgewinnungsverarbeitung unterworfen werden. Die sich ergebenden Bilder können dann dargestellt werden. Das heißt, Bildaufzeichnung und Bildwiedergabeeinheiten können off-line durch das Aufzeichnungsmedium miteinander verbunden sein.
Diese dritte Ausführungsform hat die folgenden Wir­ kungsweisen: eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus- Positionen wird gespeichert und von diesen Bildern werden gewünschte Bilder selektiert und synthetisiert. Somit hat diese dritte Ausführungsform den Vorteil, daß ein Bild mit einem In-Fokus-Zustand eines jeden Bereiches des Objektes wiedergegeben werden kann. Zusätzlich korrigiert der Adressenkompensator 12 Unterschiede in den Vergrößerungen, die durch unterschiedliche Defokussierungsbeträge verursacht werden, Vibrationen zum Zeitpunkt der Bildeingabe und Positionsfehler, die durch eine mögliche Bewegung des Objektes erzeugt werden. Somit kann die Vorrichtung in einer Vielzahl von Anwendungsfällen verwendet werden. Der Adressenkompensator 12 führt beispielsweise eine lokale Anpassung zwischen den Bildern durch, und führt somit die Positionierung durch. Somit können bei dieser Ausführungsform Brennpunktabstände und In-Fokus-Bereiche des Bildes wahlweise gesetzt werden. Die Vorrichtung dieser Ausführungsform ist sehr effektiv bei einer Additionsverarbeitung und bei einer Änderung in der Vergrößerung. Zusätzlich, selbst wenn Positionsfehler während der Bildeingaben und zwischen den Bildern auftreten aufgrund einer Bewegung des Objektes, wird das wiedergegebene Bild durch diese Positionsfehler nicht nachteilig beeinflußt. Somit kann die Vorrichtung dieser Ausführungsform bei einer Vielzahl von Anwendungsfällen zum Einsatz gelangen.
Vierte Ausführungsform
Fig. 4 zeigt die Anordnung einer vierten Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform sind Halbspiegel 16-1 und 16-2 hinter der Linse 1 des optischen Systems zur Bildeingabe angeordnet. Beispielsweise sind drei Abbildungsvorrichtungen 2-1, 2-2 und 2-3 in unterschiedlichen Abständen von der Linse 1 angeordnet. Die Bildsignale von den Abbildungsvorrichtungen 2-1 bis 2-3 werden durch den A/D-Wandler 3-1, 3-2 und 3-3 in digitale Signale umgesetzt. Die weiteren Anordnungen dieser Ausführungsformen sind gleich der in der ersten und dritten Ausführungsform und eine detaillierte Beschreibung erfolgt nicht.
Es sei hier festgehalten, daß die Lagen der Abbildungsvorrichtungen 2-1 bis 2-3 variabel sein können, um variable Abstände zu dem Objekt festzusetzen.
Diese vierte Ausführungsform der vorliegenden Erfindung arbeitet wie folgt: eine Mehrzahl von Bildern, die in unterschiedlichen Ebenen fokussiert sind, werden eingegeben und die Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen werden gleichzeitig eingegeben. Somit kann eine Änderung der In-Fokus-Position, d. h. eine mechanische Betätigung vermieden werden. Weiterhin kann der Anwendungsbereich dieser vierten Ausführungsform noch weiter sein.
Fünfte Ausführungsform
Fig. 5 zeigt die Anordnung einer fünften Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform ist eine Fresnel-Zonenplatte 17 vorgesehen, um die Fokussierung einer Mehrzahl von In-Fokus-Positionen vorzunehmen; eine Mehrzahl von Bildern, die auf eine Mehrzahl von Objektebenen fokussiert sind, werden gleichzeitig in die Abbildungsvorrichtung 2 eingegeben. Ein tatsächliches optisches Eingabesystem weist eine Mehrzahl von Linsen zusätzlich zu der Zonenplatte 17 auf, aus Gründen der Übersichtlichkeit sind diese Linsen jedoch nicht dargestellt und nur die Fresnel-Zonenplatte 17 ist dargestellt. Ein Bildsignal von der Abbildungsvorrichtung 2 wird durch den A/D-Wandler 3 in ein digitales Signal umgesetzt, wonach dieses digitale Signal in dem Speicher 5 gespeichert wird. Das in dem Speicher 5 abgespeicherte Bild wird durch eine Rückgewinnungs-Verarbeitungseinheit 7 einer geeigneten Rückgewinnungs-Filterung unterworfen. Das gefilterte Bild wird dann wieder in dem Speicher 5 abgespeichert. Das in dem Speicher 5 abgespeicherte Bild wird durch den A/D-Wandler 8 in ein Analogsignal umgesetzt, welches dann auf dem Anzeigemonitor 9 dargestellt wird. Zeitsteuerung und Datenflußsteuerung in dieser Ausführungsform wird durch die Steuerung 10 durchgeführt.
Die In-Fokus-Positionssteuerung 6 kann zu der Anordnung von Fig. 5 hinzugefügt werden, um In-Fokus-Positionen zu kompensieren und für die eingegebenen Bilder kann die gleiche Verarbeitung wie in den ersten bis dritten Ausführungsformen durchgeführt werden. Die fünfte Ausführungform mit dem obigen Aufbau arbeitet wie folgt: Die Fresnel-Zonenplatte 17, die ausgelegt ist, Licht auf die Mehrzahl von Brennpunktlagen zu fokussieren wird zusammen mit den nicht dargestellten Linsen verwendet. Eine Mehrzahl von fokussierten Bildern wird gleichzeitig auf eine Mehrzahl von Objektebenen ausgebildet und die fokussierten Bilder werden gleichzeitig in die Abbildungsvorrichtung 2 eingegeben, so daß diese Bilder äquivalent addiert werden. Fig. 6 zeigt eine Vorderansicht der Zonenplatte 17, die geeignet ist, Licht auf eine Mehrzahl von Brennpunktlagen zu fokussieren. Bei der Zonenplatte 17 sind ringförmige Zonen (Fresnel-Zonen) mit identischen Bereichen ausgebildet und voneinander durch opake Ringe getrennt. Die Fresnel- Zonenplatte 17 hat die gleiche Funktion wie eine Linse mit Brennweiten von ±f₀=r²λ (wobei r der Radius des zentralen Bereiches der Zonenplatte 17 ist und λ die Wellenlänge des Lichtes ist. Wenn somit die Fresnel-Zonenplatte 17 mit einer Fokussierungslinse kombiniert wird, kann eine Mehrzahl von Brennweiten erhalten werden. Eine Mehrzahl von Bildern kann auf eine Mehrzahl von Objektebenen mit unterschiedlichen Abständen fokussiert werden, während die Fresnel-Zonenplatte 17 festgehalten ist. Theoretisch hat eine Fresnel-Zonenplatte 17 Brennweiten von ±f₀/3, ±f₀/5, . . . zusätzlich zu ±f₀. In der Praxis ist die Intensität von Licht in dem Brennpunkt ±f₀ hoch und eine Auswirkung auf andere Brennpunkte ist schwach. Zusätzlich wird die originale Brennpunktweite der Linse von nichtdiffraktiertem Licht freigehalten. Wenn eine Fresnel-Linse so ausgewählt wird, daß die Phase des Lichtes, das hindurchläuft um π verzögert wird anstelle der Ausbildung von anderen opaken Ringen, bleiben die Lagen von ±f₀ ungeändert, aber die hierauf fokussierten Lichtintensität kann erhöht werden. Die ursprüngliche Brennpunktlage der Platte verschwindet. Wenn eine Phasendifferenz geeignet ausgewählt wird, können drei Brennpunkte, d. h. ±f₀ und die Original-Brennpunktlage der Platte erhalten werden. Die Fresnel-Zonenplatte wird streng bei einer speziellen Wellenlänge betrieben. Wenn die Wellenlänge geeignet ausgewählt wird, um die zentrale Wellenlänge (λ=550 nm) des sichtbaren Lichtes zu sein, wird der Einfluß einer chromatischen Aberration nicht sehr hoch erhöht. Die Zonen mit einer festgelegten Phasendifferenz können durch eine Vakuumabscheidung eines transparenten Dünnfilmes wie beispielsweise MgF₂ ausgebildet werden.
Bei dieser Ausführungsform kann eine Mehrzahl von Bildern auf die Mehrzahl von Objektebenen durch Verwendung eines einzelnen optischen Elementes ohne Durchführung einer mechanischen Betätigung zur Änderung der Brennpunktlage fokussiert werden und somit kann eine Mehrzahl von Bildern eingegeben und miteinander addiert werden, um ein synthetisiertes Bild zu erhalten. Somit kann die Anordnung dieser Vorrichtung gemäß dieser Ausführungsform bedeutend vereinfacht werden und die Vorrichtung ist unempfindlich gegenüber Störungen, die durch Bewegung des Objektes oder dergleichen verursacht werden.
Sechste Ausführungsform
Fig. 7 zeigt eine sechste Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform ist ein optisches Element, d. h. eine Linse 18 vorgesehen, um absichtlich eine chromatische Aberration in dem optischen System zur Bildeingabe zu erzeugen. Die Abbildungsvorrichtung 2 besteht aus einer monochromatischen Abbildungsröhre oder einer Abbildungsvorrichtung aus Halbleiterbasis mit einem Empfindlichkeitsbereich innerhalb des gesamten Spektralbereiches des sichtbaren Lichtes. Bei dieser Anordnung können die auf verschiedenen Lagen fokussierten Bilder gleichzeitig durch Wellenlängen von Licht ausgebildet werden und die Bilder werden durch die Abbildungsvorrichtung 2 eingegeben und addiert. Die weitere Anordnung dieser sechsten Ausbildungsform entspricht der fünften Ausführungsform.
Ein Bandpaß-Farbfilter kann vor der Abbildungsvorrichtung 2 angeordnet sein, um Bilder unterschiedlicher Wellenlängenbereiche einzugeben und aufzuzeichnen und eine Adreßkorrektur, die Einstellung von Brennpunktabständen und dergleichen kann mit der gleichen Anordnung wie in der vierten Ausführungsform durchgeführt werden.
Diese sechste Ausführungsform arbeitet im wesentlichen wie folgt: das reflektierte Lichtspektrum eines Objektes wird in einem weiten Bereich verteilt, der beinahe dem gesamten Bereich des sichtbaren Lichtes entspricht. Diese Ausführungsform verwendet die starke Korrelation zwischen Bildern bei entsprechenden Wellenlängen. Das heißt, das optische Element wird verwendet, um absichtlich eine chromatische Abberation zu erzeugen und die auf unterschiedliche Lagen in Einheiten der Wellenlängen fokussierten Bilder werden ausgebildet. Diese Bilder werden in die Abbildungsrichtung 2 eingegeben und die Addition kann gleichmäßig durchgeführt werden. Somit können die auf der Mehrzahl von Positionen fokussierten Bilder eingegeben und addiert werden unter Verwendung nur eines optischen Elementes mit einem großen chromatischen Aberrationswert ohne Verwendung einer mechanischen Betätigung zur Änderung der In-Fokus-Position. Die Anordnung kann sehr einfach gehalten werden und die sich ergebende Vorrichtung kann Störungen kompensieren, die durch Bewegung eines Objektes oder dergleichen verursacht werden.
Der genaue Aufbau der Rückgewinnungs-Verarbeitungseinheit 7 in der ersten bis sechsten Ausführungsform der vorliegenden Erfindung wird nun im folgenden beschrieben. Die Einheit 7 ist eine Einheit zur Durchführung geeigneter Bypaß- oder Bandpaß-Filterungen der Summenbilder mit unterschiedlichen In-Fokus-Positionen bezüglich der Ortsfrequenz.
Fig. 8 zeigt ein Blockdiagramm der Rückgewinnungs-Ver­ arbeitungseinheit 7. Die Summe der Bilder mit unterschiedlichen In-Fokus-Positionen, die in dem Speicher 5 gespeichert sind, wird einer zweidimensionalen Fourier- Transformation durch ein FFT-Arithmetikelement 20 in der Einheit 7 unterworfen. Das arithmetische Ergebnis wird in einem Speicher 21 gespeichert. Ein Filterfaktor oder Koeffizient, der auf einer Ortsfrequenzebene geeignet bestimmt ist, ist in einem Speicher 22 gespeichert. Das Ortsfrequenzspektrum in dem Speicher 21 wird durch einen Multiplizierer 23 mit einem Filterkoeffizienten multipliziert, der in dem Speicher 22 gespeichert ist. Das Produkt von dem Multiplizierer 23 wird wieder in dem Speicher 21 gespeichert. Das gefilterte Ortsfrequenzbild in dem Speicher 21 wird dann einer zweidimensionalen umgekehrten Fourier-Transformation durch das Arithmetikelement 20 unterworfen. Das Ergebnis wird in dem Speicher 5 gespeichert. Mit dieser Anordnung kann die Filtercharakteristikkurve auf der Ortsfrequenzebene wahlweise bestimmt werden.
Fig. 9 ist ein Blockdiagramm einer weiteren Ausführungsform der Rückgewinnungs-Verarbeitungseinheit 7. Von all den Bildersummen der Bilder mit unterschiedlichen In-Fokus-Positionen, die in dem Speicher 5 gespeichert sind, wird ein Pixelkomponentenwert, der durch einen Adressengenerator 30 in der Verarbeitungseinheit 7 ausgewählt wird einem Multiplizierer 32 eingegeben. Gleichzeitig wird ein Koeffizient, der in einem Speicher 31 gespeichert ist und von dem Adressengenerator 30 angewählt wird, in dem Multiplizierer 32 eingegeben. Der Multiplizierer 32 multipliziert den Pixelkomponentenwert mit dem Koeffizienten. Ein Produkt von dem Multiplizierer 32 wird von einem Addierer 32 mit einem Wert addiert, der in einem Speicher 34 gespeichert ist. Diese Summe wird wieder in dem Speicher 34 gespeichert. Mit dieser Ausführungsform wird ein "Rollkurven-Betrieb" (convolution operation) in einem lokalen Bereich, z. B. 3×3 Pixel oder 5×5 Pixel an dem Bild durchgeführt. Das arithmetische Ergebnis wird dann in dem Speicher 5 wieder abgespeichert.
Bei dieser Anordnung wird somit der "Rollkurven-Betrieb" mit einer Matrix, die auf der Bildoberfläche geeignet ausgewählt wurde, anstelle des Filterns der Ortsfrequenzebene durchgeführt, wodurch der Rückgewinnungs-Ver­ arbeitungsvorgang erfolgt. Somit wird bei dieser Anordnung die Verarbeitung mit einem einfachen Schaltkreisaufbau durchgeführt. Wenn ein effektives Filter mit einer kleinen Matrixgröße ausgewählt werden kann, kann die Anzahl von arithmetischen Abläufen vorteilhafterweise verringert werden.
Weiterhin kann ein Kanalprozessor (pipelined processor) verwendet werden, um einen Hochgeschwindigkeitsbetrieb durchzuführen, wodurch eine Maskierung möglich ist.
Ein Verfahren zur Auswahl des Rückgewinnungsfilters wird im folgenden beschrieben. Zunächst wird ein Verfahren zur Auswahl eines Rückgewinnungsfilters mittels Simulation beschrieben. Im allgemeinen werden die räumlichen Charakteristiken eines inkohärenten fokussierenden optischen Systems durch eine optische Transferfunktion (OTF) ausgedrückt, die durch eine Autokorrelation einer Pupillenfunktion gegeben ist. Wenn eine Apertur als eine kreisförmige Apertur gegeben ist, kann ein OTF auf der Brennebene durch eine Autokorrelation (2) einer Pupillenfunktion ausgedrückt werden, die sich durch die folgende Gleichung (1) ergibt:
wobei (x, y) eine Koordinatenachse ist, wenn die Pupillenebene durch ein rechtwinkeliges Koordinatensystem ausgedrückt wird und (r, R) eine Radialkomponente und eine Winkelkomponente ist, wenn die Pupillenebene durch ein zylindrisches Koordinatensystem ausgedrückt wird.
wobei a₀ eine Pupillengröße ist, welche beispielsweise als Radius einer Linsenaperatur angenommen werden kann. Wenn die Apertur kreisförmig ist, kann R weggelassen werden, da keine Winkelrichtung in den Berechnungen vorkommt. Ein OTF für einen Brennpunktfehler wird durch eine Auto-Korrektur der allgemeinen Pupillenfunktion vertreten und ergibt sich wie die folgende Gleichung (3):
P (x, Y ) = P (r, R ) = P (r) exp [jkW (r; z)] (3)
wobei k=2π/λ die Anzahl der Wellen ist; W (r; z) die Wellenoberflächeaberration ist, welche sich durch eine Differenz zwischen einer Wellenoberfläche W 1 von Licht fokussiert auf einer gegebenen Objektebene und einer Wellenoberfläche W 2 mit einem Defokussierungsbetrag auf der Pupillenebene ergibt; und z Koordinaten auf der optischen Achse anzeigt, welche einen Defokussierungsbetrag von einer Fokallage bei einer In-Fokus-Position mit z=0 ergibt. Die Wellenoberflächenaberration W(r; z) kann in einem Paraxialbereich wie folgt angenähert werden:
W (r; z ) = r² · z/(2 · f²) (4)
Wenn eine Linsenapertur groß ist, kann die Wellenoberflächenaberration wie folgt ausgedrückt werden:
W (r; z ) = r² · z/[2(f² + r²)] (5)
wobei f die Brennweite der Linse ist. In diesem Fall wird angenommen, daß f»z ist.
Fig. 10 zeigt die geometrische Beziehung die sich aus dem oben gesagten ergibt. Ein OTF für einen gegebenen Defokussierungsbetrag z kann erhalten werden.
Die Fig. 11A bis 11D zeigen Verfahren zur Erhaltung eines Rückgewinnungsfilters auf der Grundlage des erhaltenen OTF. Der Wert z wird auf der Grundlage der festgesetzten Bedingungen verändert, um OTFs zu erhalten, wie in Fig. 11A dargestellt. Diese OTFs werden miteinander addiert, um ein zusammengesetztes OTF zu erhalten, wie in Fig. 11B dargestellt. Ein Rückgewinnungs­ filter wird so ausgewählt, daß das zusammengesetzte OTF zu einem OTF für einen korrekten Brennpunkt wird, wie in Fig. 11C dargestellt. Wenn ein OTF für einen korrekten Brennpunkt zu
H (u, v ) = H , Φ) = H (µ)
gegeben ist und ein OTF für einen inkorrekten Brennpunkt als H(µ) gegeben ist, wird ein Rückgewinnungsfilter V(µ) wie folgt ausgedrückt:
V (µ ) = H₀ (µ )/H (µ ) (6)
Fig. 11D zeigt das Rückgewinnungsfilter V(µ) · (u, v) sind Ortsfrequenzkoordinaten ausgedrückt durch ein rechtwinkeliges Koordinatensystem und (µ, R) sind Ortsfrequenzkoordinaten ausgedrückt in einem zylindrischen Koordinatensystem. Wenn die Apertur kreisförmig ist, wird nur die radiale Ortsfrequenz µ verwendet, da die Berechnungen nicht von der Winkelrichtung abhängig sind.
Wenn ein Objekt auf einen gewissen Betrag begrenzt werden kann, kann die statistische Art des Bildes vorhergesagt werden und die Art des Rauschens ist ebenfalls bekannt, so daß ein Wien'sches Filter als Rückgewinnungsfilter verwendet werden kann. Einflüsse von Rauschen können verringert werden unter Verwendung des folgenden Wien'schen Filters:
W (µ ) = [H₀ (µ ) · |H (µ )|²]/H (µ ){|H (µ )|²+ Snn (µ )/Sgg (µ )}] (7)
wobei Snn(µ) das Energiespektrum des Rauschens ist und Sgg(µ) das Energiespektrum des Bildes ist. Das folgende Filter kann als Pseudo-Wien'sches Filter definiert werden und ein Parameter P kann geeignet gesetzt werden:
W′ (µ ) = [H₀ (µ ) · |H (µ )|²]/[H (µ ){|H (µ )|² + P}] (8).
Ein Verfahren zur experimentellen Bestimmung eines Rückgewinnungsfilters wird nun im folgenden beschrieben. Ein Testbild mit einer ausreichend flachen Oberfläche wird in einer festgelegten Position angeordnet und Bilder werden mit vorgewählten Bedingungen eingegeben, während die In-Fokus-Position geändert wird. Die eingegebenen Bilder werden dann addiert. Ein auf die Oberfläche des Testbildes fokussiertes Bild wird ebenfalls eingegeben. Die Summe der eingegebenen Bilder während der Änderung der In-Fokus-Position wird von einem geeigneten Rückgewinnungsfilter ausgefiltert. Das gefilterte Bild wird mit dem auf das Testbild fokussierte Bild verglichen. Das Rückgewinnungsfilter wird einjustiert, um das Summenbild und das auf das Testbild fokussierte Bild gleich zu machen und dann werden diese Bilder wieder miteinander verglichen. Diese Läufe werden wiederholt, um ein geeignetes Rückgewinnungsfilter zu erhalten. Dieses Verfahren ist sehr effektiv und in der Praxis gut anwendbar.
Oben wurden Verfahren zur Erhaltung der Gewinnungsfilter mittels Simulation und Experiment beschrieben. Das Rückgewinnungsfilter muß nicht die Frequenzcharakteristiken entsprechend dem In-Fokus-Zustand rückgewinnen. Beispielsweise kann das Rückgewinnungsfilter so betrieben werden, daß eine Betonung, z. B. einer Hochfrequenzkomponente erhalten wird, um einen besseren Kontrast zu gewinnen. Im Gegensatz hierzu kann das Rückgewinnungsfilter so betrieben werden, daß ein Bild mit einem guten Weichfokus-Effekt (soft focus effekt) erhalten wird.
Siebte Ausführungsform
Fig. 12 zeigt die Anordnung einer siebten Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform stellt beispielsweise die Anwendung der vorliegenden Erfindung (inbesondere deren zweiter Ausführungsform) bei einem Reflektionsmikroskop dar. Gemäß Fig. 12 wird Licht von einer Beleuchtungsquelle 100 emittiert, von einer Beleuchtungsanordnung 101 nach unten geführt und durch eine Objektivlinse 102 auf die Oberfläche einer zu untersuchenden Probe abgestrahlt. Ein von der Probe reflektiertes Bild des Lichtes wird von der Objektivlinse 102 fokussiert und von einer TV-Kamera 104 dargestellt, welche am oberen Ende eines Linsentubus 103 angeordnet ist. In diesem Fall wird eine In-Fokus-Ebene für die Probe kontinuierlich von einem Fokuspegeltreiber 105 geändert, was innerhalb einer festgelegten Zeitdauer erfolgt. Die eingegebenen Bilder während dieser Zeitdauer werden in einem lichtempfangenen Element der TV-Kamera 104 akkumuliert. Die Probe wird von einem X-Y-Kontroller 106 in X- und Y-Richtungen bewegt. Die innerhalb der festgelegten Zeitdauer abgespeicherten Bilder werden von einem Leser in der Kamera 104 ausgelesen und als elektrisches Signal einem Kameratreiber 107 übertragen. Der Kameratreiber 107 steuert auch die Energiezufuhr oder dergleichen zu der Kamera 104. Ein zu dem Kameratreiber 107 übertragenes Bildsignal wird weiterhin einem Prozessor 108 zugeführt. Der Prozessor 108 weist unter anderem einen A/D-Wandler, einen Bildspeicher, eine Rückgewinnungs-Verarbeitungseinheit und einen D/A-Wandler auf. Der Prozessor 108 führt eine geeignete Rückgewinnungsverarbeitung des Bildsignals durch. Das verarbeitete Ergebnis wird einem TV-Monitor 109 zugeführt und auf diesem dargestellt. Die obigen Abläufe werden wiederholt durchgeführt für verschiedene Bereiche zu untersuchenden Probe und der Steuerung des X-Y-Kontrollers 106 und die verarbeiteten Ergebnisse werden sequentiell angezeigt. Das Mikropskop bei dieser Ausführungsform wird im wesentlichen vollständig von einer Steuerung 110 gesteuert und Betriebsbedingungen werden von einer Beobachtungsperson über ein Interface 111, wie beispielsweise einer Tastatur oder dergleichen eingegeben.
Bei dieser Ausführungsform kann die Synthetisierung von Bildern mit großen Brennpunktabständen relativ leicht durchgeführt werden, während Auflösung und Helligkeit des Objektes im Mikroskop aufrechterhalten werden. Wenn mit dem Mikroskop eine sehr kleine Struktur untersucht werden soll, muß eine Objektivlinse mit einer hohen Vergrößerung verwendet werden. Im allgemeinen, je höher die Vergrößerung wird, umso größer wird die numerische Apertur und umso geringer wird der Brennpunktabstand. In diesem Fall kann diese Ausführungsform als eine effektive Maßnahme zur Anzeige eines Bildes mit einem geringen Brennpunktabstand verwendet werden. Insbesondere, wenn der Fokuspegeltreiber 105 und der Prozessor 108 mit hoher Geschwindigkeit betrieben werden, kann ein Bild in Echtheit dargestellt werden, so daß die Vorrichtung in der Praxis sehr effizient ist. Die Anordnung der vorliegenden Erfindung kann in einer Mehrzahl von Anwendungsfällen bei der Beobachtung verschiedener Arten von Objekten verwendet werden, beispielsweise in der Mineralogie, der Papiertechnik, der Fasertechnik, bei lebenden Organismen oder beim Test von integrierten Schaltkreisen oder großen integrierten Strukturen.
Die Erläuterung dieser Ausführungsform erfolgt anhand eines Reflektionsmikroskop. Die vorliegenden Erfindung ist jedoch auch bei einem Transmissionsmikroskop möglich, sowie bei einem Fluoreszenzmikroskop oder dergleichen. In dem Prozessor 108 kann ein Addierer vorgesehen sein, um die Bilder einzugeben und zu addieren, ähnlich wie in der ersten Ausführungsform der vorliegenden Erfindung.
Achte Ausführungsform
Die Fig. 13A bis 13C zeigen in ihrer Gesamtheit eine achte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform veranschaulicht die Anwendung der vorliegenden Erfindung bei einem oberflächensequentiellen elektronischen Endoskop. Gemäß Fig. 13A bis 13C weist die Vorrichtung im wesentlichen eine Endoskopsonde 200, eine Bildeingabeeinheit 201, eine Farbfehlerausrichtung- Korrektureinheit 202, einen Farbinformationsaufzeichner 203, eine Brennpunktabstand-Erhöhungseinheit 204, eine Bildanzeigeeinheit 205 und eine Steuerung 206 auf.
Eine monochromatische Bildaufnahmevorrichtung auf Halbleiterbasis wie beispielsweise eine CCD ist am distalen Ende der Endoskopsonde 200 angeordnet und nimmt ein Bild auf, daß von einer Objektivlinse auf einen In-Fokus-Positionssteuerer 211 fokussiert wird. In diesem Falle wird ein Illuminationslicht wie folgt emittiert: Licht von einer weißen Beleuchtungsquelle 212, wie beispielsweise einer Xe-Lampe in der Bildeingabeeinheit 201 läuft durch einen drehenden Farbfilter 213 und wird durch eine Lichtquelle 214, wie einer optischen Faser oder dergl. durch die Endoskopsonde 200 geführt. Das Licht wird dann vom distalen Ende der Sonde abgestrahlt.
Fig. 14 zeigt eine Draufsicht auf den Aufbau des drehenden Farbfilters 213. Gemäß Fig. 14 sind Transmissions- Filterelemente 213 R, 213 G und 213 B umfangsseitig abwechselnd angeordnet und haben die Farben rot (R), grün (G) und blau (B).
Wieder unter Bezugnahme auf die Fig. 13A bis C, wird das drehende Farbfilter 213 von einem Motor 213 M in der Bildeingabeeinheit 201 angetrieben, so daß das Beleuchtungslicht sequentiell in der Reihenfolge von R, G und B geändert wird. Aus diesem Grund erzeugt eine Abbildungsvorrichtung 210 ein monochromatisches Bild des Objektes in der Reihenfolge der oben erwähnten Farben. Ein Ausgangsbildsignal von der Abbildungsvorrichtung 210 wird einem A/D-Wandler 215 in der Bildeingabeeinheit 201 in ein digitales Signal umgesetzt und die digitalen Signale werden in entsprechenden Bereichen eine Rahmenbildspeichers 217 (frame memory) mittels eines Selektors in den einzelnen Farbkomponenten R, G und B abgespeichert. Die beschriebenen Abläufe werden von einer Bildeingabesteuerung 218 gesteuert. Von den Primärfarbbildern, die sequentiell in den entsprechenden Bereichen des Bildspeichers 217 gespeichert sind, werden die Komponenten R und G oder die Komponenten G und B von einem weiteren Selektor 219 ausgewählt. Die Ausgangssignale des Selektors 219 werden der Farbfehlausrichtung-Korrektureinheit 202 zugeführt und einen Detektor 220 für den einem Primärbild entsprechenden Bereich zugeführt. Der Fehlausrichtungsbetrag des Bildes R oder B bezüglich des Bildes G wird von dem Detektor 220 lokal erfaßt. Ein Adressengenerator 221 erzeugt ein Adressensignal zur Korrektur der Bilder R und B auf der Grundlage des Fehl­ ausrichtungsbetrages, der von dem Detektor 220 berechnet wurde. Dieses Adressensignal wird dem Rahmenbildspeicher 217 zugeführt. Der Rahmenbildspeicher 217 korrigiert die Bilder R und B unter Verwendung des Adressensignals und eines Pufferspeichers.
Ein Farbbild, das so erhalten wurde, wird dem Farbinformationsaufzeichner 203 über den Selektor 219 zugeführt. Das dem Informationsaufzeichner 203 zugeführte Farbbild wird den entsprechenden Farbkomponenten mittels eines Addierers 222 hinzuaddiert, wodurch ein Helligkeitswert Y=R+G+B berechnet wird. Die Farbkomponentenwerte R, G und B werden mittels Teilern 223-1 bis 223-3 durch den Helligkeitswert Y dividiert. Die Quotienten R/Y, G/Y und B/Y werden in entsprechenden Speichern 224-1 bis 224-3 abgespeichert.
Die in dem Speicher 217 in der Bildeingabeeinheit 201 abgespeicherten Bilder R, G und B werden der Brennpunktabstand- Erhöhungseinheit 204 zugeführt und durch einen Addierer 225 miteinander addiert. Die Summe wird in einem weiteren Rahmenbildspeicher 226 gespeichert. Das in dem Rahmenbildspeicher 226 gespeicherte Bild wird einer Rückgewinnungs-Verarbeitung mittels einer Rückgewinnungsverarbeitungseinheit 227 unterworfen. Ein Prozeßergebnis von der Rückgewinnungs-Verarbeitungseinheit 227 wurde wieder in den Rahmenbildspeicher 226 gespeichert.
Das in dem Speicher 226 gespeicherte Bild wird dann dem Farbinformationsaufzeichner 203 zugeführt.
Das dem Farbinformationsaufzeichner 203 zugeführte Bildsignal und die in den Speichern 224-1 bis 224-3 gespeicherten Farbinformationen werden durch Multiplizierer 228-1 bis 228-3 in Farbkomponenten-Einheiten multipliziert. Die Produkte von den Multiplizierern 228-1 bis 228-3 werden dann der Bildanzeigeeinheit 205 zugeführt.
Die von den Multiplizierern 228-1 bis 228-3 der Bildanzeigeeinheit 205 zugeführten Signale werden von A/D-Wandlern 229-1 bis 229-3 in Analogsignale umgesetzt. Diese Analogsignale werden dann auf einem TV-Monitor 230 angezeigt. Die Bildverarbeitungs- und Anzeigeeinheiten werden von der Steuerung 206 gesteuert.
Diese Ausführungsform verwendet die starke Korrelation zwischen den drei Primärfarbbildern (R, G und B) und der Bilddefokossierung, welche in den meisten Fällen abhängig ist von der Helligkeit der Farbinformation. Wenn die vorliegende Erfindung bei einem oberflächensequentiellen elektronischen Endoskop angewandt wird, werden Bilder mit verschiedenen In-Fokus-Positionen in Einheiten der Primärfarbbilder eingegeben und addiert und das systhetisierte Bild wird dem Rückgewinnungsprozeß unterworfen. Die Arbeitsweise dieser Ausführungsform wird im folgenden beschrieben. Farbbilder R, G und B werden sequentielle von der Bildeingabeeinheit 201 eingegeben. Wenn in diesem Falle die Endoskopsonde 200 selbst abrupt bewegt wird, weichen die Relativlagen der entsprechenden Primärbilder voneinander ab, so daß eine sogenannte Farb- Fehlausrichtung entsteht. Die Farbfehlausrichtung-Korrektureinheit 202 erhält Fehlerausrichtungs-Beträge der Bilder R und B bezüglich des Bildes G durch Berechnung von Anpassungswerten der lokalen und partiellen Bilder.
Die Bilder R und B werden auf der Grundlage der Farb­ fehlerausrichtungs-Beträge korrigiert. Ein Farbbild bei einer vorgegebenen In-Fokus-Position wird durch das erwähnte Verfahren eingegeben. In diesem Zustand werden die Werte R, G und B durch den Helligkeitswert Y=R+G +B von dem Farbinformationsaufzeichner 203 normalisiert. Die resultierenden Daten R/Y, G/Y und B/Y werden aufgezeichnet. Wenn eine Mehrzahl von Primärfarbbildern mit unterschiedlichen In-Fokus-Positionen eingegeben wird, werden diese Bilder einer Farbfehlerausrichtungs- Korrektur unterworfen und dann miteinander addiert. Die Summe der Bilddaten wird dann dem Rückgewinnungs-Prozeß unterworfen, so daß ein Bild mit einer Helligkeit Y′ und einem hohen Brennpunktabstand erhalten werden kann. Schließlich wird das Bild Y′ mit den Farbdaten R/Y, G/Y und B/Y multipliziert, um ein Farbbild mit einem hohen Brennpunktabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein Bild mit einem hohen Brennpunktabstand relativ leicht als Endoskopbild erhalten werden kann. Eine Objektivlinse mit einer großen numerischen Apertur kann verwendet werden, so daß die Leistung der Beleuchtungslichtquelle verringert werden kann. Wenn zusätzlich die erwähnte Objektivlinse verwendet wird, kann die optische Speicherzeit der Abbildungsvorrichtung verkürzt werden, so daß Einflüsse hinsichtlich einer Farbfehlausrichtung minimiert werden.
Bei der beschriebenen Ausführungsform kann die folgende Modifikation zur Anwendung gelangen: Bilder R, G und B, die sequentiell eingegeben werden, werden zu dem synthetisierten Bild hinzuaddiert, das in dem Rahmenbildspeicher 226 gespeichert ist. Auf diese Weise können Bilder mit drei oder mehr unterschiedlichen In-Fokus-Positionen verwendet werden, um ein Bild mit einem großen Brennpunktabstand zu erhalten. In diesem Falle wird eine Lageabweichung zwischen dem Bild in dem Rahmenbildspeicher 226 und einem neu eingegebenen Bild G durch die Korrektureinheit 202 korrigiert. Wenn eine Bildeingabe mit hoher Geschwindigkeit durchgeführt werden kann und die Farbabweichung vernachlässigbar ist, kann auf die Farbfehlerausrichtung-Korrektureinheit 202 verzichtet werden. Weiterhin werden die entsprechenden Primärfarbbilder eingegeben und addiert in der gleichen Weise wie in der ersten oder zweiten Ausführungsform, um ein Bild mit großem Brennpunktabstand in Einheiten der Primärfarbkomponenten zu erhalten.
Neunte Ausführungsform
Fig. 15 zeigt eine neunte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform veranschaulicht ein elektronisches Endoskop mit einer Farbbild-Abbildungsvorrichtung des Single-Plate-Typs. Gemäß Fig. 15 weist eine Abbildungsvorrichtung 302 auf Halbleiterbasis eine lichtempfindliche Oberfläche auf, welche mit einem Farbmosaikfilter 301 bestehend aus R, G und B Filterelementen abgedeckt ist und welche am distalen Ende einer Endoskopsonde 300 angeordnet ist. Ein von einer Objektivlinse in einer Brennpunktlagensteuerung 303 fokussiertes Bild wird von der Abbildungsvorrichtung 302 dargestellt. In diesem Falle wird ein Beleuchtungslicht wie folgt erhalten: Licht von einer Weißlichtquelle 305 in der Vorrichtung wird in die Endoskopsonde 300 mittels eines Lichtleiters 304 geführt und vom distalen Ende der Sonde abgestrahlt. Ein Ausgangssignal von der Abbildungsvorrichtung 302 wird in die Vorrichtung geführt und in Signale R, G und B mittels eines Farbtrennschaltkreises 306 geteilt. In dieser Ausführungsform wird angenommen, daß das Farbmosaikfilter 301 Filterelemente R, G und B hat. Das Farbmosaikfilter 301 kann jedoch auch Komplementärfarbfilterelemente (z. B. Cyan und Gelb) haben. In jedem Fall wird das durch das Farbmosaikfilter 301 erhaltene Farbsignal von dem Farbtrennschaltkreis 306 getrennt. Die abgetrennten Signale R, G und B werden in einem Matrixschaltkreis 307 eingegeben und in Signale Y, R-Y und B-Y gewandelt. Die Signale Y, R-Y und B-Y werden von A/D-Wandlern 308-1 bis 308-3 in Digitalsignale umgesetzt. Diese digitalen Signale werden in Rahmenbildspeichern 310-1 bis 310-3 gespeichert. In diesem Falle werden die digitalen Signale zu Signalen hinzuaddiert, die bereits in den Speichern 310-1 bis 310-3 aufgezeichnet sind, was durch Addierer 309-1 bis 309-3 erfolgt. Mit anderen Worten, eine akkumulative Addition/ Aufzeichnung wird durchgeführt. Bei dieser Anordnung werden die Bilder mit unterschiedlichen In-Fokus-Positionen eingegeben und miteinander addiert, was unter Steuerung der Brennpunktlagensteuerung 303 in der Endoskopsonde 300 erfolgt.
Das Bildsignal Y in dem Bildrahmspeicher 310-1 wird einem Rückgewinnungsvorgang mittels einer Rückgewinnungs- Verarbeitungseinheit 311 unterworfen. Das so zurückgewonnene Signal wird wieder in dem Speicher 310-1 gespeichert. Darauffolgend werden die entsprechenden Signale in den Rahmenbildspeichern 310-1 bis 310-3 durch D/A-Wandler 312-1 bis 312-3 in Analogsignale umgesetzt. Die Analogsignale werden in ein NTSC-Signal durch einen NTSC-Encoder 313 gewandelt. Das NTSC-Signal wird auf einem TV-Monitor 314 angezeigt. Die erwähnten Prozeßabläufe werden von einer Steuerung 315 überwacht und gesteuert.
Bei dieser Ausführungsform wird die Helligkeitskomponente Y des endoskopischen Bildes von der Abbildungsvorrichtung 302 unter Verwendung des Farbmosaikfilters 301 extrahiert, wonach eine Prozeßverarbeitung abläuft, um den Brennpunktabstand zu erhöhen. Danach wird die durchschnittliche Farbinformation addiert, um ein Farbbild zu reproduzieren und anzuzeigen. Genauer gesagt, die Helligkeitskomponenten Y der Bilder an unterschiedlichen Brennpunktlagen werden von der Brennpunktlagensteuerung 303 in der Endoskopsonde 300 gesteuert und akkumulativ addiert und von dem Addierer 309-1 und Speicher 310-1 addiert und aufgezeichnet. Die Rückgewinnungs- Filterverarbeitung des aufgezeichneten Bildes wird von der Verarbeitungseinheit 311 durchgeführt, so daß der Brennpunktabstand erhöht wird. Zwischenzeitlich wurden die Signale R-Y und B-Y als Farbkomponenten akkumuliert, addiert und aufgezeichnet durch den Addierer 309-2 und den Speicher 310-2 bzw. den Addierer 309-3 und den Speicher 310-3, so daß Durchschnittsfarbdaten zwischen Bildern unterschiedlicher Brennpunktlagen erhalten wurden. Diese Daten werden addiert und als ein NTSC-Signal ausgegeben. Daher kann ein Farbbild mit einem hohen Brennpunktabstand erhalten werden. Eine Defokussierung verursacht durch eine Außerbrennpunktslage hängt zumeist von der Helligkeitskomponente ab und leichte Defokussierung berührt das Bild nicht in einer negativen Art und Weise. Somit kann durch Durchführung der oben erwähnten Prozeßabläufe das vorgewählte Objekt befriedigend dargestellt werden. Bei dieser Ausführungsform kann der gleiche Effekt wie in der achten Ausführungsform bei einem elektronischen Endoskop mit einer Farbabbildungsvorrichtung erhalten werden.
Zehnte Ausführungsform
Fig. 16 zeigt eine zehnte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform verwendet ebenfalls ein elektronisches Endoskop mit einer Farb-Bild­ erzeugungsvorrichtung des Single-Plate-Typs, wie in der neunten Ausführungsform. Gemäß Fig. 16 sind der Aufbau der Endoskopsonde 300 und die Anordnung der Weißlichtquelle 305 gleich wie in der neunten Ausführungsform. Ein Signal von der Abbildungsvorrichtung 302 wird durch den Farbtrennschaltkreis 306 in Signale R, G und B getrennt. Die farbgetrennten Signale werden durch den Matrixschaltkreis 307 in Signale Y, R-Y und B-Y konvertiert. Die Signale Y, R-Y und B-Y werden von dem NTSC-Encoder 313 in NTSC-Signale konvertiert. Dieses NTSC-Signal wird dann durch den A/D-Wandler 308 in ein digitales Signal umgesetzt. Dieses digitale Signal wird durch einen Addierer 316 zu einem Signal hinzuaddiert, das bereits in einem Rahmenbildspeicher 318 vorgespeichert ist. Diese Summe wird dann in dem Rahmenbildspeicher 318 wieder über einen Selektor 317 aufgezeichnet. Mit dieser Anordnung werden Bilder mit unterschiedlichen Brennpunktlagen, gesetzt durch die Brennpunktlagensteuerung 303 in der Endoskopsonde 300 eingegeben und miteinander addiert. Nur das Signal Y von dem Bildsignal, d. h. dem digitalen NTSC-Signal entsprechend dem synthetisierten Bild in dem Bildrahmenspeicher 318 wird extrahiert. Das extrahierte Signal Y wird durch eine Rückgewinnungs-Verarbeitungseinheit 320 einem geeigneten Rückgewinnungsprozeß unterworfen, um eine räumliche Filterung mittels eines kanalisierten Schemas (pipelined scheme) durchzuführen. Das rückgewonnene Y-Signal wird von einem Addierer 321 dem originalen NTSC-Signal hinzuaddiert, wobei die zeitliche Steuerung von einem Verzögerungsschaltkreis 322 eingestellt wird, so daß ein NTSC-Signal mit einem großen Brennpunktabstand erhalten wird. Das NTSC-Signal wird in dem Rahmenbildspeicher 318 über den Selektor 317 gespeichert. Das verarbeitete Bild in dem Bildrahmenspeicher 318 wird von dem D/A-Wandler 312 in ein Analogsignal umgesetzt und dieses Analogsignal wird auf dem TV-Monitor 314 dargestellt. Die oben beschriebenen Abläufe werden von der Steuerung 315 ge­ steuert.
Die Farbsignale, die in der NTSC-Signal umgewandelt wurden, werden eingegeben und miteinander addiert unter Verwendung eines Rahmenbildspeichers. Der gleiche Effekt wie in der neunten Ausführungsform kann erhalten werden, wobei jedoch die Vorrichtungsgröße reduziert werden kann.
Elfte Ausführungsform
Fig. 17 zeigt eine elfte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform verwendet ein Endoskop (Fibroskop) mit einem optischen Faserbündel. Gemäß Fig. 17 weist eine Endoskopsonde 400 eine In-Fokus- Positionssteuerung 401 und einen Bildleiter 402 auf. Die Positionssteuerung 401 umfaßt eine Objektivlinse und einen Treiber zur kontinuierlichen Änderung der In-Fokus- Position. Der Bildleiter 402 ist aus einem optischen Faserbündel aufgebaut. Die Endoskopsonde 400 überträgt optisch das Bild. In diesem Falle wird ein Beleuchtungslicht wie folgt emittiert: Weißlicht von einer Be­ leuchtungseinrichtung 404 wird in die Endoskopsonde 400 mittels eines Lichtleiters 403 emittiert und vom distalen Ende der Sonde als Ausgangslicht abgestrahlt. Eine Kamera 405 ist am oberen Ende der Endoskopsonde 400 angeordnet. Die Kamera 405 zeichnet ein Bild auf, welches durch den Bildleiter 402 übertragen wurde, wobei die Aufzeichnung auf einem Silberchloridfilm erfolgt. Wenn bei dieser Anordnung die In-Fokus-Position kontinuierlich durch die Postionssteuerung 401 geändert wird, werden die Bilder in der Kamera 405 auf dem Silberchloridfilm addiert und aufgezeichnet.
Fig. 18 zeigt eine Anordnung einer Vorrichtung zum optischen Rückgewinnen der auf dem Silberchloridfilm aufgezeichneten Bilder. Eine Multispektrum-Beleuchtungsquelle 500 ist eine Weißlichtquelle mit einem gleichmäßigen Spektrum in dem sichtbaren Lichtbereich oder eine Lichtquelle zur Erzeugung eines Mischlichtes der drei Primärfarben (R, G und B) oder von Lichtstrahlen mit unterschiedlichen Wellenlängenbereichen in Zeitintervallen. Licht von der Beleuchtungsquelle 500 wird auf einen Schlitz 502 mittels einer Kollimatorlinse 501 fokussiert und dient als annähernde Punktlichtquelle. Licht, das durch den Schlitz 502 läuft, wird durch eine Linse 503 zu einem parallelen Lichtbündel und fällt auf einen Farbfilm 504, auf den die Bilder der Kamera 405 aufgezeichnet sind. Das Licht, welches durch den Farbfilm 504 hindurchtritt, wird von einer Linse 505 fokussiert. Das fokussierte Licht wird durch ein Farb-Ortsfrequenzfilter 506 in der Brennpunktebene der Linsen 505 geeignet gefiltert. Das gefilterte Licht wird von einer Linse 507 kollimiert und somit das Bild reproduziert. Das reproduzierte Bild wird mittels einer Kamera 508 auf dem Silberchloridfilm aufgezeichnet. Das reproduzierte Bild kann auch in ein elektrisches Signal gewandelt werden und in einem Speicher aufgezeichnet werden.
In dieser Ausführungsform werden die eingegebenen Bilder wie in der zweiten Ausführungsform überlagert und auf dem Silberchloridfilm aufgezeichnet. Die auf dem Farb­ silberchloridfilm aufgezeichneten Bilder werden dann einer Rückgewinnungsfilterung durch ein optisches System unterworfen, das in Fig. 18 dargestellt ist.
Der optische Rückgewinnungsvorgang gemäß Fig. 18 wird nun im folgenden erläutert. Ein auf dem Farbfilm 104 aufgezeichnetes endoskopisches Bild wird durch die Linse 505 optisch einer Fourier-Transformation unterworfen und von dem Frequenzfilter 506 bei einer geeigneten Ortsfrequenz gefiltert. Ein von dem Fibroskop erhaltenes Bild besteht im allgemeinen aus Pixeln, welche den einzelnen optischen Fasern entsprechen. Daher hat das Bild eine netzartige Struktur, wie in Fig. 19 dargestellt. Eine Rückgewinnungsfilterung des Ortsfrequenzfilters 506 und eine Elimination der Netz- oder Rasterstruktur 510 werden gleichzeitig durchgeführt. Ein Fourier-Spektrum eines Fibroskopbildes, das in einer Brennpunktebene der Linse 505 erscheint, ist in Fig. 20 dargestellt. Ein Spektrum 511 nullter Ordnung des Bildes selbst erscheint im Mittenbereich und Spektren 512 höherer Ordnung, welche von der optischen Faseranordnung entspringen, erscheinen im Umfangsbereich. Gemäß Fig. 21 ist ein Filter 520 mit einer Amplituden-Durchlässigkeit angeordnet, um einen Rückgewinnungsvorgang des Spektrums 511 nullter Ordnung in dem Mittenbereich 521 durchzuführen und um die Spektren 512 höherer Ordnung am Umfangsbereich 522 abzuschneiden, wobei dieses Filter als Filter 506 verwendet wird. Mit dieser Anordnung kann ein Bild mit einem hohen Brennpunktabstand und ohne die Netz- oder Rasterstruktur 510 wiedergegeben werden. Da das Rückgewinnungsfilter keine maximale Amplitudendurchlässigkeit von 1 oder mehr haben muß, kann das Rückgewinnungsfilter so ausgelegt sein, daß die Amplitudendurchlässigkeit in einem niederen Ortsfrequenzbereich relativ limitiert wird. Da die Multispektrum-Beleuchtungsquelle in Fig. 18 verwendet wird, sind die Spektren der Linse 505 in der Brennpunktebene unterschiedlich in ihren Lagen abhängig von den Wellenlängen. Das Farb-Ortsfrequenzfilter 506 ist aus einem Farbumkehrfilm gebildet, der eine Spektralcharakteristik hat, die es erlaubt, daß die entsprechenden Spektren ausreichend ausgefiltert werden.
Ein Verfahren zur optischen Durchführung des Rückgewinnungsvorganges gemäß dieser Ausführungsform ist im Detail der JP-OS 61-2 27 454 beschrieben.
Bei dieser Ausführungsform wird ein Fibroskopbild mit einem größeren Brennpunktabstand durch eine relativ einfache Anordnung reproduziert. Auf gleiche Weise wie in der achten Ausführungsform kann die Leistung der Beleuchtungslichtquelle reduziert werden. Bei dieser Ausführungsform wird das Bild des Fibroskopes auf einem Silberchloridfilm durch die Kamera 405 aufgezeichnet. Es kann jedoch anstelle der Kamera 405 auch eine TV-Kamera verwendet werden, um ein Signal elektronisch zu verarbeiten und das Bild aufzuzeichnen. Genauer gesagt, das von der TV-Kamera erhaltene Bild kann durch einen A/D-Wandler in ein Digitalsignal mit einer Abtasthöhe gewandelt werden, die ausreichend kleiner ist als die der Netz- oder Rasterstruktur des Fibroskops. Für das digitale Bild können dann die gleichen Verarbeitungen wie in der beschriebenen Ausführungsform durchgeführt werden.
Zwölfte Ausführungsform
Fig. 22 zeigt eine zwölfte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform verwendet eine elektronische Kamera, welche wiederum die vorliegende Erfindung verwendet. Diese Ausführungsform entspricht einer Anordnung, in welcher die Bildeingabeeinheit und die Bildverarbeitungseinheit gemäß der dritten Ausführungsform über ein Aufzeichnungsmedium off-line verbunden sind. Gemäß Fig. 22 wird eine Mehrzahl von Bildern, die durch eine elektronische Kamera erhalten werden und in verschiedenen Brennpunkten fokussiert sind, der Kamera 600 als elektrische Signale eingegeben. Alle eingegebenen elektrischen Signale werden in einem Aufzeichnungsmedium 601 in der Kamera 600 aufgezeichnet. Das Aufzeichnungsmedium 601 ist eine floppy disk, ein Magnetband, ein optischer Speicher, ein Speicher auf Halbleiterbasis mit einem Halbleiter- IC oder einem Dünnfilm oder dergl. Die auf dem Aufzeichnungsmedium 601 aufgezeichneten Bildsignale werden von einem Leser 602 gelesen. Die auf dem Bildaufzeichnungsmedium aufgezeichneten Bildsignale sind Analogsignale. Ein A/D-Wandler ist in dem Leser 602 angeordnet, um die Bildsignale in ein digitales Signal zu wandeln. Ein Prozessor 603 enthält die Speicher 5-1 bis 5-m, den Adressenkompensator 12, den Selektor 13, den Addierer 14, den Speicher 15, die Rückgewinnungs-Verarbeitungseinheit 7, den D/A-Wandler 8 und die Steuerung 10, die bereits unter Bezugnahme der dritten Ausführungsform in Fig. 3 beschrieben wurde. Die gleiche Verarbeitung wie in der dritten Ausführungsform wird auch für ein digitales Bildsignal durchgeführt, das von dem Leser 602 in dem Prozessor 603 übertragen worden ist. Das verarbeitete Bildsignal wird einem TV-Monitor 604 übertragen und dort angezeigt. Die verschiedenen Bearbeitungszustände des Prozessors 603 werden von einer Beobachtungsperson an einem geeigneten Interface, wie beispielsweise einer Tastatur 605 festgesetzt, welche mit einer Steuerung in dem Prozessor 603 verbunden ist.
Bei dieser Ausführungsform wird die Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen, die durch die elektronische Kamera 600 abgebildet werden, erhalten, um den gleichen Effekt wie in der dritten Ausführungsform zu erzielen. Diese Ausführungsform verwendet die elektronische Kamera 600, welche wiederum in der dritten Ausführungsform verwendet wird. Es kann jedoch jede der ersten, zweiten, vierten, fünften und sechsten Ausführungsform mit dieser Ausführungsform kombiniert werden. D. h., die Bilder mit unterschiedlichen In-Fokus-Positionen in der Kamera werden eingegeben und miteinander addiert und das synthetisierte Bild wird auf einem Auf­ zeichnungsmedium abgespeichert. Nur die Rückgewinnungs- Verarbeitung kann in einer On-Line-Verarbeitungseinheit durchgeführt werden. In diesem Fall kann der Aufbau der Vorrichtung noch weiter vereinfacht werden.
Wenn die vorliegenden Erfindung bei einer Kamera angewendet wird, in der Bilder auf einem Silberchloridfilm aufgezeichnet werden, können Bilder mit unterschiedlichen In-Fokus-Positionen kontinuierlich aufgezeichnet werden und der gleiche Prozeß wie in der zwölften Ausführungsform kann durchgeführt werden. Weiterhin können, wie in der elften Ausführungsform dargestellt, Bilder mit unterschiedlichen Brennpunkten eingegeben und auf dem Silberchloridfilm addiert werden und eine optische oder elektrische Rückgewinnungs-Verarbeitung kann durchgeführt werden.
Dreizehnte Ausführungsform
Fig. 23 zeigt eine dreizehnte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform verwendet ein Reflektionsmikroskop, was die Anwendung der vorliegenden Erfindung in der gleichen Weise möglich macht, wie in der siebten Ausführungsform gemäß Fig. 12. Gemäß Fig. 23 wird Licht von einer Lichtquelle 700 durch eine geeignete Vorrichtung 701 nach unten geleitet und fällt schließlich auf eine Probenoberfläche durch eine Objektivlinse 702. Ein Bild des von der Probe reflektierten Lichtes wird auf die Objektivlinse 702 fokussiert und von einer Kamera 704 aufgezeichnet, die auf einem Linsentubus 703 angeordnet ist. In diesem Falle wird die Probe von einem Oszillator 706 in Vibration versetzt, der an einem Objektträger 705 angeordnet ist. Die Vibration erfolgt bei einer festgelegten Frequenz in der optischen Achse des Mikroskopes. Der Oszillator 706 wird von einem Oszillatortreiber 707 mit einer geeigneten Periode und Amplitude betrieben. Ein von der Kamera 704 erhaltenes Bildsignal wird einem Kameratreiber 708 übertragen. Der Kameratreiber 708 liefert auch die Energie an die TV-Kamera 704. Das an den Kameratreiber 708 übertragene Bildsignal wird einer Steuerung 709 zugeführt. Die Steuerung 709 beinhaltet einen A/D-Wandler, einen Bildspeicher, eine Rückgewinnungs-Verarbeitungseinheit und einen D/A-Wandler. Die Steuerung oder der Prozessor 709 führt eine digitale Rückgewinnungs-Verarbeitung durch oder versucht eine analoge Bandpaß- oder Hochpaßfilterung für eine Rückgewinnungs-Verarbeitung. Das Bildsignal von dem Prozessor 709 wird einem Monitor 710 übertragen und dort eingesetzt.
Die Vorrichtung zur Überwachung einer Leistung eines speziellen Ortsfrequenzbereiches im eingehenden Bildsignal unter Verwendung eines Bandpaßfilters ist in dem Prozessor 709 angeordnet. Somit kann die Amplitude des Oszillators 706 automatisch bestimmt werden. Der Oszillatortreiber 707 kann in Übereinstimmung mit den Bestimmungsergebnissen betrieben werden.
Die dreizehnte Ausführungsform mit der obigen Anordnung hat die folgende Wirkungsweise: Da in dieser Ausführungsform die TV-Kamera 704 angeordnet ist, um ein Objekt einmal oder mehrmals mit einer speziellen Amplitude zu oszillieren, während ein Ein-Rahmenbild oder ein Ein-Feldbild eingegeben wird, können die Bilder mit unter­ schiedlichen In-Fokus-Ebenen in einer Bildebene der TV-Kamera akkumuliert werden. Die Anfangsamplitude des Oszillators 706 kann durch das folgende Verfahren bestimmt werden: Bilder werden eingegeben, während die Amplitude geändert wird. Der Prozessor 709 überwacht dann die Leistung der speziellen Ortsfrequenzregion des Eingangsbildes. Eine Änderung der Leistung in der speziellen Ortsfrequenz als Funktion der Amplitude ist in Fig. 24 dargestellt. Wenn ein Amplitudenwert erhöht wird aufgrund einer Struktur eines Objektes in einer Richtung der Tiefe, sind viele Defokus-Komponenten in dem Bild enthalten. Aus diesem Grund nimmt die Leistung ab. Ein vorherbestimmter Schwellenwert TH wird geeignet festgesetzt und ein Amplitudenwert A entsprechend der Leistung, die geringer ist als der Schwellenwert TH wird in der tatsächlichen Verarbeitung dann verwendet. In diesem Falle kann ein klares Bild mit einem ausreichenden Brennpunktabstand bezüglich der Objektstruktur erhalten werden. Das Verfahren zur Bestimmung des Akkumulationsbereiches kann auch bei der siebten Ausführungsform angewendet werden.
Diese Ausführungsform stellt einen ausreichenden Effekt bei gleichzeitig einfachem Aufbau zur Verfügung. Wenn die Wiedergewinnungs-Verarbeitung mit einer Videorate durchgeführt wird, kann ein verarbeitetes Bild in Echtzeit erhalten werden, was in der Praxis viele Vorteile hat.
In der beschriebenen Ausführungsform wird das Objekt oszilliert. Es kann jedoch auch eine Relaislinse oder ein Abbildungselement in dem optischen System, z. B. die Objektivlinse 702 oder der Linsentubus 703 oszilliert werden. Diese Ausführungsform kann bei optischen Ausrüstungsgegenständen, wie beispielsweise einer elektronischen Kamera oder einem Endoskop anstelle des Mikroskopes angewendet werden, um das optische System oder ein Abbildungselement zu oszillieren.
Vierzehnte Ausführungsform
Fig. 25 ist eine Darstellung einer vierzehnten Ausführungsform der vorliegenden Erfindung in Verbindung mit einem Reflektionsmikroskop. Aus Gründen einer einfachen Darstellung ist nur eine Beleuchtungsquelle 800, eine Beleuchtungseinrichtung 801, eine Objektivlinse 802 und ein Linsentubus 803 des Reflektionsmikroskops dargestellt. Eine Farb-Kamera 804 ist an dem Linsentubus 803 angeordnet. Ein Dynamikbereich einer Abbildungsvorrichtung in der Farbkamera 804 sei auf 40 dB festgesetzt. Ein drehender optischer Verschluß 805 ist in der Beleuchtungseinrichtung 801 angeordnet. Der optische Verschluß 805 läßt Licht durch bzw. schattet Licht ab von der Be­ leuchtungsquelle 800 und zwar zu festgelegten Zeitpunkten. Wie in Fig. 26 dargestellt, weist der drehende optische Verschluß 805 Bereiche 805 A bis 805 C einer Scheibe 805 D auf, welche gleichmäßig unterteilt ist. Fenster (gestrichelte Bereiche) a, b und c haben ein Flächenverhältnis von 10 000 : 100 : 1 und sind in den Bereichen 805 A bis 805 C ausgebildet. Wenn sich die Scheibe 805 D einmal pro 1/10 Sekunden dreht, was mittels eines Motors 807 erfolgt, der von einem Motortreiber 806 angetrieben wird, fällt eine festgesetzte Lichtmenge auf die Probe pro 1/30 Sekunden (d. h. einer Ein-Rahmen-Abtastzeit der Kamera). In diesem Fall fällt das Beleuchtungslicht auf die Probe durch einen Halbspiegel 808 und die Objektivlinse 802. Ein Bild des von der Probe reflektierten Lichtes wird von der Farb-Kamera 804 abgebildet, welche von einem Kameratreiber 809 gesteuert wird. Ein Kolher'sches Illuminationssystem (nicht dargestellt) bestehend aus einer Mehrzahl von Linsen und einer Apertur ist in der Beleuchtungseinrichtung 801 angeordnet. Ein Treiber 810 für den Objektträger weist einen Oszillator auf, (vgl. dreizehnte Ausführungsform) und oszilliert einen Objektträger 811 wenigstens einmal pro 1/30 Sekunden mit einer festgelegten Amplitude. Die Bilder mit unterschiedlichen In-Fokus-Ebenen können auf der lichtempfindlichen Oberfläche der Farbkamera 804 akkumuliert werden. Auf diese Weise werden drei farbige Rahmenbilder mit unterschiedlichen Belichtungsgraden eingegeben. Diese Farbbilder werden einem Prozessor 820 als die drei Primärfarbsignale, d. h. als Signale R, G und B zugeführt.
Die dem Prozessor 820 übertragenen Bildsignale werden mittels eines A/D-Wandlers 821 in digitale Signale umgesetzt. Von diesen umgewandelten digitalen Signalen werden die Signale des ersten Rahmenbildes, d. h. die Bildsignale, die durch das Fenster a des drehenden optischen Verschlusses 805 belichtet wurden und in dem Prozessor 820 eingegeben wurden, durch einen Addierer 822 ohne Verarbeitung übertragen und in einem Rahmenbildspeicher 823 gespeichert. Die Bildsignale des zweiten und dritten Rahmenbildes, d. h. die durch die Fenster b und c des Verschlusses 805 belichteten Bildsignale, die dem Prozessor 820 eingegeben wurden, werden durch den Addierer 822 zu den Bildsignalen hinzuaddiert, die bereits in dem Bildrahmenspeicher 823 gespeichert sind. Die sich ergebende Summe wird wieder in dem Bildrahmenspeicher 823 gespeichert. Somit werden die drei Primärfarben (R, G und B) Bilddaten mit logarithmischen Charakteristiken einer polygonalen Approximation in dem Rahmenspeicher 823 gespeichert. Die Bilddaten log R, log G und log B in dem Rahmenbildspeicher 823 werden in einen Wert log Y (Y=0.3R+0.59G+0.11B) von einen log Y- Wandlerschaltkreis 824 konvertiert. Die konvertierten Daten werden in einem anderen Rahmenbildspeicher 825 gespeichert. Das Bildsignal in dem Rahmenbildspeicher 825 wird einem Rückgewinnungs-Verarbeitungs-Schaltkreis 826 zugeführt. Das dem Schaltkreis 826 zugeführte Bildsignal wird einer geeigneten Filterung bezüglich einer Ortsfrequenz unterworfen, wobei das Bildsignal logarithmische Charakteristiken hat. Das gefilterte Bildsignal wird einem Steuerschaltkreis 827 für Dynamikbereich und Verstärkung zugeführt. Das dem Rückgewinnungsprozeß unterworfene Bildsignal log Y′ wird mit dem Verstärkungssteuerungswert log b durch diesen Schaltkreis 827 addiert und gleichzeitig mit einem Dynamikbereich-Einstellwert a multipliziert, so daß ein Signal a log bY′ ausgegeben wird. Das 98298 00070 552 001000280000000200012000285919818700040 0002003905619 00004 98179Bildsignal a log bY′ wird von einem Logarithmus-Konverter 828 logaritmisch komprimiert und als log (a log bY′) ausgegeben. Dieser Ausgangswert wird einem Subtrahierer 829 eingegeben und die Differenz zwischen dem Signal log (a log bY′/Y′) und dem Bildsignal log (a log bY′) und dem Bildsignal log Y wird von dem Subtrahierer 829 berechnet. Die Differenz wird als Signal log (a log bY′/Y) ausgegeben. Das Ausgangssignal log (a log bY′/Y) von dem Subtrahierer 829 wird durch Addierer 830 R, 830 G und 830 B zu den drei logarithmisch komprimierten Primärfarbsignalen log R, log G und log B in dem Speicher 823 addiert. Die sich ergebenden Summensignale werden einem inversen Logarithmus-Konverter (Exponential- Konverter) 831 zugeführt und die inverse logarithmische Konversion wird hierin durchgeführt, so daß Ausgangssignale a log bY′/Y · R, a log bY′/Y · G und a log bY′/Y · B ausgegeben werden. Diese berechneten Werte werden in Videosignale R, B und G mittels eines D/A-Wandler 832 umgesetzt und auf einem Monitor 833 dargestellt. Der Prozessor 822 arbeitet hierbei auf der Basis eines Farb­ logarithmus-Bildvideoprozessors gemäß der JP-OS 62-234133. Die Steuerung der Arbeitsweise dieser Vorrichtung mit dem obigen Aufbau wird durch eine Steuerung 834 durchgeführt. Prozeßbedindungen werden an einer Beobachtungsperson von einem Interface 835 eingegeben, welches mit der Steuerung 834 verbunden ist.
Die vierzehnte Ausführungsform mit dem erwähnten Aufbau hat die folgende Wirkungsweise: Da diese Ausführungsform ein Farblogarithmus-Abbildungssystem verwendet, können sowohl ein Arbeitsgang zur Eingabe des Bildes mit einem Dynamikbereich oberhalb der Leistung der Abbildungsvorrichtung der Kamera 804 und ein Arbeitsgang zur wirksamen Durchführung eines Rückgewinnungsprozesses durch logarithmisches Filtern gleichzeitig durchgeführt werden. Das logarithmische Farb-Abbildungssystem wird im folgenden beschrieben. Hierfür sei angenommen, daß der Dynamikbereich der Abbildungsvorrichtung in der TV-Kamera 804 als 40dB gegeben ist. Wenn ein Objekt eine Helligkeitsformation hat, welche eine Abbildung in dem Dynamikbereich von 40dB nicht erlaubt, wird der Dynamikbereich erheblich erweitert, wie folgt: Das Objekt wird mit einer ausreichenden hohen Belichtungsmenge abgebildet und ein Bild mit Dunkelinformation wird eingegeben, In diesem Bild ist ein heller Bereich in der Sättigung. Das Bild wird dann mit einer Belichtungsmenge von 1/100 des vorher eingegebenen Bildes eingegeben. Von den gesättigten Bereichen des vorher eingegebenen Bildes können Informationen von 40dB von einem dunkleren Bereich erhalten werden. Auf ähnliche Weise wird ein Bild mit einer Belichtungsmenge von 1/100 des vorher eingegebenen Bildes eingegeben und ein Bild mit einer Information von 40dB eines helleren Bereiches kann eingegeben werden. Diese eingegebenen Bilder werden miteinander addiert, um ein Bildsignal zu erhalten, welches logaritmische Charakteristiken einer polygonalen Annäherung hat. Somit kann dieses Bildsignal als ein Bildsignal mit einem wesentlich erweiterten Dynamikbereich verwendet werden. Zusätzlich wird, um die verarbeiteten Bilder auszubalancieren nur eine logarithmische Kompression eines Helligkeitssignals Y durchgeführt. Um die Einflüsse von Abschattungen und Sättigungen des Farbbildes zu eliminieren, wird ein Kompressionsgrad log Y/Y des Helligkeitssignals Y mit den Signalen R, G und B multipliziert, um die Signale log Y/Y · R , log Y/Y · G und log Y/Y · B zu erhalten. Diese Signale werden als die drei Primärfarbsignale ausgegeben. In dieser Ausführungsform werden Verstärkung und Dynamikbereiche einer Anzeige gesteuert, um die drei Primärfarbsignale bestehend aus a log Y/Y · R, a log Y/Y · G und a log bY/Y · B auszugeben. Diese Steuerung von Verstärkung und Dynamikbereich kann manuell oder automatisch durchgeführt werden. Details des erwähnten logarithmischen Farbkompressionssystems sind in der JP-OS-62-234133 beschrieben.
Eine Funktion zur Erhaltung einer Ortsfrequenzfilterung, d. h. einer logarithmischen Filterung des Helligkeitssignals log Y mit logarithmischen Charakteristiken wird nun im folgenden beschrieben:
Eine Verteilungsfunktion des reflektierten Lichtes ist wie folgt definiert:
Y (Γ ) = L (Γ ) · R (Γ ) , (a)
wobei
Y (Γ ): Verteilungsfunktion des reflektierten Lichtes;
L (Γ ): Verteilungsfunktion der Beleuchtungsfunktion und
R (Γ ): Reflektivitäts-Verteilungsfunktion eines Objektes.
Wenn die rechten und linken Seiten logarithmisch konvertiert werden, ergibt sich die folgende Gleichung:
Log Y (Γ ) = log L (Γ ) + log R (Γ ) . (b)
Bei einer optischen Ausrüstung mit keinem Beleuchtungslicht oder keiner Beleuchtungseinrichtung hat die Funktion L ( Γ ) entsprechend der Verteilung von natürlichem Licht oder externem Beleuchtungslicht hauptsächlich eine Niederortsfrequenz-Komponente. Im Gegensatz hierzu hat die Reflektivitäts-Verteilungsfunktion R ( Γ ) hauptsächlich eine Komponente von niederen bis mittleren Ortsfrequenzen. Ein Filter mit Charakteristiken gemäß Fig. 27 ist angeordnet, um Ungleichmäßigkleiten des Beleuchtungslichtes der Niederortsfrequenz-Komponente und einen Hochortsfrequenz-Bereich, in dem Rauschkomponenten vorherrschend sind, abzuschneiden. Somit kann ein Bereich entsprechend der Struktur des Objektes betont werden. Somit wird unter Verwendung des logarithmischen Filterns eine noch wirksamere Rückgewinnung durchgeführt. Ortsfrequenzwerte fl und fh in Fig. 27 können von einer Beobachtungsperson an dem Interface 835 beliebig gesetzt werden, während die Prozeßergebnisse beobachtet werden. Wenn alternativ die Bildtypen limitiert sind und die Charakteristiken bekannt sind, können die Ortsfrequenzwerte vorgewählt werden.
Gemäß dieser Ausführungsform kann, selbst wenn die Abbildungskamera einen niederen Dynamikbereich hat, ein Bild mit einem im wesentlichen hohen Dynamikbereich erhalten werden. Im allgemeinen wird bei einer Kamera mit einem geringen Dynamikbereich eine Akkumulation auf der lichtempfindlichen Oberfläche durchgeführt und nur eine Durchschnittsintensität (Frequenzintensität nullter Ordnung) des Bildes wird erhöht. Daten des Hochortsfrequenz- Bereiches werden unerwünschterweise mit Rauschen derart gemischt, daß eine Rückgewinnung nicht möglich wäre. Dieser Nachteil wird bei der vorliegenden Ausführungsform eliminiert. Eine Bildkomponente des Hochortsfrequenz- Bereiches kann mit einem gewünschten Signal- Rauschabstand eingegeben werden, während es akkumuliert wird. Eine wirksamere Rückgewinnungs-Verarbeitung kann durchgeführt werden, und durch das logarithmische Filtern kann ein klares Bild dargestellt werden.
Diese Ausführungsform veranschaulicht die Anwendung bei einem Reflektionsmikroskop. Genauso gut ist diese Ausführungsform jedoch bei anderen optischen Vorrichtungen mit einer Beleuchtungseinrichtung verwendbar, beispielsweise bei einem elektronischen Endoskop. Weiterhin muß der Verschluß 805 kein mechanischer Verschluß wie dargestellt sein; es ist auch ein optischer Verschluß, z. B. in Form einer Flüssigkristallplatte möglich.
Fünfzehnte Ausführungsform
Fig. 28 zeigt eine fünfzehnte Ausführungsform der vorliegenden Erfindung, bei der logarithmische Farbabbildung und logarithmisches Filtern gemäß der vierzehnten Ausführungsform bei einem optischen Gerät durchgeführt werden, welches keine Beleuchtungsausstattung hat. Ein Objektbild wird auf die lichtempfindliche Oberfläche eines Bildsensors 902 auf Halterleiterbasis fokussiert, was durch eine Linse 901 erfolgt. Der Bildsensor oder die Abbildungsvorrichtung 902 wird von einem logarithmischen Abbildungstreiber 903 gesteuert. Wenn beispielsweise die Abbildungsvorrichtung 902 eine CCD ist, ist die Höhe eines overflow drain gate oder eines horizontalen transfer gate innerhalb einer Belichtungszeit geändert, so daß ein Ausgangssignal logarithmische Charakteristiken hat. Details einer logarithmischen Kompression einer Abbildungsvorrichtung auf Halbleiterbasis sind in der JP-OS 62-2 34 133 beschrieben. Ein Ausgangssignal von der Abbildungsvorrichtung 902 wird in drei Primärfarbsignale log R, log G und log B mittels eines Videoprozessors 904 konvertiert. Diese Primärfarbsignale werden mittels eines A/D-Wandlers 905 in digitale Signale umgesetzt. Die digitalen Signale werden dann in eine Bildverarbeitungseinheit 910 übertragen. Die Linse 901 wird oszilliert und angetrieben von einem Oszillator 907 mit einer Periode ausreichend kürzer als die Belichtungszeit der Abbildungseinrichtung 902. Hierbei wird der Oszillator 907 von einem Oszillationstreiber 906 angetrieben und gesteuert. Bilder mit unterschiedlichen In-Fokus-Positionen werden akkumuliert und eingegeben auf der lichtempfindlichen Oberfläche der Abbildungsvorrichtung 902.
Die Bildverarbeitungseinheit 910 weist einen log Y-Konverter 911, eine Rückgewinnungs-Verarbeitungseinheit 912, einen Steuerschaltkreis 913 für Dynamikbereich und Verstärkung, einen logarithmischen Konvertierer 914, einen Subtrahierer 915, Addierer 916 R, 916 G, 916 B und einen inversen logarithmischen Konvertierer 917 auf. In der Bildverarbeitungseinheit 910 wird ein Helligkeitssignal Y logarithmisch gefiltert, wie in der vierzehnten Ausführungsform gemäß Fig. 25. Die drei Primärfarbsignale a log bY/Y · R, a log bY/Y · G und a log bY′/Y · B, deren Dynamikbereiche und Verstärkungen geeignet gesteuert werden, werden ausgegeben. Ausgangssignale von der Bildverarbeitungseinheit 910 werden durch einen D/A- Wandler 920 in analoge Farbsignale umgesetzt und auf einem TV-Monitor 921 dargestellt. Die erwähnten Abläufe werden von einer Steuerung 930 gesteuert.
Die fünfzehnte Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Da die logarithmischen Kompressions-Eingangscharakteristiken der Abbildungsvorrichtung 902 selbst zugeordnet sind, kann der Dynamikbereich erweitert werden, und eine Rückgewinnungs-Verarbeitung durch eine logarithmische Filterung kann durchgeführt werden, ohne die Farbkomponenten außer Balance zu bringen, wie in der vierzehnten Ausführungsform. Zusätzlich hat die Vorrichtung gemäß der fünfzehnten Ausführungsform einen einfachen Aufbau.
Bei dieser Ausführungsform kann der gleiche Effekt wie in der vierzehnten Ausführungsform bei einer optischen Ausstattung ohne zusätzliche Beleuchtungsvorrichtung erzielt werden, wie beispielsweise bei einer elektronischen Kamera. Die Bilder mit unterschiedlichen In-Fokus- Positionen werden von der Abbildungsvorrichtung 902 selbst akkumuliert, so daß die Vorrichtung selbst vereinfacht ist.
Anstelle der Abbildungsvorrichtung selbst die logarithmische Eingangscharakteristik zuzuweisen, kann die Mehrzahl von Bildern eingegeben werden, während die Belichtungszeit geändert wird, so daß ein Bild synthetisiert wird, welches eine logarithmische Charakteristik von polygonaler Annäherung hat. Eine Weiterverarbeitung kann durchgeführt werden unter Verwendung der gleichen Anordnung wie der Prozessor 820 in der vierzehnten Ausführungsform.
Sechzehnte Ausführungsform
Fig. 29 zeigt eine sechzehnte Ausführungsform der vorliegenden Erfindung, welche bei einem Reflektionsmikroskop zur Anwendung kommt, wie im Falle der vierzehnten Ausführungsform gemäß Fig. 25. Licht von einer Beleuchtungsquelle 1001 fällt durch einen Halbspiegel 1003 und eine Objektivlinse 1004 auf eine Probenoberfläche. Ein von der Probe reflektiertes Bild wird von der Objektivlinse 1004 vergrößert, und eine Fokussierungslinse 1006 an einem Linsentubus 1005 fokussiert das Bild auf die lichtempfindliche Oberfläche eines räumlich-optischen Modulators (im folgenden mit SLM bezeichnet) 1007 (spatial optical modulator) in dem Linsentubus 1005. Der SLM 1007 wird von einem Treiber 1008 angetrieben und gesteuert und dient als Inkohärent-zu-kohärent-Konverter. Ein Treiber 1009 treibt einen Objektträger 1010 in einem festgelegten Entfernungsbereich in axialer Richtung des Mikroskops innerhalb einer Abtastzeit, welche in Anbetracht einer Umwandlungs-Reaktionszeit des SLM 1007 festgesetzt ist. Ein Laserstrahl von einem Laser 1011 wird von einem Strahlexpander 1012 expandiert, und ein Fortpflanzungsweg wird von einem Halbspiegel 1013 geändert. Der Laserstrahl fällt dann auf eine Oberfläche (Reflektionsoberfläche) des SLM 1007 gegenüber der lichtempfindlichen Oberfläche. Ein mikroskopisches Bild wird als Gardientenindex auf der Reflexionsoberfläche des SLM 1007 angezeigt. Somit wird ein Reflektions- Raummuster des Laserstrahls als mikroskopisches Bild fortgepflanzt. Dieses mikroskopische Bild, d. h. ein reflektierter Laserstrahl, wird von einer Linse 1014 räumlich Fourier-transformiert. Eine Filterung des sich ergebenden Strahles wird von einem Filter 1015 an der rückwärtigen Brennebene 1014 durchgeführt. Der reflektierte Laserstrahl wird einer inversen Fourier-Transformation durch eine Linse 1016 unterworfen. Das sich ergebende Bild wird einer TV-Kamera 1017 eingegeben. Eine Amplitudendurchlässigkeit des Filters 1015 wird von dessen Mittenbereich zu dessen Umfangsbereich erhöht und ist so ausgelegt, daß für eine Ortsfrequenz ein Hochpaßfilter vorliegt. Eine Energieversorgung und eine Zeitsteuerung für die Kamera 1017 erfolgt durch einen Kameratreiber 1018. Durch den Kameratreiber 1018 wird das eingegebene Bild einem Prozessor 1020 übertragen. Ein Bildsignal, das dem Prozessor 1020 eingegeben worden ist, wird von einem A/D-Wandler 1021 in ein digitales Signal umgesetzt, und das digitale Signal wird in einem Rahmenbildspeicher 1022 abgespeichert. Das digitale Bild in dem Bildrahmenspeicher 1022 wird mittels einer Rückgewinnungsverarbeitungseinheit 1023 einem geeigneten Rückgewinnungsprozeß unterworfen. Das derart verarbeitete Bildsignal wird von einem D/A-Wandler 1024 in ein Analogsignal umgesetzt und auf einem TV-Monitor 1025 dargestellt. Die obenerwähnten Abläufe werden von einer Steuerung 1026 gesteuert, und Betriebsbedingungen sind von einer Bedienungs- oder Beobachtungsperson über ein Interface 1027 eingebbar, welches mit der Steuerung 1026 verbunden ist.
Im folgenden erfolgt eine kurze Beschreibung des SLM 1007. Der SLM 1007 ist ein räumlicher Modulator des optischen Eingangstyps und dient als optisches funktionales Element, welches ein optisches Signal zweidimensional lesen und schreiben kann. Beispiele für dieses optische funktionale Element sind ein PROM (Pockls Read-out Optical Modulator), der die optische Leitfähigkeit und die elektrooptischen Effekte von Bi₁₂Sio₂₀ (BSO) verwendet und ein LCLV (Liquid Crystal Light Valve), welches durch Kombination eines fotoleitfähigen Materials und eines Flüssigkristalls erhalten worden ist. Jedes dieser erwähnten optischen funktionalen Elemente wandelt ein optisches Eingangssignal in eine elektrische Feldverteilung und steuert einen Gradientenindex der Reflektionsoberfläche. Ein Polarisationsstand des Laserstrahls, der auf die Reflektionsoberfläche des SLM 1007 fällt, wird in Abhängigkeit von dem Gradientenindex der Reflektionsoberfläche geändert. Wenn der Laserstrahl durch einen Detektor läuft, kann er als kohärentes optisches Bild gelesen werden. In dieser Ausführungsform wird ein SLM mit einem weiten Dynamikbereich und einer kurzen Ansprechzeit verwendet.
Die sechzehnte Ausführungsform mit dem obigen Aufbau hat die folgende Wirkungsweise: Bevor die Bilder auf der lichtempfindlichen Oberfläche der Kamera 1017 akkumuliert werden, wird eine optische Hochpaß-Filterung durchgeführt. Das heißt, die durch das Mikroskop eingegangenen Bilder pflanzen sich mit einem Laserstrahl durch den SLM 1007 fort. Bilder mit unterschiedlichen In-Fokus-Positionen werden auf der lichtempfangenden Oberfläche der Kamera 1017 akkumuliert, während eine Ortsfrequenzfilterung von dem kohärenten optischen System durchgeführt wird. Mit dem obigen Aufbau können Einschränkungen hinsichtlich des Akkumulationseffektes durch Begrenzungen des Dynamikbereiches der Kamera 1017 gelöst werden. Als Ergebnis kann die Akkumulation und der Eingabevorgang der Ortsfrequenzkomponente mit dem gewünschten Signal/ Rausch-Abstand durchgeführt werden.
Bei dieser Ausführungsform kann der Dynamikbereich der Kamera 1017 wirksam genutzt werden, und ein klareres Bild kann durch den Rückgewinnungsvorgang in dem Prozessor erhalten werden.
Siebzehnte Ausführungsform
Fig. 30 zeigt eine siebzehnte Ausführungsform der vorliegenden Erfindung in Verbindung mit einem Reflektionsmikroskop wie in der sechzehnten Ausführungsform. Bei dieser Ausführungsform wird auf den Prozessor 1020 verzichtet, und ein Bildsignal von der Kamera 1017 wird direkt in den TV-Monitor 1025 durch den Kameratreiber 1018 eingegeben. Gleiche Bezugszeichen wie in Fig. 29 bezeichnen in Fig. 30 gleiche Teile, und eine detaillierte Beschreibung hiervon erfolgt nicht.
Die sechzehnte Ausführungsform mit dem Aufbau gemäß Fig. 30 hat folgende Wirkungskreise: Der Objektträger 1010 wird von dem Treiber 1009 innerhalb eines festgelegten Distanzbereiches entlang der optischen Achse des Mikroskops bewegt. Während des Bewegens werden mikroskopische Bilder auf der lichtempfindlichen Oberfläche des SLM 1007 akkumuliert. Somit wird eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen akkumuliert. Wenn dieser Vorgang abgeschlossen ist, werden die akkumulierten Bilder auf der Reflektionsoberfläche des SLM 1007 angezeigt und von einem Laserstrahl gelesen, und die gelesenen Bilder werden einem Rückgewinnungsprozeß (Ortsfrequenzfilterung) durch ein kohärentes optisches System unterworfen. Das Prozeßergebnis wird von der Kamera 1017 aufgenommen und auf dem Monitor 1025 dargestellt. Das heißt, der Bildakkumulationseffekt auf der lichtempfindlichen Oberfläche des SLM 1007 wird verwendet, um einen Rückgewinnungsprozeß durch optisches Filtern durchzuführen.
Da bei dieser Ausführungsform der Rückgewinnungsprozeß perfekt in Echtzeit durchgeführt wird, kann die Gesamtprozeßzeit vorteilhafterweise verkürzt werden.
Ein Verfahren zur Verarbeitung und Anzeige eines Farbbildes in der sechzehnten und siebzehnten Ausführungsform wird nun unter Bezugnahme auf Fig. 31 beschrieben. Gemäß Fig. 31 ist ein drehendes Farbfilter 1030 in einer Beleuchtungsanordnung 1002 angeordnet. Das Farbfilter 1030 wird erhalten durch Anordnung der drei Primärfarbfilterelemente (R, G und B) entlang der Drehrichtung einer Scheibe in gleicher Weise wie bei dem Drehfilter 213 von Fig. 14. Wenn das Farbfilter 1030 von einem Motor 1031 angetrieben wird, wird Licht von der Weißlichtquelle 1001 in der Reihenfolge von R, G und B eingefärbt. Die sich ergebenden Primärbeleuchtungskomponenten werden weitergeführt und den sequentiellen Prozeßabläufen auf der Grundlage der Anordnungen gemäß der sechzehnten und siebzehnten Ausführungsform unterworfen.
Fig. 32 ist ein Blockdiagramm einer Anordnung eines Farbbildprozessors gemäß dem Prozessor 1020 in der sechzehnten Ausführungsform von Fig. 29. Ausgangssignale entsprechen den entsprechenden Primärbeleuchtungslichtkomponenten und werden einem Prozessor 1100 eingegeben und von einem A/D-Wander 1101 in digitale Signale umgesetzt. Die digitalen Signale werden in Rahmenbildspeichern 1103 R, 1103 G und 1103 B mittels eines Selektors 1102 in Farbkomponenten-Einheiten gespeichert. Alle Prozeßergebnisse durch Beleuchtung mit den drei Primärfarben sind in den Speichern 1103 R bis 1103 B gespeichert, und diese Ergebnisse werden einem (R, G, B)-zu-Y-Wandler 1104 zugeführt, und ein Helligkeitssignal Y=0.3R+ 0.59G+0.11B wird hierin berechnet. Das Helligkeitssignal Y von dem Wandler 1104 wird Teilern 1105 R, 1105 G und 1105 B zugeführt zur Division der Farbkomponenten mit dem Helligkeitssignal Y, so daß sich R/Y, G/Y und B/Y ergibt. Diese Rechnungsergebnisse werden Multiplizierern 1106 R, 1106 G und 1106 B zugeführt.
Das Helligkeitssignal Y wird in einem Rückgewinnungs- Verarbeitungsschaltkreis 1107 einer geeigneten Rückgewinnungsprozedur unterworfen. Ein Ausgang Y′ von dem Schaltkreis 1107 wird den Multiplizierern 1106 R, 1106 G und 1106 B zugeführt und wird mit den Signalen R/Y, G/Y und B/Y multipliziert. Die Produkte (R/Y)Y′, (G/Y)Y′ und (B/Y)Y′ werden von D/A-Wandlern 1108 R bis 1108 B in analoge Videosignale umgewandelt. Die erwähnten Abläufe werden von einer Steuerung 1109 gesteuert.
Bei der erwähnten Anordnung wird nur die Helligkeitskomponente eines jeden Primärfarbensignals dem Rückgewinnungsprozeß unterworfen, so daß eine gute Farbbalance erhalten bleibt. Die aufgrund der Rückgewinnungsverarbeitung ermittelten Daten der drei Primärfarben werden gleichzeitig ausgegeben, und die Ergebnisse können als Farbbild dargestellt werden.
Wenn diese Anordnung der siebzehnten Ausführungsform zugeordnet wird, können der Wandler 1104, die Teiler 1105 R bis 1105 B, der Schaltkreis 1107 und die Multiplizierer 1106 R bis 1106 B von der Anordnung gemäß Fig. 32 weggelassen werden. Ein Prozessor, in dem die Rahmenbildspeicher 1103 R bis 1103 B direkt mit dem D/A-Wandlern 1108 R bis 1108 B verbunden sind, wird somit erreicht. Dieser Prozessor wird zwischen dem Kameratreiber 1018 und dem Monitor 1025 in Fig. 30 gesetzt. Mit dieser Anordnung können die Bildsignale der drei Primärfarben, welche bereits einer Rückgewinnungs-Verarbeitung unterworfen wurden und sequentiell eingegeben wurden, zeitweise in dem Rahmenbildspeicher in dem Prozessor gespeichert werden und können als Farbbild bei einem gleichzeitigen Lesezugriff auf die erwähnten Mehrfarbsignale dargestellt werden.
Achzehnte Ausführungsform
Fig. 33 zeigt schematisch ein optisches Hochpaßfiltersystem einer achzehnten Ausführungsform der vorliegenden Erfindung zur Anwendung in einem Transmissionsmikroskop. Gemäß Fig. 33 weist ein optisches Transmissions- Beleuchtungssystem eine Kohlersche Beleuchtungsausstattung 1200 auf. Beleuchtungslicht von einer Lichtquelle 1201 wird von einer Kollektorlinse 1202 fokussiert und fällt auf eine Probe 1206 über eine Kondensorlinse 1205, eine Feldapertur 1203 und eine Kondensorapertur 1204. In diesem Fall ist die Größe der Kondensorapertur 1204 ausreichend klein gehalten,und ein praktisch paralleles Licht trifft auf die Probe 1206 auf. Licht, das die Probe 1206 durchtritt, wird zu einer Objektivlinse 1207 geführt, und eine Ortsfrequenzfilterung des Bildes der Probe 1206 wird durchgeführt. Das Filter 1208 ist derart angeordnet, daß sein Mittenbereich einen hohen Absorptionsgrad hat, wobei der Absorptionsgrad in Richtung des Umfanges abnimmt. Mit anderen Worten, der Absorptionsgrad nimmt graduell von der Mitte zum Umfang hin ab. Durch Unterdrückung einer Niederortsfrequenzkomponente wird ein Hochpaßfiltervorgang durchgeführt. Das hochpaßgefilterte Bild wird auf ein Bildeingangssystem mittels einer Fokussierlinse 1209 fokussiert.
Die weiteren Anordnungen entsprechen im wesentlichen der des Transmissionsmikroskops in der siebten, dreizehnten und siebzehnten Ausführungsform.
Die achzehnte Ausführungsform mit dem beschriebenen Aufbau hat die folgende Wirkungsweise: Da die Probe 1206 mit parallelem Licht in dem Transmissionsmikroskop beleuchtet wird, kann ein kohärentes optisches System erhalten werden, und eine Hochpaßfilterung des Bildes kann optisch durchgeführt werden.
Bei dieser Ausführungsform wird die Probe durch die Bildeingabeeinheit, wie beispielsweise einer Kamera dargestellt, während die Niederortsfrequenzkomponente des Bildes auf gleiche Weise wie in der Ausführungsform von Fig. 16 unterdrückt bleibt, so daß auf wirksame Weise der Dynamikbereich der Bildeingabeeinheit verwendet werden kann. Somit kann ein Bild mit einem großen Brennpunktabstand dargestellt werden.
Ein Verfahren zur Auswahl der Anzahl von Bildern, die miteinander addiert werden müssen sowie des Akkumulationsbereiches, wird im folgenden beschrieben.
Die Fig. 34A und 34B sind Ansichten zur Darstellung des Prinzips dieser Auswahlmethode. Es sei angenommen, daß ein Objekt 1210 eine stufenweise Oberflächenstruktur hat, wie im linken Teil von Fig. 34A dargestellt. Wenn dieses Objekt 1210 von einem optischen System mit einem kleinen Brennpunktabstand dargestellt wird, hat ein Fourierspektrum eines Bildes, das auf einen Bereich des Objektes fokussiert ist, ebenfalls relativ hohe Ortsfrequenzkomponenten. Im Falle eines Bildes, das nicht auf einen beliebigen Bereich des Objektes fokussiert ist, hat das Bild nur niederfrequente Komponenten, wie im rechten Teil von Fig. 34A dargestellt. Das heißt, ein Fourierspektrum F(u) eines Bildes einer In-Fokus-Position an einer Stelle, die durch die gestrichelte Linie bezüglich des Objektes 1210 angedeutet ist, ist dargestellt. Ein Wert F(u 1, u 2) (gestrichelte Bereiche 1220), der durch Intgegration eines Spektrums bei einer gegebenen Ortsfrequenz (u 1, u 2) erhalten wird, wird ebenfalls in Betracht gezogen. Änderung in dem Wert F(u 1, u 2) bei Änderungen der In-Fokus-Positionen sind in Fig. 34B dargestellt. Wenn ein Bereich (z 1, z 2), in dem der Wert F(u 1, u 2) einen gegebenen Schwellenwert übersteigt als ein Additions- oder Akkumulationsbereich definiert ist, können defokussierte Bilder im wesentlichen vollständig von dem zu interessierenden Objekt ausgeschlossen werden. Als Ergebnis kann ein klares Bild mit einem hohen Brennpunktsabstand erhalten werden durch Addieren oder Synthetisieren von Bildern mit unterschiedlichen In-Fokus- Positionen. Wie unter Bezugnahme auf die dritte und zwölfte Ausführungsform beschrieben, werden, wenn Bilder mit unterschiedlichen In-Fokus-Positionen aufgezeichnet werden, die aufgezeichneten Bildsignale durch ein Bandpaßfilter gefiltert, und die sich ergebenden Werte werden überprüft, so daß die Beziehung gemäß Fig. 34B erhalten werden kann. Auf der Grundlage dieser Beziehungen können Bilder, die für Additionen verwendbar sind, bestimmt werden. Wenn dieses Verfahren bei einem Reflektionsmikroskop (siebte, vierzehnte, sechzehnte und siebzehnte Ausführungsform) angewendet wird, wird der Objektträger oder die Objektivlinse in festgelegten stufenweisen Intervallen auf- oder abwärtsbewegt. Die eingegebenen Bildsignale an den entsprechenden Brennpunktpegeln werden durch ein Bandpaßfilter gefiltert. Hierdurch ist die Beziehung gemäß Fig. 34B erhaltbar, und der Additions- oder Akkumulationsbereich wird bestimmt. Speziell beim Testen von integrierten Bausteinen, Halbleiterstrukturen oder dergleichen kann, da ähnliche Muster wiederholt werden, durch die Bestimmungen des Akkumulationsbereiches die Möglichkeit gegeben werden, jeden Teilbereich unter identischen Bedingungen optimal zu untersuchen. Das Bandpaßfilter kann eine Mehrzahl von Filtern mit unterschiedlichen Frequenzbereichen haben, und jedes dieser Filter kann verwendet werden, oder alle Filter können verwendet werden, um den Bereich systematisch zu bestimmen.
Neunzehnte Ausführungsform
Die Fig. 35A und 35B zeigen eine Anordnung gemäß einer neunzehnten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera. Die elektronische Kamera umfaßt im wesentlichen ein Kameragehäuse 1300, ein Aufzeichnungsmedium 1400, einen Prozessor 1500, ein Interface 1600 und einen TV-Monitor 1700. Das Kameragehäuse 1300 weist gemäß Fig. 35A eine Linse 1301, einen Verschluß 1302, einen In-Fokus-Positions- Kontroller 1303, eine Abbildungsvorrichtung 1304, einen A/D-Wandler 1305, einen Speicher 1306, einen Anpassungsschaltkreis 1307, einen Speicher 1308, einen Bereichsberechnungsschaltkreis 1309, eine Steuerung 1310 und einen Schreiber 1311 zum Schreiben eines Bildes in das Aufzeichnungsmedium 1400 auf. Das Kameragehäuse 1300 wird wie folgt betrieben: In dem Kameragehäuse 1300 wird Vor-Fotografieren und Haupt-Fotografieren durchgeführt. In dem Vor-Fotografiermodus schattet der Verschluß 1302 die halbe Oberfläche der Linse 1301 ab. Die nichtabgeschattete halbe Oberfläche wird verwendet, um ein Bild zu fokussieren, und das fokussierte Bild wird in die Eingabevorrichtung 1304 eingegeben. In diesem Fall wird ein Ausgangssignal von der Bildeingabevorrichtung 1304 durch den Wandler 1305 in ein digitales Signal umgewandelt und in dem Speicher 1306 aufgezeichnet. Der Verschluß 1302 überdeckt dann die andere halbe Oberfläche der Linse 1301, und das eingegebene Bild wird in dem Speicher 1306 aufgezeichnet. Auf diese Weise werden zwei halbe Oberflächen der Linse 1301 abwechselnd verwendet, um zwei Bilder mit einer Parallaxe einzugeben, und die beiden Eingangsbilder werden durch den Anpassungsschaltkreis 1307 stereoangepaßt. Somit kann eine Distanz zu dem Objekt gemessen werden. Gemäß den Fig. 36A und 36B werden bei dem erwähnten Anpassungsvorgang beispielsweise Erfassungspunkte 1315 in dem Bild bestimmt, und lokale Bereiche 1316 und 1317 werden festgesetzt unter Verwendung der Erkennungspunkte 1315 als Zentren und dann der obenerwähnten Anpasung unterworfen. Fig. 36A zeigt ein linkes Bild oder eine Bildoberfläche, während Fig. 36B ein rechtes Bild oder eine rechte Bildoberfläche zeigt.
Fig. 37 zeigt eine Anordnung des Anpassungsschaltkreises 1307 zusammen mit den Speichern 1306 und 1308. Ein linker Bildspeicher 1306 a und ein rechter Bildspeicher 1306 b zur Aufzeichnung zweier Bilder mit linken und rechten Gesichtsfeldern sind in dem Speicher 1306 angeordnet. Ein Adressengenerator 1320 ist in dem Anpassungsschaltkreis 1307 angeordnet. Der Adressengenerator 1320 erzeugt Adressen eines festgesetzten Bereiches 1316 mit einem Erfassungspunkt 1315 als Mittenpunkt des linken Bildes und einen festgelegten Bereich 1317 (mit einer Fläche gleich der Fläche des linken Bildes) des rechten Bildes, der von dem Erfassungspunkt 1315 um einige Pixel (Anzahl der Verschiebungspixel = S) in Richtung der Parallaxe verschoben ist. Die linken und rechten Bildsignale der festgelegten Bereiche 1316 und 1317 werden von dem Speicher 1306 einem Subtrahierer 1321 im Anpassungsschaltkreis 1307 zugeführt. Die Differenz zwischen den linken und rechten Bildsignalen werden in dem Subtrahierer 1321 in Pixeleinheiten berechnet. Ein Absolutwert der Differenz von dem Subtrahierer 1321 wird von einem Absolutwert-Arithmetikelement 1322 berechnet. Die Absolutwerte der Differenzen zwischen den linken und rechten Pixelsignalen der linken und rechten festgesetzten Bereiche 1316 und 1317 werden berechnet. Diese Absolutwerte werden miteinander in einem Addierer 1323 addiert und eine Summe wird einem Kriteriensteuerer 1324 zugeführt. Der Adressengenerator 1320 erzeugt die gleiche Adresse wie die Startadresse für das linke Bild in dem Speicher 1306. Der Adressengenerator 1320 erzeugt eine Adresse entsprechend einer Position (d. h. einem Punkt erhalten durch Verschiebung des Mittenpunktes eines neuen Bereiches von dem Erkennungspunkt durch S-1 oder S-2 in Parallaxenrichtung) erhalten durch Verschiebung der Startadresse des rechten Bildes durch ein oder zwei Pixel in Parallaxenrichtung. Die ähnlichen Berechnungsergebnisse werden dem Kriterienkontroller 1324 zugeführt. Die obigen Abläufe werden für jeden Erkennungspunkt innerhalb eines festgesetzten Bereiches (z. B. einem Bereich in welchem der Mittenpunkt des festgelegten Bereiches 1317 des rechten Bildes um S nach -S bezüglich des Erfassungspunktes verschoben ist) wiederholt. Der Kriterienkontroller 1324 vergleicht die Berechnungsergebnisse bezüglich der Verschiebungsbeträge und erfaßt einen minimalen Verschiebungsbetrag. Der minimale Verschiebungsbetrag wird dem Speicher 1308 eingegeben. Dieser Vorgang wird in Einheiten von Erfassungspunkten durchgeführt. Die obigen Abläufe werden durch eine Steuerung 1325 kontrolliert.
Die Arbeitsweise des Anpassungsschaltkreises 1307 wird im folgenden beschrieben:
Es ist nötig, die entsprechenden Punkte der linken und rechten Bilder mit Parallaxe zu finden. Die folgenden Abläufe werden durchgeführt, um die entsprechenden Punkte mittels des Anpassungsschaltkreises 1307 zu finden:
ρ (t ) = Σ R |r (x+t,y) - fl (x,y)| , (c)
wobei
x : Parallaxenrichtung,
t : Verschiebungsbetrag,
fr(x, y) : rechtes Bild,
fl(x, y) : linkes Bild,
Σ R : ein Operant entsprechend allen Additionen in den festgesetzten Bereichen.
Gleichung (c) wird berechnet, während t innerhalb eines festgelegten Bereiches geändert wird (z. B. t=S bis -S) bezüglich eines gegebenen Erfassungspunktes, so daß hierbei ein Minimalwert von t ermittelt wird. Somit kann ein rechter Bildpunkt entsprechend dem Erfassungspunkt des linken Bildes erhalten werden. Anstelle von Gleichung (c) kann der Anpassungsschaltkreis 1307 so angeordnet sein, daß er die folgende Korrelation als Verfahren zur Erkennung des korrespondierenden Punktes durchführt:
Φ (t) = Σ R fr(x+t,y) · fl (x,y) . (d)
Alternativ können Vorspannung und Verstärkungskomponenten der linken und rechten Bilder durch die folgende normalisierende Kreuzkorrelation korrigiert werden, wodurch eine noch präzisere Korrelation erfolgt:
wobei
r : Durchschnittswert in dem festgelegten Bereich des rechten Bildes,
l : Durchschnittswert in dem festgelegten Bereich des linken Bildes,
σ r : Standardabweichung des festgelegten Bereiches des rechten Bildes,
σ l : Standardabweichung des festgelegten Bereiches des linken Bildes.
In dieser Ausführungsform ist die Lage des festgelegten Bereiches 1316 des linken Bildes fest, und der entsprechende Punkt wird in dem rechten Bild gefunden. Es kann jedoch auch die Lage des festgelegten Bereiches 1317 im rechten Bild fest sein, und ein korrespondierender oder entsprechender Punkt kann im linken Bild gefunden werden. Alternativ können die Erfassungspunkte beider festgelegten Bereiche der linken und rechten Bilder relativ bezüglich des Erfassungspunktes gelegt werden, um die korrespondierenden Punkte zu erfassen. Zusätzlich kann ein Korrelationstheorem in der Fourier-Transformation angewandt werden, um den folgenden Korrelationsvorgang unter Verwendung eines FFT-Arithmetikelementes in dem Anpassungsschaltkreis 1307 durchzuführen:
Φ F (u,v) = F -1 [F {fr (x,y)} · F {fl (x,y)}*] (f)
F: Fourier-Transformationsoperant,
F -1: inverser Fourier-Transformationsoperant.
In diesem Fall muß die Relativposition t zwischen den beiden Bildern nicht verschoben werden, um einen Korrelationswert zu erhalten, im Gegensatz zum Fall der Gleichungen (c) bis (e).
Ein korrespondierender Punkt wird dadurch erreicht, indem eine Position eines Spitzenwertes eines Kreuzkorrelations- Bildes Φ F (u, v) detektiert wird. Wenn der Rauscheinfluß gering ist, kann ein korrekter korrespondierender Punkt durch eine Phasenkorrelation, gegeben durch die folgende Gleichung, detektiert werden.
Alternativ können der Speicher 1306 und der Anpassungsschaltkreis 1307 zusammen mit einem Selektor 1330 angeordnet sein, wie in Fig. 3A dargestellt. In diesem Fall wird ein Bild in Komponenten in Parallaxenrichtung und in Richtung senkrecht hierzu aufgetrennt, und die aufgetrennten Komponenten werden aufgezeichnet, um eine Parallelanpassung der Teilbilder durchzuführen, so daß die Gesamtverarbeitungszeit verkürzt wird.
Ein Verschiebungsbetrag zwischen den rechten und linken Bildern an jedem Punkt in dem Speicher 1308 wird in einen Berechnungsschaltkreis 1309 eingegeben, wie in Fig. 35A dargestellt. Der Berechnungsschaltkreis 1309 berechnet einen Abstand zwischen dem Kameragehäuse 1300 und jedem Erfassungspunkt auf der Grundlage der Parallaxenkomponente, die bei Bildeingabe erzeugt wurde unter Verwendung der halben Oberflächen der Linse 1301 und des Verschiebungsgrades.
Ein Berechnungsergebnis von dem Schaltkreis 1309 wird in die Steuerung 1310 eingegeben. Nachdem die Vor-Fotografierung abgeschlossen worden ist, kann die In-Fokus-Positionssteuerung 1303 automatisch unter Verwendung der Distanzdaten am Mittenpunkt des Bildes derart gesteuert werden, daß ein Objekt im Mittenbereich des Suchers fokussiert wird, so daß eine Autofokus-Arbeitsweise durchgeführt werden kann.
Im folgenden wird das Haupt-Fotografieren durch die Kamera 1300 beschrieben. Die Steuerung 1310 setzt einen Verschiebungsbetrag der In-Fokus-Objektebenenlagen, welche der Akkumulation unterworfen sind und von Eingangsvorgängen auf der Grundlage der Distanzinformation von dem Berechnungsschaltkreis 1309. Ein Verfahren zum Festsetzen des Bereiches der In-Fokus-Position wird im folgenden beschrieben. Eine Standardabweichung, anzeigend den Grad der Variationen, wird auf der Grundlage der Distanzdaten der entsprechenden Erfassungspunkte berechnet. Ein Bereich von ±k σ (k=1 bis 2) wird von dem durchschnittlichen Distanzwert erhalten, um einen Akkumulationsbereich zu definieren. In diesem Fall werden Daten, die als unendlich oder als Null berechnet wurden, ausgeschlossen, wenn der durchschnittliche Distanzwert und die Standardabweichung berechnet werden. Der Akkumulationsbereich kann wahlweise und manuell von einer Bedienungsperson festgesetzt werden. Beim Haupt-Fotografieren ist der Verschluß 1302 voll offen, und die In-Fokus-Positionssteuerung 1303 wird im Akkumulationsbereich betrieben, der von der Steuerung 1310 festgesetzt wurde, innerhalb einer Belichtungszeit bestimmt durch den Verschluß 1302. Bilder mit unterschiedlichen In-Fokus-Positionen werden auf der lichtempfindlichen Oberfläche der Abbildungsvorrichtung 1304 akkumuliert. Ein Ausgangssignal von der Abbildungsvorrichtung 1304 wird durch den A/D-Wandler 1305 in ein Digitalsignal umgesetzt. Das digitale Signal wird in dem Speicher 1306 gespeichert. Die in dem Speicher 1306 gespeicherten akkumulierten Bilder und Verschiebungsbeträge zwischen den rechten und linken Bildern bezüglich der Erfassungspunkte der Bilder in dem Speicher 1308 werden mittels des Schreibers 1311 auf dem Aufzeichnungsmedium 1400 gespeichert. Alternativ kann ein Addierer in dem Kameragehäuse 1300 angeordnet sein, und die Bilder mit unterschiedlichen In-Fokus-Positionen können beim Haupt-Fotografieren akkumuliert und addiert werden.
Das Aufzeichnungsmedium 1400 kann eine Floppydisk, ein optischer Speicher, eine Platine mit einem Halbleiter- IC, ein Magnetband, ein Halbleiterspeicher ohne Magnetkörper, ein Speicher aus einem organischen Material oder dergleichen sein. Daten, die von dem Kameragehäuse 1300 erhalten worden sind, werden off-line zu dem Prozessor 1500 über das Aufzeichnungsmedium 1400 übertragen.
Anordnung und Arbeitsweise des Prozessors 1500 gemäß Fig. 35B werden nun beschrieben. Daten in dem Aufzeichnungsmedium 1400 werden von einem Leser 1501 ausgelesen. Die ausgelesenen Bilddaten werden in einem Speicher 1502 gespeichert. Die Verschiebungsbeträge zwischen rechten und linken Bildern bezüglich der Erfassungspunkte werden in einem Speicher 1503 gespeichert. Die Bilddaten in dem Bildspeicher 1502 werden einem Rückgewinnungs-Verarbeitungsschaltkreis 1504 zugeführt. Die Verschiebungsbetragdaten in dem Speicher 1503 werden einem Faktorgenerator 1505 zugeführt. Der Faktorgenerator 1505 erzeugt einen Faktor oder Koeffizientenwert entsprechend dem Verschiebungsbetrag, und der Faktorwert wird in den Rückgewinnungs-Verarbeitungsschaltkreis 1504 eingegeben. Ein Bildsignal, welches geeignet einer Rückgewinnungs- Verarbeitung durch den Schaltkreis 1504 unterworfen wurde, wird von einem D/A-Wandler 1506 in ein analoges Videosignal umgesetzt. Das analoge Videosignal wird auf dem TV-Monitor 1700 dargestellt. Die Arbeitsweise des Prozessors 1500 wird von einer Steuerung 1507 kontrolliert. Verarbeitungsbedingungen und Bildanzeigebedingungen können von einer Beobachtungsperson über ein Interface 1600 eingegeben werden, welches mit der Steuerung 1507 verbunden ist.
Der Ablauf der Rückgewinnungs-Verarbeitung in dem Prozessor 1500 wird nun beschrieben. Eine räumliche Filterung wird von der Rückgewinnungs-Verarbeitungseinheit 1504 durch eine Umwandlung eines lokalen Bereiches durchgeführt, so daß die Rückgewinnungs-Verarbeitung abläuft.
Fig. 39 ist eine Ansicht eines Prinzips der Rückgewinnungs- Verarbeitung. Eine Umwandlungsoperation für ein gegebenes Pixel zwischen einer festgesetzten Maske 1510 und einem Pixelbereich von 5×5 des gegebenen Pixels wird durchgeführt. In einem folgenden Ablauf wird ein Ersatz des Umwandlungsergebnisses für das interessierende Pixel sequentiell für interessierende Pixel durchgeführt (vorausgesetzt, daß dieser Vorgang nicht für zwei umfangseitige Linien durchgeführt wird). Mit dem obigen Verfahren wird die Rückgewinnungs-Verarbeitung durchgeführt, und somit können unterschiedliche Filtervorgänge abhängig von der Lage innerhalb des Bildes durchgeführt werden. Wenn das Bild, das durch das Kameragehäuse 1300 synthetisiert wurde, nicht gleichmäßig defokussiert ist, wird der Faktor der Maske 1510 in Abhängigkeit von den Lagen des Bildes geändert. Somit kann ein vollständig fokussiertes Bild angezeigt werden. Um die erwähnten Abläufe durchführen zu können, werden Distanzen zwischen dem Objekt und verschiedenen Erfassungspunkten 1315 des Bildes in dem Kameragehäuse 1300 beim Vor-Fotografieren gemessen, und die Grade der Defokussierungsbeträge der entsprechenden Bereiche der akkumulierten Bilder werden vorher erfaßt. Der Faktor der Maske 1510 wird dann auf der Grundlage der Defokussierungsbetrag- Information bestimmt.
Bei dieser neunzehnten Ausführungsform kann der Grad der In-Fokus-Positionen, die der Akkumulation unterworfen werden, im Vor-Fotografieren bestimmt werden. Selbst wenn die Defokussierung von Positionen innerhalb des Bildes abhängt, kann eine zufriedenstellende Rückgewinnungs- Verarbeitung durchgeführt werden. Somit kann der Anwendungsfall der vorliegenden Erfindung hinsichtlich der elektronischen Kamera erweitert werden. Da der Faktor in der Rückgewinnungs-Verarbeitungsmaske 1510 in dem Prozessor 1500 wahlweise abhängig von Positionen des Bildes geändert werden kann, kann der Brennpunktabstand von einer Bedienungsperson wie gewünscht geändert werden.
Zwanzigste Ausführungsform
Fig. 40A und 40B zeigen eine Anordnung einer zwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera wie in der neunzehnten Ausführungsform. Die elektronische Kamera weist im wesentlichen ein Kameragehäuse 1800, ein Aufzeichnungsmedium 1900, einen Prozessor 2000, ein Interface 2100 und einen TV-Monitor 2200 auf. Das Kameragehäuse 1800 führt wie in der neunzehnten Ausführungsform ein Vor-Fotografieren und ein Haupt-Fotografieren durch. Beim Vor-Fotografieren wird ein Objektbild von dem Mittenbereich einer Linse 1801 eingegeben, von einem Spiegel 1802 reflektiert und auf einen Autofokussensor 1803 (im folgenden mit AF-Sensor bezeichnet) gelenkt. Der AF-Sensor 1803 wird auf der Grundlage eines Phasendifferenz-Autofokusschemas ähnlich der Stereoanpassung in der neunzehnten Ausführungsform betrieben und Daten entsprechend einer Phasendifferenz der zwei mit Parallaxe fokussierten Bilder werden einem Bereichs-Berechnungsschaltkreis 1804 zugeführt. Der Berechnungsschaltkreis 1804 berechnet einen Abstand zwischen dem Kameragehäuse 1800 und dem Objekt auf der Grundalge der Daten von dem Autofokussensor 1803. Die Distanzdaten werden in einem Speicher 1805 gespeichert. Die obigen Abläufe werden für verschiedene Positionen des Objektes, welche von einer Bedienungsperson festgesetzt werden, wiederholt. Die einzelnen Ergebnisse werden in dem Speicher 1805 gespeichert. Die Distanzmessung-Ergebnisse der Mehrzahl von Punkten, die in dem Speicher 1805 gespeichert sind, werden zu einer Steuerung 1806 geschickt, wonach die Bedingungen für das Haupt-Fotografieren gesetzt werden.
Der Ablauf des Haupt-Fotografierens wird im folgenden erläutert. Die Steuerung 1806 gewichtet in geeigneter Weise Bilder mit unterschiedlichen In-Fokus-Positionen und gibt diese Bilder auf der Grundlage der Distanzdaten zwischen dem Kameragehäuse 1800 und dem Objekt (gemessen beim Vor-Fotografieren) ein und addiert sie. Das heißt, eine In-Fokus-Positionssteuerung 1807 ändert diskret die In-Fokus-Position innerhalb des Bereiches, der beim Vor-Fotografieren vorgewählt wurde. In diesem Zustand wird ein Bild, das von der Linse 1801 fokussiert wird, einer Bildeingabevorrichtung 1808 eingegeben. Das in die Eingabevorrichtung 1808 eingegebene Bildsignal wird von einem A/D-Wandler 1809 in ein Digitalsignal umgesetzt. Das Digitalsignal wird von einem Multiplizierer 1811 mit einem vorherbestimmten Faktor oder Koeffizient, der in einem Speicher 1810 gespeichert ist, multipliziert. Das Produkt von dem Multiplizierer 1811 wird durch einen Addierer 1812 zu dem Bildsignal in einem Speicher 1813 hinzuaddiert. Diese Summe wird dann in dem Speicher 1813 wieder abgespeichert. Mit dieser Anordnung wird die Mehrzahl von Bildern, die eingegeben wird während die In-Fokus-Position diskret geändert wird, miteinander addiert. In dem Speicher 1813 wird eine Summe gespeichert. Wenn das Haupt-Fotografieren durchgeführt wird, wird der Spiegel 1802 mechanisch aus dem optischen Weg gebracht, oder er wird optisch derart beeinflußt, daß er das Fotografieren nicht mehr stört. Die Distanzmeßdaten an verschiedenen Beobachtungspunkten, die in dem Speicher 1805 aufgezeichnet sind und die Bilddaten in dem Speicher 1813 werden mittels eines Schreibers 1814 auf einem Aufzeichnungsmedium 1900 aufgezeichnet.
Aufbau und Arbeitsweise des Prozessors 2000 gemäß Fig. 40B werden nun beschrieben. Die in dem Aufzeichnungsmedium 1900 aufgezeichneten Daten werden von einem Leser 2001 ausgelesen. Die Bilddaten werden dann in einem Speicher 2002 gespeichert, und die Distanzmeßdaten werden einer Steuerung 2003 eingegeben. Eine geeignete Rückgewinnungs- Verarbeitung wird unter Verwendung der Distanzmeßdaten in Abhängigkeit mit Bedingungen durchgeführt, die von der Steuerung 2003 gesetzt wurden. Ein Bildsignal, das Rückgewinnungs-verarbeitet worden ist, wird durch einen D/A-Wandler 2005 in ein Analogsignal gewandelt, und das analoge Videosignal wird auf einem TV-Monitor 2200 dargestellt. Der Rückgewinnungs-Vorgang durch den Prozessor 2000 und die verschiedenen Bildausgangsvorgänge werden von dem Interface 2100, das mit der Steuerung 2003 verbunden ist, vorgewählt.
Die zwanzigste Ausführung mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Eine Bedienungsperson setzt verschiedene Objektteile in einen Mittenbereich des Rahmenbildes fest und drückt einen Bereichsberechnungs- Knopf. Die Distanz zwischen dem Kameragehäuse 1800 und den verschiedenen Objektbereichen werden in dem Speicher 1805 in dem Kameragehäuse 1800 aufgezeichnet. Die Steuerung 1806 setzt die Eingangsbedingungen für das von der Bedienungsperson ausgewählte Objekt auf beinahe defokussiert. In diesem Zustand wird das Haupt-Fotografieren durchgeführt. Der Prozessor 2000 führt eine geeignete Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmessungsdaten durch, welche beim Vor-Fotografieren erhalten worden sind.
Ein Verfahren von Festsetzen von Additions- und Eingabebedingungen der Bilder auf der Grundlage einer Mehrzahl von Distanzmessungsdaten wird im folgenden beschrieben. Aus Gründen der Einfachheit der Erläuterung sei angenommen, daß zwei Objekte mit unterschiedlichen Abständen von dem Kameragehäuse 1800 vorhanden sind. Erfindungsgemäß wird, um ein Bild mit einem großen Brennpunktabstand durch Durchführen einer raum-invarianten Rückgewinnungs-Filterung der eingegebenen Bilder, die miteinander addiert wurden, während die In-Fokus- Position geändert wurde, anzuzeigen, der Grad der Defokussierung des synthetisierten Bildes raum-invariant sein muß. Ein Defokussierungsbetrag um "außerhalb der Fokussierung" wird durch eine geometrische Annäherung gegeben.
Fig. 41 zeigt diese geometrische Beziehung. Es sei angenommen, daß ein Objektpunkt A 1 von einer Fotografierebene 1820 des Kameragehäuses 1800 um eine Distanz l 1 entfernt ist und daß ein Objektpunkt A 2 hiervon um einen Abstand l 2 entfernt ist. Weiterhin sei angenommen, daß eine Distanz zwischen den Objektpunkten A 1 und A 2 gleich d ist. Die obere Hälfte von Fig. 41 zeigt eine geometrische Beziehung, wenn der Objektpunkt A 1 fokussiert ist. In diesem Fall wird ein Defokussierungsbetrag σ 2 des Objektpunktes A 2 von einem Strahlenbündel vertreten, das von dem Objektpunkt A 2 in der Fotografierebene 1820 entspringt. Die untere Hälfte von Fig. 41 zeigt die geometrische Beziehung, wenn der Objektpunkt A 2 fokussiert ist. In diesem Falle wird ein Defokussierungsbetrag σ 1 des Objektpunktes A 1 von einem Strahlenbündel vertreten, welches von dem Objektpunkt A 1 in der Fotografierebene 1820 vorspringt. Wenn eine Brennweite der Linse 1801 zu f definiert ist und die Bedingung f«l 1 angenommen wird, können die Defokussierungsbeträge σ 2 und σ 1 wie folgt angenähert werden:
wobei F eine f-Nummer der Kamera ist und F=f/D (D = Durchmesser einer Austrittspupille einer Linse). Wenn die Näherungsgleichungen (h) und (i) verglichen werden, ergibt sich die Beziehung zwischen dem Defokussierungsbetrag σ 2 des Objektpunktes A 2 bei Fokussierung auf den Objektpunkt A 1 und der Defokussierungsbetrag σ 1 des Objektpunktes A 1 bei Fokussierung auf den Objektpunkt A 2 zu σ 2<σ 1. Wenn die Differenz zwischen diesen beiden Defokussierungsbeträgen klein ist, ist die Distanz l 1 klein. Mit anderen Worten, es zeigt sich, daß ein typischer Effekt erhalten wird, wenn das Objekt A 1, das näher an der Kamera ist, sich hieran noch annähert. In diesem Fall können die Defokussierungsbeträge der Objekte an den Objektpunkten A 1 und A 2 in den addierten und eingegebenen Bildern während sich die In-Fokus-Position äquidistant im Bereich zwischen den Objektpunkten A 1 und A 2 ändert, nicht gleich erhalten werden. Dies bedeutet, daß der Defokussierungsbetrag des Objektes am Objektpunkt A 2 größer ist als der am Objektpunkt A 1. In dieser Ausführungsform wird der Defokussierungsbetrag des synthetisierten Bildes durch eine Gewichtungsaddierung auf raum-invariant gesetzt, d. h. durch eine Addierung mit einer Gewichtung. Ein Verfahren zur Bestimmung eines Gewichtungsfaktors wird im folgenden beschrieben. Es sei angenommen, daß m In-Fokus-Positionen äquidistant innerhalb des Bereiches zwischen A 1 und A 2 festgesetzt sind, wie in Fig. 42 dargestellt. Gewichtungskoeffizienten oder -faktoren ω i (i=1, 2, . . . m) werden mit den entsprechenden In-Fokus-Positionen multipliziert, und die Produkte werden miteinander addiert. Defokussierungsbeträge σ 2(i) und σ 1(i) (i=1, 2, . . . m) an den Punkten A 2 und A 1 an den In-Fokus-Positionen werden durch die folgenden Gleichungen ausgedrückt: Die Defokussierungsbeträge der Objekte an den Objektpunkten A 2 und A 1 der gewichteten und addierten Bilder werden durch repräsentiert. Um ein Minimum ω i (i=1, 2, . . . m) unter der Bedingung dieser Punkte zu erhalten, die durch
beschränkt sind, wird ein Lagrangesches Unbestimmtheits- Multiplizierverfahren wie folgt verwendet:
Ein gleichzeitiges System (p) wird für eine unbestimmte Anzahl ω i (i=1, 2, . . . m) auf der Basis der Gleichungen (o) und (m) errichtet. Das System (p) ergibt sich in Form der folgenden Matrix:
Durch Auflösung der Matrix (p) kann ein optimales i (i= 1, 2, . . . m) erhalten werden.
Wenn die Distanz (l 1 und d) zwischen dem Kameragehäuse 1800 und dem Objekt erfaßt wurde, wird zuvor der Weg des Festsetzens des Gewichtungsfaktors überprüft. Geeignete Gewichtungsadditions- und Eingabeabläufe werden in der Praxis auf der Grundlage der Distanz zu jedem Objekt durchgeführt, welche beim Vor-Fotografieren berechnet wird. Wenn die Linse 1801 eine austauschbare Linse ist, kann der Gewichtungsfaktor bzw. die Gewichtungsfaktordaten in einem Speicher mit wahlfreiem Zugriff (ROM) für die Linse 1801 gespeichert werden, und die Daten werden der Steuerung 1806 in dem Kameragehäuse 1800 übertragen, so daß eine vorbestimmte Verarbeitung durchgeführt werden kann.
Bei dieser zwanzigsten Ausführungsform kann der Brennpunktabstand beliebig geregelt werden, um auf alle Objekte zu fokussieren, die wahlweise von einer Bedienungsperson ausgewählt werden. Additionen mit Gewichtung werden durchgeführt, um den Defokussierungszustand des Bildes so zu setzen, daß dieser praktisch raum-invariant ist, so daß der Rückgewinnungs-Verarbeitungsvorgang vereinfacht ist.
Einundzwanzigste Ausführungsform
Fig. 43 zeigt die Anordnung einer einundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera wie in der neunzehnten und zwanzigsten Ausführungsform. Die Anordnung dieser einundzwanzigsten Ausführungsform entspricht der Anordnung, die erhalten wird, wenn in der zwanzigsten Ausführungsform gemäß Fig. 40A auf den Speicher 1810 und den Multiplizierer 1811 des Kameragehäuses 1800 verzichtet wird. Ein Kameragehäuse 2300 in der einundzwanzigsten Ausführungsform führt ein Vor-Fotografieren und ein Haupt-Fotografieren durch. Beim Vor-Fotografieren passiert das gleiche wie im Falle der zwanzigsten Ausführungsform und eine detaillierte Beschreibung hiervon erfolgt nicht mehr. Im folgenden wird der Vorgang beim Haupt-Fotografieren in der einundzwanzigsten Ausführungsform beschrieben. Eine Steuerung 2306 steuert einen In-Fokus-Positionskontroller 2307, um Bilder in Abhängigkeit von Bedingungen bestimmt durch das Vor-Fotografieren einzugeben und zu addieren. Der Kontroller 2307 ändert diskret die In-Fokus-Position in Abhängigkeit der erwähnten Bedingungen. In jedem Zustand wird ein Bild, das durch eine Linse 2301 fokussiert ist, einer Bildeingabevorrichtung 2308 zugeführt. Ein Bildsignal der Vorrichtung 2308 wird von einem A/D-Wandler 2309 in ein digitales Signal umgesetzt. Das digitale Signal wird von einem Addierer 2312 zu dem Bildsignal in einem Speicher 2313 hinzuaddiert. Die sich ergebende Summe wird wieder in dem Speicher 2313 gespeichert. Mit dieser Anordnung wird die Mehrzahl von gegebenen Bildern, während die In-Fokus-Position diskret geändert wird, akkumuliert und addiert. Das Ergebnis wird dann in dem Speicher 2313 gespeichert. Distanzmeßdaten von verschiedenen Beobachtungspunkten in dem Speicher 2305 und die Bilddaten in dem Speicher 2313 werden auf im Aufzeichnungsmedium 1900 mittels eines Schreibers 2314 aufgezeichnet. Das synthetisierte Bild auf dem Aufzeichnungsmedium 1900 wird von einem Prozessor in gleicher Weise wie in der zwanzigsten Ausführungsform ausgelesen und einer geeigneten Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmeßdaten, ausgelesen von dem Aufzeichnungsmedium 1900 unterworfen. Die entsprechend verarbeiteten Daten werden auf einem TV-Monitor dargestellt. Anordnungen von Prozessor, Monitor und Interface dieser Ausführungsform entsprechen der der zwanzigsten Ausführungsform.
Die einundzwanzigste Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Wie bereits unter Bezugnahme auf die zwanzigste Ausführungsform erläutert, ist die Defokussierung der Bilder, die eingegeben werden, während die Distanz zwischen den Punkten A 1 und A 2 äquidistant in In-Fokus-Positionen unterteilt ist, nicht raum-invariant. Diese Ausführungsform verwendet die folgende Einrichtung, um die Bilder einzugeben und zu addieren, so daß die Defokussierung praktisch völlig raum-invariant wird. In-Fokus-Punkte werden von dem Objektpunkt A 1 zu dem Objektpunkt A 2 gesetzt, wie in Fig. 44 dargestellt. Das heißt, die Distanz zwischen den In-Fokus-Positionen ist groß nahe dem Objektpunkt A 1, aber die Distanz zwischen den In-Fokus-Positionen wird kleiner nahe dem Objektpunkt A 2. Ein Objekt an dem entfernten Objektpunkt A 2 vom Kameragehäuse 2300 beim Setzen der In-Fokus-Positionen wie beschrieben wird nun in Betracht gezogen. Die Anzahl von Bildern mit großen Defokussierungsbeträgen an einem Brennpunkt des Kameragehäuses 2300 an einem näheren Punkt ist geringer als die, die erhalten wird bei äquidistanten In-Fokus-Positionen. Der Defokussierungsbetrag des Objektes an dem Objektpunkt A 2 kann in dem synthetisierten Bild reduziert werden. Der Defokussierungsbetrag des Objektes am Objektpunkt A 1 ist im Vergleich mit dem Fall in dem synthetisierten Bild erhöht, indem die In-Fokus-Positionen äquidistant gesetzt sind. Somit ist die Defokussierung des synthetisierten Bildes praktisch raum-invariant. Die Distanzen zwischen den In-Fokus-Positionen in dieser Ausführungsform können leicht durch den Faktor ω i (i=1, 2, . . . m) berechnet werden durch das Verfahren, das bereits unter Bezug auf die zwanzigste Ausführungsform beschrieben wurde. In der einundzwanzigsten Ausführungsform können die Bilder geeignet eingegeben und addiert werden auf der Grundlage der Distanzen zu den entsprechenden Objekten, welche beim Vor-Fotografieren gemessen wurden.
Der gleiche Effekt wie in der zwanzigsten Ausführungsform kann auch bei der einundzwanzigsten Ausführungsform mit einer einfachen Anordnung erhalten werden.
Zweiundzwanzigste Ausführungsform
Fig. 45 zeigt die Anordnung einer zweiundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera, wie in der neunzehnten, zwanzigsten und einundzwanzigsten Ausführungsform. Die Anordnung bzw. Ausgestaltung des Kameragehäuses 2400 in der zweiundzwanzigsten Ausführungsform ist gleich der Anordnung, die erhalten wird, indem der Addierer 2312 in der einundzwanzigsten Ausführungsform weggelassen wird. Das Kameragehäuse 2300 dieser Ausführungsform führt ein Vor-Fotografieren und ein Haupt-Fotografieren durch. Der Ablauf des Vor-Fotografierens in dieser Ausführungsform entspricht dem in der zwanzigsten Ausführungsform, und eine detaillierte Beschreibung hiervon erfolgt nicht. Beim Haupt-Fotografieren steuert eine Steuerung 2406 einen In-Fokus-Positionskontroller 2407 derart, daß Bilder auf der Grundlage der beim Vor-Fotografieren bestimmten Bedingungen eingegeben und addiert werden. Die Bilder, die auf eine Linse 2401 fokussiert werden, während die In-Fokus-Position mit einer festgelegten Geschwindigkeit innerhalb einer Belichtungszeit geändert wird, werden auf einer lichtempfindlichen Oberfläche einer Abbildungsvorrichtung 2408 akkumuliert. Das akkumulierte Bild wird von einem Konverter 2409 in ein digitales Signal umgesetzt, und das digitale Signal wird in einem Speicher 2413 gespeichert. Die gespeicherten Bilddaten zusammen mit den Distanzmeßdaten in einem Speicher 2405 werden auf einem Aufzeichnungsmedium 1900 mittels eines Schreibers 2414 gespeichert. Das synthetisierte oder akkumulierte Bild auf dem Aufzeichnungsmedium 1900 wird in einem Prozessor ähnlich dem der zwanzigsten Ausführungsform übertragen. Die ausgelesenen Daten werden einer geeigneten Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmeßdaten von dem Aufzeichnungsmedium 1900 unterworfen. Das entsprechend verarbeitete Bild wird dann auf einem TV-Monitor dargestellt. Anordnung von Prozessor, Monitor und Interface, mit dem eine Bedienungsperson Manipulationen vornehmen kann, entsprechen der der zwanzigsten Ausführungsform.
Die zweiundzwanzigste Ausführungsform mit der beschriebenen Anordnung arbeitet wie folgt: Die In-Fokus-Punkte werden gesteuert, um raum-invariant zu sein unter Verwendung der Distanzmeßdaten von verschiedenen Objekten, die beliebig von einer Bedienungsperson in gleicher Weise wie in der zwanzigsten und einundzwanzigsten Ausführungsform ausgewählt werden können. Um den geometrischen Beziehungen gemäß Fig. 41 gerecht zu werden, werden die In-Fokus-Positionen innerhalb der Belichtungszeit in dieser Ausführungsform mit den Charakteristiken gesteuert, die wie in Fig. 46 dargestellt, geändert sind. Genauer gesagt, die In-Fokus-Position wird schnell bewegt, um die Bilder nahe dem Objektpunkt A 1 näher an dem Kameragehäuse 2400 nur sparsam zu akkumulieren, wohingegen die In-Fokus-Position langsam bewegt wird, um die Bilder nahe dem Objektpunkt A 2 entfernt von dem Kameragehäuse 2400 dicht zu akkumulieren. Hierdurch ist das synthetisierte Bild praktisch raum-invariant, wodurch die Defokussierung nicht von Örtlichkeiten abhängt, also so wie in der einundzwanzigsten Ausführungsform. Eine Kurve f(x) in Fig. 46 ist so gegeben, daß der Faktor ω i (i=1, 2, . . . m) aus der zwanzigsten Ausführungsform als Differentialkoeffizient entlang einer Koordinatenachse x dient, welche die In-Fokus-Positionen angibt. Das heißt,
gilt. Wie in Fig. 47 dargestellt, können Bilder akkumuliert und eingegeben werden, während die In-Fokus-Position schrittweise geändert wird. In diesem Fall wird die Belichtungszeit in der In-Fokus-Position vorzugsweise so gesetzt, daß sich ein Verhältnis der Faktoren i (i=1, 2, . . . m) ergibt, wie in der zwanzigsten Ausführungsform erhalten.
Die gleichen Effekte wie in der zwanzigsten und einundzwanzigsten Ausführungsform können in der zweiundzwanzigsten Ausführungsform mit einer noch einfacheren Anordnung erreicht werden.
Eine Anordnung für ein optisches System zur Eingabe von Bildern mit unterschiedlichen In-Fokus-Positionen der ersten, zweiten, dritten, fünfzehnten, neunzehnten, zwanzigsten, einundzwanzigsten und zweiundzwanzigsten Ausführungsform wird im folgenden beschrieben.
Fig. 48 zeigt die Anordnung einer Zoom-Linse. Das Linsensystem weist ein Fokussierungssystem 2501, ein variables System 2502, ein Kompensatorsystem 2503 und ein Relaislinsensystem 2504 auf. Jedes Linsensystem kann aus einer Mehrzahl von Linsen bestehen, wobei jedoch in Fig. 48 diese Mehrzahl von Linsen nicht dargestellt ist. Von den obigen Linsensystemen wird das Relaislinsensystem 2504 beim Zoomen nicht mechanisch bewegt und fokussiert ein Bild, das von dem Kompensatorsystem 2503 geführt wird, auf eine Abbildungsvorrichtung 2506. Wenn somit das Relaislinsensystem 2504 von einem entsprechenden Treiber 2505 in der optischen Achse angetrieben wird, können Bilder mit In-Fokus-Positionen eingegeben werden, unabhängig von den Brennweiten der Linsen. Der Relaislinsentreiber 2505 wird von einem Stellglied realisiert unter Verwendung eines elektromagnetischen Motors, eines Ultraschallmotors, eines piezoelektrischen Elements oder dergleichen.
Dreiundzwanzigste Ausführungsform
Fig. 49 zeigt eine dreiundzwanzigste Ausführungsform der vorliegenden Erfindung. Die dreiundzwanzigste Ausführungsform entspricht teilweise der dritten Ausführungsform gemäß Fig. 3. Ein Objektbild wird auf einen lichtempfangenden Teil einer Abbildungsvorrichtung 52, gebildet durch ein CCD oder eine Abbildungsröhre durch eine Linse 51, dargestellt im oberen rechten Abschnitt von Fig. 49, fokussiert. Ein optisches Eingabesystem weist normalerweise eine Mehrzahl von Linsen auf, jedoch ist aus Gründen der Übersichtlichkeit nur eine Linse dargestellt. Ein Ausgangssignal, d. h., ein Bildsignal von der Abbildungsvorrichtung 52 wird von einem A/D- Wandler 53 in ein digitales Signal umgesetzt. Das digitale Signal wird in einem festgelegten von Speichern 55-1 bis 55-m abgespeichert, der von einem Selektor 54 ausgewählt wird. Diese Abläufe werden so durchgeführt, daß die In-Fokus-Position diskret von einer Steuerung 56 in festgelegten Intervallen innerhalb eines festgelegten Abstandsbereiches geändert wird. Die n (n m) eingegebenen Bilder werden entsprechend in n-Speichern der Speicher 55-1 bis 55-m gespeichert. Die in den Speichern 55-1 bis 55-m gespeicherten Bilder werden einer Fourier- Transformation unterworfen, und die Ergebnisse werden wieder in den Speichern 55-1 bis 55-m gespeichert. Die in den Speichern 55-1 bis 55-m gespeicherten Fourier- transformierten Bildsignale werden einem Komparator 58 zugeführt. Der Komparator 58 vergleicht Spektralintensitäten der Fourier-transformierten Bilder in Einheiten von Ortsfrequenzen. Die Fourier-transformierten Bilder werden von höher- zu niederintensiven Bildern neu geordnet. Diese Bildsignale werden Multiplizierern 60-1 bis 60-P (P m) zugeführt. Faktoren oder Koeffizienten in einem Speicher 59 werden den Multiplizierern 60-1 bis 60-P als Multiplikanten zugeführt. Die Multiplizierer 60-1 bis 60-P multipliziert die Koeffizienten mit den Fourier-transformierten Bildsignalen von dem Komparator 58. Die Ausgangssignale von den Multipliziern 60-1 bis 60-P werden einem Addierer 61 zugeführt und hier addiert. Ein synthetisiertes Signal von dem Addierer 61 wird in einem Speicher 62 gespeichert. Die Fourier- transformierten Bilder, die in Einheiten von Ortsfrequenzen gewichtet und addiert und in dem Speicher 62 aufgezeichnet sind, werden dann mittels einem FFT- Arithmetikelement 57 einer inversen Fourier-Transformation unterworfen. Das Ergebnis von dem Arithmetikelement 57 wird wieder in dem Speicher 62 gespeichert. Das verarbeitete Bildsignal in dem Speicher 62 wird durch einen D/A-Wandler 63 in ein Analogsignal umgesetzt. Das Analogsignal wird auf einem Anzeigemonitor 64 dargestellt. Die Zeitsteuerung und die Signalflüsse in den obigen Abläufen werden durch eine Steuerung 65 gesteuert.
Anstelle des Faktor-Festsetzungsspeichers 59 und der Multiplizierer 60-1 bis 60-P kann eine Datentabelle (lookup table) verwendet werden, und vorher bestimmte Faktoren können durch eine Tabellenkonversion multipliziert werden. Die originalen Bildsignale in den Speichern 55-1 bis 55-m können auf einem anderen Aufzeichnungsmedium, beispielsweise einer Floppydisk, einem Magnetband, einem optischen Speicher oder dergleichen aufgezeichnet werden. Die Bildeingabe, Aufzeichnungs- und Wiedergabeeinheiten können off-line derart miteinander sein, daß das aus diesem externen Aufzeichnungsmedium ausgelesene Bildsignal der Fourier-Transformation Additionen mit Gewichtung und inverser Fourier-Transformation während der Bildwiedergabe unterworfen werden kann. Die Gewichtungsfaktoren oder -Koeffizienten, die während der Addition mit den gewichteten Einheiten von Ortsfrequenzen verwendet werden, können von Anfang an fest sein, oder einer aus der Mehrzahl von Faktoren vorgespeichert in dem Speicher 59 kann durch eine Bedienungsperson ausgewählt werden. Alternativ hierzu kann der Inhalt des Speichers 59 erneuert werden.
Die dreiundzwanzigste Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Es sei angenommen, daß ein Objekt 70 eine stufenweise Struktur hat wie in Fig. 50 dargestellt. Die entsprechenden Oberflächen der stufenartigen Abschnitte des Objektes 70 haben natürliche Frequenzen. Wenn das Objekt 70 mit Vorsprüngen in Tiefenrichtung mit einem optischen System beobachtet wird, das einen relativ kleinen Brennpunktabstand hat, kann eine fokussierte Oberfläche klar beobachtet werden, aber die anderen Oberflächen sind außerhalb des Fokussierungsbereiches. Wenn eine gegebene Oberfläche fokussiert ist, hat sein Eingangsbild eine Frequenz, die einzig zu seiner Oberfläche ist. Somit haben die Fourier- Spektren FS 1, FS 2, FS 3, . . . dieser Eingangsbilder, die auf die entsprechenden Oberflächen fokussiert sind, natürliche Ortsfrequenzdaten der entpsrechenden Oberflächen. Wenn die Fourier-Spektren FS 1, FS 2, FS 3, . . . der Mehrzahl von eingegangenen Bildern gewichtet und addiert werden in Einheiten der Ortsfrequenzen, während die Brennpunktlage geändert wird, kann hierdurch ein synthetisiertes Fourier-Spektrum eines Bildes erhalten werden einschließlich der Ortsfrequenzdaten aller Oberflächen. In diesem Fall wird die folgende Gewichtungstechnik verwendet: Eine gegebene Ortsfrequenz wird in Betracht gezogen, und Spektralintensitäten der Frequenzen werden zwischen den Bildern mit unterschiedlichen In-Fokus-Positionen verglichen. "10" wird mit dem Bild mit der höchsten Spektralintensität multipliziert, und "0" wird mit den verbleibenden Bildern multipliziert, oder "4", "3", "2" und "1" werden den Bildern von den höheren Spektralintensitäten der Frequenz zugewichtet. Alternativ hierzu kann die Gewichtung proportional zu den Spektralintensitäten erfolgen. Wenn praktisch nur noch Rauschen in einer Hochortsfrequenz-Region auftritt, werden identische Gewichtungsfaktoren oder -Koeffizienten verwendet, und "0" wird jeweils mit den Bildern multipliziert, wodurch das Rauschen verringert wird. Die Gewichtungstechnik kann geeignet ausgewählt werden in Abhängigkeit von den Eigenschaften des Objektes oder des optischen Systems. Das sich ergebende Fourier-Spektrum-Bild wird einer inversen Fourier-Transformation unterworfen, um ein Bild zu erhalten mit einem im wesentlichen hohen Brennpunktabstand. Aus Gründen der Einfachheit der Erläuterung wird eine eindimensionale Fourier-Transformation verwendet, es kann jedoch auch eine zweidimensionale Fourier- Transformation in der Praxis verwendet werden. Vierundzwanzigste Ausführungsform Fig. 51 zeigt die Anordnung einer vierundzwanzigsten Ausführungsform der vorliegendewn Erfindung. In dieser Ausführungsform wird ein optisches Element, z. B. eine Linse 66 so ausgelegt, daß absichtlich eine chromatische Aberration in dem optischen System zur Bildeingabe auftritt. Zusätzlich sind dichroitische Spiegel 67-1 und 67-2 innerhalb der Linse 66 angeordnet. Bilder mit unterschiedlichen Wellenlängen-Bereichen werden von Abbildungsvorrichtungen 52-1 bis 52-3 ausgebildet. Die Spiegel 67-1 und 67-2 können Spiegel mit Filtercharakteristiken gemäß Fig. 52 sein. Wie in Fig. 52 dargestellt, kann der Spiegel 67-1 Licht des blauen Bereiches reflektieren und Licht mit einer Wellenlänge größer als der von grün hindurchlassen. Der Spiegel 67-2 kann Licht mit einer Wellenlänge kleiner als der von grün reflektieren und ist durchlässig für rotes Licht. Mit dieser Anordnung wird ein Bild eines blauen Bereiches der Abbildungsvorrichtung 52-1 eingegeben, ein grünes Bild der Abbildungsvorrichtung 52-2 und ein rotes Bild der Abbildungsvorrichtung 52-3. Gemäß Fig. 51 werden die Bildsignale von den Abbildungsvorrichtungen 52-1 bis 52-3 von A/D-Wandlern 53-1 bis 53-3 in digitale Signale umgesetzt. Die digitalen Signale werden in Speichern 55-1 bis 55-m abgespeichert.
Die verbleibenden Punkte dieser Ausführungsform sind gleich der dreiundzwanzigsten Ausführungsform, und eine detaillierte Beschreibung erfolgt nicht.
Gemäß dieser Ausführungsform wird das Bild in drei Komponenten, d. h. in die Komponenten blau, grün und rot aufgeteilt. Jedoch ist die vorliegende Erfindung nicht auf diesen Sachverhalt beschränkt. Beispielsweise kann die Anzahl der Bänder auf vier oder mehr erhöht werden oder auch auf zwei beschränkt werden. Zusätzlich kann ein Interferenzfilter verwendet werden, um ein Bild einzugeben mit einem engen speziellen Wellenlängenbereich. Eine Mehrzahl von durchschnittlichen Bandpaß- oder Farbfiltern kann anstelle der dichroitischen Spiegel 67-1 und 67-2 verwendet werden, und diese Filter können schaltbar sein, um eine Abbildungsvorrichtung zu veranlassen, Bilder mit einem Mehrfachband auszugeben.
Die vierundzwanzigste Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Die spektrale Reflektionscharakteristik eines allgemeinen Objektes ist über einen weiten Bereich im wesentlichen entsprechend dem gesamten Bereich von sichtbaren Licht verteilt. Bilder an den entsprechenden Wellenlängen haben eine starke Korrelation. Das heißt, durch Verwendung eines optischen Elementes, welches absichtlich eine chromatische Aberration verursacht, werden Bilder mit unterschiedlichen Brennpunktlagen entsprechend den Wellenlängen fokussiert, und Bilder mit im wesentlichen unterschiedlichen In-Fokus-Positionen können gleichzeitig eingegeben werden. Da Bilder eingegeben werden können, die an einer Mehrzahl von Positionen fokussiert sind, ohne irgendeinen mechanischen Vorgang zur Änderung der In-Fokus-Position zu erzeugen, kann eine Vorrichtung frei von Verzerrungen oder dergleichen geschaffen werden, die bisweilen bei mechanischen Vorrichtungen der Fall sein können.
Fünfundzwanzigste Ausführungsform
Fig. 53 zeigt die Anordnung einer fünfundzwanzigsten Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform entspricht teilweise der vierten Ausführungsform gemäß Fig. 4. In der fünfundzwanzigsten Ausführungsform sind Halbspiegel 68-1 und 68-2 hinter einer Linse 51 eines optischen Systems zur Bildeingabe angeordnet und Distanzen zwischen der Linse 51 und den Abbildungsvorrichtungen 52-1 bis 52-3 sind zueinander unterschiedlich festgesetzt. Die weiteren Anordnungen sind gleich der in der vierundzwanzigsten und dreiundzwanzigsten Ausführungsform, und eine nochmalige detaillierte Beschreibung erfolgt nicht.
Die Abbildungsvorrichtungen 52-1 bis 52-3 können bewegbar sein, um ihre Lage in Abhängigkeit mit den verschiedenen Objekttypen geeignet festsetzen zu können.
Die fünfundzwanzigste Ausführungsform mit der erwähnten Anordnung hat die folgende Arbeitsweise: In dieser Ausführungsform werden die Bilder, die auf die Mehrzahl von unterschiedlichen Ebenen fokussiert sind, eingegeben, und die Mehrzahl von Bildern mit unterschiedlichen In-Fokus- Positionen kann gleichzeitig eingegeben werden. Somit kann eine einfache Anordnung erhalten werden, bei der die mechanischen Operationen zur Änderung der In-Fokus- Positionen nicht durchgeführt werden müssen, und die Anwendungsmöglichkeiten für diese Vorrichtungen können erweitert werden.
Sechsundzwanzigste Ausführungsform
Die Fig. 54A bis 54C zeigen eine Anordnung gemäß einer sechsundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einem oberflächensequentiellen elektronischen Endoskop ähnlich der achten Ausführungsform gemäß den Fig. 13A bis 13C. Das elektronische Endoskop faßt hauptsächlich eine Endoskopsonde 3300, eine Bildeingabeeinheit 3301, eine Farbfehlausrichtungs- Korrektureinheit 3302, einen Farbinformationsaufzeichner 3303, eine Brennpunktabstands-Erhöhungseinheit 3304, eine Bildanzeigeeinheit 3305 und eine Steuerung 3306. Eine Abbildungsvorrichtung 3310, die monochromatisch und auf Halbleiterbasis ist, beispielsweise eine CCD, ist am distalen Ende der Endoskopsonde 3300 angeordnet. Ein Bild, das von einer Objektivlinse in einer In-Fokus-Lagesteuerung 3311 fokussiert wird, wird abgebildet. In diesem Falle wird Beleuchtungslicht wie folgt erhalten: Licht von einer Weißlichtquelle 3313, wie beispielsweise einer Xe-Lampe, welches ein Drehfarbenfilter 3312 in der Bildeingabeeinheit 3301 durchtritt, wird mittels eine Lichtleiters 3314, bestehend aus einer optischen Faser oder dergleichen, in die Endoskopsonde 3300 geführt. Das Licht wird dann vom distalen Ende der Sonde abgestrahlt.
Der drehende Farbfilter 3312 weist den gleichen Aufbau auf wie der gemäß Fig. 14.
Gemäß Fig. 54B, wird der Farbfilter 3312 von einem Motor 3314 in der Bildeingabeeinheit 3301 angetrieben, und die Farben des Beleuchtungslichtes ändern sich in der Reihenfolge von R nach G und nach B. Aus diesem Grund wird ein mit diesen Lichtkomponenten beleuchtetes Objekt mit diesen Farben von der Bildabtastvorrichtung 3310 als monochromatisches Bild aufgenommen. Ein Ausgangsbildsignal von der Bildaufnahmevorrichtung 3310 wird mittels eines A/D-Wandlers 3315 in ein digitales Signal umgesetzt, und das digitale Signal wird in einem entsprechenden vorbestimmten Farbbereich von Rahmenbildspeichern 3317-1 bis 3317-3 gespeichert. Die obigen Abläufe werden von einer Bildeingabesteuerung 3318 gesteuert. Die Komponenten R und G oder die Komponenten G und B der Primärfarbbilder, d. h. der Komponenten R, G und B, die sequentiell in dem Rahmenbildspeicher 3317 gespeichert sind, werden von einem Selektor 3319 ausgewählt. Die ausgewählten Bildsignale werden einem Bereichsdetektor 3320 in der Farbfehlausrichtungs-Korrektureinheit 3302 zugeführt, und Fehlausrichtungsbeträge der Bilder R oder B bezüglich des Bildes G werden lokal detektiert. Ein Adressengenerator 3321 erzeugt Adressen zur Korrektur der Fehlausrichtungsbeträge, die durch den Detektor 3320 berechnet wurden, und diese Adressensignale werden dem Rahmenbildspeicher 3317-1 bis 3317-3 zugeführt. Die Rahmenbildspeicher 3317-1 bis 3317-3 korrigieren die Bilder R und B unter Verwendung der Adressensignale und eines Pufferspeichers 3317-4.
Das sich ergebende einzelne Farbbild wird der Farbinformations- Aufzeichnungseinheit 3303 über den Selektor 3319 zugeführt. In der Aufzeichnungseinheit 3303 werden die entsprechenden Farbkomponenten durch einen Addierer 3322 miteinander addiert, um einen Helligkeitswert Y=R +G+B zu erhalten. Gleichzeitig werden die Farbkomponenten R, G und B durch Teiler 3323-1 bis 3323-3 durch Y dividiert. Die Quotienten R/Y, G/Y und B/Y von den Teilern 3323-1 bis 3323-3 werden in entsprechenden Speichern 3324-1 bis 3324-3 gespeichert.
Die Bilder R, G und B, die eingegeben wurden, während die Brennpunktslage durch Steuerung 3311 in der Endoskopsonde 3300 geändert wurde, d. h., die Bilder R, G und B in den Rahmenbildspeichern 3317-1 bis 3317-3 in der Bildeingabeeinheit 3301 werden in Rahmenbildspeichern 3325-1 bis 3325-3 in einer Brennpunktabstands-Erhöhungseinheit 3304 aufgezeichnet. Zusätzlich zu den Speichern 3325-1 bis 3325-3 weist die Brennpunktabstands-Erhöhungseinheit 3304 ein FFT-Arithmetikelement 3326, einen Komparator 3327, Multiplizierer 3328-1 bis 3328-3, einen Speicher 3329, einen Addierer 3330 und einen Rahmenbildspeicher 3331 auf. Die Erhöhungseinheit 3304 wird in gleicher Weise wie in der dreiundzwanzigsten Ausführungsform betrieben, und das Verarbeitungsergebnis wird in dem Speicher 3331 als Helligkeit Y=R+G+B gespeichert.
Die Farbinformation in den Speichern 3324-1 bis 3324-3 und das Bildsignal im Speicher 3331 werden durch Multiplizierer 3332-1 bis 3332-3 in Einheiten von Farbkomponenten multipliziert. Die Produkte der Multiplizierer 3332-1 bis 3332-3 werden der Bildanzeigeeinheit 3305 zugeführt.
Die der Anzeigeeinheit 3305 von den Multiplizierern 3332-1 bis 3332-3 zugeführten Signale werden von D/A- Wandlern 3333-1 bis 3333-3 in Analogsignale umgesetzt. Diese Analogsignale werden dann auf einen TV-Monitor 3334 dargestellt. Bildverarbeitung und Anzeige werden von der Steuerung 3306 kontrolliert.
Diese Ausführungsform verwendet die starke Korrelation zwischen den drei primären (R, G und B) endoskopischen Bildern und die Abhängigkeit einer Bilddefokussierung bereits von der Helligkeit der Farbbildkomponenten. Bilder mit unterschiedlichen Brennpunktlagen in Einheiten der drei Primärgruppen werden in das oberflächensequentielle elektronische Endoskop eingegeben, und die weitere Verarbeitung erfolgt durch die vorliegende Erfindung.
Eine Arbeitsweise dieser Ausführungsform wird nun im folgenden beschrieben. Komponentenbilder R, G und B werden sequentiell durch die Bildeingabeeinheit 3301 eingegeben. Wenn in diesem Falle das Objekt oder die Endoskopsonde 3300 abrupt bewegt wird, weichen die Relativlagen der drei Primärbilder von den richtigen Positionen ab, so daß eine sogenannte Farbfehlausrichtung verursacht wird. Die Farbfehlausrichtungs-Korrektureinheit 3302 berechnet die Fehlausrichtungsbeträge der Bilder R und B bezüglich des Bildes B durch Anspassung zwischen örtlichen Teilbildern. Die Bilder R und B werden auf der Grundlage der berechneten Fehlfarbausrichtungsbeträge korrigiert. Ein Farbbild mit einer festgesetzten In-Fokus-Position wird durch das obige Verfahren eingegeben. Daten R/Y, G/Y und B/Y, die durch Normalisierung der Werte R, G und B durch die Helligkeit Y=R +G+B erhalten wurden, werden in der Aufzeichnungseinheit 3203 aufgezeichnet. Die primären Farbbilder werden eingegeben während die Brennpunktlage geändert wird, und die Eingangsbilddaten werden der Farbfehlausrichtungs- Korrektur unterworfen. Die korrigierten Daten werden durch die Brennpunktabstands-Erhöhungseinheit 3304 unter Verwendung der Bilder R, G und B synthetisiert, so daß ein Bild mit einem hohen Brennpunktabstand erhalten werden kann.
Das sich ergebende Bild wird als neues Helligkeitsbild Y′ definiert. Schließlich wird das Bild Y′ mit den Daten R/Y, G/Y und B/Y multipliziert, um ein Farbbild mit einem hohen Brennpunktabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein endoskopisches Bild mit einem hohen Brennpunktabstand synthetisiert werden kann. Da weiterhin eine Objektivlinse mit einer großen Aperturgröße verwendet werden kann, kann die Leistung der Beleuchtungsquelle verringert werden. Zusätzlich kann die Lichtspeicherzeit der Abbildungsvorrichtung verkürzt werden, und ein Einfluß auf Farbfehlausrichtung kann minimiert werden.
Siebenundzwanzigste Ausführungsform
Fig. 55 zeigt die Anordnung einer siebenundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einem elektronischen Endoskop unter Verwendung einer single-plate-Farbabbildungsvorrichtung. Gemäß Fig. 55 ist eine Abbildungsvorrichtung 3402 auf Halbleiterbasis mit einem Farbmosaikfilter 3401 abgedeckt, dessen lichtempfangende Oberfläche aus Filterelementen in R, G und B besteht, wobei diese Anordnung am distalen Ende einer Endoskopsonde 3400 angeordnet ist. Ein von einer Objektivlinse in einer In-Fokus-Lagesteuerung 3403 fokussiertes Bild wird abgebildet. In diesem Falle wird Beleuchtungslicht wie folgt erzeugt: Licht von einer Weißlichtquelle 3405 wird über einen Lichtleiter 3404 in die Endoskopsonde 3400 geführt und vom distalen Ende der Sonde abgestrahlt. Ein Ausgangssignal von der Abbildungsvorrichtung 3402 wird in Farbsignale R, G und B durch einen Farbtrennschaltkreis 3406 geteilt. In dieser Ausführungsform besteht das Farbmosaikfilter 3401 aus Filterelementen R, G und B. Das Filter 3401 kann jedoch auch komplementäre Farbfilterelemente, wie Cyan und Gelb enthalten. In jedem Fall trennt der Farbtrennschaltkreis 3406 die Farbsignale entsprechend den Farbkomponenten gebildet durch das Farbmosaikfilter 3401. Die Komponentensignale R, G und B werden in Signale Y, R-Y und B-Y durch einen Matrixschaltkreis 3407 konvertiert. Die Signale Y, R-Y und B-Y werden durch einen NTSC-Enkoder 3408 in ein NTSC-Signal konvertiert. Das NTSC-Signal wird durch einen A/D-Wandler 3409 in ein digitales Signal umgesetzt, und dieses Signal wird in einem von Rahmenbildspeichern 3411-1 bis 3411-m durch einen Selektor 3410 gespeichert.
Die n (n m) Bilder, die eingegeben werden, während die In-Fokus-Position geeignet geändert wird, werden in n-Speichern der Speicher 3411-1 bis 3411-m gespeichert. Die Vorrichtung weist weiterhin ein FFT-Arithmetikelement 3411, einen Komparator 3413, Multiplizierer 3414-1 bis 3414-P, einen Speicher 3415, einen Addierer 3416, einen Rahmenbildspeicher 3417, einen D/A-Wandler 3418, einen TV-Monitor 3419 und eine Steuerung 3420 auf. In dieser siebenundzwanzigsten Ausführungsform erfolgt die gleiche Prozeßverarbeitung wie in der dreiundzwanzigsten Ausführungsform.
In dieser Ausführungsform wird das Endoskopbild, erhalten durch die Farbabbildung 3402 unter Verwendung des Farbmosaikfilters 3401 in das NTSC-Signal konvertiert. Das konvertierte Farbbildsignal wird im Rahmen der vorliegenden Erfindung verarbeitet. Bei dieser Ausführungsform kann daher die Vorrichtungsgröße selbst verringert werden und der gleiche Effekt für das Endoskopbild wie in der sechsundzwanzigsten Ausführungsform der vorliegenden Erfindung erhalten werden.
Weitere Ausführungformen sind im Rahmen der vorliegenden Erfindung denkbar, so beispielsweise die Anwendung auf ein Reflektionsmikroskop wie in der siebten Ausführungsform gemäß Fig. 12 und die Anwendung auf eine elektronische Kamera wie in der zwölften Ausführungsform gemäß Fig. 22.

Claims (15)

1. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von Bildinformationen, mit
einer Fokussierungseinrichtung (6) zur Durchführung von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
Einrichtungen (2, 3) zur Eingabe einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
Einrichtungen (4) zum Addieren der durch die Eingabeeinrichtung (2, 3) eingegebenen Bilder und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung eines Bildes, das durch Addieren der Bilder mittels der Addiereinrichtung (4) erhalten wurde.
2. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe einer Bildinformation, mit
einer Fokussiereinrichtung (6) zum Durchführen von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
Einrichtungen (2, 3) zur Eingabe und Addierung einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind, und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung mittels Ortsfrequenzfilterung eines Bildes, das durch Addieren der durch die Eingabe- und Addiervorrichtungen (2, 6) addierten Bilder erhalten wurde.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Fokussiereinrichtung aufweist: eine Einrichtung (6) zur Änderung einer In-Fokus-Objektebenenposition und eine Einrichtung (18) zur Änderung eines Wellenlängenbereiches von Licht.
4. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Fokussiereinrichtung eine Einrichtung (105) zur periodischen Änderung einer In- Fokus-Objektebenenposition aufweist.
5. Vorrichtung nach Anspruch 1 oder 4, dadurch gekennzeichnet, daß die Eingabeeinrichtung eine Einrichtung (709) zur Durchführung einer Bandpaßfilterung aufweist und daß die Fokussiereinrichtung eine Einrichtung (707) zur Auswahl eines Bereiches, innerhalb dem die In-Fokus-Objektebenenposition geändert wird auf der Grundlage eines Ausganges von der Einrichtung (709) zur Durchführung des Bandpaßfilters aufweist.
6. Vorrichtung nach Anspruch 1, 4 oder 5, dadurch gekennzeichnet, daß die Fokussiereinrichtung eine Einrichtung (1309) zur Messung einer Distanz von einem Abbildungsbereich zu einem zu fotografierenden Objekt und eine Einrichtung (1309) zur Auswahl eines Bereiches aufweist, innerhalb dem die In-Fokus-Objektebenenposition auf der Grundlage der Distanzmeßdaten von der Distanzmeßeinrichtung (1310) geändert wird, wobei die Rückgewinnungs-Verarbeitungseinrichtung (7) eine Einrichtung (1504) zur Durchführung einer Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmeßdaten aufweist.
7. Vorrichtung nach Anspruch 1 oder 5, dadurch gekennzeichnet, daß die Fokussiereinrichtung aufweist:
eine Einrichtung (2306) zur Auswahl eines Bereiches, innerhalb dem die In-Fokus-Objektebenenposition geändert wird; und eine Einrichtung (2307) zur Festsetzung nicht-äquidistanter Objektebenenpositionen innerhalb des durch die Auswahleinrichtung (2306) ausgewählten Bereiches.
8. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Eingabeeinrichtungen derart ausgebildet sind, daß eine Mehrzahl von Abbildungsvorrichtungen (2-1 bis 2-3) in einer Anzahl von unterschiedlichen Bildebenen angeordnet ist, um gleichzeitig eine Mehrzahl von Bildern einzulesen, welche auf die Mehrzahl von unterschiedlichen Objektebenen fokussiert sind.
9. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Eingabe- und Addiereinrichtungen aufweisen:
eine Abbildungsvorrichtung (902) zum elektrischen Konvertieren eines Lichtbildes;
eine Farbtrenneinrichtung (904) zum Separieren eines Ausganges von der Abbildungsvorrichtung (902) in Einheiten von drei Pirmär- oder Komplementärfarben hiervon und
einen ersten logarithmischen Kompressionsschaltkreis (902, 903) zum logarithmischen Komprimieren eines Ausgangs von der Farbtrenneinrichtung in Einheiten der drei Primär- oder Komplementärfarben hiervon; und wobei die Rückgewinnungs-Verarbeitungseinrichtung (910) aufweist:
einen inversen logarithmischen Wandelschaltkreis (911) zur Durchführung einer inversen logarithmischen Wandlung eines Signals von dem ersten logarithmischen Kompressionsschaltkreis (902, 903);
einen Matrizen-Konversionsschaltkreis (911) zur Durchführung einer linearen Matrizen-Konversion eines Ausgangs von dem inversen logarithmischen Wandelschaltkreis (911);
einen zweiten logarithmischen Kompressionsschaltkreis (911) zur logarithmischen Komprimierung eines Ausgangssignals von dem Matrizen-Wandelschaltkreis (911) und
Farbsignal-Synthetisiereinrichtungen (916, 917) zur Synthetisierung eines Farbsignals unter Verwendung eines Ausgangssignals von dem zweiten logarithmischen Kompressionsschaltkreis (911) und des Ausgangssignals von dem ersten logarithmischen Kompressionsschaltkreis (902, 903).
10. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Addiereinrichtung eine Addition (1807, 1812, 1813) mit Gewichtung durchführt.
11. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Rückgewinnungs-Verarbeitungsvorrichtung eine Einrichtung (22) zum Vorspeichern eines Bild-Ortsfrequenzfilters unter Berücksichtigung einer Ortsfrequenzcharakteristik der Eingabeeinrichtung aufweist.
12. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Eingabeeinrichtung Einrichtungen (1001 bis 1005 und 1030 bis 1031) aufweist zur Eingabe einer Mehrzahl von Bildern in Einheiten von unterschiedlichen Wellenlängenbereichen;
daß die Addiereinrichtung Einrichtungen (1017, 1018) zur Addierung der Mehrzahl von durch die Eingabevorrichtung eingegebenen Bildern in Einheiten von unterschiedlichen Wellenlängenbereichen aufweist und
daß die Rückgewinnungs-Verarbeitungseinrichtung eine Einrichtung (1104) zur Extraktion eines Helligkeitssignals von einem Bild, synthetisiert durch die Addiereinrichtung, eine Einrichtung (1107) zur Durchführung einer Rückgewinnungs-Verarbeitung des extrahierten Helligkeitssignals und eine Einrichtung aufweist zur Synthetisierung des Helligkeitssignals, das durch die Verarbeitungseinrichtung (1107) einer Rückgewinnungs-Verarbeitung unterworfen wurde, sowie der Bilder, die in Einheiten von Wellenlängen addiert worden sind, um ein einzelnes Bild zu erhalten.
13. Vorrichtung nach Anspruch 1 oder 3, weiterhin gekennzeichnet durch:
eine weitere Fokussiereinrichtung zur Durchführung von In-Fokus-Vorgängen an der Mehrzahl von Objektebenen, wobei die weitere Fokussiereinrichtung mit einer Einrichtung ausgestattet ist zur Änderung der In-Fokus-Objektebenenposition und mit einer Einrichtung zur Änderung des Wellenlängenbereiches von Licht;
eine weitere Eingabevorrichtung (200) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen;
eine weitere Addiervorrichtung (225) zur Addierung der durch die Eingabevorrichtung eingegebenen Bilder;
eine weitere Rückgewinnungs-Verarbeitungseinheit (227) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung einer Summe, die durch die weitere Addiereinrichtung (225) erhalten wurde, und
eine Synthetisiereinrichtung (203) zur Multiplizierung eines rückgewonnenen Bildes von der weiteren Rückgewinnungs-Verarbeitungsvorrichtung mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addieren der Mehrzahl von Eingangsbildern erhalten wurde zur Synthetisierung der sich ergebenden Bildern in ein Einzelbild.
14. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von Bildinformationen, mit:
einer Fokussiereinrichtung (6) zur Durchführung von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Eingabeeinrichtung (52) zur Eingabe einer Mehrzahl von Bildern, welche durch die Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (57) zur Fourier-Transformation der Mehrzahl von eingegebenen Bildern;
einer Einrichtung (61) zur Gewichtung und Addierung der durch die Fourier-Transformationseinrichtung (57) Fourier-transformierten Bilder und
einer Einrichtung (57) zur Durchführung einer inversen Fourier-Transformation der Fourier-transformierten Bilder.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, daß die Fokussiereinrichtung aufweist
eine weitere Eingabe-Vorrichtung (3300) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen, wobei die weitere Eingabevorrichtung mit einer Einrichtung (6) zur Änderung der In-Fokus-Objektebenenpositionen und einer Einrichtung (18) zur Änderung des Wellenlängenbereiches von Licht ausgestattet ist;
eine weitere Fourier-Transformationseinrichtung (3326) zur Fourier-Transformation der Mehrzahl von durch die weitere Eingabevorrichtung (3300) eingegebenen Bilder;
eine weitere Gewichtungs- und Addiereinrichtung (3304) zur Gewichtung und Addierung der durch die weitere Fourier-Transformationseinrichtung Fourier- transformierten Bilder;
eine weitere inverse Fourier-Transformationseinrichtung (3331, 3326) zur Durchführung einer inversen Fourier-Transformation der Bilder, die durch die weitere Gewichtungs- und Addiereinrichtung (3304) gewichtet und addiert wurden, und
eine weitere Synthetisierungseinrichtung (3303) zur Multiplizierung der durch die weitere inverse Fourier- Transformationseinrichtung invers Fourier- transformierten Bilder mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addierung der eingegebenen Bilder erhalten wurde und zur Synthetisierung der sich ergebenden Bilder in ein Einzelbild.
DE3905619A 1988-02-23 1989-02-23 Bildeingabe-/Ausgabevorrichtung Expired - Fee Related DE3905619C2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP3993688 1988-02-23
JP24943188 1988-10-03

Publications (2)

Publication Number Publication Date
DE3905619A1 true DE3905619A1 (de) 1989-08-31
DE3905619C2 DE3905619C2 (de) 2000-04-13

Family

ID=26379338

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3905619A Expired - Fee Related DE3905619C2 (de) 1988-02-23 1989-02-23 Bildeingabe-/Ausgabevorrichtung

Country Status (2)

Country Link
US (1) US5148502A (de)
DE (1) DE3905619C2 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3931934A1 (de) * 1988-10-03 1990-04-05 Olympus Optical Co Bild-ein-/ausgabevorrichtung
EP0484076A2 (de) * 1990-10-29 1992-05-06 Kabushiki Kaisha Toshiba Videokamera mit Zoom- und Bildverarbeitungsfunktion
EP0571895A2 (de) * 1992-05-23 1993-12-01 Yozan Inc. Bildverarbeitungssystem
EP0623209A1 (de) * 1992-01-14 1994-11-09 ZACKS, Shelemyahu Optisches multifokales gerät
US7336430B2 (en) 2004-09-03 2008-02-26 Micron Technology, Inc. Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4304276A1 (en) * 1992-02-17 1993-08-19 Galram Technology Ind Ltd Forming high resolution image of planar or three=dimensional object - combining sharp image data provided by detector matrix for successive scanning of object via optical imaging system.
JP3327948B2 (ja) * 1992-06-09 2002-09-24 オリンパス光学工業株式会社 光学像再構成装置
US5850479A (en) * 1992-11-13 1998-12-15 The Johns Hopkins University Optical feature extraction apparatus and encoding method for detection of DNA sequences
IL110771A (en) * 1994-08-25 1998-02-08 Holon Holon Hanni A priori and adaptive filtering for detection of signals corrupted by noise
US5581631A (en) * 1994-09-20 1996-12-03 Neopath, Inc. Cytological system image collection integrity checking apparatus
JPH08122662A (ja) * 1994-10-20 1996-05-17 Fuji Photo Optical Co Ltd 内視鏡照明系
US5577181A (en) * 1995-06-07 1996-11-19 E-Systems, Inc. Method for autonomous determination of tie points in imagery
SE512350C2 (sv) * 1996-01-09 2000-03-06 Kjell Olsson Ökat skärpedjup i fotografisk bild
JP3206420B2 (ja) * 1996-02-22 2001-09-10 株式会社デンソー カメラ装置
JP4136011B2 (ja) * 1996-04-30 2008-08-20 オリンパス株式会社 焦点深度伸長装置
AU6499098A (en) * 1997-02-21 1998-09-09 Rolf Eckmiller Adaptive active camera system
JP4069545B2 (ja) * 1999-05-19 2008-04-02 株式会社日立製作所 電子顕微方法及びそれを用いた電子顕微鏡並び生体試料検査方法及び生体検査装置
DE19927129C1 (de) * 1999-06-15 2001-01-04 Wolf Gmbh Richard Fokussier- und Brennweiteneinstellvorrichtung für eine Videokamera
US7233351B1 (en) * 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
US7907765B2 (en) * 2001-03-28 2011-03-15 University Of Washington Focal plane tracking for optical microtomography
US20060023219A1 (en) * 2001-03-28 2006-02-02 Meyer Michael G Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification
US6944322B2 (en) 2001-03-28 2005-09-13 Visiongate, Inc. Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification
US7231095B2 (en) * 2001-06-25 2007-06-12 Sony Corporation Spread spectrum signal demodulation method and apparatus
US6741730B2 (en) 2001-08-10 2004-05-25 Visiongate, Inc. Method and apparatus for three-dimensional imaging in the fourier domain
US6980227B2 (en) * 2001-10-01 2005-12-27 Pentax Corporation Electronic endoscope with light-amount adjustment apparatus
EP1468314A4 (de) * 2001-12-18 2006-12-13 Univ Rochester Abbildung unter verwendung einer asphärischen mehrfokallinse zur erhaltung einer erweiterten schärfentiefe
US7811825B2 (en) * 2002-04-19 2010-10-12 University Of Washington System and method for processing specimens and images for optical tomography
US20050085708A1 (en) * 2002-04-19 2005-04-21 University Of Washington System and method for preparation of cells for 3D image acquisition
US7738945B2 (en) * 2002-04-19 2010-06-15 University Of Washington Method and apparatus for pseudo-projection formation for optical tomography
US7260253B2 (en) * 2002-04-19 2007-08-21 Visiongate, Inc. Method for correction of relative object-detector motion between successive views
US6697508B2 (en) 2002-05-10 2004-02-24 Visiongate, Inc. Tomographic reconstruction of small objects using a priori knowledge
US6770893B2 (en) * 2002-05-13 2004-08-03 Visiongate, Inc. Method and apparatus for emission computed tomography using temporal signatures
JP2004174771A (ja) * 2002-11-25 2004-06-24 Kyocera Corp 画像形成装置
JP3867143B2 (ja) * 2003-06-25 2007-01-10 独立行政法人産業技術総合研究所 三次元顕微鏡システムおよび画像表示方法
US7756357B2 (en) * 2003-07-01 2010-07-13 Olympus Corporation Microscope system for obtaining high and low magnification images
US7687167B2 (en) * 2003-07-18 2010-03-30 Panasonic Corporation Power supply unit
JP4705047B2 (ja) * 2004-02-09 2011-06-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ドップラシフト及びレーザ自己混合に基づく光入力装置
TW200604494A (en) * 2004-04-22 2006-02-01 Univ Electro Communications Small displacement measuring method and instrument
JP2005354610A (ja) * 2004-06-14 2005-12-22 Canon Inc 画像処理装置、画像処理方法および画像処理プログラム
US6991738B1 (en) 2004-10-13 2006-01-31 University Of Washington Flow-through drum centrifuge
US20060096358A1 (en) * 2004-10-28 2006-05-11 University Of Washington Optical projection tomography microscope
US7494809B2 (en) 2004-11-09 2009-02-24 Visiongate, Inc. Automated cell sample enrichment preparation method
KR100725895B1 (ko) * 2005-09-15 2007-06-08 주식회사 아이캔텍 광섬유를 이용하는 광학 데이터 입력 장치
CN101322418B (zh) * 2005-12-02 2010-09-01 皇家飞利浦电子股份有限公司 图像信号的深度相关的滤波
US7835561B2 (en) 2007-05-18 2010-11-16 Visiongate, Inc. Method for image processing and reconstruction of images for optical tomography
US7787112B2 (en) * 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
JP5090188B2 (ja) * 2008-01-10 2012-12-05 オリンパス株式会社 顕微鏡装置
US8090183B2 (en) * 2009-03-12 2012-01-03 Visiongate, Inc. Pattern noise correction for pseudo projections
US8254023B2 (en) * 2009-02-23 2012-08-28 Visiongate, Inc. Optical tomography system with high-speed scanner
US8155420B2 (en) * 2009-05-21 2012-04-10 Visiongate, Inc System and method for detecting poor quality in 3D reconstructions
DE102009041183A1 (de) * 2009-09-11 2011-03-24 Carl Zeiss Imaging Solutions Gmbh Verfahren zum automatischen Fokussieren eines Mikroskops auf ein vorbestimmtes Objekt sowie Mikroskop zum automatischen Fokussieren
US8576326B2 (en) 2009-12-07 2013-11-05 Panasonic Corporation Imaging apparatus and method of controlling the image depth of field
WO2011070757A1 (ja) 2009-12-07 2011-06-16 パナソニック株式会社 撮像装置および撮像方法
JP2011229625A (ja) * 2010-04-26 2011-11-17 Fujifilm Corp 内視鏡装置
JP2011229603A (ja) * 2010-04-26 2011-11-17 Fujifilm Corp 内視鏡装置
JP2012055498A (ja) * 2010-09-09 2012-03-22 Olympus Corp 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法
US9076204B2 (en) 2010-11-08 2015-07-07 Panasonic Intellectual Property Management Co., Ltd. Image capturing device, image capturing method, program, and integrated circuit
FR2967791B1 (fr) * 2010-11-22 2012-11-16 Ecole Polytech Procede et systeme de calibration d'un modulateur optique spatial dans un microscope optique
JP5832433B2 (ja) 2011-01-31 2015-12-16 パナソニック株式会社 画像復元装置、撮像装置及び画像復元方法
US9083880B2 (en) 2011-03-02 2015-07-14 Panasonic Corporation Imaging device, semiconductor integrated circuit, and imaging method
WO2012124321A1 (ja) 2011-03-14 2012-09-20 パナソニック株式会社 撮像装置、撮像方法、集積回路、コンピュータプログラム
EP2698658B1 (de) 2011-04-15 2018-09-12 Panasonic Corporation Bildaufnahmevorrichtung, in einen halbleiter integrierter schaltkreis und bildaufnahmeverfahren
CN102749332B (zh) 2011-04-18 2015-08-26 通用电气公司 光学系统和光学检测装置以及检测方法
CN103038689B (zh) 2011-05-16 2016-01-20 松下电器产业株式会社 透镜单元以及摄像装置
JP5934929B2 (ja) * 2011-05-27 2016-06-15 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
JP6136085B2 (ja) * 2011-10-05 2017-05-31 ソニー株式会社 画像取得装置、画像取得方法、およびコンピュータプログラム
JP5914834B2 (ja) 2011-10-12 2016-05-11 パナソニックIpマネジメント株式会社 撮像装置、半導体集積回路および撮像方法
JP5942390B2 (ja) * 2011-11-15 2016-06-29 ソニー株式会社 画像取得装置、画像取得方法及び画像取得プログラム
WO2013088861A1 (ja) * 2011-12-16 2013-06-20 オリンパスメディカルシステムズ株式会社 深度拡大装置
JP5934940B2 (ja) 2012-05-17 2016-06-15 パナソニックIpマネジメント株式会社 撮像装置、半導体集積回路および撮像方法
JP6478496B2 (ja) * 2014-07-03 2019-03-06 キヤノン株式会社 撮像装置およびその制御方法
WO2016067425A1 (ja) 2014-10-30 2016-05-06 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理方法
JP6563486B2 (ja) 2015-04-16 2019-08-21 オリンパス株式会社 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム
US11069054B2 (en) 2015-12-30 2021-07-20 Visiongate, Inc. System and method for automated detection and monitoring of dysplasia and administration of immunotherapy and chemotherapy
US11448497B2 (en) * 2019-12-18 2022-09-20 The Boeing Company Systems and methods of determining image scaling

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2020618A1 (de) * 1970-04-28 1971-11-11 Bosch Gmbh Robert Fernsehmikroskop grosser Schaerfentiefe

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4161756A (en) * 1976-03-19 1979-07-17 Jos. Schneider & Co. Optische Werke Control system for varifocal objective
JPS6053943B2 (ja) * 1978-11-30 1985-11-28 キヤノン株式会社 カメラの合焦検出装置
JPS55124117A (en) * 1979-03-19 1980-09-25 Toshiba Corp Pattern inspecting apparatus
US4490849A (en) * 1982-03-04 1984-12-25 Grumman Aerospace Corporation Correlation plane recognition processor
GB8317407D0 (en) * 1983-06-27 1983-07-27 Rca Corp Image transform techniques
US4804831A (en) * 1985-10-30 1989-02-14 Canon Kabushiki Kaisha Focus detecting apparatus independent of object image contrast
US4903204A (en) * 1987-12-01 1990-02-20 Duke University Matrix inversion tomosynthesis improvements in longitudinal X-ray slice imaging
US4892408A (en) * 1988-03-03 1990-01-09 Grumman Aerospace Corporation Reference input patterns for evaluation and alignment of an optical matched filter correlator

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2020618A1 (de) * 1970-04-28 1971-11-11 Bosch Gmbh Robert Fernsehmikroskop grosser Schaerfentiefe

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Pieper R.J. and KORPEL A.: Image processing for extended depth of field in: Applied Optics, Vol. 22, No. 10, 15 may 1983, P. 1449-1453 *
SUGIMOTO S.A. and ICHIOKA Y.: Digital composition of images with increased depth of focus considering depth information in: Applied Optics, Vol. 24, No. 14, 15 July 1985, P. 2076-2080 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3931934A1 (de) * 1988-10-03 1990-04-05 Olympus Optical Co Bild-ein-/ausgabevorrichtung
US5124842A (en) * 1988-10-03 1992-06-23 Olympus Optical Co., Ltd. Image input/output apparatus
EP0484076A2 (de) * 1990-10-29 1992-05-06 Kabushiki Kaisha Toshiba Videokamera mit Zoom- und Bildverarbeitungsfunktion
EP0484076A3 (en) * 1990-10-29 1993-06-30 Kabushiki Kaisha Toshiba Video camera having focusing and image-processing function
US5307170A (en) * 1990-10-29 1994-04-26 Kabushiki Kaisha Toshiba Video camera having a vibrating image-processing operation
EP0623209A1 (de) * 1992-01-14 1994-11-09 ZACKS, Shelemyahu Optisches multifokales gerät
EP0623209A4 (en) * 1992-01-14 1994-11-17 Shelemyahu Zacks Multifocal optical apparatus.
EP0571895A2 (de) * 1992-05-23 1993-12-01 Yozan Inc. Bildverarbeitungssystem
EP0571895A3 (de) * 1992-05-23 1994-03-30 Yozan Inc
US5432621A (en) * 1992-05-23 1995-07-11 Yozan Inc. Image processing system for enlarging an reducing and image
US7336430B2 (en) 2004-09-03 2008-02-26 Micron Technology, Inc. Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture
US8086058B2 (en) 2004-09-03 2011-12-27 Aptina Imaging Corporation Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture

Also Published As

Publication number Publication date
DE3905619C2 (de) 2000-04-13
US5148502A (en) 1992-09-15

Similar Documents

Publication Publication Date Title
DE3905619C2 (de) Bildeingabe-/Ausgabevorrichtung
DE3931934C2 (de) Bild-Ein/Ausgabevorrichtung
US4141032A (en) Method of and apparatus for the expansion of the range of the depth of focus beyond the limit given by conventional images
DE3738667C2 (de)
JP3191928B2 (ja) 画像入出力装置
DE60133160T2 (de) Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern
DE60320369T2 (de) Abbildungsvorrichtung für mikroscopie und bilderzeugungsverfahren
DE102012106584B4 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
DE112017006107T5 (de) Digitale Korrektur von optischen Systemaberrationen
DE4006592A1 (de) Automatische fokussiervorrichtung
DE102010031535A1 (de) Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
DE112011102647T5 (de) Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung
EP0353495B1 (de) Anordnung zur Erzeugung eines optischen Bildkontrastes
DE4000343A1 (de) Automatische fokussiervorrichtung
DE112016001559T5 (de) Abbildungssystem, das strukturiertes Licht zur Tiefenrückgewinnung nutzt
DE69628654T2 (de) Messsystem zur bestimmung der globalen modulationsübertragungsfunktion
DE4416314A1 (de) Verfahren und Vorrichtung zur Aufnahme einer Bildszene
DE3406578A1 (de) Automatische brennpunktermittlungsvorrichtung
EP1929353B1 (de) Verfahren zur erzeugung von darstellungsbildern aus erfassten aufnahmebildern und mittel zur durchführung des verfahrens
DE1572678C3 (de) Verfahren zum Erzeugen von Ultraschall-Hologrammen und Apparat zu dessen Durchführung
DE102008015979A1 (de) Bewegt-Bild-Verarbeitungssystem und Bewegt-Bild-Verarbeitungsverfahren
DD241485A1 (de) Operationsmikroskop mit im abbildungsstrahlengang vorgesehenem strahlenteiler
DE2238700A1 (de) Optisches filter
JP2883648B2 (ja) 画像入出力装置
DE102011121334B4 (de) Messanordnung und korrespondierendes Bildaufbereitungsverfahren

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee