DE60008486T2 - Verfahren zur Himmelserkennung in Bildern - Google Patents

Verfahren zur Himmelserkennung in Bildern Download PDF

Info

Publication number
DE60008486T2
DE60008486T2 DE60008486T DE60008486T DE60008486T2 DE 60008486 T2 DE60008486 T2 DE 60008486T2 DE 60008486 T DE60008486 T DE 60008486T DE 60008486 T DE60008486 T DE 60008486T DE 60008486 T2 DE60008486 T2 DE 60008486T2
Authority
DE
Germany
Prior art keywords
sky
probability
image
color
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60008486T
Other languages
English (en)
Other versions
DE60008486D1 (de
Inventor
Jiebo Rochester Luo
Stephen Rochester Etz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of DE60008486D1 publication Critical patent/DE60008486D1/de
Application granted granted Critical
Publication of DE60008486T2 publication Critical patent/DE60008486T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Description

  • Die vorliegende Erfindung betrifft allgemein den Bereich der Verarbeitung und der Interpretation von Digitalbildern und insbesondere ein System zum Erkennen von Himmelsbereichen in fotografischen und ähnlichen Bildern und vor allem ein System zur Himmelserkennung, das auf Farbtonklassifizierung, Strukturanalyse und physikalisch motivierter Spurenanalyse beruht.
  • Der Himmel zählt zu dem wichtigsten Motiven, die in fotografischen Bildern häufig zu sehen sind. Die Erkennung des Himmels ermöglicht es oft, bestimmte Aufgaben in Bezug auf Bildinterpretation, Bildverbesserung und Bildbearbeitung durchzuführen. Der Himmel ist ein wichtiger Hinweis auf eine Außenaufnahme zur Kategorisierung der Szene (z.B. Außenaufnahmen gegenüber Innenaufnahmen, Picknick-Szenen gegenüber Besprechungsszenen, Stadt gegenüber Landschaft usw.). Siehe beispielsweise M. Szummer und R.W. Picard, "Indoor-Outdoor Image Classification," in Proc. IEEE Intl. Workshop on Content-based Access of Image and Video Database, 1998 sowie A. Vailaya, A. Jain und H.J. Zhang, "On Image Classification: City vs. Landscape," in Proc. IEEE Intl. Workshop on Content-based Access of Image and Video Database, 1998. Mit Informationen über den Himmel ist es möglich, Abfragen zu formulieren, wie "Außenaufnahmen, die erhebliche "Himmelsanteile" oder "Sonnenuntergänge" enthalten usw. (siehe beispielsweise J.R. Smith und C.-S. Li, "Decoding Image Semantics Using Composite Region Templates," in Proc. IEEE Intl. Workshop on Content-based Access of Image and Video Database, 1998). Die Himmelserkennung kann somit zu einem wesentlich effektiveren, inhaltsgestützten Bildabruf führen.
  • Zur Erkennung der Formatlage oder Ausrichtung eines Bildes können der Himmel und seine Ausrichtung ein Hinweis auf die Ausrichtung von Außenaufnahmen sein (im Unterschied zu der gängigen Meinung befindet sich ein Himmelsbereich nicht immer oben im Bild). Zur Erkennung der Hauptmotive in dem Bild können Himmelsbereiche im Allgemeinen ausgeschlossen werden, weil sie mit hoher Wahrscheinlichkeit Bestandteil des Hintergrunds sind.
  • Das herausragende Merkmal des Himmels ist dessen Farbe, die bei klarem Himmel normalerweise blau ist. Ein derartiges Merkmal wird bislang zur Himmelserkennung in Bildern benutzt. Beispielsweise erwähnt US-A-5,889,578 mit dem Titel "Method and Apparatus for Using Film Scanning Information to determine the Type and Category of an Image" von F.S. Jamzadeh die Verwendung des Farbtons ("hellblau"), um den Himmel zu erkennen, enthält jedoch keine weitere Beschreibung.
  • US-A-5,642,443, "Whole Order Orientation Method and Apparatus" von Robert M. Goodwin, verwendet Farbe und (das Fehlen von) Struktur, um Pixel zu bezeichnen, die in dem Bild dem Himmel zuzuordnen sind. Goodwin bedient sich insbesondere der Partitionierung nach Farbsättigungsdomänen in Sektoren. Es werden Pixel mit Abtastzonen entlang der beiden Längsseiten eines nicht ausgerichteten Bildes überprüft. Falls eine asymmetrische Verteilung von Himmelsfarben gefunden wird, wird die Ausrichtung des Bildes ausgewertet. Die Ausrichtung einer Reihenfolge von Fotos wird nach den Auswertungen der einzelnen Bilder vorgenommen. Damit das Verfahren nach Goodwin für die gesamte Reihenfolge erfolgreich ist, wird eine ausreichend große Gruppe von Merkmalen (so dass diese mit einer Erfolgsquote von mindestens 80% in nahezu jedem Bild gefunden werden können) oder eine kleinere Gruppe von Merkmalen (mit einer Erfolgsquote von mehr als 90%, wobei die Merkmale in ca. 40% aller Bilder gefunden werden) benötigt. Nach Goodwin ist daher ein besonders robustes Verfahren zur Himmelserkennung nicht erforderlich.
  • In einer Veröffentlichung von Saber et al. (E. Saber, A.M. Tekalp, R. Eschbach, and K. Knox, "Automatic Image Annotation Using Adaptive Color Classification", CVGIP: Graphical Models and Image Processing, Band 58, Seite 115–126, 1996, wurde eine Farbklassifizierung zur Himmelserkennung herangezogen. Dabei wird davon ausgegangen, dass die Himmelspixel einer zweidimensionalen Gaußschen Wahrscheinlichkeits-Dichtefunktion (PDF) folgen. Es wird daher eine Metrik ähnlich der Mahalonobis-Distanz zusammen mit einem adaptiv bestimmten Schwellenwert für ein gegebenes Bild verwendet, um Himmelspixel zu bestimmen. Schließlich werden Informationen über das Vorhandensein von Himmel, Wiese und Haut, die aus dem Bild ausschließlich anhand der zuvor erwähnten Farbklassifizierung extrahiert werden, benutzt, um ein Bild zu kategorisieren und zu kommentieren (z.B. "Außenaufnahme", "Menschen").
  • Die Erkennung von zueinander passenden natürlichen Bildern anhand globaler Ähnlichkeiten findet hier ihre Grenzen. J.R. Smith (siehe oben) entwickelte daher ein Verfahren zur Decodierung der Bildsemantik anhand zusammengesetzter Bereichsvorlagen (Composite Regions Templates/CRT) im Zusammenhang mit dem inhaltsgestützten Bildabruf. Nach dem Verfahren von J.R. Smith werden nach der Partitionierung des Bildes mithilfe der Farbbereichssegmentierung vertikale und horizontale Abtastungen in einem typischen 5×5-Gitter durchgeführt, um die CRT zu erzeugen, bei der es sich im Wesentlichen um eine 5×5-Matrix handelt, die die räumliche Beziehung unter den Regionen zeigt. Wenn die Bildausrichtung bekannt ist, stellt ein sich oben am Bild erstreckendes blaues Feld wahrscheinlich einen klaren Himmel dar, und die Regionen, die dem Himmel und den Wolken entsprechen, sind wahrscheinlich über den Regionen angeordnet, die der Wiese und den Bäumen entsprechen. Obwohl diese Annahmen nicht immer gültig sind, hat J.R. Smith, siehe oben, gezeigt, dass mithilfe von CRTs, Farbhistogrammen und Strukturen durchgeführte Abfragen für derartige Kategorien, wie "Sonnenuntergang" und "Natur" viel effektiver sind.
  • Der Hauptnachteil konventioneller Techniken besteht darin, dass diese nicht zwischen ähnlich farbigen oder strukturierten Motivgegenständen unterscheiden können, wie einer blauen Wand, einer Wasserfläche, einem blauen Hemd usw. Zudem müssen einige dieser Techniken zudem auf die Kenntnis der Bildausrichtung zurückgreifen. Das Unvermögen, das Vorhandensein des Himmels zu erkennen und insbesondere eine Falscherkennung können zu Fehlern in den nachgeordneten Anwendungen führen.
  • Die vorliegende Erfindung stellt ein zuverlässiges System zum Erkennen von Himmelsbereichen bereit, das auf Farbtonklassifizierung, Strukturanalyse und physikalisch motivierter Spurenanalyse (Traces) beruht. Die vorliegende Erfindung nutzt Farbtoninformationen, um helle, himmelfarbene Pixel auszuwählen und bedient sich der Analyse verbundener Komponenten, um potenzielle Himmelsbereiche zu finden. Die Erfindung nutzt zudem Gradienten, um die Bestätigung zu erhalten, dass Himmelsbereiche einen geringen Strukturgehalt aufweisen, sowie offene Räume von Segmenten, die als glatte Flächen definiert sind, um benachbarte Regionen mit ähnlichen Himmelsfarbanmutungen, jedoch verschiedenen Himmelsfarben, zu zerlegen. Die Erfindung nutzt zudem Gradienten, um die Zenith-Horizont-Richtung zu ermitteln, und eine physikalisch motivierte Spurenkennzeichnung (Trace-Kennzeichnung), um zu ermitteln, ob eine zu prüfende Region in ein bestimmtes Himmelsmodell passt.
  • Insbesondere kann die Erfindung als Verfahren, als Bilderkennungssystem, Computerprogramm usw. ausgeprägt sein, um Himmelsbereiche in einem Bild zu erkennen, und umfasst das Klassifizieren potenzieller Himmelspixel in dem Bild nach Farbe, das Extrahieren verbundener Komponenten in den potenziellen Himmelspixeln, das Eliminieren einiger der verbundenen Komponenten, deren Struktur über einem vorbestimmten Strukturschwellenwert liegt, das Berechnen von Desaturierungsgradienten der verbundenen Komponenten und das Vergleichen der Desaturierungsgradienten der verbundenen Komponenten mit einem vorbestimmten Desaturierungsgradienten für den Himmel, um die wahren Himmelsbereiche in dem Bild zu identifizieren.
  • Die Desaturierungsgradienten weisen Desaturierungsgradienten für rote, grüne und blaue Spurenkomponenten (Trace-Komponenten) des Bildes auf, und der vorbestimmte Desaturierungsgradient für Himmel weist vom Horizont zum Zenith eine Abnahme der roten und grünen Lichtspurenkomponenten und eine im Wesentlichen konstante Spurenkomponente für blaues Licht auf.
  • Die Farbklassifizierung umfasst die Bildung eines Wahrscheinlichkeitsrasters von Pixeln in dem Bild mithilfe eines Pixelklassifizierers, der einen Wahrscheinlichkeitswert für jedes Pixel erzeugt, der die Wahrscheinlichkeit bezeichnet, mit der ein Pixel eine Himmelsfarbe ist (worin das Wahrscheinlichkeitsraster durch Einstellen der Helligkeit jedes Pixels im Verhältnis zum Wahrscheinlichkeitswert erzeugt wird), Berechnen eines für den Wahrscheinlichkeitswert des Wahrscheinlichkeitsrasters entsprechenden adaptiven Schwellenwerts für die Himmelsfarbe und Klassifizieren der Pixel, deren Wahrscheinlichkeitswerte den Schwellenwert der potenziellen Himmelspixel übersteigen. Der adaptive Schwellenwert wird durch Erzeugen eines Histogramms der das Wahrscheinlichkeitsraster bildenden Wahrscheinlichkeitswerte, Glätten des Histogramms, um Rauschstörungen zu eliminieren, Identifizieren einer ersten Talsohle im geglätteten Histogramm und Verwenden des Wahrscheinlichkeitswerts der ersten Talsohle als adaptiven Schwellenwert berechnet. Das Wahrscheinlichkeitsraster und das Wahrscheinlichkeitshistogramm werden für jedes Bild separat berechnet.
  • Die vorliegende Erfindung ermittelt zudem eine horizontale Richtung einer Szene innerhalb des Bildes durch Identifizieren eines ersten Gradienten, der sich parallel zu einer Breitenrichtung des Bildes erstreckt, Identifizieren eines zweiten Gradienten, der sich rechtwinklig zur Breitenrichtung des Bildes erstreckt und Vergleichen des ersten Gradienten mit dem zweiten Gradienten. Die horizontale Richtung der Szene wird durch den kleineren Gradienten des ersten und zweiten Gradienten identifiziert.
  • Ein Vorteil der vorliegenden Erfindung besteht in der Verwendung eines physikalischen Modells des Himmels, das sich auf die Lichtstreuung durch kleine Partikel in der Luft stützt. Durch Verwendung eines physikalischen Modells (im Unterschied zu einem Farb- oder Strukturmodel) wird die Erfindung nicht durch ähnlich farbige Motivgegenstände getäuscht, wie Wasserflächen, Wände, Spielzeuge und Kleidung. Das erfindungsgemäße Verfahren zur Bereichsextraktion ermittelt automatisch einen geeigneten Schwellenwert für das Himmelsfarben-Wahrscheinlichkeitsraster. Durch Nutzung des physikalischen Modells in Kombination mit Farb- und Strukturfiltern erzeugt die Erfindung Ergebnisse, die herkömmlichen Systemen überlegen sind.
  • Die vorliegende Erfindung arbeitet sehr gut mit 8-Bit-Bildern aus derartigen Quellen, wie Film- und Digitalkameras, und zwar nach Vorabgleich und Einstellung des richtigen Dynamikumfangs. Die von der Erfindung erkannten Himmelsbereiche weisen eine hervorragende räumliche Ausrichtung mit den wahrgenommenen Himmelsgrenzen auf.
  • Die Erfindung wird im folgenden anhand in der Zeichnung dargestellter Ausführungsbeispiele näher erläutert.
  • Es zeigen:
  • 1 eine schematische Darstellung der Architektur eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 2 eine schematische Darstellung der Architektur eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 3A-3B schematische Darstellungen der Farben von Tageslicht bzw. Zwielicht an einem klaren Himmel;
  • 4A-4D eine dreidimensionale grafische Darstellung des Clusters eines blauen Himmels im Farbraum und jeder Farbebene, die den Cluster erzeugt;
  • 5 eine grafische Darstellung der Receiver Operating Characteristic (ROC) der Klassifizierung der Himmelsfarben;
  • 6 eine schematische Darstellung der Architektur der Bereichsextraktion der vorliegenden Erfindung;
  • 7 eine grafische Darstellung der erfindungsgemäßen Schwellenwertbestimmung für die Himmelsfarbenwahrscheinlichkeiten;
  • 8A-8B grafische Darstellungen typischer Verteilungen der Gradientengrößen in einem Himmelsbereich;
  • 9 eine schematische Darstellung der Architektur der erfindungsgemäßen Spurenanalyse (Trace-Analyse);
  • 10A eine Kurve zur Darstellung einer typischen Spur eines klaren Himmels;
  • 10B eine Kurve zur Darstellung einer typischen Spur einer blauen Wand;
  • 11A eine Kurve zur Darstellung einer typischen Spur von Himmel mit Wolken;
  • 11B eine Kurve zur Darstellung einer typischen Spur von Wasser;
  • 12A-12H unterschiedliche Stufen erfindungsgemäß verarbeiteter Bilder und
  • 13A-12H unterschiedliche Stufen erfindungsgemäß verarbeiteter Bilder.
  • Wie zuvor gezeigt, muss ein zuverlässiges Himmelserkennungsverfahren über Farbe und Struktur hinausgehen. Es ist ein physikalisches Modell des Himmels wünschenswert, um zwischen wahren Himmelsbereichen und anderen, ähnlich farbigen und strukturierten Motivgegenständen unterscheiden zu können. Die vorliegende Erfindung beschreibt nachfolgend ein zuverlässiges Verfahren zur Himmelserkennung, das zwischen wahren Himmelsbereichen und anderen, ähnlich farbigen und strukturierten Motivgegenständen unterscheidet.
  • In dieser Anwendung umfasst die Himmelserkennung alle Pixel in einem Bild, die dem nicht verdeckten Teil des Himmels entsprechen. Die Himmelserkennung weist zudem jeder einzelnen segmentierten Region eine Wahrscheinlichkeit in Bezug auf die Tatsache zu, dass es sich um Himmel handelt Es ist der nachfolgenden herkömmlichen Verarbeitung des Bildinterpretationssystems überlassen, die Wahrscheinlichkeitsdarstellung zu nutzen oder diese in eine "scharfe" (crisp) Entscheidung umzuwandeln. Zu wichtigen Merkmalen der Erfindung zählen ein zuverlässiges Verfahren zur Himmelserkennung, das auf der Farbtonklassifizierung, der Strukturanalyse (Trace-Analyse) und der physikalisch motivierten Himmelsspurenanalyse beruht, die Nutzung der Farbtoninformationen zur Auswahl heller, himmelfarbener Pixel, die Nutzung einer Analyse verbundener Komponenten, um potenzielle Himmelsbereiche zu finden, die Nutzung eines Gradienten zur Bestätigung, dass die Himmelsbereiche einen geringen Strukturanteil aufweisen (d.h. offenen Raum), die Nutzung einer Segmentierung in offene Räume zur Trennung benachbarter Bereiche mit ähnlichen Himmelsfarbenwahrscheinlichkeiten und unterschiedlichen Himmelsfarben, die Nutzung des Gradienten zur Bestimmung der Zenith-Horizont-Richtung und die Nutzung einer physikalisch motivierten Himmelsspurensignatur, um zu ermitteln, ob ein betreffender Bereich in ein Himmelsmodell passt.
  • Der Gegenstand der vorliegenden Erfindung betrifft die digitale Bildinterpretationstechnik, worunter die Technik zu verstehen ist, die ein Digitalbild digital verarbeitet, um menschlich verständlichen Objekten, Attributen oder Bedingungen eine sinnvolle Bedeutung zuzuweisen und dann die in der weiteren Verarbeitung des Digitalbildes erzielten Ergebnisse zu nutzen.
  • Ein Blockdiagram des Systems zur Himmelserkennung (z.B. der digitalen Bildinterpretationstechnologie) wird in 1 gezeigt. Ein Digitalbild 10 wird digital verarbeitet 20. Die aus der Verarbeitung 20 erzielten Ergebnisse 30 werden zusammen mit dem ursprünglichen Digitalbild 10 in einem Bildbearbeitungsschritt 40 zur Erstellung eines modifizierten Bildes 50 verwendet.
  • 2 zeigt ein detaillierteres Blockdiagramm des erfindungsgemäßen Verfahrens zur Himmelserkennung. Das erfindungsgemäße Verfahren umfasst drei Hauptstufen. In der ersten Stufe (z.B. Position 201) wird eine Farbklassifizierung von einem mehrschichtigen, neuronalen Netz durchgeführt, das in Bootstrapping-Weise unter Verwendung positiver und negativer Beispiele nach dem Backpropagation-Lernverfahren (Fehlerrückführungsverfahren) trainiert ist, wie detailliert nachfolgend besprochen wird. Die Ausgabe der Farbklassifizierung ist ein Raster fortlaufender "Wahrscheinlichkeitswerte", die gegenüber einem binären Raster zu bevorzugen sind.
  • In der nächsten Hauptstufe ermittelt ein Bereichsextraktionsprozess (z.B. Position 202) automatisch einen entsprechenden Schwellenwert für das Himmelsfarben-Wahrscheinlichkeitsraster, indem der erste Talsohlenpunkt ermittelt wird, indem das Verfahren in dem Wahrscheinlichkeitsraster von den niedrigeren Wahrscheinlichkeiten zu den höheren Wahrscheinlichkeiten verfährt und eine Analyse der verbundenen Komponenten durchführt. Die Erkennung offener Räumen (z.B. Position 204) wird ebenfalls einbezogen, um (1) stark strukturierte Bereiche zu eliminieren und (2) den Himmel von anderen blaufarbenen Bereichen zu trennen, beispielsweise Wasserflächen. Indem man die Schnittmenge zwischen Pixeln mit Wahrscheinlichkeitswerten, die über dem Schwellenwert liegen, und verbundenen Komponenten im Raster der offenen Räume bildet, werden Seed-Bereiche erzeugt. Für Pixel, deren Wahrscheinlichkeitswerte unter dem Schwellenwert liegen, bestimmt die Kontinuität der Wahrscheinlichkeitswerte sowie die Kontinuität der Farbwerte das Bereichswachstum aus den Seed-Bereichen.
  • In der dritten Hauptstufe bewertet der Bewertungsprozess für Himmelskennzeichen (z.B. Position 205–209) die Ausrichtung des Himmels durch Prüfung vertikaler/horizontaler Gradienten für jeden extrahierten Bereich, Extrahieren eindimensionaler Spuren innerhalb des Bereichs in Horizont-Zenith-Richtung, Ermitteln (anhand nachfolgend besprochener Regeln), ob eine Spur einer Spur aus dem Himmel ähnlich ist und Berechnen der Himmelwahrscheinlichkeit des Bereichs anhand des Prozentsatzes der Spuren, die in das physikalisch gestützte Himmelsspurmodell passen. In einem Ausführungsbeispiel identifiziert die vorliegende Erfindung die horizontale Richtung einer Szene in dem Bild durch Identifizierung eines ersten Gradienten, der parallel zu einer Breitenrichtung des Bildes verläuft, und eines zweiten Gradienten, der rechtwinklig zur Breitenrichtung des Bildes verläuft, wobei der kleinere aus dem ersten und zweiten Gradienten die horizontale Richtung der Szene bezeichnet.
  • 2 zeigt den Empfang eines Eingabebildes in digitaler Form 200. Die Pixel werden dann in himmelfarbene und nicht himmelfarbene Pixel klassifiziert 201, und zwar unter Verwendung des erfindungsgemäßen Farbklassifizierungsverfahrens, wie nachfolgend besprochen.
  • Anhand der nachfolgend besprochenen Analyse der verbundenen Komponenten wird ein räumlich zusammenhängender Bereich himmelfarbener Pixel extrahiert 202. Auf jedes innere Pixel der verbundenen Komponente (oder des "Bereichs") werden Gradientenoperatoren gelegt, um die horizontalen und vertikalen Gradientenwerte zu berechnen 203. Die Pixel in Nähe der Grenze zur verbundeten Komponente sind in einem Ausführungsbeispiel vorzugsweise ausgeschlossen, weil sie oft den Größenübergang zwischen Himmel und anderen Motivgegenständen darstellen, beispielsweise am Horizont.
  • Die mittleren horizontalen und vertikalen Gradientenwerte Gx und Gy werden mithilfe aller in dem Bereich liegenden Pixel berechnet. Ein betreffender Bereich wird mit eine Anzahl von Tests eliminiert, falls eine übermäßige Struktur festgestellt wird. Wenn ein Gradientenwert über einem vorgegebenen hohen Schwellenwert Thigh liegt, was darauf hinweist, dass der Bereich stark strukturiert ist, wird dieser Bereich nicht als Himmelsbereich erkannt. Wenn |GX| und |Gy| nahezu identisch sind, wird der Bereich ebenfalls nicht als Himmelsbereich erkannt. Wenn die Farb(ton)verteilung aller Pixel in dem betreffenden Bereich nicht den erwarteten Eigenschaften eines Himmelsbereichs entspricht, wird der Bereich ebenfalls nicht als Himmelsbereich erkannt.
  • Das erfindungsgemäße Verfahren berücksichtigt, dass die dreidimensionale Form der Himmelsfarbverteilung einer geneigten Ellipse ähnlich sein sollte, wobei die Längsachse ungefähr in der Helligkeitsrichtung verläuft, was teilweise auf den Desaturierungseffekt zurückzuführen ist, wie nachfolgend detailliert besprochen wird.
  • Wenn der Bereich den Test auf geringe Strukturierung besteht 204, wird die mögliche Richtung der Zenith/Horizont-Ausrichtung ermittelt 205. Falls der Test nicht bestanden wird, kehrt die Verarbeitung nach Position 202 zurück, um den nächsten potenziellen Bereich von himmelfarbenen Pixeln zu analysieren. Der Gradient im Rotkanal wird untersucht. Wenn |Gx| > |Gy|, ist das ein Hinweis darauf, dass es sich um eine Landschaftsaufnahme handelt. Andernfalls ist das Bild höchstwahrscheinlich eine Porträtaufnahme. Gx<0 ist bei einer Landschaftsaufnahme ein Hinweis auf eine lagerichtige Aufnahme, andernfalls steht die Aufnahme höchstwahrscheinlich auf dem Kopf. Gy<0 ist bei einer Porträtaufnahme ein Hinweis auf eine Aufnahme, deren linke Seite oben liegt, andernfalls liegt die rechten Seite der Aufnahme oben.
  • Die Spuren werden dann über einen betreffenden Himmelsbereich in Horizont/Zenith-Richtung extrahiert 206. Für jede Spur wird eine Vielzahl von Himmelsspurkennzeichen 207 gemessen, um zu ermitteln, ob jede Spur wahrscheinlich aus einem Himmelsbereich stammt.
  • Die Wahrscheinlichkeit 208, dass ein betreffender Bereich ein Himmel ist, wird ermittelt, indem alle extrahierten Himmelsspuren einer Bewertung unterzogen werden. Wenn die Gesamtwahrscheinlichkeit eines betreffenden Bereich über einer vorbestimmten Schwelle 209 liegt, wird der betreffende Bereich als Himmelsbereich 210 deklariert. Die Verarbeitung kehrt dann zurück, um alle betreffenden Bereiche in gleicher Weise zu analysieren (z.B. kehrt die Verarbeitung nach Position 202 zurück). Wenn die erkannten Himmelsbereiche nicht mit der Himmelsausrichtung übereinstimmen, wird über die Gesamtausrichtung des Bildes anhand der Ergebnisse aus größeren Himmelsbereichen mit höherer Wahrscheinlichkeit entschieden. Die Regionen, die mit der Himmelsausrichtung in Konflikt stehen, werden dann zurückgewiesen.
  • Es ist nahezu axiomatisch, dass der Himmel für das menschliche Auge blau, die Wiese grün, Schmutz grau/rot/braun und Wasser blaugrün ist. Die tatsächliche Aufzeichnung in einem Digitalbild weicht davon jedoch etwas ab. Dies gilt nicht nur für Himmelsbereiche, die warme Farben enthalten, die dem Sonnenaufgang und Sonnenuntergang zugeordnet sind, sondern auch für Himmelsbereiche, die blauer erscheinen als es die Farbaufzeichnung zeigt. Das Problem verschärft sich möglicherweise noch durch die Tatsache, dass die Farbbalance des gesamten Bildes aufgrund des Fehlers verschoben sein kann, der während der Bildaufnahme und in anderen Stufen der Bebilderungskette eingebracht wird.
  • Die Blaudarstellung des Himmels in einem Farbbild ist das Ergebnis der menschlichen Physiologie und Psychologie sowie der Physik; die roten und grünen Komponenten eines blau erscheinenden Himmelspixels können (um einen kleinen Prozentsatz) stärker als die Blaukomponente sein. Zudem ist ein klarer, wolkenloser Himmel normalerweise der hellste Motivgegenstand in einem Bild, obwohl die Sonne selbst, beleuchtete Wolken, Schnee, Eis oder einige künstliche Objekte heller als der blaue Himmel sein können. Die Sonne scheint in dem orange-gelben Wellenlängenbereich am hellsten. Nach dem Rayleighschen Gesetz verteilt die wellenlängenselektive Streuung von Luftpartikeln die blaue Lichtkomponente der Sonnenstrahlen viel stärker als die längere Wellenlänge (siehe beispielsweise C.F. Bohren und D.R. Huffman, Absorption and Scattering of Light by Small Particles, New York, USA, John Wiley and Sons, 1983). Die Farbe des Himmels setzt sich allerdings vorwiegend aus Violett zusammen (gegenüber dem unsere Augen nicht sehr empfindlich sind) und einem größeren Anteil von blau, einem kleinen Anteil von grün und einem sehr kleinen Anteil von gelb und rot, wobei die Summe aller dieser Komponenten himmelblau ist (siehe beispielsweise M. Minnaert, The Nature of Light and Color in the Open Air. New York, USA, 1954).
  • Die blaue Erscheinung des Himmels ist jedoch nicht gleichmäßig. Der Himmel erscheint oft gegenüber dem Horizont desaturiert. Wenn man sich den Himmel direkt seitlich über der Sonne anschaut, dominiert das gestreute blaue Licht, und der Himmel erscheint tiefblau. Wenn man sich dem entfernten Horizont zuwendet, gleichen sich die verschiedenen selektiven Faktoren tendenziell an, und der Himmel erscheint desaturiert bis nahezu weiß.
  • Es gibt eine Reihe interessanter Effekte bezüglich der Lichtverteilung im Himmel, z.B. Lichthöfe, Luftspiegelungen und Regenbögen. Dabei steigt die Lichtintensität vom Zenith zum Horizont an, während sich gleichzeitig die Farbe von dunkelblau nach weiß ändert. Dieser Effekt ist vorwiegend auf die Dicke der Luftschicht zwischen unseren Augen und dem Horizont zurückzuführen. Obwohl die kleinen Luftpartikel vorzugsweise die blauen Strahlen streuen, werden die gestreuten Strahlen vor allem in ihrer langen Bahn von den Streupartikeln bis zum Auge hin geschwächt. Aufgrund der sehr dicken Luftschicht wirken die Streuung und die Dämpfung gegeneinander.
  • Es sei angenommen, ein kleiner Partikel im Abstand x zu einem gegebenen Punkt streut mit dem Bruchteil sdx (wobei s der farbabhängige Streufaktor und dx die Größe des Partikels ist). Die Lichtmenge wird im Verhältnis e–sx abgeschwächt, bevor Sie den gegebenen Punkt erreicht. Das von einer unendlich dicken Luftschicht empfangene Licht (eine Näherung) besteht aus der Summe der Anteile aller Partikel dx, als,
    Figure 00110001
    die gleich eins ist. Die Menge des empfangenen Lichts und somit auch die Farbe des Lichts ist von s unabhängig.
  • Der Himmel in Nähe des Horizonts zeigt daher die gleiche Helligkeit und Farbe wie ein weißer, von der Sonne beleuchteter Schirm. Die Schichten der Luft in Nähe des Bodens können zudem mehr schwebende große Staubpartikel enthalten, die das Licht aller Farben in gleichem Maße streuen und die Farbe des Lichtes weißer werden lassen (auch wenn die Luftschicht keine unendliche Dicke haben kann).
  • Wenn sich der Beobachter von der Sonne abwendet, so dass die Sonne den Beobachter von hinten anleuchtet, erfolgt die konzentrische Verteilung des Lichts aufgrund der Position der Sonne (hoch über dem Horizont) und der eingeschränkten Sicht des Betrachters ungefähr parallel zum Horizont. Wenn der Betrachter in Richtung der Sonne blickt (wobei er im Schatten eines Gebäudes in Nähe der Schattenkante steht), nimmt die Helligkeit der Sonne schnell in Richtung der Sonne zu und wird grell, wobei die Farbe immer weißer wird. In fotografischen Bildern ist es äußerst ungewöhnlich, dass man ein Bild der direkten Sonnenstrahlung aufnimmt, es sei denn, es handelt sich um einen Sonnenaufgang oder Sonnenuntergang, wenn die Sonne am Horizont steht und die Lichtintensität wesentlich schwächer ist.
  • Obwohl der blaue Himmel als das beste Beispiel für eine gleichmäßige Farbabstufung gelten kann, weist Zwielicht eine viel dramatischere Farbabstufung in ähnlicher Form einer konzentrischen Verteilung mit konstanter Helligkeit und Farbe auf, wie in 3A-B gezeigt. 3A-B zeigt die verschiedenen Farben, die am östlichen Horizont zu sehen sind, wenn die Sonne im Osten untergeht (z.B. Tageslicht gegenüber Zwielicht). Der Gegenstand der vorliegenden Erfindung betrifft zwar nicht die Erkennung eines Himmels im Zwielicht, aber es lassen sich bestimmte eindeutige Merkmale der Zwielichthimmels für ein allgemeineres Verfahren zur Himmelserkennung nutzen. Wenn eines der in der vorliegenden Erfindung verwendeten Merkmale abgeschaltet wurde, erfasste das Verfahren weiterhin erfolgreich den Zwielichthimmel in 3B, wie nachfolgend besprochen.
  • Es ist zudem wichtig, die Faktoren zu betrachten, die die Farbe des Wassers bestimmen, die oft von der des Himmels nicht zu unterscheiden ist. Ein Teil des Lichts, das vom Wasser auf unser Auge fällt, wird von dessen Oberfläche reflektiert; es funktioniert wie ein Spiegel, wenn es glatt ist, wobei die Farbe des Wassers, je nach Farbe des Himmels, blau oder grau erscheint. Die Farbe der See (oder einer großen, offenen Wasserfläche) in der Entfernung ist so wie die des Himmels in einer Höhe von 20° bis 30° und erscheint unmittelbar über dem Horizont dunkler als der Himmel. Das ist darauf zurückzuführen, dass nur ein Teil des Lichts reflektiert wird, wenn unser Blick auf die Gefälle entfernter Wavelets fällt (siehe z.B. Minnaert, The Nature of Light and Color in the Open Air. New York, USA, 1954).
  • Abgesehen von der Reflexion hat tiefes Wasser eine "Eigenfarbe", nämlich die Farbe des von unten zurückgeworfenen Lichts. In der Tiefsee kann die Wassertiefe so groß sein, dass praktisch kein Licht vom Boden zurückgeworfen wird. Die "Eigenfarbe" ist auf die kombinierte Wirkung der Streuung und Absorption im Wasser zurückzuführen. Die Farbe von tiefem, nahezu reinem Wasser ist blau, und zwar aufgrund der Absorption des Lichts in den orangefarbenen und roten Bestandteilen des Spektrums, nachdem Licht das Wasser durchdrungen hat und wieder zurückgeworfen wird.
  • Um den Himmel erkennen zu können, muss man zwischen blauem (normalerweise tiefem) Wasser und dem Himmel unterscheiden können, gleichgültig, ob die Wasserfläche zusammen mit dem Himmel abgebildet ist oder nicht. Das größte Augenmerk liegt dabei auf der Absorption der orangefarbenen und roten Komponenten des Lichts durch das Wasser. Die Wellen und Bewegungen tiefer Wasserflächen erzeugen kleine Oberfläche mit unterschiedlichen Gefällen. Im Allgemeinen erscheint die Farbe einer Oberfläche dunkler, wenn die Fläche zu unserem Blick hin rechtwinkliger oder näher angeordnet ist. Diese Änderungen betreffen jedoch vorwiegend die Helligkeit und nicht den Farbton.
  • Was die zuvor erwähnte Farbklassifizierung angeht (siehe Position 201, 2), wird von der vorliegenden Erfindung zunächst der Einfachheit halber ein Farbklassifizierer für klaren, hellblauen Himmel bei Tageslicht trainiert. Himmelsbereiche, die die warmen Farben enthalten, die Sonnenaufgang und Sonnenuntergang zugeordnet sind, fallen aus den Bereichen blauen oder grauen Himmels heraus, die den Hintergrund in vielen Außenaufnahmen stellen. Im Zusammenhang mit der vorliegenden Erfindung identifiziert die farbgestützte Erkennung alle betreffenden blauen Himmelspixel, die dann als Bereiche für räumliche Merkmale abgetastet werden, die dem klaren Himmel entsprechen.
  • Ein neuronales Netz wird dann trainiert, um das Training des Farbklassifizierer abzuschließen. Der erste Trainingssatz umfasst Bilder mit idealen Eigenschaften für blauen Himmel, grauen Himmel und Bildern ohne Himmel (vorwiegend Innenaufnahmen). Alle blauen Himmelspixel wurden als positive Beispiele aufgenommen, alle Pixel, die weder einem blauem Himmel noch einer Wasserfläche zugeordnet werden konnten, wurden als negative Beispiele aufgenommen.
  • Ein neuronales Netz mit Feedforward-Strategie wurde mit zwei verdeckten Schichten aufgebaut, die 3 oder 2 Neuronen enthielten, sowie ein einzelnes Ausgabeneuron (siehe z.B. Howard Demuth und Mark Beale, Matlab Neural Network Toolbox, The MathWorks, Inc., 1998). Die Neuronen in der verdeckten Schicht wiesen tangential-sigmoide Übertragungsfunktionen auf, während die Übertragungsfunktion des Ausgabeneurons logarithmisch-sigmoid war. Das Netz wurde mit der Backpropagation von Levenberg-Marquardt trainiert, um Pixelwerte als idealen blauen Himmel oder als nicht dem Himmel zugehörig zu klassifizieren (siehe z.B. Howard Demuth und Mark Beale). Die Zielantwort ist a=1 für ideal blaue Himmelspixel und a=0 für nicht dem Himmel zugehörige Pixel.
  • Der so trainierte Farbklassifizierer gab einen Wahrscheinlichkeitswert zwischen 0 und 1 für jedes verarbeitete Pixel aus, wobei 1 ein Pixel bezeichnet, das sehr wahrscheinlich blauen Himmel darstellt, während 0 ein Pixel bezeichnet, das sehr wahrscheinlich keinen blauen Himmel darstellt. Um das Ansprechen der vorliegenden Erfindung auf Punkte im (r,g,b) Eingaberaum zu veranschaulichen, zeigt 4A ein regelmäßig beabstandetes Gitter aus (r,g,b)-Triplets aus Beispielbildern, die mit der Erfindung verarbeitet wurden, wobei jede Farbebene in 4B-4D getrennt dargestellt wird.
  • Die Punkte, die Wahrscheinlichkeit von größer 0,1 für blauen Himmel aufweisen, sind in 4A mit "." markiert. Die Projektionen dieser Verteilung auf die drei Ebenen wird ebenfalls gezeigt (mit "o" markiert). Es sei darauf hingewiesen, dass sich die Verteilung in die Helligkeitsrichtung erstreckt und mit abnehmender Helligkeit etwas divergiert. Für jedes Eingabebild wird jedes Pixel unabhängig klassifiziert, und es wird ein Wahrscheinlichkeitsraster erstellt, indem die Helligkeit jedes Pixels proportional zu dessen Wahrscheinlichkeitswert eingestellt wird. Beispiele dieser Wahrscheinlichkeitsraster sind in 12E-F und 13E-F zu sehen.
  • 5 zeigt eine Receiver Operating Characteristic (ROC) auf Pixelebene des erfindungsgemäßen Farbklassifizierers. Die Kurve zeigt die richtig positive und die falsche positive Bestimmung, wenn der Verarbeitung im Farbklassifizierer unmittelbar ein harter Schwellenwert auf verschiedenen Ebenen folgt.
  • Herkömmlicherweise ist der globale Schwellenwert nicht dynamisch und lässt sich finden, indem man die Position auf der Kurve sucht, die der oberen linken Ecke der in 5 gezeig ten Kurve an nächsten ist. Ein Schwellenwert von beispielsweise 0,0125 ergibt eine richtige Erkennung von 90,4% an blauen Himmelspixeln, erkennt aber auch (fälschlicherweise) 13% nicht blaue Himmelspixel. Unter den erkannten nicht blauen Himmelspixeln macht Wasser einen wesentlichen Anteil aus. Im Unterschied dazu nutzt die Erfindung keinen vordefinierten "harten" Schwellenwert, sondern führt einen Bereichsextraktionsprozess durch, bevor jeder Bereich gegenüber einer Menge von Himmelsmerkmalen ausgewertet wird. Dieser Prozess wird nachfolgend detailliert in Bezug auf 7 besprochen.
  • Das erfindungsgemäße Bereichsextraktionsverfahren (z.B. Position 202, wie zuvor besprochen) ermittelt automatisch einen entsprechenden Schwellenwert für das Himmelsfarben-Wahrscheinlichkeitsraster, indem der erste Talsohlenpunkt ermittelt wird, wobei das Verfahren in dem Wahrscheinlichkeitshistogramm von den niedrigeren Wahrscheinlichkeiten zu den höheren Wahrscheinlichkeiten verfährt und eine Analyse der verbundenen Komponenten durchführt, wie in 7 gezeigt. Bei der Erfindung werden zudem die verbundenen Komponenten so verarbeitet, dass eine Darstellung der Himmelssegmente auf Bereichsebene erfolgt, was eine Auswertung der Himmelmerkmale ermöglicht, die andernfalls auf Pixelebene unmöglich wäre.
  • 6 zeigt eine detailliertere Darstellung des Bereichsextraktionsverfahrens 202 (aus 2). Für ein Wahrscheinlichkeitsraster 71, in dem der Wert jedes Pixels proportional zu der Wahrscheinlichkeit ist, dass das Pixel eine Himmelsfarbe aufweist, wird in adaptiver Weise ein globaler Schwellenwert 72 ermittelt, wie nachfolgend in Bezug auf 7 besprochen. Mithilfe dieses Schwellenwerts wird ein binäres Raster 73 erzeugt, wobei ein Pixel "1" als ein potenzielles Himmelspixel gilt und ein Pixel "0" als kein Himmelspixel. Verbundene Komponenten, die Bereiche räumlich zusammenhängender Pixel mit dem Wert "1" sind, werden dann eindeutig markiert 74, um räumlich getrennte Bereiche von Himmelsfarben zu erzeugen, die nicht null sind. Pixel, die keine Himmelsfarbe aufweisen, sind mit "0" gekennzeichnet (was im vorliegenden Zusammenhang als "ungekennzeichnet" gilt), und zwar unabhängig davon, ob sie miteinander verbunden sind. Jede verbundene Komponente der Himmelsfarbe wird mithilfe von zwei Operationen verarbeitet 75, die nachfolgend detaillierter besprochen werden, um die verbundenen Komponenten der Himmelsfarbe zu erzeugen 76. Ein Offenraum-Raster 77 (wie nachfolgend besprochen) wird mit den verbundenen Komponenten kombiniert, um die betreffenden Himmelsbereiche zu erzeugen, die von Position 202 in 2 ausgegeben werden.
  • 7 zeigt das erfindungsgemäße Verfahren für die dynamische Bestimmung des globalen Schwellenwerts. Zunächst wird ein Histogramm der Wahrscheinlichkeitswerte aus dem Wahrscheinlichkeitsraster von Himmelsfarben erstellt. Dann wird das Histogramm geglättet, um Rauschen zu entfernen (wodurch z.B. die in 7 gezeigte Kurve entsteht). Das erste signifikante Tal (z.B. "erstes Tal" in 7) wird in dem geglätteten Histogramm gefunden. In einem einfachen Bild, in dem ein Himmelsbereich vorhanden ist und alles andere als nicht dem Himmel zugehörig erkannt wird, hat das Histogramm nur zwei Spitzen und dazwischen ein Tal. In komplexen Bildern gibt es Himmel, Wasser und andere blaue Bereiche. Die vorliegende Erfindung nutzt daher ein anderes Histogramm für jedes Bild, was es ermöglicht, einen dynamischen Schwellenwert für jedes durch die Erfindung zu verarbeitende, einzelne Bild zu erzeugen.
  • In Saber (siehe oben) wurde das letzte Tal in dem geglätteten Histogramm verwendet, um eine universelle Schwelle in einer maximalen Wahrscheinlichkeitsbewertung einzustellen, die auf der Annahme fußt, dass der wahre Himmelsbereich in einem Bild stets die höchste Wahrscheinlichkeit aufweist. In einigen Fällen kann ein blauer Bereich, der kein Himmel ist, bezüglich der Farbe eine höhere Himmelswahrscheinlichkeit aufweisen. Die Erfindung unterzieht daher alle himmelfarbenen Bereiche einer weiteren Analyse und sortiert in den weiteren Stufen des Himmelserkennungsverfahrens Bereiche aus, die zwar Himmelsfarben aufweisen, aber kein Himmel sind. Der Wahrscheinlichkeitswert, an dem sich das erste Tal befindet, wird daher als globaler Schwellenwert gewählt. Wie zuvor erwähnt, wird dieser Schwellenwert adaptiv für jedes einzelne Bild ermittelt, um unterschiedliche Schattierungen des Himmels sowie die Bildaufnahmebedingungen zu berücksichtigen.
  • Die erste der beiden Weiterverarbeitungsoperationen, wie in Position 75 oben besprochen, ist eine Bereichsaufteilung. Die Bereichsaufteilung wird benutzt, um räumlich verbundene, bläuliche Bereiche (potenzielle Himmelsbereiche) aufzuteilen, die zu verschiedenen Objekten gehören, aber ansonsten die gleichen Wahrscheinlichkeitswerte in Bezug auf Himmelsfarbe aufweisen. Ein derartiger Bereich könnte beispielsweise ein blaues Tuch gegenüber einem blauen Himmel sein. Derartige Bereiche weisen ähnliche Wahrscheinlichkeiten auf (insofern, als dass es typische Himmelsfarben sind), und sind daher in dem Wahrscheinlichkeitsraster nicht trennbar.
  • Derartige Bereiche haben eine unterschiedliche Blauschattierung und sind daher mit universellen Farbsegmentierungsprozessen unterscheidbar, wie dem adaptiven k-Means-Verfahren (siehe z.B. J. Luo, R.T. Gray und H.-C. Le "Towards a Physics-Based Segmentation of Photographic Color Images," in Proc. IEEE Int. Conf. Image Process., 1997). Die Erfindung verwendet dieses Verfahren und teilt einen gekennzeichneten Bereich von Himmelsfarben in zwei oder mehrere Bereiche auf (mit eindeutigen neuen Kennzeichen), wenn der Bereich ein Konglomerat aus mehreren Bereichen ist, wie durch das Farbsegmentierungsverfahren bezeichnet.
  • In einem anderen Ausführungsbeispiel der Erfindung ist ein Offenraum-Erkennungsverfahren 77 (wie in J. Warnick, R. Mehrotra und R. Senn, US-A-5,901,245, "Method and system for detection and characterization of open space in digital images" beschrieben) anstelle eines universellen Farbsegmentierungsverfahrens verwendbar. Ein offener Raum ist als glatter und zusammenhängender Bereich in einem Bild definiert. Er ist sehr dafür geeignet, einen Text oder ein figürliches Element in einem Bild anzuordnen.
  • Das zuvor erwähnte automatische Offenraum-Erkennungsverfahren (Warnick, siehe oben) beruht auf zwei getrennten Bearbeitungsstufen. Zunächst wird nach Durchführung einer Farbraumtransformation ein gradientengestütztes Aktivitätenraster berechnet und ein entsprechender Schwellenwert gemäß einer Mehrbereichs-Histogrammanalyse ermittelt. In der zweiten Stufe wird das binäre Aktivitätenraster einer Analyse auf verbundene Komponenten unterzogen, um Lücken aufzufüllen und kleine Bereiche zu eliminieren. Das in Warnick (siehe oben) implementierte Offenraumverfahren ist effektiv und effizient. Es läuft in einem Bruchteil der Zeit ab, die für das Farbsegmentierungsverfahren erforderlich ist. Die Offenraumerkennung liefert zudem eine zusätzliche Bestätigung bezüglich der Glätte der potenziellen Bereiche. In dem bevorzugten Ausführungsbeispiel nutzt die vorliegende Erfindung daher das Offenraum-Erkennungsverfahren. Zudem wird die Offenraumerkennung verwendet, um (1) stark strukturierte Bereiche zu eliminieren und (2) den Himmel von anderen blaufarbenen Bereichen zu trennen, beispielsweise Wasserflächen.
  • Die in Position 75 in 6 durchgeführte zweite Verfeinerungsoperation umfasst das Bereichswachstum. Das erfindungsgemäße Bereichswachstumsverfahren wird benutzt, um Löcher auszufüllen und Grenzen auszudehnen. Dies ist besonders sinnvoll, wenn "marginale" Pixel Himmelsfarben-Wahrscheinlichkeitswerte aufweisen, die den globalen Schwellenwert nicht erfüllen, aber dicht genug an den Wahrscheinlichkeitswerten benachbarter Pixel liegen, die den globalen Ausgangsschwellenwert bestanden haben.
  • Mit der vorliegenden Erfindung wird ein "Wachstumsschwellenwert" benutzt, um derartige marginale Pixel neu als eine verbundene Komponente zu kennzeichnen, wenn die Differenz in den Wahrscheinlichkeitswerten zwischen einem "ungekennzeichneten" Pixel und seinem benachbarten "gekennzeichneten" Pixel kleiner als ein zweiter Schwellenwert für das Bereichswachstum ist. Es werden Seed-Bereiche erzeugt, indem man die Schnittmenge zwischen Pixeln mit Wahrscheinlichkeitswerten, die über dem Schwellenwert liegen, und verbundenen Komponenten im Offenraumraster bildet. Für Pixel, deren Werte unter den Wahrscheinlichkeitswerten liegen, beruht das Bereichswachstum auf der Kontinuität in den Wahrscheinlichkeitswerten und der Kontinuität in den Farbwerten. Kleine, isolierte Himmelsbereiche werden ignoriert.
  • In den Messungen der Himmelsspurkennzeichen, wie zuvor mit Bezug auf Position 207 in 2 besprochen, werden eindimensionale Spuren innerhalb des Bereichs entlang der Richtung vom Horizont zum Zenith extrahiert. Die Erfindung ermittelt automatisch die Himmelsausrichtung gestützt auf die Verteilung der vertikalen und horizontalen Gradienten in jedem extrahierten Bereich.
  • Durch das physikalisch motivierte Modell des Himmels nutzt die Erfindung insbesondere das Rotsignal, um die Himmelsausrichtung zu ermitteln. Wie zuvor besprochen, hängt beim physikalisch motivierten Himmelsmodell die Menge des Streulichts von der Wellenlänge des Lichts und dem Streuwinkel ab. Im Allgemeinen wird der Desaturierungseffekt zum Horizont durch eine Zunahme des roten und grünen Lichts im Verhältnis zum blauen Licht bewirkt. Im Zuge der vorliegenden Erfindung wurde zudem festgestellt, dass blaues Licht entlang der Horizont-Zenit-Richtung relativ unverändert bleibt. Die Veränderung des Grünsignals ist möglicherweise nicht so ausgeprägt wie in dem Rotsignal. Das Rotsignal liefert daher den zuverlässigsten Hinweis auf den Desaturierungseffekt. Die ungleichmäßige Gradientenverteilung ist daher am deutlichsten im Rotsignal zu beobachten.
  • Aufgrund des Desaturierungseffekts hat der Himmel einen niedrigen Gradienten in der Horizont-Zenith-Richtung, ist aber in rechtwinkliger Richtung im Wesentlichen konstant. Wenn die Sonne hoch über dem Horizont steht, erfolgt die konzentrische Verteilung des Streulichts ungefähr durch horizontale Streifen verschiedener Farbbereiche (siehe z.B. 3, Abfalleffekt der Verriegelungslinse). Die Gradientenverteilung hat daher in horizontaler und vertikaler Richtung verschiedene Eigenschaften, wie in 8A und 8B gezeigt (deren Gradienten jeweils parallel bzw. senkrecht zum Horizont verlaufen), wobei Mean 1<<Mean2 Nach der Bereichsextraktion 202 und der Ausrichtungsbestimmung 205 extrahiert der Prozess zur Bewertung der Himmelskennzeichnen eindimensionale Spuren in dem Bereich entlang der ermittelten Horizont-Zenith-Richtung 206, ermittelt weiter anhand eines Regelsatzes, ob die Spur einer Spur aus dem Himmel 207 gleicht, und berechnet dann die Himmelswahrscheinlichkeit des Bereichs durch den Prozentsatz der Spuren, die in das physikalisch basierende Himmelsspurenmodell 208 passen, wie zuvor erläutert.
  • Gestützt auf die Analyse zahlreicher eindimensionaler Spuren aus dem Himmel sowie einiger weiterer typischer himmelsfarbener Motivmerkmale in Bildern setzt die Erfindung Modelle zur Quantifizierung dieser Spuren ein. Insbesondere weisen Spuren, die entlang der Horizont-Zenith-Richtung extrahiert werden, ein Kennzeichen von Himmelsspuren auf, wie in 10A gezeigt. Das Blausignal einer wichtigen Spur ist tendenziell über den gesamten Himmel konstant; das Grünsignal und das Rotsignal nehmen allmählich mit Entfernung zum Horizont ab; das Rotsignal nimmt schneller als das Grünsignal ab. Alle drei Signale können ungefähr anhand von Polynomen niedrigerer Ordnung approximiert werden (z.B. quadratische Polynome). Die Mikroabweichungen in den drei Signalen werden nicht korreliert. Im Vergleich dazu weisen einige andere blaufarbene Gegenstände keine derartige Kennzeichnung auf. Im Gegenteil, und wie in 10B gezeigt, gibt es eine typische Spur einer blauen Wand in einem mit Blitzlicht belichteten Bild, in dem sich die drei Signale gleichmäßig parallel zueinander ändern.
  • 11B zeigt eine typische Spur durch eine Wasserfläche, wobei die drei Signale in lokalen Variationen stark korreliert sind. Beide Fälle weisen darauf hin, dass die Änderungen im Wesentlichen die Leuchtdichte (Bildhelligkeit) betreffen. Wie in 11A gezeigt, liegt ein gemischter Himmel vor, in dem (weiße) Wolken zusammen mit klarem, blauem Himmel vorhanden sind, wobei die Rot- und Grünsignale in den Wolken stark ausschlagen, während das Blausignal gleich bleibt und einen neutralen Wolkenbereich erzeugt. Das Rotsignal schlägt in den Wolken typischerweise um einen größeren Betrag als das Grünsignal aus.
  • 9 ist ein Ablaufdiagramm zur Darstellung der Verarbeitung der eingegebenen Spur. In Position 100 wird eine extrahierte Spur in Bezug auf die in 10A-11B gezeigten Spurmodelle analysiert. Zunächst wird eine Anpassung eines quadratischen Polynoms (Fitting) 101 für die drei Signale rot, grün bzw. blau berechnet. Das quadratische Polynom ist gegeben durch y = f(x) = c1 + c2 * x + c3 * x2, wobei x den Index der eindimensionalen Spur bezeichnet und y den Codewert des entsprechenden Signals.
  • Als nächstes wird eine Vielzahl von Merkmalen ("Kennzeichen") berechnet 102, und zwar gestützt auf der rohen Kurve oder der angepassten Kurve. Die Merkmale werden klassifiziert 103, so dass eine Spur als eine blaue Himmelsspur gekennzeichnet werden kann 104 oder als eine nicht blaue Himmelsspur (eine gemischte Himmelsspur 105, eine Wasserspur 106 oder eine "unbekannte" Spur (107). In dem nachfolgend gezeigten Beispiel werden zehn Maße ("Kennzeichen") für jede extrahierte Himmelsspur berechnet. Ein einschlägiger Fachmann könnte allerdings jede Anzahl dieser Kennzeichen unter Bezug auf diese Beschreibung erstellen.
  • Das erste Kennzeichen betrifft den Versatz der Anpassung des quadratischen Polynoms. Der Versatz bezieht sich auf die mittleren Werte in den roten, grünen und blauen Kanälen. Dieses Kennzeichen erfordert, dass die mittlere blaue Komponente größer als die mittlere rote und grüne Komponente ist. Aufgrund der besonderen Weise, in der eine Spur extrahiert wird, ist mit diesem Kennzeichen die Forderung verbunden, dass die blaue Komponente auf der blauesten Seite der Spur am stärksten ist. Der Pseudo-Code in der Programmiersprache C für eine derartige Logikanweisung lautet:
    Figure 00200001
  • Anstatt die vorausgehende scharfe Regel zu verwenden, kann es vorteilhaft sein, eine trapezoide Fuzzy-Benotungsfunktion von stetigen Werten und einen Abschaltpunkt mit einer bestimmten HUGEPENALTY zu verwenden, wenn diese Bedingung verletzt wird.
  • Das zweite Beispielkennzeichen betrifft das Gefälle der Anpassung des quadratischen Polynoms. Aufgrund der Art und Weise, in der eine Spur extrahiert wird, sind die Gefälle der RGB-Signale negativ. Das macht es erforderlich, dass das Blausignal langsamer abfällt (soweit zutreffend) als die Rot- und Grünsignale. Dieses Kennzeichen erlaubt andererseits auch einen monotonen Anstieg (positives Gefälle). Der Pseudo-Code in der Programmiersprache C für eine derartige Logikanweisung lautet:
    Figure 00210001
  • Diese ist als scharfe Regel implementiert. Eine Ausnahme wird ermöglicht, um die strenge Bedingung von sig2 oder von zwei nicht ganz so streng definierten Bedingungen sig2bg und sig2br zu lockern, wenn sig2 nicht erfüllt wird.
  • Das dritte Kennzeichen betrifft die Ähnlichkeit oder Parallelität unter den angepassten Signalen. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00210002
  • Es sei darauf hingewiesen, dass rgdist dazu dient, die Differenz ("Distanz") zwischen zwei angepassten Rot- und Grünsignalen zu bezeichnen. Es lässt sich auf folgende Weise bestimmen. Zunächst wird eines der beiden Signale entsprechend verschoben, so dass das verschobene Signal den gleichen Wert am Ausgangspunkt wie das nicht verschobene Signal hat. Wenn die angepassten Rot- und Grünsignale wie folgt sind:
    Figure 00220001
    dann
    Figure 00220002
    so dass r ^(0) = g(0).
  • Als nächstes wird die Differenz oder die Distanz zwischen den angepassten Rot- und Grünsignalen gegeben durch:
    Figure 00220003
    wobei L für die gesamte Länge der Spur steht. Mit anderen Worten misst dieses Merkmal die Differenz zwischen zwei angepassten Signalen durch die Distanz an zwei Mittelpunkten, wenn einer der beiden so verschoben wird, dass beide Signale den gleichen Ausgangswert aufweisen. Die beiden anderen Terme bgdist und brdist sind in ähnlicher Weise definiert. Eine Möglichkeit besteht darin, nicht die Absolutwerte zu verwenden, so dass Vorzeicheninformationen in Verbindung mit der absoluten Differenz benutzt werden.
  • Das vierte Kennzeichen betrifft die Rot-/Grün-Ähnlichkeit. Die Rot- und Grünsignale sollten recht ähnlich sein. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00220004
  • Das vierte Kennzeichen betrifft die niedrige Nichtlinearität. Alle drei Signale sollten eine niedrige Nichtlinearität aufweisen. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00230001
  • Anstatt die vorausgehende scharfe Regel zu verwenden, kann es vorteilhaft sein, eine S-förmige Fuzzy-Benotungsfunktion von stetigen Werten und einen Abschaltpunkt mit einer bestimmten HUGEPENALTY zu verwenden, wenn diese Bedingung verletzt wird.
  • Das sechste Kennzeichen betrifft die Rot-Grün-Blau-Korrelation für große Modulation. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00230002
    wobei corr-xy den Korrelationskoeffizienten zwischen dem Signal x und y bezeichnet. Anstatt die vorausgehende scharfe Regel zu verwenden, kann es auch hier vorteilhaft sein, eine S-förmige Fuzzy-Benotungsfunktion von stetigen Werten und einen Abschaltpunkt (z.B. >0,95) mit einer bestimmten HUGEPENALTY zu verwenden, wenn diese Bedingung verletzt wird.
  • Das siebte Kennzeichen betrifft die Rot-Grün-Blau-Ähnlichkeit oder Beinahparallelität.
  • Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00240001
  • Anstatt die vorausgehende scharfe Regel zu verwenden, kann es auch hier vorteilhaft sein, eine S-förmige Fuzzy-Benotungsfunktion von stetigen Werten und einen Abschaltpunkt (z.B. >0,95) mit einer bestimmten HUGEPENALTY zu verwenden, wenn diese Bedingung verletzt wird.
  • Das achte Kennzeichen betrifft das negative Rot-/Grün-Gefälle. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00240002
  • Diese ist als scharfe Regel implementiert.
  • Das neunte Kennzeichen betrifft die Qualität dieser Passung. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00240003
    wobei CHISQ einen x-Quatratanpassungsfehler bezeichnet.
  • Anstatt die vorausgehende scharfe Regel zu verwenden, kann es auch hier vorteilhaft sein, eine S-förmige Fuzzy-Benotungsfunktion von stetigen Werten und einen Abschaltpunkt (z.B. <0,1) mit einer bestimmten HUGEPENALTY zu verwenden, wenn diese Bedingung verletzt wird.
  • Kennzeichnung zehn betrifft den Abfall der Rot- und Grünsignale. Der entsprechende Pseudo-Code für eine Logikanweisung lautet: sigA = rdec*gdec;wobei rdec die Tatsache bezeichnet, ob das Rotsignal (monoton) abnimmt. rdec wird mithilfe des angepassten Rotsignals bestimmt, indem man zwei Proben nimmt, und zwar zuerst x1 am 1/4 Punkt und dann x2 am 3/4 Punkt der Gesamtlänge. Der entsprechende Pseudo-Code für eine Logikanweisung lautet:
    Figure 00250001
  • Der andere Term gdec wird für das Grünsignal auf ähnliche Weise bestimmt. Dieser ist als scharfe Regel implementiert. Es sei darauf hingewiesen, dass sigA = 1 wenn, und nur wenn rdec = 1 und gdec = 1.
  • Diese zehn Merkmale sind in dem aktuellen regelgestützten Prozess als scharfe Entscheidung implementiert; eine gegebene Spur wird nur als Himmelsspur deklariert, wenn alle Bedingungen erfüllt sind, d.h. wenn
    Figure 00250002
    oder, in einem auf Fuzzy-Logik basierenden Algorithmus,
    Figure 00260001
  • Bei Prüfung aller betreffenden Spuren, was die meisten (z.B. 95%) der himmelfarbenen Pixel betrifft, wird die Himmelswahrscheinlichkeit als der Prozentsatz der Spuren berechnet, die das physikalisch basierende Himmelsspurenmodell erfüllen. Ein himmelfarbener Bereich wird als himmelfremder Bereich deklariert, wenn die Himmelswahrscheinlichkeit unterhalb eines Schwellenwerts liegt (in diesem Beispiel für eine universelle Verwendung empirisch auf 0,25 festgelegt).
  • 12A-13H zeigen das Verhalten der Erfindung in Bezug auf verschiedene Bilder. 12A-B und 13A-B zeigen die zu verarbeitenden Originalbilder. 12C-D und 13C-D stellen die Ergebnisse des in Position 201 von 2 gezeigten erfindungsgemäßen Farbklassifizierungsprozesses dar, wie zuvor erläutert. 12E-F und 13E-F zeigen das Ergebnis des von der Erfindung erzeugten Offenraumrasters (Position 77 in 6). 12G-H und 13G-H zeigen die erfindungsgemäße Bestimmung der Himmelsbereiche als weiße Anteile und der himmelsfremden Bereiche als schwarze Anteile. Die Helligkeitspegel in 12C-D und 13C-D sind proportional zu den Himmelswahrscheinlichkeitswerten, obwohl der Helligkeitspegel in 12E-F und 13E-F einfach auf separat gekennzeichnete Bereiche hinweist.
  • Die Erfindung arbeitet mit RGB-Bildern einwandfrei zusammen, die mit derartigen Quellen, wie Film- und Digitalkameras aufgenommen worden sind. Die erkannten Himmelsbereiche weisen eine exzellente Übereinstimmung mit den wahrgenommenen Grenzen auf. Die in 12A-12H gezeigten Beispiele zeigen die Leistung der Erfindung. Der Himmel und die See werden richtig voneinander getrennt, und in 12G wird der wahre Himmelsbereich erkannt. Das Bild in 12B ist ein Beispiel für eine ungültige Annahme, dass sich der Himmel oben am Bild befindet, aber der Himmel wird von dem erfindungsgemäßen Prozess trotzdem aufgrund der richtigen Erkennung der Himmelsausrichtung richtig erkannt. Ein glattes blaues Objekt in 13A und ein strukturiertes Tischtuch in 13B werden von der Erfindung richtig zurückgewiesen.
  • Unter Berücksichtigung der Effektivität des erfindungsgemäßen Bewertungsverfahrens auf Himmelskennzeichen ist es möglich, die Farbklassifizierungsstufe zu lockern und andere, nicht blaue Schattierungen des Himmels einzubeziehen, wie die Farbtöne bei Sonnenuntergang oder Sonnenaufgang. Im Unterschied zu einem bewölkten Himmel weist der wolkenlose Himmel bei Sonnenuntergang oder Sonnenaufgang ähnliche Streueffekte wie am Tage auf. Der Hauptunterschied betrifft die warme Farbtönung durch die aufgehende oder untergehende Sonne.
  • Eine alternative Möglichkeit zur Durchführung der Himmelsauswertung ist die zweidimensionale Planar-Fit-Methode eines betreffenden Bereichs. Für Bereiche, die Löcher enthalten, kann der gewichtete Faktor an der Lochposition auf null gesetzt werden, so dass nur die himmelfarbenen Pixel zum Planar-Fit beitragen. Um eine mögliche Zunahme der falschen, positiven Erkennung zu vermeiden, kann die Bedingung gestellt werden, dass die Löcher nur aufgrund heller neutraler Objekte (Wolken) zustande kommen.
  • Die Erfindung umfasst daher ein System zur Himmelserkennung, das auf der Farbklassifizierung, der Bereichsextraktion und der physikalisch motivierten Bewertung der Himmelskennzeichen beruht. Die vorliegende Erfindung arbeitet sehr gut mit 8-Bit-Bildern aus derartigen Quellen, wie Film- und Digitalkameras, zusammen, und zwar nach einem Vorabgleich und Einstellung des richtigen Dynamikumfangs. Die von der Erfindung erkannten Himmelsbereiche weisen eine hervorragende räumliche Ausrichtung mit den wahrgenommenen Himmelsgrenzen auf.
  • Wie bereits erwähnt, verwendet die vorliegende Erfindung ein physikalisches Modell des Himmels, gestützt auf die Streuung des Lichts durch kleine Partikel in der Luft. Durch Verwendung eines physischen Modells (im Unterschied zu einem Farb- oder Strukturmodel) wird die Erfindung nicht durch ähnlich farbige Motivgegenstände getäuscht, wie Wasserflächen, Wände, Spielzeuge und Kleidung. Der erfindungsgemäße Verfahren zur Bereichsextraktion ermittelt automatisch einen geeigneten Schwellenwert für das Himmelsfarben-Wahrscheinlichkeitsraster. Durch Nutzung des physischen Modells in Kombination mit Farb- und Strukturfiltern erzeugt die Erfindung Ergebnisse, die herkömmlichen Systemen überlegen sind.

Claims (8)

  1. Verfahren zum Erkennen von Himmelbereichen in einem Bild mit folgenden Schritten: – Berechnen (206, 207) von Desaturierungsgradienten von Bildbereichen; und – Vergleichen (208, 209) der Desaturierungsgradienten der Bildbereiche mit einem vorbestimmten Desaturierungsgradienten für Himmel, um echte Himmelbereiche in dem Bild zu identifizieren.
  2. Verfahren nach Anspruch 1, gekennzeichnet durch folgenden Schritt: – Klassifizieren (201) potentieller Himmelbereiche in dem Bild nach der Farbe.
  3. Verfahren nach Anspruch 1, gekennzeichnet durch folgenden Schritt: – Eliminieren (204) von Bereichen, die eine Struktur über einer vorbestimmten Strukturschwelle aufweisen.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Desaturierungsgradienten Gradienten für rote, grüne und blaue Spurenkomponenten des Bildes aufweisen.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der vorbestimmte Desaturierungsgradient für Himmel vom Horizont bis zum Zenit eine Abnahme von Rot- und Grünlicht-Spurenkomponenten und eine im wesentlichen konstante Blaulicht-Spurenkomponente verzeichnet.
  6. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Klassifizierungsschritt folgende Schritte umfasst: – Bilden (71) eines Wahrscheinlichkeitsrasters von Pixeln in dem Bild unter Verwendung eines Pixelklassifizierers, der für jedes Pixel einen Wahrscheinlichkeitswert erzeugt, welcher die Wahrscheinlichkeit anzeigt, dass das Pixel eine Himmelsfarbe ist, wobei das Wahrscheinlichkeitsraster dadurch erzeugt wird, dass man die Helligkeit jedes Pixels proportional zu seinem Wahrscheinlichkeitswert setzt; – Berechnen (72) eines adaptiven Schwellenwerts der Himmelsfarbe, passend zu den Wahrscheinlichkeitswerten des Wahrscheinlichkeitsrasters; und – Klassifizieren (73) von Pixeln mit Wahrscheinlichkeitswerten, die den Schwellenwert als potentielle Himmelspixel übersteigen.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass das Berechnen (72) des adaptiven Schwellenwerts folgende Schritte umfasst: – Erzeugen eines Histogramms der das Wahrscheinlichkeitsraster bildenden Wahrscheinlichkeitswerte; – Glätten des Histogramms, um Rauschstörungen zu eliminieren; – Identifizieren einer ersten Talsohle im geglätteten Histogramm; und – Verwenden des Wahrscheinlichkeitswertes der ersten Talsohle als adaptiven Schwellenwert.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Wahrscheinlichkeitsraster und das Histogramm für jedes Bild getrennt berechnet werden.
DE60008486T 1999-11-29 2000-11-17 Verfahren zur Himmelserkennung in Bildern Expired - Lifetime DE60008486T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US450190 1999-11-29
US09/450,190 US6504951B1 (en) 1999-11-29 1999-11-29 Method for detecting sky in images

Publications (2)

Publication Number Publication Date
DE60008486D1 DE60008486D1 (de) 2004-04-01
DE60008486T2 true DE60008486T2 (de) 2004-12-16

Family

ID=23787139

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60008486T Expired - Lifetime DE60008486T2 (de) 1999-11-29 2000-11-17 Verfahren zur Himmelserkennung in Bildern

Country Status (4)

Country Link
US (1) US6504951B1 (de)
EP (1) EP1107179B1 (de)
JP (1) JP4477222B2 (de)
DE (1) DE60008486T2 (de)

Families Citing this family (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020001096A1 (en) * 2000-04-28 2002-01-03 Kenro Hama Image processor for detecting specified pattern
US7212668B1 (en) * 2000-08-18 2007-05-01 Eastman Kodak Company Digital image processing system and method for emphasizing a main subject of an image
FR2827060B1 (fr) * 2001-07-05 2003-09-19 Eastman Kodak Co Procede d'identification du ciel dans une image et image obtenue grace a ce procede
US7062085B2 (en) * 2001-09-13 2006-06-13 Eastman Kodak Company Method for detecting subject matter regions in images
US7092573B2 (en) * 2001-12-10 2006-08-15 Eastman Kodak Company Method and system for selectively applying enhancement to an image
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
ITMI20031449A1 (it) * 2003-07-15 2005-01-16 St Microelectronics Srl Metodo per classificare una immagine digitale
US7295700B2 (en) * 2003-10-24 2007-11-13 Adobe Systems Incorporated Object extraction based on color and visual texture
US7336819B2 (en) * 2003-12-29 2008-02-26 Eastman Kodak Company Detection of sky in digital color images
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
JP4772115B2 (ja) * 2005-05-31 2011-09-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 夜間に道路を検出する方法及びシステム
JP4622874B2 (ja) * 2006-02-02 2011-02-02 富士ゼロックス株式会社 色調整方法および色調整装置
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
EP2033142B1 (de) * 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
WO2008015586A2 (en) * 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US20080089591A1 (en) * 2006-10-11 2008-04-17 Hui Zhou Method And Apparatus For Automatic Image Categorization
FR2910143B1 (fr) * 2006-12-19 2009-04-03 Eastman Kodak Co Procede pour predire automatiquement des mots dans un texte associe a un message multimedia
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (de) 2007-02-28 2010-06-23 Fotonation Vision Limited Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
JP4970557B2 (ja) 2007-03-05 2012-07-11 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド デジタル画像取込装置における顔検索及び検出
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US7822275B2 (en) * 2007-06-04 2010-10-26 Objectvideo, Inc. Method for detecting water regions in video
US8934717B2 (en) * 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
CN101588450B (zh) 2008-05-19 2013-08-14 株式会社日立制作所 记录再现装置及方法
JP5547730B2 (ja) * 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
DE112008003959T5 (de) * 2008-07-31 2011-06-01 Hewlett-Packard Development Co., L.P., Houston Wahrnehmungssegmentierung von Bildern
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
US8611677B2 (en) 2008-11-19 2013-12-17 Intellectual Ventures Fund 83 Llc Method for event-based semantic classification
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8351724B2 (en) * 2009-05-08 2013-01-08 Sharp Laboratories Of America, Inc. Blue sky color detection technique
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
CN101930533B (zh) * 2009-06-19 2013-11-13 株式会社理光 在图像采集设备中进行天空检测的装置和方法
US20100322513A1 (en) * 2009-06-19 2010-12-23 Sharp Laboratories Of America, Inc. Skin and sky color detection and enhancement system
JPWO2011001587A1 (ja) * 2009-07-01 2012-12-10 日本電気株式会社 コンテンツ分類装置、コンテンツ分類方法及びコンテンツ分類プログラム
US20110016150A1 (en) * 2009-07-20 2011-01-20 Engstroem Jimmy System and method for tagging multiple digital images
US8503767B2 (en) * 2009-09-16 2013-08-06 Microsoft Corporation Textual attribute-based image categorization and search
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US9009163B2 (en) * 2009-12-08 2015-04-14 Intellectual Ventures Fund 83 Llc Lazy evaluation of semantic indexing
US8872887B2 (en) 2010-03-05 2014-10-28 Fotonation Limited Object detection and rendering for wide field of view (WFOV) image acquisition systems
US20120050570A1 (en) 2010-08-26 2012-03-01 Jasinski David W Audio processing based on scene type
WO2012037528A2 (en) * 2010-09-16 2012-03-22 California Institute Of Technology Systems and methods for automated water detection using visible sensors
US8774528B2 (en) 2010-09-24 2014-07-08 Kodak Alaris Inc. Method of selecting important digital images
US8612441B2 (en) 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US8860816B2 (en) 2011-03-31 2014-10-14 Fotonation Limited Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US8896703B2 (en) 2011-03-31 2014-11-25 Fotonation Limited Superresolution enhancment of peripheral regions in nonlinear lens geometries
US9454280B2 (en) 2011-08-29 2016-09-27 Intellectual Ventures Fund 83 Llc Display device providing feedback based on image classification
US8625904B2 (en) 2011-08-30 2014-01-07 Intellectual Ventures Fund 83 Llc Detecting recurring themes in consumer image collections
CN103049735B (zh) * 2011-10-14 2016-02-03 株式会社理光 检测图像中特定物体的方法和检测图像中特定物体的设备
US8923567B2 (en) * 2011-12-19 2014-12-30 General Electric Company Apparatus and method for predicting solar irradiance variation
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US8873833B2 (en) 2012-02-17 2014-10-28 Sony Corporation System and method for effectively performing a scene representation procedure
US8750566B2 (en) 2012-02-23 2014-06-10 General Electric Company Apparatus and method for spatially relating views of sky images acquired at spaced apart locations
JP5703255B2 (ja) * 2012-04-27 2015-04-15 株式会社東芝 画像処理装置、画像処理方法およびプログラム
US9542600B2 (en) * 2012-11-12 2017-01-10 Bae Systems Plc Cloud feature detection
US9552374B2 (en) 2013-08-19 2017-01-24 Kodak Alaris, Inc. Imaging workflow using facial and non-facial features
US9589349B2 (en) 2013-09-25 2017-03-07 Heartflow, Inc. Systems and methods for controlling user repeatability and reproducibility of automated image annotation correction
US10319035B2 (en) 2013-10-11 2019-06-11 Ccc Information Services Image capturing and automatic labeling system
RU2630744C2 (ru) * 2014-04-10 2017-09-12 Самсунг Электроникс Ко., Лтд. Способ обнаружения периодических текстур
WO2015162605A2 (en) 2014-04-22 2015-10-29 Snapaid Ltd System and method for controlling a camera based on processing an image captured by other camera
US11170037B2 (en) 2014-06-11 2021-11-09 Kodak Alaris Inc. Method for creating view-based representations from multimedia collections
JP2016085593A (ja) * 2014-10-24 2016-05-19 富士通株式会社 画像処理装置、画像処理方法、及びプログラム
JP6642970B2 (ja) * 2015-03-05 2020-02-12 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
US10346996B2 (en) 2015-08-21 2019-07-09 Adobe Inc. Image depth inference from semantic labels
US9792522B2 (en) * 2015-12-01 2017-10-17 Bloomsky, Inc. Weather information extraction using sequential images
CN106326901B (zh) * 2016-08-30 2019-06-14 南京鑫和汇通电子科技有限公司 基于边缘点自相似性的水渍图像识别方法及teds系统
US10699684B2 (en) 2017-02-06 2020-06-30 Kodak Alaris Inc. Method for creating audio tracks for accompanying visual imagery
CN106954022B (zh) * 2017-03-08 2019-10-25 Oppo广东移动通信有限公司 图像处理方法、装置及终端
US10742899B1 (en) * 2017-08-30 2020-08-11 Snap Inc. Systems, devices, and methods for image enhancement
CN109214334B (zh) 2018-09-03 2020-12-29 百度在线网络技术(北京)有限公司 车道线处理方法和装置
US10902260B2 (en) 2018-11-29 2021-01-26 International Business Machines Corporation Estimating a height of a cloud depicted in an image
CN110796834B (zh) * 2019-11-01 2021-10-08 广州小鹏汽车科技有限公司 车辆淹水的报警方法及系统、车辆和可读存储介质
CN115100439B (zh) * 2022-07-15 2022-11-04 广东瑞恩科技有限公司 一种用于水产养殖的水体异常检测方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889578A (en) 1993-10-26 1999-03-30 Eastman Kodak Company Method and apparatus for using film scanning information to determine the type and category of an image
JPH0896129A (ja) 1994-09-21 1996-04-12 Omron Corp モデル画像登録方法
US5642443A (en) 1994-10-12 1997-06-24 Eastman Kodak Company Whole order orientation method and apparatus
US5822453A (en) * 1996-12-10 1998-10-13 Eastman Kodak Company Method for estimating and adjusting digital image contrast
US5901245A (en) 1997-01-23 1999-05-04 Eastman Kodak Company Method and system for detection and characterization of open space in digital images
US6097470A (en) * 1998-05-28 2000-08-01 Eastman Kodak Company Digital photofinishing system including scene balance, contrast normalization, and image sharpening digital image processing
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6408103B1 (en) * 1998-12-31 2002-06-18 Eastman Kodak Company Method for preserving spatial detail and color content when adjusting the tone scale of a digital color image

Also Published As

Publication number Publication date
US6504951B1 (en) 2003-01-07
EP1107179A3 (de) 2002-07-31
DE60008486D1 (de) 2004-04-01
EP1107179A2 (de) 2001-06-13
JP4477222B2 (ja) 2010-06-09
JP2001195591A (ja) 2001-07-19
EP1107179B1 (de) 2004-02-25

Similar Documents

Publication Publication Date Title
DE60008486T2 (de) Verfahren zur Himmelserkennung in Bildern
DE60012859T2 (de) Bestimmung der Orientierung von Bildern die einen blauen Himmel enthalten
DE60210199T2 (de) Verfahren zur erkennung von motivbereichen in bildern
Tan et al. Exposure based multi-histogram equalization contrast enhancement for non-uniform illumination images
DE602004005358T2 (de) Objektdetektion in bildern
DE69533054T2 (de) Mehrfenstertechnik zur Schwellenwertverarbeitung eines Bildes unter Verwendung lokaler Bildeigenschaften
DE60030798T2 (de) Identifizierung von eigentlichen Pixelfarben im Bereich mit unsicheren Pixeln
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
DE602006000400T2 (de) Bildsegmentierungsverfahren und -system
DE60203056T2 (de) Räumlich -temporales Modell der visuellen Aufmerksamkeit für eine Video Vollbild -Sequence
DE10314071B3 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
DE112015006385T5 (de) Bildgebende vorrichtung und bildgebendes verfahren, bedienungsvorrichtung und -verfahren und programm und aufzeichnungsmedium
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
CN105894484A (zh) 一种基于直方图归一化与超像素分割的hdr重建算法
DE112008003959T5 (de) Wahrnehmungssegmentierung von Bildern
DE102013210375A1 (de) Auffinden von text in natürlichen szenen
CN104240194A (zh) 一种基于抛物线函数的低照度图像增强算法
DE4102587C2 (de) Verfahren und Vorrichtung zur binären Bildverarbeitung
DE102011106072A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte kamera erfassten bild unter verwendung einer optimierten ausgerichteten linearen achse
CN103793930A (zh) 铅笔画图像生成方法及装置
CN106296744A (zh) 一种结合自适应模型和多阴影属性的运动目标检测方法
DE10303724B4 (de) Dynamisches Zweipegel-Schwellwertverfahren digitaler Bilder
DE102012200930A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
DE202023101378U1 (de) Ein System zur Verbesserung der schlechten Sichtbarkeit durch Bildverbesserungstechnik unter Verwendung von Contrast Stretched - CLAHE (CS-CLAHE)
DE10250781B4 (de) Verfahren und Vorrichtung zur automatischen Segmentierung eines Vordergrundobjektes in einem Bild

Legal Events

Date Code Title Description
8364 No opposition during term of opposition