DE60317053T2 - Verfahren und Vorrichtung zur Darstellung einer Bildgruppe - Google Patents

Verfahren und Vorrichtung zur Darstellung einer Bildgruppe Download PDF

Info

Publication number
DE60317053T2
DE60317053T2 DE60317053T DE60317053T DE60317053T2 DE 60317053 T2 DE60317053 T2 DE 60317053T2 DE 60317053 T DE60317053 T DE 60317053T DE 60317053 T DE60317053 T DE 60317053T DE 60317053 T2 DE60317053 T2 DE 60317053T2
Authority
DE
Germany
Prior art keywords
image
color
group
dominant
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60317053T
Other languages
English (en)
Other versions
DE60317053D1 (de
Inventor
Leszek Guildford CIEPLINSKI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE60317053D1 publication Critical patent/DE60317053D1/de
Application granted granted Critical
Publication of DE60317053T2 publication Critical patent/DE60317053T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Darstellen einer Gruppe von Bildern, insbesondere hinsichtlich der Farbe und zum Suchen nach und Abrufen von Bildern.
  • Es gibt verschiedene bekannte Techniken zum Darstellen eines Bilds unter Verwendung visueller Merkmale wie der in dem Bild erscheinenden Farbe. In einer bekannten Technik wird beispielsweise jedem Pixel ein Farbwert zugewiesen und ein Farbhistogramm wird abgeleitet, indem Bins für eine Anzahl von Farbwertbereichen eingestellt werden und die Anzahl von Pixeln in einem Bild gezählt wird, welche einen Farbwert in jedem der Bereiche aufweisen. Das Farbhistogramm wird dann als eine Darstellung des Bilds verwendet. In einer weiteren bekannten Technik wird eine oder mehrere dominante Farbe in einem Bild identifiziert und die dominanten Farben werden zur Darstellung des Bildes verwendet.
  • Die vorliegende Erfindung betrifft insbesondere Bildgruppen. Die Bildgruppen können beispielsweise eine Bildsequenz (Frames oder Felder) aus einem Video sein oder jede Bildgruppe aus jeder Quelle, in der die Bilder auf eine Weise zusammengeordnet sind. Die Bildgruppe könnte beispielsweise eine einzelne Szene oder Aufnahme in einem Video betreffen. Ein in dem Gebiet der Technik bekannter Ausdruck für eine solche Bildgruppe ist Framegruppe/Bildgruppe. Im Folgenden wird dieser Ausdruck als GoFGoP bezeichnet. In dieser Beschreibung wird der Begriff Bild verwendet, um einen Frame/ein Bild in einer Gruppe zu beschreiben, unabhängig davon, ob es sich um einen Videoframe oder -feld oder ein stilles Bild handelt. Die Begriffe Bild und Bildbereich werden außerdem austauschbar verwendet, es sei denn, es geht aus dem Kontext anders hervor.
  • Ein Ansatz zur Darstellung einer Bildgruppe ist die Auswahl eines einzelnen Bilds aus der Bildgruppe und das Behandeln des einzelnen Bilds als Darstellung der gesamten Gruppe. Das einzelne Bild wird dann unter Verwendung einer bekannten Technik zur Darstellung eines einzelnen Bilds dargestellt. Das einzelne Bild kann beispielsweise das erste oder letzte Bild, das in einer Sequenz erscheint, sein oder die Bildgruppe kann analysiert werden, um ein Bild in der Gruppe zu identifizieren, das hinsichtlich des interessierenden visuellen Merkmals die Gruppe besonders darstellt.
  • Ein weiterer Ansatz ist die Aggregierung der Bildgruppe. Der bestehende visuelle Standard MPEG-7 (ISO/IEC 15938-3) ermöglicht die Beschreibung von Farbe in einem Videosegment oder einer Bildgruppe unter Verwendung eines GoFGoP-Farbbeschreibers. Dies wird beispielsweise ausführlich in dem Buch beschrieben: Introduction to MPEG-7 Multimedia Content Description Interface, herausgegeben von Manjunath, Salembier und Sikora, ISBN 0-471-48678-7, Abschnitt 13.5. Es werden drei Techniken zum Aggregieren einer Bildgruppe beschrieben: Durchschnitt, Median und Querschnitt.
  • In jeder Technik wird ein Farbhistogramm für jedes Bild in der Gruppe abgeleitet wie oben beschrieben. In der Durchschnittstechnik werden die Farbhistogramme akkumuliert und dann wird jeder akkumulierte Bin-Wert durch N geteilt, wobei N die Anzahl von Bildern in der Gruppe ist, um ein Durchschnittshistogramm zu erzeugen. In der Mediantechnik werden für jeden Binwert die Histogrammwerte der Gruppe in ansteigender/absteigender Reihenfolge angeordnet und der Medianwert wird dem jeweiligen Bin zugewiesen. Das Querschnittshistogramm wird erhalten, indem für jeden Bin der Mindesthistogrammwert aus den Histogrammen für die Gruppe genommen wird. Anders ausgedrückt, stellt das Querschnittshistogramm die Anzahl von Pixeln einer be stimmten Farbe oder Farbbereichs dar (entsprechend einem Bin), welche in allen Bildern erscheinen.
  • In jedem Fall wird das aggregierte Histogramm (Durchschnitt, Median oder Querschnitt) dann unter Verwendung eines skalierbaren Farbbeschreibers (Abschnitt 13.4 des oben genannten Buches) dargestellt, der das Anlegen eines Codierschemas auf Basis einer Haar-Transformation auf die Werte in dem Farbhistogramm enthält.
  • Das Dokument „Automatic Video Scene Extraction by Shot Grouping" von Tong Lin und Hong-Jiang Zhang betrifft das Gruppieren von Aufnahmen in Szenen. Eine Framegruppe, die eine Aufnahme bildet, wird analysiert, um die dominanten Farbobjekte in jedem Frame zu bestimmen und dann die dominanten Farbobjekte, die durch die gesamte Framegruppe anhalten, zu bestimmen. Dies erzeugt ein dominantes Farbhistogramm für eine Aufnahme. Dominante Farbhistogramme für verschiedene Aufnahmen werden verglichen. Wenn die Korrelation zwischen zwei Aufnahmen hoch ist, werden die Aufnahmen in eine Szene gruppiert.
  • T. Lin, C.-W. Ngo, H.-J. Zhang, Q.-Y. Shi, Integrating color and spatial features for content-based video retrieval, Proceedings 2001 International Conference On Image Processing, Icip 2001, Thessaloniki, Griechenland, 7.-10. Oktober 2001, International Conference an Image Processing, New York, NY:Ieee, US (07.10.2001), 1 von 3, CONF, 8, 592–595, bezieht sich auf einen Beschreiber für eine Framegruppe unter Verwendung dominanter Farbhistogramme, die temporäre Informationen aufnehmen, indem sie Histogrammbins entsprechend jeder dominanten Farbe bezüglich der relativen Dauer gewichten.
  • EP-A-1302865 (Mitsubishi EIT), 16. April 2003, (16.04.2003) betrifft ein Verfahren zur Bildsuche unter Verwendung von Beschreibern mit zwei oder mehr dominanten Farben, so dass die Beschreiber Subbeschreiber haben und jeder Subbeschreiber sich auf mindestens eine dominante Farbe bezieht, und mittels Abgleich unter Betrachtung einer Untergruppe dominanter Farben unter Verwendung von Subbeschreibern.
  • Aspekte der Erfindung werden in den beigefügten Ansprüchen dargelegt.
  • Eine Ausführungsform der Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
  • 1 ein Blockdiagramm eines Systems gemäß einer Ausführungsform der Erfindung ist;
  • 2a, 2b und 35 Graphen sind, die ein Verfahren zum Zusammenführen von Bildbeschreibern gemäß einer Ausführungsform der Erfindung darstellen;
  • 6 das Kombinieren von Bildern zur Bildung eines Superbilds darstellt.
  • In 1 wird ein System gemäß einer Ausführungsform der Erfindung gezeigt. Das System enthält eine Steuereinheit 12, wie einen Computer zum Steuern des Betriebs des Systems, wobei die Steuereinheit 12 mindestens einen Speicher und einen Prozessor, eine Anzeigeeinheit 14, wie einen Monitor, der mit der Steuereinheit 12 verbunden ist, zum Anzeigen von Ausgaben einschließlich Bilder und Text und eine Zeigevorrichtung 16, wie eine Maus zum Eingeben von Anweisungen an die Steuereinheit 12, enthält. Das System enthält auch eine Bilddatenbank 18, die digitale Versionen einer Vielzahl von Bildgruppen speichert und eine Beschreiberdatenbank 20, die Beschreiberinformationen speichert, welche im Folgenden ausführlicher beschrieben werden, für jede der Bildgruppen, die in der Bilddatenbank 18 gespeichert sind. In diesem Beispiel entspricht jede Bildgruppe einer Aufnahme aus einer Videosequenz. Es gibt verschiedene bekannte Techniken zum Aufteilen einer Videosequenz in Aufnahmen, welche hier nicht ausführlich beschrieben werden. Die Erfindung kann auf jede Bildgruppe oder Bildbereiche, einschließlich Bereichen in Bildern, angewendet werden. Die Bilder können in Gruppen gespeichert werden oder es kann beispielsweise einen Identifizierer geben, der anzeigt, welche Bilder zu derselben Gruppe gehören.
  • Jede der Bilddatenbank 18 und der Beschreiberdatenbank 20 ist mit der Steuereinheit 12 verbunden. Das System enthält auch eine Suchmaschine 22, bei der es sich um ein Computerprogramm unter der Steuerung der Steuereinheit 12 handelt und welches an der Beschreiberdatenbank 20 betrieben wird.
  • In dieser Ausführungsform werden die Elemente des Systems an einer einzigen Stelle bereitgestellt, wie beispielsweise einer Bildbibliothek, wobei die Komponenten des Systems ständig verknüpft sind.
  • Die Beschreiberdatenbank 20 speichert Beschreiber aller in der Bilddatenbank gespeicherten Bilder und zusätzlich aller Bildgruppen in der Bilddatenbank. Die Bild- und Gruppenbeschreiber werden wie unten beschrieben abgeleitet.
  • Jedem Bild ist ein Bildbeschreiber zugeordnet, welcher das jeweilige Bild hinsichtlich der dominanten Farbe oder Farben in dem Bild ausdrückt. In dieser Ausführungsform werden die Bildbeschreiber im Wesentlichen wie in unserer gleichzeitig anhängigen Anmeldung WO 00/67203 beschrieben abgeleitet.
  • Es folgt eine kurze Zusammenfassung des Ableitens eines Bildbeschreibers. Jedes Bild weist eine Vielzahl von Pixeln auf und jedem Pixel ist ein Farbwert in dem relevanten Farbraum wie beispielsweise RGB zugewiesen.
  • Die Farbwerte und die entsprechenden Pixel bilden in dem Farbbereich Cluster, um die dominanten Farben und welche Farben einer jeweiligen dominanten Farbe entsprechen, zu bestimmen. Dies erfolgt unter Verwendung geeigneter Clusteralgorithmen, wie den verallgemeinerten Lloydalgorithmus, wie in Abschnitt 13.3.1 des oben genannten MPEG-7-Buchs beschrieben.
  • Die sich aus der Clusterprozedur ergebenden Clusterschwerpunkte werden als dominante Farbwerte verwendet, und die Pixelgruppen, die die jeweiligen Cluster bilden, werden zur Berechnung zusätzlicher Felder (Gewicht und Farbabweichung) wie unten erläutert verwendet.
  • Alternativ können die dominanten Farben unter Verwendung eines Histogrammansatzes abgeleitet werden, wie in WO 00/67203 beschrieben.
  • In diesem Fall wird ein Farbhistogramm für ein Bild abgeleitet, indem eine vorgegebene Anzahl von Farbwerten oder Farbwertbereichen in dem jeweiligen Farbraum ausgewählt wird, und die Anzahl von Pixeln in dem Bild, die jeden Farbwert oder Wert in dem relevanten Bereich aufweisen, wird gezählt.
  • Allgemein wird das Histogramm eine oder mehrere Spitzen aufweisen und die Spitzen (oder eine Untergruppe davon, wie beispielsweise eine vorgegebene Anzahl der höchsten Spitzen) werden als die dominanten Farben ausgewählt und die Farbwerte/Pixel werden in dem Farbbereich hinsichtlich der dominanten Farben geclustert.
  • Nach Clusterung der Farbwerte wird ein Farbabweichungswert für jede dominante Farbe bestimmt, welcher für jede dominante Farbe die Abweichung der Farbwerte für das jeweilige auf der dominanten Farbe zentrierte Cluster ausdrückt. Die dominante Farbe kann als ein Mittelwert für die Farbverteilung in dem relevanten Cluster angesehen werden.
  • Die Berechnung der Abweichung kann unter Verwendung der folenden Gleichunausgedrückt werden:
    Figure 00070001
    wobei j die Farbkomponente indiziert, mj die j-te Komponente der dominanten Farbe ist, pkj die j-te Komponente des k-ten Pixelwerts ist und die Summierung über N Pixel entsprechend der betrachteten dominanten Farbe erfolgt.
  • Der Beschreiber enthält auch einen Gewichtswert für jede dominante Farbe, bei dem es sich um ein Maß der relativen Signifikanz jeder dominanten Farbe in dem Bild handelt. In diesem Bespiel ist das Gewicht das Verhältnis der Anzahl von Pixeln in dem Cluster, die dem dominanten Farbwert entsprechen, zu der Gesamtanzahl von Pixeln in dem Bild. Das Gewicht kann als Prozentsatz ausgedrückt werden.
  • Die dominanten Farbwerte und ihre jeweiligen Abweichungen und Gewichte werden kombiniert, um einen Farbbeschreiber des Bilds zu bilden. Der Beschreiber kann auch andere Komponenten aufweisen, wie beispielsweise einen Grad n, der die Anzahl dominanter Farben anzeigt. Der Beschreiber kann auch Kovarianzwerte Cij enthalten, wobei i und j Farbkomponenten in dem relevanten Farbraum für jede dominante Farbe und Cluster darstellen, sowie Abweichungswerte enthalten.
  • Der Farbbeschreiber für jedes Bild wird in der Beschreiberdatenbank gespeichert.
  • Es ist wichtig darauf hinzuweisen, dass ein dominanter Farbbeschreiber nicht das gleiche wie eine Histogramm darstellung eines Bilds ist. Ein dominanter Farbbeschreiber enthält die Werte der dominanten Farbe in einem Bild, welche in vorherigen Verarbeitungsschritten bestimmt werden konnten. Eine Histogrammdarstellung eines Bilds enthält die dominanten Farben, aber es gibt keine Identifizierung der dominanten Farben. Der dominante Farbbeschreiber kann auch andere Werte enthalten wie beispielsweise Werte, die der Abweichung der Farbverteilung hinsichtlich der oder jeder dominanten Farbe entsprechen, aber eine Histogrammdarstellung enthält keine Berechnung oder Bestimmung der Abweichung oder anderer Werte. Zu weiteren Komponenten eines dominanten Farbbeschreibers kann beispielsweise ein Gewicht gehören, welches die Einwirkung der dominanten Farbe in dem Bild, die Anzahl dominanter Farben in dem Bild und die räumliche Homogenität von Pixeln anzeigt, die den dominanten Farben in dem Bild entsprechen.
  • Ein Gruppenbeschreiber für eine Bildgruppe wird gemäß einer ersten Ausführungsform wie folgt abgeleitet.
  • Die Bildbeschreiber für jedes Bild in der Bildgruppe werden aus der Beschreiberdatenbank abgerufen. Die Bildbeschreiber werden dann zur Bildung eines Gruppenbeschreibers kombiniert.
  • Der Gruppenbeschreiber hat ein ähnliches Format wie ein Bildbeschreiber (dominante Farben, Abweichungen, Gewichte usw.). Vorzugsweise beträgt die Anzahl dominanter Farben in dem Gruppenbeschreiber zwischen 1 und 8. Die Anzahl dominanter Farben kann jedoch unbeschränkt sein oder auf ein vorgegebenes Maximum eingestellt sein. Die Anzahl dominanter Farben in dem Bildbeschreiber kann auch unbeschränkt sein oder auf ein vorgegebenes Maximum beschränkt sein. Das Maximum der Bildbeschreiber und das Maximum für den Gruppenbeschreiber muss nicht notwendigerweise dasselbe sein, so dass beispielsweise die Bildbeschreiber mehr dominante Farben aufweisen können als die Gruppenbeschreiber.
  • In diesem Beispiel gibt es zwei Bilder in einer Gruppe und die beiden jeweiligen Bildbeschreiber werden wie folgt kombiniert.
  • Allgemein ausgedrückt, werden die Bildbeschreiber kombiniert, indem Cluster in den Bildern basierend auf der Nähe der Cluster im Farbraum zusammengeführt werden.
  • 2a und 2b sind abstrakte Darstellungen von Clustern im Farbraum der beiden Bilder. 2a zeigt das erste Bild und 2b zeigt das zweite Bild. In jedem Fall stellen die Kreise einen Cluster für eine jeweilige dominante Farbe dar. Der Einfachheit halber wird der Farbraum in zwei Dimensionen gezeigt, obwohl der Farbraum normalerweise drei Dimensionen aufweisen wird. Die Cluster müssen außerdem nicht notwendigerweise Kreisen im Farbraum entsprechen, sondern werden so der Einfachheit halber gezeigt, und die Kreise geben keine Angabe über das Gewicht der Cluster. Im Folgenden wird eine Darstellung, wie sie in 2a und 2b gezeigt wird (das heißt, eine Darstellung hinsichtlich der dominanten Farben und jeweiligen Cluster), als Clusterbeschreiber beschrieben.
  • Die beiden Clusterbeschreiber aus 2a und 2b werden kombiniert, um einen Clustersuperbeschreiber zu bilden. Dies wird in 3 dargestellt.
  • Als nächstes wird der Abstand zwischen jedem Clusterpaar (wie oben definiert) im Superbeschreiber unter Verwendung einer geeigneten Abstandsmessung im Farbraum beschrieben. In diesem Beispiel ist der Abstand der euklidische Abstand im Farbraum.
  • In diesem Beispiel gibt es zwei dominante Farben und zwei Cluster im ersten Bild und drei dominante Farben und drei Cluster im zweiten Bild, die jeweils 1 bis 5 nummeriert sind. Jede dominante Farbe entspricht einem Punkt im RGB-Farbraum, welcher in 25 durch ein Kreuz dargestellt wird. Der Abstand zwischen einem Clusterpaar ist der Abstand im 3-D RGB-Raum zwischen den Schwerpunkten der Cluster. Der Abstand zwischen jedem Paar dominanter Farben in dem ersten und zweiten Bild wird berechnet einschließlich in diesem Beispiel der Cluster von demselben Bild. Das Paar dominanter Farben, die den geringsten Abstand geben, wird ausgewählt.
  • Als nächstes werden die den beiden dominanten Farben entsprechenden Cluster zusammengeführt.
  • In diesem Beispiel sind die beiden nächsten Cluster, wie in 3 gezeigt, die Cluster 1 und 3 und diese werden wie folgt zusammengeführt.
  • Der dominante oder repräsentative Farbwert des zusammengeführten Clusters ist ein gewichteter Mittelwert der dominanten Farben der beiden Cluster, wobei das Gewicht wie oben definiert ist. Somit weist die zusammengeführte dominante Farbe m für die beiden dominanten Farben m1, m2 und die jeweiligen Gewichte W1 und W2 den folgenden Wert auf: m = w1m1 + w2m2 wobei w1, w2 die relativen Gewichte, W1/W1 + W2 und W2/W1 + W2, sind.
  • Es wird auch die Abweichung des zusammengeführten Clusters unter Verwendung der Abweichungen der beiden zusammengeführten Cluster berechnet. In diesem Beispiel wird jede Farbkomponente unabhängig behandelt und es wird angenommen, dass die Abweichung des zusammengeführten Clusters eine gewichtete Summe zweier Gaußschen Verteilungen ist. Dies führt zu der folgenden Formel für die Abweichung des zusammengeführten Clusters: σ2 = w1σ2 1 + w2σ2 2 + w1w2(m1 – m2)2 wobei σ1 2, σ2 2 die Abweichungen für die Komponentencluster, m1, m2 ihre Mittelwerte und w1, w2 ihre relativen Gewichte wie oben definiert sind.
  • Das Gewicht W für den zusammengeführten Cluster ist W1 + W2.
  • Das zusammengeführte Cluster wird als ein neues Cluster behandelt mit dem Gewicht, dem Mittelwert und der Abweichung wie oben beschrieben.
  • Dies wird in 4 dargestellt, wo die Cluster 1 und 3 zusammengeführt werden, um ein neues Cluster 6 zu bilden.
  • Als nächstes gibt es eine weitere Wiederholung der Zusammenführungsschritte. Die beiden Cluster 1 und 3, die in der ersten Wiederholung zusammengeführt worden sind, werden von der weiteren Betrachtung ausgeschlossen und durch das zusammengeführte Cluster 6 wie in 4 gezeigt ersetzt.
  • Die Zusammenführungsschritte werden dann wiederholt, indem das nächste Clusterpaar einschließlich des zusammengeführten Clusters 6 im Farbraum identifiziert wird und sie wie oben dargelegt zusammengeführt werden.
  • In diesem Beispiel sind in der zweiten Wiederholung die Cluster 2 und 4 das nächste Clusterpaar. Diese werden zusammengeführt, um ein neues Cluster 7 zu erzeugen, mit der dominanten Farbe, dem Gewicht und der Abweichung, die wie oben dargelegt aus den dominanten Farben, den Gewichten und den Abweichungen von Clustern 2 und 4 abgeleitet werden. Das zusammengeführte Cluster 7 ersetzt die Cluster 2 und 4 wie in 5 gezeigt.
  • Die Zusammenführungen werden wiederholt, bis ein vorgegebener Zustand eingehalten wird. Der vorgegebene Zustand kann beispielsweise sein, dass das Zusammenführen fortgeführt wird, bis eine vorgegebene Anzahl von Gesamtclustern übrig bleibt (Summe zusammengeführter Cluster und verbleibende Originalcluster in dem ersten und dem zweiten Bild). Alternativ kann der vorgegebene Zustand sein, dass das Zusammenführen fortgeführt wird, bis der Abstand zwischen jedem übrig bleibenden Clusterpaar größer als ein gegebener Wert ist. Alternativ kann das Verfahren eine vorgegebene Anzahl von Wiederholungen enthalten. Mehr als einer der vorgegebenen Zustände kann kombiniert werden.
  • Im vorliegenden Fall wird das Zusammenführen wiederholt, bis eine vorgegebene Anzahl (drei) von Clustern übrig bleibt.
  • Im obigen Beispiel werden die zusammengeführten Cluster bei weiteren Wiederholungen berücksichtigt. Sie können jedoch auch von weiteren Wiederholungen ausgeschlossen werden. Im obigen Beispiel können Cluster auch mit anderen Clustern in demselben Bild zusammengeführt werden, aber alternativ können die Cluster nur mit Clustern zusammengeführt werden, die in einem weiteren Bild erscheinen, in der ersten und/oder jeder nachfolgenden Wiederholung. Dies verringert die Anzahl von Abstandsmessungen.
  • Obwohl die Beschreibung hinsichtlich Clustern erfolgte, versteht sich, dass das Zusammenführen an den Werten der Beschreiber, das heißt, der dominanten Farbe, der Abweichung und dem Gewicht funktioniert und es nicht notwendig ist, die Cluster selbst zu analysieren.
  • Nach Abschluss der Wiederholungen werden die verbleibenden Cluster verwendet, um einen Gruppenbeschreiber zu bilden. Genauer ausgedrückt, gibt es für jeden Endcluster eine Darstellung oder eine dominante Farbe, eine jeweilige Abweichung und ein jeweiliges Gewicht. Diese werden zusammen mit einem Grad m, der die Anzahl von Endclustern angibt, kombiniert, um einen Gruppenbeschreiber zu bilden. Der Gruppenbeschreiber kann auch andere Faktoren wie eine Angabe des Farbraums oder die in der Darstellung verwendeten Farbquantisierung enthalten. Der Gruppenbeschreiber ist ein GoFGoP-dominanter Farbbeschreiber.
  • Im obigen Beispiel gibt es in der Bildgruppe nur zwei Bilder. Das Verfahren lässt sich jedoch auch auf Gruppen, die mehr als zwei Bilder enthalten, anwenden. Die Clusterbeschreiber für jedes Bild in der Gruppe könnten alle kombiniert werden, um wie oben einen Superbeschreiber zu bilden. Alternativ könnte die Bildgruppe in Untergruppen kombiniert werden, beispielsweise in Gruppen von zwei oder drei, die gegebenenfalls aufeinanderfolgen, und dann könnten die Beschreiber für die Untergruppen auf ähnliche Weise kombiniert werden.
  • Wenn es in einer Gruppe eine große Anzahl von Bildern gibt, enthält das obige Verfahren potentiell eine große Anzahl von Clustern und eine große Anzahl von Berechnungen von Abständen zwischen den Clustern.
  • Angesichts des Obigen berücksichtigt eine Variante des obigen Verfahrens den Umstand, dass die meisten Bilder in einer Videoaufnahme oder einer Sammlung und die entsprechenden Beschreiber sehr ähnlich sein werden. Das bedeutet, dass die meisten Cluster ohne signifikanten Verlust an Genauigkeit auf einer Framebasis zusammengeführt werden können.
  • Genauer ausgedrückt, berücksichtigt die Variante die Bilder einer Bildgruppe in einer Sequenz. Wie in dem oben beschriebenen Verfahren wurden die Bildbeschreiber bereits abgeleitet und in der Beschreiberdatenbank gespeichert. Die Clusterbeschreiber für ein erstes und zweites Bild in einer Bildgruppe werden abgerufen. Als nächstes werden die Abstände zwischen jedem Cluster in dem Bildpaar bestimmt. Wenn der Abstand zwischen jedem Clusterpaar unter einem vorgegebenen Schwellwert liegt, wird das Clusterpaar zusammengeführt. Die zusammengeführten Cluster und alle verbleibenden Cluster in dem Bildpaar werden in einem Superbeschreiber wie in dem obigen Beispiel gesammelt. Der Clusterbeschreiber für das nächste Bild wird dann abgerufen und mit dem Superbeschreiber für die ersten beiden Bilder auf dieselbe Weise zusammengeführt, indem Cluster, die nah sind, zusammengeführt werden und einen neuen Superbeschreiber bilden. Wenn die Clusterbeschreiber für alle Bilder betrachtet worden sind, wird der sich ergebende Superbeschreiber unter Verwendung aller verbleibender Cluster, wie in dem ersten Beispiel dargelegt, zusammengeführt.
  • In der obigen Beschreibung wurden die Clusterbeschreiber bereits abgeleitet. Alternativ kann das Bild abgerufen oder zugeführt und der Beschreiber aus dem Bild abgeleitet werden, bevor das Clusterzusammenführen ausgeführt wird.
  • In der ersten oben beschriebenen Ausführungsform wird ein Beschreiber eines GoFGoP abgeleitet, indem die Beschreiber für jedes Bild in der Gruppe aggregiert werden.
  • In einem ersten Beispiel werden die Bilder in dem Bild oder Pixelbereich aggregiert und dann wird ein dominanter Farbbeschreiber aus dem aggregierten Bild abgeleitet, um einen GoFGoP-dominanten Farbbeschreiber zu erzeugen. Wenn es in der Gruppe N Bilder 8 gibt, wobei jedes Bild m×m Pixel enthält, kann das Superbild 9 als (N×m)×m-Array von Pixeln betrachtet werden, wie in 6 gezeigt.
  • Im Gegensatz zur ersten Ausführungsform verwendet das erste Beispiel nicht die Bildbeschreiber für jedes Bild, sondern arbeitet direkt mit den Bildern.
  • Nach dem Aggregieren der Bilder wird aus dem Superbild unter Verwendung der oben in Bezug auf die erste Ausführungsform beschriebenen Technik ein dominanter Farbbeschreiber abgeleitet.
  • Ein Vorteil des ersten Beispiels ist, dass es keinen Verlust an Genauigkeit im Extraktionsprozess gibt. Zum Betrachten aller Bilder kann jedoch ein großes Maß an Komplexität, insbesondere Speicher, erforderlich sein. Um das Problem der Komplexität zu überwinden, können die Bilder temporär und/oder räumlich abgetastet werden.
  • Im Obigen werden die Bilder in dem Bild- oder Pixelbereich aggregiert und dann wird ein dominanter Farbbeschreiber aus dem aggregierten Bild abgeleitet, um einen GoFGoP-dominanten Farbbeschreiber zu erzeugen. Alternativ könnte jedes Bild in dem Farbbereich aggregiert werden (zum Beispiel in Form eines Histogramms für jedes Bild) und der dominante Farbbeschreiber könnte aus den aggregierten Histogrammen abgeleitet werden. Ein Farbhistogramm für jedes Bild könnte beispielsweise abgeleitet werden oder aus einem Speicher abgerufen werden. Als nächstes werden die Farbhistogramme kombiniert, indem sie zur Bildung eines Superbildhistogramms addiert werden, welches durch die Anzahl von Bildern, die das Superbild bilden, normalisiert werden kann. Schließlich wird unter Verwendung der oben in Bezug auf die erste Ausführungsform beschriebenen Technik ein dominanter Farbbeschreiber aus dem Superbildhistogramm abgeleitet. Anders ausgedrückt, werden die Spitzen (domi nanten Farben) des Superbildhistogramms ausgewählt, sowie die jeweiligen Abweichungen und Gewichte.
  • Andere Techniken zum Aggregieren der Bilder vor dem Ableiten des dominanten Farbbeschreibers können verwendet werden. Statt die Histogramme für jedes Bild zu addieren, kann beispielsweise der Durchschnitt, Median oder Querschnitt der Bildgruppe berechnet werden. Der dominante Farbgruppenbeschreiber wird dann aus dem sich ergebenden Durchschnitts-, Median- oder Querschnittshistogramm abgeleitet.
  • In einer Variante des ersten Beispiels, welches für die Aggregierung im Bild/Pickelbereich und im Farb/Histogrammbereich gilt, wird die Bildgruppe temporär abgetastet, wie unten beschrieben. In diesem Beispiel werden die Clusterbeschreiber für jedes Bild abgeleitet oder abgerufen. Auf der Basis der Ähnlichkeit der Clusterbeschreiber wird bestimmt, welche Bilder in der Gruppe beim Ableiten des GoFGoP-Beschreibers verwendet werden.
  • Das erste Bild in einer Sequenz aus der Bildgruppe bildet das Anfangssuperbild. Die folgenden Bilder werden verworfen, bis die Ähnlichkeit zwischen dem Clusterbeschreiber eines Bildes und dem letzten Bild, welches dem Superbild zugeführt wird (anfänglich das erste Bild) einen vorgegebenen Entscheidungszustand erfüllt. Wenn ein Bild den Zustand erfüllt, wird es dem Superbild zugefügt. Die folgenden Bilder in der Gruppe werden dann mit dem Bild verglichen, welches zuletzt dem Superbild zugefügt wurde, bis der vorgegebene Zustand wieder erfüllt wird usw., bis alle Bilder in der Gruppe betrachtet worden sind. Der dominante Farbbeschreiber wird dann aus dem sich ergebenden Superbild abgeleitet.
  • Ein mögliches Entscheidungskriterium für die Bildähnlichkeit ist der Wert der Abgleichfunktion zwischen den je weiligen dominanten Farbbeschreibern, wie in unserer gleichzeitig anhängigen Anmeldung WO 00/67203 beschrieben oder unter Verwendung einer Abgleichfunktion, wie in dem oben erwähnten MPEG-7 Buch beschrieben. Ein weiteres Kriterium könnte das Ergebnis der oben beschriebenen „Online"-Zusammenführung sein. Das „Entscheidungskriterium" würde in diesem Fall erfüllt werden, wenn alle Cluster in den bestehenden Beschreiber zusammengeführt worden sind. Ein weiterer Ansatz, der das Extrahieren der dominanten Farbe für alle Bilder vermeiden würde, wäre die Berechnung eines rohen Farbhistogramms und die Verwendung des Histogrammabgleichfunktionswerts als das Kriterium.
  • Beide Kriterien erfordern das Festlegen zusätzlicher Parameter: einen Schwellwert, unter dem der Abgleichfunktionswert im ersten Fall als klein betrachtet wird und einem Zusammenführungsschwellwert im zweiten Fall. Ein alternativer Ansatz, der sich insbesondere im Fall eines beschränkten Speichers eignen würde, wäre die Anpassung des Schwellwertes, so dass die Anzahl von Bildern, die gesammelt werden, eine festgelegte Grenze nicht übersteigt.
  • Ein zweites Beispiel leitet einen GoFGoP-dominanten Farbbeschreiber aus der Gruppe dominanter Farbbeschreiber für die Bildgruppe ab. Genauer ausgedrückt, werden die jeweiligen dominanten Farbbeschreiber für eine Bildgruppe aus der Beschreiberdatenbank abgerufen (oder abgeleitet, wenn sie noch nicht abgeleitet worden sind).
  • Für jeden dominanten Farbbeschreiber wird der Abstand zwischen dem Beschreiber und jedem der verbleibenden Beschreiber für die Gruppe gemessen. Dies führt zu einer Gruppe von Abstandsmessungen für jeden Beschreiber, welche addiert werden können, um eine Gesamtabstandsmessung für jeden Beschreiber zu ergeben. Der Beschreiber mit der kleinsten Gesamtabstandsmessung wird als ein repräsenta tiver Beschreiber ausgewählt und als der GoFGoP-dominante Farbbeschreiber behandelt.
  • Es können andere Arten zum Auswählen des repräsentativen Beschreibers verwendet werden, die vorzugsweise Tests oder Vergleiche enthalten, welche mindestens einige der Bildbeschreiber für die Bilder in der Gruppe umfassen. Als weiteres Beispiel könnte dies, basierend auf dem Verzerrungsmaß erfolgen, wie in MPEG-7 definiert, wenn dies für alle Beschreiber erfolgt.
  • Es ist möglich, sehr nahe Beschreiber vorher zu verwerfen, um die Berechnung zu verringern.
  • Oben werden verschiedene Verfahren zum Ableiten eines GoFGoP-Beschreibers, insbesondere eines GoFGoP-dominanten Farbeschreibers, dargelegt.
  • Es gibt unterschiedliche Anwendungen für den GoFGoP-Beschreiber, wie beispielsweise beim Suchen nach und Abrufen von Bildgruppen. Beispielsweise kann ein Nutzer wünschen, nach Bildgruppen entsprechend einem Eingabebild oder einer Bildgruppe zu suchen.
  • Im Folgenden wird ein Suchverfahren umrissen.
  • Unter Bezugnahme auf 1 wird von einem Nutzer ein Abfragebild unter Verwendung geeigneter Mittel, wie eines Scanners oder einer Digitalkamera, eingegeben oder durch Auswählen eines Abfragebilds aus einem Bildbereich, der von dem Computer angezeigt wird, oder durch Auswählen eines Bereichs eines solchen Bilds ausgewählt. Ein dominanter Farbbeschreiber für das Bild wird abgeleitet wie oben beschrieben. Die GoFGoP-dominanten Farbbeschreiber liegen im selbem Format vor wie ein dominanter Farbbeschreiber eines einzelnen Bilds und so kann der Abgleich beispielsweise unter Verwendung einer Abgleichfunktion, wie in WO 00/67203 dargelegt, oder ähnlichem oder unter Verwendung einer Abgleichfunktion, wie in dem Abschnitt 13.3.2 des oben genannten MPEG-7 Buchs dargelegt, ausgeführt werden. Optional kann der Abfragebeschreiber auch mit Bildbeschreibern einzelner Bilder verglichen werden, die in der Datenbank gespeichert sein können.
  • Die Ergebnisse der Abgleichfunktion werden geordnet und die Bildgruppen, für die die Abgleichfunktion die nächste Übereinstimmung anzeigt, werden abgerufen. Es können ein oder mehrere Bilder aus den nächsten Übereinstimmungen angezeigt werden.
  • Es können andere Verfahren zum Stellen einer Anfrage verwendet werden. Eine Anfrage kann gestellt werden, indem eine Bildgruppe ausgewählt wird und ein GoFGoP-Beschreiber wie oben für die Gruppe beschrieben extrahiert wird. Die Gruppe kann explizit ausgewählt werden, beispielsweise indem ein Bereich von Frames ausgewählt wird oder implizit ausgewählt werden, indem beispielsweise ein Schlüsselframe in einem Video ausgewählt wird, indem eine „Aufnahme", die den Schlüsselframe enthält, dann unter Verwendung eines geeigneten Algorithmus abgeleitet wird.
  • Ein erfindungsgemäßes System kann beispielsweise in einer Bildbibliothek bereitgestellt werden. Alternativ können die Datenbanken räumlich entfernt von der Steuereinheit des Systems angeordnet sein und mit der Steuereinheit über eine temporäre Datenstrecke, wie beispielsweise eine Telefonleitung oder ein Netzwerk, wie dem Internet, verbunden sein. Die Bild- und Beschreiberdatenbanken können beispielsweise im permanenten Speicher oder auf einem tragbaren Datenspeichermedium, wie beispielsweise CD-ROMS oder DVDs bereitgestellt werden.
  • Das oben als eine Ausführungsform der Erfindung beschriebene System liegt in Form eines Computersystems vor. Das Computersystem kann ein Standardcomputer sein, der unter Verwendung geeigneter Programme zum Ausführen eines Verfahrens gemäß einer Ausführungsform der Erfindung programmiert worden ist. Die Programme können in jedem geeigneten Speichermedium einschließlich fester oder permanenter Speicher oder entfernbarer Speichermittel gespeichert sein. Das System kann unter Verwendung spezifischer Hardware und/oder Software einschließlich beispielsweise spezifischer Chips modifiziert sein. Die Erfindung kann auch in einer speziell angepassten Vorrichtung implementiert sein einschließlich spezifischer Hardware und/oder Software.
  • In der obigen Beschreibung wurden die Farbdarstellungen hinsichtlich roter, grüner und blauer Farbkomponenten beschrieben. Natürlich können auch andere Darstellungen verwendet werden, wie beispielsweise eine Darstellung unter Verwendung von Farbton, Sättigung und Intensität oder ein YUV-Koordinatensystem oder eine Untergruppe von Farbkomponenten in jedem Farbraum, zum Beispiel nur Farbton und Sättigung in HSI.
  • Die oben beschriebene Ausführungsform der Erfindung verwendet Beschreiber, die für Bilder und Bildgruppen abgeleitet worden sind. Die Bildbeschreiber können jedoch auch für Bildbereiche gelten und analog können GoFGoP-Beschreiber auf Bildbereichen basieren. Bereiche können rechteckige Blöcke oder Bereiche unterschiedlicher Formen und Größe sein. Alternativ können die Beschreiber für Bereiche in dem Bild abgeleitet werden, welche Objekten beispielsweise einem Auto, einem Haus oder einer Person entsprechen. In jedem Fall können die Beschreiber für das gesamte Bild oder nur einen Teil davon abgeleitet werden. Ein GoFGoP-Gruppenbeschreiber könnte außerdem für ein einzelnes Bild abgeleitet werden, indem die obigen Verfahren auf eine Vielzahl von Bereichen in einem Bild, die eine Bildbereichsgruppe bilden, angelegt werden.
  • Bei dem Suchverfahren kann der Nutzer statt eine einfache Farbanfrage einzugeben oder einen Bildblock auszuwählen beispielsweise die Anzeigevorrichtung verwenden, um einen Bereich in einem Bild zu beschreiben, beispielsweise durch Umkreisen, woraufhin die Steuereinheit einen Beschreiber für diesen Bereich ableitet und ihn zum Suchen verwendet, auf ähnliche Weise wie oben beschrieben. Statt der Verwendung der bereits in der Bilddatenbank gespeicherten Bilder zum Initiieren einer Suche könnte außerdem ein Bild in das System eingegeben werden unter Verwendung beispielsweise eines Bildscanners oder einer Digitalkamera. Um eine Suche in einer solchen Situation auszuführen, leitet das System wiederum zunächst Beschreiber für das Bild oder Bildbereiche ab, entweder automatisch oder wie durch den Nutzer bestimmt.
  • Geeignete Aspekte der Erfindung können unter Verwendung von Hardware oder Software implementiert werden.
  • In den obigen Ausführungsformen werden die Clusterverteilungen für jede repräsentative Farbe unter Verwendung von Gaußschen Funktionen angenähert und die Mittelwerte, Abweichungen und Kovarianzen solcher Funktionen werden in den Beschreiberwerten verwendet. Andere Funktionen oder Parameter können jedoch verwendet werden, um die Komponentenverteilungen anzunähern, beispielsweise unter Verwendung von Basisfunktionen wie Sinus und Kosinus mit Beschreibern, die auf solchen Funktionen basieren.

Claims (9)

  1. Verfahren zur Darstellung einer Gruppe von Bildern (8) umfassend die Bestimmung der Werte von einer oder mehreren dominanten Farben (15) für die Gruppe von Bildern und zur Ableitung einer dominanten Farbdarstellung, die die Gruppe von Bildern hinsichtlich eines oder mehrerer der dominanten Farbwerte wiedergibt, wobei mindestens einige der Bilder in der Gruppe von Bildern durch eine entsprechende dominante Farbdarstellung hinsichtlich eines oder mehrerer dominanter Farbwerte für das Bild dargestellt werden, und wobei jede der dominanten Farbdarstellungen über eine oder mehrere Komponenten verfügt, umfassend mindestens einen dominanten Farbwert, wobei das Verfahren ferner die Kombination mehrerer dominanter Farbdarstellungen oder die Auswahl einer der dominanten Farbdarstellungen als repräsentativ für die Gruppe umfasst, gekennzeichnet durch die Kombination von einer oder mehreren Komponenten der Darstellungen basierend auf der Nähe der dominanten Farben im Farbraum.
  2. Verfahren nach Anspruch 1, wobei jede der dominanten Farbdarstellungen über eine oder mehrere Komponenten verfügt, optional für jeden dominanten Farbwert umfassend eine Abweichung, die die Farbverteilungsabweichung für das Bild hinsichtlich des dominanten Farbwerts angibt, ein Farbgewicht, das die Einwirkung der dominanten Farbe im Bild, die Anzahl der dominanten Farben im Bild und die räumliche Homogenität der Pixel entsprechend der dominanten Farben im Bild angibt.
  3. Verfahren nach einem der vorhergehenden Ansprüche, das ein zeitliches oder räumliches Subsampling der Gruppe von Bildern (8) einschließt.
  4. Verfahren nach Anspruch 3, wobei Bilder in Abhängigkeit ihrer Ähnlichkeit zu anderen Bildern in der Gruppe weggelassen oder eingebunden werden.
  5. Verfahren nach Anspruch 3 oder Anspruch 4, wobei das Subsampling die Schritte aus Anspruch 1 einschließt.
  6. Vorrichtung, die zur Implementierung eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist.
  7. Vorrichtung nach Anspruch 6, die Speichermittel (18, 20) zum Speichern von Bilddaten und/oder Deskriptordaten, Verarbeitungsmittel (22) und Steuerungsmittel (12) einschließlich Anweisungen für die Implementierung eines Verfahrens nach einem der Ansprüche 1 bis 10 umfasst.
  8. Computerprogramm zum Ausführen des Verfahrens nach einem der Ansprüche 1 bis 5.
  9. Ein Computer-lesbares Speichermedium, das ein Computerprogramm zum Ausführen des Verfahrens nach einem der Ansprüche 1 bis 5 speichert.
DE60317053T 2003-07-04 2003-07-04 Verfahren und Vorrichtung zur Darstellung einer Bildgruppe Expired - Lifetime DE60317053T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP03254263A EP1494132B1 (de) 2003-07-04 2003-07-04 Verfahren und Vorrichtung zur Darstellung einer Bildgruppe

Publications (2)

Publication Number Publication Date
DE60317053D1 DE60317053D1 (de) 2007-12-06
DE60317053T2 true DE60317053T2 (de) 2008-08-07

Family

ID=33427249

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60330720T Expired - Lifetime DE60330720D1 (de) 2003-07-04 2003-07-04 Verfahren und Vorrichtung zur Darstellung einer Gruppe von Bildern
DE60317053T Expired - Lifetime DE60317053T2 (de) 2003-07-04 2003-07-04 Verfahren und Vorrichtung zur Darstellung einer Bildgruppe

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE60330720T Expired - Lifetime DE60330720D1 (de) 2003-07-04 2003-07-04 Verfahren und Vorrichtung zur Darstellung einer Gruppe von Bildern

Country Status (5)

Country Link
US (6) US7630545B2 (de)
EP (6) EP1494132B1 (de)
JP (2) JP4553650B2 (de)
CN (6) CN101038593B (de)
DE (2) DE60330720D1 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60330720D1 (de) * 2003-07-04 2010-02-04 Mitsubishi Electric Corp Verfahren und Vorrichtung zur Darstellung einer Gruppe von Bildern
US7813552B2 (en) * 2004-09-23 2010-10-12 Mitsubishi Denki Kabushiki Kaisha Methods of representing and analysing images
JP2006119723A (ja) * 2004-10-19 2006-05-11 Canon Inc 画像処理装置、画像処理方法
JP4881034B2 (ja) * 2005-02-28 2012-02-22 富士フイルム株式会社 電子アルバム編集システム、電子アルバム編集方法、及び電子アルバム編集プログラム
ATE404914T1 (de) * 2006-02-15 2008-08-15 Jaycrypto Ltd Verfahren und vorrichtung zum erzeugen von initialwerten für einen zufallszahlengenerator
US20070201743A1 (en) * 2006-02-28 2007-08-30 Sharp Laboratories Of America, Inc. Methods and systems for identifying characteristics in a digital image
US8116573B2 (en) * 2006-03-01 2012-02-14 Fujifilm Corporation Category weight setting apparatus and method, image weight setting apparatus and method, category abnormality setting apparatus and method, and programs therefor
US20080002855A1 (en) * 2006-07-03 2008-01-03 Barinder Singh Rai Recognizing An Unidentified Object Using Average Frame Color
US7809185B2 (en) * 2006-09-21 2010-10-05 Microsoft Corporation Extracting dominant colors from images using classification techniques
JP2010507162A (ja) * 2006-10-19 2010-03-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ドミナントカラー記述子
US7912279B2 (en) * 2006-10-26 2011-03-22 Qualcomm Incorporated Automatic white balance statistics collection
JP4895878B2 (ja) * 2007-03-19 2012-03-14 富士フイルム株式会社 代表色抽出方法、および代表色抽出装置
CN101625753B (zh) * 2008-07-10 2012-11-21 辉达公司 图形处理中的光栅及光栅化方法
US8401342B2 (en) * 2009-01-16 2013-03-19 A9.Com, Inc. System and method to match images using topologically equivalent correspondences
GB2461641A (en) * 2009-07-08 2010-01-13 Dan Atsmon Object search and navigation
JP5081948B2 (ja) * 2010-05-14 2012-11-28 株式会社バッファロー 無線中継装置
US8612441B2 (en) * 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
US8600153B2 (en) 2012-02-07 2013-12-03 Zencolor Corporation System and method for normalization and codification of colors for dynamic analysis
WO2013184804A1 (en) * 2012-06-06 2013-12-12 Zencolor Corporation System and method for normalization and codificaton of colors for dyanamic analysis
US10460475B2 (en) 2012-02-07 2019-10-29 Zencolor Global, Llc Normalization of color from a captured image into a universal digital color system for specification and matching
US9607404B2 (en) 2012-02-07 2017-03-28 Zencolor Corporation System for normalizing, codifying and categorizing color-based product and data based on a universal digital color system
US9047633B2 (en) 2012-02-07 2015-06-02 Zencolor Corporation System and method for identifying, searching and matching products based on color
US9436704B2 (en) 2012-02-07 2016-09-06 Zencolor Corporation System for normalizing, codifying and categorizing color-based product and data based on a universal digital color language
US9076076B1 (en) * 2012-03-30 2015-07-07 Google Inc. Image similarity determination
US10140537B2 (en) * 2012-10-26 2018-11-27 Daon Holdings Limited Methods and systems for capturing biometric data
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
US8837867B2 (en) * 2012-12-07 2014-09-16 Realnetworks, Inc. Method and system to detect and select best photographs
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
US20150371107A1 (en) * 2014-06-23 2015-12-24 Canon Kabushiki Kaisha Material classification using brdf feature vector
US9087357B2 (en) 2013-10-16 2015-07-21 Zencolor Corporation System for normalizing, codifying and categorizing color-based product and data based on a universal digital color language
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
US9477748B2 (en) * 2013-12-20 2016-10-25 Adobe Systems Incorporated Filter selection in search environments
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US10019143B1 (en) * 2014-09-29 2018-07-10 Amazon Technologies, Inc. Determining a principal image from user interaction
CN106204690B (zh) * 2015-05-04 2020-04-17 阿里巴巴集团控股有限公司 一种图像处理方法及装置
CN104951562B (zh) * 2015-07-08 2018-06-05 天云融创数据科技(北京)有限公司 一种基于vlad双重自适应的图像检索方法
US11256923B2 (en) 2016-05-12 2022-02-22 Arris Enterprises Llc Detecting sentinel frames in video delivery using a pattern analysis
US10097865B2 (en) 2016-05-12 2018-10-09 Arris Enterprises Llc Generating synthetic frame features for sentinel frame matching
US10534973B2 (en) * 2017-04-18 2020-01-14 Google Llc Methods, systems, and media for color palette extraction for video content items
US10388250B2 (en) * 2017-04-18 2019-08-20 Google Llc Methods, systems, and media for modifying user interface colors in connection with the presentation of a video
CN107832359B (zh) * 2017-10-24 2021-06-08 杭州群核信息技术有限公司 一种图片检索方法及系统
US11682142B2 (en) * 2019-12-20 2023-06-20 Raytheon Company Information weighted rendering of 3D point set
US11657541B2 (en) * 2020-08-07 2023-05-23 Texas Instruments Incorporated Parent-child cluster compression
CN112887694B (zh) * 2021-01-26 2023-03-10 腾讯音乐娱乐科技(深圳)有限公司 一种视频播放方法、装置、设备及可读存储介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3786283A (en) * 1970-12-29 1974-01-15 Sansui Electric Co Delay circuit for providing a variable delay characteristic
US5051629A (en) * 1988-06-20 1991-09-24 Hopkins Michael C Signal delay and reproduction device and method
US5119186A (en) * 1989-09-28 1992-06-02 International Business Machines Corporation Color mapping system and method
US5164711A (en) * 1990-02-08 1992-11-17 International Business Machines Corporation System and method for generating graphical output
US5146192A (en) * 1990-07-06 1992-09-08 Hitachi Medical Corporation Delay circuit of ultrasonic diagnostic apparatus using delay line comprising variable capacitance diode and inductor
DE69227008T2 (de) * 1991-11-14 1999-05-20 Agfa Gevaert Nv Verfahren und Vorrichtung zum Herstellen eines Histogramms in der digitalen Bildverarbeitung mittels statistischer Pixelabtastung
US5318034A (en) * 1991-11-27 1994-06-07 Hitachi Medical Corp. Electrically adjustable delay circuit and ultrasonic diagnosis apparatus
JP2721107B2 (ja) * 1993-02-23 1998-03-04 日本電信電話株式会社 映像特徴処理方法
JP3419415B2 (ja) * 1993-07-07 2003-06-23 日本電信電話株式会社 映像特徴処理方法
US5802214A (en) * 1995-12-08 1998-09-01 Xerox Corporation Method for determining and loading an image-dependent look-up table for generating an enhanced image representation
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
JP3747589B2 (ja) * 1997-09-17 2006-02-22 コニカミノルタビジネステクノロジーズ株式会社 画像特徴量比較装置および画像特徴量比較プログラムを記録した記録媒体
WO1999034319A1 (en) * 1997-12-29 1999-07-08 Cornell Research Foundation, Inc. Image subregion querying using color correlograms
JPH11259507A (ja) * 1998-03-12 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> 映像検索方法および映像検索プログラムを格納した記録媒体
US6285995B1 (en) 1998-06-22 2001-09-04 U.S. Philips Corporation Image retrieval system using a query image
US6345274B1 (en) * 1998-06-29 2002-02-05 Eastman Kodak Company Method and computer program product for subjective image content similarity-based retrieval
JP2000069297A (ja) * 1998-08-18 2000-03-03 Hajime Matsuoka 非可逆圧縮画像の客観的画質評価方法
US6516100B1 (en) * 1998-10-29 2003-02-04 Sharp Laboratories Of America, Inc. Method for image characterization using color and texture statistics with embedded spatial information
AU1930700A (en) * 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6272250B1 (en) * 1999-01-20 2001-08-07 University Of Washington Color clustering for scene change detection and object tracking in video sequences
MXPA01007911A (es) * 1999-02-05 2004-03-26 Samsung Electronics Co Ltd Metodo para el procesamiento de imagenes a color y aparato para el mismo.
US6477269B1 (en) * 1999-04-20 2002-11-05 Microsoft Corporation Method and system for searching for images based on color and shape of a selected image
GB2349460B (en) * 1999-04-29 2002-11-27 Mitsubishi Electric Inf Tech Method of representing colour images
JP2001043371A (ja) * 1999-07-29 2001-02-16 Canon Inc 画像処理方法、画像処理装置及び記憶媒体
US6577759B1 (en) 1999-08-17 2003-06-10 Koninklijke Philips Electronics N.V. System and method for performing region-based image retrieval using color-based segmentation
KR20010081894A (ko) * 2000-02-18 2001-08-29 구자홍 이종 시스템간의 내용기반 멀티미디어 검색을 가능하게하는 칼라 히스토그램 변환방법, 멀티미디어 검색 방법,데이터 구조 및 멀티미디어 검색 시스템
KR100439371B1 (ko) * 2000-09-08 2004-07-09 엘지전자 주식회사 히스토그램을 이용한 멀티미디어 검색방법
US6788813B2 (en) * 2000-10-27 2004-09-07 Sony Corporation System and method for effectively performing a white balance operation
US7062084B2 (en) * 2000-12-01 2006-06-13 Sharp Laboratories Of America, Inc. Method for image description using color and local spatial information
US6944334B2 (en) * 2001-02-01 2005-09-13 Eastman Kodak Company Color cross reference selection system and method
ATE459062T1 (de) * 2001-07-31 2010-03-15 Aevora Beauty Concepts Inc Fortschrittliches kosmetisches farbanalysesystem
EP1302865A1 (de) 2001-10-10 2003-04-16 Mitsubishi Electric Information Technology Centre Europe B.V. Verfahren und Vorrichtung zur Suche und zum Wiederauffinden von Farbbildern
US7415153B2 (en) * 2002-09-20 2008-08-19 International Business Machines Corporation Color naming, color categorization and describing color composition of images
DE60330720D1 (de) * 2003-07-04 2010-02-04 Mitsubishi Electric Corp Verfahren und Vorrichtung zur Darstellung einer Gruppe von Bildern
US20060291750A1 (en) * 2004-12-16 2006-12-28 Peyman Milanfar Dynamic reconstruction of high resolution video from low-resolution color-filtered video (video-to-video super-resolution)

Also Published As

Publication number Publication date
EP1494132A1 (de) 2005-01-05
EP2164044A1 (de) 2010-03-17
US20080118146A1 (en) 2008-05-22
US20050013491A1 (en) 2005-01-20
EP1494132B1 (de) 2007-10-24
EP2302590A1 (de) 2011-03-30
DE60330720D1 (de) 2010-02-04
CN101017507A (zh) 2007-08-15
US7826661B2 (en) 2010-11-02
CN101038593B (zh) 2010-06-23
US7715621B2 (en) 2010-05-11
CN100501742C (zh) 2009-06-17
JP4553650B2 (ja) 2010-09-29
US7630545B2 (en) 2009-12-08
EP1881455A1 (de) 2008-01-23
JP2005032246A (ja) 2005-02-03
US20080063286A1 (en) 2008-03-13
EP2293250B1 (de) 2012-05-09
DE60317053D1 (de) 2007-12-06
EP1881455B1 (de) 2009-12-23
JP4990383B2 (ja) 2012-08-01
US20080056584A1 (en) 2008-03-06
US7676085B2 (en) 2010-03-09
JP2010225172A (ja) 2010-10-07
CN101038592B (zh) 2010-09-01
US20080063267A1 (en) 2008-03-13
CN101017507B (zh) 2010-09-29
US20080069455A1 (en) 2008-03-20
CN1311388C (zh) 2007-04-18
CN101038592A (zh) 2007-09-19
US7684616B2 (en) 2010-03-23
CN101013446A (zh) 2007-08-08
EP2293250A1 (de) 2011-03-09
EP2273451A1 (de) 2011-01-12
CN101046816A (zh) 2007-10-03
EP2273451B1 (de) 2012-05-09
CN1577336A (zh) 2005-02-09
EP2164044B1 (de) 2012-04-18
CN101038593A (zh) 2007-09-19
US7689044B2 (en) 2010-03-30

Similar Documents

Publication Publication Date Title
DE60317053T2 (de) Verfahren und Vorrichtung zur Darstellung einer Bildgruppe
DE69925805T2 (de) Skalierbare lösung für das wiederauffinden von bildern
DE60037485T2 (de) Signalverarbeitungsverfahren und Videosignalprozessor zum Ermitteln und Analysieren eines Bild- und/oder Audiomusters
DE69628282T2 (de) Verfahren zur kompression mehrerer videobilder
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE69737824T2 (de) Video-wiederauffinden von mpeg-komprimierten sequenzen unter verwendung von dc- und bewegungssignaturen
EP2187340B1 (de) Vorrichtung und Verfahren zum Bestimmen eines Kanten-Histogramms, Vorrichtung und Verfahren zum Ablegen eines Bildes in einer Bilddatenbank, Vorrichtung und Verfahren zum Auffinden von zwei ähnlichen Bildern und Computerprogramm
DE69926864T2 (de) Farbquantisierung und ähnlichkeitsmass für die auf dem ihnalt basierte wiederauffindung von bildern
DE60215063T2 (de) System und verfahren zur ermittlung von bildähnlichkeiten
DE60034814T2 (de) Bildwiederauffindungsystem und -verfahren
EP2089886B1 (de) Verfahren zur zeitlichen segmentierung eines videos in videobildfolgen und zur auswahl von keyframes für das auffinden von bildinhalten unter einbeziehung einer subshot-detektion
DE60011603T2 (de) Verfahren und vorrichtung zum darstellen von und suchen nach farbbildern
DE60216547T2 (de) Videostrukturierung durch wahrscheinlichkeitstheoretische Zusammenführung von Videosegmenten
DE60116717T2 (de) Vorrichtung und Verfahren zur Erzeugungung von objekt-markierten Bildern in einer Videosequenz
DE69834029T2 (de) Bedeutsame szenenfeststellung und rahmenfilterung für ein visuelles indexierungssystem
DE112013003859T5 (de) Identifizieren von Schlüsselrahmen unter Verwendung einer auf dünner Besiedelung basierenden Gruppenanalyse
DE112016002175T5 (de) Entitätsbasierte temporale Segmentierung von Videostreams
DE112008003972T5 (de) Automatische Erzeugung einer skalierbaren, nach Relevanz geordneten Darstellung einer Bildsammlung
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE602004002837T2 (de) Objekterkennung
DE60209945T2 (de) Videoüberwachungs- und beobachtungssysteme mit der fähigkeit zum abwickeln asynchron gemultiplexter videosignale
DE60034554T2 (de) Verfahren und vorrichtung zur bearbeitung von farbbildern
DE60033580T2 (de) Verfahren und gerät zur klassifizierung eines bildes
DE10017551A1 (de) Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens

Legal Events

Date Code Title Description
8364 No opposition during term of opposition