DE69334130T2 - Verfahren und System für die Erfassung von Audiorundfunkabschnitten - Google Patents

Verfahren und System für die Erfassung von Audiorundfunkabschnitten Download PDF

Info

Publication number
DE69334130T2
DE69334130T2 DE69334130T DE69334130T DE69334130T2 DE 69334130 T2 DE69334130 T2 DE 69334130T2 DE 69334130 T DE69334130 T DE 69334130T DE 69334130 T DE69334130 T DE 69334130T DE 69334130 T2 DE69334130 T2 DE 69334130T2
Authority
DE
Germany
Prior art keywords
segment
signature
match
segments
signatures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69334130T
Other languages
English (en)
Other versions
DE69334130D1 (de
Inventor
Michael D. Boulder Ellis
Fancy B. Boulder Younglove
David L. Boulder Clifton
Michael W. Boulder Fellinger
Stephen M. Boulder Dunn
David M. Fort Collins James
Richard S. Lafayette Land
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nielsen Audio Inc
Original Assignee
Arbitron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25368063&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69334130(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Arbitron Inc filed Critical Arbitron Inc
Publication of DE69334130D1 publication Critical patent/DE69334130D1/de
Application granted granted Critical
Publication of DE69334130T2 publication Critical patent/DE69334130T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/372Programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/90Aspects of broadcast communication characterised by the use of signatures

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft die automatische Erkennung von weit verbreiteten Signalen wie Fernseh- und Radiosendungen und dergleichen.
  • Sendewerbetreibende müssen sicherstellen, dass ihre Werbung vollständig von bezeichneten Sendestationen und zu planmäßigen Zeiten ausgesendet wurden. Außerdem kann es für Werbetreibende wünschenswert sein zu wissen, welche Werbungen Wettbewerber ausgesendet haben. Eine übliche Technik, um die Werbungen zu überwachen, die gesendet wurden, schließt das Beschäftigen einer großen Zahl von Leuten ein, um die bezeichneten Sendekanäle im Laufe des Tages zu sehen, um diese Information in einem geschriebenen Tagebuch aufzuzeichnen. Man wird verstehen, dass diese übliche Technik die Notwendigkeit einschließt, eine große Anzahl von Leuten zu beschäftigen, ihre geschriebenen Aufzeichnungen zu sammeln und ihren Inhalt in ein automatisches Datenverarbeitungssystem einzugeben, um interessierende Berichte für bestimmte Werbetreibende zu erzeugen. Eine solche übliche Technik hat relativ hohe wiederkehrende Kosten. In einem Versuch, diese Kosten zu verringern, wurde ein automatisches Mustererkennungssystem entwickelt, zum Beispiel dasjenige, das im US-Patent Nr. 4,739,398 offenbart ist.
  • In der kontinuierlichen Mustererkennungstechnik, die im US-Patent Nr. 4,739,398 offenbart ist, kann ein Segment oder Teil eines Signals durch kontinuierliche Mustererkennung auf Echtzeitbasis identifiziert werden. Das Signal kann zum Beispiel über die Luft, über Satellit, Kabel, optische Faser oder irgendein anderes Mittel übertragen werden, das dessen weite Verbreitung bewirkt.
  • Im Fall eines Fernsehsendesignals wird zum Beispiel das Videosignal parametrisiert, um so einen digitalen Datenstrom zu erzeugen, der ein digitales Wort mit 16 Bit für jeden Videorahmen hat, der in dem NTSC-System jede 1/30 Sekunde vorkommt. Man wird verstehen, dass unterschiedliche Signalintervalle wie Videofelder stattdessen auf diese Weise parametrisiert werden können. Diese digitalen Wörter werden mit digitalen Wörtern verglichen, die Werbespots oder andere interessierende Segmente darstellen, die in einer Speichervorrichtung gespeichert sind. Information, die sich auf jede Übereinstimmung bezieht, die zwischen beiden erfasst wird, (was anzeigt, dass ein interessierendes Segment gesendet wurde) wird gesammelt.
  • Genauer gesagt wird eine digitale Schlüsselsignatur für jedes bekannte Segment (z.B. Werbespot) erzeugt, das erkannt oder verglichen werden soll. Die Schlüsselsignatur schließt vorteilhafterweise acht 16 Bit-Wörter oder Übereinstimmungswörter, die aus acht Rahmen der Sendeinformation abgeleitet sind und die aus den Rahmen, die innerhalb des erwünschten Segments enthalten sind, gemäß einem vorbestimmten Regelsatz ausgewählt werden, zusammen mit Offsetinformation ein, die den Abstand (zum Beispiel in Rahmen oder Feldern gemessen) zwischen dem Ort des Rahmens, der durch jedes Wort der Signatur dargestellt wird, und demjenigen anzeigt, der durch dessen erstes Wort dargestellt wird. Im Fall eines Videosignals werden zum Beispiel 32 vorbestimmte Bereiche davon, die zum Beispiel 8 mal 2 Pixel umfassen, aus jedem Rahmen (oder einem ausgewählten Feld davon, das jeden Rahmen repräsentiert), zum Beispiel ausgewählt. Ein durchschnittlicher Helligkeitswert wird für die Pixel eines jeden Bereichs erzeugt und mit dem durchschnittlichen Helligkeitswert eines Bereichs verglichen, der damit gepaart ist. Das Ergebnis eines solchen Vergleichs wird auf Grundlage einer Bestimmung auf einen Bitwert von 1 oder 0 normalisiert, ob der durchschnittliche Helligkeitswert eines Ersten der Bereiche entweder (i) größer oder gleich oder (ii) kleiner als der durchschnittliche Helligkeitswert des Zweiten der Bereiche ist. Auf diese Weise wird eine 16 Bit-Rahmensignatur für jeden Rahmen des Videosignals erzeugt.
  • Für jede 16 Bit-Rahmensignatur wird auch ein Maskenwort mit 16 Bit erzeugt. Jedes Bit des Maskenworts repräsentiert die Anfälligkeit eines entsprechenden Bits der Rahmensignatur für Rauschen und wird auf Grundlage der Differenz zwischen den durchschnittlichen Helligkeitswerten der entsprechenden Bereiche erzeugt, die verwendet werden, um das entsprechende Bit der Rahmensignatur zu erzeugen. Das heißt, wenn der Betragswert der Differenz zwischen solchen durchschnittlichen Helligkeitswerten kleiner als ein Sicherheitsbandwert ist, wird das entsprechende Maskenbit gesetzt, das die Anfälligkeit für Rauschen anzeigt.
  • Die acht Übereinstimmungswörter werden für jedes Segment aus den oben beschriebenen Rahmensignaturen ausgewählt und zusammen mit ihren Maskenwörtern und Offsetinformation als Teil der Schlüsselsignatur für dieses Segment gespeichert.
  • Das empfangene Signal, das erkannt werden soll, wird digitalisiert und für jeden Rahmen (oder jedes ausgewählte Feld) von Daten wird auf die oben beschriebene Weise eine Rahmensignatur mit 16 Bit erzeugt. Nachdem die ankommenden Signale empfangen und verarbeitet wurden, werden sie in einen Puffer eingelesen, der eine vorbestimmte Menge Daten bereithält. Es wird angenommen, dass jede Rahmensignatur mit 16 Bit des ankommenden Signals dem ersten Wort einer der vorher gespeicherten Schlüsselsignaturen mit acht Wörtern entspricht. Auf diese Weise wird jedes empfangene Wort mit allen Schlüsselsignaturen verglichen, die mit dem Wort beginnen. Unter Verwendung der Offsetinformation, die mit den Signaturen gespeichert ist, werden nachfolgend empfangene Rahmensignaturen (die bereits in dem Puffer sind) mit den entsprechenden Übereinstimmungswörtern in der Schlüsselsignatur verglichen, um zu bestimmen, ob eine Übereinstimmung vorhanden ist oder nicht.
  • Genauer gesagt, jedes Übereinstimmungswort der Schlüsselsignatur wird auf Grundlage der Offsetinformation und entsprechenden Bits der gepaarten Übereinstimmungswörter mit einer entsprechenden Rahmensignatur der empfangenen Signatur gepaart und die Rahmensignaturen werden verglichen. Ein Gesamtfehlerzählwert wird auf Grundlage dieses Vergleichs wie folgt erzeugt. Wenn entsprechende Bits des Übereinstimmungsworts und der Rahmensignatur nicht maskiert sind, dann wird ein Fehlerwert von 0 gespeichert, wenn diese den gleichen Bit-Wert haben, und wird ein Fehlerwert von 1 gespeichert, wenn sich diese Bits im Wert unterscheiden. Wenn die Bits maskiert sind, dann wird dafür ein Fehlerwert von 1/2 ohne Rücksicht auf die Bitwerte gespeichert. Für alle Übereinstimmungswörter und entsprechenden Rahmensignaturen wird ein Gesamtfehlerzählerwert gespeichert, und, wenn der Gesamtfehlerzählwert kleiner als ein vorbestimmter Vorgabe- oder Fehlerschwellwert ist, wird eine Übereinstimmung gefunden. Ansonsten wird keine Übereinstimmung gefunden.
  • Man wird verstehen, dass, um die obige beispielhafte Verarbeitung in Echtzeit durchzuführen, alle Vergleiche innerhalb der Zeit beendet werden sollten, die zu jedem Datenrahmen gehört, das heißt innerhalb 1/30 Sekunde. Eine typische Verarbeitungsgeschwindigkeit, die mit normalen Verarbeitungseinrichtungen verbunden ist, macht es nur möglich, eine begrenzte Anzahl von Segmentsignaturen zu speichern und zum Vergleich zu verwenden.
  • Die Geschwindigkeit, mit der für eine neu empfangene Sendung eine Schlüsselsignatur mit einer Segmentsignatur verglichen werden kann, kann durch Verwendung eines Verfahrens zur Verringerung von Schlüsselwortnachschlagedaten wesentlich erhöht werden. Bei diesem Verfahren wird aus den Rahmen, die innerhalb des Segments enthalten sind, das der Schlüsselsignatur entspricht, gemäß einem Satz von vorbestimmten Kriterien ein Rahmen ausgewählt. Solch ein ausgewählter Rahmen ist ein Schlüsselrahmen und die Rahmensignatur, die dazu gehört, ist das Schlüsselwort. Die Schlüsselsignatur hat immer noch vorzugsweise acht 16-Bit-Wörter, jedoch stellt die Offsetinformation, die sich darauf bezieht, nun eher einen Abstand von dem Schlüsselwort als einen Abstand von dem ersten Wort in der Schlüsselsignatur dar.
  • Das Schlüsselwort kann eines der Schlüsselsignaturwörter innerhalb der Schlüsselsignatur sein, in welcher Situation der Offset für das Wort einen Wert von 0 hat, oder es kann ein neuntes Wort sein. Der Rahmenort des Schlüsselworts muss den Rahmenorten aller weiteren Übereinstimmungswörter innerhalb der Schlüsselsignatur nicht zeitlich vorausgehen.
  • Es kann mehrere Schlüsselsignaturen geben, die zu jedem Schlüsselwort gehören. Beispielsweise wenn Wörter mit 16 Bit verwendet werden und wenn vier Schlüsselsignaturen zu jedem Schlüsselwort gehören, dann wären vier vollständige Signaturvergleiche die maximale Anzahl, die innerhalb 1/30 einer Sekundenzeitgrenze (unter der Annahme keiner Datenfehler) durchgeführt werden müsste. Eine solche Anzahl von Vergleichen wird innerhalb des Zeitlimits leicht durchgeführt.
  • Es ist erwünscht, die höchste mögliche Genauigkeit bei Sendesegmenterkennung sowie die größtmögliche Effizienz zu erreichen. Jedoch wird man auf eine Anzahl von Problemen beim Ausführen einer solchen Technik stoßen. Zum Beispiel unterliegen Sendesignale Zeitverschiebungen wie einer Verschiebung des Rands eines Videobilds, die sich von Zeit zu Zeit ereignet. Videosignale unterliegen auch Jitter. Jeder dieser Effekte wird negativ auf eine Segmenterkennungstechnik wirken, die auf dem Abtasten vorbestimmter Teile der Videosignale beruht, es sei denn, diese Effekte werden irgendwie kompensiert.
  • Eine weitere Schwierigkeit, auf die man beim Ausführen einer Sendesegmenterkennung stößt, die auf Videosignalen beruht, ist, dass die Signaturen, welche sie erzeugen, dazu neigen, aufgrund von Ähnlichkeiten zwischen Videosignalen unterschiedlicher Segmente vom Wert ungleichmäßig verteilt zu sein. Dementsprechend neigen Videosignaturen dazu, ungleichmäßig verteilt zu sein, so dass eine relativ große Anzahl von Signaturen dazu neigt, ähnliche Werte zu haben, und somit anfällig für falsche Übereinstimmung sind (das heißt, eine Übereinstimmung zwischen Signaturen anzuzeigen, die unterschiedliche Segmente darstellen).
  • Bisher wurde es aufgrund der Schwierigkeiten, auf die beim Extrahieren ausreichender Information aus Audiosignalen gestoßen wurde, als unpraktikabel angesehen, Mustererkennung von Audiosendesegmenten durchzuführen. Zum Beispiel sind Fernsehaudiosignale hauptsächlich Sprachsignale, die unter ungefähr 3000 Hz konzentriert sind und sehr ähnliche Frequenzspektren von einem Segment zu dem nächsten aufweisen.
  • Auf Grund der vorhergehenden Effekte sowie Signalrauschen ist es schwierig, eine Mustererkennungstechnik zur Sendesegmentidentifizierung umzusetzen, die hohe Genauigkeit aufweist. Das heißt, die Möglichkeiten, dass die Segmentsignaturen entweder falsch übereinstimmen werden oder für keine vollständig zuverlässige Übereinstimmung sorgen können, wird dazu führen, die Genauigkeit solch einer Technik zu begrenzen. Wo zum Beispiel bekannte Segmente durch das Mustererkennungssystem nicht identifiziert werden, können sie zu einem Workstationbenutzer zur Identifizierung als potentielle neue Segmente übertragen werden, wenn sie es in der Tat nicht sind. Das Ergebnis ist, dass die Zeit des Workstationbenutzers verschwendet und die Systemeffizienz verschlechtert wird. Andererseits, wenn neue Segmente identifiziert werden, wenn sie in der Tat keine interessierenden Segmente sind, kann die Zeit des Workstationbenutzers in einem nutzlosen Versuch, solche Segmente zu identifizieren, auch verschwendet werden. In einem Fernsehwerbespotterkennungssystem ist es zum Beispiel notwendig, Fernsehwerbungen vom normalen Programm, von Nachrichtenunterbrechungen, von öffentlichen Ankündigungen und so weiter zu unterscheiden. Es ist deshalb wünschenswert sicherzustellen, dass die größte Anzahl neuer Segmente, die zur Identifizierung durch Workstationbenutzer vorgesehen sind, in der Tat interessierende Segmente sind. Eine weitere Schwierigkeit wird angetroffen, wenn neue interessierende Segmente ungenau geteilt werden, so dass dem Workstationbenutzer nur Teile von neuen Segmenten berichtet werden, was die richtige Identifizierung der Segmente verhindern kann, was die Zeit des Benutzers auch verschwendet.
  • US 3919479 beschreibt ein Sendesignalidentifizierungssystem. FR 2559002 beschreibt ein Verfahren und eine Vorrichtung zum Identifizieren audiovisueller Information, die über Radio oder Fernsehen gesendet wird. WO 88/10540 beschreibt ein System und Verfahren zur Klassifizierung von Sendeinformation durch Erzeugen von Spektrogrammen zum Vergleich mit den Referenzspektrogrammen. US 4,230,990 beschreibt ein Verfahren zum Identifizieren von Sendeprogrammen durch Verwendung von Triggersignalen, die mit den Programmen gesendet werden, und/oder durch Extrahieren von Signaturen durch Analysieren der Spektralzusammensetzung von Audioteilen eines Programmsignals.
  • AUFGABEN UND ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist eine Aufgabe der vorliegenden Erfindung, Verfahren und Vorrichtungen zur Verwendung bei der Sendesegmenterkennung und dergleichen zu schaffen, die eine verbesserte Erkennungsgenauigkeit und Systemeffizienz zur Verfügung stellen.
  • Die vorliegende Erfindung schafft ein Verfahren und ein System zum Erzeugen einer Signatur aus einem Audiosendesignal nach den Ansprüchen 1 und 7.
  • Das Verfahren kann das Erzeugen einer Signatur aus einem Audiosendesignal zur Verwendung bei der Sendesignalerkennung umfassen mit den Schritten: Bilden mehrerer Frequenzbandwerte, von denen jeder Teile des Audiosendesignals innerhalb der entsprechenden vorbestimmten Frequenzbänder darstell; Vergleichen von jedem einer ersten Gruppe der mehreren Frequenzbandwerte mit einem entsprechenden einer zweiten Gruppe der mehreren Frequenzbandwerte, die Teile des Audiosendesignals innerhalb des gleichen entsprechenden vorbestimmten Frequenzbands darstellen, wobei jeder Entsprechende der zweiten Gruppe der mehreren Frequenzbandwerte Teile des Audiosendesignals darstellt, das zumindest teilweise vor den Teilen des Audiosendesignals ausgesendet wurde, das durch das Entsprechende der ersten Gruppe der mehreren Frequenzbandwerte dargestellt ist; und Bilden der Signatur auf Grundlage der Vergleiche der ersten und zweiten Gruppe der mehreren Frequenzbandwerte.
  • Beim Ausführen des Verfahrens umfassen die Schritte des Bildens mehrerer Frequenzbandwerte vorzugsweise das Bilden erster Frequenzbandsignale, von denen jedes ein Kennzeichen des Audiosendesignals innerhalb eines Entsprechenden der vorbestimmten Frequenzbänder darstellt, und des Transformierens von jedem der ersten Frequenzbandsignale zu einem entsprechenden der mehreren Frequenzbandwerte auf Grundlage von zumindest einem weiteren ersten Frequenzbandsignal. Vorzugsweise umfasst der Schritt des Bildens der ersten Frequenzbandsignale das Bilden mehrerer Leistungsniveausignale, von denen jedes ein Leistungsniveau des Audiosendesignals innerhalb eines Entsprechenden der vorbestimmten Frequenzbänder darstellt, und umfasst der Schritt des Transformierens der Frequenzbandsignale das Teilen von jedem der mehreren Leistungsniveausignale durch eine Linearkombination der Weiteren der ersten Frequenzbandsignale.
  • Es wird auch ein System zum Erzeugen einer Signatur, die ein Audiosendesignal kennzeichnet, zur Verwendung bei der Sendesignalerkennung zur Verfügung gestellt, umfassend: Mittel zum Bilden mehrerer Frequenzbandwerte, von denen jeder Teile des Audiosendesignals innerhalb der entsprechenden vorbestimmten Frequenzbänder darstellt; Mittel zum Vergleichen von jedem einer ersten Gruppe der mehreren Frequenzbandsignale mit einem entsprechenden einer zweiten Gruppe der mehreren Frequenzbandwerte, die Teile des Audiosendesignals innerhalb des gleichen entsprechenden vorbestimmten Frequenzbands darstellen, wobei jeder entsprechende der zweiten Gruppe der mehreren Frequenzbandwerte, die Teile des Audiosendesignals darstellen, das zumindest teilweise vor den Teilen des Audiosendesignals ausgesendet wurde, das durch den entsprechenden der ersten Gruppe der mehreren Frequenzbandwerte dargestellt ist; und Mittel zum Bilden der Signatur auf Grundlage der Vergleiche der ersten und zweiten Gruppe der mehreren Frequenzbandwerte.
  • Es wird außerdem ein Verfahren zum Erzeugen einer Signatur zur Verfügung gestellt, die ein Intervall eines Videosignals kennzeichnet, das ein Bild zur Verwendung bei der Sendesegmenterkennung darstellt, wobei die Signatur auf Grundlage von Teilen des Videosignals erzeugt wird, das entsprechende Bereiche des Bilds darstellt, von denen jeder einen entsprechenden vorbestimmten Betrag von einem nominalen Bildrand beabstandet ist, mit den Schritten: Detektieren einer Verschiebung des Videosignals, welche einer Verschiebung des Bildrands von dessen nominalem Rand entspricht; Anpassen der Teile des Videosignals, um die Verschiebung des Bildrands zu kompensieren; und Erzeugen der Signatur auf Grundlage der angepassten Teile des Videosignals.
  • Beim Ausführen eines Verfahrens, wie es im letzten vorhergehenden Absatz dargestellt ist, umfasst der Schritt des Detektierens einer Verschiebung in dem Videosignal vorzugsweise das Abtasten eines vorbestimmten Teils des Videosignals, welches dem nominalen Bildrand und zumindest einem benachbarten Bereich davon entspricht; das Erfassen einer Differenz zwischen Videosignalwerten, die innerhalb des vorbestimmten Teils des Videosignals entlang einer Richtung beabstandet sind, die im Wesentlichen quer zu einer Richtung des nominalen Bildrandes läuft, um einen tatsächlichen Bildrand zu erfassen; und das Bestimmen der Verschiebung des Bildrandes aufgrund von dessen erfasstem tatsächlichem Rand. Vorzugsweise umfassen die Schritte des Erfassens einer Verschiebung des Videosignals das Abtasten mehrerer vorbestimmter Teile des Videosignals, die dem Bildrand und zumindest einem benachbarten Teil davon entsprechen; das Erfassen entsprechender Differenzen zwischen Videosignalwerten, die innerhalb eines jeden der mehreren vorbestimmten Teile entlang einer Richtung beabstandet sind, die im Wesentlichen quer zu einer Richtung des nominalen Bildrandes verläuft; und das Verwenden von jeder der entsprechenden Differenzen, um den tatsächlichen Bildrand zu erfassen. Der Schritt des Erfassens einer Verschiebung des Videosignals kann das Abtasten des vorbestimmten Teils des Videosignals umfassen, um mehrere Pixelwerte zu erzeugen, von denen jeder von einem entsprechenden weiteren davon entlang einer Richtung beabstandet ist, die im Wesentlichen quer zu dem nominalen Bildrand verläuft; das Erfassen einer Differenz des Werts zwischen zumindest einem der Pixelwerte und einem entsprechenden weiteren davon, um den tatsächlichen Bildrand des Bilds zu erfassen; und das Bestimmen der Verschiebung des Bildrands auf Grundlage von dessen erfasstem tatsächlichem Rand.
  • Beim Ausführen eines Verfahrens, wie es in dem letzten vorhergehenden Absatz dargestellt ist, kann zumindest einer der Pixelwerte und der entsprechende Andere entlang der im Wesentlichen quer laufenden Richtung um zumindest zwei Pixelintervalle beabstandet sein.
  • Es wird auch ein System zum Erzeugen einer Signatur zur Verfügung gestellt, das ein Intervall eines Videosignals kennzeichnet, welches ein Bild zur Verwendung bei der Sendesegmenterkennung darstellt, wobei die Signatur auf Grundlage von Teilen des Videosignals erzeugt wird, welches entsprechende Bereiche des Bilds darstellt, von denen jeder um einen entsprechenden vorbestimmten Betrag von einem nominalen Bildrand beabstandet ist, umfassend: Mittel zum Aufspüren einer Verschiebung in dem Videosignal, die einer Verschiebung des Bildrandes von dessen nominalem Rand entspricht; Mittel zum Anpassen der Teile des Videosignals, um die Verschiebung des Bildrandes zu kompensieren; und Mittel zum Erzeugen der Signatur auf Grundlage der angepassten Teile des Videosignals.
  • Es wird außerdem ein Verfahren zum Erzeugen von Signaturen zur Verfügung gestellt, die entsprechende Intervalle eines Sendesignals kennzeichnen, das eine Korrelation zwischen zumindest einigen der entsprechenden Intervalle zur Verwendung bei der Sendesignalerkennung aufweist, mit den Schritten: Erzeugen eines Differenzvektors für jedes entsprechende Intervall des Sendesignals, das mehrere Elemente hat, von denen jedes Differenzen zwischen entsprechenden vorbestimmten Teilen von jedem entsprechenden Intervall darstellt und eine Korrelation zwischen diesen aufweist; Ausführen einer Vektortransformation des Differenzvektors von jedem entsprechenden Intervall, um einen transformierten Differenzvektor zu erzeugen, der mehrere Elemente für jedes entsprechende Intervall des Sendesignals hat, so dass die Korrelation zwischen den mehreren Elementen davon geringer als die Korrelation zwischen den mehreren Elementen des Differenzvektors ist; und Erzeugen einer Signatur für jedes entsprechende Intervall des Sendesignals auf Grundlage des entsprechenden transformierten Differenzvektors.
  • Beim Ausführen eines Verfahrens wie im letzten vorhergehenden Absatz dargestellt kann der Schritt des Ausführens einer Vektortransformation des Differenzvektors das Ausführen einer Hotelling-Transformation umfassen. Zusätzlich kann das Verfahren den Schritt des Bildens einer ersten und zweiten Gruppe von Differenzvektoren umfassen, wobei die erste Gruppe Differenzvektoren umfasst, die Signaturen bilden, die relativ häufig vorkommende Werte haben, und wobei die zweite Gruppe Differenzvektoren umfasst, die Signaturen bilden, die Werte haben, die weniger häufig als diejenigen der zweiten Gruppe vorkommen, und wobei der Schritt des Ausführens der Vektortransformation das Ausführen einer ersten Vektortransformation für Differenzvektoren der ersten Gruppe und einer zweiten Transformation für Differenzvektoren der zweiten Gruppe umfasst. Die Schritte des Ausführens der ersten und der zweiten Transformation können das Ausführen der entsprechenden Hotelling-Transformation unter Verwendung entsprechender Transformationswerte auf Grundlage vorher empfangener Differenzvektoren umfassen, die in die Gruppen fallen, die der entsprechenden Hotelling-Transformationen unterworfen sind. Außerdem kann der Schritt des Erzeugens eines Differenzvektors für jedes entsprechende Intervall des Sendesignals das Bilden eines Differenzvektors für jedes von mehreren Intervallen eines Videosendesignals auf Grundlage von Teilen des Videosignals umfassen, welches entsprechende Bereiche eines Bilds darstellt.
  • Außerdem wird ein System zum Erzeugen von Signaturen zur Verfügung gestellt, die entsprechende Intervalle eines Sendesignals kennzeichnen, welche eine Korrelation zwischen zumindest einigen der entsprechenden Intervalle zur Verwendung bei der Sendesegmenterkennung, umfassend: Mittel zum Erzeugen eines Differenzvektors für jedes entsprechende Intervall des Sendesignals, der mehrere Elemente hat, von denen jedes Differenzen zwischen entsprechenden vorbestimmten Teilen eines jeden entsprechenden Intervalls darstellt und eine Korrelation zwischen beiden aufweist; Mittel zum Ausführen einer Vektortransformation des Differenzvektors für jedes entsprechende Intervall, um einen transformierten Differenzvektor zu erzeugen, der mehrere Elemente für jedes entsprechende Intervall des Sendesignals hat, so dass die Korrelation zwischen mehreren Elementen davon geringer als die Korrelation zwischen mehreren Elementen des Differenzvektors ist; und Mittel zum Erzeugen einer Signatur für jedes entsprechende Intervall des Sendesignals auf Grundlage des entsprechenden transformierten Differenzvektors.
  • Zusätzlich wird ein Verfahren zur Verfügung gestellt zum Erzeugen einer Signatur, die ein Intervall eines Videosignals kennzeichnet, das ein Bild zur Verwendung bei der Sendesegmenterkennung darstellt, wobei die Signatur auf Grundlage von Teilen des Videosignals erzeugt wird, die entsprechende Bereiche des Bildes darstellen, und zum Erzeugen eines entsprechenden Maskenworts, das mehrere Bitwerte einschließt, von denen jeder eine Zuverlässigkeit für einen entsprechenden Wert der Signatur darstellt, mit den Schritten: Bilden einer ersten Signatur, die mehrere Werte hat, von denen jeder auf entsprechenden Teilen des Videosignals beruht; Bilden einer zweiten Signatur, die mehrere Werte hat, von denen jeder auf entsprechenden von mehreren verschobenen Teilen des Videosignals beruht, von denen jeder einem entsprechenden der Teile entspricht und einen Ort hat, der von einem Ort des entsprechenden der Teile um einen vorbestimmten Betrag versetzt ist, so dass jeder Wert der ersten Signatur einem Wert der zweiten Signatur entspricht; Vergleichen der entsprechenden Werte der ersten und zweiten Signatur; Setzen der Bitwerte des Maskenworts auf Grundlage des Vergleichs eines entsprechenden Werts der ersten Signatur mit dem entsprechenden Wert der zweiten Signatur. Der Schritt des Bildens der Bitwerte des Maskenworts kann auch das Setzen eines ersten binären Werts davon, wenn der entsprechende Wert der ersten Signatur im Wesentlichen gleich dem entsprechenden Wert der zweiten Signatur ist, und Bilden eines zweiten binären Werts davon umfassen, wenn der entsprechende Wert der ersten Signatur nicht im Wesentlichen gleich dem entsprechenden Wert der zweiten Signatur ist.
  • Es wird auch ein System zum Erzeugen einer Signatur zur Verfügung gestellt, die ein Intervall eines Videosignals kennzeichnet, das ein Bild zur Verwendung bei der Sendesegmenterkennung darstellt, wobei die Signatur auf Grundlage von Teilen des Videosignals erzeugt wird, von denen jeder einen entsprechenden Bereich des Bildes darstellt, und zum Erzeugen eines entsprechenden Maskenworts, das mehrere Bitwerte einschließt, von denen jeder eine Zuverlässigkeit eines entsprechenden Werts der Signatur darstellt, umfassend: Mittel zum Bilden einer ersten Signatur, die mehrere Werte hat, von denen jeder auf einem Entsprechenden der Teile des Videosignals beruht; Mittel zum Bilden einer zweiten Signatur, die mehrere Werte hat, von denen jeder auf einem Entsprechenden von mehreren verschobenen Teilen des Videosignals beruht, von denen jeder einem Entsprechenden der Teile entspricht und einen Ort hat, der von einem Ort des Entsprechenden der Teile um einen vorbestimmten Betrag verschoben ist, so dass jeder Wert der ersten Signatur einem Wert der zweiten Signatur entspricht; Mittel zum Vergleichen der entsprechenden Werte der ersten und der zweiten Signatur; und Mittel zum Bilden der Bitwerte des Maskenworts auf Grundlage des Vergleichs eines entsprechenden Werts der ersten Signatur mit dem entsprechenden Wert der zweiten Signatur.
  • Es wird auch ein Verfahren zum Erzeugen einer Signatur zur Verfügung gestellt, die ein Sendesignalintervall zur Verwendung bei der Sendesegmenterkennung kennzeichnet und die eine Signaturdatenbank hat, wobei die Signatur mehrere digitale Wörter einschließt, von denen jedes ein entsprechendes Unterintervall des Sendesignalintervalls kennzeichnet, umfassend die Schritte: Teilen des Sendesignalintervalls in mehrere Unterintervalle; Bilden mehrerer digitaler Wörter, die jedes der mehreren Unterintervalle kennzeichnen; und Auswählen von zumindest einem der mehreren digitalen Wörter, die jedes Unterintervall kennzeichnen, auf Grundlage von zumindest einem der folgenden Faktoren: (a) Verteilung von vorher erzeugter digitaler Wörter, welche die Sendesignale kennzeichnen; (b) Verteilung von digitalen Wörtern von vorher erzeugten Signaturen, die in der Signaturendatenbank gespeichert sind; (c) Wahrscheinlichkeit, dass zumindest eines der mehreren digitalen Wörter mit einem digitalen Wort übereinstimmen wird, welches ein entsprechendes Unterintervall beim Wiederaussenden des Unterintervalls kennzeichnet; und (d) Grad einer Signaldifferenz zwischen dem Unterintervall, welches zumindest einem der mehreren digitalen Wörter entspricht, und benachbarten Teilen des Sendesignalintervalls. Der Schritt des Auswählens von zumindest einem der mehreren digitalen Wörter kann das Auswählen von zumindest von einem der mehreren digitalen Wörter umfassen auf Grundlage von (a) der Verteilung der vorher erzeugten digitalen Wörter, welche die Sendesignale kennzeichnen, und/oder (b) der Verteilung der digitalen Wörter der vorher erzeugten Signaturen, die in der Signaturdatenbank gespeichert sind, und/oder (c) der Wahrscheinlichkeit, dass zumindest eines der mehreren digitalen Wörter mit einem digitalen Wort übereinstimmen wird, welches ein entsprechendes Unterintervall beim Wiederaussenden des Unterintervalls kennzeichnet, und/oder (d) dem Grad der Signaldifferenz zwischen dem Unterintervall, das zumindest einem der mehren digitalen Wörter entspricht, und benachbarten Teilen des Sendesignalintervalls. Der Schritt des Auswählens von zumindest einem der mehreren digitalen Wörter kann das Zuweisen entsprechender Werte zu zumindest zwei der Faktoren, das Bilden einer Linearkombination der entsprechenden Werte, um einen kombinierten Wert zu erzeugen, und das Auswählen des zumindest einen der mehreren digitalen Wörter auf Grundlage des kombinierten Werts umfassen.
  • Außerdem wird ein System zum Erzeugen einer Signatur zur Verfügung gestellt, welche ein Sendesignalintervall zur Verwendung bei der Sendesegmenterkennung kennzeichnet und eine Signaturdatenbank hat, wobei die Signatur mehrere digitale Wörter einschließt, von denen jedes ein entsprechendes Unterintervall des Sendesignalintervalls kennzeichnet, umfassend: Mittel zum Teilen des Sendesignalintervalls in mehrere Unterintervalle; Mittel zum Bilden mehrerer digitaler Wörter, die jedes der mehreren Unterintervalle kennzeichnen; und Mittel zum Auswählen von zumindest einem der mehreren digitalen Wörter, die jedes Unterintervall auf Grundlage von zumindest einem der folgenden Faktoren kennzeichnen: (a) Verteilung vorher erzeugter digitaler Wörter, welche Sendesignale kennzeichnen; (b) Verteilung von digitalen Wörtern vorher erzeugter Signaturen, die in der Signaturdatenbank gespeichert sind; (c) Wahrscheinlichkeit, dass zumindest eines der mehreren digitalen Wörter mit einem digitalen Wort übereinstimmen wird, welches ein entsprechendes Unterintervall auf das Wiederaussenden des Unterintervalls hin kennzeichnet; und (d) Grad des Signalunterschieds zwischen dem Unterintervall, das zumindest einem der mehreren digitalen Wörter und den benachbarten Teilen des Sendesignalintervalls entspricht.
  • Dementsprechend können ein System und ein Verfahren zur Sendesegmenterkennung zur Verfügung gestellt werden, welche umfassen; Mittel beziehungsweise Schritte zum Erzeugen einer Signatur über jedes von mehreren Sendesegmenten, die erkannt werden sollen; Speichern einer jeden Signatur, um eine Datenbank von Sendesegmentsignaturen zu bilden; Überwachen eines Sendesegments, dabei Bilden einer Signatur, welche das überwachte Sendesegment darstellt; Vergleichen der Signatur, welches das überwachte Sendesegment darstellt, mit zumindest einer der Sendesegmentsignaturen der Datenbank, um zu bestimmen, ob eine Übereinstimmung vorhanden ist; und Auswerten der Gültigkeit einer Übereinstimmung eines überwachten Sendesegments durch Ausführen von zumindest einem der Schritte: (a) Bestimmen, ob das überwachte Sendesegment zeitlich durch vorbestimmte Signalereignisse begrenzt ist; (b) Bestimmen, ob das überwachte Sendesegment mit einem weiteren überwachten Sendesegment überlappt, für welches eine Übereinstimmung gemäß vorbestimmter Kriterien akzeptiert wurde; und (c) Bestimmen, ob die Übereinstimmung einem vorbestimmten Profil von falsch übereinstimmenden Segmenten entspricht.
  • Ein System und Verfahren zur Sendesegmenterkennung werden zur Verfügung gestellt mit Mitteln beziehungsweise Schritten zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; Speichern jeder Signatur, um eine Datenbank der Sendesegmentsignaturen zu bilden; Überwachen eines Sendesegments; Bilden einer Signatur, welche das überwachte Sendesegment darstellt; Vergleichen der Signatur, welche das überwachte Sendesegment darstellt, mit jeder von mehreren Sendesegmentsignaturen der Datenbank, um zu bestimmen, ob eine Übereinstimmung gemäß eines ersten Fehlertoleranzniveaus vorhanden ist; Auswerten auf Grundlage vorbestimmter Auswertungskriterien, ob die Übereinstimmung innerhalb einer Klasse der fraglich akzeptablen Übereinstimmungen fällt; und wenn die Übereinstimmung in die Klasse der fraglichen akzeptablen Übereinstimmungen fällt, Vergleichen der Signatur, welche das überwachte Sendesegment darstellt, mit der übereinstimmenden Sendesegmentsignatur der Datenbank unter Verwendung eines zweiten Fehlertoleranzniveaus, das Übereinstimmungen akzeptiert, die relativ höhere Fehlerniveaus haben als Übereinstimmungen, die gemäß des ersten Fehlertoleranzniveaus akzeptabel sind.
  • Ein System und ein Verfahren zum Erzeugen einer Signatur, die ein Audiosendesignal zur Verwendung bei der Sendesignalerkennung kennzeichnet, umfasst die Mittel beziehungsweise Schritte zum Bilden von mehreren Frequenzbandwerten, die jeweils Teile des Audiosendesignals innerhalb entsprechender vorbestimmter Frequenzbänder darstellen; Vergleichen von jedem einer ersten Gruppe der mehreren Frequenzbandwerte mit einem entsprechenden einer zweiten Gruppe der mehreren Frequenzbandwerte, die Teile des Audiosendesignals innerhalb des gleichen entsprechenden vorbestimmten Frequenzbandes darstellen, wobei jeder Entsprechende der zweiten Gruppe der mehreren Frequenzbandwerte Teile des Audiosendesignals darstellt, das zumindest teilweise vor den Teilen des Audiosendesignals gesendet wurde, das durch einen Entsprechenden der ersten Gruppe der mehreren Frequenzbandwerte dargestellt wird; und Bilden der Signatur auf Grundlage der Vergleiche der ersten und der zweiten Gruppe der mehreren Frequenzbandwerte.
  • Ein System und ein Verfahren zum Erzeugen einer Signatur werden zur Verfügung gestellt, die ein Intervall eines Videosignals kennzeichnen, das ein Bild zur Verwendung bei der Sendesegmenterkennung darstellt, wobei die Signatur auf Grundlage von Teilen des Videosignals erzeugt wird, dies entsprechende Bereiche des Bilds darstellen, von denen jeder um einen entsprechenden vorbestimmten Betrag von einem nominalen Rand des Bildes beabstandet ist, mit den Mitteln beziehungsweise den Schritten zum Erfassen einer Verschiebung des Videosignals, die einer Verschiebung des Rands des Bildes von dessen nominalen Rand entspricht; Anpassen der Teile des Videosignals, um die Verschiebung des Rands des Bildes zu kompensieren; und Erzeugen der Signatur auf Grundlage der angepassten Teile des Videosignals.
  • Ein System und ein Verfahren werden zur Verfügung gestellt, um Signaturen zu erzeugen, die entsprechende Intervalle eines Sendesignals kennzeichnen, das eine Korrelation zwischen zumindest einigen der entsprechenden Intervalle zur Verwendung bei der Sendesegmenterkennung aufweist, mit den Mitteln beziehungsweise den Schritten zum Erzeugen eines Differenzvektors für jedes entsprechende Intervall des Sendesignals, das mehrere Elemente hat, von denen jedes Differenzen zwischen entsprechenden vorbestimmten Teilen eines jeden entsprechenden Intervalls darstellt und eine Korrelation zwischen beiden aufweist; Ausführen einer Vektortransformation des Differenzvektors eines jeden entsprechenden Intervalls, um einen transformierten Differenzvektor zu erzeugen, der mehrere Elemente für jedes entsprechende Intervall des Sendesignals hat, so dass die Korrelation zwischen den mehreren Elementen davon geringer als die Korrelation zwischen den mehreren Elementen des Differenzvektors ist; und auf Grundlage des entsprechenden transformierten Differenzvektors Erzeugen einer Signatur für jedes entsprechende Intervall des Sendesignals.
  • Ein System und ein Verfahren werden zur Verfügung gestellt zum Erzeugen einer Signatur, welche ein Intervall eines Videosignals kennzeichnet, das ein Bild zur Verwendung bei der Sendesegmenterkennung darstellt, wobei die Signatur auf Grundlage von Teilen des Videosignals erzeugt wird, welche entsprechende Bereiche des Bildes darstellen, und zum Bilden eines entsprechenden Maskenworts, das mehrere Bitwerte einschließt, von denen jeder eine Zuverlässigkeit eines entsprechenden Werts der Signatur darstellt, mit den Mitteln beziehungsweise Schritten zum Bilden einer ersten Signatur, die mehrere Werte hat, von denen jeder auf Entsprechenden der Teile des Videosignals beruht; Bilden einer zweiten Signatur, die mehrere Werte hat, von denen jeder auf Entsprechenden von mehreren verschobenen Teilen des Videosignals beruht, von denen jeder einem Entsprechenden der Teile entspricht und einen Ort hat, der von einem Ort des Entsprechenden der Teile um einen vorbestimmten Betrag verschoben ist, so dass jeder Wert der ersten Signatur einem Wert der zweiten Signatur entspricht; Vergleichen entsprechender Werte der ersten und der zweiten Signatur; Setzen der Bitwerte des Maskenworts auf Grundlage des Vergleichs eines entsprechenden Werts der ersten Signatur mit dem entsprechenden Wert der zweiten Signatur.
  • Ein System und ein Verfahren werden zur Verfügung gestellt zum Aktualisieren einer Sendesegmenterkennungsdatenbank, die Signaturen zur Verwendung beim Erkennen von interessierenden Sendesegmenten speichert, umfassend die Mittel beziehungsweise die Schritte zum Überwachen eines Sendesignals, um vorbestimmte Signalereignisse zu erfassen, die mögliche interessierende Sendesegmente anzeigen, die entsprechenden überwachten Sendesignalintervallen entsprechen; Bestimmen, ob zumindest zwei alternative mögliche interessierende Sendesegmente für ein überwachtes Sendesignalintervall erfasst werden; Zuweisen einer Priorität zu einem der zumindest zwei alternativen möglichen interessierenden Sendesegmente auf Grundlage vorbestimmter Kriterien; und Speichern einer Signatur in der Datenbank, die einem der zumindest zwei alternativen möglichen interessierenden Sendesegmente entspricht, denen Priorität zugewiesen ist.
  • Ein System und ein Verfahren zum Aktualisieren einer Sendesegmenterkennungsdatenbank werden zur Verfügung gestellt, die Signaturen zur Verwendung beim Erkennen von interessierenden Sendesegmenten speichert, umfassend die Mittel beziehungsweise die Schritte zum Überwachen eines Sendesignals, um vorbestimmte Signalereignisse zu erfassen, die mögliche interessierende Sendesegmente anzeigen, die entsprechenden überwachten Sendesignalintervallen entsprechen; Bestimmen des Ausmaßes, in dem die entsprechenden überwachten Sendesignalintervalle von vorbestimmten Sendesignalintervallen von möglichen interessierenden Sendesegmenten abweichen; Auswählen von einzelnen der entsprechenden überwachten Sendesignalintervalle als neue interessierende Segmente auf Grundlage des bestimmten Ausmaßes der Abweichung von Standardlängen von interessierenden Sendesegmenten; und Speichern einer Signatur in der Datenbank, die den ausgewählten einzelnen der entsprechenden überwachten Sendesignalintervalle entspricht.
  • Ein System und ein Verfahren werden zur Verfügung gestellt zur selektiven Erfassung von zumindest entweder einem Audiosendesignal oder einem Videosendesignal zur Verwendung beim Aktualisieren einer Sendesegmenterkennungsdatenbank, die Signaturen zur Verwendung beim Erkennen von interessierenden Sendesegmenten speichert, umfassend die Mittel beziehungsweise die Schritte zum temporären Speichern von zumindest entweder einem Audiosendesignal oder einem Videosendesignal einer überwachten Sendung; Erfassen vorbestimmter Signalereignisse, die mögliche neue interessierende Sendesegmente der überwachten Sendung anzeigen; Auswählen von Intervallen der überwachten Sendung als mögliche neue interessierende Sendesegmente auf Grundlage der vorbestimmten Signalereignisse; Zuweisen eines ersten Erfassungsniveaus zu einem ersten ausgewählten Intervall auf Grundlage vorbestimmter Kennzeichen, die anzeigen, dass das erste ausgewählte Intervall wahrscheinlich ein neues interessierendes Segment ist; Zuweisen eines zweiten Erfassungsniveaus zu einem zweiten ausgewählten Intervall auf Grundlage von vorbestimmten Kennzeichen davon, die anzeigen, dass das zweite ausgewählte Intervall relativ weniger wahrscheinlich als das erste ausgewählte Intervall ein neues interessierendes Segment ist; Speichern einer Signatur, die dem ersten ausgewählten Intervall entspricht, in der Datenbank und Erfassen zumindest entweder der temporär gespeicherten Audio- und Videosendesignale, die dem ersten ausgewählten Intervall entsprechen zur Übertragung zu einem Workstationbenutzer zur Segmentidentifizierung; Speichern einer Signatur, die dem zweiten ausgewählten Intervall entspricht, in der Datenbank; und Löschen des temporär Gespeicherten der Audio- und Videosendesignale, die dem zweiten ausgewählten Intervall entsprechen.
  • Ein System und ein Verfahren mit einer Datenbank zum Erzeugen einer Signatur, die ein Sendesignalintervall zur Verwendung bei der Sendesegmenterkennung kennzeichnet, werden zur Verfügung gestellt, wobei die Signatur mehrere digitale Wörter einschließt, von denen jedes ein entsprechendes Unterintervall des Sendesignalintervalls kennzeichnet, umfassend die Mittel beziehungsweise die Schritte zum Teilen des Sendesignalintervalls in mehrere Unterintervalle; Bilden mehrerer digitaler Wörter, die jedes der mehreren Unterintervalle kennzeichnen; und Auswählen von zumindest einem der mehreren digitalen Wörter, die jedes Unterintervall auf Grundlage von zumindest einem der folgenden Faktoren kennzeichnen: (a) eine Verteilung vorher erzeugter digitaler Wörter, die Sendesignale kennzeichnen; (b) eine Verteilung von digitalen Wörtern vorher erzeugter Signaturen, die in der Signaturdatenbank gespeichert sind; (c) eine Wahrscheinlichkeit, dass zumindest eines der mehreren digitalen Wörter mit einem digitalen Wort übereinstimmen wird, das ein entsprechendes Unterintervall auf das Wiederaussenden des Unterintervalls hin kennzeichnet; und (d) ein Grad des Signalunterschieds zwischen dem Unterintervall, das zumindest einem der mehreren digitalen Wörter und benachbarten Teilen des Sendesignalintervalls entspricht.
  • Dementsprechend werden ein System und ein Verfahren zur Sendesegmenterkennung zur Verfügung gestellt, umfassend die Mittel beziehungsweise die Schritte zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; für jede erzeugte Signatur Bestimmen einer Wahrscheinlichkeit, dass eine so erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wird, und Erzeugen eines entsprechenden auf Wahrscheinlichkeit beruhenden Kriteriums zur Verwendung beim Auswerten einer Übereinstimmung der erzeugten Signatur; Speichern von jeder erzeugten Signatur und ihres entsprechenden auf Wahrscheinlichkeit beruhenden Kriteriums, um eine Datenbank zu bilden; Überwachen eines Sendesegments; Bilden einer Signatur, die das überwachte Sendesegment darstellt; Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer Signatur, die in der Datenbank gespeichert ist, um eine Übereinstimmung davon zu bestimmen; und Bestimmen, ob die Übereinstimmung auf Grundlage des entsprechenden auf Wahrscheinlichkeit beruhenden Kriteriums akzeptiert werden soll.
  • Ein System und ein Verfahren zur Sendesegmenterkennung werden zur Verfügung gestellt, umfassend die Mittel beziehungsweise die Schritte zum Erzeugen einer digitalen Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wobei jede digitale Signatur mehrere Bitwerte einschließt, die ein entsprechendes der mehreren Sendesegmente kennzeichnet; für jede erzeugte digitale Signatur Bestimmen einer wahrscheinlichen Zahl von Bitwerten, die mit den Bitwerten einer digitalen Signatur übereinstimmen werden, die durch Wiederaussenden des entsprechenden Sendesegments erzeugt werden, und Erzeugen eines entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts zur Verwendung beim Bestimmen, ob jede erzeugte digitale Signatur mit einer digitalen Signatur eines danach empfangenen Sendesegments übereinstimmt; Speichern jeder erzeugten Signatur und ihres entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts, um eine Datenbank zu bilden; Überwachen eines Sendesegments; Bilden einer digitalen Signatur, die mehrere Bitwerte hat, welche das überwachte Sendesegment darstellen; Vergleichen der digitalen Signatur, welche das überwachte Sendesegment darstellt, mit zumindest einer digitalen Signatur, die in der Datenbank gespeichert ist; und Bestimmen, ob die digitale Signatur, welche das überwachte Sendesegment darstellt, mit zumindest einer digitalen Signatur übereinstimmt unter Verwendung des entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts.
  • Schließlich werden ein System und ein Verfahren zur Sendesegmenterkennung zur Verfügung gestellt, umfassend die Mittel beziehungsweise die Schritte zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; für jede erzeugte Signatur Bestimmen einer Wahrscheinlichkeit, dass eine derart erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wird; Erzeugen einer weiteren Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wenn die Wahrscheinlichkeit, das die erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wird, geringer als ein vorbestimmter Wert ist; Speichern jeder erzeugten Signatur, um eine Datenbank zu bilden; Überwachen eines Sendesegments; Bilden einer Signatur, die das überwachte Sendesegment darstellt; und Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer Signatur, die in der Datenbank gespeichert ist.
  • Weitere Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung der veranschaulichten Ausführungsformen offensichtlich werden, wenn diese im Zusammenhang mit den beigefügten Zeichnungen gelesen wird, in denen entsprechende Komponenten durch die gleichen Bezugszeichen identifiziert werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein System zum Überwachen eines kontinuierlichen Stroms von Sendesignalen;
  • 2 ist ein Diagramm einer der lokalen Stellen in dem System, das in 1 gezeigt ist;
  • 3 ist ein Diagramm, das während einer Übereinstimmungsoperation Signalflüsse in der lokalen Stelle aus 2 veranschaulicht;
  • 4 ist ein Diagramm, das verwendet wird, um ein Verfahren zum Bilden einer Videorahmensignatur zu erklären;
  • 5A und 5B veranschaulichen einen Teil eines Videorahmens, der einen normalen Randzustand beziehungsweise einen verschobenen Randzustand hat;
  • 6 ist ein Diagramm, auf das beim Erklären einer Antijittermaskierungstechnik Bezug genommen wird;
  • 7A und 7B sind Blockdiagramme, die ein Audiosignaturerzeugungssystem veranschaulichen;
  • 8 ist ein Diagramm, auf das bei der Erklärung des Betriebsmodus der Audiosignaturerzeugungsanordnung aus den 7A und 7B Bezug genommen wird;
  • 9 ist ein Flussdiagramm zum Erklären einer Ereignisfilterungstechnik;
  • 10 ist ein Diagramm zum Erklären einer Übereinstimmungsbestätigungstechnik;
  • 11 ist ein Diagramm, das Signalflüsse in der lokalen Stelle aus 2 veranschaulicht, wenn ein neues interessierendes Segment erfasst wird;
  • 12 veranschaulicht eine Sequenz von Schritten, die beim Erfassen neuer interessierender Segmente gemäß einem ersten Betriebsmodus durchgeführt werden;
  • 13 veranschaulicht eine Sequenz von Schritten, die beim Erfassen neuer interessierender Segmente gemäß einem zweiten Betriebsmodus durchgeführt werden;
  • 14 veranschaulicht eine Sequenz von Schritten, die beim Erfassen neuer interessierender Segmente gemäß einem dritten Betriebsmodus durchgeführt werden;
  • 15 ist ein Baumdiagramm, das zum Beschreiben des Verfahrens verwendet wird, das in 14 veranschaulicht ist;
  • 16 ist ein Diagramm, das Signalflüsse in der lokalen Stelle aus 2 während des Erfassens von Audio- und Videodaten veranschaulicht;
  • 17 ist ein Diagramm, das Signalflüsse in der lokalen Stelle aus 2 während der Erzeugung von Schlüsselsignaturen veranschaulicht; und
  • 18 ist ein Flussdiagramm, das Schritte veranschaulicht, die bei der Erzeugung von Schlüsselsignaturen durchgeführt werden.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 veranschaulicht ein System 10 zum Überwachen eines kontinuierlichen Stroms von Fernsehsendesignalen und zum Bereitstellen von Erkennungsinformation, auf welche die Ausführungsformen der vorliegenden Erfindung angewendet werden können. Wie hier gezeigt, umfasst das System 10 allgemein eine Zentralstelle 12, eine oder mehrere Workstations 14, die sich bei der Zentralstelle 12 befinden; und eine oder mehrere lokale Stellen 16. Jede der lokalen Stellen 16 überwacht das Senden in einem entsprechenden geografischen Bereich.
  • Die Zentralstelle 12 kommuniziert mit jeder der lokalen Stellen 16, zum Beispiel über Telefonleitungen, um Daten bezüglich der Erfassung bekannter Sendesegmente und potenzieller neuer unbekannter Segmente zu empfangen, und um Segmentsignatur und Erfassungsinformation, die neuen Sendesegmenten entspricht, bereitzustellen. Die Zentralstelle 12 stellt die empfangenen Daten zusammen und formuliert diese in einen Bericht 13, der zum Beispiel Sendewerbetreibenden zugeführt werden kann.
  • Die Zentralstelle 12 führt den Workstations 14 auch Sendedaten, zum Beispiel Audio- und Videodaten zu, wo neue und unbekannte Segmente durch menschliche Benutzer identifiziert werden und ihnen ein Identifizierungscode zugewiesen wird. Wenn eine Stelle einen Teil einer Sendung als ein neues interessierendes Segment (wie einen Werbespot) identifiziert, wenn es tatsächlich etwas anderes ist (wie ein normales Programm), wird Zeit des Workstationbenutzers verschwendet, um das unerwünschte Segment zu identifizieren. Wenn also ein bereits bekanntes Segment von dem System 10 nicht richtig identifiziert werden kann, kann es von der Zentralstelle 12 fälschlicherweise einer Workstation 14 als ein neues Segment berichtet werden, wodurch weiter die Zeit des Benutzers verschwendet wird. Die Kosten, Benutzer zu beschäftigen, sind eine beträchtliche fortwährende Ausgabe. Dementsprechend ist es wünschenswert, diese Ausgabe zu minimieren, indem neue interessierende Segmente genau erfasst und bekannte Segmente identifiziert werden. Die vorliegende Erfindung schafft verbesserte Verfahren und Vorrichtungen zur Signalerkennung, die eine erhöhte Fähigkeit, bekannte interessierende Segmente genau zu identifizieren, und eine Minimierung der Notwendigkeit erreichen, potenziell neue Segmente mit Hilfe von Workstationbenutzern zu identifizieren. Gemäß der offenbarten Ausführungsformen der Erfindung werden solche verbesserten Verfahren und Vorrichtungen bei den lokalen Stellen 16 des Systems 10 eingesetzt.
  • Jede lokale Stelle 16 ist eingerichtet, ein RF-Sendesignal zum Beispiel von einer Antenne 18 oder einer Kabelfernsehkopfstation (zum Zweck der Einfachheit und Klarheit nicht gezeigt) zu empfangen, und kann bekannte Sendesegmente durch das Datum, die Zeitdauer, Kanal und weitere erwünschte Information erkennen und identifizieren. Die lokalen Stellen 16 können auch das Ereignis potenziell neuer unbekannter Segmente erkennen und können temporäre Schlüsselsignaturen daraus erzeugen, so dass sie eine Aufzeichnung von solchen Ereignissen für eine Identifizierung des Segments durch einen Workstationbenutzer an der zentralen Stelle behalten können. Obwohl das System 10 nur drei lokale Stellen 16 veranschaulicht, ist das System nicht beschränkt, und es kann eine beliebige Anzahl von lokalen Stellen verwendet werden. Ähnlich ist das System 10 nicht auf nur zwei Workstations 14 wie in 1 gezeigt beschränkt.
  • 2 veranschaulicht eine der lokalen Stellen 16 in Blockform. Wie darin gezeigt, umfasst jede lokale Stelle 16 allgemein ein Eingangsteil 20 und ein Ausgangsteil 22. Das Eingangsteil 20 schließt einen oder mehrere RF-Sendewandler 24, ein Segmenterkennungsuntersystem 26, einen Sensor 27 und ein Datenerfassungsuntersystem 28 ein. Das Ausgangsteil 22 schließt einen Steuerungscomputer 30 und zumindest ein Plattenlaufwerk 32 ein.
  • Jeder der RF-Sendewandler 24 empfängt Fernsehsendesignale über einen entsprechenden Kanal und demoduliert die empfangenen Signale, um Video- und Audiobasisbandsignale bereitzustellen. Die Video- und Audiosignale werden danach dem Segmenterkennungsuntersystem 26 zugeführt, wo Rahmensignaturen für jedes der Video- und Audiosignale erzeugt werden, die danach mit gespeicherten Schlüsselsignaturen verglichen werden, um zu bestimmen, ob eine Übereinstimmung vorhanden ist. Zum Zweck der Klarheit werden Video- und Audiosignaturen hier getrennt als „Untersignaturen" bezeichnet. Das Segmenterkennungsuntersystem erzeugt auch Hinweise, die Signalereignisse darstellen, wie ein Videoschwarzwerden oder ein Audioverstummen. Die Hinweise sowie die Übereinstimmungsinformation werden dem Steuerungscomputer 30 zugeführt zur Verwendung beim Bestimmen, ob das empfangene Signal ein neues Segment oder einen interessierenden Werbespot darstellt, wobei bestimmt wird, ob Video- und Audioinformation erfasst werden soll zur Verwendung bei der Zentralstelle zum Identifizieren eines neuen interessierenden Segments, zum Überprüfen der Gültigkeit von fraglichen Übereinstimmungen und zum Gruppieren von Übereinstimmungsinformation zur Speicherung in einer Datenbank.
  • Der Sensor 27 ist eingerichtet, die Betriebstemperatur des Eingangs 20 zu überwachen, und für den Fall, dass die Betriebstemperatur eine vorbestimmte maximale Betriebstemperatur überschreitet, ein Signal zu erzeugen, um es dem Steuerungscomputer 30 anzuzeigen. Genauer gesagt empfängt der Sensor 27 Temperaturinformation, die sich auf die Untersysteme 26 und 28 bezieht, von einem oder mehreren Thermoelementen 29 und verarbeitet die so empfangene Temperaturinformation, um sie dem Computer 30 anzuzeigen, so dass, wenn erhöhte Temperaturen angetroffen werden, die Untersysteme 26 und 28 ausgeschaltet werden.
  • Das Datenerfassungsuntersystem 28 empfängt die Audio- und Videosendesignale von den Wandlern 24 über das Segmenterkennungsuntersystem 26 und komprimiert und digitalisiert diese. Die digitalisierten Signale werden in einem Puffer, der in dem Untersystem 28 enthalten ist, für eine vorbestimmte Zeitdauer gespeichert und werden auf Anforderung dem Steuerungscomputer 30 zugeführt.
  • Der Steuerungscomputer 30 ist eingerichtet, um Schlüsselsignaturen auszuwählen, Übereinstimmungsbestätigung bereitzustellen, neue Segmentdaten zu verarbeiten und mit der Zentralstelle 12 zu kommunizieren. Das Plattenlaufwerk 32 sorgt für eine Massendatenspeicherfähigkeit für Übereinstimmungsereignisinformation, neue Werbespotinformation und Audio-/Videodaten zur Übertragung zu der Zentralstelle 12.
  • 3 veranschaulicht den Datenfluss für eine typische Übereinstimmungsoperation. Wie hier gezeigt, empfängt einer der Wandler 24 einen erwünschten Kanal von Sendesignalen, die als Video- und Audiobasisbandsignale dem Segmenterkennungsuntersystem 26 zugeführt werden. Das Untersystem 26 schließt mehrere Kanalbaugruppen 402 ein, eine für jeden Kanal, der von der lokalen Stelle 16 überwacht wird, die dazu dienen, eine entsprechende Rahmenuntersignatur und ein entsprechendes Maskenwort für jeden Rahmen des Videobasisbandsignals zu erzeugen. Zusätzlich erzeugt jede Kanalbaugruppe eine Rahmenuntersignatur und ein Maskenwort für jedes Intervall des Audiosignals, das einem Rahmen des Videosignals entspricht und das gleiche Format wie die Videountersignaturen und Maskenwörter hat. Dabei ist willkommen, dass die Verwendung korrespondierender Intervalle und Datenformate für Video- und Audiountersignaturen vorteilhafterweise deren Verarbeitung erleichtert. Es ist auch willkommen, dass Untersignaturen aus unterschiedlichen Intervallen wie Videofeldern oder Kombinationen von Feldern oder Rahmen oder dergleichen erzeugt werden können, und dass die Video- und Audiountersignaturen und Maskenwörter nicht das selbe Format haben müssen. Die Kanalbaugruppen 402 dienen auch dazu, ein Videosignalschwarzwerden auf Grundlage des Empfangs von zumindest einem im Wesentlichen schwarzen Feld oder Rahmen des empfangenen Videobasisbandsignals sowie das Audioverstummen, eine Verringerung des Basisbandaudiosignalniveaus, die Stille darstellt, zu erfassen. Die Kanalbaugruppen 402 dienen auch dazu, Videoszenenwechsel zu erfassen, die durch einen schnellen Wechsel des Videosignals angezeigt werden. Diese Signalereignisse sowie die Video- und Audiountersignaturen und Maskenwörter, die von der Kanalbaugruppe 402 erzeugt werden, werden von der Segmenterkennungssteuerung 404 empfangen. Jede lokale Stelle 16 weist zumindest einen Hilfswandler 24 und eine Kanalbaugruppe 402 auf, so dass, wenn einer der Wandler 24 und Kanalbaugruppen 402 bei der Arbeit versagen sollten, die Segmenterkennungssteuerung 404 einen Befehl an die Hilfskanalbaugruppe und Wandler erzeugt, die dann die Funktionen der nicht funktionsfähigen Ausrüstung aufnehmen.
  • Die Segmenterkennungssteuerung 404 kommuniziert mit einem Segmentsignaturenringpuffer 406, um neu empfangene Segmentsignaturen, das heißt, sequenziell angeordnete Rahmensignaturen und Maskenwörter für jeden Kanal, für ein vorbestimmtes Zeitintervall zu speichern, welches der gegenwärtigen Zeit vorausgeht. Die Segmenterkennungssteuerung kommuniziert auch mit einem Korrelator 420, um ihm Übereinstimmungsbefehle zuzuführen. Dem Korrelator 420 werden auch geeignete Segmentsignaturen von dem Segmentsignaturenringpuffer 406 und Schlüsselsignaturen von einer Schlüsselsignaturendatenbank 408 zugeführt. Der Korrelator 420 führt die angeforderte Übereinstimmungsoperation durch und führt die Übereinstimmungsergebnisse zusammen mit der relevanten Information (z.B. die entsprechende Fehlernummer) der Segmenterkennungssteuerung 404 zu. Die Segmenterkennungssteuerung 404 führt einen Übereinstimmungsbericht für jede Audio- und Videountersignatur und Signalereignisse einem Expertensystemmodul 414 zu, das von dem Steuerungscomputer 30 implementiert wird.
  • Das Expertensystem 414 wertet jeden empfangenen Übereinstimmungsbericht aus, um zu entscheiden, ob er fehlerhaft ist. In bestimmten Situationen verwendet das Expertensystem 414 ein Übereinstimmungsbestätigungsverfahren bei der Übereinstimmungsberichtsauswertung. In diesem Fall führt das Expertensystem einem Übereinstimmungsbestätigungsmodul 422, das auch von einem Computer 30 implementiert wird, eine Übereinstimmungsbestätigungsaufforderung zu, der als Reaktion darauf der Segmenterkennungssteuerung 404 ein Signal zuführt, welche die geeignete Segmentsignatur anfordert. Als Reaktion auf solch eine Anforderung führt die Segmenterkennungssteuerung die geeignete Segmentsignatur dem Übereinstimmungsbestätigungsmodul 422 zu. Zusätzlich empfängt das Übereinstimmungsbestätigungsmodul die geeignete Schlüsselsignatur von einer Datenbank 412, die von einem Datenbanksteuerungsmodul 416 des Computers 30 unter der Steuerung des Expertensystems 414 aufrechterhalten wird. Auf die Vollendung des Übereinstimmungsbestätigungsverfahrens hin führt das Übereinstimmungsbestätigungsmodul 422 dem Expertensystem 414 ein Übereinstimmungsbestätigungssignal zu. Als Antwort darauf führt das Expertensystem 414 Übereinstimmungsinformation, zum Beispiel Ereignisdaten, durch das Datenbanksteuerungsmodul 416 der Datenbank 412 zu.
  • In bestimmten Situationen kann das Expertensystem 414 Ereignisdaten haben, bevor es die Übereinstimmungsbestätigungsantwort erhöht. Wenn in diesen Situationen das Übereinstimmungsbestätigungsmodul 422 feststellt, dass eine akzeptable Übereinstimmung nicht vorhanden ist, führt das Expertensystem 414 über die Datenbanksteuerung 416 der Datenbank 412 ein Übereinstimmungsrückgängigmachungssignal zu, woraufhin das zuvor zugeführte Ereignis rückgängig gemacht wird.
  • VIDEOSIGNATURERZEUGUNG
  • Jede der Kanalbaugruppen 402 erzeugt Videorahmensignaturen, indem sie zuerst einen Differenzvektor 150 in der Form einer geordneten Sequenz von Elementen x1, x2, ... x16 für jeden Videorahmen gemäß der Technik erzeugen, die in 4 veranschaulicht ist. Wie in 4 gezeigt, schließt ein Rahmen 140 eines Videosignals einen hinteren Schwarzschulterbereich 141, einen Bildbereich 142 und einen vorderen Schwarzschulterbereich 143 ein. Der linke Rand 146 des Bildbereichs 142 ist durch den rechten Rand des hinteren Schwarzschulterbereichs 141 begrenzt, während der rechte Rand 147 des Bildbereichs 142 durch den linken Rand des vorderen Schwarzschulterbereichs 143 begrenzt ist.
  • Für jeden Rahmen sind zweiunddreißig vorbestimmte Superpixelbereiche 144 definiert, von denen sechzehn beispielhafte Superpixelbereiche in 4 veranschaulicht sind. Jeder Superpixelbereich 144 ist rechteckig und schließt zum Beispiel zwischen 18 und 21 Pixel in jeder der vier vertikal benachbarten horizontalen Zeilen des Bildbereichs 142 ein. Ein Teil 144 wird, wie im Folgenden genauer beschrieben, ausgewählt und daraus ein durchschnittlicher Helligkeitswert erzeugt. Jeder Superpixelbereich 144 ist mit einem entsprechenden weiteren Bereich 144 gepaart, wie durch die gestrichelten Linien 148 in 4 angezeigt, um die entsprechenden durchschnittlichen Helligkeitswerte zu vergleichen. Jedes derartige Paar entsprechender durchschnittlicher Helligkeitswerte wird verwendet, um den Wert eines entsprechenden Elements xn des Differenzvektors 150 zu erzeugen. Zum Beispiel wird der durchschnittliche Helligkeitswert des ausgewählten Teils des Superpixelbereichs 144a von demjenigen des gepaarten Superpixelbereichs 144b abgezogen, um den Wert eines entsprechenden Elements xn des Differenzvektors 150 zu erzeugen.
  • Danach unterliegt jeder Differenzvektor 150 einer Folge von Vektortransformationen, die weiter unten beschrieben werden, die zu einem entsprechenden transformierten oder resultierenden Vektor mit sechzehn Elementen führen. Dann wird eine 16 Bit-Rahmensignatur erzeugt, wobei jedes Bit abhängig von dem Vorzeichen eines entsprechenden Elements des resultierenden Vektors entweder gesetzt oder zurückgesetzt wird. Zusätzlich wird der Wert von jedem Element des sich ergebenden Vektors untersucht, um zu bestimmen, ob (1) sein Betragswert kleiner als ein Schutzbandwert ist, oder (2) er anfällig für Jitter ist (wie unten beschrieben. Wenn entweder Bedingung (1) oder (2) erhalten wird, dann wird das entsprechende Maskenbit eines entsprechenden 16 Bit-Maskenwortes gesetzt.
  • Videoranderfassung
  • Wieder mit Bezug auf 4 wird man gut verstehen, dass die Positionen der Superpixelbereiche 144 mit Bezug auf einen Rand des Bildbereichs 142 genau bestimmt werden müssen, so dass Pixel von jedem Teil, die verwendet werden, um die entsprechenden durchschnittlichen Helligkeitswerte zu erzeugen, sich von Rahmen zu Rahmen entsprechen. Die Videosignale von Fernsehwerbespots werden oft mit einer horizontalen Verschiebung gegenüber einer normalen oder Standardposition empfangen. Die horizontale Verschiebung, die am häufigsten angetroffen wird, ist, wie durch Betrachten eines Fernsehempfängers bestimmt, eine Verschiebung nach rechts, die zu einer Verschiebung des Rands 146 des Bildbereichs 142 in 4 nach rechts führen würde. Obwohl horizontale Verschiebungen nach links auftreten können, treten solche Verschiebungen weitaus seltener auf als Verschiebungen nach rechts. Obwohl die meisten horizontalen Verschiebungen oder Offsets typischerweise nicht groß genug sind, um von einem Zuschauer erfasst zu werden, können diese Verschiebungen die Erzeugung von Rahmensignaturen durch Verschieben des Rands jedes Bildbereichs 142 des Videorahmens beeinträchtigen, wodurch die Teile der Superpixel verschoben werden, die bei der Signaturerzeugung verwendet werden. Wenn dies nicht kompensiert wird, wird dieser Effekt die Fähigkeit des Systems 10 verschlechtern, zuverlässig Rahmensignaturen zu erzeugen, und somit die Gesamtsystemgenauigkeit negativ beeinträchtigen.
  • Ein Videoranderfassungsmodul, das von jeder der Kanalbaugruppen 402 aus 3 implementiert ist, ist vorgesehen, um eine Verschiebung des Rands des Bildbereichs 142 eines empfangenen Videosignals zu erfassen. Da, wie vorher erwähnt, beobachtet wurde, dass horizontale Verschiebungen nach rechts häufiger auftreten, wird beim Beschreiben des Videoranderfassungsmoduls angenommen, dass sich eine horizontale Verschiebung nach rechts ereignet hat. Jedoch ist die vorliegende Erfindung nicht so beschränkt und kann auch für horizontale Verschiebungen nach links verwendet werden.
  • 5A veranschaulicht einen Videorahmen, der eine Standard- oder normale Randstellung hat. Wie darin gezeigt, schließt der Videorahmen einen hinteren Schwarzschulterteil, einen Bildbereich und einen vorderen Schwarzschulterteil ein. 5B veranschaulicht einen Videorahmen, der eine horizontale Verschiebung nach rechts hat und in dem eine solche Verschiebung die Größe des hinteren Schwarzschulterteils vergrößert und den Bildbereich um einen entsprechenden Betrag verringert.
  • Das Videoranderfassungsmodul setzt zumindest ein Randerfassungssuperpixel 100, das ein rechteckiger Abtastbereich ist, auf die Grenze zwischen dem Bildbereich und dem hinteren Schwarzschulterbereich, wie in 5A und 5B gezeigt, so dass das Superpixel 100 den normalen Randort sowie benachbarte Bildbereiche einschließt, zu denen der Rand verschoben sein kann. Die Videodaten von innerhalb solcher Randerfassungssuperpixel 100 werden verarbeitet, um die Position des linken Rands des Bildbereichs zu bestimmen. Jedes Randerfassungssuperpixel 100 hat vorteilhafterweise den gleichen Bereich wie jeder Superpixelbereich 104, der vorzugsweise eine Größe von ungefähr 18 bis 21 Pixel in der Länge auf 4 Pixel in der Höhe hat. Als solches enthält jedes Randerfassungssuperpixel 100 Teile von mehr als einer Videozeile. Jede dieser Videozeilen innerhalb des Superpixels 100 stellt Daten auf der linken Bildrandposition bereit. In einer vorteilhaften Ausführungsform werden die linken Randpositionen, die von jeder Zeile in allen Randerfassungssuperpixelbereichen 100 erhalten werden, kombiniert, um einen voraussichtlichen Ort für den linken Rand des Bildbereichs zu erhalten. Durch derartiges Kombinieren aller linken Randpositionsdaten wird eine zuverlässigere Schätzung des linken Rands im Vergleich zu derjenigen abgeleitet, die durch Verwendung nur einer einzigen Zeile der Randpositionsinformation erhalten wird, die durch Rauschen in dem Videosignal negativ beeinflusst sein kann.
  • Somit wird der linke Rand des Bilds durch Kombinieren der linken Randwerte erhalten, die für jede der Videodatenzeilen in allen Randerfassungssuperpixelbereichen 100 erhalten werden. Beim derartigen Bestimmen des linken Rands des Bildes ist es vorteilhaft, Extremwerte zu verwerfen, die aus den Videodatenzeilen erhalten werden, und die verbleibenden Werte zu mitteln. In einer bevorzugten Ausführungsform werden die zwei niedrigsten Werte sowie der höchste Wert für den linken Rand des Bilds als Extremwerte betrachtet und als solche verworfen. Da Signalrauschen eher zu einem niedrigen Wert führt, werden mehr niedrige Werte für den linken Rand verworfen.
  • Wie vorher erwähnt, gibt es 32 Superpixelbereiche 144, die zu jedem Rahmen des Videosignals gehören. Innerhalb eines jeden dieser Superpixelbereiche 144 ist ein Abtastbereich 102. Dieser Abtastbereich 102 ist der Bereich, aus dem die Videodaten zur Verwendung bei der Erzeugung der entsprechenden Rahmensignaturen extrahiert werden. Zum Beispiel veranschaulicht 5A den Ort des Abtastbereichs 102 innerhalb des Superpixelbereichs 144 für einen Rahmen, der einen Standardrandzustand hat. Wenn die Superpixelbereiche 144 zwischen 18 und 21 Pixel auf vier Zeilen messen, werden die Abtastbereiche vorteilhafterweise so ausgewählt, dass sie 4 Pixel auf 4 Zeilen messen. Wenn eine horizontale Verschiebung des linken Bildrandes wie vorher erörtert erfasst wird, können die Wirkungen einer solchen Verschiebung auf den Abtastbereich 102 durch Änderung des Abtastbereichs 102 gemäß der erfassten horizontalen Zeile kompensiert werden, wie in 5B gezeigt. Das heißt, wenn der linke Rand des Bilds so bestimmt ist, dass er um N Pixel von der normalen Position nach rechts verschoben ist, dann wird der Abtastbereich 102 auch um N Pixel nach rechts verschoben.
  • In einer bevorzugten Ausführungsform verwendet das Videoranderfassungsmodul vorzugsweise eine vorbestimmte Minimalzahl von Videodatenzeilen (z.B. ungefähr 6–8) der Randerfassungssuperpixelbereiche 100, um den linken Rand des Bildbereichs zu lokalisieren. Wenn der Teil des Bildbereichs neben der hinteren Schwarzschulter relativ dunkel ist, kann es jedoch schwierig sein, den linken Rand des Bildbereichs aus irgendeiner der Zeilen der Videodaten, die innerhalb aller Randerfassungssuperpixelbereiche 100 enthalten sind, genau zu lokalisieren. In dieser Situation wird ein vorbestimmter Vorgabewert für den linken Rand des Bildbereichs verwendet.
  • Wenn sich der horizontale Offset über die Randerfassungssuperpixelbereiche 100 erstreckt, so dass der linke Rand des Bilds außerhalb der Bereiche 100 liegt, dann betrachtet das Videoranderfassungsmodul den linken Rand als nicht gefunden. In dieser Situation wird der oben erwähnte vorbestimmte Vorgabewert verwendet. Außerdem kann in einigen Fällen ein horizontaler Offset erfasst werden, der größer ist als er kompensiert werden kann, was heißt, dass der Abtastbereich 102 nicht um einen Betrag verschoben werden kann, der dem horizontalen Offset entspricht. In dieser Situation wird der Abtastbereich 102 um den maximal möglichen Betrag verschoben.
  • Um den linken Rand des Bildbereichs für jede Videozeile zu bestimmen, tastet das Videoranderfassungsmodul die Pixelabtastwerte von links nach rechts ab, indem es nach einem Sprung oder Zunahme des Helligkeitswerts um mehr als einen vorbestimmten Betrag zwischen einem entsprechenden Pixel und dem Pixel sucht, der sich zwei Pixel nach rechts von dem entsprechenden Pixel befindet. Wenn solch ein Sprung erfasst wird, dann wird die Differenz der Helligkeitswerte zwischen dem Pixel, der gegenwärtig getestet wird, und den drei Pixeln nach rechts bestimmt, um sicherzustellen, dass die Zunahme des Helligkeitswerts wieder gleich dem vorbestimmten Wert ist, um Rauschspitzen zu filtern. Durch Prüfen von Pixeln, die sich zwei Pixel rechts von dem getesteten Pixel befinden, statt benachbarte zu testen, kann außerdem ein Rand erfasst werden, der ansonsten nicht erfassbar wäre, wenn benachbarte Pixel getestet werden. Das heißt, in relativ dunklen Videoszenen ist die Änderung (Differenz) der Randbildwerte geringer als in relativ hellen Szenen.
  • Das Videoranderfassungsmodul kann den linken Rand des Bilds ein oder zwei Pixel platzieren, bevor der Rand tatsächlich erscheint. Dies stellt kein Problem dar, da das Videoranderfassungsmodul Unterschiede zwischen linken Randpositionen für unterschiedliche Sendungen korrigiert und keine absoluten Randpositionen erfassen muss.
  • Somit erhöht das Videoranderfassungsmodul die Systemgenauigkeit, indem es ermöglicht, aus dem empfangenen Videosignal zuverlässige Videorahmensignaturen zu erhalten. Außerdem kompensiert das Videoranderfassungsmodul horizontale Offsets, ohne dass es irgendwelche zusätzliche Hardware bei der lokalen Stelle 16 erfordert.
  • Videovorverarbeitung
  • Es wurde beobachtet, dass bestimmte Werte von Videorahmensignaturen sich häufiger ereignen als andere Werte von Videorahmensignaturen, so dass Videorahmensignaturen dazu neigen, sich bei bestimmten Werten zu konzentrieren (hier manchmal als „Verklumpen") bezeichnet. Ein solches Verklumpen von Videorahmensignaturen kann mehrere Probleme aufzeigen. Zuerst ist es wahrscheinlich, dass eine sich häufig ereignende Videorahmensignatur, die als „Verklumpungssignatur" bezeichnet wird, als Schlüsselwort ausgewählt wird. Als Ergebnis kann dieses Schlüsselwort oder Verklumpungssignatur eine große Anzahl von Schlüsselsignaturen haben, die zu ihr gehören. Da der Korrelator 420 des Segmenterkennungssystems 26 alle Schlüsselsignaturen sucht, die einem entsprechenden Schlüsselwort entsprechen, können die Verklumpungssignaturen die Verarbeitungszeit des Korrelators beträchtlich erhöhen. Im Ergebnis kann dies die Menge der Daten, die innerhalb der Datenbank der lokalen Stelle 16 gespeichert werden können, und/oder die Anzahl der Sendekanäle die verarbeitet werden können, beschränken. Zweitens kann Verklumpen eine Zunahme der falschen Übereinstimmung verursachen. Das heißt, je mehr die Anzahl der Signaturen zunimmt, die zu einem Verklumpungssignaturschlüsselwort gehören, desto näher können die Bitmuster dieser Signaturen zueinander kommen. Im Ergebnis, wenn eine geringe Änderung in einer Segmentsignatur zum Beispiel aufgrund von Signalrauschen oder Jitter auftritt, kann der Korrelator 420 eine Übereinstimmung falsch berichten.
  • Verklumpen kann als Ursache einer Verringerung des tatsächlichen Betrags der Information in einer Signatur betrachtet werden. Zum Beispiel in der Situation, in der alle Videorahmensignaturen gleich sind, ist der Wert einer jeden Signatur voraus bekannt. Deshalb kann in dieser Situation der Wert der nächsten Videorahmensignatur durch 0-Bits beschrieben werden. Bei dem anderen Extrem, das heißt, wenn die Videorahmensignaturen vollständig zufällig sind, so dass sie eine uniforme Verteilung von Werten haben, werden alle Bits innerhalb der Signatur benötigt, um die entsprechende Signatur zu identifizieren.
  • Ein solches Verklumpen kann durch Zunahme der Uniformität der Videorahmensignaturverteilung verringert oder minimiert werden. Wenn die Videorahmensignaturen zum Beispiel uniform verteilt wären, würde jede Signatur mit derselben Häufigkeit auftreten. Jede der Kanalbaugruppen 402 des Segmenterkennungsuntersystems 26 (15) vorverarbeitet das Eingangsvideosignal, um Videorahmensignaturen zu erzeugen, die gleichmäßiger verteilt sind. Das heißt, die Kanalbaugruppe 402 transformiert das Eingangsvideosignal unter Verwendung einer Vektortransformation, die wiederum statistische Daten verwendet, die zur relevanten Verklumpungsinformation gehören, um die Verklumpung von Videorahmensignaturen durch Verringerung der Korrelation zwischen den Bits jedes Rahmens zu verringern oder zu minimieren, was zu einer uniformeren Verteilung der Signaturen führt. Die Vektortransformationsverarbeitung, die durch die Kanalbaugruppen 402 durchgeführt wird, wird nun im Detail beschrieben werden.
  • In einer vorteilhaften Ausführungsform der Erfindung wird eine Hotelling-Transformation verwendet, um eine Vektortransformation des Differenzvektors 150 auszuführen (4), der im Folgenden mit x bezeichnet wird und sechzehn zugeordnete Elemente (x1, x2 ... x16) einschließt, die zu einer Verringerung der Kovarianz zwischen den Elementen x1, x2 ... x16 von x führt. Die Hotelling-Transformation kann wie folgt ausgedrückt werden: y = A(x – m)in der x den Differenzvektor 150 darstellt, m ein Vektor ist, der den Mittelwert der Elemente von x darstellt, A eine Transformationsmatrix und y ein Vektor ist, der den transformierten Vektor x darstellt. Sobald der transformierte Vektor y erzeugt wurde, wird daraus durch Umwandeln des Vorzeichens jedes Elements des Vektors y in einen entsprechenden Bitwert der Rahmensignatur eine Rahmensignatur erhalten. Das heißt, positiven Elementen des Vektors y wird ein Binärwert zugewiesen, während negativen Elementen der andere Binärwert zugewiesen wird.
  • Jedes Element in dem transformierten Vektor y kann wie folgt ausgedrückt werden: y(i) = Σ[A(i, j)·(x(j) – m(j))], j = 0 to 15
  • Die Kovarianz von y kann wie folgt ausgedrückt werden: [Cy] = yy' = [A(x – m)][A(x – m)]' = A(x – m) (x – m)'A' = A(Cx)A' in der (') die Transponierte des entsprechenden Vektors darstellt. Wenn die Spalten in der Matrix A als die normalisierten Eigenvektoren der Matrix Cx (die Kovarianz von x), ausgewählt werden, dann ist die Matrix Cy diagonal. Als Ergebnis einer solchen Auswahl sind die Bits der neu geformten Rahmensignatur (10), die aus y abgeleitet sind, nicht korreliert. Obwohl die Bits, die innerhalb der Rahmensignatur enthalten sind, nicht korreliert sind, können sie jedoch statistisch nicht unabhängig sein. Nichtsdestoweniger ist ihre Abhängigkeit voneinander verringert.
  • In einer bevorzugten Ausführungsform der vorliegenden Erfindung wird angenommen, dass die Transformationsmatrix A eine Konstante ist. Diese Annahme impliziert, dass das ankommende Videosignal im weitesten Sinne ein weit spürbares stationäres Verfahren ist, so dass die Werte von Cx und m konstant sind.
  • Um den Wert der Transformationsmatrix A zu bestimmen, werden die Werte des Vektors m und [Cx] verwendet. Diese Werte können wie folgt erhalten werden: m = (1/N)Σ(x), j = 1 bis N (4)und
    Figure 00410001
    in der N die Anzahl der Abtastwerte von x darstellt, die verwendet werden, um die Werte von m und [Cx] zu bestimmen. Auf die Bestimmung des Werts von [Cx] hin kann die Transformationsmatrix A durch Bestimmen der Eigenvektoren von [Cx] erhalten werden.
  • Um die Anfälligkeit für Rahmenjitter zu minimieren, wird die Rahmensignatur für eine vorbestimmte Anzahl von Malen berechnet und die erhaltenen Signaturen werden auf Unterschiede zwischen ihnen verglichen. Das heißt, in einer bevorzugten Ausführungsform wird die Rahmensignatur bestimmt, als ob sich horizontale Verschiebungen in dem zugehörigen Videorahmen von –1, 0 und +1 Pixel ereignet hätten. Wenn ein Bit oder Bits in diesen drei Signaturwörtern voneinander abweichen, dann wird das entsprechende Maskenbit oder werden die entsprechenden Maskenbits eingestellt. Wenn ein transformierter Differenzwert relativ nah bei Null ist, wird das Maskenbit, das dem entspricht, gesetzt.
  • Wenn das Hotelling-Transformationsverfahren wie oben auf ein Videosignal beschrieben angewendet wird, können relativ große Verklumpungssignaturen nicht so fein aufgebrochen werden wie gewünscht. Das heißt, da die Kovarianz, die in diesem Verfahren verwendet wird, auf Videodaten von allen eingegebenen Videorahmens beruht, während die Rahmen, die verklumpte Signaturen haben, nur einen relativ kleinen Prozentsatz von allen Rahmen ausmachen, kann der effektive Beitrag von allen Rahmen, die verklumpte Signaturen haben, zu der Kovarianz klein sein. Ein Lösungsweg für ein effektives Aufbrechen dieser relativ großen Konzentrationen von Rahmensignaturen ist, getrennte Transformationen für Gruppen von Rahmen zu verwenden, die ähnliche Signaturwerte haben und sich mit einer größeren als einer Durchschnittshäufigkeit ereignen, die im Folgenden als „Klumpen" bezeichnet werden. Solch eine Transformation wird auch Klumpen effektiv aufbrechen, die zu Signaturen gehören, die Werte haben, die Bitgegenteile von denjenigen sind, die zu den ursprünglichen Klumpen gehören.
  • Die Verwendung eines einzigen Transformationsverfahrens erhöht die Uniformität der Rahmensignaturverteilung, und im Ergebnis ist die Anzahl der Videorahmen, die zu den entsprechenden Rahmensignaturwerten gehören, näher bei der Durchschnittszahl der Rahmensignaturen, die durch Verwendung des Transformationsverfahrens erhalten werden, und hat eine höhere zugehörige akzeptable Übereinstimmungshäufigkeit im Vergleich zu Signaturen, die ohne Transformation erhalten werden.
  • Andererseits kann die Verwendung von unterschiedlichen Transformationen für unterschiedliche Signaturwerte oder Bereiche von Signaturwerten die Uniformität der Rahmensignaturverteilung selbst gegenüber derjenigen erhöhen, die unter Verwendung einer einzigen Transformation erhalten wird. Genauer gesagt, wenn solche mehrere Transformationen verwendet werden, werden ankommende Signaturwörter als entweder zu einem Klumpen gehörig oder nicht zu einem Klumpen gehörig kategorisiert, das ist eine Konzentration von Rahmensignaturereignissen (oder größere Häufigkeit von Ereignissen) bei einem bestimmten Signaturwert oder Bereich von Werten. Diese Kategorisierung wird durch Bestimmen des Abstands, zum Beispiel des Hamming-Abstands, einer ankommenden Rahmensignatur von einer Modellvorlage durchgeführt. Hamming-Abstand bezieht sich auf die Anzahl der Bits, die zwischen zwei binären Wörtern unterschiedlich sind, und die Modellvorlage enthält die Rahmensignatur oder -signaturen, welche die Mitte eines Klumpens darstellt. Wenn die ankommende Rahmensignatur innerhalb eines vorbestimmten Hamming-Abstands oder einer Anzahl der Bits der Rahmensignaturen der Modellvorlage liegt, wird die entsprechende Signatur unter Verwendung einer geeigneten der mehreren Transformationen transformiert. Ein Hamming-Abstand von entweder einem oder zwei Bits von der Modellvorlage sorgt für eine verbesserte Signaturverteilung, wobei ein Abstand von zwei Bits bevorzugt wird.
  • Wenn ein empfangener Rahmen eine Signatur erzeugen würde, die einen Wert hat, der an dem Rand der Werte liegt, die durch unterschiedliche Transformationen erzeugt werden, ist es wichtig, dass die verwendete Transformation zu einer Signatur führt, die mit derjenigen des gleichen Rahmens übereinstimmt, wenn er danach empfangen wird. Um Sensitivitäten für den Einfluss von Rauschen zu vermeiden, die in der Erzeugung von unterschiedlichen Signaturen für den gleichen Rahmen führen können, der zu unterschiedlichen Zeiten empfangen wird, werden in solchen Grenzfällen Rahmensignaturen unter Verwendung beider Transformationen erzeugt, woraufhin Maskenbits in jedem entsprechenden Maskenwort für alle entsprechenden Bits in den Signaturen gesetzt werden, die durch unterschiedliche Transformationen erzeugt werden, die voneinander abweichen. Durch Ausführen einer Vektortransformation eines Differenzvektors, der den Informationsinhalt eines Rahmens darstellt, ist es dementsprechend möglich, die Korrelation zwischen dessen Elementen zu verringern, wodurch die Gleichheit der Verteilung von Rahmensignaturen verbessert wird, die ansonsten um bestimmte Werte konzentriert wären. Eine besonders vorteilhafte Technik verwendet eine Hotelling-Transformation, um die Kovarianz zwischen Vektorelementen zu verringern, so dass ihre Korrelation dadurch verringert wird.
  • Antijittermaskierung
  • Durch jede der Kanalbaugruppen 402 wird ein Antijittermaskierungsmodul umgesetzt, das geeignet ist, die Videorahmensignaturen weniger sensitiv für horizontale und vertikale Verschiebungen in dem Videobild zu machen, die von Sendung zu Sendung variieren können. Solche horizontale und vertikale Verschiebungen können auf Hardwarezeitablaufsinstabilitäten oder auf Instabilität in dem übertragenen Videosignal beruhen.
  • Genauer gesagt kompensiert das Antijittermaskierungsmodul sowohl kurzzeitige horizontale und vertikale Verschiebungen, die als Jitter und/oder systematische Offsets bekannt sind, die durch Übertragungshardware oder Empfangshardware verursacht sein können. Man wird gut verstehen, dass die systematischen Offsets auch durch das Randerfassungsmodul wie vorher beschrieben kompensiert werden können.
  • Wie oben beschrieben, wird sowohl ein 16 Bit-Signaturwort und das entsprechende 16 Bit-Maskenwort für jeden Videorahmen erzeugt. Jedes Bit in dem Maskenwort entspricht einem Bit in dem Signaturwort. Durch Setzen eines Bits in dem Maskenwort werden Teile des Systems 10 (1), welche die Videorahmensignatur verwenden, effektiv gewarnt, dass das entsprechende Bit in der Videorahmensignatur als unzuverlässig angesehen werden sollte. Zum Beispiel wird diese Warnung bei der Auswahl des Schlüsselworts und Übereinstimmungsworts für eine Schlüsselsignatur und Setzen des Fehlerschwellwerts zum Finden einer Übereinstimmung unter Verwendung einer vorgegebenen Schlüsselsignatur verwendet. Da außerdem Fehler, die sich in Bits in einem Rahmensignaturwort ereignen, die Bits entsprechen, die in dem Maskenwort gesetzt sind, erwartet werden, wird diese Warnung auch in dem Korrelator 420 des Segmenterkennungsuntersystems 26 verwendet, um Fehlernummern in dem Übereinstimmungsverfahren zu bestimmen.
  • Das Antijittermaskierungsmodul erzeugt entsprechende Summen von Pixelhelligkeitswerten für jeden Superpixelbereich und für eine vorbestimmte Anzahl (zum Beispiel vier) benachbarter Superpixelbereiche. In einer vorteilhaften Ausführungsform schließen benachbarte Superpixelbereiche einen Bereich ein, der aufwärts und nach links von dem entsprechenden Superpixelbereich verschoben ist, einen Bereich, der aufwärts und nach rechts von dem entsprechenden Superpixelbereich verschoben ist, einen Bereich, der abwärts und nach links von dem entsprechenden Superpixelbereich verschoben ist, und einen Bereich, der abwärts und nach rechts von dem entsprechenden Superpixelbereich verschoben ist. Aus jedem dieser fünf Superpixelbereiche, das heißt, dem entsprechenden Superpixelbereich und den vier verschobenen Superpixelbereichen, werden entsprechende Summen der Helligkeitswerte der Pixel, die innerhalb der Bereiche enthalten sind, erzeugt. Ähnliche Werte werden für die anderen 31 Superpixelbereiche erhalten, die innerhalb des Videorahmens enthalten sind, um vier Sätze von 32 Werten, jeden für eine entsprechende verschobene Gruppe von Superpixelbereichen, zu erzeugen. Danach werden fünf Videorahmensignaturen erzeugt, das heißt, eine durch Verwendung der 32 nicht verschobenen Superpixel und vier durch Verwendung von jedem der vier Sätze von 32 verschobenen Superpixeln. 6 veranschaulicht dieses beispielhafte Verfahren, das für ein Superpixel ausgeführt ist. In 6 wird ein Hauptsuperpixel 120, das eine Größe von vier Pixeln breit und vier Pixeln hoch hat, auf die oben beschriebene Weise um zwei Pixel in der vertikalen und zwei Pixel in der horizontalen Richtung verschoben. Das heißt, ein Superpixelbereich 122 wird durch Verschieben eines Abtastbereichs zwei Pixel aufwärts und zwei Pixel nach links von dem Hauptsuperpixel 120 lokalisiert. Ähnlich werden Superpixelbereiche 124, 126 und 128 auch durch Verschieben eines Abtastbereichs um zwei Pixel abwärts und nach links, um zwei Pixel abwärts und nach rechts und um zwei Pixel aufwärts und nach rechts erhalten.
  • Wenn irgendein Bit in den Videorahmensignaturen, die den vier verschobenen Superpixelbereichen entsprechen, von denjenigen in der Videorahmensignatur abweicht, die von dem unverschobenen Superpixel(haupt)bereich erhalten wird, dann wird das Bit als für Jitter sensitiv angesehen, woraufhin das Maskenbit, das diesem Bit entspricht, gesetzt wird. Man wird gut verstehen, dass durch eine solche Prüfung jedes dieser entsprechenden Superpixelbereiche das Antijittermaskierungsmodul bestimmt, ob der Wert eines bestimmten Bits, das innerhalb des Videorahmensignaturwort enthalten ist, sich ändern würde, wenn es eine Verschiebung in dem Videobild gäbe, die der Verschiebung entspricht, die verwendet wird, um das verschobene Superpixel zu erhalten.
  • Der Betrag, um den das Superpixel 120 aus 6 in der vertikalen und horizontalen Richtung verschoben wird, kann variiert werden. In einem gewissen Ausmaß ist, je größer die Verschiebung in der vertikalen und horizontalen Richtung des Videosignals ist, die durch das Antijittermodul kompensiert werden kann, desto größer die Verschiebung in der vertikalen und horizontalen Richtung des Superpixels 120. Eine relativ große Verschiebung des Hauptpixelbereichs 120 in der vertikalen und/oder horizontalen Richtung kann jedoch zu einer relativ großen Anzahl von Bits führen, die in dem Maskenbitwort gesetzt sind. Man wird gut verstehen, dass, wenn eine zu große Anzahl von Bits in einem Maskenwort gesetzt wird, das entsprechende Rahmensignaturwort beinahe bedeutungslose Information enthält. Wenn zum Beispiel das Hauptsuperpixel 120 um einen relativ großen Betrag in der horizontalen und/oder vertikalen Richtung verschoben ist, würden die Ergebnisse, die daraus erhalten wurden, anzeigen, dass die meisten, wenn nicht alle Bits für Jitter sensitiv sind. Wie vorher in einer Ausführungsform der vorliegenden Erfindung beschrieben, wird jedes Hauptsuperpixel 120 zwei Pixel in der horizontalen Richtung und zwei Pixel in der vertikalen Richtung verschoben. In einer weiteren vorteilhaften Ausführungsform der vorliegenden Erfindung wird jedes Superpixel 120 ein Pixel nach rechts und nach links in der horizontalen Richtung, aber ohne eine vertikale Verschiebung verschoben.
  • Somit setzt das Antijittermaskierungsmodul Bits innerhalb des Maskenbitworts für entsprechende Bits, die innerhalb einer jeden Videorahmensignatur enthalten sind, die für Jitter oder Offsets anfällig sein können. Außerdem ist das Antijittermaskierungsmodul wie das Randerfassungsmodul hauptsächlich in einem Softwareprogramm des Segmenterkennungsuntersystems 26 enthalten und erfordert somit minimale Kosten bei der Umsetzung in jeder der lokalen Stellen 16.
  • Die Antijittermaskierungstechnik wird vorzugsweise in Kombination mit einer Schutzbandmaskierungstechnik ausgeführt, in der das Maskenbit für ein gegebenes Rahmensignaturbit maskiert wird, wenn der absolute Wert der Differenz zwischen den durchschnittlichen Helligkeitswerten der zwei entsprechenden Superpixelbereiche kleiner als ein vorbestimmter Schutzbandwert ist. Wenn zum Beispiel Helligkeitswerte für ein vorgegebenes Videosignal innerhalb einer Skala von 0 bis 256 digitalisiert werden, kann ein beispielhafter Schutzbandwert von 64 ausgewählt werden. Wenn das Maskenbit eines entsprechenden Vektorelements gesetzt wird, dann wird das Maskenbit des entsprechenden Signaturbits gesetzt. Das heißt, das Maskenbit von irgendeinem vorgegebenen Signaturbit wird gesetzt, wenn entweder die Schutzbandmaskierung oder die Antijittermaskierung solch ein Maskenbit setzt.
  • AUDIOSIGNATURERZEUGUNG
  • Mit Bezugnahme auf 7A werden Audiosignaturen durch eine Audiosignaturerzeugungsanordnung 250, die hier als in jeder der Kanalbaugruppen 402 (3) eingebaut veranschaulicht ist, für jeden Sendekanal der Audiodaten, der überwacht werden soll, erzeugt. Die Audiosignaturerzeugungsanordnung 250 umfasst allgemein eine Audiosignalaufbereitungs- und Audiosignalabtastschaltung 202, eine A/D-Wandler- und Eingabepufferschaltung 204, ein Transformations- und Signaturextraktionsmodul 206 und eine Ausgabeschaltung 208. Genauer gesagt wird der Schaltung 202 ein Audiobasisbandsignal von einem Sendekanal zugeführt. In einer bevorzugten Ausführungsform wird das Audiobasisbandsignal durch die Schaltung 202 tiefpassgefiltert, um das Nyquist-Kriterium zu erfüllen und Sprachsignalinhalt gegenüber Musik und weiteren Geräuschen zu betonen, was die Verarbeitung und Speichererfordernisse vereinfacht, ohne einen benötigten Informationsgehalt zu opfern, da die überwältigende Mehrheit von Fernsehaudiosignalen menschliche Sprache enthält. Das bandbegrenzte Signal der Schaltung 202 wird der Schaltung 204 zur Umwandlung in digitale Form zugeführt. Das digitalisierte Audio wird von der Schaltung 204 dem Transformations- und Signaturextraktionsmodul 206 zugeführt, welches ein schnelles Fourier-Transformationsverfahren (FFT) zur Erzeugung von Audiorahmensignaturen und entsprechender Maskenwörter verwendet. Die Audiosignaturen und Maskenwörter werden der Ausgabeschaltung 208 zur Umwandlung in eine Form zugeführt, die zur Ausgabe durch das Segmenterkennungsuntersystem 26 geeignet ist. Die Audiosignaturerzeugungsanordnung 250 ist genauer in 7B gezeigt, die nun beschrieben wird.
  • Wie in 7B gezeigt, schließt die Audiosignaturerzeugungsanordnung 250 ein Analogteil (welches die Audiosignalaufbereitungs- und -abtastschaltung 202 enthält) und ein Digitalteil (welches die Schaltungen 204 und 208 und das Modul 206 enthält) ein. Die Schaltung 202 umfasst eine automatische Verstärkungssteuerungsschaltung (AGC) 254, einen Schalterkondensatorfilter 256 und eine Sample-And-Hold-Schaltung 258. Genauer gesagt wird von einem Sendekanal ein Audiobasisbandsignal der automatischen Verstärkungssteuerungsschaltung (AGC) 254 zugeführt, um ein relativ uniformes Audiolaufstärkeniveau aufrecht zu erhalten. Das heißt, da die schnelle Fourier-Transformationsverarbeitung (FFT) während der normalen Verarbeitung Audiolautstärke akkumuliert, ist es wünschenswert zu verhindern, dass die Audioeingangslautstärke relativ groß wird, um ein Übersteuern des FFT-verarbeiteten Ausgabesignals zu verhindern. Ein Ausgabesignal der AGC-Schaltung 254 wird dem Schalterkondensatorfilter 256 zugeführt, der in einer bevorzugten Ausführungsform ein Tiefpassfilter ist, das einen Flankenabfall von 3 dB bei einer Frequenz von ungefähr 3.200 Hz hat, da das Leistungsdichtespektrum für Sprache bei Frequenzen über 3 kHz schnell abfällt. Das Ausgabesignal des Schalterkondensatorfilters 256 wird der Audiosignalerfassung (weiter unten beschrieben) und durch die Sample-And-Hold- Schaltung 258 der A/D-Wandler- und Eingabepufferschaltung 204 zugeführt. Man wird gut verstehen, dass der Audiosignalerfassung alternativ ungefilterte Audiosignale zugeführt werden können.
  • Die Schaltung 204 umfasst einen Analog-Digital-Wandler 260 und einen First-In-First-Out-Puffer (FIFO) 262. Das Ausgangssignal der Abtast- und Halteschaltung 258 wird dem Analog-Digital-Wandler 260 zugeführt, der ein Takt- oder Abtastsignal, das aus einem horizontalen Videosynchronisationspulssignal abgeleitet ist, von einer Taktschaltung 266 empfängt. In einer bevorzugten Ausführungsform hat das Abtastsignal eine Frequenz von ungefähr 15.260 Hz. Im Ergebnis tastet der Wandler 260 die empfangenen Audiodaten mit einer Abtastrate von ungefähr 15.260 Hz ab. Das Ausgangssignal des Wandlers 260 wird der FIFO-Pufferschaltung 262 zugeführt. Das Ausgangssignal der FIFO-Schaltung 262 wird einem digitalen Audiosignalprozessor 264 zugeführt, der in dem Transformations- und Signaturextraktionsmodul 206 enthalten ist. Der digitale Signalprozessor 264 dient dazu, die empfangenen Audiodaten zu verarbeiten, um Audiosignaturen und entsprechende Maskensignaturen zu erzeugen, deren Datenformat und Takt zur Vereinfachung der weiteren Verarbeitung denjenigen der Videorahmensignaturen und Maskenwörter entsprechen. Taktsignale für den digitalen Signalprozessor 264 werden von der Taktschaltung 266 geliefert. Das Ausgangssignal des digitalen Signalprozessors 264, welches die Audiosignaturen und die entsprechenden Maskenwörter einschließt, wird der Ausgabeschaltung 208 zugeführt.
  • Die Ausgabeschaltung 208 umfasst eine First-In-First-Out-Pufferschaltung (FIFO) 268, einen Mikroprozessor 270, ein Dual-Port-RAM 272 und eine Schnittstellenschaltung 274. Das Ausgangssignal des digitalen Signalprozessors 264 wird durch den First-In-First-Out-Puffer (FIFO) 268 dem Mikroprozessor 270 zugeführt. Da die Verarbeitungsgeschwindigkeiten, die zu dem digitalen Signalprozessor 264 und dem Mikroprozessor 270 gehören, sich unterscheiden können, puffert die FIFO-Schaltung 268 die dem Mikroprozessor zuführenden Daten des digitalen Signalprozessors. Der Mikroprozessor 270, der ein Intel 80188 sein kann, dient dazu, die Audiosignatur- und Maskenwortdaten, die von der FIFO-Schaltung 268 empfangen werden, in vorbestimmten Intervallen zu extrahieren. Diese extrahierten Daten werden danach durch die Dual-Port-RAM-Schaltung 272 der Schnittstellenschaltung 274 zugeführt. Da das Ausgangsdatensignal des Mikroprozessors 270 Intel 80188 ein 8-Bit-Format hat, während die Schnittstellenschaltung 274 entworfen ist, Datensignale zu übertragen, die ein Format mit 16 Bit haben, puffert die Dual-Port-RAM-Schaltung 272 die empfangenen Daten mit 8 Bit, um daraus Daten mit 16 Bit zu machen.
  • Die Verarbeitung, die von dem digitalen Signalprozessor 264 bei der Erzeugung der Audiosignaturen und der entsprechenden Maskensignaturen ausgeführt wird, wird nun vollständiger beschrieben werden.
  • Die Verarbeitung, die von dem digitalen Signalprozessor 264 ausgeführt wird, wird mit den entsprechenden Videofeldern synchronisiert, so dass für jeden Videorahmen eine vollständige Verarbeitungssequenz wiederholt wird. Genauer gesagt transformiert der digitale Signalprozessor 264 256 Wörter der Audiodaten, die von der FIFO-Schaltung 262 empfangen werden, in 128 komplexe Datenpunkte durch Mittelwertbildung benachbarter der 256 Wörter und durch Setzen der imaginären Wörter auf 0. Dies verringert die Datengeschwindigkeit auf ungefähr 7,6K digitale Abtastwerte pro Sekunde. Man wird gut verstehen, dass die Eingangsdatengeschwindigkeit für die FFT-Verarbeitung dem Erfordernis der minimalen Abtastfrequenz genügt, so dass Aliasing vermieden wird. Eine Überlappung von 50% bei der schnellen Fourier-Transformation wird unter Verwendung der 128 komplexen Datenpunkte erhalten, die für das vorhergehende Feld zusammen mit den neuen 128 komplexen Datenpunkten für das gegenwärtige Feld erzeugt werden. Diese Datenüberlappung hat die Wirkung, dass sie einen gerechten Beitrag aller Datenpunkte innerhalb des Fensters ermöglicht, das die Randpunkte einschließt.
  • Mit Bezugnahme auf 8, die allgemein die Sequenz der Verarbeitungsschritte veranschaulicht, die von dem Prozessor 264 ausgeführt werden, werden die obigen komplexen Datenpunkte durch ein Eingabemodul 300 erzeugt, und danach multipliziert ein Fenstermodul 302 die komplexen Datenpunkte mit Fensterkoeffizienten, was in einer bevorzugten Ausführungsform ein Hamming- oder cosinusquadriertes Fenstertechnikverfahren bewirkt. Bei einer solchen cosinusquadrierten Fenstertechnik wird die Amplitude eines Audiosignalabtastwerts mit einem Faktor multipliziert, der zu dem Quadrat des Cosinus eines Winkels proportional ist, der einem Ort in der Zeit des entsprechenden Abtastwerts innerhalb des entsprechenden Rahmenintervalls entspricht. Eine solche Multiplikation verringert das Vorhandensein von Signalspitzen an beiden Enden des Rahmenintervalls und führt dem Audiodatensignal einen Grad an Periodizität zu, um die Ergebnisse der FFT-Verarbeitung zu verbessern. Da die schnelle Fourier-Transformationsverarbeitung hauptsächlich zur Verwendung mit periodischen Signalen bestimmt ist, kann sich genauer gesagt das transformierte Signal über mehrere Frequenzbänder unrichtig verteilen, wenn das transformierte Signal im Wesentlichen nicht periodisch ist. Die Verarbeitung der komplexen Datenpunkte innerhalb von Fensterkoeffizienten wie denjenigen, die zu einem cosinusquadrierten Fenster gehören, minimiert die Tendenz einer solchen Signalverteilung. Das vorher beschriebene Datenmittelungsverfahren und Überlappungsverfahren zusammen mit dem cosinusquadratischen Fenstertechnikverfahren sorgt für eine Verarbeitungsgrundlage, die Taktdifferenzen von Rahmen zu Rahmen in dem empfangenen Audiosignal minimiert und gleiche Frequenzbeiträge zu jedem Teil des interessierenden Audiospektrums erlaubt.
  • Die multiplizierten Daten, die durch das Fenstermodul 302 erzeugt werden, werden durch ein FFT-Modul 304 verarbeitet, welches eine Wurzel-2-Transformation DIF (Dezimierung der Frequenz) mit 256 komplexen Datenpunkten unter Verwendung der geeigneten Gewichtungs- oder Drehfaktoren durchführt, die in einer Nachschlagetabelle gespeichert werden können, die von dem Steuerungscomputer 30 (2) während eines Einschaltprotokolls auf den digitalen Signalprozessor 264 heruntergeladen wird. Das FFT-Modul 304 führt gewissermaßen 256 unterschiedliche Bandpassfilter aus. Das Ausgangssignal, das durch das FFT-Modul 304 erzeugt wird, welches sowohl Betrags- als auch Phaseninformation des Audiosignals in jedem Band repräsentiert, wird zu einem betragsquadrierten Modul 306 zugeführt, um einen Leistungs- oder betragsquadrierten Wert für jedes der Bänder innerhalb des Frequenzspektrums zu erhalten. Im Ergebnis wird die Phaseninformation des FFT-Moduls 304, die bei der folgenden Verarbeitung nicht benötigt wird, von dem Modul 306 gewissermaßen verworfen und wird von diesem nicht ausgegeben.
  • Das Betragsquadrierungsmodul 306 erzeugt betragsquadrierte Werte, welche die Leistung der komplexen Spektralpunkte repräsentieren, die von dem FFT-Modul 304 ausgegeben wurden. Aufgrund von Symmetrie wird nur die erste Hälfte des Leistungsspektrums berechnet. Das Ergebnis dieser Quadrierungsoperation ist eine Zahl mit 30 Bit plus 2 Zeichenbit, von denen nur 16 Bit gespeichert werden. Im Allgemeinen sind die Werte klein, so dass ein Sättigungsskalierungsvorgang verwendet wird, während die oberen 16 Bit nach der Verschiebung von jedem Datenwort nach links um eine vorbestimmte Anzahl von Bitstellen (zum Beispiel 6 Bitstellen) gespeichert werden. Wenn die Verschiebung einen Überlauf verursacht, wird das sich ergebende Wort auf einen Sättigungswert FFFF (Hex) eingestellt.
  • Die Werte, die von dem Betragsquadrierungsmodul 306 erzeugt werden, werden von einem Bandauswahlmodul 308 verarbeitet, um Frequenzbandwerte für eine vorbestimmte Anzahl von Bändern auszuwählen. Die Bandauswahl wird gemäß vorbestimmter Anweisungen durchgeführt, die in einer Nachschlagetabelle gespeichert sind, die während eines Einschaltprotokolls auf den digitalen Signalprozessor 264 heruntergeladen wird. In einer bevorzugten Ausführungsform werden die Frequenzbandwerte von 16 Bändern ausgewählt und durch ein Filtermodul 310 mit finiter Impulsantwort (FIR) verarbeitet. Der FIR-Filter 310 führt eine 15-stufige Filteroperation mit finiter Impulsantwort auf jedem der empfangenen 16 Frequenzbandwerte durch. Koeffizienten für den FIR-Filter 310, die in einer bevorzugten Ausführungsform Hamming-Fensterkoeffizienten sind, die ausgewählt sind, um eine Tiefpassfilteroperation auszuführen, werden von einer Nachschlagetabelle geliefert, die während des Einschaltprotokolls auf den digitalen Signalprozessor 264 heruntergeladen wird.
  • Audiosignaltaktverschiebungen mit Bezug auf das Simultansendungsvideo werden gewöhnlich beim Sendefernsehen angetroffen, und wenn sie beim Audiosignaturerzeugungsverfahren ignoriert werden, können sie zu Audiosignaturen führen, die zu den entsprechenden Videosignaturen außer Phase sind. Dies wird wahrscheinlich die Fähigkeit des Systems 10 verschlechtern, ankommende Segmente genau auf Übereinstimmung zu prüfen. Das FIR-Modul 310 dient dazu, die Signaturstabilität durch Mitteln der Audiospektraldaten über eine Anzahl von Fernsehrahmen zu verbessern und somit die Wahrscheinlichkeit zu erhöhen, richtige Signaturübereinstimmungen zu erhalten.
  • Durch Mitteln der Frequenzbandwerte über eine Anzahl von Rahmen dient die Verarbeitung, die von dem Modul 310 ausgeführt wird, auch dazu, die Korrelation von Rahmen zu Rahmen zu maximieren. Diese neigt dazu, Gruppen von ähnlichen Signaturen zu erzeugen, die eine Dauer von mehreren Rahmen haben und die Folgen genannt werden. Das Vorhandensein von Folgenlängen erlaubt die Erzeugung von Audioschlüsselsignaturen, die wahrscheinlicher übereinstimmen, wenn das gleiche Audiosegment von dem System 10 wieder empfangen wird, wodurch Systemgenauigkeit und -effizienz begünstigt werden. Ein weiterer Vorteil ist, dass Fehler, die sich aus Rauschen, Quantisierung und Runden ergeben, weniger kritisch sind, da diese dazu neigen, sich auszumitteln.
  • Die gefilterten Ausgangssignale des FIR-Filters 310 werden dann durch ein Klemmmodul 311 verarbeitet, das eingerichtet ist, die gefilterten Ausgangssignale zwischen vorbestimmten hohen und niedrigen Werten zu klemmen. Das Klemmen der gefilterten Signale auf einen vorbestimmten hohen Wert verhindert Überläufe, die sich sonst während der darauf folgenden Verarbeitung ereignen können, während das Klemmen der gefilterten Signale auf einen vorbestimmten niedrigen Wert mögliche Teilung durch 0 verhindert, und die vorbestimmten Klemmwerte werden dementsprechend ausgewählt. Während die gemittelten Frequenzbandwerte, die geklemmt werden sollen, zum Beispiel als Wörter mit 16 Bit vorgesehen sind, deren Werte von 0 – FFFF (Hex) reichen, kann ein unterer Klemmwert von F (Hex) verwendet werden, während ein oberer Klemmwert von 3FFF (Hex) verwendet werden kann.
  • Das Ausgangssignal, welches durch das Klemmmodul 311 erzeugt wird, wird dann durch ein Normalisierungsmodul 313 verarbeitet, wonach jeder der Werte, der von dem Klemmmodul erhalten wird, auf eine vorbestimmte Weise normalisiert wird. Diese Normalisierung kann für mehrere der 16 geklemmten Bandwerte durch Teilen des entsprechenden Bandwerts durch die Summe der Werte in den Bändern sowohl über als auch unter dem entsprechenden Frequenzband erreicht werden. Am Rand des Frequenzspektrums werden jedoch entweder Werte über oder unter dem Randband verwendet (oder andernfalls wird nur ein einzelner benachbarter Bandwert verwendet). In anderen Situationen können jedoch Werte von drei Bändern bei der Bestimmung des normalisierten Werts für ein entsprechendes Band verwendet werden. Dieses Normalisierungsverfahren kann wie folgt dargestellt werden:
    Figure 00560001
    wobei Bn einen geklemmten Wert für ein entsprechendes Band n darstellt, Badj den geklemmten Wert für das angrenzende Band bzw. die geklemmten Werte für die angrenzenden Bänder darstellt. Tabelle I unten veranschaulicht das angrenzende Band (oder die angrenzenden Bänder), die bei der Bestimmung des normalisierten Werts gemäß einer bevorzugten Ausführungsform verwendet werden. Durch Verwendung von variierenden Zahlen von Bändern, um Badj für unterschiedliche Frequenzbänder bei dem Normalisierungsverfahren zu erzeugen, kann die statistische Verteilung der Audiosignaturen unter den Schlüsselwörtern gleichmäßiger gemacht werden. Als Ergebnis wird das Verklumpen der Audiosignaturen um bestimmte Schlüsselwörter herum verringert.
  • TABELLE I
    Figure 00560002
  • Figure 00570001
  • Tabelle I fasst auch eine vorteilhafte Auswahl von Frequenzbändern für eine Signaturerzeugungstechnik hauptsächlich auf Grundlage des Sprachgehalts eines Fernsehaudiosignals zusammen. Die Bänder 1 bis 16 haben jeweils eine Bandbreite von 30 Hz. Man wird jedoch gut verstehen, dass eine unterschiedliche Auswahl von Bändern und/oder Bandbreiten angewendet werden kann. Bei der Erzeugung von Badj für jedes Band Bn werden vorzugsweise Werte von nahe gelegenen Bändern verwendet, da dies jegliche Verformung auf Grund von Zeitverzögerungsdifferenzen bei unterschiedlichen Frequenzen minimiert. Das heißt, Signale von relativ nahen Frequenzen sind typischerweise zu einem ähnlichen Grad verzögert, obwohl Signale von wesentlich unterschiedlichen Frequenzen wesentlich unterschiedliche Frequenzverzögerungen erfahren können.
  • Die normalisierten Bandwerte, die durch das Normalisierungsmodul 313 erzeugt werden, werden dann durch ein Signaturerzeugungsmodul 312 verarbeitet. Speziell werden für jedes entsprechende Videorahmenintervall 16 solche normalisierte Bandwerte dem Signaturerzeugungsmodul 312 zugeführt, einer für jedes der 16 Frequenzbänder. Das Signaturerzeugungsmodul 312 verwendet eine NOW-THEN-Verarbeitungstechnik, um Audiosignaturen mit 16 Bit zu erzeugen, so dass jedes Signaturbit auf Grundlage eines gegenwärtigen Werts (oder NOW-Werts) eines entsprechenden Frequenzbands und eines vorher erhaltenen Werts (oder THEN-Werts) des gleichen Frequenzbands erhalten wird, der aus einem Rahmen erzeugt wird, der dem gegenwärtigen Rahmen um einen vorbestimmten Rahmenoffset vorangeht. Genauer gesagt werden die empfangenen normalisierten Frequenzbandwerte in einen zirkularen NOW-THEN-Puffer geschrieben und die THEN-Werte werden dann unter Verwendung der vorbestimmten Rahmenoffsets erhalten. Die Rahmenoffsets können von Band zu Band variieren. Gemäß einer vorteilhaften Ausführungsform wird jedoch ein Rahmenoffset von 8 Bit verwendet, um THEN-Werte für jedes der sechzehn Frequenzbänder zu erhalten. Das Signaturerzeugungsmodul 312 erzeugt einen Wert DVAL für jedes Frequenzband gemäß der folgenden Beziehung: DVAL = (NOW – THEN)/(NOW + THEN)
  • Der Wert von jedem der 16 Bit in der Audiosignatur für den gegenwärtigen Rahmen und die Bitwerte des entsprechenden Maskenworts werden gemäß dem Wert DVAL bestimmt. Das heißt, ein Signaturbit wird auf 0 gesetzt, wenn DVAL für das entsprechende Band größer als 0 ist, ansonsten wird es auf einen Wert von 1 gesetzt. Ähnlich wird jedes Maskenbit auf einen Wert 0 gesetzt, wenn der Absolutwert von DVAL für das entsprechende Band größer als ein vorbestimmter Schutzbandwert GRDVAL ist. Wenn zum Beispiel DVAL einen Bereich von 0-7FFF (Hex) hat, kann ein Schutzbandwert von 600 (Hex) verwendet werden, obwohl andere Werte von GRDVAL auch zu akzeptablen Ergebnissen führen können. Die erzeugte Audiosignatur und ihr entsprechendes Maskenwort für jedes Rahmenintervall werden daraufhin von dem digitalen Audiosignalprozessor 264, wie zuvor beschrieben, beigestellt.
  • Man wird gut verstehen, dass die obige Technik zur Erzeugung von Audiosignaturen, die entsprechende Frequenzbandwerte vergleicht, die für jedes von mehreren Frequenzbändern zeitlich verschoben sind, zu Vorteilen gegenüber einer Technik führen kann, die nur auf frequenz- oder zeitversetzten Werten beruht, da die offenbarte Technik relativ mehr Information in einer vorgegebenen Signatur einschließt und für ein besseres Gleichgewicht der Informationstypen sorgt, die in der Signatur eingeschlossen sind.
  • EXPERTENSYSTEM
  • Das Expertensystem ist ein Softwaremodul, welches in dem Steuerungscomputer 30 gespeichert ist und eine Anzahl von „Untermodulen" oder Programmen einschließt, die als ein Ereignisfilter, Untermodule zur Erfassung von neuen Segmenten und Untermodule mit selektivem Erfassungsniveau identifiziert sind. Jedes dieser Untermodule, die in dem Expertensystem enthalten sind, wird nun detailliert beschrieben.
  • Ereignisfilter
  • Wie zuvor erwähnt, werden Ereignisübereinstimmungsdaten von jeder lokalen Stelle 16 der Zentralstelle 12 zugeführt zur Erfassung in dem Bericht 13, wie in 1 veranschaulicht. Somit ist es wünschenswert, die Menge von falschen Übereinstimmungsdaten, die von der lokalen Stelle 16 der Zentralstelle 12 zugeführt werden, zu verringern, um die Gesamtgenauigkeit des Systems 10 zu verbessern und die Zeit zu minimieren, die von Workstationbenutzern in der Zentralstelle 12 aufgebracht wird.
  • Grundsätzlich empfängt das Ereignisfilteruntermodul Übereinstimmungsberichte von dem Segmenterkennungsuntersystem 26 und prüft, ob irgendeiner dieser empfangenen Übereinstimmungsberichte ein fehlerhafter Bericht oder ein falscher Übereinstimmungsbericht ist. Diese erfassten falschen Übereinstimmungsberichte werden dann von einer Datenbank des Steuerungscomputers 30 ausgeschlossen, um die Übertragung von falschen Übereinstimmungsberichten zu der Zentralstelle 12 zu vermeiden.
  • Um zu prüfen, ob ein Übereinstimmungsbericht fehlerhaft ist, überprüft der Ereignisfilter jeden von dem Segmenterkennungsuntersystem 26 empfangenen Übereinstimmungsbericht gemäß mehrerer vorbestimmter Regeln. Ein vorbestimmter Satz dieser vorbestimmten Regeln wird nun mit Bezugnahme auf das Flussdiagramm beschrieben, das in 9 veranschaulicht ist.
  • Wie in Schritt S10 aus 9 gezeigt, wird eine Entscheidung durchgeführt, ob die empfangene Übereinstimmung definitiv akzeptabel ist. Eine Übereinstimmung wird als definitiv akzeptabel entschieden, wenn sie zumindest eine der zwei Bedingungen erfüllt, das heißt (1) eine Übereinstimmung ist definitiv akzeptabel, wenn sowohl die Audiosignatur als auch die Videosignatur für das entsprechende Segment übereinstimmten, oder (2) wenn sowohl der Anfang als auch das Ende des entsprechenden Segments mit „starken Hinweisen" zeitlich fluchten. Ein Hinweis, wie er in dem Ereignisfilter verwendet wird, ist ein Kennzeichen des empfangenen Signals, anders als die spezielle Übereinstimmung, die von dem Ereignisfilter geprüft wird. Beispiele starker Hinweise, wie sie von dem Ereignisfilter verwendet werden, sind ein Schwarzwerden (insbesondere ein Schwarzwerden eines Videosignals) wie auch eine Übereinstimmung eines unmittelbar vorausgehenden oder folgenden Signalsegments. Wenn die empfangene Übereinstimmung im Schritt S10 als eindeutig akzeptabel befunden wurde, das heißt die Übereinstimmung erfüllt eine der vorher beschriebenen Bedingungen, wird das Übereinstimmungsergebnis innerhalb der Datenbank des Steuerungscomputers 30 gespeichert, wie im Schritt S20 gezeigt.
  • Wenn andererseits gefunden wird, dass die Übereinstimmung nicht eindeutig akzeptabel ist, wie durch ein NEIN im Schritt S10 angezeigt, dann wird eine Entscheidung durchgeführt, ob die Übereinstimmung „eindeutig" unakzeptabel ist, wie in Schritt S30 angezeigt. Eine Übereinstimmung wird als eindeutig unakzeptabel entschieden, wenn die Übereinstimmung nicht eindeutig akzeptabel ist (wie im Schritt S10 bestimmt), wenn sie keinen starken Hinweis an irgendeinem Ende der entsprechenden Segmente hat und wenn ihr entsprechendes Segment wesentlich mit einem weiteren Segment überlappt, das eine Übereinstimmung hat, die eindeutig akzeptabel befunden wird. Wenn entschieden wurde, dass die Übereinstimmung eindeutig unakzeptabel ist, dann wird die Übereinstimmung wie im Schritt S40 angezeigt zurückgewiesen und als Ergebnis wird Information, welche die Übereinstimmung betrifft, nicht in der Datenbank des Steuerungscomputers 30 gespeichert.
  • Wenn jedoch die Übereinstimmung nicht eindeutig unakzeptabel ist, wie durch ein NEIN im Schritt S30 angezeigt, wird eine Entscheidung im Schritt S50 durchgeführt, ob das entsprechende Segment einen starken Hinweis an einem Ende hat. Wenn entschieden wird, dass das entsprechende Segment einen starken Hinweis an dessen einem Ende hat, dann unterliegt die empfangene Übereinstimmung der Bestätigungsübereinstimmung, wie im Schritt S60 angezeigt, der unten genauer beschrieben wird. In dieser Situation wird während der Bestätigungsübereinstimmung eine weniger strenge Toleranz im Vergleich zu derjenigen verwendet, die im Schritt S90 verwendet wird, wie im Folgenden beschrieben wird. Das heißt, das Übereinstimmungsbestätigungsverfahren des Schritts S60 wird eine Übereinstimmung zwischen Signaturen herausfinden, die relativ höhere Übereinstimmungsfehler haben, als in dem Fall des Schritts S90, so dass eine Übereinstimmung im Schritt S60 wahrscheinlicher akzeptiert wird. Das Ergebnis des Übereinstimmungsbestätigungsverfahrens wird entscheiden, ob die Übereinstimmung zurückgewiesen oder akzeptiert werden soll.
  • Wenn andererseits das entsprechende Segment keinen starken Hinweis an einem Ende hat, wie durch ein NEIN im Schritt S50 angezeigt, dann wird im Schritt S70 eine Entscheidung durchgeführt, ob das entsprechende Segment zu einem Profil von Segmenten passt, die typischerweise falsch übereinstimmen. Wenn das entsprechende Segment zu solch einem Profil der Segmente passt, die falsch übereinstimmen, dann wird, wie im Schritt S80 angezeigt, die Übereinstimmung zurückgewiesen und Information, welche die Übereinstimmung betrifft, nicht in der Datenbank des Steuerungscomputers 30 gespeichert.
  • Um zu entscheiden, ob ein entsprechendes Segment zu einem Profil von Segmenten passt, die falsch übereinstimmen, wird eine Bewertung der falschen Übereinstimmung R für das entsprechende Segment bestimmt. Solch eine Bewertung der falschen Übereinstimmung wird durch Kombinieren numerischer Bewertungen entschieden, die linear zu entsprechenden von mehreren Kennzeichen gehören. Diese Kennzeichen schließen vorzugsweise das Folgende ein:
    • 1. Die Länge L des entsprechenden Segments: Segmente, die eine relativ kurze Länge haben, haben wahrscheinlicher eine falsche Übereinstimmung;
    • 2. Die Entropie der Schlüsselsignatur E: die Entropie einer Schlüsselsignatur ist ein Maß der Unähnlichkeit zwischen den Übereinstimmungswörtern innerhalb der Schlüsselsignatur und ist umgekehrt proportional zu der Korrelation zwischen diesen. Die Schlüsselsignaturentropie wird durch einen Schlüsselsignaturgenerator bestimmt, wie im Folgenden beschrieben, und wird danach von dem Segmenterkennungsuntersystem 26 zusammen mit dem entsprechenden Übereinstimmungsbericht bereitgestellt. Schlüsselsignaturen, die eine relativ geringe Entropie haben, haben viel wahrscheinlicher eine falsche Übereinstimmung als diejenigen, die eine relativ hohe Entropie haben;
    • 3. Der Korrelatorfehlerschwellwert T: Segmente, die einen relativ hohen Fehlerschwellwert haben, haben wahrscheinlicher eine falsche Übereinstimmung;
    • 4. Der Abstand D vom Verfehlen der Übereinstimmung: Übereinstimmungen mit tatsächlichen Korrelatorfehlerzahlen, die nahe dem Korrelatorfehlerschwellwert sind, sind wahrscheinlicher falsche Übereinstimmungen; und
    • 5. Ob (M) die Übereinstimmung, die geprüft wird, auf einem Audio- oder Videosignal beruht: eine Übereinstimmung, die auf einem Videosignal beruht, hat wahrscheinlicher eine falsche Übereinstimmung als ein Audio, das auf einem Audiosignal beruht.
  • Gemäß einer Ausführungsform eines Verfahrens zur Erzeugung einer falschen Übereinstimmungsbewertung werden den Kennzeichen L, E, T und D (das Kennzeichen M wird in diesem Beispiel nicht verwendet) numerische Werte zwischen 0 und 1 zugewiesen und wird eine Linearkombination der zugewiesenen Werte gebildet, um die falsche Übereinstimmungsbewertung R zu erzeugen, wie folgt: R = w1L + w2E + w3T + w4D,wobei w1 bis w4 jeweils numerische Gewichtungsfaktoren sind, die jedem der Kennzeichen zugewiesen sind, um ihre relative Wichtigkeit bei der Bestimmung der Bewertung R der falschen Übereinstimmungsbewertung zu entscheiden und die Werte der Kennzeichen L, E, T und D zu einer normalisierten Skala von 0 bis 1 umgewandelt wurden. Im Fall eines Fernsehwerbespoterkennungssystems, in dem höhere Werte von R eine relativ niedrige Wahrscheinlichkeit einer falschen Übereinstimmung darstellen, können beispielhafte Werte dem Kennzeichen L zugewiesen werden, wie in Tabelle II unten veranschaulicht.
  • Tabelle II
    Figure 00630001
  • In diesem Beispiel wird Entropie E auf einer Skala von 0 bis 256 gemessen, wobei 256 die maximale Entropie darstellt. Beispiele normalisierter Werte für E sind in Tabelle III unten veranschaulicht.
  • Tabelle III
    Figure 00640001
  • Dementsprechend ist der Wert, der E zugewiesen ist, umso höher, je größer der Entropiewert ist, was die verringerte Wahrscheinlichkeit einer falschen Übereinstimmung für höhere Entropiewerte widerspiegelt.
  • In diesem Beispiel werden dem Kennzeichen T, welches den Fehlerschwellwert darstellt und von 20 bis 60 reicht, die Werte von 0 bis 1 gemäß Tabelle IV unten zugewiesen.
  • Tabelle IV
    Figure 00640002
  • Wie durch Tabelle IV widergespiegelt, werden höheren Werten des Fehlerschwellwerts relativ niedrige Werte T zugewiesen, was die relativ niedrige Wahrscheinlichkeit einer falschen Übereinstimmung für höhere Fehlerschwellwerte widerspiegelt.
  • Beispielhaften Werten des Kennzeichens D, welches die Differenz zwischen dem tatsächlichen Korrelatorfehlerzahlenwert und dem Fehlerschwellwert darstellt, werden Werte gemäß Tabelle V unten zugewiesen.
  • Tabelle V
    Figure 00650001
  • D.h., je größer die Differenz zwischen dem tatsächlichen Korrelatorzahlenwert und dem Fehlerschwellwert ist, desto kleiner ist die Wahrscheinlichkeit einer falschen Übereinstimmung.
  • Schließlich werden in diesem Beispiel den Gewichtungsfaktoren w1 bis w4 die Werte zugewiesen, die in Tabelle VI unten aufgelistet sind.
  • Tabelle VI
    Figure 00650002
  • Es ist zu erkennen, dass die Summe der Gewichtungsfaktoren so gewählt ist, dass sie 1,00 ergibt. Da die Werte L, E, T und D jeweils normalisiert wurden, so dass sie in einen Bereich zwischen 0 und 1 fallen, wird die falsche Übereinstimmungsbewertung R ebenfalls von einem niedrigen Wert von 0 (der eine hohe Wahrscheinlichkeit einer falschen Übereinstimmung darstellt) zu einem hohen Wert von 1 (der eine niedrige Wahrscheinlichkeit einer falschen Übereinstimmung darstellt) reichen.
  • Wenn im Schritt S70 das entsprechende Segment nicht zu dem Profil der Segmente mit falscher Übereinstimmung passt, wie durch ein NEIN im Schritt S70 angezeigt, dann unterliegt die entsprechende Übereinstimmung einer Übereinstimmungsbestätigung, wie im Schritt S90 angezeigt. Die Toleranzen, die für die Übereinstimmungsbestätigung des Schritts S90 verwendet werden, sind enger als diejenigen, die im Schritt S60 verwendet werden, wie vorher angemerkt. Wie im Schritt S60 werden die Ergebnisse des Übereinstimmungsbestätigungsverfahrens im Schritt S90 außerdem entscheiden, ob die entsprechende Übereinstimmung akzeptiert und somit in der Datenbank des Steuerungscomputers 30 gespeichert oder zurückgewiesen werden soll.
  • Eine weitere Funktion des Ereignisfilters dient dazu, zu entscheiden, ob die empfangene Übereinstimmung als ein Hinweis zum Lokalisieren neuer Segmente oder Ausrichten weiterer Übereinstimmungen verwendet werden kann. Grundsätzlich ist das Verfahren, das beim Bestimmen verwendet wird, um zu entscheiden, ob eine Übereinstimmung als ein Hinweis verwendet werden soll, im Wesentlichen das gleiche wie dasjenige, das oben beschrieben ist, ob eine Übereinstimmung akzeptabel ist. Jedoch gibt es zwei Ausnahmen. Das heißt, (1) eine Übereinstimmung, die unakzeptabel zu sein scheint, und nicht nahe bei irgendeinem starken Hinweis ist, kann als Hinweis verwendet werden für den Fall, dass folgende Übereinstimmungen mit ihr fluchten können, oder ansonsten ein neues Segment auf Grundlage einer folgenden Übereinstimmung gefunden werden kann, und (2) Segmente, die einen starken Hinweis an einem Ende haben, aber eine hohe oder falsche Übereinstimmungsbewertung haben, wie oben beschrieben, werden nicht als Hinweise verwendet. In dem Fall der Ausnahme (2) jedoch kann, wenn die Bestätigungsübereinstimmung später eine akzeptable Übereinstimmung anzeigt, die Übereinstimmung dann der Datenbank berichtet werden.
  • Der Speicherpuffer, der innerhalb des Datenerfassungsuntersystems 28 enthalten ist, hält nur eine vorbestimmte, begrenzte Menge von Daten. Folglich arbeitet oder reagiert der Ereignisfilter rechtzeitig, um zu ermöglichen, dass Audio- und Videodaten für ein Segment gesammelt werden, das eine solche Sammlung erfordert, zum Beispiel ein neues Segment, das ein Erfassungsniveau 1 hat, wie im Folgenden beschrieben wird.
  • Wenn eine Bestätigungsübereinstimmung (die relativ zeitraubend ist) erforderlich ist, ist in einigen Fällen zum Beispiel die Information, die erforderlich ist, um zu entscheiden, ob eine Übereinstimmung akzeptabel oder unakzeptabel ist, nicht innerhalb der Zeitbeschränkung verfügbar, die dem Ereignisfilter auferlegt ist. Das heißt, die gesamte Information, die erforderlich ist, um zu bestimmen, ob eine Übereinstimmung akzeptiert werden soll oder nicht, kann zu der Zeit nicht verfügbar sein, zu der der Übereinstimmungsbericht dem Steuerungscomputer 30 zugeführt wird. Um dieses Problem zu verringern, trifft der Ereignisfilter eine vorläufige Entscheidung, ob die Übereinstimmung, die dem entsprechenden Segment entspricht, zu der Zeit akzeptiert werden sollte, zu der die Übereinstimmung berichtet wird. Wenn eine Übereinstimmung vorläufig als akzeptabel entschieden wird (oder endgültig als akzeptabel entschieden wird), wird sie an die Datenbank berichtet, während, wenn die Übereinstimmung unakzeptabel ist, sie vor der Datenbank zurückgehalten wird. Die Ergebnisse der vorläufigen Entscheidungen werden nach einer vorbestimmten Zeitdauer, zum Beispiel ungefähr mehrere Minuten, durchgesehen. Während dieser vorbestimmten Zeitdauer wird die Übereinstimmungsbestätigungsverarbeitung vollendet. Auf Grundlage der Übereinstimmungsbestätigungsergebnisse, wenn eine Übereinstimmung, die vorher nicht der Datenbank des Steuerungscomputers 30 zugeführt wurde, nun als akzeptabel befunden wird, wird sie der Datenbank als akzeptable Übereinstimmung zugeführt. Wenn andererseits eine Übereinstimmung, die vorher als akzeptabel gefunden wurde und als solche der Datenbank berichtet wurde, nun als unakzeptabel befunden wird, wird ein Übereinstimmungsrückgängigmachungssignal erzeugt, um die entsprechende Übereinstimmung zu löschen. Übereinstimmungen, die anfänglich als eindeutig akzeptabel oder unakzeptabel befunden wurden, werden im Allgemein zu der vorbestimmten späteren Zeit nicht durchgesehen, da ihre Bestimmung nicht fraglich ist. Wenn jedoch eine übereinstimmende Audio- oder Videosignatur als eindeutig unakzeptabel befunden wird, bevor eine Übereinstimmung für andere entsprechende Video- oder Audiosignaturen gefunden wird, wird die Übereinstimmung der ersten Signatur dennoch akzeptiert werden, da sowohl die entsprechende Video- als auch die Audiosignatur übereinstimmen.
  • Wieder mit Bezugnahme auf 3 empfängt der Ereignisfilter des Expertensystems 414 Übereinstimmungsberichte von dem Segmenterkennungsuntersystem 26 und entscheidet, ob solche Berichte falsche Übereinstimmungsberichte sind. In bestimmten Situationen, wie oben erörtert, kann eine Bestätigungsübereinstimmung erforderlich sein, woraufhin das Übereinstimungsbestätigungsmodul 422 unter Verwendung des Segmenterkennungsuntersystems 26 sowie der Schlüsselsignaturen aus der Datenbank 412 entscheidet, ob die Übereinstimmung akzeptabel ist oder nicht. Die Ergebnisse der Übereinstimmungsbestätigung werden dann innerhalb einer vorbestimmten Zeitdauer dem Ereignisfilter zugeführt. Der Ereignisfilter führt Übereinstimmungen, die als akzeptabel bestimmt sind, der Datenbank 412 zu. Wenn der Ereignisfilter vorher eine Übereinstimmung der Datenbank zuführte, die später als unakzeptabel gefunden wird, führt der Ereignisfilter der Datenbanksteuerung 416 ein Übereinstimmungsrückgängigmachungssignal zu, um die entsprechende Übereinstimmung daraus zu löschen.
  • Übereinstimmungsbestätigung
  • Das Übereinstimmungsbestätigungsmodul befindet sich innerhalb des Steuerungscomputers 30 (2) und wird verwendet, um Übereinstimmungen fraglicher Akzeptabilität auf Anforderung des Ereignisfilters unter den oben beschriebenen Bedingungen auszuwerten. Als ein Beispiel können in bestimmten Situationen die Audio- oder Videountersignaturen, aber nicht beide übereinstimmen. In diesem Beispiel kann der Ereignisfilter die Übereinstimmungsbestätigung anfordern, um zu entscheiden, ob die Untersignatur, die anfänglich nicht übereinstimmte, in der Erkennungssteuerung dennoch als mit einer vorgegebenen Schlüsselsignatur übereinstimmend angesehen würde, wenn sie damit mittels Standards verglichen würden, die gegenüber Übereinstimmungsfehlern toleranter sind.
  • Das Übereinstimmungsbestätigungsmodul führt ein Übereinstimmungsverfahren aus, welches demjenigen ähnlich ist, das von dem Korrelator 420 (3) in dem Segmenterkennungsuntersystem 26 verwendet wird. Anders als in dem Korrelator, der versucht, Schlüsselwörter gegenüber einem kontinuierlichen Strom von Video- und Audiosignaturen auf Übereinstimmung zu prüfen, versucht das Übereinstimmungsbestätigungsmodul jedoch nur eine kurze Länge eines Sendesegments gegenüber einer Schlüsselsignatur auf Übereinstimmung zu prüfen. Im Ergebnis tritt eine falsche Übereinstimmung mit der Übereinstimmungsbestätigung weniger wahrscheinlich auf als mit dem Übereinstimmungsverfahren, das von dem Korrelator durchgeführt wird. Dementsprechend können Fehlertoleranzen für das Übereinstimmungsbestätigungsverfahren im Vergleich zu denjenigen beträchtlich verringert oder entschärft werden, die bei dem Korrelatorübereinstimmungsverfahren verwendet werden, ohne zu einer unakzeptabel falschen Übereinstimmungshäufigkeit zu führen. Diese Entschärfung der Fehlertoleranzen ermöglicht es dem Übereinstimmungsbestätigungsmodul zu bestimmen, ob eine Signatur oder Untersignatur übereingestimmt haben sollte, obwohl dies der Korrelator nicht bestimmen konnte.
  • Wieder mit Bezug auf 3 kann von dem Ereignisfiltermodul des Expertensystems 414 dem Übereinstimmungsbestätigungsmodul 422 eine Übereinstimmungsbestätigungsaufforderung zugeführt werden. Solch eine Aufforderung kann die Segmentidentifizierungsnummer, Start- und Endzeiten des Segments, den Sendekanal und eine erwünschte Übereinstimmungsbestätigungstoleranz einschließen. Auf den Empfang eines solchen Übereinstimmungsaufforderungssignals hin fordert das Übereinstimmungsbestätigungsmodul die Segmentsignaturdaten für die angeforderten Zeiten von dem Segmenterkennungsuntersystem 26 und die relevante Schlüsselsignatur von der Datenbank 412 an. Nach Empfang der angeforderten Information vergleicht das Übereinstimmungsbestätigungsmodul 422 dann die einzelne Schlüsselsignatur mit dem angeforderten Teil oder Segment des Sendesignals gemäß der erwünschten Übereinstimmungsbestätigungstoleranz und führt nach Beendigung des Vergleichs das Ergebnis (d.h. Übereinstimmung oder keine Übereinstimmung) dem Ereignisfiltermodul zu.
  • Das Übereinstimmungsbestätigungsmodul führt den Vergleich durch, indem es die Schlüsselsignatur gewissermaßen entlang der Segmentsignatur bewegt, wie in 10 gezeigt. Im Wesentlichen ist die Schlüsselsignatur mit der Segmentsignatur an einer anfänglichen Position innerhalb einer erwarteten Übereinstimmungszone ausgerichtet, und eine Übereinstimmung wird gemäß des unten beschriebenen Übereinstimmungsbestätigungsverfahrens versucht. Jede von mehreren Übereinstimmungsbestätigungen wird auch durch Ausrichten der Schlüsselsignatur bei einem entsprechenden Positionsoffset von der ursprünglichen Position jeweils um ±1, 2, 3, ..., N Rahmen versucht. Das heißt, in 10 stellt N die Anzahl der Rahmen dar, die auf beiden Seiten des Orts innerhalb der erwarteten Zone der Übereinstimmung geprüft werden sollen, m(0) stellt das entsprechende Schlüsselwort dar (welches bei der Übereinstimmungsbestätigung einfach als ein weiteres Übereinstimmungswort behandelt wird) und m(x) stellt das x-te Übereinstimmungswort dar, für welches 1 ≤ x ≤ 8 ist. Allgemein berechnet das Übereinstimmungsbestätigunsmodul einen minimalen Gesamtfehlerzahlenwert unter allen 2N + 1 Übereinstimmungsversuchen, die es mit der Summe der Fehlerschwellwerte, die der Schlüsselsignatur permanent zugewiesen sind, und mit einer Übereinstimmungsbestätigungstoleranz vergleicht, um eine Entscheidung zu treffen, ob eine Übereinstimmung vorhanden ist.
  • Obwohl der Algorithmus, der von dem Übereinstimmungsbestätigungsmodul verwendet wird, in den meisten Punkten demjenigen entspricht, der von dem Korrelator 420 verwendet wird, sind genauer gesagt bestimmte Unterschiede vorhanden. Diese Unterschiede werden nun mit Bezugnahme auf 10 beschrieben.
  • Für jede versuchte Übereinstimmungsbestätigung wird ein entsprechender teilweiser Fehlerzahlenwert p für jedes Schlüsselsignaturübereinstimmungswort erzeugt, indem das Übereinstimmungswort mit der entsprechenden Rahmensignatur der Segmentsignatur verglichen wird. Ein Gesamtfehlerzahlenwert wird dann durch Summieren der Zahl R (die einen beispielhaften Wert 8 hat) der niedrigsten Teilfehlerzahlenwerte für jede versuchte Übereinstimmung bestimmt. In der bevorzugten Ausführungsform enthält, da das Schlüsselwort einfach als ein weiteres Übereinstimmungswort betrachtet wird, die entsprechende Schlüsselsignatur neun Übereinstimmungswörter. Bei der Berechnung des Gesamtfehlerzahlenwerts für jede versuchte Übereinstimmung wird somit der Teilfehlerzahlenwert, der den höchsten (oder schlechtesten) Fehlerzahlenwert hat, nicht verwendet. Der Gesamtfehlerzahlenwert für jede versuchte Übereinstimmung wird dann für die N Rahmen sowohl vor als auch hinter dem Ort des ursprünglichen Orts berechnet, wie in 7 gezeigt. Der Wert von N sollte sorgfältig ausgewählt werden, da, wenn N zu hoch ist, sich eine falsche Übereinstimmung ergeben kann, und andererseits ein Wert von N, der zu klein ist, akzeptable Übereinstimmungen nicht erfassen kann. In der bevorzugten Ausführungsform hat N einen Wert von 60. Der Gesamtfehlerzahlenwert, der den niedrigsten Wert hat, wird als der endgültige Fehlerzahlenwert gewählt. Der endgültige Fehlerzahlenwert wird dann angepasst, um irgendwelche verworfene Teilfehlerzahlenwerte zu berücksichtigen. In einer vorteilhaften Ausführungsform wird die Anpassung unter Verwendung der folgenden Beziehung durchgeführt:
    Angepasster endgültiger Fehlerzahlenwert = (endgültiger Fehlerzahlenwert) (8/R)
  • Das Übereinstimmungsbestätigungsmodul erhöht den Fehlerzahlenwert oder den Fehlerschwellwert, der zu der Schlüsselsignatur gehört, um den Fehlerzahlenwert, der durch die Übereinstimmungsbestätigungstoleranz spezifiziert ist, um einen Fehlerschwellwert zu erhalten. Das Übereinstimmungsbestätigungsmodul vergleicht dann den endgültig angepassten Fehlerzahlenwert mit dem Fehlerschwellwert. Wenn der endgültige angepasste Fehlerzahlenwert kleiner oder gleich dem Fehlerschwellwert ist, wird befunden, dass eine Übereinstimmung vorhanden ist, woraufhin ein Signal, das dies anzeigt, von dem Übereinstimmungsbestätigungsmodul an das Ereignisfiltermodul weitergeleitet wird. Wenn andererseits der endgültige angepasste Fehlerzahlenwert größer als der Fehlerschwellwert ist, dann wird nicht befunden, dass eine Übereinstimmung vorhanden ist, woraufhin ein Signal, das dies anzeigt, dem Ereignisfiltermodul zugeführt wird.
  • Erfassung neuer Segmente
  • Die Entscheidung, ob ein neues interessierendes Segment (zum Beispiel ein Werbespot) empfangen wurde, wird verwendet, um die Information zu bestimmen, die dem Workstationbenutzer zur Identifizierung solcher neuen Segmente bereitgestellt wird. Wieder mit Bezugnahme auf 1 wird, wenn die lokale Stelle 16 Segmente als vollständige neue interessierende Segmente identifiziert, wenn sie es tatsächlich nicht sind (in welchem Fall auf sie als „Spreu" Bezug genommen wird), Workstationbenutzerzeit beim Versuch, diese Segmente zu identifizieren, verschwendet. Wenn die lokale Stelle 16 das Segment nicht richtig abgrenzt, so dass zum Beispiel nur ein Teil der Audio- und Videoinformation für das neue interessierende Segment dem Benutzer bereitgestellt wird, kann die Zeit des Benutzers auch verschwendet und die Systemgenauigkeit verringert werden.
  • Das Erkennen von neuen Segmenten wird durch das Expertensystem ausgeführt und beruht hauptsächlich auf mehreren expliziten und impliziten Hinweisen. Explizite Hinweise werden normalerweise von dem Segmenterkennungsuntersystem 26 empfangen und können zum Beispiel Videoschwarzwerden, Teilübereinstimmungsberichte, Audioverstummen und Szenenwechsel einschließen. Andererseits ist ein Beispiel eines impliziten Hinweises die Segmentdauer. Jeder dieser Hinweise wird nun detaillierter beschrieben werden gefolgt von einer Erörterung der Betriebsweise des Erfassungsmoduls für neue Segmente.
  • Typischerweise werden Werbespots mit zumindest einem Videofeld ausgesendet, welches ein im Wesentlichen schwarzes Niveau an jedem Ende hat. Da ein Werbespot nur ein schwarzes Feld an jedem Ende des Werbespots haben kann, wird ein Schwarzwerden bei irgendeinem Feld des Videosignals von der entsprechenden Kanalbaugruppe über die Segmenterkennungssteuerung an das Erfassungsmodul für neue Segmente berichtet. Somit kann eine Werbespotgrenze durch ein Schwarzwerden angezeigt werden, wobei die Grenze normalerweise am Anfang oder am Ende eines solchen Schwarzwerdens ist. In einigen Fällen kann sich die tatsächliche Werbespotgrenze jedoch in der Mitte eines Schwarzwerdens befinden. Dies kann sich ereignen, wenn beinahe schwarze Szenen als schwarz erfasst werden, oder wenn während eines tatsächlichen Schwarzwerdens das Videosignal zu dem nächsten Werbespot heller wird, bevor das Schwarzwerden vollendet werden konnte. Obwohl solches Schwarzwerden, das nicht den Werbespotgrenzen entspricht, gelegentlich auftritt und von dem Erfassungsmodul für neue Segmente erfasst werden kann, ist die Anzahl solchen unechten Schwarzwerdens relativ niedrig im Vergleich zu der Anzahl am Audioverstummen oder Szenenwechseln, die im Folgenden beschrieben werden.
  • Eine Übereinstimmung, die von dem Ereignisfilter des Expertensystems akzeptiert wurde, wird als Hinweis verwendet. Wie vorher erwähnt dient, obwohl das Segmenterfassungsuntersystem 26 falsche Übereinstimmungsberichte erzeugen kann, der Ereignisfilter dazu, eine wesentliche Anzahl von falschen Übereinstimmungsberichten zu identifizieren und zu beseitigen. Im Ergebnis ist eine Übereinstimmung, die von dem Ereignisfilter als akzeptabel entschieden wurde, ein zuverlässiger Hinweis. Eine solche Übereinstimmung wird auch als relativ sehr starker Hinweis entweder allein oder insbesondere in Kombination mit einem Schwarzwerden an irgendeinem oder beiden Enden eines betrachteten Segments angesehen. Da Werbespots typischerweise in Gruppen oder Serien gesendet werden, so dass das Ende eines Werbespots dem Anfang eines folgenden Werbespots entspricht, ist zum Beispiel die Bestimmung einer akzeptablen Übereinstimmung eine starke Anzeige, dass ein Werbespot folgen muss. Eine Übereinstimmung, die als akzeptabel entschieden wurde, ist auch ein wichtiger Hinweis, um das Expertensystem zu informieren, wo kein neues interessierendes Segment gefunden werden kann. Als Beispiel wird das Erfassungsmodul für neue Segmente nicht nach neuen Segmenten in den Segmenten suchen, die bereits eine akzeptable Übereinstimmung haben. Das heißt, anders als ein neues Segment muss ein Segment, das bereits eine akzeptable Übereinstimmung hat, die damit durch das Expertensystem zugeordnet wurde, nicht zu einer der Workstations 14 zur Klassifizierung durch einen Benutzer weitergeleitet werden, wie vorher beschrieben (da eine solche Klassifizierung für eine erfasste Übereinstimmung offensichtlich bereits durchgeführt wurde).
  • Obwohl das Ende einer akzeptablen Übereinstimmung normalerweise entweder den Start eines folgenden Segments oder den Start eines Schwarzwerdens darstellt, welche die wahre Grenze darstellt, kann der Übereinstimmungshinweis zeitlich nicht genau bekannt sein. Da Übereinstimmungen bei mehreren aufeinander folgenden Rahmen auftreten können, hat jede Übereinstimmung (Audio und Video) eine zugehörige Spitzenbreite, die für die entsprechende Übereinstimmung proportional zu der zeitlichen Unsicherheit ist. Um eine solche Unsicherheit zu kompensieren, versucht das Erfassungsmodul für neue Segmente, die entsprechende Übereinstimmung unter Verwendung weiterer starker Hinweise wie einer weiteren akzeptablen Übereinstimmung oder einem Schwarzwerden, wann immer möglich, zu fluchten.
  • Übereinstimmungen, die auf temporären Identifizierungsnummeren (IDs) beruhen, können Segmente verkörpern, die sich von Segmenten unterscheiden, die von den Übereinstimmungen verkörpert werden, die auf permanenten IDs beruhen. Das heißt, Übereinstimmungen, die auf temporären IDs beruhen (die nicht von einem Workstationbenutzer klassifiziert wurden), können nur einen Teil eines Segments verkörpern, während Übereinstimmungen, die auf permanenten IDs beruhen, von einem Benutzer bei einer der Workstations 14 gesehen und richtig beurteilt wurden. Das Erfassungsmodul für neue Segmente des Expertensystems unterscheidet vorzugsweise zwischen Übereinstimmungen, die mit Signaturen erhalten wurden, die unterschiedliche Typen von IDs haben, um ein größeres Gewicht auf Übereinstimmungen zu legen, die mit permanenten ID-Signaturen erhalten wurden.
  • Ein Audioverstummen, welches eine Verringerung des Audiosignals im Wesentlichen auf ein Niveau darstellt, welches Stille darstellt, ereignet sich typischerweise an Werbespotgrenzen. Da Audioverstummen jedoch während eines Werbespots sowie während Nichtwerbespotsegmenten wie einem normalen Programm sehr verbreitet sind, zeigt eine große Anzahl von Audioverstummen keine Werbespotgrenze an. Sich auf Audioverstummen zu verlassen, um beide Enden eines Segments zu erfassen, kann dementsprechend zur Auswahl beträchtlicher Mengen von normalen Programmen als interessierende Segmente oder andernfalls zu unrichtigem Teilen eines Werbespots in zwei Teilsegmente führen, wobei keines von beiden in der Zukunft genau übereinstimmen wird, da seine Länge unrichtig aufgezeichnet wird. Somit wird Audioverstummen als ein relativ schwächerer Hinweis als das vorher beschriebene Schwarzwerden oder ein akzeptabler Übereinstimmungshinweis angesehen. Im Ergebnis muss die Verwendung von Audioverstummen als Hinweis beschränkt werden, oder andernfalls wird übermäßige Spreu erzeugt werden. Wenn ein Audioverstummen eine Werbespotgrenze anzeigt, kann die Grenze außerdem nicht exakt am Anfang oder Ende des Audioverstummens liegen, sondern kann stattdessen an irgendeinem nicht definierten Ort innerhalb des Audioverstummens liegen. Im Ergebnis sind lange Audioverstummen typischerweise als Hinweise aufgrund der Unsicherheit des exakten Orts des Werbespotbeginns oder -endes nicht verwendbar.
  • Ein Szenenwechsel ist eine abrupte Änderung des Videobilds, die sich zwischen Rahmen ereignet. Da Szenenwechsel innerhalb von Segmenten zusätzlich zu denjenigen, die sich bei Werbespotgrenzen ereignen, verbreitet sind, wird ein Szenenwechsel als relativ schwacher Hinweis angesehen. Nichtsdestoweniger können Szenenwechsel sehr hilfreich sein. Zum Beispiel haben viele Werbespots, die an den Grenzen nicht schwarz werden, an diesem Punkt einen Szenenwechsel. Obwohl der Szenenwechsel selbst ein schwacher Hinweis ist, wie vorher erwähnt, kann der Szenenwechsel mit einem Audioverstummen kombiniert werden, um einen starken Hinweis zu bilden. Zum Beispiel kann der Szenenwechsel verwendet werden, um die Werbespotgrenze innerhalb eines Audioverstummens zu lokalisieren.
  • Implizite Hinweise
  • Einer der wichtigeren impliziten Hinweise ist die Segmentdauer. Typischerweise werden Werbespots in Standardlängen oder nominalen Längen, zum Beispiel Längen von 10, 15, 20, 30, 45, 60, 90 oder 120 Sekunden gesendet. Einige dieser Werbespotlängen ereignen sich häufiger als andere. Insbesondere wird angenommen, dass sich Werbespots von 30 Sekunden am häufigsten ereignen. Es wird angenommen, dass die Häufigkeit des Ereignisses von unterschiedlichen Werbespotlängen wie folgt dargestellt wird, wobei die Häufigkeit des Ereignisses eines Werbespots einer Dauer t (in Sekunden) dargestellt wird als CLt:
    CL30 >> CL15 >> CL10 > CL60 > [CL20, CL120, CL90, CL45]
  • Das heißt, beispielsweise wird angenommen, dass sich Werbespots, die eine Länge von 10 Sekunden haben, häufiger ereignen als Werbespots, die eine Länge von 60 Sekunden haben. Die Intervalle dieser sich häufiger ereignenden Längen werden als stärkere Hinweise bereitstellend angesehen als diejenigen, die zu sich weniger häufig ereignenden Längen gehören.
  • Die Abweichung von der nominalen Segmentlänge ist auch Teil des Segmentdauerhinweises. Genauer gesagt stimmen Werbespots oder interessierende Segmente selten mit den nominalen Längen solcher Segmente (zum Beispiel 30 s, 15 s, usw.) überein. Stattdessen sind sie normalerweise etwas kürzer oder länger als die entsprechende nominale Länge. Typischerweise ist ein Segment eher kürzer als länger als die entsprechende nominale Länge. Das heißt, da jeder Werbespot oder jedes interessierende Segment so erzeugt wird, dass es in einen vorbestimmten Zeitblock passt, ist es deutlich weniger beschwerlich, das interessierende Segment etwas kleiner zu haben als die nominale Länge, woraufhin Rahmen (wie Schwarzwerden) hinzugefügt werden können, statt das interessierende Segment zu editieren, so dass es innerhalb der vorbestimmten Blocklänge passt. Segmente, die länger als die entsprechende nominale Länge sind, sind normalerweise das Ergebnis von Fehlern, die entweder bei der Sendestation oder der Empfangsstation auftreten. Zum Beispiel wird angenommen, dass die wahrscheinlichste Längenabweichung für ein neues interessierendes Segment zwischen ungefähr 0,0 bis –0,2 Sekunden ist mit einer Spitze, die sich bei ungefähr 0,13 Sekunden befindet. Je weiter typischerweise die Länge eines Segments von der nominalen Spitzenlänge abweicht, desto weniger wahrscheinlich ist es ein interessierendes Segment. Wie man gut verstehen wird, nimmt die Wahrscheinlichkeit, dass ein Segment ein interessierendes Segment ist, schnell ab, wenn die Segmentlänge über die nominale Länge wächst.
  • Da, wie vorher erwähnt, Werbespots oder interessierende Segmente typischerweise in Gruppen oder Serien gesendet werden, zeigt dies an, dass weitere neue Segmente dazu benachbart sein können, wenn ein neues Segment erfasst wird. Deshalb ist ein erfasstes neues Segment ein Hinweis zum Erfassen weiterer neuer Segmente. Die Stärke des neuen Segments als ein Hinweis hängt jedoch von der Wahrscheinlichkeit ab, dass das neue Segment ein neues interessierendes Segment ist, was wiederum von den Hinweisen abhängt, auf welchen das neue Segment beruht.
  • Es wird angenommen, dass die Wahrscheinlichkeit, ein neues Segment zu erfassen, das eine vorbestimmte Länge hat mit bestimmten Hinweisen, die einem nicht interessierenden Segment (oder mit anderen Worten einem Spreusegment) entsprechen, relativ unabhängig von der gewählten Länge ist. Wie vorher erwähnt, erhöht die Interpretation von Spreusegmenten als neue interessierende Segmente die Verarbeitungszeit des Systems 10 (1) und erhöht somit die Gesamtbetriebskosten des Systems. Somit ist es wünschenswert, Segmente als mögliche neue interessierende Segmente auszuwählen, die Zeitintervalle oder Segmentlängen haben, die wahrscheinlich neuen interessierenden Segmenten entsprechen.
  • Es wird deshalb als produktiver angesehen, die Zeit des Benutzers zu verwenden, um nach Segmenten zu suchen, die eine Länge von 30 Sekunden haben und die, wie vorher erwähnt wurde, für verbreitet gehalten werden, als die Zeit des Benutzers zu verwenden, nach Segmenten zu suchen, die eine Länge von 45 Sekunden haben und die als sich nicht häufig ereignend angesehen werden. Indem diese Zuweisung der Zeit des Benutzers bedeutet, dass ein neues Segment mit 45 Sekunden weniger wahrscheinlich zu erfassen ist als ein neues Segment mit 30 Sekunden, ist das Ergebnis eine relativ hohe Systemgesamtgenauigkeit mit einer Minimierung der Betriebskosten.
  • 11 veranschaulicht den Signalfluss beim Ausführen des Erfassungsvorgangs. Ein erwünschtes Sendesignal in einem vorgegebenen Kanal wird von einem Entsprechenden der Wandler 24 empfangen und in Video- und Audiobasisbandsignale umgewandelt, die der Kanalbaugruppe 402 zugeführt werden. Die Kanalbaugruppe 402 führt Hinweise, die zu dem neuen interessierenden Segment gehören, der Segmenterkennungssteuerung 404 zu, die auch eine Übereinstimmungsinformation von dem Korrelator 420 empfängt. Die Hinweise zusammen mit den Übereinstimmungsberichten werden von der Segmenterkennungssteuerung 404 dem Expertensystem 414 zugeführt. Das Expertensystem 414 prüft die empfangene Information, um zu entscheiden, ob mögliche neue Segmente, welche durch die Hinweise angezeigt werden, neue interessierende Segmente sind. Wenn gefunden wird, dass irgendeines der angezeigten Segmente ein neues interessierendes Segment ist, führt das Expertensystem 414 der Segmenterkennungssteuerung 404 ein Signal zu, welche die entsprechende Segmentsignatur anfordert, die dann gesammelt und dem Expertensystem zugeführt wird. Auf den Empfang durch das Expertensystem hin wird solch eine neue Segmentsignatur durch die Datenbanksteuerung 416 der Datenbank 412 zugeführt. Weitere zugehörige Signale, die von dem Expertensystem der Datenbank 412 zugeführt werden, schließen die Zeit des Ereignisses, den Kanal, die Segmentidentifizierungsnummer, die Schlüsselsignatur und die Audio- und Videoschwellwerte ein. Weiter kann in bestimmten Situationen, wie vorher beschrieben, das Expertensystem 414 der Datenbanksteuerung 416 vor der Bestimmung eines endgültigen Schwellwerts ein anfängliches A/V-Erfassungs- oder Schwellwertsignal zuführen. Wenn in diesen Situationen später entschieden wird, dass der anfängliche Schwellwert unrichtig war, wird das Expertensystem 414 der Datenbank 416 ein Schwellwertänderungs- oder Rückgängigmachungssignal zuführen, um den Eintrag in der Datenbank 412 zu berichtigen.
  • Die Betriebsweise des Erfassungsmoduls für neue Segmente wird nun erörtert.
  • In Übereinstimmung mit einem Betriebsknoten tastet das Erfassungsmodul für neue Segmente die Hinweise in einem empfangenen Signal ab, um ein Segment zu erfassen, das eine Standardlänge für ein interessierendes Segment hat. Das erste Segment, das erfasst wird, das solch ein Intervall hat und vorbestimmte Kriterien erfüllt, die weiter unten beschrieben sind, wird als ein neues interessierendes Segment akzeptiert. Da das erste Intervall, welches solche Erfordernisse erfüllt, akzeptiert wird, werden folgende neue Segmente, die dem widersprechen (d.h. ein weiteres Segment, das sich während der gleichen Zeitdauer ereignet) nicht berücksichtigt. Deshalb ist das Segment, das erfasst und akzeptiert wird, von der Reihenfolge abhängig, in der die Hinweise wie im Folgenden beschrieben abgetastet werden.
  • Die Hinweise sind in einer Hinweisdoppelschleife gespeichert, in der jedes Mal ein Knoten eingerichtet wird, wenn es einen AN-AUS-Übergang von irgendeinem der Hinweise gibt. Diese Knoten werden nach der Zeit sortiert.
  • Übereinstimmungen werden von dem Ereignisfilter der Doppelschleife zugeführt, wenn sie zur Verwendung als Hinweise als akzeptabel entschieden sind. Diese Hinweise werden dann entweder durch Spezifizierung eines Startorts in der Doppelschleife oder durch Spezifizierung einer erwünschten Zeit abgetastet. Wenn eine Zeit vorgesehen ist, wird der letzte Punkt in der Doppelschleife, der sich nach einer vorbestimmten feststehenden Zeitverzögerung (z.B. ungefähr 80 Sekunden) ereignet, als die anfängliche Abtastzeit verwendet, um die Verzögerung beim Berichten von Übereinstimmungen im Vergleich zu Hinweisberichten zu kompensieren.
  • Die Hinweise können in mehr als einem Durchlauf abgetastet werden, und in einer bevorzugten Ausführungsform werden zwei Durchläufe verwendet. Der erste Durchlauf tastet alle Hinweise außer Audioverstummen ab, und der zweite Durchlauf tastet die Hinweise für auf Audioverstummen beruhende Segmente ab. Dieses Abtastverfahren wird nun vollständig beschrieben werden.
  • Die Hinweise werden zeitlich rückwärts unter Verwendung von zwei ineinander geschachtelten Schleifen abgetastet. In einer äußeren Schleife wird die Doppelschleife auf geeignete Hinweise für das Hinterende (oder Ende) eines Segments rückwärts abgetastet und in einer inneren Schleife wird die Doppelschleife rückwärts von der gegenwärtigen Hinterendposition auf der Suche nach geeigneten Hinweisen für den Kopf eines neuen Segments abgetastet. Auf diese Weise werden alle möglichen neuen Segmente, die einen plausiblen Hinweis enthalten, an jedem Ende erfasst. Jedes dieser Zeitintervalle wird ausgewertet, um zu bestimmen, ob es bei der entsprechenden vorgegebenen Länge und den zugehörigen Hinweistypen ein akzeptables neues interessierendes Segment darstellt. Das heißt, das Erfassungsmodul für neue Segmente bestimmt für ein entsprechendes Segment, ob die Hinweistypen akzeptabel sind, und bestimmt dann, ob die Länge des Segments in Kombination mit diesen Hinweisen ein akzeptables neues interessierendes Segment anzeigt.
  • Wenn ein Intervall als ein neues interessierendes Segment angezeigt wird, wird ihm eine Segmentidentifizierungsnummer zugewiesen, und es wird in der Hinweisdoppelschleife als Ereignis gespeichert. Danach wird ein selektives Erfassungsniveaumodul verwendet, um, wie im Folgenden beschrieben, einen geeigneten Audio/Video-Erfassungsniveauwert zu bestimmen. Außerdem wird die Segmentsignatur von dem Segmenterkennungsuntersystem 26 erhalten und wird die entsprechende Signatur dann der Datenbank 412 des Steuerungscomputers 30 zugeführt.
  • 12 veranschaulicht die oben beschriebenen Schritte, die von dem Erfassungsmodul für neue Segmente durchgeführt werden. Wie hier gezeigt, beginnt die Verarbeitung im Schritt S100, in dem ein erwünschter Teil der empfangenen Sendung geprüft wird, um alle Intervalle zwischen den Hinweisen zu prüfen. Danach wird, wie im Schritt S110 gezeigt, jedes der Intervalle, die im Schritt 100 lokalisiert wurden, untersucht, um zu bestimmen, ob die entsprechenden Start- und Endhinweise plausibel sind. Danach wird, wie im Schritt S120 gezeigt, die Akzeptabilität jedes Intervalls, das plausible Hinweise an seinen entsprechenden Enden hat, auf Grundlage der entsprechenden nominalen Länge des Intervalls, der Abweichung von dieser nominalen Länge und der Kombination der Start- und der Endhinweise entschieden. Wenn entschieden wird, dass das Intervall akzeptabel ist, dann wird, wie im Schritt S130 angezeigt, das Audio/Video-Erfassungsniveau durch das selektive Erfassungsniveaumodul bestimmt. Danach wird das neu akzeptierte interessierende Segment der Datenbank 412 des Steuerungscomputers 30 zugeführt, wie im Schritt S140 gezeigt. Wenn andererseits im Schritt S120 das entsprechende Intervall oder Segment zurückgewiesen wird, dann wird eine weitere Verarbeitung für dieses Segment nicht durchgeführt.
  • Nach dem Lokalisieren eines neuen Segments wird die äußere Schleife zurückgesetzt, um am Start des neu erfassten Segments zu beginnen. Die äußere Schleife endet, nachdem sie auf einen Hinweis stößt, der bereits als möglicher Hinterendhinweis überprüft wurde. Dies kann durch Untersuchen von Hinweisgeprüft-Flags bestimmt werden. Das heißt, jeder Knoten in der Doppelschleife, der bereits als möglicher Hinterendknoten geprüft wurde, hat ein Hinweis-geprüft-Flag gesetzt. Da es in der bevorzugten Ausführungsform zwei Abtastdurchläufe gibt, gibt es zwei Hinweis-geprüft-Flags. Andererseits endet die innere Schleife, wenn sie einen Hinweis lokalisiert, der von dem gegenwärtigen Hinterendhinweis zeitlich um einen Betrag beabstandet ist, der länger als derjenige irgendeines Standardsegments (z.B. 120 Sekunden) ist.
  • Zwei Durchläufe werden verwendet, so dass den auf Audioverstummen beruhenden Segmenten eine niedrigere Priorität als anderen Segmenten gegeben werden kann. Genauer gesagt ist in einer bevorzugten Ausführungsform der zweite Durchlauf bei einem Abtastpunkt 30 Sekunden nach dem ersten Durchlauf. Dies ermöglicht es dem ersten Durchlauf, alle Segmente bis zu einer Länge von 30 Sekunden, die nicht auf Audioverstummenshinweisen beruhen, vor dem Prüfen von auf Audioverstummen beruhenden Segmenten in dem zweiten Durchlauf zu lokalisieren. Im Ergebnis werden die auf Audioverstummen beruhenden Segmente mit geringerer Wahrscheinlichkeit (oder die weniger wahrscheinlich akzeptabel sind) nicht vor dem Erfassen von interessierenden Segmenten erfasst werden, die eine höhere Ereigniswahrscheinlichkeit haben, wie zum Beispiel diejenigen, die auf Übereinstimmungen und Schwarzwerden beruhen und die Längen bis zu 30 Sekunden haben. Wie vorher erwähnt, kann das erste erfasste Segment verwendet werden, ohne irgendwelche mögliche sich widersprechende Segmente zu berücksichtigen (obwohl es vorzuziehen ist, solche Widersprüche zu lösen, wie weiter unten beschrieben). In einer solchen Situation ist es wünschenswert, die zwei Durchläufe zu verwenden, wie zuvor beschrieben. Da allen auf Audioverstummen beruhenden Segmenten außerdem von dem selektiven Erfassungsniveaumodul ein Erfassungsniveau 2, wie im Folgenden beschrieben, gegeben wird, so dass die entsprechenden Audio- und Videodaten nicht gesammelt werden, wenn vorher nicht auf solche Segmente gestoßen wurde, kann die Verzögerung beim Abtasten sogar auf einen längeren Wert eingestellt werden. Dies würde das Blockieren von auf höherer Wahrscheinlichkeit beruhenden Segmenten durch auf Audioverstummen beruhende Segmente weiter minimieren.
  • Bestimmen, ob ein Hinweis für den Start oder das Ende eines Segments geeignet ist, bezieht eine vorsichtige Berücksichtigung ein. Zum Beispiel im Fall eines Ereignishinweises kann es notwendig sein, sicherzustellen, dass ein Startereignishinweis, der als ein Hinterendhinweis nützlich sein kann, nicht gleichzeitig das Ende eines anderen Ereignisses ist. Dies kann bestimmt werden durch Überprüfen, dass das Start- und Endereignisflag nicht gleichzeitig gesetzt sind. Als ein weiteres Beispiel kann es notwendig sein zu entscheiden, ob ein Schwarzwerden zu einem Ereignis gehört, woraufhin dieses Ereignis verwendet werden kann, um die Ereignisstärke zu erhöhen. Das heißt, wenn der Start eines Schwarzwerdens als ein möglicher Segmenthinterendhinweis berücksichtigt wird, dann sollte das Ende des Schwarzwerdens untersucht werden, um zu entscheiden, ob es der Start eines zugehörigen Ereignisses ist. Wenn dies so ist, kann die Stärke des Hinweises erhöht werden.
  • Die Kennzeichen, die in dem Erfassungsmodul für neue Segmente, das oben beschrieben wurde, verwendet werden, um die Akzeptabilität eines Segments als neues interessierendes Segment zu bestimmen, werden nun genauer beschrieben.
  • Die maximal erlaubte Abweichung von der nominalen Länge wird bestimmt. Jedoch werden bei einer solchen Bestimmung die sich häufiger ereignenden nominalen Längen begünstigt, indem für sie relativ große Abweichungstoleranzen bereitgestellt werden, um die Wahrscheinlichkeiten der Erfassung eines neuen interessierenden Segments zu erhöhen. Separate Toleranzen werden vorzugsweise für Abweichungen verwendet, die kleiner oder größer als die nominale Länge sind, für welche die Toleranz für die Abweichung, die kürzer als eine nominale Länge ist, typischerweise größer ist als diejenige für die Abweichung, die größer als die nominale Länge ist.
  • Die Hinweise für jedes Intervall werden verwendet, um für das berücksichtigte Segment die maximal erlaubte Abweichung von der nominalen Länge anzupassen. Dies wird durch Analysieren der Hinweise an den Enden der entsprechenden Segmente durchgeführt, um zu bestimmen, welcher der Hinweise an jedem Ende am stärksten ist. Ereignishinweise werden als am stärksten angesehen, wiederum gefolgt von Schwarzwerden und Audioverstummen. Das heißt, die Toleranz wird gemäß der Stärke der Hinweise an beiden Enden des Segments angepasst.
  • Unkritische Verwendung von Audioverstummen als Hinweise kann eine relativ große Anzahl von Spreusegmenten erzeugen. Jedoch können auf Audioverstummen beruhende Segmente mit einem Audioverstummen an einem Ende als Hinweis akzeptabel sein, vorausgesetzt dass ein relativ starker Hinweis an dem anderen Ende vorhanden ist. Da Audioverstummen, die eine relativ kurze Länge haben, sich häufig ereignen, und Audioverstummen, die eine relativ lange Länge haben, normalerweise keine genaue Bestimmung der Segmentenden erlauben, werden nur Audioverstummen verwendet, die eine Länge haben, die in einem vorbestimmten Bereich liegt. Nichtsdestoweniger wird allen solchen auf Audioverstummen beruhenden Segmenten von dem selektiven Erfassungsmodul ein Erfassungsniveau 2 gegeben. Um die Anzahl der erfassten Spreusegmente weiter zu begrenzen, wird es nur Segmenten, die eine sich häufiger ereignende nominale Länge haben, ermöglicht, auf Audioverstummen als Hinweise zu beruhen. Während Segmente mit einer Übereinstimmung an einem Ende und einem Audioverstummen an dem anderen normalerweise akzeptabel sein werden, ist ein Segment, das ein neu erfasstes Segment an einem Ende und eine Übereinstimmung an dem anderen haben, nicht akzeptabel, weil das neu erfasste Segment auf einem Audioverstummenshinweis beruhen kann. In dieser Situation können mehrere Segmente als neue Segmente erfasst werden, die auf Audioverstummenshinweisen an beiden Enden beruhen. Deshalb können Segmente, die auf Ereignishinweisen an einem Ende ohne einen zugehörigen zusätzlichen starken Hinweis, zum Beispiel einem Schwarzwerdenshinweis und einem Audioverstummenshinweis, an dem anderen Ende beruhen, nicht verwendet werden.
  • Das Audioverstummen kann beim Teilen der Segmente verwendet werden. Da Werbespots, die eine Länge von 30 Sekunden haben, am häufigsten vorkommen, können in einem Fernsehwerbespoterkennungssystem Segmente, die Längen haben, die gleich Vielfachem davon sind, wie zum Beispiel 60, 90 oder 120 Sekunden, in mehrere Segmente geteilt werden, von denen jedes eine Länge von 30 Sekunden hat. Diese Segmente können unter Verwendung des Audioverstummens als Teilungshinweis zusätzlich zu einem Szenenwechsel geteilt werden. Das heißt, das Segment wird bei jedem 30-Sekunden-Intervall untersucht, um zu bestimmen, ob ein Audioverstummen und ein Szenenwechsel vorhanden sind, woraufhin das Segment geteilt wird. Das Teilen von Segmenten auf diese Weise unterscheidet sich von demjenigen, das auf langen Segmenten durchgeführt wird, wo neue Segmente, die eine Länge über einem vorbestimmten Wert haben, zum Beispiel 60 Sekunden, an einem willkürlichen Ort in zwei geteilt werden, selbst wenn die oben erwähnten Audioverstummens- und Szenenwechselteilungshinweise nicht vorhanden sind.
  • Wenn eine relativ hohe Anzahl von Schwarzwerden auftritt, oder wenn ein Schwarzwerden für eine relativ lange Zeitdauer erfasst wird, zeigt dies normalerweise an, dass ein Signal erfasst wird, das eine relativ schlechte Qualität hat.
  • Übermäßiges Schwarzwerden kann das Ergebnis eines schlechten Signals oder von Rauschen am Eingang sein. Der Versuch, aus einem solchen Signal mit schlechter Qualität neue Segmente zu erfassen, führt normalerweise zum Erfassen von Spreusegmenten. Um eine solche Situation zu berichtigen, werden Hinweise von einem Teil eines Signals nicht akzeptiert, für das bestimmt wurde, dass es solch eine relativ hohe Ereignishäufigkeit von Schwarzwerden hat. Hinweise, die so nicht akzeptiert werden, können nicht als Start- oder Endhinweis eines neuen Segments verwendet werden.
  • Die oben beschriebene Hinweiszurückweisung wird unter Verwendung mehrerer Faktoren zum Beispiel dem Betrag der Male des Schwarzwerdens, der Anzahl der An/Aus-Übergänge von Schwarzwerden, wie im Folgenden beschrieben, und dem Betrag der Male des Nichtschwarzwerdens, welches sich während der vorher beschriebenen inneren Schleife ereignet, durchgeführt. Variablen, die jedem dieser Faktoren entsprechen, werden nach dem Erfassen eines geeigneten Hinterendhinweises (vor dem Starten des Abtastens der inneren Schleife) initialisiert. Danach wird, während die innere Schleife nach einem Kopfhinweis abtastet, das Signal überwacht, um die obigen Faktoren zu erfassen. Wenn ein mögliches neues Segment erfasst wird, wird das entsprechende Segment auf das Vorhandensein der obigen Faktoren untersucht. Wenn die Anzahl der Ereignisse dieser Faktoren in einem Segment einen vorbestimmten Maximalwert (zum Beispiel einem vorbestimmten Maximalbetrag der Male des Schwarzwerdens und/oder eine maximale vorbestimmte Anzahl der An/Aus-Übergänge des Schwarzwerdens) überschreitet, dann wird das Segment nicht als neues Segment akzeptiert.
  • Gemäß einem zweiten Betriebsmodus führt das Erfassungsmodul für neue Segmente das Verfahren aus, das in 13 veranschaulicht ist, um neue interessierende Segmente zu erfassen. In einem ersten Schritt S400 tastet das Erfassungsmodul für neue Segmente die Hinweise ab und greift alle Intervalle heraus, die vernünftige Wahrscheinlichkeiten für neue Segmente haben, und stellt solche Intervalle in eine Liste möglicher Segmente für die spätere Nachuntersuchung. Daraufhin wird die Verarbeitung in einem Schritt S410 für ein vorbestimmtes Intervall verzögert, das ausgewählt ist, um die Möglichkeit zu maximieren, dass Segmente, die mit den bereits aufgeführten möglichen Segmenten überlappen können, erfasst werden, bevor bestimmt wird, welches der sich widersprechenden Segmente akzeptiert und welches verworfen werden soll. Das Verzögerungsintervall kann zum Beispiel mindestens 35 Sekunden lang sein, so dass keine Segmente mit 30 Sekunden (die sich am häufigsten ereignen) aufgrund der ungenügenden Information über potenziell überlappende Segmente verloren gehen.
  • Nach der Entscheidungsverzögerung wird die Verarbeitung in einem Schritt S420 fortgesetzt, in dem jedes mögliche Segment mit allen weiteren Segmenten in der Liste verglichen wird, um zu bestimmen, ob Widersprüche vorhanden sind. Wenn dies so ist, wird eine heuristische Methode angewendet, um zu entscheiden, welchem Segment aufgrund einer Linearkombination relevanter Faktoren eine höhere Priorität zugeordnet werden soll. Solche Faktoren schließen eine nominale Länge, zugehörige Hinweise und Abweichungen von der nominalen Länge ein. Sobald den sich widersprechenden Segmenten somit Prioritäten zugewiesen wurden, werden die Segmente mit der höheren Priorität der Datenbank (mit einer möglichen Audio/Video-Sammlung zur Durchsicht bei einer Workstation der Zentralstelle) berichtet, und das Segment mit niedrigerer Priorität wird als verworfenes Segment markiert. Nach einer weiteren Verzögerung, die durch einen Schritt S430 dargestellt wird, werden die verworfenen Segmente jedoch wieder untersucht, um zu bestimmen, ob immer noch ein Widerspruch zu einem akzeptierten Segment vorhanden ist. Wenn nicht, wird das vorher verworfene aber sich nicht widersprechende Segment der Datenbank als ein Segment mit Schwellwert 2 (wie weiter unten erklärt) berichtet.
  • Die Weise, auf welche die Widerspruchsprüfung bei dem Prioritätszuordnungsverfahren des Schritts 420 zu dem späteren Akzeptieren eines vorher verworfenen Segments führen kann, wird durch das folgende Beispiel veranschaulicht. In einem möglichen Szenario wird angenommen, dass ein Segment A überlappt und sich später ereignet als ein Segment B, während das Segment B überlappt und angenommen wird, dass es sich später ereignet als ein Segment C. Es wird außerdem angenommen, dass die Segmente A und C nicht überlappen. Wenn das Segment B erstmals mit dem Segment A verglichen wird, so dass dem Segment B Priorität vor A gegeben wird, dann wird das Segment A zurückgewiesen. Jedoch wird das Segment B mit dem Segment C verglichen, und wenn das Segment C vorgezogen wird, dann wird das Segment B auch zurückgewiesen. Sobald das Segment B zurückgewiesen wurde, kollidiert das Segment A nicht länger und kann deshalb selbst nach einer vorherigen Zurückweisung akzeptiert werden.
  • Gemäß einem dritten Betriebsmodus des Erfassungsmoduls für neue Segmente werden in einem Schritt S500, wie in 14 veranschaulicht, die Hinweise abgetastet, um mögliche Segmente zu lokalisieren, die als neue interessierende Segmente gemäß der oben beschriebenen Kriterien akzeptiert worden wären. In einem folgenden Schritt S510 wird die Verarbeitung zum Beispiel für fünf Minuten verzögert, um sicherzustellen, dass alle darauf bezogenen möglichen Segmente erfasst werden. Danach werden in einem angehängten Schritt S510 überlappende und sich widersprechende Segmente in entsprechende Gruppen aufeinander bezogener Segmente für die weitere Verarbeitung eingeteilt, zum Beispiel indem ein Knoten, der für jedes solches Segment eingerichtet ist, in einer geeigneten Doppelschleife mit einer willkürlichen Zahl markiert wird, welche die entsprechende Gruppe identifiziert.
  • Danach wird in den Schritten S530 und S540 eine heuristische Zwei-Schritt-Methode sequenziell ausgeführt. In Schritt S530 bestimmt das Erfassungsmodul für neue Segmente die akzeptablen Teilungen unter den unterschiedlichen berücksichtigten Segmenten. Eine Teilung ist eine mögliche Unterteilung oder Gruppierung der identifizierten Segmente auf Grundlage akzeptierter nominaler Längen für interessierende Segmente. Mit Bezugnahme auf 15 ist zum Beispiel ein Teilungsbaum für ein Segment von 120 Sekunden mit einem Schwarzwerden an allen Grenzen von 30 Sekunden veranschaulicht. In 15 sind die Möglichkeiten, das Segment von 120 Sekunden zu teilen, in einer Baumstruktur angeordnet, wo jeder Weg von der Wurzel 600 zu einem Blattknoten (zum Beispiel Blattknoten 602 und 604) eine entsprechende Weise darstellt, das 120-Sekunden-Segment zu teilen. Die Zahlen 30, 60, 90 und 120 stellen die Dauer in Sekunden oder Segmentlänge eines möglichen Segments dar, das aus dem 120-Sekunden-Hauptsegment gebildet ist. Es ist zu sehen, dass ein Segment in dem Diagramm mehr als einmal erscheinen kann.
  • Sobald die möglichen Wege, das vorgegebene Segment zu teilen, gemäß dem Teilungsbaum identifiziert wurden, wird der Teilungsbaum durchlaufen und jeder Weg (das heißt mögliche Kombinationen von Segmenten) wird gemäß einem Satz von vorbestimmten Regeln zum Bestimmen akzeptabler Teilungen ausgewertet.
  • Die vorbestimmten Regeln, die beim Auswerten der Akzeptabilität der möglichen Teilungen verwendet werden, beruhen auf der nominalen Länge des Hauptsegments und der möglichen Untersegmente, sowie auf Audio/Video-Schwellwerten (A/V), die deshalb, wie weiter unten erklärt wird, in Verbindung mit der selektiven Erfassungsniveaubestimmung bestimmt wurden. Im Wesentlichen sind die Regeln entworfen, um A/V-Schwellwertteilungen zu vermeiden, das heißt, eine Teilung eines interessierenden Segments in Untersegmente, die unterschiedliche A/V-Schwellwerte haben. Diese Regeln sind auch entworfen, um Teilungen in häufig angetroffene Längen wie Segmente von 30 Sekunden zu begünstigen. Zum Beispiel wird ein Segment mit einem A/V-Schwellwert 2 in mehrere Untersegmente geteilt, wenn alle Untersegmente einen A/V-Schwellwert 1 haben. Zusätzlich wird ein Segment von 45 Sekunden in Segmente geteilt, die mit größerer Häufigkeit angetroffen werden, als ein Segment von 15 Sekunden und ein Segment von 30 Sekunden. Die unterschiedlichen Regeln selbst sind in einer Tabelle gespeichert, die zukünftige Modifikationen erlaubt.
  • Wenn die Anwendung der vorhergehenden Regeln zu mehreren akzeptablen Teilungen führt, wird den immer noch sich wiedersprechenden Teilungen eine Priorität gemäß den folgenden zusätzlichen Regeln zugewiesen. Zuerst werden Teilungen, die zu der größten Dauer der Segmente mit einem A/V-Schwellwert 1 führen, gegenüber anderen begünstigt. Wenn mehr als eine Teilung übrig bleibt, dann werden die Teilungen auf einer Punktskala auf Grundlage der nominalen Längen jedes Segments in der Teilung bewertet, so dass üblicherweise vorkommende Segmentlängen begünstigt werden. Das heißt, für jede nominale Länge wird ein Punktewert pro Sekunde zugewiesen und dann mit der Länge des Segments multipliziert, um ein Gesamtpunktergebnis für jede nominale Länge zu erhalten. Wenn zum Beispiel 30-Sekunden-Segmenten 3 Punkte pro Sekunde zugeordnet werden, während 15-Sekunden-Segmenten und 45-Sekunden-Segmenten jeweils 2 Punkte bzw. 1 Punkt pro Sekunde zugeordnet werden, würde das Segment von 45 Sekunden auf eine Gesamtpunktzahl von 45 kommen, während die 30/15-Teilung zu einer Gesamtpunktzahl von 120 führen würde, was somit diese Teilung begünstigt. Die Skala ist dementsprechend aufgebaut, um diese Teilungen zu begünstigen, die zu Segmenten mit sich häufiger ereignenden Längen führen. Wenn nach der Anwendung der vorhergehenden Regeln mehr als eine Teilung verbleibt, dann wird eine willkürlich gewählt.
  • Sobald die Teilungsanalyse im Schritt S530 ausgeführt wurde, wird im Schritt S540 die Konfliktanalyse ausgeführt, gemäß der dem wahrscheinlichsten Segment unter mehreren Segmenten, die zeitlich überlappen (die sich gegenseitig ausschließen), Priorität gegeben wird. Segmente, die Teil einer Teilung sind, werden nun individuell betrachtet. Jedes Paar sich widersprechender Segmente wird nun gemäß einer heuristischen Methode bewertet, die unten beschrieben ist, und das Beste wird ausgewählt. Durch paarweisen Vergleich wird ein einzelnes, am meisten bevorzugtes Segment ausgewählt. Wenn es, nachdem diese Wahl getroffen wurde, weniger bevorzugte Segmente gibt, die der Wahl nicht widersprechen, werden diese auch akzeptiert.
  • Die heuristische Methode ist ein Bewertungssystem, welches eine Linearfunktion der Eigenschaften für jedes Segment, nämlich nominale Länge, Hinweise und Abweichung von der nominalen Länge, erzeugt. Ein Ergebnis für jeden Wert einer vorgegebenen Eigenschaft wird auf Grundlage der folgenden Prinzipien zugewiesen. Ereignishinweise werden als viel stärker angesehen als Hinweise für neue Segmente, die wiederum als stärker angesehen werden als ein einziges Schwarzwerden. Mit Bezug auf eine Abweichung von einer nominalen Länge sind Segmente wahrscheinlich eher kürzer als länger als die nominale Länge, und je mehr ihre Länge von der nominalen Länge abweicht, desto weniger wahrscheinlich ist, dass ein interessierendes Segment erfasst wurde. Die wahrscheinlichste Abweichung liegt zwischen 0–0,2 Sekunden. Im Fall einer nominalen Länge sind, wie oben angemerkt, 30-Sekunden-Segmente diejenigen, die am häufigsten angetroffen werden, gefolgt von 15-, 10- und 60-Sekunden-Segmenten, in dieser Reihenfolge, während 20-, 45-, 90- und 120-Sekunden-Segmente als ziemlich selten angesehen werden. Insgesamt werden die Hinweise schwerer gewichtet als die zwei weiteren Eigenschaften. Wenn jedoch ausschließlich die Häufigkeit der Eigenschaft der nominalen Länge berücksichtigt wird, tritt ein Spezialfall auf. Wenn nämlich sowohl die berücksichtigten Segmente einen A/V-Schwellwert von 1 haben und ein Segment in dem anderen enthalten ist, wird im Allgemeinen das längere Segment vorgezogen und ein geeigneter Punktwert würde dann abhängig von den nominalen Längen der zwei Segmente zugewiesen werden.
  • Selektives Erfassungsniveau
  • Das selektive Erfassungsniveaumodul dient dazu, die Verarbeitung von Spreusegmenten in den lokalen Stellen 16 zu verringern, um zu vermeiden, dass diese der Zentralstelle 12 berichtet werden, was Zeit des Workstationbenutzers verschwenden würde. Ein Spreusegment ist ein Segment, das von dem Expertensystem als ein neues interessierendes Segment gefunden wurde, während es dies tatsächlich nicht ist. Ein Spreusegment kann beispielsweise eine Nachrichtenzusammenfassung oder ein Teil eines neuen Programms sein, das durch Hinweise abgegrenzt ist und die gleiche Länge wie ein interessierendes Segment hat.
  • Verarbeitung von Spreusegmenten erhöht die Verarbeitungszeit des Systems 10 (1) und seine Betriebskosten. Das heißt, ein Segment, das als ein neues interessierendes Segment gefunden wird, aber tatsächlich ein Spreusegment ist, wird von der lokalen Stelle 16 über die Zentralstelle 12 zu einer der Workstationen 14 zur Verarbeitung durch einen weiteren Benutzer übertragen, so dass eine hohe Spreuwahrscheinlichkeit wesentlich die Zeit erhöht, die Benutzer beim Versuch, neue Segmente zu klassifizieren, aufwenden müssen. Somit erhöht das Behandeln von Spreusegmenten als neue interessierende Segmente unvorteilhaft die Kommunikation zwischen den lokalen Stellen 16 und der Zentralstelle 12, erhöht die Arbeitsbelastung des Benutzers an den Workstations 14 und erhöht die Verarbeitung, die bei der lokalen Stelle 16 durchgeführt werden muss.
  • Das selektive Erfassungsniveaumodul unterteilt Segmente, die als potenzielle neue interessierende Segmente gefunden sind, in zwei Gruppen, nämlich Segmente, die wahrscheinlicher interessierende Segmente sind (keine Spreu) und Segmente, die weniger wahrscheinlich interessierende Segmente sind. Den Segmenten, die wahrscheinlicher interessierende Segmente sind, wird dann ein Audio/Video-Erfassungsniveau (A/V) 1 zugewiesen, während den Segmenten, die weniger wahrscheinlich interessierende Segmente sind, ein Audio/Video-Erfassungsniveau (A/V) 2 zugewiesen wird. Nach dem Erfassen eines möglichen neuen interessierenden Segments, gleichgültig ob ein A/V-Erfassungsniveau 1 oder 2 zugewiesen wurde, wird für dieses eine Schlüsselsignatur erzeugt und, wie im Folgenden erklärt, gespeichert. Die Audio- und Videodaten (A/V) für ein Segment, das ein (A/V)-Erfassungsniveau 1 hat, werden sofort für eine Übertragung zu der Zentralstelle zur Erfassung des neuen interessierenden Segments gesammelt. Andererseits werden die A/V-Daten für ein Segment, das nur ein A/V-Erfassungsniveau 2 hat, nur gesammelt, nachdem ihre vorher gespeicherte Schlüsselsignatur zumindest eine Übereinstimmung hatte. Das heißt, ein Segment, dem ein A/V-Erfassungsniveau 2 zugewiesen ist, wird ausgesendet und zumindest zweimal erfasst werden (einmal um das Segment als ein neues Segment zu erfassen und noch einmal aufgrund einer Übereinstimmung bei seiner Schlüsselsignatur), bevor die dazu gehörenden A/V-Daten gesammelt werden. Wenn ihre Schlüsselsignatur innerhalb einer vorbestimmten Zeitdauer keine Übereinstimmung erzeugt, wird sie vom System entfernt.
  • Nur Segmente, deren A/V-Daten gesammelt wurden, werden von der entsprechenden lokalen Stelle 16 über die Zentralstelle 12 einer der Workstations 14 (1) zugeführt. Die meisten interessierenden Segmente werden mehr als einmal ausgesendet, während Spreusegmente nur einmal gesehen werden. Dementsprechend können durch Zuweisen eines A/V-Erfassungsniveaus von 2 zu den Segmenten, die weniger wahrscheinlich interessierende Segmente sind, so dass ihre A/V-Daten bis zu einer folgenden Übereinstimmung von Schlüsselsignaturen solcher Segmente nicht gesammelt werden, beträchtliche Betriebskostenersparnisse erreicht werden.
  • Gemäß einer Technik zum Zuweisen von Erfassungsniveaus in einem Fernsehwerbespoterkennungssystem wird einem neuen Segment ein Erfassungsniveau 2 zugewiesen, wenn es eine der folgenden Bedingungen erfüllt:
    • 1. Wenn der einzige Hinweis an irgendeinem Ende des neuen Segments ein Audioverstummenshinweis ist. Da, wie vorher erörtert, Audioverstummen sich häufig bei beiden Segmentgrenzen und innerhalb von Segmenten ereignen, sind neue Segmente, die auf einen Audioverstummenshinweis beruhen, wahrscheinlich Spreusegmente.
    • 2. Wenn das neue Segment nicht nahe oder in der Nähe einer Gruppe oder Serie von Werbespots ist. Da die meisten Werbespots in Gruppen oder Serien ausgesendet werden, wird ein neues Segment wahrscheinlich nahe einer solchen Serie sein. Die Nähe zu einer Serie wird vorteilhafterweise geprüft, indem die zeitliche Nähe des neuen Segments zu einem weiteren neuen Segment oder zu einem Segment, das eine akzeptierte Übereinstimmung hat, bestimmt wird. Da die Nähe eines Segments, das eine akzeptierte Übereinstimmung hat, zu dem neuen Segment, das geprüft wird, für eine zuverlässigere Anzeige der Seriennähe als die Nähe eines weiteren neuen Segments zu diesem sorgt, wird ein weiteres neues Segment nur als nah angesehen, wenn es innerhalb eines Nahbereichs liegt, der enger als ein Nahbereich ist, der für Segmente eingerichtet ist, die akzeptierte Übereinstimmungen haben.
    • 3. Wenn die nominale Länge oder Dauer des neuen Segments eine selten vorkommende Werbespotlänge ist, zum Beispiel nominale Längen von 20, 45, 90 oder 120 Sekunden. Da Werbespots selten diese Längen haben, ist ein neues Segment, das solch eine Länge hat, wahrscheinlich ein Spreusegment.
    • 4. Wenn das neue Segment von der nominalen Länge um einen Betrag abweicht, der nahe einer vorbestimmten Grenze der Längenabweichung ist, die bei der Bestimmung der Akzeptabilität des Segments als neues interessierendes Segment angenommen wurde. Wenn zum Beispiel die untere Längenabweichungsgrenze für einen Werbespot von 30 Sekunden 1 Sekunde ist, so dass Segmente, die eine Dauer von weniger als 29 Sekunden haben, nicht als neue interessierende Segmente betrachtet werden, wird einem Segment, welches eine Dauer von ungefähr 29,1 Sekunden hat, ein A/V-Erfassungsniveau 2 gegeben werden. Je mehr ein neues Segment von der nominalen Länge abweicht, desto wahrscheinlicher ist es ein Spreusegment.
  • Andererseits wird einem potenziellen neuen Segment ein Erfassungsniveau 1 zugewiesen, wenn ihm kein Erfassungsniveau 2 zugewiesen wird.
  • Man wird gut verstehen, dass Zustände 1, 3 und 4 bereits zu der Zeit festgestellt werden, zu der ein neues interessierendes Segment gefunden wird. Jedoch erfordert die Feststellung, ob ein neues Segment gemäß der Bedingung 2 nahe bei einer Serie ist, eine Überprüfung von danach empfangenen Signalen auf Übereinstimmungen und auf weitere neue Segmente. Wenn zum Beispiel das neue Segment, das geprüft wird, das erste Segment in einer Serie ist, ist deshalb nicht sofort bekannt, dass das neue Segment nahe der Serie ist. Gemäß einer vorteilhaften Ausführungsform wird neuen Segmenten, welche alle Bedingungen für das Erfassungsniveau 1 außer die Bedingung 2 erfüllen, anfänglich ein A/V-Erfassungsniveau 1 zugeordnet, so dass die entsprechenden A/V-Daten in der Datenbank gespeichert werden, um die spätere Übertragung an die Steuerungsstelle zu erlauben. Diese Bestimmung wird nach einer vorbestimmten Zeit, zum Beispiel mehreren Minuten, nochmals durchgesehen, zu welcher Zeit, wenn das Segment noch immer nicht als nahe bei einer Serie gefunden wurde, das A/V-Erfassungsniveau dieses Segments zum Erfassungsniveau 2 geändert wird. Dieses Vorgehen ermöglicht das Zurückhalten von A/V-Daten eines Segments unter Aufschieben einer vollständigen Prüfung der gesamten Information, die zur Bestimmung nötig ist, wenn die Bedingung 2 gilt. Wenn diese verzögerte Überprüfung dann feststellt, dass dem Segment das A/V-Erfassungsniveau 1 zugewiesen werden sollte, sind dessen A/V-Daten zur Übertragung zu der Zentralstelle immer noch vorhanden. Ansonsten wird es aus der Datenbank gelöscht.
  • Die Verwendung der selektiven Erfassungsniveautechnik, die oben beschrieben wurde, ermöglicht es dem Expertensystem, seine Kriterien zu entschärfen, um zu bestimmen, welche Segmente wahrscheinlich interessierende Segmente sind, während eine akzeptable Verarbeitungsbelastung des Systems 10 (1) aufrechterhalten wird. Dementsprechend kann das Expertensystem neue Segmentkriterien verwenden, welche die Akzeptanz von relativ mehr Segmenten als neue interessierende Segmente zum Beispiel durch Anwendung relativ breiter Längentoleranzen erlauben. Ein neues interessierendes Segment, welches nur die entschärften Kriterien erfüllen würde, kann erfasst werden, während es ansonsten verfehlt würde. Im Ergebnis kann die gesamte Systemübereinstimmungsgenauigkeit erhöht werden.
  • 16 veranschaulicht den Signalfluss zum Erfassen von Audio- und Videodaten. Wie hier gezeigt, werden dem Datenerfassungsuntersystem 28 von den Kanalbaugruppen 402 des Segmenterkennungsuntersystems entlang der Leitungen 431 bzw. 439 Video- und Audiobasisbandsignale zugeführt. Das Datenerfassungsuntersystem 28 schließt eine Videoerfassungsbaugruppe 432, einen Ringpuffer 430 für komprimierte Videos, eine Datenerfassungssteuerung 434, einen Ringpuffer 436 für komprimierte Audios und eine Audioerfassungsbaugruppe 438 ein. Das über die Leitung 431 empfangene Videobasisbandsignal wird der Videoerfassungsbaugruppe 432 zugeführt, die kontinuierlich neu empfangene Videosignale in komprimierter Form dem Ringpuffer 430 für komprimierte Videos bereitstellt, der eine gegenwärtige Aufzeichnung der zuletzt empfangenen komprimierten Videosignale, zum Beispiel derjenigen, die während der letzten 3–7 Minuten empfangen wurden, aufrecht erhält. Ähnlich werden der Audioerfassungsbaugruppe 438 über die Leitung 439 Audiobasisbandsignale zugeführt, die kontinuierlich neu empfangene Audiosignale in komprimierter Form für den Ringpuffer 436 für komprimierte Audiosignale bereitstellt, der ebenfalls eine gegenwärtige Aufzeichnung davon behält.
  • Das Datenerfassungsuntersystem 28 kommuniziert mit dem Steuerungscomputer 30, der wiederum das Expertensystem 414, die Datenbasissteuerung 416, die Datenbank 412, eine A/V-Sammelsteuerung 414 und eine Platte 442 verwendet. Beispielsweise wenn ein neuer Werbespot erfasst wurde, der einen Schwell- oder Erfassungswert 1 hat, führt das Expertensystem 414 ein Signal, das dies anzeigt, der Datenbanksteuerung 416 zu. Auf den Empfang eines solchen Signals hin führt die Datenbanksteuerung 416 ein Befehlssignal, welches auffordert, dass die entsprechenden Audio- und Videodaten 440 übertragen werden, der A/V-Sammelsteuerung zu, die wiederum ein entsprechendes Aufforderungssignal der Datenerfassungssteuerung 434 zuführt. Nach Empfang eines solchen Signals führt die Datenerfassungssteuerung 434 entsprechende Steuerungssignale dem Videoringpuffer 430 und dem Audioringpuffer 436 zu, woraufhin die angeforderten Video- und Audiosignale der Datenerfassungssteuerung 434 zugeführt werden. Die angeforderten Audio- und Videosignale werden danach von der Datenerfassungssteuerung 434 der A/V-Sammelsteuerung 440 zugeführt, die die Selben wiederum der Platte 442 zur Speicherung zuführt. Außerdem liefert die A/V-Sammelsteuerung 440 die Identifizierungsnummer des Segments zusammen mit einem Signal, welches anzeigt, ob die Audio- und Videodaten für das entsprechende Segment gesammelt wurden, der Datenbank 412 zu. In bestimmten Situationen, wie vorher beschrieben, kann das Expertensystem 414 der Datenbanksteuerung 416 ein Rückgängigmachungssignal zuführen. Solch ein Signal wird danach der A/V-Steuerung 440 zugeführt, woraufhin die entsprechende A/V-Datendatei gelöscht wird. In diesen Situationen führt die A/V-Steuerung 440 der Datenbanksteuerung 416 ein Bestätigungssignal zu, welches die Löschung derartiger Dateien bestätigt.
  • SCHLÜSSELSIGNATURERZEUGUNG
  • Auf die Erfassung eines neuen interessierenden Segments hin, wie oben angemerkt, erzeugt das System 10 für das Segment eine Schlüsselsignatur, welche später verwendet wird, um eine Wiederaussendung des gleichen Segments durch Vergleichen oder Prüfen auf Übereinstimmung des Schlüsselworts und der acht Übereinstimmungswörter der Schlüsselsignatur mit entsprechenden Rahmensignaturen einer Segmentsignatur zu erkennen, die für das neu ausgesendete Segment erzeugt wird. Mit Bezugnahme auf 17 implementiert der Steuerungscomputer 30 ein Schlüsselsignaturgeneratormodul 410, das für das interessierende Segment sequenzielle Rahmensignaturen empfängt, auf das als Segmentsignatur Bezug genommen wird, um daraus eine Schlüsselsignatur zu erzeugen. Diese Schlüsselsignatur wird danach dem Segmenterkennungsuntersystem 26 zur Verwendung bei darauf folgenden Übereinstimmungsoperationen zugeführt.
  • Man wird gut verstehen, dass eine relativ große Anzahl von interessierenden Segmenten (z.B. Werbespots) bei jeder der lokalen Stellen 16 (2) empfangen wird, und es ist wünschenswert, dass jede derartige Schlüsselsignatur eine relativ kleine Größe hat, um die Menge an benötigtem Speicher zu minimieren. Es ist außerdem wünschenswert, dass die Schlüsselsignaturen bereits bei einem Wiederaussenden des entsprechenden Segments übereinstimmen, während falsche Übereinstimmungen vermieden werden. Dementsprechend erzeugt das Schlüsselsignaturgeneratormodul 410 Schlüsselsignaturen, die vorteilhafterweise von der Größe her klein sind und die ausgewählt und strukturiert werden, um die Wahrscheinlichkeit einer Übereinstimmung bei einem Wiederaussenden des entsprechenden Segments zu maximieren, während das Potenzial für falsche Übereinstimmung verringert wird.
  • Eine Segmentsignatur zur Schlüsselsignaturerzeugung wird zur Verarbeitung durch das Modul 410 in Form von kombinierten Audio- und Videorahmensignaturen empfangen. Das Modul 410 trennt dann die empfangene Segmentsignatur in Audio- und Videosegmentsignaturen, welche es getrennt verarbeitet. Zum Beispiel kann das Schlüsselsignaturerzeugungsmodul zwei getrennte Verarbeitungszyklen durchführen, d.h. einen für die Videosegmentsignatur und einen für die Audiosegmentsignatur. Im Ergebnis wird typischerweise zumindest eine Audioschlüsselsignatur (oder -untersignatur) und eine Videoschlüsselsignatur (oder -untersignatur) für jede Segmentsignatur erzeugt, von denen jede das gleiche Datenformat hat.
  • Jede Schlüsselsignatur schließt vorzugsweise 16 Elemente ein, die nun im Detail beschrieben werden.
    • 1. Segmentidentifizierungsnummer (Segment-ID) – diese Identifizierungsnummer identifiziert das Segment, das durch die Schlüsselsignatur identifiziert ist, einmalig und kann zum Beispiel in einem Fernsehwerbespoterkennungssystem verwendet werden, um Werbespots mit ihren entsprechenden Schlüsselsignaturen einfacher in Verbindung zu bringen. Wie weiter unten beschrieben, erzeugt das Modul 410 unter bestimmten Umständen für ein vorgegebenes Segment bis zu vier Videoschlüsselsignaturen und vier Audioschlüsselsignaturen. Dementsprechend ist die Segment-ID in einer Zahl enthalten, die durch 5 teilbar ist, zusammen mit einer Zahl von 1 bis 4, welche die Anzahl der Video- oder Audioschlüsselsignaturen anzeigt, die für das Segment erzeugt werden.
    • 2. Schlüsselwort – ein 16-Bit-Schlüsselwort wird für jedes Segment aus dessen Rahmensignaturen ausgewählt, welche ihre Segmentsignatur enthalten. Wie oben beschrieben, werden die Schlüsselwörter durch das Segmenterkennungsuntersystem 26 als ein Index für die Schlüsselsignaturdatenbank verwendet, um die Zeit zu minimieren, die zur Erfassung einer Übereinstimmung erforderlich ist.
    • 3. Schlüsselwortoffset – dieser stellt den Abstand vom Anfang des entsprechenden Segments zu dem Schlüsselwort dar. Dieser Offset kann zum Beispiel als die Anzahl der Rahmen vom Anfang des Segments oder die Dauer der Zeit vom Anfang eines solchen Segments ausgedrückt werden.
    • 4. Übereinstimmungswörter – es gibt mehrere 16-Bit-Übereinstimmungswörter (z.B. 8) in jeder Schlüsselsignatur. Die Übereinstimmungswörter in einer vorgegebenen Schlüsselsignatur werden von dem Segmenterkennungsuntersystem 26 während der Übereinstimmungsoperation verwendet, nachdem das zugehörige Schlüsselwort mit einem einkommenden Rahmen übereinstimmte. Das heißt, wie vorher beschrieben, jede empfangene Rahmensignatur wird mit allen gespeicherten Schlüsselwörtern verglichen. Bei der Erfassung einer Übereinstimmung zwischen einer ankommenden Rahmensignatur und einem Schlüsselwort (zum Beispiel auf Grundlage einer Koinzidenz von zumindest 15 entsprechenden Bitwerten der Rahmensignatur und des Schlüsselworts) werden alle Übereinstimmungswörter, die zu diesem Schlüsselwort gehören, dann mit den geeigneten ankommenden Rahmen verglichen, wie durch die Übereinstimmungswortoffsets bestimmt, die unten beschrieben werden. Wenn die Gesamtzahl der unmaskierten Bits, die im Wert nicht übereinstimmen, kombiniert mit einer Hälfte der Bitzahl der verglichenen Rahmensignaturen, die maskiert sind, einen vorbestimmten Fehlerzählwert oder Schwellwert (wie unten beschrieben) nicht überschreitet, dann ist eine Übereinstimmung gefunden. Kriterien zum Auswählen des Schlüsselworts und der Übereinstimmungswörter für die Schlüsselsignaturen werden im Folgenden beschrieben.
    • 5. Übereinstimmungswortoffset – es gibt einen Übereinstimmungswortoffset für jedes der Übereinstimmungswörter. Jeder Übereinstimmungswortoffset zeigt die Position des entsprechenden Übereinstimmungsworts relativ zu seinem Schlüsselwort an. Wie die oben beschriebenen Schlüsselwortoffsets können die Übereinstimmungswortoffsets durch die Zeitunterschiede oder die Anzahl der Rahmen ausgedrückt werden. Diese Übereinstimmungswortoffsets werden verwendet, um anzuzeigen, welche der ankommenden Rahmensignaturen des Sendesegments zum Vergleich mit dem Übereinstimmungswort in der Schlüsselsignatur verwendet werden müssen, wenn eine Schlüsselwortübereinstimmung erfasst wurde.
    • 6. Signaturtyp – der Signaturtyp identifiziert, ob die Signatur eine Audiountersignatur oder eine Videountersignatur ist. Da die Audio- und Videoschlüsseluntersignaturen das gleiche Format haben, wird dieses Element verwendet, um sie zu unterscheiden.
    • 7. Fehlerzählwert – der Fehlerzählwert oder Fehlerschwellwert wird für jede erzeugte Schlüsselsignatur durch das Schlüsselsignaturerzeugungsmodul erzeugt und zeigt die maximale Anzahl der Fehler an, die während des Übereinstimmungsvorgangs erlaubt sein können, bevor die berücksichtigte Übereinstimmung als unakzeptabel verworfen wird. Der Fehlerzählwert kann auf speziellen Kennzeichen der erzeugten Schlüsselsignatur beruhen, zum Beispiel der erwarteten Abhängigkeit des entsprechenden Segments und der Wahrscheinlichkeit der falschen Übereinstimmung der Schlüsselsignatur. Eine vorteilhafte Technik, um den Fehlerzählwert zu bestimmen, verwendet die wahrscheinliche Anzahl der Bitübereinstimmungen für die Übereinstimmungswörter, wie unten beschrieben, wobei diese Anzahl abgerundet und die sich ergebende Zahl von der Gesamtzahl der möglichen Übereinstimmungen abgezogen wird. Der sich ergebende Fehlerzählwert wird in dem Fall kürzerer Segmente, die wahrscheinlicher eine falsche Übereinstimmung haben, niedriger gemacht. Man wird gut verstehen, dass unter bestimmten Bedingungen (z.B. aufgrund von Rauschen) die Schlüsselsignatur nicht vollständig mit einer Wiederaussendung des entsprechenden Segments übereinstimmen kann. Der Fehlerzählwert kompensiert solche vorweggenommenen Diskrepanzen, um eine Erfassung des wieder ausgesendeten Segments zu ermöglichen.
    • 8. Rahmenzählwert – der Rahmenzählwert zeigt die Anzahl der Rahmen an, die in der Schlüsselsignatur enthalten sind, welche in der bevorzugten Ausführungsform einen Wert 8 hat.
    • 9. Länge – dies bezieht sich auf die Anzahl der Rahmen in dem entsprechenden Segment.
    • 10. Übereinstimmungsregeln – Übereinstimmungsregeln werden von dem Schlüsselsignaturgeneratormodul für jedes Segment erzeugt, das durch eine oder mehrere Schlüsselsignaturen in der Datenbank dargestellt wird, und sind Richtlinien, die von dem Expertenuntersystem 414 beim Entscheiden verwendet werden, ob eine Übereinstimmung der Schlüsselsignaturen für solch ein Segment akzeptiert oder nicht akzeptiert werden soll. Wenn es eine relativ hohe Wahrscheinlichkeit gibt, dass sowohl die Audio- als auch die Videountersignaturen falsch übereinstimmen, verlangen die Übereinstimmungsregeln, dass sowohl die Audio- als auch die Videoschlüsseluntersignaturen übereinstimmen, damit eine Übereinstimmung akzeptiert wird. Wenn andererseits entschieden wird, dass weder die Audio- noch die Videoschlüsseluntersignaturen wahrscheinlich eine falsche Übereinstimmung haben und tatsächlich Schwierigkeiten bei der Übereinstimmung haben können, akzeptieren die Übereinstimmungsregeln eine Übereinstimmung, wenn entweder die Audio- oder die Videoschlüsseluntersignaturen übereinstimmen. Die Übereinstimmungsregeln beruhen auf der Wahrscheinlichkeit, dass die Untersignaturen mit einer Neuaussendung des entsprechenden Segments richtig übereinstimmen werden, sowie den Wahrscheinlichkeiten, dass die Untersignaturen falsch übereinstimmen werden. Die Art, nach welcher die Wahrscheinlichkeit einer richtigen Übereinstimmung überprüft wird, wird nachfolgend erörtert. Die Wahrscheinlichkeit der falschen Übereinstimmung oder der Quotient der falschen Übereinstimmung wird als Mittelwert eines ersten Werts, der umgekehrt proportional dem Betrag der Information der Signatur ist (d.h., je größer die Anzahl der Bits, die gleich sind, desto höher wird der erste Wert werden) und eines zweiten Werts bestimmt, welcher ein normalisierter Verklumpungswert für die Signatur ist. Der normalisierte Verklumpungswert wird durch Multiplizieren der Anzahl der Schlüsselsignaturen in der Datenbank, welche das gleiche Schlüsselwort wie die berücksichtigte Signatur haben, mit einer mutmaßlichen Wahrscheinlichkeit erhalten, dass eine Rahmensignatur (oder irgendeine einzige Bitpermutation davon), welche dem Schlüsselwort entspricht, erzeugt werden wird. Der normalisierte Verklumpungswert stellt die Tendenz der Schlüsselsignaturen dar, unter einem vorgegebenen Schlüsselwort konzentriert (oder verklumpt) zu sein.
    • 11. Anzahl der eingestellten Maskenbits – diese Anzahl stellt die Gesamtsumme aller Maskenbits dar, die für das Schlüsselwort und alle zugehörigen Übereinstimmungswörter gesetzt sind.
    • 12. Anteil der falschen Übereinstimmung – dieser stellt die Wahrscheinlichkeit der entsprechenden Schlüsselsignatur dar, die für eine falsche Übereinstimmung sorgt, wenn sie mit einer Segmentsignatur verglichen wird, und wird auf die oben erörterte Weise in Verbindung mit den Übereinstimmungsregeln entschieden.
    • 13. Schärfe – es gibt oft mehrere aufeinander folgende Rahmen in einem Segment, die im Wesentlichen identisch sind, zum Beispiel Videosignalrahmen, die einer einzelnen Szene entsprechen. Solche Gruppen von im Wesentlichen identischen aufeinander folgenden Rahmen werden Folgen genannt. Die Schärfe stellt die Änderungsgeschwindigkeit der Bits der Rahmensignaturen an den Enden der Reihen dar, aus denen die Schlüsselsignatur abgeleitet wurde, und wird verwendet, um die Ränder der Reihen abzugrenzen.
    • 14. Übereinstimmungswahrscheinlichkeit der weiteren entsprechenden Schlüsseluntersignatur – wie vorher erwähnt, kann die Schlüsselsignatur in zwei Untersignaturen unterteilt werden, d.h. eine für Audio und eine für Video. Die Übereinstimmungswahrscheinlichkeit, auf die hier Bezug genommen wird, ist die Wahrscheinlichkeit, dass die andere entsprechende Untersignatur für das entsprechende Segment übereinstimmen wird. Zum Beispiel wird eine Situation betrachtet, in der das Segmenterkennungsuntersystem 26 für ein bestimmtes Segment eine Audeoübereinstimmung, aber keine Videoübereinstimmung erfasst. Diese Übereinstimmungsinformation wird danach dem Expertensystem zugeführt, woraufhin, wenn die Audioschlüsseluntersignatur darin angezeigt hat, dass es eine relativ hohe Übereinstimmungswahrscheinlichkeit für die andere Untersignatur (d.h. die Videountersignatur) gibt, das Expertensystem dies wahrscheinlich nicht als eine Übereinstimmung akzeptieren wird, da die Videoschlüsseluntersignatur auch übereingestimmt haben sollte. Die Übereinstimmungswahrscheinlichkeit wird im Laufe der Schlüsselwort- und der Übereinstimmungswortauswahl bestimmt, wie unten beschrieben.
    • 15. Anzahl der Untersignaturen – diese Anzahl stellt die Anzahl der Untersignaturen dar, welche das Schlüsselsignaturerzeugungsmodul für ein entsprechendes Segment erzeugt hat. In bestimmten Situationen, wie vorher erwähnt, kann das Schlüsselsignaturerzeugungsmodul mehrere Signaturen (oder Untersignaturen) für ein bestimmtes Segment erzeugen, wenn dies die Wahrscheinlichkeit erhöhen wird, mehr akzeptable Übereinstimmungen zu erhalten. Wenn zum Beispiel die erste erzeugte Schlüsseluntersignatur eine niedrige Wahrscheinlichkeit der falschen Übereinstimmung sowie eine niedrige Wahrscheinlichkeit einer richtigen Übereinstimmung hat, kann das Modul 410 außerdem Untersignaturen für das Segment erzeugen, um die Wahrscheinlichkeit einer richtigen Übereinstimmung zu erhöhen. Wenn dies so ist, schließt das Modul 410 bei der Erzeugung jeder weiteren Untersignatur Rahmensignaturen aus Reihen aus, die vorher verwendet wurden, um Schlüsseluntersignaturen zu erzeugen. Wenn jedoch die Wahrscheinlichkeit der falschen Übereinstimmung der ersten Schlüsselsignatur vergleichsweise hoch ist, werden weitere Untersignaturen nicht erzeugt, da dies die Wahrscheinlichkeit einer falschen Übereinstimmung erhöhen würde. Wenn zusätzlich das Modul 410 bestimmt, dass für eine Videountersignatur die Wahrscheinlichkeit der falschen Übereinstimmung sehr hoch ist, kann es wählen, keine Videountersignaturen zu erzeugen. In einer bevorzugten Ausführungsform kann das Schlüsselsignaturerzeugungsmodul bis zu vier Audio- und Videoschlüsseluntersignaturen erzeugen.
    • 16. Erwartete Spitzenbreiten – typischerweise werden sowohl die Schlüsselwörter als auch die Übereinstimmungswörter aus der Mitte der Rahmensignaturreihen ausgewählt. Dementsprechend kann das Segmenterkennungsuntersystem 26 für aufeinander folgende Rahmen bei einer vorgegebenen Schlüsselsignatur mehrere Übereinstimmungen erfassen. Die Anzahl solcher aufeinander folgend erfassten Übereinstimmungen wird als die Spitzenbreite bezeichnet. Das Schlüsselsignaturerzeugungsmodul überprüft die Reihenstruktur in der Segmentsignatur und erzeugt daraus einen vorweggenommenen Spitzenbreitenwert.
  • Wie vorher beschrieben, hat jeder Rahmen eines ankommenden Segments eine dazu gehörende Rahmensignatur. Das Schlüsselsignaturerzeugungsmodul überprüft jede dieser Rahmensignaturen, um ein akzeptables Schlüsselwort und für eine entsprechende Schlüsselsignatur acht Übereinstimmungswörter auszuwählen. Beim Auswählen verwendet das Schlüsselsignaturgeneratormodul 410 zusätzlich die folgenden Kriterien:
    • 1. Verteilung der ausgewählten Rahmensignaturen – die Übereinstimmungswörter sollten unter Rahmensignaturen ausgewählt werden, die über die Segmentsignatur gleichmäßig verteilt sind. Eine solche Auswahl verringert die Wahrscheinlichkeit falscher Übereinstimmung. Wenn zum Beispiel zwei oder mehr Werbespots ähnliche Szenen haben, neigt die Auswahl von Übereinstimmungswörtern von gleichmäßig verteilten Rahmensignatur dazu, zu veranlassen, dass zumindest einzelne der Übereinstimmungswörter aus den Rahmensignaturen ausgewählt werden müssen, die außerhalb der ähnlichen Szenen liegen. Die Verteilung der Übereinstimmungswörter wird als normalisierte Trennung in Zeit- oder Rahmenintervallen quantisiert. Jedoch sollten Signaturen von Rahmen nahe den Enden des Segments vermieden werden, um sicherzustellen, dass die Reihen, aus denen sie ausgewählt werden, innerhalb des entsprechenden Segments enthalten sind, sowie um die Verwendung von Signalen zu vermeiden, die für Variationen des Signalniveaus empfänglicher sind (zum Beispiel aufgrund inhärenter Verzögerungen der automatischen Verstärkungssteuerung). Außerdem werden Schlüsselwörter vorzugsweise aus Rahmen nahe dem Anfang des Segments ausgewählt, um die verfügbare Zeit für das Expertensystem zu maximieren, um eine Übereinstimmung mit der entsprechenden Schlüsselsignatur zu bestimmen. Sowohl die Schlüsselwörter als auch die Übereinstimmungswörter sollten aus Signaturen bei oder nahe den Zentren der Reihen ausgewählt werden. Diese Überlegung wird durch das Übereinstimmungswahrscheinlichkeitskriterium auf die unten beschriebene Weise umgesetzt.
    • 2. Die Wahrscheinlichkeit, dass ein bestimmter Rahmensignaturwert erzeugt wird – die Rahmensignaturen, die von dem Segmenterkennungsuntersystem 26 erzeugt werden, können nicht gleichmäßig über alle mögliche Werte der Rahmensignatur verteilt sein, können aber stattdessen mit anderen, ähnlichen Rahmensignaturen verklumpt sein. Dies entspricht der mutmaßlichen Verteilung der Rahmensignaturen, die oben in Verbindung mit den Übereinstimmungsregeln diskutiert wurde, und wird durch Sammeln einer statistisch großen Anzahl von Rahmensignaturen und durch Bestimmen ihre Gesamtverteilung bestimmt, um eine normalisierte Wahrscheinlichkeit der Erzeugung für jede potenzielle Rahmensignatur zu bestimmen. Verklumpen der Rahmensignaturen kann verursachen, dass eine falsche Übereinstimmung vorkommt, und die Korrelatorverarbeitungsbelastung beträchtlich erhöhen. Im Ergebnis begünstigt das Schlüsselsignaturerzeugungsmodul beim Auswählen einer Rahmensignatur Rahmensignaturen, die im Vergleich zu verklumpten Rahmensignaturen nicht so verklumpt sind, wodurch die Anzahl der Schlüsselsignaturen minimiert wird, die Übereinstimmungswörter mit ähnlichen Werten haben.
    • 3. Die Verteilung vorher eingerichteter Schlüsselwörter – das Schlüsselsignaturengeneratormodul 410 berücksichtigt die Verteilung der Schlüsselwörter, die vorher in einer Datenbank des Segmenterkennungsuntersystems 26 erzeugt und gespeichert wurden. Als ein Beispiel für ein bestimmtes Schlüsselwort berücksichtigt das Schlüsselsignaturerzeugungsmodul die Anzahl der erzeugten Schlüsselsignaturen, die zu diesem Schlüsselwort gehören. Wenn ein solches Schlüsselwort bereits zu einer großen Anzahl von Schlüsselsignaturen gehört, wird ein solches Schlüsselwort im Vergleich zu einem Schlüsselwort, welches zu einer geringeren Anzahl von Schlüsselsignaturen gehört, viel weniger wahrscheinlich ausgewählt. Somit wird dieser Faktor wie der Faktor 2 oben verwendet, um das Verklumpen zu minimieren, um die Anzahl der sich ereignenden falschen Übereinstimmungen zu verringern und um die Verarbeitungsbelastung des Korrelators zu verringern. Anders als der obige Faktor 2 hängt dieser Faktor jedoch von den Sendesignalen ab. Wenn z.B. mehrere Werbespots, die einen ähnlichen Dateninhalt haben, empfangen werden, dann können mehrere Schlüsselsignaturen erzeugt werden, die identische Schlüsselwörter haben. Dies beruht anders als der obige Faktor 2 nicht auf dem Segmenterkennungsuntersystem 26, sondern ist eine Funktion der Sendedaten und wird als eine normalisierte Ereignishäufigkeit bestimmt. Die Faktoren 2 und 3 werden multipliziert, um zu einem einzelnen Faktor zu führen, der die Unerwünschtheit eines vorgegebenen Schlüsselworts aufgrund von Verklumpen anzeigt.
    • 4. Folgenlänge – es wurde beobachtet, dass relativ kurze Folgen, zum Beispiel diejenigen, die Längen haben, die kürzer als ungefähr 5 Rahmen sind, weniger wahrscheinlich übereinstimmen im Vergleich zu längeren Folgen. Außerdem wurde auch beobachtet, dass die Wahrscheinlichkeit, eine akzeptable Übereinstimmung zu haben, nicht signifikant zunimmt für relativ lange Reihen, zum Beispiel für diejenigen, die eine Länge von mehr als 10 Rahmen haben. Jedoch können solche relativ langen Reihen Schlüsselsignaturen erzeugen, die eine relativ niedrige Entropie haben. Somit ist es wünschenswert, Folgenlängen zu verwenden, die weder relativ kurz noch relativ lang sind. In der bevorzugten Umgebung verwendet das Schlüsselsignaturerzeugungsmodul Folgen, die eine Länge von ungefähr 5 bis 10 Rahmen haben. Dementsprechend wird jeder Folgenlänge auf Grundlage der vorgenannten Kriterien ein normalisierter Gütefaktor zugewiesen.
    • 5. Übereinstimmungswahrscheinlichkeit – sobald Folgen akzeptabler Länge definiert wurden, prüft das Schlüsselsignaturgeneratormodul 410 gemäß dem Schlüsselwortübereinstimmungsvorgang die Wahrscheinlichkeit der Rahmensignaturen, von denen jede während einer Neuaussendung eines entsprechenden Segments übereinstimmt. Genauer gesagt wird das Schlüsselwort als die Rahmensignatur ausgewählt bei einem Offset n des Segments, welches am wahrscheinlichsten mit der Neuaussendung des Segments innerhalb eines vorbestimmten Schutzbands von ±g Rahmensignaturen übereinstimmt. Wenn die Wahrscheinlichkeit einer Übereinstimmung einer Rahmensignatur bei einem Offset m gemäß dem Schlüsselwortübereinstimmungsvorgang (d.h. eine Übereinstimmung von allen 16 Bit oder zumindest 15 der 16 Bit) als pk(m, n) ausgedrückt wird, dann kann die Wahrscheinlichkeit pk(m, n) wie folgt bestimmt werden: pk(m, n) = 15·PM + Σ[PM/P(i)], i = 0 bis 15,wobei PM die Wahrscheinlichkeit einer Übereinstimmung aller Bits ist, die wie folgt bestimmt ist: PM = Produkt [P(i)], i = 0 bis 15,und P(i) die Wahrscheinlichkeit einer Übereinstimmung von Bit (i) des möglichen Schlüsselworts und der Rahmensignatur ist, wobei i = 0 bis 15 ist. Man wird gut verstehen, dass P(i) auf Grundlage der entsprechenden Maskenbits des potenziellen Schlüsselworts und der Rahmensignatur bestimmt wird, die verglichen werden.
  • Man wird außerdem gut verstehen, dass die Wahrscheinlichkeit, dass ein potenzielles Schlüsselwort beim Offset n mit einer oder mehreren Rahmensignaturen entlang einem vorgegebenen Intervall von einem Offset a zu einem Offset b übereinstimmen wird, als pk(a:b, n) ausgedrückt, aus der Beziehung abgleitet werden kann: pk(a:a + 1, n) = pk(a, n) + pk(a + 1, n) – [pk(a, n)·pk(a + 1,n)].
  • Durch Induktion lässt sich zeigen: pk(a:b, n) = pk(a:b – 1, n) + pk(b, n) – [pk(a:b – 1, n)·pk(b, n)],was einfach eine Bestimmung der Wahrscheinlichkeit erlaubt, dass ein vorgegebenes potenzielles Schlüsselwort bei einem Offset n mit zumindest einer Rahmensignatur über das Intervall ±g übereinstimmen wird, die als pk(n – g: n + g, n) ausgedrückt wird. Eine vorteilhafte Technik, um das Schutzband ±g zu bestimmen, berechnet pk(n – g: n + g, n) für Werte von g, die von 0 anwachsen, bis entweder pk(n – g, n) oder pk(n + g, n) unter einem vorbestimmten Schwellwert ist, was sicherstellt, dass potenziellen Schlüsselwörtern nah den Zentren der Reihen vorteilhafterweise höhere Wahrscheinlichkeiten zugeordnet werden als denjenigen nahe den Enden der Reihen. Durch Bestimmen solcher entsprechender Wahrscheinlichkeiten für alle potenziellen Schlüsselwörter unter den akzeptablen Folgen der Segmentsignatur, wird jedem potenziellen Schlüsselwort ein Gütefaktor auf Grundlage einer Übereinstimmungswahrscheinlichkeit zugewiesen, die auf die vorgenannte Weise bestimmt wurde.
  • Relative Gütefaktoren werden auch potenziellen Übereinstimmungswörtern zugewiesen, die aus Rahmensignaturen akzeptabler Folgen ausgewählt werden. Der Gütefaktor wird gemäß der Weise bestimmt, auf welche die Übereinstimmungswörter in dem Übereinstimmungsvorgang verwendet werden, es wird nämlich die Anzahl der Bits von jedem potenziellen Übereinstimmungswort beim Offset n, von denen erwartet wird, dass sie mit den Rahmensignaturen bei entsprechenden Offsets m innerhalb der entsprechenden Folge übereinstimmen, bestimmt und dann über die Folge gemittelt, um eine Durchschnittszahl von Bits, von der erwartet wird, dass sie über die Folge übereinstimmt, als den Gütefaktor abzuleiten. Die Anzahl der Bits, von der erwartet wird, dass sie bei einem Offset n zwischen einem potenziellen Übereinstimmungswort und einer Rahmensignatur bei einem Offset m übereinstimmt, die als bm(m, n) ausgedrückt wird, wird wie folgt bestimmt: bm(m, n) = Σ[P(i)], i = 0 bis 15,wobei P(i) die Wahrscheinlichkeit einer Übereinstimmung von Bit (i) ist, die auf die gleiche Weise wie im Fall der Bestimmung der Schlüsselwortübereinstimmungswahrscheinlichkeit erhalten wird. Dann wird der Durchschnitt der Anzahl an Bits, von denen erwartet wird, dass sie übereinstimmen, bm(m, n), über eine Reihenlänge von einem Offset a zu einem Offset b wie folgt bestimmt: bm(a:b, n) = Σ[bm(m, n)]/(b – a + 1), m = a bis b.
  • Die Ränder a und b der Folge werden auf die gleiche Weise bestimmt wie die Bestimmung der Schlüsselwortübereinstimmungswahrscheinlichkeit.
    • 6. Entropie – das Schlüsselsignaturerzeugungsmodul bevorzugt Übereinstimmungswörter der Segmentsignatur, die eine relativ hohe Entropie haben, d.h. Übereinstimmungswörter, die jeweils einen entsprechenden Datengehalt haben, der gegenüber demjenigen der anderen ausgewählten Übereinstimmungswörter unähnlich ist. Die Auswahl von Übereinstimmungswörtern mit hoher Entropie minimiert die Korrelation zwischen Übereinstimmungswörtern und verringert folglich die Wahrscheinlichkeit von falscher Übereinstimmung. Eine normalisierte Unähnlichkeit des Datengehalts unter Übereinstimmungswörtern kann durch Zählen der Anzahl der Bits bestimmt werden, die zwischen den Übereinstimmungswörtern unterschiedlich sind.
    • 7. Reihenschärfe – das Schlüsselsignaturerzeugungsmodul wählt vorzugsweise einen Schlüssel und die acht Übereinstimmungswörter innerhalb von Rahmenreihen aus, die durch Rahmensignaturen begrenzt sind, die Signaturwerte haben, die sich wesentlich von denjenigen benachbarter Rahmen innerhalb der Reihe unterscheiden. Die Differenz der Bitwerte zwischen der Randrahmensignatur und benachbarten Signaturen innerhalb der Reihe wird verwendet, um für die Reihenschärfe einen normalisierten Gütefaktor abzuleiten.
  • Man wird gut verstehen, dass es nicht immer möglich sein kann, jeden der sieben obigen Faktoren zu optimieren, wenn ein Schlüsselwort und/oder Übereinstimmungswörter ausgewählt werden. Für jedes Schlüsselwort und/oder Übereinstimmungswort, das berücksichtigt wird, weist das Schlüsselsignaturerzeugungsmodul dementsprechend jedem der oben beschriebenen sieben Faktoren einen normalisierten Gütefaktor wie oben beschrieben zu. Zur Schlüsselwortauswahl werden entsprechende Schlüsselwortgewichtungsfaktoren aus einer Parameterdatei erhalten und mit entsprechenden normalisierten Gütefaktoren multipliziert. Die Produkte werden dann summiert, um für jedes mögliche Schlüsselwort zu einem Gesamtgütefaktor zu führen. Zur Übereinstimungswortauswahl wird der gleiche Vorgang des Gewichtens und Kombinierens der normalisierten Gütefaktoren verwendet, wobei entsprechende unterschiedliche Gewichtungsfaktoren aus der Parameterdatei verwendet werden.
  • Die Parameterdateien werden empirisch abgeleitet. Gemäß einer Technik, dies zu tun, werden alle Gewichtungsfaktoren anfänglich auf den gleichen Wert gesetzt, und die Schlüsselsignaturen werden dann erzeugt, um die relative Wichtigkeit jedes Kriteriums bei der Schlüsselsignaturerzeugung auszuwerten. Dieser Vorgang wird wiederholt, bis durch Ansammeln und Auswerten der Ergebnisse die vorteilhaftesten Gewichtungsfaktoren sichergestellt sind. Unterschiedliche Parameterdateien werden für Video- und Audiosignaturen bei der Erkennung ihrer unterschiedlichen Kennzeichen beibehalten. Die Parameterdateien schließen auch maximal erlaubbare Werte für Fehlerschwellwerte als eine Funktion der Segmentlänge ein, da beobachtet wurde, dass relativ kurze Segmente, zum Beispiel diejenigen, die kürzer als ungefähr 10 Sekunden sind, wahrscheinlicher falsch übereinstimmen als relativ lange Segmente, zum Beispiel diejenigen von 30 Sekunden oder mehr.
  • Die grundlegenden Schritte, die von dem Schlüsselsignaturerzeugungsmodul verwendet werden, sind in 18 veranschaulicht. Wie hier gezeigt, werden Rahmensignaturen aus definierten Reihen, die zur Verwendung als Schlüsselwörter und Übereinstimmungswörter berücksichtigt werden, wie in den Schritten S200 bzw. S210 gezeigt, erhalten. Danach werden in S220 das akzeptabelste Schlüsselwort und die Übereinstimungswörter durch Vergleichen der Gesamtgütefaktoren für jeden Schlüsselwort- und Übereinstimmungswortkandidat wie oben erklärt zusammen mit den absoluten Kriterien wie einer Beobachtung maximal erlaubbarer Fehlerschwellwerte ausgewählt. Aus dem ausgewählten Schlüsselwort und den Übereinstimmungswörtern wird eine entsprechende Schlüsselsignatur, wie im Schritt S230 angezeigt, erzeugt. Danach wird in Schritt S240 entschieden, ob mehr Schlüsselsignaturen erzeugt werden sollten, um die Wahrscheinlichkeit der Übereinstimmung zu erhöhen. Wenn die Bestimmung in Schritt S240 bestätigt wird, werden zusätzliche Schlüsselsignaturen durch Wiederholen der Schritte S200 bis S230 jedoch unter Verwendung unterschiedlicher Reihen erzeugt. Wenn andererseits zusätzliche Schlüsselsignaturen nicht erforderlich sind, wie durch ein NEIN im Schritt S240 angezeigt, dann werden die Übereinstimmungsregeln für die Schlüsselsignatur, die im Schritt S230 erzeugt wird, formuliert und mit der Schlüsselsignatur kombiniert, wie in Schritt S250 angezeigt.
  • Wieder mit Bezugnahme auf 17 werden darin typische Signaldatenflüsse bei der Erzeugung einer Schlüsselsignatur veranschaulicht. Der Signaldatenfluss ist hauptsächlich zwischen dem Segmenterkennungsuntersystem 26 und dem Steuerungscomputer 30. Genauer gesagt wird ein gewünschtes Sendesignal von einem der Wandler 24 empfangen, der auf den gewünschten Kanal abgestimmt ist. Video- und Audiobasisbandsignale werden dann von dem Tuner 34 der entsprechenden Kanalbaugruppe 402 des Segmenterkennungsuntersystems 26 zugeführt, die eingerichtet ist, Rahmensignaturen und entsprechende Maskenwörter für jeden Rahmen der empfangenen Basisbandsignale zu erzeugen. Diese Rahmensignaturen und Maskenwörter werden der Segmenterkennungssteuerung 404 des Segmenterkennungsuntersystems 26 zugeführt.
  • Bevor bestimmt werden kann, dass ein neues interessierendes Segment empfangen wurde, so dass eine Schlüsselsignatur erzeugt werden muss, versucht die Segmenterkennungssteuerung 404, die Übereinstimmung der empfangenen Rahmensignatur mit vorhandenen Schlüsselsignaturen auf Übereinstimmung zu überprüfen, wie vorher beschrieben. Die Segmenterkennungssteuerung 404 führt Hinweise (einschließlich Übereinstimmungsberichte) dem Expertensystemmodul 414 zu, das in dem Steuerungscomputer 30 enthalten ist, den das Expertensystem verwendet, um neue interessierende Segmente zu erfassen. Danach führt das Expertensystem 414 der Segmenterkennungssteuerung 404 ein Anforderungssignal für die Segmentsignatur des Segments zu, welches nicht übereinstimmte und welches ein neues interessierendes Segment sein kann. Als Reaktion darauf findet die Segmenterkennungssteuerung 404 die entsprechende Segmentsignatur aus einem Segmentsignaturenringpuffer 406 und führt dieselbe dem Expertensystemmodul zu. Wenn das Expertensystem 414 bestimmt, dass das entsprechende Segment ein interessierendes Segment ist, führt das Expertensystem ein Signal, welches alle nötige Information einschließt, die dazugehört (z.B. die Segmentsignatur, eine Identifizierungsnummer, den Kanal und die Tageszeit) durch das Datenbanksteuerungsmodul 416 dem Schlüsselsignaturgenerator 410 zu, der durch den Steuerungscomputer 30 umgesetzt wird. Der Schlüsselsignaturgenerator 410 erzeugt für das empfangene Segment eine neue Schlüsselsignatur auf eine Weise, die vorher beschrieben wurde, und führt die neue Schlüsselsignatur über das Datenbanksteuerungsmodul 416 der Segmenterkennungssteuerung 404 zu, die dieselbe wiederum einer Schlüsselsignaturdatenbank 408 zuführt. Außerdem wird Information hinsichtlich des neuen interessierenden Segments von dem Datenbanksteuerungsmodul 416 der Datenbank 412 zugeführt.
  • Der Ausdruck „Wahrscheinlichkeit", wie er überall in dieser Beschreibung verwendet wird, bezieht sich sowohl auf die relative Wahrscheinlichkeit eines Ereignisses oder von Ereignissen, die sich ereignen, wie auch auf die absolute Wahrscheinlichkeit, dass ein Ereignis oder Ereignisse sich ereignen, und kann entweder als ein normalisierter Wert oder ansonsten als ein nicht quantifizierter Ausdruck der relativen Wahrscheinlichkeit von zwei oder mehreren Ereignissen ausgedrückt werden. Der Ausdruck „Senden", wie er hier verwendet wird, bezieht sich auf unterschiedliche Arten für die weite Verbreitung von Information wie Radio- oder Fernsehsendungen, ob über die Luft, über Kabel, CATV, Satellit oder anders ausgesendet, wie auch auf weitere Arten für die weite Verbreitung von Daten und Information.
  • Man wird gut verstehen, dass, obwohl Videorahmen- oder – feldintervalle in der offenbarten Ausführungsform zur Erzeugung von Signaturen wie auch für andere Zwecke in Verbindung mit einem Fernsehwerbespoterkennungssystem verwendet werden, die Verwendung von Rahmen- oder von Feldintervallen nur aus Bequemlichkeit geschieht, und dies ist so zu verstehen, dass unterschiedliche Intervalle zur Signaturerzeugung und anderen derartigen Zwecken ausgewählt werden können. Zum Beispiel können Signaturen aus einer Kombination von Feldern oder Rahmen oder aus Untermengen von Rahmen- oder Feldinformation in Videosignalen erzeugt werden, und diese Audiointervalle müssen nicht den Videointervallen entsprechen, sondern können willkürlich gewählt sein. Gemäß einem System zur Erkennung von Radiosendesegmenten kann irgendein willkürliches Intervall zur Signaturerzeugung und für weitere Zwecke verwendet werden, vorausgesetzt dass ausreichend Information in dem ausgewählten Intervall enthalten ist.
  • Während eine Ausführungsform der vorliegenden Erfindung zur Erkennung von Fernsehsendewerbespots offenbart wurde, muss verstanden werden, dass die Systeme und Verfahren zur kontinuierlichen Mustererkennung von Sendesegmenten gemäß der vorliegenden Erfindung für weitere Zwecke verwendet werden können, wie um zu bestimmen, welche Programme, Lieder oder andere Werke gesendet werden, zum Beispiel um Tantiemenzahlungen zu bestimmen, oder ansonsten um die Programme, Werbespots oder weiteren Segmente zu bestimmen, die von Hörern empfangen wurden, die an einer Hörermessungsuntersuchung teilnehmen.
  • Man wird gut verstehen, dass die Systeme und Verfahren der vorliegenden Erfindung insgesamt oder teilweise entweder unter Verwendung eines analogen oder digitalen Schaltkreises oder von beiden umgesetzt werden können, und dass die Elemente und die Schritte dazu unter Verwendung einer Vielzahl von System- und Untersystemkonfigurationen und Einrichtungen umgesetzt oder ausgeführt werden können, und dass die unterschiedlichen Schritte und Elemente entweder unter Verwendung von festverdrahteten oder auf Software beruhenden Prozessoren ausgeführt und umgesetzt werden können.
  • Obwohl spezielle Ausführungsformen der Erfindung hier detailliert mit Bezug auf die beiliegenden Zeichnungen beschrieben wurden, ist zu verstehen, dass die Erfindung nicht auf diese genauen Ausführungsformen beschränkt ist und dass durch einen Fachmann unterschiedliche Änderungen und Modifikationen bewirkt werden können, ohne vom Umfang der Erfindung, wie er in den beiliegenden Ansprüchen definiert ist, abzuweichen.
  • Aus der obigen Beschreibung wird gut verstanden werden, dass die vorliegende Anwendung auch ein Verfahren zur Sendesegmenterkennung schafft mit den Schritten: Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, Speichern jeder Signatur, um eine Datenbank von Sendesegmentsignaturen zu bilden: Überwachen eines Sendesegments, Bilden einer Signatur, welche das überwachte Sendesegment darstellt; Vergleichen der Signatur, welche das überwachte Sendesegment darstellt mit zumindest einer der Sendesegmentsignaturen der Datenbank, um zu bestimmen, ob eine Übereinstimmung vorhanden ist; und Auswerten der Gültigkeit einer Übereinstimmung eines überwachten Sendesegments durch Ausführen von zumindest einem: (a) Bestimmen, ob das überwachte Sendesegment zeitlich von dem vorbestimmten Signalereignis begrenzt ist; (b) Bestimmen, ob das überwachte Sendesegment mit einem weiteren überwachten Sendesegment überlappt, für welches eine Übereinstimmung gemäß den vorbestimmten Kriterien akzeptiert wurde; und (c) Bestimmen, ob die Übereinstimmung einem vorbestimmten Profil von falsch übereinstimmenden Segmenten entspricht. Bei solch einem Verfahren umfasst der Schritt des Auswertens der Gültigkeit einer Übereinstimmung das Bestimmen, ob das überwachte Sendesegment zeitlich durch vorbestimmte Signalereignisse begrenzt ist; außerdem umfasst der Schritt des Bestimmens, ob das überwachte Sendesegment zeitlich durch vorbestimmte Signalereignisse begrenzt ist, das Bestimmen, ob die Signatur eines zeitlich benachbarten überwachten Sendesegments mit einer Signatur in der Datenbank übereinstimmt. Zusätzlich umfasst der Schritt des Bildens einer Signatur, welche das überwachte Sendesegment darstellt, das Bilden einer Signatur aus einem Videosignal des überwachten Sendesegments, und umfasst der Schritt des Bestimmens, ob das überwachte Sendesegment zeitlich durch vorbestimmte Signalereignisse begrenzt ist, das Bestimmen, ob das Videosignal des überwachten Sendesegments ein Schwarzwerden bei zumindest dessen einem Ende einschließt. Der Schritt des Auswertens der Gültigkeit einer Übereinstimmung kann das Bestimmen, ob das überwachte Sendesegment mit einem weiteren überwachten Sendesegment überlappt, für welches eine Übereinstimmung gemäß den vorbestimmten Kriterien akzeptiert wurde, und/oder das Bestimmen umfassen, ob die Übereinstimmung mit einem vorbestimmten Profil von falsch übereinstimmenden Segmenten übereinstimmt; der Schritt zum Bestimmen, ob die Übereinstimmung einem vorbestimmten Profil oder falsch übereinstimmenden Segmenten entspricht, kann das Bilden des Profils der falsch übereinstimmenden Segmente zumindest auf Grundlage von einem aus (1) der Länge des überwachten Sendesegments, (2) der Unähnlichkeit von zumindest einer der Sendesegmentsignaturen der Datenbank von anderen Signaturen in der Datenbank und (3) der Ereignishäufigkeit von zumindest Teilen von zumindest einer der Sendesegmentsignaturen wie erzeugt umfassen. Der Schritt des Vergleichens der Signaturen kann das Bestimmen einer Differenz zwischen der Signatur, die das überwachte Sendesegment darstellt, und der zumindest einen der Sendesegmentsignaturen der Datenbank, und das Vergleichen der bestimmten Differenz mit einem vorbestimmten Fehlerschwellwert umfassen, der zumindest einer der Sendesegmentsignaturen entspricht, wobei der Schritt des Bestimmens, ob die Übereinstimmung einem vorbestimmten Profil von falsch übereinstimmenden Segmenten entspricht, das Bilden des Profils von falsch übereinstimmenden Segmenten auf Grundlage von zumindest einem von (1) dem vorbestimmten Fehlerschwellwert und (2) einer Differenz zwischen dem vorbestimmten Fehlerschwellwert und der bestimmten Differenz umfasst. Der Schritt des Bildens des Profils von falsch übereinstimmenden Segmenten kann das Bilden einer Linearkombination von Werten umfassen, die (1) den vorbestimmten Fehlerschwellwert, (2) die Differenz zwischen dem vorbestimmten Fehlerschwellwert und der vorbestimmten Differenz, (3) die Länge des überwachten Sendesegments, (4) die Unähnlichkeiten von zumindest einer der Sendesegmentsignaturen der Datenbank von anderen Signaturen in der Datenbank und (5) die Ereignishäufigkeit von zumindest Teilen der zumindest einen der Sendesegmentsignaturen wie erzeugt darstellt.
  • Es wird außerdem aus der obigen Beschreibung gut verstanden werden, dass ein Sendesegmenterkennungssystem offenbart ist, mit: einem Mittel zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; einem Mittel zum Speichern jeder Signatur, um eine Datenbank von Sendesegmentsignaturen zu bilden; einem Mittel zum Überwachen eines Sendesegments; einem Mittel zum Bilden einer Signatur, die das überwachte Sendesegment darstellt; einem Mittel zum Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer der Sendesegmentsignaturen der Datenbank, um zu bestimmen, ob eine Übereinstimmung dazwischen vorhanden ist; und einem Mittel zum Auswerten der Gültigkeit einer Übereinstimmung eines überwachten Sendesegments durch Ausführen zumindest von einem (a) Bestimmen, ob das überwachte Sendesegment zeitlich durch vorbestimmte Signalereignisse begrenzt ist; (b) Bestimmen, ob das überwachte Sendesegment mit einem weiteren überwachten Sendesegment überlappt, für welches eine Übereinstimmung gemäß vorbestimmten Kriterien akzeptiert wurde; und (c) Bestimmen, ob die Übereinstimmung mit einem vorbestimmten Profil von falsch übereinstimmenden Segmenten übereinstimmt.
  • Man wird außerdem gut verstehen, dass aus der vorhergehenden Beschreibung ein Verfahren zur Sendesegmenterkennung mit den Schritten offenbart ist: Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; Speichern jeder Signatur, um eine Datenbank aus Sendesegmentsignaturen zu bilden; Überwachen eines Sendesegments; Bilden einer Signatur, die das überwachte Sendesegment darstellt; Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit jeder von mehreren Sendesegmentsignaturen der Datenbank, um zu bestimmen, ob eine Übereinstimmung gemäß einem ersten Fehlertoleranzniveau vorhanden ist; Auswerten aufgrund von vorbestimmten Auswertungskriterien, ob die Übereinstimmung in eine Klasse von fraglichen akzeptablen Übereinstimmungen fällt; und wenn die Übereinstimmung in die Klasse von fraglichen akzeptablen Übereinstimmungen fällt, Vergleichen der Signatur, welche das überwachte Sendesegment darstellt, mit der übereinstimmenden Sendesegmentsignatur der Datenbank unter Verwendung eines zweiten Fehlertoleranzniveaus, das Übereinstimmungen akzeptiert, die relativ höhere Fehlerniveaus als Übereinstimmungen haben, die gemäß dem ersten Fehlertoleranzniveau akzeptabel sind. Der Schritt des Auswertens, ob die Übereinstimmung innerhalb einer Klasse von fraglich akzeptablen Übereinstimmungen fällt, umfasst zumindest entweder das Bestimmen, ob das überwachte Sendesegment zeitlich an nur dessen einem Ende zumindest durch eines von mehreren vorbestimmten Signalereignissen begrenzt ist, oder das Bestimmen für ein überwachtes Sendesegment, welches an keinem Ende durch das zumindest eine der mehreren vorbestimmten Signalereignisse begrenzt ist, ob das überwachte Sendesegment in ein vorbestimmtes Profil von falsch übereinstimmenden Segmenten passt. Der Schritt des Bestimmens, ob das überwachte Sendesegment zeitlich an nur einem dessen Enden durch zumindest eines von mehreren vorbestimmten Signalereignissen begrenzt ist, umfasst das Bestimmen, ob das überwachte Sendesegment zeitlich an nur einem Ende durch ein weiteres überwachtes Sendesegment begrenzt ist, das mit einer Signatur in der Datenbank übereinstimmt. Der Schritt des Bildens einer Signatur, die das überwachte Sendesegment darstellt, umfasst das Bilden einer Signatur aus einem Videosignal des überwachten Sendesegments, und der Schritt des Bestimmens, ob das überwachte Sendesegment zeitlich an nur dessen einem Ende durch zumindest eines von mehreren vorbestimmten Signalereignissen begrenzt ist, umfasst das Bestimmen, ob das überwachte Sendesegment an nur dessen einem Ende durch zumindest eines von (1) einem weiteren überwachten Sendesegment, das mit einer Signatur in der Datenbank übereinstimmt, und (2) einem Schwarzwerden des Videosignals begrenzt ist. Der Schritt des Erzeugens einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, umfasst das Bilden einer ersten und zweiten Signatur aus Audiosignalen bzw. Videosignalen von jedem von mehreren Sendesegmenten, die erkannt werden sollen; der Schritt des Bildens einer Signatur, welche das überwachte Sendesegment darstellt, umfasst das Bilden einer dritten und einer vierten Signatur aus Audio- bzw. Videosignalen des überwachten Sendesegments; der Schritt des Vergleichens der Signaturen umfasst das Vergleichen der dritten und vierten Signaturen mit jeder von mehreren ersten bzw. zweiten Signaturen der Datenbank; und der Schritt des Auswertens, ob die Übereinstimmung in eine Klasse von fraglich akzeptablen Übereinstimmungen fällt, umfasst das Bestimmen, dass eine der Übereinstimmungen der dritten Signatur mit einer entsprechenden der mehreren ersten Signaturen und dass eine der Übereinstimmungen der vierten Signatur mit einer entsprechenden der mehreren zweiten Signaturen in die Klasse von fraglich akzeptablen Übereinstimmungen fällt, wenn die andere entsprechende Signatur nicht mit der entsprechenden der mehreren ersten und zweiten Signaturen übereinstimmt.
  • Aus der obigen Offenbarung wird auch gut verstanden werden, dass ein Sendesegmenterkennungssystem offenbart wird mit: einem Mittel zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; einem Mittel zum Speichern von jeder Signatur, um eine Datenbank aus Sendesegmentsignaturen zu bilden; einem Mittel zum Überwachen eines Sendesegments; einem Mittel zum Bilden einer Signatur, die das überwachte Sendesegment darstellt; einem Mittel zum Vergleichen der Signatur, welche das überwachte Sendesegment darstellt, mit jeder von mehreren Sendesegmentsignaturen der Datenbank, um zu bestimmen, ob eine Übereinstimmung gemäß einem ersten Fehlertoleranzniveau vorhanden ist; und einem Mittel zum Auswerten auf Grundlage vorbestimmter Auswertungskriterien, ob die Übereinstimmung in eine Klasse von fraglich akzeptablen Übereinstimmungen fällt; und falls dies so ist, zum Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit der übereinstimmenden Sendesegmentsignatur der Datenbank, Verwenden eines zweiten Fehlertoleranzniveaus, das Übereinstimmungen akzeptiert, die relativ höhere Fehlerniveaus als Übereinstimmungen haben, die gemäß dem ersten Fehlertoleranzniveau akzeptabel sind.
  • Aus der vorhergehenden Offenbarung wird außerdem gut verstanden werden, dass die Anmeldung sich auch auf ein Verfahren zum Aktualisieren einer Sendesegmenterkennungsdatenbank bezieht, die Signaturen zur Verwendung bei der Erkennung von interessierenden Sendesegmenten speichert, mit den Schritten: Überwachen eines Sendesignals, um vorbestimmte Signalereignisse zu erfassen, die mögliche interessierende Sendesegmente anzeigen, die entsprechenden überwachten Sendesignalintervallen entsprechen; Bestimmen, ob zumindest zwei alternative mögliche interessierende Sendesegmente für ein überwachtes Sendesignalintervall erfasst werden; Zuweisen einer Priorität zu einem von zumindest zwei alternativen möglichen interessierenden Sendesegmenten auf Grundlage vorbestimmter Kriterien; und Speichern einer Signatur in der Datenbank, die einem von zumindest zwei alternativen möglichen interessierenden Sendesegmenten entspricht, dem eine Priorität zugewiesen ist.
  • Aus der vorhergehenden Offenbarung wird außerdem gut verstanden, dass die Anmeldung auch ein System zum Aktualisieren einer Sendesegmenterkennungsdatenbank betrifft, die Signaturen zur Verwendung beim Erkennen von interessierenden Sendesegmenten speichert, mit: Mittel zum Überwachen eines Sendesignals, um vorbestimmte Signalereignisse zu erfassen, die mögliche interessierende Sendesegmente anzeigen, die entsprechenden überwachten Sendesignalintervallen entsprechen; Bestimmen, ob zumindest zwei alternative mögliche interessierende Sendesegmente für ein überwachtes Sendesignalintervall erfasst werden; Mittel zum Zuweisen einer Priorität zu einem von zumindest zwei alternativen möglichen interessierenden Sendesegmenten auf Grundlage vorbestimmter Kriterien; und Mittel zum Speichern einer Signatur in der Datenbank, die zumindest einem der zumindest zwei alternativen möglichen interessierenden Sendesegmenten entspricht, dem Priorität zugewiesen ist.
  • Es wird aus der vorhergehenden Offenbarung außerdem gut verstanden, dass die Anmeldung auch ein Verfahren zum selektiven Erfassen von zumindest entweder einem Audiosendesignal oder einem Videosendesignal zur Verwendung beim Aktualisieren einer Sendesegmenterkennungsdatenbank betrifft, die Signaturen zur Verwendung beim Erkennen von interessierenden Sendesegmenten speichert mit den Schritten des temporären Speicherns von zumindest entweder einem Audiosendesignal oder einem Videosendesignal einer überwachten Sendung; Erfassen vorbestimmter Signalereignisse, welche mögliche neue interessierende Sendesegmente der überwachten Sendung anzeigen; Auswählen von Intervallen der überwachten Sendung als mögliche neu interessierende Sendesegmente auf Grundlage der vorbestimmten Signalereignisse; Zuweisen eines ersten Erfassungsniveaus zu einem ersten ausgewählten Intervall auf Grundlage von dessen vorbestimmter Kennzeichen, die anzeigen, dass das erste ausgewählte Intervall wahrscheinlich ein neues interessierendes Segment ist; Zuweisen eines zweiten Erfassungsniveaus zu einem zweiten ausgewählten Intervall auf Grundlage von dessen vorbestimmter Kennzeichen, die anzeigen, dass das zweite ausgewählte Intervall relativ weniger wahrscheinlich als das erste ausgewählte Intervall ein neues interessierendes Segment ist; Speichern einer Signatur, die dem ersten ausgewählten Intervall entspricht, in der Datenbank und Erfassen von zumindest einem der temporär gespeicherten Audio- und Videosendesignale, die dem ersten ausgewählten Intervall entsprechen, zur Übertragung zu einem Workstationbenutzer zur Segmentidentifizierung; Speichern einer Signatur, die dem zweiten ausgewählten Intervall entspricht, in der Datenbank; und Löschen des temporär gespeicherten der Audio- und Videosendesignale, welches dem zweiten ausgewählten Intervall entspricht. Das Verfahren kann außerdem die Schritte zum Erfassen einer Übereinstimmung der gespeicherten Signatur, welche das zweite ausgewählte Intervall darstellt, mit einer Signatur, welche ein folgendes empfangenes Segment darstellt, und das Erfassen von zumindest entweder Audio- oder Videodaten des daraufhin empfangenen Segments zur Übertragung zu dem Workstationbenutzer zur Erkennung von neuen Segmenten umfassen.
  • Es wird außerdem aus der vorhergehenden Offenbarung gut verstanden, dass die Anmeldung auch ein System zum selektiven Erfassen von zumindest entweder einem Audiosendesignal oder einem Videosendesignal zur Verwendung beim Aktualisieren einer Sendesegmenterkennungsdatenbank betrifft, die Signaturen zur Verwendung beim Erkennen von interessierenden Sendesegmenten speichert, mit: Mittel zum temporären Speichern von zumindest einem Audiosendesignal und einem Videosendesignal einer überwachten Sendung; Mittel zum Erfassen vorbestimmter Signalereignisses, die mögliche neu interessierende Sendesegmente der überwachten Sendung anzeigen; Mittel zum Auswählen von Intervallen der überwachten Sendung als mögliche neue interessierende Sendesegmente auf Grundlage der vorbestimmten Signalereignisse; Mittel zum Zuweisen eines ersten Erfassungsniveaus zu einem ersten ausgewählten Intervall auf Grundlage von dessen vorbestimmter Kennzeichen, die anzeigen, dass das erste ausgewählte Intervall wahrscheinlich ein neues interessierendes Segment ist; Mittel zum Zuweisen eines zweiten Erfassungsniveaus zu einem zweiten ausgewählten Intervall auf Grundlage von dessen vorbestimmter Kennzeichen, die anzeigen, dass das zweite ausgewählte Intervall relativ weniger wahrscheinlich als das erste ausgewählte Intervall ein neues interessierendes Segment ist; Mittel zum Speichern einer Signatur, die dem ersten ausgewählten Intervall entspricht, in der Datenbank, und zum Erfassen von zumindest einem der temporär gespeicherten Audio- und Videosendesignale, welches dem ersten ausgewählten Intervall zur Übertragung zu einem Workstationbenutzer zur segmentierten Identifizierung entspricht; Mittel zum Speichern einer Signatur, die dem zweiten ausgewählten Intervall in der Datenbank entspricht; und Mittel zum Löschen des temporär gespeicherten der Audio- und Videosendesignale, das dem zweiten ausgewählten Intervall entspricht.
  • Es wird außerdem aus der vorhergehenden Offenbarung gut verstanden, dass die Anmeldung auch ein Verfahren zur Sendesegmenterkennung betrifft mit den Schritten: Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; für jede erzeugte Signatur Bestimmen einer Wahrscheinlichkeit, dass eine solche erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach einem Wiederaussenden des entsprechenden Sendesegments hin erzeugt wurde; Erzeugen einer weiteren Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wenn die Wahrscheinlichkeit, dass die erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach Wiederaussenden des entsprechenden Sendesegments hin erzeugt wurde, geringer als ein vorbestimmter Wert ist; Speichern jeder erzeugten Signatur, um eine Datenbank zu bilden; Überwachen eines Sendesegments; Bilden einer Signatur, welche das überwachte Sendesegment darstellt; und Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer Signatur, die in der Datenbank gespeichert ist. Der Schritt des Erzeugens einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, kann das Bilden einer ersten und zweiten Signatur für eine Sendung umfassen, die ein Videosignal und ein Audiosignal umfasst, wobei die erste Signatur das Videosignal kennzeichnet, und wobei die zweite Signatur das Audiosignal kennzeichnet, der Schritt zum Bilden einer Signatur, die das überwachte Sendesegment darstellt, umfasst das Bilden einer dritten und vierten Signatur, die ein Video- beziehungsweise Audiosignal darstellen, die in dem überwachten Sendesegment enthalten sind; und der Schritt zum Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer Signatur umfasst das Vergleichen der dritten und vierten Signatur mit der ersten bzw. zweiten Signatur, um deren entsprechende Übereinstimmungen zu bestimmen. Der Schritt zum Erzeugen eines entsprechenden auf Wahrscheinlichkeit beruhenden Kriteriums kann das Bilden eines entsprechenden auf Wahrscheinlichkeit beruhenden Kriteriums für zumindest entweder die erste und die zweite Signatur umfassen und der Schritt des Bestimmens, ob diese Übereinstimmung akzeptiert werden soll, umfasst das Bestimmen, dass die andere der ersten und zweiten Signaturen nicht mit einer entsprechenden der dritten und der vierten Signatur übereinstimmt, wenn (1) das entsprechende auf Wahrscheinlichkeit beruhende Kriterium von zumindest einer der ersten und zweiten Signaturen anzeigt, dass es mit der anderen der entsprechenden dritten und vierten Signaturen übereingestimmt haben sollte; und (2) der Vergleich von zumindest einer der ersten und zweiten Signaturen mit der entsprechenden der dritten und vierten Signaturen erzeugt eine Entscheidung, dass deren Übereinstimmung sich nicht ereignete. Das Verfahren kann auch die Schritte des Bestimmens, ob entsprechende Wahrscheinlichkeiten für falsche Übereinstimmung bei der ersten und zweiten Signatur mit Signaturen von überwachten Sendesegmenten übereinstimmen können, die dem Sendesegmenten nicht entsprechen, aus denen die erste und die zweite Signatur erzeugt wurden, und des Bestimmens umfassen, ob zumindest eine der entsprechenden Übereinstimmungen auf Grundlage der entsprechenden Wahrscheinlichkeiten für falsche Übereinstimmung akzeptiert werden soll.
  • Der Schritt des Bestimmens, ob zumindest eine der entsprechenden Übereinstimmungen akzeptiert werden soll, kann umfassen das Bestimmen, keine der entsprechenden Übereinstimmungen zu akzeptieren, wenn (1) eine Übereinstimmung von beiden nicht bestimmt wurde und (2) beide der entsprechenden Wahrscheinlichkeiten für falschen Übereinstimmung ein vorbestimmtes Niveau überschreiten; oder das Bestimmen, ob irgendeine der entsprechenden Übereinstimmungen akzeptiert werden soll, wenn beide der entsprechenden Wahrscheinlichkeiten für falsche Übereinstimmung geringer als ein vorbestimmtes Niveau sind. Der Schritt des Bestimmens entsprechender Wahrscheinlichkeiten für falsche Übereinstimmung kann das Bestimmen der entsprechenden Wahrscheinlichkeiten für falsche Übereinstimmung auf Grundlage (1) eines Informationsbetrags in den entsprechenden der ersten und zweiten Signaturen und (2) von zumindest von einer Verteilung von Werten der Sendesegmentsignaturen umfassen.
  • Aus der vorhergehenden Offenbarung wird man außerdem gut verstehen, dass die Anmeldung auch ein Sendesegmenterkennungssystem betrifft mit: Mittel zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; Mittel zum Bestimmen einer Wahrscheinlichkeit, dass jede erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wurde; Mittel zum Erzeugen einer weiteren Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wenn die Wahrscheinlichkeit, dass die erzeugte Signatur mit einer Signatur übereinstimmt, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wurde, geringer als ein vorbestimmter Wert ist; Mittel zum Speichern von jeder erzeugten Signatur, um eine Datenbank zu bilden; Mittel zum Überwachen eines Sendesegments; Mittel zum Bilden einer Signatur, die das überwachte Sendesegment darstellt; und Mittel zum Vergleichen der Signatur, die das überwachte Sendesegment darstellt mit zumindest einer Signatur, die in der Datenbank gespeichert ist.
  • Aus der vorhergehenden Offenbarung wird außerdem gut verstanden, dass die Anwendung auch ein Verfahren zur Sendesegmenterkennung betrifft, mit den Schritten: Erzeugen einer digitalen Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wobei jede digitale Signatur mehrere Bitwerte einschließt, die ein entsprechendes der mehreren Sendesegmente kennzeichnen; für jede erzeugte digitale Signatur Bestimmen einer wahrscheinlichen Anzahl von Bitwerten daraus, die mit den Bitwerten einer digitalen Signatur übereinstimmen werden, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wurden, und Erzeugen einer entsprechenden Wahrscheinlichkeit auf Grundlage eines Übereinstimmungswerts zur Verwendung beim Bestimmen, ob jede erzeugte digitale Signatur mit einer digitalen Signatur eines daraufhin empfangenen Sendesegments übereinstimmt; Speichern jeder erzeugten Signatur und ihres entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts, um eine Datenbank zu bilden; Überwachen eines Sendesegments; Bilden einer digitalen Signatur, die mehrere Bitwerte hat, die das überwachte Sendesegment darstellen; Vergleichen der digitalen Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer digitalen Signatur, die in der Datenbank gespeichert ist; und Bestimmen, ob die digitale Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer digitalen Signatur übereinstimmt unter Verwendung des entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts. Der Schritt des Erzeugens eines entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts kann das Erzeugen eines Fehlerschwellwerts umfassen, der eine maximale Anzahl entsprechender Bits der digitalen Signatur darstellt, die das überwachte Sendesegment und ein übereinstimmendes von zumindest einer digitalen Signatur darstellt, die sich unterscheiden können.
  • Man wird aus der vorhergehenden Offenbarung außerdem gut verstehen, dass die Anwendung auch ein Sendesegmenterkennungssystem betrifft mit: Mittel zum Erzeugen einer digitalen Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wobei jede digitale Signatur mehrere Bitwerte einschließt, die ein entsprechendes der mehreren Sendesegmente kennzeichnen; Mittel zum Bestimmen einer wahrscheinlichen Anzahl von Bitwerten von jeder erzeugten digitalen Signatur, die mit den Bitwerten einer digitalen Signatur übereinstimmen wird, die beim Wiederaussenden des entsprechenden Sendesegments erzeugt wurde, und Erzeugen eines entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts zur Verwendung beim Bestimmen, ob jede erzeugte digitale Signatur mit einer digitalen Signatur eines daraufhin empfangenen Sendesegments übereinstimmt; Mittel zum Speichern jeder erzeugten Signatur und ihres entsprechenden auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts, um eine Datenbank zu bilden; Mittel zum Überwachen eines Sendesegments; Mittel zum Bilden einer digitalen Signatur, die mehrere Bitwerte hat, die das überwachte Sendesegment darstellen; Mittel zum Vergleichen der digitalen Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer digitalen Signatur, die in der Datenbank gespeichert ist; Mittel zum Bestimmen, ob die digitale Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer digitalen Signatur übereinstimmt unter Verwendung des entsprechenden, auf Wahrscheinlichkeit beruhenden Übereinstimmungswerts.
  • Man wird außerdem aus der vorhergehenden Offenbarung gut verstehen, dass die Anmeldung auch ein Verfahren zur Sendesegmenterkennung betrifft mit den Schritten: Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; für jede erzeugte Signatur Bestimmen einer Wahrscheinlichkeit, dass eine solche erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach Wiederaussenden des entsprechenden Sendesegments erzeugt wurde; Erzeugen einer weiteren Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wenn die Wahrscheinlichkeit, dass die erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach Wiederaussenden des entsprechenden Sendesegments hin erzeugt wurde, geringer als ein vorbestimmter Wert ist; Speichern jeder erzeugten Signatur, um eine Datenbank zu bilden; Überwachen eines Sendesegments; Bilden einer Signatur, die das überwachte Sendesegment darstellt; und Vergleichen der Signatur, die das überwachte Sendesegment darstellt, mit zumindest einer Signatur, die in der Datenbank gespeichert ist.
  • Es wird aus der vorhergehenden Offenbarung außerdem geschätzt werden, dass die Anwendung auch ein Sendesegmenterkennungssystem betrifft mit: Mittel zum Erzeugen einer Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen; Mittel zum Bestimmen einer Wahrscheinlichkeit, dass jede erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach dem Wiederaussenden des entsprechenden Sendesegments erzeugt wurde; Mittel zum Erzeugen einer weiteren Signatur für jedes von mehreren Sendesegmenten, die erkannt werden sollen, wenn die Wahrscheinlichkeit, dass die erzeugte Signatur mit einer Signatur übereinstimmen wird, die nach Wiederaussenden des entsprechenden Sendesegments hin erzeugt wird, geringer als ein vorbestimmter Wert ist; Mittel zum Speichern jeder erzeugten Signatur, um eine Datenbank zu bilden; Mittel zum Überwachen eines Sendesegments; Mittel zum Bilden einer Signatur, die das überwachte Sendesegment darstellt; Mittel zum Vergleichen der Signatur, die das überwachte Sendesegment darstellt mit zumindest einer Signatur, die in der Datenbank gespeichert ist.

Claims (10)

  1. Verfahren (300312) zum Erzeugen einer Signatur aus einem Audiosendesignal zur Verwendung bei der Sendesignalerkennung mit den Schritten: Bilden einer ersten Gruppe von mehreren Frequenzbandwerten, wobei jeder Wert aus einem Segment des Audiosendesignals innerhalb eines entsprechenden vorbestimmten Frequenzbandes abgeleitet ist; Bilden einer zweiten Gruppe von mehreren Frequenzbandwerten, wobei jeder Wert aus einem Segment des Audiosendesignals innerhalb eines entsprechenden vorbestimmten Frequenzbands abgeleitet ist, wobei Werte der zweiten Gruppe Segmente der Audiosendesignale innerhalb der gleichen entsprechenden vorbestimmten Frequenzbänder wie Werte in der ersten Gruppe darstellen; und gekennzeichnet durch: Vergleichen von jedem der ersten Gruppe der mehreren Frequenzbandwerte mit einem entsprechenden der zweiten Gruppe der mehreren Frequenzbandwerte, die ein Segment des Audiosendesignals innerhalb des selben entsprechenden vorbestimmten Frequenzbands darstellen, wobei jeder entsprechende der zweiten Gruppe der mehreren Frequenzbandwerte ein Segment des Audiosendesignals darstellt, das zumindest teilweise vor dem Segment des Audiosendesignals ausgesendet wurde, das durch den korrespondierenden der ersten Gruppe der mehreren Frequenzbandwerte dargestellt ist; und Bilden der Signatur auf Grundlage der Vergleiche der ersten und zweiten Gruppe der mehreren Frequenzbandwerte.
  2. Verfahren nach Anspruch 1, wobei das Bilden der ersten Gruppe von Frequenzbandwerten das Bilden von mehreren Leistungsniveausignalen (306) umfasst, von denen jedes ein Leistungsniveau des Audiosendesignals innerhalb eines entsprechenden der vorbestimmten Frequenzbänder darstellt.
  3. Verfahren nach Anspruch 2, wobei das Bilden der ersten Gruppe der mehreren Frequenzbandwerte das Bilden der ersten Frequenzbandsignale, von denen jedes ein Kennzeichen des Audiosendesignals innerhalb eines entsprechenden der vorbestimmten Frequenzbänder darstellt, und das Transformieren von jedem der ersten Frequenzbandsignale durch Teilen von jedem der mehreren Leistungsniveausignalen durch eine Linearkombination von anderen der ersten Frequenzbandsignale umfasst.
  4. Verfahren nach Anspruch 1, wobei das Bilden der Signatur das Einschließen von Daten, die aus den Vergleichen der ersten und zweiten Gruppe der mehreren Frequenzbandwerte erzeugt sind, in die Signatur umfasst.
  5. Verfahren nach Anspruch 1, wobei das Vergleichen der ersten und zweiten Gruppe der Frequenzbandwerte das Erzeugen von Differenzwerten umfasst, welche Differenzen zwischen den ersten und zweiten Frequenzbandwerten darstellen.
  6. Verfahren nach Anspruch 5, wobei das Bilden der Signatur das Einschließen von Daten, die aus den Differenzwerten erzeugt sind, in die Signatur umfasst.
  7. System (250) zum Erzeugen einer Signatur aus einem Audiosendesignal zur Verwendung bei der Sendesignalerkennung mit: Mittel zum Bilden einer ersten Gruppe von mehreren Frequenzbandwerten, wobei jeder Wert aus einem Segment des Audiosendesignals innerhalb eines entsprechenden vorbestimmten Frequenzbands abgeleitet ist; Mittel zum Bilden einer zweiten Gruppe von mehreren Frequenzbandwerten, wobei jeder Wert aus einem Segment des Audiosendesignals innerhalb eines entsprechenden vorbestimmten Frequenzbands abgeleitet ist, wobei Werte der zweiten Gruppe Segmente des Audiosendesignals innerhalb der selben entsprechenden vorbestimmten Frequenzbänder wie Werte in der ersten Gruppe darstellen; und gekennzeichnet durch: Mittel zum Vergleichen von jedem der ersten Gruppe der mehreren Frequenzbandwerte mit einem entsprechenden der zweiten Gruppe der mehreren Frequenzbandwerte, die ein Segment des Audiosendesignals innerhalb des entsprechenden vorbestimmten Frequenzbands darstellen, wobei jeder entsprechende der zweiten Gruppe der mehreren Frequenzbandwerte ein Segment des Audiosendesignals darstellt, das zumindest teilweise vor dem Segment des Audiosendesignals ausgesendet wurde, das durch den korrespondierenden der ersten Gruppe der mehreren Frequenzbandwerte dargestellt ist; und Mittel zum Bilden der Signatur auf Grundlage der Vergleiche der ersten und zweiten Gruppe der mehreren Frequenzbandwerte.
  8. System (250) nach Anspruch 7, wobei das Mittel zum Bilden der Signatur so betreibbar ist, dass es in die Signatur Daten einschließt, die aus Vergleichen der ersten und zweiten Gruppe der mehreren Frequenzbandwerte erzeugt wurden.
  9. System (250) nach Anspruch 7, wobei das Mittel zum Vergleichen der ersten und zweiten Gruppe von Frequenzbandwerten betreibbar ist, um Differenzwerte zu erzeugen, welche Differenzen zwischen dem ersten und zweiten Frequenzbandwerten darstellen.
  10. System (250) nach Anspruch 9, wobei das Mittel zum Bilden der Signatur betreibbar ist, um Daten, die aus den Differenzwerten erzeugt sind, in die Signatur einzuschließen.
DE69334130T 1992-04-30 1993-04-30 Verfahren und System für die Erfassung von Audiorundfunkabschnitten Expired - Lifetime DE69334130T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US876578 1992-04-30
US07/876,578 US5436653A (en) 1992-04-30 1992-04-30 Method and system for recognition of broadcast segments

Publications (2)

Publication Number Publication Date
DE69334130D1 DE69334130D1 (de) 2007-05-10
DE69334130T2 true DE69334130T2 (de) 2007-12-13

Family

ID=25368063

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69334130T Expired - Lifetime DE69334130T2 (de) 1992-04-30 1993-04-30 Verfahren und System für die Erfassung von Audiorundfunkabschnitten
DE69332671T Expired - Lifetime DE69332671D1 (de) 1992-04-30 1993-04-30 Verfahren und system um rundfunkabschnitte zu erkennen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69332671T Expired - Lifetime DE69332671D1 (de) 1992-04-30 1993-04-30 Verfahren und system um rundfunkabschnitte zu erkennen

Country Status (12)

Country Link
US (5) US5436653A (de)
EP (2) EP0748563B1 (de)
JP (1) JPH08500471A (de)
AT (2) ATE358366T1 (de)
AU (3) AU678163B2 (de)
CA (2) CA2504552C (de)
DE (2) DE69334130T2 (de)
DK (1) DK1261155T3 (de)
ES (1) ES2284777T3 (de)
HK (1) HK1051938A1 (de)
PT (1) PT1261155E (de)
WO (1) WO1993022875A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8060372B2 (en) 2007-02-20 2011-11-15 The Nielsen Company (Us), Llc Methods and appratus for characterizing media
US8369972B2 (en) 2007-11-12 2013-02-05 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8457951B2 (en) 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
US8458737B2 (en) 2007-05-02 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US8600531B2 (en) 2008-03-05 2013-12-03 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US11961527B2 (en) 2023-01-20 2024-04-16 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction

Families Citing this family (561)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6081750A (en) * 1991-12-23 2000-06-27 Hoffberg; Steven Mark Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments
US5721788A (en) 1992-07-31 1998-02-24 Corbis Corporation Method and system for digital image signatures
US6301369B2 (en) 1992-07-31 2001-10-09 Digimarc Corporation Image marking to permit later identification
US5903317A (en) * 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
JP3563072B2 (ja) * 1993-08-31 2004-09-08 インテレッセンゲマインシャフト フュア ルントフンクシュッツレヒテ ゲゼルシャフト ミット ベシュレンクテル ハフツング シュッツレヒツフェルヴェルツング ウント コンパニー コマンディートゲゼルシャ 不所望なビデオシーンの検出方法及び装置
US6983051B1 (en) 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US5841978A (en) * 1993-11-18 1998-11-24 Digimarc Corporation Network linking method using steganographically embedded data objects
US5822436A (en) * 1996-04-25 1998-10-13 Digimarc Corporation Photographic products and methods employing embedded information
US6516079B1 (en) 2000-02-14 2003-02-04 Digimarc Corporation Digital watermark screening and detecting strategies
US6122403A (en) 1995-07-27 2000-09-19 Digimarc Corporation Computer system linked by using information in data objects
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
US6611607B1 (en) 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US5768426A (en) 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US7313251B2 (en) 1993-11-18 2007-12-25 Digimarc Corporation Method and system for managing and controlling electronic media
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US6614914B1 (en) 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
US6757406B2 (en) 1993-11-18 2004-06-29 Digimarc Corporation Steganographic image processing
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
US7171016B1 (en) 1993-11-18 2007-01-30 Digimarc Corporation Method for monitoring internet dissemination of image, video and/or audio files
US6944298B1 (en) 1993-11-18 2005-09-13 Digimare Corporation Steganographic encoding and decoding of auxiliary codes in media signals
US8094949B1 (en) 1994-10-21 2012-01-10 Digimarc Corporation Music methods and systems
US7724919B2 (en) 1994-10-21 2010-05-25 Digimarc Corporation Methods and systems for steganographic processing
US6560349B1 (en) 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
US20030213001A1 (en) * 1994-11-07 2003-11-13 Index Systems, Inc. Method and apparatus for transmitting and downloading setup information
US6583825B1 (en) * 1994-11-07 2003-06-24 Index Systems, Inc. Method and apparatus for transmitting and downloading setup information
US5708477A (en) * 1994-12-01 1998-01-13 Forbes; Scott Jared Video signal identifier for controlling a VCR and television based on the occurrence of commercials
JPH11506575A (ja) * 1995-03-07 1999-06-08 インターバル リサーチ コーポレイション 情報の選択記憶システム及び方法
US6760463B2 (en) 1995-05-08 2004-07-06 Digimarc Corporation Watermarking methods and media
US7224819B2 (en) 1995-05-08 2007-05-29 Digimarc Corporation Integrating digital watermarks in multimedia content
US7486799B2 (en) * 1995-05-08 2009-02-03 Digimarc Corporation Methods for monitoring audio and images on the internet
US7805500B2 (en) 1995-05-08 2010-09-28 Digimarc Corporation Network linking methods and apparatus
US5864358A (en) * 1995-06-26 1999-01-26 Matsushita Electric Industrial Co., Ltd. Method for switching programs in digital broadcasting and digital broadcast receiving apparatus
US6505160B1 (en) * 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
US7562392B1 (en) 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
US6577746B1 (en) 1999-12-28 2003-06-10 Digimarc Corporation Watermark-based object linking and embedding
US6411725B1 (en) 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US6829368B2 (en) 2000-01-26 2004-12-07 Digimarc Corporation Establishing and interacting with on-line media collections using identifiers in media signals
US7711564B2 (en) 1995-07-27 2010-05-04 Digimarc Corporation Connected audio and other media objects
US5905522A (en) * 1995-08-31 1999-05-18 Microsoft Corporation Resource allocation method for interactive televideo system
GB9519087D0 (en) * 1995-09-19 1995-11-22 Cursor Positioning Sys Ltd Navigation and tracking system
US5767893A (en) * 1995-10-11 1998-06-16 International Business Machines Corporation Method and apparatus for content based downloading of video programs
JP2000503154A (ja) * 1996-01-11 2000-03-14 エムアールジェイ インコーポレイテッド デジタル所有権のアクセスと分配を制御するためのシステム
US7505605B2 (en) * 1996-04-25 2009-03-17 Digimarc Corporation Portable devices and methods employing digital watermarking
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
US8180844B1 (en) 2000-03-18 2012-05-15 Digimarc Corporation System for linking from objects to remote resources
US20030056103A1 (en) 2000-12-18 2003-03-20 Levy Kenneth L. Audio/video commerce application architectural framework
JP3625344B2 (ja) * 1996-11-05 2005-03-02 株式会社ビデオリサーチ 視聴チャンネル検出装置
US6381341B1 (en) 1996-05-16 2002-04-30 Digimarc Corporation Watermark encoding method exploiting biases inherent in original signal
US5987150A (en) * 1996-08-30 1999-11-16 Intel Corporation Video capturing using on-screen graphics
US8306811B2 (en) * 1996-08-30 2012-11-06 Digimarc Corporation Embedding data in audio and detecting embedded data in audio
US20060280437A1 (en) * 1999-01-27 2006-12-14 Gotuit Media Corp Methods and apparatus for vending and delivering the content of disk recordings
US7055166B1 (en) * 1996-10-03 2006-05-30 Gotuit Media Corp. Apparatus and methods for broadcast monitoring
US6088455A (en) * 1997-01-07 2000-07-11 Logan; James D. Methods and apparatus for selectively reproducing segments of broadcast programming
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6002443A (en) 1996-11-01 1999-12-14 Iggulden; Jerry Method and apparatus for automatically identifying and selectively altering segments of a television broadcast signal in real-time
US5999689A (en) * 1996-11-01 1999-12-07 Iggulden; Jerry Method and apparatus for controlling a videotape recorder in real-time to automatically identify and selectively skip segments of a television broadcast signal during recording of the television signal
US7269330B1 (en) 1996-11-01 2007-09-11 Televentions, Llc Method and apparatus for controlling a video recorder/player to selectively alter a video signal
WO1998020675A1 (en) * 1996-11-01 1998-05-14 Jerry Iggulden Method and apparatus for automatically identifying and selectively altering segments of a television broadcast signal in real-time
US6771316B1 (en) * 1996-11-01 2004-08-03 Jerry Iggulden Method and apparatus for selectively altering a televised video signal in real-time
US5893062A (en) 1996-12-05 1999-04-06 Interval Research Corporation Variable rate video playback with synchronized audio
US6263507B1 (en) 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US8640160B2 (en) * 1997-01-06 2014-01-28 At&T Intellectual Property I, L.P. Method and system for providing targeted advertisements
US8677384B2 (en) 2003-12-12 2014-03-18 At&T Intellectual Property I, L.P. Methods and systems for network based capture of television viewer generated clickstreams
US7587323B2 (en) 2001-12-14 2009-09-08 At&T Intellectual Property I, L.P. System and method for developing tailored content
US6675383B1 (en) 1997-01-22 2004-01-06 Nielsen Media Research, Inc. Source detection apparatus and method for audience measurement
CA2196930C (en) * 1997-02-06 2005-06-21 Nael Hirzalla Video sequence recognition
GB9705999D0 (en) * 1997-03-22 1997-05-07 Philips Electronics Nv Video signal analysis and storage
US6427012B1 (en) * 1997-05-19 2002-07-30 Verance Corporation Apparatus and method for embedding and extracting information in analog signals using replica modulation
US5940135A (en) * 1997-05-19 1999-08-17 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
ES2190578T3 (es) * 1997-06-23 2003-08-01 Liechti Ag Metodo para la compresion de grabaciones de ruido ambiental, metodo para la deteccion de los elementos de programa de las mismas, dispositivo y programa de ordenador para su aplicacion.
US5959683A (en) * 1997-06-26 1999-09-28 Xerox Corporation System to remove artifacts in a digital image derived from a television signal
US6031581A (en) * 1997-06-26 2000-02-29 Xerox Corporation System for removing color bleed in a television image adapted for digital printing
GB2327167A (en) * 1997-07-09 1999-01-13 Register Group Limited The Identification of television commercials
US6112053A (en) * 1997-07-14 2000-08-29 General Electric Company Television viewership monitoring system employing audio channel and synchronization information
US20060026048A1 (en) * 1997-08-08 2006-02-02 Kolawa Adam K Method and apparatus for automated selection, organization, and recommendation of items based on user preference topography
GB9722324D0 (en) 1997-10-22 1997-12-17 Cambridge Positioning Sys Ltd Positioning system for digital telephone networks
US6961954B1 (en) 1997-10-27 2005-11-01 The Mitre Corporation Automated segmentation, information extraction, summarization, and presentation of broadcast news
US6173271B1 (en) * 1997-11-26 2001-01-09 California Institute Of Technology Television advertising automated billing system
IL122498A0 (en) * 1997-12-07 1998-06-15 Contentwise Ltd Apparatus and methods for manipulating sequences of images
US5973723A (en) * 1997-12-12 1999-10-26 Deluca; Michael Joseph Selective commercial detector and eliminator apparatus and method
US20050028194A1 (en) * 1998-01-13 2005-02-03 Elenbaas Jan Hermanus Personalized news retrieval system
ES2141039B1 (es) * 1998-01-30 2000-10-16 Mayo Audiovisual S A Sistema automatico de deteccion y reconocimiento de anuncios televisados.
DE19810114A1 (de) * 1998-03-09 1999-09-16 Stefan Weigelt Suchverfahren für Musikstücke, insbesondere für Rundfunkempfangsgeräte
JPH11298795A (ja) * 1998-04-14 1999-10-29 Sony Corp 制御信号発生回路
US7689532B1 (en) 2000-07-20 2010-03-30 Digimarc Corporation Using embedded data with file sharing
BR9810699A (pt) 1998-05-12 2000-09-05 Nielsen Media Res Inc Sistema de medição de audiência de televisão, processo e aparelho para identificar um programa de televisão selecionado por um espectador, e, agente de software armazenado em memória em associação com um equipamento de televisão digital
US7644282B2 (en) 1998-05-28 2010-01-05 Verance Corporation Pre-processed information embedding system
US6163510A (en) * 1998-06-30 2000-12-19 International Business Machines Corporation Multimedia search and indexing system and method of operation using audio cues with signal thresholds
US6100941A (en) * 1998-07-28 2000-08-08 U.S. Philips Corporation Apparatus and method for locating a commercial disposed within a video data stream
JP2000101439A (ja) * 1998-09-24 2000-04-07 Sony Corp 情報処理装置および方法、情報記録装置および方法、記録媒体、並びに提供媒体
US6320623B1 (en) * 1998-11-13 2001-11-20 Philips Electronics North America Corporation Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event
JP4026100B2 (ja) * 1998-11-30 2007-12-26 ソニー株式会社 情報処理装置および方法、並びに記録媒体
JP2000165806A (ja) * 1998-11-30 2000-06-16 Sony Corp 情報処理装置および方法、並びに提供媒体
US6934461B1 (en) * 1999-01-05 2005-08-23 Interval Research Corporation Low attention recording, with particular application to social recording
US7421723B2 (en) 1999-01-07 2008-09-02 Nielsen Media Research, Inc. Detection of media links in broadcast signals
US6906743B1 (en) * 1999-01-13 2005-06-14 Tektronix, Inc. Detecting content based defects in a video stream
US6185527B1 (en) 1999-01-19 2001-02-06 International Business Machines Corporation System and method for automatic audio content analysis for word spotting, indexing, classification and retrieval
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US20040255336A1 (en) * 1999-03-30 2004-12-16 Gotuit Video, Inc. Methods and apparatus for simultaneous program viewing
US7362946B1 (en) * 1999-04-12 2008-04-22 Canon Kabushiki Kaisha Automated visual image editing system
US6332120B1 (en) * 1999-04-20 2001-12-18 Solana Technology Development Corporation Broadcast speech recognition system for keyword monitoring
US7565294B2 (en) 1999-05-19 2009-07-21 Digimarc Corporation Methods and systems employing digital content
US8095796B2 (en) 1999-05-19 2012-01-10 Digimarc Corporation Content identifiers
US7302574B2 (en) * 1999-05-19 2007-11-27 Digimarc Corporation Content identifiers triggering corresponding responses through collaborative processing
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US8055588B2 (en) * 1999-05-19 2011-11-08 Digimarc Corporation Digital media methods
US6871180B1 (en) 1999-05-25 2005-03-22 Arbitron Inc. Decoding of information in audio signals
GB9912724D0 (en) 1999-06-01 1999-08-04 Cambridge Positioning Sys Ltd Radio positioning system
US20050038819A1 (en) * 2000-04-21 2005-02-17 Hicken Wendell T. Music Recommendation system and method
US7013301B2 (en) * 2003-09-23 2006-03-14 Predixis Corporation Audio fingerprinting system and method
US6519564B1 (en) * 1999-07-01 2003-02-11 Koninklijke Philips Electronics N.V. Content-driven speech-or audio-browser
US8326584B1 (en) 1999-09-14 2012-12-04 Gracenote, Inc. Music searching methods based on human perception
US7194752B1 (en) 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
US7174293B2 (en) * 1999-09-21 2007-02-06 Iceberg Industries Llc Audio identification system and method
US6941275B1 (en) 1999-10-07 2005-09-06 Remi Swierczek Music identification system
US7155735B1 (en) 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
US6469749B1 (en) * 1999-10-13 2002-10-22 Koninklijke Philips Electronics N.V. Automatic signature-based spotting, learning and extracting of commercials and other video content
CA2809775C (en) * 1999-10-27 2017-03-21 The Nielsen Company (Us), Llc Audio signature extraction and correlation
WO2001035676A1 (en) * 1999-11-11 2001-05-17 Contentwise Ltd Method and system for global broadcast monitoring
JP4618868B2 (ja) * 1999-11-15 2011-01-26 富士通テン株式会社 ディジタル放送受信機及びセグメント数検出装置
US6993245B1 (en) 1999-11-18 2006-01-31 Vulcan Patents Llc Iterative, maximally probable, batch-mode commercial detection for audiovisual content
US6721488B1 (en) * 1999-11-30 2004-04-13 Koninklijke Philips Electronics N.V. Method and apparatus to identify sequential content stored on a storage medium
WO2001045103A1 (en) * 1999-12-14 2001-06-21 Koninklijke Philips Electronics N.V. Method and apparatus to identify content stored on a storage medium
US6397041B1 (en) 1999-12-22 2002-05-28 Radio Propagation Services, Inc. Broadcast monitoring and control system
US6757682B1 (en) 2000-01-28 2004-06-29 Interval Research Corporation Alerting users to items of current interest
US6675174B1 (en) 2000-02-02 2004-01-06 International Business Machines Corp. System and method for measuring similarity between a set of known temporal media segments and a one or more temporal media streams
US6593976B1 (en) * 2000-02-14 2003-07-15 Koninklijke Philips Electronics N.V. Automatic return to input source when user-selected content reappears in input source
US6737957B1 (en) 2000-02-16 2004-05-18 Verance Corporation Remote control signaling using audio watermarks
US6834308B1 (en) 2000-02-17 2004-12-21 Audible Magic Corporation Method and apparatus for identifying media content presented on a media playing device
US7661116B2 (en) 2000-02-25 2010-02-09 Vulcan Patents Llc Auction for targeted content
WO2001063916A1 (en) * 2000-02-25 2001-08-30 Interval Research Corporation Method and system for selecting advertisements
US8910199B2 (en) * 2000-02-25 2014-12-09 Interval Licensing Llc Targeted television content display
GB2360581A (en) * 2000-03-15 2001-09-26 Television Monitoring Services Quantification of brand exposure on screen
US20060015925A1 (en) * 2000-03-28 2006-01-19 Gotuit Media Corp Sales presentation video on demand system
US20040255334A1 (en) * 2000-03-28 2004-12-16 Gotuit Audio, Inc. Methods and apparatus for seamlessly changing volumes during playback using a compact disk changer
US6968564B1 (en) * 2000-04-06 2005-11-22 Nielsen Media Research, Inc. Multi-band spectral audio encoding
WO2001077864A1 (en) * 2000-04-10 2001-10-18 Contentwise Ltd Method and system for managing multimedia databases
US7305104B2 (en) * 2000-04-21 2007-12-04 Digimarc Corporation Authentication of identification documents using digital watermarks
US20060217828A1 (en) * 2002-10-23 2006-09-28 Hicken Wendell T Music searching system and method
JP4300697B2 (ja) * 2000-04-24 2009-07-22 ソニー株式会社 信号処理装置及び方法
JP4507351B2 (ja) * 2000-04-27 2010-07-21 ソニー株式会社 信号処理装置及び方法
US8121843B2 (en) 2000-05-02 2012-02-21 Digimarc Corporation Fingerprint methods and systems for media signals
US7617509B1 (en) 2000-06-23 2009-11-10 International Business Machines Corporation Method and system for automated monitoring of quality of service of digital video material distribution and play-out
US8219545B2 (en) * 2000-07-27 2012-07-10 Goldhar/Jaffe Technology Development Corporation Indigenous authentication and searching system and method
US6757828B1 (en) * 2000-07-27 2004-06-29 Jonathan E. Jaffe Indigenous authentication for sensor-recorders and other information capture devices
US7853664B1 (en) 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music
JP3775186B2 (ja) 2000-08-10 2006-05-17 日本電気株式会社 放送確認システム、放送確認装置および方法、放送確認プログラムを記録した記録媒体
US20020059629A1 (en) * 2000-08-21 2002-05-16 Markel Steven O. Detection and recognition of data receiver to facilitate proper transmission of enhanced data
EP2136306B1 (de) 2000-08-23 2013-03-20 Gracenote, Inc. Verfahren und System zur Gewinnung von Informationen
AU8845301A (en) * 2000-08-25 2002-03-04 Intellocity Usa Inc Personalized remote control
US20020057286A1 (en) * 2000-08-25 2002-05-16 Markel Steven O. Device independent video enhancement scripting language
US8205237B2 (en) 2000-09-14 2012-06-19 Cox Ingemar J Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet
WO2002035516A1 (fr) * 2000-10-23 2002-05-02 Ntt Communications Corporation Systeme et procede de reconnaissance d'une composition musicale, support de stockage de programme de composition musicale, procede et systeme de reconnaissance commerciale, et support de stockage de programme de reconnaissance commerciale
US7277766B1 (en) * 2000-10-24 2007-10-02 Moodlogic, Inc. Method and system for analyzing digital audio files
US6574594B2 (en) 2000-11-03 2003-06-03 International Business Machines Corporation System for monitoring broadcast audio content
US7562012B1 (en) * 2000-11-03 2009-07-14 Audible Magic Corporation Method and apparatus for creating a unique audio signature
US7031921B2 (en) * 2000-11-03 2006-04-18 International Business Machines Corporation System for monitoring audio content available over a network
US6604072B2 (en) 2000-11-03 2003-08-05 International Business Machines Corporation Feature-based audio content identification
US7085613B2 (en) * 2000-11-03 2006-08-01 International Business Machines Corporation System for monitoring audio content in a video broadcast
US6748360B2 (en) 2000-11-03 2004-06-08 International Business Machines Corporation System for selling a product utilizing audio content identification
US6999715B2 (en) * 2000-12-11 2006-02-14 Gary Alan Hayter Broadcast audience surveillance using intercepted audio
US20020072982A1 (en) * 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
US20020080976A1 (en) * 2000-12-14 2002-06-27 Schreer Scott P. System and method for accessing authorized recordings
US7266704B2 (en) 2000-12-18 2007-09-04 Digimarc Corporation User-friendly rights management systems and methods
AU2002232817A1 (en) 2000-12-21 2002-07-01 Digimarc Corporation Methods, apparatus and programs for generating and utilizing content signatures
US20020114299A1 (en) * 2000-12-27 2002-08-22 Daozheng Lu Apparatus and method for measuring tuning of a digital broadcast receiver
US8458754B2 (en) * 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US20070300258A1 (en) * 2001-01-29 2007-12-27 O'connor Daniel Methods and systems for providing media assets over a network
DE60228202D1 (de) * 2001-02-12 2008-09-25 Gracenote Inc Verfahren zum erzeugen einer identifikations hash vom inhalt einer multimedia datei
US8706023B2 (en) * 2008-01-04 2014-04-22 3D Radio Llc Multi-tuner radio systems and methods
WO2002067447A2 (en) 2001-02-20 2002-08-29 Ellis Caron S Enhanced radio systems and methods
US8868023B2 (en) 2008-01-04 2014-10-21 3D Radio Llc Digital radio systems and methods
US8909128B2 (en) * 2008-04-09 2014-12-09 3D Radio Llc Radio device with virtually infinite simultaneous inputs
US8699995B2 (en) 2008-04-09 2014-04-15 3D Radio Llc Alternate user interfaces for multi tuner radio device
US7359889B2 (en) 2001-03-02 2008-04-15 Landmark Digital Services Llc Method and apparatus for automatically creating database for use in automated media recognition system
US8156528B2 (en) * 2001-03-22 2012-04-10 United Video Properties, Inc. Personal video recorder systems and methods
US8949878B2 (en) * 2001-03-30 2015-02-03 Funai Electric Co., Ltd. System for parental control in video programs based on multimedia content information
WO2002082271A1 (en) 2001-04-05 2002-10-17 Audible Magic Corporation Copyright detection and protection system and method
US7248715B2 (en) * 2001-04-06 2007-07-24 Digimarc Corporation Digitally watermarking physical media
US7039585B2 (en) 2001-04-10 2006-05-02 International Business Machines Corporation Method and system for searching recorded speech and retrieving relevant segments
US7046819B2 (en) 2001-04-25 2006-05-16 Digimarc Corporation Encoded reference signal for digital watermarks
US7325249B2 (en) 2001-04-30 2008-01-29 Aol Llc Identifying unwanted electronic messages
US6785656B2 (en) * 2001-06-05 2004-08-31 Xm Satellite Radio, Inc. Method and apparatus for digital audio playback using local stored content
US20050005308A1 (en) * 2002-01-29 2005-01-06 Gotuit Video, Inc. Methods and apparatus for recording and replaying sports broadcasts
US8572640B2 (en) * 2001-06-29 2013-10-29 Arbitron Inc. Media data use measurement with remote decoding/pattern matching
US6963543B2 (en) 2001-06-29 2005-11-08 Qualcomm Incorporated Method and system for group call service
US7529659B2 (en) * 2005-09-28 2009-05-05 Audible Magic Corporation Method and apparatus for identifying an unknown work
US6968337B2 (en) * 2001-07-10 2005-11-22 Audible Magic Corporation Method and apparatus for identifying an unknown work
EP1410380B1 (de) * 2001-07-20 2010-04-28 Gracenote, Inc. Automatische identifizierung von klangaufzeichnungen
US7877438B2 (en) * 2001-07-20 2011-01-25 Audible Magic Corporation Method and apparatus for identifying new media content
US8972481B2 (en) 2001-07-20 2015-03-03 Audible Magic, Inc. Playlist generation method and apparatus
US20030054757A1 (en) * 2001-09-19 2003-03-20 Kolessar Ronald S. Monitoring usage of media data with non-program data elimination
US20030070179A1 (en) * 2001-10-04 2003-04-10 Ritz Peter B. System and method for connecting end user with application based on broadcast code
US6961467B2 (en) * 2001-10-17 2005-11-01 Intel Corporation Identifying image content
US20030135623A1 (en) * 2001-10-23 2003-07-17 Audible Magic, Inc. Method and apparatus for cache promotion
US7012653B1 (en) * 2001-11-30 2006-03-14 Bellsouth Intellectual Property Corporation Program restart and commercial ending notification method and system
US7496604B2 (en) * 2001-12-03 2009-02-24 Aol Llc Reducing duplication of files on a network
US7870089B1 (en) * 2001-12-03 2011-01-11 Aol Inc. Reducing duplication of embedded resources on a network
US20030110500A1 (en) * 2001-12-06 2003-06-12 Rodriguez Arturo A. Prediction-based adaptative control of television viewing functionality
US7120922B2 (en) * 2001-12-11 2006-10-10 Scientific-Atlanta, Inc. Time-adaptive control of television viewing functionality
US7212979B1 (en) 2001-12-14 2007-05-01 Bellsouth Intellectuall Property Corporation System and method for identifying desirable subscribers
US9967633B1 (en) 2001-12-14 2018-05-08 At&T Intellectual Property I, L.P. System and method for utilizing television viewing patterns
US20110178877A1 (en) 2001-12-14 2011-07-21 Swix Scott R Advertising and content management systems and methods
US7086075B2 (en) * 2001-12-21 2006-08-01 Bellsouth Intellectual Property Corporation Method and system for managing timed responses to A/V events in television programming
US7064796B2 (en) * 2001-12-21 2006-06-20 Eloda Inc. Method and system for re-identifying broadcast segments using statistical profiles
US8086491B1 (en) 2001-12-31 2011-12-27 At&T Intellectual Property I, L. P. Method and system for targeted content distribution using tagged data streams
US7337455B2 (en) * 2001-12-31 2008-02-26 Koninklijke Philips Electronics N.V. Method, apparatus, and program for evolving algorithms for detecting content in information streams
US20030131350A1 (en) 2002-01-08 2003-07-10 Peiffer John C. Method and apparatus for identifying a digital audio signal
US7020304B2 (en) 2002-01-22 2006-03-28 Digimarc Corporation Digital watermarking and fingerprinting including synchronization, layering, version control, and compressed embedding
US20070113250A1 (en) * 2002-01-29 2007-05-17 Logan James D On demand fantasy sports systems and methods
KR20040086350A (ko) 2002-02-05 2004-10-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 핑거프린트의 효율적 저장
US8150235B2 (en) 2002-02-08 2012-04-03 Intel Corporation Method of home media server control
US20030154493A1 (en) * 2002-02-14 2003-08-14 Kagle Jonathan C. Identifying unique broadcasts
US6766523B2 (en) 2002-05-31 2004-07-20 Microsoft Corporation System and method for identifying and segmenting repeating media objects embedded in a stream
US7461392B2 (en) * 2002-07-01 2008-12-02 Microsoft Corporation System and method for identifying and segmenting repeating media objects embedded in a stream
US8601504B2 (en) * 2002-06-20 2013-12-03 Verance Corporation Secure tracking system and method for video program content
AU2003280513A1 (en) * 2002-07-01 2004-01-19 Microsoft Corporation A system and method for providing user control over repeating objects embedded in a stream
US20040091111A1 (en) * 2002-07-16 2004-05-13 Levy Kenneth L. Digital watermarking and fingerprinting applications
US20040013405A1 (en) * 2002-07-18 2004-01-22 Christiansen Robert D Method for preparing/printing video scene indices
US8176508B2 (en) * 2002-08-02 2012-05-08 Time Warner Cable Method and apparatus to provide verification of data using a fingerprint
SE524162C2 (sv) * 2002-08-23 2004-07-06 Rickard Berg Förfarande för att behandla signaler
US20060129822A1 (en) * 2002-08-26 2006-06-15 Koninklijke Philips Electronics, N.V. Method of content identification, device, and software
EP1403783A3 (de) * 2002-09-24 2005-01-19 Matsushita Electric Industrial Co., Ltd. Merkmalsextraktion von einem Audiosignal
US7222071B2 (en) 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
US9711153B2 (en) * 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
FR2845179B1 (fr) * 2002-09-27 2004-11-05 Thomson Licensing Sa Procede de regroupement d'images d'une sequence video
US20040062520A1 (en) * 2002-09-27 2004-04-01 Koninklijke Philips Electronics N.V. Enhanced commercial detection through fusion of video and audio signatures
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
ATE426297T1 (de) * 2002-09-30 2009-04-15 Gracenote Inc Fingerabdruckextraktion
EP1552454B1 (de) 2002-10-15 2014-07-23 Verance Corporation Media-überwachung, verwaltung und informationssystem
WO2004038538A2 (en) 2002-10-23 2004-05-06 Nielsen Media Research, Inc. Digital data insertion apparatus and methods for use with compressed audio/video data
AU2003274545A1 (en) * 2002-11-12 2004-06-03 Koninklijke Philips Electronics N.V. Fingerprinting multimedia contents
JP4228662B2 (ja) * 2002-11-19 2009-02-25 日本電気株式会社 映像閲覧システムおよび方法
JP4218319B2 (ja) * 2002-11-19 2009-02-04 日本電気株式会社 映像閲覧システムおよび方法
US8204353B2 (en) 2002-11-27 2012-06-19 The Nielsen Company (Us), Llc Apparatus and methods for tracking and analyzing digital recording device event sequences
AU2003283783A1 (en) * 2002-12-20 2005-05-11 Koninklijke Philips Electronics N.V. Video content detection
US7483835B2 (en) * 2002-12-23 2009-01-27 Arbitron, Inc. AD detection using ID code and extracted signature
JP4662779B2 (ja) * 2003-01-06 2011-03-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 類似のビデオコンテンツへの乗り換えのための装置
US20040153647A1 (en) * 2003-01-31 2004-08-05 Rotholtz Ben Aaron Method and process for transmitting video content
US8332326B2 (en) 2003-02-01 2012-12-11 Audible Magic Corporation Method and apparatus to identify a work received by a processing system
WO2004073217A1 (en) 2003-02-10 2004-08-26 Nielsen Media Research, Inc. Methods and apparatus to adaptively gather audience information data
US7437640B2 (en) * 2003-02-13 2008-10-14 Janusz Rajski Fault diagnosis of compressed test responses having one or more unknown states
US7509550B2 (en) * 2003-02-13 2009-03-24 Janusz Rajski Fault diagnosis of compressed test responses
JP4791954B2 (ja) * 2003-02-13 2011-10-12 メンター・グラフィクス・コーポレーション コンパクタを使用する試験応答の圧縮
JP3901106B2 (ja) * 2003-02-19 2007-04-04 ソニー株式会社 受信装置およびその設定方法
US7738704B2 (en) * 2003-03-07 2010-06-15 Technology, Patents And Licensing, Inc. Detecting known video entities utilizing fingerprints
US20050149968A1 (en) * 2003-03-07 2005-07-07 Richard Konig Ending advertisement insertion
US20040237102A1 (en) * 2003-03-07 2004-11-25 Richard Konig Advertisement substitution
US7694318B2 (en) * 2003-03-07 2010-04-06 Technology, Patents & Licensing, Inc. Video detection and insertion
US7809154B2 (en) 2003-03-07 2010-10-05 Technology, Patents & Licensing, Inc. Video entity recognition in compressed digital video streams
US20050177847A1 (en) * 2003-03-07 2005-08-11 Richard Konig Determining channel associated with video stream
US7320009B1 (en) 2003-03-28 2008-01-15 Novell, Inc. Methods and systems for file replication utilizing differences between versions of files
US20040226035A1 (en) * 2003-05-05 2004-11-11 Hauser David L. Method and apparatus for detecting media content
US7590695B2 (en) 2003-05-09 2009-09-15 Aol Llc Managing electronic messages
US7509180B2 (en) * 2003-05-23 2009-03-24 Microsoft Corporation Extending digital rights management and authentication to audio speakers
US7289533B2 (en) * 2003-06-06 2007-10-30 Quake Global, Inc. Universal subscriber communicator module
US20040260682A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for identifying content and managing information corresponding to objects in a signal
CA2530012C (en) * 2003-06-20 2012-04-03 Nielsen Media Research, Inc. Signature-based program identification apparatus and methods for use with digital broadcast systems
US7739602B2 (en) 2003-06-24 2010-06-15 Aol Inc. System and method for community centric resource sharing based on a publishing subscription model
US7386047B2 (en) * 2003-08-19 2008-06-10 Radio Computing Services, Inc. Method for determining the likelihood of a match between source data and reference data
EP1668903A4 (de) 2003-09-12 2011-01-05 Nielsen Media Res Inc Vorrichtungen und verfahren für digital-video-signaturen zur verwendung mit video-programmidentifikationssystemen
JP3885786B2 (ja) * 2003-09-12 2007-02-28 ソニー株式会社 情報信号の処理装置および処理方法、並びにその処理方法を実行させるためのプログラム
WO2005032128A1 (en) * 2003-09-25 2005-04-07 Koninklijke Philips Electronics, N.V. Simple program guide
US20070039018A1 (en) * 2005-08-09 2007-02-15 Verance Corporation Apparatus, systems and methods for broadcast advertising stewardship
US9055239B2 (en) 2003-10-08 2015-06-09 Verance Corporation Signal continuity assessment using embedded watermarks
US7369677B2 (en) 2005-04-26 2008-05-06 Verance Corporation System reactions to the detection of embedded watermarks in a digital host content
US20060239501A1 (en) 2005-04-26 2006-10-26 Verance Corporation Security enhancements of digital watermarks for multi-media content
US7788696B2 (en) * 2003-10-15 2010-08-31 Microsoft Corporation Inferring information about media stream objects
WO2005041109A2 (en) * 2003-10-17 2005-05-06 Nielsen Media Research, Inc. Methods and apparatus for identifiying audio/video content using temporal signal characteristics
US20050108754A1 (en) * 2003-11-19 2005-05-19 Serenade Systems Personalized content application
US8239446B2 (en) * 2003-11-19 2012-08-07 Sony Computer Entertainment America Llc Content distribution architecture
AU2005215786A1 (en) 2004-02-17 2005-09-01 Nielsen Media Research, Inc. Et Al. Methods and apparatus for monitoring video games
US8229751B2 (en) * 2004-02-26 2012-07-24 Mediaguide, Inc. Method and apparatus for automatic detection and identification of unidentified Broadcast audio or video signals
CA2557198A1 (en) 2004-02-26 2005-09-09 Mediaguide, Inc. Method and apparatus for automatic detection and identification of broadcast audio or video programming signal
US20050193426A1 (en) * 2004-02-27 2005-09-01 Raja Neogi System and method to control fingerprint processing in a media network
US8738763B2 (en) 2004-03-26 2014-05-27 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US7483975B2 (en) * 2004-03-26 2009-01-27 Arbitron, Inc. Systems and methods for gathering data concerning usage of media data
US8688248B2 (en) * 2004-04-19 2014-04-01 Shazam Investments Limited Method and system for content sampling and identification
US7793319B2 (en) * 2004-04-27 2010-09-07 Gateway, Inc. System and method for improved channel surfing
US20050267750A1 (en) * 2004-05-27 2005-12-01 Anonymous Media, Llc Media usage monitoring and measurement system and method
US20150051967A1 (en) 2004-05-27 2015-02-19 Anonymous Media Research, Llc Media usage monitoring and measurment system and method
US20070179786A1 (en) * 2004-06-18 2007-08-02 Meiko Masaki Av content processing device, av content processing method, av content processing program, and integrated circuit used in av content processing device
WO2006014495A1 (en) * 2004-07-02 2006-02-09 Nielsen Media Research, Inc. Methods and apparatus for identifying viewing information associated with a digital media device
US8130746B2 (en) * 2004-07-28 2012-03-06 Audible Magic Corporation System for distributing decoy content in a peer to peer network
US9779750B2 (en) * 2004-07-30 2017-10-03 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US9704502B2 (en) * 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US8977250B2 (en) * 2004-08-27 2015-03-10 The Invention Science Fund I, Llc Context-aware filter for participants in persistent communication
US8521828B2 (en) * 2004-07-30 2013-08-27 The Invention Science Fund I, Llc Themes indicative of participants in persistent communication
US20080092031A1 (en) * 2004-07-30 2008-04-17 Steven John Simske Rich media printer
US20060212149A1 (en) * 2004-08-13 2006-09-21 Hicken Wendell T Distributed system and method for intelligent data analysis
WO2006023770A2 (en) * 2004-08-18 2006-03-02 Nielsen Media Research, Inc. Methods and apparatus for generating signatures
US7386542B2 (en) * 2004-08-30 2008-06-10 The Mitre Corporation Personalized broadcast news navigator
US7826708B2 (en) * 2004-11-02 2010-11-02 Microsoft Corporation System and method for automatically customizing a buffered media stream
EP1829368B1 (de) * 2004-11-22 2019-09-11 Nielsen Media Research, Inc. Verfahren und vorrichtungen für medienquellen-identifikation und zeitlich verschobene medienverbrauchsmessungen
US20060155754A1 (en) * 2004-12-08 2006-07-13 Steven Lubin Playlist driven automated content transmission and delivery system
US7567899B2 (en) * 2004-12-30 2009-07-28 All Media Guide, Llc Methods and apparatus for audio recognition
US20060167458A1 (en) * 2005-01-25 2006-07-27 Lorenz Gabele Lock and release mechanism for a sternal clamp
GB0502844D0 (en) 2005-02-11 2005-03-16 Univ Edinburgh Storing digital content for access using a captured image
US20060195860A1 (en) * 2005-02-25 2006-08-31 Eldering Charles A Acting on known video entities detected utilizing fingerprinting
GB2423881B (en) * 2005-03-01 2011-03-09 Half Minute Media Ltd Detecting known video entities taking into account regions of disinterest
GB2423882A (en) * 2005-03-01 2006-09-06 Half Minute Media Ltd Acting on known video entities detected utilizing fingerprinting
EP1869574A4 (de) * 2005-03-04 2009-11-11 Resonance Media Services Inc Durchsucher zum erstellen von musikstücklisten
US20060242667A1 (en) * 2005-04-22 2006-10-26 Petersen Erin L Ad monitoring and indication
US7690011B2 (en) * 2005-05-02 2010-03-30 Technology, Patents & Licensing, Inc. Video stream modification to defeat detection
US7613736B2 (en) * 2005-05-23 2009-11-03 Resonance Media Services, Inc. Sharing music essence in a recommendation system
US20060271947A1 (en) * 2005-05-23 2006-11-30 Lienhart Rainer W Creating fingerprints
US8020004B2 (en) 2005-07-01 2011-09-13 Verance Corporation Forensic marking using a common customization function
US8781967B2 (en) 2005-07-07 2014-07-15 Verance Corporation Watermarking in an encrypted domain
US8577684B2 (en) * 2005-07-13 2013-11-05 Intellisist, Inc. Selective security masking within recorded speech utilizing speech recognition techniques
US8024799B2 (en) * 2005-08-19 2011-09-20 Cpacket Networks, Inc. Apparatus and method for facilitating network security with granular traffic modifications
US20070106405A1 (en) * 2005-08-19 2007-05-10 Gracenote, Inc. Method and system to provide reference data for identification of digital content
US7890991B2 (en) 2005-08-19 2011-02-15 Cpacket Networks, Inc. Apparatus and method for providing security and monitoring in a networking architecture
US8346918B2 (en) * 2005-08-19 2013-01-01 Cpacket Networks, Inc. Apparatus and method for biased and weighted sampling of network traffic to facilitate network monitoring
US8296846B2 (en) * 2005-08-19 2012-10-23 Cpacket Networks, Inc. Apparatus and method for associating categorization information with network traffic to facilitate application level processing
US7937756B2 (en) * 2005-08-19 2011-05-03 Cpacket Networks, Inc. Apparatus and method for facilitating network security
US8665868B2 (en) * 2005-08-19 2014-03-04 Cpacket Networks, Inc. Apparatus and method for enhancing forwarding and classification of network traffic with prioritized matching and categorization
US7882554B2 (en) * 2005-08-19 2011-02-01 Cpacket Networks, Inc. Apparatus and method for selective mirroring
US7698008B2 (en) * 2005-09-08 2010-04-13 Apple Inc. Content-based audio comparisons
US8594429B2 (en) * 2005-10-11 2013-11-26 Hewlett-Packard Development Company, L.P. Method and apparatus for processing a video stream
WO2007056624A2 (en) 2005-10-21 2007-05-18 Nielsen Media Research, Inc. Methods and apparatus for metering portable media players
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US10607355B2 (en) * 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
AU2006320692A1 (en) * 2005-11-29 2007-06-07 Google Inc. Detecting repeating content in broadcast media
US9015740B2 (en) 2005-12-12 2015-04-21 The Nielsen Company (Us), Llc Systems and methods to wirelessly meter audio/visual devices
CN101371472B (zh) * 2005-12-12 2017-04-19 尼尔逊媒介研究股份有限公司 对声音/视觉装置进行无线计量的系统和方法
KR101488317B1 (ko) * 2005-12-20 2015-02-04 아비트론 인코포레이티드 리서치 작업을 수행하는 방법 및 시스템
US7627878B2 (en) * 2005-12-23 2009-12-01 Eloda Inc. Method and System for automated auditing of advertising
US20070149114A1 (en) * 2005-12-28 2007-06-28 Andrey Danilenko Capture, storage and retrieval of broadcast information while on-the-go
US20090006337A1 (en) * 2005-12-30 2009-01-01 Mediaguide, Inc. Method and apparatus for automatic detection and identification of unidentified video signals
PT1826932E (pt) 2006-02-22 2011-10-03 Media Evolution Technologies Inc Método e dispositivo para a geração de assinaturas áudio digitais
EP2011002B1 (de) 2006-03-27 2016-06-22 Nielsen Media Research, Inc. Verfahren und systeme zur messung von auf einer drahtlosen kommunikationsvorrichtung dargestellten medieninhalten
US7735101B2 (en) 2006-03-28 2010-06-08 Cisco Technology, Inc. System allowing users to embed comments at specific points in time into media presentation
MX2007015979A (es) * 2006-03-31 2009-04-07 Nielsen Media Res Inc Metodos, sistemas y aparato para medicion de multiples fines.
US20080036917A1 (en) * 2006-04-07 2008-02-14 Mark Pascarella Methods and systems for generating and delivering navigatable composite videos
US8151291B2 (en) 2006-06-15 2012-04-03 The Nielsen Company (Us), Llc Methods and apparatus to meter content exposure using closed caption information
JP2009542081A (ja) * 2006-06-20 2009-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ信号のフィンガープリントの生成
US8019162B2 (en) * 2006-06-20 2011-09-13 The Nielsen Company (Us), Llc Methods and apparatus for detecting on-screen media sources
US8433915B2 (en) * 2006-06-28 2013-04-30 Intellisist, Inc. Selective security masking within recorded speech
US20080091451A1 (en) 2006-07-12 2008-04-17 Crystal Jack C Methods and systems for compliance confirmation and incentives
DE102006032543A1 (de) * 2006-07-13 2008-01-17 Nokia Siemens Networks Gmbh & Co.Kg Verfahren und System zur Reduzierung des Empfangs unerwünschter Nachrichten
US7881547B2 (en) * 2006-07-28 2011-02-01 Genesis Microchip Inc. Video window detector
US8745684B1 (en) 2006-08-08 2014-06-03 CastTV Inc. Facilitating video search
US9398350B1 (en) 2006-08-08 2016-07-19 CastTV Inc. Video matching service to offline counterpart
WO2008021459A2 (en) * 2006-08-17 2008-02-21 Anchorfree, Inc. Software web crawlwer and method thereof
US20080051029A1 (en) * 2006-08-25 2008-02-28 Bradley James Witteman Phone-based broadcast audio identification
WO2008066930A2 (en) 2006-11-30 2008-06-05 Dolby Laboratories Licensing Corporation Extracting features of video & audio signal content to provide reliable identification of the signals
US20080155627A1 (en) * 2006-12-04 2008-06-26 O'connor Daniel Systems and methods of searching for and presenting video and audio
US20080147497A1 (en) * 2006-12-13 2008-06-19 Tischer Steven N Advertising and content management systems and methods
US10885543B1 (en) 2006-12-29 2021-01-05 The Nielsen Company (Us), Llc Systems and methods to pre-scale media content to facilitate audience measurement
CA3063376C (en) * 2007-01-25 2022-03-29 Arbitron Inc. Research data gathering
US8453170B2 (en) * 2007-02-27 2013-05-28 Landmark Digital Services Llc System and method for monitoring and recognizing broadcast data
US8645987B2 (en) * 2007-04-13 2014-02-04 Power-Link Software Systems, Inc. Advertisement airing audit system and associated methods
US10489795B2 (en) * 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US20080274687A1 (en) 2007-05-02 2008-11-06 Roberts Dale T Dynamic mixed media package
US7912894B2 (en) * 2007-05-15 2011-03-22 Adams Phillip M Computerized, copy-detection and discrimination apparatus and method
US8849432B2 (en) * 2007-05-31 2014-09-30 Adobe Systems Incorporated Acoustic pattern identification using spectral characteristics to synchronize audio and/or video
JP2008306549A (ja) * 2007-06-08 2008-12-18 Canon Inc 無線制御局、及び無線端末局の制御方法、当該制御方法をコンピュータに実行させるためのコンピュータプログラム
US8559516B2 (en) * 2007-06-14 2013-10-15 Sony Corporation Video sequence ID by decimated scene signature
US8006314B2 (en) 2007-07-27 2011-08-23 Audible Magic Corporation System for identifying content of digital data
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
EP2073460A1 (de) * 2007-12-17 2009-06-24 Alcatel Lucent Verfahren zum Weiterleiten von Paketen, entsprechendes Paketweiterleitungssystem, entsprechende Klassifizierungsvorrichtung und entsprechende Beliebtheitsbeobachtungsvorrichtung
US20090165049A1 (en) 2007-12-19 2009-06-25 United Video Properties, Inc. Methods and devices for presenting and interactive media guidance application
US8285718B1 (en) * 2007-12-21 2012-10-09 CastTV Inc. Clustering multimedia search
US8930003B2 (en) 2007-12-31 2015-01-06 The Nielsen Company (Us), Llc Data capture bridge
EP2442465A3 (de) 2007-12-31 2013-05-29 Arbitron Inc. Erfassen von Umfragedaten
US20090254933A1 (en) * 2008-03-27 2009-10-08 Vishwa Nath Gupta Media detection using acoustic recognition
US8503991B2 (en) * 2008-04-03 2013-08-06 The Nielsen Company (Us), Llc Methods and apparatus to monitor mobile devices
US8245262B2 (en) * 2008-04-07 2012-08-14 Samsung Electronics Co., Ltd. System and method for synchronization of television signals associated with multiple broadcast networks
US8805689B2 (en) 2008-04-11 2014-08-12 The Nielsen Company (Us), Llc Methods and apparatus to generate and use content-aware watermarks
US8947207B2 (en) 2008-04-29 2015-02-03 Quake Global, Inc. Method and apparatus for a deployable radio-frequency identification portal system
US8259938B2 (en) 2008-06-24 2012-09-04 Verance Corporation Efficient and secure forensic marking in compressed
US8428301B2 (en) 2008-08-22 2013-04-23 Dolby Laboratories Licensing Corporation Content identification and quality monitoring
CN102132341B (zh) * 2008-08-26 2014-11-26 杜比实验室特许公司 鲁棒的媒体指纹
US7730061B2 (en) * 2008-09-12 2010-06-01 International Business Machines Corporation Fast-approximate TFIDF
US8108887B2 (en) 2008-10-30 2012-01-31 The Nielsen Company (Us), Llc Methods and apparatus for identifying media content using temporal signal characteristics
US9124769B2 (en) 2008-10-31 2015-09-01 The Nielsen Company (Us), Llc Methods and apparatus to verify presentation of media content
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US9390167B2 (en) 2010-07-29 2016-07-12 Soundhound, Inc. System and methods for continuous audio matching
NO331287B1 (no) * 2008-12-15 2011-11-14 Cisco Systems Int Sarl Fremgangsmate og anordning for gjenkjenning av ansikter i en videostrom
CN102292745B (zh) * 2009-01-23 2015-08-12 日本电气株式会社 图像签名提取设备
US8170341B2 (en) 2009-01-23 2012-05-01 Nec Corporation Image signature extraction device
US20110066437A1 (en) * 2009-01-26 2011-03-17 Robert Luff Methods and apparatus to monitor media exposure using content-aware watermarks
JP4766197B2 (ja) 2009-01-29 2011-09-07 日本電気株式会社 特徴量選択装置
EP2406903A4 (de) 2009-03-11 2013-01-16 Ravosh Samari Digitale signaturen
KR101411127B1 (ko) 2009-03-13 2014-06-25 닛본 덴끼 가부시끼가이샤 화상 식별자 추출 장치
EP2407931B1 (de) 2009-03-13 2019-10-30 Nec Corporation Vorrichtung zur extraktion von bildidentifikatoren
EP2360639B1 (de) * 2009-03-13 2016-11-16 Nec Corporation Bildkennungs-vergleichseinrichtung
US8199651B1 (en) 2009-03-16 2012-06-12 Audible Magic Corporation Method and system for modifying communication flows at a port level
WO2010119657A1 (ja) * 2009-04-14 2010-10-21 日本電気株式会社 画像識別子抽出装置
US8769584B2 (en) * 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US10116972B2 (en) 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US10375451B2 (en) 2009-05-29 2019-08-06 Inscape Data, Inc. Detection of common media segments
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US9055335B2 (en) * 2009-05-29 2015-06-09 Cognitive Networks, Inc. Systems and methods for addressing a media database using distance associative hashing
US8620967B2 (en) * 2009-06-11 2013-12-31 Rovi Technologies Corporation Managing metadata for occurrences of a recording
KR101355258B1 (ko) 2009-06-16 2014-01-27 닛본 덴끼 가부시끼가이샤 이미지 시그니처 매칭 장치
US20110041154A1 (en) * 2009-08-14 2011-02-17 All Media Guide, Llc Content Recognition and Synchronization on a Television or Consumer Electronics Device
US10097880B2 (en) * 2009-09-14 2018-10-09 Tivo Solutions Inc. Multifunction multimedia device
US8677400B2 (en) * 2009-09-30 2014-03-18 United Video Properties, Inc. Systems and methods for identifying audio content using an interactive media guidance application
US20110078020A1 (en) * 2009-09-30 2011-03-31 Lajoie Dan Systems and methods for identifying popular audio assets
US8161071B2 (en) 2009-09-30 2012-04-17 United Video Properties, Inc. Systems and methods for audio asset storage and management
US8245249B2 (en) * 2009-10-09 2012-08-14 The Nielson Company (Us), Llc Methods and apparatus to adjust signature matching results for audience measurement
JP4786739B2 (ja) * 2009-10-21 2011-10-05 株式会社東芝 情報処理装置および映像コンテンツデータ再生方法
US20110137976A1 (en) * 2009-12-04 2011-06-09 Bob Poniatowski Multifunction Multimedia Device
US8682145B2 (en) 2009-12-04 2014-03-25 Tivo Inc. Recording system based on multimedia content fingerprints
US20110173185A1 (en) * 2010-01-13 2011-07-14 Rovi Technologies Corporation Multi-stage lookup for rolling audio recognition
US8886531B2 (en) * 2010-01-13 2014-11-11 Rovi Technologies Corporation Apparatus and method for generating an audio fingerprint and using a two-stage query
US9134875B2 (en) 2010-03-23 2015-09-15 VoteBlast, Inc. Enhancing public opinion gathering and dissemination
US8732605B1 (en) 2010-03-23 2014-05-20 VoteBlast, Inc. Various methods and apparatuses for enhancing public opinion gathering and dissemination
US20110276882A1 (en) 2010-05-04 2011-11-10 Kai Buehler Automatic grouping for users experiencing a specific broadcast media
KR101582436B1 (ko) * 2010-05-04 2016-01-04 샤잠 엔터테인먼트 리미티드 미디어의 동기화 방법 및 시스템
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US10192138B2 (en) 2010-05-27 2019-01-29 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
US9838753B2 (en) 2013-12-23 2017-12-05 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9047371B2 (en) 2010-07-29 2015-06-02 Soundhound, Inc. System and method for matching a query against a broadcast stream
US10210160B2 (en) 2010-09-07 2019-02-19 Opentv, Inc. Collecting data from different sources
US9699503B2 (en) 2010-09-07 2017-07-04 Opentv, Inc. Smart playlist
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US9607131B2 (en) 2010-09-16 2017-03-28 Verance Corporation Secure and efficient content screening in a networked environment
US20120084435A1 (en) * 2010-10-04 2012-04-05 International Business Machines Corporation Smart Real-time Content Delivery
US10142687B2 (en) 2010-11-07 2018-11-27 Symphony Advanced Media, Inc. Audience content exposure monitoring apparatuses, methods and systems
US8955001B2 (en) 2011-07-06 2015-02-10 Symphony Advanced Media Mobile remote media control platform apparatuses and methods
US9027051B2 (en) 2010-12-31 2015-05-05 Accenture Global Services Limited Determining whether an advertisement aired in accordance with predefined airing specifications
EP2674911B1 (de) * 2011-02-10 2021-03-03 Nec Corporation System zur erkennung von unterschiedlichen regionen und verfahren zur erkennung von unterschiedlichen regionen
WO2012131653A2 (en) * 2011-03-31 2012-10-04 Tvtak Ltd Devices, systems, methods, and media for detecting, indexing, and comparing video signals from a video display in a background scene using a camera-enabled device
US9858339B2 (en) * 2011-04-05 2018-01-02 Yamaha Corporation Information providing system, identification information resolution server and mobile terminal device
US9035163B1 (en) 2011-05-10 2015-05-19 Soundbound, Inc. System and method for targeting content based on identified audio and multimedia
US8732739B2 (en) 2011-07-18 2014-05-20 Viggle Inc. System and method for tracking and rewarding media and entertainment usage including substantially real time rewards
US8861937B2 (en) 2011-08-31 2014-10-14 The Nielsen Company (Us), Llc Methods and apparatus to access media
US20130097007A1 (en) * 2011-10-12 2013-04-18 Joseph Brewer Media posting system and method
US9973398B1 (en) 2011-10-31 2018-05-15 Reality Analytics, Inc. System and method for discriminating remote site origination of communication signals transmitted through a network based on envelope characteristics
US9813310B1 (en) 2011-10-31 2017-11-07 Reality Analytics, Inc. System and method for discriminating nature of communication traffic transmitted through network based on envelope characteristics
US8533481B2 (en) 2011-11-03 2013-09-10 Verance Corporation Extraction of embedded watermarks from a host content based on extrapolation techniques
US8615104B2 (en) 2011-11-03 2013-12-24 Verance Corporation Watermark extraction based on tentative watermarks
US8682026B2 (en) 2011-11-03 2014-03-25 Verance Corporation Efficient extraction of embedded watermarks in the presence of host content distortions
US8923548B2 (en) 2011-11-03 2014-12-30 Verance Corporation Extraction of embedded watermarks from a host content using a plurality of tentative watermarks
US8745403B2 (en) 2011-11-23 2014-06-03 Verance Corporation Enhanced content management based on watermark extraction records
US9696336B2 (en) 2011-11-30 2017-07-04 The Nielsen Company (Us), Llc Multiple meter detection and processing using motion data
US9547753B2 (en) 2011-12-13 2017-01-17 Verance Corporation Coordinated watermarking
US9323902B2 (en) 2011-12-13 2016-04-26 Verance Corporation Conditional access using embedded watermarks
US8538333B2 (en) 2011-12-16 2013-09-17 Arbitron Inc. Media exposure linking utilizing bluetooth signal characteristics
US8977194B2 (en) 2011-12-16 2015-03-10 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US20130262184A1 (en) * 2012-03-30 2013-10-03 Arbitron Inc. Systems and Methods for Presence Detection and Linking to Media Exposure Data
WO2013184520A1 (en) 2012-06-04 2013-12-12 Stone Troy Christopher Methods and systems for identifying content types
US9628829B2 (en) 2012-06-26 2017-04-18 Google Technology Holdings LLC Identifying media on a mobile device
US9118951B2 (en) 2012-06-26 2015-08-25 Arris Technology, Inc. Time-synchronizing a parallel feed of secondary content with primary media content
US10957310B1 (en) 2012-07-23 2021-03-23 Soundhound, Inc. Integrated programming framework for speech and text understanding with meaning parsing
US8989503B2 (en) * 2012-08-03 2015-03-24 Kodak Alaris Inc. Identifying scene boundaries using group sparsity analysis
US9282366B2 (en) 2012-08-13 2016-03-08 The Nielsen Company (Us), Llc Methods and apparatus to communicate audience measurement information
US9571606B2 (en) 2012-08-31 2017-02-14 Verance Corporation Social media viewing system
US9058806B2 (en) 2012-09-10 2015-06-16 Cisco Technology, Inc. Speaker segmentation and recognition based on list of speakers
US9106964B2 (en) 2012-09-13 2015-08-11 Verance Corporation Enhanced content distribution using advertisements
US8726304B2 (en) 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
US8869222B2 (en) 2012-09-13 2014-10-21 Verance Corporation Second screen content
US9081778B2 (en) 2012-09-25 2015-07-14 Audible Magic Corporation Using digital fingerprints to associate data with a work
US9992729B2 (en) 2012-10-22 2018-06-05 The Nielsen Company (Us), Llc Systems and methods for wirelessly modifying detection characteristics of portable devices
US9106953B2 (en) 2012-11-28 2015-08-11 The Nielsen Company (Us), Llc Media monitoring based on predictive signature caching
CA2875354C (en) 2012-11-30 2018-04-10 The Nielsen Company (Us), Llc Multiple meter detection and processing using motion data
US8886011B2 (en) 2012-12-07 2014-11-11 Cisco Technology, Inc. System and method for question detection based video segmentation, search and collaboration in a video processing environment
US9183849B2 (en) 2012-12-21 2015-11-10 The Nielsen Company (Us), Llc Audio matching with semantic audio recognition and report generation
US9195649B2 (en) 2012-12-21 2015-11-24 The Nielsen Company (Us), Llc Audio processing techniques for semantic audio recognition and report generation
US9158760B2 (en) 2012-12-21 2015-10-13 The Nielsen Company (Us), Llc Audio decoding with supplemental semantic audio recognition and report generation
US20140187268A1 (en) * 2012-12-28 2014-07-03 Arbitron Inc. Apparatus, System and Method for Location Detection and User Identification for Media Exposure Data
US9841492B2 (en) 2013-02-25 2017-12-12 Quake Global, Inc. Ceiling-mounted RFID-enabled tracking
MX359877B (es) 2013-02-26 2018-10-15 Quake Global Inc Metodos y aparatos para brazaletes de identificacion automatica.
US9819798B2 (en) 2013-03-14 2017-11-14 Intellisist, Inc. Computer-implemented system and method for efficiently facilitating appointments within a call center via an automatic call distributor
US9262793B2 (en) 2013-03-14 2016-02-16 Verance Corporation Transactional video marking system
US9325381B2 (en) 2013-03-15 2016-04-26 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor mobile devices
US9251549B2 (en) 2013-07-23 2016-02-02 Verance Corporation Watermark extractor enhancements based on payload ranking
US9208334B2 (en) 2013-10-25 2015-12-08 Verance Corporation Content management using multiple abstraction layers
US9300991B2 (en) 2013-11-13 2016-03-29 International Business Machines Corporation Use of simultaneously received videos by a system to generate a quality of experience value
US9507849B2 (en) 2013-11-28 2016-11-29 Soundhound, Inc. Method for combining a query and a communication command in a natural language computer system
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9292488B2 (en) 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system
US11295730B1 (en) 2014-02-27 2022-04-05 Soundhound, Inc. Using phonetic variants in a local context to improve natural language understanding
EP3117626A4 (de) 2014-03-13 2017-10-25 Verance Corporation Erfassung von interaktivem inhalt mittels eingebetteter codes
US9699499B2 (en) 2014-04-30 2017-07-04 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9564123B1 (en) 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
US9179184B1 (en) * 2014-06-20 2015-11-03 Google Inc. Methods, systems, and media for detecting a presentation of media content on a display device
US9641892B2 (en) * 2014-07-15 2017-05-02 The Nielsen Company (Us), Llc Frequency band selection and processing techniques for media source detection
US9369780B2 (en) * 2014-07-31 2016-06-14 Verizon Patent And Licensing Inc. Methods and systems for detecting one or more advertisement breaks in a media content stream
US9729912B2 (en) * 2014-09-22 2017-08-08 Sony Corporation Method, computer program, electronic device, and system
CN108337925B (zh) 2015-01-30 2024-02-27 构造数据有限责任公司 用于识别视频片段以及显示从替代源和/或在替代设备上观看的选项的方法
CA2982797C (en) 2015-04-17 2023-03-14 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
WO2016172363A1 (en) 2015-04-24 2016-10-27 Cyber Resonance Corporation Methods and systems for performing signal analysis to identify content types
KR20180030885A (ko) 2015-07-16 2018-03-26 인스케이프 데이터, 인코포레이티드 미디어 세그먼트를 식별함에 있어 향상된 효율성을 위해 검색 인덱스를 나누는 시스템 및 방법
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
CN108293140B (zh) 2015-07-16 2020-10-02 构造数据有限责任公司 公共媒体段的检测
WO2017011792A1 (en) 2015-07-16 2017-01-19 Vizio Inscape Technologies, Llc Prediction of future views of video segments to optimize system resource utilization
US10271107B2 (en) 2015-11-26 2019-04-23 The Nielsen Company (Us), Llc Accelerated television advertisement identification
WO2017105641A1 (en) 2015-12-15 2017-06-22 Cortica, Ltd. Identification of key points in multimedia data elements
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
DE102016204055B4 (de) * 2016-03-11 2019-04-04 Universität Ulm Verfahren und Vorrichtung zur Erzeugung einer digitalen Signatur
US10754978B2 (en) 2016-07-29 2020-08-25 Intellisist Inc. Computer-implemented system and method for storing and retrieving sensitive information
BR112019019430A2 (pt) 2017-04-06 2020-04-14 Inscape Data Inc sistema, método e produto de programa de computador
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
WO2019012527A1 (en) 2017-07-09 2019-01-17 Cortica Ltd. ORGANIZATION OF DEPTH LEARNING NETWORKS
FR3072807B1 (fr) 2017-10-23 2021-05-07 Hl2 Group Procede et equipement de reconnaissance de detonation par filtrage selectif
US10891971B2 (en) 2018-06-04 2021-01-12 The Nielsen Company (Us), Llc Methods and apparatus to dynamically generate audio signatures adaptive to circumstances associated with media being monitored
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10931390B2 (en) 2018-08-03 2021-02-23 Gracenote, Inc. Vehicle-based media system with audio ad and visual content synchronization feature
US11275933B2 (en) 2018-08-24 2022-03-15 Genpact Luxembourg S.Á R.L Systems and methods for segmentation of report corpus using visual signatures
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
WO2021072558A1 (en) * 2019-10-17 2021-04-22 D-Box Technologies Inc. Method and system for synchronizing a viewer-effect signal of a media content with a media signal of the media content
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2766374A (en) * 1951-07-25 1956-10-09 Internat Telementer Corp System and apparatus for determining popularity ratings of different transmitted programs
US3919479A (en) * 1972-09-21 1975-11-11 First National Bank Of Boston Broadcast signal identification system
US4025851A (en) * 1975-11-28 1977-05-24 A.C. Nielsen Company Automatic monitor for programs broadcast
US4230990C1 (en) * 1979-03-16 2002-04-09 John G Lert Jr Broadcast program identification method and system
JPS58175157A (ja) * 1982-04-06 1983-10-14 Mitsubishi Electric Corp 音声始端検出装置
US4450531A (en) * 1982-09-10 1984-05-22 Ensco, Inc. Broadcast signal recognition system and method
US4547804A (en) * 1983-03-21 1985-10-15 Greenberg Burton L Method and apparatus for the automatic identification and verification of commercial broadcast programs
US4967273A (en) * 1983-03-21 1990-10-30 Vidcode, Inc. Television program transmission verification method and apparatus
DE3318919C2 (de) * 1983-05-25 1985-03-21 TeleMetric S.A., Internationale Gesellschaft für Fernsehzuschauerforschung, Zug Verfahren und Vorrichtung zum Erfassen von Daten über das Fernseheinschaltverhalten von Fernsehzuschauern
JPS6085753U (ja) * 1983-11-18 1985-06-13 日本ビクター株式会社 磁気テ−プ記録再生装置
FR2559002B1 (fr) * 1984-01-27 1986-09-05 Gam Steffen Procede et dispositif de detection d'une information audiovisuelle diffusee par un emetteur
JPS60224341A (ja) * 1984-04-20 1985-11-08 Nippon Telegr & Teleph Corp <Ntt> 音声符号化方法
US4697209A (en) * 1984-04-26 1987-09-29 A. C. Nielsen Company Methods and apparatus for automatically identifying programs viewed or recorded
JPS6136797A (ja) * 1984-07-30 1986-02-21 松下電器産業株式会社 音声セグメンテ−シヨン法
US4677466A (en) * 1985-07-29 1987-06-30 A. C. Nielsen Company Broadcast program identification method and apparatus
US4697207A (en) * 1985-09-30 1987-09-29 Ampex Corporation System for generating a synchronizing signal in response to two timing reference signals
US4739398A (en) * 1986-05-02 1988-04-19 Control Data Corporation Method, apparatus and system for recognizing broadcast segments
US4718106A (en) * 1986-05-12 1988-01-05 Weinblatt Lee S Survey of radio audience
JPS6356091A (ja) * 1986-08-26 1988-03-10 Video Res:Kk テレビ・コマーシャル放送確認方法
JPS6384396A (ja) * 1986-09-29 1988-04-14 Video Res:Kk 視聴率測定用テレビ・センサ
US4750034A (en) * 1987-01-21 1988-06-07 Cloeck En Moedigh Bioscoopreclame B.V. Apparatus for monitoring the replay of audio/video information carriers
US4843562A (en) * 1987-06-24 1989-06-27 Broadcast Data Systems Limited Partnership Broadcast information classification system and method
DE3720882A1 (de) * 1987-06-24 1989-01-05 Media Control Musik Medien Verfahren und schaltungsanordnung zum automatischen wiedererkennen von signalfolgen
JP2585041B2 (ja) * 1988-01-08 1997-02-26 株式会社ビデオ・リサーチ テレビ放送同一性判別方式
US4931871A (en) * 1988-06-14 1990-06-05 Kramer Robert A Method of and system for identification and verification of broadcasted program segments
US4945412A (en) * 1988-06-14 1990-07-31 Kramer Robert A Method of and system for identification and verification of broadcasting television and radio program segments
US4955070A (en) * 1988-06-29 1990-09-04 Viewfacts, Inc. Apparatus and method for automatically monitoring broadcast band listening habits
US5023929A (en) * 1988-09-15 1991-06-11 Npd Research, Inc. Audio frequency based market survey method
US5019899A (en) * 1988-11-01 1991-05-28 Control Data Corporation Electronic data encoding and recognition system
US4857999A (en) * 1988-12-20 1989-08-15 Peac Media Research, Inc. Video monitoring system
JPH03173291A (ja) * 1989-11-15 1991-07-26 Control Data Corp <Cdc> ビデオ信号もしくはtv送信フレームからデジタルサインを生成する方法及び放送ビデオセグメントの連続パターン認識装置
JPH0666738B2 (ja) * 1990-04-06 1994-08-24 株式会社ビデオ・リサーチ Cm自動確認装置
JPH04355800A (ja) * 1991-06-04 1992-12-09 Sharp Corp 音声認識装置
US5436653A (en) * 1992-04-30 1995-07-25 The Arbitron Company Method and system for recognition of broadcast segments

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8457972B2 (en) 2007-02-20 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for characterizing media
US8364491B2 (en) 2007-02-20 2013-01-29 The Nielsen Company (Us), Llc Methods and apparatus for characterizing media
US8060372B2 (en) 2007-02-20 2011-11-15 The Nielsen Company (Us), Llc Methods and appratus for characterizing media
US9136965B2 (en) 2007-05-02 2015-09-15 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US8458737B2 (en) 2007-05-02 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US10580421B2 (en) 2007-11-12 2020-03-03 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9460730B2 (en) 2007-11-12 2016-10-04 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9972332B2 (en) 2007-11-12 2018-05-15 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8369972B2 (en) 2007-11-12 2013-02-05 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US10964333B2 (en) 2007-11-12 2021-03-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US11562752B2 (en) 2007-11-12 2023-01-24 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8457951B2 (en) 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
US9947327B2 (en) 2008-01-29 2018-04-17 The Nielsen Company (Us), Llc Methods and apparatus for performing variable block length watermarking of media
US10741190B2 (en) 2008-01-29 2020-08-11 The Nielsen Company (Us), Llc Methods and apparatus for performing variable block length watermarking of media
US11557304B2 (en) 2008-01-29 2023-01-17 The Nielsen Company (Us), Llc Methods and apparatus for performing variable block length watermarking of media
US8600531B2 (en) 2008-03-05 2013-12-03 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US9326044B2 (en) 2008-03-05 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus for generating signatures
US11961527B2 (en) 2023-01-20 2024-04-16 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction

Also Published As

Publication number Publication date
EP1261155B1 (de) 2007-03-28
AU3427297A (en) 1997-11-06
US5621454A (en) 1997-04-15
DE69334130D1 (de) 2007-05-10
US5436653A (en) 1995-07-25
DK1261155T3 (da) 2007-08-06
US5504518A (en) 1996-04-02
AU747044C (en) 2004-05-06
AU747044B2 (en) 2002-05-09
AU4226093A (en) 1993-11-29
ATE232036T1 (de) 2003-02-15
US5572246A (en) 1996-11-05
AU718227B2 (en) 2000-04-13
DE69332671D1 (de) 2003-03-06
ATE358366T1 (de) 2007-04-15
EP0748563B1 (de) 2003-01-29
AU4716100A (en) 2000-09-14
CA2134748A1 (en) 1993-11-11
CA2134748C (en) 2005-07-26
EP1261155A3 (de) 2003-09-10
HK1051938A1 (en) 2003-08-22
ES2284777T3 (es) 2007-11-16
AU678163B2 (en) 1997-05-22
CA2504552C (en) 2009-01-20
CA2504552A1 (en) 1993-11-11
EP0748563A4 (de) 1996-12-27
WO1993022875A1 (en) 1993-11-11
US5612729A (en) 1997-03-18
EP1261155A2 (de) 2002-11-27
PT1261155E (pt) 2007-07-03
EP0748563A1 (de) 1996-12-18
JPH08500471A (ja) 1996-01-16

Similar Documents

Publication Publication Date Title
DE69334130T2 (de) Verfahren und System für die Erfassung von Audiorundfunkabschnitten
EP0895387A1 (de) Erkennung des Übertragungsmodus eines DVB-Signales
DE69435093T2 (de) Zuschauerermittlungssystem
DE69728383T2 (de) Verfahren und Apparat für Zeitsynchronisierung in einem Empfänger für ein Mehrträgersignal
DE60302651T2 (de) Schnelles hash-basiertes metadatenretrieval für multimediaobjekte
DE69838401T2 (de) Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen
DE2800898A1 (de) Mit gedehntem frequenzspektrum arbeitendes nachrichtenuebertragungssystem
DE10112773A1 (de) Verfahren zur Frequenz- und Zeit-Synchronisation eines OFDM-Empfängers
DE3220073C1 (de) Verfahren zur Feststellung,Erfassung und Unterscheidung von innerhalb eines bestimmten Frequenzbereichs unabhaengig voneinander auftretenden Funksendungen
DE69723741T2 (de) Messverfahren für optische Aufzeichnungsverfahren
DE60007930T2 (de) Verfahren und vorrichtung zur synchronisation eines kommunikationsempfängers
CA2628654C (en) Method and system for updating a broadcast segment recognition database
DE4102919C2 (de) Verfahren zum Auswählen einer Empfangsfrequenz in einem RDS-Empfänger
EP1113599A2 (de) Empfänger für analog und digital übertragene Rundfunkprogramme, der umschaltet auf den Empfang vom analogen Rundfunksignal das mit dem digitalen Rundfunksignal übereinstimmt, wenn das digitale Signal nicht mehr zur Verfügung steht
EP0902564B1 (de) Verfahren zur Auswertung von digitalen Signalen, insbesondere Radio-Daten-Signalen
EP0702489B1 (de) Verfahren zur Steuerung der Aufzeichnung von wiederholt gesendeten Sendebeiträgen für ein Aufzeichnungsgerät der Unterhaltungselektronik
EP1050143A1 (de) Verfahren zur verarbeitung eines signals aus datensymbolen
EP1271780B1 (de) Verfahren und Vorrichtung zum Erkennen von Sendern mit gleichem Programminhalt
DE4431047A1 (de) Verfahren zum Trennen von wiederkehrenden Signalabschnitten aus unterschiedlichen Signalquellen von einem durch Überlagerung entstehenden Summensignal
DE10230685B4 (de) Verfahren zum Ermitteln der Signalqualität eines Mobilfunksignals
EP0596086A1 (de) Verfahren zur erkennung eines kanals
DE19727301A1 (de) Verfahren zur Suche von nutzbaren Sendefrequenzen für TV- und Rundfunksender
EP2863599A1 (de) Identifizieren des Übertragungsmodus eines Rundfunksignals
EP0610941A1 (de) Vorrichtung und Verfahren zur automatischen Erkennung einer von einer Sendestation zu einer Empfangsstation übertragenen elektrischen Signalfolge

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: ARBITRON INC., COLUMBIA, MD., US

8363 Opposition against the patent