DE4225872A1 - Verfahren zum kennzeichnen und identifizieren ausgewaehlter gebiete in bildern - Google Patents

Verfahren zum kennzeichnen und identifizieren ausgewaehlter gebiete in bildern

Info

Publication number
DE4225872A1
DE4225872A1 DE4225872A DE4225872A DE4225872A1 DE 4225872 A1 DE4225872 A1 DE 4225872A1 DE 4225872 A DE4225872 A DE 4225872A DE 4225872 A DE4225872 A DE 4225872A DE 4225872 A1 DE4225872 A1 DE 4225872A1
Authority
DE
Germany
Prior art keywords
computer
area
image
track
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4225872A
Other languages
English (en)
Other versions
DE4225872C2 (de
Inventor
Gavin Stuart Peter Miller
Eric Michael Hoffert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of DE4225872A1 publication Critical patent/DE4225872A1/de
Application granted granted Critical
Publication of DE4225872C2 publication Critical patent/DE4225872C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8583Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Description

Die vorliegende Erfindung betrifft allgemein ein Verfahren zum Auswählen von Objekten aus einer sich bewegenden Bilderfol­ ge digitalisierter oder synthetischer Bilder und insbesondere eine Technik zum Speichern von Zusatzdaten in einem Einzelbild­ puffer zusammen mit einer Videospur, um Objekte präzise zu identifizieren, welche aus jedem Einzelbild der Videospur her­ aus ausgewählt werden können.
Objektauswahlverfahren gestatten es einem Benutzer, ein einzelnes Objekt aus einer Gruppe von Objekten in einem Bilder auszuwählen. Eine Möglichkeit der Objektauswahl beruht auf der Bestimmung desjenigen Zeilensegments auf einer zweidimensiona­ len Bildschirmabbildung, welches durch einen Benutzer ausge­ wählt wurde. Üblicherweise sind diese Zeilensegmente unter Bil­ dung eines Polygongebiets miteinander verbunden; aber sie kön­ nen ebensogut voneinander getrennt sein. Ein "cursor picking" genanntes Verfahren, welches von J.D. Foley und A. Van Dam in "Fundamentals of Interactive Computer Graphics", Addison-Wesley Publishing Company, 1984, Seiten 200-204, beschrieben wurde, schafft begrenzte Bereiche, die mit Hilfe einfacher Gleichungen überprüft werden können. Ein solches Schema gestattet es einem Benutzer beispielsweise, die Charakteristiken eines bestimmten Dreiecks auf einem Bildschirm auszuwählen und zu modifizieren, obwohl es viele andere Objekte, wie beispielsweise Kreise, Tra­ peze und beliebige Polygongebiete geben kann, die ebenfalls auf dem Bildschirm sichtbar sind. Ein anderes Verfahren der Objekt­ auswahl ist die Zuordnung eines Objektnamens zu jedem Objekt in einer Szene. Um ein Objekt durch Auswahl zu aktivieren, gibt der Benutzer einfach den Namen des Objekts, das er auswählen möchte, ein. Dieses Verfahren hat keine geometrische Entspre­ chung.
Eine andere üblicherweise in interaktiven Systemen, wie beispielsweise dem HyperCardTM-Programm von Apple Computer Inc., benutzte Technik gestattet es dem Benutzer, ein recht­ winklig begrenztes Gebiet auf dem Bildschirm mit einem bestimm­ ten Objekt, wie beispielsweise einem Schaltknopf oder Feld zu identifizieren. Wenn eine Auswahl getroffen wird, sieht das Hy­ perCard-Programm nach, an welcher Stelle sich der Cursor befin­ det und sucht gleichzeitig nach dem Objekt (wie beispielsweise einem Schaltknopf oder einem Feld), das an dieser Stelle ein Begrenzungsrechteck aufweist. Wenn kein Begrenzungsrechteck den Ort des Cursors einschließt, wird kein Objekt ausgewählt. Wenn andererseits ein das Objekt einschließendes Begrenzungsrechteck existiert, wird das entsprechende Objekt ausgewählt. Sämtliche o.g. Techniken gestatten keine exakte Objektauswahl bei belie­ big komplexen Begrenzungen und können schwierig anzuwenden sein, wenn versucht wird, Objektbegrenzungen präzise zu identi­ fizieren.
Einzelbildpuffer werden im allgemeinen benutzt, um Bildsyn­ thesealgorithmen, wie beispielsweise das Ray-Tracing oder das Radiosity-Verfahren, zu beschleunigen. Sie können außerdem be­ nutzt werden, um dreidimensionale Oberflächengebiete einzelner Objekte bei der Anwendung in interaktiven Zeichen- und Beleuch­ tungs-Systemen zu identifizieren, welche zweidimensionale Ab­ bildungen manipulieren. Bei der Berechnung von Radiosity-Form­ faktoren wird üblicherweise ein Einheitshalbwürfel-Algorithmus benutzt, um die Berechnung zu beschleunigen. In diesem Algo­ rithmus werden fünf Seitenflächen eines Würfels als Einzelbild­ puffer dargestellt, welche Objekt-Kennzeichen bzw. -Tags ent­ halten. Durch Zählen der Anzahl der gekennzeichneten Pixeln der Seitenflächen-Abbildung wird der Formfaktor für ein bestimmtes Polygon, gesehen vom Scheitelpunkt eines anderen Polygons, be­ rechnet. Ein solches Systems wurde von Michael F. Cohen und Do­ nald P. Greenberg in "The Hemi-Cube: A Radiosity Solution for Complex Environments", Computer Graphics, # 19, Vol. 3, Juli 1985, Seiten 31-40 beschrieben.
Das Ray-Tracing kann durch Raster-Konvertieren eines "Objekt-Tag"-Bildes in einen Einzelbildpuffer beschleunigt wer­ den. Dabei wird für jedes Pixel angenommen, daß der dem Pixel entsprechende Kamerastrahl das Objekt schneidet, dessen Tag in dem Pixel ist. Durch Benutzen eines Einzelbildpuffers vermeidet der Algorithmus die Ausführung irgendeines primären Strahl-Ob­ jekt-Schnittlinientests. Auf diese Weise wird die Berechnung beim Ray-Tracing effizienter. Ein solches System wurde von Hank Weghorst, Gary Hooper und Donald P. Greenberg in "Improved Com­ putational Methods for Ray Tracing", ACM Transactions on Gra­ phics, Vol. 3, Nr. 1, Januar 1984, Seiten 52-69, beschrieben.
In "Direct WYSIWYG Painting and Texturing on 3D Shapes" von Pat Hanrahan und Paul Haeberli, Computer Graphics, Vol. 24, Nr. 4, August 1990, Seiten 215-223, wird ein einzelnes dreidimen­ sionales Objekt in einen "ID-Puffer" gebracht, welcher die u-v- Oberflächenwerte der sichtbaren Oberfläche in dem Pixel spei­ chert. Wenn auf eine Abbildung geschrieben wird, werden die Oberflächenposition und die Normalenvektoren der Oberfläche durch Überprüfen des Objekt-ID-Puffers bestimmt; dann wird das Ergebnis benutzt, um die Pixel so zu schattieren, wie die Tex­ tur-Speicherabbildungen modifiziert werden. Dieses Verfahren gestattet es dem Benutzer, auf eine Abbildung in zwei Dimensio­ nen zu zeichnen, und erlaubt die Modifikation der Objektgeome­ trie oder Beleuchtung im dreidimensionalen Raum. Die sich erge­ bende Modifikation wird im dreidimensionalen Raum und dann als zweidimensionale Bildschirmpixel berechnet, welche selektiv in den Puffer des sichtbaren Schirms geschrieben werden.
Mit dem erfindungsgemäßen Verfahren werden die Pixel inner­ halb eines ausgewählten sichtbaren Gebiets zumindest eines das sichtbare Gebiet enthaltenden Einzelbilds aus einer Folge von in einem Speicher gespeicherter und auf einem interaktiven Dis­ play anzeigbarer Einzelbilder, so daß ein Benutzer nachfolgend das ausgewählte sichtbare Gebiet auf einer pixelgenauen, ein­ zelbildgenauen Grundlage auswählen kann. Um das ausgewählte sichtbare Gebiet innerhalb eines Einzelbildes zu bezeichnen, wird die Szene innerhalb des Einzelbildes segmentiert, um das ausgewählte sichtbare Gebiet zu identifizieren; dann wird jedes Pixel innerhalb des ausgewählten sichtbaren Gebiets mit einem speziellen Gebietskennzeichner für das ausgewählte sichtbare Gebiet bezeichnet und die die Gebietskennzeichner enthaltenden Pixel in einen Einzelbildpuffer abgebildet. Dann wird der Ein­ zelbildpuffer komprimiert und innerhalb eines bezeichneten Speicherabschnitts gespeichert, der mit dem gespeicherten Ein­ zelbild verknüpft ist, von welchem der Einzelbildpuffer abge­ leitet wurde. Wenn ein Benutzer nachfolgend ein Pixel innerhalb irgendeines Einzelbildes der Folge von Einzelbildern auswählt, wird das Pixel innerhalb des dem Pixel in dem ausgewählten Ein­ zelbild zugeordneten bezeichneten Speicherteils dekomprimiert, um den Gebietskennzeichner für das ausgewählte Pixel zu bestim­ men. Dieser Gebietskennzeichner wird dann für eine Reihe von Zwecken benutzt, wie beispielsweise zum Identifizieren eines Gebiets innerhalb des Einzelbildes, das dem ausgewählten Pixel entspricht, oder um einige auf das ausgewählte Pixel bezogene Aktivitäten auszuführen.
Im folgenden wird die Erfindung anhand eines in der Zeich­ nung dargestellten Ausführungsbeispiels näher erläutert. In der Zeichnung zeigen:.
Fig. 1 eine Blockdarstellung eines in Verbindung mit dem bevorzugten Ausführungsbeispiel der Erfindung be­ nutzten Computers;
Fig. 2a ein Einzelbild einer Videospur;
Fig. 2b ein Einzelbild einer zur Videospur gemäß Fig. 2a korrespondierenden Treffer-Testspur;
Fig. 3a einen Satz von Videospuren und Tonspuren;
Fig. 3b die gleichen Mehrspur-Daten wie in Fig. 3b zuzüg­ lich einer Treffer-Testspur;
Fig. 4a die erforderlichen Inhalte des Benutzerdatenab­ schnitts einer Treffer-Testspur gemäß dem bevor­ zugten Ausführungsbeispiel der Erfindung;
Fig. 4b der wählbare Inhalt des Benutzerdatenabschnitts der Treffer-Testspur gemäß Fig. 4a;
Fig. 5 ein Ablaufdiagramm, das die interaktive Wieder­ gabe einer Filmszenenfolge unter Benutzung der erfindungsgemäßen Treffer-Testspuren darstellt; und
Fig. 6 ein Ablaufdiagramm, das die erfindungsgemäße Er­ zeugung von Treffer-Testspuren für Mehrspur-Filme darstellt.
Der Personalcomputer wird ein zunehmend effektiveres Werk­ zeug zum Präsentieren von Multimedia-Arbeiten. Viele Verfahren zum Präsentieren und Benutzen von Multimedia-Informationen in solchen Computern werden durch Software ausgeführt, obwohl Hardware-Produkte zur Ausführung der gleichen Funktionen eben­ falls entwickelt werden könnten, wenn auch mit viel größeren Kosten. Für das bevorzugte Ausführungsbeispiel könnte auch eine Hardware zum Implementieren der Erfindung entwickelt werden. Aber Software-Techniken, die in Verbindung mit dem Computersy­ stem 10 gemäß Fig. 1 arbeiten, werden hierbei bevorzugt be­ nutzt, um die Erfindung am effektivsten zu implementieren.
Der Computer 10, wie beispielsweise ein Apple-Macintosh- Computer, weist eine CPU 12, eine Ein/Ausgabe-Einheit 14, einen Speicher 16, ein Zeigergerät 18 und eine Anzeige 20 auf. Vor­ zugsweise ist die CPU 12 leistungsfähig genug, um eine Daten- Kompression/Dekompression durch Software bei ausreichenden Ge­ schwindigkeiten auszuführen, wie dies beispielsweise mit einem Motorola-68020-Mikroprozessor bei einer Taktrate von mindestens 16 MHz möglich ist. Aber es können auch andere Prozessoren ge­ ringerer Leistungsfähigkeit, die bei niedrigeren Taktraten ar­ beiten, mit einer akzeptablen Leistung benutzt werden, wenn zu­ sätzliche Daten-Kompressions/Dekompressions-Hardware in das Computersystem 10 eingebunden wird. Die Ein/Ausgabe-Einheit 14 verbindet die CPU 12 mit Zusatzgeräten, wie beispielsweise Lautsprechern und zusätzlichen Datenquellen und Speichern, wie bespielsweise einem Festplattenspeichergerät, einem CD-ROM oder einem Netzwerk großer Bandbreite. Selbst mit hocheffektiven Kompressionstechniken sind noch beträchtliche Zusatzspeicher für die erfindungsgemäßen Audio-, Video- und Treffer-Test-Spu­ ren erforderlich. Der Speicher 16 enthält üblicherweise einige Massenspeicherarten ebenso wie RAM, obwohl andere Speicherarten mit schnellem Zugriff ebenso benutzt werden können. Das Zeiger­ gerät 18 kann beispielsweise eine Maus, ein Trackball oder ein Stift sein. Die Anzeige 20 ist vorzugsweise eine Anzeige mit einer ausreichenden Auflösung, um die Videoinformationen deut­ lich anzuzeigen.
Die in Multimedia-Arbeiten benutzten Videodaten werden üb­ licherweise aus einer Serie von Einzelbildern sichtbarer Infor­ mationen gebildet, die für eine Wiedergabe durch den Computer 10 sequentiell miteinander verkettet werden. Diese Videodaten werden typischerweise in einem Zusatzspeichergerät als eine Vi­ deospur gemeinsam mit anderen Arten ihnen zugeordneter temporä­ rer Daten, wie beispielsweise einer Tonspur, gespeichert. Fig. 2a veranschaulicht ein Einzelbild 30 einer Videospur, bestehend aus einer Anzahl von unterschiedlichen Objekten 32, die einem Betrachter auf der Anzeige 20 erscheinen. Die Videospur kann entweder als synthetisches oder durch den Computer erzeugtes Bildwerk zuvor berechnet werden oder als eine Videofolge aus analogen Videodaten digitalisiert werden. Diese Videobildse­ quenz kann entweder in einem komprimierten oder unkomprimierten Format vorliegen. Unter "Videoeinzelbild" wird im folgenden ir­ gendein analoges Einzelbild oder irgendein digitalisiertes Ein­ zelbild verstanden, das mit einem Scanner oder einer Kamera aufgenommen oder mit Hilfe eines Zeichen- oder Darstellungspro­ gramms geschaffen wurde.
In Fig. 2b ist ein "Einzelbild-Puffer" genanntes Einzelbild 34 einer Abbildung dargestellt, welches als komprimierter Ein­ zelbild-Datensatz in einer dem Videoeinzelbild 30 gemäß Fig. 2a entsprechenden Treffer-Testspur gespeichert ist. Im Gegensatz zu dem Einzelbild 30 der Videospur ist das zur Treffer-Testspur korrespondierende Einzelbild 34 für einen Benutzer auf der An­ zeige 20 nicht sichtbar. Vielmehr ist die Treffer-Testspur - wie unten näher ausgeführt wird - eine dr Videospur entspre­ chende zusätzliche Datenspur, welche die Anordnung von Objekten bzw. benutzerdefinierten Gebieten innerhalb der Videospur auf einer Pixel- und Einzelbildbasis identifiziert (im Speicher ab­ bildet). Obwohl Fig. 2b jedes der numerierten Objekte 36 im Einzelbild 34 entsprechend einem identisch geformten Objekt 32 im Einzelbild 30 darstellt, können in der Treffer-Testspur Ob­ jekte 36 erzeugt werden, welche irgendeinem abstrakten, durch den Benutzer definierten, sichtbaren oder unsichtbaren Gebiet in dem Einzelbild 30 entsprechen. Wenn beispielsweise das Ein­ zelbild 30 einen Raum mit einigen Gemälden, einer offenen Tür und einer Statue darstellt, kann es wünschenswert sein, ein Ob­ jekt 36 der Treffer-Testspur jedem der Gemälde, der Statue und dem abstrakten offenen Gebiet der Tür zuzuordnen. Unabhängig von den durch den Benutzer ausgewählten Objekten oder Gebieten ist die erfindungsgemäße zusätzliche Treffer-Testspur höchst nützlich für das sogenannte "Objekt-Picking", bei dem der Be­ nutzer des Computers 10 ein Objekt auf der Anzeige 20 mit Hilfe des Zeigergeräts 18 in irgendeinem Einzelbild einer sich bewe­ genden Bildsequenz auswählen kann, wobei er das System veran­ laßt, eine Aktivität auf der Grundlage des ausgewählten Objekts zu initiieren. Die initiierte Aktivität kann eine von vielen unterschiedlichen Aktivitäten, wie beispielsweise die Wieder­ gabe einer getrennten Multimedia-Arbeit oder das Ausführen ei­ ner Subroutine sein. Wie unten näher ausgeführt wird, ist die Objektauswahl sehr präzise, da die Treffer-Testdaten den sicht­ baren Objekten auf Pixel- und Einzelbild-Basis entsprechen.
Die Erfindung ist ideal geeignet für eine Verwendung in ei­ nem Computer 10 zur Bearbeitung von Multimedia-Computerprogram­ men, wie beispielsweise einem Programm zum Manipulieren ver­ schiedener Formen von Medien, die als eine Serie von zueinander in Beziehung stehenden zeitlichen Spuren von Daten (wie bei­ spielsweise Video, Ton, usw.) dargestellt sind, wobei jede die­ ser Spuren um eine feste Zeitdifferenz gegenüber den anderen Spuren verschiebbar ist. Ein Satz solcher Spuren soll hier als ein Mehrspur-Film bezeichnet werden. Fig. 3a zeigt eine Dar­ stellung eines schmalen Mehrspur-Films, welcher aus einem er­ sten Satz Video- und Tonspuren 40 und einem zweiten Satz Video- und Tonspuren 42 besteht. In jedem Fall ist die zeitliche Dauer der Videospur gleich der der Tonspur. Der zweite Satz Video- und Tonspuren hat eine kürzere Dauer als der erste Satz und be­ ginnt mit einer festen Zeitverzögerung nach dem Start des er­ sten Satzes. In Fig. 3b ist der gleiche Satz von Mehrspur-Film- Daten dargestellt; darüberhinaus gibt es hier außerdem eine in dem Film gespeicherte Treffer-Testspur 44. In diesem Fall ent­ spricht die Treffer-Testspur dem ersten Satz Video- und Tonspu­ ren. Sie hat die gleiche Dauer wie der erste Satz, enthält die gleiche Anzahl von Einzelbildern wie die Videospur des ersten Satzes und identifiziert die Lage von Objekten in der Bildfolge der Videospur des ersten Satzes.
Es sei angemerkt, daß die Videospur und die ihr entspre­ chende Treffer-Testspur im allgemeinsten Fall eine Folge von beweglichen Bildern sind. Es ist jedoch auch möglich, die er­ findungsgemäße Technik auf nur eine einzige Abbildung anzuwen­ den; in diesem Fall enthält jede Spur nur ein Einzelbild. Außerdem sei angemerkt, daß die Treffer-Testspur nicht mit den gleichen Kompressionstechniken wie die Videospur komprimiert und nicht mit genau der gleichen Auflösung wie die Videospur gespeichert zu werden braucht. Die Treffer-Testspur wird vor­ zugsweise mit Hilfe einer verlustlosen Daten- oder Bildkompres­ sionstechnik komprimiert, die nicht mit der der Videospur über­ einzustimmen braucht. Zusätzlich ist es sinnvoll, eine dazwi­ schen abgetastete bzw. mit einem gröberen Raster abgetastete Version der Treffer-Testspur (beispielsweise eine Unterabta­ stung in der Größenordnung von 2:1 oder 4:1) zu verwenden, wenn die Videospur hoch komprimiert ist. In einem solchen Falle wird bei der Wiedergabe der nächste erreichbare Objektkennzeich­ nungswert der grob gerasterten Version der Treffer-Testspur als Objektkennzeichner benutzt. Obwohl dieses alternative Ausfüh­ rungsbeispiel nicht den pixelgenauen Vorteil der Treffer-Test­ spur mit der vollen Auflösung hat, gestattet er noch dem Benut­ zer, die meisten Objekte in der Szene mit einem akzeptablen Präzisionsniveau auszuwählen.
Bei dem bevorzugten Ausführungsbeispiel der Erfindung hat jede beliebige Spur des Mehrspur-Films optional, einen zugeord­ neten Satz von zusätzlichen Treffer-Testspur-Informationen. Diese zusätzlichen Informationen werden üblicherweise gemeinsam mit der korrespondierenden Spur des Mehrspur-Films als ein Satz von Kennzeichnungs-(Tag-), Größen- und Datenfeldern gespei­ chert, die verwendet werden, um die Manipulation der in der Treffer-Testspur enthaltenen zeitlichen Daten zu erleichtern. Da diese Felder benutzer- oder anwendungsdefiniert sind, werden sie hier als "Benutzerdaten" bezeichnet. Diese Benutzerdaten sind statisch, d. h. sie verändern sich im Verlauf der Zeit nicht. Die Organisation und Inhalte der Benutzerdaten für eine Treffer-Testspur 50 sind in Fig. 4a dargestellt. Der Treffer- Test-Tag 52 ist ein Kennzeichner, der die Spur als eine Tref­ fer-Testspur kennzeichnet. Im gegenwärtig bevorzugten Ausfüh­ rungsbeispiel der Erfindung wird das vier Zeichen lange Tag- Feld durch die Zeichen "HIT-" repräsentiert, wobei "-" ein Leerzeichen darstellt. Die Treffer-Testspur wird mit diesem Tag-Feld markiert, um die Treffer-Testspur von den Videodaten zu unterscheiden. Folglich ist der Computer 10 beim Interpre­ tieren der Spurdaten in der Lage, nur die Treffer-Testspur zu benutzen, um in der Videoszene liegende Objekte zu identifizie­ ren. Das nächste Feld in der Treffer-Testspur 50 ist die Größe des Datenfelds 54, welche die Anzahl der Informationsbytes im Datenfeld anzeigt.
Die in der Treffer-Testspur 50 enthaltenen verbleibenden Informationsabschnitte befinden sich innerhalb des Datenfelds, welches vorzugsweise aus einem Videospur-Kennzeichner 56, einem Kompressionsformat 58, der Pixel-Bittiefe 60 und den Treffer- Testdaten 62 besteht. Der Videospur-Kennzeichner 56 beschreibt die mit der Treffer-Testspur 50 korrespondierende Videospur in einem Mehrspur-Film. Die Verwendung eines Videospur-Kennzeich­ ners 56 informiert den Computer 10, welche Videospur in Verbin­ dung mit der Treffer-Testspur benutzt wird. Solche Informatio­ nen können wichtig sein, wenn es mehrere Treffer-Testspuren gibt, welche sich auf die gleiche Videospur beziehen. Das Kom­ pressionsformat 58 zeigt das zur Kompression der Treffer-Test­ daten 60 benutzte Format an.
Wie bereits gesagt, benutzt das bevorzugte Ausführungsbei­ spiel die verlustlose Datencodierung für die Treffer-Testdaten 62, obwohl eine Mehrzahl von verschiedenen Kompressionsformaten sowohl für die Videospur als auch für die Treffer-Testdaten 62 benutzt werden können. Es gibt eine Mehrzahl von anwendbaren Verfahren zur verlustlosten Codierung, einschließlich der be­ kannten Lauflängen-Codierung oder der Huffmann-Codierung. Durch Anzeigen des Kompressionsformats kann der Computer 10 sofort bestimmen, wie die Treffer-Testdaten zu dekomprimieren sind. Die Pixel-Bittiefe 60 zeigt die Pixel-Bittiefe an, bis zu wel­ cher die komprimierten Daten zu dekomprimieren sind. Dieses Merkmal gestattet die korrekte Interpretation der Wortlänge der Treffer-Testdaten 62. Es sei angemerkt, daß in der Treffer- Testspur 50 andere kompakte Beschreibungen der Objekte als Kom­ pressionstechniken benutzt werden können. Beispielsweise kann es wünschenswert sein, eine geometrische Beschreibung der Ob­ jekte in der Treffer-Testspur 50 zu speichern. Diese Liste von geometrischen Grundstrukturen für Treffer-Testgebiete würde in gleicher Weise jedem Einzelbild der Original-Videospur entspre­ chen.
Es sei außerdem angemerkt, daß die Treffer-Testspur 50 nicht alle oben beschriebenen Abschnitte zu enthalten braucht, um voll arbeitsfähig zu sein. Anstelle der Anzeige des Kompres­ sionsformats 58 oder der Pixel-Bittiefe 60 kann ein durch den Computer 10 benutztes Standardkompressionsformat verwendet wer­ den, welches diese Informationen automatisch zur Verfügung stellt. Beispielsweise kann die Erfindung aus Kompressionforma­ ten Nutzen ziehen, die durch ein Softwareprogramm, welches Mehrspur-Filme manipuliert (einschließlich Kompression und De­ kompression), angeboten werden, wodurch der Computer 10 automa­ tisch weiß, wie verschiedene Datenarten in Übereinstimmung mit verschiedenen Kompressionsformaten zu handhaben sind.
Zusätzlich zu den oben beschriebenen, innerhalb des Daten­ felds der Treffer-Testspur 50 enthaltenen Informationsabschnit­ ten gibt es weitere Informationsanteile, die darin enthalten sein können. Zwei solcher Anteile werden im folgenden unter Be­ zugnahme auf Fig. 4b beschrieben. Eine Tabelle 64 zum Zuordnen von Zeichenkettennamen zu Objekten kann benutzt werden, um ASCII-Zeichenkettennamen bestimmten Objekten in der entspre­ chenden Video- oder Tonspur zuzuordnen. Beispielsweise kann es wünschenswert sein, den Namen "Würfel" entsprechend allen in einem Würfel enthaltenen Pixeln einer Videoabbildung in der Treffer-Testspur zu speichern. Eine ähnliche Tabellenkonstruk­ tion könnte eine Liste einer Serie von Nummern und zugeordneten Namenszeichenketten enthalten, wie beispielsweise ((1, Würfel), (2, Gemälde), (3, Stuhl), (4, Flag), usw.). Diese Namen können dann weitergeleitet werden zu einer Schriftumgebung für eine weitergehende Interpretation oder Benutzung. Eine Tabelle 66 zur Zuordnung von Objekten zu Ereignissen kann in ähnlicher Weise benutzt werden, um Ereignisse bestimmten Objekten zuzu­ ordnen. Beispielsweise kann es wünschenswert sein, das Ereignis "Spiele Filmszene 3" stets dann zu initiieren, wenn ein Benut­ zer mit Hilfe der Steuerung durch das Zeigergerät 18 den Cursor auf der Anzeige 20 benutzt, um ein in einem bestimmten Objekt enthaltenes Pixel auszuwählen. Eine ähnliche Tabellenkonstruk­ tion würde eine Liste einer Serie von Nummern und ihnen zuge­ ordneter Ereigniszeichenketten enthalten, wie beispielsweise ((1, "Spiele Film X"), (2, "Spiele Ton Y"), (3, "Gehe zum Bild­ schirm 10") (4 "Spiele Film Z,") usw.). Auch diese Ereignisse können dann weitergeleitet werden zu einer interpretierbaren Schriftumgebung.
Obwohl näher anhand der Fig. 5 und 6 erörtert, soll jetzt die Arbeitsweise eines Computers 10, der ein Treffer- Testspuren als Teil eines Mehrspur-Films benutzendes Programm abarbeitet, kurz beschrieben werden. Um zu bestimmen, wann auf die Daten in der Treffer-Testspur zugegriffen werden soll, be­ stimmt das Programm des Computers 10, wann ein Benutzer eine Auswahl an einer bestimmten Position des Bildschirms der An­ zeige 20 getroffen hat, wo der Cursor angezeigt wird. Das Pro­ gramm bestimmt dann, welches Einzelbild der Videosequenz aktu­ ell angezeigt wird. An dieser Stelle befragt das Programm jede Spur des Mehrspur-Films, um zu ermitteln, welche Spur den Kenn­ zeichner besitzt, der anzeigt, daß sie eine Treffer-Testspur für die angezeigte bestimmte Videospur ist. Sobald die ge­ eignete Treffer-Testspur bestimmt worden ist, wird auf das dem aktuell angezeigten Video-Einzelbild entsprechende Einzelbild in der Treffer-Testspur zugegriffen und dieses entsprechend dem Kompressionsformat, in dem es gespeichert ist, dekomprimiert.
Während der Dekompression wird nur das Gebiet am oder in der Umgebung des interessierenden Pixels dekomprimiert. Wenn das exakte Pixel für die Objektauswahl identifiziert worden ist, wird sein dekomprimierter Wert an das Programm als Kenn­ zeichner des Objekts zurückgegeben. Der Objektkennzeichner kann dann benutzt werden, um in eine Namenstabelle oder Ereignista­ belle abzubilden (map), sofern dies gewünscht ist. Wenn mit Hilfe des Objektkennzeichners in einer Namenstabelle abgebildet worden ist, wird ein ASCII-Zeichenkettenname an das Programm zurückgegeben. Wenn mit Hilfe des Objektkennzeichners in eine Ereignistabelle abgebildet worden ist, wird das "Ereignis" an das System zurückgegeben, welches das Auftreten verschiedener Ereignisse auslösen kann, wie beispielsweise das Abspielen ei­ nes Tons, die Anzeige einer Sequenz von Videoeinzelbildern oder eine Abbildung auf dem Bildschirm der Anzeige 20. Wie oben er­ wähnt, ist das auszulösende und durch das Programm zu behan­ delnde Ereignis in Form von Daten in der Ereignistabelle ent­ halten. Die Bedeutung solcher Ereignisse hängt von der Art der vom interessierenden Programm benutzten interaktiven Umgebung ab. Im bevorzugten Ausführungsbeispiel der Erfindung werden Er­ eignisse durch eine Schriftsprache höheren Niveaus interpre­ tiert.
Anhand von Fig. 5 wird im folgenden ein Ablaufdiagramm be­ schrieben, das die interaktive Wiedergabe einer Filmsequenz un­ ter Benutzung der erfindungsgemäßen Treffer-Testspuren dar­ stellt. Wenn die Einzelbilder einer sich bewegenden Bildfolge von einer Videospur durch den Computer 10 wiedergegeben werden (Block 70), testet das Programm, ob ein Mausbetätigungsereignis in dem Video-Einzelbild aufgetreten ist (Block 72). Wenn in ei­ nem Video-Einzelbild ein Mausbetätigungsereignis aufgetreten ist, wird das Video-Einzelbild X ebenso wie die Mausposition (mx, my) zur Zeit des Mausbetätigungsereignisses im Speicher 16 aufgezeichnet (Block 74). Wenn kein Mausbetätigungsereignis aufgetreten ist, kehrt das Programm zum Block 70 zurück, um mit der Wiedergabe der Filmsequenz fortzufahren. Nach dem Speichern des Video-Einzelbildes X und der Mausbetätigungsposition (mx, my) fährt das Programm fort, die Benutzerdatenfelder sämtlicher Spuren des Mehrspur-Films nach einer Spur zu durchsuchen, die den Treffer-Testspur-Kennzeichner oder -Tag "HIT-" aufweist (Block 76).
Wenn eine als Treffer-Testspur identifizierte Spur gefunden worden ist (Block 78), durchsucht das Programm die Benutzerda­ ten der Treffer-Testspur, um zu überprüfen, ob die identifi­ zierte Treffer-Testspur sich auf die aktuelle, gerade ange­ zeigte Videospur bezieht (Block 80). Wenn sich die Treffer- Testspur auf die aktuelle Videospur bezieht, bestimmt dann das Programm das Kompressionsformat Z (es sei denn, es gibt ein Standardkompressionsformat) und die Bittiefe, bis zu welcher die Daten dekomprimiert werden sollen (Block 82). Der nächste Schritt des Verfahrens ist die Dekompression des geeigneten Einzelbilds X (das dem Video-Einzelbild X in der Sequenz ent­ spricht) der Treffer-Testspur mit Hilfe des Dekompressionsver­ fahrens Z. Obwohl die auftretende Dekompression am gesamten Vi­ deoeinzelbild X ausgeführt werden kann, wird vorzugsweise nur das Gebiet um den durch den Benutzer in dem Video-Einzelbild X ausgewählten exakten Pixelort (mx, my) dekomprimiert (Block 84). Man beachte, daß der Wert des Objektkennzeichners für das ausgewählte Objekt unabhängig von der Lage des durch den Benut­ zer ausgewählten Pixels innerhalb des Objekts gleichbleibt. Ob­ wohl die Dekompression des gesamten Objekts sicher den geeigne­ ten Objektkennzeichner erzeugen würde, führt die Dekompression nur des Ortes des ausgewählten Pixels zum gleichen Ergebnis. Der Wert des Objektkennzeichners der dekomprimierten Daten am Ort des Pixels (mx, my) wird dann an das System zurückgegeben (Block 86). Wie zuvor beschrieben, können komplexere optionelle Versionen des o.g. Verfahrens die Treffer-Testdaten dekompri­ mieren und den Objektkennzeichner benutzen, um in eine Tabelle abzubilden, welche entweder einen ASCII-Namen oder ein vom Pro­ gramm auszulösendes Ereignis rückzuführen.
Anhand von Fig. 6 wird im folgenden ein Ablaufdiagramm be­ schrieben, das die Erzeugung von Treffer-Testspuren für Mehr­ spur-Filme in Übereinstimmung mit dem bevorzugten Ausführungs­ beispiel der Erfindung darstellt. Im Block 90 wird ein gerade digitalisiertes Video-Einzelbild oder ein dargestelltes Anima­ tionseinzelbild aus einer Sequenz sich bewegender Abbildungen eingegeben. Dann sieht das Programm nach, ob das Eingabe-Ein­ zelbild von einer dargestellten Animation oder von einem digi­ talisierten Video herrührt (Block 92). Wenn das Eingabe-Einzel­ bild von einer dargestellten Animation herrührt, wird ein Ein­ zelbildpuffer für das Einzelbild erzeugt, wenn die Abbildung aus der Sequenz dargestellt wird (Block 94). Wie zuvor disku­ tiert, wird dieser Einzelbildpuffer, welcher später in die Treffer-Testspur eingefügt wird, als eine Speicherabbildung sämtlicher Objekte in der Szene benutzt, indem jedes innerhalb des das Objekt definierenden Gebiets enthaltene Pixel mit einer Einzelbildnummer oder einem Objektkennzeichner bezeichnet wird. Man beachte, daß Pixel innerhalb des gleichen Objekts oder in­ teressierenden Gebiets den gleichen Objektkennzeichner enthal­ ten.
Wenn das Eingabe-Einzelbild von einem digitalisierten Video herrührt, werden die Objekte in der in dem Video-Einzelbild dargestellten Videoszene mit Hilfe von Mustererkennungstechni­ ken oder über ein manuelles Nachzeichnen des Objekts segmen­ tiert, um einen Einzelbildpuffer für diese Szene zu erzeugen (Block 96). Obwohl Mustererkennungstechniken weniger arbeitsin­ tensiv als das manuelle Objektnachzeichnen sind, kann die Ef­ fektivität der Mustererkennung und somit der Objektkennzeich­ nung in Abhängigkeit von den zu erkennenden Inhalten signifi­ kant variieren. Zusätzlich hat das manuelle Objektnachzeichnen den Vorteil, dem Benutzer das Spezifizieren von interessieren­ den "unsichtbaren" Gebieten zusätzlich zu den interessierenden sichtbaren Objekten zu ermöglichen. Unabhängig von der Art der Eingabedaten wird jeder Einzelbildpuffer, sobald er geschaffen wurde, mit Hilfe einer verlustlosen Kompression komprimiert (Block 98). Im Block 100 sieht das Programm dann nach, ob die dem Einzelbildpuffer entsprechende Videospur stärker als bis zu einer vorgegebenen Grenze, wie beispielsweise 10:1 komprimiert ist. Wie oben gesagt ist es bei starker Kompression der Video­ spur sinnvoll, eine unterabgetastete oder gröber gerasterte Version des Einzelbildpuffers zu verwenden, wie beispielsweise eine Unterabtastung in der Größenordnung von 2:1 oder 4:1. Es sei erneut angemerkt, daß bei Verwendung eines unterabgetaste­ ten Einzelbildpuffers geringerer Auflösung bei der Wiedergabe der nächstmögliche Objektkennzeichnungswert in der gröber ge­ rasterten Version der Treffer-Testspur als Objektkennzeichner benutzt wird.
Unabhängig von der Art des benutzten Einzelbildpuffers wer­ den im Block 106 die Abbildungen in jedem Einzelbildpuffer als komprimiertes Einzelbild in dem Treffer-Testdatenanteil der Treffer-Testspur gespeichert. Das der Treffer-Testspur entspre­ chende Videoeinzelbild wird dann in der Videospur gespeichert (Block 108). Dieses Verfahren wird für jedes Einzelbild der Se­ quenz von Abbildungen fortgesetzt, bis alle Einzelbilder der Sequenz verarbeitet sind (Block 110); dann wird der Rest der Benutzerdaten, wie beispielsweise der Treffer-Test-Tag 52, die Größe des Datenfelds 54, der Videospurkennzeichner 56, das For­ mat 58 der verlustlosen Kompression und die Pixel-Bittiefe 60, in der Treffer-Testspur 50 gespeichert (Block 112).
Es sei angemerkt, daß die Erfindung Anwendungen bei Video­ anzeige- und -manipulationstechnologien findet, wie beispiels­ weise die oben beschriebenen Multimedia-Anwendungen, aber auch auf anderen Gebieten anwendbar ist, wie beispielsweise bei Vi­ deospielen, wenn eine pixelgenaue, einzelbildgenaue Objektaus­ wahl wünschenswert ist.

Claims (39)

1. Verfahren zum Kennzeichnen und nachfolgenden Identifi­ zieren ausgewählter Gebiete (32) innerhalb von Bildern einer Folge von Bildern , die durch ein Display (20) eines einen Speicher (16) zum Speichern Bildern aufweisenden Computers (10) anzeigbar sind, gekennzeichnet durch ,
  • a) Identifizieren eines zu kennzeichnenden Gebiets (32) in­ nerhalb eines Bildes (30) aus der Folge von Bildern;
  • b) Kennzeichnen jedes Pixels innerhalb des Gebiets (32) mit einem für das Gebiet speziellen Gebietsidentifizierer;
  • c) Speichern jedes gekennzeichneten Pixels in einem gekenn­ zeichneten Abschnitt (36; 50) des mit dem Bild verknüpften Speichers,
  • d) Wiederholen der Schritte a) bis c) für jedes ausgewählte Gebiet (32) innerhalb jedes Bildes (30) aus der Folge von Bil­ dern;
  • e) Durchsuchen des Speichers (16) in Abhängigkeit von einer Benutzerauswahl eines Pixelortes innerhalb eines ausgewählten Gebiets (32) aus einem auf dem Display (20) angezeigten ausge­ wählten Bild (30), um einen dem ausgewählten Bild (30) entspre­ chenden gekennzeichneten Abschnitt (36; 50) zu lokalisieren;
  • f) Auswerten des dem ausgewählten Bild entsprechenden Ab­ schnitts (36; 50), um einen dem Pixelort entsprechenden Ge­ bietsidentifizierer zu lokalisieren; und
  • g) Identifizieren des Gebietsidentifizierers für den Compu­ ter (10) als Hinweis auf das ausgewählte Gebiet.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ferner in einem Schritt (h) der dem Pixelort entsprechende Ge­ bietsidentifizierer mit einer zusätzliche Informationen über das ausgewählte Gebiet enthaltenden Tabelle (64, 66) verglichen wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die zusätzlichen Informationen einen Namen für das ausgewählte Gebiet enthalten.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeich­ net, daß die zusätzlichen Informationen eine zum ausgewählten Gebiet korrespondierende und durch den Computer auszuführende Aktivität enthalten.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge­ kennzeichnet, daß die Bilder Video-Einzelbilder (30) aus einer Video-Einzelbildfolge sind und daß im Schritt (a) jedes zu kennzeichnende Gebiet (32) aus jedem Video-Einzelbild heraus mit Hilfe eines Mustererkenners segmentiert wird.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge­ kennzeichnet, daß die Bilder Video-Einzelbilder (30) aus einer Video-Einzelbildfolge sind und daß im Schritt a) jedes zu kenn­ zeichnende Gebiet (32) aus jedem Video-Einzelbild heraus ma­ nuell segmentiert wird.
7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge­ kennzeichnet, daß die Bilder dargestellte Einzelbilder (30) aus einer dargestellten Einzelbildfolge sind und daß der Schritt a) eine Darstellung der dargestellten Einzelbilder enthält, um je­ des zu kennzeichnende Gebiet (32) aus jedem dargestellten Ein­ zelbild heraus zu identifizieren.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch ge­ kennzeichnet, daß die ausgewählten Gebiete (32) sichtbaren Ob­ jekten und/oder abstrakten Gebieten innerhalb der Bilder (30) entsprechen.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch ge­ kennzeichnet, daß im Schritt b)
das Gebiet (32) in einen dem Bild (30) entsprechenden Ein­ zelbildpuffer (34) abgebildet; und
der Gebietsidentifizierer jedem Pixel innerhalb des Gebiets zugeordnet wird, um gekennzeichnete Pixel innerhalb des Einzel­ bildpuffers (34) entsprechend den Pixelorten innerhalb des Bil­ des (30) zu bilden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß im Schritt c) folgende Schritte ausgeführt werden:
Komprimieren des Einzelbildpuffers (34);
Speichern des komprimierten Einzelbildpuffers (34) in den gekennzeichneten Abschnitt (50) des Speichers (16); und
Speichern eines Bildidentifizierers (56) gemeinsam mit dem komprimierten Einzelbildpuffer (34) in dem gekennzeichneten Ab­ schnitt (50) des Speichers (16), um den gekennzeichneten Ab­ schnitt des Speichers mit dem Bild zu verknüpfen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die Bilder zur Speicherung in dem Speicher (16) komprimiert werden und daß der Einzelbildpuffer (34) mit Hilfe eines ver­ lustlosen Kompressionsformats komprimiert wird.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß ein Einzelbildpuffer (34) normaler Auflösung benutzt wird, wenn die Bilder mit einem Verhältnis gleich oder kleiner einem vor­ gegebenen Grenzwert komprimiert werden, und daß ein unterabge­ tasteter Zwischenbildpuffer (34) geringer Auflösung benutzt wird, wenn die Bilder mit einem Verhältnis größer als der vor­ gegebene Grenzwert komprimiert werden.
13. Verfahren nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, daß im Schritt c) ferner ein Speicheridentifi­ zierer (52) für den gekennzeichneten Abschnitt (50) des Spei­ chers gemeinsam mit dem Bildidentifizierer gespeichert wird, um den gekennzeichneten Abschnitt (50) des Speichers für den Com­ puter (10) von anderen Abschnitten des Speichers (16) unter­ scheidbar zu machen.
14. Verfahren nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, daß im Schritt c) ferner ein Kompressionsfor­ matsanzeigers (58) gemeinsam mit dem Bildidentifizierer zum An­ zeigen eines Kompressionsformats des komprimierten Einzelbild­ puffers (34) für den Computer (10) gespeichert wird.
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, daß im Schritt c) ein Pixel-Bittiefenanzeiger (60) mit dem Bildidentifizierer gespeichert wird, um dem Compu­ ter beim Dekomprimieren des gekennzeichneten Pixel eine Bit­ tiefe für jedes gekennzeichnete Pixel anzuzeigen.
16. Verfahren nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, daß im Schritt c) ferner eine Gebiet-zu-Namen- Abbildungstabelle (64) gespeichert wird, wobei der Bildidenti­ fizierer einen Namen für das ausgewählte Gebiet enthält, der dem Computer mitgeteilt wird, wenn das ausgewählte Gebiet im Schritt g) für den Computer identifiziert wird.
17. Verfahren nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, daß im Schritt c) eine Gebiet-zu-Ereignis-Ab­ bildungstabelle (66) gespeichert wird, wobei der Bildidentifi­ zierer ein Ereignis entsprechend dem ausgewählten Gebiet ent­ hält, das dem Computer mitgeteilt und von ihm bearbeitet wird, wenn das ausgewählte Gebiet im Schritt (g) für den Computer identifiziert wird.
18. Verfahren zum Unterstützen einer Benutzerauswahl von Gebieten (32) innerhalb von Bildern (30), die durch eine Folge von zugehörigen temporären Spuren (40, 42) von in einem Spei­ cher (16) eines Computers gespeicherten Bilddaten dargestellt werden, wobei der Computer so ausgebildet ist, daß er die Bil­ der auf einem Computerdisplay (20) durch Zugreifen auf die tem­ porären Spuren (40, 42) der Bilddaten aus dem Speicher (16) se­ lektiv wiedergibt, und wobei jede der temporären Spuren (40, 42) der Bilddaten im Speicher um eine feste Zeit gegenüber den temporären Spuren von im Speicher gespeicherten Bilddaten ver­ schoben werden kann, gekennzeichnet durch ,
  • a) Identifizieren eines Gebiets (32) innerhalb eines Bildes (30), das von dem Benutzer ausgewählt werden konnte,
  • b) Kennzeichnen jedes Pixels innerhalb des Gebiets (32) mit einem Gebietsidentifizierer, der für dieses Gebiet spezifisch ist;
  • c) Speichern jedes gekennzeichneten Pixels in einer gekenn­ zeichneten Spur (44; 50) in dem Speicher (16) entsprechend dem Bild (30);
  • d) Wiederholen der Schritte a) bis c) für jedes Gebiet (32) innerhalb jedes vom Benutzer auswählbaren Bildes (30);
  • e) Durchsuchen des Speichers (16) in Abhängigkeit von einer vom Benutzer getroffenen Auswahl eines Pixelortes innerhalb ei­ nes ausgewählten Gebiets aus einem ausgewählten Bild, um eine gekennzeichnete Spur (44; 50) entsprechend dem ausgewählten Bild zu lokalisieren;
  • f) Durchsuchen der gekennzeichneten Spur nach einem dem Pi­ xelort entsprechenden gekennzeichneten Pixel; und
  • g) Abrufen des Gebietsidentifizierers entsprechend dem ge­ kennzeichneten Pixel aus dem Speicher zum Anzeigen des ausge­ wählen Gebiets für den Computer.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß
  • h) der Gebietsidentifizierer entsprechend dem Pixelort mit einer zusätzliche Informationen über das ausgewählte Gebiet enthaltenden Tabelle (64, 66) verglichen wird.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß die zusätzlichen Informationen einen Namen für das dem Benutzer vom Computer mitzuteilende ausgewählte Gebiet enthalten.
21. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß die zusätzlichen Informationen einen Aktionsidentifizierer ent­ halten, der dem ausgewählten Gebiet entspricht und von dem Com­ puter zur Durchführung einer sich auf das ausgewählte Gebiet beziehenden Aktion verwendet werden kann.
22. Verfahren nach einem der Ansprüche 18 bis 21, dadurch gekennzeichnet, daß die Gebiete visuelle Objekte und abstrakte Zonen innerhalb der Bilder enthalten.
23. Verfahren nach einem der Ansprüche 18 bis 22, dadurch gekennzeichnet, daß im Schritt b) das Gebiet in einen dem Bild (30) entsprechenden Einzelbildpuffer (34) abgebildet wird und daß der Gebietsidentifizierer jedem Pixel innerhalb des Gebiets zur Bildung gekennzeichneter Pixel innerhalb des Einzelbildpuf­ fers (34) entsprechend den Pixelorten im Bild (30) zugeordnet wird.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, daß der Einzelbildpuffer (34) komprimiert, der komprimierte Einzel­ bildpuffer in der gekennzeichneten Spur (44; 50) gespeichert und ein Bildidentifizierer (52, 56) mit dem komprimierten Ein­ zelbildpuffer in der gekennzeichneten Spur gespeichert wird.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, daß die Bilddaten komprimierte Darstellungen der Bilder sind und der Einzelbildpuffer (34) eine komprimierte Darstellung des Ge­ biets ist und von dem Computer unter Verwendung eines verlust­ losen Kompressionsformats komprimiert werden kann.
26. Verfahren nach einem der Ansprüche 23 bis 25, dadurch gekennzeichnet, daß ein Einzelbildpuffer (34) normaler Auflö­ sung benutzt wird, wenn die Bilder bei einem Verhältnis gleich oder kleiner einem vorgegebenen Grenzwert komprimiert werden, und daß ein unterabgetasteter Bildpuffer niedriger Auflösung verwendet wird, wenn die Bilder bei einem Verhältnis größer als der vorgegebene Grenzwert komprimiert werden.
27. Verfahren nach einem der Ansprüche 18 bis 26, dadurch gekennzeichnet, daß im Schritt c) ein gekennzeichneter Spur­ identifizierer (52) in der gekennzeichneten Spur (44; 50) ge­ speichert wird, um die gekennzeichnete Spur für den Computer von den temporären Spuren (40; 42) von Bilddaten unterscheidbar zu machen.
28. Verfahren nach einem der Ansprüche 18 bis 27, dadurch gekennzeichnet, daß der dem gekennzeichneten Pixel entspre­ chende Gebietsidentifizierer im Schritt g) aus dem Speicher (16) dadurch abgerufen wird, daß wenigstens eines der gekenn­ zeichneten Pixel aus dem Einzelbildpuffer (34) dekomprimiert wird, und daß im Schritt c) ein Kompressionsformat in der ge­ kennzeichneten Spur (44; 50) in solcher Weise gespeichert wird, daß ein vom Computer zu verwendendes Format beim Dekomprimieren der gekennzeichneten Pixel angezeigt wird.
29. Verfahren nach Anspruch 28, dadurch gekennzeichnet, daß im Schritt c) ein Pixel-Bittiefenindikator (60) in der gekenn­ zeichneten Spur (44; 50) in solcher Weise gespeichert wird, daß die Bittiefe angezeigt wird, bei der die gekennzeichneten Pixel dekomprimiert werden.
30. Verfahren nach einem der Ansprüche 18 bis 24, dadurch gekennzeichnet, daß im Schritt c) ein Gebiet in eine Namen-Ab­ bildungstabelle (84) in der gekennzeichneten Spur (44, 50) ge­ speichert wird, wobei die Tabelle einen Namen für das ausge­ wählte Gebiet enthält, der dem Computer mitgeteilt wird, wenn der Gebietsidentifizierer von dem Computer aufgerufen wird.
31. Verfahren nach einem der Ansprüche 18 bis 24, dadurch gekennzeichnet, daß im Schritt c) ein Gebiet in eine Ereignis- Abbildungstabelle (66) in der gekennzeichneten Spur (44; 50) gespeichert wird und daß die Tabelle ein Ereignis entsprechend dem ausgewählten Gebiet enthält, das dem Computer mitgeteilt und von diesem bearbeitet wird, wenn der Gebietsidentifizierer vom Computer aufgerufen wird.
32. Treffer-Testspur zum Identifizieren und Unterstützen einer Benutzerauswahl von Einzelbildern (items) innerhalb einer von einem Computer (10) ausführbaren Multimedia-Werks, das durch eine Folge von temporären Spuren (40, 42) aus in einem vom Computer (10) benutzten Speicher (16) gespeicherten Daten dargestellt ist, wobei jede der temporären Datenspuren (40, 42) gegenüber anderen temporären Datenspuren um eine feste Zeit versetzt ist, gekennzeichnet durch,
einen Datenabschnitt (62), der im Betrieb von dem Computer (10) zur Identifizierung der Einzelbilder verwendbar ist und einen Identifizierer für jedes der Einzelbilder enthält;
einen vom Computer (10) zur Bezeichnung einer von dem Da­ tenabschnitt belegten Größe des Speichers (14) verwendeten Da­ tenabschnitt-Größenindikator (54);
einen vom Computer (10) zur Anzeige einer dem Datenab­ schnitt entsprechenden temporären Spur (40, 42) verwendeten temporären Spuridentifizierer (56); und
einen vom Computer zur Unterscheidung der Treffer-Testspur (44; 50) von den temporären Spuren (40, 42) verwendeten Tref­ fer-Testidentifizierer (52).
33. Treffer-Testspur nach Anspruch 32, dadurch gekennzeich­ net, daß der Datenabschnitt (62) einen Bildpuffer (34) entspre­ chend einer Einzelbildgruppe enthält und daß die Einzelbild­ identifizierer für die Einzelbildgruppe innerhalb des Einzel­ bildpuffers gespeichert sind.
34. Treffer-Testspur nach Anspruch 33, dadurch gekennzeich­ net, daß der Einzelbildpuffer (34) unter Verwendung eines ver­ lustlosten Kompressionsformats vor der Speicherung in dem Spei­ cher mit Hilfe des Computers (10) komprimierbar ist.
35. Treffer-Testspur nach Anspruch 34, dadurch gekennzeich­ net, daß die temporären Datenspuren (40, 42) in einem kompri­ mierten Format in dem Speicher (16) gespeichert sind, daß der Einzelbildpuffer (34) als Puffer normaler Auflösung vorgesehen ist, wenn die temporären Datenspuren mit einem Verhältnis gleich oder kleiner einem vorgegebenen Grenzwert komprimiert sind und daß der Einzelbildpuffer als Einzelbildpuffer niedri­ ger Auflösung mit Unterabtastung vorgesehen ist, wenn die tem­ porären Datenspuren bei einem Verhältnis größer als der vorge­ gebene Grenzwert komprimiert sind.
36. Treffer-Testspur nach Anspruch 32 oder 33, dadurch ge­ kennzeichnet, daß der Bildpuffer (34) von dem Computer vor Speicherung in ein Kompressionsformat komprimierbar ist und daß die Treffer-Testspur (44; 50) außerdem einen Kompressionsfor­ mat-Indikator (58) aufweist, der dem Computer zur Bestimmung des Kompressionsformats dient.
37. Treffer-Testspur nach Anspruch 33, dadurch gekennzeich­ net, daß jedes der Einzelbilder ein auf einem Display (20) des Computers (10) abbildbares Objekt (32) ist, wenn das Multime­ dia-Werk vom Computer (10) ausgeführt wird, daß der Einzelbild­ puffer (34) eine Gruppe (36) von Pixeln entsprechend jedem der Einzelbilder (32) enthält, daß der Einzelbildpuffer von dem Computer (10) vor der Speicherung in dem Speicher (16) in ein Kompressionsformat komprimierbar ist und daß die Treffer-Test­ spur (44; 50) außerdem einen Bittiefenindikator (60) enthält, der dem Computer zur Anzeige einer Kompressionsbittiefe für die Pixelgruppe dient, wenn der Einzelbildpuffer (34) aus dem Spei­ cher (16) aufgerufen wird.
38. Treffer-Testspur nach einem der Ansprüche 32 bis 37, dadurch gekennzeichnet, daß die Treffer-Testspur eine Einzel­ bild-zu-Namen-Abbildungstabelle (64) enthält, die für jedes der Einzelbilder (32) einen Namen enthält.
39. Treffer-Testspur nach einem der Ansprüche 32 bis 37, dadurch gekennzeichnet, daß die Treffer-Testspur (44; 50) eine Einzelbild-zu-Ereignis-Abbildungstabelle (66) enthält, in der jedes Ereignis einem ausgewählten Einzelbild (32) entspricht und von dem Computer ausführbar ist, nachdem ein Benutzer ein Einzelbild auswählt.
DE4225872A 1991-11-12 1992-08-05 Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern Expired - Lifetime DE4225872C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US79032791A 1991-11-12 1991-11-12

Publications (2)

Publication Number Publication Date
DE4225872A1 true DE4225872A1 (de) 1993-05-13
DE4225872C2 DE4225872C2 (de) 2001-10-11

Family

ID=25150337

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4225872A Expired - Lifetime DE4225872C2 (de) 1991-11-12 1992-08-05 Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern

Country Status (3)

Country Link
US (6) US6219048B1 (de)
DE (1) DE4225872C2 (de)
FR (1) FR2683648B1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0841610A2 (de) * 1996-11-12 1998-05-13 Adobe Systems, Inc. Auswählbare Bereiche in interaktiven Filmen
WO2001098943A2 (de) * 2000-06-23 2001-12-27 Realspace Gmbh Verfahren zur erzeugung einer darstellung eines objektes mit interaktiven flaechen
US7139970B2 (en) 1998-04-10 2006-11-21 Adobe Systems Incorporated Assigning a hot spot in an electronic artwork

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5727141A (en) * 1995-05-05 1998-03-10 Apple Computer, Inc. Method and apparatus for identifying user-selectable regions within multiple display frames
US6496981B1 (en) * 1997-09-19 2002-12-17 Douglass A. Wistendahl System for converting media content for interactive TV use
US6775417B2 (en) * 1997-10-02 2004-08-10 S3 Graphics Co., Ltd. Fixed-rate block-based image compression with inferred pixel values
ID27878A (id) * 1997-12-05 2001-05-03 Dynamic Digital Depth Res Pty Konversi image yang ditingkatkan dan teknik mengenkodekan
US6712703B2 (en) 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
US6692357B2 (en) * 1998-11-19 2004-02-17 Nintendo Co., Ltd. Video game apparatus and method with enhanced player object action control
US6325717B1 (en) * 1998-11-19 2001-12-04 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6462754B1 (en) * 1999-02-22 2002-10-08 Siemens Corporate Research, Inc. Method and apparatus for authoring and linking video documents
US6621503B1 (en) * 1999-04-02 2003-09-16 Apple Computer, Inc. Split edits
US6892353B1 (en) * 1999-04-02 2005-05-10 Apple Computer, Inc. Edit to tape
KR100295610B1 (ko) * 1999-11-09 2001-07-12 장영규 동영상 편집 시스템 및 이를 이용한 객체 정보 서비스 방법
US6642940B1 (en) * 2000-03-03 2003-11-04 Massachusetts Institute Of Technology Management of properties for hyperlinked video
US6636237B1 (en) * 2000-07-31 2003-10-21 James H. Murray Method for creating and synchronizing links to objects in a video
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US7143353B2 (en) * 2001-03-30 2006-11-28 Koninklijke Philips Electronics, N.V. Streaming video bookmarks
JP3970102B2 (ja) * 2001-06-28 2007-09-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US6931603B2 (en) * 2001-11-29 2005-08-16 International Business Machines Corporation Method and system for appending information to graphical files stored in specific graphical file formats
US20050075166A1 (en) * 2002-05-14 2005-04-07 Hemstreet Paul A. Media program with interactive feature
US7190839B1 (en) 2002-06-12 2007-03-13 Cadence Design System, Inc. Methods and apparatus for generating multi-level graphics data
US7212217B1 (en) * 2002-06-12 2007-05-01 Candence Design Systems, Inc. Methods and apparatus for generating pixel data for multi-layer source images
US7432939B1 (en) * 2002-07-10 2008-10-07 Apple Inc. Method and apparatus for displaying pixel images for a graphical user interface
US7082572B2 (en) * 2002-12-30 2006-07-25 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive map-based analysis of digital video content
CA2527328C (en) * 2003-05-29 2013-04-02 Eat.Tv, Llc System for presentation of multimedia content
US20050076253A1 (en) * 2003-10-05 2005-04-07 De-Jen Lu Method of url-based power management and associated web browsing device
JP3793201B2 (ja) * 2004-01-28 2006-07-05 任天堂株式会社 ゲーム装置およびゲームプログラム
EP1792314A1 (de) * 2004-08-23 2007-06-06 Sherpa Technologies, LLC Selektive anzeige von thematischen informationen in video
US8763052B2 (en) * 2004-10-29 2014-06-24 Eat.Tv, Inc. System for enabling video-based interactive applications
US7594177B2 (en) * 2004-12-08 2009-09-22 Microsoft Corporation System and method for video browsing using a cluster index
US8667540B2 (en) * 2006-07-07 2014-03-04 Apple Partners, Lp Web-based video broadcasting system having multiple channels
US20080011819A1 (en) * 2006-07-11 2008-01-17 Microsoft Corporation Microsoft Patent Group Verification of hit testing
US20090096927A1 (en) * 2007-10-15 2009-04-16 Camp Jr William O System and method for video coding using variable compression and object motion tracking
AR072022A1 (es) * 2008-06-06 2010-07-28 Grasslanz Technology Ltd Genes involucrados en biosintesis de flavonoides en plantas
US8354918B2 (en) * 2008-08-29 2013-01-15 Boyer Stephen W Light, sound, and motion receiver devices
MY151478A (en) * 2009-08-10 2014-05-30 Mimos Berhad Object tracking system and method
US8438199B1 (en) 2009-09-10 2013-05-07 Bentley Systems, Incorporated System and method for identifying and highlighting a graphic element
US8600171B2 (en) * 2009-12-10 2013-12-03 Canon Kabushiki Kaisha Image labeling using parallel processing
JP4858625B2 (ja) * 2010-03-31 2012-01-18 カシオ計算機株式会社 情報表示装置及びプログラム
US20110296345A1 (en) * 2010-05-27 2011-12-01 Alcatel-Lucent Usa Inc. Technique For Determining And Indicating Strength Of An Item In A Weighted List Based On Tagging
US20110295859A1 (en) * 2010-05-27 2011-12-01 Alcatel-Lucent Usa Inc. Technique For Multi-Dimensionally Determining Strength Of An Item In A Weighted List Based On Tagging
GB2483282B (en) * 2010-09-03 2017-09-13 Advanced Risc Mach Ltd Data compression and decompression using relative and absolute delta values
US9792363B2 (en) * 2011-02-01 2017-10-17 Vdopia, INC. Video display method
JP5841538B2 (ja) * 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
US8458588B1 (en) 2011-02-25 2013-06-04 Google Inc. Determining content layout positions produced by a layout engine
US20120290931A1 (en) * 2011-05-13 2012-11-15 Nokia Corporation Apparatus and method for arranging supplementary information for media elements
US8730264B1 (en) 2011-09-26 2014-05-20 Google Inc. Determining when image elements intersect
JP6032467B2 (ja) * 2012-06-18 2016-11-30 株式会社日立製作所 時空間データ管理システム、時空間データ管理方法、及びそのプログラム
CN103577322B (zh) * 2012-08-08 2015-08-12 腾讯科技(深圳)有限公司 一种点击测试方法和装置
US10511649B2 (en) * 2012-11-20 2019-12-17 Pelco, Inc. Method and apparatus for efficiently prioritizing elements in a video stream for low-bandwidth transmission
EP3686754A1 (de) * 2013-07-30 2020-07-29 Kodak Alaris Inc. System und verfahren zur erzeugung navigierbarer ansichten geordneter bilder
KR20160024002A (ko) 2014-08-21 2016-03-04 삼성전자주식회사 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치
US9733823B2 (en) 2015-04-01 2017-08-15 Microsoft Technology Licensing, Llc View activation via hit testing in an asynchronous windowing system
EP3501014A1 (de) * 2016-08-17 2019-06-26 VID SCALE, Inc. Einfügen von sekundären inhalten in 360-grad-videos
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
EP3811320A4 (de) * 2018-06-20 2022-03-16 Simbe Robotics, Inc. Verfahren zur verwaltung von click-and-delivery-einkaufsereignissen

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305131A (en) 1979-02-05 1981-12-08 Best Robert M Dialog between TV movies and human viewers
US4333152A (en) 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
JPS5995645A (ja) * 1982-11-24 1984-06-01 Toshiba Corp 情報整理装置
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4941111A (en) * 1986-04-18 1990-07-10 Advanced Micro Devices, Inc. Video picking and clipping method and apparatus
US4837842A (en) 1986-09-19 1989-06-06 Holt Arthur W Character and pattern recognition machine and method
US5021770A (en) * 1987-07-15 1991-06-04 Hitachi, Ltd. Image display system and data input apparatus used therein
US4847700A (en) 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals
US4985848A (en) * 1987-09-14 1991-01-15 Visual Information Technologies, Inc. High speed image processing system using separate data processor and address generator
FR2628553B1 (fr) 1988-03-08 1990-11-09 Labo Electronique Physique Systeme graphique video muni d'un curseur graphique
JPH0229880A (ja) 1988-07-20 1990-01-31 Fujitsu Ltd ビデオレート領域分離方式
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
GB8822062D0 (en) * 1988-09-20 1988-10-19 Quantel Ltd Video processing
US5155806A (en) * 1989-03-15 1992-10-13 Sun Microsystems, Inc. Method and apparatus for displaying context sensitive help information on a display
US5119474A (en) * 1989-06-16 1992-06-02 International Business Machines Corp. Computer-based, audio/visual creation and presentation system and method
CA2012796C (en) * 1989-06-16 1996-05-14 Bradley James Beitel Trigger field display selection
JPH03116474A (ja) * 1989-09-28 1991-05-17 Toppan Printing Co Ltd カラオケ用cdiディスク
US5208909A (en) * 1989-10-23 1993-05-04 International Business Machines Corporation Pre-drawing pick detection in a graphics display system
US5274753A (en) * 1990-05-24 1993-12-28 Apple Computer, Inc. Apparatus for distinguishing information stored in a frame buffer
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
US5317680A (en) * 1990-06-22 1994-05-31 Broderbund Software, Inc. Using regular graphic shapes to identify a pointer-selected graphic object
EP0526064B1 (de) * 1991-08-02 1997-09-10 The Grass Valley Group, Inc. Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5524193A (en) * 1991-10-15 1996-06-04 And Communications Interactive multimedia annotation method and apparatus
GB2261803B (en) * 1991-10-18 1995-10-11 Quantel Ltd An image processing system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0841610A2 (de) * 1996-11-12 1998-05-13 Adobe Systems, Inc. Auswählbare Bereiche in interaktiven Filmen
EP0841610A3 (de) * 1996-11-12 2000-01-26 Adobe Systems, Inc. Auswählbare Bereiche in interaktiven Filmen
US7139970B2 (en) 1998-04-10 2006-11-21 Adobe Systems Incorporated Assigning a hot spot in an electronic artwork
US7949943B2 (en) 1998-04-10 2011-05-24 Adobe Systems Incorporated Assigning a hot spot in an electronic artwork
US8819544B2 (en) 1998-04-10 2014-08-26 Adobe Systems Incorporated Assigning a hot spot in an electronic artwork
WO2001098943A2 (de) * 2000-06-23 2001-12-27 Realspace Gmbh Verfahren zur erzeugung einer darstellung eines objektes mit interaktiven flaechen
WO2001098943A3 (de) * 2000-06-23 2003-01-09 Realspace Gmbh Verfahren zur erzeugung einer darstellung eines objektes mit interaktiven flaechen

Also Published As

Publication number Publication date
US7043694B2 (en) 2006-05-09
US6219048B1 (en) 2001-04-17
US20040080525A1 (en) 2004-04-29
US20060230353A1 (en) 2006-10-12
FR2683648A1 (fr) 1993-05-14
FR2683648B1 (fr) 1996-12-13
US7281212B2 (en) 2007-10-09
DE4225872C2 (de) 2001-10-11
US20020054173A1 (en) 2002-05-09
US7549122B2 (en) 2009-06-16
US6295055B1 (en) 2001-09-25
US20070019889A1 (en) 2007-01-25

Similar Documents

Publication Publication Date Title
DE4225872C2 (de) Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern
DE69534331T2 (de) Verfahren und Vorrichtung zur Hervorhebung der Einzelheit einer Baumstruktur
DE69731045T2 (de) Navigation und Interaktion in strukturierten Informationsräumen
DE69531421T2 (de) Darstellung des Inhalts eines einzigen Videobildes mit Anwendung von Rahmen
DE19708265B4 (de) Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild
DE69731695T2 (de) Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren
DE69629447T2 (de) Benutzerinteraktion bei Bildern mit strukturiertem Bildformat
DE69636599T2 (de) Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild
DE69531269T2 (de) Transportieren eines an einen Sichtpunkt innerhalb oder zwischen navigierbaren Arbeitsräumen gekoppelten Anzeigeobjektes
DE69820093T2 (de) Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation
DE69824905T2 (de) Bildseitenverhältniszoomen von Daumennagelbildern
DE60201692T2 (de) Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren
DE60219048T2 (de) Sektionsextrahierungswerkzeug für pdf-dokumente
DE10016753A1 (de) Verfahren zum Navigieren zwischen Ausschnitten in einem Darstellungsraum
DE19817584A1 (de) Verfahren und System zur Objektsuche
DE102010031429A1 (de) Verfahren zum Bereitstellen eines Kombinations-Videos
DE19817583B4 (de) Verfahren und System zur Datenverarbeitung für dreidimensionale Objekte
DE19543377A1 (de) Verfahren und Anordnung zum Darstellen von Bildern aus einer Bildgruppe
WO2000054167A2 (de) Such- und navigationseinrichtung für hypertext-dokumente
Lobo et al. Animation plans for before-and-after satellite images
DE60008201T2 (de) Übersetzung von Daten mit elektronischen Bildern
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
EP0644500B1 (de) Verfahren und System zur Herstellung von Tabellenabbildungen mit Fokus- und Kontextzonen, die direkte und indirekte Datenrepresentationen darstellen
DE60109813T2 (de) Verfahren und vorrichtung zur darstellung dreidimensionaler szenen in virtueller realität
JPH02205984A (ja) 画像処理装置

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: APPLE INC., CUPERTINO, CALIF., US

R071 Expiry of right
R071 Expiry of right