DE4225872A1 - Verfahren zum kennzeichnen und identifizieren ausgewaehlter gebiete in bildern - Google Patents
Verfahren zum kennzeichnen und identifizieren ausgewaehlter gebiete in bildernInfo
- Publication number
- DE4225872A1 DE4225872A1 DE4225872A DE4225872A DE4225872A1 DE 4225872 A1 DE4225872 A1 DE 4225872A1 DE 4225872 A DE4225872 A DE 4225872A DE 4225872 A DE4225872 A DE 4225872A DE 4225872 A1 DE4225872 A1 DE 4225872A1
- Authority
- DE
- Germany
- Prior art keywords
- computer
- area
- image
- track
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
- H04N21/4725—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8583—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Description
Die vorliegende Erfindung betrifft allgemein ein Verfahren
zum Auswählen von Objekten aus einer sich bewegenden Bilderfol
ge digitalisierter oder synthetischer Bilder und insbesondere
eine Technik zum Speichern von Zusatzdaten in einem Einzelbild
puffer zusammen mit einer Videospur, um Objekte präzise zu
identifizieren, welche aus jedem Einzelbild der Videospur her
aus ausgewählt werden können.
Objektauswahlverfahren gestatten es einem Benutzer, ein
einzelnes Objekt aus einer Gruppe von Objekten in einem Bilder
auszuwählen. Eine Möglichkeit der Objektauswahl beruht auf der
Bestimmung desjenigen Zeilensegments auf einer zweidimensiona
len Bildschirmabbildung, welches durch einen Benutzer ausge
wählt wurde. Üblicherweise sind diese Zeilensegmente unter Bil
dung eines Polygongebiets miteinander verbunden; aber sie kön
nen ebensogut voneinander getrennt sein. Ein "cursor picking"
genanntes Verfahren, welches von J.D. Foley und A. Van Dam in
"Fundamentals of Interactive Computer Graphics", Addison-Wesley
Publishing Company, 1984, Seiten 200-204, beschrieben wurde,
schafft begrenzte Bereiche, die mit Hilfe einfacher Gleichungen
überprüft werden können. Ein solches Schema gestattet es einem
Benutzer beispielsweise, die Charakteristiken eines bestimmten
Dreiecks auf einem Bildschirm auszuwählen und zu modifizieren,
obwohl es viele andere Objekte, wie beispielsweise Kreise, Tra
peze und beliebige Polygongebiete geben kann, die ebenfalls auf
dem Bildschirm sichtbar sind. Ein anderes Verfahren der Objekt
auswahl ist die Zuordnung eines Objektnamens zu jedem Objekt in
einer Szene. Um ein Objekt durch Auswahl zu aktivieren, gibt
der Benutzer einfach den Namen des Objekts, das er auswählen
möchte, ein. Dieses Verfahren hat keine geometrische Entspre
chung.
Eine andere üblicherweise in interaktiven Systemen, wie
beispielsweise dem HyperCardTM-Programm von Apple Computer
Inc., benutzte Technik gestattet es dem Benutzer, ein recht
winklig begrenztes Gebiet auf dem Bildschirm mit einem bestimm
ten Objekt, wie beispielsweise einem Schaltknopf oder Feld zu
identifizieren. Wenn eine Auswahl getroffen wird, sieht das Hy
perCard-Programm nach, an welcher Stelle sich der Cursor befin
det und sucht gleichzeitig nach dem Objekt (wie beispielsweise
einem Schaltknopf oder einem Feld), das an dieser Stelle ein
Begrenzungsrechteck aufweist. Wenn kein Begrenzungsrechteck den
Ort des Cursors einschließt, wird kein Objekt ausgewählt. Wenn
andererseits ein das Objekt einschließendes Begrenzungsrechteck
existiert, wird das entsprechende Objekt ausgewählt. Sämtliche
o.g. Techniken gestatten keine exakte Objektauswahl bei belie
big komplexen Begrenzungen und können schwierig anzuwenden
sein, wenn versucht wird, Objektbegrenzungen präzise zu identi
fizieren.
Einzelbildpuffer werden im allgemeinen benutzt, um Bildsyn
thesealgorithmen, wie beispielsweise das Ray-Tracing oder das
Radiosity-Verfahren, zu beschleunigen. Sie können außerdem be
nutzt werden, um dreidimensionale Oberflächengebiete einzelner
Objekte bei der Anwendung in interaktiven Zeichen- und Beleuch
tungs-Systemen zu identifizieren, welche zweidimensionale Ab
bildungen manipulieren. Bei der Berechnung von Radiosity-Form
faktoren wird üblicherweise ein Einheitshalbwürfel-Algorithmus
benutzt, um die Berechnung zu beschleunigen. In diesem Algo
rithmus werden fünf Seitenflächen eines Würfels als Einzelbild
puffer dargestellt, welche Objekt-Kennzeichen bzw. -Tags ent
halten. Durch Zählen der Anzahl der gekennzeichneten Pixeln der
Seitenflächen-Abbildung wird der Formfaktor für ein bestimmtes
Polygon, gesehen vom Scheitelpunkt eines anderen Polygons, be
rechnet. Ein solches Systems wurde von Michael F. Cohen und Do
nald P. Greenberg in "The Hemi-Cube: A Radiosity Solution for
Complex Environments", Computer Graphics, # 19, Vol. 3, Juli
1985, Seiten 31-40 beschrieben.
Das Ray-Tracing kann durch Raster-Konvertieren eines
"Objekt-Tag"-Bildes in einen Einzelbildpuffer beschleunigt wer
den. Dabei wird für jedes Pixel angenommen, daß der dem Pixel
entsprechende Kamerastrahl das Objekt schneidet, dessen Tag in
dem Pixel ist. Durch Benutzen eines Einzelbildpuffers vermeidet
der Algorithmus die Ausführung irgendeines primären Strahl-Ob
jekt-Schnittlinientests. Auf diese Weise wird die Berechnung
beim Ray-Tracing effizienter. Ein solches System wurde von Hank
Weghorst, Gary Hooper und Donald P. Greenberg in "Improved Com
putational Methods for Ray Tracing", ACM Transactions on Gra
phics, Vol. 3, Nr. 1, Januar 1984, Seiten 52-69, beschrieben.
In "Direct WYSIWYG Painting and Texturing on 3D Shapes" von
Pat Hanrahan und Paul Haeberli, Computer Graphics, Vol. 24, Nr.
4, August 1990, Seiten 215-223, wird ein einzelnes dreidimen
sionales Objekt in einen "ID-Puffer" gebracht, welcher die u-v-
Oberflächenwerte der sichtbaren Oberfläche in dem Pixel spei
chert. Wenn auf eine Abbildung geschrieben wird, werden die
Oberflächenposition und die Normalenvektoren der Oberfläche
durch Überprüfen des Objekt-ID-Puffers bestimmt; dann wird das
Ergebnis benutzt, um die Pixel so zu schattieren, wie die Tex
tur-Speicherabbildungen modifiziert werden. Dieses Verfahren
gestattet es dem Benutzer, auf eine Abbildung in zwei Dimensio
nen zu zeichnen, und erlaubt die Modifikation der Objektgeome
trie oder Beleuchtung im dreidimensionalen Raum. Die sich erge
bende Modifikation wird im dreidimensionalen Raum und dann als
zweidimensionale Bildschirmpixel berechnet, welche selektiv in
den Puffer des sichtbaren Schirms geschrieben werden.
Mit dem erfindungsgemäßen Verfahren werden die Pixel inner
halb eines ausgewählten sichtbaren Gebiets zumindest eines das
sichtbare Gebiet enthaltenden Einzelbilds aus einer Folge von
in einem Speicher gespeicherter und auf einem interaktiven Dis
play anzeigbarer Einzelbilder, so daß ein Benutzer nachfolgend
das ausgewählte sichtbare Gebiet auf einer pixelgenauen, ein
zelbildgenauen Grundlage auswählen kann. Um das ausgewählte
sichtbare Gebiet innerhalb eines Einzelbildes zu bezeichnen,
wird die Szene innerhalb des Einzelbildes segmentiert, um das
ausgewählte sichtbare Gebiet zu identifizieren; dann wird jedes
Pixel innerhalb des ausgewählten sichtbaren Gebiets mit einem
speziellen Gebietskennzeichner für das ausgewählte sichtbare
Gebiet bezeichnet und die die Gebietskennzeichner enthaltenden
Pixel in einen Einzelbildpuffer abgebildet. Dann wird der Ein
zelbildpuffer komprimiert und innerhalb eines bezeichneten
Speicherabschnitts gespeichert, der mit dem gespeicherten Ein
zelbild verknüpft ist, von welchem der Einzelbildpuffer abge
leitet wurde. Wenn ein Benutzer nachfolgend ein Pixel innerhalb
irgendeines Einzelbildes der Folge von Einzelbildern auswählt,
wird das Pixel innerhalb des dem Pixel in dem ausgewählten Ein
zelbild zugeordneten bezeichneten Speicherteils dekomprimiert,
um den Gebietskennzeichner für das ausgewählte Pixel zu bestim
men. Dieser Gebietskennzeichner wird dann für eine Reihe von
Zwecken benutzt, wie beispielsweise zum Identifizieren eines
Gebiets innerhalb des Einzelbildes, das dem ausgewählten Pixel
entspricht, oder um einige auf das ausgewählte Pixel bezogene
Aktivitäten auszuführen.
Im folgenden wird die Erfindung anhand eines in der Zeich
nung dargestellten Ausführungsbeispiels näher erläutert. In der
Zeichnung zeigen:.
Fig. 1 eine Blockdarstellung eines in Verbindung mit dem
bevorzugten Ausführungsbeispiel der Erfindung be
nutzten Computers;
Fig. 2a ein Einzelbild einer Videospur;
Fig. 2b ein Einzelbild einer zur Videospur gemäß Fig. 2a
korrespondierenden Treffer-Testspur;
Fig. 3a einen Satz von Videospuren und Tonspuren;
Fig. 3b die gleichen Mehrspur-Daten wie in Fig. 3b zuzüg
lich einer Treffer-Testspur;
Fig. 4a die erforderlichen Inhalte des Benutzerdatenab
schnitts einer Treffer-Testspur gemäß dem bevor
zugten Ausführungsbeispiel der Erfindung;
Fig. 4b der wählbare Inhalt des Benutzerdatenabschnitts
der Treffer-Testspur gemäß Fig. 4a;
Fig. 5 ein Ablaufdiagramm, das die interaktive Wieder
gabe einer Filmszenenfolge unter Benutzung der
erfindungsgemäßen Treffer-Testspuren darstellt;
und
Fig. 6 ein Ablaufdiagramm, das die erfindungsgemäße Er
zeugung von Treffer-Testspuren für Mehrspur-Filme
darstellt.
Der Personalcomputer wird ein zunehmend effektiveres Werk
zeug zum Präsentieren von Multimedia-Arbeiten. Viele Verfahren
zum Präsentieren und Benutzen von Multimedia-Informationen in
solchen Computern werden durch Software ausgeführt, obwohl
Hardware-Produkte zur Ausführung der gleichen Funktionen eben
falls entwickelt werden könnten, wenn auch mit viel größeren
Kosten. Für das bevorzugte Ausführungsbeispiel könnte auch eine
Hardware zum Implementieren der Erfindung entwickelt werden.
Aber Software-Techniken, die in Verbindung mit dem Computersy
stem 10 gemäß Fig. 1 arbeiten, werden hierbei bevorzugt be
nutzt, um die Erfindung am effektivsten zu implementieren.
Der Computer 10, wie beispielsweise ein Apple-Macintosh-
Computer, weist eine CPU 12, eine Ein/Ausgabe-Einheit 14, einen
Speicher 16, ein Zeigergerät 18 und eine Anzeige 20 auf. Vor
zugsweise ist die CPU 12 leistungsfähig genug, um eine Daten-
Kompression/Dekompression durch Software bei ausreichenden Ge
schwindigkeiten auszuführen, wie dies beispielsweise mit einem
Motorola-68020-Mikroprozessor bei einer Taktrate von mindestens
16 MHz möglich ist. Aber es können auch andere Prozessoren ge
ringerer Leistungsfähigkeit, die bei niedrigeren Taktraten ar
beiten, mit einer akzeptablen Leistung benutzt werden, wenn zu
sätzliche Daten-Kompressions/Dekompressions-Hardware in das
Computersystem 10 eingebunden wird. Die Ein/Ausgabe-Einheit 14
verbindet die CPU 12 mit Zusatzgeräten, wie beispielsweise
Lautsprechern und zusätzlichen Datenquellen und Speichern, wie
bespielsweise einem Festplattenspeichergerät, einem CD-ROM oder
einem Netzwerk großer Bandbreite. Selbst mit hocheffektiven
Kompressionstechniken sind noch beträchtliche Zusatzspeicher
für die erfindungsgemäßen Audio-, Video- und Treffer-Test-Spu
ren erforderlich. Der Speicher 16 enthält üblicherweise einige
Massenspeicherarten ebenso wie RAM, obwohl andere Speicherarten
mit schnellem Zugriff ebenso benutzt werden können. Das Zeiger
gerät 18 kann beispielsweise eine Maus, ein Trackball oder ein
Stift sein. Die Anzeige 20 ist vorzugsweise eine Anzeige mit
einer ausreichenden Auflösung, um die Videoinformationen deut
lich anzuzeigen.
Die in Multimedia-Arbeiten benutzten Videodaten werden üb
licherweise aus einer Serie von Einzelbildern sichtbarer Infor
mationen gebildet, die für eine Wiedergabe durch den Computer
10 sequentiell miteinander verkettet werden. Diese Videodaten
werden typischerweise in einem Zusatzspeichergerät als eine Vi
deospur gemeinsam mit anderen Arten ihnen zugeordneter temporä
rer Daten, wie beispielsweise einer Tonspur, gespeichert. Fig.
2a veranschaulicht ein Einzelbild 30 einer Videospur, bestehend
aus einer Anzahl von unterschiedlichen Objekten 32, die einem
Betrachter auf der Anzeige 20 erscheinen. Die Videospur kann
entweder als synthetisches oder durch den Computer erzeugtes
Bildwerk zuvor berechnet werden oder als eine Videofolge aus
analogen Videodaten digitalisiert werden. Diese Videobildse
quenz kann entweder in einem komprimierten oder unkomprimierten
Format vorliegen. Unter "Videoeinzelbild" wird im folgenden ir
gendein analoges Einzelbild oder irgendein digitalisiertes Ein
zelbild verstanden, das mit einem Scanner oder einer Kamera
aufgenommen oder mit Hilfe eines Zeichen- oder Darstellungspro
gramms geschaffen wurde.
In Fig. 2b ist ein "Einzelbild-Puffer" genanntes Einzelbild
34 einer Abbildung dargestellt, welches als komprimierter Ein
zelbild-Datensatz in einer dem Videoeinzelbild 30 gemäß Fig. 2a
entsprechenden Treffer-Testspur gespeichert ist. Im Gegensatz
zu dem Einzelbild 30 der Videospur ist das zur Treffer-Testspur
korrespondierende Einzelbild 34 für einen Benutzer auf der An
zeige 20 nicht sichtbar. Vielmehr ist die Treffer-Testspur -
wie unten näher ausgeführt wird - eine dr Videospur entspre
chende zusätzliche Datenspur, welche die Anordnung von Objekten
bzw. benutzerdefinierten Gebieten innerhalb der Videospur auf
einer Pixel- und Einzelbildbasis identifiziert (im Speicher ab
bildet). Obwohl Fig. 2b jedes der numerierten Objekte 36 im
Einzelbild 34 entsprechend einem identisch geformten Objekt 32
im Einzelbild 30 darstellt, können in der Treffer-Testspur Ob
jekte 36 erzeugt werden, welche irgendeinem abstrakten, durch
den Benutzer definierten, sichtbaren oder unsichtbaren Gebiet
in dem Einzelbild 30 entsprechen. Wenn beispielsweise das Ein
zelbild 30 einen Raum mit einigen Gemälden, einer offenen Tür
und einer Statue darstellt, kann es wünschenswert sein, ein Ob
jekt 36 der Treffer-Testspur jedem der Gemälde, der Statue und
dem abstrakten offenen Gebiet der Tür zuzuordnen. Unabhängig
von den durch den Benutzer ausgewählten Objekten oder Gebieten
ist die erfindungsgemäße zusätzliche Treffer-Testspur höchst
nützlich für das sogenannte "Objekt-Picking", bei dem der Be
nutzer des Computers 10 ein Objekt auf der Anzeige 20 mit Hilfe
des Zeigergeräts 18 in irgendeinem Einzelbild einer sich bewe
genden Bildsequenz auswählen kann, wobei er das System veran
laßt, eine Aktivität auf der Grundlage des ausgewählten Objekts
zu initiieren. Die initiierte Aktivität kann eine von vielen
unterschiedlichen Aktivitäten, wie beispielsweise die Wieder
gabe einer getrennten Multimedia-Arbeit oder das Ausführen ei
ner Subroutine sein. Wie unten näher ausgeführt wird, ist die
Objektauswahl sehr präzise, da die Treffer-Testdaten den sicht
baren Objekten auf Pixel- und Einzelbild-Basis entsprechen.
Die Erfindung ist ideal geeignet für eine Verwendung in ei
nem Computer 10 zur Bearbeitung von Multimedia-Computerprogram
men, wie beispielsweise einem Programm zum Manipulieren ver
schiedener Formen von Medien, die als eine Serie von zueinander
in Beziehung stehenden zeitlichen Spuren von Daten (wie bei
spielsweise Video, Ton, usw.) dargestellt sind, wobei jede die
ser Spuren um eine feste Zeitdifferenz gegenüber den anderen
Spuren verschiebbar ist. Ein Satz solcher Spuren soll hier als
ein Mehrspur-Film bezeichnet werden. Fig. 3a zeigt eine Dar
stellung eines schmalen Mehrspur-Films, welcher aus einem er
sten Satz Video- und Tonspuren 40 und einem zweiten Satz Video-
und Tonspuren 42 besteht. In jedem Fall ist die zeitliche Dauer
der Videospur gleich der der Tonspur. Der zweite Satz Video-
und Tonspuren hat eine kürzere Dauer als der erste Satz und be
ginnt mit einer festen Zeitverzögerung nach dem Start des er
sten Satzes. In Fig. 3b ist der gleiche Satz von Mehrspur-Film-
Daten dargestellt; darüberhinaus gibt es hier außerdem eine in
dem Film gespeicherte Treffer-Testspur 44. In diesem Fall ent
spricht die Treffer-Testspur dem ersten Satz Video- und Tonspu
ren. Sie hat die gleiche Dauer wie der erste Satz, enthält die
gleiche Anzahl von Einzelbildern wie die Videospur des ersten
Satzes und identifiziert die Lage von Objekten in der Bildfolge
der Videospur des ersten Satzes.
Es sei angemerkt, daß die Videospur und die ihr entspre
chende Treffer-Testspur im allgemeinsten Fall eine Folge von
beweglichen Bildern sind. Es ist jedoch auch möglich, die er
findungsgemäße Technik auf nur eine einzige Abbildung anzuwen
den; in diesem Fall enthält jede Spur nur ein Einzelbild.
Außerdem sei angemerkt, daß die Treffer-Testspur nicht mit den
gleichen Kompressionstechniken wie die Videospur komprimiert
und nicht mit genau der gleichen Auflösung wie die Videospur
gespeichert zu werden braucht. Die Treffer-Testspur wird vor
zugsweise mit Hilfe einer verlustlosen Daten- oder Bildkompres
sionstechnik komprimiert, die nicht mit der der Videospur über
einzustimmen braucht. Zusätzlich ist es sinnvoll, eine dazwi
schen abgetastete bzw. mit einem gröberen Raster abgetastete
Version der Treffer-Testspur (beispielsweise eine Unterabta
stung in der Größenordnung von 2:1 oder 4:1) zu verwenden, wenn
die Videospur hoch komprimiert ist. In einem solchen Falle wird
bei der Wiedergabe der nächste erreichbare Objektkennzeich
nungswert der grob gerasterten Version der Treffer-Testspur als
Objektkennzeichner benutzt. Obwohl dieses alternative Ausfüh
rungsbeispiel nicht den pixelgenauen Vorteil der Treffer-Test
spur mit der vollen Auflösung hat, gestattet er noch dem Benut
zer, die meisten Objekte in der Szene mit einem akzeptablen
Präzisionsniveau auszuwählen.
Bei dem bevorzugten Ausführungsbeispiel der Erfindung hat
jede beliebige Spur des Mehrspur-Films optional, einen zugeord
neten Satz von zusätzlichen Treffer-Testspur-Informationen.
Diese zusätzlichen Informationen werden üblicherweise gemeinsam
mit der korrespondierenden Spur des Mehrspur-Films als ein Satz
von Kennzeichnungs-(Tag-), Größen- und Datenfeldern gespei
chert, die verwendet werden, um die Manipulation der in der
Treffer-Testspur enthaltenen zeitlichen Daten zu erleichtern.
Da diese Felder benutzer- oder anwendungsdefiniert sind, werden
sie hier als "Benutzerdaten" bezeichnet. Diese Benutzerdaten
sind statisch, d. h. sie verändern sich im Verlauf der Zeit
nicht. Die Organisation und Inhalte der Benutzerdaten für eine
Treffer-Testspur 50 sind in Fig. 4a dargestellt. Der Treffer-
Test-Tag 52 ist ein Kennzeichner, der die Spur als eine Tref
fer-Testspur kennzeichnet. Im gegenwärtig bevorzugten Ausfüh
rungsbeispiel der Erfindung wird das vier Zeichen lange Tag-
Feld durch die Zeichen "HIT-" repräsentiert, wobei "-" ein
Leerzeichen darstellt. Die Treffer-Testspur wird mit diesem
Tag-Feld markiert, um die Treffer-Testspur von den Videodaten
zu unterscheiden. Folglich ist der Computer 10 beim Interpre
tieren der Spurdaten in der Lage, nur die Treffer-Testspur zu
benutzen, um in der Videoszene liegende Objekte zu identifizie
ren. Das nächste Feld in der Treffer-Testspur 50 ist die Größe
des Datenfelds 54, welche die Anzahl der Informationsbytes im
Datenfeld anzeigt.
Die in der Treffer-Testspur 50 enthaltenen verbleibenden
Informationsabschnitte befinden sich innerhalb des Datenfelds,
welches vorzugsweise aus einem Videospur-Kennzeichner 56, einem
Kompressionsformat 58, der Pixel-Bittiefe 60 und den Treffer-
Testdaten 62 besteht. Der Videospur-Kennzeichner 56 beschreibt
die mit der Treffer-Testspur 50 korrespondierende Videospur in
einem Mehrspur-Film. Die Verwendung eines Videospur-Kennzeich
ners 56 informiert den Computer 10, welche Videospur in Verbin
dung mit der Treffer-Testspur benutzt wird. Solche Informatio
nen können wichtig sein, wenn es mehrere Treffer-Testspuren
gibt, welche sich auf die gleiche Videospur beziehen. Das Kom
pressionsformat 58 zeigt das zur Kompression der Treffer-Test
daten 60 benutzte Format an.
Wie bereits gesagt, benutzt das bevorzugte Ausführungsbei
spiel die verlustlose Datencodierung für die Treffer-Testdaten
62, obwohl eine Mehrzahl von verschiedenen Kompressionsformaten
sowohl für die Videospur als auch für die Treffer-Testdaten 62
benutzt werden können. Es gibt eine Mehrzahl von anwendbaren
Verfahren zur verlustlosten Codierung, einschließlich der be
kannten Lauflängen-Codierung oder der Huffmann-Codierung. Durch
Anzeigen des Kompressionsformats kann der Computer 10 sofort
bestimmen, wie die Treffer-Testdaten zu dekomprimieren sind.
Die Pixel-Bittiefe 60 zeigt die Pixel-Bittiefe an, bis zu wel
cher die komprimierten Daten zu dekomprimieren sind. Dieses
Merkmal gestattet die korrekte Interpretation der Wortlänge der
Treffer-Testdaten 62. Es sei angemerkt, daß in der Treffer-
Testspur 50 andere kompakte Beschreibungen der Objekte als Kom
pressionstechniken benutzt werden können. Beispielsweise kann
es wünschenswert sein, eine geometrische Beschreibung der Ob
jekte in der Treffer-Testspur 50 zu speichern. Diese Liste von
geometrischen Grundstrukturen für Treffer-Testgebiete würde in
gleicher Weise jedem Einzelbild der Original-Videospur entspre
chen.
Es sei außerdem angemerkt, daß die Treffer-Testspur 50
nicht alle oben beschriebenen Abschnitte zu enthalten braucht,
um voll arbeitsfähig zu sein. Anstelle der Anzeige des Kompres
sionsformats 58 oder der Pixel-Bittiefe 60 kann ein durch den
Computer 10 benutztes Standardkompressionsformat verwendet wer
den, welches diese Informationen automatisch zur Verfügung
stellt. Beispielsweise kann die Erfindung aus Kompressionforma
ten Nutzen ziehen, die durch ein Softwareprogramm, welches
Mehrspur-Filme manipuliert (einschließlich Kompression und De
kompression), angeboten werden, wodurch der Computer 10 automa
tisch weiß, wie verschiedene Datenarten in Übereinstimmung mit
verschiedenen Kompressionsformaten zu handhaben sind.
Zusätzlich zu den oben beschriebenen, innerhalb des Daten
felds der Treffer-Testspur 50 enthaltenen Informationsabschnit
ten gibt es weitere Informationsanteile, die darin enthalten
sein können. Zwei solcher Anteile werden im folgenden unter Be
zugnahme auf Fig. 4b beschrieben. Eine Tabelle 64 zum Zuordnen
von Zeichenkettennamen zu Objekten kann benutzt werden, um
ASCII-Zeichenkettennamen bestimmten Objekten in der entspre
chenden Video- oder Tonspur zuzuordnen. Beispielsweise kann es
wünschenswert sein, den Namen "Würfel" entsprechend allen in
einem Würfel enthaltenen Pixeln einer Videoabbildung in der
Treffer-Testspur zu speichern. Eine ähnliche Tabellenkonstruk
tion könnte eine Liste einer Serie von Nummern und zugeordneten
Namenszeichenketten enthalten, wie beispielsweise ((1, Würfel),
(2, Gemälde), (3, Stuhl), (4, Flag), usw.). Diese Namen können
dann weitergeleitet werden zu einer Schriftumgebung für eine
weitergehende Interpretation oder Benutzung. Eine Tabelle 66
zur Zuordnung von Objekten zu Ereignissen kann in ähnlicher
Weise benutzt werden, um Ereignisse bestimmten Objekten zuzu
ordnen. Beispielsweise kann es wünschenswert sein, das Ereignis
"Spiele Filmszene 3" stets dann zu initiieren, wenn ein Benut
zer mit Hilfe der Steuerung durch das Zeigergerät 18 den Cursor
auf der Anzeige 20 benutzt, um ein in einem bestimmten Objekt
enthaltenes Pixel auszuwählen. Eine ähnliche Tabellenkonstruk
tion würde eine Liste einer Serie von Nummern und ihnen zuge
ordneter Ereigniszeichenketten enthalten, wie beispielsweise
((1, "Spiele Film X"), (2, "Spiele Ton Y"), (3, "Gehe zum Bild
schirm 10") (4 "Spiele Film Z,") usw.). Auch diese Ereignisse
können dann weitergeleitet werden zu einer interpretierbaren
Schriftumgebung.
Obwohl näher anhand der Fig. 5 und 6 erörtert, soll
jetzt die Arbeitsweise eines Computers 10, der ein Treffer-
Testspuren als Teil eines Mehrspur-Films benutzendes Programm
abarbeitet, kurz beschrieben werden. Um zu bestimmen, wann auf
die Daten in der Treffer-Testspur zugegriffen werden soll, be
stimmt das Programm des Computers 10, wann ein Benutzer eine
Auswahl an einer bestimmten Position des Bildschirms der An
zeige 20 getroffen hat, wo der Cursor angezeigt wird. Das Pro
gramm bestimmt dann, welches Einzelbild der Videosequenz aktu
ell angezeigt wird. An dieser Stelle befragt das Programm jede
Spur des Mehrspur-Films, um zu ermitteln, welche Spur den Kenn
zeichner besitzt, der anzeigt, daß sie eine Treffer-Testspur
für die angezeigte bestimmte Videospur ist. Sobald die ge
eignete Treffer-Testspur bestimmt worden ist, wird auf das dem
aktuell angezeigten Video-Einzelbild entsprechende Einzelbild
in der Treffer-Testspur zugegriffen und dieses entsprechend dem
Kompressionsformat, in dem es gespeichert ist, dekomprimiert.
Während der Dekompression wird nur das Gebiet am oder in
der Umgebung des interessierenden Pixels dekomprimiert. Wenn
das exakte Pixel für die Objektauswahl identifiziert worden
ist, wird sein dekomprimierter Wert an das Programm als Kenn
zeichner des Objekts zurückgegeben. Der Objektkennzeichner kann
dann benutzt werden, um in eine Namenstabelle oder Ereignista
belle abzubilden (map), sofern dies gewünscht ist. Wenn mit
Hilfe des Objektkennzeichners in einer Namenstabelle abgebildet
worden ist, wird ein ASCII-Zeichenkettenname an das Programm
zurückgegeben. Wenn mit Hilfe des Objektkennzeichners in eine
Ereignistabelle abgebildet worden ist, wird das "Ereignis" an
das System zurückgegeben, welches das Auftreten verschiedener
Ereignisse auslösen kann, wie beispielsweise das Abspielen ei
nes Tons, die Anzeige einer Sequenz von Videoeinzelbildern oder
eine Abbildung auf dem Bildschirm der Anzeige 20. Wie oben er
wähnt, ist das auszulösende und durch das Programm zu behan
delnde Ereignis in Form von Daten in der Ereignistabelle ent
halten. Die Bedeutung solcher Ereignisse hängt von der Art der
vom interessierenden Programm benutzten interaktiven Umgebung
ab. Im bevorzugten Ausführungsbeispiel der Erfindung werden Er
eignisse durch eine Schriftsprache höheren Niveaus interpre
tiert.
Anhand von Fig. 5 wird im folgenden ein Ablaufdiagramm be
schrieben, das die interaktive Wiedergabe einer Filmsequenz un
ter Benutzung der erfindungsgemäßen Treffer-Testspuren dar
stellt. Wenn die Einzelbilder einer sich bewegenden Bildfolge
von einer Videospur durch den Computer 10 wiedergegeben werden
(Block 70), testet das Programm, ob ein Mausbetätigungsereignis
in dem Video-Einzelbild aufgetreten ist (Block 72). Wenn in ei
nem Video-Einzelbild ein Mausbetätigungsereignis aufgetreten
ist, wird das Video-Einzelbild X ebenso wie die Mausposition
(mx, my) zur Zeit des Mausbetätigungsereignisses im Speicher 16
aufgezeichnet (Block 74). Wenn kein Mausbetätigungsereignis
aufgetreten ist, kehrt das Programm zum Block 70 zurück, um mit
der Wiedergabe der Filmsequenz fortzufahren. Nach dem Speichern
des Video-Einzelbildes X und der Mausbetätigungsposition (mx,
my) fährt das Programm fort, die Benutzerdatenfelder sämtlicher
Spuren des Mehrspur-Films nach einer Spur zu durchsuchen, die
den Treffer-Testspur-Kennzeichner oder -Tag "HIT-" aufweist
(Block 76).
Wenn eine als Treffer-Testspur identifizierte Spur gefunden
worden ist (Block 78), durchsucht das Programm die Benutzerda
ten der Treffer-Testspur, um zu überprüfen, ob die identifi
zierte Treffer-Testspur sich auf die aktuelle, gerade ange
zeigte Videospur bezieht (Block 80). Wenn sich die Treffer-
Testspur auf die aktuelle Videospur bezieht, bestimmt dann das
Programm das Kompressionsformat Z (es sei denn, es gibt ein
Standardkompressionsformat) und die Bittiefe, bis zu welcher
die Daten dekomprimiert werden sollen (Block 82). Der nächste
Schritt des Verfahrens ist die Dekompression des geeigneten
Einzelbilds X (das dem Video-Einzelbild X in der Sequenz ent
spricht) der Treffer-Testspur mit Hilfe des Dekompressionsver
fahrens Z. Obwohl die auftretende Dekompression am gesamten Vi
deoeinzelbild X ausgeführt werden kann, wird vorzugsweise nur
das Gebiet um den durch den Benutzer in dem Video-Einzelbild X
ausgewählten exakten Pixelort (mx, my) dekomprimiert (Block
84). Man beachte, daß der Wert des Objektkennzeichners für das
ausgewählte Objekt unabhängig von der Lage des durch den Benut
zer ausgewählten Pixels innerhalb des Objekts gleichbleibt. Ob
wohl die Dekompression des gesamten Objekts sicher den geeigne
ten Objektkennzeichner erzeugen würde, führt die Dekompression
nur des Ortes des ausgewählten Pixels zum gleichen Ergebnis.
Der Wert des Objektkennzeichners der dekomprimierten Daten am
Ort des Pixels (mx, my) wird dann an das System zurückgegeben
(Block 86). Wie zuvor beschrieben, können komplexere optionelle
Versionen des o.g. Verfahrens die Treffer-Testdaten dekompri
mieren und den Objektkennzeichner benutzen, um in eine Tabelle
abzubilden, welche entweder einen ASCII-Namen oder ein vom Pro
gramm auszulösendes Ereignis rückzuführen.
Anhand von Fig. 6 wird im folgenden ein Ablaufdiagramm be
schrieben, das die Erzeugung von Treffer-Testspuren für Mehr
spur-Filme in Übereinstimmung mit dem bevorzugten Ausführungs
beispiel der Erfindung darstellt. Im Block 90 wird ein gerade
digitalisiertes Video-Einzelbild oder ein dargestelltes Anima
tionseinzelbild aus einer Sequenz sich bewegender Abbildungen
eingegeben. Dann sieht das Programm nach, ob das Eingabe-Ein
zelbild von einer dargestellten Animation oder von einem digi
talisierten Video herrührt (Block 92). Wenn das Eingabe-Einzel
bild von einer dargestellten Animation herrührt, wird ein Ein
zelbildpuffer für das Einzelbild erzeugt, wenn die Abbildung
aus der Sequenz dargestellt wird (Block 94). Wie zuvor disku
tiert, wird dieser Einzelbildpuffer, welcher später in die
Treffer-Testspur eingefügt wird, als eine Speicherabbildung
sämtlicher Objekte in der Szene benutzt, indem jedes innerhalb
des das Objekt definierenden Gebiets enthaltene Pixel mit einer
Einzelbildnummer oder einem Objektkennzeichner bezeichnet wird.
Man beachte, daß Pixel innerhalb des gleichen Objekts oder in
teressierenden Gebiets den gleichen Objektkennzeichner enthal
ten.
Wenn das Eingabe-Einzelbild von einem digitalisierten Video
herrührt, werden die Objekte in der in dem Video-Einzelbild
dargestellten Videoszene mit Hilfe von Mustererkennungstechni
ken oder über ein manuelles Nachzeichnen des Objekts segmen
tiert, um einen Einzelbildpuffer für diese Szene zu erzeugen
(Block 96). Obwohl Mustererkennungstechniken weniger arbeitsin
tensiv als das manuelle Objektnachzeichnen sind, kann die Ef
fektivität der Mustererkennung und somit der Objektkennzeich
nung in Abhängigkeit von den zu erkennenden Inhalten signifi
kant variieren. Zusätzlich hat das manuelle Objektnachzeichnen
den Vorteil, dem Benutzer das Spezifizieren von interessieren
den "unsichtbaren" Gebieten zusätzlich zu den interessierenden
sichtbaren Objekten zu ermöglichen. Unabhängig von der Art der
Eingabedaten wird jeder Einzelbildpuffer, sobald er geschaffen
wurde, mit Hilfe einer verlustlosen Kompression komprimiert
(Block 98). Im Block 100 sieht das Programm dann nach, ob die
dem Einzelbildpuffer entsprechende Videospur stärker als bis zu
einer vorgegebenen Grenze, wie beispielsweise 10:1 komprimiert
ist. Wie oben gesagt ist es bei starker Kompression der Video
spur sinnvoll, eine unterabgetastete oder gröber gerasterte
Version des Einzelbildpuffers zu verwenden, wie beispielsweise
eine Unterabtastung in der Größenordnung von 2:1 oder 4:1. Es
sei erneut angemerkt, daß bei Verwendung eines unterabgetaste
ten Einzelbildpuffers geringerer Auflösung bei der Wiedergabe
der nächstmögliche Objektkennzeichnungswert in der gröber ge
rasterten Version der Treffer-Testspur als Objektkennzeichner
benutzt wird.
Unabhängig von der Art des benutzten Einzelbildpuffers wer
den im Block 106 die Abbildungen in jedem Einzelbildpuffer als
komprimiertes Einzelbild in dem Treffer-Testdatenanteil der
Treffer-Testspur gespeichert. Das der Treffer-Testspur entspre
chende Videoeinzelbild wird dann in der Videospur gespeichert
(Block 108). Dieses Verfahren wird für jedes Einzelbild der Se
quenz von Abbildungen fortgesetzt, bis alle Einzelbilder der
Sequenz verarbeitet sind (Block 110); dann wird der Rest der
Benutzerdaten, wie beispielsweise der Treffer-Test-Tag 52, die
Größe des Datenfelds 54, der Videospurkennzeichner 56, das For
mat 58 der verlustlosen Kompression und die Pixel-Bittiefe 60,
in der Treffer-Testspur 50 gespeichert (Block 112).
Es sei angemerkt, daß die Erfindung Anwendungen bei Video
anzeige- und -manipulationstechnologien findet, wie beispiels
weise die oben beschriebenen Multimedia-Anwendungen, aber auch
auf anderen Gebieten anwendbar ist, wie beispielsweise bei Vi
deospielen, wenn eine pixelgenaue, einzelbildgenaue Objektaus
wahl wünschenswert ist.
Claims (39)
1. Verfahren zum Kennzeichnen und nachfolgenden Identifi
zieren ausgewählter Gebiete (32) innerhalb von Bildern einer
Folge von Bildern , die durch ein Display (20) eines einen
Speicher (16) zum Speichern Bildern aufweisenden Computers (10)
anzeigbar sind,
gekennzeichnet durch ,
- a) Identifizieren eines zu kennzeichnenden Gebiets (32) in nerhalb eines Bildes (30) aus der Folge von Bildern;
- b) Kennzeichnen jedes Pixels innerhalb des Gebiets (32) mit einem für das Gebiet speziellen Gebietsidentifizierer;
- c) Speichern jedes gekennzeichneten Pixels in einem gekenn zeichneten Abschnitt (36; 50) des mit dem Bild verknüpften Speichers,
- d) Wiederholen der Schritte a) bis c) für jedes ausgewählte Gebiet (32) innerhalb jedes Bildes (30) aus der Folge von Bil dern;
- e) Durchsuchen des Speichers (16) in Abhängigkeit von einer Benutzerauswahl eines Pixelortes innerhalb eines ausgewählten Gebiets (32) aus einem auf dem Display (20) angezeigten ausge wählten Bild (30), um einen dem ausgewählten Bild (30) entspre chenden gekennzeichneten Abschnitt (36; 50) zu lokalisieren;
- f) Auswerten des dem ausgewählten Bild entsprechenden Ab schnitts (36; 50), um einen dem Pixelort entsprechenden Ge bietsidentifizierer zu lokalisieren; und
- g) Identifizieren des Gebietsidentifizierers für den Compu ter (10) als Hinweis auf das ausgewählte Gebiet.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
ferner in einem Schritt (h) der dem Pixelort entsprechende Ge
bietsidentifizierer mit einer zusätzliche Informationen über
das ausgewählte Gebiet enthaltenden Tabelle (64, 66) verglichen
wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß
die zusätzlichen Informationen einen Namen für das ausgewählte
Gebiet enthalten.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeich
net, daß die zusätzlichen Informationen eine zum ausgewählten
Gebiet korrespondierende und durch den Computer auszuführende
Aktivität enthalten.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge
kennzeichnet, daß die Bilder Video-Einzelbilder (30) aus einer
Video-Einzelbildfolge sind und daß im Schritt (a) jedes zu
kennzeichnende Gebiet (32) aus jedem Video-Einzelbild heraus
mit Hilfe eines Mustererkenners segmentiert wird.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge
kennzeichnet, daß die Bilder Video-Einzelbilder (30) aus einer
Video-Einzelbildfolge sind und daß im Schritt a) jedes zu kenn
zeichnende Gebiet (32) aus jedem Video-Einzelbild heraus ma
nuell segmentiert wird.
7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge
kennzeichnet, daß die Bilder dargestellte Einzelbilder (30) aus
einer dargestellten Einzelbildfolge sind und daß der Schritt a)
eine Darstellung der dargestellten Einzelbilder enthält, um je
des zu kennzeichnende Gebiet (32) aus jedem dargestellten Ein
zelbild heraus zu identifizieren.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch ge
kennzeichnet, daß die ausgewählten Gebiete (32) sichtbaren Ob
jekten und/oder abstrakten Gebieten innerhalb der Bilder (30)
entsprechen.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch ge
kennzeichnet, daß im Schritt b)
das Gebiet (32) in einen dem Bild (30) entsprechenden Ein zelbildpuffer (34) abgebildet; und
der Gebietsidentifizierer jedem Pixel innerhalb des Gebiets zugeordnet wird, um gekennzeichnete Pixel innerhalb des Einzel bildpuffers (34) entsprechend den Pixelorten innerhalb des Bil des (30) zu bilden.
das Gebiet (32) in einen dem Bild (30) entsprechenden Ein zelbildpuffer (34) abgebildet; und
der Gebietsidentifizierer jedem Pixel innerhalb des Gebiets zugeordnet wird, um gekennzeichnete Pixel innerhalb des Einzel bildpuffers (34) entsprechend den Pixelorten innerhalb des Bil des (30) zu bilden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
im Schritt c) folgende Schritte ausgeführt werden:
Komprimieren des Einzelbildpuffers (34);
Speichern des komprimierten Einzelbildpuffers (34) in den gekennzeichneten Abschnitt (50) des Speichers (16); und
Speichern eines Bildidentifizierers (56) gemeinsam mit dem komprimierten Einzelbildpuffer (34) in dem gekennzeichneten Ab schnitt (50) des Speichers (16), um den gekennzeichneten Ab schnitt des Speichers mit dem Bild zu verknüpfen.
Komprimieren des Einzelbildpuffers (34);
Speichern des komprimierten Einzelbildpuffers (34) in den gekennzeichneten Abschnitt (50) des Speichers (16); und
Speichern eines Bildidentifizierers (56) gemeinsam mit dem komprimierten Einzelbildpuffer (34) in dem gekennzeichneten Ab schnitt (50) des Speichers (16), um den gekennzeichneten Ab schnitt des Speichers mit dem Bild zu verknüpfen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
die Bilder zur Speicherung in dem Speicher (16) komprimiert
werden und daß der Einzelbildpuffer (34) mit Hilfe eines ver
lustlosen Kompressionsformats komprimiert wird.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß
ein Einzelbildpuffer (34) normaler Auflösung benutzt wird, wenn
die Bilder mit einem Verhältnis gleich oder kleiner einem vor
gegebenen Grenzwert komprimiert werden, und daß ein unterabge
tasteter Zwischenbildpuffer (34) geringer Auflösung benutzt
wird, wenn die Bilder mit einem Verhältnis größer als der vor
gegebene Grenzwert komprimiert werden.
13. Verfahren nach einem der Ansprüche 10 bis 12, dadurch
gekennzeichnet, daß im Schritt c) ferner ein Speicheridentifi
zierer (52) für den gekennzeichneten Abschnitt (50) des Spei
chers gemeinsam mit dem Bildidentifizierer gespeichert wird, um
den gekennzeichneten Abschnitt (50) des Speichers für den Com
puter (10) von anderen Abschnitten des Speichers (16) unter
scheidbar zu machen.
14. Verfahren nach einem der Ansprüche 10 bis 13, dadurch
gekennzeichnet, daß im Schritt c) ferner ein Kompressionsfor
matsanzeigers (58) gemeinsam mit dem Bildidentifizierer zum An
zeigen eines Kompressionsformats des komprimierten Einzelbild
puffers (34) für den Computer (10) gespeichert wird.
15. Verfahren nach einem der Ansprüche 10 bis 14, dadurch
gekennzeichnet, daß im Schritt c) ein Pixel-Bittiefenanzeiger
(60) mit dem Bildidentifizierer gespeichert wird, um dem Compu
ter beim Dekomprimieren des gekennzeichneten Pixel eine Bit
tiefe für jedes gekennzeichnete Pixel anzuzeigen.
16. Verfahren nach einem der Ansprüche 10 bis 15, dadurch
gekennzeichnet, daß im Schritt c) ferner eine Gebiet-zu-Namen-
Abbildungstabelle (64) gespeichert wird, wobei der Bildidenti
fizierer einen Namen für das ausgewählte Gebiet enthält, der
dem Computer mitgeteilt wird, wenn das ausgewählte Gebiet im
Schritt g) für den Computer identifiziert wird.
17. Verfahren nach einem der Ansprüche 10 bis 15, dadurch
gekennzeichnet, daß im Schritt c) eine Gebiet-zu-Ereignis-Ab
bildungstabelle (66) gespeichert wird, wobei der Bildidentifi
zierer ein Ereignis entsprechend dem ausgewählten Gebiet ent
hält, das dem Computer mitgeteilt und von ihm bearbeitet wird,
wenn das ausgewählte Gebiet im Schritt (g) für den Computer
identifiziert wird.
18. Verfahren zum Unterstützen einer Benutzerauswahl von
Gebieten (32) innerhalb von Bildern (30), die durch eine Folge
von zugehörigen temporären Spuren (40, 42) von in einem Spei
cher (16) eines Computers gespeicherten Bilddaten dargestellt
werden, wobei der Computer so ausgebildet ist, daß er die Bil
der auf einem Computerdisplay (20) durch Zugreifen auf die tem
porären Spuren (40, 42) der Bilddaten aus dem Speicher (16) se
lektiv wiedergibt, und wobei jede der temporären Spuren (40,
42) der Bilddaten im Speicher um eine feste Zeit gegenüber den
temporären Spuren von im Speicher gespeicherten Bilddaten ver
schoben werden kann,
gekennzeichnet durch ,
- a) Identifizieren eines Gebiets (32) innerhalb eines Bildes (30), das von dem Benutzer ausgewählt werden konnte,
- b) Kennzeichnen jedes Pixels innerhalb des Gebiets (32) mit einem Gebietsidentifizierer, der für dieses Gebiet spezifisch ist;
- c) Speichern jedes gekennzeichneten Pixels in einer gekenn zeichneten Spur (44; 50) in dem Speicher (16) entsprechend dem Bild (30);
- d) Wiederholen der Schritte a) bis c) für jedes Gebiet (32) innerhalb jedes vom Benutzer auswählbaren Bildes (30);
- e) Durchsuchen des Speichers (16) in Abhängigkeit von einer vom Benutzer getroffenen Auswahl eines Pixelortes innerhalb ei nes ausgewählten Gebiets aus einem ausgewählten Bild, um eine gekennzeichnete Spur (44; 50) entsprechend dem ausgewählten Bild zu lokalisieren;
- f) Durchsuchen der gekennzeichneten Spur nach einem dem Pi xelort entsprechenden gekennzeichneten Pixel; und
- g) Abrufen des Gebietsidentifizierers entsprechend dem ge kennzeichneten Pixel aus dem Speicher zum Anzeigen des ausge wählen Gebiets für den Computer.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß
- h) der Gebietsidentifizierer entsprechend dem Pixelort mit einer zusätzliche Informationen über das ausgewählte Gebiet enthaltenden Tabelle (64, 66) verglichen wird.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß
die zusätzlichen Informationen einen Namen für das dem Benutzer
vom Computer mitzuteilende ausgewählte Gebiet enthalten.
21. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß
die zusätzlichen Informationen einen Aktionsidentifizierer ent
halten, der dem ausgewählten Gebiet entspricht und von dem Com
puter zur Durchführung einer sich auf das ausgewählte Gebiet
beziehenden Aktion verwendet werden kann.
22. Verfahren nach einem der Ansprüche 18 bis 21, dadurch
gekennzeichnet, daß die Gebiete visuelle Objekte und abstrakte
Zonen innerhalb der Bilder enthalten.
23. Verfahren nach einem der Ansprüche 18 bis 22, dadurch
gekennzeichnet, daß im Schritt b) das Gebiet in einen dem Bild
(30) entsprechenden Einzelbildpuffer (34) abgebildet wird und
daß der Gebietsidentifizierer jedem Pixel innerhalb des Gebiets
zur Bildung gekennzeichneter Pixel innerhalb des Einzelbildpuf
fers (34) entsprechend den Pixelorten im Bild (30) zugeordnet
wird.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, daß
der Einzelbildpuffer (34) komprimiert, der komprimierte Einzel
bildpuffer in der gekennzeichneten Spur (44; 50) gespeichert
und ein Bildidentifizierer (52, 56) mit dem komprimierten Ein
zelbildpuffer in der gekennzeichneten Spur gespeichert wird.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, daß
die Bilddaten komprimierte Darstellungen der Bilder sind und
der Einzelbildpuffer (34) eine komprimierte Darstellung des Ge
biets ist und von dem Computer unter Verwendung eines verlust
losen Kompressionsformats komprimiert werden kann.
26. Verfahren nach einem der Ansprüche 23 bis 25, dadurch
gekennzeichnet, daß ein Einzelbildpuffer (34) normaler Auflö
sung benutzt wird, wenn die Bilder bei einem Verhältnis gleich
oder kleiner einem vorgegebenen Grenzwert komprimiert werden,
und daß ein unterabgetasteter Bildpuffer niedriger Auflösung
verwendet wird, wenn die Bilder bei einem Verhältnis größer als
der vorgegebene Grenzwert komprimiert werden.
27. Verfahren nach einem der Ansprüche 18 bis 26, dadurch
gekennzeichnet, daß im Schritt c) ein gekennzeichneter Spur
identifizierer (52) in der gekennzeichneten Spur (44; 50) ge
speichert wird, um die gekennzeichnete Spur für den Computer
von den temporären Spuren (40; 42) von Bilddaten unterscheidbar
zu machen.
28. Verfahren nach einem der Ansprüche 18 bis 27, dadurch
gekennzeichnet, daß der dem gekennzeichneten Pixel entspre
chende Gebietsidentifizierer im Schritt g) aus dem Speicher
(16) dadurch abgerufen wird, daß wenigstens eines der gekenn
zeichneten Pixel aus dem Einzelbildpuffer (34) dekomprimiert
wird, und daß im Schritt c) ein Kompressionsformat in der ge
kennzeichneten Spur (44; 50) in solcher Weise gespeichert wird,
daß ein vom Computer zu verwendendes Format beim Dekomprimieren
der gekennzeichneten Pixel angezeigt wird.
29. Verfahren nach Anspruch 28, dadurch gekennzeichnet, daß
im Schritt c) ein Pixel-Bittiefenindikator (60) in der gekenn
zeichneten Spur (44; 50) in solcher Weise gespeichert wird, daß
die Bittiefe angezeigt wird, bei der die gekennzeichneten Pixel
dekomprimiert werden.
30. Verfahren nach einem der Ansprüche 18 bis 24, dadurch
gekennzeichnet, daß im Schritt c) ein Gebiet in eine Namen-Ab
bildungstabelle (84) in der gekennzeichneten Spur (44, 50) ge
speichert wird, wobei die Tabelle einen Namen für das ausge
wählte Gebiet enthält, der dem Computer mitgeteilt wird, wenn
der Gebietsidentifizierer von dem Computer aufgerufen wird.
31. Verfahren nach einem der Ansprüche 18 bis 24, dadurch
gekennzeichnet, daß im Schritt c) ein Gebiet in eine Ereignis-
Abbildungstabelle (66) in der gekennzeichneten Spur (44; 50)
gespeichert wird und daß die Tabelle ein Ereignis entsprechend
dem ausgewählten Gebiet enthält, das dem Computer mitgeteilt
und von diesem bearbeitet wird, wenn der Gebietsidentifizierer
vom Computer aufgerufen wird.
32. Treffer-Testspur zum Identifizieren und Unterstützen
einer Benutzerauswahl von Einzelbildern (items) innerhalb einer
von einem Computer (10) ausführbaren Multimedia-Werks, das
durch eine Folge von temporären Spuren (40, 42) aus in einem
vom Computer (10) benutzten Speicher (16) gespeicherten Daten
dargestellt ist, wobei jede der temporären Datenspuren (40, 42)
gegenüber anderen temporären Datenspuren um eine feste Zeit
versetzt ist,
gekennzeichnet durch,
einen Datenabschnitt (62), der im Betrieb von dem Computer (10) zur Identifizierung der Einzelbilder verwendbar ist und einen Identifizierer für jedes der Einzelbilder enthält;
einen vom Computer (10) zur Bezeichnung einer von dem Da tenabschnitt belegten Größe des Speichers (14) verwendeten Da tenabschnitt-Größenindikator (54);
einen vom Computer (10) zur Anzeige einer dem Datenab schnitt entsprechenden temporären Spur (40, 42) verwendeten temporären Spuridentifizierer (56); und
einen vom Computer zur Unterscheidung der Treffer-Testspur (44; 50) von den temporären Spuren (40, 42) verwendeten Tref fer-Testidentifizierer (52).
einen Datenabschnitt (62), der im Betrieb von dem Computer (10) zur Identifizierung der Einzelbilder verwendbar ist und einen Identifizierer für jedes der Einzelbilder enthält;
einen vom Computer (10) zur Bezeichnung einer von dem Da tenabschnitt belegten Größe des Speichers (14) verwendeten Da tenabschnitt-Größenindikator (54);
einen vom Computer (10) zur Anzeige einer dem Datenab schnitt entsprechenden temporären Spur (40, 42) verwendeten temporären Spuridentifizierer (56); und
einen vom Computer zur Unterscheidung der Treffer-Testspur (44; 50) von den temporären Spuren (40, 42) verwendeten Tref fer-Testidentifizierer (52).
33. Treffer-Testspur nach Anspruch 32, dadurch gekennzeich
net, daß der Datenabschnitt (62) einen Bildpuffer (34) entspre
chend einer Einzelbildgruppe enthält und daß die Einzelbild
identifizierer für die Einzelbildgruppe innerhalb des Einzel
bildpuffers gespeichert sind.
34. Treffer-Testspur nach Anspruch 33, dadurch gekennzeich
net, daß der Einzelbildpuffer (34) unter Verwendung eines ver
lustlosten Kompressionsformats vor der Speicherung in dem Spei
cher mit Hilfe des Computers (10) komprimierbar ist.
35. Treffer-Testspur nach Anspruch 34, dadurch gekennzeich
net, daß die temporären Datenspuren (40, 42) in einem kompri
mierten Format in dem Speicher (16) gespeichert sind, daß der
Einzelbildpuffer (34) als Puffer normaler Auflösung vorgesehen
ist, wenn die temporären Datenspuren mit einem Verhältnis
gleich oder kleiner einem vorgegebenen Grenzwert komprimiert
sind und daß der Einzelbildpuffer als Einzelbildpuffer niedri
ger Auflösung mit Unterabtastung vorgesehen ist, wenn die tem
porären Datenspuren bei einem Verhältnis größer als der vorge
gebene Grenzwert komprimiert sind.
36. Treffer-Testspur nach Anspruch 32 oder 33, dadurch ge
kennzeichnet, daß der Bildpuffer (34) von dem Computer vor
Speicherung in ein Kompressionsformat komprimierbar ist und daß
die Treffer-Testspur (44; 50) außerdem einen Kompressionsfor
mat-Indikator (58) aufweist, der dem Computer zur Bestimmung
des Kompressionsformats dient.
37. Treffer-Testspur nach Anspruch 33, dadurch gekennzeich
net, daß jedes der Einzelbilder ein auf einem Display (20) des
Computers (10) abbildbares Objekt (32) ist, wenn das Multime
dia-Werk vom Computer (10) ausgeführt wird, daß der Einzelbild
puffer (34) eine Gruppe (36) von Pixeln entsprechend jedem der
Einzelbilder (32) enthält, daß der Einzelbildpuffer von dem
Computer (10) vor der Speicherung in dem Speicher (16) in ein
Kompressionsformat komprimierbar ist und daß die Treffer-Test
spur (44; 50) außerdem einen Bittiefenindikator (60) enthält,
der dem Computer zur Anzeige einer Kompressionsbittiefe für die
Pixelgruppe dient, wenn der Einzelbildpuffer (34) aus dem Spei
cher (16) aufgerufen wird.
38. Treffer-Testspur nach einem der Ansprüche 32 bis 37,
dadurch gekennzeichnet, daß die Treffer-Testspur eine Einzel
bild-zu-Namen-Abbildungstabelle (64) enthält, die für jedes der
Einzelbilder (32) einen Namen enthält.
39. Treffer-Testspur nach einem der Ansprüche 32 bis 37,
dadurch gekennzeichnet, daß die Treffer-Testspur (44; 50) eine
Einzelbild-zu-Ereignis-Abbildungstabelle (66) enthält, in der
jedes Ereignis einem ausgewählten Einzelbild (32) entspricht
und von dem Computer ausführbar ist, nachdem ein Benutzer ein
Einzelbild auswählt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79032791A | 1991-11-12 | 1991-11-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4225872A1 true DE4225872A1 (de) | 1993-05-13 |
DE4225872C2 DE4225872C2 (de) | 2001-10-11 |
Family
ID=25150337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4225872A Expired - Lifetime DE4225872C2 (de) | 1991-11-12 | 1992-08-05 | Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern |
Country Status (3)
Country | Link |
---|---|
US (6) | US6219048B1 (de) |
DE (1) | DE4225872C2 (de) |
FR (1) | FR2683648B1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0841610A2 (de) * | 1996-11-12 | 1998-05-13 | Adobe Systems, Inc. | Auswählbare Bereiche in interaktiven Filmen |
WO2001098943A2 (de) * | 2000-06-23 | 2001-12-27 | Realspace Gmbh | Verfahren zur erzeugung einer darstellung eines objektes mit interaktiven flaechen |
US7139970B2 (en) | 1998-04-10 | 2006-11-21 | Adobe Systems Incorporated | Assigning a hot spot in an electronic artwork |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5727141A (en) * | 1995-05-05 | 1998-03-10 | Apple Computer, Inc. | Method and apparatus for identifying user-selectable regions within multiple display frames |
US6496981B1 (en) * | 1997-09-19 | 2002-12-17 | Douglass A. Wistendahl | System for converting media content for interactive TV use |
US6775417B2 (en) * | 1997-10-02 | 2004-08-10 | S3 Graphics Co., Ltd. | Fixed-rate block-based image compression with inferred pixel values |
ID27878A (id) * | 1997-12-05 | 2001-05-03 | Dynamic Digital Depth Res Pty | Konversi image yang ditingkatkan dan teknik mengenkodekan |
US6712703B2 (en) | 1998-11-19 | 2004-03-30 | Nintendo Co., Ltd. | Video game apparatus and information storage medium for video game |
US6692357B2 (en) * | 1998-11-19 | 2004-02-17 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced player object action control |
US6325717B1 (en) * | 1998-11-19 | 2001-12-04 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced virtual camera control |
US6612930B2 (en) | 1998-11-19 | 2003-09-02 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced virtual camera control |
US6462754B1 (en) * | 1999-02-22 | 2002-10-08 | Siemens Corporate Research, Inc. | Method and apparatus for authoring and linking video documents |
US6621503B1 (en) * | 1999-04-02 | 2003-09-16 | Apple Computer, Inc. | Split edits |
US6892353B1 (en) * | 1999-04-02 | 2005-05-10 | Apple Computer, Inc. | Edit to tape |
KR100295610B1 (ko) * | 1999-11-09 | 2001-07-12 | 장영규 | 동영상 편집 시스템 및 이를 이용한 객체 정보 서비스 방법 |
US6642940B1 (en) * | 2000-03-03 | 2003-11-04 | Massachusetts Institute Of Technology | Management of properties for hyperlinked video |
US6636237B1 (en) * | 2000-07-31 | 2003-10-21 | James H. Murray | Method for creating and synchronizing links to objects in a video |
US6964023B2 (en) * | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
US7143353B2 (en) * | 2001-03-30 | 2006-11-28 | Koninklijke Philips Electronics, N.V. | Streaming video bookmarks |
JP3970102B2 (ja) * | 2001-06-28 | 2007-09-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US6931603B2 (en) * | 2001-11-29 | 2005-08-16 | International Business Machines Corporation | Method and system for appending information to graphical files stored in specific graphical file formats |
US20050075166A1 (en) * | 2002-05-14 | 2005-04-07 | Hemstreet Paul A. | Media program with interactive feature |
US7190839B1 (en) | 2002-06-12 | 2007-03-13 | Cadence Design System, Inc. | Methods and apparatus for generating multi-level graphics data |
US7212217B1 (en) * | 2002-06-12 | 2007-05-01 | Candence Design Systems, Inc. | Methods and apparatus for generating pixel data for multi-layer source images |
US7432939B1 (en) * | 2002-07-10 | 2008-10-07 | Apple Inc. | Method and apparatus for displaying pixel images for a graphical user interface |
US7082572B2 (en) * | 2002-12-30 | 2006-07-25 | The Board Of Trustees Of The Leland Stanford Junior University | Methods and apparatus for interactive map-based analysis of digital video content |
CA2527328C (en) * | 2003-05-29 | 2013-04-02 | Eat.Tv, Llc | System for presentation of multimedia content |
US20050076253A1 (en) * | 2003-10-05 | 2005-04-07 | De-Jen Lu | Method of url-based power management and associated web browsing device |
JP3793201B2 (ja) * | 2004-01-28 | 2006-07-05 | 任天堂株式会社 | ゲーム装置およびゲームプログラム |
EP1792314A1 (de) * | 2004-08-23 | 2007-06-06 | Sherpa Technologies, LLC | Selektive anzeige von thematischen informationen in video |
US8763052B2 (en) * | 2004-10-29 | 2014-06-24 | Eat.Tv, Inc. | System for enabling video-based interactive applications |
US7594177B2 (en) * | 2004-12-08 | 2009-09-22 | Microsoft Corporation | System and method for video browsing using a cluster index |
US8667540B2 (en) * | 2006-07-07 | 2014-03-04 | Apple Partners, Lp | Web-based video broadcasting system having multiple channels |
US20080011819A1 (en) * | 2006-07-11 | 2008-01-17 | Microsoft Corporation Microsoft Patent Group | Verification of hit testing |
US20090096927A1 (en) * | 2007-10-15 | 2009-04-16 | Camp Jr William O | System and method for video coding using variable compression and object motion tracking |
AR072022A1 (es) * | 2008-06-06 | 2010-07-28 | Grasslanz Technology Ltd | Genes involucrados en biosintesis de flavonoides en plantas |
US8354918B2 (en) * | 2008-08-29 | 2013-01-15 | Boyer Stephen W | Light, sound, and motion receiver devices |
MY151478A (en) * | 2009-08-10 | 2014-05-30 | Mimos Berhad | Object tracking system and method |
US8438199B1 (en) | 2009-09-10 | 2013-05-07 | Bentley Systems, Incorporated | System and method for identifying and highlighting a graphic element |
US8600171B2 (en) * | 2009-12-10 | 2013-12-03 | Canon Kabushiki Kaisha | Image labeling using parallel processing |
JP4858625B2 (ja) * | 2010-03-31 | 2012-01-18 | カシオ計算機株式会社 | 情報表示装置及びプログラム |
US20110296345A1 (en) * | 2010-05-27 | 2011-12-01 | Alcatel-Lucent Usa Inc. | Technique For Determining And Indicating Strength Of An Item In A Weighted List Based On Tagging |
US20110295859A1 (en) * | 2010-05-27 | 2011-12-01 | Alcatel-Lucent Usa Inc. | Technique For Multi-Dimensionally Determining Strength Of An Item In A Weighted List Based On Tagging |
GB2483282B (en) * | 2010-09-03 | 2017-09-13 | Advanced Risc Mach Ltd | Data compression and decompression using relative and absolute delta values |
US9792363B2 (en) * | 2011-02-01 | 2017-10-17 | Vdopia, INC. | Video display method |
JP5841538B2 (ja) * | 2011-02-04 | 2016-01-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 関心度推定装置および関心度推定方法 |
US8458588B1 (en) | 2011-02-25 | 2013-06-04 | Google Inc. | Determining content layout positions produced by a layout engine |
US20120290931A1 (en) * | 2011-05-13 | 2012-11-15 | Nokia Corporation | Apparatus and method for arranging supplementary information for media elements |
US8730264B1 (en) | 2011-09-26 | 2014-05-20 | Google Inc. | Determining when image elements intersect |
JP6032467B2 (ja) * | 2012-06-18 | 2016-11-30 | 株式会社日立製作所 | 時空間データ管理システム、時空間データ管理方法、及びそのプログラム |
CN103577322B (zh) * | 2012-08-08 | 2015-08-12 | 腾讯科技(深圳)有限公司 | 一种点击测试方法和装置 |
US10511649B2 (en) * | 2012-11-20 | 2019-12-17 | Pelco, Inc. | Method and apparatus for efficiently prioritizing elements in a video stream for low-bandwidth transmission |
EP3686754A1 (de) * | 2013-07-30 | 2020-07-29 | Kodak Alaris Inc. | System und verfahren zur erzeugung navigierbarer ansichten geordneter bilder |
KR20160024002A (ko) | 2014-08-21 | 2016-03-04 | 삼성전자주식회사 | 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치 |
US9733823B2 (en) | 2015-04-01 | 2017-08-15 | Microsoft Technology Licensing, Llc | View activation via hit testing in an asynchronous windowing system |
EP3501014A1 (de) * | 2016-08-17 | 2019-06-26 | VID SCALE, Inc. | Einfügen von sekundären inhalten in 360-grad-videos |
WO2018079166A1 (ja) * | 2016-10-26 | 2018-05-03 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
EP3811320A4 (de) * | 2018-06-20 | 2022-03-16 | Simbe Robotics, Inc. | Verfahren zur verwaltung von click-and-delivery-einkaufsereignissen |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305131A (en) | 1979-02-05 | 1981-12-08 | Best Robert M | Dialog between TV movies and human viewers |
US4333152A (en) | 1979-02-05 | 1982-06-01 | Best Robert M | TV Movies that talk back |
JPS5995645A (ja) * | 1982-11-24 | 1984-06-01 | Toshiba Corp | 情報整理装置 |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4941111A (en) * | 1986-04-18 | 1990-07-10 | Advanced Micro Devices, Inc. | Video picking and clipping method and apparatus |
US4837842A (en) | 1986-09-19 | 1989-06-06 | Holt Arthur W | Character and pattern recognition machine and method |
US5021770A (en) * | 1987-07-15 | 1991-06-04 | Hitachi, Ltd. | Image display system and data input apparatus used therein |
US4847700A (en) | 1987-07-16 | 1989-07-11 | Actv, Inc. | Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals |
US4985848A (en) * | 1987-09-14 | 1991-01-15 | Visual Information Technologies, Inc. | High speed image processing system using separate data processor and address generator |
FR2628553B1 (fr) | 1988-03-08 | 1990-11-09 | Labo Electronique Physique | Systeme graphique video muni d'un curseur graphique |
JPH0229880A (ja) | 1988-07-20 | 1990-01-31 | Fujitsu Ltd | ビデオレート領域分離方式 |
US5174759A (en) * | 1988-08-04 | 1992-12-29 | Preston Frank S | TV animation interactively controlled by the viewer through input above a book page |
GB8822062D0 (en) * | 1988-09-20 | 1988-10-19 | Quantel Ltd | Video processing |
US5155806A (en) * | 1989-03-15 | 1992-10-13 | Sun Microsystems, Inc. | Method and apparatus for displaying context sensitive help information on a display |
US5119474A (en) * | 1989-06-16 | 1992-06-02 | International Business Machines Corp. | Computer-based, audio/visual creation and presentation system and method |
CA2012796C (en) * | 1989-06-16 | 1996-05-14 | Bradley James Beitel | Trigger field display selection |
JPH03116474A (ja) * | 1989-09-28 | 1991-05-17 | Toppan Printing Co Ltd | カラオケ用cdiディスク |
US5208909A (en) * | 1989-10-23 | 1993-05-04 | International Business Machines Corporation | Pre-drawing pick detection in a graphics display system |
US5274753A (en) * | 1990-05-24 | 1993-12-28 | Apple Computer, Inc. | Apparatus for distinguishing information stored in a frame buffer |
US5237648A (en) * | 1990-06-08 | 1993-08-17 | Apple Computer, Inc. | Apparatus and method for editing a video recording by selecting and displaying video clips |
US5317680A (en) * | 1990-06-22 | 1994-05-31 | Broderbund Software, Inc. | Using regular graphic shapes to identify a pointer-selected graphic object |
EP0526064B1 (de) * | 1991-08-02 | 1997-09-10 | The Grass Valley Group, Inc. | Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial |
US5524193A (en) * | 1991-10-15 | 1996-06-04 | And Communications | Interactive multimedia annotation method and apparatus |
GB2261803B (en) * | 1991-10-18 | 1995-10-11 | Quantel Ltd | An image processing system |
-
1992
- 1992-07-31 FR FR9209556A patent/FR2683648B1/fr not_active Expired - Lifetime
- 1992-08-05 DE DE4225872A patent/DE4225872C2/de not_active Expired - Lifetime
-
1994
- 1994-10-24 US US08/328,394 patent/US6219048B1/en not_active Expired - Lifetime
-
1998
- 1998-12-08 US US09/207,393 patent/US6295055B1/en not_active Expired - Lifetime
-
2001
- 2001-09-18 US US09/956,169 patent/US7043694B2/en not_active Expired - Fee Related
-
2003
- 2003-05-02 US US10/428,356 patent/US7281212B2/en not_active Expired - Fee Related
-
2006
- 2006-05-10 US US11/432,217 patent/US7549122B2/en not_active Expired - Fee Related
- 2006-07-31 US US11/496,867 patent/US20070019889A1/en not_active Abandoned
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0841610A2 (de) * | 1996-11-12 | 1998-05-13 | Adobe Systems, Inc. | Auswählbare Bereiche in interaktiven Filmen |
EP0841610A3 (de) * | 1996-11-12 | 2000-01-26 | Adobe Systems, Inc. | Auswählbare Bereiche in interaktiven Filmen |
US7139970B2 (en) | 1998-04-10 | 2006-11-21 | Adobe Systems Incorporated | Assigning a hot spot in an electronic artwork |
US7949943B2 (en) | 1998-04-10 | 2011-05-24 | Adobe Systems Incorporated | Assigning a hot spot in an electronic artwork |
US8819544B2 (en) | 1998-04-10 | 2014-08-26 | Adobe Systems Incorporated | Assigning a hot spot in an electronic artwork |
WO2001098943A2 (de) * | 2000-06-23 | 2001-12-27 | Realspace Gmbh | Verfahren zur erzeugung einer darstellung eines objektes mit interaktiven flaechen |
WO2001098943A3 (de) * | 2000-06-23 | 2003-01-09 | Realspace Gmbh | Verfahren zur erzeugung einer darstellung eines objektes mit interaktiven flaechen |
Also Published As
Publication number | Publication date |
---|---|
US7043694B2 (en) | 2006-05-09 |
US6219048B1 (en) | 2001-04-17 |
US20040080525A1 (en) | 2004-04-29 |
US20060230353A1 (en) | 2006-10-12 |
FR2683648A1 (fr) | 1993-05-14 |
FR2683648B1 (fr) | 1996-12-13 |
US7281212B2 (en) | 2007-10-09 |
DE4225872C2 (de) | 2001-10-11 |
US20020054173A1 (en) | 2002-05-09 |
US7549122B2 (en) | 2009-06-16 |
US6295055B1 (en) | 2001-09-25 |
US20070019889A1 (en) | 2007-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4225872C2 (de) | Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern | |
DE69534331T2 (de) | Verfahren und Vorrichtung zur Hervorhebung der Einzelheit einer Baumstruktur | |
DE69731045T2 (de) | Navigation und Interaktion in strukturierten Informationsräumen | |
DE69531421T2 (de) | Darstellung des Inhalts eines einzigen Videobildes mit Anwendung von Rahmen | |
DE19708265B4 (de) | Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild | |
DE69731695T2 (de) | Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren | |
DE69629447T2 (de) | Benutzerinteraktion bei Bildern mit strukturiertem Bildformat | |
DE69636599T2 (de) | Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild | |
DE69531269T2 (de) | Transportieren eines an einen Sichtpunkt innerhalb oder zwischen navigierbaren Arbeitsräumen gekoppelten Anzeigeobjektes | |
DE69820093T2 (de) | Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation | |
DE69824905T2 (de) | Bildseitenverhältniszoomen von Daumennagelbildern | |
DE60201692T2 (de) | Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren | |
DE60219048T2 (de) | Sektionsextrahierungswerkzeug für pdf-dokumente | |
DE10016753A1 (de) | Verfahren zum Navigieren zwischen Ausschnitten in einem Darstellungsraum | |
DE19817584A1 (de) | Verfahren und System zur Objektsuche | |
DE102010031429A1 (de) | Verfahren zum Bereitstellen eines Kombinations-Videos | |
DE19817583B4 (de) | Verfahren und System zur Datenverarbeitung für dreidimensionale Objekte | |
DE19543377A1 (de) | Verfahren und Anordnung zum Darstellen von Bildern aus einer Bildgruppe | |
WO2000054167A2 (de) | Such- und navigationseinrichtung für hypertext-dokumente | |
Lobo et al. | Animation plans for before-and-after satellite images | |
DE60008201T2 (de) | Übersetzung von Daten mit elektronischen Bildern | |
DE60030401T2 (de) | Anzeigetechniken für dreidimensionale virtuelle Realität | |
EP0644500B1 (de) | Verfahren und System zur Herstellung von Tabellenabbildungen mit Fokus- und Kontextzonen, die direkte und indirekte Datenrepresentationen darstellen | |
DE60109813T2 (de) | Verfahren und vorrichtung zur darstellung dreidimensionaler szenen in virtueller realität | |
JPH02205984A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: APPLE INC., CUPERTINO, CALIF., US |
|
R071 | Expiry of right | ||
R071 | Expiry of right |