DE19944746B4 - Editierungssystem und Editierungsverfahren - Google Patents

Editierungssystem und Editierungsverfahren Download PDF

Info

Publication number
DE19944746B4
DE19944746B4 DE19944746A DE19944746A DE19944746B4 DE 19944746 B4 DE19944746 B4 DE 19944746B4 DE 19944746 A DE19944746 A DE 19944746A DE 19944746 A DE19944746 A DE 19944746A DE 19944746 B4 DE19944746 B4 DE 19944746B4
Authority
DE
Germany
Prior art keywords
clip
editing
objects
clip processing
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19944746A
Other languages
English (en)
Other versions
DE19944746A1 (de
Inventor
Atsushi Imai
Katsuakira Mirowake
Takeshi Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE19944746A1 publication Critical patent/DE19944746A1/de
Application granted granted Critical
Publication of DE19944746B4 publication Critical patent/DE19944746B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title

Abstract

Editierungssystem zur Editierung einer Anzahl von auf einem Aufzeichnungsmedium mit wahlfreiem Zugriff aufgezeichneten Clips (MC, FC), mit einer Clip-Verarbeitungseinrichtung, die eine Anzahl Clip-Verarbeitungsschichten (L) zur Ausführung eines vorbestimmten Prozesses für die Clips aufweist, und
einer Hierarchie-Entscheidungseinrichtung, die eine Anzahl von den Clip-Verarbeitungsschichten (L) jeweils zugeordneten Objekten (52) aufweist, wobei die Objekte (52) miteinander verbunden sind und eine einzelne hierarchische Struktur bilden, und wobei die Hierarchie-Entscheidungseinrichtung zum Entscheiden der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch die einzelne hierarchische Struktur dient,
wobei die Clip-Verarbeitungseinrichtung für jede Clip-Verarbeitungsschicht (L) ein Zeitmanagement ausführt und jeder von einer ersten Clip-Verarbeitungsschicht (L) erhaltene verarbeitete Clip (MC, FC) außerdem durch eine zweite Clip-Verarbeitungsschicht (L) verarbeitet wird, die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und wobei der von der hierarchisch obersten Clip-Verarbeitungsschicht (L) erhaltene verarbeitete und editierte Clip (MC, FC) ausgegeben wird.

Description

  • Die vorliegende Erfindung betrifft ein Editierungssystem und ein Editierungsverfahren zur Erzeugung editierter Videodaten durch eine Bildverarbeitung von Videodaten mehrerer Kanäle, die von einem Aufzeichnungsmedium mit wahlfreiem Zugriff wiedergegeben sind.
  • Neuerdings ist auf dem Gebiet der beim Editieren von aus einer Videokamera erhaltenen Videodaten angewendeten Nachproduktion ein nichtlineares Editierungssystem bekannt geworden, das eine Platte als Aufzeichnungsmedium zur Aufzeichnung von Materialdaten verwendet. Bei diesem nichtlinearen Editierungssystem werden eine Vielzahl von Editierungsprozessen ausgeführt, einschließlich eines Videoeditierungsprozesses zur Erzeugung eines gewünschten Videoprogramms durch Verbindung einer Anzahl von Materialien, eines Zusammensetzungsprozesses zur Zusammensetzung einer Anzahl von Materialien durch die Verwendung eines Schlüsselsignals und eines Spezialeffektprozesses, bei dem einem Material ein gewisser Spezialeffekt gegeben wird. Generell wird ein Videoeditierungsprozeß durch einen Editor ausgeführt, ein Zusammensetzungsprozeß durch einen Videokanalschalter und ein Spezialeffektprozeß durch einen Spezialeffektor.
  • Aufgrund der beim wahlfreiem Zugriff auf Plattenaufzeichnungsmedien erzielten neuesten Verbesserungen ist es möglich geworden, auf Videodaten mehrerer Kanäle gleichzeitig Zugriff zu haben. Aus diesem Grund wird nun stark gefordert, ein verbessertes Editierungssystem zu realisieren, das Videodaten mehrerer Kanäle in Realzeit verarbeiten kann. Beispielsweise ist es im Hinblick auf die in der Editierungsindustrie zur Erzeugung von Werbesendungen für Fernsehrundfunk oder in der Editierungsindustrie zur Erzeugung von Bewegtbildprogrammen existierenden laufenden Forderungen erwünscht, daß verschiedene Arten von Editierungsprozessen in Kombination ausgeführt werden, wobei mehrere zehn bis mehrere hundert Materialien editiert werden. Es wird außerdem gefordert, hochgradige und komplizierte editierte Daten durch vielmalige Wiederholung verschiedener Arten von Editierungsprozessen zu erzeugen.
  • Zur Realisierung solcher Editierungsprozesse, ist ein verbessertes Editierungssystem vorgeschlagen, das eine Zeitlinie verwendet, welche die Inhalte der Editierungsprozesse durch eine aus mehreren Schichten bestehende Schichtstruktur anzeigt.
  • Dieses Editierungssystem ermöglicht es seinem Benutzer leicht die Inhalte der Editierungsprozesse durch Anzeige der Zeitlinie auf einem Monitor visuell zu ergreifen und erleichtert außerdem das Editieren selbst mittels einer Zeigereinrichtung, beispielsweise einer Maus.
  • Bei diesem bekannten Editierungssystem ist es jedoch durch die Zeitlinie unmöglich, den Datenfluß zu steuern, obgleich es möglich ist, die Datenwerte zu steuern. Insbesondere ist, da der pro Schicht zu verarbeitende Inhalt im voraus bestimmt ist, ein pro Schicht ausführbarer Prozess nur die Steuerung dieses vorbestimmten Wertes, und eine Editierung mit einer Kombination ausgewählter Prozesse pro Schicht ist unmöglich, so daß folglich der Freiheitsgrad beim Editieren verschlechtert ist.
  • Außerdem ist es bisher üblich gewesen, die ganzen Prozesse sequentiell von der untersten Schicht zur obersten Schicht oder umgekehrt auszuführen, so daß die Inhalte der Prozesse durch die Schichtstruktur begrenzt sind. Überdies besteht das andere Problem, daß, wenn der Editierungsprozess kompliziert wird, es für den Benutzer schwierig ist, die Inhalte der Prozesse leicht zu erfassen.
  • Die Druckschrift EP 0 917 148 A2 zeigt eine Vorrichtung und ein Verfahren zum Editieren von Bildern. Hierbei ist eine hierarchische Struktur von verschiedenen Bildkomponenten auf dem Bildschirm dargestellt, aus welcher sich ergibt, wie die einzelnen Bildkomponenten miteinander zusammengefügt werden. Darüber hinaus ist ein Editiersystem offenbart, bei welchem auch Informationen, welche den Bildkomponenten zugehörig sind, dargestellt werden können. Diese assoziierten Informationen sind beispielsweise eine Erzählung oder verschiedene Ansichten einer Person.
  • Die Druckschrift EP 0 863 510 A1 , welche den nächstkommenden Stand der Technik bildet, offenbart die Möglichkeit, verschiedene Clips in einer bestimmten zeitlichen Relation miteinander zu verbinden.
  • Es ist deshalb Aufgabe der vorliegenden Erfindung, ein Editierungssystem bereitzustellen, das es einem Benutzer ermöglicht, den Editierungsprozess leicht visuell zur Ausführung einer Multischicht-Editierung zu erfassen.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst.
  • Die Erfindung wird in der die obigen und andere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung deutlicher zeigenden nachfolgenden Beschreibung anhand der beigefügten Zeichnungen beispielhaft näher erläutert, in denen
  • 1 ein Blockschaltbild ist, welches die Konfiguration eines Editierungssystems darstellt, bei welchem die vorliegende Erfindung angewendet ist,
  • 2 ein Blockschaltbild ist, welches die interne Konfiguration einer Arbeitsstation darstellt, die eine prinzipielle Komponente im Editierungssystem ist,
  • 3 die Konfiguration von Modulen und einer im Editierungssystem vorhandenen Clip-Datenbasis zeigt,
  • 4 ein Diagramm zur Erläuterung eines hierarchischen Managements von Clips ist,
  • 5 ein Diagramm zur Erläuterung von zusammenzusetzenden Inhalten ist,
  • 6 ein Diagramm zur Erläuterung eines durch einen Zusammensetzungsprozeß erzeugten Videobildes ist,
  • 7 ein Diagramm zur Erläuterung eines auf einem Anzeigeschirm der Arbeitsstation angezeigten Menuefensters ist,
  • 8 ein Diagramm zur Erläuterung eines Editorfensters im Menuefenster ist,
  • 9 ein Diagramm zur Erläuterung eines Laufsteuerfensters mit einer Funktion zur Einstellung eines im Editorfenster angezeigten Laufzeitbalkens ist,
  • 10 einen Zeitmaßstab zur Erläuterung von Anzeigeschritten pro Zeiteinheit zeigt,
  • 11 ein Diagramm zur Erläuterung der Struktur eines in einem Objektbereich im Editorfenster vorhandenen Objekts ist,
  • 12 ein anderes Diagramm zur Erläuterung der Struktur des obigen Objekts ist,
  • 13 ein weiteres Diagramm zur Erläuterung der Struktur des obigen Objekts ist,
  • 14 ein Diagramm zur Erläuterung einer Dialogbox eines einem Eingangsanschluß zugeführten Signals ist,
  • 15 ein Diagramm zur Erläuterung einer Dialogbox in dem Fall ist, daß das dem Eingangsanschluß zugeführte Signal ein Parameter ist,
  • 16 ein Diagramm zur Erläuterung einer Objektdialogbox ist, welche die Eigenschaft eines Objekts anzeigt,
  • 17 eine beispielhafte Konfiguration einer Zeitlinie und von Objekten zeigt,
  • 18 eine Konfiguration einer Zeitlinie und von Objekten zur Erläuterung, wie ein Interim-Fett eines Objekts erzeugt wird, zeigt,
  • 19 eine andere Konfiguration einer Zeitlinie und von Objekten zur Erläuterung, wie ein Interim-Fett eines Objekts erzeugt wird, zeigt,
  • 20 eine Konfiguration einer Zeitlinie und von Objekten zur Erläuterung der Erzeugung eines Fett-Clips entsprechend einer Benutzerdefinition zeigt,
  • 21 eine Konfiguration einer Zeitlinie und von Objekten in dem Fall einer Überlagerung eines Titelbildes auf einem Videobild zeigt,
  • 22 eine prinzipielle Konfiguration einer Zeitlinie und von Objekten in dem Fall einer Überlagerung eines Titelbildes auf einem Hauptbild und einer Bewegung des Titelbildes durch Bewegungseinfang zeigt,
  • 23 eine prinzipielle Konfiguration einer Zeitlinie und von Objekten in dem Fall einer Überlagerung eines Titelbildes auf einem Hauptbild und einer Bewegung des Titelbildes durch Bewegungseinfang und 3D zeigt,
  • 24 eine andere prinzipielle Konfiguration einer Zeitlinie und von Objekten in dem Fall einer Überlagerung eines Titelbildes auf einem Hauptbild und einer Bewegung des Titelbildes durch Bewegungseinfang und 3D zeigt,
  • 25 eine prinzipielle Konfiguration einer Zeitlinie und von Objekten in dem Fall der Anzeige eines Hexaeder zeigt,
  • 26 eine prinzipielle Konfiguration einer Zeitlinie und von Objekten in dem Fall einer Malfunktion, die dem Bild auf einem Schirm ganz oder teilweise gewünschte Farben gibt, zeigt, und
  • 27 eine prinzipielle Konfiguration einer Zeitlinie und von Objekten in dem Fall der Erzeugung von dreidimensionalen Daten zeigt.
  • Nachfolgend werden bevorzugte Ausführungsformen der vorliegenden Erfindung anhand der beigefügten Zeichnungen beschrieben.
  • 1. Generelle Konfiguration des Editierungssystems
  • Die vorliegende Erfindung ist beispielsweise auf ein die Konfiguration nach 1 aufweisendes Editierungssystem 1 angewendet. Das Editierungssystem 1 weist eine Arbeitsstation 2 auf, die das ganze System steuert. Die Arbeitsstation 2 weist eine Haupteinheit 2A mit einer zentralen Verarbeitungseinheit bzw. CPU, verschiedene Verarbeitungsschaltungen, einen Floppy-Disk-Antrieb, einen Festplattenantrieb usw. sowie eine Anzeige 2B, eine Tastatur 2C, eine Maus 2D und ein mit der Haupteinheit 2A verbundenes Schreibgerät-Tablett 2E auf. In diesem System ist Anwendungssoftware zur Editierung im Festplattenantrieb im voraus installiert, und die Arbeitsstation 2 wird gestartet, damit sie durch Hochladen der Anwendungssoftware unter Steuerung eines Operationssystems als ein Editierungscomputer arbeitet.
  • Wenn die Anwendungssoftware hochgeladen ist, werden graphische Ikons für eine graphische Benutzer-Schnittstelle bzw. GUI (= Graphical User Interface) auf der Anzeige 2B so angezeigt, daß ein gewünschter Editierungsbefehl in die Arbeitsstation 2 durch Wählen eines gewünschten der graphischen Ikons auf der Anzeige 2B mittels des genannten Schreibgerät-Tabletts 2E oder der Maus 2D eingegeben werden kann. Auch können verschiedene numerische Daten oder dgl. bezüglich der Editierung in die Arbeitsstation 2 mittels der Tastatur 2C eingegeben werden.
  • In Abhängigkeit von einer Eingabe von Editierungsbefehlen und/oder numerischen Daten in die Arbeitsstation 2 durch eine Manipulation durch den Benutzer werden mit diesem Editierungsbefehlen und/oder numerischen Daten korrespondierende Steuerungsdaten an einen unten erwähnten Einrichtungskontroller 3 abgegeben, um dadurch über den Einrichtungskontroller 3 eine Steuerung einer Einrichtungkomponenten, die das Editierungssystem 1 bildet, zu erhalten. Das System 1 ist jedoch so ausgebildet, daß Teilfunktionen bezüglich eines Videoplattenrekorders 5 direkt ohne die Notwendigkeit des Einrichtungskontrollers 3 steuerbar sind.
  • Außerdem werden über den Einrichtungskontroller 3 Videodaten in die Arbeitsstation 2 eingegeben, so daß das Bild eines zu editierenden Materials oder das editierte Bild auf dem Schirm der Anzeige 2B angezeigt werden kann.
  • Der Einrichtungskontroller 3 steuert praktisch jede Einrichtung in Abhängigkeit von den aus der Arbeitsstation 2 erhaltenen Steuerungsdaten. Mit dem Einrichtungskontroller 3 ist ein exklusiver Kontroller 4 mit einem Skalenscheibenmanipulator oder einem Schiebermanipulator verbunden, so daß eine graduelle Änderung von Steuerungsdaten, die nicht durch die Tastatur 2C, die Maus 2D oder das Schreibgerät-Tablett 2E in der Arbeitsstation 2 eingebbar sind, richtig in das Editierungssystem 1 eingegeben werden können.
  • Der Einrichtungskontroller 3 steuert in Abhängigkeit von den von der Arbeitsstation 2 oder dem exklusiven Kontroller 4 erhaltenen Steuerungsdaten die mit den empfangenen Steuerungsdaten korrespondierende Einrichtung. Beispielsweise befiehlt der Einrichtungskontroller 3 dem Videoplattenrekorder 5, gewünschtes Material wiederzugeben oder das editierte Material aufzuzeichnen, und in Abhängigkeit von dem Befehl gibt der Videoplattenrekorder 5 die Video- und/oder Audiodaten des auf einem internen Plattenaufzeichnungsmedium aufgezeichneten gewünschten Materials wieder oder zeichnet die editierten Video- und/oder Audiodaten auf dem Plattenaufzeichnungsmedium auf.
  • Ähnlich befiehlt der Einrichtungskontroller 3 einem Videobandrekorder (VTR) 6, gewünschtes Material wiederzugeben. In Abhängigkeit von dem Befehl gibt der Videobandrekorder 6 die Video- und Audiodaten des auf einem internen Videoband aufgezeichneten gewünschten Materials wieder und ab. Bei diesem Editierungssystem werden die im Videobandrekorder 6 aufgezeichneten Videodaten einmal auf den Videoplattenrekorder 5 heruntergeladen und dann als die Videodaten des gewünschten Materials gehandhabt.
  • Der Einrichtungskontroller 3 befiehlt einem Kanalschalter bzw. Wählschalter 7 zum Wählen der vom Videoplattenrekorder 5, dem Videobandrekorder 6 und/oder einer Videokamera 8 abgegebenen Videodaten. In Abhängigkeit von dem Befehl wählt der Kanalschalter 7 die Eingangsvideodaten des gewünschten Materials entsprechend dem Befehl und gibt dann die gewählten Daten an einen digitalen Multi-Effektor 9 und/oder an die Arbeitsstation 2 oder gibt die Daten über den Einrichtungskontroller 3 an die Arbeitsstation 2 ab oder wählt sukzessive und verbindet die Eingangsvideodaten des gewünschten Materials oder gibt die editierten Videodaten an einen Monitor 10, um darauf die Daten anzuzeigen, oder gibt die editierten Videodaten an den Videoplattenrekorder 5 zurück, um diese aufzuzeichnen.
  • Der Einrichtungskontroller 3 befiehlt dem digitalen Multi-Effektor 9 die Ausführung verschiedener Effektprozesse der digitale Multi-Effektor 9 verarbeitet in Abhängigkeit von dem Befehl die Eingangsvideodaten des gewünschten Materials, um verschiedene Effekte gemäß dem Befehl zu bewirken, wie beispielsweise einen Spezialeffekt mit Mosaik oder dreidimensionaler Bildwandlung, oder einen Effektprozeß zur Ausführung eines Übergangseffekts oder einer Bildzusammensetzung, und gibt dann die resultierenden Videodaten wieder an den Kanalschalter 7 zurück, um dabei die Daten an die Arbeitsstation 2, den Monitor 10 und/oder den Videoplattenrekorder 5 abzugeben.
  • Der Einrichtungskontroller 3 befiehlt einem Audiomischer 11 ein Editieren der vom Videoplattenrekorder 5 und Videobandrekorder 6 abgegebenen Audiodaten. Dann mischt der Audiomischer 11 das gewünschte Audiomaterial entsprechend dem Befehl und gibt die gemischten Audiodaten wieder an den Videoplattenrekorder 5, um diese aufzuzeichnen.
  • Infolgedessen können bei dem Editierungssystem 1 dieses Aufbaus komplizierte hochpegelige Videodaten durch Eingabe eines gewünschten Editierungsbefehls über die Arbeitsstation 2 und unter Verwendung der Videodaten von verschiedenen, im Videoplattenrekorder 5 oder im Videobandrekorder 6 aufgezeichneten Materialien leicht wie gewünscht erzeugt werden. Folglich wird es dem Benutzer möglich, eine beliebige Editierung nur durch Manipulation der Arbeitsstation 2 ohne die herkömmliche Notwendigkeit einer direkten Manipulation der das Editierungssystem bildenden Einrichtungskomponenten auszuführen.
  • 2. Konfiguration der Arbeitsstation
  • In diesem Abschnitt wird eine Erläuterung bezüglich der Konfiguration der Arbeitsstation 2 gegeben, die ein zentrales Gerät im Editierungssystem 1 ist. Wie in 2 gezeigt weist die Arbeitsstation 2 einen Systembus 20 zur Übertragung von Befehlsdaten und Videodaten, eine CPU 21 zur Steuerung der Gesamtheit der Arbeitsstation 2, einen Videoprozessor 22 zur Bildverarbeitung der vom Einrichtungskontroller 3 zugeführten Videodaten S1, einen Anzeigekontroller 23 zur Steuerung einer visuellen Anzeige der Videodaten auf der Anzeige 2B oder einer graphischen Anzeige für die GUI, eine Festplattenantrieb- bzw. HDD-Schnittstelle 24 (HDD steht für Hard Disk Drive) zur Steuerung eines lokalen Festplattenantriebs (lokaler HDD) 24A, eine Floppy-Disk-Antrieb- bzw. FDD-Schnittstelle 25 zur Steuerung eines Floppy-Disk-Antriebs bzw. FDD (FDD steht für Floppy-Disk-Drive), eine Zeigereinrichtungs-Schnittstelle 26 zur Erzeugung eines Steuerbefehls in Abhängigkeit von dem aus der Zeigereinrichtung, beispielsweise der Tastatur 2C, der Maus 2D oder dem Schreibgerät-Tablett 2E erhaltenen Befehl, und eine mit einem Softwaretreiber ausgerüsteten externe Schnittstelle 27 zum Senden von Steuerungsdaten S2 an den Einrichtungskontroller 3 auf.
  • Der Systembus 20 wird zur Übertragung von Videodaten, Befehlsdaten und/oder Adressendaten zur Arbeitsstation 2 verwendet und erweist einen Bilddatenbus 20A zur Übertragung von Videodaten und einen Befehlsdatenbus 20B zur Übertragung von Befehlsdaten und/oder Adressendaten auf.
  • Mit dem Bilddatenbus 20A sind der Videoprozessor 22, der Anzeigekontroller 23, die HDD-Schnittstelle 24 und die FDD-Schnittstelle 25 verbunden. Die CPU 21, der Videoprozessor 22, der Anzeigekontroller 23, die HDD-Schnittstelle 24 und die FDD-Schnittstelle 25 übertragen die Videodaten über den Bilddatenbus 20A.
  • Indessen sind mit dem Befehlsdatenbus 20B die CPU 21, der Videoprozessor 22, der Anzeigekontroller 23, die HDD-Schnittstelle 24, die FDD-Schnittstelle 25, die Zeigereinrichtungs-Schnittstelle 26 und die externe Schnittstelle 27 verbunden (d. h. alle Blöcke in der Arbeitsstation 2 sind verbunden), und diese Blöcke übertragen die Befehlsdaten und Adressendaten über den Befehlsdatenbus 20B.
  • Die CPU 21 ist ein Block zur Steuerung der gesamten Arbeitsstation 2 und weist einen ROM 21A zum Speichern des Betriebssystems der Arbeitsstation 2 und einen RAM 21B zum Speichern der hochgeladenen Anwendungssoftware und Datenbasis auf. Beim Starten der Arbeitsstation 2 arbeitet die CPU 21 entsprechend dem im ROM 21A gespeicherten Betriebssystem, um dabei die Arbeitsstation 2 zu starten. Beim Hochladen der Anwendungssoftware unter dem geladenen Betriebssystem liest die CPU 21 zuerst die auf der Festplatte des Festplattenantriebs 24A aufgezeichnete Anwendungssoftware, lädt dann diese in den RAM 21B hoch und führt die hochgeladene Anwendungssoftware aus.
  • Die Anwendungssoftware ist in Module pro Funktion geteilt, die wie später detailliert beschrieben als ein Editiermodul beispielsweise zur Verbindung von Materialien, einen Zusammensetzungsmodul zum Zusammensetzen von Materialien durch Überlagerung oder dgl., einen Spezialeffektmodul zum Bewirken eines Spezialeffekts in einem Material durch dreidimensionale Bildwandlung oder dgl. und einen Steuerungsmodul zum Managen eines Starts dieser Module und/oder einer Übertragung von Daten zwischen den Modulen breit klassifiziert sind. Insbesondere wird beim Laden der Anwendungssoftware in dieses Editierungssystem zuerst der Steuerungsmodus gestartet, und in Abhängigkeit von einem Editierungsbefehl vom Benutzer wird der korrespondierende Modul (beispielsweise der Editierungsmodul, Zusammensetzungsmodul oder Spezialeffektmodul) unter dem Management des Steuerungsmoduls gestartet, um die gewünschte, vom Benutzer befohlene Editierung auszuführen.
  • Der Videoprozessor 22 ist ein Block zum Empfang der Videodaten S1 des in die Arbeitsstation eingegebenen SDI-Standards (SDI steht für Serial-Digital-Interface), dann Umwandeln der Videodaten S1 und zeitweiliger Pufferung der gewandelten Videodaten. Insbesondere weist der Videoprozessor 22 einen Prozessorkontroller 22A zum Steuern des gesamten Videoprozessors 22, einen Datenwandler 22B, der das zusammengesetzte Videosignal aus der Nutzlast der empfangenen Videodaten S1 extrahiert und das zusammengesetzte Videosignal in digitale Komponentenvideodaten umwandelt, und einen Rahmenspeicher 22C zum zeitweiligen Speichern der Videodaten mehrerer vom Datenwandler 22B gesendeter Rahmen auf.
  • Der Prozessorkontroller 22A sendet ein Steuerungssignal an den Datenwandler 22B, wobei der Betrieb der vom Datenwandler 22B ausgeführten Datenwandlung gesteuert und außerdem der Datenwandler 22B zum Extrahieren eines Zeitcodes von den Videodaten S1 freigegeben wird. Der Prozessorkontroller 22A sendet auch ein Steuerungssignal zum Rahmenspeicher 22C, wobei die Lese/Schreib-Zeitsteuerung des Rahmenspeichers 22C und die Lese/Schreib-Adresse darin gesteuert werden. Hinsichtlich der Lese-Zeitsteuerung steuert der Prozessorkontroller 22A die Lese-Zeitsteuerung des Rahmenspeichers 22C derart, daß der zum Anzeigekontroller 23 gesendete Zeitcode mit den Videodaten (Rahmendaten) korrespondiert.
  • Der Datenwandler 22B wandelt das zusammengesetzte Videosignal entsprechend dem vom Prozessorkontroller 22A gesendeten Steuerungssignal in digitale Komponentenvideodaten um. Der Zeitcode wird während dieser Wandlung extrahiert. Die auf diese Weise durch Wandlung gewonnenen Videodaten werden wie beschrieben zum Rahmenspeicher 22C gesendet, und der extrahierte Zeitcode wird zum Prozessorkontroller 22A gesendet.
  • Der Rahmenspeicher 22C speichert zeitweilig die vom Datenwandler 22B zugeführten Videodaten. Die Lese/Schreib-Zeitsteuerung des Rahmenspeichers 22C wird durch den Prozessorkontroller 22A wie beschrieben gesteuert. Der Rahmenspeicher 22C weist wenigstens zwei Rahmenspeicher auf, welche Videodaten von wenigstens zwei Rahmen speichern können.
  • Die im Rahmenspeicher 22C gespeicherten Videodaten werden unter der Steuerung des Prozessorkontrollers 22A gelesen. In diesem Fall werden die Pixel der im Rahmenspeicher 22C gespeicherten Videodaten gelesen, wobei sie nicht als ganzes gelesen, sondern bei vorbestimmten Intervallen teilweise übersprungen werden, wodurch die Bildgröße so reduziert wird, daß sie kleiner als die des ursprünglichen Bildes ist. Die auf diese Weise in die kleinere Bildgröße gewandelten Videodaten werden über den Bilddatenbus 20A zum Anzeigekontroller 22 gesendet, um in einem vorbestimmten Bereich der Anzeige 2B zur Bestimmung des Materials oder des Editierungsergebnisses angezeigt zu werden.
  • Der Anzeigekontroller 23 ist ein Steuerungsblock zur Steuerung der auf der Anzeige 2B anzuzeigenden Daten. Der Anzeigekontroller 23 weist einen Speicherkontroller 23A und einen Videospeicher mit wahlfreiem Zugriff bzw. VRAM (Video Random Access Memory) 23B auf. Der Speicherkontroller 23A steuert die Lese/Schreib-Zeitsteuerung des VRAM 23B entsprechend dem internen Synchronismus der Arbeitsstation 2. Im VRAM 23B werden die vom Rahmenspeicher 22C des Videoprozessors 22 gesendeten Videodaten und die von der CPU 21 erzeugten Bilddaten in Abhängigkeit vom Zeitsteuerungssignal aus dem Speicherkontroller 23A gespeichert. Die auf diese Weise im VRAM 23B gespeicherten Videodaten und Bilddaten werden in Abhängigkeit von dem aus dem Speicherkontroller 23A erhaltenen Zeitsteuerungssignal entsprechend dem internen Synchronismus der Arbeitsstation 2 ausgelesen und dann auf der Anzeige 2B angezeigt.
  • In diesem Fall ist die auf den Bilddaten basierende Graphikanzeige diejenige für die GUI. Beispielsweise stellen die von der CPU 21 an den VRAM 23B gesendeten Bilddaten ein Fenster, einen Cursor, einen Rollbalken oder ein die relevante Einrichtung anzeigendes Ikon dar.
  • Infolgedessen werden diese Bilddaten und Videodaten auf dem Schirm der Anzeige 2B in der Arbeitsstation 2 angezeigt, wodurch folglich darauf das Bild visuell dargestellt wird, welches eine GUI für die Manipulation des Benutzers, das Material oder das Editierungsergebnis signifiziert. Die HDD-Schnittstelle 24 ist ein Schnittstellenblock zur Kommunikation mit einem in der Arbeitsstation 2 vorhandenen lokalen Festplattenantrieb 24A. Die HDD-Schnittstelle 24 und der Festplattenantrieb 24A kommunizieren gegenseitig in Übereinstimmung mit dem SCSI-Übertragungsformat (SCSI steht für Small Computer System Interface = Kleincomputersystem-Schnittstelle).
  • In die Arbeitsstation 2 zu ladende Anwendungssoftware wird im Festplattenantrieb 24A installiert, und beim Ausführen dieser Anwendungssoftware wird diese aus dem Festplattenantrieb 24A ausgelesen und dann in den RAM 21B der CPU 21 hochgeladen. Am Ende dieser Anwendungssoftware wird durch die Editieroperation erzeugte und im RAM 21B gespeicherte unterschiedliche Information (beispielsweise Information der Datenbasis relativ zum Editiermaterial) über dem Festplattenantrieb 24A auf die Festplatte heruntergeladen.
  • Die FDD-Schnittstelle 25 ist ein Schnittstellenblock zur Kommunikation mit einem in der Arbeitsstation 2 vorhandenen Floppy-Disk-Antrieb 25A. Die FDD-Schnittstelle 25 und der Floppy-Disk-Antrieb 25A kommunizieren gegenseitig in Übereinstimmung mit dem SCSI-Übertragungsformat.
  • Die Anzeigeeinrichtungs-Schnittstelle 26 ist ein Schnittstellenblock zum Empfang von Information von der Tastatur 2C, der Maus 2D und/oder dem Zeichen- bzw. Schreibgerät-Tablett 2E, die mit der Arbeitsstation 2 verbunden sind. Die Zeigereinrichtung-Schnittstelle 26 empfängt die Eingangsinformation von einem auf der Tastatur 2C vorhandenen Knopf und sendet nach Decodierung der empfangenen Eingangsimformation die decodierte Information zur CPU 21. Ähnlich empfängt die Zeigereinrichtung-Schnittstelle 26 die detektierte Information von einem in der Maus 2D vorhandenen zweidimensionalen Drehcodierer und auch die Klickinformation von einer in der Maus 2D vorhandenen linken und rechten Taste (d. h. die durch Drücken der Taste spezifizierte selektive Information) von der Maus 2D und sendet nach Decodierung der empfangenen Information diese zur CPU 21. Außerdem empfängt die Zeigereinrichtung-Schnittstelle 26 zweidimensionale Positionsdaten vom Schreibgerät-Tablett 2E und sendet nach Decodierung der empfangenen Positionsdaten diese an die CPU 21. Entsprechend der auf diese Weise von der Zeigereinrichtung-Schnittstelle 26 erhaltenen Information erkennt die CPU 21 die angezeigte Taste der auf dem Schirm der Anzeige 2B angezeigten GUI-Befehlstasten und erkennt auch die von der Tastatur 2C eingegebenen verschiedenen Daten und führt folglich eine damit korrespondierende richtige Steuerung aus.
  • Die externe Schnittstelle 27 ist ein Block zu Kommunikation mit dem mit der Außenseite der Arbeitsstation 2 verbundenen Einrichtungskontroller 3. Die externe Schnittstelle 27 weist einen Treiber zur Umwandlung von in der CPU 21 erzeugten verschiedenen Steuerbefehlen, beispielsweise ein Wiedergabebefehl, ein Aufzeichnungsbefehl usw., in Daten eines vorbestimmten Kommunikationsprotokolls und sendet dann die umgewandelten Steuerbefehlsdaten S2 über diesen Treiber an den Einrichtungskontroller 3.
  • 3. Editierungsprinzip im Editierungssystem
  • In diesem Abschnitt wird das Editierungsprinzip im Editierungssystem 1 in der folgenden Reihenfolge beschrieben.
  • 3.1 Basisstruktur der Editierungs-Anwendungssoftware
  • Zuerst wird eine Erläuterung bezüglich der Basisstruktur der in der Arbeitsstation 2 vorbereiteten Editierungs-Anwendungssoftware gegeben. Wie in der 3 dargestellt besteht die in der Arbeitsstation 2 vorbereitete Editierungs-Anwendungssoftware aus Modulen pro Funktion. Allgemein besteht diese modulare Anwendungssoftware aus einem Editierungsmodul EM zum Editieren der Materialien durch einen Verbindungsprozessor oder ähnlichen Prozeß, einem Zusammensetzungsmodul CM zum Zusammensetzen der Materialien durch deren Verarbeitung durch Überlagerung oder dgl., einem Spezialeffektmodul SM zum Bearbeiten der Materialien durch Bewirken eines Spezialeffekts und aus einem Steuerungsmodul CNTM zum Managen eines Ladens usw. dieses Editierungsmoduls EM, Zusammensetzungsmoduls CM und Spezialeffektmodul SM, die auf diese Weise pro Funktion modularisiert sind. Wenn die Anwendungssoftware mit der obigen Struktur vom Festplattenantrieb 24A in den RAM 21B hochgeladen wird, wird zuerst der Steuerungsmodul CNTM geladen, und nachfolgend werden die Module EM; CM und SM in Abhängigkeit von den jeweiligen Befehlen vom Benutzer unter dem Mangement des Steuerungsmoduls CN, TM geladen.
  • Eine Clip-Datenbasis CDB besteht aus dem Videoplattenrekorder 5 und dem RAM 21B und speichert darin die Videodaten von Materialien und verschiedene Daten bezüglich der Editierung. Jeder der Module EM, CM und SM liest das durch den Benutzer spezifizierte Material aus der Clip-Datenbasis CDB aus, editiert dann das Material in Abhängigkeit vom Benutzerbefehl mittels der Hardware, beispielsweise der erwähnte Kanalschalter 7 oder der digitale Multi-Effektor 9, aus und registriert das editierte Material in der Clip-Datenbasis CDB. Außerdem registriert in der Clip-Datenbasis CDB jeder der Module EM, CM und SM die Daten bezüglich der Editierung, beispielsweise die zur Editierung verwendeten Parameter. In der Clip-Datenbasis CDB werden prinzipiell die Videodaten von Materialien im Videoplattenrekorder 5 gespeichert, während die verschiedenen Daten bezüglich der Editierung im RAM 21B gespeichert werden.
  • 3.2 Definition des Clip
  • Gemäß dem Editierungssystem 1 der vorliegenden Erfindung werden die Materialien in Einheiten eines Clip behandelt. In diesem Abschnitt wird dieser Clip nachfolgend definiert. Beim Editierungssystem 1 der vorliegenden Erfindung wird eine einzelne Folge von Videobewegungsbilddaten als Clip-Videodaten definiert, und Daten zum Managen der Erzeugung der Clip-Videodaten werden als Clip-Managementdaten definiert, und aus diesen Clip-Videodaten und Clip-Managementdaten zusammengesetzte Daten werden als Clip definiert. Außerdem wird bei dem Editierungssystem 1 der vorliegenden Erfindung ein allein durch Extraktion aus Quellenvideodaten erzeugtes Material als ein Material-Clip (MC) bezeichnet, und ein durch Editierung des Materials erzeugtes Material wird als Fat- bzw. Fett-Clip (FC) bezeichnet.
  • Beim Editierungssystem der vorliegenden Erfindung werden mehrere aus Material-Clips MC und Fett-Clips FC zusammengesetzte Clips durch eine hierarchische Struktur auf der Basis der Zwischenclipbeziehung gemanagt. Der Aspekt dieses Managements wird nun unten unter Bezugnahme auf ein Beispiel nach 4 beschrieben.
  • Bei dem Beispiel nach 4 ist der Fett-Clip FC-008 ein durch Zusammensetzung dreier Material-Clips MC-001, MC-002 und MC-003 erzeugter Clip. Insbesondere ist die Beziehung zwischen dem Fett-Clip FC-008 und den drei Material-Clips MC-001, MC-002 und MC-003 positionell eine Auf- und Ab-Beziehung. In dieser Auf- und Ab-Beziehung werden die Material-Clips MC-001, MC-002 und MC-003 als untere Clips bezeichnet, da sich diese Material-Clips unter dem Fett-Clip FC-008 befinden. Im Gegensatz dazu wird der Fett-Clip FC-008 als ein oberer Clip bezeichnet, da er durch Regulierung der unteren Clips erzeugt wird.
  • Ähnlich ist der Fett-Clip FC-009 einer, der durch Bewirken eines Spezialeffekts am Material-Clip MC-004 erzeugt ist. Folglich ist der Material-Clip MC-004 ein unterer Clip unter dem Fett-Clip FC-009, und im Gegensatz dazu ist der Fett-Clip FC-009 ein oberer Clip über dem Material-Clip MC-004.
  • Der Fett-Clip FC-010 ist ein durch Editierung der Fett-Clips FC-008 und FC-009 erzeugter Clip (in diesem Fall durch Verbindung dieser zwei Clips durch beispielsweise Wischen). Folglich sind die Fett-Clips FC-008 und FC-009 jeweils untere Clips unter dem Fett-Clip FC-010, und der Fett-Clip FC-010 ist ein oberer Clip über den Fett-Clips FC-008 und FC-009.
  • Die Clips befinden sich in dieser beschriebenen Auf- und Ab-Beziehung, und bei diesem Editierungssystem 1 wird jeder Clip entsprechend einer hierarchischen Struktur auf der Basis dieser Auf- und Ab-Beziehung zwischen Clips in der Clip-Datenbasis CDB gemanagt. Obgleich der zum Editieren überhaupt nicht benutzte Material-Clip mit keinem anderen Clip in Beziehung steht, wird dieser Clip als einer ohne Verbindung gemanagt. Das hier gezeigte Beispiel ist so zu verstehen, daß es nur einen exemplarischen Fall darstellt, und es ist selbstverständlich, daß bezüglich der Auf- und Ab-Beziehung zwischen den Clips auch andere Kombinationen existent sein können.
  • 3.3 Konzept des Zusammensetzungsprozesses
  • In diesem Abschnitt wird eine Erläuterung bezüglich des Konzepts eines im Zusammensetzungsmodul CM ausgeführten Zusammensetzungsprozesses gegeben. Das Videobild des in 4 dargestellten Fett-Clips FC-008 wird durch Zusammensetzen der Videobilder der Material-Clips MC-001, MC-002 und MC-003 erzeugt. Das Konzept dieses Zusammensetzungsprozesses ist in den 5 und 6 dargestellt. Die 5 stellt dar, wie die Videobilder von drei Material-Clips MC-001, MC-002 und MC-003 zusammengesetzt werden, und die 6 stellt das Videobild des durch den Zusammensetzungsprozeß erzeugten Fett-Clip FC-008 dar.
  • Wenn beim Editierungssystem 1 der vorliegenden Erfindung mehrere Clips zusammengesetzt werden, wird jeder Clip als eine einzelne Schicht betrachtet, und die Clips werden durch Überlagerung ihrer Schichten zusammengesetzt. Beim Beispiel nach 5 ist der Material-Clip MC-003 als eine erste Schicht L1 bezeichnet, der Material-Clip MC-002 als eine zweite Schicht L2 und der Material-Clip MC-001 als eine dritte Schicht L3 bezeichnet. Beim Zusammensetzen der den Schichten L1, L2 und L3 jeweils zugeordneten drei Material-Clips wird der Prozeß durch sukzessive Überlagerung der Schichten L2 und L3 auf der Schicht L1 als unterster Schicht ausgeführt. Insbesondere wird das Videobild (beispielsweise das eine Person darstellende Bild) des als die zweite Schicht L2 bezeichneten Material-Clips MC-002 dem Videobild (beispielsweise das einen Hintergrund darstellende Bild) des als die erste Schicht L1 bezeichneten Material-Clips MC-003 überlagert, wodurch ein zusammengesetztes Videobild entsteht, und nachfolgend wird das Videobild (beispielsweise das Zeichen oder Buchstaben darstellende Bild) des als die dritte Schicht L3 bezeichneten Material-Clips MC-001 dem zusammengesetzten Videobild überlagert. Als ein Ergebnis dieses Prozesses wird ein Fett-Clip FC-008 des zusammengesetzten Videobildes erzeugt, bei welchem wie in 6 dargestellt drei Materialien gegenseitig überlagert sind.
  • Das Beispiel nach 5 zeigt einen exemplarischen Fall einer Zusammensetzung von Material-Clips MC-003, MC-002 und MC-001, die den drei Schichten L1, L2 bzw. L3 zugeordnet sind. Bei dem Editierungssystem 1 der vorliegenden Erfindung ist die Zahl Schichten nicht nur auf einen spezifischen Wert begrenzt.
  • 4. GUI-Bild auf Anzeige
  • Es wird nun eine Erläuterung bezüglich des GUI-Bildes gegeben, das auf dem Schirm der Anzeige 2B in der Arbeitsstation 2 angezeigt wird, wenn jeder Modul geladen ist.
  • 4.1 Struktur des Hauptfensters
  • Wie in der 7 dargestellt wird auf dem Schirm der Anzeige 2B ein Hauptfenster 30 angezeigt. Das Hauptfenster 30 enthält ein Menüfenster 31, welches ein Menü von zum Editieren erforderlichen Funktionen anzeigt, ein Werkzeugbalkenfenster 32, welches ein Menü nur der häufig benutzten Funktionen anzeigt, und ein Einbaum-Fenster 33. Gemäß den zusätzlichen Erfordernissen enthält das Hauptfenster 30 außerdem ein Bin-Fenster 34, ein Laufsteuerungsfenster 35, ein Vorschaufenster 36 zum Vorschauen und Feststellen des Bildes von Material-Clips MC usw. vor deren Editierung und ein Editorfenster 40 zur Erzeugung eines Fett-Clips FC.
  • Das Menüfenster 31 weist Menüs aller zur Editierung der Bilder erforderlichen Funktionen, beispielsweise ein neues Menü zur neuen Bildung eines Fett-Clips FC, ein Sicherungsmenü zum Sichern des auf diese Weise gebildeten neuen Fett-Clips FC mit einem Namen und ein Interim-Herstellungsmenü zur Erzeugung eines Interim-Fat bzw. -Fetts auf.
  • Das Binbaum-Fenster zeigt mit einer Baumstruktur die Stellen der Material-Clips MC und des Fett-Clips FC im Bin-Fenster 34 an.
  • Im Bin-Fenster 34 sind die Material-Clips MC von zum Schneiden usw. zu editierender verschiedener Bilder, der bereits bis zu einem gewissen Grad editierte Fett-Clip FC und die Objekte zur Bearbeitung der Bilder enthalten.
  • Das Laufsteuerungsfenster 35 wird zum Bewegen der Position eines nachfolgend erwähnten Laufbalkens verwendet, der die laufende Zeit der Wiedergabe anzeigt. Eine detaillierte Erläuterung darüber wird später gegeben.
  • Das Vorschaufenster 36 ist ein Bereich zur Anzeige des Bildes auf der Basis der Videodaten des Material-Clips MC oder des Fett-Clips FC in Abhängigkeit von einer Manipulation einer nicht gezeigten Vorschautaste, Ansichtstaste, aller Vorschautasten oder aller als Ansichtstasten. Aufgrund der Bereitstellung dieses Anzeigebereichs wird es für den Benutzer möglich, während seiner Editierungsarbeit das Videobild des Material-Clips MC oder des als Ergebnis der Editierung erzeugten Fett-Clips FC zu bestimmen.
  • 4.2 Struktur des Editorfensters
  • Das Editorfenster 40 wird zum Handhaben eines Fett-Clips FC, beispielsweise zur Erzeugung eines Fett-Clips verwendet. Wie in der 8 dargestellt weist das Editorfenster 40 einen Laufendzeitbereich 41 zum Anzeigen der laufenden Zeit usw., einen Ein-Aus-Zeitbereich 42 zur Anzeige der Zeitpunkte eines Editierungsstartpunktes und eines Editierungsendpunktes, einen Maßstabwahlbereich 43, eine Co-Zeitlinie 44, einen Zeitmaßstabsbereich 45, eine Zeitlinie 46 zum Anzeigen und Editieren der zeitweiligen Positionen der Objekte und einen Objektbereich 47 zur Anzeige der Objekte, welche den Datenfluß anzeigen, auf.
  • Im Laufendzeitbereich 41 wird die laufende Zeit (beispielsweise „00:00:01:02” = 0 Stunden: 0 Minuten: 1 Sekunde: 2 Rahmen) angezeigt. Diese laufende Zeit zeigt die Zeit an, wenn der Laufendzeitbalken 51 auf der Zeitlinie 46 ist. Die Position des Laufendzeitbalkens 51 kann durch Benutzung des erwähnten Laufsteuerungsfensters 35 geändert werden.
  • Wie in der 9 dargestellt besteht das Laufsteuerungsfenster 35 aus zehn Tasten, die durch die GUI angezeigt werden. Jede Taste hat, wenn sie angeklickt wird, die Funktion einer Änderung der Laufendzeitbalkenposition wie folgt:
    Eine Obentaste 201 bewegt den Laufendzeitbalken 51 zum oberen Fett-Clip FC. Eine Vorherschlüsselrahmen-Taste (KF-Taste) 202 bewegt den Laufendzeitbalken 51 zum vorherigen Tastenrahmen KF unmittelbar vor dem Zeitpunkt, der jetzt durch den Laufendzeitbalken 51 angezeigt wird. Eine Vorherrahmen-Taste 203 bewegt den Laufendzeitbalken 51 zu dem Rahmen unmittelbar vor dem Zeitpunkt, der jetzt durch den Laufendzeitbalken 51 angezeigt wird. Eine Stopptaste 204 stoppt die Bewegung des Laufendzeitbalkens 51 augenblicklich. Eine Lauftaste 205 bewegt den Laufendzeitbalken 51 mit einer einfachen Geschwindigkeit. Eine Nächstrahmentaste 206 bewegt den Laufendzeitbalken 51 zu dem Rahmen unmittelbar nach dem Zeitpunkt, der jetzt durch den Laufendzeitbalken 51 angezeigt wird. Eine Nächsttastenrahmen-Taste (Nächst-KF-Taste) 207 bewegt den Laufendzeitbalken 51 zu dem Tastenrahmen unmittelbar nach dem Zeitpunkt, der jetzt durch den Laufendzeitbalken 51 angezeigt wird. Eine Gehe-zu-Taste 208 bewegt den Laufendzeitbalken 51 zum Schlüsselrahmen KF der spezifizierten Schlüsselrahmenzahl oder zum spezifizierten Zeitpunkt. Eine Endetaste 209 bewegt den Laufendzeitbalken 51 zu einem Endabschnitt des letzten Fett-Clips FC. Eine Erzeugungs-Schlüsselrahmen-Taste (Erzeugungs-KF-Taste) 210 erzeugt einen neuen Schlüsselrahmen KF bei der jetzt durch den Laufendzeitbalken 51 angezeigten Position (Zeit). Auf diese Weise ist es möglich, eine Steuerung der Clips und auch eine Steuerung relativ zu dem Schlüsselrahmen KF auszuführen.
  • Im Ein-Aus-Zeitbereich 42 werden der mit dem Editierungsstartpunkt korrespondierende Eingabezeitpunkt (beispielsweise „00:00:01:02”) und der mit dem Editierungsendpunkt korrespondierende Ausgabezeitpunkt (beispielsweise „00:00:01:22”) angezeigt. Dieser Eingabepunkt und Ausgabepunkt zeigt die Spitze und das Ende des gewählten Material-Clips MC oder Fett-Clips FC an, der ein zu editierender Gegenstand ist. In der Schicht L auf der Zeitlinie 46 ist der den Bereich vom Eingabepunkt zum Ausgabepunkt abdeckende Bereich als eine „Zelle” bezeichnet.
  • Der Maßstabwahlbereich 43 wird zum Einstellen einer zeitweiligen Dimension (Skala bzw. Maßstab) der Zeitlinie 46 verwendet. Wie in der 8 dargestellt gibt es „Rahmen” zum Einstellen eines Maßstabs von einem Rahmen auf der Zeitlinie 46, „Sekunde” zum Einstellen eines Maßstabs von 1 Sekunde und „Min” zum Einstellen eines Maßstabs von einer Minute. „Rahmen weist 4 Prüfboxen auf, die in der Reihenfolge von links 1 Rahmen, 2 Rahmen, 5 Rahmen bzw. 10 Rahmen als eine Zeiteinheit bezeichnen. „Sekunde” hat 5 Prüfboxen, die in der Reihenfolge von links 1 Sekunde, 2 Sekunden, 5 Sekunden, 10 Sekunden bzw. 20 Sekunden als eine Zeiteinheit bezeichnen. „Min” hat 4 Prüfboxen, die in der Reihenfolge von links 1 Minute, 2 Minuten, 5 Minuten bzw. 10 Minuten als Zeiteinheit bezeichnen.
  • Nun wird jeder Anzeigeschritt pro Zeiteinheit unter Bezugnahme auf die in der 10 dargestellte Zeitmaßstabtabelle beschrieben. Wenn beispielsweise die Prüfbox relativ zu einer Einheitszeit von einem Rahmen in „Rahmen” wie in 8 dargestellt geprüft wird, wird pro Rahmen in der Videodatenschicht L ein hingeworfenes Bild angezeigt, und der als Zeiteinheit angezeigte Schauzeitschritt zeigt 5 Rahmen an. Der Ausdruck „hingeworfenes Bild” bedeutet ein einfaches Bild, das in der relevanten Schicht L angezeigt wird, auf welche der Material-Clip MC des Bildes eingestellt ist. Beispielsweise korrespondiert das in der Schicht L3 in 8 angezeigte Bild mit einem hingeworfenen Bild. Das Aspektverhältnis des hingeworfenen Bildes ist 4:3, so daß das hingeworfene Bild ein reduziertes Bild von 40 (30 Pixel wird, wenn die Schicht der Zeitlinie 46 eine Breite von beispielsweise 30 Pixel aufweist. Da in diesem Fall „00:00:01:05” im Zeitmaßstabbereich 45 unmittelbar neben „00:00:01:00” angezeigt wird, wird das Bild in einer Einheit von 5 Rahmen angezeigt. Ähnlich wird gemäß 10 beim Prüfen beispielsweise der Prüfbox relativ zu einer Zeiteinheit von 2 Sekunden in „Sekunde” ein hingeworfenes Bild pro 60 Rahmen in der Videodatenschicht L angezeigt, und der angezeigte Schauzeitschritt zeigt 10 Sekunden an.
  • Die Co-Zeitlinie 44 zeigt die durch die Zeitlinie 46 spezifizierten Editierinhalte an. In diesem Fall ist es unmöglich, auf der Zeitlinie 46 die ganzen Editierinhalte aufgrund gewisser Beschränkungen des Schirms anzuzeigen, so daß ein für die Editierinhalte repräsentatives reduziertes Graphikbild auf der Co-Zeitlinie 44 angezeigt wird und folglich der Benutzer leicht ermitteln kann, welcher der Editierinhalte aus dem Ganzen spezifiziert ist. Wenn beispielsweise der Benutzer diese Editierinhalte editiert, um gewisse Material-Clips MC auf der Zeitlinie 46 zusammenzusetzen, dann wird ein Graphikbild, bei welchem die spezifizierten Clips darstellende graphische Balkenbilder in den jeweiligen Schichten überlagert sind, auf der Co-Zeitlinie gemäß den editierten Inhalten angezeigt.
  • Folglich wird dem Benutzer ermöglicht, den ganzen Aspekt des spezifizierten editierten Inhalts zu erfassen, während er das angezeigte Bild betrachtet, um leicht festzustellen, daß der Inhalt einen Prozeß einer Zusammensetzung einiger Clips anzeigt.
  • Der Zeitmaßstabbereich 45 enthält einen Vorschaubereich 45a und einen Ein-Aus-Bereich 45b, bei welchem die erwähnte Schrittzeit pro Einheit angezeigt wird. Im Vorschaubereich 45a wird bei Manipulation einer nichtdargestellten Vorschautaste ein blauer Balken angezeigt, der einen Bereich der Videodaten des im voraus zu betrachtenden Subjektbildes anzeigt. Indessen wird im Ein-Aus-Bereich 45b ein gelber Balken angezeigt, der einen Bereich vom Editierungsstartpunkt zum Editierungsendpunkt anzeigt.
  • Die Zeitlinie 46 ist ein Bereich zum Spezifizieren in bezug auf die jeweiligen Schichten von zusammenzusetzenden und zu editierenden Subjektclips. Bei diesem Editierungssystem 1 können beliebige Clips individuell als zusammenzusetzende Materialien spezifiziert werden. Bezüglich der Zeitlinie 46 ist der Anzeigebereich beschränkt und deshalb ist es nicht möglich, sämtliche Schichten L gleichzeitig anzuzeigen. Da jedoch die Zeitlinie 46 durch Manipulation einer am rechten Ende der Zeitlinie 46 angedeuteten Rolltaste vertikal gerollt werden kann, ist es dem Benutzer tatsächlich möglich, jede gewünschte Schicht selektiv anzuzeigen. In der Zeitlinie 46 korrespondieren als Materialien zusammenzusetzende Clips jeweils mit den individuellen Schichten.
  • Im Objektbereich 47 sind Objekte 52 angezeigt, welche die Verbindungen der die Zeitlinie 46 bildenden Schichten darstellen. Die individuellen Objekte 52 sind entsprechend den individuellen Schichten existent.
  • Die Objekte 52 sind am Objektbereich 47 durch Ziehen und Fallenlassen vom Bin-Fenster 34 befestigt. Die Objekte 52 sind in vertikaler Richtung in Einheiten von Reihen (in Einheiten von Schichten) der Zeitlinie 46 angeordnet, während die Objekte 52 in horizontaler Richtung frei positioniert werden können.
  • 5. Manipulationsverfahren
  • 5.1 Start des Edititorfensters
  • Wie schon erwähnt sind in dem in 7 dargestellten Bin-Fenster 34 mehrere Material-Clips MC und ein Fett-Clip FC enthalten. Wenn der Benutzer den Fett-Clip FC doppelt anklickt, wird das Editorfenster 40 zum Editieren des Fett-Clips FC angezeigt. Wenn ähnlich der Benutzer eine beliebige Zelle (Clip) auf jeder Schicht der Zeitlinie 46 doppelklickt, wird das Editorfenster 40 zum Editieren des Clips angezeigt.
  • Beim Neuerzeugen eines Fett-Clips FC ist es notwendig, vorerst einen leeren Fett-Clip FC im Bin-Fenster 34 zu erzeugen. In der folgenden Beschreibung wird eine Erläuterung über einen exemplarischen Fall einer Erzeugung der Gesamtheit eines Fett-Clips FC durch die Verwendung des Editorfensters 40 für so einen leeren Fett-Clip FC gegeben.
  • 5.2 Erzeugung der Zeitlinie
  • Beim Start des Editorfensters 40 werden wie in 7 dargestellt eine leere Zeitlinie 46 und ein leerer Objektbereich 47 angezeigt.
  • Dann klickt der Benutzer einen gewünschten Material-Clip MC (oder Fett-Clip FC oder Objekt) außerhalb des Bin-Fensters 34 an, um dadurch den Material-Clip MC zu wählen. Aufgrund der Ausführung eines derartigen Prozesses wird eine Zelle des gewählten Material-Clips MC angezeigt. Wenn die Zelle durch Ziehen und Fallenlassen an einer gewünschten Position plaziert ist, wird bei dieser Position eine Schicht gebildet und der Material-Clip MC auf die Schicht gesetzt. Der Material-Clip MC wird in einer Einheit einer Schicht in vertikaler Richtung oder in einer Einheit eines Rahmens in horizontaler Richtung gesetzt.
  • Nach dem Setzen der Zelle in der Zeitlinie 46 ist es möglich, die Zelle durch Ziehen derselben nur in horizontaler Richtung zu bewegen. Es ist außerdem möglich, die gesetzte Position der Zelle durch Ziehen und Fallenlassen ihres Innenpunkts und Außenpunkts zu ändern.
  • Die Länge der den Clip darstellenden Zelle ist äquivalent zur Clipdauer (Zeit vom Beginn bis zum Ende des Clips). In jeder Zelle sind Zeichen bzw. Buchstaben, die den Clipnamen oder Schlüsselnamen bezeichnen, angezeigt, so daß jeder gesetzte Clip oder Schlüssel mit einem Blick erkannt werden kann.
  • 5.3 Erzeugung eines Objekts
  • Der Benutzer klickt auf ein gewünschtes Objekt außerhalb des Bin-Fensters 34, um dadurch das Objekt zu wählen. Dieses Objekt wird gesetzt, wenn es durch Ziehen und Fallenlassen an einer gewünschten Position im Objektbereich 34 plaziert ist. In vertikaler Richtung wird das Objekt in einer Schichteinheit gesetzt. Das heißt, das Objekt wird auf eine horizontale Zeile der relevanten Schicht gesetzt.
  • Selbst nach dem Setzen des Objekts im Objektbereich 47 ist es möglich, das Objekt durch Ziehen desselben zu bewegen. Auf diese Weise sind mehrere Objekte in den Objektbereich 47 zu setzen.
  • Wenn mehrere Objekte auf diese Weise in den Objektbereich 47 gesetzt sind, sind die nächsten Objekte zu verbinden.
  • Wie in 11 dargestellt weist ein Objekt 52 Anschlüsse 54 (54a, 54b), Ansichtsschalter 55 (55a, 55b) und einen Ausgangsanschluß 56 in einem Objektkörper 53 auf, wobei Eingangsleitungen (57a, 57b) zum Eingeben von Videodaten oder Parametern mit den Eingangsanschlüssen 54 verbunden sind und eine Ausgangsleitung 58 mit dem Ausgangsanschluß 56 verbunden ist. Das Objekt 52 handhabt wie später detailliert beschrieben einen hauptsächlichen der Eingangsanschlüsse 54 als einen Haupteingangsanschluß.
  • Wenn der Ausgangsanschluß 56 angeklickt wird, fährt die Operation mit einem Verdrahtungsmodus fort, der vom Ausgangsanschluß 56 startet. Beim Anklicken des Eingangsanschlusses 54 in einem gewissen anderen Objekt 52 werden diese Anschlüsse gegenseitig verbunden, um den Verdrahtungsmodus zu beenden. Obgleich hier eine Erklärung an einem Beispiel einer Verbindung mit dem Ausgangsanschluß 56 als ein Startpunkt gegeben worden ist, ist es auch möglich, einen anderen Fall einer Verbindung mit dem Eingangsanschluß 54 als ein Startpunkt zu erhalten.
  • Dann werden Videodaten oder Parameter von unterhalb des Objektkörpers in das so verbundene Objekt 52 eingegeben. Danach gibt das Objekt 52 die Videodaten oder Parameter von der rechten Seite des Objektkörpers 53 aus. Die Farben der Eingangsleitungen 57 und Ausgangsleitungen 58 sind in Abhängigkeit von den Arten der Signale verschieden. Beispielsweise sind Videodaten-Eingangs/Ausgangs-Leitungen blau, Schlüssel-Eingangs/Ausgangs-Leitungen rot, Videodaten- und Schlüssel-Eingangs/Ausgangs-Leitungen magentarot und Parameter-Eingangs/Ausgangs-Leitungen grün.
  • Wenn beispielsweise der Ansichtsschalter 55b angeklickt wird, verschwinden wie in 12 dargestellt der Eingangsanschluß 54b und die damit verbundene Eingangsleitung 57b. Dies zeigt jedoch nur an, daß die Eingangsleitung 57b nicht länger angezeigt wird, und die Relation zu dem über die Eingangsleitung 57b verbundenen anderen Objekt bleibt noch ungeändert. Deshalb kann in dem Fall, daß viele Objekte 52 vorhanden sind, die Objektkonfiguration einfach durch Anklicken des Ansichtsschalters 55 angezeigt werden.
  • Die 13 zeigt ein Objekt 52 in dem Zustand, bei welchem viele Eingangsleitungen 57 und Ausgangsleitungen 58 mit seinem Objektkörper 53 verbunden sind. Das Objekt 52 ist so geschaltet, daß andere Objekte über Eingangsleitungen 57a57c und 57e nicht gezeigt sind. Aufgrund eines Anklickens des Ansichtsschalters 55d wird die mit dem Eingangsanschluß 54d verbundene Eingangsleitung nicht angezeigt, obgleich sie noch existent ist. Außerdem weist das Objekt 52 vier Ausgangsanschlüsse 56a, 56b, 56c und 56d auf, mit denen Ausgangsleitungen 58a, 58b, 58c bzw. 58d verbunden sind.
  • 5.4 Signaleigenschaft
  • Beim doppelten Anklicken des Eingangsanschlusses 54 wird eine Dialogbox des Signals der mit dem Eingangsanschluß 54 verbundenen Eingangsleitung 57 angezeigt. Wenn beispielsweise der Eingangsanschluß 54a indem in 11 gezeigten Objekt 52 doppelt angeklickt wird, wird wie in 14 dargestellt eine Dialogbox 60 des in den Eingangsanschluß 54a eingegebenen Signals angezeigt.
  • Die Dialogbox 60 weist eine Videoprüfbox 61, die anzeigt, daß das in den Eingangsanschluß 54a eingegebene Signal aus Videodaten besteht, eine Schlüsselbox 62, die anzeigt, daß das eingegebene Signal ein Schlüsselsignal ist, und eine Video- und -Schlüssel-Prüfbox 63 auf, die anzeigt, daß das eingegebene Signal ein Video- und Schlüsselsignal ist. Die Dialogbox 60 zeigt klar die Art des in den Eingangsanschluß 54a eingegebenen Signals durch Anbringen einer Prüfmarke an eine der drei Prüfboxen an. Das Beispiel nach 14 zeigt an, daß das der Eingangsleitung 57 zugeführte Signal aus Videodaten besteht.
  • Wenn jedoch die Dialogbox 60 offen ist, kann eine gewisse andere Prüfbox wie beispielsweise die Schlüsselprüfbox angeklickt sein und eine Prüfmarke geben, wodurch das Signal zur Eingangsleitung 57 in ein Schlüsselsignal geändert wird.
  • In dem Fall, daß das dem Eingangsanschluß 54a zugeführte Signal ein Parameter ist, kann die Dialogbox 60 den Inhalt eines solchen Parameters anzeigen oder kann, wie beispielsweise in der 15 dargestellt, „3D Transform.” anzeigen, was ein dreidimensionaler Parameter ist.
  • Beim doppelten Anklicken des Objektkörpers 53 des Objekts 52 wird, wie in der 16 dargestellt, eine Objekt-Dialogbox 70 angezeigt, welche die Eigenschaft des relevanten Objekts 52 darstellt.
  • Die Objekt-Dialogbox 70 wird zum Anzeigen und Setzen des Namens des relevanten Objekts 52, einer Liste von Eingangsanschlüssen 54 und Ausgangsanschlüssen 56 und nicht im Schlüsselrahmen enthaltener Parameter verwendet. Insbesondere zeigt die Objekt-Dialogbox 70 wie in 16 dargestellt Schaltboxen von „Schicht 1”, „Hintergrund”, „3D” und „Parameter” als dem Eingangsanschluß 54 zugeführte Signale an und zeigt auch Schaltboxen von „geschichtet” und „Parameter” als vom Ausgangsanschluß 56 gesendete Signale an. Wenn eine beliebige Schaltbox angeklickt wird und die Prüfmarke von ihr entfernt ist, wird dem mit dieser Schaltbox korrespondierenden Eingangsanschluß 54 nicht länger ein Signal zugeführt. Wenn die gleiche Schaltbox wieder angeklickt wird und eine Prüfmarke an ihr angebracht ist, kann dem Eingangsanschluß 54 ein Eingangssignal zugeführt werden.
  • Die Objekt-Dialogbox 70 weist außerdem eine Bypass-Schaltbox 71 auf. Diese Bypass-Schaltbox 71 wird zum wahlweisen Überbrücken des vom erwähnten Haupt-Eingangsanschluß 54 des Objekts 51 empfangenen Eingangssignals verwendet. Insbesondere überbrückt beim Prüfen der Bypass-Schaltbox 71 das Objekt 52 das Eingangssignal, das dem Haupt-Eingangsanschluß 54 zugeführt wird, nach außen, ohne es zu verarbeiten.
  • 6. Erzeugen von Fett-Clips FC
  • 6.1 Visualisierung eines Zeichens
  • Als nächstes wird eine Erläuterung des Falles einer Erzeugung eines Fett-Clips FC zum Visualisieren eines Zeichens durch Verwendung einer Zeitleiste 46 und eines in 17 gezeigten Objekts einer vereinfachten Struktur gegeben. Die Zeitlinie bzw. -zeile 46 besteht aus einer Schicht L1 und einer Schicht L2. Die Schicht L1 wird zur Erzeugung eines Zeichenbildes aus Zeichendaten verwendet. Die Schicht L2 hat drei Schlüsselrahmen KF und wird zum Ausgeben vorbestimmter Zeichendaten zu einem vorbestimmten Zeitpunkt verwendet. Bei diesem Beispiel sind die Schlüsselrahmen KF1, KF2 und KF3 Zeichen- bzw. Buchstabendaten, welche „today” (heute), „weather” (Wetter) bzw. „fine” (schön) ausdrücken.
  • An den Schichten L1 und L2 sind korrespondierend Objekte vorgesehen. Das erste Objekt 71 korrespondiert zu einem vorbestimmten Zeitpunkt mit der Schicht L2, führt die Buchstabendaten „today”, „weather” und „fine” der drei Schlüsselrahmen KF1 bis KF3 dem zweiten Objekt 72 über jeweilige Ausgangsanschlüsse zu. Das zweite Objekt 72 korrespondiert mit der Schicht L1 und erzeugt sukzessive Zeichen- bzw. Buchstabenbilder auf der Basis der Buchstabendaten und gibt dann diese aus, um dadurch eine (wörtliche) Telop-Überschrift von „Today weather fine” (Heute Wetter schön) zu erzeugen.
  • Auf diese Weise wird es unter Verwendung der Zeitlinie und der mit den Schichten der Zeitlinie korrespondierenden Objekte möglich, ein zeitweiliges Management der Bilder entsprechend der Zeitlinie zu erzielen und folglich leicht eine Erkennung der Verbindungsbeziehung zwischen den Schichten gemäß der Verbindungsbeziehung zwischen den Objekten zu realisieren und folglich den Benutzer in die Lage zu versetzen, die Editierarbeit mit Leichtigkeit auszuführen.
  • 6.2 Erzeugung eines Interim-Fetts
  • Das erwähnte Editorfenster 40 führt einen Editierungsprozeß unter Verwendung der Zeitlinie und der Objekte aus und gibt dann das editierte Ergebnis, das vom letzten Objekt erhalten wird, als einen Fett-Clip FC aus. In dem Fall, daß die Zeitlinie bzw. -leiste 46 eine Mehrschichtstruktur aufweist, bei welcher demgemäß die Zahl an Objekten auf einen extrem großen Wert ansteigt, wird es notwendig, festzustellen, welches der Bilder in einer Zwischenstufe der Objekte erzeugt wird. Um diesem Erfordernis zu genügen, wird auch im Hinblick auf irgendein Zwischenobjekt ein Interim-Fat bzw. -Fett erzeugt, um dadurch eine Bestätigung eines Bildes zu erhalten.
  • Jetzt wird eine Erläuterung bezüglich eines exemplarischen Falls gegeben, bei welchem eine Zeitlinie 46 und Objekte so ausgebildet sind, wie es in 18 dargestellt ist. In der Zeitlinie 46 wird eine Schicht L5 für ein „Take 12” (Nimm 12) genanntes Schnittbild verwendet, und eine Schicht L4 wird zur Erzeugung eines dreidimensionalen Parameters aus der Bewegung eines Bildes verwendet. Da diese Erläuterung die Erzeugung eines Interim-Fetts eines Objekts 82 betrifft, ist eine Beschreibung jeder anderen Schicht hier fortgelassen. Indessen korrespondiert ein Objekt 71 mit der Schicht L5 und führt das Bild „Take 12” dem Objekt 82 zu. Danach erzeugt das Objekt 82 auf der Basis des ihm zugeführten Bildes einen dreidimensionalen Parameter, der die Bewegung des Bildes darstellt, und gibt dann einen solchen Parameter aus.
  • Wenn das Objekt 82 angeklickt wird, um ein Interim-Fett zu erzeugen, und ein Interim-Herstellungsmenü aus dem in 7 gezeigten Menüfenster 31 gewählt wird, wird das Objekt 82 ikonisiert. Wenn das Objekt 82 auf diese Weise ikonisiert ist, werden die Clips der Schichten L4 und L5 wie in der 19 dargestellt auf schwarz geschaltet, wodurch das Objekt 82 nicht editiert werden kann. In dem Fall, daß das durch das Interim-Fett erzeugte Ergebnis ein Bild ist, kann der ausgegebene Inhalt des Objekts 82 durch Vorausschau des Inhalts des ikonisierten Objekts 82 bestätigt werden.
  • Wenn „Save As” (Bewahren als = Bewahren mit einem Namen) aus dem Menüfenster 31 in einem Zustand ausgewählt wird, bei welchem das Objekt 82 gewählt (angeklickt) ist, wird der Inhalt des Objekts 82 gesichert und ein Fett-Clip FC erzeugt, der den ausgegebenen Inhalt des Objekts 82 darstellt.
  • Wenn die Editierungsarbeit nach Zerstörung des Interim-Fetts wieder auszuführen ist, wird das Objekt 82 angeklickt und ein Nichtherstellungsmenü aus dem Menüfenster ausgewählt. Dann wird das Interim-Fett zerstört und es wird möglich, das jenige zu editieren, das dem Objekt 82 nachfolgt.
  • 6.3 Erzeugung eines Fett-Clips FC durch Benutzerdefinition
  • Es ist auch möglich, einen Fett-Clip FC aus der Ausgabe irgendeines Zwischenobjekts anstelle nur durch Erzeugung eines Interim-Fetts zu erhalten.
  • Jetzt wird eine Erläuterung bezüglich des exemplarischen Falls gegeben, bei welchem eine Zeitlinie 46 und Objekte so ausgebildet sind, wie es in der 20 dargestellt ist. In der Zeitlinie 46 wird eine Schicht L6 für ein „Take 12” genanntes Schnittbild verwendet, und eine Schicht L5 wird zur Änderung der Bildfarbe synchron mit der Zeitsteuerung der Schlüsselrahmen KF1, KF2 und KF3 verwendet. Hier ist eine Beschreibung jeder anderen Schicht fortgelassen. Indessen korrespondiert ein Objekt 83 mit der Schicht L6 und führt das Bild „Take 12” einem Objekt 84 zu. Danach ändert das Objekt 84 die Farbe des zugeführten Bildes synchron mit der Zeitsteuerung jedes Schlüsselrahmens KF.
  • Wenn „Save As” aus dem Menüfenster 31 in einem Zustand gewählt wird, bei welchen der Clip des Objekts 84 oder die Schicht L5 gewählt ist, kann ein Fett-Clip FC als ein Effekt mit einer Zeitlinie erzeugt werden. Der auf diese Weise erzeugte Fett-Clip FC erscheint im Bin-Fenster 34 und kann wieder zur Erzeugung einiger anderer Fett-Clips FC verwendet werden.
  • 6.4 Andere Beispiele
  • Nachfolgend wird eine Erläuterung bezüglich einer exemplarische Konfiguration von in einer Zeitlinie 46 und einem Objektbereich 47 angeordneten Objekten sowie bezüglich deren Inhalten gegeben.
  • Die 21 zeigt eine prinzipielle Konfiguration von in der Zeitlinie 46 und dem Objektbereich 47 in einem exemplarischem Fall einer Überlagerung eines Titelbildes auf einem Hauptbild angeordneten Objekten. Die Zeitlinie 46 besteht aus vier Schichten L1 bis L4. Die Schicht L4 stellt Videodaten eines Bildes „XXX” dar, die Schicht L3 stellt Buchstabendaten eines Titelbildes „ZZZ” dar, das auf dem Bild „XXX” angezeigt wird, die Schicht L2 wird in diesem Beispiel zum Zusammensetzen des Titelbildes „ZZZ” mit dem Bild „XXX” verwendet, und die Schicht L1 stellt eine Ausgabe dar.
  • Im Objektbereich 47 sind vier Objekte 101 bis 104 vorgesehen, die mit den vier Schichten korrespondieren. Das Objekt 101 ist unmittelbar neben der Schicht L4 vorgesehen und korrespondiert mit dieser, das Objekt 102 ist unmittelbar neben der Schicht L3 vorgesehen und korrespondiert mit dieser, das Objekt 103 ist auf der horizontalen Linie der Schicht L2 in Korrespondenz mit dieser vorgesehen und ist mit den Leitungen aus den Objekten 101 und 102 verbunden, und das Objekt 104 ist auf der horizontalen Linie der Schicht L1 in Korrespondenz dazu vorgesehen und ist mit der Leitung vom Objekt 103 verbunden.
  • Zum Zeitpunkt „00:01:00” gibt das Objekt 101 die Videodaten des Bildes „XXX” aus. Danach gibt zum Zeitpunkt „00:01:10” das Objekt 102 die Buchstabendaten des Titelbildes „ZZZ” aus. Das Objekt 103 gibt die vom Objekt 101 erhaltenen Videodaten aus, setzt dann die Buchstabendaten des Titelbildes „ZZZ” synchron mit der Zeitsteuerung der Schlüsselrahmen KF1 (Zeitpunkt „00:01:40”), KF2 (Zeitpunkt „00:02:50”) und KF3 (Zeitpunkt „00:03:15”) zusammen und gibt die zusammengesetzten Daten aus. Das Objekt 104 gibt die vom Objekt 103 ausgegebenen Videodaten nach außen.
  • Infolgedessen managt die Zeitleitung 46 den Zeitpunkt jeder Schicht L, und die Objekte bilden die Relation einer Verbindung zwischen den Schichten L, um dadurch eine flexible Datenverarbeitung ungeachtet der Reihenfolge der Schichten L zu erzielen.
  • Die 22 zeigt eine prinzipielle Konfiguration einer Zeitleitung 46 und von Objekten in einem exemplarischen Fall einer Überlagerung eines Titelbildes auf einem Hauptbild und einer Bewegung des Titelbildes durch Bewegungseinfang.
  • Die Zeitleitung 46 besteht aus sechs Schichten L1 bis L6. Die Schicht L6 ist eine Bewegungseinfangsschicht, welche die Bewegung eines Subjekts detektiert und einen die detektierte Bewegung anzeigenden Parameter ausgibt. Die Schicht L3 ist eine 3D-Transformationsschicht zur Bewegung eines eingegebenen Bildes entsprechend den eingegebenen dreidimensionalen Parameter. Die Schichten L1 und L2 sind die gleichen wie die in 21 gezeigten erwähnten Schichten L1 und L2. Die Schichten L4 und L5 sind die gleichen wie die in 21 gezeigten schon erwähnten Schichten L3 und L4.
  • Im Objektbereich 47 sind sechs Objekte 105 bis 110 vorgesehen, die mit den Schichten L6 bis L1 korrespondieren. Das Objekt 105 fängt die Bewegung eines einzelnen Bildes ein und gibt dann einen dreidimensionalen Parameter aus, der die eingefangene Bewegung anzeigt. Das Objekt 106 gibt die Videodaten eines Hauptbildes „XXX” aus. Das Objekt 107 gibt die Buchstabendaten eines Titelbildes „ZZZ” aus. Das Objekt 108 ist mit den Ausgangsleitungen der Objekte 105 und 107 verbunden. Das Objekt 109 ist mit den Ausgangsleitungen der Objekte 106 bis 108 verbunden. Das Objekt 110 ist mit der Ausgangsleitung des Objekts 109 verbunden und gibt das von dieser Leitung erhaltene Bild nach außen ab.
  • Das Objekt 108 bewegt das vom Objekt 107 ausgegebene Titelbild „ZZZ” entsprechend dem vom Objekt 105 erhaltenen dreidimensionalen Parameter und führt dann sich das bewegende Titelbild dem Objekt 109 zu. Danach gibt das Objekt 109 das vom Objekt 106 zugeführte Bild „XXX” aus, setzt dann das Titelbild aus dem Objekt 108 synchron mit der Zeitsteuerung der Schlüsselrahmen KF1, KF2 und KF3 zusammen und führt das zusammengesetzte Bild dem Objekt 110 zu. Danach gibt das Objekt 110 das Bild aus dem Objekt 109 nach außen ab.
  • Auf diese Weise ist es möglich, auch ein sich bewegendes Titelbild mit Leichtigkeit zusammenzusetzen, zusätzlich zu der alleinigen Zusammensetzung eines gewöhnlichen Titelbildes mit einem Hauptbild.
  • Die 23 zeigt eine prinzipielle Konfiguration einer Zeitlinie 46 und Objekte in einem exemplarischen Fall einer Überlagerung eines Titelbildes auf einem Hauptbild und einer Bewegung des Titelbildes durch Bewegungseinfang und 3D.
  • Die Zeitlinie 46 besteht aus sieben Schichten L1 bis L7. Die Schicht L7 stellt dar, daß sich ein Subjekt bewegt. Die anderen Schichten L1 bis L6 sind die gleichen wie die in der 22 gezeigten erwähnten Schichten L1 bis L6.
  • Im Objektbereich 47 sind sieben Objekte 111 bis 117 vorgesehen, die jeweils mit den Schichten L7 bis L1 korrespondieren. Das Objekt 111 gibt einen dreidimensionalen Parameter aus. Das Objekt 112 ist mit einer Ausgangsleitung des Objekts 111 verbunden. Das Objekt 113 gibt die Videodaten eines Hauptbildes „XXX” aus. Das Objekt 114 gibt die Zeichen- bzw. Buchstabendaten eines Titelbildes „ZZZ” aus. Das Objekt 115 ist mit den Ausgangsleitungen der Objekte 112 und 114 verbunden. Das Objekt 116 ist mit den Ausgangsleitungen der Objekte 113 und 115 verbunden. Das Objekt 117 ist mit der Ausgangsleitung des Objekts 116 verbunden und gibt das aus dieser Leitung erhaltene Bild nach außen ab.
  • Das Objekt 112 gibt einen dreidimensionalen Parameter auf der Basis der vom Objekt 111 erhaltenen Subjektbewegung ab. Danach bewegt das Objekt 115 das vom Objekt 114 ausgegebene Titelbild „ZZZ” entsprechend dem vom Objekt 112 erhaltenen dreidimensionalen Parameter und führt dann das sich bewegende Titelbild dem Objekt 116 zu. Danach gibt das Objekt 116 das vom Objekt 113 zugeführte Bild „XXX” aus, setzt dann das Titelbild vom Objekt 115 synchron mit der Zeitsteuerung der Schlüsselrahmen KF1, KF2 und KF3 zusammen und führt das zusammengesetzte Bild dem Objekt 117 zu. Schließlich gibt das Objekt 117 das Bild aus dem Objekt 116 nach außen ab.
  • Auf diese Weise ist es möglich, das mit dem Hauptbild zusammenzusetzende Titelbild mit der Bewegung des Subjekts zu bewegen.
  • Die 24 zeigt eine prinzipielle Konfiguration einer Zeitlinie 46 und von Objekten, welche die gleiche Funktion wie jene in der 23 haben. Insbesondere werden in der 23 ein Objekt 114 und eine Schicht L4 durch anklicken eines Ansichtsschalters 115a eines Objekts 115 gelöscht und außerdem werden ein Objekt 113 und eine Schicht L5 durch Anklicken eines Ansichtsschalters 116a eines Objekts 116 gelöscht.
  • Deshalb besteht die Zeitlinie 46 aus fünf Schichten L1 bis L5.
  • Infolgedessen werden beim Anklicken eines vorbestimmten Ansichtsschalters das im Nachhinein in die Leitung des mit dem relevanten Ansichtsschalter korrespondierenden Eingangsanschlusses gelöscht, um folglich die angezeigten Inhalte zu vereinfachen.
  • Die 25 zeigt eine prinzipielle Konfiguration einer Zeitinie bzw. -leitung 46 und eines Objekts in einem exemplarischen Fall der Anzeige eines Hexaeders.
  • Die Zeitlinie 46 besteht aus achtzehn Schichten L1 bis L18. Die Schicht L18 ist eine globale Bewegungsschicht zum Anzeigen der globalen Bewegung eines Kubus. Die Schichten L15 bis L17 sind Kubusschichten zum Anzeigen von Parametern der jeweiligen Seiten des Kubus. Die Schicht L14 ist eine Videodatenschicht zum Anzeigen der Daten von „Videoside-1” (Videoseite-1), welche eine Seite des Kubus darstellt. Die Schicht L13 ist eine 3D-Transformationsschicht zum Bewegen des Bildes auf der Basis von dreidimensionalen Parametern. Die Schichten L12, L11, L10, L9, L8, L7, L6, L5, L4 und L3 sind die gleichen wie die erwähnten Schichten L14 und L13. Die Schicht L2 ist eine Kombinationsschicht zum Anzeigen einer Kombination von Bildern, und die Schicht L1 ist eine Ausgabeschicht zum Ausführen eines Ausgabeprozesses.
  • Indem wie in 25 gezeigten Objektbereichs 47 sind Objekte 118 bis 133 vorgesehen, die mit den Schichten L18 bis L1 korrespondieren, wobei ein Objekt 119 mit den Schichten L15 bis L17 korrespondiert.
  • Das Objekt 118 korrespondiert mit der Schicht L18 und gibt einen Parameter aus, der eine Verzögerungsbewegung darstellt. Das Objekt 119 korrespondiert mit den Schichten L15, L16 und L17 und gibt Parameter aus, welche die sechs Flächen des Kubus auf der Basis des vom Objekt 118 erhaltenen Parameters darstellen. Das Objekt 120 korrespondiert mit der Schicht L14 und gibt Videodaten einer einzelnen Fläche des Hexaeders aus. Das Objekt 121 bewegt eine einzelne Fläche des Hexaeders in Übereinstimmung sowohl der Videodaten aus dem Objekt 120 als auch der zwei Parameter aus dem Objekt 119 und gibt dann deren Videodaten aus. Die Objekte 122 und 123, die Objekte 124 und 125, die Objekte 126 und 127, die Objekte 128 und 129 und die Objekte 130 und 131 führen jeweils die gleiche Verarbeitung wie die erwähnten Objekte 120 und 121 aus. Das Objekt 132 korrespondiert mit der Schicht L2 und kombiniert die Videodaten der von den Objekten 121, 123, 125, 127, 129 bzw. 131 erhaltenen sechs Flächen des Hexaeders. Das Objekt 133 korrespondiert mit der Schicht L1 und gibt das vom Objekt 132 erhaltene sich bewegende kubische Bild aus.
  • Auf diese Weise ist es möglich, nicht nur das Titelbild, sondern auch das kombinierte Bild nach der Bewegung der individuellen Bilder auszugeben und diese zu kombinieren.
  • Die 26 zeigt eine prinzipielle Konfiguration einer Zeitleitung 46 und von Objekten in einem exemplarischen Fall einer Malfunktion, bei der dem Bild auf dem Schirm ganz oder teilweise die gewünschten Farben gegeben werden.
  • Die Zeitleitung 46 besteht aus 4 Schichten L1 bis L4. Die Schicht L4 ist eine erwähnte Bewegungseinfangsschicht. Die Schicht L3 ist eine Hintergrundvideoschicht für ein Hintergrundvideobild. Die Schicht L2 ist eine Malschicht, um dem Bild eine gewünschte Farbe zu geben. Die Schicht L1 ist eine Ausgabeschicht.
  • Im Objektbereich 47 sind Objekte 134 bis 137 vorgesehen, die mit den Schichten L4 bis L1 jeweils korrespondieren. Das Objekt 134 korrespondiert mit der Schicht L4 und gibt einen die Bewegung eines Objekts darstellenden Parameters aus. Das Objekt 135 korrespondiert mit der Schicht L3 und gibt Videodaten eines Hintergrundbildes aus. Das Objekt 136 korrespondiert mit der Schicht L1 und führt einen Prozeß wie beispielsweise eine Änderung der Farbe des vom Objekt 135 erhaltenen Hintergrundbildes entsprechend dem vom Objekt 134 ausgegebenen Parameter aus. Das Objekt 137 korrespondiert mit der Schicht L1 und gibt das vom Objekt 136 erhaltenen farbgeänderte Hintergrundbild nach außen ab.
  • Auf diese Weise ist es möglich, zusätzlich zum Subjekt allein eine Änderung der Farbe usw. auszuführen.
  • Die 27 zeigt eine prinzipielle Konfiguration einer Zeitleitung 46 und von Objekten in einem exemplarischen Fall einer Erzeugung von dreidimensionalen Daten.
  • Die Zeitlinie 46 besteht aus drei Schichten L1 bis L3. Die Schicht L3 ist eine Quellenvideoschicht zum Anzeigen der Videodaten eines sich bewegenden Objektes, von dem dreidimensionale Parameter zu erzeugen sind. Die Schicht L2 ist eine Bewegungseinfangsparameterschicht zur Erzeugung dreidimensionaler Parameter von den Videodaten des sich zu bewegenden Subjekts. Die Schicht L1 ist eine Ausgabeschicht.
  • Im Objektbereich 47 sind Objekte 138 bis 140 vorgesehen, die mit den Schichten L3 bis L1 jeweils korrespondieren. Das Objekt 138 gibt die Videodaten eines sich bewegenden Subjekts aus. Das Objekt 139 erzeugt dreidimensionale Parameter des sich bewegenden Subjekts auf der Basis der vom Objekt 138 erhaltenen Videodaten und gibt dann die erzeugten Parameter aus. Das Objekt 140 gibt die vom Objekt 139 erhaltenen dreidimensionalen Parameter nach außen ab.
  • Auf diese Weise ist es möglich, eine Erzeugung von dreidimensionalen Parametern aufgrund dieser Konfiguration der Zeitleitung 46 und der Objekte 138 bis 140 auszuführen.
  • Wie oben beschrieben wird bei dem Editierungssystem 1, bei welchem die vorliegende Erfindung angewendet ist, ein Zeitmanagment von Daten und Parametern durch die Zeitleitung ausgeführt, und die Relation einer Verbindung zwischen den Schichten, welche die Zeitleitung bilden, wird durch die Objekte angezeigt, um folglich die komplizierte und schwierige Editierarbeit zu erleichtern.
  • Während dieser Operation ist es möglich, ein von einem beliebigen Objekt ausgegebenes Interim-Fett in einem Zwischenprozess zu erzeugen, und folglich kann ein mit der Benutzerdefinition übereinstimmender Fett-Clip FC erzeugt werden, um eventuell eine zufriedenstellende Editierarbeit mit verbesserter Einfachheit zu erzielen.
  • Außerdem kann der Inhalt des Editierungsprozesses leicht visuell durch teilweises Löschen von Objekten erfaßt werden, und es können Eingangssignale zum und Ausgangssignale von jedem Objekt leicht durch Anzeigen der Eigenschaften des relevanten Objekts gesetzt werden.
  • Die vorliegende Erfindung ist nicht so zu verstehen, daß sie nur auf die oben erwähnten Ausführungsformen beschränkt ist, sondern so, daß jede Änderung oder Modifikation im Design unter den in den beigefügten Ansprüchen definierten Schutzbereich fällt. Selbstverständlich sind beispielsweise die Strukturen des Hauptfensters 30 und des Editorfensters 40 nicht auf die in den 7 und 8 dargestellten Beispiele beschränkt.
  • Demgemäß wird gemäß dem Editierungssystem und dem Editierungsverfahren nach der vorliegenden Erfindung ein Zeitmanagment bezüglich jeder Clipverarbeitungsschicht ausgeführt, und der von einer einzelnen Clipverarbeitungsschicht erhaltene verarbeitete Clip wird weiter durch die andere Clipverarbeitungsschicht verarbeitet, die hierarchisch über der vorhergehenden einen Schicht liegt, und dann wird der von der hierarchisch obersten Clipverarbeitungsschicht erhaltene verarbeitete Clip als ein Fett-Clip ausgegeben und folglich der Freiheitsgrad des Editierungsprozesses erhöht und der Benutzer in die Lage versetzt, den Inhalt des Editierungsprozesses leicht zu erfassen.
  • Durch die Erfindung ist ein Multischicht-Editierungssystem zum Ausführen einer schnellen Zusammensetzung, eines Spezialeffekts und von Editierungsprozessen von in einem Multischichtformat zugeführten mehrkanaligen Videodaten bereitgestellt. Auf einer Anzeigeeinrichtung einer Arbeitsstation im Editierungssystem wird eine graphische Benutzerschnittstelle (kurz GUI = Graphical User Interface) mit einer Zeitlinie und einem Objektbereich angezeigt. Die Zeitlinie besteht aus einer Multistruktur, die mit einer Anzahl von Kanälen zur Erzeugung eines einzelnen editierten Video-Clips durch Zusammensetzung mehrkanaliger Video-Clips übereinstimmt. Der Objektbereich wird zur Anzeige von Objekten verwendet, die den verbundenen Zustand der in den einzelnen Schichten der Zeitlinie angezeigten Clips darstellen. Insbesondere sind die Objekte Ikons zum Definieren des Prozesses (Zusammensetzen, Editieren oder Spezialeffekt) durch die Verwendung der den Schichten zugeordneten Clips. Die Objekte werden so angezeigt, daß sie jeweils mit den Schichten und den Clips korrespondieren. Entsprechend diesen Objekten führt das Editierungssystem einen Spezialeffekt-, Editierungs- und/oder Zusammensetzungsprozeß der von einem Plattenrekorder zugeführten mehrkanaligen Videodaten aus.
  • Durch die Erfindung ist vorteilhafterweise ein Mehrschicht-Editierungssystem geschaffen, welches einen schnellen Zusammensetzungs-, Spezialeffekt- und/oder Editierungsprozess von als Mehrschichtdaten zugeführten mehrkanaligen Videodaten ausführen kann.

Claims (18)

  1. Editierungssystem zur Editierung einer Anzahl von auf einem Aufzeichnungsmedium mit wahlfreiem Zugriff aufgezeichneten Clips (MC, FC), mit einer Clip-Verarbeitungseinrichtung, die eine Anzahl Clip-Verarbeitungsschichten (L) zur Ausführung eines vorbestimmten Prozesses für die Clips aufweist, und einer Hierarchie-Entscheidungseinrichtung, die eine Anzahl von den Clip-Verarbeitungsschichten (L) jeweils zugeordneten Objekten (52) aufweist, wobei die Objekte (52) miteinander verbunden sind und eine einzelne hierarchische Struktur bilden, und wobei die Hierarchie-Entscheidungseinrichtung zum Entscheiden der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch die einzelne hierarchische Struktur dient, wobei die Clip-Verarbeitungseinrichtung für jede Clip-Verarbeitungsschicht (L) ein Zeitmanagement ausführt und jeder von einer ersten Clip-Verarbeitungsschicht (L) erhaltene verarbeitete Clip (MC, FC) außerdem durch eine zweite Clip-Verarbeitungsschicht (L) verarbeitet wird, die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und wobei der von der hierarchisch obersten Clip-Verarbeitungsschicht (L) erhaltene verarbeitete und editierte Clip (MC, FC) ausgegeben wird.
  2. Editierungssystem nach Anspruch 1, mit einer Anzeigeeinrichtung, wobei die von der Clip-Verarbeitungseinrichtung verarbeiteten Inhalte als eine Zeitlinie (46) angezeigt sind und die durch die hierarchische Entscheidungseinrichtung gebildete hierarchische Struktur mit Verbindungen zwischen den Objekten (52) angezeigt sind.
  3. Editierungssystem nach Anspruch 1 oder 2, wobei die Anzeigeeinrichtung die Verbindungen zwischen den Objekten (52) in verschiedenen Farben anzeigt, die entsprechend den durch die Clip-Verarbeitungsschichten (L) zu verarbeitenden Subjekten geändert werden.
  4. Editierungsverfahren zur Erzeugung eines editierten Fett-Clips (FC) durch editieren einer Anzahl von als Editiereinheiten verwendeten Clips (MC, FC), mit den Schritten: Ausführen eines vorbestimmten Prozesses für die Clips (MC, FC) durch eine Anzahl von Clip-Verarbeitungsschichten (L), Verbinden einer Anzahl von entsprechend den Clip-Verarbeitungsschichten (L) vorhandenen Objekten (52) und entscheiden der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch eine einzelne hierarchische Struktur, die durch solche Verbindungen der Objekte (52) gebildet ist Ausführen eines Zeitmanagements jeder Clip-Verarbeitungsschicht (L), und Verarbeiten des bereits durch eine erste Clip-Verarbeitungsschicht (L) verarbeiteten Clips (MC, FC) durch eine zweite Clip-Verarbeitungsschicht (L), die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und Ausgeben des von der hierarchisch obersten Clip-Verarbeitungsschicht (L) erhaltenen verarbeiteten und editierten Clips (MC, FC).
  5. Editierungsverfahren nach Anspruch 4, wobei die durch die Clip-Verarbeitungsschichten (L) verarbeiteten Inhalte als eine Zeitlinie (46) angezeigt werden und die gebildete hierarchische Struktur mit Verbindungen zwischen den Objekten (52) angezeigt wird.
  6. Editierungsverfahren nach Anspruch 4 oder 5, wobei die Verbindungen zwischen den Objekten (52) in verschiedenen Farben angezeigt werden, die entsprechend den durch die Clip-Verarbeitungsschichten (L) zu verarbeitenden Subjekten geändert werden.
  7. Editierungssystem zur Erzeugung eines editierten Clips (FC) durch Editierung einer Anzahl von als Editiereinheiten verwendeten Clips (MC, FC), mit einer Clip-Verarbeitungseinrichtung mit einer Anzahl von Clip-Verarbeitungsschichten (L) zum Ausführen eines vorbestimmten Prozesses für die Clips (MC, FC), einer hierarchischen Entscheidungseinrichtung mit einer Anzahl von den jeweiligen Clip-Verarbeitungsschichten (L) zugeordneten Objekten (52), wobei die Objekte (52) gegenseitig verbunden sind und eine einzelne hierarchische Struktur bilden, und wobei die hierarchische Entscheidungseinrichtung zur Entscheidung der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch die einzelne hierarchische Struktur dient und einer Anzeigeeinrichtung zur Anzeige eines gewünschten Objekts (52), wobei jeder von einer ersten Clip-Verarbeitungs-schicht (L) in der Clip Verarbeitungseinrichtung erhaltene verarbeitete Clip (MC, FC) außerdem durch eine zweite Clip-Verarbeitungseinrichtung verarbeitet ist, die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und der von der mit dem angezeigten Objekt (52) korrespondierenden Clip-Verarbeitungsschicht (L) erhaltene verarbeitete Inhalt als ein editierter Interim-Clip ausgegeben ist.
  8. Editierungssystem nach Anspruch 7, mit einer Anzeigeeinrichtung, wobei die durch die Clip-Verarbeitungseinrichtung verarbeiteten Inhalte als eine Zeitlinie (46) angezeigt sind, und die durch die hierarchische Entscheidungseinrichtung gebildete hierarchische Struktur mit Verbindungen zwischen den Objekten (52) angezeigt ist, und das durch die Anzeigeeinrichtung angezeigte Objekt (52) und die mit dem Objekt (52) korrespondierende Schicht (L) in verschiedenen Farben angezeigt sind.
  9. Editierungsverfahren zur Erzeugung eines Fett-Clips (FC) durch Editieren einer Anzahl von als Editiereinheiten verwendeten Clips (MC, FC), mit den Schritten: Ausführen eines vorbestimmten Prozesses für die Clips (MC, FC) durch eine Anzahl von Clip-Verarbeitungsschichten (L), Verbinden einer Anzahl von entsprechend den Clip-Verarbeitungsschichten (L) vorhandenen Objekten (52) und Entscheiden der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch eine einzelne hierarchische Struktur, die durch solche Verbindungen der Objekte (52) gebildet wird, und Verarbeiten des durch eine erste Clip-Verarbeitungsschicht (L) bereits verarbeiteten Clips (MC, FC) durch eine zweite Clip-Verarbeitungsschicht (L), die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und Ausgeben des von der mit dem angezeigten Objekt (52) korrespondierenden Clip-Verarbeitungsschicht (L) erhaltenen verarbeiteten Inhalts als editierter ein Interim-Clip.
  10. Editierungsverfahren nach Anspruch 9, wobei die durch die Clip-Verarbeitungsschichten (L) verarbeiteten Inhalte als eine Zeitlinie (46) angezeigt werden, und die gebildete hierarchische Struktur mit Verbindungen zwischen den Objekten (52) angezeigt wird, und das durch die Anzeigeeinrichtung angezeigte Objekt (52) und die mit dem Objekt (52) korrespondierende Schicht (L) in verschiedenen Farben angezeigt werden.
  11. Editierungssystem zur Erzeugung eines editierten Clips (FC) zur Editierung einer Anzahl von als Editiereinheiten verwendeten Clips (MC, FC), mit einer Clip-Verarbeitungseinrichtung mit einer Anzahl von Clip-Verarbeitungsschichten (L), um mit einem Zeitmanagement einen vorbestimmten Prozeß für die zu editierenden Subjekt-Clips auszuführen, einer hierarchischen Entscheidungseinrichtung mit einer Anzahl von den jeweiligen Clip-Verarbeitungsschichten (L) zugeordneten Objekten (L), wobei die Objekte (52) miteinander verbunden sind und eine einzelne hierarchische Struktur bilden, und wobei die Hierarchie-Entscheidungseinrichtung, die zur Entscheidung der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch eine einzelne hierarchische Struktur dient, und einer Anzeigeeinrichtung zur Anzeige eines gewünschten Objekts (52) und/oder einer Clip-Verarbeitungsschicht (52), wobei jeder von einer ersten Clip-Verarbeitungs-schicht (L) in der Clip-Verarbeitungseinrichtung erhaltene verarbeitete Clip (MC, FC) außerdem durch eine zweite Clip-Verarbeitungsschicht (L) verarbeitet ist, die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und wobei entweder der von der mit dem durch die Anzeigeeinrichtung angezeigten Objekt (52) korrespondierenden Clip-Verarbeitungsschicht (L) erhaltene verarbeitete und editierte Inhalt oder der von der durch die Anzeigeeinrichtung angezeigten Clip-Verarbeitungsschicht (L) erhaltene verarbeitete und editierte Inhalt ausgegeben ist.
  12. Editierungssystem nach Anspruch 11, wobei die Clip-Verarbeitungsschichten einen vorbestimmten Prozeß zur Ausgabe eines editierten Clips (FC) als ein zu editierender Subjekt-Clip ausführt.
  13. Editierungsverfahren zum Erzeugen eines editierten Clips (FC) durch Editieren einer Anzahl von als Editiereinheiten verwendeten Clips (MC, FC), mit den Schritten: Ausführen mit einem Zeitmanagement einen vorbestimmten Prozeß für die zu editierenden Subjekt-Clips durch eine Anzahl von Clip-Verarbeitungsschichten (L), Verbinden einer Anzahl von mit den Clip-Verarbeitungs-schichten (L) jeweils zugeordneten Objekten (52), wobei die Objekte (52) miteinander verbunden sind und eine einzelne hierarchische Struktur bilden, und wobei die Hierarchie-Entscheidungseinrichtung und Entscheiden der Hierarchie jeder Clip-Verarbeitungsschicht (L) durch eine einzelne hierarchische Struktur, die durch solche Verbindungen zwischen den Objekten (52) gebildet wird, Verarbeiten des durch eine erste Clip-Verarbeitungsschicht (L) bereits verarbeiteten Clips (MC, FC) durch die zweite Clip-Verarbeitungsschicht (L), die sich hierarchisch oberhalb der ersten Clip-Verarbeitungsschicht (L) befindet, und Ausgeben entweder des von der mit dem durch eine Anzeigeeinrichtung angezeigten Objekt (52) korrespondierenden Clip-Verarbeitungsschicht (L) erhaltenen verarbeiteten Inhalts oder des von der durch die Anzeigeeinrichtung angezeigten Clip-Verarbeitungsschicht (L) erhaltenen verarbeiteten Inhalts als einen Fett-Clip (FC).
  14. Editierungsverfahren nach Anspruch 13, wobei die Clip-Verarbeitungsschichten einen vorbestimmten Prozeß für den ausgegebenen editierten Clip (FC) als einen zu editierenden Subjekt-Clip ausführen.
  15. Editierungssystem zur Editierung mehrkanaliger Videodaten, die von einem Aufzeichnungsmedium mit wahlfreiem Zugriff wiedergegeben sind, mit einer Videoverarbeitungseinrichtung zur Verarbeitung der mehrkanaligen Videodaten, einer Anzeigeeinrichtung zur Anzeige einer Anzahl von Video-Clips (MC, FC) auf Multischichten (L) einer mit den mehrkanaligen Videodaten korrespondierenden Zeitlinie (46) und auch Anzeige einer Anzahl von Objekten (52), welche den verbundenen Zustand der Anzahl von Video-Clips (MC, FC) darstellen, derart, daß die Objekte (52) jeweils den Video-Clips (MC, FC) zugeordnet sind, und einer Steuereinrichtung zur Steuerung der Video-Verarbeitungseinrichtung entsprechend dem durch die Anzahl von Objekten (52) dargestellten verbundenen Zustand.
  16. Editierungssystem zur Editierung mehrkanaliger Videodaten, die von einem Aufzeichnungsmedium mit wahlfreiem Zugriff wiedergegeben sind, mit einer Anzeigeeinrichtung zur Anzeige einer Anzahl von Video-Clips (MC, FC) auf Multischichten (L) einer mit den mehrkanaligen Videodaten korrespondierenden Zeitlinie (46) und auch Anzeige einer Anzahl von Objekten (52), welche den verbundenen Zustand der Anzahl von Video-Clips (MC, FC) darstellen, derart, daß die Objekte (52) jeweils den Video-Clips (MC, FC) zugeordnet sind, und einer Steuereinrichtung zur Zeitsteuerung der Wiedergabe von dem Aufzeichnungsmedium mit wahlfreiem Zugriff entsprechend den Positionen der Video-Clips (MC, FC) auf der Zeitlinie (46) und auch Steuerung der Video-Verarbeitungseinrichtung entsprechend dem durch die Anzahl von Objekten (52) dargestellten verbundenen Zustand.
  17. Editierungssystem zur Editierung mehrkanaliger Videodaten, die von einem Aufzeichnungsmedium mit wahlfreiem Zugriff wiedergegeben sind, mit einer Video-Verarbeitungseinrichtung zur Verarbeitung der mehrkanaligen Videodaten, einer Anzeigeeinrichtung zur Anzeige von Video-Clips (MC, FC) auf Multischichten (L) einer Zeitlinie (46) entsprechend den mehrkanaligen Videodaten und auch Anzeige einer Anzahl von Objekten (52), welche den verbundenen Zustand der Anzahl von Video-Clips (MC, FC) darstellen, derart, daß die Objekte (52) jeweils den Video-Clips (MC, FC) zugeordnet sind und einer Einrichtung zur Editierung mehrkanaliger Quellenvideodaten, die vom Aufzeichnungsmedium mit wahlfreiem Zugriff entsprechend den durch die Anzahl von Objekten (52) dargestellten verbundenen Zustand wiedergegeben sind, und dann Aufzeichnung der editierten Videodaten auf dem Aufzeichnungsmedium, wobei die Anzeigeeinrichtung Ikons anzeigt, welche für die entsprechend der Anzahl von Objekten (52) editierten Videodaten repräsentativ sind.
  18. Editierungssystem zur Editierung einer Anzahl von aus Quellenvideodaten erzeugten Video-Clips (MC, FC), mit einer Wiedergabeeinrichtung zur Wiedergabe der auf einem Aufzeichnungsmedium mit wahlfreiem Zugriff aufgezeichneten Quellenvideodaten, einer Video-Verarbeitungseinrichtung zur Verarbeitung der Quellenvideodaten, und einer Editierungseinrichtung, die eine graphische Benutzerschnittstelle zur Ausführung einer Editierungsoperation aufweist und zur Steuerung der Wiedergabeeinrichtung und der Video-Verarbeitungseinrichtung entsprechend der Manipulationsoperation in der graphischen Benutzerschnittstelle dient, wobei die graphische Benutzerschnittstelle eine Zeitlinie (46) einer Multischichtstruktur zur Zusammensetzung einer von den Quellenvideodaten erzeugten Video-Clips (MC, FC) aufweist und die Video-Clips (MC, FC) den Schichten (L) zuordnet, und auch einen Objektbereich (47) zur Anzeige einer Anzahl von Objekten (52) aufweist, welche den verbundenen Zustand der Anzahl von Video-Clips (MC, FC) darstellen, und wobei die Objekte (52) Ikons zur Anzeige des durch die Verwendung der den Schichten zugeordneten Video-Clips (MC, FC) auszuführenden Zusammensetzungsprozesses sind.
DE19944746A 1998-09-17 1999-09-17 Editierungssystem und Editierungsverfahren Expired - Lifetime DE19944746B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP26368898A JP4103192B2 (ja) 1998-09-17 1998-09-17 編集システム及び編集方法
JPP10-263688 1998-09-17

Publications (2)

Publication Number Publication Date
DE19944746A1 DE19944746A1 (de) 2000-03-23
DE19944746B4 true DE19944746B4 (de) 2011-03-03

Family

ID=17392967

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19944746A Expired - Lifetime DE19944746B4 (de) 1998-09-17 1999-09-17 Editierungssystem und Editierungsverfahren

Country Status (4)

Country Link
US (1) US6744968B1 (de)
JP (1) JP4103192B2 (de)
DE (1) DE19944746B4 (de)
GB (1) GB2341969B (de)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7054539B2 (en) * 2000-02-09 2006-05-30 Canon Kabushiki Kaisha Image processing method and apparatus
GB2361098A (en) * 2000-04-05 2001-10-10 Sony Uk Ltd Editing system and method using metadata
WO2001075884A2 (en) 2000-04-05 2001-10-11 Sony United Kingdom Limited Audio/video reproducing apparatus and method
JP4671011B2 (ja) * 2000-08-30 2011-04-13 ソニー株式会社 効果付加装置、効果付加方法、効果付加プログラム及び効果付加プログラム格納媒体
JP4383054B2 (ja) * 2001-04-05 2009-12-16 富士通株式会社 情報処理装置、情報処理方法、媒体およびプログラム
JP2003217265A (ja) * 2002-01-21 2003-07-31 Alpine Electronics Inc 音楽ストレージ装置及び映像ストレージ装置
EP1471466A4 (de) * 2002-01-31 2007-10-03 Sony Corp "datenerzeugungseinrichtung, datenwiedergabeeinrichtung, datenverarbeitungssystem und verfahren dafür"
JP3814565B2 (ja) * 2002-06-10 2006-08-30 キヤノン株式会社 記録装置
US7319764B1 (en) * 2003-01-06 2008-01-15 Apple Inc. Method and apparatus for controlling volume
GB2404300A (en) * 2003-07-25 2005-01-26 Autodesk Inc Compositing and temporally editing clips of image data
US7725828B1 (en) * 2003-10-15 2010-05-25 Apple Inc. Application of speed effects to a video presentation
JP4061285B2 (ja) * 2004-03-31 2008-03-12 英特維數位科技股▲ふん▼有限公司 画像編集装置、プログラムおよび記録媒体
GB2413450A (en) * 2004-04-19 2005-10-26 Forbidden Technologies Plc Video navigation using image tokens displayed within a continuous band of tokens
US7511767B2 (en) * 2005-03-29 2009-03-31 Snell & Wilcox Limited Video storage device, and method of controlling a video storage device and video mixer
US7760908B2 (en) * 2005-03-31 2010-07-20 Honeywell International Inc. Event packaged video sequence
GB2425216A (en) * 2005-04-13 2006-10-18 Inventec Multimedia & Telecom System and method of video editing
US7769819B2 (en) * 2005-04-20 2010-08-03 Videoegg, Inc. Video editing with timeline representations
AU2005202866A1 (en) 2005-06-29 2007-01-18 Canon Kabushiki Kaisha Storing video data in a video file
US20070071404A1 (en) * 2005-09-29 2007-03-29 Honeywell International Inc. Controlled video event presentation
WO2008001371A2 (en) * 2006-06-28 2008-01-03 Vringo, Inc. User-chosen media content
US20080092189A1 (en) * 2006-09-21 2008-04-17 Clipblast, Inc. Web video distribution system for e-commerce, information-based or services websites
EP2119235A4 (de) * 2007-02-02 2011-12-21 Honeywell Int Inc Systeme und verfahren zur verwaltung von live-videodaten
US8788963B2 (en) * 2008-10-15 2014-07-22 Apple Inc. Scrollable preview of content
WO2010099575A1 (en) 2009-03-04 2010-09-10 Honeywell International Inc. Systems and methods for managing video data
US8701007B2 (en) * 2009-04-30 2014-04-15 Apple Inc. Edit visualizer for modifying and evaluating uncommitted media content
US8566721B2 (en) * 2009-04-30 2013-10-22 Apple Inc. Editing key-indexed graphs in media editing applications
US8286081B2 (en) 2009-04-30 2012-10-09 Apple Inc. Editing and saving key-indexed geometries in media editing applications
US8631326B2 (en) * 2009-04-30 2014-01-14 Apple Inc. Segmented timeline for a media-editing application
US8881013B2 (en) * 2009-04-30 2014-11-04 Apple Inc. Tool for tracking versions of media sections in a composite presentation
US9336578B2 (en) 2009-09-14 2016-05-10 Thomson Licensing Interactive tone mapping for high dynamic range video
JP6282863B2 (ja) * 2010-06-25 2018-02-21 トムソン ライセンシングThomson Licensing ハイダイナミックレンジ映像をトーンマッピングするためのグラフィカルユーザインターフェース
US9323438B2 (en) 2010-07-15 2016-04-26 Apple Inc. Media-editing application with live dragging and live editing capabilities
CN102572302B (zh) * 2010-12-31 2017-02-08 新奥特(北京)视频技术有限公司 关键帧曲线在修改素材出入点后的多种处理方法
US8775480B2 (en) 2011-01-28 2014-07-08 Apple Inc. Media clip management
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US9026909B2 (en) 2011-02-16 2015-05-05 Apple Inc. Keyword list view
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
CN103597812B (zh) * 2011-06-14 2017-11-21 皇家飞利浦有限公司 用于高动态范围视频的图形处理设备及方法
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
GB2495289A (en) * 2011-10-04 2013-04-10 David John Thomas Multimedia editing by string manipulation
US9396758B2 (en) 2012-05-01 2016-07-19 Wochit, Inc. Semi-automatic generation of multimedia content
US9524751B2 (en) 2012-05-01 2016-12-20 Wochit, Inc. Semi-automatic generation of multimedia content
US20130294746A1 (en) * 2012-05-01 2013-11-07 Wochit, Inc. System and method of generating multimedia content
US9014544B2 (en) 2012-12-19 2015-04-21 Apple Inc. User interface for retiming in a media authoring tool
US9553904B2 (en) 2014-03-16 2017-01-24 Wochit, Inc. Automatic pre-processing of moderation tasks for moderator-assisted generation of video clips
US9659219B2 (en) 2015-02-18 2017-05-23 Wochit Inc. Computer-aided video production triggered by media availability
US10289291B2 (en) * 2016-04-05 2019-05-14 Adobe Inc. Editing nested video sequences

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168855A (ja) * 1993-09-21 1995-07-04 Toshiba Corp 情報記録再生装置
JPH07334651A (ja) * 1994-06-13 1995-12-22 Matsushita Electric Ind Co Ltd データ編集装置
JPH10149669A (ja) * 1996-09-20 1998-06-02 Sony Corp 編集システム、編集方法、クリツプ管理装置及びクリツプ管理方法
JPH10200855A (ja) * 1996-11-15 1998-07-31 Hitachi Denshi Ltd 画像編集方法及び画像編集装置並びにコンピュータに画像編集処理動作を実行させるためのプログラムを記録した媒体
EP0863510A1 (de) * 1996-09-20 1998-09-09 Sony Corporation Schnittsystem und -verfahren sowie videoausschnittverwaltungsgerät und -verfahren
EP0917148A2 (de) * 1997-11-11 1999-05-19 Hitachi Denshi Kabushiki Kaisha Ein Gerät zum Schneiden von einem Bewegtbild mit einem davon abhängigen Information, ein Schnittverfahren und Aufzeichnungsmedium zur Ein Ein Gerät zum Schneiden von einem Bewegtbild mit davon abhängige Information, ein Schnittverfahren und Aufzeichnungsmedium zur Speicherung von Prozeduren für dieses Verfahren

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195497B1 (en) * 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
US6154601A (en) * 1996-04-12 2000-11-28 Hitachi Denshi Kabushiki Kaisha Method for editing image information with aid of computer and editing system
US6324335B1 (en) * 1996-11-29 2001-11-27 Sony Corporation Editing system and editing method
JPH1175150A (ja) * 1997-08-29 1999-03-16 Hitachi Denshi Ltd 動画像編集方法及び動画像編集装置並びに動画像編集動作を実行するためのプログラムを記録した記録媒体
JPH11146325A (ja) * 1997-11-10 1999-05-28 Hitachi Ltd 映像検索方法および装置並びに映像情報作成方法およびその処理プログラムを格納した記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168855A (ja) * 1993-09-21 1995-07-04 Toshiba Corp 情報記録再生装置
JPH07334651A (ja) * 1994-06-13 1995-12-22 Matsushita Electric Ind Co Ltd データ編集装置
JPH10149669A (ja) * 1996-09-20 1998-06-02 Sony Corp 編集システム、編集方法、クリツプ管理装置及びクリツプ管理方法
EP0863510A1 (de) * 1996-09-20 1998-09-09 Sony Corporation Schnittsystem und -verfahren sowie videoausschnittverwaltungsgerät und -verfahren
JPH10200855A (ja) * 1996-11-15 1998-07-31 Hitachi Denshi Ltd 画像編集方法及び画像編集装置並びにコンピュータに画像編集処理動作を実行させるためのプログラムを記録した媒体
EP0917148A2 (de) * 1997-11-11 1999-05-19 Hitachi Denshi Kabushiki Kaisha Ein Gerät zum Schneiden von einem Bewegtbild mit einem davon abhängigen Information, ein Schnittverfahren und Aufzeichnungsmedium zur Ein Ein Gerät zum Schneiden von einem Bewegtbild mit davon abhängige Information, ein Schnittverfahren und Aufzeichnungsmedium zur Speicherung von Prozeduren für dieses Verfahren

Also Published As

Publication number Publication date
US6744968B1 (en) 2004-06-01
JP4103192B2 (ja) 2008-06-18
GB2341969B (en) 2002-11-20
JP2000100129A (ja) 2000-04-07
GB9921837D0 (en) 1999-11-17
GB2341969A (en) 2000-03-29
DE19944746A1 (de) 2000-03-23

Similar Documents

Publication Publication Date Title
DE19944746B4 (de) Editierungssystem und Editierungsverfahren
DE69835553T2 (de) Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline
DE69727095T2 (de) Kamerasteuerung durch Steuerung eines Kamerasymbols auf einem Hintergrundbild
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE60025406T2 (de) Laufbilderinformationsanzeigeverfahren und -gerät
DE69828974T2 (de) Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung
DE3401678C2 (de) Betrachtungsgerät für die Zusammenstellung von Videobildern
DE3511681C2 (de)
DE3213036C2 (de)
DE19915008A1 (de) Editiervorrichtung
DE19825302B4 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
DE19714265A1 (de) System zum Editieren von auf Text bezogenen Videos
DE3043084A1 (de) Verfahren und system zur behandlung eines mehrfachbildes
DE60131251T2 (de) System zur echtzeit-videoproduktion
DE10331839A1 (de) System und Verfahren zum Lokalisieren von Bildern
DE19825303A1 (de) System für virtuelle Szenen mit mehreren Kameras unter Verwendung von Standbildspeicherrahmenpuffern für jede Kamera
DE19843702A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk
DE69720221T2 (de) Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner
EP2172032B1 (de) Verfahren zur bearbeitung eines räumlichen bildes
DE4220541A1 (de) Verfahren und vorrichtung fuer reservierte aufzeichnung
DE19960523A1 (de) Bildzusammensetzungsvorrichtung und Bildverarbeitungsvorrichtung
DE19843705A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk
DE112013006448T5 (de) Vorrichtung und Verfahren zum Rendern von Bewegtbildern und Set von Datencontainern mit Timecode
JP4103196B2 (ja) 編集システム及び編集方法
DE10126994A1 (de) Vorrichtung zur Autorisierung der Inhalte des digitalen Fernsehens und Verfahren

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R020 Patent grant now final

Effective date: 20110619

R084 Declaration of willingness to licence
R071 Expiry of right