DE69634423T2 - Videokodierung- und dekodierungsvorrichtung - Google Patents

Videokodierung- und dekodierungsvorrichtung Download PDF

Info

Publication number
DE69634423T2
DE69634423T2 DE69634423T DE69634423T DE69634423T2 DE 69634423 T2 DE69634423 T2 DE 69634423T2 DE 69634423 T DE69634423 T DE 69634423T DE 69634423 T DE69634423 T DE 69634423T DE 69634423 T2 DE69634423 T2 DE 69634423T2
Authority
DE
Germany
Prior art keywords
coding
area
section
area information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69634423T
Other languages
English (en)
Other versions
DE69634423D1 (de
Inventor
Hiroyuki Chiba-shi Katata
Hiroshi Chiba-shi Kusao
Norio Chiba-shi Ito
Toshio Ichihara-shi Nomura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP7178643A external-priority patent/JPH0937240A/ja
Priority claimed from JP17864295A external-priority patent/JP3098939B2/ja
Priority claimed from JP27550195A external-priority patent/JP3101195B2/ja
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE69634423D1 publication Critical patent/DE69634423D1/de
Publication of DE69634423T2 publication Critical patent/DE69634423T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Description

  • HINTERGRUND DER ERFINDUNG
  • Die Erfindung betrifft den technischen Bereich digitaler Videoverarbeitung, und sie betrifft insbesondere eine Videocodiervorrichtung zum Codieren von Videodaten mit hoher Effizienz sowie eine Videodecodiervorrichtung zum Decodieren von durch die Videocodiervorrichtung erstellten codierten Daten mit hoher Effizienz.
  • Es wurde ein Videocodierverfahren vorgeschlagen, mit dem es möglich ist, einen spezifizierten Bereich so zu codieren, dass er höhere Bildqualität als andere Bereiche aufweist.
  • Ein in Literaturstellen ISO/IEC JTC1/SC29/WG11 MPEG95/030 beschriebenes Videocodierverfahren ist dergestalt, dass ein spezifizierter Bereich ausgewählt wird (nachfolgend als ausgewählter Bereich bezeichnet) und dafür gesorgt wird, dass dieser durch Einstellen der Quantisier-Schrittgrößen und der zeitlichen Auflösung so codiert wird, dass er höhere Bildqualität aufweist.
  • Ein anderes herkömmliches Verfahren verfügt über einen Bereichsauswählabschnitt, der dazu vorgesehen ist, einen spezifizierter Bereich eines Videobilds auszuwählen. Im Fall eines Auswahlvorgangs, z.B. für einen Gesichtsbereich eines Videobilds auf einem Display eines Videotelefons, ist es möglich, einen Bereich unter Verwendung eines Verfahrens auszuwählen, wie es in der Literaturstelle "Realtime auto face-tracking system" (The Institute of Image Electronics Engineers of Japan, Previewing Report of Society Meeting, 93-04-04, S. 13–16, 1993) beschrieben ist.
  • Ein Bereichs-Position/Form-Codierabschnitt codiert die Position und die Form eines ausgewählten Bereichs. Eine wahlfreie Form kann unter Verwendung von z.B. Kettencodes codiert werden. Die codierte Position und Form werden zu codierten Daten zusammengesetzt und durch einen Integrierabschnitt für codierte Daten übertragen oder angesammelt.
  • Ein Einstellabschnitt für codierte Parameter stellt eine Anzahl von Parametern, die zum Einstellen der Bildqualität oder der Datenmenge bei einem Videocodiervorgang verwendbar sind, so ein, dass der Bereichs-Position/Form-Codierabschnitt einen ausgewählten Bereich so codieren kann, dass er höhere Bildqualität als andere Bereiche aufweist.
  • Ein Parametercodierabschnitt codiert eine Anzahl eingestellter Parameter. Die codierten Parameter werden zu codierten Daten zusammengefasst und durch einen Integrierabschnitt für codierte Daten übertragen oder angesammelt. Der Videocodierabschnitt codiert eingegebene Videodaten unter Verwendung einer Anzahl der Parameter durch eine Kombination herkömmlicher Codierverfahren wie Bewegungs-kompensierender Vorhersage, orthogonaler Transformation, Quantisierung und Codierung mit variabler Lauflänge. Die codierten Videodaten werden durch den Integrierabschnitt für codierte Daten zu codierten Daten zusammengesetzt, und dann werden die codierten Daten übertragen oder angesammelt.
  • So wird der ausgewählte Bereich so codiert, dass er über höhere Bildqualität als andere Bereiche verfügt.
  • Wie oben angegeben, wird bei der herkömmlichen Technik die Qualität des Bilds eines ausgewählten Bereichs dadurch verbessert, dass ihm durch Einstellen von Parametern wie der Quantisierer-Schrittgrößen, der räumlichen Auflösung, der zeitlichen Auflösung eine größere Bitmenge zugeordnet wird. Die herkömmliche Technik beinhaltet jedoch Probleme dahingehend, dass kein Bild eines spezifizierten Bereichs durch Decodieren eines Teils decodierter Daten erhalten werden kann und/oder ein Bild eines decodierten Bereichs mit relativ niedriger Qualität erhalten werden kann, da ein ausgewählter Bereich und andere Bereiche in derselben Gruppe codierter Daten enthalten sind. In jüngerer Zeit erfolgten viele Untersuchungen zur hierarchischen Struktur codierter Daten, jedoch wurde kein Erfolg beim Erzeugen eines Systems erzielt, das die Auswahl eines spezifizierten Bereichs erlaubt.
  • Es wurde ein Videocodierverfahren untersucht, das so ausgebildet ist, dass es verschiedene Arten von Videosequenzen synthetisiert.
  • Eine in Technical Report of IEICE (Institute of Electronics Information and Communication Engineers) IE94-159, S. 99–106, 1995 erschienene Veröffentlichung "Image coding using hierarchical representation and multiple templates" beschreibt ein Bildsynthetisierverfahren, das eine ein Hintergrundvi deosignal darstellende Videosequenz und eine ein Vordergrund-Videosignal (z.B. ein Figurenbild oder ein Fischbild, das unter Verwendung der Chromaschlüssel-Technik ausgeschnitten wird) bildende Teilvideosequenz kombiniert, um eine neue Sequenz zu erzeugen.
  • Bei einem herkömmlichen Verfahren wird angenommen, dass eine erste Videosequenz ein Hintergrundvideosignal ist und eine zweite Videosequenz ein Teilvideosignal ist. Eine Alphaebene entspricht gewichteten Daten, wie sie verwendet werden, wenn ein Teilbild mit einem Hintergrundbild in einer Sequenz eines bewegten Bild (Video) synthetisiert wird. Es wurde ein beispielhaftes Bild aus Pixeln vorgeschlagen, die mit Werten von 1 bis 0 gewichtet sind. Es wird davon ausgegangen, dass die Daten der Alphaebene innerhalb eines Teils den Wert 1 haben und außerhalb eines Teils den Wert 0 haben. Die Alphadaten können in einem Grenzabschnitt zwischen einem Teil und dessen Außenseite einen Wert von 0 bis 1 aufweisen, um einen Mischzustand von Pixelwerten im Grenzabschnitt und die Transparenz einer transparenten Substanz wie Glas zu kennzeichnen.
  • Beim herkömmlichen Verfahren codiert ein erster Videocodierabschnitt die erste Videosequenz, und ein zweiter Videocodierabschnitt codiert die zweite Videosequenz entsprechend einem international standardisierten Videocodiersystem, z.B. MPEG oder H.261. Ein Alphaebene-Codierabschnitt codiert eine Alphaebene. Gemäß der o.g. Veröffentlichung verwendet dieser Abschnitt die Techniken der Vektorquantisierung und der Haar-Transformation. Ein Integrierabschnitt (nicht dargestellt) für codierte Daten integriert von den Codierabschnitten empfangene codierte Daten und führt eine Ansammlung oder Übertragung der integrierten codierten Daten aus.
  • Bei einer Decodiervorrichtung gemäß dem herkömmlichen Verfahren führt ein Zerlegungsabschnitt (nicht dargestellt) für codierte Daten eine Zerlegung codierter Daten in die codierten Daten der ersten Videosequenz, die codierten Daten der zweiten Videosequenz und die codierten Daten der Alphaebene aus, die dann durch einen ersten Videodecodierabschnitt, einen zweiten Videodecodierabschnitt bzw. einen Alphaebene-Decodierabschnitt decodiert werden. Zwei decodierte Sequenzen werden entsprechend gewichteten Mittelwerten durch einen ersten Gewichtungsabschnitt, einen zweiten Gewichtungsabschnitt und einen Addierer synthetisiert. Die erste und die zweite Videosequenz werden gemäß der folgenden Gleichung kombiniert: f(x, y, t) = (1 – α(x, y, t))f1(x, y, t) + α(x, y, t)f2(x, y, t)
  • In dieser Gleichung repräsentiert (x, y) Koordinatendaten einer Intrarahmen pixel-Position, t bezeichnet eine Rahmenzeit, f1(x, y, t) repräsentiert einen Pixelwert der ersten Videosequenz, f2(x, y, t) repräsentiert einen Pixelwert der zweiten Videosequenz, f(x, y, t) repräsentiert einen Pixelwert der synthetisierten Videosequenz und α(x, y, t) repräsentiert Daten der Alphaebene. D.h., dass der erste Gewichtungsabschnitt 1 – α(x, y, t) als Gewichtung verwendet, während der zweite Gewichtungsabschnitt α(x, y, t) als Gewichtung verwendet. Wie oben angegeben, wird durch das herkömmliche Verfahren eine große Anzahl codierter Daten erzeugt, da es Daten der Alphaebene codieren muss.
  • Um dieses Problem zu vermeiden, kann eine Einsparung an Informationsmenge durch Digitalisierung von Daten der Alphaebene in Betracht gezogen werden, jedoch geht damit ein visueller Defekt dahingehend einher, dass an der Grenze zwischen einem Bildteil und einem Hintergrund als Ergebnis der diskontinuierlichen Änderung von Pixelwerten dort herum eine gezahnte Linie auftritt.
  • Es wurde ein Videocodierverfahren untersucht, das dazu verwendet wird, verschiedene Arten von Videosequenzen zu synthetisieren.
  • Eine in Technical Report of IEICE IE94-159, S. 99–106, 1995, beschriebene Veröffentlichung "Image coding using hierarchical representation and multiple templates" beschreibt ein Bildsynthetisierverfahren, bei dem eine ein Hintergrundvideosignal bildende Videosequenz und eine ein Vordergrundvideosignal (z.B. ein Figurenbild oder ein Fischbild, das unter Verwendung der Chromaschlüssel-Technik ausgeschnitten wird) bildende Teilvideosequenz kombiniert werden, um eine neue Sequenz zu erzeugen.
  • Eine Veröffentlichung "Temporal Scalability based on image content" (ISO/IEC JTC1/SC29/WG11 MPEG95/211, (1995)), beschreibt eine Technik zum Erzeugen einer neuen Videosequenz durch Synthetisieren einer Teilvideosequenz mit hoher Rahmenrate mit einer Videosequenz niedriger Rahmenrate. Dieses System dient zum Codieren eines Rahmens einer unteren Schicht mit niedriger Rahmenrate durch ein vorhersagendes Codierverfahren und zum Codieren nur eines ausgewählten Bereichs eines Rahmens einer oberen Schicht mit hoher Rahmenrate durch vorhersagendes Codieren. Die obere Schicht codiert keinen in der unteren Schicht codierten Rahmen, sondern sie verwendet eine Kopie des decodierten Bilds der unteren Schicht. Der ausgewählte Bereich kann als zu beachtender Teil eines Bilds, z.B. als menschliche Gestalt, angesehen werden.
  • Bei einem herkömmlichen Verfahren wird, auf der Codierseite, eine eingegebene Videosequenz durch einen ersten und einen zweiten Ausdünnungsabschnitt ausgedünnt, und die ausgedünnte Videosequenz mit verringerter Rahmenrate wird dann an einen Codierabschnitt einer oberen Schicht bzw. einen Codierabschnitt einer unteren Schicht übertragen. Der Codierabschnitt der oberen Schicht verfügt über eine höhere Rahmenrate als der Codierabschnitt der unteren Schicht. Der Codierabschnitt der unteren Schicht codiert das gesamte Bild jedes Rahmens in der empfangenen Videosequenz unter Verwendung eines international standardisierten Videocodierverfahrens wie MPEG, H.261 usw. Der Codierabschnitt der unteren Schicht erstellt auch decodierte Rahmen, die für vorhersagendes Codieren verwendet werden und gleichzeitig in einen Synthetisierabschnitt eingegeben werden.
  • In einem Codemenge-Steuerabschnitt eines herkömmlichen Codierabschnitts codiert ein Codierabschnitt Videorahmen unter Verwendung eines Verfahrens oder einer Kombination von Verfahren wie bewegungskompensierter Vorhersage, orthogonaler Transformation, Quantisierung, Codierung mit variabler Lauflänge usw. Ein die Quantisierungsbreite (Schrittgröße) bestimmender Abschnitt bestimmt die in einem Codierabschnitt zu verwendende Quantisierungsbreite (Schrittgröße). Ein Abschnitt zum Bestimmen der Menge codierter Daten berechnet die angesammelte Menge erzeugter codierter Daten. Im Allgemeinen wird die Quantisierungsbreite erhöht oder erniedrigt, um eine Zunahme oder Abnahme der Menge codierter Daten zu verhindern.
  • Der Codierabschnitt der oberen Schicht codiert nur einen ausgewählten Teil jedes Rahmens in einer empfangenen Videosequenz auf Grundlage von Bereichsinformation unter Verwendung eines international standardisierten Videocodierverfahrens wie MPEG, H.261 usw. Jedoch werden im Codierabschnitt der unteren Schicht codierte Rahmen nicht durch den Codierabschnitt der oberen Schicht codiert. Die Bereichsinformation ist Information, die einen ausgewählten Bereich, z.B. ein Bild einer menschlichen Gestalt in jedem Videorahmen, anzeigt, wobei es sich um ein digitalisiertes Bild handelt, das im ausgewählten Bereich den Wert 1 einnimmt und außerhalb desselben den Wert 0 einnimmt. Der Codierabschnitt der oberen Schicht erstellt auch decodierte, ausgewählte Bereiche jedes Rahmens, die an den Synthetisierabschnitt übertragen werden.
  • Ein Bereichsinformations-Codierabschnitt codiert Bereichsinformation unter Verwendung von 8-direktionalen Quantisiercodes. Ein 8-direktionaler Quanti siercode ist ein numerischer Code, der die Richtung eines vorigen Punkts anzeigt und im Allgemeinen dazu verwendet wird, digitale Graphik zu repräsentieren.
  • Ein Synthetisierabschnitt gibt einen decodierten Videorahmen der unteren Schicht aus, der durch den Codierabschnitt der unteren Schicht codiert wurde und zu synthetisieren ist. Wenn ein Rahmen zu synthetisieren ist, der im Codierabschnitt der unteren Schicht nicht codiert wurde, gibt der Synthetisierabschnitt einen decodierten Videorahmen aus, der unter Verwendung zweier codierter Rahmen erzeugt wird, die in der unteren Schicht codiert wurden und vor und hinter dem fehlenden Rahmen der unteren Schicht stehen, sowie einen decodierten Rahmen der unteren Schicht, der zu synthetisieren ist. Die zwei Rahmen der unteren Schicht stehen vor und hinter dem Rahmen der oberen Schicht. Der synthetisierte Videorahmen wird in den Codierabschnitt der oberen Schicht eingegeben, um dort für vorhersagende Codierung verwendet zu werden. Die Bildverarbeitung im Synthetisierabschnitt ist die Folgende:
    Als Erstes wird ein Interpolationsbild für zwei Rahmen der unteren Schicht erzeugt. Das decodierte Bild der unteren Schicht zum Zeitpunkt t wird als B(x, y, t) ausgedrückt, wobei x und y Koordinaten sind, die die Position eines Pixels im Raum definieren. Wenn die zwei decodierten Bilder der unteren Schicht auf den Zeitpunkten t1 und t2 liegen und das decodierte Bild der oberen Schicht auf t3 liegt (t1 < t3 < t2), wird das Interpolationsbild I(x, y, t3) zum Zeitpunkt t3 gemäß der folgenden Gleichung (1) berechnet: I(x, y, t3) = [(t2 – t3)B(x, y, t1) + (t3 – t1)B(x, y, t2)]/(t2 – t1) (1)
  • Dann wird das decodierte Bild E der oberen Schicht mit dem erhaltenen Interpolationsbild I unter Verwendung von Synthetisierungs-Gewichtungsinformation W(x, y, t) synthetisiert, die aus Bereichsinformation erzeugt wurde. Ein synthetisiertes Bild S wird gemäß der folgenden Gleichung definiert: S(x, y, t) = [1 – W(x, y, t)]I(x, y, t) + E(x, y, t)W(x, y, t) (2)
  • Die Bereichsinformation M(x, y, t) ist ein digitalisiertes Bild, das in einem ausgewählten Bereich den Wert 1 einnimmt und außerhalb desselben den Wert 0 einnimmt. Die Gewichtungsinformation W(x, y, t) kann durch mehrmaliges Verarbeiten des o.g. digitalisierten Bilds mit einem Tiefpassfilter erhalten werden. D.h., dass die Gewichtungsinformation W(x, y, t) in einem ausgewählten Bereich den Wert 1 einnimmt, außerhalb desselben den Wert 0 einnimmt und an der Grenze des ausgewählten Bereichs einen Wert von 0 bis 1 einnimmt.
  • Die im Codierabschnitt der unteren Schicht, dem Codierabschnitt der oberen Schicht und dem Bereichsinformations-Codierabschnitt erzeugten codierten Daten werden durch einen Integrierabschnitt (nicht dargestellt) integriert und dann übertragen oder angesammelt.
  • Auf der Decodierseite des herkömmlichen Systems trennt ein Zerlegungsabschnitt (nicht dargestellt) für codierte Daten die codierten Daten in solche der unteren Schicht, solche der oberen Schicht und solche von Bereichsinformation. Diese codierten Daten werden durch einen Decodierabschnitt einer unteren Schicht, einen Decodierabschnitt einer oberen Schicht und einen Bereichsinformations-Decodierabschnitt decodiert.
  • Ein Synthetisierabschnitt auf der Decodierseite weist ähnlichen Aufbau wie der auf der Codierseite auf. Er synthetisiert ein Bild unter Verwendung eines decodierten Bilds der unteren Schicht und eines decodierten Bilds der oberen Schicht gemäß demselben Verfahren, wie es für die Codierseite beschrieben wurde. Der synthetisierte Videorahmen wird auf einem Anzeigeschirm angezeigt, und er wird gleichzeitig in den Decodierabschnitt der oberen Schicht eingegeben, um dort zur Vorhersage verwendet zu werden.
  • Die oben beschriebene Decodiervorrichtung decodiert Rahmen sowohl der unteren als auch der oberen Schicht, jedoch ist auch eine Decodiervorrichtung angewandt, die einen Decodierabschnitt für die untere Schicht bildet, wobei der Codierabschnitt für die obere Schicht und der Synthetisierabschnitt weggelassen sind. Diese vereinfachte Decodiervorrichtung kann einen Teil codierter Daten reproduzieren.
  • Durch die Erfindung zu lösende Probleme sind die Folgenden:
    • (1) Wie oben angegeben, wird bei der herkömmlichen Technik ein Ausgangsbild aus zwei decodierten Bildern einer unteren Schicht und einem decodierten Bild einer oberen Schicht dadurch erhalten, dass vorab ein Interpolationsbild zweier Rahmen der unteren Schicht erzeugt wird, wodurch man auf ein Problem dahingehend stößt, dass das Ausgangsbild bei einer um einen ausgewählten Bereich in ihm auftretenden großen Störung beträchtlich beeinträch tigt ist, wenn sich die Position des ausgewählten Bereichs zeitlich ändert.
  • Das oben genannte Problem wird wie folgt beschrieben:
    Bilder A und C sind zwei decodierte Rahmen der unteren Schicht, und ein Bild B ist ein decodierter Rahmen der oberen Schicht. Die Bilder werden in der zeitlichen Reihenfolge A, B und C angezeigt. Da sich der ausgewählte Bereich bewegt, zeigt ein aus den Bildern A und B bestimmtes Znterpolationsbild zwei ausgewählte Bereiche, die einander überlappen. Das Bild B wird ferner unter Verwendung von Gewichtungsinformation mit dem Interpolationsbild synthetisiert. Im Ausgangsbild überlappen drei ausgewählte Bereiche einander. Zwei ausgewählte Bereiche des Bilds der unteren Schicht erscheinen wie ein Nachbild um das Bild des ausgewählten Bereichs in der oberen Schicht, wodurch die Bildqualität beträchtlich beeinträchtigt wird. Da die Rahmen der unteren Schicht normal sind und nur synthetisierte Rahmen die o.g. Störung aufweisen, kann die Videosequenz mit einer periodischen, flackerähnlichen Störung angezeigt werden, die die Videobildqualität beträchtlich beeinträchtigt.
    • (2) Die herkömmliche Technik verwendet 8-direktionale Quantisierungscodes zum Codieren von Bereichsinformation. Im Fall der Codierung von Bereichsinformation mit niedriger Bitrate oder eines Bereichs komplizierter Form nimmt die Menge codierter Bereichsinformation zu und nimmt einen großen Anteil der Gesamtmenge codierter Daten ein, was zu einer Beeinträchtigung der Bildqualität führen kann.
    • (3) Bei der herkömmlichen Technik wird Gewichtungsinformation dadurch erhalten, dass dafür gesorgt wird, dass die Bereichsinformation mehrmals durch ein Tiefpassfilter läuft. Dies erhöht den Umfang an Verarbeitungsvorgängen.
    • (4) Die herkömmliche Technik verwendet ein Verfahren mit vorhersagender Codierung. Jedoch kann die vorhersagende Codierung von Rahmen der unteren Schicht zu einer großen Störung führen, wenn in einer Videosequenz ein Schirmwechsel auftritt. Eine Störung irgendeines Rahmens der unteren Schicht kann sich über in Zusammenhang stehende Bilder der oberen Schicht ausbreiten, was zu einer verlängerten Störung des Videosignals führt.
    • (5) Gemäß der herkömmlichen Technik wird jeder Rahmen der unteren Schicht unter Verwendung eines international standardisierten Videocodierverfahrens (z.B. MPEG und H.261) codiert, wodurch das Bild eines ausgewählten Bereichs hinsichtlich der Qualität wenig von anderen Bereichen verschieden ist. Dagegen wird in jedem Rahmen der oberen Schicht nur ein ausgewählter Bereich so codiert, dass er von hoher Qualität ist, wodurch die Qualität des Bilds des ausgewählten Bereichs zeitlich variiert. Dies wird als flackerähnliche Störung wahrgenommen, die ein Problem bildet.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist wünschenswert, Codier- und Decodiervorrichtungen zu schaffen, die ein selektiv spezifiziertes Gebiet eines Videobilds, das in einem insgesamt codierten Videodatensystem von relativ hoher Bildqualität sein soll, codieren können, und die auch in der Lage sind, den codierten Daten eine hierarchische Struktur zu verleihen, was es ermöglicht, das spezifizierte Gebiet des codierten Videobilds so zu reproduzieren, dass es von einer Anzahl von Bildqualitäten ist, und/oder jedes andere Gebiet von relativ geringer Bildqualität ist.
  • Bei den so aufgebauten Codier- und Decodiervorrichtungen kann ein ausgewähltes Gebiet eines Bilds so codiert und decodiert werden, dass es von höherer Bildqualität als die anderer Gebiete ist, was durch Differenzieren von Werten von Parametern wie der räumlichen Auflösung, Quantisierer-Schrittgrößen und der zeitlichen Auflösung erfolgt. Die Codiervorrichtung kann dafür sorgen, dass codierte Daten über jeweilige hierarchische Rangfolgen verfügen, weswegen die Decodiervorrichtung auf einfache Weise einen Teil codierter Daten decodieren kann.
  • Es ist wünschenswert, eine Codiervorrichtung und eine Decodiervorrichtung zu schaffen, die aus einer reduzierten Menge codierter Daten ohne Beeinträchtigung der Qualität eines synthetisierten Bilds ein solches erzeugen können.
  • Demgemäß kann die Decodiervorrichtung Gewichtungsinformation zum Synchronisieren mehrerer Videosequenzen unter Verwendung einer Gewichtungseinrichtung erstellen, wodurch das Erfordernis beseitigt ist, Gewichtungsinformation durch die Codiervorrichtung zu codieren.
  • Die codierten Daten werden gewichtet, was insgesamt zu einer Einsparung der Menge zu erzeugender Daten führen kann.
  • Die auf der Decodierseite ausgeführte Gewichtungsumkehr kann von der Gewichtung befreite decodierte Daten erzeugen.
  • Es ist auch wünschenswert, eine Codiervorrichtung und eine Decodiervorrichtung zu schaffen, die frei von den o.g. Problemen sind (die als zu lösende Probleme (1) bis (5) im Stand der Technik beschrieben sind) und die Videorahmen mit einer verringerten Menge codierter Daten codieren können, ohne dass die Bildqualität beeinträchtigt wird.
  • Demgemäß sind eine Videocodiervorrichtung, wie sie im Anspruch 1 beansprucht ist, und eine Videodecodiervorrichtung, wie sie im Anspruch 3 beansprucht ist, geschaffen.
  • Um die Erfindung leichter verständlich zu machen, werden die folgenden Ausführungsformen beschrieben, jedoch nur zur Bezugnahme.
  • 1 ist ein Blockdiagramm zum Erläutern eines Stands der Technik.
  • 2 ist eine Ansicht zum Erläutern eines Konzepts eines Codierverfahrens gemäß der Erfindung.
  • 3 zeigt ein Beispiel eines Konzepts eines Decodierverfahrens gemäß der Erfindung.
  • 4 zeigt ein anderes Beispiel eines Konzepts eines Decodierverfahrens gemäß der Erfindung.
  • 5 ist ein Blockdiagramm, das eine Codiervorrichtung zeigt, die eine Ausführungsform der Erfindung repräsentiert.
  • 6 zeigt ein beispielhaftes Verfahren zum Codieren von Codedaten einer unteren Schicht, einer ersten oberen Schicht und einer zweiten oberen Schicht durch eine Codiervorrichtung gemäß der Erfindung.
  • 7 zeigt ein anderes beispielhaftes Verfahren zum Codieren erster Codedaten einer oberen Schicht durch eine Codiervorrichtung gemäß der Erfindung.
  • 8 zeigt ein anderes beispielhaftes Verfahren zum Codieren von Codeda ten einer unteren Schicht, einer ersten oberen Schicht und einer zweiten oberen Schicht durch eine Codiervorrichtung gemäß der Erfindung.
  • 9 zeigt ein anderes beispielhaftes Verfahren zum Codieren von Codedaten einer unteren Schicht, einer ersten oberen Schicht und einer zweiten oberen Schicht durch eine Codiervorrichtung gemäß der Erfindung.
  • 10 ist ein Blockdiagramm, das eine Decodiervorrichtung zeigt, die eine Ausführungsform der Erfindung repräsentiert.
  • 11 ist ein Blockdiagramm, das eine Decodiervorrichtung zeigt, die eine andere Ausführungsform der Erfindung repräsentiert.
  • 12 ist ein Blockdiagramm, das eine Decodiervorrichtung zeigt, die eine andere Ausführungsform der Erfindung repräsentiert.
  • 13 ist ein Blockdiagramm zum Erläutern eines herkömmlichen Verfahrens.
  • 14 zeigt ein Beispiel einer Alphaebene gemäß einem herkömmlichen Verfahren.
  • 15 ist ein Blockdiagramm zum Erläutern einer Ausführungsform der Erfindung.
  • 16 zeigt ein Beispiel von Bereichsinformation gemäß der Erfindung.
  • 17 zeigt ein Beispiel einer linearen Gewichtungsfunktion gemäß der Erfindung.
  • 18 zeigt ein Beispiel zum Erstellen einer Alphaebene gemäß der Erfindung.
  • 19 ist ein Blockdiagramm zum Erläutern einer anderen Ausführungsform der Erfindung.
  • 20 ist ein Blockdiagramm zum Erläutern eines Beispiels eines Videocodierabschnitts bei einer anderen Ausführungsform der Erfindung.
  • 21 ist ein Blockdiagramm zum Erläutern eines Videodecodierabschnitts bei einer anderen Ausführungsform der Erfindung.
  • 22 ist ein Blockdiagramm zum Erläutern eines anderen Beispiels eines Videocodierabschnitts bei einer anderen Ausführungsform der Erfindung.
  • 23 ist ein Blockdiagramm zum Erläutern eines anderen Beispiels eines Videodecodierabschnitts bei einer anderen Ausführungsform der Erfindung.
  • 24 ist ein Blockdiagramm zum Erläutern eines anderen Beispiels eines Videocodierabschnitts bei einer anderen Ausführungsform der Erfindung.
  • 25 ist ein Blockdiagramm zum Erläutern eines anderen Beispiels eines Videodecodierabschnitts bei einer anderen Ausführungsform der Erfindung.
  • 26 ist ein Blockdiagramm zum Erläutern eines beispielhaften Falls dahingehend, dass bei einer anderen Ausführungsform der Erfindung keine Bereichsinformation codiert wird.
  • 27 zeigt ein Konzept eines herkömmlichen Verfahrens.
  • 28 ist ein Blockdiagramm zum Erläutern eines herkömmlichen Codier- und Decodiersystems.
  • 29 ist ein Blockdiagramm zum Erläutern eines herkömmlichen Verfahrens zum Steuern der Anzahl von Codes.
  • 30 ist eine Ansicht zum Erläutern eines 8-direktionalen Quantisierungscodes.
  • 31 ist eine Ansicht zum Erläutern von Problemen bei einem herkömmlichen Verfahren.
  • 32 ist ein Blockdiagramm zum Erläutern einer Ausführungsform der Erfindung.
  • 33 ist eine Ansicht zum Erläutern von Effekten einer Ausführungsform der Erfindung.
  • 34 ist ein Blockdiagramm zum Erläutern einer anderen Ausführungsform der Erfindung.
  • 35 ist ein Blockdiagramm zum Erläutern einer Codierseite einer anderen Ausführungsform der Erfindung.
  • 36 ist ein Blockdiagramm zum Erläutern einer Decodierseite einer anderen Ausführungsform der Erfindung.
  • 37 zeigt ein Beispiel zum Annähern von Bereichsinformation unter Verwendung von Rechtecken.
  • 38 ist ein Blockdiagramm zum Erläutern einer anderen Ausführungsform der Erfindung.
  • 39 zeigt ein beispielhaftes Verfahren zum Erstellen von Gewichtungsinformation gemäß der Erfindung.
  • 40 ist ein Blockdiagramm zum Erläutern einer anderen Ausführungsform der Erfindung.
  • 41 ist ein Blockdiagramm zum Erläutern einer anderen Ausführungsform der Erfindung.
  • 42 ist eine Ansicht zum Erläutern eines Zielkoeffizienten von Codes, wie zum Codieren eines ausgewählten Bereichs durch ein Codemenge-Steuerverfahren gemäß der Erfindung verwendbar.
  • 43 ist eine Ansicht zum Erläutern eines Zielkoeffizienten von Codes, wie zum Codieren eines Bereichs außerhalb eines ausgewählten Bereichs durch ein Codemenge-Steuerverfahren gemäß der Erfindung verwendbar.
  • 44 ist eine Ansicht zum Erläutern eines Zielkoeffizienten von Codes, wie zum Codieren eines Bereichs außerhalb eines ausgewählten Bereichs durch ein Codemenge-Steuerverfahren gemäß der Erfindung verwendbar.
  • BEVORZUGTE AUSFÜHRUNGSFORM DER ERFINDUNG
  • Die 1 ist ein Blockdiagramm, die einen Stand der Technik zum Vergleich mit der Erfindung zeigt. Ein Bereichsauswählabschnitt 20 soll einen spezifizierten Bereich eines Videobilds auswählen. Im Fall eines Auswählvorgangs, z.B. für einen Gesichtsbereich eines Videobilds auf einem Display eines Videotelefons, ist es möglich, einen Bereich unter Verwendung eines Verfahrens auszuwählen, das in der Literaturstelle "Real-time auto face-tracking system" (The Institute of Image electronics Engineers of Japan, Previewing Report of Society Meeting, S. 13–16, 1993) beschrieben ist.
  • In der 1 codiert ein Bereichs-Position/Form-Codierabschnitt 21 die Position und die Form eines ausgewählten Bereichs. Es kann eine wahlfreie Form dadurch codiert werden, dass z.B. Kettencodes verwendet werden. Die codierte Position und die codierte Form werden zu Codedaten zusammengesetzt und durch einen Codedaten-Integrierabschnitt 22 übertragen oder angesammelt.
  • Ein Codeparameter-Einstellabschnitt 23 stellt eine Anzahl von Parametern ein, die dazu verwendbar sind, die Bildqualität oder die Datenmenge bei der Videocodierung so einzustellen, dass der Bereichs-Position/Form-Codierabschnitt 21 einen ausgewählten Bereich so codieren kann, dass er höhere Bildqualität als die anderen Bereiche aufweist.
  • Der Parametercodierabschnitt 24 codiert eine Anzahl eingestellter Parameter. Die Codeparameter werden zu Codedaten zusammengesetzt und durch den Codedaten-Integrierabschnitt 22 übertragen oder angesammelt. Der Videocodierabschnitt 25 codiert eingegebene Videodaten unter Verwendung einer Anzahl der Parameter mittels einer Kombination herkömmlicher Codierverfahren wie bewegungskompensierte Vorhersage, orthogonale Transformation, Quantisierung und Codierung mit variabler Lauflänge. Die codierten Videodaten werden durch den Codedaten-Integrierabschnitt 22 zu Codedaten zusammengesetzt, und dann werden die Codedaten übertragen oder angesammelt. Das Konzept der Erfindung wird wie folgt beschrieben.
  • Die 2 ist eine Ansicht zum Erläutern des Konzepts des erfindungsgemäßen Codierverfahrens. Das hierarchische Codierverfahren der Erfindung verwendet eine untere Schicht (untere Ebene) und zwei obere Schichten (höhere Ebenen). In der unteren Schicht wird ein ausgewählter Bereich (schraffierter Bereich) mit relativ niedriger Bildqualität codiert. Ein zu beachtender Zeitpunkt wird mit t gekennzeichnet, und ein decodiertes Bild zum Zeitpunkt t wird durch L(t) gekennzeichnet. In der ersten oberen Schicht wird das gesamte Bild so codiert, dass es relativ niedrige Bildqualität aufweist. Ein codiertes Bild dieser Schicht wird durch H1(t) gekennzeichnet. In diesem Fall erfolgt vorhersagendes Codieren unter Verwendung des decodierten Bilds der unteren Schicht L(t) und des decodierten Bilds der ersten oberen Schicht H1(t – 1). In der zweiten oberen Schicht wird nur der ausgewählte Bereich vorhersagend so codiert, dass er höhere Bildqualität als der der unteren Schicht aufweist. Das decodierte Bild dieser Schicht wird mit H2(t) gekennzeichnet. In diesem Fall erfolgt vorhersagendes Codieren unter Verwendung des decodierten Bilds der unteren Schicht L(t) und des decodierten Bilds der zweiten oberen Schicht H2(t – 1).
  • Die 3 und 4 sind für das Konzept des erfindungsgemäßen Decodierverfahrens veranschaulichend. Die 3 zeigt Decodierprozesse in drei Schichten: Decodieren nur der Daten der unteren Schicht, Decodieren nur der Daten der ersten oberen Schicht und Decodieren der Daten aller Schichten. In diesem Fall wird durch das Decodieren der Daten der unteren Schicht nur ein Bild wiedergegeben, für das von der Codiervorrichtung relativ niedrige Bildqualität ausgewählt wurde. Durch Decodieren der Daten der ersten oberen Schicht wird ein gesamtes Bild mit relativ niedriger Bildqualität wiedergegeben, und durch Decodieren aller Codedaten werden der ausgewählte Bereich mit höherer Bildqualität und alle anderen Bereiche mit niedrigerer Bildqualität wiedergegeben. Andererseits zeigt die 4 den Fall, dass alle decodierten Signale decodiert werden, nachdem die Daten der zweiten oberen Schicht anstelle der Daten der ersten oberen Schicht decodiert wurden. In diesem Fall werden die Daten einer Zwischenschicht (der zweiten oberen Schicht) decodiert, um einen ausgewählten Bildbereich nur mit höherer Bildqualität wiederzugeben.
  • Mit der erfindungsgemäßen Decodiervorrichtung wird nur ein ausgewählter Bildbereich mit niedrigerer Bildqualität aus einer niedrigeren Schicht entsprechenden Codedaten wiedergegeben, während das gesamte Bild mit niedrigerer Bildqualität oder nur ein ausgewählter Bereich mit höherer Bildqualität aus der oberen Schicht entsprechenden Codedaten wiedergegeben wird. D.h., dass eine beliebige der zwei oberen Schichten über einer gemeinsamen unteren Schicht ausgewählt werden kann.
  • Eine Ausführungsform der Erfindung wird wie folgt beschrieben.
  • Die 5 ist ein Blockdiagramm, das eine die Erfindung verkörpernde Codiervorrichtung zeigt.
  • In der 5 weisen ein Bereichsauswählabschnitt 5 und ein Bereichs-Position/Form-Codierabschnitt 6 ähnliche Funktion wie diejenigen beim in der 1 dargestellten Stand der Technik auf.
  • In der 5 codiert ein Codierabschnitt 4 für die untere Schicht nur einen Bereich, der vom Bereichsauswählabschnitt 5 für niedrigere Bildqualität ausgewählt wurde, er erstellt Codedaten für die untere Schicht und er erzeugt aus den Codedaten ein decodiertes Bild. Das decodierte Bild wird als Bezugsbild für vorhersagendes Codieren verwendet.
  • Ein Codierabschnitt 1 für die erste Schicht codiert das gesamte Bild, das niedrigere Bildqualität aufweisen soll, er erstellt Codedaten für die erste Schicht und er erzeugt ein decodiertes Bild aus diesen Codedaten. Das decodierte Bild wird als Bezugsbild für vorhersagendes Codieren verwendet.
  • Ein Codierabschnitt 2 für die zweite Schicht codiert nur das Bild eines ausgewählten Bereichs, das von höherer Bildqualität sein soll, er erstellt Codedaten der zweiten Schicht und er erzeugt ein decodiertes Bild aus diesen Codedaten. Das decodierte Bild wird als Bezugsbild für vorhersagendes Codieren verwendet.
  • Ein Codedaten-Integrierabschnitt 3 integriert Position/Form-Codes eines ausgewählten Bereichs, Codedaten der unteren Schicht, Codedaten der ersten oberen Schicht und Codedaten der zweiten oberen Schicht.
  • Es existieren mehrere Arten von Codierverfahren, die beim Codierabschnitt 4 der unteren Schicht, beim Codierabschnitt 1 der ersten Schicht und beim Codierabschnitt 2 der zweiten Schicht anwendbar sind und die wie folgt beschrieben werden. Die 6 und 7 sind für die Technik des Steuerns der Bildqualität der unteren Schicht und der Bildqualität der oberen Schicht abhängig von Quantisierungsschritten veranschaulichend.
  • Die 6(a) veranschaulicht, wie die Bilddaten der unteren Schicht zu codieren sind. Ein schraffierter Bereich repräsentiert einen ausgewählten Bereich. In der unteren Schicht wird ein ausgewählter Bereich eines ersten Rahmens intrarahmenmäßig codiert, und ausgewählte Bereiche anderer, restlicher Rahmen werden durch ein bewegungskompensierendes Vorhersageverfahren vorhersagend codiert. Als Bezugsbild für die bewegungskompensierende Vorhersage wird ein ausgewählter Bereich eines Rahmens der unteren Schicht verwendet, der bereits codiert und decodiert wurde. Obwohl in der 6(a) nur Vorwärtsvorhersage dargestellt ist, kann Anwendung in Kombination mit Rückwärtsvorhersage erfolgen. Da der Quantisierungsschritt für die untere Schicht größer als der für die zweite obere Schicht eingestellt wird, wird nur ein ausgewählter Bereich eines eingegebenen Bilds so codiert, dass er niedrigere Bildqualität aufweist (mit niedrigem Signal/Rauschsignal-Verhältnis). Demgemäß werden die Bilddaten der unteren Schicht unter Verwendung einer kleineren Codemenge codiert.
  • Die 6(b) veranschaulicht, wie die Bilddaten der ersten oberen Schicht zu codieren sind. In dieser Schicht wird ein gesamtes Bild codiert. Z.B. wird ein gesamtes Bild durch vorhersagende Codierung auf Grundlage eines decodierten Bilds der unteren Schicht und eines decodierten Bilds der ersten oberen Schicht codiert. In diesem Fall wird das gesamte Bild des ersten Rahmens durch Vorhersage aus dem decodierten Bild der unteren Schicht codiert (andere Bereiche als die ausgewählten werden in der Praxis intrarahmenmäßig codiert, da in der Praxis das bewegungskompensierende Vorhersageverfahren nicht angewandt werden kann). Andere Rahmen können unter Verwendung der vorhersagende Codierung in Kombination mit der bewegungskompensierenden Vorhersage codiert werden.
  • Es ist auch eine Variation anwendbar, bei der durch das in der 6 dargestellte vorhersagende Codierverfahren kein ausgewählter Bereich codiert wird, sondern nur andere Bereiche codiert werden. Der Codierprozess wird für andere Bereiche als den ausgewählten ausgeführt.
  • Die 6(c) veranschaulicht, wie die Bilddaten der zweiten oberen Schicht zu codieren sind. In einem relativ kleinen Quantisierungsschritt wird nur ein ausgewählter Bildbereich codiert. In diesem Fall sind zu codierende objektive Daten Differenzdaten, die zwischen ursprünglichen Bilddaten und aus den Bilddaten der unteren Schicht vorhergesagten Bilddaten erhalten werden. Obwohl in der 6(c) nur eine Vorhersage aus den Bilddaten der unteren Schicht dargestellt ist, kann Anwendung in Kombination mit einer Vorhersage aus einem decodierten Rahmen der zweiten oberen Schicht erfolgen.
  • Die 8 ist eine Ansicht zum Erläutern eines Verfahrens zum Steuern der Bildqualität der unteren Schicht und der Bildqualität der oberen Schicht unter Verwendung unterschiedlicher Werte der zeitlichen Auflösung.
  • Die 8(a) veranschaulicht, wie die Bilddaten der unteren Schicht zu codieren sind. Ein schraffierter Bereich repräsentiert einen ausgewählten Bereich. In der unteren Schicht wird ein ausgewählter Bereich eines ersten Rahmens intrarahmenmäßig codiert, und ausgewählte Bereiche anderer, restli cher Rahmen werden durch bewegungskompensierende Vorhersage vorhersagend codiert. Als Bezugsbild für die bewegungskompensierende Vorhersage wird ein ausgewählter Bereich eines Rahmens der unteren Schicht verwendet, der bereits codiert und decodiert wurde. Obwohl in der 8(a) nur Vorwärtsvorhersage dargestellt ist, kann Anwendung in Kombination mit Rückwärtsvorhersage erfolgen. Die Rahmenrate der unteren Schicht wird so abgesenkt, dass die zeitliche Auflösung so eingestellt wird, dass sie niedriger als diejenige für die zweite Oberschicht ist. Es ist auch möglich, Rahmen mit kleinerem Quantisierungsintervall zu codieren, so dass jeder Rahmen ein größeres Signal/Rauschsignal-Verhältnis aufweisen kann.
  • Die 8(b) veranschaulicht, wie die Bilddaten der ersten oberen Schicht zu codieren sind. Es wird ein gesamtes Bild mit niedriger Zeit-Bild-Auflösung codiert. In diesem Fall ist es möglich, ein Codierverfahren anzuwenden, das dem in der 6(b) oder der 7 dargestellten ähnlich ist.
  • Die 8(c) veranschaulicht, wie die Bilddaten der zweiten oberen Schicht zu codieren sind. Es wird nur ein ausgewählter Bereich mit höherer zeitlicher Auflösung codiert. In diesem Fall wird ein Rahmen, dessen ausgewählter Bereich in der unteren Schicht codiert wurde, durch Vorhersage aus dem decodierten Bild der unteren Schicht codiert, wohingegen alle anderen Rahmen durch bewegungskompensierende Vorhersage aus den bereits decodierten Rahmen der oberen Schicht codiert werden. Im Fall des Verwendens einer Vorhersage aus dem decodierten Rahmen der unteren Schicht ist es nicht möglich, irgendwelche Bilddaten der zweiten oberen Schicht zu codieren, wobei das decodierte Bild der unteren Schicht als decodiertes Bild der zweiten oberen Schicht verwendet wird.
  • Die 9 ist eine Ansicht zum Erläutern eines Verfahrens zur Bildqualität der unteren Schicht und zur Bildqualität der oberen Schicht unter Verwendung unterschiedlicher Werte der räumlichen Auflösung.
  • Die 9(a) veranschaulicht, wie die Bilddaten der unteren Schicht zu codieren sind. Ein ursprüngliches Bild wird durch ein Tiefpassfilter oder einen Ausdünnungsvorgang in ein Bild mit niedrigerer räumlicher Auflösung umgesetzt. Es werden nur schraffierte, ausgewählte Bereiche codiert. In der unteren Schicht wird ein ausgewählter Bereich eines ersten Rahmens intrarahmenmäßig codiert, und ausgewählte Bereiche anderer, restlicher Rahmen werden durch bewegungskompensierende Vorhersage vorhersagend codiert.
  • Die 9(b) veranschaulicht, wie die Bilddaten der ersten oberen Schicht zu codieren sind. Ein ursprüngliches Bild wird in ein Bild mit niedrigerer räumlicher Auflösung umgesetzt, und das gesamte Bild wird mit höherer zeitlicher Auflösung codiert. In diesem Fall ist es möglich, ein Codierverfahren anzuwenden, das dem in der 6(b) oder der 7 dargestellten ähnlich ist.
  • Die 9(c) veranschaulicht, wie die Bilddaten der zweiten oberen Schicht zu codieren sind. Es wird nur ein ausgewählter Bereich mit höherer räumlicher Auflösung codiert. In diesem Fall wird ein codiertes Bild der unteren Schicht in ein Bild mit derselben räumlichen Auflösung wie der eines ursprünglichen Bilds umgesetzt, und ausgewählte Bereiche werden durch Vorhersage aus dem decodierten Bild der unteren Schicht und durch bewegungskompensierende Vorhersage aus dem bereits decodierten Rahmen der zweiten oberen Schicht codiert.
  • Die oben beschriebenen Einstellverfahren für die Bildqualität unter Verwendung der Graustufenauflösung (durch das Signal/Rauschsignal-Verhältnis), der zeitlichen Auflösung und der räumlichen Auflösung können auch in Kombination miteinander angewandt werden.
  • Z.B. ist es möglich, die Bildqualität der unteren Schicht und die Bildqualität der oberen Schicht unter Verwendung unterschiedlicher räumlicher Auflösung und unterschiedlicher zeitlicher Auflösung in Kombination oder eines unterschiedlichen Quantisierungsschritts und unterschiedlicher zeitlicher Auflösung in Kombination einzustellen.
  • So wird ein ausgewählter Bereich in einem gesamten Bild so codiert, dass er höhere Bildqualität als andere Bereiche aufweist. Gleichzeitig wird den Codedaten eine jeweilige von drei hierarchischen Schichten (zwei obere Schichten und eine untere Schicht) zugeordnet.
  • Decodiervorrichtungen, die bevorzugte Ausführungsformen der Erfindung sind, werden wie folgt beschrieben.
  • Die 10 ist für eine erste Ausführungsform einer erfindungsgemäßen Decodiervorrichtung veranschaulichend, die dazu vorgesehen ist, nur Bilddaten der unteren Schicht zu decodieren.
  • In der 10 soll ein Codedaten-Trennabschnitt 7 Codedaten in Bereichs- Position/Form-Codedaten und codierte Bilddaten einer unteren Schicht sowie selektiv entnommene gewünschte Codedaten aufteilen.
  • Ein Bereichs-Position/Form-Decodierabschnitt 9 soll einen Positionscode und einen Formcode eines ausgewählten Bereichs decodieren.
  • Ein Decodierabschnitt 8 für die untere Schicht soll Codedaten der unteren Schicht für einen ausgewählten Bereich decodieren und ein decodiertes Bild niedrigerer Qualität nur für den ausgewählten Bereich erstellen.
  • Demgemäß betrifft jedes von dieser Decodiervorrichtung ausgegebene Bild Bildinformation nur eines ausgewählten Bereichs, der auf einem Anzeigeschirm als Fenster angezeigt wird. Der Decodierabschnitt 8 der unteren Schicht kann mit einem Umsetzer für die räumliche Auflösung versehen sein, um den ausgewählten Bereich auf die Größe des vollen Schirms zu vergrößern und nur diesen auf dem Anzeigeschirm anzuzeigen.
  • Mit der dargestellten Ausführungsform können decodierte Bilder niedrigerer Qualität erhalten werden, da nur Daten der unteren Schicht eines ausgewählten Bereichs decodiert werden, jedoch kann sie einfache Hardwarekonstruktion aufweisen, da der Decodierabschnitt der oberen Schicht weggelassen ist, und sie kann das codierte Bild leicht dadurch decodieren, dass sie nur eine verringerte Menge von Codedaten verarbeitet. Die 11 ist für eine zweite Ausführungsform einer erfindungsgemäßen Decodiervorrichtung veranschaulichend, bei der ein Bereichs-Position/Form-Decodierabschnitt 9 und ein Decodierabschnitt 8 für die untere Schicht ähnliche Funktion wie diejenigen bei der ersten Ausführungsform aufweisen.
  • In der 11 entnimmt der Codedaten-Trennabschnitt 10 aus den Codedaten in gesonderter Weise Bereichs-Position/Form-Codedaten, Codedaten für die untere Schicht eines Bereichs und Codedaten für die erste obere Schicht.
  • Ein Decodierabschnitt 11 für die erste obere Schicht decodiert Codedaten der ersten oberen Schicht, wobei ein gesamtes Bild unter Verwendung der Bereichs-Position/Form-Daten, des decodierten Bilds der unteren Schicht und des decodierten Bilds der zweiten oberen Schicht auf niedrigere Qualität decodiert wird. So wird ein decodiertes Bild für die erste obere Schicht erzeugt.
  • Obwohl die dargestellte Ausführungsform die Codedaten der ersten oberen Schicht verwendet, kann sie auch die zweite obere Schicht statt der ersten oberen Schicht verwenden. In diesem Fall entnimmt der Codedaten-Trennabschnitt 10 den Codedaten auf gesonderte Weise Bereichs-Position/Form-Codedaten, Codedaten der unteren Schicht für einen Bereich und Codedaten der zweiten oberen Schicht. Der Codedaten-Trennabschnitt 11 für die erste obere Schicht wird durch einen Codedaten-Trennabschnitt für die zweite obere Schicht ersetzt, der die Codedaten der zweiten oberen Schicht unter Verwendung der Bereichs-Position/Form-Daten, des decodierten Bilds der unteren Schicht und des decodierten Bilds der zweiten Schicht decodiert, und es wird nur das ausgewählte Bild mit höherer Qualität decodiert. Ein so erzeugtes decodiertes Bild der zweiten oberen Schicht kann als Fenster auf einem Anzeigeschirm angezeigt werden, oder es kann auf die Größe des vollen Schirms vergrößert und dann auf diesem angezeigt werden.
  • Die 12 ist für eine dritte Ausführungsform einer erfindungsgemäßen Codiervorrichtung veranschaulichend, wobei ein Bereichs-Position/Form-Decodierabschnitt 9 und ein Decodierabschnitt 8 für die untere Schicht funktionsmäßig denen ähnlich sind, die in der 2 dargestellt sind.
  • In der 12 entnimmt ein Codedaten-Trennabschnitt 10 den Codedaten in gesonderter Weise Bereichs-Position/Form-Daten, Codedaten der unteren Schicht, Codedaten der ersten oberen Schicht und Codedaten der zweiten oberen Schicht.
  • Ein Decodierabschnitt 11 für die erste obere Schicht decodiert Codedaten der ersten oberen Schicht, während ein Decodierabschnitt 13 für die zweite obere Schicht Codedaten der zweiten oberen Schicht decodiert.
  • Ein Synthetisierabschnitt 14 für die obere Schicht kombiniert ein decodiertes Bild der zweiten oberen Schicht mit einem decodierten Bild der ersten oberen Schicht, um unter Verwendung von Information zur Position und zur Form des Bereichs ein synthetisiertes Bild zu erzeugen. Die Synthese für einen ausgewählten Bereich wird unter Verwendung des decodierten Bilds der zweiten oberen Schicht ausgeführt, während die Synthese für andere Bereiche unter Verwendung des decodierten Bilds der ersten oberen Schicht ausgeführt wird. Daher betrifft ein von der Decodiervorrichtung ausgegebenes Bild ein Gesamtbild, in dem ein ausgewählter Bereich speziell so decodiert ist, dass er hinsichtlich Parametern wie des SRV (Signal/Rauschsignal-Verhältnis), der zeitlichen und der räumlichen Auflösung höhere Qualität zeigt. Ein durch die Codiervorrichtung ausgewählter Bereich wird demgemäß so deco diert, dass er höhere Qualität als andere Bereiche aufweist.
  • Die 13 ist ein Blockdiagramm, das eine herkömmliche Vorrichtung zum Vergleich mit der Erfindung zeigt. Es ist angenommen, dass eine erste Videosequenz ein Hintergrund-Videosignal bildet und eine zweite Videosequenz ein Teilvideosignal bildet. Eine Alphaebene entspricht Gewichtungsdaten, wie sie dann verwendet werden, wenn ein Teilbild mit einem Hintergrundbild in einer Sequenz für ein bewegtes Bild (Video) synthetisiert wird. Die 14 zeigt ein beispielhaftes Bild aus Pixeln, die mit Werten von 1 bis 0 gewichtet sind. Es sei angenommen, dass die Daten der Alphaebene innerhalb eines Teils den Wert 1 aufweisen, während sie außerhalb eines Teils den Wert 0 aufweisen. Die Alphadaten können im Grenzabschnitt zwischen einem Teil und dessen Äußerem einen Wert von 0 bis 1 aufweisen, um einen Mischzustand von Pixelwerten im Grenzabschnitt und die Transparenz einer transparenten Substanz wie Glas anzuzeigen.
  • Gemäß der 13, die das herkömmliche Verfahren veranschaulicht, codiert ein erster Videocodierabschnitt 101 die erste Videosequenz, und ein zweiter Videocodierabschnitt 102 codiert die zweite Videosequenz entsprechend eines international standardisierten Videocodiersystems, z.B. MPEG oder H.261. Ein Alphaebene-Codierabschnitt 112 codiert eine Alphaebene. In der o.g. Veröffentlichung verwendet dieser Abschnitt die Techniken der Vektorquantisierung und der Haar-Transformation. Ein Codedaten-Integrierabschnitt (nicht dargestellt) integriert von den Codierabschnitten empfangene Codedaten und sammelt die integrierten Codedaten an oder sendet sie.
  • Bei der Decodiervorrichtung gemäß dem herkömmlichen Verfahren zerlegt ein Codedaten-Zerlegeabschnitt (nicht dargestellt) Codedaten in die Codedaten der ersten Videosequenz, die Codedaten der zweiten Videosequenz und die Codedaten der Alphaebene, die dann durch einen ersten Videodecodierabschnitt 105, einen zweiten Videodecodierabschnitt 106 bzw. einen Alphaebene-Decodierabschnitt 113 decodiert werden. Zwei decodierte Sequenzen werden entsprechend gewichteten Mittelwerten durch einen ersten Gewichtungsabschnitt 108, einen zweiten Gewichtungsabschnitt 109 und einen Addierer 111 synthetisiert. Die erste Videosequenz und die zweite Videosequenz werden gemäß der folgenden Gleichung kombiniert: f(x, y, t) = (1 – α(x, y, t))f1(x, y, t) + α(x, y, t)f2(x, y, t)
  • In dieser Gleichung repräsentiert (x, y) Koordinatendaten einer Intrarahmen- Pixelposition, t bezeichnet einen Rahmenzeitpunkt, f1(x, y, t) repräsentiert einen Pixelwert der ersten Videosequenz, f2(x, y, t) repräsentiert einen Pixelwert der zweiten Videosequenz, f(x, y, t) repräsentiert einen Pixelwert der synthetisierten Videosequenz und α(x, y, t) repräsentiert Daten der Alphaebene. D.h., dass der erste Gewichtungsabschnitt 108 die Gewichtung 1 – α(x, y, t) verwendet, während der zweite Gewichtungsabschnitt 109 als Gewichtung α(x, y, t) verwendet.
  • Wie oben angegeben, wird durch das herkömmliche Verfahren eine große Anzahl von Codedaten erzeugt, da es Daten in der Alphaebene codieren muss.
  • Um dieses Problem zu vermeiden, kann an das Einsparen von Informationsmenge durch Digitalisieren der Daten der Alphaebene gedacht werden, jedoch geht damit ein solcher visueller Defekt einher, dass an der Grenze zwischen einem Teilbild und einem Hintergrund als Ergebnis einer diskontinuierlichen Änderung von Pixelwerten dort herum eine zahnförmige Linie auftritt.
  • Die 15 ist ein Blockdiagramm, das eine Codiervorrichtung und eine Decodiervorrichtung zeigt, die die Erfindung verkörpern. In der 15 weisen ein erster Videocodierabschnitt 101, ein zweiter Videocodierabschnitt 102, ein erster Videodecodierabschnitt 105, ein zweiter Videodecodierabschnitt 106, ein erster Gewichtungsabschnitt 108, ein zweiter Gewichtungsabschnitt 109 und ein Addierer 111 ähnliche Funktionen wie diejenigen bei der herkömmlichen Vorrichtung auf, weswegen sie nicht weiter erläutert werden. In der 15 codiert ein Bereichsinformation-Codierabschnitt 103 Bereichsinformation, die die Form eines Teilbilds einer zweiten Videosequenz repräsentiert, ein Bereichsinformation-Decodierabschnitt 107 decodiert die codierte Bereichsinformation und ein Alphaebene-Erzeugungsabschnitt 110 erzeugt eine Alphaebene unter Verwendung codierter Bereichsinformation.
  • Die Funktionen der Codiervorrichtung und der Decodiervorrichtung sind wie folgt.
  • Die Codiervorrichtung codiert die erste und die zweite Videosequenz mittels des ersten Videocodierabschnitts 101 bzw. des zweiten Videocodierabschnitts 102, und sie codiert Bereichsinformation durch den Bereichsinformation-Codierabschnitt 103 gemäß einem später zu beschreibenden Verfahren. Diese codierten Daten werden für weitere Übertragung oder Ansammlung durch den Codedaten-Integrierabschnitt (nicht dargestellt) integriert. Andererseits trennt die Decodiervorrichtung die gesendeten oder angesammelten Codedaten durch den Codedaten-Trennabschnitt (nicht dargestellt) auf, und sie decodiert die aufgeteilten Codedaten durch den ersten Videodecodierabschnitt 105, den zweiten Videodecodierabschnitt 106 bzw. den Bereichsinformation-Decodierabschnitt 107. Der Alphaebene-Erzeugungsabschnitt 110 erstellt aus der decodierten Bereichsinformation durch ein später zu beschreibendes Verfahren eine Alphaebene. Der erste Gewichtungsabschnitt 108, der zweite Gewichtungsabschnitt 109 und der Addierer 111 können zwei decodierte Sequenzen unter Verwendung gewichteter Mittelwerte entsprechend der erstellten Alphaebene synthetisieren.
  • Die 16 zeigt ein Beispiel für Bereichsinformation, die der Bereichsinformation eines Teilvideobilds gemäß der 14 entspricht. Die Bereichsinformation wird unter Verwendung eines Schwellenwerts von 0,2 digitalisiert. So kann Bereichsinformation durch Digitalisieren der Alphaebene erhalten werden, oder sie kann durch eine Randerkennung oder ein anderes Bereichsunterteilungsverfahren bestimmt werden. Wenn ein Bereich durch ein Verfahren ausgewählt wird, wie es in der Literaturstelle "Real-time face-image following-up method" (The Institute of Image Electronics Engineers of Japan, Previewing Report of Society Meeting, 93-04-04, S. 13–16, 1993) beschrieben ist, kann die zu verwendende Information ein Rechteck sein. In diesem Fall wird Bereichsinformation z.B. so digitalisiert, dass sie innerhalb eines Körpers den Wert 1 und außerhalb desselben den Wert 0 einnimmt.
  • Eine praktische Technik zum Codieren von Bereichsinformation, die nicht detailliert erläutert wird, kann Lauflängencodierung und Kettencodierung sein, da die Bereichsinformation digitalisierten Daten entspricht. Wenn die Bereichsdaten ein Rechteck repräsentieren, müssen nur Koordinatendaten für den Ausgangspunkt, die Länge und die Breite codiert werden.
  • Es können verschiedene Arten von Verfahren angewandt werden, um eine Alphaebene abhängig von der Form zu erstellen, die die Bereichsinformation repräsentiert.
  • Im Fall eines Bereichs mit rechteckiger Form kann eine Alphaebene dadurch erstellt werden, dass die folgenden linearen Gewichtungswerte in horizontaler und vertikaler Richtung des rechteckigen Bereichs unabhängig verwendet werden:
  • Figure 00250001
  • In der Gleichung (1) entspricht M dem Wert "aN" und L entspricht dem Wert "N–M" ("a" ist ein reeller Wert von 0 bis 1). "N" repräsentiert die Größe eines Rechteckbereichs, und "a" repräsentiert die Flachheit der Gewichtung, die bei diesem Bereich anzuwenden ist. Die 17 zeigt ein Beispiel einer digitalen Gewichtungsfunktion. Eine einem Rechteck entsprechende Alphaebene wird wie folgt wiedergegeben: α(x, y) = WNx, ax(x)WNy, ay(y) (2)
  • In der Gleichung (2) ist die Größe des Rechtecks durch die Anzahl "Nx" der Pixel in horizontaler Richtung und der Pixel "Ny" in vertikaler Richtung ausgedrückt, und die Flachheit der Gewichtung ist durch "ax" in horizontaler Richtung und durch "ay" in vertikaler Richtung ausgedrückt.
  • Es können auch verschiedene Kombinationen anderer linearer Gewichtungsfunktionen als der der Gleichung (1) für den Gebrauch in Betracht gezogen werden.
  • Nachfolgend werden drei verschiedene Verfahren zum Erstellen einer Alphaebene für einen Bereich jeglicher gewünschten Form beispielhaft beschrieben.
  • Das erste Verfahren dient zum Bestimmen eines Umschließungsrechtecks des Bereichs, wobei dann die o.g. linearen Gewichtungsfunktionen auf das Umschließungsrechteck in horizontaler und vertikaler Richtung angewandt werden.
  • Das zweite Verfahren dient zum sequenziellen Bestimmen von auf einen Bereich anzuwendenden Gewichtungswerten aus dessen Umfang, wie es in der 18 dargestellt ist. Z.B. werden Pixel am Umfang des Bereichs bestimmt, und sie erhalten jeweils die Gewichtung 0,2. Als Nächstes werden Pixel am Umfang eines noch nicht gewichteten Teils innerhalb des Bereichs bestimmt, und sie erhalten jeweils die Gewichtung 0,5. Diese Operationen werden wiederholt, bis die Umfangspixel mit 1 gewichtet werden. Die Erstellung einer Alphaebene wird dadurch beendet, dass eine Gewichtung von 1,0 auf den letz ten noch nicht gewichteten Bereich angewandt wird. Die erhaltene Alphaebene verfügt in ihrem zentralen Abschnitt über einen Wert von 1,0 und an ihrem Umfangsabschnitt über einen Wert von 0,2. Wenn Gewichtungswerte aus dem Umfang eines Bereichs bestimmt werden, ist es möglich, eine lineare Gewichtungsfunktion gemäß der Gleichung (1) oder andere linear variierende Werte zu verwenden. Beim sequenziellen Ändern eines Gewichtungswerts kann die Dicke eines Umfangspixels einem einzelnen oder mehreren Pixeln entsprechen.
  • Das dritte Verfahren besteht darin, die Außenseite eines Bereichs mit einer Gewichtung von 0 zu versehen und das Innere des Bereichs mit der Gewichtung 1 zu versehen und dann ein so digitalisiertes Bild über ein Tiefpassfilter zu verarbeiten, um im Abschnitt der Bereichsgrenze eine Abstufung zu erzielen. Durch Ändern der Größe und des Koeffizienten eines Filters sowie die Anzahl der Filteroperationen können verschiedene Arten von Alphaebenen erzeugt werden.
  • Aus dem Vorstehenden ist es ersichtlich, dass mit der ersten Ausführungsform erhöhte Effizienz der Datencodierung im Vergleich mit der herkömmlichen Vorrichtung erzielt werden kann, da die Alphaebene durch die Decodierseite erstellt wird, was das Erfordernis einer Codierung von Gewichtungsinformation beseitigt. Außerdem erstellt die Decodiervorrichtung eine Alphaebene aus der decodierten Bereichsinformation, und sie synthetisiert Videosequenzen unter Verwendung der erstellten Alphaebene, um dadurch das Auftreten eines solchen visuellen Defekts zu verhindern, dass an der Grenze eines Teilbilds im Hintergrund eine gezahnte Linie erscheint.
  • Andere Ausführungsformen der Erfindung werden wie folgt beschrieben.
  • Die 19 ist ein Blockdiagramm, das eine Codiervorrichtung und eine Decodiervorrichtung der Ausführungsform zeigt. In der 19 sind ein erster Gewichtungsabschnitt 108, ein zweiter Gewichtungsabschnitt 109 und ein Addierer 111 denen der herkömmlichen Vorrichtung ähnlich, und dazu wird eine weitere Erläuterung weggelassen. Ein Bereichsinformation-Codierabschnitt 103, ein Bereichsinformation-Decodierabschnitt 107 und Alphaebene-Erzeugungsabschnitte 120 und 121 weisen ähnliche Funktionen wie diejenigen der ersten Ausführungsform auf, weswegen sie nicht weiter erläutert werden.
  • Diese Ausführungsform ist dadurch gekennzeichnet, dass die Codierseite auch mit einem Alphaebene-Erzeugungsabschnitt 120 zum Codieren eines Bilds mit Gewichtungswerten zum Synthetisieren mehrerer Videosequenzen versehen ist. Codedaten werden kleiner als die ursprünglichen Daten, da die Gewichtsdaten nicht größer als 1 sind, weswegen die Codedatenmenge verringert werden kann.
  • In der 19 codieren ein erster Videocodierabschnitt 122 und ein zweiter Videocodierabschnitt 123 Bilder von Videosequenzen durch Gewichtung auf Grundlage jeweiliger auf der Codierseite erzeugter Alphaebenen. Ein erster Videodecodierabschnitt 124 und ein zweiter Videodecodierabschnitt 125 decodieren die codierten Bilder der Videosequenzen durch Gewichtungsumkehr auf Grundlage der auf der Decodierseite erstellten jeweiligen Alphaebenen.
  • Der erste Videocodierabschnitt 122 oder der zweite Videocodierabschnitt 123 können für Transformationscodierung aufgebaut sein, wie z.B. in der 20 dargestellt. Eine zu verarbeitende Videosequenz ist die erste oder die zweite Videosequenz. Ein Transformationsabschnitt 131 transformiert ein eingegebenes Bild blockweise unter Verwendung eines Transformationsverfahrens DCT (Diskrete Cosinustransformation), diskreter Fourier-Transformation und Weiblet-Transformation.
  • In der 20 gewichtet ein erster Gewichtungsabschnitt 132 einen Transformationskoeffizienten mit einem Alphaebenenwert. Der zur Gewichtung verwendete Wert kann eine Repräsentation einer Alphaebene innerhalb eines zu bearbeitenden Bildblocks sein. Z.B. wird der Mittelwert der Alphaebene innerhalb des Blocks verwendet. Transformationskoeffizienten der ersten und der zweiten Videosequenz werden durch g1(u, v) bzw. g2(u, v) wiedergegeben, und sie werden gemäß den folgenden Gleichungen gewichtet: gw1(u, v) = (1 – α)g1(u, v) gw2(u, v) = αg2(u, v) (3)
  • In der Gleichung (3) bezeichnen gw1(u, v) und gw2(u, v) gewichtete Transformationskoeffizienten, u und v bezeichnen die Horizontal- und die Vertikalfrequenz, und α repräsentiert eine Alphaebene in einem Block.
  • Zn der 20 quantisiert ein Quantisierungsabschnitt 133 Transformationskoeffizienten und ein Abschnitt 134 zur Codierung mit variabler Lauflänge codiert die quantisierten Transformationskoeffizienten mit variable-Lauflänge-Codes, um Codedaten zu erzeugen.
  • Ein erster Videodecodierabschnitt 124 oder ein zweiter Videodecodierabschnitt 125, entsprechend dem Videocodierabschnitt der 19, kann so aufgebaut sein, wie es in der 21 dargestellt ist. Ein variable-Lauflänge-Decodierabschnitt 141 decodiert Codedaten, ein Umkehrquantisierabschnitt 142 führt eine inverse Quantisierung decodierter Daten aus, und ein Gewichtungsumkehrabschnitt 143 führt eine Umkehroperation an Transformationskoeffizienten aus, um die Gleichung (2) zu inversieren. D.h., dass die Transformationskoeffizienten mit Gewichtungswerten, die diejenigen inversieren, die auf der Codierungsseite angewandt wurden, gemäß der folgenden Gleichung gewichtet werden: g1(u, v) = gw1(u, v)/(1 – α) g2(u, v) = gw2(u, v)/α (4)
  • In der Gleichung (4) kennzeichnet ^ (Dach) decodierte Daten; z.B. ist gw1-Dach ein gewichteter, decodierter Transformationskoeffizient der ersten Videosequenz.
  • Neben dem o.g Gewichtungsverfahren ist ein solches Verfahren anwendbar, bei dem nicht eine direkte Komponente eines Transformationskoeffizienten gewichtet wird, sondern andere Transformationskoeffizienten gemäß der Gleichung (2) gewichtet werden. In diesem Fall erfolgt die Gewichtung im Wesentlichen durch Kombinieren einer gemäß dem internationalen Standard MPEG oder H.261 verwendeten Quantisierungsschrittweite unter Verwendung eines repräsentativen Werts der Alphaebene innerhalb des Blocks.
  • D.h., dass ein Quantisierungsschrittweite-Änderungsabschnitt 38 vorhanden ist, wie in der 21 dargestellt, durch den die durch einen Quantisierungsschrittweite-Bestimmungsabschnitt (nicht dargestellt) bestimmte Quantisierungsschrittweite unter Verwendung der Daten der Alphaebene geändert wird. In der Praxis wird als Erstes ein repräsentativer Wert α (z.B. Mittelwert) der Alphaebene innerhalb eines Blocks bestimmt, und dann wird die Quantisierungsschrittweite durch einen Wert (1 – a) für die erste Videosequenz oder einen Wert α für die zweite Videosequenz geteilt, um eine neue Quantisierungsschrittweite zu erhalten.
  • Es existieren zwei Gewichtungsumkehrverfahren, die dem o.g. Gewichtungsverfahren entsprechen. Das erste Verfahren betrifft den Fall, dass eine Quantisierungsschrittweite (ohne Änderung durch den Quantisierungsschrittweite-Änderungsabschnitt 138) durch die in der 22 dargestellte Codiervor richtung codiert wird. In diesem Fall decodiert die Decodiervorrichtung der 23, die mit einem Quantisierungsschrittweite-Änderungsabschnitt 148 versehen ist, der dem der Codierseite der 22 entspricht, die Quantisierungsschrittweite durch einen Quantisierungsschrittweite-Decodierabschnitt (nicht dargestellt), und dann ändert sie die decodierte Quantisierungsschrittweite durch den Quantisierungsschrittweite-Änderungsabschnitt 148 entsprechend den Daten der Alphaebene. Das zweite Verfahren betrifft den Fall, dass eine Quantisierungsschrittweite nach Änderung durch den Quantisierungsschrittweite-Änderungsabschnitt 138 durch die in der 22 dargestellte Codiervorrichtung codiert wird. In diesem Fall verwendet die Decodiervorrichtung direkt die decodierte Quantisierungsschrittweite und quantisiert sie auf inverse Weise. Dies erübrigt die Verwendung einer speziellen Gewichtungsumkehrvorrichtung (d.h. des Quantisierungsschrittweite-Änderungsabschnitts 108 der 23). Es wird jedoch davon ausgegangen, dass das zweite Verfahren über verringerte Flexibilität bei der Gewichtung im Vergleich zum ersten Verfahren verfügt.
  • Die oben beschriebene zweite Ausführungsform verwendet Transformationscodierung. Daher ist aus den 20 bis 23 ein bewegungskompensierender Codierabschnitt weggelassen, wie er für das MPEG- oder das H.261-System charakteristisch ist. Dieses Verfahren kann jedoch bei einem Codiersystem unter Verwendung bewegungskompensierender Vorhersage angewandt werden. In diesem Fall wird in einen Transformations- abschnitt 131 der 20 ein Vorhersagefehler für bewegungskompensierende Vorhersage eingegeben.
  • Andere Gewichtungsverfahren bei der zweiten Ausführungsform sind die Folgenden:
    Die 24 zeigt ein Beispiel des ersten Videocodierabschnitts 122 oder des zweiten Videocodierabschnitts 123 der in der 19 dargestellten Codiervorrichtung. D.h., dass der Codierabschnitt mit einem Gewichtungsabschnitt 150 versehen ist, der eine Gewichtungsoperation vor einer Videocodierung durch das Standardverfahren MPEG oder H.261 gemäß der folgenden Gleichung ausführt: fw1(x, y) = (1 – α)f1(x, y) fw2(x, y) = αf2(x, y) (5)
  • In der Gleichung (5) ist fw1(x, y) die erste gewichtete Videosequenz, fw2(x, y) ist die zweite gewichtete Videosequenz und α repräsentiert eine Alp haebene innerhalb eines Blocks.
  • Die Gewichtung kann gemäß der folgenden Gleichung ausgeführt werden: fw1(x, y) = (1 – α(x, y))f1(x, y) fw2(x, y) = α(x, y)f2(x, y) (6)
  • 25 zeigt ein Gewichtungsumkehrverfahren der Decodiervorrichtung, das dem o.g. Gewichtungsverfahren entspricht. Der Gewichtungsumkehrabschnitt 161 gewichtet die Videosequenz mit einer Gewichtung umgekehrt zu der, die durch die Codiervorrichtung angewandt wurde.
  • Wenn die Codiervorrichtung die Videosequenz gemäß der Gleichung (5) gewichtet hat, können aus der Decodiervorrichtung der Gewichtungsumkehrabschnitt 61, der erste Gewichtungsabschnitt 108 und der zweite Gewichtungsabschnitt 109 zum Synthetisieren von Sequenzen, wie in der 19 dargestellt, weggelassen werden. D.h., dass es möglich ist, eine Codiervorrichtung und eine Decodiervorrichtung zu verwenden, wie sie in der 26 dargestellt sind. Ein erster Videocodierabschnitt 122 und ein zweiter Videocodierabschnitt 123, die in der 26 dargestellt sind, sind so aufgebaut, wie es in der 24 dargestellt ist, und sie verwenden das Gewichtungsverfahren der Gleichung (5). In diesem Fall ist Gewichtungsinformation wie Bereichsinformation und Alphaebenedaten, die zum Synthetisieren der Videosequenzen erforderlich sind, in den Video-Codedaten selbst enthalten, und die Gewichtungsinformation muss nicht codiert werden. Demgemäß können von der Decodiervorrichtung decodierte Sequenzen direkt zueinander addiert werden, um eine synthetisierte Sequenz zu erzeugen. Das Codieren nur von Daten innerhalb eines Bereichs ist ziemlich effektiver als das Codieren eines gesamten Bilds, wenn eine Videosequenz 102 ein Teilbild betrifft. In diesem Fall wird es erforderlich, die Bereichsinformation durch die Codiervorrichtung zu codieren und die codierte Bereichsinformation durch die Decodiervorrichtung zu decodieren.
  • Die vorstehende Beschreibung betrifft ein Beispiel der Gewichtung jeder von mehreren Videosequenzen bei der zweiten Ausführungsform der Erfindung. Z.B. wird die erste Videosequenz mit dem Wert (1 – α) gewichtet, während die zweite Videosequenz mit dem Wert α gewichtet wird.
  • Obwohl die Ausführungsformen für den Fall des Synthetisierens einer Hintergrund-Videosequenz und einer Teilvideosequenz erläutert wurden, ist die Erfindung nicht hierauf beschränkt, sondern sie kann dazu angewandt werden, mehrere Teilvideosequenzen mit einem Hintergrund zusammenzusetzen. In diesem Fall wird jede jedem Teilbild entsprechende Bereichsinformation codiert.
  • Das Hintergrundbild und die Teilbilder können unabhängig oder hierarchisch codiert werden, wobei das Hintergrundbild als untere Schicht angesehen wird und die Teilbilder als obere Schichten angesehen werden. Im letzteren Fall kann jedes Bild einer oberen Schicht dadurch effektiv codiert werden, dass sein Pixelwert aus dem des Bilds der unteren Schicht vorhergesagt wird.
  • Es wurde ein Videocodierverfahren untersucht, das dazu verwendet wird, verschiedene Arten von Videosequenzen zu synthetisieren.
  • Die folgende Beschreibung zeigt herkömmliche Vorrichtungen zum Vergleich mit der Erfindung.
  • Die in Technical Report of IEICE IE94-159, S. 99–106, 1995 erschienene Veröffentlichung "Image coding using hierarchical representation and multiple templates" beschreibt ein Bildsynthetisierverfahren, bei dem eine ein Hintergrundvideosignal bildende Videosequenz und eine ein Vordergrundvideosignal bildende Teilvideosequenz (z.B. ein Figurenbild oder ein Fischbild, das unter Verwendung der Chromaschlüsseltechnik ausgeschnitten wurde) kombiniert werden, um eine neue Sequenz zu erzeugen.
  • Die Veröffentlichung "Temporal Scalability based on image content" (ISO/IEC JTC1/SC29/WG11 MPEG95/211, (1995)) beschreibt eine Technik zum Erstellen einer neuen Videosequenz durch Synthetisieren einer Teilvideosequenz mit höherer Rahmenrate mittels einer Videosequenz niedriger Rahmenrate. Wie es in der 27 dargestellt ist, dient dieses System zum Codieren eines Rahmens einer unteren Schicht mit einer niedrigen Rahmenrate durch ein vorhersagendes Codierverfahren sowie zum Codieren nur eines ausgewählten Bereichs (schraffierter Teil) eines Rahmens einer oberen Schicht mit hoher Rahmenrate durch vorhersagendes Codieren. Die obere Schicht codiert keinen in der unteren Schicht codierten Rahmen, und sie verwendet eine Kopie des decodierten Bilds der unteren Schicht. Der ausgewählte Bereich kann als zu beachtender Teil des Bilds, z.B. als menschliche Gestalt, angesehen werden.
  • Die 28 ist ein Blockdiagramm, das ein herkömmliches Verfahren, auf der Codierseite, zeigt, bei dem eine eingegebene Videosequenz durch einen ers ten Ausdünnabschnitt 201 und einen zweiten Ausdünnabschnitt 202 ausgedünnt wird und die ausgedünnte Videosequenz mit verringerter Rahmenrate dann an einen Codierabschnitt für die obere Schicht bzw. einen Codierabschnitt für die untere Schicht übertragen wird. Der Codierabschnitt für die obere Schicht verfügt über eine Rahmenrate über der des Codierabschnitts für die untere Schicht.
  • Der Codierabschnitt 204 für die untere Schicht codiert das gesamte Bild jedes Rahmens in der empfangenen Videosequenz unter Verwendung eines international standardisierten Videocodierverfahrens wie MPEG, H.261 usw. Der Codierabschnitt 204 für die untere Schicht erstellt auch decodierte Rahmen, die für vorhersagende Codierung verwendet werden und die gleichzeitig in einen Synthetisierabschnitt 205 eingegeben werden.
  • Die 29 ist ein Blockdiagramm eines Codemenge-Steuerabschnitts eines herkömmlichen Codierabschnitts. In der 29 codiert ein Codierabschnitt 212 Videorahmen unter Verwendung eines Verfahrens oder einer Kombination von Verfahren wie bewegungskompensierender Vorhersage, orthogonaler Transformation, Quantisierung, Codierung mit variabler Lauflänge usw. Ein Quantisierungsweite(Schrittgröße)-Bestimmungsabschnitt 211 bestimmt eine in einem Codierabschnitt 212 zu verwendende Quantisierungsweite (Schrittgröße). Ein Codedatenmenge-Bestimmungsabschnitt 213 berechnet die angesammelte Menge erzeugter Codedaten. Im Allgemeinen wird die Quantisierungsweite erhöht oder erniedrigt, um eine Zunahme oder Abnahme der Codedatenmenge zu vermeiden.
  • In der 28 codiert der Codierabschnitt 203 für die obere Schicht nur einen ausgewählten Teil jedes Rahmens in einer empfangenen Videosequenz auf Grundlage von Bereichsinformation unter Verwendung eines international standardisierten Videocodierverfahrens wie MPEG, H.261 usw. Jedoch werden im Codierabschnitt 204 für die untere Schicht codierte Rahmen nicht durch den Codierabschnitt 203 für die obere Schicht codiert. Die Bereichsinformation ist solche Information, die einen ausgewählten Bereich von z.B. dem Bild einer menschlichen Gestalt in jedem Videorahmen anzeigt, wobei es sich um ein digitalisiertes Bild handelt, das im ausgewählten Bereich den Wert 1 und außerhalb desselben den Wert 0 aufweist. Der Codierabschnitt 203 für die obere Schicht erstellt auch decodierte, ausgewählte Bereiche jedes Rahmens, die an den Synthetisierabschnitt 205 übertragen werden.
  • Ein Bereichsinformation-Codierabschnitt 206 codiert Bereichsinformation unter Verwendung von 8-direktionalen Quantisierungscodes. Ein 8-direktionaler Quantisierungscode ist ein Zifferncode, der die Richtung eines vorigen Punkts anzeigt, wie in der 30 dargestellt, und der im Allgemeinen dazu verwendet wird, digitale Grafik zu repräsentieren.
  • Ein Synthetisierabschnitt 205 gibt einen decodierten Videorahmen der unteren Schicht aus, der durch den Codierabschnitt für die untere Schicht codiert wurde und zu synthetisieren ist. Wenn ein zu synthetisierender Rahmen nicht im Codierabschnitt der unteren Schicht codiert wurde, gibt der Synthetisierabschnitt 205 einen decodierten Videorahmen aus, der unter Verwendung zweier decodierter Rahmen erzeugt wird, die in der unteren Schicht codiert wurden und sich vor bzw. hinter dem fehlenden Rahmen der unteren Schicht befinden, sowie einen decodierten Rahmen der oberen Schicht für die Synthese. Die zwei Rahmen der unteren Schicht befinden sich vor bzw. hinter dem Rahmen der oberen Schicht. Der synthetisierte Videorahmen wird in den Codierabschnitt 203 für die obere Schicht eingegeben, um dort für vorhersagende Codierung verwendet zu werden. Die Bildverarbeitung im Synthetisierabschnitt 203 ist die Folgende.
  • Als Erstes wird ein Interpolationsbild für zwei Rahmen der unteren Schicht erstellt. Ein decodiertes Bild der unteren Schicht zum Zeitpunkt t wird als B(x, y, t) repräsentiert, wobei x und y Koordinaten sind, die die Position eines Pixels im Raum definieren. Wenn die zwei decodierten Bilder der unteren Schicht zu den Zeitpunkten t1 und t2 vorliegen und das decodierte Bild der oberen Schicht zu t3 (t1 < t3 < t2) vorliegt, wird das Interpolationsbild I(x, y, t3) zum Zeitpunkt t3 gemäß der folgenden Gleichung (1) berechnet: I(x, y, t3) = [(t2 – t3)B(x, y, t1) + (t3 – t1)B(x, y, t2)]/(t2 – t1) (1)
  • Das decodierte Bild E der oberen Schicht wird dann mit dem erhaltenen Interpolationsbild I unter Verwendung der Synthetisier-Gewichtungsinformation W(x, y, t) synthetisiert, die aus Bereichsinformation erstellt wurde. Ein Synthesebild S ist gemäß der folgenden Gleichung definiert: S(x, y, t) = [1 – W(x, y, t)]I(x, y, t) + E(x, y, t)W(x, y, t) (2)
  • Die Bereichsinformation M(x, y, t) ist ein digitalisiertes Bild, das in einem ausgewählten Bereich den Wert 1 und außerhalb desselben den Wert 0 einnimmt. Die Gewichtungsinformation W(x, y, t) kann dadurch erhalten werden, dass das o.g. digitalisierte Bild mehrmals mit einem Tiefpassfilter bearbeitet wird. D.h., dass die Gewichtungsinformation W(x, y, t) innerhalb eines ausgewählten Bereichs den Wert 1, außerhalb desselben den Wert 0 und an der Grenze desselben einen Wert zwischen 0 und 1 aufweist.
  • Die durch den Codierabschnitt der unteren Schicht, den Codierabschnitt der oberen Schicht und den Bereichsinformation-Codierabschnitt erstellten Codedaten werden durch einen Integrierabschnitt (nicht dargestellt) integriert und dann übertragen oder angesammelt.
  • Auf der Decodierseite des herkömmlichen Systems trennt ein Codedaten-Trennabschnitt (nicht dargestellt) Codedaten in solche der unteren Schicht, solche der oberen Schicht und Bereichsinformation-Codedaten. Diese Codedaten werden durch einen Decodierabschnitt 208 für die untere Schicht, einen Decodierabschnitt 207 für die obere Schicht bzw. einen Bereichsinformation-Decodierabschnitt 209 decodiert.
  • Ein Synthetisierabschnitt 210 auf der Decodierseite weist ähnlichen Aufbau wie der Synthetisierabschnitt 205 auf. Er synthetisiert ein Bild unter Verwendung eines decodierten Bilds der unteren Schicht und eines decodierten Bilds der oberen Schicht gemäß demselben Verfahren, wie es für die Codierseite beschrieben wurde. Der synthetisierte Videorahmen wird auf einem Anzeigeschirm angezeigt, und gleichzeitig wird er in den Decodierabschnitt 207 für die obere Schicht eingegeben, um dort zur Vorhersage verwendet zu werden.
  • Die oben beschriebenen Decodiervorrichtungen decodieren Rahmen sowohl der unteren als auch der oberen Schicht, jedoch wird auch eine Decodiervorrichtung aus einem Decodierabschnitt für die untere Schicht angewandt, wobei der Codierabschnitt 204 für die obere Schicht und der Synthetisierabschnitt 210 weggelassen werden. Diese vereinfachte Decodiervorrichtung kann einen Teil von Codedaten reproduzieren.
  • Diese Ausführungsform der Erfindung soll ein Problem lösen, wie es im in der 28 dargestellten Synthetisierabschnitt 205 auftreten kann. Diese Ausführungsform betrifft auch eine Videosignal-Synthetisiervorrichtung, die dazu in der Lage ist, ein Bild aus zwei decodierten Rahmen der unteren Schicht und einem decodierten ausgewählten Bereich oder Bereichen der oberen Schicht zu synthetisieren, ohne dass um den ausgewählten Bereich oder die Bereiche herum eine nachbildähnliche Störung auftritt. Die 32 ist ein Blockdiagramm, das eine Bildsynthetisiervorrichtung zeigt, die eine Ausführungsform der Erfindung ist.
  • In der 32 dient ein erster Bereichsentnahmeabschnitt 221 zum Entnehmen eines Bereichs, der einen ersten aber nicht einen zweiten Bereich betrifft, aus erster Bereichsinformation eines Rahmens der unteren Schicht und zweiter Bereichsinformation eines Rahmens der unteren Schicht. In der 33(a) ist die erste Bereichsinformation durch eine gepunktete Linie (0 innerhalb des gepunkteten Gebiets und 1 außerhalb desselben) dargestellt, und die zweite Bereichsinformation ist durch eine gestrichelte Linie (mit ähnlichen Zahlencodes) dargestellt. Demgemäß ist ein durch den ersten Bereichsentnahmeabschnitt 221 zu entnehmender Bereich ein in der 33 dargestellter schraffierter Teil.
  • Ein zweiter Bereichsentnahmeabschnitt 222 in der 32 soll einen Bereich, der den zweiten aber nicht den ersten Bereich betrifft, aus der ersten Bereichsinformation eines Rahmens der unteren Schicht und zweiter Bereichsinformation eines Rahmens der unteren Schicht entnehmen. D.h., dass der in der 33(a) dargestellte gepunktete Bereich entnommen wird.
  • In der 32 steuert eine Steuereinrichtung 223 einen Schalter 224 entsprechend einem Ausgangssignal des ersten und des zweiten Bereichsentnahmeabschnitts. D.h., dass der Schalter 221 mit einer zweiten Decodierbildseite verbunden wird, wenn die Position eines zu beachtenden Pixels nur den ersten Bereich betrifft, und er mit einer ersten Decodierbildseite verbunden wird, wenn das zu beachtende Pixel nur den zweiten Bereich betrifft. Der Schalter wird mit dem Ausgang eines Interpolationsbild-Erzeugungsabschnitts 225 verbunden, wenn das zu beachtende Pixel weder den ersten noch den zweiten Bereich betrifft.
  • Der Interpolationsbild-Erzeugungsabschnitt 225 berechnet ein Interpolationsbild zwischen dem ersten und dem zweiten decodierten Bild der unteren Schicht entsprechend der oben definierten Gleichung (1). In der Gleichung (1) ist das erste decodierte Bild als B(x, y, t1) wiedergegeben, das zweite decodierte Bild ist als B(x, y, t2) wiedergegeben und das Interpolationsbild ist als B(x, y, t3) wiedergegeben. "t1", "t2" und "t3" sind Zeitangaben für das erste decodierte Bild, das zweite decodierte Bild bzw. das Interpolationsbild.
  • Gemäß der 33(a) ist das so erzeugte Interpolationsbild dadurch gekenn zeichnet, dass der schraffierte Bereich mit einem Hintergrundbild, außerhalb des ausgewählten Bereichs, des zweiten decodierten Rahmens ausgefüllt ist, ein gepunkteter Bereich mit einem Hintergrundbild, außerhalb des ausgewählten Bereichs, des ersten decodierten Rahmens ausgefüllt ist und andere Abschnitte mit dem Interpolationsbild zwischen dem ersten und dem zweiten decodierten Rahmen ausgefüllt sind. Das decodierte Bild der oberen Schicht wird dann dem o.g., Abschnitt 226, wie in der 32 dargestellt, überlagert, um ein in der 33(b) dargestelltes synthetisiertes Bild zu erzeugen, das kein Nachbild um den ausgewählten (schraffierten) Bereich herum aufweist und frei von der beim Bild gemäß dem Stand der Technik auftretenden Störung ist. Der Abschnitt 226 für gewichtete Mittelwertsbildung kombiniert das Interpolationsbild mit dem decodierten Bild der oberen Schicht unter Verwendung von Gewichtungsmaßnahmen. Das Verfahren mit gewichteter Mittelwertbildung wurde oben beschrieben.
  • Bei der oben beschriebenen Ausführungsform ist es auch möglich, anstelle des Mittelwertgewichtungsabschnitts 225, Pixelwerte entweder des ersten decodierten Bilds B(x, y, t1) oder des zweiten decodierten Bilds B(x, y, t2) zu verwenden, das dem Zeitpunkt t3 des Bilds der oberen Schicht zeitlich näher liegt. In diesem Fall kann das Interpolationsbild I unter Verwendung der Rahmennummer wie folgt wiedergegeben werden: I(x, y, t3) = B(x, y, t1) im Fall t3 – t1 < t1 – t2 oder I(x, y, t3) = B(x, y, t2) in allen anderen Fällen.
  • In den Ausdrücken kennzeichnen t1, t2 und t3 Zeitpunkte des ersten decodierten Bilds, des zweiten decodierten Bilds und des decodierten Bilds der oberen Schicht.
  • Eine andere Ausführungsform der Erfindung wird wie folgt beschrieben.
  • Diese Ausführungsform betrifft eine Bildsynthetisiervorrichtung, die auf der ersten Ausführungsform beruht und dazu in der Lage ist, ein genauer synthetisiertes Bild unter Berücksichtigung von Bewegungsinformation decodierter Bilder der unteren Schicht zu erzeugen. Die 34 ist ein Blockdiagramm, das eine Vorrichtung zum Vorhersagen eines Bewegungsparameters und zum Modifizieren von Bereichsinformation zweier entsprechender Rahmen zeigt.
  • In der 34 schätzt ein Bewegungsparameter-Abschätzabschnitt 231 Infor mation zur Bewegung aus einem ersten decodierten Bild der unteren Schicht und einem zweiten decodierten Bild der unteren Schicht durch Bestimmen von Bewegungsparametern ab, z.B. des Bewegungsvektors pro Block und der Gesamtbildbewegung (Parallelverschiebung, Drehung, Vergrößerung und Verkleinerung).
  • Ein Bereichsform-Modifizierabschnitt 232 modifiziert das erste decodierte Bild, das zweite decodierte Bild, die erste Bereichsinformation und die zweite Bereichsinformation entsprechend jeweiligen vorhergesagten Bewegungsparametern auf Grundlage der zeitlichen Positionen der synthetisierbaren Rahmen. Z.B. wird ein Bewegungsvektor (MVx, MVy) aus dem ersten decodierten Bild zum zweiten decodierten Bild als Bewegungsparameter bestimmt. MVx ist eine Horizontalkomponente, und MVy ist eine Vertikalkomponente. Ein Bewegungsvektor vom ersten decodierten Bild zum Interpolationsbild wird gemäß der Gleichung (t3 – t1/(t2 – t1)(Mvx, Mvy) bestimmt. Das erste decodierte Bild wird dann entsprechend dem erhaltenen Vektor verschoben. Wenn andere Bewegungsparameter wie Drehung, Vergrößerung und Verkleinerung verwendet werden, wird das Bild nicht nur verschoben, sondern auch verformt. In der 34 geht es um Verformungs(Modifizierungs)datensätze "a", "b", "c" und "d", die das erste decodierte Bild, das zweite decodierte Bild, die erste Bereichsinformation bzw. die zweite Bereichsinformation in der 32 betreffen. Diese Datensätze werden in die in der 32 dargestellte Bildsynthetisiervorrichtung eingegeben, die ein synthetisiertes Bild erzeugt. Obwohl die oben beschriebene Ausführungsform die Bewegungsparameter aus zwei decodierten Bildern vorhersagt, kann sie auch einen Bewegungsvektor jedes Blocks jedes Bilds verwenden, wie er im Allgemeinen in durch vorhersagendes Codieren erstellten Codedaten enthalten ist. Z.B. kann ein Mittelwert decodierter Bewegungsvektoren als Bewegungsvektor eines gesamten Bilds vom ersten zum zweiten decodierten Rahmen angewandt werden. Es ist auch möglich, eine Häufigkeitsverteilung decodierter Bewegungsvektoren zu bestimmen und den Vektor mit der größten Häufigkeit als Bewegungsparameter eines gesamten Bilds vom ersten zum zweiten decodierten Rahmen zu verwenden. Die oben genannte Verarbeitung wird unabhängig in horizontaler und vertikaler Richtung ausgeführt.
  • Eine andere Ausführungsform der Erfindung ist die Folgende.
  • Diese Ausführungsform betrifft eine Bereichsinformation-Codiervorrichtung, die dazu in der Lage ist, Bereichsinformation wirkungsvoll zu codieren. Die 35 und 36 sind Blockdiagramme dieser Ausführungsform, deren Codiersei te in der 35 und deren Decodierseite in der 36 dargestellt ist.
  • In der 35 führt ein Bereichsinformation-Annäherungsabschnitt 241 eine Annäherung von Bereichsinformation unter Verwendung mehrerer geometrischer Figuren aus. Die 37 zeigt ein Beispiel für die Annäherung von Bereichsinformation einer menschlichen Gestalt (schraffierter Abschnitt) durch zwei Rechtecke. Ein Rechteck 1 repräsentiert den Kopf einer Person, und das andere Rechteck 2 repräsentiert den Brustbereich der Person.
  • Ein Annäherungsbereichsinformation-Codierabschnitt 242 codiert die angenäherte Bereichsinformation. Ein durch Rechtecke angenäherter Bereich, wie in der 37 dargestellt, kann mit einem Code fester Länge dadurch codiert werden, dass die Koordinaten des linken oberen Punkts jedes Rechtecks und die Größe jedes Rechtecks durch einen Code fester Länge codiert werden. Ein durch eine Ellipse angenäherter Bereich kann durch einen Code fester Länge dadurch codiert werden, dass die Koordinaten des Mittelpunkts, die Länge der langen Achse und die Länge der kurzen Achse codiert werden. Die angenäherte Bereichsinformation und die Codedaten werden an einen Auswählabschnitt 244 geliefert.
  • Wie der anhand der 28 beschriebene Bereichsinformation-Codierabschnitt 206 codiert ein Bereichsinformation-Codierabschnitt 243 in der 35 Bereichsinformation unter Verwendung eines 8-direktionalen Quantisierungscodes ohne Annäherung. Die Bereichsinformation und die Codedaten werden an einen Auswählabschnitt 244 geliefert.
  • Der Auswählabschnitt 244 wählt eines der zwei Ausgangssignale 242 und 243 aus. Wenn das Ausgangssignal 243 ausgewählt wird, werden die Codedaten der angenäherten Bereichsinformation mit Einzelbit(z.B. 1)-Auswählinformation an einen Codedaten-Integrierabschnitt (nicht dargestellt) geliefert, und angenäherte Bereichsinformation wird an einen Synthetisierabschnitt (nicht dargestellt) geliefert. Wenn das Ausgangssignal 344 ausgewählt wird, werden die Codedaten der nicht angenäherten Bereichsinformation mit einem Bit (z.B. 1) an Auswählinformation an einen Codedaten-Integrierabschnitt (nicht dargestellt) geliefert, und die nicht angenäherte Bereichsinformation wird an einen Synthetisierabschnitt geliefert, was gemäß der Erfindung erfolgt.
  • Der Auswählabschnitt kann z.B. so arbeiten, dass er dasjenige Ausgangssignal auswählt, das die kleinere Menge an Codedaten erzeugt, oder das Ausgangssignal 244 auswählt, wenn die Codedatenmenge der nicht angenäherten Information einen Schwellenwert nicht überschreitet, aber das Ausgangssignal 242 auswählt, wenn diese Menge den Schwellenwert überschreitet. Dies ermöglicht es, die Codedatenmenge zu verringern, wodurch verhindert wird, dass Bereichsinformation zerstört wird.
  • Der Betrieb auf der Decodierseite ist bei dieser Ausführungsform der Folgende.
  • In der 36 wählt ein Auswählabschnitt 251 auf Grundlage der Einzelbit-Auswählinformation in den empfangenden Codedaten aus, welche Art von Bereichsinformation zu verwenden ist – angenähert oder nicht angenähert.
  • In der 36 decodiert ein Annäherungsbereichsinformation-Decodierabschnitt 252 die angenäherte Bereichsinformation, wohingegen ein Bereichsinformation-Decodierabschnitt 253 die nicht angenäherte Bereichsinformation decodiert. Ein Schalter 254 wird durch ein Signal vom Auswählabschnitt 251 gesteuert, um angenäherte oder nicht angenäherte Bereichsinformation als Ausgangssignal für einen Synthetisierabschnitt auszuwählen.
  • So wird entweder angenäherte oder nicht angenäherte Bereichsinformation adaptiv ausgewählt, codiert und decodiert. Wenn Bereichsinformation kompliziert ist und eine große Codedatenmenge erzeugen kann, wird die angenäherte Bereichsinformation ausgewählt, um die Bereichsinformation mit kleiner Informationsmenge zu codieren.
  • Im o.g. Fall wird die nicht angenäherte Bereichsinformation unter Verwendung von 8-direktionalen Quantisierungscodes codiert, jedoch kann sie effektiver unter Verwendung einer Kombination von 8-direktionaler Quantisierung mit vorhersagender Codierung codiert werden. Ein Code für 8-direktionale Quantisierung nimmt acht Werte von 0 bis 7 ein, wie in der 30 dargestellt, die durch vorhersagendes Codieren von –7 bis 7 unterschieden werden. Die Differenz kann jedoch auf den Bereich von –3 bis 4 dadurch begrenzt werden, dass 8 addiert wird, falls die Differenz –4 oder weniger ist, und 8 subtrahiert wird, wenn die Differenz größer als 4 ist. Beim Decodieren kann ein ursprünglicher Wert aus 8-direktionaler Codierung dadurch erhalten werden, dass als Erstes die Differenz zum vorigen Wert addiert wird und dann 8 subtrahiert oder addiert wird, wenn das Ergebnis ein negativer Wert ist oder größer als 7 ist. Ein Beispiel ist unten angegeben:
    Wert aus 8-direktionaler Quantisierung 1, 6, 2, 1, 3...
    Differenz 5, –4, –1, –2...
    umgesetzter Wert –3, 4, –1, 2...
    decodierter Wert 1, 6, 2, 1, 3...
  • Z.B. beträgt die Differenz zwischen dem Quantisierungswert 6 und dem vorigen Wert 5, wovon 8 subtrahiert wird, um das Ergebnis –3 zu erhalten. Beim Decodieren wird –3 zum vorigen Wert 1 addiert, und es wird der Wert –2 erhalten, der negativ ist, weswegen er durch Addieren von 8 erhöht wird, um schließlich den decodierten Wert 6 zu erhalten. Derartige vorhersagende Codierung erfolgt unter Verwendung des zyklischen Merkmals der 8-direktionalen Codierung.
  • Obwohl bei dieser Ausführungsform angenäherte Bereichsinformation jedes Bilds unabhängig codiert wird, ist es möglich, die Codiereffizienz unter Verwendung des Ergebnisses aus vorhersagender Codierung zu erhöhen, da Videorahmen im Allgemeinen eine hohe Interrahmen-Korrelation aufweisen. D.h., es wird nur die Differenz angenäherter Bereichsinformation zweier aufeinanderfolgender Rahmen codiert, wenn die angenäherte Bereichsinformation kontinuierlich zwischen zwei Rahmen codiert wird. Wenn z.B. ein Bereich durch ein Rechteck angenähert wird, wird ein Rechteck eines vorigen Rahmens durch seine obere linke Position (19, 20) und seine Größe (100, 150) wiedergegeben, und das Rechteck des aktuellen Rahmens wird durch seine linke obere Position (13, 18) und seine Größe (100, 152) wiedergegeben, und es werden die obere linke Positionsdifferenz (3, 2) und die Größendifferenz (0, 2) für den aktuellen Rahmen codiert. Wenn die Änderung der Bereichsform klein ist, kann an Codedatenmenge für die Bereichsinformation dadurch beträchtlich eingespart werden, dass Entropiecodierung verwendet wird, z.B. Huffman-Codierung, da sich Differenzen bei einer kleinen Änderung der Bereichsform nahe bei 0 konzentrieren. Wenn sich ein Rechteck nicht häufig ändert, ist es wirkungsvoll, Einzelbitinformation als Information zur Änderung eines Rechtecks betreffend einen aktuellen Rahmen zu codieren. D.h., dass Einzelbitinformation (z.B. 0) für einen aktuellen Rahmen codiert wird, dessen Rechteck sich nicht ändert, wohingegen Einzelbitinformation (z.B. 1) und Differenzinformation für Rahmen codiert werden, deren Rechteck variiert.
  • Nachfolgend wird eine andere Ausführungsform der Erfindung dargelegt.
  • Diese Ausführungsform betrifft eine Gewichtungsinformation-Erzeugungsvorrichtung zum Erstellen von Gewichtungsinformation mit vielen Werten aus Bereichsinformation. Die 38 ist ein Blockdiagramm dieser Ausführungsform.
  • In der 38 tastet ein Horizontalgewichtung-Erzeugungsabschnitt 261 Bereichsinformation horizontal ab, und er erfasst in dieser den Wert 1 und berechnet dann eine entsprechende Gewichtungsfunktion. In der Praxis werden als Erstes die Abszisse x0 des Punkts am linken Ende und die horizontale Länge N des Bereichs bestimmt, und dann wird eine Horizontalgewichtungsfunktion berechnet, wie es in der 39(a) dargestellt ist. Die Gewichtungsfunktion kann dadurch erstellt werden, dass gerade Linien kombiniert werden oder eine Linie mit einer trigonometrischen Funktion kombiniert wird. Ein Beispiel für den letzteren Fall wird nachfolgend beschrieben. Wenn N > W gilt (W ist die Breite einer trigonometrischen Funktion), können die folgenden Gewichtungsfunktionen angewandt werden:
    • sin[(x + 1/2)π/(2W)]xsin[(x + 1/2)π/(2W)] wenn 0 ≤ x < W;
    • 1 wenn W ≤ x < N – W;
    • sin[(x – N + 2W + 1/2)π/(2W)]xsin[(x – N + 2W + 1/2)π/(2W)] wenn 0 ≤ x < W;
    • sin2[x + 1/2)π/N]xsin[(x + 1/2)π/N] wenn N ≤ 2W.
  • Im o.g. Fall wird der Punkt x0 am linken Ende des Bereichs auf 0 gesetzt.
  • In der 38 tastet ein Vertikalgewichtung-Erzeugungsabschnitt 502 die Bereichsinformation vertikal ab, und er erfasst den Wert 1 in dieser und berechnet dann eine entsprechende Vertikalgewichtungsfunktion. In. der Praxis werden die Ordinate y0 des Punkts am oberen Ende und die vertikale Länge M des Bereichs bestimmt, und dann wird eine Vertikalgewichtungsfunktion berechnet, wie es in der 39(b) dargestellt ist.
  • Ein Multiplizierer 263 multipliziert ein Ausgangssignal 261 mit einem Ausgangssignal 262 für jede Pixelposition zum Erzeugen von Gewichtungsinformation.
  • Durch das o.g. Verfahren kann Gewichtungsinformation mit verringerter Anzahl von Operationen erhalten werden, die an die Form der Bereichsinformation angepasst ist.
  • Nun wird eine andere Ausführungsform der Erfindung dargelegt.
  • Diese Ausführungsform betrifft ein Verfahren zum adaptiven Umschalten des Codiermodus von Interrahmenvorhersage auf Intrarahmenvorhersage und umgekehrt bei vorhersagender Codierung von Rahmen der unteren oder der oberen Schicht. Die 40 ist ein Blockdiagramm dieser Ausführungsform.
  • In der 40 bestimmt ein Mittelwert-Berechnungsabschnitt 271 den Mittelwert von Pixelwerten in einem Bereich entsprechend einem eingegebenen ursprünglichen Bild und eingegebener Bereichsinformation. Der Mittelwert wird in einen Differenzierer 273 und einen Speicher 272 eingegeben.
  • Der Differenzierer 273 bestimmt die Differenz zwischen einem vorigen im Speicher 272 abgespeicherten Mittelwert und einem vom Mittelwert-Berechnungsabschnitt 271 ausgegebenen aktuellen Mittelwert.
  • Ein Unterscheidungsabschnitt 274 vergleicht den Absolutwert der vom Differenzierer 273 berechneten Differenz mit einem vorgegebenen Schwellenwert und gibt Modusauswählinformation aus. Wenn der Absolutwert der Differenz größer als der Schwellenwert ist, beurteilt der Unterscheidungsabschnitt 273, dass in einem ausgewählten Bereich eine Szenenänderung aufgetreten ist, und er erzeugt ein Modusauswählsignal, um immer Codierung mit Intrarahmenvorhersage auszuführen.
  • Die so durch Beurteilen einer Szenenänderung in einem ausgewählten Bereich ausgeführte Modusauswahl ist effektiv, um codierte Bilder hoher Qualität selbst dann zu erzielen, wenn z.B. eine Person von hinter einer Abdeckung hervortritt oder irgendetwas gewendet wird. Die angegebene Ausführungsform kann bei einem System zum Codieren eines ausgewählten Bereichs gesondert von anderen Bereichen beim Codieren von Rahmen der unteren Schicht angewandt werden. In diesem Fall wird Bereichsinformation in den Codierabschnitt für die untere Schicht eingegeben. Diese Ausführungsform kann auch zum Codieren nur eines ausgewählten Bereichs des Rahmens der oberen Schicht angewandt werden.
  • Eine andere Ausführungsform der Erfindung ist die Folgende.
  • Diese Ausführungsform betrifft ein Verfahren zum Steuern der Datenmenge im Fall des Codierens eines gesonderten Bereichs getrennt von anderen Bereichen jedes Rahmens der unteren Schicht. Die 41 ist ein Blockdiagramm dieser Ausführungsform.
  • In der 41 trennt ein Codierabschnitt 283 einen ausgewählten Bereich von anderen Bereichen ab und codiert ihn. Ein Bereichunterscheidungsabschnitt 281 empfängt Bereichsinformation und erkennt, ob sich der codierbare Bereich innerhalb oder außerhalb des ausgewählten Bereichs befindet. Ein Codedatenmenge-Abschätzabschnitt 285 schätzt die Codedatenmenge in jedem Bereich auf Grundlage des o.g. Unterscheidungsergebnisses ab. Ein Verteilungsverhältnis-Berechnungsabschnitt 282 berechnet Verteilungsverhältnisse einer Zielmenge von Codes pro Rahmen, die Bereichen zugeordnet werden. Das Verfahren zum Bestimmen von Verteilungsverhältnissen wird später beschrieben. Ein Quantisierungsweite-Berechnungsabschnitt bestimmt eine Quantisierungsschrittgröße entsprechend der Zielmenge von Codedaten. Das Verfahren zum Bestimmen der Quantisierungsschrittgröße ist dasselbe wie das herkömmliche Verfahren.
  • Das Verfahren zum Bestimmen eines Codeverteilungsverhältnisses durch den Zielcodezuordnung-Berechnungsabschnitt ist das Folgende.
  • Eine Zielcodemenge Bi für einen Rahmen wird gemäß der folgenden Gleichung berechnet: Bi = (Anzahl verwendbarer Bits – Anzahl der Bits, die zum Codieren voriger Rahmen verwendet wurden)/Anzahl verbliebener Rahmen
  • Diese Zielnummer Bi für Bits wird mit einem spezifizierten Verhältnis auf Pixel innerhalb eines ausgewählten Bereichs und Pixel außerhalb desselben verteilt. Das Verhältnis wird unter Verwendung eines angemessenen festen Verhältnisses RO und eines Komplexitätsverhältnisses Rp für den vorigen Rahmen bestimmt. Das Komplexitätsverhältnis Rp für den vorigen Rahmen wird durch die folgende Gleichung berechnet: Rp = (gen_bitF·avg_qF)/(gen_bitF·avg_qF + gen_bitB·avg_qB)wobei Folgendes gilt: gen_bitF = Anzahl der Bits zum Codieren von Pixeln in einem ausgewählten Bereich eines vorigen Rahmens; gen_bitB = Anzahl der Bits zum Codieren von Pixeln außerhalb des ausgewählten Bereichs eines vorigen Rahmens; avg_qF = mittlere Quantisierungsschrittgröße im ausgewählten Bereich eines vorigen Rahmens; und avg_qB = mittlere Quantisierungsschrittgröße außerhalb des ausgewählten Bereichs eines vorigen Rahmens. Um einen ausgewählten Bereich mit hoher Bildqualität zu codieren, ist es wünschenswert, die Quantisierungsschrittgröße so einzustellen, dass die mittlere Quantisierungsschrittgröße im ausgewählten Bereich etwas kleiner als außerhalb desselben gehalten wird und gleichzeitig einer Bildänderung in einer Abfolge bewegter Bilder gefolgt wird. Im Allgemeinen wird eine Verteilung mit festem Verhältnis RO dazu verwendet, eine im Wesentlichen konstante Beziehung für die Quantisierungsschrittgröße zwischen Pixeln im ausgewählten Bereich und solchen außerhalb desselben aufrechtzuerhalten, während eine Verteilung mit dem Komplexitätsverhältnis Rp für einen vorigen Rahmen dazu verwendet wird, einer Bildänderung in einer Abfolge bewegter Bilder zu folgen. Demgemäß ist es bei der Erfindung beabsichtigt, eine Kombination der Vorteile beider Verfahren dadurch zu nutzen, dass dafür gesorgt wird, dass ein Sollbitmenge-Verteilungsverhältnis ein Mittelwert aus dem festen Verhältnis RO und dem Komplexitätsverhältnis Rp für den vorigen Rahmen ist. D.h., dass das Verteilungsverhältnis Ra wie folgt bestimmt wird: Ra = (RO + Rp)/2
  • In der 42 existieren zwei beispielhafte Kurven, die mit gestrichelten Linien aufgetragen sind, die das feste Verhältnis RO und das Komplexitätsverhältnis Rp für den vorigen Rahmen in einem ausgewählten Bereich für eine gesamte Videosequenz repräsentieren. Bei diesem Beispiel betrifft eine durchgezogene Kurve in der 42 das erzielbare Verhältnis Ra zum Verteilen einer Sollcodedatenmenge, die nicht allzu weit von der Kurve des festen Verhältnisses abweicht und in gewissem Ausmaß die Änderung eines Bilds in einer Videosequenz wiederspiegelt. Bei einem festen Verhältnis (1 – RO) und einem Komplexitätsverhältnis (1 – Rp) für den vorigen Rahmen für die Außenseite des ausgewählten Bereichs entspricht ein mittleres Verhältnis, das das Sollbitmenge-Verteilungsverhältnis (1 – Ra) für Pixel außerhalb des ausgewählten Bereichs ist, dem Verlauf der in der 43 fett gestrichelten Linie. Der Gesamtwert der zwei Sollbitmenge-Verteilungsverhältnisse für Pixel innerhalb und außerhalb eines ausgewählten Bereichs ist 1.
  • So kann die Quantisierungsschrittgröße adaptiv eingestellt werden. Die Bitrate einer gesamten Videosequenz kann jedoch manchmal einen vorbestimmten Wert überschreiten, da die Anzahl verwendeter Bits den Sollwert Bi in einigen Rahmen überschreitet. In diesem Fall kann das folgende Verfahren angewandt werden.
  • Wie oben beschrieben, ist das Sollbitmenge-Verteilungsverhältnis Ra für Codierungspixel in einem ausgewählten Bereich ein Mittelwert aus dem festen Verhältnis RO und dem Komplexitätsverhältnis Rp für den vorigen Rahmen, wohingegen das Sollbitmenge-Verteilungsverhältnis Rm für Codierungspixel außerhalb des ausgewählten Bereichs der Minimalwert Rm des festen Verhältnisses (1 – RO) und des Komplexitätsverhältnisses (1 – Rp) für den vorigen Rahmen für Codierungspixel außerhalb des ausgewählten Bereichs ist. In diesem Fall kann das Sollbitmenge-Verteilungsverhältnis (1 – Ra) für Codierungspixel außerhalb des ausgewählten Bereichs so variieren, wie es beispielhaft durch die durchgezogene Linie in der 44 dargestellt ist. Da Ra + Rm ≤ 1 gilt, kann die Bitsollzahl für einen Rahmen oder Rahmen verringert werden, in denen übermäßig viele Bits auftreten. Anders gesagt, kann die Bitrate einer gesamten Videosequenz dadurch innerhalb der vorbestimmten Grenze gehalten werden, dass die Sollbitmenge eines Hintergrundbereichs eines Rahmens oder von Rahmen verringert wird.
  • Mit den erfindungsgemäßen Videocodier- und Videodecodiervorrichtungen ist es möglich, einen ausgewählten Bereich eines Bilds so zu codieren, dass er höhere Qualität als die anderen Bereiche aufweist.
  • Es ist möglich, nur einen ausgewählten Bereich mit niedrigerer Bildqualität zu decodieren, wenn nur Codedaten einer unteren Schicht decodiert werden.
  • Beim Decodieren von Codedaten einer oberen Schicht ist es möglich, auszuwählen, ob die erste oder die zweite obere Schicht decodiert wird. Ein gesamtes Bild wird mit niedrigerer Bildqualität decodiert, wenn die erste Schicht ausgewählt wird, wohingegen nur ein ausgewählter Bereich mit hoher Bildqualität decodiert wird, wenn die zweite obere Schicht ausgewählt wird.
  • Beim Decodieren aller Codedaten kann ein Bild auf solche Weise decodiert werden, dass ein ausgewählter Bereich des Bilds höhere Bildqualität als alle anderen Bereiche desselben aufweist.
  • Obwohl bei den oben beschriebenen bevorzugten Ausführungsformen der Erfindung angenommen ist, dass die Decodiervorrichtung alle Codedaten empfängt, kann sie auch so ausgebildet sein, dass, in einem Videokommunikationssystem, ein Decodierterminal die Codierungsseite dazu auffordert, eine begrenzte Datenmenge zu senden, z.B. Codedaten zur Position und zur Form eines Bereichs, Codedaten der unteren Schicht und Codedaten der ersten Schicht, für Kommunikation über eine Übertragungsleitung mit geringer Bandbreite. D.h., dass durch die Erfindung eine Datenkommunikation realisiert wird, bei der nur Daten der unteren Schicht über eine Übertragungsleitung sehr kleiner Bandbreite übertragen werden oder eine beliebige von zwei Ar ten von Daten einer oberen Schicht selektiv über eine Leitung mit etwas größerer Bandbreite übertragen werden oder alle Arten von Daten über eine Leitung noch größerer Bandbreite übertragen werden.
  • Mit der erfindungsgemäßen Videocodiervorrichtung ist es möglich, die Codedatenmenge zu senken, da aus digitalisierter Information gewichtete Mittelwertinformation erstellt wird, wobei mehrere Teilvideosequenzen auf einer Hintergrund-Videosequenz eingegeben werden und gewichtete Mittelwerte verwendet werden. Da die aus der digitalisierten Information erstellten gewichteten Mittelwertdaten einen Wert von 0 bis 1 einnehmen, kann die Grenze zwischen den Teilbildern und den Hintergrundbildern gleichmäßig synthetisiert werden, ohne dass irgendeine erkennbare Störung auftritt.
  • Beim Gewichten aller noch nicht codierter Daten unter Verwendung von Gewichtungswerten, die zum Synthetisieren von Videosequenzen zu verwenden sind, kann die Codedatenmenge gesenkt werden, oder die Qualität des decodierten Bilds kann beim selben Codedatenumfang gegenüber bekannten Vorrichtungen verbessert werden.
  • Die erfindungsgemäße Videocodiervorrichtung soll Folgendes ausführen:
    • (1) Synthetisieren eines nicht codierten Rahmens einer unteren Schicht aus einem vorigen und einem folgenden Rahmen der unteren Schicht durch gewichtete Mittelwertbildung zweier Rahmen der unteren Schicht, die zeitlich vor und nach dem synthetisierbaren Rahmen vorliegen, für einen Überlappungsabschnitt eines ersten Teilbereichs mit einem zweiten Teilbereich oder einem nicht zum ersten Teilbereich gehörenden Bereich und dem zweiten Teilbereich, unter Verwendung eines Rahmens der unteren Schicht, der zeitlich hinter dem synthetisierbaren Rahmen liegt, für einen Teil nur des ersten Teilbereichs, und unter Verwendung eines Rahmens der unteren Schicht, der zeitlich vor dem synthetisierbaren Rahmen liegt, für einen Teil nur des zweiten Teilbereichs, um dadurch ein synthetisiertes Bild hoher Qualität selbst dann ohne Störung zu erhalten, wenn sich ein Objekt bewegt;
    • (2) Synthetisieren des Rahmens (1) der unteren Schicht unter Verwendung eines Rahmens der unteren Schicht, der zeitlich nahe dem synthetisierbaren Rahmen liegt, für einen Überlappungsabschnitt eines ersten Teilbereichs mit einem zweiten Teilbereich oder einem nicht zum ersten Teilbereich gehörenden Bereich und dem zweiten Teilbereich oder unter Verwendung nur eines ersten Rahmens der unteren Schicht oder nur eines zweiten Rahmens der unteren Schicht, um dadurch ein synthetisiertes Bild hoher Qualität ohne Doppelanzeige des synthetisierten Hintergrundbilds selbst dann zu erhalten, wenn sich das Hintergrundbild bewegt;
    • (3) Synthetisieren des Rahmens (1) der unteren Schicht durch Modifizieren (Verformen) des ersten Rahmens der unteren Schicht, des zweiten Rahmens der unteren Schicht, des ersten Teilbereichs und des zweiten Teilbereichs durch Bewegungskompensation von Bewegungsparametern auf Grundlage der zeitlichen Position des synthetisierbaren Rahmens der unteren Schicht, um dadurch ein synthetisiertes Bild hoher Qualität zu erhalten, wobei der Bewegung eines Hintergrundbilds in den Rahmen der unteren Schicht gefolgt wird;
    • (4) Synthetisieren des Rahmens (3) der unteren Schicht unter Verwendung von Bewegungsvektorinformation, die durch bewegungskompensierende vorhersagende Codierung erhalten wird, um dadurch einen Bewegungsparameter mit verringerterem Verarbeitungsaufwand als im Fall einer Neuvorhersage eines Bewegungsparameters zu erhalten;
    • (5) adaptives Auswählen entweder einer Annäherung der Bereichsinformation durch mehrere geometrische Figuren oder von Codierung ohne Annäherung, um dadurch Bereichsinformation effektiv zu codieren und zu decodieren;
    • (6) Umsetzen von Bereichsinformation (5) in 8-direktionale Quantisierungsdaten, Bestimmen der Differenz zwischen den 8-direktional quantisierten Daten sowie Codieren und Decodieren der Differenzdaten durch Codierung mit variabler Lauflänge, um dadurch ein reversibles Codieren und Decodieren von Bereichsinformation effizienter auszuführen;
    • (7) weiteres effizientes Codieren und Decodieren angenäherter Bereichsinformation (5) durch Bestimmen der Interrahmendifferenz von Information aus geometrischen Figuren, Codieren und Decodieren durch ein Codierverfahren mit variabler Lauflänge, und Hinzufügen von Information, die keine Änderung von Bereichsinformation anzeigt, ohne dass andere Bereichsinformation codiert wird, wenn die Differenzdaten alle 0 sind;
    • (8) horizontales Abtasten von Bereichsinformation zum Erfassen der Länge jeder Linie in dieser und zum Bestimmen einer horizontalen Gewichtungsfunktion; vertikales Abtasten der Bereichsinformation zum Erfassen der Länge einer Linie in derselben und zum Bestimmen einer vertikalen Gewichtungsfunktion; Erzeugen vielwertiger Gewichtungsinformation, um dadurch auf effiziente Weise Gewichtungsinformation durch eine Gewichtungsinformation-Erzeugungsvorrichtung zu erzeugen, wenn ein Teilbild einer oberen Schicht durch ein Verfahren mit gewichteter Mittelwertbildung mit einem Rahmen einer unteren Schicht synthetisiert wird;
    • (9) Codieren und Decodieren von Videorahmen unter Verwendung von Bereichsinformation, die die Form eines Gegenstands oder die Form eines Teils anzeigt, Bestimmen eines Mittelwerts von Pixeln in einem Bereich aus dem eingegebenen Bild und dementsprechend von Bereichsinformation, Berechnen der Differenz zwischen Mittelwerten eines vorigen Rahmens und des aktuellen Rahmens, Vergleichen der Differenz mit einem spezifizierten Wert und Auswählen der Intrarahmencodierung, wenn die Differenz den spezifizierten Wert überschreitet, um es dadurch zu ermöglichen, den Codiermodus korrekt von vorhersagender (Zwischenrahmen) Codierung auf die Intrarahmencodierung umzuschalten, wenn eine Szenenänderung auftritt, und Gewährleisten der Codierung und Decodierung von Bildern hoher Qualität;
    • (10) Auftrennen einer Videosequenz in Hintergrund-Bildbereiche und mehrere Vordergrund-Teilbilder und gesondertes Codieren jedes gesonderten Hintergrundbereichs und jedes Teilbildbereichs durch Bestimmen, ob innerhalb oder außerhalb eines Teilbereichs Codedaten und codierbare Blöcke existieren, was durch gesondertes Berechnen der Codedatenmenge im Teilbildbereich und der Codedatenmenge im Hintergrundbildbereich und durch Bestimmen von Sollbitmenge-Verteilungsverhältnissen für den Teilbildbereich und den Hintergrundbildbereich erfolgt, um dadurch für korrekte Verteilung der Sollbitzahl zu sorgen, um codierte Bilder hoher Qualität zu erhalten.
  • 1) Übersetzung von nach Bezugszeichen geordnetem Beschriftungstext
  • 1
    Codierabschnitt für die erste obere Schicht
    2
    Codierabschnitt für die zweite obere Schicht
    3
    Codedaten-Integrierabschnitt
    4
    Codierabschnitt für die untere Schicht
    5
    Bereichsauswählabschnitt
    6
    Bereichs-Position/Form-Codierabschnitt
    7
    Codedaten-Trennabschnitt
    8
    Decodierabschnitt für die untere Schicht
    9
    Bereichs-Position/Form-Decodierabschnitt
    10
    Codedaten-Trennabschnitt
    11
    Decodierabschnitt für die erste obere Schicht
    12
    Decodierabschnitt für die zweite obere Schicht
    14
    Synthetisierabschnitt für die obere Schicht
    20
    Bereichsauswählabschnitt
    21
    Bereichs-Position/Form-Codierabschnitt
    22
    Codedaten-Integrierabschnitt
    23
    Codeparameter-Steuerabschnitt
    24
    Parametercodierabschnitt
    25
    Videocodierabschnitt
    101
    erster Videocodierabschnitt
    102
    zweiter Videocodierabschnitt
    103
    Bereichsinformation-Codierabschnitt
    104
    Übertragung oder Ansammlung
    105
    erster Videodecodierabschnitt
    106
    zweiter Videodecodierabschnitt
    107
    Bereichsinformation-Decodierabschnitt
    108
    erster Gewichtungsabschnitt
    109
    zweiter Gewichtungsabschnitt
    110
    Alphaebene-Erzeugungsabschnitt
    112
    Alphaebene-Codierabschnitt
    113
    Alphaebene-Decodierabschnitt
    120
    Alphaebene-Erzeugungsabschnitt
    121
    Alphaebene-Erzeugungsabschnitt
    122
    erster Videocodierabschnitt
    123
    zweiter Videocodierabschnitt
    124
    erster Videodecodierabschnitt
    125
    zweiter Videodecodierabschnitt
    131
    Transformationsabschnitt
    132
    Gewichtungsabschnitt
    133
    Quantisierungsabschnitt
    134
    Abschnitt für Codierung mit variabler Lauflänge
    135
    Transformationsabschnitt
    136
    Quantisierungsabschnitt
    137
    Codierabschnitt
    138
    Quantisierungsschrittweite-Änderungsabschnitt
    141
    Abschnitt für Decodierung mit variabler Lauflänge
    142
    Abschnitt für inverse Quantisierung
    143
    Gewichtungsumkehrabschnitt
    144
    Abschnitt für inverse Transformation
    145
    Abschnitt für Codierung mit variabler Lauflänge
    146
    Abschnitt für inverse Quantisierung
    147
    Abschnitt für inverse Transformation
    148
    Quantisierungsschrittweite-Änderungsabschnitt
    150
    Gewichtungsabschnitt
    151
    Videocodierabschnitt
    160
    Videodecodierabschnitt
    161
    Abschnitt für inverse Quantisierung
    201
    erster Rahmenausdünnabschnitt
    202
    zweiter Rahmenausdünnabschnitt
    203
    Codierabschnitt für die obere Schicht
    204
    Codierabschnitt für die untere Schicht
    205
    Synthetisierabschnitt
    206
    Bereichsinformation-Codierabschnitt
    207
    Decodierabschnitt für die obere Schicht
    208
    Decodierabschnitt für die untere Schicht
    209
    Bereichsinformation-Decodierabschnitt
    210
    Synthetisierabschnitt
    211
    Quantisierungsweite(Schrittgröße)-Berechnungsabschnitt
    212
    Codierabschnitt
    213
    Codedatenmenge-Berechnungsabschnitt
    221
    erster Bereichsinformation-Entnahmeabschnitt
    222
    zweiter Bereichsinformation-Entnahmeabschnitt
    223
    Steuereinrichtung
    224
    Schalter
    225
    Interpolationsbild-Erzeugungsabschnitt
    226
    Abschnitt für gewichtete Mittelwertbildung
    231
    Bewegungsparameter-Abschätzabschnitt
    232
    Verformungsabschnitt
    241
    Bereichsinformation-Annäherungsabschnitt
    242
    Annäherungsbereichsinformation-Codierabschnitt
    243
    Bereichsinformation-Codierabschnitt
    244
    Auswählabschnitt
    251
    Auswählabschnitt
    252
    Annäherungsbereichsinformation-Decodierabschnitt
    253
    Bereichsinformation-Decodierabschnitt
    254
    Schalter
    261
    Horizontalgewichtung-Erzeugungsabschnitt
    262
    Vertikalgewichtung-Erzeugungsabschnitt
    271
    Mittelwert-Berechnungsabschnitt
    272
    Speicherabschnitt
    274
    Unterscheidungsabschnitt
    281
    Bereichsunterscheidungsabschnitt
    282
    Quantisierungsweite(Schrittgröße)-Berechnungsabschnitt
    283
    Codierabschnitt
    284
    Verteilungsverhältnis-Berechnungsabschnitt (für Sollcodedatenmenge)
    285
    Codedatenmenge-Berechnungsabschnitt
  • 2) Übersetzung von alphabetisch geordnetem Beschriftungstext
    • Alpha-Plane // Alphaebene
    • Area Belonging To First Area Only // Bereich, der nur zum ersten Bereich gehört
    • Area Belonging To Second Area Only // Bereich, der nur zum zweiten Bereich gehört
    • Area Information // Bereichsinformation
    • Area Information Of Human Figure // Bereichsinformation zu einer menschlichen Gestalt
    • Area Not To Be Encoded // nicht zu codierender Bereich
    • Coded Area // codierter Bereich
    • Coded Data // Codedaten
    • Coding Device // Codiervorrichtung
    • Conversion Into A High-Resolution Image // Umsetzung in ein Bild hoher Auflösung
    • Conversion Into A Low-Resolution Image // Umsetzung in ein Bild niedriger Auflösung
    • Copy // kopieren
    • Decoded Area : Selected Area // decodierter Bereich : ausgewählter Bereich
    • Decoded Area : Whole Image // decodierter Bereich : gesamtes Bild
    • Decoded Image // decodiertes Bild
    • Decoded Video-Sequence // decodierte Videosequenz
    • Decoding : All Layers // Decodieren : alle Schichten
    • Decoding : To First Upper-Layer // Decodieren : für die erste obere Schicht
    • Decoding : To Lower-Layer // Decodieren : für die untere Schicht
    • Decoding Device // Decodiervorrichtung
    • First Area Information // erste Bereichsinformation
    • First Upper-Layer Coded Area : Other Area // Codebereich der ersten oberen
    • Schicht : anderer Bereich
    • First Upper-Layer Encoding // Codierung für die erste obere Schicht
    • First Video-Sequence // erste Videosequenz
    • Fixed Ratio (1 – RO) // festes Verhältnis (1 – RO)
    • Fixed Ratio RO // festes Verhältnis RO
    • High Image Quality // hohe Bildqualität
    • Horizontal Direction // horizontale Richtung
    • Horizontal Weight Function // Horizontalgewichtungsfunktion
    • Image // Bild
    • Image After Synthesizing Thereon Upper-Layer Decoded Image // Bild, nach dem auf dieses das decodierte Bild der oberen Schicht synthetisiert wurde
    • Image Quality : High // Bildqualität : hoch
    • Image Quality : Low // Bildqualität : niedrig
    • Interpolation // interpolieren
    • Intraframe Coding // Intrarahmencodierung
    • Low Image Quality // niedrige Bildqualität
    • Lower Layer // untere Schicht
    • Lower-Layer Coded Area : Selected Area // Codebereich der unteren Schicht ausgewählter Bereich
    • Lower-Layer Decoded Image // decodiertes Bild der unteren Schicht
    • Lower-Layer Encoding // Codierung für die untere Schicht
    • Lower-Layer First-Area-Information // Information für den ersten Bereich in der unteren Schicht
    • Lower-Layer First Decoded Image // erstes decodiertes Bild der unteren Schicht
    • Lower-Layer Second-Area-Information // Information für den zweiten Bereich in der unteren Schicht
    • Lower-Layer Second Decoded Image // zweites decodiertes Bild der unteren Schicht
    • Minimal Value Rm Of Both Ratios // Minimalwert Rm beider Verhältnisse
    • Mean Value (1 – Ra) Of Both Ratios // Mittelwert (1 – Ra) beider Verhältnisse
    • Mean Value Ra Of Both Ratios // Mittelwert Ra beider Verhältnisse
    • Mode Changing Information // Modusänderungsinformation
    • Motion Compensative Prediction // bewegungskompensierende Vorhersage
    • Original Image // ursprüngliches Bild
    • Other Area : Low Image Quality // anderer Bereich : niedrige
    • Outside The Selected Area // außerhalb des ausgewählten Bereichs
    • Preceding Frame Complexity Ratio (1 – Rp) // Komplexitätsverhältnis Rp für den vorigen Rahmen (1 – Rp)
    • Preceding Frame Complexity Ratio Rp // Komplexitätsverhältnis Rp für den vorigen Rahmen
    • Prediction From Lower-Layer // Vorhersage aus der unteren Schicht
    • Prior Art // Stand der Technik
    • Quantization Step : Large // Quantisierungsschritt : groß
    • Quantization Step : Small // Quantisierungsschritt : klein
    • Quantizing Step Width // Quantisierungsschrittweite
    • Ration Of Target Coded-Data Amount // Verhältnis der Sollcodedatenmenge
    • Rectangle // Rechteck
    • Second Area Information // zweite Bereichsinformation
    • Second-Upper-Layer Encoding // Codierung für die zweite obere Schicht
    • Second Video-Sequence // zweite Videosequenz
    • Selected Area // ausgewählter Bereich
    • Selected Area (Coded Area) // ausgewählter Bereich (codierter Bereich
    • Selected Area : High Image Quality // ausgewählter Bereich Bild hoher Qualität
    • Spatial Resolution : High // räumliche Auflösung : hoch
    • Spatial Resolution : Low // räumliche Auflösung : niedrig
    • Synthesized Image Generated From Upper-Layer and Lower-Layer Decoded Image // aus den decodierten Bildern der oberen und der unteren Schicht erzeugtes synthetisiertes Bild
    • Synthesized Video-Sequence // synthetisierte Videosequenz
    • The Number Of Frames // Anzahl der Rahmen
    • Time // Zeit
    • Time Resolution : High // zeitliche Auflösung : hoch
    • Timer Resolution : Low // zeitliche Auflösung : niedrig
    • To Coded-Data Integrating Portion // zum Codedaten-Integrierabschnitt
    • To Synthesizing Portion // zum Synthetisierabschnitt
    • Transmission Or Accumulation // Übertragung oder Ansammlung
    • Upper Layer // obere Schicht
    • Upper-Layer Area Information // Bereichsinformation der oberen Schicht
    • Upper-Layer Coding Portion Or Upper-Layer Decoding Portion // Codier- oder
    • Decodierabschnitt für die obere Schicht
    • Upper-Layer Decoded Image // decodiertes Bild der oberen Schicht
    • Vertical Direction // vertikale Richtung
    • Vertical Weight Function // Vertikalgewichtungsfunktion
    • Video Image // Videobild
    • Weight Information // Gewichtungsinformation

Claims (4)

  1. Videocodiervorrichtung mit einer Video-Codiereinrichtung zum Codieren eines spezifizierten Teilbereichs einer Videosequenz sowie einer Bereichsinformations-Codiereinrichtung (103) zum Codieren von Bereichsinformation, die die Form eines spezifizierten Teilbereichs repräsentiert, dadurch gekennzeichnet, dass die Bereichsinformation-Codiereinrichtung (103) eine Bereichsinformation-Annäherungseinrichtung zum Annähern der Bereichsform durch eine gröbere, stufenförmige Form, eine Annäherungsbereichsinformations-Codiereinrichtung zum Codieren der Bereichsinformation, die eine durch die Bereichsinformation-Codiereinrichtung angenäherte Bereichsform repräsentiert, eine Bereichsinformation-Codiereinrichtung zum Codieren der Bereichsinformation ohne Annäherung der Bereichsform, eine adaptive Auswähleinrichtung zum adaptiven Auswählen entweder der Annäherungsbereichsinformation-Codiereinrichtung oder der Bereichsinformation-Codiereinrichtung aufweist, und die Vorrichtung ferner mit einer Codierte-Daten-Integriereinrichtung zum Integrieren von Auswählinformation, die das durch die adaptive Auswähleinrichtung getroffene Auswählergebnis repräsentiert, codierten Daten eines durch die Video-Codiereinrichtung codierten Teilvideos und codierten Daten von durch die Bereichsinformation-Codiereinrichtung codierter Bereichsinformation versehen ist, wobei der spezifizierte Teilbereich auf andere Weise als der Rest des Bilds codiert wird, um über eine höhere Bildqualität zu verfügen.
  2. Videocodiervorrichtung nach Anspruch 1, bei der die Bereichsinformation-Codiereinrichtung über eine Bereichsinformation-Wandlungseinrichtung zum Wandeln von Bereichsinformation in in oktaler Richtung quantisierte Daten, eine Differenzdaten-Berechnungseinrichtung zum Ermitteln von Differenzdaten der in oktaler Richtung quantisierten Daten sowie eine Variable-Länge-Codiereinrichtung zum Codieren der Differenzdaten mit variabler Länge verfügt.
  3. Videodecodiervorrichtung mit einer Video-Decodiereinrichtung zum Decodieren codierter Daten eines spezifizierten Teilbereichs einer Videosequenz sowie einer Bereichsinformation-Decodiereinrichtung (107) zum Decodieren codierter Bereichsinformationsdaten, die die Form des spezifizierten Teilbereichs repräsentieren, dadurch gekennzeichnet, dass die Bereichsinformation-Decodiereinrichtung (107) über eine Annäherungsbereichsinformations-Decodiereinrichtung zum Decodieren von Bereichsinformation, die durch eine Bereichsform repräsentiert ist, die durch eine gröbere, stufenförmige Form angenähert ist, eine Bereichsinformation-Decodiereinrichtung zum Decodieren von Bereichsinformation, die eine nicht angenäherte Bereichsform repräsentiert, eine adaptive Auswähleinrichtung zum adaptiven Auswählen entweder der Annäherungsbereichsinformation-Codiereinrichtung oder der Bereichsinformation-Decodiereinrichtung abhängig von Bereichsinformation, die repräsentiert, ob die codierten Daten der Bereichsinformation angenäherter Bereichsinformation entsprechen oder nicht, verfügt.
  4. Videodecodiervorrichtung nach Anspruch 3, bei der die Bereichsinformation-Decodiereinrichtung ferner über eine Variable-Länge-Decodiereinrichtung zum Variable-Länge-Decodieren von Differenzdaten von in 8-dimensionale quantisierte Daten gewandelter Bereichsinformation verfügt und sie die 8-dimensionalen quantisierten Daten aus den decodierten Differenzdaten berechnet und die Bereichsinformation decodiert.
DE69634423T 1995-07-14 1996-07-09 Videokodierung- und dekodierungsvorrichtung Expired - Lifetime DE69634423T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP7178643A JPH0937240A (ja) 1995-07-14 1995-07-14 動画像符号化装置及び動画像復号装置
JP17864395 1995-07-14
JP17864295A JP3098939B2 (ja) 1995-07-14 1995-07-14 動画像符号化装置及び動画像復号装置
JP17864295 1995-07-14
JP27550195 1995-10-24
JP27550195A JP3101195B2 (ja) 1995-10-24 1995-10-24 画像符号化装置及び画像復号装置

Publications (2)

Publication Number Publication Date
DE69634423D1 DE69634423D1 (de) 2005-04-07
DE69634423T2 true DE69634423T2 (de) 2006-04-13

Family

ID=27324610

Family Applications (4)

Application Number Title Priority Date Filing Date
DE69628467T Expired - Fee Related DE69628467T2 (de) 1995-07-14 1996-07-09 Videokodierung- und dekodierungsvorrichtung
DE69626142T Expired - Lifetime DE69626142T2 (de) 1995-07-14 1996-07-09 Videokodierung- und dekodierungsvorrichtung
DE69634423T Expired - Lifetime DE69634423T2 (de) 1995-07-14 1996-07-09 Videokodierung- und dekodierungsvorrichtung
DE69615948T Expired - Lifetime DE69615948T2 (de) 1995-07-14 1996-07-09 Hierarchischer Bildkodierer und -dekodierer

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE69628467T Expired - Fee Related DE69628467T2 (de) 1995-07-14 1996-07-09 Videokodierung- und dekodierungsvorrichtung
DE69626142T Expired - Lifetime DE69626142T2 (de) 1995-07-14 1996-07-09 Videokodierung- und dekodierungsvorrichtung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69615948T Expired - Lifetime DE69615948T2 (de) 1995-07-14 1996-07-09 Hierarchischer Bildkodierer und -dekodierer

Country Status (3)

Country Link
US (6) US6023301A (de)
EP (4) EP0961498B1 (de)
DE (4) DE69628467T2 (de)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3249729B2 (ja) * 1995-10-24 2002-01-21 シャープ株式会社 画像符号化装置及び画像復号装置
ES2190995T3 (es) * 1996-05-17 2003-09-01 Matsushita Electric Ind Co Ltd Decodificador de video con compensacion de movimiento.
JP3224514B2 (ja) * 1996-08-21 2001-10-29 シャープ株式会社 動画像符号化装置および動画像復号装置
AU759435B2 (en) * 1996-09-09 2003-04-17 Sony Corporation Picture encoding and decoding
JP3263807B2 (ja) 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
AU731425B2 (en) * 1996-09-09 2001-03-29 Sony Corporation Picture encoding and decoding
CN1243635A (zh) * 1997-01-10 2000-02-02 松下电器产业株式会社 图像处理方法、图像处理装置及数据记录媒体
JP3223962B2 (ja) 1997-01-24 2001-10-29 松下電器産業株式会社 画像復号化方法
JP3213561B2 (ja) 1997-02-05 2001-10-02 シャープ株式会社 画像符号化装置及び画像復号装置
US5974172A (en) * 1997-02-14 1999-10-26 At&T Corp Method and apparatus for coding segmented regions which may be transparent in video sequences for content-based scalability
US6208693B1 (en) * 1997-02-14 2001-03-27 At&T Corp Chroma-key for efficient and low complexity shape representation of coded arbitrary video objects
US6618444B1 (en) 1997-02-14 2003-09-09 At&T Corp. Scene description nodes to support improved chroma-key shape representation of coded arbitrary images and video objects
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
KR100373331B1 (ko) * 1997-07-02 2003-04-21 주식회사 팬택앤큐리텔 스캔 인터리빙 방법을 이용한 신축형 모양정보 부호화/복호화장치 및 방법
JP3191922B2 (ja) 1997-07-10 2001-07-23 松下電器産業株式会社 画像復号化方法
AU731906B2 (en) 1997-07-18 2001-04-05 Sony Corporation Image signal multiplexing apparatus and methods, image signal demultiplexing apparatus and methods, and transmission media
US6229850B1 (en) * 1997-07-22 2001-05-08 C-Cube Semiconductor Ii, Inc. Multiple resolution video compression
US6477202B1 (en) 1997-09-03 2002-11-05 Matsushita Electric Industrial Co., Ltd. Apparatus of layered picture coding, apparatus of picture decoding, methods of picture decoding, apparatus of recording for digital broadcasting signal, and apparatus of picture and audio decoding
US6714591B1 (en) 1998-01-27 2004-03-30 Sharp Kabushiki Kaisha Video image coding device and video image decoding device
JP4261630B2 (ja) * 1998-02-04 2009-04-30 キヤノン株式会社 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体
JP2000023162A (ja) * 1998-06-29 2000-01-21 Sony Corp 符号化装置及び符号化方法
US6351493B1 (en) * 1998-06-30 2002-02-26 Compaq Computer Corporation Coding an intra-frame upon detecting a scene change in a video sequence
US6122014A (en) * 1998-09-17 2000-09-19 Motorola, Inc. Modified chroma keyed technique for simple shape coding for digital video
JP4272771B2 (ja) * 1998-10-09 2009-06-03 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体
JP3709092B2 (ja) * 1999-03-09 2005-10-19 ペンタックス株式会社 画像圧縮装置および画像伸張装置
JP3857829B2 (ja) * 1999-03-09 2006-12-13 ペンタックス株式会社 画像圧縮装置および画像伸張装置
US7254824B1 (en) * 1999-04-15 2007-08-07 Sedna Patent Services, Llc Encoding optimization techniques for encoding program grid section of server-centric interactive programming guide
DE60028486T2 (de) * 1999-04-16 2006-12-28 Koninklijke Philips Electronics N.V. Videocoder und -decoder
KR20000074515A (ko) * 1999-05-21 2000-12-15 윤종용 액정표시장치 및 그의 화상 신호 전송 배선 형성 방법
US6934906B1 (en) 1999-07-08 2005-08-23 At&T Corp. Methods and apparatus for integrating external applications into an MPEG-4 scene
US6788740B1 (en) * 1999-10-01 2004-09-07 Koninklijke Philips Electronics N.V. System and method for encoding and decoding enhancement layer data using base layer quantization data
US6639943B1 (en) * 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6907073B2 (en) * 1999-12-20 2005-06-14 Sarnoff Corporation Tweening-based codec for scaleable encoders and decoders with varying motion computation capability
FR2806570B1 (fr) 2000-03-15 2002-05-17 Thomson Multimedia Sa Procede et dispositif de codage d'images video
WO2001074082A1 (en) * 2000-03-27 2001-10-04 Teranex, Inc. Temporal interpolation of interlaced or progressive video images
JP4224662B2 (ja) * 2000-08-09 2009-02-18 ソニー株式会社 画像符号化装置および方法、画像復号装置および方法、ならびに画像処理装置
FR2813485B1 (fr) 2000-08-24 2003-12-26 France Telecom Procede de construction d'au moins une image interpolee entre deux images d'une sequence animee, procedes de codage et de decodage, signal et support de donnees correspondant
US7133449B2 (en) * 2000-09-18 2006-11-07 Broadcom Corporation Apparatus and method for conserving memory in a fine granularity scalability coding system
US6621865B1 (en) 2000-09-18 2003-09-16 Powerlayer Microsystems, Inc. Method and system for encoding and decoding moving and still pictures
KR20030005166A (ko) * 2000-11-23 2003-01-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 코딩 방법 및 대응하는 인코더
FR2822330B1 (fr) * 2001-03-14 2003-05-02 Thomson Multimedia Sa Procede de codage par blocs, de type mpeg, dans lequel on affecte une resolution a chaque bloc
EP1244311A3 (de) * 2001-03-22 2004-10-06 Sony Corporation Bildkodierung
JP3970102B2 (ja) * 2001-06-28 2007-09-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
KR100440953B1 (ko) * 2001-08-18 2004-07-21 삼성전자주식회사 영상 압축 비트 스트림의 트랜스코딩 방법
US20030107648A1 (en) * 2001-12-12 2003-06-12 Richard Stewart Surveillance system and method with adaptive frame rate
JPWO2003079692A1 (ja) * 2002-03-19 2005-07-21 富士通株式会社 階層符号化装置および復号装置
AU2003237289A1 (en) * 2002-05-29 2003-12-19 Pixonics, Inc. Maintaining a plurality of codebooks related to a video signal
US20060256867A1 (en) * 2002-09-06 2006-11-16 Turaga Deepak S Content-adaptive multiple description motion compensation for improved efficiency and error resilience
KR100552169B1 (ko) * 2002-10-15 2006-02-13 에스케이 텔레콤주식회사 이동통신 시스템의 비디오 스트리밍 압축 장치
JP4222869B2 (ja) * 2002-12-10 2009-02-12 株式会社ソニー・コンピュータエンタテインメント 画像再生装置
JP4003128B2 (ja) * 2002-12-24 2007-11-07 ソニー株式会社 画像データ処理装置および方法、記録媒体、並びにプログラム
US9171577B1 (en) * 2003-04-25 2015-10-27 Gopro, Inc. Encoding and decoding selectively retrievable representations of video content
US20130107938A9 (en) * 2003-05-28 2013-05-02 Chad Fogg Method And Apparatus For Scalable Video Decoder Using An Enhancement Stream
US7616220B2 (en) * 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
US7889792B2 (en) 2003-12-24 2011-02-15 Apple Inc. Method and system for video encoding using a variable number of B frames
US7453938B2 (en) * 2004-02-06 2008-11-18 Apple Inc. Target bitrate estimator, picture activity and buffer management in rate control for video coder
US7986731B2 (en) 2004-02-06 2011-07-26 Apple Inc. H.264/AVC coder incorporating rate and quality controller
US7492820B2 (en) * 2004-02-06 2009-02-17 Apple Inc. Rate control for video coder employing adaptive linear regression bits modeling
US7869503B2 (en) 2004-02-06 2011-01-11 Apple Inc. Rate and quality controller for H.264/AVC video coder and scene analyzer therefor
CA2557534A1 (en) * 2004-02-27 2005-09-09 Td Vision Corporation S.A. De C.V. Method and system for digital decoding 3d stereoscopic video images
JP2007525906A (ja) 2004-02-27 2007-09-06 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 立体3dビデオイメージディジタルコーディングのシステムおよび方法
JP4710252B2 (ja) * 2004-05-28 2011-06-29 コニカミノルタホールディングス株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JP4438062B2 (ja) * 2004-10-06 2010-03-24 キヤノン株式会社 符号化装置、符号化装置の制御方法
DE102004059993B4 (de) 2004-10-15 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Bewegungsdaten-Prädiktion sowie Computerprogramm und computerlesbares Medium
JP2008517498A (ja) * 2004-10-15 2008-05-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間レイヤ動きデータ予測を用いて符号化されたビデオシーケンスを生成するための装置および方法
JP5122288B2 (ja) * 2004-10-15 2013-01-16 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間レイヤ残余値予測を用いて符号化されたビデオシーケンスを生成および符号化されたビデオシーケンスを復号化するための装置および方法
FR2876860A1 (fr) * 2004-10-20 2006-04-21 Thomson Licensing Sa Procede de codage hierarchique d'images video
KR100703740B1 (ko) * 2004-10-21 2007-04-05 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
US7574059B2 (en) * 2004-10-29 2009-08-11 Broadcom Corporation System, method, and apparatus for providing massively scaled down video using iconification
KR100704626B1 (ko) * 2005-02-07 2007-04-09 삼성전자주식회사 다 계층 기반의 모션 벡터를 압축하는 방법 및 장치
JP4037875B2 (ja) * 2005-02-24 2008-01-23 株式会社東芝 コンピュータグラフィックスデータ符号化装置、復号化装置、符号化方法、および、復号化方法
US8693537B2 (en) * 2005-03-01 2014-04-08 Qualcomm Incorporated Region-of-interest coding with background skipping for video telephony
US8768084B2 (en) * 2005-03-01 2014-07-01 Qualcomm Incorporated Region-of-interest coding in video telephony using RHO domain bit allocation
EP1862010A4 (de) * 2005-03-25 2011-08-17 Korea Electronics Telecomm Hierarchisches videocodierungs-/-decodierungsverfahren für vollständige räumliche skalierbarkeit und vorrichtung dafür
US8358701B2 (en) * 2005-04-15 2013-01-22 Apple Inc. Switching decode resolution during video decoding
US8223840B2 (en) * 2005-04-27 2012-07-17 Nec Corporation Image decoding method of decoding hierarchy-encoded image data in respective hierarchies, and a device thereof
KR100763182B1 (ko) * 2005-05-02 2007-10-05 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
WO2006118384A1 (en) 2005-05-02 2006-11-09 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding multi-layer video using weighted prediction
KR101255226B1 (ko) * 2005-09-26 2013-04-16 한국과학기술원 스케일러블 비디오 코딩에서 다중 roi 설정, 복원을위한 장치 및 방법
CN101313578B (zh) * 2005-09-26 2011-10-19 韩国电子通信研究院 用于在可伸缩视频编码中定义和重构感兴趣区域的方法和装置
US7978886B2 (en) * 2005-09-30 2011-07-12 General Electric Company System and method for anatomy based reconstruction
KR100727390B1 (ko) * 2005-12-26 2007-06-12 삼성전자주식회사 적응적인 영상크기 변환장치 및 그의 영상크기 변환방법
US8401091B2 (en) * 2006-01-09 2013-03-19 Lg Electronics Inc. Inter-layer prediction method for video signal
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
KR100781525B1 (ko) * 2006-04-06 2007-12-03 삼성전자주식회사 가중 평균합을 이용하여 fgs 계층을 인코딩 및디코딩하는 방법 및 장치
JP2008160300A (ja) * 2006-12-21 2008-07-10 Canon Inc 画像処理装置及び撮像装置
JP2008197829A (ja) * 2007-02-09 2008-08-28 Sony Corp 画像処理装置と方法およびプログラムと記録媒体
CN101690229A (zh) * 2007-06-26 2010-03-31 诺基亚公司 用于指示时间层切换点的系统和方法
KR20090017296A (ko) * 2007-08-14 2009-02-18 삼성전자주식회사 중간 프레임의 영상을 생성하기 위한 영상처리방법 및 이를적용한 영상처리장치
JP4882956B2 (ja) * 2007-10-22 2012-02-22 ソニー株式会社 画像処理装置および画像処理方法
US20090167947A1 (en) * 2007-12-27 2009-07-02 Naoko Satoh Video data processor and data bus management method thereof
US8456380B2 (en) * 2008-05-15 2013-06-04 International Business Machines Corporation Processing computer graphics generated by a remote computer for streaming to a client computer
US8780986B2 (en) * 2008-06-06 2014-07-15 Apple Inc. Refresh pixel group selection and coding adjustment
US9445121B2 (en) 2008-08-04 2016-09-13 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
JP5257215B2 (ja) * 2009-04-16 2013-08-07 ソニー株式会社 画像符号化装置と画像符号化方法
KR101452713B1 (ko) 2009-10-30 2014-10-21 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치
JP5801614B2 (ja) * 2011-06-09 2015-10-28 キヤノン株式会社 画像処理装置、画像処理方法
JP5839848B2 (ja) 2011-06-13 2016-01-06 キヤノン株式会社 画像処理装置、画像処理方法
JP5556829B2 (ja) * 2012-02-09 2014-07-23 コニカミノルタ株式会社 遠隔操作システム、画像形成装置、遠隔操作装置およびプログラム
EP2670139A1 (de) * 2012-06-01 2013-12-04 Alcatel Lucent Verfahren und Vorrichtung zur Codierung eines Video-Streams mit einem Transparenzinformationskanal
US10484697B2 (en) * 2014-09-09 2019-11-19 Qualcomm Incorporated Simultaneous localization and mapping for video coding
US9813721B2 (en) * 2014-11-20 2017-11-07 Getgo, Inc. Layer-based video encoding
US10237559B2 (en) * 2014-11-20 2019-03-19 Getgo, Inc. Layer-based video decoding
JP6468847B2 (ja) * 2015-01-07 2019-02-13 キヤノン株式会社 画像復号装置、画像復号方法、及びプログラム
US9824278B2 (en) * 2015-06-24 2017-11-21 Netflix, Inc. Determining native resolutions of video sequences
CN113473131B (zh) * 2021-07-01 2023-12-29 成都国科微电子有限公司 视频编码码率动态调节方法、装置、电子设备及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5136659A (en) * 1987-06-30 1992-08-04 Kokusai Denshin Denwa Kabushiki Kaisha Intelligent coding system for picture signal
US4956704A (en) * 1987-10-23 1990-09-11 Canon Kabushiki Kaisha Image processing apparatus and methods for making a creative image from an original image
US4992868A (en) * 1989-02-28 1991-02-12 Holtz Klaus E True information television (TITV) and vision system
US5247357A (en) * 1989-05-31 1993-09-21 Scientific Atlanta, Inc. Image compression method and apparatus employing distortion adaptive tree search vector quantization with avoidance of transmission of redundant image data
DE69033797T2 (de) * 1989-10-14 2002-04-18 Sony Corp Verfahren und Anordnung zum Kodieren/Dekodieren eines Videosignales
JPH082107B2 (ja) * 1990-03-02 1996-01-10 国際電信電話株式会社 動画像のハイブリッド符号化方法及びその装置
US5155594A (en) * 1990-05-11 1992-10-13 Picturetel Corporation Hierarchical encoding method and apparatus employing background references for efficiently communicating image sequences
JP3037383B2 (ja) * 1990-09-03 2000-04-24 キヤノン株式会社 画像処理システム及びその方法
US5260783A (en) * 1991-02-21 1993-11-09 Gte Laboratories Incorporated Layered DCT video coder for packet switched ATM networks
JP3364233B2 (ja) * 1991-08-09 2003-01-08 富士通株式会社 画像符号/復号方式
US5214506A (en) * 1991-08-30 1993-05-25 Bell Communications Research, Inc. Low bit-rate video coding technique
JP3068304B2 (ja) * 1992-01-21 2000-07-24 日本電気株式会社 動画像符号化方式および復号化方式
US5262856A (en) * 1992-06-04 1993-11-16 Massachusetts Institute Of Technology Video image compositing techniques
NL9201593A (nl) * 1992-09-14 1994-04-05 Nederland Ptt Systeem omvattende een eerste encoder voor het coderen van een eerste digitaal signaal, een tweede encoder voor het coderen van een tweede digitaal signaal en ten minste één decoder voor het decoderen van gecodeerde digitale signalen, en encoder en decoder voor toepassing in het systeem.
AU694096B2 (en) * 1992-11-16 1998-07-16 Multimedia Systems Corporation Method for the production and transmission of enhanced interactive multimedia information
JPH06223155A (ja) * 1993-01-22 1994-08-12 Matsushita Electric Works Ltd 画像記憶方式
US5408274A (en) * 1993-03-11 1995-04-18 The Regents Of The University Of California Method and apparatus for compositing compressed video data
JPH0730888A (ja) * 1993-06-24 1995-01-31 Canon Inc 動画像送信装置及び動画像受信装置
EP0633546B1 (de) * 1993-07-02 2003-08-27 Siemens Corporate Research, Inc. Hintergrundrückgewinnung in monokularer Bildverarbeitung
EP1130922B1 (de) * 1993-07-12 2008-09-24 Sony Corporation Verabeitung von digitalen Videodaten
CA2126467A1 (en) * 1993-07-13 1995-01-14 Barin Geoffry Haskell Scalable encoding and decoding of high-resolution progressive video
US5488411A (en) * 1994-03-14 1996-01-30 Multimedia Systems Corporation Interactive system for a closed cable network
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
US5821986A (en) * 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
FR2729266A1 (fr) * 1995-01-10 1996-07-12 France Telecom Procede d'interpolation d'images
US5982438A (en) * 1996-03-22 1999-11-09 Microsoft Corporation Overlapped motion compensation for object coding

Also Published As

Publication number Publication date
EP0753970B1 (de) 2001-10-17
DE69626142T2 (de) 2004-01-15
US5963257A (en) 1999-10-05
EP0753970A3 (de) 1999-08-25
DE69615948T2 (de) 2002-06-20
EP0961498B1 (de) 2005-03-02
EP0961496A3 (de) 2000-10-25
EP0961497A3 (de) 2000-10-25
DE69634423D1 (de) 2005-04-07
DE69626142D1 (de) 2003-03-13
DE69628467T2 (de) 2004-02-19
EP0961498A2 (de) 1999-12-01
EP0753970A2 (de) 1997-01-15
US5986708A (en) 1999-11-16
US6088061A (en) 2000-07-11
US6084914A (en) 2000-07-04
EP0961496B1 (de) 2003-05-28
DE69615948D1 (de) 2001-11-22
EP0961496A2 (de) 1999-12-01
US6023301A (en) 2000-02-08
US6023299A (en) 2000-02-08
DE69628467D1 (de) 2003-07-03
EP0961498A3 (de) 2000-10-25
EP0961497A2 (de) 1999-12-01
EP0961497B1 (de) 2003-02-05

Similar Documents

Publication Publication Date Title
DE69634423T2 (de) Videokodierung- und dekodierungsvorrichtung
DE69738494T2 (de) Videokodierungs- und Videodekodierungsvorrichtung
DE69733007T2 (de) Vorrichtung zur codierung und decodierung von bewegtbildern
DE69233466T2 (de) Kodierungssystem
DE69530336T2 (de) Bewegungskompensation für digitale Videosignale mit Zeilensprung
DE69928010T2 (de) Erhöhte videowiedergabebildfrequenz in videoanwendungen
DE69920429T2 (de) Bewegungsschätzungssystem und -verfahren
DE69837003T2 (de) Vorrichtung und verfahren zur optimierung der bitratensteurung in einem kodiersystem
DE69535228T2 (de) Bildumsetzungsvorrichtung
DE60214837T2 (de) Erkennung und genaue skalierung bewegter bereiche mit zeilensprung in mpeg-2 komprimiertem video
DE69233620T2 (de) Adaptive Kodierung und Dekodierung von Vollbildern und Halbbildern von Videosignalen
DE10190285B4 (de) Verfahren und System zur Verarbeitung von komprimierten Videosignalen
DE69908562T2 (de) Bewegungsvektorenextrapolation zur transkodierung von videosequenzen
DE3704777C1 (de) Verfahren zum UEbertragen und zum Wiedergeben von Fernsehbildsequenzen
DE69735838T2 (de) Videokodierer mit Transformationskoeffizientenprädiktion
DE69435000T2 (de) Bildkodierungsvorrichtung
DE69937462T2 (de) Effiziente macroblockheaderkodierung zur videokompression
DE60027955T2 (de) Verfahren und Vorrichtung zur kontextbasierten Inter/Intra Kodierungsmodeauswahl
DE19704439C2 (de) Verfahren und Vorrichtung zur Bewegungsschätzung in einem digitalen Videocodierer unter Verwendung von Trajektorien
EP1025708B1 (de) Verfahren und vorrichtung zur verarbeitung eines digitalisierten bildes
DE10300048A1 (de) Verfahren und Vorrichtung zur Bildcodierung und -decodierung
DE3837590A1 (de) Verfahren zum reduzieren der datenrate von digitalen bilddaten
DE19739266B4 (de) Verfahren und Vorrichtung zum Kodieren binärer Formen
EP1371229B1 (de) Verfahren zur komprimierung und dekomprimierung von videodaten
EP0346637B1 (de) Verfahren zur Aufbereitung und Übertragung einer Bildsequenz

Legal Events

Date Code Title Description
8364 No opposition during term of opposition