DE69632622T2 - Universaler MPEG-Dekoder mit skalierbarer Bildgrösse - Google Patents

Universaler MPEG-Dekoder mit skalierbarer Bildgrösse Download PDF

Info

Publication number
DE69632622T2
DE69632622T2 DE69632622T DE69632622T DE69632622T2 DE 69632622 T2 DE69632622 T2 DE 69632622T2 DE 69632622 T DE69632622 T DE 69632622T DE 69632622 T DE69632622 T DE 69632622T DE 69632622 T2 DE69632622 T2 DE 69632622T2
Authority
DE
Germany
Prior art keywords
video data
inverse
arrangement
coefficients
data signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69632622T
Other languages
English (en)
Other versions
DE69632622D1 (de
Inventor
Ramaswamy Campbell Prabhakar
Jih-Hsien Cupertino Soong
Tzoyao Saratoga Chan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cirrus Logic Inc
Original Assignee
Cirrus Logic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cirrus Logic Inc filed Critical Cirrus Logic Inc
Application granted granted Critical
Publication of DE69632622D1 publication Critical patent/DE69632622D1/de
Publication of DE69632622T2 publication Critical patent/DE69632622T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Dekodiervorrichtung auf der Basis einer "Diskreten Cosinus Transformation" zum Dekodieren von Videodatenströmen in Multimedia-Computersystemen. Genauer bezieht sich diese Erfindung auf einen MPEG-Videostromdecoder zum Decodieren von Videodaten, die in jedem von drei Farbraumformaten codiert sind. Filmvideo wird gemäß spezifischen Standards und spezifischen Farbraumformaten codiert. Ein universeller Decoder kann das Decodieren und Ausgeben eines Videodatenstroms in unterschiedlichen Formaten vereinfachen.
  • Hintergrund der Erfindung
  • Computer mit Multimedia-Fähigkeiten sind allgemein üblich geworden. Multimediacomputer werden grob als Computer mit einem Anzeigevermögen für Text, hoch auflösende Grafiken, hoch auflösende Bilder, Audiodaten mit großem Dynamikbereich und hoch auflösendes Filmvideo definiert. Ein Problem in der Multimedia-Bearbeitung durch Computer kann in großen Bildframegrößen bestehen. Im primären oder sekundären Speicher abgespeicherte große Bildframes können aus dem Speicher abgerufen, über Systembusse übertragen und über Anzeigesteuergeräte angezeigt werden. Bei großen Bildern müssen möglicherweise mehr Daten übertragen und für die Anzeige großer Bilder können zusätzliche Zeiträume benötigt werden. Die Probleme können bei einer Anzeige von mehreren aufeinanderfolgenden Bildframes, die einem Filmvideo zugeordnet sind, vergrößert werden. Schnelle Videoframe-Aktualisierungen müssen häufig genug auftreten, um eine Videodarstellung ohne Anomalien wie z. B. einer verzögerten oder verlangsamten Bewegung oder mit einer langsamen oder fehlerhaften Aktualisierung verbundenen Unruhe bereitstellen zu können.
  • Der Standard bei einer hoch auflösenden Frame-Standbildanzeige kann aus einem Bild mit 1024 Pixeln und 768 Linien bei einer Anzeigeauflösung von 24 Bits an Farbinformationen pro Pixel bestehen. Ohne Kompression oder eine andere Codierung nähert sich ein Standardframe an eine Größe von 20 Megabyte an. Bei digitalem Vollbewegungsvideo, das eine minimale Framerate von etwa 30 Frames pro Sekunde zur Simulation von Echtbewegung benötigt, kann ein nicht kodiertes Filmvideo mit voller Größe und voller Auflösung auf bestehenden Computern mit einem begrenzten Busübertragungsvermögen undurchführbar sein. Um hoch auflösendes Filmvideo erfolgreich auf Multimedia-Computern anzuzeigen, kann die Verwendung eines Schemas zum Komprimieren und Codieren von Filmvideodaten notwendig sein, um die Framegröße für die Intrabus-Übertragung zu minimieren. Bildframes können vollständig dekomprimiert und nach der Busübertragung durch ein Anzeigesteuergerät mit voller Auflösung angezeigt werden. Ebenfalls kann die Einstellung einer maximalen Standardfenster- oder Framegröße für die effiziente Anzeige von Filmvideo notwendig sein. Die Kombination aus einer optimalen Framegröße und dem Kompressionscodierungsverfahren kann die Anzeige von Filmvideo auf Multimedia-Computern ermöglichen.
  • MPEG ist ein Filmvideo-Kompressionsstandard geworden, der in weitem Umfang sowohl in der Hardware- wie in der Software-Multimediagemeinschaft als ein Kompressions- und Dekompressionsstandard der Wahl für Filmvideo-Frames akzeptiert ist. Eine Technik zum Codieren und Decodieren ist in US-A-5 473 375 offenbart. MPEG leitet seinen Namen aus der "International Standards Organization" (ISO) "Motion Picture Encoding Group" (MPEG) ab. MPEG-Spezifikationen fordern die Kompression aufeinanderfolgender Filmvideo-Frames, die dadurch bewerkstelligt wird, dass das erste Frame in einer Videosequenz erstellt und anschließend periodische Frames erstellt werden, die als Referenz- oder Basis-Frames dienen. Im Anschluss daran erfordern die MPEG-Spezifikationen die Berechnung eines mathematischen Unterschieds zwischen einem aktuellen Frame und einem vorgängigen Basis-Frame, wobei lediglich ein berechneter Unterschied zwischen den beiden Frames gespeichert wird. Ebenfalls kann eine Bewegungskompensation durchgeführt werden, da ein Gegenstand in einem Frame, der, wenn er stillsteht, normalerweise keine Unterschiede in nachfolgenden Frames auslösen würde, einen nur der Bewegung zuzuschreibenden Unterschied auslösen kann.
  • Bei MPEG werden die Differenzen zwischen Basis-Frames und den nachfolgenden Zwischen-Frames berechnet, indem die Frames zu 8 mal 8-Pixel-Blöcken aufgeteilt werden und die Pixel von jedem Block mit entsprechenden Pixelstellen in dem Basis-Frame in Übereinstimmung gebracht werden. Die Differenzen werden unter Verwendung eines als "DCT" (Diskrete Cosinus Transformation) bezeichneten Verfahrens komprimiert. US-A-5 497 246 offenbart die Verwendung von DCTs und US-A-5 491 545 beschreibt die Verwendung von sowohl einer DCT wie einer "IDCT" (Inversen Diskreten Cosinus Transformation). Darüber hinaus offenbart US-A-5 475 434 die Verwendung von DCTs bei der Verarbeitung von Fernsehsignalen. Allerdings erläutert keine dieser Bezugsschriften die Verwendung eines Remez-FIR-Filters bei dem MPEG-Decodieren. Einmal berechnet können DCT-Koeffizienten Huffman-codiert werden, um eine abschließende Blockgröße zu erzeugen, die häufig ein Zehntel bis ein Zwanzigstel der ursprünglichen Blockgröße beträgt. Die DCT kann für die bevorzugte Ausführungsform der vorliegenden Erfindung integral sein. Eine ausführliche Beschreibung der DCT wird hier als Hintergrundinformation bereitgestellt.
  • Wenn angenommen wird, dass eine DCT-Blockgröße in einer Richtung N ist, kann eine für die Berechnung einer vorwärts ausgerichteten DCT verwendeten Typ 2-DCT (XΠE) für eine Blockgröße von N × N angegeben werden durch:
    Figure 00020001
    wobei x(n) ein Pixel im Block N × N ist.
  • Eine Gewichtungsfunktion kann folgendermaßen definiert werden:
  • Figure 00020002
  • Zum Verständnis einer "Remez Exchange Tiefpass"-"Finiten Impulsantwort" (FIR)-Filterung, die in der bevorzugten Ausführungsform der vorliegenden Erfindung verwendet werden kann, kann sich eine Erläuterung der allgemeinen Merkmale von FIR-Filtern als hilfreich erweisen.
  • Ein FIR-Filter kann manchmal als ein Filter für einen gleitenden Mittelwert bezeichnet werden. Ebenfalls kann ein FIR-Filter als ein nicht rekursiver Filter oder als ein Faltungsfilter benannt werden. Die Dauer oder Sequenzlänge der Impulsantwort dieser Filter ist per definitionem endlich und daher kann eine Ausgabefunktion wie folgt als eine endliche Faltungssumme geschrieben werden:
    Figure 00030001
    wobei x(n) Eingabevektoren sind und h(m) die Impulsantwort ist.
  • Ein FIR-Filter kann als eine Erweiterung einer gleitenden Summe oder als ein gewichteter gleitender Mittelwert interpretiert werden. In jeder Sequenz von Zufallszahlen wie z. B. den Kurswerten von täglichen Börsenwerten für eine bestimmte Aktie kann die Entfernung erratischer Variationen erwünscht sein, um längere Trends zu ermitteln. Jede Zahl kann durch einen Zahlenwert ersetzt werden, der einem Mittelwert von sich selbst und den vorangegangenen drei Werten entspricht. Variationen innerhalb eines viertägigen Zeitraums können so "ausgemittelt" werden und "längere" Variationen des Terms bleiben übrig.
  • Illustrativer Zwecke halber sei ein Signal x(n) betrachtet, das eine Summe aus einem linearen Term K1n und einem unerwünschten oszillierenden Signal enthalten kann, sodass x(n) = K1n + K2cos(Πn) (3)
  • Unter der Annahme, dass zwei Elemente in einem FIR-Filter vorliegen, kann h(n) die folgenden Werte annehmen:
  • Figure 00030002
  • Nach zwei Iterationen ist die Ausgabe ein linearer Term mit einer Verzögerung von einer Hälfte der Abtastungen und ohne eine Oszillation, was das Prinzip des gleitenden Mittelwerts eines FIR-Filters illustriert.
  • Eine Aufskalierung oder Interpolation eines Bilddaten enthaltenden Filmvideo-Frames beteiligt den Einschluss von Nullen als Datenwerte für gerade Abtastungen. Nach der Aufskalierung der Bilddaten kann eine Tiefpassfilterstufe auf das Bilddatensignal angewendet werden, um die Daten gleichmäßig über einen in der Größe geänderten Block zu mitteln, der einer Interpolation und Dezimierung unterzogen worden ist. Der Filter kann ein symmetrischer Filter mit geradzahliger Länge sein.
  • In der Tiefpassfilterung auf der Basis eines Remez Exchange-Algorithmus können fünf Parameter in einem symmetrischen Filter von Interesse sein:
    • 1) N – Filterlänge
    • 2) fp – Der Rand des Durchlassbereichs, spezifiziert als ein Bruchteil der Abtastfrequenz.
    • 3) fs – Der Rand des Sperrbereichs, spezifiziert als ein Bruchteil der Abtastfrequenz.
    • 4) δ1 – Die Abweichung von Eins in dem Durchlassbereich.
    • 5) δ2 – Die Abweichung von Null in dem Durchlassbereich.
  • Ein Tiefpass-Remez-Filter kann ein symmetrischer Filter mit geradzahliger Länge sein, dessen Abgriffsgröße 32 beträgt. Eine Abgriffsgröße von 32 kann für DCT-Blockgrößen geeignet sein, die entweder 16 × 8 oder 16 × 16 betragen können. Höhere Abgriffe in dem Remez Exchange-Filter können zu einer besseren Faltung von Filterkoeffizienten und einer genaueren Reproduktion von höher abgetasteten ("upsampled") und niedriger abgetasteten ("downsampled") Pixeln führen.
  • Ein Remez-Tiefpassfilter kann im allgemeinen als h(n), N = –L/2 .. 0, ... L/2 – 1 definiert werden. Die rechte Hälfte des Remez-Filters ist definiert durch:
    Figure 00040001
    wobei L die Anzahl an Filterkoeffizienten für h(n) und N die Blockgröße der IDCT sein kann.
  • MPEG-Implementierungen erfordern verschiedene wichtige Funktionen, die bei einer Allzweck-CPU schwierig zu implementieren sein können. Eine Bewegungsabschätzung und -kompensation erfordert Blockvergleiche zwischen korrespondierenden Basisframe-Stellen und aktuellen Frameblockstellen. 8 mal 8 Pixel große DCT-Blockstellenvergleiche zwischen Intraframes und Basisframes können aufgrund von Bewegung nicht eins zu eins korrespondieren. Die DCT-Spezifikation in MPEG kann wie bei anderen Kompressionsverfahren mit eng korrelierten Daten effektiver ausfallen. Daher kann, obgleich eine Bewegung in den Intraframes relativ zu den Basisframes aufgetreten sein kann, eine Bewegungserfassung, die rechenintensive Suchprozeduren beteiligt, zur Ermittlung derartiger Redundanzen verwendet werden.
  • Bestehende Hardware-MPEG-Decoder (z. B. CL450) dekodieren einen komprimierten Bitstrom zu einem einzigen Anzeigeformat wie z. B. einem YUV 4 : 2 : 0-, YUV 4 : 2 : 2-, und YUV 4 : 4 : 4-Format in Abhängigkeit von dem bei der Kodierung jeweils verwendeten Kompressionsformat. Die Kodierungsformate können an zu erwartende Anzeigevorrichtungsfähigkeiten angepasst sein oder sie werden ausgewählt, um ein Format bereitzustellen, das für eine Kompatibilität mit der breitesten Basis von Anzeigevorrichtungen geeignet ausfällt. In der Praxis sind die Anzeigevorrichtungen am wahrscheinlichsten VGA-Terminals. Die meisten VGA-Terminals können Video in dem YUV 4 : 2 : 2-Farbraumformat wiedergeben. Andere mögliche Zielvorrichtungen können einen D-1-Rekorder umfassen, der typischerweise das YUV 4 : 4 : 4-Format benutzt.
  • Der YUV-Farbraum ist der grundlegende Farbraum, der von den Farbvideostandards PAL (Phase Alternation Line), NTSC (National Television System Committee) und SECAM (Sequential Couleur Avec Memoire) verwendet wird. Die Y-Komponente (Luminanz) steht dabei für die Intensitätsinformationen, während die U- und V-Komponenten (Chrominanz) die Farbinformationen repräsentieren. Die MPEG-Kompressions- und -dekompressionsstandards spezifizieren die Farbraumkodierung im YUV-Farbraum. Es liegen drei hauptsächliche YUV-Formate vor: YUV 4 : 2 : 0, YUV 4 : 2 : 2 und YUV 4 : 4 : 4. Derartige Farbraumformate können den Anteil von Y-, U- und V-Komponenteninformationen in jedem Byte oder in einer Ansammlung von Bytes von Anzeigeinformationen beschreiben.
  • Ein Filmvideo kann kodierte Daten aufweisen, die jedem Frame von Videodaten in einer Filmvideosequenz entsprechen. Jeder Frame kann über drei rechtwinkelige Matrizen verfügen, welche die Luminanz-(Y)- und zwei Chrominanz-(CbCr)-Werte repräsentieren. Die Y-Matrix kann eine gerade Anzahl an Reihen und Spalten aufweisen. Bei MPEG-1 kann die Y-Matrix die Intensitätskomponente eines Frames mit einer Größe von 352 Pixeln mal 240 Linien beschreiben. Die Chrominanzkomponenten können in Abhängigkeit von dem Codierungsformat eine von mehreren Konfigurationen aufweisen. 1 illustriert drei primäre Farbraumcodierungsformate, die bei der MPEG-Kompression verwendet werden.
  • In dem in 1a dargestellten YUV 4 : 2 : 0-Format weisen die Chrominanzkomponenten-Matrizen 111 und 112 die Hälfte der Größe der Y-Matrix 110 in der horizontalen und vertikalen Richtung auf. In dem in 1b illustrierten YUV 4 : 2 : 2-Format weisen die Chrominanzkomponenten-Matrizen 121 und 122 die Hälfte der Größe der Y-Matrix 120 in der horizontalen Richtung und die gleiche Größe wie die Y-Matrix 120 in der vertikalen Richtung auf. Schließlich sind in dem in 1c dargestellten YUV 4 : 4 : 4-Format die Chrominanzmatrizen 130 und 131 auf die gleiche Größe wie die Y-Matrix 130 in sowohl der horizontalen wie der vertikalen Richtung spezifiziert.
  • Zusammenfassung der Erfindung
  • Ein universeller MPEG-Decoder dekodiert einen Videobitstrom, der Video-Frameblocks repräsentiert, die in einem der drei hauptsächlichen Farbraumformate MPEG-kodiert sind. Der Decoder der vorliegenden Erfindung kann selektiv programmiert werden, um YUV 4 : 2 : 0-, YUW 4 : 2 : 2- und YUV 4 : 4 : 4-Eingabe- und -Ausgabe-Anzeigeformate zu unterstützen. Jedes Eingabeformat kann dekodiert und in jedem Ausgabeformat ausgegeben werden. Darüber hinaus führt der Decoder der vorliegenden Erfindung eine dynamische Bildframe-Größenskalierung durch.
  • Kurze Beschreibungen der Zeichnungen
  • 1a ist ein Diagramm und illustriert das YUV 4 : 2 : 0-Farbraumformat.
  • 1b ist ein Diagramm und stellt das YUV 4 : 2 : 2-Farbraumformat dar.
  • 1c ist ein Diagramm und illustriert das YUV 4 : 4 : 4-Farbraumformat.
  • 2 ist ein Blockdiagramm und stellt die Elemente eines einfachen MPEG-Decoders dar.
  • 3 ist ein Blockdiagramm und illustriert die Elemente des IDCT-Blocks der vorliegenden Erfindung.
  • 4 ist ein Diagramm und stellt den Durchlassbereich sowie den Sperrbereich eines Remez Exchange-Filters dar, der auf einem Einheitskreis überlagert ist.
  • 5 ist ein Graph und illustriert den Frequenzgang eines Remez Exchange-Filters.
  • 6 ist ein Diagramm und stellt ein Bild dar, das unter Verwendung der beim Stand der Technik bestehenden Raumdomäneninterpolation bearbeitet wird.
  • 7 ist ein Diagramm und illustriert ein Bild, das unter Verwendung der DCT-Domänen-Interpolation der vorliegenden Erfindung bearbeitet wird.
  • 8 ist ein Graph und stellt ein Signal dar, das unter Verwendung der vorliegenden Erfindung gefiltert wird.
  • Ausführliche Beschreibung der Erfindung
  • Die hier folgenden Beschreibungen erfolgen lediglich beispielshalber und illustrieren die bevorzugte Ausführungsform der vorliegenden Erfindung. Allerdings können das Verfahren und die Vorrichtung der vorliegenden Erfindung in einer ähnlichen Weise in anderen Ausführungsformen angewendet werden, ohne den Rahmen der Erfindung zu verlassen.
  • Die 1a, 1b, und 1c sind Diagramme und illustrieren drei unterschiedliche Formate, die den Farbraum in einem Filmvideoframe beschreiben. Ein Filmvideoframe kann aus drei rechtwinkeligen Matrizen bestehen, welche die Luminanz-Y- und zwei Chrominanz-(CbCr)- oder U- und V-Werte repräsentieren. Die Y-Matrizen 110, 120, und 130 können eine gerade Anzahl an Reihen und Spalten aufweisen. Die Chrominanzkomponenten-Matrizen 111 und 112 können die Hälfte der Größe der Y-Matrix 110 in der horizontalen und vertikalen Richtung im YUV 4 : 2 : 0-Farbraumformat aufweisen. 1a ist ein Diagramm und stellt das YUV 4 : 2 : 0-Farbraumformat dar. In dem YUV 4 : 2 : 2-Format können die Chrominanzkomponenten-Matrizen 121 und 122 die Hälfte der Größe der Y-Matrix 120 in der horizontalen Richtung aufweisen und in der vertikalen Richtung über die gleiche Größe verfügen. 1b ist ein Diagramm und illustriert das YUW 4 : 2 : 2-Farbraumformat. Im Farbraumformat YUV 4 : 4 : 4 können die Chrominanzmatrizen 131 und 132 die gleiche Größe wie die Y-Matrix 130 sowohl in der horizontalen wie in der vertikalen Richtung aufweisen. 1c ist ein Diagramm und stellt das YUV 4 : 4 : 4-Farbraumformat dar.
  • 2 ist ein Blockdiagramm und illustriert die Elemente eines MPEG-Decoders. Codierte Daten 201 werden in einen Dekodierblock 202 mit variabler Länge eingegeben. Die in dem Dekodierblock 202 mit variabler Länge dekodierten Daten werden an einen Inversabtastblock 203 ausgegeben. Die durch den Inversabtastblock 203 verarbeiteten Daten werden an einen Inversquantisierer-Block 204 ausgegeben. In einem Inversquantisierer-Block 204 verarbeitete inverse quantisierte Daten werden an einen Inversen Diskreten Cosinus Transformations-(IDCT)-Block 205 ausgegeben. Die von dem IDCT-Block 205 verarbeiteten Daten werden an einen Bewegungskompensationsblock 206 ausgegeben.
  • Eine Bewegungsabschätzung kann in dem Bewegungskompensationsblock 206 an den Luminanz- und Chrominanzkomponenten in einem MPEG-Encoder durchgeführt werden. Die Bewegungsvektoren können nur für Luminanzkomponenten berechnet werden. Die Bildskalierung vermag nur eine Bewegungskompensation für die Chrominanzkomponenten zu bewerkstelligen. Bei der Dekodierung von Bewegungskompensation in einem MPEG-Decoder können die Bewegungsvektoren für die Chrominanzkomponenten von den Luminanzkomponenten und einem Skalierungsfaktor abgeleitet werden. Beispielsweise kann ein Bild, das von 4 : 2 : 0 auf 4 : 4 : 4 aufskaliert worden ist, die gleichen Bewegungsvektoren für die Chrominanzkomponenten Cb und Cr wie für Y aufweisen. Die von dem Bewegungskompensationsblock 206 bearbeiteten Daten werden als dekodierter Datenausgang 208 ausgegeben. Als dekodierter Datenausgang 208 auftretende Videoframes können in einem Framespeicher 207 gespeichert und von dem Bewegungskompensationsblock 206 für einen Vergleich des aktuellen Frames mit vorhergehenden Frames verwendet werden. Da die Bildskalierung eine Aufskalierung minimaler Farbraumformate auf umfassende Farbraumformate erfordern kann, muss der Framespeicher 207 groß genug sein, um Bildframes, die dem YUV 4 : 4 : 4-Format entsprechen, aufnehmen zu können.
  • 3 ist ein Blockdiagramm und illustriert die Elemente des IDCT-Blocks 205 von 2. Inverse quantisierte DCT-Koeffizienten 301 werden von dem Inversquantisierer-Block 204 in einen Antialiasing-Antiimaging-Block 303 und einen Upsampling/Downsampling-Block 304 eingegeben. Die Koeffizienten werden an einen IDCT-Block 305 ausgegeben. Programmierbare Koeffizienten 306 können in den IDCT-Block 305 eingegeben werden, bevor ein Videostrom an einen Bewegungskompensationsblock 307 ausgegeben wird. Es kann ein erwünschtes Bildformat 302 in den IDCT-Block 205 eingegeben werden, um das Farbformat der Ausgabe des Decoders der vorliegenden Erfindung zu spezifizieren.
  • 4 ist ein Diagramm und illustriert den Durchlassbereich und Sperrbereich des Remez Exchange-Filters, der auf einem Einheitskreis mit einem Radius von 1 und einem Umfang von 2 Π überlagert ist. Der Durchlassbereich kann zwischen 0 und 1/2 Π und zwischen 3/2 Π in dem 2 Π-Einheitskreis liegen. Ein Durchlassbereich PB 401 und ein Sperrbereich SB 402 eines Remez Exchange-Filters sind in dem Ansprechauftrag von 4 illustriert. Da der Filter symmetrisch ist, beinhaltet PB 401 alle Signale mit Frequenzen zwischen 0 und 1/2 Π und 0 und –1/2 Π (3/2 Π). Ähnlich dazu liegt SB 402 zwischen 0,5 Π und –0,5 Π. Die Verstärkung des Filters beträgt in PB 401 Eins und die Dämpfung beträgt in SB 402 –30 db.
  • Die folgenden Werte sind berechnete Remez Exchange Filterkoeffizienten.
    4,4996e-01 2,3573e-02
    1,4953e-01 2,0967e-02
    –8,9156e-02 –1,8786e-02
    –6,3129e-02 –1,4276e-02
    4,8479e-02 9,9493e-03
    3,9131e-02 2,2767e-02
    –3,2452e-02 –3,5774e-02
    –2,7510e-02 –1,7824e-02
  • Die oben dargestellten Filterkoeffizienten können h(n) für n = 0, 1, 2 ... L/2 – 1 repräsentieren, aber eine Faltung der Filterkoeffizienten und umgeordneten DCT-Koeffizienten kann in der DCT-Domäne durchgeführt werden, was durch die folgende Gleichung angegeben werden kann:
  • Figure 00070001
  • Der Upsampling- und Downsampling-Block 304 kann zur Interpolierung eines Vektors k(n) = [x(n)] auf das Doppelte seiner ursprünglichen Größe durch einen Upsampling-Vorgang verwendet werden, wobei x(n) der einzelne Vektor in R ist. Ein Upsampling-Vorgang kann eine Funktion f(n) beteiligen, wobei der Vektor k(n) auf der rechten Seite mit Nullen aufgefüllt wird.
    f(n) = {x1(n), x2(n), x3(n), x4(n), x5(n), x6(n), x7(n), x8(n), 0, 0, 0, 0, 0, 0, 0, 0}.
  • Unter der Annahme, dass k(n) ein Vektor bei den Positionen 1, 2, 3, 4, 5, 6, 7, 8 ist, wird die Berechnung von CΠE durch die Gleichung 4 repräsentiert. Die Upsampling-Eigenschaft führt an, dass: CΠE = Xu(m) = (f(n)3(m) – f(n)5(N – m)/√2 m = 0,1 ... N – 1 (6)
  • Unter Verwendung der Gleichung 1 erfolgt die Berechnung von: CΠE{Xu(m)} (7)wobei die Werte von
  • Figure 00080001
  • Die Implementierung von Digitalfiltern ist in der DCT-Domäne in dem Antialiasing-Antiimaging-Block 303 möglich. Die Faltungsform des Remez Exchange-Tiefpassfilters (Gleichung 4) in der DCT-Domäne kann folgendermaßen angegeben werden:
  • Figure 00080002
  • Unter Verwendung von in der Gleichung 7 berechneten höher abgetasteten Pixeln und von Tiefpassfilterkoeffizienten in der DCT-Domäne aus der Gleichung 8, verarbeitet in dem Upsampling- und Downsampling-Block 304, wird ein in der Größe geändertes (interpoliertes) Signal unter Verwendung der folgenden Gleichung berechnet: V1(m) = CΠE{K(n)v(n)} m, n = 0, 1, 2 ... N (9) y(n) = C–1 ΠE(CΠE{2±h'(n)±V,(m)}) m, n = 0, 1, 2 ... N (10)
  • Die Typ 2-IDCT kann durch die folgende Gleichung angegeben werden:
    Figure 00080003
    wobei
    X0(2)(m) die ungeordneten DCT-Pixelkoeffizienten sind.
  • Die folgenden Schritte können zur Interpolierung eines Bilds um den Wert 2 in beiden Richtungen in dem Upsampling- und Downsampling-Block 304 verwendet werden:
    • 1) Typ (2) Vorwärts zweidimensionale DCT eines Bilds mittels Block N × N unter Verwendung der Gleichung 5.
    • 2) Taste Pixel unter Verwendung der Gleichungen 6 und 7 höher ab, was zu einem Block in der Größe 2N × 2N noch immer in der DCT-Domäne führt.
    • 3) Multipliziere jeden Block 2N × 2N-Block mit 2-D DCT-Domänen-Tiefpassfilterkoeffizienten (Gleichung 8) in dem Antialiasing-Antiimaging-Block 303 zur Bewerkstelligung der Antiimaging-Tiefpassfilterung.
    • 4) Führe eine Inverse Typ 2-IDCT an jedem sich ergebenden Block aus Schritt 3 in dem IDCT-Block 305 unter Verwendung der Gleichung 11 aus, was zu einem in beiden Richtungen verdoppelten Bild führen kann, welches anschließend an den Bewegungskompensationsblock 307 ausgegeben werden kann.
  • Das folgende Beispiel illustriert den Vorgang des Upsamplings, der Faltungsmultiplizierung einer Filmvideobild-DCT in einer Dimension und der Vergrößerung auf ein SIF 352 × 240-Bild in dem Decoder 300 unter Verwendung des Upsampling- und Downsampling-Blocks 304, des Antialiasing-Antiimaging-Blocks 303, des IDCT-Blocks 305 und der programmierbaren Koeffizienten 306 in der bevorzugten Ausführungsform der vorliegenden Erfindung.
    • 1) Nehme die folgenden 8 Signale: x(n) = {1, 2, 3, 4, 5, 6, 7, 8} bei den Positionen 1, 2, 3, 4, 5, 6, 7, 8
    • 2) Berechne XΠ(m) unter Verwendung der Gleichung 2: X2 (m) 1 ... 8 X2(m) = 12,7279 –6,4423 0,0000 –0,6735 0,0000 –0,2009 0,0000 –0,0507
    • 3) Taste in dem Upsampling-Downsampling-Block 304 höher ab, indem X2(m) mit 8 Nullen aufgefüllt wird. X2(m) für 9 bis 16 X2(m) = 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 x(n) kann nun seine doppelte ursprüngliche Länge aufweisen.
    • 4) Berechne CΠE unter Verwendung der Gleichung 6. CΠE = 9,0000 –4,5554 0,0000 –0,4762 0,0000 –0,1421 0,0000 –0,0359 0,0000 0,0359 0,0000 0,1421 0,0000 0,4762 0,0000 4,5554 Mit Ausnahme des ersten Terms, der ein DC-Koeffizient ist, ist der gerade Term immer eine Null.
    • 5) Multipliziere die in Schritt 4 erhaltenen höher abgetasteten Pixel und die in der Tabelle 1 angegebenen Remez-Tiefpassfilterkoeffizienten in der DCT-Domäne unter Verwendung der Gleichung 8.
    • 6) Berechne die 2D-IDCT an dem in Schritt 4 erhaltenen Produkt unter Verwendung der Gleichung 1. Das Ergebnis besteht in einem interpolierten Signal rx(n), das die doppelte Größe des ursprünglichen Signals x(n) aufweist.
  • Unter Verwendung des gleichen grundlegenden Prinzips zur Interpolierung eines 352 × 240-SIF-Frames wird das Frame in beide Richtungen interpoliert. Das Ergebnis kann aus einem SIF-Frame mit einer Größe von 704 × 480 bestehen. Nach dem Upsampling des 8 × 8-Blocks besteht das Ergebnis in einem 16 × 16-Block in der DCT-Domäne mit aufgefüllten Nullen. Nach der Multiplizierung des umgeordneten DCT-Koeffizienten mit den Tiefpassfilterkoeffizienten in der DCT-Domäne und der Berechnung der Inversen Typ 2-DCT des Produkts kann das Ergebnis in einem SIF-Bildframe mit einer Größe von 704 × 480 bestehen.
  • Eine Interpolierung des alten 352 × 240 SIF-Bildframes in beide Richtungen in der Raumdomäne mit sieben Abgriffsfilterkoeffizienten [–29 0 140 256 140 0 –29] resultiert immer noch in einem interpolierten Bildframe mit der Größe von 704 × 480.
  • Eine Untersuchung des 704 × 480 großen interpolierten Bildframes in der Raumfrequenzdomäne und der DCT-Domäne ergibt, dass das DCT-Domänen-Bild mehr Informationen als bei der Raumfrequenzdomäneninterpolation zu enthalten scheint. Ein derartiges Ergebnis kann zustande kommen durch:
    • 1) Verlustfreiheit in der DCT-Domäne relativ zu der Raumfrequenzdomäne.
    • 2) Weil die DCT-Domänen-Größenänderung eine punktweise Faltungs-Multiplikation und Abtastungsratenveränderung ist, sollten die Filterkoeffizienten denjenigen eines geraden Abgriffsfilters entsprechen. Für eine symmetrische Faltung kann die maximale Anzahl an Filterkoeffizienten das Doppelte der DCT-Blockgröße betragen, was zu einem 32-Abgriffsfilter führt. Filter mit vielen Abgriffen resultieren in einem schärferen Frequenzgang. Die Verwendung eines 32-Abgriffsfilters kann die Anzahl an Vorgängen zur Bewerkstelligung einer Remez Exchange-Antwort nicht beeinflussen. Folglich kann für eine Interpolation auf DCT-Basis der längst möglichste Abgriffsfilter ohne jede zusätzliche Hardware oder den Einschluss einer Latenzzeit verwendet werden, was zu einer besseren Antwort als derjenigen der 7-Abgriffs-Raumfrequenzdomäneninterpolation führt.
  • Die folgenden Daten können einen näherungsweisen Vergleich für eine 32-Abgriffs-DCT-Domänen-Interpolation und eine 7-Abgriffs-Raumfrequenzdomäneninterpolation repräsentieren:
  • 1) Raumfrequenzdomäneninterpolation
  • Eine Interpolation von dem YUV 4 : 2 : 0- zu dem YUV 4 : 2 : 2-Format an einem 4 : 2 : 0-SIF-Bild, dessen Chrominanzgröße 176 × 120 beträgt, wobei die Pixel unter Verwendung eines 7-Abgriffsfilters gemittelt werden, dessen Koeffizienten [–29 0 140 256 140 0 –29] betragen, erfordert mehrere Schritte. Unter der Annahme von 3 Multiplikationsvorgängen, die jeweils 3 Verschiebungsvorgänge und 2 Additionsvorgänge beinhalten, und von 2 Additionsvorgängen sind insgesamt 17 Vorgänge erforderlich. Zur Interpolierung von 176 × 120 = 21.120 Pixeln sind 359.040 Grundoperationen pro Chrominanzkomponente in der Raumfrequenzdomäne notwendig. Für beide Chrominanzkomponenten benötigt eine Interpolation in der Raumfrequenzdomäne für das 4 : 2 : 0- zu dem 4 : 2 : 2-Format annähernd 720.000 Operationen.
  • Zur Interpolierung von 4 : 2 : 0 zu 4 : 4 : 4 in der Raumfrequenzdomäne kann zuerst eine 4 : 2 : 0- zu 4 : 2 : 2-Interpolation durchgeführt werden. Anschließend kann eine Interpolation von 4 : 2 : 2 zu 4 : 4 : 4 unter Verwendung des gleichen grundlegenden Prinzips durchgeführt werden. Für beide Chrominanzkomponenten kann die Anzahl an Grundoperationen zum Interpolieren von 4 : 2 : 0 zu 4 : 4 : 4 annähernd 1,4 Millionen betragen.
  • 2) Interpolation in DCT-Domäne
  • Eine Typ 2-IDCT kann an einem 16 × 8-Block durchgeführt werden, um mit der 4 : 2 : 0- zu 4 : 2 : 2-Interpolation zu beginnen. Es können 1724 Grundoperationen pro 16 × 8-Block vorliegen, die 160 Multiplikationen und 864 Additionen beinhalten, angenommen es liegen 4 Verschiebungen und 3 Additionen pro Multiplikationsoperation vor. Für jede Chrominanzkomponente mit einer Größe von 176 × 120 können 330 Blocks vorliegen, die zu 570.000 Grundoperationen pro Chrominanzkomponente pro interpoliertem Frame führen. Für beide Chrominanzkomponenten können 1.040.000 Operationen notwendig sein.
  • Die IDCT-Blockgröße kann sich von 16 × 8 zu 16 × 16 für eine Interpolation von 4 : 2 : 0 zu 4 : 4 : 4 verändern und die Anzahl an Operationen kann sich verdoppeln. Die Anzahl an Operationen zur Interpolierung der beiden Chrominanzkomponenten kann 2,6 Millionen betragen.
  • Für codierte Bitströme in den YUV 4 : 2 : 2- oder YUV 4 : 4 : 4-Formaten sind zur Durchführung der Dezimierung keine Modifizierungen des Hardwaredecoders der vorliegenden Erfindung erforderlich. Eine Dezimierung kann die Hinabskalierung von Bildern beteiligen, indem Bildinformationen einfach eliminiert oder beseitigt werden. Die Dezimierung in der DCT-Domäne kann die gleichen grundlegenden Prinzipien beteiligen, die für die Interpolation in dem Upsampling-Downsampling-Block 304 verwendet werden.
  • Das Dezimieren einer Sequenz x(n) auf die Hälfte ihrer ursprünglichen Größe kann zunächst einen Antialiasing-Tiefpassfilter-Schritt erfordern, der in dem Antialiasing-Antiimaging-Block 303 durchgeführt werden kann. Anschließend werden die Downsampling-Pixelkoeffizienten in dem Upsampling- und Downsampling-Block 304 erzeugt. Abschließend kann die Typ 2-IDCT in dem IDCT-Block 305 berechnet werden.
  • In der bevorzugten Ausführungsform der vorliegenden Erfindung kann ein Remez Exchange-Tiefpassfilter zur Durchführung der Antialiasing-Tiefpassfilterung verwendet werden, die mit der Dezimierung in dem Antialiasing-Antiimaging-Block 303 assoziiert ist. Die Durchlassbereichs- und Sperrbereichs-Berechnungen für den Antialiasing-Tiefpassfilter für die Dezimierungszwecke und für den Tiefpassfilter zur Interpolation können identisch zu der Illustration in 4 ausfallen.
  • Wenn X(m) den inversen quantisierten DCT-Koeffizienten des Bildframes repräsentiert, das hinunterskaliert werden soll, können die Koeffizienten in der DCT-Domäne unter Verwendung der folgenden Gleichung tiefpassgefiltert werden: Y(m) = H,(m)X(m), m, n = 0, 1, ..., N – 1 (12)0, m = N
  • Y(m) stellt die tiefpassgefilterte Sequenz von X(m) dar.
  • Zur Durchführung des Downsampling-Vorgangs kann Y(m) neu angeordnet und zur Berechnung der Inversen Typ 2-DCT der Bildframe-Pixel direkt verwendet werden.
  • Die gefilterten Koeffizienten werden wie folgt neu angeordnet: Yd(m) = (YΠ(m) – YΠ(N – m))/√2 m = 0, 1 ... N – 1 (13)
  • Die Typ 2-IDCT wird an Yd(m) unter Verwendung der Gleichung 11 durchgeführt, was zu einem dezimierten Bildframe führt.
  • Die folgenden Schritte können zur Durchführung einer Dezimierung in beiden Richtungen an einem Bildframe benutzt werden.
    • 1) DCT eines N × N (8 × *)-Blocks des Bildframes unter Verwendung der Gleichung 2.
    • 2) Faltung der transformierten Koeffizienten und Tiefpassfilterkoeffizienten in der DCT-Domäne.
    • 3) Neuanordnung der DCT-Koeffizienten unter Verwendung der Gleichung 13.
    • 4) Inverse IDCT unter Verwendung der Gleichung 11.
  • 5 ist ein Graph und stellt den Frequenzgang des Remez Exchange-Filters von 4 dar. Eine Frequenzgangkurve 503 eines Graphs 500 mit einer Remez Exchange-Charakteristik weist erwünschte Durchlassbereichscharakteristiken auf die mit den Durchlassbereichs- und Sperrbereichscharakteristiken korrelieren, wie in 4 illustriert. Eine Durchlassbereichsgrenze 501 zeigt deutlich gleichförmige Charakteristika in dem Durchlassbereich des Remez Exchange-Filters. Eine Sperrbereichsgrenze 502 weist lineare Charakteristika innerhalb des Bereichs und eine bei nahe Null liegende Energie bei Frequenzen über der Sperrbereichsgrenze 502 auf.
  • 6 ist ein Diagramm und stellt ein Bild dar, das unter Verwendung der beim Stand der Technik bestehenden Raumdomänen-Interpolation verarbeitet worden ist. Die Qualität der Ränder und die hohen Raumfrequenzinformationen in einem Bild 600 können beeinträchtigt sein, obgleich sie nicht vollständig unmerklich sind.
  • 7 ist ein Diagramm und illustriert ein Bild, das unter Verwendung der DCT-Domänen-Interpolation der vorliegenden Erfindung verarbeitet worden ist. Ein Bild 700 wurde unter Verwendung des gleichen Basisbilds wie in 6 erzeugt. Das Bild 700 kann unter Verwendung der DCT-Domänen-Interpolation eine überlegene Verarbeitung der Ränder und insgesamt mehr Details aufweisen.
  • 8 ist ein Graph und stellt ein Signal dar, das unter Verwendung der vorliegenden Erfindung gefiltert worden ist. Nach der Umordnung von höherer oder niedriger abgetasteten Videostromdaten erzeugt das Filterungsverfahren einen Graph 800. Sich auf dem Graph 800 vor der Filterung abwechselnde Punkte waren Nullstellen. In Abhängigkeit von der Anzahl an Abgriffen, die in den Filterergebnissen der DCT-Domänen-Interpolation verwendet werden, kann der Graph 800 direkt proportional zu der Anzahl an Abgriffen sanfter ausfallen.
  • Mit der raschen Entwicklung der Multimedia-Technologie kann ein Bedarf nach Filmvideo mit höherer Auflösung vorliegen. Ein MPEG-Dekoder, der aus der DCT-Domänen-Interpolation einen Vorteil zieht, eine programmierbare Farbraumformatdekodierung und -übersetzung mittels einer Veränderung der IDCT-Koeffizienten und Blockgröße ermöglicht, und der eine Größenänderung erlaubt, kann sich als vorteilhaft erweisen. Obwohl die Anzahl an für DCT-Domänen-Transformationen erforderlichen Operationen signifikant größer als für Raumfrequenzdomänentransformationen sein kann, überschreiten die Kosten im Zusammenhang mit der für die Durchführung der Interpolation in der Raumfrequenzdomäne notwendigen zusätzlichen Hardware, diejenigen Kosten bei weitem, welche mit denjenigen zusätzlichen Operationen verbunden sind, die für eine DCT-Domänen-Interpolation ohne zusätzliche Hardware erforderlich sind.
  • Obgleich in der hiesigen Beschreibung die bevorzugte Ausführungsform und verschiedene alternative Ausführungsformen der Erfindung offenbart und ausführlich beschrieben worden sind, versteht sich für den Fachmann, dass verschiedene Änderungen hinsichtlich Form und Einzelheiten erfolgen können, ohne von dem Rahmen der Erfindung abzuweichen.
  • So könnte beispielsweise, obwohl die hier beschriebene IDCT vom Typ 2 ist, die vorliegende Erfindung mit Systemen angewendet werden, die eine von vielen IDCT-Formen verwenden. Obgleich die Farbraumformate die allgemein bekannten und verwendeten Formate umfassen, könnten sie für jedes Farbraumformat verwendet werden. Darüber hinaus kann, obwohl die bevorzugte Ausführungsform für eine Implementierung in einer integrierten Schaltung entworfen ist, die vorliegende Erfindung mit einer Reihe von integrierten Schaltungen, einem Chipsatz, oder in einem anderen Schaltkreis innerhalb eines Computersystems angewendet werden, ohne von dem Rahmen der vorliegenden Erfindung abzuweichen.

Claims (15)

  1. Decoder in einem Anzeigesteuergerät, wobei der Decoder zum Dekodieren eines Videodatensignals 201 vorgesehen ist und eine erste Transformationsanordnung (205) auf weist, um das Videodatensignal (201) aufzunehmen, auf das Videodatensignal (201) eine inverse Transformation (205) anzuwenden, und ein inverses transformiertes Videodatensignal auszugeben; dadurch gekennzeichnet, dass die erste Transformationsanordnung (205) eine Anordnung für eine Inverse Diskrete Cosinus Transformation aufweist, die versehen ist mit: einer Samplinganordnung (304) zur Aufnahme von inversen quantisierten Diskreten Cosinus Transformationskoeffizienten (301) und mindestens einem ersten Satz von Koeffizienten, zur Anwendung eines Upsampling- und Downsampling-Vorgangs auf die inversen quantisierten Diskreten Cosinus Transformationskoeffizienten (301), und zur Ausgabe mindestens eines zweiten Satzes von Koeffizienten; einer mit der Samplinganordnung (304) gekoppelten Filteranordnung (303) zur Aufnahme der inversen quantisierten Diskreten Cosinus Transformationskoeffizienten (301) und des mindestens einen zweiten Satzes von Koeffizienten, und zur Anwendung eines symmetrischen Remez Exchange FIR-Filterprozesses auf die inversen quantisierten Diskreten Cosinus Transformationskoeffizienten (301) und zur Ausgabe mindestens eines dritten Satzes von Koeffizienten; einer mit der Samplinganordnung (304) und der Filteranordnung (303) gekoppelten zweiten Transformationsanordnung zur Aufnahme des mindestens einen zweiten und des mindestens einen dritten Satzes von Koeffizienten sowie mindestens eines vierten Satzes von Koeffizienten; und einer mit der zweiten Transformationsanordnung gekoppelten Registeranordnung zum Speichern des mindestens einen vierten Satzes von Koeffizienten.
  2. Decoder nach Anspruch 1, ferner versehen mit einer mit der ersten Transformationsanordnung (205) gekoppelten Decoderanordnung (202) zur Aufnahme eines Videodatensignals (201), zur Dekodierung des Videodatensignals, und zur Ausgabe eines ersten dekodierten Videodatensignals.
  3. Decoder nach Anspruch 2, bei welchem die Decoderanordnung (202) ferner ein MPEG-kodiertes Videodatensignal erhält.
  4. Decoder nach Anspruch 3, ferner versehen mit einer mit der Decoderanordnung (202) gekoppelten Abtastanordnung (203) zur Aufnahme des ersten dekodierten Videodatensignals (201), zur Anwendung einer inversen Abtastung 203) auf die dekodierten Videodaten, und zur Ausgabe eines inversen abgetasteten Videodatensignals.
  5. Decoder nach Anspruch 4, ferner versehen mit einer mit der Abtastanordnung (203) gekoppelten inversen Quantisiereranordnung (204) zur Aufnahme des inversen abgetasteten Videodatensignals, zur Anwendung einer inversen Quantisierung auf die inversen abgetasteten Videodaten, und zur Ausgabe eines inversen quantisierten Videodatensignals an die erste Transformationsanordnung (205).
  6. Decoder nach Anspruch 5 ferner versehen mit einer mit der ersten Transformationsanordnung (205) gekoppelten Bewegungskompensationsanordnung (206) zur Aufnahme des inversen transformierten Videodatensignals, zur Bewegungskompensation des inversen transformierten Videodatensignals, und zur Ausgabe eines zweiten dekodierten Videodatensignals.
  7. Decoder nach Anspruch 6, ferner versehen mit einer mit der Bewegungskompensationsanordnung (206) gekoppelten Teilbildspeicheranordnung (207) zur Aufnahme des zweiten dekodierten Videodatensignals, zum Speichern mindestens eines Teilbilds des zweiten dekodierten Videodatensignals in mindestens einem Farbraumformat, und zur Ausgabe eines dritten dekodierten Videodatensignals.
  8. Decoder nach Anspruch 1, bei welchem die Anordnung zur Inversen Diskreten Cosinus Transformation (205) versehen ist mit: einer Anordnung zur Aufnahme von inversen quantisierten Diskreten Cosinus Transformationskoeffizienten (301); einer Anordnung zum Speichern eines Satzes programmierbarer Koeffizienten (306); und einem inversen Diskreten Cosinus Transformer (305) zur Aufnahme der inversen quantisierten Diskreten Cosinus Transformationskoeffizienten (301), eines Satzes von programmierbaren Koeffizienten 306), und der kodierten Videodaten (201) und zur Ausführung einer inversen Diskreten Cosinus Transformation (305) der kodierten Videodaten unter Verwendung der inversen quantisierten diskreten Cosinus Transformationskoeffizienten (301 und des Satzes von programmierbaren Koeffizienten (306) auf die ausgegebenen dekodierten Videodaten, wobei der Satz von programmierbaren Koeffizienten (306) ausgewählt wird, um die Bildgröße (302) der dekodierten Videodaten zu bestimmen.
  9. Verfahren zum Dekodieren eines MPEG-Videodatenstroms (201) in einem Anzeigesteuergerät in einem Computersystem, wobei im Zuge des Verfahrens: ein MPEG Videodatenstrom interpoliert wird und ein interpolierter Videodatenstrom ausgegeben wird, der interpolierte Videodatenstrom einem Upsampling („höhere Abtastung") unterzogen wird und ein höher abgetasteter („upsampled") Videodatenstrom ausgegeben wird, wobei das Verfahren dadurch gekennzeichnet ist, dass ferner: der höher abgetastete Videodatenstrom gefiltert wird und ein gefilterter Videodatenstrom ausgege ben wird, und eine Inverse Diskrete Cosinus Transformation (305) auf den gefilterten Videodatenstrom angewendet wird und ein Invers Diskret Cosinus transformierter Videodatenstrom ausgegeben wird; wobei im Zuge des Interpolierens des MPEG Videodatenstroms der in einer Mehrzahl von Farbraumformaten, bei welchem es sich um YUV 4 : 2 : 0, YUV 4 : 2 : 2 und YUV 4 : 4 : 4 handelt, kodierte MPEG Videodatenstrom interpoliert wird.
  10. Verfahren nach Anspruch 9, bei welchem in Zuge des Filterns des höher abgetasteten Videodatenstroms ferner ein symmetrisches Remez Exchange FIR-Filter verwendet wird, um den Videodatenstrom zu filtern, um einen höher abgetasteter Datenstrom zu erzeugen.
  11. Verfahren nach Anspruch 10, bei welchem ein symmetrisches Remez Exchange FIR-Filter verwendet wird, das über mindestens zwei Abgriffe verfügt, um den Videodatenstrom zu Filtern.
  12. Verfahren nach Anspruch 10, bei welchem ein symmetrisches Remez Exchange FIR-Filter verwendet wird, das 32 Abgriffe aufweist, um den Videodatenstrom zu filtern.
  13. Verfahren nach Anspruch 10, bei welchem ein symmetrisches Remez Exchange FIR-Filter verwendet wird, das eine beliebige gerade Anzahl von Abgriffen zwischen zwei und 32 Abgriffen aufweist.
  14. Verfahren nach Anspruch 11, bei welchem im Zuge des Durchführens einer Inversen Diskreten Cosinus Transformation ferner der Inverse Cosinus Transformations Videostrom an eine Bewegungskompensationsschaltung ausgegeben wird.
  15. Computer versehen mit: einer zentralen Verarbeitungseinheit zum Steuern des Betriebs des Computers, einem mit der zentralen Verarbeitungseinheit gekoppelten Systembus zum Übertragen von Daten zwischen Systemkomponenten einschließlich der zentralen Verarbeitungseinheit, mindestens einem mit der zentralen Verarbeitungseinheit und dem Systembus gekoppelten Speicherbereich zum Speichern von Daten, einer mit der zentralen Verarbeitungseinheit, dem Systembus und dem mindestens einen Speicherbereich gekoppelten Anzeige zur Anzeige von Informationen in dem Computer, und einem Decoder nach einem der Ansprüche 1 bis 8, der mit der zentralen Verarbeitungseinheit, dem Systembus, dem mindestens einen Speicherbereich und der Anzeige gekoppelt ist, um einen eingehenden MPEG Videodatenstrom in einem ersten Farbraumformat zu dekodieren und einen dekodierten Videostrom in einem zweiten Farbraumformat auszugeben.
DE69632622T 1995-12-22 1996-12-12 Universaler MPEG-Dekoder mit skalierbarer Bildgrösse Expired - Lifetime DE69632622T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US916195P 1995-12-22 1995-12-22
US08/622,330 US5832120A (en) 1995-12-22 1996-03-26 Universal MPEG decoder with scalable picture size
US622330 1996-03-26
US9161 2007-12-27

Publications (2)

Publication Number Publication Date
DE69632622D1 DE69632622D1 (de) 2004-07-08
DE69632622T2 true DE69632622T2 (de) 2005-06-30

Family

ID=26679135

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69632622T Expired - Lifetime DE69632622T2 (de) 1995-12-22 1996-12-12 Universaler MPEG-Dekoder mit skalierbarer Bildgrösse

Country Status (5)

Country Link
US (1) US5832120A (de)
EP (1) EP0781052B1 (de)
JP (1) JPH09214972A (de)
DE (1) DE69632622T2 (de)
TW (1) TW392131B (de)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6124897A (en) * 1996-09-30 2000-09-26 Sigma Designs, Inc. Method and apparatus for automatic calibration of analog video chromakey mixer
US5528309A (en) 1994-06-28 1996-06-18 Sigma Designs, Incorporated Analog video chromakey mixer
US5719511A (en) 1996-01-31 1998-02-17 Sigma Designs, Inc. Circuit for generating an output signal synchronized to an input signal
KR100192270B1 (ko) * 1996-02-03 1999-06-15 구자홍 에이치디티브이 비데오 디코더 회로
US6108448A (en) * 1997-06-12 2000-08-22 International Business Machines Corporation System and method for extracting spatially reduced image sequences in a motion compensated compressed format
US6044177A (en) * 1997-06-18 2000-03-28 Hewlett-Packard Company Artifact reduction decompression method and apparatus for interpolated images
US6125211A (en) * 1997-09-16 2000-09-26 Lu; Chung-Ya Progressive image transmission
US6151074A (en) * 1997-09-30 2000-11-21 Texas Instruments Incorporated Integrated MPEG decoder and image resizer for SLM-based digital display system
JP3667105B2 (ja) * 1997-10-01 2005-07-06 松下電器産業株式会社 動きベクトル検出方法及びその方法を実施する装置
US6184936B1 (en) 1997-10-06 2001-02-06 Sigma Designs, Inc. Multi-function USB capture chip using bufferless data compression
US6208350B1 (en) * 1997-11-04 2001-03-27 Philips Electronics North America Corporation Methods and apparatus for processing DVD video
JPH11144053A (ja) * 1997-11-11 1999-05-28 Sharp Corp 画像データの補間処理方法
US6449310B1 (en) * 1997-11-21 2002-09-10 Matsushita Electric Industrial Co., Ltd. Video signal coding apparatus
JP3483751B2 (ja) * 1997-12-18 2004-01-06 三菱電機株式会社 動きベクトル検出装置及び動きベクトル検出方法
US6205223B1 (en) * 1998-03-13 2001-03-20 Cirrus Logic, Inc. Input data format autodetection systems and methods
WO1999066449A1 (en) * 1998-06-19 1999-12-23 Equator Technologies, Inc. Decoding an encoded image having a first resolution directly into a decoded image having a second resolution
US6445828B1 (en) * 1998-09-28 2002-09-03 Thomson Licensing S.A. Transform domain resizing of an image compressed with field encoded blocks
US6690834B1 (en) 1999-01-22 2004-02-10 Sigma Designs, Inc. Compression of pixel data
US6618507B1 (en) * 1999-01-25 2003-09-09 Mitsubishi Electric Research Laboratories, Inc Methods of feature extraction of video sequences
EP1155573A1 (de) * 1999-02-25 2001-11-21 Sarnoff Corporation Transkodierung zwischen unterschiedlichen dct-basierten bildkompressionstandards
US6675297B1 (en) 1999-03-01 2004-01-06 Sigma Designs, Inc. Method and apparatus for generating and using a tamper-resistant encryption key
US6687770B1 (en) 1999-03-08 2004-02-03 Sigma Designs, Inc. Controlling consumption of time-stamped information by a buffered system
US6704452B1 (en) * 1999-05-27 2004-03-09 Fuji Photo Film Co., Ltd. Method, apparatus and recording medium for image decoding
US6349285B1 (en) 1999-06-28 2002-02-19 Cirrus Logic, Inc. Audio bass management methods and circuits and systems using the same
US7158178B1 (en) * 1999-12-14 2007-01-02 Intel Corporation Method of converting a sub-sampled color image
US6674479B2 (en) * 2000-01-07 2004-01-06 Intel Corporation Method and apparatus for implementing 4:2:0 to 4:2:2 and 4:2:2 to 4:2:0 color space conversion
US9785140B2 (en) * 2000-02-01 2017-10-10 Peer Intellectual Property Inc. Multi-protocol multi-client equipment server
US7275256B1 (en) 2001-08-28 2007-09-25 Music Choice System and method for providing an interactive, visual complement to an audio program
US6654956B1 (en) 2000-04-10 2003-11-25 Sigma Designs, Inc. Method, apparatus and computer program product for synchronizing presentation of digital video data with serving of digital video data
US6970179B1 (en) 2000-05-12 2005-11-29 International Business Machines Corporation Method and apparatus for the scaling up of data
US7062098B1 (en) 2000-05-12 2006-06-13 International Business Machines Corporation Method and apparatus for the scaling down of data
US6647061B1 (en) * 2000-06-09 2003-11-11 General Instrument Corporation Video size conversion and transcoding from MPEG-2 to MPEG-4
US7133569B1 (en) * 2000-07-31 2006-11-07 Polaroid Corporation Aliasing artifact attenuation system
JP2002094994A (ja) * 2000-09-19 2002-03-29 Nec Corp 動画再生処理装置および動画再生処理方法
US7215708B2 (en) 2001-05-22 2007-05-08 Koninklijke Philips Electronics N.V. Resolution downscaling of video images
US7305011B2 (en) * 2001-06-14 2007-12-04 International Business Machines Corporation Periodic broadcast and location of evolving media content with application to seminar and stroke media
US7240120B2 (en) * 2001-08-13 2007-07-03 Texas Instruments Incorporated Universal decoder for use in a network media player
KR100450939B1 (ko) * 2001-10-23 2004-10-02 삼성전자주식회사 이미지 축소를 위한 스케일-다운 기능을 가지는 압축비디오 복호화기 및 방법
US7626609B1 (en) 2003-03-07 2009-12-01 Music Choice Method and system for displaying content while reducing burn-in of a display
US7158169B1 (en) * 2003-03-07 2007-01-02 Music Choice Method and system for displaying content while reducing burn-in of a display
EP2242247A3 (de) * 2004-11-01 2012-07-25 Technicolor, Inc. Verfahren und System für Mastering und Vergabe erweiterter Farbrauminhalte
JP4839035B2 (ja) * 2005-07-22 2011-12-14 オリンパス株式会社 内視鏡用処置具および内視鏡システム
CN101783943B (zh) * 2005-09-20 2013-03-06 三菱电机株式会社 图像解码装置和图像解码方法
JP2009521840A (ja) * 2005-12-21 2009-06-04 トムソン ライセンシング 色空間における制限されたカラーパレット
US20070160134A1 (en) * 2006-01-10 2007-07-12 Segall Christopher A Methods and Systems for Filter Characterization
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
US8059714B2 (en) * 2006-07-10 2011-11-15 Sharp Laboratories Of America, Inc. Methods and systems for residual layer scaling
US7885471B2 (en) * 2006-07-10 2011-02-08 Sharp Laboratories Of America, Inc. Methods and systems for maintenance and use of coded block pattern information
US8130822B2 (en) * 2006-07-10 2012-03-06 Sharp Laboratories Of America, Inc. Methods and systems for conditional transform-domain residual accumulation
US8532176B2 (en) * 2006-07-10 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for combining layers in a multi-layer bitstream
US8422548B2 (en) * 2006-07-10 2013-04-16 Sharp Laboratories Of America, Inc. Methods and systems for transform selection and management
US7840078B2 (en) * 2006-07-10 2010-11-23 Sharp Laboratories Of America, Inc. Methods and systems for image processing control based on adjacent block characteristics
RU2430485C2 (ru) 2006-10-10 2011-09-27 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования и способ декодирования видеоинформации, устройства для реализации этого способа, программы для реализации этого способа и носители информации для записи этих программ
US8665942B2 (en) 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
US7826673B2 (en) * 2007-01-23 2010-11-02 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction with color-conversion
US8503524B2 (en) * 2007-01-23 2013-08-06 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction
US8233536B2 (en) 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
US7760949B2 (en) 2007-02-08 2010-07-20 Sharp Laboratories Of America, Inc. Methods and systems for coding multiple dynamic range images
US8767834B2 (en) 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
US8139081B1 (en) * 2007-09-07 2012-03-20 Zenverge, Inc. Method for conversion between YUV 4:4:4 and YUV 4:2:0
US8175158B2 (en) * 2008-01-04 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction parameter determination
US8873884B2 (en) 2010-10-06 2014-10-28 International Business Machines Corporation Method and system for resizing an image
US9167252B2 (en) * 2010-12-01 2015-10-20 Texas Instruments Incorporated Quantization matrix compression in video coding
TR201819237T4 (tr) * 2011-09-14 2019-01-21 Samsung Electronics Co Ltd Boyutuna Bağlı Olarak Bir Tahmin Birimi (TB) Kod Çözme Usulü
WO2013173292A1 (en) 2012-05-14 2013-11-21 Motorola Mobility Llc Scalable video coding with enhanced base layer
JP6282763B2 (ja) * 2012-09-21 2018-02-21 株式会社東芝 復号装置、符号化装置、復号方法、及び符号化方法
US10841610B2 (en) * 2017-10-23 2020-11-17 Avago Technologies International Sales Pte. Limited Block size dependent interpolation filter selection and mapping
JP2021174404A (ja) * 2020-04-28 2021-11-01 株式会社Preferred Networks データ生成装置、訓練装置及びデータ生成方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2606187B1 (fr) * 1986-10-31 1988-12-09 Thomson Grand Public Procede et dispositif de reduction du bruit engendre par un codeur-decodeur d'images numeriques operant par blocs
US4941043A (en) * 1988-06-14 1990-07-10 Siemens Aktiengesellschaft Method for reducing blocking artifacts in video scene coding with discrete cosine transformation (DCT) at a low data rate
US5253078A (en) * 1990-03-14 1993-10-12 C-Cube Microsystems, Inc. System for compression and decompression of video data using discrete cosine transform and coding techniques
US5351087A (en) * 1990-06-01 1994-09-27 Thomson Consumer Electronics, Inc. Two stage interpolation system
US5196930A (en) * 1990-07-20 1993-03-23 Matsushita Electric Industrial Co., Ltd. High efficienccy coding and decoding apparatus for lowering transmission or recording rate of transmitted or recorded video signal without reducing picture quality
US5369437A (en) * 1991-08-28 1994-11-29 Nec Corporation Time-varying image signal coding/decoding system
JP3161017B2 (ja) * 1992-04-16 2001-04-25 ソニー株式会社 動画像復号化装置
JPH05308622A (ja) * 1992-04-28 1993-11-19 Mitsubishi Electric Corp 画像符号化・復号化装置
KR0148130B1 (ko) * 1992-05-18 1998-09-15 강진구 블럭킹아티팩트를 억제시키는 부호화/복호화 방법 및 그 장치
JPH05336514A (ja) * 1992-05-29 1993-12-17 Sony Corp 画像符号化装置
KR0128245B1 (ko) * 1992-10-07 1998-04-02 배순훈 화면 분할 기능을 갖는 디지탈 방식 고선명 텔레비젼
SG44005A1 (en) * 1992-12-11 1997-11-14 Philips Electronics Nv System for combining multiple-format multiple-source video signals
US5367629A (en) * 1992-12-18 1994-11-22 Sharevision Technology, Inc. Digital video compression system utilizing vector adaptive transform
JP3381855B2 (ja) * 1992-12-28 2003-03-04 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
US5614952A (en) * 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
US5398079A (en) * 1993-01-27 1995-03-14 General Instrument Corporation Half-pixel interpolation for a motion compensated digital video system
US5497246A (en) * 1993-07-15 1996-03-05 Asahi Kogaku Kogyo Kabushiki Kaisha Image signal processing device
KR970009302B1 (en) * 1993-08-17 1997-06-10 Lg Electronics Inc Block effect reducing apparatus for hdtv
US5473376A (en) * 1994-12-01 1995-12-05 Motorola, Inc. Method and apparatus for adaptive entropy encoding/decoding of quantized transform coefficients in a video compression system

Also Published As

Publication number Publication date
TW392131B (en) 2000-06-01
EP0781052A2 (de) 1997-06-25
EP0781052B1 (de) 2004-06-02
EP0781052A3 (de) 1998-04-29
JPH09214972A (ja) 1997-08-15
US5832120A (en) 1998-11-03
DE69632622D1 (de) 2004-07-08

Similar Documents

Publication Publication Date Title
DE69632622T2 (de) Universaler MPEG-Dekoder mit skalierbarer Bildgrösse
DE69822060T2 (de) Aufwärtsabtasterfilter und halbbildelementgenerator für abwärtsumsetzungssystem für hochauflösungsfernsehen
DE69924102T2 (de) Skalierung komprimierter bilder
DE69735838T2 (de) Videokodierer mit Transformationskoeffizientenprädiktion
DE69830802T2 (de) Zuweisung von rechenleistung in einem informationsstrom-dekoder
DE69631108T2 (de) Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern
DE69728801T2 (de) Verfahren und Vorrichtung zum Verändern der Auflösung durch direkte DCT Koeffizenten-Umsetzung
DE19626615C2 (de) Verfahren und Apparat zur Kompression, das bzw. der reversible Wavelet-Transformationen und einen eingebetteten Kodestrom verwendet
DE69919641T2 (de) Adaptive Videokompromierung mit variabler Quantisierung
DE69839039T2 (de) Vorrichtung und verfahren zur skalierung und flickerreduktion mit dynamischer koeffizientengewichtung
DE2937282C2 (de)
DE69818751T2 (de) Dekompression von interpolierten Bildern
DE60203850T2 (de) System und Verfahren zum Verarbeiten von Bildern mit aufgelöster Mosaikstruk- tur, um durch Farb-Aliasing hervorgerufenen Artefakte zu verringern.
DE69909364T2 (de) Vorrichtung und Methode zur Änderung der Grösse eines komprimiertes Bildes
DE19815861A1 (de) Verfahren und Vorrichtung für eine auf Blöcken basierende Bildverarbeitung
EP0309669A2 (de) Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
WO1999016234A2 (en) System, method and medium for increasing compression of an image while minimizing image degradation
WO2008019867A2 (de) Bildverarbeitungsvorrichtung für farb-bilddaten und verfahren zur bildverarbeitung von farb-bilddaten
DE3720163A1 (de) Verfahren und anordnung zum einfrieren eines fernsehbildes
DE60303614T2 (de) Verfahren zur bildskalierung
DE69736620T2 (de) Videodecoder mit einem horizontalen Polyphasen-Fir-Filter
DE60122382T2 (de) Vorrichtung und verfahren zur bereitstellung einer nützlichkeitsmetrik auf der grundlage der codierung von informationen zur verbesserung von videosignalen
DE19919412A1 (de) Decoder für einen digitalen Fernsehempfänger
EP1025704B1 (de) Verfahren zur bewegungskompensierenden prädiktion von bewegtbildfolgen
DE69827540T2 (de) Signalverarbeitungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition