DE69631108T2 - Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern - Google Patents

Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern Download PDF

Info

Publication number
DE69631108T2
DE69631108T2 DE69631108T DE69631108T DE69631108T2 DE 69631108 T2 DE69631108 T2 DE 69631108T2 DE 69631108 T DE69631108 T DE 69631108T DE 69631108 T DE69631108 T DE 69631108T DE 69631108 T2 DE69631108 T2 DE 69631108T2
Authority
DE
Germany
Prior art keywords
value
block
gradient
size
current pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69631108T
Other languages
English (en)
Other versions
DE69631108D1 (de
Inventor
Patrick William Freehold Devaney
Daniel Chandran North Wales Gnanaprakasam
Thomas James Mount Laurel Leacock
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69631108D1 publication Critical patent/DE69631108D1/de
Publication of DE69631108T2 publication Critical patent/DE69631108T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Description

  • GEBIET DER ERFINDUNG
  • Diese Erfindung ist in einem Qualitätsvideo-Codierungs-/Decodierungssystem verkörpert, das ein Filter zum Beseitigen von Rauschartefakten enthält, und insbesondere ein anisotropes Diffusionsfilter, das in jedem auf der diskreten Kosinustransformation basierenden Videodecodierungssystem (DCT-gestütztes System) das Ringing-Rauschen beseitigt.
  • HINTERGRUND DER ERFINDUNG
  • Es ist wohl bekannt, dass auf der diskreten Block-Kosinustransformation (Block-DCT) basierende Bildkomprimierungsalgorithmen unter bestimmten Umständen unerwünschte Rauschartefakte erzeugen können. Diese Umstände variieren abhängig von den exakten Einzelheiten des Gesamtcodierungssystems, von dem die DCT nur eine Komponente ist.
  • Ein Typ des Videokomprimierungssystems, das kürzlich beträchtliche Aufmerksamkeit erregt hat, ist das, das durch die Bewegtbild-Expertengruppe (MPEG), ein Komitee innerhalb des internationalen Normungsgremiums (ISO), vorgeschlagen worden ist. Das MPEG-2 System ist in einem Artikel mit dem Titel "MPEG-2 VIDEO" von der Simulationsmodell-Herausgabegruppe beschrieben, der vom ISO als ISO-EIC/13818-2:1995(E) verfügbar ist, der hierdurch wegen seiner Lehren über das MPEG-2-Videosignal-Codierungs- und -Decodierungsverfahren durch Literaturhinweis eingefügt ist. Dieses System ist ähnlich zum bedingten bewegungskompensierten Interpolations-Videocodierungssystem (CMCI-Videocodierungssystem), das im US-Patent Nr. 4.999.705 mit dem Titel THREE DIMENSIONAL MOTION COMPENSATED VIDEO CODING beschrieben ist, das hierdurch wegen seiner Lehren über Videocodierungstechniken durch Literaturhinweis eingefügt ist.
  • Das MPEG-System integriert eine Anzahl wohl bekannter Datenkomprimierungstechniken in einem einzelnen System. Diese enthalten die bewegungskompensierte Vorhersagecodierung, die diskrete Kosinustransformation (DCT), die adaptiven Quantisierung und die Codierung mit variabler Länge (VLC). In diesen Systemen wird der adaptive Quantisierungsschritt an den durch die diskrete Kosinustransformationsoperation für aus dem Eingangsbild abgeleitete Blöcke aus 64 Bildpunkten erzeugten Koeffizientenwerten ausgeführt.
  • Die DCT-Koeffizienten werden mit sich verändernder Auflösung als eine Funktion der durch die Codierungsoperation erzeugten Datenmenge quantisiert. In einem System mit einem Kanal mit fester Bandbreite können, falls ein einzelnes Vollbild eine relativ große Menge codierter Daten erzeugt, die auf aufeinander folgende Vollbilder angewendeten Quantisierungsschrittgrößen vergrößert (gröber gemacht) werden müssen, um die Menge der codierten Daten zu verringern, die verwendet werden, um diese Vollbilder darzustellen. Dies wird so ausgeführt, dass das durchschnittliche Niveau der während einiger Vollbild-Intervalle erzeugten Daten durch den Kanal mit fester Bandbreite übertragen werden kann. Falls ein Vollbild codiert wird, das ein Objekt mit relativ wenigen Konturen enthält, kann, wenn der Quantisierer eine grobe Quantisierung der DCT-Koeffizienten anwendet, das reproduzierte Bild dieses Objekts eine unerwünschte Quantisierungsverzerrung besitzen. Diese Verzerrung würde als eine Übertreibung der Konturen im Objekt erscheinen.
  • In den an Naimpally u. a. erteilten US-Patenten (US-Patent Nr. 5.294.974 und 5.325.125) sind MPEG-Codierer beschrieben, die hierdurch wegen ihrer Lehren über MPEG-Codierer hierin durch Literaturhinweis aufgenommen sind.
  • MPEG-2-Decodierer sind gegenwärtig kommerziell verfügbar. Zwei derartige Decodierer sind in "MPEG-2/CCIR 601 Video Decoder", SGS-Thomson Microelectronics, Juli 1994, bzw. "IBM MPEG-2 Decoder Chip User's Guide", IBM, Juni 1994, beschrieben, wobei sie hierdurch wegen ihrer Lehren über MPEG-2-Decodierer durch Literaturhinweis eingefügt sind.
  • Im Allgemeinen gibt es zwei Arten unerwünschter Rauschartefakte: Blockbildung und Ringing (die in Yuen M., Wu H., "Reconstruction Artifacts in Digital Video Compression", Proc. of SPIE, Bd. 2419, 1995, S. 455–465, beschrieben sind, und das hierdurch wegen seiner Lehren über Blockbildungs- und Ringing-Rauschartefakte durch Literaturhinweis eingefügt ist). Die Blockbildung tritt auf, wenn nur der DC-Koeffizient (d. h. der durchschnittliche Intensitätswert) gesetzt ist, was am wahrscheinlichsten bei sehr niedrigen Datenraten auftritt. Das Ringing tritt auf, wenn die grobe Quantisierung der DCT-Koeffizienten, insbesondere von Hochfrequenz-AC-Koeffizienten, Rauschen einfügt. Das Ringing ist mit dem Rauschen korreliert, das in der Nähe starker Kanten auftritt. In Systemen mit höherer Qualität (d. h. einem niedrigeren Komprimierungsverhältnis) ist das Ringing der sichtbarste Artefakt. Zurückzuführen auf leichte Variationen von Vollbild zu Vollbild ist das Ringing-Rauschen in Bewegtbildern als ein lokales Flackern in der Nähe der Kanten sichtbar. Dieser Rauschtyp ist als "Moskitorauschen" bekannt.
  • Systeme mit höherer Qualität sind teurer als Systeme mit niedrigerer Qualität, wobei sie dazu tendieren, weniger Rauschen zu erzeugen. Der vorherrschende Typ des Rauschens in Systemen mit niedrigerer Qualität ist das Blockbildungsrauschen, wohingegen das Ringing-Rauschen in Systemen mit hoher Qualität vorherrschend ist. Es gibt eine große Gesamtheit von Arbeiten über Schemata, um den Blockbildungseffekt in Systemen mit niedrigerer Qualität zu verringern, diese Zugänge sind jedoch nicht relevant, um das Ringing in Komprimierungssystemen mit hoher Qualität zu verringern.
  • Die Ringing-Artefakte treten auf kontrastlosen Hintergründen in der Nähe starker Kanten auf. Die Artefakte sind stärker als der Hintergrund, aber schwächer als die Kante. Deshalb kann die lokale Kantenstärke, falls sie bekannt ist, verwendet werden, um einen Maßstab zu definieren, unter dem eine Variation unwichtig ist.
  • Dieser Typ des Rauschartefakts kann unter Verwendung einer Technik verringert werden, die als anisotrope Diffusion bekannt ist (die in Perona, P., Malik, J.. "Scale-Space and Edge Detection Using Anisotropic Diffusion", IEEE Trans. on Pattern Analysis and Machine Intelligence, Bd. 12, 1990, S. 629–639, beschrieben ist, und die hierdurch wegen ihrer Lehren über die anisotrope Diffusion durch Literaturhinweis eingefügt ist. Die anisotrope Diffusion kann Variationen unter einem Maßstabs-Schwellenwert k selektiv glätten, während sie Merkmale über diesem Schwellenwert (bzw. Grenzwert) erhält oder sogar verbessert.
  • Die Forschungs- und Entwicklungslaboratorien von KDD haben ein Nachfilter entwickelt, um MPEG1-Bilder in einem Karaoke-Gerät zu verbessern (beschrieben in Nakajima, Y., "Postprocessing Algorithms for Noise Reduction of MPEG Coded Video", Tech. Report of IEICE-Japan, IE94-7, DSP94-7, 1994, S. 45–51, das hierdurch wegen seiner Lehren über Nachfilter durch Literaturhinweis eingefügt ist.) Dieses System berechnet lokale Mittel und Varianzen, um einen linearen Schätzwert kleinster Quadrate des besten lokalen Rausch-Reinigungsfilters zu berechnen. Das Filter erhält die Kanten, aber die Kantenabhängigkeit wird explizit und in einer komplizierten Weise gehandhabt. Das KDD-System ist im hohen Grade auf MPEG abgestimmt. Es verwendet viele komplizierte Einzelheiten dieses Codierungsschemas und die Statistiken der durch dieses Schema verarbeiteten Bilder. Die Hardware-Kosten des KDD-Systems sind sehr hoch.
  • Es sind viele theoretische Artikel veröffentlicht worden, die anisotrope Diffusionsalgorithmen betreffen, um Bilder zu schärfen oder zu verbessern (beschrieben in Saint-Marc, P., Chen, J., Medioni, G., "Adaptive Smoothing: A General Tool for Early Vision", IEEE Trans. on PAMI, Bd. 13, 1990, S. 514–529; Alvarez, L., Lions, P., Morel, J., "Image Selective Smoothing and Edge Detection by Nonlinear Diffusion II", SIAM J. Numerical Analysis, Bd. 29, 1990, S. 845–866, die hierdurch wegen ihrer Lehren anisotrope Diffusionsalgorithmen, um Bilder zu schärfen oder zu verbessern, durch Literaturhinweis eingefügt sind), es sind jedoch nur einige betrachtet worden, die die Technik auf Block-DCT-Systeme anwenden. El-Fallah berichtet über die Verwendung anisotroper Diffusion als ein Vorfilter, um das Rauschen vor der Komprimierung zu beseitigen (beschrieben in El-Fallah, A., Ford, G., Algazi, V., Estes, R., "The Invariance of Edges and Corners Under Mean Curvature Diffusion of Images", Proc. of SPIE, Bd. 2421, 1995, das hierdurch wegen seiner Lehren über anisotrope Vorfilter durch Literaturhinweis eingefügt ist). Es wird nicht als ein Nachfilter verwendet. Osher und Rudin haben ein eng verwandtes "Stoßfilter" entwickelt, erwähnen aber nichts über Block-DCT-Systeme (beschrieben in Osher, S., Rudin, L., "Feature-Oriented Image Enhancement Using Shock Filters", SIAM J. Numerical Analysis, Bd. 27, 1990, S. 919–940, das hierdurch wegen seiner Lehren über Stoßfilter durch Literaturhinweis eingefügt ist).
  • Bei der anisotropen Diffusion ist die Mittelung für die Rauschbeseitigung über eine Kante verboten, falls die Kantenstärke über dem kritischen Schwellenwert k liegt, der sorgfältig definiert ist. Das Ergebnis einer derartigen verbotenen Mittelung ist eine die Kanten erhaltende Glättung, die das Rauschen innerhalb des Bereichs beseitigt, während die Bereiche erhalten werden, wobei die Bereichsgrenzen implizit als über den Schwellenwert-Kanten liegend erkannt werden.
  • Perona und Malik, die oben zitiert worden sind, schlagen das Einstellen des kritischen Schwellenwertes auf 90 Prozent des globalen Gradienten für ein Bild mit stationären Inhalten vor, sie bieten jedoch keine Einzelheiten, um den Schwellenwert für ein nichtstationäres Bild lokal zu variieren. El-Fallah u. a., die oben zitiert worden sind, bringen ein Argument über die Tatsache, dass ihr Zugang überhaupt keine einstellbaren Parameter besitzt.
  • Lamberti, C. u. a., "WORKSTATION FOR 2-D ECHOCARDIOGRAPHY IMAGE PROCESSING", Proceedings of the Computers in Cardiology Meeting, Jerusalem, 19.–22. September 1989, Meeting Nr. 16, 19. September 1989, S.447–450, XP000200707, Institute of Electrical and Electronics Engineers, ISBN: 0-8186-2114-1, offenbart ein PC-gestütztes System für die echokariographische digitale Bildverarbeitung, das auf der Basis der Schätzung von Merkmalen wie Konturen, Volumina und die Wandbewegung unter Verwendung einer Konstanten als ein Schwellenwert arbeitet, um das Rauschen von den Kanten zu trennen. Die Erfassung der ventrikulären Konturen wird durch eine Bildvorverarbeitung ausgeführt, die auf der anisotropen Diffusionstechnik und der Differenzierung durch die Bildfaltung mit einer Laplace- oder Gauß-Maske basiert.
  • Das Vorangehende veranschaulicht die bekannten Einschränkungen, die in Rauschbeseitigungssystemen vorhanden sind. Folglich ist es offensichtlich, dass es vorteilhaft sein würde, ein anisotropes Nachfiltersystem für die Beseitigung des Ringing-Rauschens zu schaffen, das die Ringing-Rauschartefakte aus MPEG-decodierten Signalen beseitigt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist in einem Filtersystem verkörpert, das in einem Videosignal-Codierungs-/Decodierungssystem verwendet wird, das Vorrichtungen enthält, die ein Eingangsvideosignal codieren, die codierten Daten übertragen, die Daten decodieren und die Daten filtern. Das Filtersystem empfängt einen Block der decodieren Daten in einem Rasterabtastformat vom Decodierer und wendet die anisotrope Diffusion auf sie an, um die Ringing-Rauschartefakte zu unterdrücken.
  • Die vorangehenden und andere Aspekte der vorliegenden Erfindung werden aus der folgenden ausführlichen Beschreibung der Erfindung offensichtlich, wenn sie im Zusammenhang mit der beigefügten Zeichnung betrachtet wird.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist ein Blockschaltplan eines Systems, das eine Ausführungsform der vor liegenden Erfindung enthält.
  • 2(a) (Stand der Technik) ist ein Blockschaltplan eines beispielhaften Videosignal-Codierungssystems.
  • 2(b) (Stand der Technik) ist eine graphische Darstellung, die die Struktur eines Makroblocks veranschaulicht.
  • 2(c) (Stand der Technik) ist eine graphische Darstellung, die eine Scheibe eines Bildes veranschaulicht.
  • 2(d) (Stand der Technik) ist eine graphische Pixel-Darstellung, die die Zickzack-Abtaststruktur veranschaulicht, die durch den in 2(a) gezeigten Codierer verwendet wird.
  • 3 (Stand der Technik) ist ein Blockschaltplan eines beispielhaften Videosignal-Decodierungssystems.
  • 4 ist ein Blockschaltplan eines beispielhaften anisotropen Diffusionsfilters gemäß der vorliegenden Erfindung.
  • 5(a) und 5(b) sind Blockschaltpläne der beispielhaften Schaltungsanordnung, die für die Verwendung in der in 4 gezeigten Ausführungsform der Erfindung geeignet sind.
  • 6(a) ist eine graphische Darstellung der Bildabtastzeilen, die die relative Position der Bildelemente (Pixel) in den Zeilen anzeigt.
  • 6(b) ist ein Blockschaltplan der beispielhaften Schaltungsanordnung, die für das Bestimmen des Schwellenwertes in der Schaltungsanordnung nach den 4, 5(a) und 5(b) geeignet ist.
  • 7(a) und 7(b) sind graphische Darstellungen des Leitwertparameters gegen den Gradienten, die die Kurve des Gaußschen Leitwertes und die Kurve der Approximation mit einer abgeschnittenen geraden Linie für die kritischen Schwellenwerte von 10 bzw. 100 vergleichen.
  • 8 ist ein Blockschaltplan der beispielhaften Schaltungsanordnung, die für das Bestimmen einer Leitwertkonstante in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist.
  • 9 ist ein Blockschaltplan der beispielhaften Schaltungsanordnung, die für die Helligkeitsverarbeitung in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist.
  • 10 ist ein Blockschaltplan der beispielhaften Schaltungsanordnung, die für die Farbwertverarbeitung in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEISPIELHAFTEN AUSFÜHRUNGSFORMEN
  • Allgemein gesagt wirkt das Nachfilter der vorliegenden Erfindung auf die Daten, die codiert, übertragen und schließlich decodiert worden sind, um Pixelblöcke zu liefern. Bei der Verarbeitung dieser Pixelblöcke, die in einem Rasterabtastformat bereitgestellt werden, bestimmt das Nachfilter den Kantensignifikanz-Schwellenwert für jeden Block, bestimmt einen Leitwert, führt die anisotrope Diffusion an diesem Block aus, um Variationen zu glätten, und beseitigt so die Ringing-Rauschartefakte unter dem Schwellenwert, während die Merkmale über dem Schwellenwert erhalten oder verbessert werden. Mit anderen Worten, die Kanten werden durch die Rauschbeseitigung nicht beeinflusst, falls ihre Kantenstärke größer als der Schwellenwert ist.
  • Während die vorliegende Erfindung hinsichtlich eines MPEG-Decodierungssystems beschrieben ist, ist sie im Allgemeinen auf jedes Videodecodierungssystem anwendbar, das Videodaten decodiert, die durch quantisierte Ortsfrequenzkoeffizienten dargestellt sind.
  • 1 ist ein Blockschaltplan eines Systems, das eine Ausführungsform der vorliegenden Erfindung enthält. Die Daten eines Videosignals in hoher Qualität werden einem Codierer 1 bereitgestellt, der die Daten unter Verwendung eines MPEG-Codierungsalgorithmus codiert, um die Daten zu komprimieren. Der Codierer 1 erzeugt Vollbilder, setzt die Daten in das Blockformat um und führt die Komprimierung durch eine diskrete Kosinustransformation (die DCT-Komprimie rung) aus. Der komprimierte MPEG-Datenstrom wird dann über einen Übertragungskanal 5 zu einem Ziel gesendet. Das Übertragungssystem und der Übertragungskanal 5 können ein terrestrischer Rundfunkkanal oder ein Satelliten-Rundfunkkanal oder ein Kabelkanal sein. Wenn der Datenstrom an seinem Ziel empfangen wird, wird er unter Verwendung eines MPEG-Decodierers 9 decodiert. Der MPEG-Decodierer 9 verwendet einen Prozessor für die inverse diskrete Kosinustransformation (IDCT) und einen Bewegungskompensationsprozessor, um Pixelblöcke für die Anzeige zu liefern. Vor der Anzeige werden diese Pixelblöcke jedoch in Rasterabtastdaten umgesetzt, wobei die Rasterabtastdaten einem anisotropen Diffusionsfilter 13 unterworfen werden. Das Filter 13 beseitigt die Ringing-Rauschartefakte aus dem Bild. Nachdem die Rasterabtastdaten durch das anisotrope Diffusionsfilter 13 gegangen sind, werden sie als ein digitales Video in hoher Qualität auf einer Anzeige bereitgestellt.
  • Ein beispielhafter Codierer des Standes der Technik ist in 2(a) gezeigt. In diesem System werden rote (R), grüne (G) und blaue (B) Farbsignale, die ein Bild beschreiben, in der Rasterabtastreihenfolge von einer (nicht gezeigten) Videokamera oder einer anderen Videoquelle bereitgestellt. Diese Signale werden durch eine herkömmliche Farbmatrixschaltung 104 verarbeitet, um ein Helligkeitssignal (Y) und zwei Farbdifferenzsignale ((B-Y) und (R-Y)) zu erzeugen. Die Farbdifferenzsignale (B-Y) und (R-Y) werden durch die entsprechenden Tiefpassfilter 106 und 108 verarbeitet. Die beispielhaften Filter 106 und 108 filtern die entsprechenden Farbdifferenzsignale räumlich, um Signale zu erzeugen, die in jeder der horizontalen und vertikalen Richtungen eine Hälfte der räumlichen Auflösung des Helligkeitssignals besitzen.
  • Das Helligkeitssignal Y und die zwei räumlich gefilterten Farbdifferenzsignale (B-Y)' und (R-Y)' werden in einen Blockumsetzer 110 eingespeist. Der Blockumsetzer 110, der z. B. einen herkömmlichen Speicher mit zwei Zugriffskanälen enthalten kann, setzt die Signale Y, (B-Y)' und (R-Y)' aus dem Rasterabtastformat in ein Blockformat um.
  • Im Blockformat wird jedes Vollbild eines Bildes als eine Sammlung von Blöcken dargestellt, wobei jeder Block vierundsechzig Pixel besitzt, die als eine Matrix aus acht horizontalen Pixel mal acht vertikalen Pixel angeordnet sind. Der Blockumsetzer 110 kombiniert einige zusammenhängende Pixelblöcke in eine Datenstruktur, die als ein Makroblock bekannt ist. 2(b) zeigt eine beispielhafte Makro block-Datenstruktur 330, die vier Helligkeitsblöcke 310, 312, 314 und 316 aus vierundsechzig Pixel; einen Block aus vierundsechzig Pixel, des (B-Y)'-Farbdifferenzsignals 322; und einen Block aus vierundsechzig Pixel des (R-Y)'-Farbdifferenzsignals 324 enthält. Jeder dieser Pixelwerte ist durch einen digitalen Acht-Bit-Wert dargestellt. Der Blockumsetzer 110 stellt diese Pixelwerte, jeweils einen Block auf einmal, einem Subtrahierer 112 bereit.
  • Der Subtrahierer 112 subtrahiert jeden Block eines Makroblocks, der durch die Bewegungskompensations-Schaltungsanordnung 134 bereitgestellt wird, von einem entsprechenden Block eines Makroblocks, der durch den Blockumsetzer 110 bereitgestellt wird. Der Subtrahierer 112 erzeugt Datenblöcke, die einen bewegungsvorhersagenden differentiell codierten Makroblock darstellen. Diese erzeugten Blöcke werden in einen DCT-Prozessor 114 eingespeist. Der DCT-Prozessor 114 verwendet eine diskrete Kosinustransformation auf jeden der sechs Blöcke der differentiellen Pixelwerte an, um sie in sechs entsprechende Blöcke der DCT-Koeffizienten umzusetzen. Jeder dieser Blöcke wird dann unter Verwendung einer Zickzack-Abtastung, wie z. B. derjenigen, die in 2(d) gezeigt ist, in einen linearen Strom aus vierundsechzig Koeffizienten umgeordnet.
  • Für jeden Block stellt der Erste dieser Koeffizienten die Gleichstrom-Ortsfrequenzkomponente (DC-Ortsfrequenzkomponente) der Pixel im Block dar, während die verbleibenden Koeffizienten die Komponenten bei aufeinander folgenden höheren Ortsfrequenzen darstellen.
  • Die durch den DCT-Prozessor 114 bereitgestellten Koeffizientenwerte werden in einen Quantisierer 116 eingespeist, der jeden Koeffizientenwert in einen binären Wert umsetzt, der eine zugeordnete Anzahl von Bits besitzt. Im Allgemeinen wird für die Koeffizienten niedrigerer Ordnung eine größere Anzahl von Bits als für die Koeffizienten höherer Ordnung verwendet, weil das menschliche Auge für die Bildkomponenten mit höheren Ortsfrequenzen weniger empfindlich als für die Komponenten mit niedrigeren Ortsfrequenzen ist. Diese Operation kann z. B. ausgeführt werden, indem jeder Koeffizientenwert im linearisierten Block durch einen entsprechenden verschiedenen Wert dividiert wird, der zur Frequenz des Koeffizienten proportional ist. Eine Matrix, die diese Werte enthält, kann mit dem Signal übertragen werden, um zu ermöglichen, dass das Signal an seinem Ziel entquantisiert wird.
  • Außerdem kann die jedem Koeffizientenwert zugeordnete Anzahl der Bits in Reaktion auf die Werte geändert werden, die durch die Quantisierer-Steuerschaltungsanordnung 122 bereitgestellt werden, die im Folgenden beschrieben ist. Diese Werte können angewendet werden, einer pro Makroblock, um jeden Koeffizientenwert im Makroblock durch den Wert zu dividieren, bevor oder nachdem die Koeffizientenwerte durch die Matrix der frequenzabhängigen Werte dividiert werden. Der Quantisierer 116 erzeugt einen Strom digitaler Werte, der in einen Codierer 118 mit variabler Länge und einen inversen Quantisierer 24 eingespeist wird.
  • Der Codierer 118 mit variabler Länge codiert die Daten, z. B. unter Verwendung eines Amplituden-Lauflängencodes des Huftman-Typs. Die durch den Codierer 118 mit variabler Länge erzeugten Signale werden zuerst in einen Silopuffer (FIFO-Puffer) 120 eingespeist, der die Werte für die Übertragung mit einer von gegebenen Rate als die Signalausgabe speichert.
  • In einer Anwendung mit einem Kanal mit fester Bandbreite kompensiert der Quantisierer-Controller 122 die sich verändernden Raten, mit denen die codierten Informationen erzeugt werden, indem er die Quantisierungsschrittgröße steuert, die durch den Quantisierer 116 angewendet wird. In Reaktion auf die verschiedenen Puffer-voll-Signale konditioniert die Quantisierer-Steuerschaltungsanordnung 122 den Quantisierer 116, um verschiedene Niveaus der Quantisierungsauflösung auf die durch den DCT 114 bereitgestellten Koeffizientenwerte anzuwenden. Wenn der Puffer mehr gefüllt wird, veranlasst die Steuerschaltungsanordnung 122 den Quantisierer 116, aufeinander folgend gröbere Niveaus der Quantisierungsauflösung auf die Koeffizientenwerte anzuwenden.
  • Folglich erzeugt der Quantisierer 116, wenn der FIFO-Puffer 120 aufeinander folgend mehr Daten enthält, weniger Bits der codierten Daten durch eine gröbere Quantisierung der DCT-Koeffizienten, die das empfangene Bild darstellen. Diese Grobheit führt zu einem Ringing-Rauschartefakt in den Daten, wenn sie schließlich decodiert und für die Anzeige vorbereitet werden.
  • Nachdem die Werte übertragen worden sind, werden sie empfangen und decodiert. Ein typischer Decodierer ist in 3 gezeigt. Die erfassten Daten werden in einen Decodierer mit variabler Länge (VLD) 123 eingespeist, der die durch den Codierer 118 mit variabler Länge, der in 2(a) gezeigt ist, ausgeführte Codie rungsoperation mit variabler Länge umkehrt. Außerdem extrahiert der VLD 123 die codierten Bewegungsvektorinformationen und speist diese in den Bewegungskompensationsprozessor 134 ein. Die mit fester Länge codierten Datenblöcke werden in einen inversen Quantisierer 124 eingespeist, der die durch den Quantisierer 116 ausgeführte Operation umkehrt, um approximierte DCT-Koeffizienten zu erzeugen, die jeden Block des codierten Bildes darstellen.
  • Entsprechend einer Reihe der DCT-Blöcke, die 8 Zeilen (ein Block) hoch ist, wird eine Scheibe als 8 Zeilen eines Bildes definiert, die vertikal auf die DCT-Blockgrenzen ausgerichtet ist. Jede Scheibe enthält (Bildbreite/DCT-Blockbreite) Blöcke. Folglich enthält z. B. ein mit 480 Zeilen MPEG-codiertes Bild 60 Scheiben, wobei jede Scheibe 8 Zeilen hoch ist. 2(c) veranschaulicht eine Scheibe 370 in Bezug auf das Bild 350 und die DCT-Makroblocks 360.
  • Die durch den inversen Quantisierer 124 bereitgestellten Blöcke der Koeffizientenwerte werden in einen Prozessor 126 für die inverse diskrete Kosinustransformation (IDCT) eingespeist. Dieser Prozessor kehrt die diskrete Kosinustransformationsoperation um, um einen rekonstruierten Block der Bildpixel oder bewegungskompensierte differentiell codierte Pixelwerte zu bilden.
  • Dieser rekonstruierte Block stellt bewegungskompensierte Pixel dar, wobei er durch die IDCT-Schaltungsanordnung 126 zusammen mit einem vorhergesagten Block aus der Bewegungskompensationseinheit 134 in einen Addierer 128 eingespeist wird. Die Bewegungskompensationseinheit 134 stellt die Daten, die mit dem decodierten IDCT-Block zu kombinieren sind, aus dem Mehrfachvollbild-Speicher 130 basierend auf den vom VLD-Prozessor 123 empfangenen Informationen bereit. Der Addierer 128 summiert diese Werte, um decodierte Pixelwerte zu erzeugen, die für die Nachverarbeitung oder die Anzeige im Vollbildspeicher 130 gespeichert werden. Die nicht bewegungskompensierten Blöcke der Pixelwerte werden ohne Modifikation im Speicher 130 gespeichert. Die Bilddaten werden aus dem Speicher 130 in der Rasterabtastreihenfolge bereitgestellt.
  • 4 zeigt einen Blockschaltplan eines beispielhaften anisotropen Diffusionsfilters der vorliegenden Erfindung. Die MPEG-decodierten Daten werden in der Rasterabtastreihenfolge in das Filter eingespeist. Ein separater Kantensignifikanz-Schwellenwert 20 wird für die Pixel in der Rasterabtastung berechnet, die jedem durch den MPEG-Decodierer verarbeiteten Block der Pixeldaten entsprechen.
  • Nach dem Bestimmen des Kantensignifikanz-Schwellenwertes 20 führt das Filter die Diffusion 30 aus. Vier benachbarte Pixel tragen für einen gegebenen Pixel zur Diffusion bei, wobei jeder Nachbar seinen eigenen Leitwert besitzt. Der Leitwert wird basierend auf ΔI (der Intensitätswertdifferenz zwischen dem Nachbarpixel und dem Mittelpixel) und k (dem Kantensignifikanz-Schwellenwert für den Block, der den Mittelpixel enthält) berechnet. Nachdem die Diffusion ausgeführt worden ist, schickt das Filter die resultierenden Pixelwerte, um angezeigt zu werden.
  • 5(a) und 5(b) zeigt einen Blockschaltplan einer beispielhaften Schaltungsanordnung, die für die Verwendung in der Ausführungsform der Erfindung, die in 4 gezeigt ist, geeignet ist. Jedes Eingangsvollbild besteht aus einem Helligkeitsvollbild Y und zwei Farbwertvollbildern Cr und Cb. Das Helligkeitsvollbild wird von den Farbwertvollbildern separat verarbeitet. 5(a) zeigt die Schaltungsanordnung, die zum Ausführen einer anisotropen Diffusionsoperation in einem einzigen Durchgang geeignet ist, während 5(b) die Schaltungsanordnung zeigt, die für das Ausführen einer Operation in mehreren Durchgängen geeignet ist.
  • Das Filter der vorliegenden Erfindung führt mehrere Durchgänge an den Daten aus, die verarbeitet werden. Nachdem die Daten ein erstes Mal gefiltert worden sind, werden sie für einen zweiten Durchgang dem Filter zurück bereitgestellt, wobei dadurch eine weitere Rauschbeseitigung erlaubt wird.
  • Im Allgemeinen ist der Gradient des Pixelblocks die Grundlage des Auswählens des Kantensignifikanz-Schwellenwertes k. Falls der Block eine Kante mit hohem Kontrast enthält, dann ist der Gradient längs dieser Kante groß. Es wird erwartet, dass starke Kanten ein Ringing hervorrufen, nachdem sie durch ein DCT-gestütztes Komprimierungssystem geleitet worden sind. Es wird weiter erwartet, dass die Größe des Ringings viel niedriger als die Größe der Kante ist. Folglich sollte das Setzen des Kantensignifikanz-Schwellenwertes basierend auf der wahren Kantenstärke eine anisotrope Diffusion verursachen, um das Ringing zu beseitigen. Das einfache Setzen des kritischen Kantensignifikanz-Schwellenwertes k gleich dem maximalen Gradienten innerhalb eines Blocks verursacht jedoch zu viel Glättung. Es ist festgestellt worden, dass 0,5*max grad einen geeigneten Betrag der Glättung ergibt. Demzufolge ist k durch die Gleichung (1) bestimmt.
  • k(block) = α*(0,5*actual max grad), mit α = 0,75 (1)
  • Der Faktor 0,75 ist ein empirischer Faktor, der verwendet wird, um die Übereinstimmung zwischen der (im Folgenden erörterten) Leitwertfunktion und dem Gradientenwert zu verbessern.
  • Die obige Regel gilt für einfarbige Bilder. Dies kann mit einigen Verfahren für Farbbilder wie folgt erweitert werden.
  • Farbabbildungssysteme behandeln Farbvideosignale als eine Kombination orthogonaler Signale (z. B. R, G, B oder Y, Cr, Cb). Es werden Farbmatrizen verwendet, um zwischen diesen orthogonalen Koordinatensystemen umzusetzen. Die einfache Erweiterung der Kante als der Gradient auf Farbbilder würde sein, den Gradienten als die euklidische Größe der drei Farbgradienten zu behandeln, wie in der Gleichung (2) gezeigt ist.
  • grad(color) = sgrt[(R grad)2 + (G grad)2 + (B grad)2] (2)
  • Diese Regel wird durch die Farb-Unterabtastung verkompliziert, die ein übliches Hilfsmittel bei der Fernsehabbildung ist. Das YUV-Farbkoordinatensystem (Y, Cr, Cb) ist das im Fernsehen am häufigsten verwendete. Jedes Vollbild besteht aus einem Helligkeitsvollbild Y und zwei Farbdifferenzvollbildern Cr und Cb. Es ist empirisch gezeigt wurden, dass U und V mit dem Faktor zwei ohne wahrnehmbare Artefakte horizontal unterabgetastet werden können. Die Bilder mit dieser Unterabtastung werden als YUV422-Bilder bezeichnet.
  • Um einen Farbgradienten bei YUV422-Bildern zu berechnen, ist es erwünscht, die fehlenden Abtastwerte wiederherzustellen, entweder direkt durch Überabtastung oder durch Interpolation. Dann wird das anisotrope Diffusionsfilter auf das überabgetastete Bild angewendet (beim zweifachen der YUV422-Hardware-Kosten für U und V). Ansonsten würde der Maßstabs-Schwellenwert für U und V beim vollständigen Maßstab berechnet werden, aber auf die U- und V-Daten im halben Maßstab falsch angewendet werden. Die vorliegende Erfindung behandelt die Y-, U- und V-Daten unabhängig und erfordert deshalb keine Überabtastung. In jedem Fall werden die Statistiken für den kritischen Schwellenwert k gesammelt und innerhalb des DCT-Blocks mit geeigneter Größe angewendet.
  • Das meiste der Literatur verwendet das wohl bekannte Sobel-Kantenoperatorpaar, um die Größe des Gradienten zu berechnen. Diese Berechnung verwendet die Daten von den acht nächsten Nachbarn, um eine X- und eine Y-Komponente des Gradienten zu berechnen. Dann werden sie durch eine Operation, bei der die Wurzel der Summe der Quadrate gebildet wird, kombiniert. Dieses Verfahren der Gradientenberechnung ist jedoch zu teuer.
  • Die vorliegende Erfindung verwendet den weniger teuren morphologischen Gradienten. Der morphologische Gradient verwendet den Mittelpixel und seine vier nächsten Nachbarn, wobei er nur 6 Vergleiche und eine Subtraktion erfordert, wie in 6(b) gezeigt ist, die im Folgenden beschrieben ist. Unter normalen Umständen besitzt der morphologische Gradient den Nachteil, einen Pixel breite Kanten auf eine Zweit-Pixel-Breite zu verbreitern. Für die anisotrope Diffusion ist dieser potentielle Nachteil jedoch ein Vorteil. Die Pixel auf beiden Seiten einer Kante werden als einen hohen Gradienten besitzend markiert. Dies verbessert die gewünschte Wirkung des Verbietens der Diffusion über die Kanten, insbesondere wo die Kante eine DCT-Blockgrenze überspannt.
  • Die Anisotropie der Diffusion wird durch eine lokale Variable gesteuert, die zur thermischen Leitfähigkeit oder dem thermischen Leitwert analog ist. Dieser Parameter g ist eine monoton abnehmende Funktion. Perona und Malik, die oben zitiert worden sind, bieten zwei derartige Funktionen an: die Gaußsche Exponentialfunktion und die Laplace-Funktion. Es ist in der Literatur dargelegt worden, dass die Gaußfunktion beim Erhalten von Kanten mit hohem Kontrast bessere Arbeit leistet. El-Fallah schlägt vor, dass das Inverse des Gradienten als der Leitwert verwendet wird (beschrieben in El-Fallah, A., Ford, G., "Nonlinear Adaptive Image Filtering Based on Inhomogeneous Diffusion and Differential Geometry", Proc. of SPIE, Bd. 2182, 1994, S. 49–63, das hierdurch wegen seiner Lehren über die Berechnung des Leitwerts durch Literaturhinweis eingefügt ist).
  • Die vorliegende Erfindung enthält die Gaußfunktion, weil sie eine signifikante Diffusion mit einer sehr kleinen Anzahl von Iterationen (d. h. zwei) ergibt. Die Formel für den Gaußschen Leitwert ist durch die Gleichung (3) gegeben.
  • Figure 00140001
  • Der Leitwert g wird für jede Iteration für jeden der vier Nachbarn jedes Pixels berechnet. Die genaue Berechnung durch eine Nachschlagetabelle oder eine Polynomapproximation würde teurer sein, weil sowohl k als auch der Gradient variabel sind (vgl. jedoch die zweite beispielhafte Ausführungsform, die eine Nachschlagetabelle verwendet, die im Folgenden unter Bezugnahme auf die 9 und 10 beschrieben ist). Folglich verwendet die vorliegende Erfindung eine Approximation mit einer abgeschnittenen geraden Linie, um die Gaußfunktion zu ersetzen. Die Linie, die einen Anstieg besitzt, der gleich dem Anstieg der Gaußfunktion am Wendepunkt ist, geht durch den Wendepunkt. Die Linie wird abgeschnitten, um g im Bereich 0 ≤ g ≤ 1 zu halten. g kann durch die Gleichung (4) aus k berechnet werden.
  • g(gradient) = C1 + [C2/k]*gradient (4)
  • Die beigefügten Kurven (die 7(a) und 7(b)) zeigen, dass dies eine gute Approximation ist. Außerdem wird die Hardware verringert, die notwendig ist, um g zu berechnen, um (1) den Gradienten mit einem Pro-Block-Parameter zu multiplizieren, (2) dies mit einer Konstanten zu kombinieren, und (3) das Ergebnis abzuschneiden.
  • Die Operation dieses Filters mit mehreren Durchgängen wird beschrieben, in dem zuerst unter Bezugnahme auf 5(a) die Operation des Filters mit einem einzigen Durchgang beschrieben wird, und dann beschrieben wird, wie das Filter mit einem einzigen Durchgang modifiziert wird, um das in 5(b) gezeigte Filter mit mehreren Durchgängen bereitzustellen. In 5(a) wird das Helligkeitsvollbild durch das Verzögerungselement 207 um ein Zeilenintervall (1 H) verzögert und dann durch das (1 H)-Verzögerungselement 209 ein zweites Mal verzögert. Die durch die zwei Verzögerungselemente 207 und 209 bereitgestellten Signale und das ursprüngliche Y-Signal werden in eine Gradienten-Berechnungsvorrichtung 210 eingespeist, um den Kantensignifikanz-Schwellenwert k zu berechnen. Der Leitwert C2/k wird dann durch die CalcC2/k-Einheit 215 bestimmt.
  • Die Daten werden dann für die Verarbeitung zu einem Helligkeitsprozessor 220 geschickt. Die Eingangssignale in den Prozessor 220 bestehen aus der Leitwertkonstanten C2/k aus der CalcC2/k-Einheit 215, dem Ausgangssignal des FIFO-Puffers 206, dem um ein Zeilenintervall (1 H) 212 verzögerten Ausgangssignal des FIFO-Puffers 206 und dem um ein zweites Ein-Zeilen-Intervall (1 H) 214 verzögerten Ausgangssignal des FIFO-Puffers 206.
  • Die Farbwertvollbilder Cr und Cb werden durch einen Multiplexer 260 zusammen multiplexiert. Das Ausgangssignal des Multiplexers 260 wird durch das Verzögerungselement 267 um eine horizontale Zeilenperiode (H/2) verzögert und dann durch das Verzögerungselement 269 um ein zweites horizontales Zeilenintervall (H/2) verzögert. Es wird angemerkt, dass jede Zeile der Farbwertsignale die Hälfte der Anzahl der Abtastwerte einer Zeile der Helligkeitsabtastwerte besitzt. Folglich verzögert eine Verzögerungsleitung mit H/2 Verzögerungselementen das Farbwertsignal um ein horizontales Zeilenintervall. Das Ausgangssignal des Multiplexers 265 wird außerdem in einem FIFO-Puffer-Kompensationsverzögerungselement 266 für die weitere Verarbeitung gespeichert. Die durch die zwei Verzögerungselemente 267 und 269 bereitgestellten Signale und das ursprüngliche Ausgangssignal des Multiplexers 265 werden in eine Gradienten-Berechnungsvorrichtung 270 eingespeist, um den Kantensignifikanz-Schwellenwert zu berechnen. Die Leitwertkonstante C2/k wird dann durch eine CalcC2/k-Berechnungsvorrichtung 275 berechnet.
  • Dann werden die Daten für die Verarbeitung zu einem Farbwertprozessor 280 geschickt. Das Eingangssignal in dem Farbwertprozessor 280 besteht aus der Leitwertkonstanten C2/k von der CalcC2/k-Schaltung 275, dem Ausgangssignal des FIFO-Puffers 266, dem durch das Verzögerungselement 272 um ein Zeilenintervall verzögerten Ausgangssignal des FIFO-Puffers 266 und dem durch das Verzögerungselement 274 um ein zweites Zeilenintervall verzögerten Ausgangssignal des FIFO-Puffers 266.
  • Geeignete FIFOs und Multiplexer können der Schaltungsanordnung erlauben, beim Zweifachen der Pixel-Taktrate zu laufen, um zwei Durchgänge einer anisotropen Diffusion auszuführen. Falls die Nachfilter-Schaltungsanordnung beim Zweifachen des Pixeltaktes angesteuert wird, gibt es Zeit, dass zwei Durchgänge des Nachfilters angewendet werden, vorausgesetzt, dass die geeignete Rückführungs-Schaltungsanordnung hinzugefügt ist. Diese Rückführungs-Schaltungsanordnung ist in 5(b) gezeigt. Für das Helligkeitsvollbild umfasst sie eine Ratenänderungsschaltung (vom einfachen Pixeltakt zum zweifachen Pixeltakt), die einen Pufferungs-FIFO 200 enthält, einen Rückführungsweg (der den Ausgang der Y-Verarbeitung mit dem Multiplexer 205 verbindet), einen Multiplexer 205, um die Daten entweder des ersten oder des zweiten Durchgangs auszuwählen, und eine Endraten-Änderungsvorrichtung, den FIFO 225, um die Ausgabe des zweiten Weges zu sammeln und sie zurück zum einfachen Pixeltakt umzusetzen. Die Rückführungs-Schaltungsanordnung für die Farbwertvollbilder umfasst die Raten änderungs- und Pufferungs-FIFOs 250 und 255, einen Rückführungsweg (der die Ausgänge der Cr- und Cb-Verarbeitung mit dem Multiplexer 265 verbindet), einem Multiplexer 265, um die Daten entweder des ersten oder des zweiten Durchgangs auszuwählen, die Endraten-Änderungsvorrichtungen, die FIFOs 285 und 290, um die Ausgabe des zweiten Weges zu sammeln und sie zurück zum einfachen Pixeltakt umzusetzen, und einen Multiplexer 295, um die Cr- und Cb-Signale in ein Ausgangssignal zu kombinieren.
  • 6(b) zeigt einen Blockschaltplan einer beispielhaften Gradienten-Schaltungsanordnung, die für das Bestimmen des Kantensignifikanz-Schwellenwertes in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist. Die Pixel der Bildabtastzeilen, wie sie in 6(a) gezeigt sind, werden durch die Schaltungsanordnung in 6(b) verarbeitet. In 6(a) stellt der Pixel S in der Zeile OH den Pixel einer horizontalen Zeile direkt unter der aktuellen Zeile (1 H) dar, während der Pixel N in der Zeile 2 H den Pixel eine horizontale Zeile direkt über der aktuellen Zeile darstellt. Der aktuelle Pixel in der Zeile 1 H wird als X bezeichnet. Die Pixel E und W treten unmittelbarer nach bzw. unmittelbar vor dem Pixel X in der Zeile 1 H auf.
  • Die Pixel S und H werden in den Auffangspeichern 609 und 611 gespeichert und dann durch einen Komparator 610 verglichen. Der Pixel mit der größeren Größe wird durch den Multiplexer 615 bereitgestellt, während der Pixel mit der kleineren Größe durch den Multiplexer 620 bereitgestellt wird. Inzwischen wird ein Paar der Verzögerungen 604 und 605 verwendet, um die Pixel E und W zu isolieren, um die sich direkt nach und direkt vor dem aktuellen Pixel X in der Zeile 1 H befinden. Diese zwei Pixel werden durch einen Komparator 625 verglichen, wobei der Pixel mit dem größeren Größenwert durch den Multiplexer 630 bereitgestellt wird, während der Pixel mit dem kleineren Größenwert durch den Multiplexer 635 bereitgestellt wird. Der durch den Multiplexer 615 bereitgestellte größere Pixel-Größenwert wird im Komparator 640 mit dem durch den Multiplexer 630 bereitgestellten größeren Pixel-Größenwert verglichen, wobei der größere von diesen zwei Werten durch den Multiplexer 645 bereitgestellt wird. Der durch den Multiplexer 620 bereitgestellte kleinere Pixel-Größenwert wird im Komparator 650 mit dem durch den Multiplexer 635 bereitgestellten kleineren Pixel-Größenwert verglichen, wobei der kleinere dieser Werte durch den Multiplexer 655 bereitgestellt wird. Ein Kompensations-Verzögerungselement 663 schickt den aktuellen Pixel X mit der richtigen Taktung zu den Komparatoren 660 und 670, um seine entsprechenden größten und kleinsten umgebenden Pixelwerte auf Gleichheit zu prüfen. Der durch den Multiplexer 645 bereitgestellte größte umgebende Pixel-Größenwert wird im Komparator 660 mit dem aktuellen Pixel X verglichen, wobei der Pixel mit dem größeren Größenwert durch den Multiplexer 665 bereitgestellt wird. Der durch den Multiplexer 655 bereitgestellte kleinste Pixel-Größenwert wird im Komparator 670 mit dem aktuellen Pixel X verglichen, wobei der Pixel mit dem kleineren Größenwert durch den Multiplexer 675 bereitgestellt wird. Folglich wird aus den fünf verglichenen Pixeln (S, X, N, E und W) der größte Größenwert durch den Multiplexer 665 bereitgestellt, während der kleinste Größenwert durch den Multiplexer 675 bereitgestellt wird. Diese zwei Werte werden durch einen Subtrahierer 680 subtrahiert, um das Endergebnis zu ergeben, das der morphologische Gradient beim aktuellen Pixel X ist. 8 zeigt, wie dieses Ergebnis verwendet wird: der in 6 berechnete Gradient (der das Element 802 nach 8 ist), wird in einen Eingangsanschluss des max-Elements 808 eingespeist; der andere Eingangsanschluss ist angeschlossen, um das laufende Maximum für den DCT-Block zu empfangen. Nachdem der maximale Gradient für alle Pixel in dem Block bestimmt worden ist, wird der letzte aufgefangene Maximalwert (im Register 810) durch zwei dividiert (d. h. um ein Bit zu den niederwertigen Bitpositionen verschoben), um den Kantensignifikanz-Schwellenwert k für diesen Block zu erzeugen.
  • Die Erfinder haben die Werte für die Konstanten C1 und C2 der Gleichung (4) als 1,21 bzw. –0,85576 bestimmt. Folglich verringert sich die Gleichung (4) für den Leitwert zur Gleichung (5).
  • g(gradient) = 1,21 – [0,85576/k]*gradient (5)
  • Die Werte für C1 und C2 bleiben für jeden Pixelblock die gleichen, der in die Rasterabtastdaten umgesetzt und dann verarbeitet wird. Für jeden Block verändert sich jedoch k. Die 7(a) und 7(b) zeigen die Gaußsche Leitwertkurve und die Kurve der Approximation mit einer abgeschnitten geraden Linie für k = 10 bzw. 100.
  • 8 zeigt einen Blockschaltplan einer beispielhaften Schaltungsanordnung, die für das Bestimmen der Leitwertkonstanten C2/k in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist. Im max-Modul 801 wird der Gradient für den aktuellen Pixel, der durch die Gradienten-Berechnungsvorrichtung 802 bestimmt wird, die in 6 ausführlich gezeigt ist, zum max-Komparator 808 geschickt. Der bis jetzt erhaltene maximale Gradient für die aktuelle Reihe der Pixel im aktuellen Block, runmax(row), wird außerdem durch den runmax-Speicherbereich 806, der runmax(row) speichert, zum max-Komparator 808 geschickt. Der max-Komparator 808 vergleicht den Gradienten des aktuellen Pixels mit runmax(row) und stellt den größeren Wert bereit. Bei den Takt-Ticks 0-6 wird das Ergebnis des Vergleichs zu einem Multiplexer 804 geschickt.
  • Eine Adressenerzeugung- und Taktungsvorrichtung 850 steuert die Adressierung, das Lesen und das Schreiben in der Schaltung. In einer Reihe eines Blocks gibt es acht Takt-Ticks (0-7).
  • Das Ergebnis des durch den Komparator 808 ausgeführten Vergleichs wird außerdem nach einem Tick Verzögerung 810 zu einem Multiplexer 812 geschickt, der jede achte Reihe der Pixel runmax(row) auf null setzt. Der Multiplexer 812 stellt beim Tick 0 entweder eine 0 oder runmax(row) für die Speicherung in einem statischen RAM 820 bereit. Das Ergebnis des durch den Komparator 808 ausgeführten Vergleichs wird außerdem beim Tick 1 jeder achten Reihe der Pixel für die Speicherung in den RAM 820 geschickt. Dieser Wert ist der maximale Gradient des Pixelblocks, kmax(block).
  • Der beispielhafte RAM 820 besitzt einen einzigen Zugriffskanal; folglich werden Verzögerungen verwendet, um das Lesen und das Schreiben zu planen. Die Daten werden bei den Takt-Ticks 0 und 1 in den RAM 820 geschrieben, während sie bei den Takt-Ticks 6 und 7 aus dem RAM 820 gelesen werden. Für eine Bildbreite von W Pixel enthält der RAM 820 2*(W/8) Byte Stellen: (W/8) Byte Stellen, um runmax(row) zu speichern und (W/8) Byte Stellen, um kmax(block) zu speichern. Der Adressengenerator 850 veranlasst den Multiplexer 812, vor dem Anfang jedes neuen Pixelblocks null in runmax(row) zu laden. Er veranlasst außerdem das Register 816, am Ende jedes Blocks den Wert von kmax auszutakten. In dieser Weise wird die zugrunde liegende Blockstruktur implizit verfolgt, indem die Teilergebnisse zum richtigen Block addiert werden und der richtige k-Wert für die Filterung auf jeden Block angewendet wird, obwohl die Verarbeitung in der Rasterabtastreihenfolge ausgeführt wird. Der RAM 820 besitzt eine ausreichende Anzahl von Speicherstellen, um alle DCT-Blöcke in einer Scheibe zu verfolgen.
  • Beim Takt-Tick 6 wird runmax(row) aus dem RAM 820 gelesen und nach einem Tick Verzögerung zum Multiplexer 804 für die Lieferung zum runmax-Speicherbe reich 806 geschickt. Beim Takt-Tick 7 wird kmax(row) zum Nachschlagemodul 830 geschickt. Das Nachschlagemodul 830 empfängt kmax(block) und schickt es zu einem ROM 834, um die Leitwertkonstante C2/k zu bestimmen. Dieser Wert wird dann in der anschließenden Helligkeits- und Farbwertverarbeitung verwendet, wie im Folgenden beschrieben ist.
  • Die anisotrope Diffusion ist eigentlich ein iterativer Prozess. Bei jeder Iteration werden die Kanten ein wenig schärfer und die kontrastlosen Bereiche werden ein wenig glatter. Es gibt eine natürliche Grenze für diesen Prozess, die durch eine Erhaltungsbedingung gesetzt ist; nämlich, dass nicht mehr als die vorhandene Intensität eines Pixels in einer Iteration in seine vier Nachbarn diffundieren kann. Deshalb kann im Durchschnitt nicht mehr als ein Viertel der Intensität an irgendeinen Nachbarn gegeben werden. Dies ist der Ursprung der numerischen Stabilitätsbedingung, λmax = 1/4, in der Gesamtdiffusionsformel, die in der Gleichung 6 gezeigt ist.
  • Figure 00200001
  • wobei ΔIi = (Ii – Icenter) und i = 4 Nachbarn gilt.
  • Innerhalb dieser Grenze kann die Diffusionsrate gesteuert werden, indem k eingestellt wird. Im Wesentlichen kann erlaubt werden, dass noch weitere Diffusion (Glättung) in der Nähe starker Kanten auftritt.
  • Die Literatur ist am meisten daran interessiert gewesen, den anisotropen Diffusionsprozess für den Zweck der Bildsegmentierung zu seinem stabilen Endpunkt zu führen. Alvarez u. a., die oben zitiert worden sind, berichten über Ergebnisse mit einer kleinen Anzahl von Iterationen. Es ist in der vorliegenden Erfindung bestimmt worden, dass für λ = 1/4 zwei Iterationen der anisotropen Diffusion die ganze nützliche Rauschbeseitigung erreichen. Saint-Marc u. a., die oben zitiert worden sind, bemerken, dass die nützlichste Kantenverbesserung in einigen Iterationen stattfindet, während die Rauschreinigung länger benötigt. In der vorliegenden Erfindung erlaubt die lokale Anpassung von k, dass etwas Rauschreinigung innerhalb einer kleinen Anzahl von Iterationen auftritt.
  • Es ist in der vorliegenden Erfindung festgestellt worden, dass die besten Ergebnisse für zwei Iterationen erhalten werden, wenn k in der zweiten Iterationen um einen Faktor zwei verkleinert wird, d. h., k2 = 0,5 k1. Wird k gleich gelassen oder vergrößert, verursacht es eine übermäßige Unschärfeerzeugung. Die Verwendung von Faktoren größer als 0,5 im Zusammenhang mit dem Anpassen von k beseitigt effektiv weitere Diffusion, dadurch wird der zweite Durchgang bedeutungslos. Folglich wird in einer Ausführungsform der vorliegenden Erfindung, nachdem die erste Diffusionsiteration auftritt (z. B. die 5(a) und 5(b), die Elemente 205–220), k für die Verwendung in der zweiten Diffusionsiteration um einen Faktor zwei verkleinert.
  • 9 zeigt einen Blockschaltplan einer beispielhaften Schaltungsanordnung, die für die Helligkeitsverarbeitung in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist. Diese Schaltungsanordnung enthält die Hardware, die notwendig ist, um den Leitwert g zu berechnen. Die gleiche Verarbeitung wird an 4 verschiedenen Sätzen der Eingangsdaten ausgeführt: N, E, W und S, die sich auf den Pixel direkt über dem aktuellen Pixel X, direkt rechts vom aktuellen Pixel X, direkt links vom aktuellen Pixel X bzw. direkt unter dem aktuellen Pixel X beziehen. Die Verarbeitung für die Pixel S, E, W und N ist in den Kästen 910, 930, 940 bzw. 950 gezeigt.
  • Um den Pixel S zu verarbeiten, wird 0 H (der S-Pixel oder der Pixel direkt unter dem aktuellen Pixel X), nachdem er in einem Auffangspeicher 911 gespeichert worden ist, in einen Subtrahierer 913 eingespeist, der den aktuellen Pixel X, der im Auffangspeicher 912 aufgefangen worden ist, vom Pixel S subtrahiert. Dieses führt zum ΔIi-Term der Gleichung (6). Der Absolutwert von ΔIi wird durch eine Absolutwertschaltung 914 bestimmt und in einem FIFO-Puffer 917 gespeichert. Die aus der in 8 gezeigten Schaltungsanordnung erhaltene Leitwertkonstante C2/k wird mit dem Absolutwert von ΔIi multipliziert und dann durch den Subtrahierer 920 von der Leitwertkonstanten C1 subtrahiert, um den gi-Faktor in Gleichung (6) zu liefern. Dieses Ergebnis wird dann in der Schaltungsanordnung 922 abgeschnitten, um g im Bereich 0 ≤ g ≤ 1 zu halten. Dies approximiert g entsprechend der Gleichung (4). Der abgeschnittene Wert wird dann durch den Multiplizieren 924 mit ΔIi multipliziert, die im FIFO-Puffer 917 gespeichert worden war.
  • In einer zweiten beispielhaften Ausführungsform der vorliegenden Erfindung ersetzt ein ROM 915 die Elemente 917, 918, 920, 922 und 924. Die Erfinder haben bestimmt, dass die Darstellung von C2/k als einen Vier-Bit-Wert und des Absolutwerts von ΔIi als einen Acht-Bit-Wert normale Rauschbeseitigungsergebnisse ergibt, die innerhalb von 0,1 dB der durch die Gleichung (3) gegebenen Berechnung liegen. Folglich ist eine Gesamtzahl von zwölf Bits erforderlich, deshalb wird ein 4k-ROM verwendet. Die Werte im ROM 915 sind entsprechend der Gleichung (6) programmiert. In dieser beispielhaften Ausführungsform der Erfindung wird davon ausgegangen, dass der Wert von g; aus der Gleichung (3) bestimmt werden kann. In diesem Fall würde der C2/k-Eingangswert in den ROM 915 durch einen geeignet quantisierten Eingangswert k ersetzt sein.
  • Die obige Verarbeitung ist für die Pixel E, W und N völlig gleich.
  • Nachdem der gi*ΔIi-Term für jeden der vier Nachbarpixel erhalten worden ist, wird die Summation der gi*ΔIi-Terme durch die Summierungsschaltungsanordnung 960 ausgeführt. Die gi*ΔIi-Terme für die Pixel N und E werden durch den Addierer 962 addiert, während die gi*ΔIi-Terme für die Pixel W und S durch den Addierer 964 addiert werden. Durch den Addierer 966 wird zu dieser Summation der Mittelpixel X addiert, der den I(t0)-Term in der Gleichung (6) darstellt. Diese Terme werden durch den Addierer 968 summiert und ausgegeben.
  • 10 zeigt einen Blockschaltplan einer beispielhaften Schaltungsanordnung, die für die Farbwertverarbeitung in der Schaltungsanordnung nach den 5(a) und 5(b) geeignet ist. Diese Schaltungsanordnung führt eine Verarbeitung aus, die zu der in 9 ähnlich ist. Ein Takt-Controller 994 steuert die Taktung dieser Schaltung.
  • Der aktuellen Pixel X ist in einem FIFO-Puffer 992 gespeichert. Die vier benachbarten Pixel (direkt über dem, direkt unter dem, direkt rechts vom und direkt links vom) aktuellen Pixel X werden einem Multiplexer 980 bereitgestellt. Von diesem wird der aktuelle Pixel durch den Subtrahieren 982 subtrahiert. Diese Subtraktion führt zum ΔIi-Term der Gleichung (6). Der Absolutwert von ΔIi wird durch eine Absolutwertschaltung 983 bestimmt und in einem FIFO-Puffer 984 gespeichert. Die aus dem Nachschlagemodul 830 nach 8 erhaltene Leitwertkonstante C2/k wird mit dem Absolutwert von ΔIi multipliziert und dann durch den Subtrahieren 987 von der Leitwertkonstanten C1 subtrahiert, um den gi-Term der Gleichung (6) zu liefern. Dieses Ergebnis wird dann durch die Schaltungsanordnung 988 abgeschnitten. Der abgeschnittene Wert wird durch den Multiplizierer 989 mit ΔI1 multipliziert, die im FIFO-Puffer 984 gespeichert worden war. Dann wird der gi*ΔIi-Term durch den Addierer 995 zum im FIFO-Puffer 992 gespeicherten ak tuellen Pixel X (der den I(t0)-Term in der Gleichung (6) darstellt) addiert und ausgegeben. In der beispielhaften Ausführungsform der vorliegenden Erfindung ersetzt ein ROM 985 die Elemente 984, 986, 987, 988 und 989.
  • Obwohl die vorliegende Erfindung auf die MPEG- und DVC-Komprimierung angewendet worden ist, weil sie auf decodierte Daten in einem Rasterabtastformat wirkt, kann sie an jedes System angepasst werden, das Videodaten decodiert, die unter Verwendung quantisierter Ortsfrequenzkoeffizienten codiert worden sind.
  • Obwohl die vorliegende Erfindung hierin unter Bezugnahme auf bestimmte spezifische Ausführungsform veranschaulicht und beschrieben worden ist, ist trotzdem nicht beabsichtigt, dass sie auf die gezeigten Einzelheiten eingeschränkt ist. Stattdessen können an den Einzelheiten verschiedene Modifikationen ausgeführt werden, ohne von der Definition der Erfindung abzuweichen.

Claims (23)

  1. Vorrichtung zur Verwendung in einem Videosignal-Dekodiersystem, welches digital Datenwerte dekodiert, welche kodiert wurden unter Verwendung einer Quantisierungs-Raumfrequenz-Kompressionstechnik, wobei das System eine Filtervorrichtung aufweist, welche einen Bereich eines Ringing-Rauschens unterdrückt, welches aus einer Bildrekonstruktion resultiert, wobei die Vorrichtung aufweist: eine Vorrichtung zum Empfangen von dekodierten Datenwerten, welche jeweilige Blöcke des rekonstruierten Vollbildes bzw. Bild-Datenblockes beschreiben; und eine anisotrope Diffusions-Filtervorrichtung mit: einer Vorrichtung zur Berechnung eines separaten Grenzwertes k für jeden Block des rekonstruierten Vollbildes gemäß k(block) = α*(0.5*actual max grad)wobei α ein empirisch bestimmter Faktor ist und actual max grad ist der maximale Kantengradient in dem Block; und einen anisotropen Filter, welcher selektiv jeweilige Bildkomponenten kombiniert, mit Werten geringer als der separate Grenzwert k, um unscharfe bzw. diffuse Bildkomponenten zu erzeugen, welche das Bild mit dem unterdrückten Rauschen darstellen.
  2. Vorrichtung nach Anspruch 1, wobei der Grenzwert ein vorgegebener Bruchteil eines maximalen Gradientenwertes in dem Block ist.
  3. Vorrichtung nach Anspruch 1, wobei sich der Grenzwert in seinem Wert verändert wenn das Vollbild bzw. der Bild-Datenblock gefiltert wird; und weiter aufweisend eine Vorrichtung zum Steuern der anisotropen Diffusions-Filtervorrichtung durch einen Leitwert, bestimmt aus dem maximalen Gradientenwert in dem Block des Vollbildes.
  4. Vorrichtung nach Anspruch 3, wobei der Leitwert bestimmt wird durch eine Aproximation mit einer abgeschnittenen geraden Linie.
  5. Vorrichtung nach Anspruch 4, wobei der Leitwert berechnet wird durch die Gleichung g(gradient) = C1 + [C2/k]*gradientwobei "g" der Leitwert ist, "gradient" der maximale Gradientenwert ist, "k" ist der Grenzwert, und " C1" und "C2" sind Konstanten.
  6. Vorrichtung nach Anspruch 5, wobei C1 gleich 1,21 und C2 gleich –0,85576 ist.
  7. Vorrichtung nach Anspruch 2 weiter aufweisend eine Vorrichtung zur Bestimmung des maximalen Gradientenwerts, wobei die Vorrichtung aufweist: eine Komparatorvorrichtung zum Vergleichen des Größenwertes eines aktuellen Pixels mit dem jeweiligen Größenwert von vier benachbarten Pixeln, um einen größten Größenwert und einen kleinsten Größenwert zu bestimmen; und eine Subtraktionsvorrichtung zum Subtrahieren des kleinsten Größenwerts von dem größten Größenwert, um den maximalen Gradientenwert zu bestimmen.
  8. Vorrichtung nach Anspruch 1, wobei der adaptive anisotrope Filter so konfiguriert ist, um das rekonstruierte Vollbild in ersten und zweiten Durchgängen zu verarbeiten, zum Filtern der empfangenen Datenwerte, um selektiv Signalkantenkomponenten zu unterdrücken, welche Werte haben, die geringer sind als ein Grenzwert, wobei der Grenzwert sich im Wert verändert wenn das Vollbild gefiltert wird; und wobei die Grenzwerte, welche in dem zweiten Durchgang verwendet werden, ein vorgegebener Bruchteil der jeweiligen Grenzwerte sind, welche in dem ersten Durchgang verwendet werden; und weiter aufweist: eine Vorrichtung zum Bestimmen des maximalen Gradientenwertes mit: einer Komparatorvorrichtung zum Vergleichen des Größenwertes eines aktuellen Pixels mit den jeweiligen Größenwerten von vier benachbarten Pixeln, um einen größten Größenwert und einen kleinsten Größenwert zu bestimmen; und eine Subtraktionsvorrichtung zum Subtrahieren des kleinsten Größenwertes von dem größten Größenwert, um den maximalen Gradientenwert zu bestimmen.
  9. Vorrichtung nach Anspruch 8, wobei die Filtervorrichtung weiter aufweist: eine Vorrichtung zum Verringern des Grenzwertes um einen Faktor von zwei zur Verwendung durch den zweiten anisotropen Diffusionsfilter.
  10. Vorrichtung nach Anspruch 1, wobei die Filterung berechnet wird gemäß der Gleichung
    Figure 00260001
    wobei "I(t1)" der gefilterte Wert ist, "λ" eine numerische Stabilitätsbedingung ist, "gi" ein Leitwert für ein aktuelles Pixel ist, "ΔIi eine Größendifferenz zwischen dem aktuellen Pixel und einem benachbarten Pixel ist, und "I(t0)" ist der Größenwert des aktuellen Pixels.
  11. Vorrichtung nach Anspruch 1, wobei der Filter implementiert ist unter Verwendung eines Nur-Lese Speichers (ROM), welcher programmiert ist gemäß der Gleichung
    Figure 00260002
    wobei "I(t1)" der gefilterte Wert ist, "λ" eine numerische Stabilitätsbedingung ist, "gi" ein Leitwert für ein aktuelles Pixel ist, "ΔIi" eine Größendifferenz zwischen dem aktuellen Pixel und einem benachbarten Pixel ist, und "I(t0)" ist der Größenwert des aktuellen Pixels.
  12. Verfahren zur Unterdrückung eines Bereichs eines Ringing-Rauschens, welches resultiert aus einer Bildrekonstruktion mit den Schritten: a) Empfangen von dekodierten Datenwerten, welche jeweilige Blöcke des rekonstruierten Vollbildes beschreiben; und b) anisotropes Diffusionsfiltern der empfangenen Datenwerten, um selektiv Signal-Kanten-Komponenten zu unterdrücken, mit den Schritten: berechnen eines separaten Grenzwertes k für jeden Block des rekonstruierten Vollbildes gemäß k(block) = α*(0.5*actual max grad)wobei α ein empirisch bestimmter Faktor ist und actual max grad ist der maximale Kantengradient in dem Block; und selektives Diffundieren bzw. Unscharfmachen der Bildkomponenten in den Block des Vollbildes, wobei die Komponenten Werte haben, welche geringer sind als die separaten Grenzwerte k, um diffuse bzw. unscharfe Bildkomponenten zu erzeugen, welche das im Bild mit unterdrücktem Rauschen darstellen.
  13. Verfahren nach Anspruch 12, wobei der Grenzwert ein vorgegebener Bruchteil eines maximalen Gradientenwertes in dem Block ist.
  14. Verfahren nach Anspruch 12, wobei sich der Grenzwert in seinem Wert verändert, wenn das Vollbild gefiltert wird; und weiter aufweisend den Schritt: c) Steuern der anisotropen Diffusionsfilterung durch einen Leitwert, bestimmt aus dem maximalen Gradientenwert in dem Block des Vollbildes.
  15. Verfahren nach Anspruch 14, wobei der Leitwert durch eine Aproximation einer abgeschnittenen geraden Linie bestimmt wird.
  16. Verfahren nach Anspruch 15, wobei der Leitwert berechnet wird durch die Gleichung g(gradient) = C1 + [C2/k]*gradientwobei "g" der Leitwert ist, "gradient" der maximale Gradientenwert ist, "k" ist der Grenzwert, und "C1" und "C2" sind Konstanten.
  17. Verfahren nach Anspruch 16, wobei C1 gleich 1,21 und C2 gleich –0,85576 ist.
  18. Verfahren nach Anspruch 13, bei welchem der maximale Gradientenwert bestimmt wird durch die Schritte: Vergleichen des Größenwertes eines aktuellen Pixel mit den jeweiligen Größenwerten von vier benachbarten Pixeln, um einen größten Größenwert und einen kleinsten Größenwert zu bestimmen; und Subtrahieren des kleinsten Größenwertes von dem größten Größenwert, um den maximalen Gradientenwert zu bestimmen.
  19. Verfahren nach Anspruch 12, weiter aufweisend die Schritte: Filtern der empfangenen Datenwerte unter Verwendung eines ersten anisotropen Diffusionsfiltervorganges; und Filtern der empfangenen Datenwerte unter Verwendung eines zweiten anisotropen Diffusionsfiltervorganges, wobei der Grenzwert, welcher in dem zweiten Filtervorgang verwendet wird, ein Bruchteil des Grenzwertes ist, welcher in dem ersten Filtervorgang verwendet wird.
  20. Verfahren nach Anspruch 19, bei welchem Schritt b) weiter den Schritt der Verringerung des Grenzwertes um einen Faktor von zwei aufweist zur Verwendung durch den zweiten anisotropen Diffusionsfilter.
  21. Verfahren nach Anspruch 12, wobei die anisotrope Diffusionsfilterung berechnet wird gemäß der Gleichung
    Figure 00290001
    wobei "I(t1)" der gefilterte Wert ist, "λ" eine numerische Stabilitätsbedingung ist, "gi" ein Leitwert für ein aktuelles Pixel ist, "ΔIi" eine Größendifferenz zwischen dem aktuellen Pixel und einem benachbarten Pixel ist, und "I(t0)" ist der Größenwert des aktuellen Pixels.
  22. Verfahren nach Anspruch 21, wobei die anisotrope Diffusionsfilterung durchgeführt wird unter Verwendung eines ROM.
  23. Verfahren nach Anspruch 22, wobei der ROM programmiert ist gemäß der Gleichung
    Figure 00290002
    wobei "I(ti)" der gefilterte Wert ist, "λ" eine numerische Stabilitätsbedingung ist, "gi" ein Leitwert für ein aktuelles Pixel ist, " ΔIi" eine Größendifferenz zwischen dem aktuellen Pixel und einem benachbarten Pixel ist, und " I(t0)" ist der Größenwert des aktuellen Pixels.
DE69631108T 1995-10-20 1996-10-18 Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern Expired - Fee Related DE69631108T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US546049 1995-10-20
US08/546,049 US5819035A (en) 1995-10-20 1995-10-20 Post-filter for removing ringing artifacts of DCT coding

Publications (2)

Publication Number Publication Date
DE69631108D1 DE69631108D1 (de) 2004-01-29
DE69631108T2 true DE69631108T2 (de) 2004-06-09

Family

ID=24178647

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69631108T Expired - Fee Related DE69631108T2 (de) 1995-10-20 1996-10-18 Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern

Country Status (6)

Country Link
US (1) US5819035A (de)
EP (1) EP0769878B1 (de)
JP (1) JP4004089B2 (de)
KR (1) KR100249407B1 (de)
CN (1) CN1110961C (de)
DE (1) DE69631108T2 (de)

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0881837B1 (de) * 1997-05-30 2003-03-26 STMicroelectronics S.r.l. Nachverarbeitungsmethode zur Verringerung von Artefakten in blockweise kodierten digitalen Bildern, und Vorrichtung zur Verwendung der Methode
US6389177B1 (en) 1996-07-02 2002-05-14 Apple Computer, Inc. System and method using edge processing to remove blocking artifacts from decompressed images
US6496605B1 (en) * 1996-08-02 2002-12-17 United Module Corporation Block deformation removing filter, image processing apparatus using the same, method of filtering image signal, and storage medium for storing software therefor
JP3800704B2 (ja) * 1997-02-13 2006-07-26 ソニー株式会社 映像信号処理装置及び方法
KR100219628B1 (ko) * 1997-02-15 1999-09-01 윤종용 루프필터링 방법 및 루프필터
AU719060B2 (en) * 1997-02-28 2000-05-04 Matsushita Electric Industrial Co., Ltd. Motion picture converting apparatus
US6072591A (en) * 1997-06-30 2000-06-06 Xerox Corporation Sum and difference error diffusion
KR100243225B1 (ko) 1997-07-16 2000-02-01 윤종용 블록화효과 및 링잉잡음 감소를 위한 신호적응필터링방법 및신호적응필터
US6260131B1 (en) * 1997-11-18 2001-07-10 Intrinsity, Inc. Method and apparatus for TLB memory ordering
US6370632B1 (en) 1997-11-18 2002-04-09 Intrinsity, Inc. Method and apparatus that enforces a regional memory model in hierarchical memory systems
JP4186242B2 (ja) * 1997-12-26 2008-11-26 ソニー株式会社 画像信号処理装置及び画像信号処理方法
JPH11234668A (ja) * 1998-02-13 1999-08-27 Sony Corp 映像符号化装置
US6014233A (en) * 1998-06-09 2000-01-11 Xerox Corporation Error diffusion for color images with semi-vector quantization
US6463102B1 (en) * 1998-09-11 2002-10-08 Harmonic, Inc. Digital video compressor with border processor
US6847738B1 (en) * 1999-01-15 2005-01-25 Koninklijke Philips Electronics N.V. Sharpness enhancement
US6574374B1 (en) * 1999-04-14 2003-06-03 Intel Corporation Enhancing image compression performance by morphological processing
KR100296596B1 (ko) * 1999-07-14 2001-07-12 윤종용 4방향 일차원 고역 통과 필터링에 의한 윤곽선 강조 방법
JP2001045336A (ja) 1999-07-29 2001-02-16 Matsushita Electric Ind Co Ltd ノイズ検出装置、ノイズ検出方法、信号処理装置および信号処理方法
US6721457B1 (en) * 1999-08-27 2004-04-13 Hewlett-Packard Development Company, L.P. Method for enhancing digital images
WO2001024115A1 (en) * 1999-09-28 2001-04-05 Koninklijke Philips Electronics N.V. Device and method for filtering
US6714992B1 (en) * 2000-02-25 2004-03-30 Navic Systems, Inc. Method and system for embedded network device installation
US7392281B1 (en) 2000-02-25 2008-06-24 Navic Systems, Inc. System and method for providing guaranteed delivery of messages to embedded devices over a data network
US7203234B1 (en) 2000-03-31 2007-04-10 Sharp Laboratories Of America, Inc. Method of directional filtering for post-processing compressed video
US6707940B1 (en) 2000-03-31 2004-03-16 Intel Corporation Method and apparatus for image segmentation
US7440635B2 (en) * 2000-05-30 2008-10-21 Sharp Laboratories Of America, Inc. Method for removing ringing artifacts from locations near dominant edges of an image reconstructed after compression
US6707952B1 (en) 2000-05-30 2004-03-16 Sharp Laboratories Of America, Inc. Method for removing ringing artifacts from locations near dominant edges of an image reconstructed after compression
JP4641704B2 (ja) * 2000-09-12 2011-03-02 パナソニック株式会社 ノイズ低減化方法、ノイズ低減化装置、記録媒体、及びプログラム
JP4688279B2 (ja) * 2000-11-21 2011-05-25 富士通株式会社 動画像の空間解像度自動設定方法及び装置
US7047273B2 (en) 2000-11-28 2006-05-16 Navic Systems, Inc. Load balancing in set top cable box environment
US7136538B2 (en) * 2000-12-21 2006-11-14 Matsushita Electric Industrial Co., Ltd. Noise reducing apparatus and noise reducing method
US6845180B2 (en) * 2001-03-16 2005-01-18 Sharp Laboratories Of America, Inc. Predicting ringing artifacts in digital images
US7006255B2 (en) * 2001-03-29 2006-02-28 Sharp Laboratories Of America Adaptive image filtering based on a distance transform
AU2002349220A1 (en) * 2001-06-12 2002-12-23 Digital Interactive Streams, Inc. System and method for enhancing digital video
US7003173B2 (en) * 2001-06-12 2006-02-21 Sharp Laboratories Of America, Inc. Filter for combined de-ringing and edge sharpening
US7003174B2 (en) * 2001-07-02 2006-02-21 Corel Corporation Removal of block encoding artifacts
US6822675B2 (en) * 2001-07-03 2004-11-23 Koninklijke Philips Electronics N.V. Method of measuring digital video quality
US7050649B2 (en) * 2001-07-23 2006-05-23 Micron Technology, Inc. Suppression of ringing artifacts during image resizing
EP1303143A3 (de) * 2001-10-16 2004-01-14 Koninklijke Philips Electronics N.V. Blockeffektdetektionsverfahren
DE60230666D1 (de) 2001-11-29 2009-02-12 Panasonic Corp Verfahren zur beseitigung von kodierungsverzerrung und verfahren zur videokodierung und -dekodierung
US6873741B2 (en) * 2002-01-10 2005-03-29 Sharp Laboratories Of America Nonlinear edge-enhancement filter
US7031552B2 (en) * 2002-04-05 2006-04-18 Seiko Epson Corporation Adaptive post-filtering for reducing noise in highly compressed image/video coding
US7239754B2 (en) * 2002-07-16 2007-07-03 Hiroshi Akimoto Method, apparatus and system for compressing still images in multipurpose compression systems
US7379609B2 (en) * 2002-07-19 2008-05-27 Samsung Electronics Co., Ltd. Image processing apparatus and method for conversion between raster and block formats
FR2842981A1 (fr) * 2002-07-24 2004-01-30 Koninkl Philips Electronics Nv Circuit de filtrage de donnees numeriques
US6807317B2 (en) 2002-10-25 2004-10-19 Motorola, Inc. Method and decoder system for reducing quantization effects of a decoded image
KR100502413B1 (ko) * 2002-11-07 2005-07-19 삼성전자주식회사 라스터 스캔 순서 화상 데이터와 블록 스캔 순서 화상데이터 사이의 변환을 위한 화상 처리 장치 및 방법
US20040156559A1 (en) * 2002-11-25 2004-08-12 Sarnoff Corporation Method and apparatus for measuring quality of compressed video sequences without references
US7254277B2 (en) * 2002-12-30 2007-08-07 Texas Instruments Incorporated Image processing with minimization of ringing artifacts and noise
US7212571B2 (en) * 2003-01-31 2007-05-01 Seiko Epson Corporation Method and apparatus for DCT domain filtering for block based encoding
JP2004362395A (ja) * 2003-06-06 2004-12-24 Ge Medical Systems Global Technology Co Llc 画像処理方法および装置
US7580584B2 (en) 2003-07-18 2009-08-25 Microsoft Corporation Adaptive multiple quantization
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7602851B2 (en) 2003-07-18 2009-10-13 Microsoft Corporation Intelligent differential quantization of video coding
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US8218624B2 (en) 2003-07-18 2012-07-10 Microsoft Corporation Fractional quantization step sizes for high bit rates
US7403568B2 (en) * 2003-08-13 2008-07-22 Apple Inc. Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using temporal filtering
US7430335B2 (en) * 2003-08-13 2008-09-30 Apple Inc Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering
KR100575733B1 (ko) * 2003-08-26 2006-05-03 엘지전자 주식회사 압축 동영상의 움직임 객체 분할 방법
TW200520225A (en) * 2003-10-24 2005-06-16 Matsushita Electric Ind Co Ltd Pixel arranging apparatus, solid-state image sensing apparatus, and camera
US7355639B2 (en) * 2003-11-06 2008-04-08 Omnivision Technologies, Inc. Lens correction using processed YUV data
JP4066367B2 (ja) * 2003-11-28 2008-03-26 ノーリツ鋼機株式会社 画像ノイズ除去方法
US7346226B2 (en) * 2003-12-16 2008-03-18 Genesis Microchip Inc. Method and apparatus for MPEG artifacts reduction
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7471845B2 (en) * 2004-01-06 2008-12-30 Sharp Laboratories Of America, Inc. De-ringing filter
US8503542B2 (en) * 2004-03-18 2013-08-06 Sony Corporation Methods and apparatus to reduce blocking noise and contouring effect in motion compensated compressed video
US7315661B2 (en) * 2004-04-01 2008-01-01 Mediatek Inc. Directional interpolation method using DCT information and related device
US7801383B2 (en) 2004-05-15 2010-09-21 Microsoft Corporation Embedded scalar quantizers with arbitrary dead-zone ratios
JP5007228B2 (ja) * 2004-06-14 2012-08-22 プレコード,インコーポレイテッド 画像クリーンアップおよび前置符号化
KR100557660B1 (ko) * 2004-07-29 2006-03-10 매그나칩 반도체 유한회사 영상 신호에서의 플리커 검출 방법
US7697782B2 (en) 2004-09-16 2010-04-13 Sharp Laboratories Of America, Inc. System for reducing ringing artifacts
WO2006040960A1 (ja) * 2004-10-08 2006-04-20 Matsushita Electric Industrial Co., Ltd. 画像処理装置および画像処理プログラム
US7136536B2 (en) * 2004-12-22 2006-11-14 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filter
US20080175513A1 (en) * 2005-04-19 2008-07-24 Ming-Jun Lai Image Edge Detection Systems and Methods
TWI295140B (en) * 2005-05-20 2008-03-21 Univ Nat Chiao Tung A dual-mode high throughput de-blocking filter
US8422546B2 (en) 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
JP2006340005A (ja) * 2005-06-01 2006-12-14 Sony Corp ディジタル信号処理装置とディジタル信号処理方法およびプログラム。
US7747082B2 (en) * 2005-10-03 2010-06-29 Xerox Corporation JPEG detectors and JPEG image history estimators
US8848057B2 (en) * 2005-12-05 2014-09-30 Samsung Electronics Co., Ltd. Home security applications for television with digital video cameras
US8218080B2 (en) * 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
JP4943721B2 (ja) * 2006-03-20 2012-05-30 株式会社リコー 画像データのカラーノイズ除去方法及びこの方法を用いた撮像装置
US8059721B2 (en) 2006-04-07 2011-11-15 Microsoft Corporation Estimating sample-domain distortion in the transform domain with rounding compensation
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US7974340B2 (en) 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
GB2437337A (en) * 2006-04-21 2007-10-24 Snell & Wilcox Ltd Measuring block artefacts in video data using an auto-correlation function
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
US8369417B2 (en) * 2006-05-19 2013-02-05 The Hong Kong University Of Science And Technology Optimal denoising for video coding
US8831111B2 (en) * 2006-05-19 2014-09-09 The Hong Kong University Of Science And Technology Decoding with embedded denoising
US20070280552A1 (en) * 2006-06-06 2007-12-06 Samsung Electronics Co., Ltd. Method and device for measuring MPEG noise strength of compressed digital image
US7295716B1 (en) * 2006-06-30 2007-11-13 Fujifilm Corporation Method and apparatus for diffusion based image relighting
US7747045B2 (en) * 2006-06-30 2010-06-29 Fujifilm Corporation Method and apparatus for diffusion based illumination normalization
US7860341B2 (en) * 2006-07-21 2010-12-28 Varian Medical Systems, Inc. System and method for correcting for ring artifacts in an image
CN101123682B (zh) * 2006-08-11 2011-06-22 松下电器产业株式会社 可减少图像振铃噪声的方法、装置及集成电路
TR201810171T4 (tr) * 2006-10-03 2018-08-27 Vestel Elektronik Sanayi Ve Ticaret Anonim Sirketi Bir girdi görüntüsündeki halka şeklinde artefaktları en aza indirmek için yöntem ve aparat.
US7796834B2 (en) * 2006-11-16 2010-09-14 Texas Instruments Incorporated Post-processing technique for noise reduction of DCT-based compressed images
TWI330041B (en) * 2006-11-28 2010-09-01 Realtek Semiconductor Corp Image processing method and device for performing block effect reduction
US7952647B2 (en) * 2006-12-27 2011-05-31 Intel Corporation Method and apparatus of content adaptive detailing filtering for digital pictures
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US7538712B2 (en) * 2007-03-22 2009-05-26 Harris Corporation Method and apparatus for decompression of SAR images
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8331438B2 (en) 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
US8837849B2 (en) 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
DE102007058498A1 (de) * 2007-12-05 2009-06-10 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Rauschunterdrückung in medizinischen Bildern
US8200028B2 (en) * 2007-12-07 2012-06-12 Csr Technology Inc. System and method for detecting edges in a video signal
US8295367B2 (en) * 2008-01-11 2012-10-23 Csr Technology Inc. Method and apparatus for video signal processing
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
KR101639434B1 (ko) * 2009-01-09 2016-07-13 성균관대학교산학협력단 와이너-지브 부호화 및 복호화 시스템 및 방법
US20100245672A1 (en) * 2009-03-03 2010-09-30 Sony Corporation Method and apparatus for image and video processing
EP2226760A1 (de) 2009-03-03 2010-09-08 Sony Corporation Verfahren und Vorrichtung zum Verringern von Kompressionsartefakten in Videosignalen
JP2011049901A (ja) * 2009-08-27 2011-03-10 Panasonic Corp 固体撮像装置、撮像装置
US8824826B2 (en) * 2011-02-24 2014-09-02 Foveon, Inc. Methods for performing fast detail-preserving image filtering
JP6125215B2 (ja) 2012-09-21 2017-05-10 株式会社東芝 復号装置、及び符号化装置
KR101426610B1 (ko) * 2012-10-31 2014-08-05 연세대학교 산학협력단 영상 노이즈 제거 방법 및 장치
US8831354B1 (en) * 2014-01-08 2014-09-09 Faroudja Enterprises, Inc. System and method for edge-adaptive and recursive non-linear filtering of ringing effect
US9508020B2 (en) 2014-07-16 2016-11-29 Sony Corporation Image processing system with artifact suppression mechanism and method of operation thereof
WO2018105579A1 (ja) 2016-12-09 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US20230096874A1 (en) * 2021-09-29 2023-03-30 Ati Technologies Ulc Content adaptive filtering via ringing estimation and suppression

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3906712A1 (de) * 1989-03-03 1990-09-06 Thomson Brandt Gmbh Elektronisches bildwiedergabegeraet
US4999705A (en) 1990-05-03 1991-03-12 At&T Bell Laboratories Three dimensional motion compensated video coding
US5598184A (en) * 1992-03-27 1997-01-28 Hewlett-Packard Company Method and apparatus for improved color recovery in a computer graphics system
US5294974A (en) 1992-07-24 1994-03-15 Matsushita Electric Corporation Of America High-definition video encoding system having color-sensitive quantization
US5325125A (en) * 1992-09-24 1994-06-28 Matsushita Electric Corporation Of America Intra-frame filter for video compression systems
US5581371A (en) * 1995-03-07 1996-12-03 Eastman Kodak Company Error diffusion method

Also Published As

Publication number Publication date
EP0769878B1 (de) 2003-12-17
JP4004089B2 (ja) 2007-11-07
CN1151662A (zh) 1997-06-11
EP0769878A2 (de) 1997-04-23
US5819035A (en) 1998-10-06
KR100249407B1 (ko) 2000-03-15
CN1110961C (zh) 2003-06-04
DE69631108D1 (de) 2004-01-29
EP0769878A3 (de) 1999-12-29
JPH09200759A (ja) 1997-07-31
KR970025165A (ko) 1997-05-30

Similar Documents

Publication Publication Date Title
DE69631108T2 (de) Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern
DE69627982T2 (de) Signaladaptives Nachverarbeitungssystem um Blockierungseffekte und Ringstörungen zu verringern
DE19734881C2 (de) Verfahren zum Reduzieren von Blockbildungsartefakten, die beim Kodieren von Filmaufnahmen erzeugt werden
DE60220106T2 (de) Verfahren und Vorrichtung zur Reduzierung von Störungen in dekodierten Bildern mit Nachfilterung
EP0309669B1 (de) Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
DE19829468C2 (de) Verfahren zum Beseitigen von Blockbildungsartefakten in einem System zum Codieren bewegter Bilder auf niedrige Bitrate
DE69837714T2 (de) Verfahren und gerät fürm bilddatennachbearbeitung zur reduzierung von quantisierungseffekten
DE19730360B4 (de) Bilddatenfilterungsvorrichtung und Verfahren zur Verminderung von Bilddatencodierfehlern
EP1635578B1 (de) Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese sowie Texturverzerrung umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE69929430T2 (de) Verfahren und vorrichtung zur codierung von video-information
DE69919641T2 (de) Adaptive Videokompromierung mit variabler Quantisierung
DE60128421T2 (de) Verfahren zur Richtungsfilterung zur Nachbearbeitung von komprimiertem Video
DE60012464T2 (de) Verfahren zur Verbesserung eines digitalbildes mit rauschabhängiger Steuerung der Textur
DE69935478T2 (de) Bewegtbildkodiergerät
DE69434862T2 (de) Segmentierungs-basiertes entfernen von artefakten aus einem jpeg-bild
DE69826928T2 (de) Kompression eines Mosaikbildes
DE69730375T2 (de) Reduzierung von Blockeffekten in einem Bewegtbilddekoder
DE19814892A1 (de) Signaladaptives Filterverfahren zur Verringerung von Überschwingrauschen und signaladaptives Filter
DE60203850T2 (de) System und Verfahren zum Verarbeiten von Bildern mit aufgelöster Mosaikstruk- tur, um durch Farb-Aliasing hervorgerufenen Artefakte zu verringern.
DE19753976A1 (de) Dekoder mit einer adaptiven Funktion zur Vermeidung von Blockeffekten
DE112006001883T5 (de) Verbessern der Videosequenzschärfe durch adaptive Erhebung
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors
DE60311781T2 (de) Bildsignalnachbearbeitungsverfahren
DE60308727T2 (de) Verfahren zur erfassung von blockartefakten
DE19643907A1 (de) Verfahren und Vorrichtung zur Bildkodierung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee