DE69817460T2 - Bildsequenzdekodierungsverfahren - Google Patents

Bildsequenzdekodierungsverfahren Download PDF

Info

Publication number
DE69817460T2
DE69817460T2 DE1998617460 DE69817460T DE69817460T2 DE 69817460 T2 DE69817460 T2 DE 69817460T2 DE 1998617460 DE1998617460 DE 1998617460 DE 69817460 T DE69817460 T DE 69817460T DE 69817460 T2 DE69817460 T2 DE 69817460T2
Authority
DE
Germany
Prior art keywords
rounding
frame
image
information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1998617460
Other languages
English (en)
Other versions
DE69817460D1 (de
Inventor
Yuichiro Nakaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of DE69817460D1 publication Critical patent/DE69817460D1/de
Publication of DE69817460T2 publication Critical patent/DE69817460T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Bildfolgedecodierverfahren, welches eine Zwischenrahmenvoraussage ausführt.
  • Beschreibung des Stands der Technik
  • Bei der hochwirksamen Codierung von Bildfolgen ist die Zwischenrahmenvoraussage (Bewegungskompensation) unter Verwendung der Ähnlichkeit angrenzender Frames (im folgenden als "Rahmen" übersetzt) über die Zeit als eine hochwirksame Technik zur Datenkompression bekannt. Das heute am häufigsten verwendete Bewegungskompensationsverfahren ist die Blockanpassung mit einer Halbpixelgenauigkeit, die in den internationalen Standards H.263, MPEG1 und MPEG2 verwendet wird. Bei diesem Verfahren wird das zu codierende Bild in Blöcke segmentiert, und die horizontalen und vertikalen Komponenten der Bewegungsvektoren dieser Blöcke werden als ganzzahlige Vielfache der Hälfte des Abstands zwischen benachbarten Pixeln geschätzt. Dieser Prozeß wird unter Verwendung der folgenden Gleichung beschrieben:
  • [Gleichung 1]
  • P(x, y) = R(x + ui, y + vi)(x, y) ∈ Bi, 0 ≤ i < N (1)
  • Hierbei bezeichnen P(x, y) und R(x, y) die Probenwerte (Luminanz oder Chrominanzintensität) von Pixeln, die sich an Koordinaten (x, y) im vorausgesagten Bild P des aktuellen Rahmens bzw. im Referenzbild R (das decodierte Bild eines Rahmens, der vor dem aktuellen Rahmen codiert wurde) befinden. x und y sind ganze Zahlen, und es wird angenommen, daß sich alle Pixel an Punkten befinden, an denen die Koordinatenwerte ganze Zahlen sind. Zusätzlich wird angenommen, daß die Abtastwerte der Pixel zu nicht negativen ganzen Zahlen quantisiert sind. N, Bi und (ui, vi) bezeichnen die Anzahl der Blöcke im Bild, den im i-ten Block des Bilds enthaltenen Pixelsatz bzw. die Bewegungsvektoren des i-ten Blocks.
  • Wenn die Werte von ui und vi keine ganzen Zahlen sind, ist es erforderlich, den Intensitätswert an dem Punkt zu finden, an dem tatsächlich keine Pixel im Referenzbild existieren. Gegenwärtig ist die bilineare Interpolation unter Verwendung der benachbarten vier Pixel das am häufigsten verwendete Verfahren für diesen Prozeß. Dieses Interpolationsverfahren wird unter Verwendung der folgenden Gleichung beschrieben:
  • [Gleichung 2]
    Figure 00020001
  • Hierbei ist d eine positive ganze Zahl und sind p und q kleiner als d, jedoch nicht kleiner als 0. "//" bezeichnet eine ganzzahlige Division, bei der das Ergebnis einer normalen Division (Division unter Verwendung realer Zahlen) gegen die nächste ganze Zahl gerundet wird.
  • Ein Beispiel des Aufbaus eines H.263-Videocodierers ist in 1 dargestellt. Als Codieralgorithmus verwendet H.263 ein Hybridcodierverfahren (adaptives Zwischenrahmen/Innenrahmen-Codierverfahren), das eine Kombination der Blockanpassung und der DCT (diskrete Kosinustransformation) ist. Ein Subtrahierer 102 berechnet die Differenz zwischen dem Eingangsbild (aktuellen Rahmenbasisbild) 101 und dem Ausgangsbild 113 (später angesprochen) des Zwischenrahmen/Innenrahmen-Codierwählers 119 und gibt dann ein Fehlerbild 103 aus. Dieses Fehlerbild wird in einem Quantisierer 105 quantisiert, nachdem es in einem DCT-Wandler 104 in DCT-Koeffizienten umgewandelt wurde, und bildet dann quantisierte DCT-Koeffizienten 106. Diese quantisierten DCT-Koeffizienten werden über den Kommunikationskanal übertragen, während sie gleichzeitig zum Synthetisieren des vorausgesagten Zwischenrahmenbilds im Codierer verwendet werden. Die Prozedur zum Synthetisieren des vorausgesagten Bilds wird als nächstes erklärt. Die vorstehend erwähnten quantisierten DCT-Koeffizienten 106 bilden das rekonstruierte Fehlerbild 110 (das dem rekonstruierten Fehlerbild auf der Empfangsseite gleicht), nachdem sie einen Dequantisierer 108 und einen inversen DCT-Wandler 109 durchlaufen haben. Dieses rekonstruierte Fehlerbild und das Ausgangsbild 113 des Zwischenrahmen/Innenrahmen-Codierwählers 119 werden am Addierer 111 addiert, und das decodierte Bild 112 des aktuellen Rahmens (das dem decodierten Bild des auf der Empfängerseite rekonstruierten aktuellen Rahmens gleicht) wird erhalten. Dieses Bild wird in einem Rahmenspeicher 114 gespeichert und um eine Zeit verzögert, die dem Rahmenintervall gleicht. Dementsprechend gibt der Rahmenspeicher 114 am aktuellen Punkt das decodierte Bild 115 des vorausgegangenen Rahmens aus. Dieses decodierte Bild des vorausgegangenen Rahmens und das Originalbild 101 des aktuellen Rahmens werden in den Blockanpassungsabschnitt 116 eingegeben, und es wird zwischen diesen Bildern eine Blockanpassung ausgeführt. Beim Blockanpassungsprozeß wird das Originalbild des aktuellen Rahmens in mehrere Blöcke segmentiert, und das vorausgesagte Bild 117 des aktuellen Rahmens wird durch Extrahieren des diesen Blöcken am meisten ähnelnden Abschnitts aus dem decodierten Bild des vorausgegangenen Rahmens synthetisiert. Es ist bei diesem Prozeß erforderlich, die Bewegung zwischen dem vorhergehenden Rahmen und dem aktuellen Rahmen für jeden Block zu schätzen. Der im Bewegungsschätzprozeß geschätzte Bewegungsvektor für jeden Block wird als Bewegungsvektordaten 120 zur Empfängerseite übertragen. Auf der Empfängerseite wird das gleiche Voraussagebild wie auf der Senderseite unter Verwendung der Bewegungsvektorinformationen und des Decodierbilds des vorausgegangenen Rahmens synthetisiert. Das Voraussagebild 117 wird zusammen mit einem "0"-Signal 118 in den Zwischenrahmen/Innenrahmen-Co dierwähler 119 eingegeben. Dieser Schalter 119 wählt die Zwischenrahmencodierung oder die Innenrahmencodierung durch Wählen von einem dieser Eingaben aus. Die Zwischenrahmencodierung wird ausgeführt, wenn das Voraussagebild 117 gewählt wird (dieser Fall ist in 2 dargestellt). Wenn andererseits das "0"-Signal gewählt wird, wird die Innenrahmencodierung ausgeführt, weil das Eingangsbild selbst in DCT-Koeffizienten umgewandelt und an den Kommunikationskanal ausgegeben wird. Damit die Empfängerseite das codierte Bild richtig rekonstruiert, muß der Empfänger informiert werden, ob auf der Senderseite eine Innenrahmencodierung oder eine Zwischenrahmencodierung ausgeführt wurde. Folglich wird ein Identifizierkennzeichen 121 an die Kommunikationsschaltung ausgegeben. Schließlich wird ein H.263-codierter Bitstrom 123 durch Multiplexen der quantisierten DCT-Koeffizienten, Bewegungsvektoren und der Zwischenrahmen/Innenrahmen-Identifizierkennzeicheninformationen in einem Multiplexer 122 gewonnen.
  • Der Aufbau eines Decodierers 200 zum Empfangen des vom Codierer aus 1 ausgegebenen codierten Bitstroms ist in 2 dargestellt. Der H.263-codierte Bitstrom 217, der empfangen wird, wird im Demultiplexer 216 in quantisierte DCT-Koeffizienten 201, in Bewegungsvektordaten 202 und ein Zwischenrahmen/Innenrahmen-Identifizierkennzeichen 203 demultiplext. Die quantisierten DCT-Koeffizienten 201 werden zu einem decodierten Fehlerbild 206, nachdem sie durch einen inversen Quantisierer 204 und einen inversen DCT-Wandler 205 verarbeitet wurden. Dieses decodierte Fehlerbild wird in einem Addierer 207 zum Ausgangsbild 215 des Zwischenrahmen/Innenrahmen-Codierwählers 214 addiert, und die Summe dieser Bilder wird als das decodierte Bild 208 ausgegeben. Der Ausgang des Zwischenrahmen/Innenrahmen-Codierwählers wird entsprechend dem Zwischenrahmen/Innenrahmen-Identifizierkennzeichen 203 umgeschaltet. Ein Voraussagebild 212, das verwendet wird, wenn eine Zwischenrahmencodierung ausgeführt wird, wird im Voraussagebildsynthetisierer 211 synthetisiert. In diesem Synthetisierer wird die Position der Blöcke im decodierten Bild 210 des im Rahmenspeicher 209 gespeicherten vorhergehenden Rahmens entsprechend den Bewegungsvektordaten 202 verschoben. Andererseits gibt der Zwischenrahmen/Innenrahmen-Codierwähler das "0"-Signal 213 unverändert zur Innenrahmencodierung aus.
  • EP-A-0 712 249 beschreibt Pixelinterpolation unter Verwendung von positivem Runden weg von Null.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Das durch H.263 codierte Bild besteht aus einer Luminanzinformationen enthaltenden Luminanzebene (Y-Ebene) und zwei Chrominanzinformationen enthaltenden Chrominanzebenen (U-Ebene und V-Ebene). Es ist dabei charakteristisch, daß die Y-Ebene 2m Pixel horizontal und 2n Pixel vertikal aufweist und die U- und die V-Ebene m Pixel horizontal und n Pixel vertikal aufweisen, wenn das Bild 2m Pixel in horizontaler Richtung und 2n Pixel in vertikaler Richtung (m und n sind positive ganze Zahlen) aufweist. Die niedrige Auflösung in der Chrominanzebene ist darauf zurückzuführen, daß das menschliche Sehsystem eine verhältnismäßig geringe Sehfähigkeit hinsichtlich räumlicher Änderungen der Chrominanz aufweist. Wenn ein solches Bild als Eingabe vorliegt, führt H.263 eine Codierung und Decodierung in als Makroblöcke bezeichneten Blockeinheiten aus. Der Aufbau eines Makroblocks ist in 3 dargestellt. Der Makroblock besteht aus drei Blöcken, nämlich einem Y-Block, einem U-Block und eine V-Block. Die Größe des die Luminanzinformationen enthaltenden Y-Blocks 301 beträgt 16 × 16 Pixel, und die Größe des die Chrominanzinformationen enthaltenden U-Blocks 302 und V-Blocks 303 beträgt 8 × 8 Pixel.
  • Bei H.263 wird eine Blockanpassung mit Halbpixelgenauigkeit auf jeden Block angewendet. Wenn der geschätzte Bewegungsvektor demgemäß als (u, v) definiert ist, sind u und v beide ganzzahlige Vielfache der Hälfte des Abstands zwischen Pixeln. Mit anderen Worten wird 1/2 als die minimale Einheit verwendet. Die Konfiguration des für die Intensitätswerte verwendeten Interpolationsverfahrens (nachstehend werden die Intensitätswerte für die "Luminanz" und die "Chrominanz" mit dem allgemeinen Begriff "Intensitätswert" bezeichnet) ist in 4 dargestellt. Wenn die in Gleichung 2 beschriebene Interpolation ausgeführt wird, werden die Quotienten der Division gegen die nächste ganze Zahl abgerundet, und wenn der Quotient weiter einen halbzahligen Wert hat (also 0,5 zu einer ganzen Zahl addiert), wird ein Abrunden zur nächsten ganzen Zahl von Null weg ausgeführt. Wenn in 4 mit anderen Worten die Intensitätswerte für 401, 402, 403, 404 La, Lb, Lc bzw. Ld sind (La, Lb, Lc und Ld sind nicht negative ganze Zahlen), lassen sich die interpolierten Intensitätswerte Ia, Ib, Ic und Id (Ia, Ib, Ic und Id sind nicht negative ganze Zahlen) an den Positionen 405, 406, 407, 408 durch die folgende Gleichung ausdrücken:
  • [Gleichung 3]
  • Ia = La Ib = [(La + Lb + 1)/2] Ic = [(La + Lc + 1)/2] Id = [(La + Lb + Lc + Ld + 2)/4] (3)wobei "[]" das Abrunden zur nächsten ganzen Zahl gegen 0 bezeichnet (wobei der Bruchteil verworfen wird). Die Erwartung der durch dieses Runden auf ganze Zahlen bewirkten Fehler wird folgendermaßen geschätzt: Es wird angenommen, daß die Wahrscheinlichkeiten, daß der Intensitätswert an den Positionen 405, 406, 407 und 408 aus 4 verwendet wird, alle 25 Prozent sind. Wenn der Intensitätswert Ia für die Position 405 gefunden wird, ist der Rundungsfehler klarerweise null. Wenn weiterhin der Intensitätswert Ib für die Position 406 gefunden wird, ist der Fehler null, wenn La + Lb eine gerade Zahl ist, und der Fehler ist 1/2, wenn La + Lb eine ungerade Zahl ist. Falls die Wahrscheinlichkeit, daß La + Lb eine gerade Zahl ist, und die Wahrscheinlichkeit, daß La + Lb eine ungerade Zahl ist, beide 50 Prozent sind, ist die Erwartung für den Fehler 0 × 1/2 + 1/2 × 1/2 = 1/4. Wenn weiterhin der Intensitätswert Ic für die Position 407 gefunden wird, ist die Erwartung für den Fehler ebenso wie bei Ib 1/4. Wenn der Intensitätswert Id für die Position 408 gefunden wird, ist der Fehler, wenn der Rest von La + Lb + Lc + Ld geteilt durch vier 0, 1, 2 bzw. 3 ist, 0, –1/4, 1/2 bzw. 1/4. Falls angenommen wird, daß die Wahrscheinlichkeiten, daß der Rest 0, 1, 2 und 3 ist, alle gleich sind (also 25 Prozent), ist die Erwartung für den Fehler 0 × 1/4 – 1/4 × 1/4 + 1/2 × 1/4 + 1/4 × 1/4 = 1/8. Wie vorstehend beschrieben wurde, ist die endgültige Erwartung für den Fehler unter der Annahme, daß die Wahrscheinlichkeiten, daß die an den Positionen 405408 verwendeten Intensitätswerte alle gleich sind, 0 × 1/4 + 1/4 × 1/4 + 1/4 × 1/4 + 1/8 × 1/4 = 5/32. Dies weist darauf hin, daß jedesmal dann, wenn eine Bewegungskompensation durch eine Blockanpassung ausgeführt wird, ein Fehler von 5/32 im Pixelintensitätswert auftritt. Allgemein kann beim Codieren mit einer niedrigen Rate keine ausreichende Anzahl von Bits für das Codieren der Zwischenrahmen-Fehlerdifferenz verwendet werden, so daß die quantisierte Schrittgröße des DCT-Koeffizienten leicht zu groß wird. Dementsprechend werden infolge der Bewegungskompensation auftretende Fehler nur dann korrigiert, wenn sie sehr groß ist. Wenn eine Zwischenrahmencodierung kontinuierlich ausgeführt wird, ohne daß in dieser Umgebung eine Innenrahmencodierung ausgeführt wird, neigen die Fehler zum Akkumulieren und führen zu ungünstigen Wirkungen auf das rekonstruierte Bild.
  • Wie vorstehend erklärt wurde, liegt in der vertikalen und der horizontalen Richtung der Chrominanzebene jeweils die Hälfte der Anzahl der Pixel. Daher wird für die Bewegungsvektoren des U-Blocks und des V-Blocks die Hälfte des Werts des Bewegungsvektors für den Y-Block für die vertikale und die horizontale Komponente verwendet. Weil die horizontale und die vertikale Komponente des Bewegungsvektors für den Bewegungsvektor des Y-Blocks ganzzahlige Vielfache von 1/2 sind, erscheinen die Bewegungsvektorkomponenten für den U-Block und den V-Block als ganzzahlige Vielfache von 1/4 (Viertelpixelgenauigkeit), falls eine gewöhnliche Division ausgeführt wird. Infolge der hohen Komplexität der Berechnung des Intensitätsinterpolationsprozesses für Bewegungsvektoren mit Viertelpixelgenauigkeit werden die Bewegungsvektoren für die U- und V-Blöcke bei H.263 jedoch zur Halbpixelgenauigkeit gerundet. Das bei H.263 verwendete Rundungsverfahren ist das folgende: Nach der vorstehend beschriebenen Definition bezeichnet (u, v) den Bewegungsvektor des Makroblocks (der dem Bewegungsvektor für den Y-Block gleicht). Unter der Annahme, daß r eine ganze Zahl ist und daß s eine nicht negative ganze Zahl kleiner als 4 ist, kann u/2 als u/2 = r + s/4 umgeschrieben werden. Wenn s 0 oder 2 ist, ist kein Runden erforderlich, weil u/2 bereits ein ganzzahliges Vielfaches von 1/2 ist. Wenn s jedoch gleich 1 oder 3 ist, wird der Wert von s auf 2 gerundet. Durch Erhöhen der Wahrscheinlichkeit, daß s unter Verwendung dieses Rundungsverfahrens den Wert 2 annimmt, kann die Filterwirkung der Bewegungskompensation verstärkt werden. Wenn die Wahrscheinlichkeiten, daß der Wert von s vor dem Runden 0, 1, 2 und 3 ist, alle 25 Prozent sind, sind die Wahrscheinlichkeiten, daß s nach dem Runden 0 oder 2 ist, 25 Prozent bzw. 75 Prozent. Der vorstehend erklärte Prozeß, der sich auf die horizontale Komponente u des Bewegungsvektors bezieht, läßt sich auch auf die vertikale Komponente v anwenden. Dementsprechend beträgt die Wahrscheinlichkeit für die Verwendung des Intensitätswerts an der Position 401 im U-Block und im V-Block 1/4 × 1/4 = 1/16, und die Wahrscheinlichkeiten für die Verwendung des Intensitätswerts der Positionen 402 und 403 betragen beide 1/4 × 3/4 = 3/16, während die Wahrscheinlichkeit für die Verwendung des Intensitätswerts an der Position 404 3/4 × 3/4 = 9/16 ist. Unter Verwendung des gleichen Verfahrens wie vorstehend erwähnt, beträgt die Erwartung für den Fehler des Intensitätswerts 0 × 1/16 + 1/4 × 3/16 + 1/4 × 3/16 + 1/8 × 9/16 = 21/128. Wie vorstehend für den Y-Block erklärt wurde, tritt das Problem akkumulierter Fehler auf, wenn die Zwischenrahmencodierung kontinuierlich ausgeführt wird.
  • Wie vorstehend erwähnt wurde, tritt für Bildsequenzcodier- und -decodierverfahren, bei denen eine Zwischenrahmenvoraussage ausgeführt wird und die Luminanz- oder Chrominanzintensität quantisiert wird, das Problem akkumulierter Rundungsfehler auf. Diese Rundungsfehler werden erzeugt, wenn der Luminanz- oder Chrominanzintensitätswert während der Erzeugung des Zwischenrahmen-Voraussagebilds quantisiert wird.
  • Angesichts der vorstehenden Probleme besteht eine Aufgabe dieser Erfindung darin, die Qualität des rekonstruierten Bilds durch Verhindern einer Fehlerakkumulation zu verbessern.
  • Zur Lösung dieser Aufgabe wird die Fehlerakkumulation dadurch verhindert, daß das Auftreten von Fehlern begrenzt oder eine Operation zum Aufheben der aufgetretenen Fehler durchgeführt wird.
  • Die Aufgabe wird durch das Verfahren nach Anspruch 1 und den Decoder nach Anspruch 2 gelöst. Die Unteransprüche betreffen bevorzugte Ausführungsformen davon.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist ein Blockdiagramm, in dem das Layout des H.263-Bildcodierers dargestellt ist.
  • 2 ist ein Blockdiagramm, in dem das Layout des H.263-Bilddecodierers dargestellt ist.
  • 3 zeigt den Aufbau des Makroblocks.
  • 4 zeigt den Prozeß der Interpolation von Intensitätswerten für die Blockanpassung mit Halbpixelgenauigkeit.
  • 5 zeigt eine codierte Bildfolge.
  • 6 ist ein Blockdiagramm, in dem eine Software-Bildcodiervorrichtung dargestellt ist.
  • 7 ist ein Blockdiagramm, in dem eine Software-Bilddecodiervorrichtung dargestellt ist.
  • 8 ist ein Flußdiagramm, in dem ein Beispiel der Verarbeitung in der Software-Bildcodiervorrichtung dargestellt ist.
  • 9 ist ein Flußdiagramm, in dem ein Beispiel der Codiermodus-Entscheidungsverarbeitung für die Software-Bildcodiervorrichtung dargestellt ist.
  • 10 ist ein Flußdiagramm, in dem ein Beispiel der Bewegungsschätz- und der Bewegungskompensationsverarbeitung in der Software-Bildcodiervorrichtung dargestellt ist.
  • 11 ist ein Flußdiagramm, in dem die Verarbeitung in der Software-Bilddecodiervorrichtung dargestellt ist.
  • 12 ist ein Flußdiagramm, in dem ein Beispiel der Bewegungskompensationsverarbeitung in der Software-Bilddecodiervorrichtung dargestellt ist.
  • 13 zeigt ein Beispiel eines Speichermediums, auf dem ein codierter Bitstrom aufgezeichnet wird, der durch ein Codierverfahren erzeugt wurde, das I-, (P+)- und (P–)-Rahmen enthaltende Bitströme ausgibt.
  • 14 ist ein Darstellungssatz, in dem spezifische Beispiele von Vorrichtungen gezeigt sind, wobei ein Codierverfahren verwendet wird, bei dem (P+)- und (P–)-Rahmen gemeinsam auftreten.
  • 15 zeigt ein Beispiel eines Speichermediums, auf dem ein codierter Bitstrom aufgezeichnet wird, der durch ein Codierverfahren erzeugt wurde, das I-, B-, (P+)- und (P–)-Rahmen enthaltende Bitströme ausgibt.
  • 16 ist ein Blockdiagramm eines Beispiels einer Blockanpassungseinheit, die in einer Vorrichtung enthalten ist, wobei ein Codierverfahren verwendet wird, bei dem (P+)- und (P–)-Rahmen gemeinsam auftreten.
  • 17 ist ein Blockdiagramm des in einer Vorrichtung zum Decodieren von Bitströmen, die durch ein Codierverfahren codiert wurden, bei dem (P+)- und (P–)-Rahmen gemeinsam auftreten, enthaltenen Voraussagebildsynthetisierers.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Zuerst muß erwogen werden, unter welchen Umständen die akkumulierten Rundungsfehler, die im "Stand der Technik" auftreten, berücksichtigt werden müssen. Ein Beispiel einer Bildfolge, die durch Codierverfahren codiert wurde, welche sowohl eine unidirektionale Voraussage als auch eine bidirektionale Voraussage ausführen können, wie es bei MPEG.1, MPEG.2 und H.263 der Fall ist, ist in 5 dargestellt. Ein Bild 501 wird durch eine Innenrahmencodierung codiert und als ein I-Rahmen bezeichnet. Dagegen werden die Bilder 503, 505, 507, 509 als P-Rahmen bezeichnet und durch unidirektionale Zwischenrahmencodierung unter Verwendung des vorausgegangenen I- oder P-Rahmens als das Referenzbild codiert. Wenn dementsprechend beispielsweise das Bild 505 codiert wird, wird das Bild 503 als Referenzbild verwendet und eine Zwischenrahmenvoraussage ausgeführt. Die Bilder 502, 504, 506 und 508 werden als B-Rahmen bezeichnet, und eine bidirektionale Zwischenrahmenvoraussage wird unter Verwendung des vorausgegangenen und des folgenden I- oder P-Rahmens ausgeführt. Der B-Rahmen ist dadurch gekennzeichnet, daß er nicht als ein Referenzbild verwendet wird, wenn die Zwischenrahmenvoraussage ausgeführt wird. Weil in I-Rahmen keine Bewegungskompensation vorgenommen wird, tritt der durch die Bewegungskompensation hervorgerufene Rundungsfehler nicht auf. Dagegen wird bei den P-Rahmen nicht nur die Bewegungskompensation ausgeführt, sondern der P-Rahmen wird auch als ein Referenzbild von anderen P- oder B-Rahmen verwendet, so daß er eine Ursache für akkumulierte Rundungsfehler sein kann. Bei den B-Rahmen wird die Bewegungskompensation andererseits so ausgeführt, daß die Wirkung akkumulierter Rundungsfehler im rekonstruierten Bild auftritt. Weil B-Rahmen jedoch nicht als Referenzbilder verwendet werden, können B-Rahmen keine Quelle akkumulierter Rundungsfehler sein. Falls demgemäß akkumulierte Rundungsfehler im P-Rahmen verhindert werden können, können die ungünstigen Wirkungen von Rundungsfehlern in der Gesamtbildfolge verringert werden. Bei H.263 existiert ein Rahmen zum Codieren eines P-Rahmens und eines B-Rahmens und wird als PB-Rahmen bezeichnet (beispielsweise können die Rahmen 503 und 504 beide als ein PB-Rahmen codiert werden). Falls die beiden kombinierten Rahmen als getrennte Rahmen betrachtet werden, kann das gleiche Prinzip angewendet werden, das vorstehend erwähnt wurde. Falls mit anderen Worten Gegenmaßnahmen gegen Rundungsfehler für den P-Rahmenteil innerhalb eines PB-Rahmens ergriffen werden, kann die Akkumulation von Fehlern verhindert werden.
  • Rundungsfehler treten während der Interpolation von Intensitätswerten auf, wenn ein aus einer normalen Division (Division, deren Operationsergebnis eine reale Zahl ist) erhaltener Wert eine Halbzahl ist (0,5 zu einer ganzen Zahl addiert), und dieses Ergebnis wird dann zur nächsten ganzen Zahl von Null weg aufgerundet. Wenn beispielsweise durch 4 dividiert wird, um einen interpolierten Intensitätswert zu finden, haben die Rundungsfehler für die Fälle, in denen der Rest 1 und 3 ist, gleiche Absolutwerte, jedoch unterschiedliche Vorzeichen. Folglich werden die von diesen zwei Fällen hervorgerufenen Rundungsfehler aufgehoben, wenn die Erwartung für die Rundungsfehler berechnet wird (mit anderen Worten werden die in diesen Fällen hervorgerufenen Rundungsfehler beim Dividieren durch eine positive ganze Zahl d' aufgehoben, wenn der Rest t und d' – t ist). Wenn der Rest jedoch 2 ist und das Ergebnis der normalen Division mit anderen Worten eine Halbzahl ist, können die Rundungsfehler nicht aufgehoben werden, und es ergeben sich akkumulierte Fehler. Zum Lösen dieses Problems kann ein Verfahren verwendet werden, das die Verwendung von zwei Rundungsverfahren ermöglicht. Die zwei hier verwendeten Rundungsverfahren sind ein Rundungsverfahren, das Halbzahlen von Null weg rundet, und ein Rundungsverfahren, das Halbzahlen gegen null rundet. Durch Kombinieren der Verwendung dieser zwei Rundungsverfahren können die Rundungsfehler aufgehoben werden. Nachstehend wird das Rundungsverfahren, das das Ergebnis der normalen Division gegen die nächste ganze Zahl rundet und halbzahlige Werte von Null weg rundet, als "positives Runden" bezeichnet. Weiterhin wird das Rundungsverfahren, das das Ergebnis der normalen Division gegen die nächste ganze Zahl rundet und halbzahlige Werte gegen null rundet, als "negatives Runden" bezeichnet. Der Prozeß des bei der Blockanpassung mit Halbpixelgenauigkeit verwendeten positiven Rundens ist in Gleichung 3 dargestellt. Wenn stattdessen ein negatives Runden verwendet wird, kann diese Gleichung wie nachstehend dargestellt umgeschrieben werden.
  • [Gleichung 4]
  • Ia = La Ib = [(La + Lb)/2] Ic = [(La + Lc)/2] Id = [(La + Lb + Lc + Ld + 1)/4] (4)
  • Nachstehend werden Bewegungskompensationsverfahren, die zur Synthese von Zwischenrahmenvoraussagebildern ein positives und negatives Runden ausführen, als "Bewegungskompensation unter Verwendung eines positiven Rundens" bzw. als "Bewegungskompensation unter Verwendung eines negativen Rundens" bezeichnet. Weiterhin wird bei P-Rahmen, bei denen eine Blockanpassung mit einer Halbpixelgenauigkeit zur Bewegungskompensation verwendet wird, ein Rahmen, bei dem ein positives Runden verwendet wird, als ein "(P+)-Rahmen" bezeichnet, und ein Rahmen, bei dem ein negatives Runden verwendet wird, als ein "(P–)-Rahmen" bezeichnet (nach dieser Definition sind die P-Rahmen bei H.263 alle (P+)-Rahmen). Die Erwartungen für die Rundungsfehler bei (P+)- und (P–)-Rahmen haben gleiche Absolutwerte, jedoch verschiedene Vorzeichen. Dementsprechend kann die Akkumulation von Rundungsfehlern verhindert werden, wenn (P+)-Rahmen und (P–)-Rahmen alternierend entlang der Zeitachse angeordnet sind. Falls in dem Beispiel in 5 die Rahmen 503 und 507 als (P+)-Rahmen festgelegt sind und die Rahmen 505 und 509 als (P–)-Rahmen festgelegt sind, kann dieses Verfahren implementiert werden. Das alternierende Auftreten von (P+)-Rahmen und (P–)-Rahmen führt zur Verwendung eines (P+)-Rahmens und eines (P–)-Rahmens bei der bidirektionalen Voraussage für B-Rahmen. Der Durchschnitt des Vorwärtsvoraussagebilds (also des Voraussagebilds, das unter Verwendung des Rahmens 503 synthetisiert wird, wenn der Rahmen 504 in 5 codiert wird) und des Rückwärtsvoraussagebilds (also des Voraussagebilds, das unter Verwendung des Rahmens 505 synthetisiert wird, wenn der Rahmen 504 in 5 codiert wird) wird häufig zur Synthese des Voraussagebilds für B-Rahmen verwendet. Dies bedeutet, daß die Verwendung eines (P+)-Rahmens (der einen positiven Wert für die Erwartung des Rundungsfehlers hat) und eines (P-)-Rahmens (der einen negativen Wert für die Erwartung des Rundungsfehlers hat) bei der bidirektionalen Voraussage für einen B-Rahmen beim Aufheben der Wirkungen von Rundungsfehlern wirksam ist. Wie vorstehend erwähnt wurde, ist der Rundungsprozeß im B-Rahmen keine Ursache für eine Fehlerakkumulation. Dementsprechend tritt selbst dann kein Problem auf, wenn das gleiche Rundungsverfahren auf alle B-Rahmen angewendet wird. Beispielsweise tritt selbst dann keine ernsthafte Verschlechterung der decodierten Bilder auf, wenn eine Bewegungskompensation unter Verwendung eines positiven Rundens für alle B-Rahmen 502, 504, 506 und 508 in 5 ausgeführt wird. Vorzugsweise wird nur ein Typ eines Rundens für einen Rahmen ausgeführt, um den B-Rahmen-Decodierprozeß zu vereinfachen.
  • Ein Blockanpassungsabschnitt 1600 eines Bildcodierers gemäß dem vorstehend beschriebenen Bewegungskompensationsverfahren unter Verwendung von Mehrfachrundungsverfahren ist in 16 dargestellt. Zahlen, die mit jenen in anderen Zeichnungsbestandteilen identisch sind, geben die gleichen Teile an. Durch Ersetzen des Blockanpassungsabschnitts 116 aus 1 durch 1600 können Mehrfachrundungsverfahren verwendet werden. Eine Bewegungsschätzverarbeitung zwischen dem Eingangsbild 101 und dem decodierten Bild des vorausgegangenen Rahmens wird in einem Bewegungsschätzer 1601 ausgeführt. Als Ergebnis werden Bewegungsinformationen 120 ausgegeben. Diese Bewegungsinformationen werden bei der Synthese des Voraussagebilds in einem Voraussagebildsynthetisierer 1603 verwendet. Eine Rundungsverfahren-Bestimmungsvorrichtung 1602 bestimmt, ob ein positives Runden oder ein negatives Runden als das Rundungsverfahren für den gegenwärtig codierten Rahmen zu verwenden ist. Informationen 1604, die sich auf das bestimmte Rundungsverfahren beziehen, werden in den Voraussagebildsynthetisierer 1603 eingegeben. In diesem Voraussagebildsynthetisierer 1603 wird ein Voraussagebild 117 synthetisiert und auf der Grundlage des anhand der Informationen 1604 bestimmten Rundungsverfahrens ausgegeben. Im Blockanpassungsabschnitt 116 in 1 gibt es keine Elemente, die mit 1602 und 1604 aus 16 äquivalent sind, und das Voraussagebild wird nur durch positives Runden synthetisiert. Weiterhin kann das im Blockanpassungsabschnitt bestimmte Rundungsverfahren 1605 ausgegeben werden, und diese Informationen können dann in den Bitstrom gemultiplext und übertragen werden.
  • Ein Voraussagebildsynthetisierer 1700 eines Bilddecodierers, der von einem Codierverfahren unter Verwendung von Mehrfachrundungsverfahren erzeugte Bitströme decodieren kann, ist in 17 dargestellt. Zahlen, die mit denen in anderen Zeichnungsbestandteilen identisch sind, geben die gleichen Teile an. Durch Ersetzen des Voraussagebildsynthetisierers 211 aus 2 durch 1700 können Mehrfachrundungsverfahren verwendet werden. In der Rundungsverfahren-Bestimmungsvorrichtung 1701 wird das Rundungsverfahren bestimmt, das zur Voraussagebildsynthese beim Decodierprozeß geeignet ist. Zum richtigen Ausführen des Decodierens muß das hier gewählte Rundungsverfahren dem Rundungsverfahren gleichen, das zum Codieren gewählt wurde. Beispielsweise kann die folgende Regel zwischen dem Codierer und dem Decodierer geteilt werden: Wenn der aktuelle Rahmen ein P-Rahmen ist und die Anzahl der vom letzten I-Rahmen gezählten P-Rahmen (einschließlich des aktuellen Rahmens) ungerade ist, ist der aktuelle Rahmen ein (P+)-Rahmen. Wenn diese Zahl gerade ist, ist der aktuelle Rahmen ein (P–)-Rahmen. Falls die Rundungsverfahren-Bestimmungsvorrichtung auf der Codierseite (beispielsweise 1602 in 16) und die Rundungsverfahren-Bestimmungsvorrichtung 1701 mit dieser gemeinsamen Regel übereinstimmen, können die Bilder richtig decodiert werden. Das Voraussagebild wird unter Verwendung von Bewegungsinformationen 202, des Decodierbilds 210 des vorhergehenden Rahmens und von Informationen 1702, die sich auf das wie gerade beschrieben bestimmte Rundungsverfahren beziehen, im Voraussagebildsynthetisierer 1703 synthetisiert. Dieses Voraussagebild 212 wird ausgegeben und dann zur Synthese des decodierten Bilds verwendet. Als eine Alternative zum vorstehend erwähnten Fall kann auch ein Fall erwogen werden, in dem die Informationen, die sich auf das Rundungsverfahren beziehen, in den übertragenen Bitstrom gemultiplext sind (dieser Bitstrom kann am Codierer durch Ausgeben der Informationen 1605, die sich auf das Rundungsverfahren vom in 16 dargestellten Blockanpassungsabschnitt beziehen, erzeugt werden). In diesem Fall wird die Rundungsverfahren-Bestimmungsvorrichtung 1701 nicht verwendet, und die aus dem codierten Bitstrom entnommenen Informationen 1704, die sich auf das Rundungsverfahren beziehen, werden beim Voraussagebildsynthetisierer 1703 verwendet.
  • Abgesehen von dem Bildcodierer, bei dem die kundenspezifischen Schaltungen und Chips aus dem Stand der Technik verwendet werden, wie in 1 dargestellt ist, kann diese Erfindung auch auf Softwarebildcodierer angewendet werden, bei denen Vielzweckprozessoren verwendet werden. Ein Softwarebildcodierer 600 und ein Softwarebilddecodierer 700 sind in den 6 und 7 dargestellt. Im Softwarebildcodierer 600 wird ein Eingangsbild 601 zuerst im Eingangsrahmenspeicher 602 gespeichert, und der Vielzweckprozessor 603 lädt Informationen von hier und führt eine Codierung aus. Das Programm zum Ansteuern dieses Vielzweckprozessors wird von einer Speichervorrichtung 608 geladen, die eine Festplatte, eine Diskette usw. sein kann, und in einem Programmspeicher 604 gespeichert. Dieser Vielzweckprozessor verwendet auch einen Prozeßspeicher 605 zum Ausführen des Codierens. Die vom Vielzweckprozessor ausgegebenen Codierinformationen werden im Ausgangspuffer 606 zwischengespeichert und dann als ein codierter Bitstrom 607 ausgegeben.
  • Ein Flußdiagramm für die Codiersoftware (vom Computer lesbares Aufzeichnungsmedium) ist in 8 dargestellt. Der Prozeß beginnt bei 801, und der Wert 0 wird der Variablen N bei 802 zugewiesen. Als nächstes wird bei 803 und 804 der Wert 0 der Variablen N zugewiesen, wenn der Wert von N 100 ist. N ist ein Zähler für die Anzahl der Rahmen. 1 wird für jeden Rahmen addiert, dessen Verarbeitung abgeschlossen ist, und es sind Werte von 0 bis 99 erlaubt, wenn eine Codierung ausgeführt wird. Wenn der Wert für N 0 ist, ist der aktuelle Rahmen ein I-Rahmen. Wenn N eine ungerade Zahl ist, ist der aktuelle Rahmen ein (P+)-Rahmen, und wenn sie eine von 0 verschiedene gerade Zahl ist, ist der aktuelle Rahmen ein (P–)-Rahmen. Wenn die obere Grenze für den Wert von N 99 ist, bedeutet dies, daß ein I-Rahmen codiert wird, nachdem 99 P-Rahmen ((P+)-Rahmen oder (P–)-Rahmen) codiert worden sind. Durch stets erfolgendes Einfügen eines Rahmens in eine bestimmte Anzahl codierter Rahmen können die folgenden Vorteile erhalten werden: (a) Eine Fehlerakkumulation infolge einer Nichtübereinstimmung zwischen der Verarbeitung des Codierers und derjenigen des Decodierers kann verhindert werden (beispielsweise eine Nichtübereinstimmung bei der Berechnung von DCT), und (b) die Verarbeitungsbelastung zum Gewinnen des reproduzierten Bilds des Zielrahmens anhand der codierten Daten (zufälliger Zugriff) wird verringert. Der optimale N-Wert ändert sich, wenn sich die Codiererfunktionsweise oder die Umgebung, worin der Codierer verwendet wird, ändert. Dies bedeutet daher nicht, daß der Wert von N stets 100 sein muß. Der Prozeß zum Bestimmen des Rundungsverfahrens und des Codiermodus für jeden Rahmen wird bei 805 ausgeführt, und das Flußdiagramm mit Einzelheiten dieser Operation ist in 9 dargestellt. Zuerst wird bei 901 geprüft, ob N eine 0 ist oder nicht. Falls N 0 ist, wird "I" als Unterscheidungsinfor mationen des Voraussagemodus bei 902 an den Ausgangspuffer ausgegeben. Dies bedeutet, daß das zu codierende Bild als ein I-Rahmen codiert wird. Hierbei bedeutet "Ausgabe an den Ausgangspuffer", daß die Informationen nach dem Speichern im Ausgangspuffer als ein Teil des codierten Bitstroms an eine externe Vorrichtung ausgegeben werden. Wenn N nicht 0 ist, wird bei 904 festgestellt, ob N eine ungerade oder eine gerade Zahl ist. Wenn N eine ungerade Zahl ist, wird "+" bei 905 als Unterscheidungsinformationen für das Rundungsverfahren an den Ausgangspuffer ausgegeben, und das zu codierende Bild wird als ein (P+)-Rahmen codiert. Wenn N andererseits eine gerade Zahl ist, wird "-" bei 906 als Unterscheidungsinformationen für das Rundungsverfahren an den Ausgangspuffer ausgegeben, und das zu codierende Bild wird als ein (P–)-Rahmen codiert. Der Prozeß kehrt wieder zu 8 zurück, wo nach dem Bestimmen des Codiermodus bei 805 das Eingangsbild bei 806 im Rahmenspeicher A gespeichert wird. Der hier erwähnte Rahmenspeicher A bezeichnet einen Abschnitt der Speicherzone (beispielsweise die im Speicher von 605 in 6 unterhaltene Speicherzone) des Softwarecodierers. Es wird bei 807 geprüft, ob der gegenwärtig codierte Rahmen ein I-Rahmen ist. Wenn er nicht als ein I-Rahmen identifiziert wird, werden bei 808 eine Bewegungsschätzung und eine Bewegungskompensation ausgeführt. Das Flußdiagramm in 10 zeigt Einzelheiten dieses bei 808 ausgeführten Prozesses. Zuerst wird bei 1001 eine Bewegungsschätzung zwischen den in den Rahmenspeichern A und B gespeicherten Bildern ausgeführt (wie im letzten Teil dieses Abschnitts geschrieben ist, ist das decodierte Bild des vorhergehenden Rahmens im Rahmenspeicher B gespeichert). Es wird der Bewegungsvektor für jeden Block gefunden, und dieser Bewegungsvektor wird zum Ausgangspuffer gesendet. Als nächstes wird bei 1002 geprüft, ob der aktuelle Rahmen ein (P+)-Rahmen ist. Wenn der aktuelle Rahmen ein (P+)-Rahmen ist, wird das Voraussagebild bei 1003 unter Verwendung des positiven Rundens synthetisiert, und dieses Voraussagebild wird im Rahmenspeicher C gespeichert. Wenn der aktuelle Rah men andererseits ein (P–)-Rahmen ist, wird das Voraussagebild bei 1004 unter Verwendung des negativen Rundens synthetisiert, und dieses Voraussagebild wird im Rahmenspeicher C gespeichert. Als nächstes wird bei 1005 das differentielle Bild zwischen den Rahmenspeichern A und C gefunden und im Rahmenspeicher A gespeichert. Hier kehrt der Prozeß wieder zu 8 zurück. Vor Beginn der Verarbeitung bei 809 wird das Eingangsbild im Rahmenspeicher A gespeichert, wenn der aktuelle Rahmen ein I-Rahmen ist, und das differentielle Bild zwischen dem Eingangsbild und dem Voraussagebild wird im Rahmenspeicher A gespeichert, wenn der aktuelle Rahmen ein P-Rahmen ((P+)-Rahmen oder (P–)-Rahmen) ist. Bei 809 wird DCT auf das im Rahmenspeicher A gespeicherte Bild angewendet, und die hier berechneten DCT-Koeffizienten werden nach dem Quantisieren zum Ausgangspuffer gesendet. Bei 810 wird eine inverse Quantisierung an den quantisierten DCT-Koeffizienten ausgeführt, und es wird eine inverse DCT angewendet. Das durch Anwenden der inversen DCT erhaltene Bild wird im Rahmenspeicher B gespeichert. Als nächstes wird bei 811 wieder geprüft, ob der aktuelle Rahmen ein I-Rahmen ist. Wenn der aktuelle Rahmen kein I-Rahmen ist, werden die in den Rahmenspeichern B und C gespeicherten Bilder addiert, und das Ergebnis wird im Rahmenspeicher B gespeichert. Der Prozeß zum Codieren eines Rahmens endet hier, und das im Rahmenspeicher B gespeicherte Bild, bevor zu 813 übergegangen wird, ist das rekonstruierte Bild dieses Rahmens (dieses Bild ist mit dem an der Decodierseite erhaltenen identisch). Bei 813 wird geprüft, ob der Rahmen, dessen Codierung gerade abgeschlossen wurde, der letzte Rahmen in der Folge ist. Falls dies der Fall ist, endet der Codierprozeß. Falls dieser Rahmen nicht der letzte Rahmen ist, wird 1 bei 814 zu N addiert, und der Prozeß kehrt wieder zu 803 zurück, und es beginnt der Codierprozeß für den nächsten Rahmen.
  • Ein Softwaredecodierer 700 ist in 7 dargestellt. Nachdem der codierte Bitstrom 701 im Eingangspuffer 702 zwischengespeichert wurde, wird dieser Bitstrom in den Viel zweckprozessor 703 geladen. Das Programm zum Ansteuern dieses Vielzweckprozessors wird von einer Speichervorrichtung 708 geladen, die eine Festplatte, eine Diskette usw. sein kann, und in einem Programmspeicher 704 gespeichert. Dieser Vielzweckprozessor verwendet auch einen Prozeßspeicher 605 zum Ausführen des Decodierens. Das durch den Decodierprozeß erhaltene decodierte Bild wird im Ausgangsrahmenspeicher 706 zwischengespeichert und dann als Ausgangsbild 707 nach außen gesendet.
  • Ein Flußdiagramm der Decodiersoftware für den in 7 dargestellten Softwaredecodierer 700 ist in 11 dargestellt. Der Prozeß beginnt bei 1101, und es wird bei 1102 geprüft, ob Eingangsinformationen vorhanden sind. Falls keine Eingangsinformationen vorhanden sind, endet der Decodierprozeß bei 1103. Wenn Eingangsinformationen vorhanden sind, werden Unterscheidungsinformationen des Voraussagemodus bei 1104 eingegeben. Das hier verwendete Wort "Eingang" bedeutet, daß die im Eingangspuffer (beispielsweise 702 von 7) gespeicherten Informationen durch den Vielzweckprozessor geladen werden. Bei 1105 wird geprüft, ob die Codiermodus-Unterscheidungsinformationen "I" sind. Wenn dies nicht der Fall ist, werden die Unterscheidungsinformationen für das Rundungsverfahren eingegeben, und die Synthese des Zwischenrahmen-Voraussagebilds wird bei 1107 ausgeführt. Ein Flußdiagramm, in dem Einzelheiten des bei 1107 ausgeführten Vorgangs dargestellt sind, ist in 12 dargestellt. Bei 1201 wird ein Bewegungsvektor für jeden Block eingegeben. Daraufhin wird bei 1202 geprüft, ob die bei 1106 geladenen Unterscheidungsinformationen für das Rundungsverfahren ein "+" sind. Wenn dies der Fall ist, ist der gerade decodierte Rahmen ein (P+)-Rahmen. In diesem Fall wird das Voraussagebild unter Verwendung eines positiven Rundens bei 1203 synthetisiert, und das Voraussagebild wird im Rahmenspeicher D gespeichert. Hier bezeichnet der Rahmenspeicher D einen Abschnitt der Speicherzone des Softwaredecodierers (diese Speicherzone wird beispielsweise im Verarbeitungsspeicher 705 in 7 erhalten). Wenn die Unterscheidungsinformationen des Rundungsverfahrens nicht "+" sind, ist der gerade decodierte aktuelle Rahmen ein (P–)-Rahmen. Das Voraussagebild wird bei 1204 unter Verwendung des negativen Rundens synthetisiert, und dieses Voraussagebild wird im Rahmenspeicher D gespeichert. Falls an diesem Punkt ein (P+)-Rahmen infolge irgendeines Fehlers als ein (P–)-Rahmen decodiert wird oder falls umgekehrt ein (P–)-Rahmen als ein (P+)-Rahmen decodiert wird, wird das richtige Voraussagebild nicht im Decodierer synthetisiert, und die Qualität des decodierten Bilds nimmt ab. Nach dem Synthetisieren des Voraussagebilds kehrt der Vorgang zu 11 zurück, und die quantisierten DCT-Koeffizienten werden bei 1108 eingegeben. Es werden dann eine inverse Quantisierung und eine inverse DCT auf diese Koeffizienten angewendet, und das sich ergebende Bild wird im Rahmenspeicher E gespeichert. Bei 1109 wird wieder geprüft, ob der gerade decodierte Rahmen ein I-Rahmen ist. Falls der aktuelle Rahmen kein I-Rahmen ist, werden die in den Rahmenspeichern D und E gespeicherten Bilder bei 1110 addiert, und das sich ergebende Summenbild wird im Rahmenspeicher E gespeichert. Das im Rahmenspeicher E vor Beginn des Prozesses bei 1111 gespeicherte Bild ist das rekonstruierte Bild. Dieses im Rahmenspeicher E gespeicherte Bild wird bei 1111 an den Ausgangsrahmenspeicher (beispielsweise 706 in 7) ausgegeben und dann vom Decodierer als das rekonstruierte Bild ausgegeben. Der Decodierprozeß für einen Rahmen wird hier abgeschlossen, und der Prozeß für den nächsten Rahmen beginnt mit der Rückkehr zu 1102.
  • Wenn eine auf dem in den 812 dargestellten Flußdiagramm beruhende Software in den Softwarebildcodierern oder -decodierern abläuft, wird die gleiche Wirkung erhalten, als ob kundenspezifische Schaltungen und kundenspezifische Chips verwendet werden.
  • Ein Speichermedium (Aufzeichnungsmedium), bei dem der vom Softwarecodierer 601 aus 6 erzeugte Bitstrom aufgezeichnet wird, ist in 13 dargestellt. Es wird angenom men, daß die in den Flußdiagrammen aus den 810 dargestellten Algorithmen im Softwarecodierer verwendet werden. Digitale Informationen werden konzentrisch auf einer Aufzeichnungsplatte 1301 aufgezeichnet, die zur Aufzeichnung digitaler Informationen in der Lage ist (wobei es sich beispielsweise um magnetische Platten, eine optische Platte usw. handelt). Ein Teil 1302 der auf dieser digitalen Platte aufgezeichneten Informationen umfaßt: Voraussagemodus-Unterscheidungsinformationen 1303, 1305, 1308, 1311 und, 1314, Rundungsverfahren-Unterscheidungsinformationen 1306, 1309, 1312 und 1315 und Bewegungsvektor- und DCT-Koeffizienteninformationen 1304, 1307, 1310, 1313 und 1316. "I" darstellende Informationen werden bei 1303 aufgezeichnet, "P" darstellende Informationen werden bei 1305, 1308, 1311 und 1314 aufgezeichnet, "+" darstellende Informationen werden bei 1306 und 1312 aufgezeichnet, und "-" darstellende Informationen werden bei 1309 und 1315 aufgezeichnet. In diesem Fall können "I" und "+" durch ein einziges Bit 0 dargestellt werden, und "P" und "-" können durch ein einziges Bit 1 dargestellt werden. Unter Verwendung dieser Darstellung kann der Decodierer die aufgezeichneten Informationen richtig interpretieren, und das korrigierte rekonstruierte Bild wird synthetisiert. Durch Speichern eines codierten Bitstroms in einem Speichermedium unter Verwendung des vorstehend beschriebenen Verfahrens wird die Akkumulation von Rundungsfehlern verhindert, wenn der Bitstrom gelesen und decodiert wird.
  • Ein Speichermedium, bei dem der Bitstrom der codierten Daten der in 5 dargestellten Bildfolge aufgezeichnet wird, ist in 15 dargestellt. Der aufgezeichnete Bitstrom enthält Informationen, die sich auf (P+)-, (P–)- und B-Rahmen beziehen. Ebenso wie bei 1301 aus 13 werden digitale Informationen konzentrisch auf einer Aufzeichnungsplatte 1501 aufgezeichnet, welche zum Aufzeichnen digitaler Informationen in der Lage ist (wobei es sich beispielsweise um magnetische Platten, optische Platten usw. handelt). Ein Teil 1502 der auf dieser digitalen Platte aufgezeichneten Informationen umfaßt: Voraussagemodus-Unterscheidungsinformationen 1503, 1505, 1508, 1510 und 1513, Rundungsverfahren-Unterscheidungsinformationen 1506 und 1512 und Bewegungsvektor- und DCT-Koeffizienteninformationen 1504, 1507, 1509, 1511 und 1514. "I" darstellende Informationen werden bei 1503 aufgezeichnet, "P" darstellende Informationen werden bei 1505 und 1510 aufgezeichnet, "B" darstellende Informationen werden bei 1508 und 1513 aufgezeichnet, "+" darstellende Informationen werden bei 1505 aufgezeichnet, und "-" darstellende Informationen werden bei 1511 aufgezeichnet. In diesem Fall können "I", "P" und "B" jeweils durch Zweibitwerte 00, 01 und 10 dargestellt werden, und "+" und "–" können jeweils durch Einbitwerte 0 und 1 dargestellt werden. Unter Verwendung dieser Darstellung kann der Decodierer die aufgezeichneten Informationen richtig interpretieren, und das korrigierte rekonstruierte Bild wird synthetisiert. In 15 sind auf den Rahmen 501 (I-Rahmen) in 5 bezogene Informationen 1503 und 1504, auf den Rahmen 502 (B-Rahmen) bezogene Informationen 1508 und 1509, auf den Rahmen 503 ((P+)-Rahmen) bezogene Informationen 1505 und 1507, auf den Rahmen 504 (B-Rahmen) bezogene Informationen 1513 und 1514 und auf den Rahmen 505 ((P–)-Rahmen) bezogene Informationen 1510 und 1512. Wenn Codierbildfolgen unter Verwendung von B-Rahmen codiert werden, ist die Übertragungsreihenfolge und die Anzeigereihenfolge der Rahmen gewöhnlich verschieden. Dies liegt daran, daß die vorausgegangenen und die folgenden Referenzbilder codiert werden müssen, bevor das Voraussagebild für den B-Rahmen synthetisiert wird. Folglich werden Informationen, die sich auf den Rahmen 503 beziehen, trotz der Tatsache, daß der Rahmen 502 vor dem Rahmen 503 angezeigt wird, vor Informationen übertragen, die sich auf den Rahmen 502 beziehen. Wie vorstehend beschrieben wurde, ist es nicht erforderlich, Mehrfachrundungsverfahren für B-Rahmen zu verwenden, weil die Bewegungskompensation bei B-Rahmen keine Akkumulation von Rundungsfehlern hervorruft. Wie in diesem Beispiel gezeigt wurde, werden daher Informationen, die Run dungsverfahren (beispielsweise "+" und "-") bezeichnen, für B-Rahmen nicht übertragen. Selbst wenn nur ein positives Runden auf B-Rahmen angewendet wird, tritt das Problem akkumulierter Rundungsfehler daher beispielsweise nicht auf. Durch Speichern codierter Bitströme, welche auf B-Rahmen bezogene Informationen enthalten, in der vorstehend beschriebenen Weise in einem Speichermedium kann das Auftreten akkumulierter Rundungsfehler verhindert werden, wenn dieser Bitstrom gelesen und decodiert wird.
  • Spezifische Beispiele von Codierern und Decodierern unter Verwendung des in dieser Beschreibung dargelegten Codierverfahrens sind in 14 dargestellt. Das Bildcodier- und -decodierverfahren kann durch Installieren einer Bildcodier- und -decodiersoftware in einem Computer 1401 verwirklicht werden. Diese Software ist auf irgendeiner Art eines Speichermediums (CDROM, Diskette, Festplatte usw.) 1412 aufgezeichnet, wird in einen Computer geladen und dann verwendet. Zusätzlich kann der Computer als ein Bildkommunikations-Endgerät verwendet werden, indem der Computer an Kommunikationsleitungen angeschlossen wird. Es ist auch möglich, das in dieser Beschreibung dargelegte Decodierverfahren in einer Abspielvorrichtung 1403 zu installieren, die den auf einem Speichermedium 1402 aufgezeichneten codierten Bitstrom liest und decodiert. In diesem Fall kann das rekonstruierte Bildsignal auf einem Fernsehbildschirm 1404 angezeigt werden. Die Vorrichtung 1403 kann nur zum Lesen des codierten Bitstroms verwendet werden, und die Decodiervorrichtung kann in diesem Fall im Fernsehbildschirm 1404 installiert werden. Es ist wohlbekannt, daß eine digitale Datenübertragung unter Verwendung von Satelliten und Erdwellen verwirklicht werden kann. Eine Decodiervorrichtung kann auch in einem Fernsehempfänger 1405 installiert werden, der in der Lage ist, diese digitalen Übertragungen zu empfangen. Weiterhin kann eine Decodiervorrichtung auch in einer Settop-Box 1409 eingerichtet werden, die an eine Satelliten-/Erdwellenantenne oder ein Kabel 1408 eines Kabelfernsehsystems angeschlossen ist, so daß die re konstruierten Bilder auf einem Fernsehbildschirm 1410 angezeigt werden können. In diesem Fall kann die Decodiervorrichtung im Fernsehbildschirm statt in der Settop-Box untergebracht werden, wie es bei 1404 der Fall ist. Das Layout eines digitalen Satellitenausstrahlungssystems ist bei 1413, 1414 und 1415 dargestellt. Die Videoinformationen in dem codierten Bitstrom werden von einer Ausstrahlungsstation 1413 zu einem Kommunikations- oder Ausstrahlungssatelliten 1414 übertragen. Der Satellit empfängt diese Informationen, sendet sie zu einem Heim 1415 mit einer Ausrüstung zum Empfangen von Satellitenausstrahlungsprogrammen, und die Videoinformationen werden in diesem Heim unter Verwendung von Vorrichtungen, wie einem Fernsehempfänger oder einer Settop-Box rekonstruiert und angezeigt. Die digitale Bildkommunikation unter Verwendung mobiler Endgeräte 1406 hat kürzlich erhebliches Interesse gefunden, weil diese Bildkommunikation bei sehr niedrigen Bitraten möglich geworden ist. Digitale tragbare Endgeräte können in die folgenden drei Typen eingeteilt werden, nämlich einen Transceiver mit einem Codierer und einem Decodierer, einen Sender, der nur einen Codierer aufweist, und einen Empfänger, der nur einen Decodierer aufweist. Eine Codiervorrichtung kann in einem Videokamerarecorder 1407 installiert werden. Die Kamera kann auch lediglich zum Aufnehmen des Bildsignals verwendet werden, und dieses Signal kann einem kundenspezifischen Codierer 1411 zugeführt werden. Alle in dieser Zeichnung dargestellten Vorrichtungen oder Systeme können mit dem in dieser Beschreibung dargestellten Codier- und/oder Decodierverfahren ausgestattet werden. Bei Verwendung dieses Codier- und/oder Decodierverfahrens in diesen Vorrichtungen oder Systemen können Bilder erhalten werden, die eine höhere Qualität aufweisen als jene, die unter Verwendung herkömmlicher Technologien erhalten werden.
  • Die folgenden Abänderungen sind klar im Schutzumfang dieser Erfindung enthalten.
    • (i) Eine Vorbedingung des vorstehend beschriebenen Prinzips war die Verwendung einer Blockanpassung als ein Bewe gungskompensationsverfahren. Diese Erfindung kann jedoch weiter auch auf alle Bildfolge-Decodierverfahren angewendet werden, bei denen eine Bewegungskompensation unter Verwendung eines Werts für die vertikalen und horizontalen Komponenten des Pixelbewegungsvektors ausgeführt wird, welcher sich von einem ganzzahligen Vielfachen der Abtastperiode der Pixel in vertikaler und horizontaler Richtung unterscheidet, und indem dann durch Interpolation der Intensitätswert einer Position gefunden wird, an der der Abtastwert nicht vorhanden ist. Demgemäß sind beispielsweise die in der japanischen Patentanmeldung Hei 08-060572 angeführte globale Bewegungskompensation und die in der japanischen Patentanmeldung Hei 08-249601 angeführte Warpvoraussage auf das Verfahren gemäß dieser Erfindung anwendbar.
    • (ii) In der Beschreibung der Erfindung wurde nur der Fall erwähnt, in dem ein ganzzahliges Vielfaches von 1/2 für die horizontalen und vertikalen Komponenten des Bewegungsvektors verwendet wurde. Diese Erfindung ist jedoch allgemein auch auf Verfahren anwendbar, bei denen ganzzahlige Vielfache von 1/d (d ist eine positive ganze Zahl und auch eine gerade Zahl) für die horizontalen und vertikalen Komponenten des Bewegungsvektors zulässig sind. Wenn d jedoch groß wird, wird auch der Teiler für die Division bei der bilinearen Interpolation (Quadrat von d, siehe Gleichung 2) groß, so daß dagegen die Wahrscheinlichkeit, daß Ergebnisse einer normalen Division einen Wert von 0,5 erreichen, gering wird. Wenn dementsprechend nur ein positives Runden ausgeführt wird, wird der Absolutwert der Erwartung von Rundungsfehlern klein, und die durch akkumulierte Fehler hervorgerufenen nachteiligen Wirkungen werden weniger erheblich. Auf das Verfahren gemäß dieser Erfindung ist weiterhin ein Bewegungskompensationsverfahren anwendbar, bei dem der d-Wert beispielsweise veränderlich ist und sowohl ein positives als auch ein negatives Runden verwendet wird, wenn d kleiner als ein fester Wert ist, und nur ein positives Runden oder nur ein negatives Runden verwendet wird, wenn der Wert von d größer als ein fester Wert ist.
    • (iii) Wie im Stand der Technik erwähnt wurde, treten die nachteiligen Wirkungen von akkumulierten Rundungsfehlern leicht auf, wenn die quantisierte Schrittgröße der DCT-Koeffizienten groß ist, sofern DCT als ein Fehlercodierverfahren verwendet wird. Es ist jedoch auch ein Verfahren auf die Erfindung anwendbar, bei dem sowohl ein positives als auch ein negatives Runden verwendet wird, wenn die Quantisierungsschrittgröße von DCT-Koeffizienten größer als ein Schwellenwert ist. Wenn die Quantisierungsschrittgröße der DCT-Koeffizienten kleiner als der Schwellenwert ist, wird nur ein positives Runden oder nur ein negatives Runden verwendet.
    • (iv) In Fällen, in denen in der Luminanzebene Fehlerakkumulationen auftreten und in Fällen, in denen in der Chrominanzebene Fehlerakkumulationen auftreten, sind die nachteiligen Wirkungen auf die rekonstruierten Bilder im allgemeinen im Fall von Fehlerakkumulationen in der Chrominanzebene ernster. Dies liegt daran, daß Fälle, in denen Gesamtänderungen der Bildfarbe auftreten, auffälliger sind als Fälle, in denen sich das Bild verdunkelt oder leicht aufhellt. Es ist jedoch auch ein Verfahren auf diese Erfindung anwendbar, bei dem sowohl ein positives als auch ein negatives Runden für das Chrominanzsignal verwendet wird und nur ein positives Runden oder ein negatives Runden für das Luminanzsignal verwendet wird.
  • Wie in der Beschreibung des Stands der Technik beschrieben wurde, werden durch Halbieren der 1/2-Pixelgenauigkeits-Bewegungsvektoren erhaltene 1/4-Pixelgenauigkeits-Bewegungsvektoren bei H.263 zu einer 1/2-Pixelgenauigkeit gerundet. Durch Hinzufügen bestimmter Änderungen zu diesem Verfahren kann jedoch der absolute Erwartungswert für Rundungsfehler verringert werden. Bei H.263, welches im Stand der Technik erwähnt wurde, wird ein Wert, der die Hälfte der horizontalen oder vertikalen Komponenten des Bewegungsvektors für die Luminanzebene beträgt, als r + s/4 ausgedrückt (r ist eine ganze Zahl, s ist eine ganze Zahl kleiner als 4 und nicht kleiner als 0), und wenn s 1 oder 3 ist, wird eine Rundungsoperation ausgeführt, um eine 2 zu erhalten. Dieser Vorgang kann folgendermaßen geändert werden: Wenn s 1 ist, wird eine Rundungsoperation ausgeführt, um eine 0 zu erhalten, und wenn s 3 ist, wird 1 zu r addiert, um s zu 0 zu machen. Durch Ausführen dieser Operationen wird die Häufigkeit, mit der die Intensitätswerte an den Positionen 406408 in 4 berechnet werden (die Wahrscheinlichkeit, daß horizontale und vertikale Komponenten des Bewegungsvektors zu einer großen ganzen Zahl werden), erheblich verringert, so daß der absolute Erwartungswert für den Rundungsfehler klein wird. Selbst dann, wenn die Größe des bei diesem Verfahren auftretenden Fehlers begrenzt werden kann, kann die Akkumulation von Fehlern jedoch nicht vollständig verhindert werden.
    • (v) Die in dieser Beschreibung dargelegte Erfindung ist auf ein Verfahren anwendbar, das das endgültige Zwischenrahmen-Voraussagebild durch Mitteln der durch verschiedene Bewegungskompensationsverfahren erhaltenen Voraussagebilder erhält. In dem in der japanischen Patentanmeldung Hei 8-2616 beschriebenen Verfahren werden beispielsweise durch die folgenden zwei Verfahren erhaltene Zwischenrahmen-Voraussagebilder gemittelt: eine Blockanpassung, bei der ein Bewegungsvektor jedem 16 × 16-Pixelblock zugewiesen wird, und eine Blockanpassung; bei der ein Bewegungsvektor allen 8 × 8-Pixelblöcken zugewiesen wird. Bei diesem Verfahren wird das Runden auch ausgeführt, wenn der Mittelwert der zwei Voraussagebilder berechnet wird. Wenn bei dieser Mittelungsoperation nur ein positives Runden kontinuierlich ausgeführt wird, wird ein neuer Typ eines Rundungsfehlers akkumuliert. Dieses Problem kann unter Verwendung von Mehrfachrundungsverfahren für diese Mittelungsoperation gelöst werden. Bei diesem Verfahren wird bei der Mittelungsoperation ein negatives Runden ausgeführt, wenn ein positives Runden bei der Blockanpassung ausgeführt wird. Umgekehrt wird das positive Runden für das Mitteln verwendet, wenn das negative Runden für die Blockan passung verwendet wird. Unter Verwendung verschiedener Rundungsverfahren für das Mitteln und die Blockanpassung werden die Rundungsfehler von zwei verschiedenen Quellen innerhalb des gleichen Rahmens aufgehoben.
    • (vi) Wenn ein Verfahren verwendet wird, bei dem alternierend (P+)-Rahmen und (P–)-Rahmen entlang der Zeitachse lokalisiert werden, muß der Decodierer bestimmen, ob der gegenwärtig verarbeitete P-Rahmen ein (P+)-Rahmen oder ein (P–)-Rahmen ist. Nachstehend wird ein Beispiel eines solchen Identifikationsverfahrens angegeben: Ein Zähler zählt die Anzahl der P-Rahmen nach dem letzten codierten oder decodierten I-Rahmen, und der aktuelle P-Rahmen ist ein (P+)-Rahmen, wenn die Zahl ungerade ist, und ein (P–)-Rahmen, wenn die Zahl gerade ist (dieses Verfahren wird als ein implizites Schema bezeichnet). Es gibt beispielsweise auch ein Verfahren, das in den Kopfabschnitt der codierten Bildinformationen Informationen schreibt, die der Angabe dienen, ob der gegenwärtig codierte P-Rahmen am Codierer ein (P+)-Rahmen oder ein (P–)-Rahmen ist (dieses Verfahren wird als ein explizites Schema bezeichnet). Verglichen mit dem impliziten Verfahren, ist dieses Verfahren gut in der Lage, Übertragungsfehlern zu widerstehen, weil es nicht erforderlich ist, die Anzahl der P-Rahmen zu zählen.
  • Weiterhin hat das explizite Verfahren die folgenden Vorteile: Wie in "Beschreibung des Stands der Technik" beschrieben wurde, verwenden frühere Codierstandards (wie MPEG-1 oder MPEG-2) nur ein positives Runden zur Bewegungskompensation. Dies bedeutet beispielsweise, daß die Bewegungsschätzungs- bzw. Bewegungskompensationsvorrichtungen (die beispielsweise zu 106 in 1 äquivalent sind) für MPEG-1/MPEG-2, die auf dem Markt erhältlich sind, nicht mit Codierverfahren kompatibel sind, welche sowohl (P+)-Rahmen als auch (P–)-Rahmen verwenden. Es wird angenommen, daß es einen Decodierer gibt, der Bitströme decodieren kann, welche von einem Codierverfahren erzeugt wurden, das (P+)-Rahmen und (P–)-Rahmen verwendet. Falls in diesem Fall der Decodierer auf dem vorstehend erwähnten impliziten Verfahren beruht, ist es schwierig, einen Codierer zu entwickeln, der Bitströme erzeugt, welche vom vorstehend erwähnten Decodierer unter Verwendung der vorstehend erwähnten Bewegungsschätz- und -kompensationsvorrichtung für MPEG-1/MPEG-2 richtig decodiert werden können. Falls der Decodierer jedoch auf dem vorstehend erwähnten expliziten Verfahren beruht, kann dieses Problem gelöst werden. Ein Codierer, bei dem eine MPEG-1/MPEG-2-Bewegungsschätz- und -kompensationsvorrichtung verwendet wird, kann durch kontinuierliches Schreiben von Rundungsverfahren-Unterscheidungsinformationen, die ein positives Runden angeben, in den Rahmeninformations-Kopfteil kontinuierlich (P+)-Rahmen senden. Wenn dies erfolgt, kann ein auf dem expliziten Verfahren beruhender Decodierer den von diesem Codierer erzeugten Bitstrom richtig decodieren. Es sollte in diesem Fall natürlich wahrscheinlicher sein, daß die Akkumulation von Rundungsfehlern auftritt, weil nur (P+)-Rahmen vorhanden sind. Die Fehlerakkumulation ist jedoch in Fällen, in denen der Codierer nur kleine Werte als Quantisierungsschrittgröße für die DCT-Koeffizienten verwendet, kein ernstes Problem (ein Beispiel für solche Codierer ist ein kundenspezifischer Codierer, der nur zum Codieren bei einer hohen Rate verwendet wird). Zusätzlich zu dieser Austauschbarkeit zwischen früheren Standards hat das explizite Verfahren weiter die folgenden Vorteile: (a) die Gerätekosten für bei einer hohen Rate arbeitende kundenspezifische Codierer und Decodierer, die nicht für eine Rundungsfehlerakkumulation infolge des häufigen Einführens von I-Rahmen anfällig sind, kann durch Installieren nur eines positiven oder eines negativen Rundens als das Pixelwert-Rundungsverfahren zur Bewegungskompensation verringert werden, und (b) die erwähnten Codierer, die nicht für eine Rundungsfehlerakkumulation anfällig sind, haben den Vorteil, daß es nicht erforderlich ist, zu entscheiden, ob der aktuelle Rahmen als ein (P+)- oder ein (P–)-Rahmen codiert werden muß, und daß die Verarbeitung vereinfacht ist.
    • (vii) Die in dieser Beschreibung dargelegte Erfindung ist auf Decodierverfahren anwendbar, die ein das Runden begleitendes Filtern auf die Zwischenrahmen-Voraussagebilder anwenden. Beim internationalen Standard H.261 für die Bildfolgecodierung wird beispielsweise ein Tiefpaßfilter (als ein Schleifenfilter bezeichnet) auf Blocksignale angewendet, deren Bewegungsvektoren bei Zwischenrahmen-Voraussagebildern nicht 0 sind. Weiterhin können bei H.263 Filter zum Herausglätten von Unstetigkeiten an Blockgrenzen (Blockartefakte) verwendet werden. All diese Filter führen ein gewichtetes Mitteln von Pixelintensitätswerten aus, und es wird dann an den gemittelten Intensitätswerten ein Runden ausgeführt. Selbst in diesen Fällen ist die selektive Verwendung eines positiven Rundens und eines negativen Rundens zum Verhindern der Fehlerakkumulation wirksam.
    • (viii) Abgesehen von I P+ P– P+ P– ... sind verschiedene Verfahren zum Mischen von (P+)-Rahmen und (P–)-Rahmen, wie I P+ P+ P– P– P+ P+ ... oder I P+ P– P– P+ P+ ... auf das Verfahren gemäß dieser Erfindung anwendbar. Bei Verwendung eines Zufallszahlgenerators, der 0 und 1 bei einer Wahrscheinlichkeit von 50 Prozent ausgibt, kann der Codierer beispielsweise einen (P+)- und einen (P–)-Rahmen codieren, wenn die Ausgabe 0 bzw. 1 ist. In jedem Fall ist es umso weniger wahrscheinlich, daß die Rundungsfehlerakkumulation auftritt, je kleiner die Wahrscheinlichkeitsdifferenz ist, daß (P+)-Rahmen und (P–)-Rahmen in einem bestimmten Zeitraum auftreten. Wenn der Codierer weiterhin (P+)-Rahmen und (P–)-Rahmen durch ein beliebiges Verfahren mischen darf, müssen der Codierer und der Decodierer auf der Grundlage des expliziten Verfahrens und nicht mit dem vorstehend beschriebenen impliziten Verfahren arbeiten. Dementsprechend ist das explizite Verfahren überlegen, wenn es aus der Perspektive des Ermöglichens einer Flexibilitätskonfiguration für den Codierer und den Decodierer betrachtet wird.
    • (ix) Die in dieser Beschreibung dargelegte Erfindung begrenzt das Pixelwert-Interpolationsverfahren nicht auf die bilineare Interpolation. Interpolationsverfahren für Intensitätswerte können im allgemeinen durch die folgende Gleichung beschrieben werden:
  • [Gleichung 5]
    Figure 00320001
  • Hierbei sind r und s reale Zahlen, ist h(r, s) eine Funktion zum Interpolieren der realen Zahlen und ist T(z) eine Funktion zum Runden der realen Zahl z. Die Definitionen von R(x, y), x und y gleichen denen in Gleichung 4. Eine Bewegungskompensation unter Verwendung des positiven Rundens wird ausgeführt, wenn T(z) eine das positive Runden darstellende Funktion ist, und eine Bewegungskompensation unter Verwendung des negativen Rundens wird ausgeführt, wenn die Funktion das negative Runden darstellt. Diese Erfindung ist auf Interpolationsverfahren anwendbar, die unter Verwendung von Gleichung 5 beschrieben werden können. Beispielsweise kann eine bilineare Interpolation durch Definieren von h(r, s) beschrieben werden, wie nachstehend dargestellt ist.
  • [Gleichung 6]
    Figure 00320002
  • Falls h(r, s) jedoch beispielsweise wie nachstehend angegeben definiert ist, [Gleichung 7]
    Figure 00320003
    wird ein Interpolationsverfahren implementiert, das von der bilinearen Interpolation verschieden ist, die Erfindung ist jedoch weiterhin anwendbar.
    • (x) Die in dieser Beschreibung dargelegte Erfindung beschränkt das Codierverfahren für Fehlerbilder nicht auf DCT (diskrete Kosinustransformation). Beispielsweise sind eine Wellenform-Transformation (beispielsweise M. Antonioni u. a., "Image Coding Using Wavelet Transform", IEEE Trans. Image Processing, Band 1, Nr. 2, April 1992) und eine Walsh-Hadamard-Transformation (beispielsweise A. N. Netravalli und B. G. Haskell, "Digital Pictures", Plenum Press, 1998) auch auf diese Erfindung anwendbar.

Claims (4)

  1. Verfahren zum Dekodieren von Bildern, wobei: ein zuvor dekodiertes Bilds als Referenzbild (210) gespeichert wird; Bewegungsvektorinformation (202) aus zu dekodierender Eingangsinformation gewonnen wird; und Bewegungskompensation unter Verwendung der Bewegungsvektorinformation und des Referenzbilds durchgeführt wird, um ein vorausgesagtes Bild (212) zu synthetisieren, dadurch gekennzeichnet, daß zum Erhalten des vorausgesagten Bilds eine Pixelwert-Interpolation unter Verwendung eines Rundungsverfahrens durchgeführt wird, bei dem durch eine Rundungsverfahrensinformation spezifiziert wird, ob positiv oder negativ zu runden ist, und die Rundungsverfahrensinformation aus der Eingangsinformation gewonnen wird.
  2. Bilddecoder, der Eingangsinformation dekodiert, mit: einem Demultiplexer (216), der Bewegungsvektorinformation aus der zu dekodierenden Eingangsinformation gewinnt; einem Speicher (209) zum Speichern eines Referenzbilds (210), das ein zuvor dekodiertes Bild darstellt, einem Synthesiser (211) zum Synthetisieren eines vorausgesagten Bilds (212), indem eine Bewegungskompensation unter Verwendung der gewonnenen Bewegungsvektorinformation (202) und des Referenzbilds (210) durchgeführt wird, dadurch gekennzeichnet, daß der Demultiplexer zusätzlich Rundungsverfahrensinformation (1704) aus der Eingangsinformation gewinnt, die spezifiziert ob bei einer Pixelwert-Interpolation in der Bewegungskompensation positiv oder negativ zu runden ist, und der Synthesiser Pixelwert-Interpolation unter Verwendung des durch die gewonnene Rundungsverfahrensinformation spezifizierten Rundungsverfahrens durchführt.
  3. Computer-lesbares Medium zum Anweisen eines Computers, das Bilddekodierverfahren nach Anspruch 1 auszuführen.
  4. Erfindung nach Anspruch 1 oder 2, wobei die Pixelwert-Interpolation unter Verwendung der positiven Rundung nach folgenden Gleichungen berechnet wird: Ib = [(La + Lb + 1)/2], Ic = [(La + Lc + 1)/2], und Id = [(La + Lb + Lc + Ld + 2)/4], und die Pixelwert-Interpolation unter Verwendung der negativen Rundung nach folgenden Gleichungen berechnet wird: Ib = [(La + Lb)/2], Ic = [(La + Lc)/2], und Id = [(La + Lb + Lc + Ld + 1)/4], wobei La, Lb, Lc und Ld die jeweiligen Intensitätswerte eines ersten Pixels, eines horizontal an das erste Pixel angrenzenden zweiten Pixels, eines vertikal an das erste Pixel angrenzenden dritten Pixels und eines vertikal an das zweite Pixel und horizontal an das dritte Pixel angrenzenden vierten Pixels sind, und Ib, Ic und Id die jeweiligen interpolierten Intensitätswerte des mittleren Punkts zwischen dem ersten und dem zweiten Pixel, des mittleren Punkts zwischen dem ersten und dem dritten Pixel und des mittleren Punkts zwischen dem ersten, dem zweiten, dem dritten und dem vierten Pixel sind.
DE1998617460 1997-06-09 1998-06-08 Bildsequenzdekodierungsverfahren Expired - Lifetime DE69817460T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15065697 1997-06-09
JP15065697 1997-06-09

Publications (2)

Publication Number Publication Date
DE69817460D1 DE69817460D1 (de) 2003-10-02
DE69817460T2 true DE69817460T2 (de) 2004-06-09

Family

ID=15501626

Family Applications (2)

Application Number Title Priority Date Filing Date
DE1998608519 Expired - Lifetime DE69808519T2 (de) 1997-06-09 1998-06-08 Verfahren zur Bildsequenzcodierung
DE1998617460 Expired - Lifetime DE69817460T2 (de) 1997-06-09 1998-06-08 Bildsequenzdekodierungsverfahren

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE1998608519 Expired - Lifetime DE69808519T2 (de) 1997-06-09 1998-06-08 Verfahren zur Bildsequenzcodierung

Country Status (10)

Country Link
US (92) US6295376B1 (de)
EP (11) EP2288165B1 (de)
JP (17) JP3092610B2 (de)
KR (4) KR100393123B1 (de)
CN (8) CN1156167C (de)
CA (1) CA2240118C (de)
DE (2) DE69808519T2 (de)
ES (10) ES2433641T3 (de)
HK (8) HK1017795A1 (de)
TW (2) TW411698B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332270B2 (en) 2003-11-04 2016-05-03 Mediatek Inc. Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1941797A (en) 1997-03-17 1998-10-12 Mitsubishi Denki Kabushiki Kaisha Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system
US6574371B2 (en) * 1997-06-09 2003-06-03 Hitachi, Ltd. Image decoding method
EP2288165B1 (de) * 1997-06-09 2015-12-16 Hitachi, Ltd. Bilddekodierung
US7801380B2 (en) * 1997-06-09 2010-09-21 Hitachi, Ltd. Recording medium having recorded thereon coded information using plus and/or minus rounding of images
KR100282147B1 (ko) * 1998-11-13 2001-02-15 구자홍 압축 영상 복원 방법
WO2000046695A1 (en) * 1999-02-01 2000-08-10 Koninklijke Philips Electronics N.V. Descriptor for a video sequence and image retrieval system using said descriptor
JP2000270330A (ja) * 1999-03-18 2000-09-29 Fujitsu Ltd 映像配信システム及び映像配信方法
US6567557B1 (en) * 1999-12-10 2003-05-20 Stmicroelectronics, Inc. Method for preventing dual-step half-pixel motion compensation accumulation errors in prediction-rich MPEG-2 sequences
DE60024389T2 (de) * 1999-04-26 2006-08-03 Koninklijke Philips Electronics N.V. Subpixelgenaue bewegungsvektorschätzung und bewegungskompensierte interpolation
US7170941B2 (en) * 1999-08-13 2007-01-30 Patapsco Designs Inc. Temporal compression
JP4129664B2 (ja) * 1999-10-05 2008-08-06 ソニー株式会社 データ処理装置およびデータ処理方法
US6683986B1 (en) * 1999-10-28 2004-01-27 Sharp Laboratories Of America, Inc. Efficient transmission of quarter-VGA images using DVC codecs
EP1169868B1 (de) * 2000-02-04 2006-10-18 Koninklijke Philips Electronics N.V. Verfahren und anordnung zur reduktion von blockartefakten
US6512523B1 (en) * 2000-03-27 2003-01-28 Intel Corporation Accurate averaging of elements using integer averaging
WO2001091469A1 (en) * 2000-05-19 2001-11-29 Koninklijke Philips Electronics N.V. Method, system and apparatus
US7168069B1 (en) * 2000-07-12 2007-01-23 Stmicroelectronics, Inc. Dynamic generation of multimedia code for image processing
EP1229738B1 (de) * 2000-11-10 2011-03-09 Ricoh Company, Ltd. Bilddekompression von Transformkoeffizienten
KR100386639B1 (ko) * 2000-12-04 2003-06-02 주식회사 오픈비주얼 정규화된 역양자화기를 이용한 영상 및 동영상의 복원 방법
US7054500B1 (en) * 2000-12-06 2006-05-30 Realnetworks, Inc. Video compression and decompression system with postfilter to filter coding artifacts
US7170997B2 (en) 2000-12-07 2007-01-30 Cryptico A/S Method of generating pseudo-random numbers in an electronic device, and a method of encrypting and decrypting electronic data
US6898245B2 (en) 2001-03-26 2005-05-24 Telefonaktiebolaget Lm Ericsson (Publ) Low complexity video decoding
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
EP2819411B1 (de) * 2001-09-14 2018-08-29 NTT DoCoMo, Inc. Kodierungs- und Dekodierungsverfahren
EP1432249A4 (de) * 2001-09-18 2007-12-05 Matsushita Electric Ind Co Ltd Bildkodierungsverfahren und bilddekodierungsverfahren
JP3932379B2 (ja) * 2001-10-02 2007-06-20 株式会社日立製作所 画像処理装置と撮像素子
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
KR20060111735A (ko) * 2002-01-18 2006-10-27 가부시끼가이샤 도시바 동화상 복호화방법 및 장치
JP3861698B2 (ja) 2002-01-23 2006-12-20 ソニー株式会社 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7266254B2 (en) * 2002-02-13 2007-09-04 Canon Kabushiki Kaisha Data processing apparatus, image processing apparatus, and method therefor
US8284844B2 (en) 2002-04-01 2012-10-09 Broadcom Corporation Video decoding system supporting multiple standards
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US7116831B2 (en) 2002-04-10 2006-10-03 Microsoft Corporation Chrominance motion vector rounding
US7110459B2 (en) 2002-04-10 2006-09-19 Microsoft Corporation Approximate bicubic filter
US7305034B2 (en) * 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US20040086117A1 (en) * 2002-06-06 2004-05-06 Petersen Mette Vesterager Methods for improving unpredictability of output of pseudo-random number generators
US7224731B2 (en) 2002-06-28 2007-05-29 Microsoft Corporation Motion estimation/compensation for screen capture video
US7280700B2 (en) 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
JP4724351B2 (ja) 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
JP4078906B2 (ja) * 2002-07-19 2008-04-23 ソニー株式会社 画像信号の処理装置および処理方法、画像表示装置、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
KR100472476B1 (ko) * 2002-08-31 2005-03-10 삼성전자주식회사 움직임 보상을 위한 보간 방법 및 그 장치
BRPI0306987B1 (pt) * 2002-11-20 2018-04-03 Godo Kaisha Ip Bridge 1 “Método de prognóstico de imagem em movimento”
US7403660B2 (en) * 2003-04-30 2008-07-22 Nokia Corporation Encoding picture arrangement parameter in picture bitstream
US20040252762A1 (en) * 2003-06-16 2004-12-16 Pai R. Lakshmikanth System, method, and apparatus for reducing memory and bandwidth requirements in decoder system
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7426308B2 (en) * 2003-07-18 2008-09-16 Microsoft Corporation Intraframe and interframe interlace coding and decoding
US7499495B2 (en) * 2003-07-18 2009-03-03 Microsoft Corporation Extended range motion vectors
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7317839B2 (en) * 2003-09-07 2008-01-08 Microsoft Corporation Chroma motion vector derivation for interlaced forward-predicted fields
NO319629B1 (no) * 2003-11-28 2005-09-05 Tandberg Telecom As Fremgangsmate for korrigering av interpolerte pikselverdier
KR100601935B1 (ko) * 2003-12-02 2006-07-14 삼성전자주식회사 디지탈 동영상 처리 방법 및 장치
FI20035235A0 (fi) * 2003-12-12 2003-12-12 Nokia Corp Järjestely tiedostojen käsittelemiseksi päätelaitteen yhteydessä
US7643182B2 (en) * 2003-12-16 2010-01-05 Seiko Epson Corporation System and method for processing image data
JP2005184632A (ja) * 2003-12-22 2005-07-07 Nec Access Technica Ltd 通信端末における消費電力削減方法及び通信端末
CN100542289C (zh) * 2004-07-13 2009-09-16 杜比实验室特许公司 视频压缩的无偏舍入
US7548259B2 (en) * 2004-08-12 2009-06-16 Microsoft Corporation System and method for producing a higher resolution still image from video information
WO2006028088A1 (ja) 2004-09-08 2006-03-16 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法
US7941177B2 (en) 2004-09-15 2011-05-10 Samsung Electronics Co., Ltd Wireless terminal apparatus for automatically changing WLAN standard and method thereof
JP2006190259A (ja) * 2004-12-06 2006-07-20 Canon Inc 手ぶれ判定装置及び画像処理装置及びその制御方法及びプログラム
KR100634531B1 (ko) * 2004-12-29 2006-10-16 삼성전자주식회사 액정 표시장치의 동적 캐패시턴스 보상장치 및 방법
US7634148B2 (en) * 2005-01-07 2009-12-15 Ntt Docomo, Inc. Image signal transforming and inverse-transforming method and computer program product with pre-encoding filtering features
US7953283B2 (en) * 2005-01-27 2011-05-31 Panasonic Corporation Portable terminal
JP2006217406A (ja) * 2005-02-04 2006-08-17 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法
JP2008544598A (ja) * 2005-06-10 2008-12-04 エヌエックスピー ビー ヴィ 交互の上向き及び下向き動きベクトル
WO2007029878A1 (en) * 2005-09-09 2007-03-15 Yamaha Corporation Capacitor microphone
US8208553B2 (en) * 2006-05-04 2012-06-26 Altera Corporation Methods and apparatus for quarter-pel refinement in a SIMD array processor
US8194760B2 (en) * 2006-06-01 2012-06-05 Ntt Docomo, Inc. Method and apparatus for distributed space-time coding in wireless radio networks
KR100885693B1 (ko) * 2006-06-14 2009-02-26 한국전자통신연구원 독립성분분석 기반의 신호분리 알고리즘을 이용한 비디오인코딩 장치 및 그 방법과 이를 이용한 비디오 디코딩 장치및 그 방법
US20080039165A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for a scouting report in online gaming
US20080039169A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for character development in online gaming
US20080039166A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for multi-character online gaming
US8194744B2 (en) * 2006-09-20 2012-06-05 Lsi Corporation Method and/or apparatus for implementing reduced bandwidth high performance VC1 intensity compensation
US20100134631A1 (en) * 2006-10-30 2010-06-03 Wesleyan University Apparatus and method for real time image compression for particle tracking
US8861356B2 (en) * 2007-03-13 2014-10-14 Ntt Docomo, Inc. Method and apparatus for prioritized information delivery with network coding over time-varying network topologies
US8275041B2 (en) * 2007-04-09 2012-09-25 Nokia Corporation High accuracy motion vectors for video coding with low encoder and decoder complexity
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
JP2009077382A (ja) * 2007-08-27 2009-04-09 Sony Corp 画像処理装置および方法、並びにプログラム
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US20090075686A1 (en) * 2007-09-19 2009-03-19 Gomadam Krishna S Method and apparatus for wideband transmission based on multi-user mimo and two-way training
US8325840B2 (en) * 2008-02-25 2012-12-04 Ntt Docomo, Inc. Tree position adaptive soft output M-algorithm receiver structures
US8279954B2 (en) * 2008-03-06 2012-10-02 Ntt Docomo, Inc. Adaptive forward-backward soft output M-algorithm receiver structures
US20090262249A1 (en) * 2008-04-22 2009-10-22 Himax Media Solutions, Inc. Interpolated frame generating method
CN101345872B (zh) * 2008-05-23 2010-06-09 清华大学 视频编解码中实现双线性插值的方法
US8565329B2 (en) * 2008-06-03 2013-10-22 Ntt Docomo, Inc. Soft output M-algorithm receiver structures with generalized survivor selection criteria for MIMO systems
AU2009264603A1 (en) * 2008-06-30 2010-01-07 Kabushiki Kaisha Toshiba Dynamic image prediction/encoding device and dynamic image prediction/decoding device
US8705627B2 (en) * 2008-07-25 2014-04-22 Sony Corporation Image processing apparatus and method
JP4444354B2 (ja) * 2008-08-04 2010-03-31 株式会社東芝 画像処理装置、および画像処理方法
US8229443B2 (en) * 2008-08-13 2012-07-24 Ntt Docomo, Inc. Method of combined user and coordination pattern scheduling over varying antenna and base-station coordination patterns in a multi-cell environment
US8705484B2 (en) * 2008-08-15 2014-04-22 Ntt Docomo, Inc. Method for varying transmit power patterns in a multi-cell environment
US8451951B2 (en) * 2008-08-15 2013-05-28 Ntt Docomo, Inc. Channel classification and rate adaptation for SU-MIMO systems
US8542640B2 (en) * 2008-08-28 2013-09-24 Ntt Docomo, Inc. Inter-cell approach to operating wireless beam-forming and user selection/scheduling in multi-cell environments based on limited signaling between patterns of subsets of cells
US8855221B2 (en) * 2008-09-15 2014-10-07 Ntt Docomo, Inc. Method and apparatus for iterative receiver structures for OFDM/MIMO systems with bit interleaved coded modulation
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
JP5143038B2 (ja) * 2009-02-02 2013-02-13 オリンパス株式会社 画像処理装置及び画像処理方法
JP2010258739A (ja) * 2009-04-24 2010-11-11 Sony Corp 画像処理装置および方法、並びにプログラム
US9048977B2 (en) * 2009-05-05 2015-06-02 Ntt Docomo, Inc. Receiver terminal driven joint encoder and decoder mode adaptation for SU-MIMO systems
US8811765B2 (en) 2009-11-17 2014-08-19 Sharp Kabushiki Kaisha Encoding device configured to generate a frequency component extraction signal, control method for an encoding device using the frequency component extraction signal, transmission system, and computer-readable recording medium having a control program recorded thereon
US8824825B2 (en) * 2009-11-17 2014-09-02 Sharp Kabushiki Kaisha Decoding device with nonlinear process section, control method for the decoding device, transmission system, and computer-readable recording medium having a control program recorded thereon
US20110200108A1 (en) * 2010-02-18 2011-08-18 Qualcomm Incorporated Chrominance high precision motion filtering for motion interpolation
WO2011121894A1 (ja) * 2010-03-31 2011-10-06 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP5390458B2 (ja) * 2010-04-08 2014-01-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム
CA2832672A1 (en) 2010-04-16 2011-10-20 Nuevolution A/S Bi-functional complexes and methods for making and using such complexes
CN101917624B (zh) * 2010-07-26 2013-04-03 清华大学 一种高分辨率视频图像重建方法
US8968080B1 (en) * 2010-11-05 2015-03-03 Wms Gaming, Inc. Display of third party content on a wagering game machine
JP5768491B2 (ja) * 2011-05-17 2015-08-26 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US9965358B2 (en) 2011-05-27 2018-05-08 Empire Technology Development Llc Seamless application backup and recovery using metadata
US8805099B2 (en) 2011-06-22 2014-08-12 Panasonic Intellectual Property Corporation Of America Image decoding method and image coding method
JP2013102297A (ja) 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
JP5871628B2 (ja) * 2011-11-07 2016-03-01 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
PL2795529T3 (pl) * 2011-12-23 2022-02-07 Knauf Gips Kg Sposób i system do sprawdzania występowania lub czytelności informacji dotyczącej towaru
EP2807019B1 (de) 2012-01-23 2018-03-21 Apio, Inc. Atmosphärensteuerung in der umgebung sauerstoffverbrauchender biologischer materialien
CA2879650C (en) * 2012-06-11 2017-09-05 Nippon Hoso Kyokai Encoding device, decoding device, and program
EP2869559A4 (de) 2012-06-29 2016-09-07 Sony Corp Decodierungsvorrichtung und decodierungsverfahren
WO2014049667A1 (ja) * 2012-09-28 2014-04-03 株式会社島津製作所 デジタル画像処理方法および撮影装置
CN104104960B (zh) 2013-04-03 2017-06-27 华为技术有限公司 多级双向运动估计方法及设备
US10303658B2 (en) * 2013-11-25 2019-05-28 Dropbox, Inc. Generating and sharing metadata for indexing synchronized content items
AU2014368949A1 (en) * 2013-12-19 2016-06-09 Visa International Service Association Cloud-based transactions methods and systems
US9778817B2 (en) * 2013-12-31 2017-10-03 Findo, Inc. Tagging of images based on social network tags or comments
US9774881B2 (en) 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9942560B2 (en) 2014-01-08 2018-04-10 Microsoft Technology Licensing, Llc Encoding screen capture data
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
US20150200156A1 (en) * 2014-01-13 2015-07-16 Altera Corporation Module having mirror-symmetric terminals and methods of forming the same
US9147262B1 (en) 2014-08-25 2015-09-29 Xerox Corporation Methods and systems for image processing
US10387596B2 (en) * 2014-08-26 2019-08-20 International Business Machines Corporation Multi-dimension variable predictive modeling for yield analysis acceleration
MX2017004088A (es) * 2014-10-03 2017-07-07 Nec Corp Dispositivo de codificacion de video, dispositivo de descodificacion de video, metodo de codificacion de video, metodo de descodificacion de video y programa.
CN105611182B (zh) * 2014-11-25 2020-05-22 中兴通讯股份有限公司 亮度补偿方法及装置
KR102349788B1 (ko) * 2015-01-13 2022-01-11 인텔렉추얼디스커버리 주식회사 영상의 부호화/복호화 방법 및 장치
WO2016147836A1 (ja) * 2015-03-13 2016-09-22 ソニー株式会社 画像処理装置および方法
KR102059066B1 (ko) * 2015-08-24 2019-12-24 후아웨이 테크놀러지 컴퍼니 리미티드 모션 벡터 필드 코딩 방법 및 디코딩 방법, 및 코딩 및 디코딩 장치들
US10509601B2 (en) * 2016-12-28 2019-12-17 Amazon Technologies, Inc. Data storage system with multi-tier control plane
BR112019012707A2 (pt) * 2016-12-28 2019-11-19 Sony Corp aparelho e método de processamento de imagem.
US10570759B2 (en) * 2017-07-10 2020-02-25 GM Global Technology Operations LLC Variable-geometry turbine housing intake channel for an exhaust driven turbocharger
CN112583878B (zh) * 2019-09-30 2023-03-14 阿波罗智能技术(北京)有限公司 车辆信息校验方法、装置、设备和介质
CN116760988B (zh) * 2023-08-18 2023-11-10 瀚博半导体(上海)有限公司 基于人类视觉系统的视频编码方法和装置

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1341375A (en) 1969-11-19 1973-12-19 Smith Kline French Lab Aminoalkylimidazoles and process for their production
JPS6214754A (ja) 1985-07-13 1987-01-23 Junichi Sugawara 米飯類の保存処理法とその製品
JPS62147654A (ja) 1985-12-23 1987-07-01 Showa Denko Kk リチウム−アルミニウム合金電極の製造方法
FR2620502B1 (fr) 1987-09-10 1989-12-08 Valeo Dispositif amortisseur de torsion
US5054103A (en) * 1987-09-24 1991-10-01 Matsushita Electric Works, Ltd. Picture encoding system
US5379351A (en) * 1992-02-19 1995-01-03 Integrated Information Technology, Inc. Video compression/decompression processing and processors
JP2749700B2 (ja) 1990-04-18 1998-05-13 三菱電機株式会社 リニアイメージセンサ
JP2827461B2 (ja) 1990-06-18 1998-11-25 株式会社デンソー 電子冷凍装置
JPH06214754A (ja) 1993-01-14 1994-08-05 Toshiba Corp 四捨五入演算回路及びこれを有する画像処理装置
US5737022A (en) * 1993-02-26 1998-04-07 Kabushiki Kaisha Toshiba Motion picture error concealment using simplified motion compensation
TW224553B (en) * 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
US5486876A (en) 1993-04-27 1996-01-23 Array Microsystems, Inc. Video interface unit for mapping physical image data to logical tiles
WO1995009487A1 (en) 1993-09-28 1995-04-06 Sony Corporation High efficiency encoding/decoding device
JPH07153195A (ja) * 1993-11-30 1995-06-16 Sony Corp ディジタル記録装置
GB9402807D0 (en) 1994-02-14 1994-04-06 Xenova Ltd Pharmaceutical compounds
US5685963A (en) * 1994-10-31 1997-11-11 Saes Pure Gas, Inc. In situ getter pump system and method
US5638128A (en) * 1994-11-08 1997-06-10 General Instrument Corporation Of Delaware Pixel interpolation filters for video decompression processor
JP3191583B2 (ja) * 1994-12-12 2001-07-23 ソニー株式会社 情報復号化装置
US5949484A (en) * 1995-03-08 1999-09-07 Hitachi, Ltd. Portable terminal apparatus for multimedia communication
US5650823A (en) 1995-03-27 1997-07-22 International Business Machines Corporation Half pel motion estimation method for B pictures
GB2301972B (en) * 1995-06-06 1999-10-20 Sony Uk Ltd Video compression
JP3081507B2 (ja) 1995-06-15 2000-08-28 三菱電機ビルテクノサービス株式会社 かご内養生シート収納装置
US5740283A (en) * 1995-07-06 1998-04-14 Rubin, Bednarek & Associates, Inc. Digital video compression utilizing mixed vector and scalar outputs
JP3700230B2 (ja) 1996-01-12 2005-09-28 株式会社日立製作所 動画像符号化における動き補償方法
JP3183155B2 (ja) 1996-03-18 2001-07-03 株式会社日立製作所 画像復号化装置、及び、画像復号化方法
JPH1098729A (ja) 1996-09-20 1998-04-14 Hitachi Ltd フレーム間予測画像の合成方法
US6205178B1 (en) * 1996-09-20 2001-03-20 Hitachi, Ltd. Method and synthesizing a predicted image, video coding device and video coding method
US5740263A (en) * 1996-10-23 1998-04-14 Liao; Lu-Lee Multi-media microphone seat
US6058410A (en) 1996-12-02 2000-05-02 Intel Corporation Method and apparatus for selecting a rounding mode for a numeric operation
US5905542A (en) * 1996-12-04 1999-05-18 C-Cube Microsystems, Inc. Simplified dual prime video motion estimation
US6056410A (en) * 1997-04-02 2000-05-02 Donnelly Corporation Digital electrochromic mirror system
US5837022A (en) * 1997-05-19 1998-11-17 Chapman; Rick L. High efficiency air filter system
US6574371B2 (en) * 1997-06-09 2003-06-03 Hitachi, Ltd. Image decoding method
JP3407727B2 (ja) * 1997-06-09 2003-05-19 株式会社日立製作所 記録媒体
JP2998741B2 (ja) * 1997-06-09 2000-01-11 株式会社日立製作所 動画像の符号化方法、該方法が記録されたコンピュータ読みとり可能な記録媒体、及び動画像の符号化装置
JP3410037B2 (ja) * 1997-06-09 2003-05-26 株式会社日立製作所 復号化方法、復号化装置、および、コンピュータ読み取り可能な記録媒体
JP3407726B2 (ja) * 1997-06-09 2003-05-19 株式会社日立製作所 符号化方法、符号化装置、および、コンピュータ読み取り可能な記録媒体
EP2288165B1 (de) * 1997-06-09 2015-12-16 Hitachi, Ltd. Bilddekodierung
JPH1169345A (ja) * 1997-06-11 1999-03-09 Fujitsu Ltd フレーム間予測動画像符号化装置及び復号装置並びにフレーム間予測動画像符号化方法及び復号方法
DE19730305A1 (de) * 1997-07-15 1999-01-21 Bosch Gmbh Robert Verfahren zur Erzeugung eines verbesserten Bildsignals bei der Bewegungsschätzung von Bildsequenzen, insbesondere eines Prädiktionssignals für Bewegtbilder mit bewegungskompensierender Prädiktion
JP4810043B2 (ja) 2000-01-18 2011-11-09 ネリアス・ファーマシュティカルズ・インコーポレーテッド 細胞分裂阻害剤及びその製造方法
US7027654B1 (en) * 2001-08-16 2006-04-11 On2 Technologies Video compression system
US7190724B2 (en) * 2002-04-12 2007-03-13 Seiko Epson Corporation Method and apparatus for transform domain video processing
US8644391B2 (en) * 2011-05-12 2014-02-04 National Cheng Kung University Space exploration method of reconfigurable motion compensation architecture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332270B2 (en) 2003-11-04 2016-05-03 Mediatek Inc. Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof

Also Published As

Publication number Publication date
US8942498B2 (en) 2015-01-27
US8649619B2 (en) 2014-02-11
EP2288164A1 (de) 2011-02-23
US7801375B2 (en) 2010-09-21
US6295376B1 (en) 2001-09-25
HK1076962A1 (en) 2006-01-27
JP2011120311A (ja) 2011-06-16
JP5418710B2 (ja) 2014-02-19
US20150245051A1 (en) 2015-08-27
CN100415000C (zh) 2008-08-27
US20140219360A1 (en) 2014-08-07
EP1193977A1 (de) 2002-04-03
US7424161B2 (en) 2008-09-09
US7724966B2 (en) 2010-05-25
KR100400538B1 (ko) 2003-10-08
US20110007805A1 (en) 2011-01-13
US8611682B2 (en) 2013-12-17
US7801373B2 (en) 2010-09-21
EP1193977B1 (de) 2003-08-27
EP0884912A2 (de) 1998-12-16
US7801371B2 (en) 2010-09-21
CN1845609A (zh) 2006-10-11
JP2013051711A (ja) 2013-03-14
TW411698B (en) 2000-11-11
US20130195193A1 (en) 2013-08-01
US20090238480A1 (en) 2009-09-24
JP2013158049A (ja) 2013-08-15
US20070286504A1 (en) 2007-12-13
US20120201302A1 (en) 2012-08-09
US9161053B2 (en) 2015-10-13
US20010028745A1 (en) 2001-10-11
US20100135413A1 (en) 2010-06-03
US8891890B2 (en) 2014-11-18
US7929786B2 (en) 2011-04-19
US9161051B2 (en) 2015-10-13
EP1237377B1 (de) 2013-02-27
US7801377B2 (en) 2010-09-21
US7936934B2 (en) 2011-05-03
JP2014241631A (ja) 2014-12-25
JP2015111892A (ja) 2015-06-18
US8649618B2 (en) 2014-02-11
US20110007809A1 (en) 2011-01-13
US20110007804A1 (en) 2011-01-13
US20100135405A1 (en) 2010-06-03
DE69808519T2 (de) 2003-06-26
US20050002581A1 (en) 2005-01-06
ES2434736T3 (es) 2013-12-17
ES2405318T3 (es) 2013-05-30
JP2014123989A (ja) 2014-07-03
DE69817460D1 (de) 2003-10-02
US20110007813A1 (en) 2011-01-13
US20070286503A1 (en) 2007-12-13
JP2013038822A (ja) 2013-02-21
US20090225852A1 (en) 2009-09-10
EP2285119A1 (de) 2011-02-16
CN1156167C (zh) 2004-06-30
JP3092610B2 (ja) 2000-09-25
US6606419B2 (en) 2003-08-12
US20110013698A1 (en) 2011-01-20
US7236635B2 (en) 2007-06-26
US7676100B2 (en) 2010-03-09
US7702166B2 (en) 2010-04-20
US20140219359A1 (en) 2014-08-07
US8160373B2 (en) 2012-04-17
US20080013842A1 (en) 2008-01-17
US20150245037A1 (en) 2015-08-27
US20010028682A1 (en) 2001-10-11
US6876769B2 (en) 2005-04-05
US6560367B1 (en) 2003-05-06
JP2012178865A (ja) 2012-09-13
CN1549602A (zh) 2004-11-24
US7072518B2 (en) 2006-07-04
US7466864B2 (en) 2008-12-16
JP2013158048A (ja) 2013-08-15
US7801369B2 (en) 2010-09-21
DE69808519D1 (de) 2002-11-07
KR19990006744A (ko) 1999-01-25
US20100135402A1 (en) 2010-06-03
US20130202042A1 (en) 2013-08-08
US20140219340A1 (en) 2014-08-07
KR100400537B1 (ko) 2003-10-08
US8942504B2 (en) 2015-01-27
JP5376083B2 (ja) 2013-12-25
US20140219358A1 (en) 2014-08-07
JP2012065348A (ja) 2012-03-29
KR100393125B1 (ko) 2003-07-31
US20140219341A1 (en) 2014-08-07
US7801366B2 (en) 2010-09-21
US20140219352A1 (en) 2014-08-07
EP1237376A3 (de) 2005-04-27
US7801374B2 (en) 2010-09-21
US9161044B2 (en) 2015-10-13
US20100135407A1 (en) 2010-06-03
US20130188711A1 (en) 2013-07-25
US7184601B2 (en) 2007-02-27
ES2545089T3 (es) 2015-09-08
US8948527B2 (en) 2015-02-03
US9167262B2 (en) 2015-10-20
US7929781B2 (en) 2011-04-19
US20040126023A1 (en) 2004-07-01
US7724969B2 (en) 2010-05-25
JPH11317952A (ja) 1999-11-16
US6631214B1 (en) 2003-10-07
HK1096804A1 (en) 2007-06-08
US20090225848A1 (en) 2009-09-10
US8406544B2 (en) 2013-03-26
CN1284375C (zh) 2006-11-08
EP2288166A1 (de) 2011-02-23
US7200274B2 (en) 2007-04-03
US20050002577A1 (en) 2005-01-06
US7248742B2 (en) 2007-07-24
US20100135404A1 (en) 2010-06-03
CA2240118C (en) 2005-11-22
US7929785B2 (en) 2011-04-19
KR100393123B1 (ko) 2003-09-19
US20110286677A1 (en) 2011-11-24
US8942501B2 (en) 2015-01-27
US6868185B2 (en) 2005-03-15
US7929787B2 (en) 2011-04-19
US20010053186A1 (en) 2001-12-20
EP2271116A1 (de) 2011-01-05
US8942497B2 (en) 2015-01-27
US20130195197A1 (en) 2013-08-01
US20140219351A1 (en) 2014-08-07
US7801367B2 (en) 2010-09-21
US7801372B2 (en) 2010-09-21
US20090225851A1 (en) 2009-09-10
US7471837B2 (en) 2008-12-30
US20090225849A1 (en) 2009-09-10
US20100135401A1 (en) 2010-06-03
US7801381B2 (en) 2010-09-21
HK1068466A1 (en) 2005-04-29
US7929782B2 (en) 2011-04-19
ES2545066T3 (es) 2015-09-08
EP2271117A1 (de) 2011-01-05
JP5257544B2 (ja) 2013-08-07
EP0884912A3 (de) 2000-11-22
JP5257543B2 (ja) 2013-08-07
US20100135403A1 (en) 2010-06-03
US7668384B2 (en) 2010-02-23
US7801376B2 (en) 2010-09-21
US20100128793A1 (en) 2010-05-27
CA2240118A1 (en) 1998-12-09
EP2288166B1 (de) 2015-08-05
US9161054B2 (en) 2015-10-13
US20050036700A1 (en) 2005-02-17
EP1237377A2 (de) 2002-09-04
US7251369B2 (en) 2007-07-31
ES2545109T3 (es) 2015-09-08
CN100355291C (zh) 2007-12-12
US20150245052A1 (en) 2015-08-27
US7929784B2 (en) 2011-04-19
US20100135408A1 (en) 2010-06-03
US20040126025A1 (en) 2004-07-01
US20130195195A1 (en) 2013-08-01
US8615139B2 (en) 2013-12-24
CN1549459A (zh) 2004-11-24
US20100172418A1 (en) 2010-07-08
US9161045B2 (en) 2015-10-13
EP1056294A1 (de) 2000-11-29
US8675977B2 (en) 2014-03-18
US20090232219A1 (en) 2009-09-17
JP5257545B2 (ja) 2013-08-07
ES2431802T3 (es) 2013-11-28
JP5880743B2 (ja) 2016-03-09
JP5545403B2 (ja) 2014-07-09
US20130202043A1 (en) 2013-08-08
US20090238281A1 (en) 2009-09-24
US6909809B2 (en) 2005-06-21
US20100135586A1 (en) 2010-06-03
JP4849076B2 (ja) 2011-12-28
EP1237377A3 (de) 2005-05-04
US20050008237A1 (en) 2005-01-13
US20090225850A1 (en) 2009-09-10
CN1274157C (zh) 2006-09-06
ES2204797T3 (es) 2004-05-01
US8611683B2 (en) 2013-12-17
US20110007814A1 (en) 2011-01-13
US7801368B2 (en) 2010-09-21
US20150043644A1 (en) 2015-02-12
CN1549601A (zh) 2004-11-24
EP1237376B1 (de) 2015-08-05
US7929783B2 (en) 2011-04-19
ES2433641T3 (es) 2013-12-12
EP2288165B1 (de) 2015-12-16
US20110007807A1 (en) 2011-01-13
US8942499B2 (en) 2015-01-27
US20080013841A1 (en) 2008-01-17
US8611685B2 (en) 2013-12-17
US20040126024A1 (en) 2004-07-01
US20150245053A1 (en) 2015-08-27
US6529632B1 (en) 2003-03-04
HK1068484A1 (en) 2005-04-29
US7724968B2 (en) 2010-05-25
US20110007815A1 (en) 2011-01-13
US20040052420A1 (en) 2004-03-18
JP2013051710A (ja) 2013-03-14
CN1658676A (zh) 2005-08-24
US20150245036A1 (en) 2015-08-27
EP2285119B1 (de) 2015-08-05
CN1674678A (zh) 2005-09-28
US20010031090A1 (en) 2001-10-18
CN1207633A (zh) 1999-02-10
US6915013B2 (en) 2005-07-05
US7801379B2 (en) 2010-09-21
US20050013499A1 (en) 2005-01-20
US8611684B2 (en) 2013-12-17
US20040125875A1 (en) 2004-07-01
US6584227B2 (en) 2003-06-24
US20110007812A1 (en) 2011-01-13
US20150229940A1 (en) 2015-08-13
JP2008160877A (ja) 2008-07-10
CN100417032C (zh) 2008-09-03
US20110007816A1 (en) 2011-01-13
US6650781B2 (en) 2003-11-18
US20150245055A1 (en) 2015-08-27
US20100128794A1 (en) 2010-05-27
US20110007817A1 (en) 2011-01-13
US20130195194A1 (en) 2013-08-01
US7929789B2 (en) 2011-04-19
US7936935B2 (en) 2011-05-03
JP5672400B2 (ja) 2015-02-18
JP2015228670A (ja) 2015-12-17
US20050002576A1 (en) 2005-01-06
JP2013251917A (ja) 2013-12-12
US20140219353A1 (en) 2014-08-07
US9167265B2 (en) 2015-10-20
JP2013051712A (ja) 2013-03-14
US20100135406A1 (en) 2010-06-03
US9161055B2 (en) 2015-10-13
US7801370B2 (en) 2010-09-21
US7801378B2 (en) 2010-09-21
US9161052B2 (en) 2015-10-13
CN100539694C (zh) 2009-09-09
US20110007808A1 (en) 2011-01-13
US8942492B2 (en) 2015-01-27
US20130195196A1 (en) 2013-08-01
US7724967B2 (en) 2010-05-25
US20130195369A1 (en) 2013-08-01
ES2205323T3 (es) 2004-05-01
EP2288164B1 (de) 2013-09-11
US20140119452A1 (en) 2014-05-01
US7929780B2 (en) 2011-04-19
CN1237809C (zh) 2006-01-18
US6643409B1 (en) 2003-11-04
US7426307B2 (en) 2008-09-16
EP2288165A1 (de) 2011-02-23
EP2271116B1 (de) 2013-09-11
US7929788B2 (en) 2011-04-19
US7933457B2 (en) 2011-04-26
US6567558B2 (en) 2003-05-20
HK1034841A1 (en) 2001-11-02
US7421133B2 (en) 2008-09-02
HK1081029A1 (en) 2006-05-04
US20100135409A1 (en) 2010-06-03
JP2014039300A (ja) 2014-02-27
US20110007811A1 (en) 2011-01-13
EP2271117B1 (de) 2013-09-11
HK1069699A1 (en) 2005-05-27
US20070286511A1 (en) 2007-12-13
HK1017795A1 (en) 1999-11-26
EP1056294B1 (de) 2002-10-02
US20110007810A1 (en) 2011-01-13
EP0884912B1 (de) 2003-08-27
JP5713137B2 (ja) 2015-05-07
US7929779B2 (en) 2011-04-19
JP4918946B2 (ja) 2012-04-18
US20150245054A1 (en) 2015-08-27
US7471836B2 (en) 2008-12-30
JP5392434B2 (ja) 2014-01-22
US8942500B2 (en) 2015-01-27
EP1237376A2 (de) 2002-09-04
ES2561212T3 (es) 2016-02-25
CN1283044A (zh) 2001-02-07
US20080037887A1 (en) 2008-02-14
US20100135411A1 (en) 2010-06-03
US8625915B2 (en) 2014-01-07
US7702167B2 (en) 2010-04-20
TW465227B (en) 2001-11-21
US7233704B2 (en) 2007-06-19

Similar Documents

Publication Publication Date Title
DE69817460T2 (de) Bildsequenzdekodierungsverfahren
DE69839100T2 (de) Verbesserte Videokodierung unter Verwendung von adaptiven Blockparametern für kodierte/unkodierte Blöcke
DE60215241T2 (de) Verfahren und Vorrichtung zur Reduzierung von Störungen in dekodierten Bildern mit Nachfilterung
DE69937462T2 (de) Effiziente macroblockheaderkodierung zur videokompression
DE60015566T2 (de) Verfahren und vorrichtung zur komprimierung eines bewegungsvektorfeldes
DE69530336T2 (de) Bewegungskompensation für digitale Videosignale mit Zeilensprung
DE69535228T2 (de) Bildumsetzungsvorrichtung
DE69834902T2 (de) Bewegungskompensierte prädiktive bildkodierung und -dekodierung
DE69837003T2 (de) Vorrichtung und verfahren zur optimierung der bitratensteurung in einem kodiersystem
DE602004002455T2 (de) Bewegungsvektorschätzung durch adaptive zeitliche Vorhersage
DE69635369T2 (de) Videokodierungsvorrichtung
DE19704439C2 (de) Verfahren und Vorrichtung zur Bewegungsschätzung in einem digitalen Videocodierer unter Verwendung von Trajektorien
DE69820142T2 (de) Dekodierverfahren für bewegte Bilder, und dementsprechendes Dekodiergerät
DE69834901T2 (de) Bewegungskompensierte prädiktive bildcodierung und -decodierung
DE19737805A1 (de) Verfahren und Vorrichtung zum Kodieren eines Bewegungsvektors
DE60213039T2 (de) MPEG4-Videokodierung mit &#34;skipped macroblock&#34; Mode
EP1134981A1 (de) Automatische Bestimmung der optimalen Suchfenstergrösse für Bewegungsschätzung
DE102019215911A1 (de) Adaptive inhaltsquantisierung zur videocodierung
EP1025704B1 (de) Verfahren zur bewegungskompensierenden prädiktion von bewegtbildfolgen
DE102005051091A1 (de) Verfahren und Vorrichtungen zur Bestimmung und Rekonstruktion eines prädizierten Bildbereichs
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors
EP1285537B1 (de) Verfahren und eine anordnung zur codierung bzw. decodierung einer folge von bildern
EP0533675B1 (de) Übertragungssystem
Bhojani et al. Hybrid video compression standard
EP0346636A2 (de) Verfahren zur Aufbereitung und Übertragung einer Bildsequenz

Legal Events

Date Code Title Description
8364 No opposition during term of opposition