WO2001022734A1 - Image encoding device - Google Patents

Image encoding device Download PDF

Info

Publication number
WO2001022734A1
WO2001022734A1 PCT/JP2000/006386 JP0006386W WO0122734A1 WO 2001022734 A1 WO2001022734 A1 WO 2001022734A1 JP 0006386 W JP0006386 W JP 0006386W WO 0122734 A1 WO0122734 A1 WO 0122734A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
block
area
processing means
pixel value
Prior art date
Application number
PCT/JP2000/006386
Other languages
English (en)
French (fr)
Inventor
Kensaku Kagechi
Hisashi Saiga
Keisuke Iwasaki
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to US10/070,957 priority Critical patent/US7016420B1/en
Priority to EP20000961086 priority patent/EP1215909B1/en
Priority to DE60045419T priority patent/DE60045419D1/de
Publication of WO2001022734A1 publication Critical patent/WO2001022734A1/ja
Priority to US11/236,010 priority patent/US7830966B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Definitions

  • the present invention relates to an image encoding device capable of reducing the capacity while suppressing image quality deterioration, and an image decoding device thereof.
  • the compression ratio can be flexibly adjusted by setting compression parameters, such as the JPEG compression method, and the compression ratio is increased by deteriorating the image quality.
  • an image compression apparatus that can suppress the deterioration of the image quality by lowering the compression ratio.
  • an image compression apparatus that automatically sets the compression parameter to an optimum value, for example, see Japanese Patent No. 2807272 No. 2 is disclosed.
  • the image compression apparatus disclosed herein subtracts between the original image as the input image and the restored image to create a residual image, calculates a mean square error from the data of the residual image, and calculates Is used to optimize the compression parameters over time as the image quality evaluation value.
  • the entire pixel area is compressed in the same manner without considering the characteristics of the display terminal or the like, or as in the image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 8-242'376.
  • an image code that encodes an image using a different image compression method for each region.
  • the encoding device there is an image data compression device disclosed in Japanese Patent Laid-Open No. 6-225160.
  • the image data compression apparatus disclosed herein changes the image compression method depending on the number of colors included in a predetermined area of input image data. Since compression of an area by the lossless compression method increases the amount of compressed data, the area is compressed by the lossy compression method, and conversely, if the number of colors is small, the area is compressed by the lossless compression method.
  • a pixel region that is visually degraded is extracted, and only the degree of distortion is used for image quality evaluation, or blocks are classified according to their properties and each evaluation standard is set. It is intended to enable automatic setting of compression parameters that reflect human visual characteristics.
  • an evaluation method for judging image quality in units of blocks by calculating distortion in units of blocks used at the time of compression is shown, and local image quality deterioration is accurately detected.
  • the image quality compressed by the image compression method using DCT If the mean square error and SN ratio were used, the evaluation value tended to be small for images with low pixel value activity and large for images with high activity. Was.
  • Block noise noise around the block
  • mosquito noise noise around sharp edges
  • Noise is a force that occurs in images with low pixel value activity.
  • the mean square error and the SN ratio have small evaluation values, making it difficult to accurately detect block noise.
  • a block in which all AC components in the X direction are 0 has the same pixel value in all rows in the block, and a block in which all AC components in the Y direction are 0 is a block in the block. Pixel values match in all columns.
  • the blocks are classified according to the properties of the pixel values in the blocks of the blocks of the compressed image, and the likelihood of occurrence of block noise for each classified block is taken into consideration.
  • each evaluation criterion it is possible to detect blocks that cause block noise.
  • blocks with mosquito noise generate larger evaluation values for conventional least square errors and SN ratios.However, blocks with higher activities have higher evaluation values even without mosquito noise. In some cases, mosquito noise cannot be detected correctly.
  • Mosquito noise is a phenomenon in which the effects of some steep edges in a block appear in the periphery, and in a block in which mosquito noise has occurred, there is a large variation in the distortion of each pixel in the block.
  • the present invention makes it possible to correctly detect mosquito noise by calculating the variation in the pixel value difference between the original image and the compressed image.
  • a gamma curve is used in consideration of the characteristics of a display terminal or the like, as in an image processing device disclosed in Japanese Patent Application Laid-Open No. H8-242,376, and a pixel whose details are difficult to understand on a display terminal or the like is used.
  • the entire pixel value range was reduced by reducing the dynamic range of the low-pixel area where deterioration is less noticeable due to the characteristics of the display terminal etc. After the dynamic range was reduced, there was no image encoding device or image decoding device that performed an encoding process and returned the dynamic range of the entire decoded pixel value in the image decoding device.
  • the image encoding device of the present invention is, for example, As shown in Fig. 8 (a), the compression ratio is greatly reduced by performing the conversion process to reduce the dynamic range of the entire pixel value by reducing the dynamic range of the region where the pixel value is low, and then performing the encoding process.
  • the purpose is to give.
  • the image decoding apparatus of the present invention expands the dynamic range after the decoding process so that the dynamic range of the entire pixel value range of the decoded image is equal to the dynamic range of the entire pixel value range of the image before encoding. Its purpose is to greatly increase the compression ratio without deteriorating the visual image quality when used in combination with this image decoding device.
  • the image coding apparatus of the present invention is a method that combines a plurality of image compression methods, and places emphasis on an image compression method having high compression performance, and is capable of accurately detecting the above-described mosquito noise and block noise, which are visually conspicuously degraded. All areas where the image quality above a certain level visually set by the image compression method with high compression performance can be secured by using the image compression method, the image is compressed using the image compression method with high compression performance, and the compression performance is next in other areas. Detects areas where the image quality can be similarly maintained with a high image compression method, and when compressing with that image compression method, determines the area to be compressed in order from the method with the highest compression efficiency. The goal is to obtain the highest compression ratio. Disclosure of the invention
  • the image encoding apparatus of the present invention is capable of processing an input image in small area units.
  • Image encoding processing means for performing image encoding processing based on a compression method; image decoding processing means for decoding encoded data created by the image encoding processing means; and image decoding processing means.
  • Characteristic pixel extraction processing means for extracting characteristic pixels using a decoded image and the input image; and characteristic distortion calculation processing for calculating characteristic distortion of the decoded image with respect to the input image using the characteristic pixels.
  • Means, and parameter value control means for controlling a parameter value for determining a degree of data compression in the image encoding processing means according to the magnitude of the characteristic distortion.
  • the characteristic distortion calculation processing means calculates a variance of a difference between each pixel value corresponding to the characteristic pixel of the input image and the decoded image for each small region, and calculates a maximum value of the characteristic value to the characteristic value. Since the effect of the phase shift is greatly affected by the large distortion, the quantization parameter that accurately reflects the mosquito noise can be set. Further, the feature distortion calculation processing means calculates, for each small region, a sum of a difference between a corresponding pixel value of the feature pixel of the input image and the decoded pixel of the decoded image and an average of the difference. By setting the maximum value as the characteristic distortion, it is possible to set a quantization parameter that reflects mosquito noise with a simple calculation.
  • the small area is a block
  • the characteristic pixel extraction processing means is a characteristic block extraction processing means for extracting and processing a characteristic block using the decoded image and the input image in units of blocks.
  • the feature block extraction processing means extracts a block in which the input image does not have the same pixel value in all columns or all rows in the block, and extracts the decoded image corresponding to the extracted block.
  • the feature block extraction processing unit extracts a block in which the input image does not match all pixel values in the block, and By extracting a block in which all pixel values match from among the blocks of the corresponding decoded image, it is possible to set a quantization parameter that reflects the block noise with a simple calculation.
  • the feature pixel extraction means is a feature block classification and extraction means for classifying and extracting a feature block, and by extracting pixels in the feature block, quantization which reflects block noise by a simple calculation. You can set parameters.
  • the feature block classification and extraction means may be configured such that the block of the decoded image has one pixel value in all columns or in all rows except for a completely flat block in which all pixel values match, and a completely flat block. By classifying and extracting blocks that match each other and other blocks, it is possible to set quantization parameters that accurately reflect block noise.
  • the feature distortion calculation processing means calculates a variance of a difference between each pixel value corresponding to the feature pixel of the input image and the decoded image for each block, and is classified by the feature block classification extraction means. By setting the maximum value for each class to the magnitude of the special distortion for each class, the effect of phase shift is greatly affected. Set the quantization parameter that accurately reflects the mosquito noise I can do it.
  • the image encoding apparatus further comprises a pixel value conversion means for performing a pixel value conversion process of reducing a dynamic range of a pixel value range in which an input image signal is hardly perceived by visual degradation using a pixel value conversion table.
  • image coding processing means for performing image coding processing on the output image from the pixel value conversion processing means.
  • the image encoding device of the present invention includes: an image encoding processing unit that performs an image encoding process on an input image based on an irreversible compression scheme; and a decoding process that encodes encoded data created by the image encoding processing unit.
  • Image decoding processing means for comparing the decoded image with the input image on a small area basis and calculating characteristic distortion.
  • a region distortion processing unit that performs region division processing in units of the small regions based on the magnitude of the characteristic distortion to create a region division image having region division information;
  • a region image creation processing unit that creates and processes each region image using the region division image; and a region division image encoding process that creates a region division image encoded data by encoding the region division image based on a lossless compression method.
  • Image encoding means for image encoding a predetermined area divided by the area division processing means based on the irreversible compression method, and a second area for image encoding with a required image quality for other areas.
  • Image encoding means; and coded data joining processing means for combining the above-mentioned area-divided image coded data and the coded data of each area into one piece of coded data.
  • the capacity of the compressed data can be reduced without deteriorating the visual image quality in consideration of the characteristics of the display terminal and the like.
  • the image decoding apparatus of the present invention decodes encoded data encoded by the image encoding apparatus, wherein the image decoding apparatus decodes input encoded data; Pixel value inverse conversion processing means for performing pixel value inverse conversion processing on the pixel values of the decoded image decoded by the decoding processing means using the pixel value inverse conversion table.
  • Pixel value inverse conversion processing means for performing pixel value inverse conversion processing on the pixel values of the decoded image decoded by the decoding processing means using the pixel value inverse conversion table.
  • the pixel value inverse conversion processing means can have a simple configuration because the input / output relationship with the pixel value conversion processing means is reversed.
  • the characteristic distortion calculation processing means calculates a variance of a difference between corresponding pixel values of the extracted small area extracted from the input image and the decoded image, and sets the variance of the difference as the characteristic distortion magnitude. Since it is greatly affected by the phase shift, it is possible to set a quantization parameter that accurately reflects mosquito noise. Further, the feature distortion calculation processing means calculates a sum of a difference between each corresponding pixel of the extracted small area extracted from the input image and the decoded image and an average of the difference, By setting the magnitude of typical distortion, it is possible to set the quantization parameter that reflects the mosquito noise with a simple calculation. In addition, the area division processing unit can create an area divided image by a simple calculation by dividing according to a magnitude relationship between the characteristic distortion magnitude and a threshold.
  • the small area unit is a block unit
  • the area division processing means is an extracted small area property classification processing means for classifying the properties of the extracted small area, and by separately setting the threshold for each classification, Region-divided images can be created with simple calculations.
  • the extracted small area property classification processing means may be configured such that the extracted small area of the decoded image is a completely flat block in which all pixel values match, and is in all columns other than the completely flat block or in all columns. By classifying the blocks with the same pixel value in other rows and the other blocks, it is possible to set a quantization parameter that accurately reflects block noise.
  • the image decoding apparatus of the present invention includes: encoded data separation processing means for separating encoded data generated by the image encoding apparatus into region-divided image encoded data and encoded data of each region; A region-divided image decoding device that decodes the region-divided image encoded data to create a region-divided image; and region-decoding processing means that decodes the encoded data of each region to create a region image. And decoded image data joining processing means for creating one decoded image by combining the respective area images according to the area divided image.
  • FIG. 1 is a diagram for explaining an image block and a pixel notation.
  • FIG. 2 is a diagram illustrating a flat block.
  • FIG. 3 is a diagram showing a configuration of an image encoding device according to the first embodiment of the present invention. is there.
  • FIG. 4 is a flowchart showing a processing flow of the image encoding device according to the first embodiment.
  • FIG. 5 is a flowchart showing a processing flow of the image encoding device according to the second embodiment.
  • FIG. 6 is a diagram illustrating a configuration of an image encoding device according to the third embodiment.
  • FIG. 7 is a diagram illustrating a configuration of an image decoding device according to the third embodiment.
  • FIG. 8 is a diagram illustrating a pixel value conversion function and a pixel value inverse conversion function according to the third embodiment.
  • FIG. 9 is a diagram illustrating a pixel value conversion table according to the third embodiment.
  • FIG. 10 is a flowchart showing a flow of processing of the image encoding device according to the third embodiment.
  • FIG. 11 is a diagram illustrating a configuration of an image encoding device according to the fourth embodiment.
  • FIG. 12 is a diagram illustrating a detailed configuration of an area dividing unit according to the fourth embodiment.
  • FIG. 13 is a diagram illustrating a configuration of an image decoding device according to the fourth embodiment.
  • FIG. 14 is a flowchart illustrating a flow of a process performed by the image encoding device according to the fourth embodiment.
  • FIG. 15 is a flowchart showing a detailed processing flow of area division according to the fourth embodiment.
  • FIG. 16 is a flowchart illustrating a flow of a process performed by the image decoding apparatus according to the fourth embodiment.
  • FIG. 17 is a diagram illustrating a configuration of the joint encoded data according to the fourth embodiment.
  • FIG. 18 is a diagram illustrating a process performed by an area image creation processing unit according to the fourth embodiment. is there. BEST MODE FOR CARRYING OUT THE INVENTION
  • Image 0 1 0 1 is divided into blocks. Numbered.
  • Each block is m pixels ⁇ n pixels (m and n are arbitrary natural numbers), and the pixels in the block are represented by coordinates like block 0102.
  • a flat block is a block in which a change in pixel value is small within a block and the high-frequency component is smaller than a predetermined threshold.
  • the flat block can be determined by using, for example, the magnitude of the activity of the pixel value or the magnitude of the variance in the block. Specifically, the activity a of the pixel values in the block as shown in Equation 1 and the variance ⁇ of the pixel values in the block are calculated, and whether or not the block is a flat block is determined based on the magnitude of the value. Can be done.
  • ⁇ 2 a ⁇ ⁇ f ( i, j) - Ryo 2
  • the block is a block of 8 pixels ⁇ 8 pixels, but may be a block of n pixels ⁇ m pixels. (N and m are natural numbers)
  • the pattern attached to each pixel in the block represents a pixel value.
  • all the pixel values adjacent in the horizontal direction match.
  • all the pixel values adjacent in the vertical direction match.
  • a block in which adjacent pixel values in at least one of the vertical direction and the horizontal direction match in this manner is defined as a flat block described below.
  • Blocks in which all pixel values in a block are the same, such as block (c), are referred to as a completely flat block, and blocks other than a flat block and a completely flat block are general blocks. I will call it.
  • FIG. 3 is a diagram showing a configuration of the image encoding device according to the first embodiment of the present invention.
  • the image encoding device 0302 is an input image buffer 0304, an image encoding processor 0305, an encoded data buffer 0306, an image decoding processor 0307, a decoded image buffer. 0 3 0 8, Feature pixel extraction processing unit 0 3 0 9, Feature pixel data buffer 0 3 1 0, Feature distortion calculation processing unit 0 3 1 1, Encoding It is composed of a lame control unit 0 3 1 2. Also, the image encoding device 0302 receives image data from the image input device 0301 and outputs encoded data to the data output device 0303.
  • the input image buffer 0304 stores the input image data input from the image input device 0301.
  • the image encoding processing unit 0305 reads input image data from the input image buffer 0304 and outputs encoded data.
  • the coded data buffer 0306 stores the coded data output from the image coding processing unit 0305.
  • the image decoding processing unit 0307 reads the encoded data from the encoded data buffer 0306 and outputs decoded image data.
  • the decoded image buffer 0308 stores the decoded image data output from the image decoding processing unit 0307.
  • the special pixel extraction processing unit 0309 reads the input image data and decoded image data from the input image buffer 0304 and the decoded image buffer 0308, respectively, and extracts and extracts the characteristic pixels. Outputs characteristic pixel data.
  • the feature pixel is a pixel used for calculating distortion.
  • a feature block is a block in which all pixels in a block are feature pixels.
  • the characteristic pixel data buffer 0310 stores the characteristic pixel data output from the characteristic pixel extraction processing unit 0309.
  • the characteristic distortion calculation processing unit 0311 reads the characteristic pixel data from the characteristic pixel data buffer 0310, performs characteristic distortion calculation, and outputs the characteristic distortion data.
  • the encoding parameter overnight control unit 0312 receives the characteristic distortion data output from the characteristic distortion calculation processing unit 0311 and determines a parameter overnight value for determining the degree of data compression.
  • Image coding processing unit 0 3 0 5 Image decoding processing unit 0 3 0 7, Feature pixel extraction processing unit 0 3 0 9, Feature distortion calculation processing unit 0 3 1 1, and coding parameter control unit 0 3 1 2 is realized by, for example, independent circuits. Further, it may be a virtual circuit realized by an arithmetic processing circuit such as a computer.
  • the image encoding processing unit 0305 and the image decoding processing unit 0307 perform processing in arbitrary small area units, and what kind of irreversible compression method can adjust the degree of data compression by a parameter. May be something.
  • J PEG compression method which is an example of the irreversible compression method.
  • FIG. 4 shows a processing flow of the image encoding device 0302.
  • the quantization parameter Q of the J PEG compression method, its maximum value Q max and its minimum value Q min, the initial value of the value Q min, and the degree of characteristic distortion SN threshold value SN th are set in step S 0402.
  • step S0403 the input image data is stored in the memory so that it can be referred to if necessary.
  • the input image data is JPEG-encoded using the quantization parameter Q in step S4044, and the encoded data is encoded in step S405.
  • the decoded image obtained by decoding is stored in the memory in step S 406 so that it can be referred to if necessary.
  • step S 0407 the feature pixel extraction processing unit 0309 searches for a general block that is not a flat block in the input image, and if the corresponding decoded image is a flat block, the search is performed.
  • the pixels of the input image and the decoded image in the block are extracted as feature pixels. That is, the pixels of the block that has changed from a general block to a flat block by compression are extracted as characteristic pixels.
  • the variance of the pixel value difference between the input image and the decoded image is calculated for each feature pixel extracted in step S 0408 as shown in Expression 2 in block units. And calculate the maximum value for that block.
  • Equation 3 The degree of characteristic distortion SN is assumed to be SN. It should be noted that SNi in Equation 3 may be used instead of SNi in Equation 2.
  • step S04111 The value of the quantization parameter Q is substituted for Qmax, otherwise, the value of Q is substituted for Qmin in step S04111, and the range of Q is narrowed.
  • step S0412 it is determined whether or not convergence has occurred due to the narrowing of the range of the quantization parameter Q. It is determined whether the difference between Qmax and Qmin is smaller than 2.If not, it is considered that convergence has not occurred, and in step S0413, the quantization parameter Q is set to the average value of Qmin and Qmax.
  • step S0414 Qmin is substituted as the optimum value for Q.
  • step S0415 JPEG encoding is performed, and output encoded data is output to the data output device 0303.
  • a binary search is configured in steps SO412, S0413, and S0414. Any search method may be used.
  • the configuration of the image encoding device according to the second embodiment is represented in FIG. 3 similarly to the image encoding device according to the first embodiment, and thus the description of the configuration diagram is omitted.
  • FIG. 5 shows the flow of processing of the image encoding device 0302.
  • the quantization parameter Q of the JPEG compression method and its maximum value Qmax and minimum value The initial value of Qmin and the completely flat block, the flat block other than the completely flat block, and the degree of the characteristic distortion of the general block are denoted by SN1, SN2, and SN2, respectively.
  • the threshold value is set as SN1th, SN2th, and SN3th in step SO502.
  • step S0503 the input image data is stored in the memory so that it can be referred to as needed.
  • the image encoding processing unit 0305 the input image data is subjected to JPEG encoding using the quantization parameter Q in step S0504, and the encoded data is decoded in step S0505.
  • the obtained decoded image is stored in the memory in step S0506 so that it can be referred to if necessary.
  • step SO507 the feature pixel extraction processing unit 0309 classifies each block of the decoded image into a completely flat block, a flat block other than the completely flat block, and a general block, and the input image in the block is Pixels of the decoded image are classified and extracted as characteristic pixels.
  • step SO 508 the difference between the pixel values of the input image and the decoded image with respect to the feature pixels classified and extracted as a completely flat block as shown in Expression 4
  • the variance of each block is calculated for each block, and the maximum value is defined as the degree of characteristic distortion SN 1 of the completely flat block.
  • the degree of characteristic distortion SN 3 of the general block are calculated. It should be noted that SN 1 i in Equation 5 may be used instead of SN 1 i in Equation 4.
  • step S 0 5 0 9 In the coding parameter control unit 0 3 1 2, in steps S 0 5 0 9, step S 0 5 10, and step S 0 5 11 1, SN 1, SN 2, SN respectively It is determined whether 3 is greater than the set values SN 1 th, SN 2 th, and SN 3 th .If all are smaller, the value of Q is set to Qmin in step S 0 5 1 2. Otherwise, step S 0 5 1 in 3
  • step S0515 the quantization parameter Q is set to the average value of Qmin and Qmax, and the processing from step S0504 to step S0514 is performed again. It is considered that the meter Q has converged, and in step S0516, Qmin is substituted as the optimum value for Q, and in step S0517, JPEG encoding is performed. Output to 303.
  • the step SO514, the step S0515, and the step S0516 constitute a non-linear research. Any other search technique may be used.
  • FIGS. 6 and 7 are diagrams showing the configurations of an image encoding device and an image decoding device according to the present invention, respectively.
  • the image encoding device 0 6 0 2 includes an input image buffer 0 6 0 4, a pixel value conversion table creating unit 0 6 0 5, a pixel value conversion table buffer 0 6 0 6, and a pixel value conversion processing unit 0 6 0 7, pixel value conversion image buffer 0 6 0 8, image encoding processing unit 0 6 0 9, encoded data buffer 0 6 10 And outputs the encoded data to the data output device 0603.
  • the image decoding device 0 7 0 2 has an input data buffer 0 7 0 4, an image decoding processing unit 0 7 0 5, a decoded image buffer 0 7 0 6, a pixel value inverse conversion table creation unit 0 7 0 7, Pixel value inverse conversion table buffer 0 7 0 8, Pixel value inverse conversion processing unit 0 7 0 9, Pixel value inverse conversion image buffer 0 7 1 0, and receives encoded data from data input device 0 7 0 1 The restored image is output to the image output device 0703.
  • the input image buffer 0604 stores input image data input from the image input device 0601.
  • the pixel value conversion table generation unit 0605 generates and outputs pixel value conversion table data (described later in FIGS. 8 and 9).
  • the pixel value conversion table buffer 606 stores the pixel value conversion table data output from the pixel value conversion table creation unit 605.
  • the pixel value conversion processing unit 0 6 0 7 uses the input image buffer 0 6 0 4
  • the input image data and the pixel value conversion table are read from the table buffer 06 06 respectively, the pixel values of the input image are converted, and the pixel value converted image data is output.
  • the pixel value conversion image buffer 0608 stores the pixel value conversion image data output from the pixel value conversion processing unit 0607.
  • the image encoding processing unit 0609 reads pixel value converted image data from the pixel value converted image buffer 0608, performs encoding, and outputs encoded data.
  • the coded data buffer 0610 stores the coded data output from the image coding processing unit 0609.
  • the input data buffer 0704 stores the input coded data input from the data input device 0701.
  • the image decoding processing unit 0705 reads and decodes the input encoded data from the input data buffer 0704 and outputs decoded image data.
  • the decoded image buffer 0706 stores the decoded image data output from the image decoding processing unit 0705.
  • the pixel value inverse conversion table creation unit 0707 creates and outputs pixel value inverse conversion table data.
  • the pixel value reverse conversion table buffer 0708 stores the pixel value reverse conversion table data output from the pixel value reverse conversion table creation unit 0707.
  • the pixel value inverse conversion processing unit 0709 receives the decoded image data and the pixel value inverse conversion table data from the decoded image buffer 0706 and the pixel value inverse conversion table buffer 0708 respectively, and performs pixel value inverse conversion. And outputs a pixel value inverse transformed image.
  • the pixel value inverse conversion image buffer 0710 stores the pixel value inverse conversion image data output from the pixel value inverse conversion processing unit 0709.
  • Input image buffer 0 6 0 4 Pixel value conversion table buffer 0 6 0 6, Pixel value conversion image buffer 0 6 0 8, Encoded data buffer 0 6 1 0, Input data overnight buffer 0 7 0 4, Decoded image Buffer 0 7 0 6, Pixel value reverse conversion tape
  • the pixel buffer 0 7 0 8 and the pixel value inverse conversion image buffer 0 7 10 are provided by a pixel value conversion table creation unit 0 6 0 5 07, image coding processing unit 0609, image decoding processing unit 0705, pixel value inverse conversion table creation unit 0707, pixel value inverse conversion processing unit 0709 This is achieved by an independent circuit. Further, it may be a virtual circuit realized by an arithmetic processing circuit such as a computer.
  • the pixel value conversion table and the pixel value reverse conversion table used below are created from the pixel value conversion function and the pixel value reverse conversion function, respectively.
  • FIG. 8 shows an example of a combination of the pixel value conversion function and the pixel value inverse conversion function.
  • (a) is a pixel value conversion function
  • (b) is a pixel value inverse conversion function
  • the pixel value conversion function (a) combines the area where the slope of the gamma curve is 1 or less (figure 1) and a straight line with a slope of 1, and uses the characteristics of the display terminal to efficiently reduce the dynamic range of the low pixel area. Has been reduced.
  • Pixel value inverse transformation function
  • (b) is the inverse function of the pixel value conversion function (a).
  • the pixel value conversion table of FIG. 9 is obtained from the pixel value conversion function (a).
  • the pixel value inverse function table is obtained by exchanging the input and output of the pixel value conversion table.
  • the pixel value conversion function is an arbitrary function, and the corresponding pixel value conversion function is basically the inverse function of the pixel value conversion function, but the brightness is improved. May be.
  • FIG. 10 shows the flow of processing performed by the image encoding device 0602 and the image decoding device 0702.
  • step S1002 the input image data is stored in a memory so that it can be referred to as needed.
  • a pixel value conversion table is created from the pixel value conversion function in step S1003, and the pixel value conversion table data is stored in the memory in step S1004. And refer to it as needed.
  • the pixels of the input image data are subjected to pixel value conversion in step S1005 using the pixel value conversion table data, and the pixel value converted image after the pixel value conversion is stepped.
  • the data is stored in the memory in step S106.
  • the image coding processing unit 0609 reads the pixel value converted image in the memory, performs JPEG coding, and outputs the output encoded data to the data output device 0603.
  • the input coded data is stored in the memory from the data input device 0701 in step S1010.
  • a pixel value inverse conversion table is created in step S1011, and stored in the pixel value inverse conversion table memory in step S101.
  • JPEG decoding is performed in step S1013, and the decoded image is stored in the memory in step S114.
  • step S11015 the pixel value inverse conversion processing unit 0709 reads the decoded image and the pixel value inverse conversion table from within the memory, and uses the pixel value inverse conversion image as a restored image as an image output device. Output to 0 7 0 3.
  • FIG. 11 and FIG. 12 are diagrams showing the configuration of the image encoding device according to the present invention.
  • the input image buffer 1 104 is composed of an input image buffer 1 201 and a region division image encoding device 110.
  • 6 is a region-divided image coding device 1 205 and region 1 image coding device 1 108 is a region 1 image coding device 1 203 and a region 2 image coding device 1 1 1 0 Is the same as the region 2 image coding device 124
  • the image encoding device 1102 receives an input image from the image input device 1101. And outputs the joined coded data to the data output device 1103.
  • the image encoding device 1102 has an input image buffer 1104 (1201), a region dividing unit 1105, a region dividing image encoding device 1106 (1205), and a region.
  • FIG. 12 shows the configuration of the area dividing unit 1105.
  • the region dividing unit 1105 in FIG. 11 corresponds to the region dividing unit 122 in FIG.
  • the area dividing unit 1 1 05 (1 2 0 2) includes an image encoding processing unit 1 206, an encoded data buffer 1 2 0 7, an image decoding processing unit 1 2 0 8, and a decoded image buffer 1 2 0 9, block extraction processing unit 1 2 1 0, extracted block data buffer 1 2 1 1, feature distortion calculation processing unit 1 2 1 2, region division processing unit 1 2 1 3, region division image buffer 1 2 1 4, It is composed of an area image creation processing section 12 15, an area 1 image buffer 12 16, and an area 2 image buffer 12 17.
  • the input image buffer 1104 stores the input image data input from the image input device 111.
  • the image encoding processing unit 1206 receives input image data from the input image buffer 1104 (1201), performs image encoding, and encodes the encoded data into an encoded data buffer 1207. Write to.
  • the image decoding processing unit 1208 reads the decoded image data from the encoded data buffer 1207, performs decoding, and writes the decoded image to the decoded image buffer 1209.
  • the block extraction processing unit 1 2 1 0 is the input image buffer 1 1 04 (1 2 0
  • the feature distortion calculation processing unit 1 2 1 2 reads the extracted block data from the extracted block data evening buffer 1 2 1 1 and performs the feature distortion calculation. And output the characteristic distortion data.
  • the region division processing unit 1 2 1 3 performs region division according to the size of the feature distortion data, writes the region division image data into the region division image buffer 1 2 14, and the region image creation processing unit 1 2 1 5
  • the area divided image data and the input image data are read from the area divided image buffer 1 2 1 4 and the input image buffer 1 201, respectively, and the area 1 image data and the area 2 image data are created in accordance with the area divided image data.
  • the region-divided image encoding device 1 1 0 6 (1 2 0 5) reads and encodes the region-divided image data from the region-divided image buffer 12 14, and uses the encoded data as region-divided image encoded data. Write to the area division coded data buffer 1 107.
  • the area 1 image encoding device 1 1 08 (1 203) reads the area 1 image data from the area 1 image buffer 1 2 16 and performs encoding, and converts the encoded data as area 1 encoded data. Write to the area 1 encoded data buffer 1109.
  • the area 2 image encoding device 1 1 1 0 (1 2 0 4) reads the area 2 image data from the area 2 image buffer 1 2 17, performs encoding, and encodes the encoded data into area 2 Write data to the area 2 encoded data buffer 1 1 1 1 as data.
  • the coded data splicing processing unit 1 1 1 2 converts the coded data of the region-divided image, the coded data of the region 1 and the coded data of the region 2 into the coded data of the region-divided image and the coded data buffer 1 1, respectively. 07, area 1 coded data buffer 1 1 109, area 2 coded data buffer 1 1 1 Read from the data buffer 1, join these three coded data into one, and combine the coded data. And writes it to the junction coded data buffer 1 1 13 and outputs it to the data output device 110 3.
  • FIG. 13 is a diagram showing a configuration of an image decoding device according to the present invention.
  • the image decoding device 1302 has an input data buffer 1304, Evening separation processing unit 13 05, region segmented image decoding device 13 06, region 1 image decoding device 13 08, region 2 image decoding device 13 10, region segmented decoded image buffer 1 307, area 1 decoded image buffer 13 09, area 2 decoded image buffer 1311, decoded image data splicing processing unit 1312, spliced decoded image buffer 1313 It receives the encoded data from the data input device 1301, and outputs the combined decoded image data to the image output device 1303.
  • the input data buffer 1304 stores the input data input from the data input device 1301.
  • the encoded data separation processing unit 1305 reads the input data from the input data buffer 1304, and converts the input data into the area divided image encoded data, the area 1 image encoded data, and the area 2 image encoded data. They are separated and output to the region-divided image decoding device 13 06, the region 1 image decoding device 13 08, and the region 2 image decoding device 13 10, respectively.
  • the region-divided image decoding device 1306 receives the region-divided image-encoded data from the encoded data separation processing unit 1305, and uses the decoded image obtained by decoding as a region-divided decoded image, Write to the area division decoded image buffer 13 07.
  • the region 1 image decoding device 13 08 receives the region 1 image coded data from the coded data separation processing section 13 05, and sets the decoded image obtained by decoding as the region 1 decoded image, Area 1 Write to decoded image buffer 1309.
  • the region 2 image decoding device 1310 receives the region 2 image coded data from the coded data separation processing unit 13 05, and sets the decoded image obtained by decoding as the region 2 decoded image, Area 2 Write to decoded image buffer 1 3 1 1
  • the decoded image data splicing unit 1 3 1 2 outputs the region-divided decoded image data from the region-divided decoded image buffer 1307, the region 1 decoded image buffer 1309, and the region 2 decoded image buffer 1 3
  • the area 1 decoded image data and the area 2 decoded image data are read, and they are joined to be written as joined decoded image data to the joined decoded image buffer 13 13 and output to the image output device 13 03.
  • Input image buffer 1 1 0 4 (1 2 0 1), area division coded data buffer 1 1 0 7, area 1 coded data buffer 1 1 0 9, area 2 coded data buffer 1 1 1 1, junction code Encoded data buffer 1 1 1 3, Encoded data buffer 1 2 0 7, Decoded image buffer 1 2 0 9, Extracted block data buffer 1 2 1 1, Area-divided image buffer 1 2 1 4, Area 1 Image buffer 1 2 1 6, Area 2 Image buffer 1 2 1 7
  • Input data buffer 13 04 area divided decoded image buffer 13 07, area 1 decoded image buffer 13 09, area 2 decoded image buffer 13 11, spliced decoded image buffer 13 13
  • Area-divided image encoding device 1 106 (1 205), region 1 image encoding device 1 1 108 (1 203), region 2 by RAM (random access memory) such as flash memory and hard disk Image encoding device 1 1 1 0 (1 2 0 4), coded data splicing processing unit 1 1 1 2 Image encoding processing unit 1 206, Image decoding processing unit 1 208,
  • the processing performed by the area image creation processing unit 1215 determines which area of each block of the input image 1802 is to be formed by the area division image, and in the block number order.
  • the block is copied to create area 1 image 1801 and area 2 image 1803.
  • the decoded image data joining processing unit 1312 may perform the reverse operation according to the region-divided decoded image.
  • the area division image may be any image including a non-image as long as it can be understood which block of the input image corresponds to each block force of each area image.
  • the number of areas divided is 2, but there is no limit.
  • Region-divided image decoding device 13 06, region 1 image decoding device 13 08, region The area 2 image decoding device 1310 must be able to decode the area divided image encoded data, the area 1 encoded data, and the area 2 encoded data, respectively.
  • the image encoding device 1108 must have the same image encoding method as the image encoding processing unit 1206, and the image encoding method is small, for example, as in the JPEG compression method. Any irreversible compression method that can perform processing in units of areas may be used.
  • region-divided image encoding device 1106 may use any lossless encoding method.
  • any encoding method that can ensure image quality suitable for the purpose may be used.
  • the spliced coded data created by the coded data splicing processing unit 1 1 1 2 combines the divided coded data and each area coded data into one.
  • the spliced coded data is the original divided code. Any format may be used as long as it contains information that can be separated into coded data and each area coded data. For example, as shown in Fig. 17, the header section contains the capacity of the original coded data, The information of the vertical and horizontal size of the input image is provided, and the main body may be the original encoded data.
  • the region 1 image encoding device 111 and the region 2 image encoding device 111 may perform encoding simply by setting a parameter required for encoding to a certain value.
  • the image encoding apparatus described in the first embodiment and the second embodiment performs the encoding by optimizing the parameters required for the encoding
  • the third embodiment Any device other than coding, such as a device that performs image processing before coding like the described image coding device, may be used.
  • Huffman coding is used for the region-divided image encoding device 1 106, the region 2 image encoding device 1 110, the region-divided image decoding device 130, and the region 2 image decoding device 133.
  • Area 1 image encoding device 1108 uses the image encoding device 0302 that uses the JPEG compression method described in the second embodiment.
  • Region 1 image decoding processing device 13 08 will be described using an example using the JPEG compression method.
  • FIG. 14 shows the flow of processing of the image encoding device 1102. 6
  • the quantization parameters Q of the JPEG compression method and the threshold values SN1th, SN2th, and SN3th of the characteristic distortion SN of the completely flat block, flat block, and general block are set in step S1402.
  • the image input from the image input device 1101 is stored in the input image buffer 1104 (1201) in step S1403.
  • JPEG is performed with the quantization parameter Q in step S1404, and in the image decoding processing unit 1208, in step S1405, in step S1404, Decode the encoded data.
  • the decoded image data that has been decoded is stored in the decoded image buffer 1209 in step S 1406.
  • step S 1407 a memory area for a divided image is secured for the number of vertical and horizontal pixels corresponding to all the number of vertical and horizontal blocks when the input image is divided into blocks (8 ⁇ 8 pixels).
  • step S 1408 The area is divided in step S 1408, and the detailed processing flow is shown in FIG.
  • step S1502 0 is substituted for n indicating a block number.
  • Step S1503 is performed by the block extraction processing section 1210, and the eleventh block of the input image data and the decoded image data is extracted, and the extracted block data is stored in the overnight buffer 1 2 1 1 Stores the pixel value of the block.
  • Step S1504 is performed by the feature distortion calculation processing section 1 212 to calculate the feature distortion SN represented by Equation 6 of the n-th block.
  • the n-th block of the decoded image is a completely flat block and flat blocks other than the completely flat block in steps S 1505 and S 1507. It is branched by a general block, and evaluated by the threshold value of the characteristic distortion according to the type of block in any one of S 506, SI 508, and SI 509.
  • the region 1 to be coded is set, and the ⁇ -th pixel value of the region-divided image is set to 0 in step S1510. If the value is equal to or larger than the ⁇ value, the region becomes the region 2 to be coded by the Huffman coding method. Write.
  • step S1512 ⁇ is incremented and updated to the next block number.
  • step S1513 the block number ⁇ is compared with the total number of blocks ⁇ to determine whether all blocks have been evaluated.
  • Steps S1503 to S1513 are repeated, and when the area division is completed for all the blocks, the area image creation processing unit 1215 performs step S1409, and As shown in Fig. 18, using the region-divided images, region 1 image data in which blocks of the input image in region 1 are arranged in a horizontal line, and region 2 in which blocks of the input image in region 2 are arranged in a horizontal line Create image data.
  • Region 1 In the image encoding device 1 108, the region 1 The image data is encoded by optimizing the JPEG quantization parameter, and the encoded data is stored as an area 1 encoded data buffer in an area 1 encoded data buffer 1109 in S14411. Since the region 1 image encoding device 1108 is the image encoding device 0302 described in the second embodiment, the detailed processing flow of step S1410, which is the process, is as follows. Omitted.
  • step S 1412 the region segmented image data and the region 2 image data are Huffman-encoded by the region segmented image encoding device 1106 and the region 2 image encoding device 1110.
  • the area-divided image encoded data is stored in the area-divided encoded data buffer 1107, and the area2 encoded data is stored in the area2 encoded data buffer 1111.
  • step S 1 4 1 the area divided image coded data, the area 1 coded data, and the area 2 coded data are joined into one as shown in FIG. It joins the encoded data and outputs the joined encoded data to the data output device 110 3.
  • FIG. 16 shows the flow of processing of the image decoding apparatus 132.
  • the input data input from the data input device 1301 is stored in the input data buffer 1304 in step S1662.
  • step S1663 the image data is separated into coded region divided image data, coded region 1 image data, and coded region 2 image data.
  • the Huffman decoding in step S 1604 is performed, and the region-divided decoded image data is
  • the area 2 decoded image buffer 1310 stores the area 2 decoded image data in the area 2 decoded image buffer 1311.
  • the region 1 encoded data is decoded in step S 16 06, and the decoded region 2 decoded image is stored in the region 2 decoded image data buffer in step S 16 07. Store.
  • the pixel value of the region-divided decoded image is used as the block of the region 1 decoded image in the corresponding block in step S1608.
  • the lock and the block of the area 2 decoded image are copied, and concatenated decoded image data as a decoded image is created and output to the image output device 133.
  • the third embodiment may be combined with other embodiments.
  • the image encoding apparatus of the present invention can accurately evaluate the image quality of a decoded image by extracting and analyzing a portion of the decoded image in which a human is likely to feel deterioration as an image quality evaluation index of the irreversible image compression method.
  • the highest compression ratio can be obtained with a certain level of visual quality.
  • the encoding parameter can be automatically set to an optimum value to obtain an optimal compression ratio within the image quality to be obtained.
  • the image decoding device of the present invention in combination with the image encoding device, it is possible to greatly increase the compression ratio without lowering the visual image quality.

Description

明 細 書 画像符号化装置 技術分野
本発明は、 画質劣化を抑えつつ、 容量を削減することができる画像符号 化装置及びその画像復号化装置に関するものである。 背景技術
ィンタ一ネットゃデジタルカメラ等で、 広く用いられている画質圧縮方 式のほとんどが、 画像のデータ容量を効率的に削減する不可逆圧縮方式で ある。 不可逆圧縮方式により、 ネッ トワークを介した画像データのやり取 りや、 画像デ一夕の蓄積等が容易になった。
また、 前記の不可逆画像圧縮方式には、 たとえば J P E G圧縮方式のよ うに圧縮率を圧縮パラメ一夕設定によって、 柔軟に調節することが可能な 方式があり、 画質を劣化させることによって圧縮率を高めたり、 逆に圧縮 率を下げることによって画質の劣化を抑えることが可能であるものがある また、 圧縮パラメータを最適値に自動設定する画像圧縮装置として、 た とえば特許第 2 8 0 7 2 2 2号公報で開示されているものが挙げられる。 ここで開示されている画像圧縮装置は入力画像である原画像と復元画像と の間で減算して残差画像を作成し、 この残差画像のデータより平均 2乗誤 差を計算し、 これを画質評価値として圧縮パラメ一夕を最適化するもので あつ/こ。
また、 従来、 表示端末等の特性を考慮せずに全画素領域を同じように圧 縮するか、 特開平 8— 2 4 2 ' 3 7 6号公報で開示されている画像処理装置 のように表示端末等の特性を考慮に入れガンマ曲線を用いて表示端末等で 詳細のわかりにくい画素領域のダイナミックレンジを拡大する補正をし、 復号後の画質を向上させる技術があった。
また、 画像を領域別に異なった画像圧縮方式を用いて符号化する画像符 号化装置の例として、 特開平 6 - 2 2 5 1 6 0号公報で開示されている画 像データ圧縮装置が挙げられる。 ここで開示されている画像データ圧縮装 置は、 入力画像データの所定領域内に含まれる色数の多さにより、 画像圧 縮方式を変えるものであり、 所定領域内の色数が多ければその領域を可逆 圧縮方式で圧縮すると圧縮データ容量が大きくなるため、 その領域は、 不 可逆圧縮方式で圧縮し、 逆に色数が少なければ可逆圧縮方式で圧縮すると いう技術を有していた。
しかしながら、 前記不可逆画像圧縮方式は、 画質と圧縮率を圧縮パラメ —夕により非常に柔軟に調節可能であるが、 前記圧縮方式性能を十分活用 しきれていなかった。 その主な原因に圧縮パラメ一夕が同じ値であっても, 原画像によって圧縮後の画質、 圧縮率が大きく異なるため、 圧縮パラメ一 夕から圧縮後の画質を推測することが困難であったことが挙げられる。
また、 従来、 圧縮パラメ一夕を自動設定する装置もあったが、 平均 2乗 誤差や、 S N比を評価値として用いているので、 人間の視覚特性を十分考 慮したものではなかった。 したがって、 ユーザが許容しうる画質の範囲内 で最高の圧縮率を必要とする場合は圧縮パラメ一夕は手動で設定しなけれ ばならず、 また圧縮後の画質を肉眼で確認しながら圧縮パラメ一夕を調節 しなければならなかった。
本発明は、 視覚上劣化していると感じる画素領域を抽出して、 その歪み の度合いのみを画質評価に用いるか又は、 プロックを性質により分類しそ れぞれ別の評価基準を置くことで、 人間の視覚特性を反映した圧縮パラメ 一夕の自動設定を可能とすることを目的とする。
特にブロック単位で画像圧縮を行う J P E G圧縮方式等の D C T変換技 術を用いた画像圧縮方式では、 基本的にはブロック毎に独立して圧縮が行 われており、 プロック間で圧縮後の画質に影響があることがない。
そこで、 本発明では、 圧縮時に用いられるブロック単位で歪みを計算す ることにより、 プロック単位で画質の優劣を判定する評価法を示しており 局所的な画質劣化を的確に検出する。
また、 D C T変換技術を用いた画像圧縮方式で圧縮した画質を、 従来用 いられていた平均 2乗誤差や S N比を用いると、 画素値のアクティ ビティ が小さい画像に対して評価値が小さく、 アクティ ビティが大きい画像に対 しては、 評価値が大きくなる傾向があった。
D C T変換を用いた画像圧縮特有の歪みとして、 ブロックノイズ (プロ ックの周辺が不連続になるノイズ) とモスキートノイズ (急峻なエッジ部 周辺に発生するノイズ) がよく知られているが、 ブロックノイズは、 画素 値のアクティ ビティが小さい画像に生じる力 前述のとおり、 平均 2乗誤 差や S N比では評価値が小さくなり、 ブロックノィズを正確に検出するこ とが難しい。
また、 ブロックノイズは、 平坦化された (A C成分が 0になっている) 時に視覚的に目立つ傾向がある。
X方向 Y方向の A C成分が全て 0になっているブロックは、 ブロック内 の全画素値が一致する。
また、 X方向の全ての A C成分が 0になっているブロックは、 ブロック 内の全ての行内で画素値が一致し、 Y方向の全ての A C成分が 0になって いるブロックは、 ブロック内の全ての列内で画素値が一致する。
そこで、 本発明の画像符号化装置では、 圧縮後の画像のブロックのブロ ック内の画素値の性質によりブロックを分類し、 分類したブロック毎のブ ロックノイズの生じ易さを考慮にいれて評価基準をそれぞれ設定すること でブロックノィズが生じるプロックを検出することが出来る。
また、 モスキートノイズが発生するブロックは、 従来の最小 2乗誤差や S N比の評価値も大きくなるが、 アクティ ビティが大きいプロッ.クは、 モ スキートノィズが発生しなくてもこれらの評価値は大きくなる場合があり 正しくモスキー卜ノイズを検出することが出来ない。
モスキートノイズは、 ブロック内の一部の急峻なエッジの影響が、 周辺 に現れる現象であり、 モスキートノイズが発生したブロックは、 ブロック 内の各画素の歪みにバラツキが大きくなる。
本発明は、 原画と圧縮画像との画素値の差のバラツキを計算することに より、 モスキートノイズを正しく検出することを可能にしている。 また、 従来、 特開平 8 - 2 4 2 3 7 6号公報で開示されている画像処理 装置のように表示端末等の特性を考慮に入れガンマ曲線を用いて表示端末 等で詳細のわかりにくい画素領域のダイナミックレンジを拡大する補正を し、 復号後の画質を向上させる技術はあったが、 表示端末等の特性により 劣化が目立ちにくい低画素領域のダイナミックレンジを削減することによ り画素値全域のダイナミックレンジを削減した後、 符号化処理をし、 画像 復号化装置で、 復号画素値全域のダイナミックレンジを戻す画像符号化装 置および画像復号化装置はなかった。
本発明の画像符号化装置は、 たとえば。 図 8 ( a ) のように、 画素値が 低い領域のダイナミックレンジを削減することにより、 画素値全域のダイ ナミックレンジを削減する変換をした後、 符号化処理を施すことにより、 圧縮率を大幅にあげることを目的とする。
また、 本発明の画像復号化装置は、 復号化処理後、 復号画像の画素値全 域のダイナミックレンジを符号化前の画像の画素値全域のダイナミックレ ンジと等しくなるようにダイナミックレンジを拡大するものであり、 この 画像復号化装置と組み合わせて使うことにより、 視覚上の画質を落とさず に圧縮率を大幅に高めることを目的とする。
本発明の画像符号化装置は、 複数の画像圧縮方式を組み合わせる方式で あり、 圧縮性能が高い画像圧縮方式に重点を置き、 前述の視覚的に劣化が 目立つモスキートノイズ、 プロックノィズを正確に検出できる評価手法を 用いて、 圧縮性能の高い画像圧縮方式で視覚的に設定した一定以上の画質 が確保できる領域は、 全て圧縮性能の高い画像圧縮方式で圧縮し、 他の領 域中で次に圧縮性能の高い画像圧縮方式で同様に画質が保つことの出来る 領域を検出し、 その画像圧縮方式で圧縮すると圧縮効率の高い方式から順 に圧縮する領域を決定していき、 視覚的に一定以上の画質を保ち、 最高の 圧縮率を得ることを目的とする。 発明の開示
本発明の画像符号化装置は、 入力画像を小領域単位で処理可能な不可逆 圧縮方式に基づいて画像符号化処理する画像符号化処理手段と、 前記画像 符号化処理手段により作成された符号化データを復号処理する画像復号化 処理手段と、 前記画像復号化処理手段により得られる復号画像と前記入力 画像とを用いて特徴画素を抽出処理する特徴画素抽出処理手段と、 前記特 徵画素を用いて前記入力画像に対する前記復号画像の特徴的な歪みを演算 処理する特徴歪み演算処理手段と、 前記特徴的な歪みの大きさにより前記 画像符号化処理手段におけるデータ圧縮の度合いを決定するパラメータ値 を制御するパラメータ値制御手段と、 を有するものである。
また、 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像の前 記特徴画素の対応する各画素値間の差の分散を各小領域ごとに演算し、 そ の最大値を前記特徴的な歪みの大きさとすることで、 位相のずれの影響を 大きく受けるので、 モスキートノィズを正確に反映した量子化パラメータ を設定することができる。 さらに、 前記特徴歪み演算^理手段は、 前記 入力画像と前記復号画像の前記特徴画素の対応する各画素値間の差と、 そ の差の平均との差の和を各小領域ごとに演算し、 その最大値を前記特徴的 な歪みの大きさとすることで、 簡易な計算でモスキートノイズを反映した 量子化パラメ一夕を設定することができる。
また、 前記小領域がブロックであり、 前記特徴画素抽出処理手段は、 ブ 口ック単位で前記復号画像と前記入力画像を用いて特徴プロックを抽出処 理する特徴プロック抽出処理手段であって、 前記特徴ブロック中の画素を 抽出処理することで、 プロックノィズを正確に反映した量子化パラメ一夕 を設定することができる。 また、 前記特徴ブロック抽出処理手段は、 前 記入力画像がプロック内の全ての列内または、 全ての行内で画素値が一致 してはいないブロックを抽出し、 抽出したブロックに対応する前記復号画 像のブロックの内、 全ての列内または、 全ての行内で画素値が一致してい るブロックを抽出することで、 簡易な計算でブロックノイズを反映した量 子化パラメ一夕を設定することができる。
また、 前記特徴ブロック抽出処理手段は、 前記入力画像がブロック内の 全ての画素値が一致してはいないブロックを抽出し、 抽出したブロックに 対応する前記復号画像のプロックの内、 全ての画素値が一致しているプロ ックを抽出することで、 簡易な計算でブロックノィズを反映した量子化パ ラメ一夕を設定することができる。
また、 前記特徴画素抽出手段は、 特徴ブロックを分類して抽出する特徴 プロック分類抽出手段であって、 前記特徴プロック内の画素を抽出するこ とで、 簡易な計算でブロックノイズを反映した量子化パラメ一夕を設定す ることができる。
また、 前記特徴ブロック分類抽出手段は、 前記復号画像のブロックが、 全ての画素値が一致している完全平坦プロックと、 完全平坦ブロック以外 で全ての列内または、 全ての行内で画素値が一致しているブロックと、 そ の他のプロックに分類して抽出することで、 ブロックノィズを正確に反映 した量子化パラメ一夕を設定することができる。
また、 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像の前 記特徴画素に対応する各画素値間の差の分散を各ブロックごとに演算し、 特徴プロック分類抽出手段で分類された各分類毎で最大値を各分類毎の特 徵的な歪みの大きさとすることで、 位相のずれの影響を大きく受けるので. モスキートノィズを正確に反映した量子化パラメ一夕を設定することがで きる。
また、 本発明の画像符号化装置は、 は入力画像信号の視覚上劣化を感知 しにくい画素値域のダイナミックレンジを画素値変換テーブルを用いて削 減する画素値変換処理を行う画素値変換処理手段と、 前記画素値変換処理 手段からの出力画像を画像符号化処理する画像符号化処理手段と、 を有す るものである。 これにより、 画素値全域のダイナミックレンジを削減する 変換をした後、 符号化処理を施すことになり、 圧縮率を大幅にあげること ができる。
また、 本発明の画像符号化装置は、 入力画像を不可逆圧縮方式に基づい て画像符号化処理する画像符号化処理手段と、 前記画像符号化処理手段に より作成された符号化データを復号化処理する画像復号化処理手段と、 復 号画像と前記入力画像を小領域単位で比較し、 特徴的な歪みを演算処理す る特徴歪み演算処理手段と、 前記特徴的な歪みの大きさにより前記小領域 単位で領域分割処理して領域分割情報を持った領域分割画像を作成する領 域分割処理手段と、 前記入力画像と前記領域分割画像を用いて各領域画像 を作成処理する領域画像作成処理手段と、 領域分割画像を可逆圧縮方式に 基づいて符号化処理し領域分割画像符号化データを作成する領域分割画像 符号化処理手段と、 前記領域分割処理手段により分割された所定の領域を 前記不可逆圧縮方式に基づいて画像符号化する第 1領域画像符号化手段と 他の領域を要求する画質で画像符号化する第 2領域画像符号化手段と、 前 記領域分割画像符号化データと各領域の符号化データを一つの符号化デー 夕にまとめる符号化データ接合処理手段と、 を有するものである。
また、 前記画素値変換テーブルはガンマ曲線を利用することで、 表示端 末等の特性を考慮し視覚上の画質を落とさず圧縮データの容量を削減する ことができる。
また、 本発明の画像復号化装置は前記画像符号化装置で符号化された符 号化データを復号するものであって、 入力符号化データを復号化処理する 画像復号化処理手段と、 前記画像復号化処理手段により復号化された復号 画像の画素値を画素値逆変換テーブルを用いて画素値逆変換処理する画素 値逆変換処理手段と、 を有するものである。 これにより、 復号化処理後、 復号画像の画素値全域のダイナミックレンジを符号化前の画像の画素値全 域のダイナミックレンジと等しくなるようにダイナミックレンジを拡大す ることができて、 視覚上の画質を落とさずに圧縮率を大幅に高めることが できる。
また、 前記画素値逆変換処理手段は、 前記画素値変換処理手段と入出力 関係が逆であることで、 簡単な構成とすることができる。
また、 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像から 抽出した前記抽出小領域の対応する各画素値間の差の分散を演算し、 前記 特徴的な歪みの大きさとすることで、 位相のずれの影響を大きく受けるの で、 モスキートノイズを正確に反映した量子化パラメータを設定すること ができる。 また、 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像から 抽出された前記抽出小領域の対応する各画素間の差と、 その差の平均との 差の和を演算し、 前記特徴的な歪みの大きさとすることで、 簡易な計算で モスキ一トノイズを反映した量子化パラメ一夕を設定することができる。 また、 前記領域分割処理手段は、 前記特徴的な歪みの大きさと閾値との 大小関係により分割することで、 簡易な計算で領域分割画像を作成するこ とができる。
また、 前記小領域単位がブロック単位であり、 前記領域分割処理手段は 前記抽出小領域の性質を分類する抽出小領域性質分類処理手段であって、 分類別に前記閾値を別々に設定することで、 簡易な計算で領域分割画像を 作成することができる。
また、 前記抽出小領域性質分類処理手段は、 前記復号画像の前記抽出小 領域が、 全ての画素値が一致している完全平坦ブロックと、 完全平坦プロ ック以外で全ての列内または、 全ての行内で画素値が一致しているブロッ クと、 その他のブロックとに分類することで、 ブロックノイズを正確に反 映した量子化パラメ一夕を設定することができる。
また、 本発明の画像復号化装置は、 前記画像符号化装置により生成され た符号化データを領域分割画像符号化データと各領域の符号化データに分 離処理する符号化データ分離処理手段と、 前記領域分割画像符号化データ を復合化して領域分割画像を作成する領域分割画像復号化装置と、 前記各 領域の符号化データを復号化して、 各領域画像を作成処理する各領域復号 化処理手段と、 前記領域分割画像にしたがって、 前記各領域画像を組み合 わせて一つの復号画像を作成する復号画像データ接合処理手段と、 を有す るものである。 図面の簡単な説明
図 1は、 画像のプロックと画素の表記法を説明する図である。
図 2は、 平坦ブロックを説明する図である。
図 3は、 本発明の第一の実施の形態の画像符号化装置の構成を示す図で ある。
図 4は、 第一の実施の形態の画像符号化装置の処理の流れを示すフロー 図である。
図 5は、 第二の実施の形態の画像符号化装置の処理の流れを示すフロー 図である。
図 6は、 第三の実施の形態の画像符号化装置の構成を示す図である。
図 7は、 第三の実施の形態の画像復号化装置の構成を示す図である。
図 8は、 第三の実施の形態の画素値変換関数及び画素値逆変換関数を示 す図である。
図 9は、 第三の実施の形態の画素値変換テーブルを示す図である。
図 1 0は、 第三の実施の形態の画像符号化装置の処理の流れを示すフロ —図である。
図 1 1は、 第四の実施の形態の画像符号化装置の構成を示す図である。
図 1 2は、 第四の実施の形態の領域分割部の詳細な構成を示す図である, 図 1 3は、 第四の実施の形態の画像復号化装置の構成を示す図である。
図 1 4は、 第四の実施の形態の画像符号化装置の処理の流れを示すフロ 一図である。
図 1 5は、 第四の実施の形態の領域分割の詳細な処理の流れを示すフロ 一図である。
図 1 6は、 第四の実施の形態の画像復号化装置の処理の流れを示すフロ 一図である。
図 1 7は、 第四の実施の形態の接合符号化データの構成を示す図である 図 1 8は、 第四の実施の形態の領域画像作成処理部で行われる処理を説 明する図である。 発明を実施するための最良の形態
以下、 本発明の突施の形態を図 1を用いて、 以下で用いる画像のブロッ クと画素の表記法について説明する。
画像 0 1 0 1はブロックに分割され、 ブロックには左上から右下にかけ て番号が付けられている。
各ブロックは、 m画素 x n画素 (m , nは任意の自然数) であり、 プロ ック内の画素はブロック 0 1 0 2のように座標で表される。
また、 図 2を用いて、 以下で用いる平坦ブロックを定義する。
平坦ブロックとは、 プロック内で画素値の変化が小さく高周波成分が所 定の閾値よりも少ないブロックのことであるとする。 平坦ブロックは、 ブ ロック内のたとえば画素値のアクティビティの大きさや、 分散の大きさ等 を用いて決定することができる。 具体的には、 数式 1に示すようなブロッ ク内の画素値のアクティビティ aや、 ブロック内の画素値の分散 σ等を計 算し、 その値の大きさにより平坦プロックかどうかを判定することができ る。
【数 1】
丁— Σ^Σ'ο1 f (i. J)
I
n x m f (i, j)-T}
Figure imgf000013_0001
}2 a =∑∑{f (i, j) -了2
i=0 j=0 f ( i , j ) : ブロック内の( i j )の画素の画素値 丁:ブロック内の画素の画素値の平均値 図 2 (a) , (b) , ( c ) はそれぞれブロックを表している。 ブロッ クの小さな区切りは画素を表している。 したがってブロックは 8画素 X 8 画素のブロックであることになるが、 n画素 Xm画素のブロックであれば 良い。 (n, mは自然数)
また、 ブロック内の各画素に付けられた模様は画素値を表している。
ブロック (a) は、 横方向に隣り合う全ての画素値が一致している。 ブ ロック (b) は、 縦方向に隣り合う全ての画素値が一致している。 このよ うに、 縦方向、 横方向の少なくとも一方向の隣り合う画素値が一致してい るプロックを以下の説明で言う平坦プロックの定義とする。
また、 平坦ブロックの中でもブロック ( c ) のように、 ブロック内の全 画素値が一致しているプロックを特に完全平坦プロックと呼ぶことにする また、 平坦ブロック、 完全平坦ブロック以外のブロックを一般ブロック と呼ぶことにする。
(第一の実施の形態)
図 3は、 本発明の第一の実施の形態の画像符号化装置の構成を示す図で ある。 画像符号化装置 0 3 0 2は、 入力画像バッファ 0 3 04、 画像符 号化処理部 0 3 0 5、 符号化データバッファ 0 3 0 6、 画像復号化処理部 0 3 0 7、 復号画像バッファ 0 3 0 8、 特徴画素抽出処理部 0 3 0 9、 特 徴画素デ一夕バッファ 0 3 1 0、 特徴歪み演算処理部 0 3 1 1、 符号化パ ラメ一夕制御部 0 3 1 2から構成されている。 また、 画像符号化装置 0 3 0 2は画像入力装置 0 3 0 1から画像データを受け取り、 データ出力装置 0 3 0 3に符号化データを出力する。
入力画像バッファ 0 3 0 4は、 画像入力装置 0 3 0 1から入力された入 力画像データを格納する。
画像符号化処理部 0 3 0 5は、 入力画像バッファ 0 3 0 4から入力画像 データを読み込み符号化データを出力する。
符号化デ一夕バッファ 0 3 0 6は、 画像符号化処理部 0 3 0 5から出力 された符号化データを格納する。
画像復号化処理部 0 3 0 7は、 符号化データバッファ 0 3 0 6から符号 化データを読み込み復号画像データを出力する。
復号画像バッファ 0 3 0 8は、 画像復号化処理部 0 3 0 7から出力され た復号画像データを格納する。
特徵画素抽出処理部 0 3 0 9は、 入力画像バッファ 0 3 0 4と復号画像 バッファ 0 3 0 8からそれぞれ入力画像デ一夕と復号画像データを読み込 み、 特徴画素を抽出し、 抽出した特徴画素データを出力する。
特徴画素とは、 歪みの計算に用いる画素のことである。 特徴ブロックは. ブ□ック内の全画素が特徴画素であるブロックのことをいう。
特徴画素データバッファ 0 3 1 0は、 特徴画素抽出処理部 0 3 0 9から 出力された特徴画素データを格納する。
特徴歪み演算処理部 0 3 1 1 は、 特徴画素データバッフ ァ 0 3 1 0から 特徴画素データを読み込み、 特徴歪み演算を行い、 特徴歪みをデータを出 力する。
符号化パラメ一夕制御部 0 3 1 2は、 特徴歪み演算処理部 0 3 1 1から 出力された特徴歪みデータを受け取り、 データ圧縮の度合いを決定するパ ラメ一夕値を決定する。
入力画像バッファ 0 3 0 4、 符号化データバッファ 0 3 0 6、 復号画像 ノ ッファ 0 3 0 8、 特徴画素デー夕バッファ 0 3 1 0は、 フラッシュメモ リ、 ハードディスク等の R A M (ランダムアクセスメモリ) によって、 画 像符号化処理部 0 3 0 5、 画像復号化処理部 0 3 0 7、 特徴画素抽出処理 部 0 3 0 9、 特徴歪み演算処理部 0 3 1 1および符号化パラメ一夕制御部 0 3 1 2は、 たとえばそれぞれ独立した回路によって実現される。 また、 たとえばコンピュータ等の演算処理回路によって実現される仮想回路とさ れてもよい。
画像符号化処理部 0 3 0 5と画像復号化処理部 0 3 0 7は、 任意の小領 域単位で処理を行い、 かつデータ圧縮の度合いをパラメータで調節できる 不可逆圧縮方式であればどのようなものでも良い。
以下、 前記不可逆圧縮方式の一例である J P E G圧縮方式を用いて説明 を行う。
画像符号化装置 0 3 0 2の処理の流れを図 4に示した。
J P E G圧縮方式の量子化パラメ一夕 Qとその最大値 Q maxと最小値 Q mi nの初期値と特徴歪みの度合い S Nの閾値 S N thをステツプ S 0 4 0 2で設 定する。
ステップ S 0 4 0 3で入力画像データをメモリに格納し、 必要に応じて 参照できるようにする。 画像符号化処理部 0 3 0 5において、 ステップ S 0 4 0 4で、 量子化パラメ一夕 Qを用いて入力画像データの J P E G符号 化を行い、 ステップ S 0 4 0 5で符号化デ一夕を復号化して得られる復号 画像をステツプ S 0 4 0 6でメモリに格納し、 必要に応じて参照できるよ うにする。
特徴画素抽出処理部 0 3 0 9において、 ステップ S 0 4 0 7で、 入力画 像で平坦ブロックになっていない一般ブロックを検索し、 対応する復号画 像が平坦ブロックになっていれば、 そのブロック内の入力画像と復号画像 の画素を特徴画素として抽出する。 すなわち、 圧縮により、 一般ブロック から平坦ブロックに変化したプロックの画素を特徴画素として抽出してい る。
特徴歪み演算処理部 0 3 1 1 において、 ステップ S 0 4 0 8で、 数式 2 で示すように抽出された特徴画素に対して、 入力画像と復号画像との画素 値の差の分散をブロック単位でそれぞれ計算しその最大値をそのプロック
] 3 の特徴歪みの度合い S Nとする。 なお、 数式 2の S Niの代わりに数式 3の S Niを用いても良い。
【数 2】 diffiC j , k)= f i( j , k)- g i( j , k) diffi( j , k)
Figure imgf000016_0001
SNi= r^T-∑∑ {diffi( j, k )一 meani}2
IN 丄 j=Ok=o
Figure imgf000016_0002
f i( j , k) :入力画像の i番目のブロック内の(j , k)の画素値 gi( j , k) :復号画像の i番目のブロック内の(j , k)の画素値
【数 3】
7 7
SN li = r^-T-∑∑ (diffi( j , k ) - meani}
INー 丄 j=ok=0
符号化パラメ一夕制御部 0 3 1 2において、 ステップ S 040 9で S N が設定した閾値 S Nthより大きいかどうかを判定し、 大きければステップ S 04 1 0で
Qmaxに量子化パラメ一夕 Qの値を、 それ以外の場合はステップ S 04 1 1 で Qminに Qの値を代入し、 Qの範囲を絞っていく。 ステップ S 04 1 2で は、 量子化パラメ一夕 Qの範囲が絞られたことによって収束したかどうか 判定する。 Qmaxと Qminの差が 2より小さいかどうかを判定し、 小さくな ければ収束していないとみなされステップ S 0 4 1 3で量子化パラメ一夕 Qが Qminと Qmaxとの平均値に設定されステップ S 0 404からステップ S 04 1 2までの処理が再び行われ、 小さければ量子化パラメ一夕 Qが収 束したとみなされステップ S 04 1 4で Qに最適値として Qminが代入され ステップ S 04 1 5で J P E G符号化が行われ出力符号化データがデータ 出力装置 0 3 0 3に出力される。
なお、 量子化パラメ一夕 Qの最適値をサーチするのに、 ステップ S O 4 1 2、 ステップ S 04 1 3、 ステップ S 0 4 1 4で、 バイナリサーチを構 成しているが、 これは他のどのようなサーチ手法と置き換えても良い。
(第二の実施の形態)
第二の実施の形態の画像符号化装置の構成は、 第一の実施の形態の画像 符号化装置と同様に図 3で表されるため、 構成図の説明は省略する。
画像符号化装置 0 3 0 2の処理の流れを図 5に示した。
J P E G圧縮方式の量子化パラメータ Qとその最大値 Qmaxと最小値 Qmi nの初期値と完全平坦ブロック、 完全平坦ブロック以外の平坦ブロック、 一 般ブロックの特徴歪みの度合いをそれぞれ S N 1、 S N 2、 S N 3とし、 それぞれの閾値を S N 1 th、 SN 2th、 S N 3thとして、 ステップ S O 5 0 2で設定する。
ステップ S 0 5 0 3で入力画像データをメモリに格納し、 必要に応じて 参照できるようにする。 画像符号化処理部 0 3 0 5において、 入力画像デ —夕をステップ S 0 5 04で量子化パラメータ Qを用いて J P EG符号化 を行い符号化データをステップ S 0 5 0 5で復号化して得られる復号化画 像をステップ S 0 5 0 6でメモリに格納し、 必要に応じて参照できるよう にする。
特徴画素抽出処理部 0 3 0 9において、 ステップ S O 5 0 7で、 復号画 像の各ブロックを完全平坦ブロック、 完全平坦ブロック以外の平坦ブロッ ク、 一般ブロックに分類し、 ブロック内の入力画像と復号画像の画素を特 徴画素として分類して抽出する。
特徴歪み演算処理部 0 3 1 1において、 ステップ S O 5 0 8で、 数式 4 で示すように完全平坦プロックに分類されて抽出された特徴画素に対して 入力画像と復号画像との画素値の差の分散をプロック単位でそれぞれ計算 しその最大値を完全平坦ブロックの特徴歪みの度合い S N 1 とする。 同様 にして、 完全平坦ブロック以外の平坦プロックの特徴歪みの度合い SN 2 と一般ブロックの特徴歪みの度合い SN 3を計算する。 なお、 数式 4の S N 1 iの代わりに数式 5の S N 1 iを用いても良い。
【数 4】 diffi( j , k)= f k)- g i( j , k) mearii
SN , k )— meanj2
Figure imgf000018_0001
S N 1 =max( S N 1 i)
f i( j, k) :入力画像の i番目のブロック内の(j, k)の画素値 g i ( j , k ) :復号画像の i番目のブロック内の(j , k)の画素値
【数 5】
SN li= -ττ Γ ∑∑ (diffi( j ' k ) - meam)
1M 1 j=Ok=0 符号化パラメータ制御部 0 3 1 2において、 ステツプ S 0 5 0 9、 ステ ップ S 0 5 1 0、 ステップ S 0 5 1 1で、 それぞれ S N 1、 S N 2、 S N 3が設定した悶値 S N 1 th、 SN 2th、 S N 3 thより大きいか判定し、 すべ て小さければ、 ステップ S 0 5 1 2で Qminに Qの値を、 それ以外の場合は ステップ S 0 5 1 3で
Qmaxに Qの値を代入し、 Qの範囲をしぼっていく。 ステップ S O 5 1 4で は、
量子化パラメ一夕 Qの範囲が絞られたことによって収束したかどうか判定 をおこなっており、 Qmaxと Qminの差が 2より小さいかどうかを判定し、 小さくなければ収束していないとみなされ、 ステップ S 0 5 1 5で量子化 パラメ一夕 Qが Qminと Qmaxとの平均値に設定されてステップ S 0 5 04 からステップ S 0 5 1 4までの処理が再び行われ、 小さければ量子化パラ メータ Qが収束したとみなされステツプ S 0 5 1 6で Qに最適値として Q m inが代入されステップ S 0 5 1 7で J P E G符号化が行われ出力符号化デ —夕がデータ出力装置 0 3 0 3に出力される。
なお、 量子化パラメ一夕 Qの最適値をサーチするのに、 ステップ S O 5 1 4、 ステツプ S 0 5 1 5、 ステツプ S 0 5 1 6で、 ノ ィナリサーチを構 成しているが、 これは他のどのようなサーチ手法と置き換えても良い。
(第三の実施の形態)
図 6、 図 7はそれぞれ本発明による画像符号化装置と画像復号化装置の 構成を示す図である。
画像符号化装置 0 6 0 2は、 入力画像バッファ 0 6 0 4、 画素値変換テ —ブル作成部 0 6 0 5、 画素値変換テ一ブルバッファ 0 6 0 6、 画素値変 換処理部 0 6 0 7、 画素値変換画像バッファ 0 6 0 8、 画像符号化処理部 0 6 0 9、 符号化データバッファ 0 6 1 0から構成されており、 画像入力 装置 0 6 0 1から画像デ一夕を受け取り、 データ出力装置 0 6 0 3に符号 化データを出力する。
また、 画像復号化装置 0 7 0 2は入力データバッファ 0 7 0 4、 画像復 号化処理部 0 7 0 5、 復号画像バッファ 0 7 0 6、 画素値逆変換テーブル 作成部 0 7 0 7、 画素値逆変換テーブルバッファ 0 7 0 8、 画素値逆変換 処理部 0 7 0 9、 画素値逆変換画像バッファ 0 7 1 0から構成されており データ入力装置 0 7 0 1から符号化データを受け取り、 画像出力装置 0 7 0 3に復元画像を出力する。
ここで、 画像符号化装置 0 6 0 2内の各部の説明を行う。
入力画像バッファ 0 6 0 4は、 画像入力装置 0 6 0 1から入力された入 力画像データを格納する。
画素値変換テーブル作成部 0 6 0 5は、 画素値変換テーブルデータ (図 8及び図 9で後述する) を作成し出力する。
画素値変換テーブルバッファ 0 6 0 6は、 画素値変換テーブル作成部 0 6 0 5から出力された画素値変換テーブルデータを格納する。
画素値変換処理部 0 6 0 7は、 入力画像バッファ 0 6 0 4と画素値変換 テーブルバッファ 0 6 0 6からそれぞれ入力画像デ一夕と画素値変換テー ブルデ一夕を読み込み入力画像の画素値変換を行い画素値変換画像データ を出力する。
画素値変換画像バッファ 0 6 0 8は、 画素値変換処理部 0 6 0 7から出 力された画素値変換画像データを格納する。
画像符号化処理部 0 6 0 9は、 画素値変換画像バッファ 0 6 0 8から画 素値変換画像データを読み込み、 符号化を行い符号化データを出力する。 符号化データバッファ 0 6 1 0は画像符号化処理部 0 6 0 9から出力さ れた符号化データを格納する。
ここで、 画像復号化装置 0 7 0 2の各部について説明する。
入力デ一夕バッファ 0 7 0 4は、 データ入力装置 0 7 0 1から入力され た入力符号化データを格納する。
画像復号化処理部 0 7 0 5は、 入力データバッファ 0 7 0 4から入力符 号化データを読み込み復号し復号画像データを出力する。
復号画像バッファ 0 7 0 6は、 画像復号化処理部 0 7 0 5から出力され た復号画像データを格納する。
画素値逆変換テーブル作成部 0 7 0 7は、 画素値逆変換テーブルデータ を作成し出力する。
画素値逆変換テーブルバッファ 0 7 0 8は、 画素値逆変換テーブル作成 部 0 7 0 7から出力された画素値逆変換テーブルデータを格納する。
画素値逆変換処理部 0 7 0 9は、 復号画像バッファ 0 7 0 6と画素値逆 変換テーブルバッファ 0 7 0 8からそれぞれ復号画像データと画素値逆変 換テーブルデータを入力し画素値逆変換を行い画素値逆変換画像を出力す る。
画素値逆変換画像バッファ 0 7 1 0は、 画素値逆変換処理部 0 7 0 9か ら出力された画素値逆変換画像データを格納する。
入力画像バッファ 0 6 0 4、 画素値変換テーブルバッファ 0 6 0 6、 画 素値変換画像バッファ 0 6 0 8、 符号化データバッファ 0 6 1 0、 入力デ 一夕バッファ 0 7 0 4、 復号画像バッファ 0 7 0 6、 画素値逆変換テープ ルバッファ 0 7 0 8、 画素値逆変換画像バッファ 0 7 1 0は、 フラッシュ メモリ、 ハードディスク等の R A M (ランダムアクセスメモリ) によって、 画素値変換テーブル作成部 0 6 0 5、 画素値変換処理部 0 6 0 7、 画像符 号化処理部 0 6 0 9、 画像復号化処理部 0 7 0 5、 画素値逆変換テーブル 作成部 0 7 0 7、 画素値逆変換処理部 0 7 0 9は、 たとえばそれぞれ独立 した回路によって実現される。 また、 たとえばコンピュータ等の演算処理 回路によって実現される仮想回路とされてもよい。
以下で用いられる画素値変換テーブルと画素値逆変換テーブルは、 それ ぞれ画素値変換関数と画素値逆変換関数から作成される。 画素値変換関数 は、 線形または非線形な関数であり、 画素値逆変換関数は、 基本的には画 素値変換関数の逆関数 (y = xに対して対象) である。
画素値変換関数と画素値逆変換関数の組み合わせの一例を図 8に示す。
( a ) は画素値変換関数、 (b ) は画素値逆変換関数である。
画素値変換関数 (a ) は、 ガンマ曲線の傾きが 1以下の領域 (ァぐ 1 ) と傾き 1の直線を組み合わせもので、 表示端末等の特性を利用し低画素域 のダイナミックレンジを効率的に減少させている。 画素値逆変換関数
( b ) は、 画素値変換関数 ( a ) の逆関数である。 画素値変換関数 ( a ) から図 9の画素値変換テーブルが得られる。
画素値変換テーブルより全体の画素値域が 0〜 2 5 5から 0〜 1 9 1に 削減されたのがわかる。
画素値逆関数テーブルは、 画素値変換テーブルの入力と出力を入れ替え たものになる。 なお、 画素値変換関数は任意の関数であり、 対応する画素 値逆変換関数は画素値変換関数の基本的には逆関数であるが、 明るさ改善. ノイズ除去等の目的により逆関数にしなくても良い。
画像符号化装置 0 6 0 2、 画像復号化装置 0 7 0 2の処理の流れを図 1 0に示した。
まず、 画像符号化装置 0 6 0 2の処理の流れを説明する。
ステップ S 1 0 0 2で入力画像データをメモリに格納し、 必要に応じて 参照できるようにする。 画素値変換テーブル作成部 0 6 0 5において、 ステップ S 1 0 0 3で画 素値変換テーブルを画素値変換関数から作成し、 ステップ S 1 0 0 4で画 素値変換テーブルデータをメモリに格納し、 必要に応じて参照できるよう にする。
次に画素値変換処理部 0 6 0 7において、 入力画像データの画素を画素 値変換テーブルデータによりステップ S 1 0 0 5で画素値変換を行い、 画 素値変換後の画素値変換画像をステップ S 1 0 0 6でメモリに格納する。 画像符号化処理部 0 6 0 9において、 ステップ S 1 0 0 7でメモリ内の 画素値変換画像を読み込み、 J P E G符号化し出力符号化デ一夕をデータ 出力装置 0 6 0 3に出力する。
次に、 画像復号化装置 0 7 0 2の処理の流れを説明する。
データ入力装置 0 7 0 1からステップ S 1 0 1 0で入力符号化データを メモリに格納する。
画素値逆変換テーブル作成部 0 7 0 7 において、 ステップ S 1 0 1 1で 画素値逆変換テーブルを作成し、 ステップ S 1 0 1 2で画素値逆変換テー ブルメモリに格納する。
画像復号化処理部 0 7 0 5においてステップ S 1 0 1 3で J P E G復号 化を行い、 ステツプ S 1 0 1 4で復号画像をメモリに格納する。
次に、 画素値逆変換処理部 0 7 0 9においてステップ S 1 0 1 5で、 メ モリ内から復号画像と画素値逆変換テーブルを読み込み、 画素値逆変換画 像を復元画像として画像出力装置 0 7 0 3に出力する。
(第四の実施の形態)
図 1 1、 図 1 2は、 本発明による画像符号化装置の構成を示す図である 入力画像バッファ 1 1 0 4は、 入力画像バッファ 1 2 0 1 と、 領域分割 画像符号化装置 1 1 0 6は、 領域分割画像符号化装置 1 2 0 5と、 領域 1 画像符号化装置 1 1 0 8は、 領域 1画像符号化装置 1 2 0 3と、 領域 2画 像符号化装置 1 1 1 0は、 領域 2画像符号化装置 1 2 0 4と、 それぞれ同
—のバッファまたは装置を表している。
画像符号化装置 1 1 0 2は、 画像入力装置 1 1 0 1から入力画像を受け 取り、 データ出力装置 1 1 0 3に接合符号化データを出力する。
画像符号化装置 1 1 0 2は、 入力画像バッファ 1 1 04 ( 1 2 0 1 ) 、 領域分割部 1 1 0 5、 領域分割画像符号化装置 1 1 0 6 ( 1 2 0 5) 、 領 域分割符号化データバッファ 1 1 0 7、 領域 1画像符号化装置 1 1 0 8
( 1 2 0 3 ) 、 領域 1符号化デ一夕バッファ 1 1 0 9、 領域 2画像符号化 装置 1 1 1 0 ( 1 2 0 4) 、 領域 2符号化データバッファ 1 1 1 1、 符号 化データ接合処理部 1 1 1 2、 接合符号化データバッファ 1 1 1 3、 から 構成されている。
図 1 2は、 領域分割部 1 1 0 5の構成を示している。 図 1 1の領域分割 部 1 1 0 5は、 図 1 2では、 領域分割部 1 2 0 2に相当する。
領域分割部 1 1 0 5 ( 1 2 0 2 ) は、 画像符号化処理部 1 2 0 6、 符号 化データバッファ 1 2 0 7、 画像復号化処理部 1 2 0 8、 復号画像バッフ ァ 1 2 0 9、 ブロック抽出処理部 1 2 1 0、 抽出ブロックデー夕バッファ 1 2 1 1、 特徴歪み演算処理部 1 2 1 2、 領域分割処理部 1 2 1 3、 領域 分割画像バッファ 1 2 1 4、 領域画像作成処理部 1 2 1 5、 領域 1画像バ ッファ 1 2 1 6、 領域 2画像バッファ 1 2 1 7から構成されている。
入力画像バッファ 1 1 04は、 画像入力装置 1 1 0 1から入力された入 力画像デ一夕を格納する。
画像符号化処理部 1 2 0 6は、 入力画像バッファ 1 1 04 ( 1 2 0 1 ) から入力画像データを受け取り、 画像符号化を行い、 符号化データを符号 化デ一夕バッファ 1 2 0 7に書き込む。
画像復号化処理部 1 2 0 8は、 符号化データバッファ 1 2 0 7から復号 画像データを読み込み、 復号を行い復号化画像を復号画像バッファ 1 2 0 9に書き込む。
ブロック抽出処理部 1 2 1 0は、 入力画像バッファ 1 1 04 ( 1 2 0
1 ) から、 入力画像データを復号画像バッファから復号画像データを読み 込み、 ブロック内画素を抽出し、 抽出画素を抽出ブロックデ一夕バッファ
1 2 1 1に書き込む。 特徴歪み演算処理部 1 2 1 2は、 抽出ブロックデー 夕バッファ 1 2 1 1から抽出ブロックデータを読み込み、 特徴歪み演算を 行い、 特徴歪みデータを出力する。
領域分割処理部 1 2 1 3は、 特徴歪みデータの大きさにより、 領域分割 を行い、 領域分割画像データを領域分割画像バッファ 1 2 1 4に書き込む, 領域画像作成処理部 1 2 1 5は、 領域分割画像バッファ 1 2 1 4、 入力 画像バッファ 1 2 0 1からそれぞれ領域分割画像データと入力画像データ を読み込み領域分割画像データにしたがって、 領域 1画像データ、 領域 2 画像データを作成し、 それぞれ領域 1画像バッファ 1 2 1 6、 領域 2画像 バッファ 1 2 1 7に書き込む。
領域分割画像符号化装置 1 1 0 6 ( 1 2 0 5 ) は、 領域分割画像データ を領域分割画像バッファ 1 2 1 4から読み込み符号化を行い、 符号化デー 夕を領域分割画像符号化データとして領域分割符号化データバッファ 1 1 0 7に書き込む。
領域 1画像符号化装置 1 1 0 8 ( 1 2 0 3 ) は、 領域 1画像データを領 域 1画像バッファ 1 2 1 6から読み込み、 符号化を行い、 符号化データを 領域 1符号化データとして、 領域 1符号化データバッファ 1 1 0 9に書き 込む。
領域 2画像符号化装置 1 1 1 0 ( 1 2 0 4 ) は、 領域 2画像データを領 域 2画像バッファ 1 2 1 7から読み込み、 符号化を行い、 符号化デ一夕を 領域 2符号化データとして、 領域 2符号化データバッファ 1 1 1 1 に書き 込む。
符号化データ接合処理部 1 1 1 2は、 領域分割画像符号化データ、 領域 1符号化データ、 領域 2符号化データをそれぞれ、 領域分割画像符号化デ —夕を領域分割符号化データバッファ 1 1 0 7、 領域 1符号化データバッ ファ 1 1 0 9、 領域 2符号化デ一夕バッファ 1 1 1 1から読み込み、 これ ら 3つの符号化デ一夕を 1つに接合し、 接合符号化データを作り、 接合符 号化データバッファ 1 1 1 3に書き込み、 デ一夕出力装置 1 1 0 3に出力 する。
図 1 3は、 本発明による画像復号化装置の構成を示す図である。
画像復号化装置 1 3 0 2は、 入力データバッファ 1 3 0 4、 符号化デー 夕分離処理部 1 3 0 5、 領域分割画像復号化装置 1 3 0 6、 領域 1画像復 号化装置 1 3 0 8、 領域 2画像復号化装置 1 3 1 0、 領域分割復号画像バ ッファ 1 3 0 7、 領域 1復号画像バッファ 1 3 0 9、 領域 2復号画像バッ ファ 1 3 1 1、 復号画像データ接合処理部 1 3 1 2、 接合復号画像バッフ ァ 1 3 1 3から構成されており、 データ入力装置 1 3 0 1から、 符号化デ 一夕を受け取り接合復号画像データを画像出力装置 1 3 0 3に出力する。 入力データバッファ 1 3 0 4は、 データ入力装置 1 3 0 1から入力され た入力データを格納する。
符号化データ分離処理部 1 3 0 5は、 入力データバッファ 1 3 0 4から 入力データを読み込み、 入力データを、 領域分割画像符号化データ、 領域 1画像符号化データ、 領域 2画像符号化データに分離し、 それぞれ領域分 割画像復号化装置 1 3 0 6、 領域 1画像復号化装置 1 3 0 8、 領域 2画像 復号化装置 1 3 1 0に出力する。
領域分割画像復号化装置 1 3 0 6は、 符号化デ一夕分離処理部 1 3 0 5 から、 領域分割画像符号化データを受け取り、 復号して得られた復号画像 を領域分割復号画像として、 領域分割復号画像バッファ 1 3 0 7に書き込 む。
領域 1画像復号化装置 1 3 0 8は、 符号化データ分離処理部 1 3 0 5か ら、 領域 1画像符号化データを受け取り、 復号して得られた復号画像を領 域 1復号画像として、 領域 1復号画像バッファ 1 3 0 9に書き込む。
領域 2画像復号化装置 1 3 1 0は、 符号化データ分離処理部 1 3 0 5か ら、 領域 2画像符号化データを受け取り、 復号して得られた復号画像を領 域 2復号画像として、 領域 2復号画像バッファ 1 3 1 1 に書き込む。
復号画像データ接合処理部 1 3 1 2は、 領域分割復号画像バッファ 1 3 0 7、 領域 1復号画像バッファ 1 3 0 9、 領域 2復号画像バッファ 1 3 1 1から、 それぞれ領域分割復号画像データ、 領域 1復号画像データ、 領域 2復号画像データを読み込み、 それらを接合して接合復号画像データとし て、 接合復号画像バッファ 1 3 1 3に書き込み、 画像出力装置 1 3 0 3に 出力する。 入力画像バッファ 1 1 0 4 ( 1 2 0 1 ) 、 領域分割符号化データバッフ ァ 1 1 0 7、 領域 1符号化データバッファ 1 1 0 9、 領域 2符号化データ バッファ 1 1 1 1、 接合符号化データバッファ 1 1 1 3、 符号化デ一夕バ ッファ 1 2 0 7、 復号画像バッファ 1 2 0 9、 抽出ブロックデ一夕バッフ ァ 1 2 1 1、 領域分割画像バッファ 1 2 1 4、 領域 1画像バッファ 1 2 1 6、 領域 2画像バッファ 1 2 1 7
、 入力データバッファ 1 3 0 4、 領域分割復号画像バッファ 1 3 0 7、 領 域 1復号画像バッファ 1 3 0 9、 領域 2復号画像バッファ 1 3 1 1、 接合 復号画像バッファ 1 3 1 3は、 フラッシュメモリ、 ハードディスク等の R A M (ランダムアクセスメモリ) によって、 領域分割画像符号化装置 1 1 0 6 ( 1 2 0 5 ) 、 領域 1画像符号化装置 1 1 0 8 ( 1 2 0 3 ) 、 領域 2 画像符号化装置 1 1 1 0 ( 1 2 0 4 ) 、 符号化データ接合処理部 1 1 1 2 画像符号化処理部 1 2 0 6、 画像復号化処理部 1 2 0 8、 ブロック抽出処 理部 1 2 1 0、 特徴歪み演算処理部 1 2 1 2、 領域分割処理部 1 2 1 3、 領域画像作成処理部 1 2 1 5、 符号化データ分離処理部 1 3 0 5、 領域分 割画像復号化装置 1 3 0 6、 領域 1画像復号化装置 1 3 0 8、 領域 2画像 復号化装置 1 3 1 0、 復号画像データ接合処理部 1 3 1 2は、 たとえばそ れぞれ独立した回路によって実現される。 また、 たとえばコンピュータ等 の演算処理回路によって実現される仮想回路とされてもよい。
領域画像作成処理部 1 2 1 5で行われる処理は、 たとえば図 1 8に示す ように入力画像 1 8 0 2の各ブロックを領域分割画像によりどの領域にな るのか判断し、 ブロックの番号順にブロックをコピーし領域 1画像 1 8 0 1、 領域 2画像 1 8 0 3を作成する。 復号画像データ接合処理部 1 3 1 2 では、 領域分割復号画像にしたがって、 逆の作業を行えば良い。 このよう に、 領域分割画像は各領域画像の各ブロック力 入力画像のどのブロック に対応するのかわかる形式であれば画像以外も含めてどのようなものでも よい。
領域の分割数は、 2 となっているが制限はない。
領域分割画像復号化装置 1 3 0 6、 領域 1画像復号化装置 1 3 0 8、 領 域 2画像復号化装置 1 3 1 0は、 それぞれ領域分割画像符号化データ、 領 域 1符号化データ、 領域 2符号化データを復号できなければならない。
領域 1画像符号化装置 1 1 0 8と、 画像符号化処理部 1 2 0 6の同一の 画像符号化方式でなければならず、 その画像符号化方式は、 たとえば、 J P E G圧縮方式のように小領域単位で処理を行うことが可能な不可逆圧縮 方式であればどのようなものでも良い。
また、 領域分割画像符号化装置 1 1 0 6は、 可逆符号化方式であれば何 を用いても良い。
領域 1以外の領域の画像符号化は、 目的に合った画質を確保できるどの ような符号化方式を用いても良い。
符号化データ接合処理部 1 1 1 2で作成される接合符号化データは、 分 割符号化データ、 各領域符号化データを 1つにまとめたもので、 接合符号 化データは、 元の分割符号化データ、 各領域符号化データに分離できるだ けの情報を含んでいればどのような形式でもよい、 たとえば、 図 1 7に示 すように、 ヘッダ部に元の各符号化データの容量、 入力画像の縦横サイズ の情報を持たせ、 本体部は元の各符号化デ一夕を並べたもので良い。
領域 1画像符号化装置 1 1 0 8、 領域 2画像符号化装置 1 1 1 0は、 単 に符号化に必要なパラメ一夕をある値にして符号化を行うものでも良い。
また、 第一の実施の形態、 第二の実施の形態で説明した画像符号化装置の ように符号化に必要なパラメ一夕を最適化して符号化を行うもの、 第三の 実施の形態で説明した画像符号化装置のように符号化前に画像処理を施す ものなど、 符号化以外にどのような特徴を持ったものでもよい。
以下、 領域分割画像符号化装置 1 1 0 6、 領域 2画像符号化装置 1 1 1 0、 領域分割画像復号化装置 1 3 0 6、 領域 2画像復号化装置 1 3 1 0は. ハフマン符号化方式を用い、 領域 1画像符号化装置 1 1 0 8は、 第二の実 施の形態で挙げた J P E G圧縮方式を用いた画像符号化装置 0 3 0 2を用 レ 領域 1画像復号化処理装置 1 3 0 8は、 J P E G圧縮方式を用いた例 で説明する。
画像符号化装置 1 1 0 2の処理の流れを図 1 4に示した。 6
J P E G圧縮方式の量子化パラメータ Qと完全平坦ブロック、 平坦プロ ック、 一般ブロックの特徴歪み S Nの閾値 S N 1 th、 SN 2th、 S N 3thを ステップ S 1 4 0 2で設定する。
画像入力装置 1 1 0 1から入力された画像をステツプ S 1 40 3で入力 画像バッファ 1 1 04 ( 1 2 0 1 ) に格納する。
画像符号化処理部 1 2 0 6において、 ステップ S 1 4 04で量子化パラ メータ Qで J P E Gを行い、 画像復号化処理部 1 2 0 8において、 ステツ プ S 1 40 5でステップ S 1 404で符号化したデータを復号化する。 復号化された復号画像データは、 ステップ S 1 40 6で復号画像バッフ ァ 1 2 0 9に格納される。
ステップ S 1 40 7で入力画像をブロック (8 X 8画素) に分けたとき の縦横のプロック数すべてに対応する縦横の画素数のための領域分割画像 用のメモリ領域を確保する。
ステップ S 1 40 8の領域分割を行うが、 その詳細な処理の流れを図 1 5に示した。
ステップ S 1 5 0 2で、 ブロックの番号を示す nに 0を代入する。
ブロック抽出処理部 1 2 1 0で、 ステップ S 1 5 0 3を行い、 入力画像 デー夕と復号画像デ一夕の 11番目のブロックを抽出して、 抽出ブロックデ 一夕バッファ 1 2 1 1にブロックの画素値を格納する。
特徴歪み演算処理部 1 2 1 2で、 ステップ S 1 5 04を行い、 n番目の プロックの数式 6で表される特徴歪み S Nを計算する。
【数 6】
diffi( j, k)= f i( j , k)- g i( j , k) meani = -L∑∑diffi( j , k)
j=0k=O
SN= ∑∑ {diffi( j , k ) - meani}2
IN I j=ok=o f i( j , k) :入力画像の i番目のブロック内の(j , k)の画素値 gi( j , k) :復号画像の i番目のブロック内の(j , k)の画素値 領域分割処理部 1 2 1 3では、 まずステップ S 1 5 0 5、 S 1 5 0 7に より、 復号画像の n番目のブロックが完全平坦ブロック、 完全平坦ブロッ ク以外の平坦ブロック、 一般ブロックにより分岐させ、 S 1 5 0 6、 S I 5 0 8、 S I 5 0 9のいずれかで、 ブロックの種類に応じた特徴歪みの閾 値により評価され、 閾値より小さければ、 J P E G方式で符号化する領域 1となり、 ステップ S 1 5 1 0により領域分割画像の η番目の画素値を 0 にする。 閛値以上であれば、 ハフマン符号化方式で符号化する領域 2とな り、 ステップ S 1 5 1 1により領域分割画像の η番目め画素値を 1にして 領域分割画像バッファ 1 2 1 4に書き込む。
ステップ S 1 5 1 2は、 ηをインクリメントし次のブロックの番号に更 新している。
ステップ S 1 5 1 3は、 ブロックの番号 ηが全ブロック数 Νとの大小を 比較し、 全てのブロックの評価が終わったかどうか判定している。
ステップ S 1 5 0 3からステップ S 1 5 1 3までを繰り返し、 全ブロッ クに対して領域分割が終了すると、 領域画像作成処理部 1 2 1 5で、 ステ ップ S 1 40 9を行い、 領域分割画像を用いて、 図 1 8に示すように、 領 域 1の入力画像のプロックを横一列に並べた領域 1画像データと、 領域 2 の入力画像のブロックを横一列に並べた領域 2画像データを作成する。 領域 1画像符号化装置 1 1 0 8において、 ステップ S 1 4 1 0で領域 1 画像データを J P E G量子化パラメータを最適化して符号化し、 符号化デ —夕を領域 1符号化データとして、 S 1 4 1 1で領域 1符号化データバッ ファ 1 1 0 9に格鈉する。 なお、 領域 1画像符号化装置 1 1 0 8は、 第二 の実施の形態で挙げた画像符号化装置 0 3 0 2なので、 その処理であるス テツプ S 1 4 1 0の細かい処理の流れは省略した。
次に、 領域分割画像符号化装置 1 1 0 6と領域 2画像符号化装置 1 1 1 0において、 ステップ S 1 4 1 2で、 領域分割画像データおよび領域 2画 像データをハフマン符号化し、 S 1 4 1 3で領域分割画像符号化データを 領域分割符号化データバッファ 1 1 0 7に、 領域 2符号化デ一夕を領域 2 符号化デ一夕バッファ 1 1 1 1に格納する。
符号化データ接合処理部 1 1 1 2において、 ステツプ S 1 4 1 4で領域 分割画像符号化デ一夕、 領域 1符号化データ、 領域 2符号化データを図 1 7に示すような 1つの接合符号化データに接合し、 接合符号化データをデ 一夕出力装置 1 1 0 3に出力する。
次に、 画像復号化装置 1 3 0 2の処理の流れを図 1 6に示した。
データ入力装置 1 3 0 1から入力された入力データをステップ S 1 6 0 2で入力デ一夕バッファ 1 3 0 4に格納する。
符号化データ分離処理部 1 3 0 5において、 ステップ S 1 6 0 3により 領域分割画像符号化データ、 領域 1画像符号化データ、 領域 2画像符号化 データに分離する。
領域分割画像復号化装置 1 3 0 6と領域 2画像復号化装置 1 3 1 0にお いて、 ステップ S 1 6 0 4のハフマン復号化を行いステツプ S 1 6 0 5で 領域分割復号画像データを領域分割復号画像バッファ 1 3 0 7に、 領域 2 復号画像デ一夕を領域 2復号画像バッファ 1 3 1 1 に格納する。
領域 1画像復号化装置 1 3 0 8において、 ステツプ S 1 6 0 6で領域 1 符号化データを復号し、 復号された領域 2復号画像をステップ S 1 6 0 7 で領域 2復号画像データバッファに格納する。
復号画像データ接合処理部 1 3 1 2において、 ステップ S 1 6 0 8で領 域分割復号画像の画素値により、 対応するブロックに領域 1復号画像のブ ロックと領域 2復号画像のプロックをコピーしていき、 復号画像である接 合復号画像データが作成し、 画像出力装置 1 3 0 3に出力する。 ステップ S 1 6 0 9で終了する。
なお、 本発明は上記実施の形態に限定されるものではない。
第三の実施の形態は他の実施の形態と組み合わせてもよい。 産業上の利用可能性
本発明の画像符号化装置は、 不可逆画像圧縮方式の復号画像の画質評価 指標として、 復号画像で人間が劣化を感じやすい部分を抽出し解析するこ とにより、 復号画像の画質を的確に評価でき、 視覚的に一定以上の画質で 最高の圧縮率を得ることができる。 さらに、 ユーザは求める復号画像の画 質の度合いを設定すれば、 符号化パラメ一夕を最適値に自動設定して求め る画質内で最適な圧縮率を得ることができる。
また、 本発明の画像復号化装置は、 前記画像符号化装置と組み合わせて 使うことにより、 視覚上の画質を落とさずに圧縮率を大幅に高めることが できる。

Claims

請 求 の 範 囲
1 . 入力画像を小領域単位で処理可能な不可逆圧縮方式に基づいて画像符 号化処理する画像符号化処理手段と、 前記画像符号化処理手段により作成 された符号化データを復号処理する画像復号化処理手段と、 前記画像復号 化処理手段により得られる復号画像と前記入力画像とを用いて特徴画素を 抽出処理する特徴画素抽出処理手段と、 前記特徴画素を用いて前記入力画 像に対する前記復号画像の特徴的な歪みを演算処理する特徴歪み演算処理 手段と、 前記特徴的な歪みの大きさにより前記画像符号化処理手段におけ るデータ圧縮の度合いを決定するパラメ一夕値を制御するパラメ一夕値制 御手段と、 を有することを特徴とする画像符号化装置。
2 . 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像の前記特 徴画素の対応する各画素値間の差の分散を各小領域ごとに演算し、 その最 大値を前記特徴的な歪みの大きさとすることを特徴とする請求項 1記載の 画像符号化装置。
3 . 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像の前記特 徴画素の対応する各画素値間の差と、 その差の平均との差の和を各小領域 ごとに演算し、 その最大値を前記特徴的な歪みの大きさとすることを特徴 とする請求項 1記載の画像符号化装置。
4 . 前記小領域がブロックであり、 前記特徴画素抽出処理手段は、 ブロッ ク単位で前記復号画像と前記入力画像を用いて特徴ブロックを抽出処理す る特徴ブロック抽出処理手段であって、 前記特徴プロック中の画素を抽出 処理することを特徴とする請求項 1 、 2又は 3記載の画像符号化装置。
5 . 前記特徴ブロック抽出処理手段は、 前記入力画像がブロック内の全て の列内または、 全ての行内で画素値が一致してはいないプロックを抽出し 抽出したブロックに対応する前記復号画像のプロックの内、 全ての列内ま たは、 全ての行内で画素値が一致しているプロックを抽出することを特徴 とする請求項 4記載の画像符号化装置。
6 . 前記特徴ブロック抽出処理手段は、 前記入力画像がブロック内の全て の画素値が一致してはいないブロックを抽出し、 抽出したブ口ックに対応 する前記復号画像のプロックの内、 全ての画素値が一致しているプロック を抽出することを特徴とする請求項 4記載の画像符号化装置。
7 . 前記特徴画素抽出手段は、 特徴ブロックを分類して抽出する特徴プロ ック分類抽出手段であって、 前記特徴プロック内の画素を抽出することを 特徴とする請求項 4記載の画像符号化装置。
8 . 前記特徴ブロック分類抽出手段は、 前記復号画像のブロックが、 全て の画素値が一致している完全平坦プロックと、 完全平坦ブロック以外で全 ての列内または、 全ての行内で画素値が一致しているブロックと、 その他 のブロックに分類して抽出することを特徴とする請求項 7記載の画像符号 化装置。
9 . 前記特徴歪み演算処理手段は、 前記入力画像と前記復号画像の前記特 徵画素に対応する各画素値間の差の分散を各プロックごとに演算し、 前記 特徴プロック分類抽出手段で分類された各分類毎で最大値を各分類毎の特 徵的な歪みの大きさとし、 前記パラメ一夕値制御手段は、 前記各分類毎の 特徴的な歪みの大きさを各分類毎に閾値を設定して、 デ一夕圧縮の度合い を決定することを特徴とする請求項 7記載の画像符号化装置。
1 0 . 入力画像信号の視覚上劣化を感知しにくい画素値域のダイナミック レンジを画素値変換テーブルを用いて削減する画素値変換処理を行う画素 値変換処理手段と、 前記画素値変換処理手段からの出力画像を画像符号化 処理する画像符号化処理手段と、 を有することを特徴とする画像符号化装 置。
1 1 . 入力画像を不可逆圧縮方式に基づいて画像符号化処理する画像符号 化処理手段と、 前記画像符号化処理手段により作成された符号化デ一夕を 復号化処理する画像復号化処理手段と、 復号画像と前記入力画像を小領域 単位で比較し、 特徴的な歪みを演算処理する特徴歪み演算処理手段と、 前 記特徴的な歪みの大きさにより前記小領域単位で領域分割処理して領域分 割情報を持った領域分割画像を作成する領域分割処理手段と、 前記入力画 像と前記領域分割画像を用いて各領域画像を作成処理する領域画像作成処
理手段と、 領域分割画像を可逆圧縮方式に基づいて符号化処理し領域分割 画像符号化デ一夕を作成する領域分割画像符号化処理手段と、 前記領域分 割処理手段により分割された所定の領域を前記不可逆圧縮方式に基づいて 画像符号化する第 1領域画像符号化手段と、 他の領域を要求する画質で画 像符号化する第 2領域画像符号化手段と、 前記領域分割画像符号化データ と各領域の符号化データを一つの符号化デ一夕にまとめる符号化データ接 合処理手段と、 を有することを特徴とする画像符号化装置。
PCT/JP2000/006386 1999-09-21 2000-09-19 Image encoding device WO2001022734A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/070,957 US7016420B1 (en) 1999-09-21 2000-09-19 Image encoding device
EP20000961086 EP1215909B1 (en) 1999-09-21 2000-09-19 Image encoding device
DE60045419T DE60045419D1 (de) 1999-09-21 2000-09-19 Bildkodierungsvorrichtung
US11/236,010 US7830966B2 (en) 1999-09-21 2005-09-26 Image encoding device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP26667699A JP3701522B2 (ja) 1999-09-21 1999-09-21 画像符号化装置、画像符号化方法及びコンピュータ読み取り可能な記録媒体
JP11/266676 1999-09-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/236,010 Division US7830966B2 (en) 1999-09-21 2005-09-26 Image encoding device

Publications (1)

Publication Number Publication Date
WO2001022734A1 true WO2001022734A1 (en) 2001-03-29

Family

ID=17434156

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/006386 WO2001022734A1 (en) 1999-09-21 2000-09-19 Image encoding device

Country Status (6)

Country Link
US (2) US7016420B1 (ja)
EP (1) EP1215909B1 (ja)
JP (1) JP3701522B2 (ja)
DE (1) DE60045419D1 (ja)
TW (2) TW502539B (ja)
WO (1) WO2001022734A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1499106A1 (en) * 2002-03-22 2005-01-19 Sipec Corporation Image data compression device, image data compression method, recording medium, and program
EP2309758B1 (en) * 2002-11-20 2014-07-30 Panasonic Intellectual Property Corporation of America Moving image predicting method, moving image encoding method and device, and moving image decoding method and device
US7266246B2 (en) * 2004-04-29 2007-09-04 Hewlett-Packard Development Company, L.P. System and method for estimating compression noise in images
JP4440142B2 (ja) * 2005-03-02 2010-03-24 Kddi株式会社 割符画像生成方法、復号方法、割符画像生成装置および復号装置
US7680355B2 (en) * 2005-05-02 2010-03-16 Intel Corporation Detection of artifacts resulting from image signal decompression
JP2007028529A (ja) * 2005-07-21 2007-02-01 Fuji Xerox Co Ltd 情報記録システム、情報再生システム、および情報記録再生システム
ATE448644T1 (de) * 2005-08-17 2009-11-15 Nxp Bv Videocodierung und -decodierung unter berücksichtigung von positionen im cache
WO2007113026A1 (fr) * 2006-04-06 2007-10-11 Wavecom Procédé d'initialisation d'un module électronique de radiocommunication, procédé de compression et de décompression de paramètres de calibrage, produit programme d'ordinateur et moyen de stockage correspondants
US8253752B2 (en) 2006-07-20 2012-08-28 Qualcomm Incorporated Method and apparatus for encoder assisted pre-processing
US8155454B2 (en) 2006-07-20 2012-04-10 Qualcomm Incorporated Method and apparatus for encoder assisted post-processing
CN101491102B (zh) * 2006-07-20 2011-06-08 高通股份有限公司 将后处理视为在解码器中执行的视频编码
WO2009045133A1 (en) * 2007-10-03 2009-04-09 Telefonaktiebolaget Lm Ericsson (Publ) Method, compressor, decompressor and signal representation for lossless compression of pixel block values using row and column slope codewords
WO2009066626A1 (ja) * 2007-11-22 2009-05-28 Nec Corporation 画像撮影装置、エンコード方法およびプログラム
EP2269161A4 (en) 2008-04-18 2013-10-09 Visible World Corp SYSTEM AND METHOD FOR THE CONDENSED PRESENTATION OF LONG VIDEOS RATES
JP5182312B2 (ja) * 2010-03-23 2013-04-17 株式会社ニコン 画像処理装置、および画像処理プログラム
CA2862980A1 (en) 2012-01-23 2013-08-01 Dsm Ip Assets B.V. Diterpene production
US10104388B2 (en) * 2014-06-30 2018-10-16 Sony Corporation Video processing system with high dynamic range sensor mechanism and method of operation thereof
EP3185555B1 (en) 2015-12-23 2023-07-05 Université de Genève Image compression method with negligible and quantifiable information loss and high compression ratio
WO2020115520A1 (en) * 2018-12-02 2020-06-11 Playsight Interactive Ltd. Ball tracking in sport events
EP3820150B1 (en) * 2019-11-07 2024-01-03 Dotphoton AG Method and device for steganographic processing and compression of image data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227512A (ja) * 1991-07-31 1993-09-03 Sony Corp 映像信号伝送装置
JPH05227510A (ja) * 1991-08-26 1993-09-03 Sony Corp 映像信号伝送装置
JPH07250327A (ja) * 1994-03-08 1995-09-26 Matsushita Electric Ind Co Ltd 画像符号化方法
JPH0955939A (ja) * 1995-08-10 1997-02-25 Graphics Commun Lab:Kk 動画像圧縮方法および装置
JPH10243261A (ja) * 1997-03-03 1998-09-11 Matsushita Electric Ind Co Ltd 映像信号符号化装置
JPH1155672A (ja) * 1997-08-05 1999-02-26 Mitsubishi Electric Corp 動画像符号化装置および動画像復号化装置および動画像符号化方法および動画像復号化方法
EP0924933A1 (en) 1997-07-08 1999-06-23 Sony Corporation Video data encoder, video data encoding method, video data transmitter, and video data recording medium

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2807222B2 (ja) 1986-11-14 1998-10-08 株式会社東芝 画像圧縮装置
JPH0244883A (ja) 1988-08-05 1990-02-14 Toshiba Corp 動画像伝送方式
JP2847569B2 (ja) 1990-06-26 1999-01-20 富士通株式会社 動画像符号化制御方式
KR930003757A (ko) * 1991-07-31 1993-02-24 오오가 노리오 영상 신호 전송 장치 및 방법
US6441842B1 (en) * 1992-02-19 2002-08-27 8×8, Inc. Video compression/decompression processing and processors
US5598184A (en) * 1992-03-27 1997-01-28 Hewlett-Packard Company Method and apparatus for improved color recovery in a computer graphics system
US5754697A (en) * 1994-12-02 1998-05-19 Fu; Chi-Yung Selective document image data compression technique
JP3084175B2 (ja) 1993-06-18 2000-09-04 シャープ株式会社 画像圧縮装置
JPH07162689A (ja) 1993-12-09 1995-06-23 Tec Corp 画像符号化装置
JPH07250326A (ja) 1994-03-10 1995-09-26 N T T Data Tsushin Kk 画像符号化方式
JPH08125868A (ja) 1994-10-19 1996-05-17 Canon Inc 画像処理装置及び方法
JPH08242376A (ja) 1995-03-03 1996-09-17 Canon Inc カラー画像伝送装置,画像処理装置,カラー画像伝送方法および画像処理方法
JPH08251420A (ja) 1995-03-14 1996-09-27 Fuji Xerox Co Ltd カラー画像処理装置
JPH0998414A (ja) 1995-10-02 1997-04-08 N T T Data Tsushin Kk 画像符号化・復号化方法及びシステム
US5737031A (en) * 1996-07-30 1998-04-07 Rt-Set System for producing a shadow of an object in a chroma key environment
GB2311184A (en) * 1996-03-13 1997-09-17 Innovision Plc Motion vector field error estimation
US6563946B2 (en) * 1996-05-07 2003-05-13 Canon Kabushiki Kaisha Image processing apparatus and method
US6042208A (en) * 1997-06-03 2000-03-28 Eastman Kodak Company Image producing apparatus for microfluidic printing
EP0920204B1 (en) * 1997-11-24 2006-02-15 STMicroelectronics S.r.l. MPEG-2 decoder with reduced RAM requisite by recompression using adaptive tree search vector quantization
US6366705B1 (en) * 1999-01-28 2002-04-02 Lucent Technologies Inc. Perceptual preprocessing techniques to reduce complexity of video coders
US6404814B1 (en) * 2000-04-28 2002-06-11 Hewlett-Packard Company Transcoding method and transcoder for transcoding a predictively-coded object-based picture signal to a predictively-coded block-based picture signal

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227512A (ja) * 1991-07-31 1993-09-03 Sony Corp 映像信号伝送装置
JPH05227510A (ja) * 1991-08-26 1993-09-03 Sony Corp 映像信号伝送装置
JPH07250327A (ja) * 1994-03-08 1995-09-26 Matsushita Electric Ind Co Ltd 画像符号化方法
JPH0955939A (ja) * 1995-08-10 1997-02-25 Graphics Commun Lab:Kk 動画像圧縮方法および装置
JPH10243261A (ja) * 1997-03-03 1998-09-11 Matsushita Electric Ind Co Ltd 映像信号符号化装置
EP0924933A1 (en) 1997-07-08 1999-06-23 Sony Corporation Video data encoder, video data encoding method, video data transmitter, and video data recording medium
JPH1155672A (ja) * 1997-08-05 1999-02-26 Mitsubishi Electric Corp 動画像符号化装置および動画像復号化装置および動画像符号化方法および動画像復号化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FU-HUEI LIN ET AL.: "PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING.", vol. 2, 23 October 1995, IEEE COMP. SOC. PRESS, article "An optimization of MPEG to maximize subjective quality", pages: 547 - 550
SATOSHI KONDO ET AL., A REAL-TIME VARIABLE BIT RATE MPEG2 VIDEO CODING METHOD FOR DIGITAL STORAGE MEDIA, vol. 43, no. 3, 1 August 1997 (1997-08-01), pages 537 - 543
See also references of EP1215909A4 *

Also Published As

Publication number Publication date
JP2001094990A (ja) 2001-04-06
TW535438B (en) 2003-06-01
EP1215909B1 (en) 2010-12-22
EP1215909A1 (en) 2002-06-19
US20060023793A1 (en) 2006-02-02
US7016420B1 (en) 2006-03-21
US7830966B2 (en) 2010-11-09
EP1215909A4 (en) 2009-06-10
DE60045419D1 (de) 2011-02-03
JP3701522B2 (ja) 2005-09-28
TW502539B (en) 2002-09-11

Similar Documents

Publication Publication Date Title
WO2001022734A1 (en) Image encoding device
JP5214742B2 (ja) 予測に基づく画像処理
JP4470485B2 (ja) 固定ビット長の予測差分圧縮データを生成する画像圧縮装置および画像圧縮プログラム、画像伸張装置および画像伸張プログラム、並びに電子カメラ
EP1005230A2 (en) Coding apparatus and method, decoding apparatus and method, data processing system, and storage medium
JP2008521292A (ja) デジタル画像のロスレス圧縮システムおよび方法
US20060015735A1 (en) Electronic watermarking method and storage medium for storing electronic watermarking program
JP4019790B2 (ja) 画像処理装置および画像処理プログラム
US20070064275A1 (en) Apparatus and method for compressing images
JP2002058031A (ja) 画像符号化方法及び装置、並びに、画像復号化方法及び装置
JP3717858B2 (ja) 画像符号化装置、画像符号化方法、プログラム、及びコンピュータ読み取り可能な記録媒体
JP2626521B2 (ja) 画像符号変換装置
JP4660698B2 (ja) 画像処理システムおよび画像処理プログラム
JP2806287B2 (ja) 画質評価装置
JP3970641B2 (ja) 画像符号化装置、画像復号化装置及びコンピュータ読み取り可能な記録媒体
JP5086777B2 (ja) 画像符号化装置及びその制御方法、コンピュータプログラム並びにコンピュータ可読記憶媒体
JP3822512B2 (ja) 画像データ圧縮装置、画像データ圧縮方法、記録媒体およびプログラム
JP4143535B2 (ja) 画像データ処理装置、画像データ処理方法、画像データ配信装置および画像データ伝送システム
JP3954032B2 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラムおよび画像符号化プログラムを記録したコンピュータ読取可能な記録媒体
JP4748805B2 (ja) 画像符号化装置及びその制御方法
JP3232160B2 (ja) 符号化装置及びその方法
JP3263218B2 (ja) 画情報データ圧縮再生装置
JP5597028B2 (ja) 画像復号装置及びその制御方法、並びにプログラム及びコンピュータ可読記憶媒体
JP4394558B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2004260415A (ja) 画像符号化方法および画像復号化方法
JPH07298060A (ja) 画像データ符号化方法及び装置ならびに画像データ復元方法及び装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2000961086

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10070957

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000961086

Country of ref document: EP