WO2005027041A1 - 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置 - Google Patents

視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置 Download PDF

Info

Publication number
WO2005027041A1
WO2005027041A1 PCT/JP2004/013601 JP2004013601W WO2005027041A1 WO 2005027041 A1 WO2005027041 A1 WO 2005027041A1 JP 2004013601 W JP2004013601 W JP 2004013601W WO 2005027041 A1 WO2005027041 A1 WO 2005027041A1
Authority
WO
WIPO (PCT)
Prior art keywords
gradation
image
processing
gradation conversion
visual processing
Prior art date
Application number
PCT/JP2004/013601
Other languages
English (en)
French (fr)
Inventor
Haruo Yamashita
Tatsumi Watanabe
Yusuke Monobe
Takeshi Ito
Akio Kojima
Yasuhiro Kuwahara
Toshiharu Kurosawa
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP04773245A priority Critical patent/EP1667064A4/en
Priority to US10/571,120 priority patent/US7783126B2/en
Priority to KR1020107029130A priority patent/KR101089394B1/ko
Publication of WO2005027041A1 publication Critical patent/WO2005027041A1/ja
Priority to US12/838,689 priority patent/US7945115B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/75
    • G06T5/94
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • H04N1/4074Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original using histograms

Definitions

  • the present invention relates to a visual processing device, and more particularly to a visual processing device that performs gradation processing of an image signal.
  • Another embodiment of the present invention relates to a visual processing method, a visual processing program, and a semiconductor device. (Background technology)
  • spatial processing and gradation processing are known.
  • Spatial processing is processing of a target pixel by using pixels around the target pixel to be processed.
  • techniques for performing contrast enhancement, dynamic range (DR) compression, and the like of an original image using spatially processed image signals are known.
  • contrast enhancement the difference between the original image and the blur signal (sharp component of the image) is added to the original image to sharpen the image.
  • DR compression a part of the blur signal is subtracted from the original image, and the dynamic range is compressed.
  • the gradation process is a process for converting a pixel value using a look-up table (LUT) or the like for each target pixel, irrespective of pixels surrounding the target pixel, and is sometimes called gamma correction.
  • LUT look-up table
  • pixel value conversion is performed using LUT that emphasizes the gradation of a gradation level having a high appearance frequency in the original image.
  • one LUT is determined and used for the entire original image (histogram equalization method), and the LUT is determined for each of the image areas obtained by dividing the original image into multiple parts.
  • Japanese Patent Application Laid-Open No. 2000-57373 page 3, FIG. 13 to FIG. 16 See).
  • Figure 33 shows the LUT determined for each of the image areas obtained by dividing the original image into multiple parts.
  • a visual processing device 300 to be used is shown.
  • the visual processing device 300 includes: an image dividing unit 301 that divides an original image input as an input signal IS into a plurality of image areas Sm (1 ⁇ m ⁇ n: n is the number of divisions of the original image); A gradation conversion curve deriving unit 310 that derives a gradation conversion curve Cm for the region Sm, and an output signal OS that loads the gradation conversion curve Cm and performs gradation processing for each image region Sm. And a gradation processing unit 304 for outputting.
  • the gradation conversion curve deriving unit 310 generates a brightness conversion histogram Cm for each image region Sm from the generated brightness histogram Hm, and a histogram generation unit 302 that generates a lightness histogram Hm in each image region Sm. And a gradation curve creation unit 303.
  • the image dividing unit 301 divides the original image input as the input signal IS into a plurality (n) of image areas (see FIG. 34 (a)).
  • the histogram creation unit 302 creates a brightness histogram Hm for each image area Sm (see FIG. 35).
  • Each brightness histogram Hm indicates the distribution of brightness values of all pixels in the image area Sm. That is, in the brightness histograms Hm shown in FIGS. 35A to 35D, the horizontal axis indicates the brightness level of the input signal IS, and the vertical axis indicates the number of pixels.
  • the gradation curve creation unit 303 accumulates the “number of pixels” of the lightness histogram Hm in order of lightness, and sets the accumulated curve as a gradation conversion curve Cm (see FIG. 36).
  • the horizontal axis represents the brightness value of the pixel in the image area Sm in the input signal IS
  • the vertical axis represents the brightness value of the pixel in the image area Sm in the output signal OS.
  • the gradation processing unit 304 loads the gradation conversion curve Cm, and converts the brightness value of the pixel of the image area Sm in the input signal IS based on the gradation conversion curve Cm. By doing so, the gradient of the frequently occurring gradation is set up in each block, and the sense of contrast for each block is improved.
  • the histogram creation unit 302 creates a gradation conversion curve Cm from the brightness histogram Hm of the pixels in the image area Sm.
  • a gradation conversion curve Cm to be applied to the image area Sm more appropriately, it is necessary to select from a dark part (shadow) to a light part (highlight) of the image. And it is necessary to refer to more pixels. For this reason, each image area S m cannot be made very small, that is, the number n of divisions of the original image cannot be made too large.
  • the number of divisions n varies depending on the image content, but empirically a number of divisions of 4 to 16 is used.
  • each image area S m cannot be made too small, the following problem may occur in the output signal OS after the gradation processing.
  • gradation processing is performed using one gradation conversion curve C m for each image area S m, the seam at the boundary of each image area S m becomes unnaturally noticeable, A pseudo contour may occur in the area S m.
  • the image area Sm is large when the number of divisions is at most 4 to 16, when there is an extremely different image between the image areas, the shading change between the image areas is large and the occurrence of false contours should be prevented. But it's difficult. For example, as shown in FIG. 34 (b) and FIG. 34 (c), the shading changes extremely depending on the positional relationship between the image (for example, an object in the image) and the image area Sm.
  • an object of the present invention is to provide a visual processing device that realizes a gradation process for further improving a visual effect.
  • the visual processing device is a visual processing device that performs gradation processing on an input image signal for each image region, and includes a gradation conversion characteristic deriving unit and a gradation processing unit.
  • the gradation conversion characteristic deriving means uses the peripheral image data of at least one peripheral image region, which is an image region located around the target image region to be subjected to the gradation processing and includes a plurality of pixels, to generate the target image.
  • the gradation conversion characteristics of the region are derived.
  • the gradation processing means performs gradation processing of the image signal of the target image area based on the derived gradation conversion characteristics.
  • the target image region is, for example, a pixel included in the image signal, an image block obtained by dividing the image signal into predetermined units, or an area configured by a plurality of pixels.
  • the peripheral image area is, for example, an area composed of an image block obtained by dividing an image signal into predetermined units and other plural pixels.
  • the peripheral image data is image data of the peripheral image area or data derived from the image data, and includes, for example, a pixel value of the peripheral image area, a gradation characteristic (brightness and brightness for each pixel), a thumbnail (a reduced image) Or thinned images with reduced resolution).
  • the surrounding image area is the target image It may be located around the area, and need not be an area surrounding the target image area.
  • the visual processing device of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using peripheral image data of the peripheral image area. Therefore, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further improves the visual effect.
  • a visual processing device is the visual processing device according to the first aspect, wherein the peripheral image region is an image block obtained by dividing an image signal into predetermined units.
  • the image blocks are respective areas obtained by dividing an image signal into rectangles.
  • the visual processing device of the present invention it is possible to process the peripheral image area in units of image blocks. For this reason, it is possible to reduce the processing load required for determining the peripheral image area and deriving the gradation conversion characteristics.
  • the visual processing device is the visual processing device according to claim 1 or 2, wherein the gradation conversion characteristic deriving unit further uses the target image data of the target image region, A gradation conversion characteristic is derived.
  • the target image data is image data of the target image area or data derived from the image data, and includes, for example, a pixel value of the target image area, a gradation characteristic (brightness or brightness for each pixel), a thumbnail (a reduced image or Thinned image with reduced resolution).
  • the visual processing device of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is performed not only using the target image data of the target image area but also the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing for further improving the visual effect.
  • the visual processing device is the visual processing device according to claim 3, wherein the gradation conversion characteristic deriving unit indicates a feature of the target image area using the target image data and the peripheral image data. It has a characteristic parameter deriving means for deriving a characteristic parameter which is a parameter, and a gradation conversion characteristic determining means for determining a gradation conversion characteristic based on the characteristic parameter of the target area derived by the characteristic parameter deriving means.
  • the characteristic parameters are, for example, the average of the target image data and the peripheral image data.
  • Average values simple average, weighted average, etc.
  • representative values maximum, minimum, median, etc.
  • histogram is, for example, a distribution of gradation characteristics of the target image data and the peripheral image data.
  • the visual processing device of the present invention derives feature parameters using peripheral image data as well as target image data. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing for further improving the visual effect. As a more specific effect, it is possible to suppress the generation of a false contour due to the gradation processing. In addition, it is possible to prevent the boundary of the target image region from being unnaturally conspicuous.
  • a visual processing device is the visual processing device according to the fourth aspect, wherein the feature parameter is a histogram.
  • the gradation conversion characteristic determining means determines, for example, a cumulative curve obtained by accumulating the values of the histograms as the gradation conversion characteristic, or selects a gradation conversion characteristic according to the histogram.
  • a histogram is created using not only target image data but also peripheral image data. For this reason, it is possible to suppress the occurrence of the false contour due to the gradation processing. In addition, it is possible to prevent the boundary of the target image region from being unnaturally conspicuous.
  • the visual processing device is the visual processing device according to claim 4, wherein the gradation conversion characteristic determining means selects a gradation conversion characteristic tabulated in advance using the characteristic parameter. It is characterized by the following.
  • the gradation conversion characteristics are tabulated data, and the table stores the characteristics of the target image data after the gradation processing for the target image data.
  • the gradation conversion characteristic determining means selects a table corresponding to each of the characteristic parameter values.
  • gradation processing is performed using the gradation conversion characteristics tabulated. Therefore, it is possible to speed up gradation processing.
  • one table is selected from a plurality of tables and gradation processing is performed, appropriate gradation processing can be performed.
  • the visual processing device according to claim 1 is the visual processing device according to claim 6, wherein the gradation conversion characteristics tabulated in advance can be changed.
  • the visual processing device of the present invention by changing the gradation conversion characteristics, it is possible to variously change the characteristics of the gradation processing without changing the hardware configuration.
  • the visual processing device is the visual processing device according to claim 7, wherein the change of the gradation conversion characteristic is realized by correcting at least a part of the gradation conversion characteristic.
  • the gradation conversion characteristic is changed by correcting at least a part of the gradation conversion characteristic. For this reason, it is possible to realize various gradation processes while reducing the storage capacity for gradation conversion characteristics.
  • the visual processing device is the visual processing device according to claim 4, wherein the gradation conversion characteristic determining means generates a gradation conversion characteristic by a predetermined operation using the characteristic parameter. It is characterized by the following.
  • the gradation conversion characteristic gives target image data after gradation processing on the target image data.
  • the calculation for generating the gradation conversion characteristics is determined in advance by using the characteristic parameters. More specifically, for example, an operation corresponding to each of the characteristic parameter values is selected, or an operation is generated according to the characteristic parameter value.
  • the visual processing device of the present invention it is not necessary to store the gradation conversion characteristics in advance, and it is possible to reduce the storage capacity for storing the gradation conversion characteristics.
  • a visual processing device is the visual processing device according to the ninth aspect, wherein the predetermined operation can be changed.
  • the visual processing device of the present invention it is possible to variously change the characteristics of the gradation processing by changing the calculation.
  • the visual processing device is the visual processing device according to claim 10, wherein the change of the operation is realized by correcting at least a part of the operation. .
  • the gradation conversion characteristic is changed by correcting at least a part of the calculation. For this reason, the storage capacity for storing the operations is not the same. However, it is possible to realize more various gradation processes.
  • the visual processing device is the visual processing device according to claim 4, wherein the gradation conversion characteristic is obtained by interpolating or extrapolating a plurality of gradation conversion characteristics. It is characterized by.
  • the gradation conversion characteristic is, for example, a characteristic of target image data after gradation processing on the target image data.
  • the gradation conversion characteristics are given in, for example, a table format or a calculation format.
  • the visual processing device of the present invention it is possible to perform gradation processing using new gradation conversion characteristics obtained by interpolating or extrapolating a plurality of gradation conversion characteristics. For this reason, even if the storage capacity for storing the gradation conversion characteristics is reduced, more various gradation processing can be realized.
  • a visual processing method is a visual processing method for performing gradation processing on an input image signal for each image area, comprising: a gradation conversion characteristic deriving step; and a gradation processing step.
  • the gradation conversion characteristic deriving step is performed by using the peripheral image data of at least one peripheral image region which is an image region located around the target image region to be subjected to the gradation processing and includes a plurality of pixels. Deriving the gradation conversion characteristics of the image area.
  • the gradation processing step performs gradation processing on the image signal of the target image area based on the derived gradation conversion characteristics.
  • the visual processing method of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using peripheral image data of the peripheral image area. Therefore, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further improves the visual effect.
  • a visual processing method according to claim 14 is the visual processing method according to claim 13, wherein the peripheral image area is an image block obtained by dividing an image signal into predetermined units. According to the visual processing method of the present invention, it is possible to perform processing on a peripheral image area image block basis. For this reason, it is possible to reduce the processing load required for determining the peripheral image area and deriving the gradation conversion characteristics.
  • a visual processing method is the visual processing method according to claim 13 or 14, wherein the gradation conversion characteristic deriving step includes converting the target image data of the target image region into Further, the gradation conversion characteristic of the target image area is derived.
  • the visual processing method of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using not only the target image data of the target image area but also the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing for further improving the visual effect. ,
  • the visual processing method according to claim 16 is the visual processing method according to claim 15, wherein the gradation conversion characteristic deriving step uses the target image data and the peripheral image data to characterize the target image area.
  • a characteristic parameter deriving step of deriving a characteristic parameter which is a parameter to be indicated, and a gradation conversion characteristic determining step of determining a gradation conversion characteristic based on the characteristic parameter of the target region derived in the characteristic parameter deriving step. are doing.
  • feature parameters are derived using not only target image data but also peripheral image data. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing for further improving the visual effect. As a more specific effect, it is possible to suppress the generation of a false contour due to the gradation processing. In addition, it is possible to prevent the boundary of the target image region from being unnaturally conspicuous.
  • a visual processing program is a visual processing program for performing a visual processing method of performing gradation processing on an input image signal for each image region using a computer.
  • the visual processing method includes a gradation conversion characteristic deriving step and a gradation processing step.
  • the gradation conversion characteristic deriving step is performed by using the peripheral image data of at least one peripheral image region which is an image region located around the target image region to be subjected to the gradation processing and includes a plurality of pixels. Deriving the gradation conversion characteristics of the image area.
  • the gradation processing step performs gradation processing on the image signal of the target image area based on the derived gradation conversion characteristics.
  • a visual processing program according to claim 18 is the visual processing program according to claim 17, wherein the peripheral image area is an image block obtained by dividing an image signal into predetermined units.
  • the visual processing program of the present invention it is possible to process the peripheral image area in image block units. For this reason, it becomes possible to reduce the processing load required for determining the peripheral image area and deriving the gradation conversion characteristics.
  • the visual processing program according to claim 19 is the visual processing program according to claim 17 or 18, wherein the gradation conversion characteristic deriving step further uses target image data of a target image region, A gradation conversion characteristic of the target image area is derived.
  • the determination is performed using not only the target image data of the target image area but also the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing that further improves the visual effect.
  • the visual processing program according to claim 20 is the visual processing program according to claim 19, wherein the gradation conversion characteristic deriving step is characterized by using the target image data and the peripheral image data to determine a characteristic of the target image area.
  • a characteristic parameter deriving step of deriving a characteristic parameter that is a parameter indicating the tone conversion characteristic, and a gradation conversion characteristic determining step of determining a gradation conversion characteristic based on the characteristic parameter of the target region derived in the characteristic parameter deriving step. are doing.
  • the visual processing program of the present invention derives feature parameters using peripheral image data as well as target image data. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing for further improving the visual effect. As a more specific effect, it is possible to suppress the occurrence of false contours due to gradation processing. In addition, it is possible to prevent the boundary of the target image region from being unnaturally conspicuous.
  • a semiconductor device is a semiconductor device that performs a gradation process on an input image signal for each image region, and includes a gradation conversion characteristic deriving unit and a gradation processing unit.
  • the gradation conversion characteristic deriving unit uses the peripheral image data of at least one peripheral image region, which is an image region located around the target image region to be subjected to the gradation processing and includes a plurality of pixels.
  • the gradation conversion characteristics of the target image area are derived.
  • the gradation processing unit performs gradation processing of the image signal of the target image area based on the derived gradation conversion characteristics.
  • the semiconductor device of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further enhances the visual effect.
  • the semiconductor device according to claim 22 is the semiconductor device according to claim 21, wherein the peripheral image area is an image block obtained by dividing an image signal into predetermined units.
  • the semiconductor device of the present invention it is possible to process the peripheral image area in image block units. For this reason, it is possible to reduce the processing load required for determining the peripheral image area and deriving the gradation conversion characteristics.
  • the gradation conversion characteristic deriving unit further uses target image data of the target image region to obtain the target image region. Is derived.
  • the semiconductor device of the present invention when judging the gradation conversion characteristic of the target image area, the judgment is made not only using the target image data of the target image area but also the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and it is possible to realize gradation processing for further improving the visual effect.
  • the semiconductor device is the semiconductor device according to claim 23, wherein the gradation conversion characteristic deriving unit uses the target image data and the peripheral image data to set a parameter indicating a feature of the target image area.
  • a characteristic parameter deriving unit that derives a characteristic parameter
  • a gradation conversion characteristic determining unit that determines a gradation conversion characteristic based on the characteristic parameter of the target region derived by the characteristic parameter deriving unit.
  • the characteristic parameters are derived using not only the target image data but also the peripheral image data. For this reason, it is possible to add a spatial processing effect to the gradation processing of the target image area, and realize gradation processing that further enhances the visual effect It is possible to do. As a more specific effect, it is possible to suppress the generation of a pseudo contour due to the gradation processing. In addition, it is possible to prevent the boundary of the target image region from being unnaturally conspicuous.
  • the visual processing device of the present invention it is possible to realize gradation processing for further improving the visual effect.
  • FIG. 1 is a block diagram (first embodiment) for explaining the structure of the visual processing device 1.
  • FIG. 2 is an explanatory diagram (first embodiment) for explaining the image area Pm.
  • FIG. 3 is an explanatory diagram (first embodiment) for explaining the brightness histogram Hm.
  • FIG. 4 is an explanatory diagram (first embodiment) for explaining the gradation conversion curve Cm.
  • FIG. 5 is a flowchart (first embodiment) for explaining the visual processing method.
  • FIG. 6 is a block diagram (second embodiment) for explaining the structure of the visual processing device 11.
  • FIG. 11 is an explanatory diagram (second embodiment) for explaining curve candidates G 1 to G p.
  • FIG. 8 is an explanatory diagram (second embodiment) for explaining the two-dimensional LUT 41.
  • FIG. 9 is an explanatory diagram (second embodiment) for explaining the operation of the gradation correction section 15.
  • FIG. 10 is a flowchart (second embodiment) for explaining the visual processing method.
  • FIG. 11 is an explanatory diagram (second embodiment) for describing a modification of the selection of the gradation conversion curve Cm.
  • FIG. 12 is an explanatory diagram (second embodiment) for describing a gradation process as a modification.
  • FIG. 13 is a block diagram (second embodiment) for explaining the structure of the gradation processing execution section 44.
  • FIG. 14 is an explanatory diagram (second embodiment) illustrating the relationship between the curve parameters PI and P2 and the gradation conversion curve candidates G1 to Gp.
  • FIG. 15 is an explanatory diagram (second embodiment) for explaining the relationship between the curve parameters P1 and P2 and the selection signal Sm.
  • FIG. 16 is an explanatory diagram (second embodiment) for explaining the relationship between the curve parameters P1 and P2 and the selection signal Sm.
  • FIG. 17 is an explanatory diagram (second embodiment) for explaining the relationship between the curve parameters P 1 and P 2 and the gradation conversion curve candidates G 1 to G p.
  • FIG. 18 is an explanatory diagram (second embodiment) for explaining the relationship between the curve parameters P1 and P2 and the selection signal Sm.
  • FIG. 19 is a block diagram (third embodiment) illustrating the structure of the visual processing device 21.
  • FIG. 20 is an explanatory diagram (third embodiment) for explaining the operation of the selection signal correction unit 24.
  • FIG. 21 is a flowchart (third embodiment) for explaining a visual processing method.
  • FIG. 22 is a block diagram (fourth embodiment) illustrating the structure of the visual processing device 61.
  • FIG. 23 is an explanatory diagram (fourth embodiment) illustrating the spatial processing of the spatial processing unit 62.
  • FIG. 24 is a table (fourth embodiment) for explaining the weight coefficient [W ij].
  • FIG. 25 is an explanatory diagram (fourth embodiment) illustrating the effect of visual processing by the visual processing device 61.
  • FIG. 26 is a block diagram (fourth embodiment) illustrating the structure of the visual processing device 961.
  • FIG. 27 is an explanatory diagram (fourth embodiment) for describing the spatial processing of the spatial processing unit 962.
  • FIG. 28 is a table (fourth embodiment) for explaining the weight coefficient [W ij].
  • Fig. 29 is a block diagram (No. 1) explaining the overall configuration of the content supply system. Sixth Embodiment)
  • FIG. 30 is an example (sixth embodiment) of a mobile phone equipped with the visual processing device of the present invention.
  • FIG. 31 is a block diagram (sixth embodiment) illustrating the configuration of a mobile phone.
  • FIG. 32 shows an example of a digital broadcasting system (sixth embodiment).
  • FIG. 33 is a block diagram (background art) for explaining the structure of the visual processing device 300.
  • FIG. 34 is an explanatory diagram (background art) for explaining the image area Sm.
  • FIG. 35 is an explanatory diagram (background art) for explaining the brightness histogram Hm.
  • FIG. 36 is an explanatory diagram (background art) for explaining the gradation conversion curve C m.
  • the visual processing device 1 is a device that performs a gradation process on an image by being built in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA.
  • the visual processing device 1 is characterized in that gradation processing is performed on each of image regions that are finely divided as compared with the related art.
  • FIG. 1 is a block diagram illustrating the structure of the visual processing device 1.
  • the visual processing device 1 includes: an image dividing unit 2 that divides an original image input as an input signal IS into a plurality of image areas P m (1 ⁇ m ⁇ n: n is the number of divisions of the original image); A gradation conversion curve deriving unit 10 for deriving a gradation conversion curve C m for P m, and an output signal OS loaded with the gradation conversion curve G m and subjected to gradation processing for each image area P m And a gradation processing unit 5 for outputting the same.
  • the gradation conversion curve deriving unit 10 includes a histogram creating unit 3 that creates a brightness histogram Hm of the pixels of the wide area image area Em composed of each image area Pm and the image area around the image area Pm. And a tone conversion curve C m for each image area P m is created from the created brightness histogram H m. And a tone curve creating section 4.
  • the image dividing unit 2 divides the original image input as the input signal IS into a plurality (n) of image areas Pm (see FIG. 2).
  • the number of divisions of the original image is greater than the number of divisions (for example, 4 to 16 divisions) of the conventional visual processing device 300 shown in FIG. 33. For example, 80 divisions in the horizontal direction and 60 divisions in the vertical direction 4800 split.
  • the histogram creating unit 3 creates a brightness histogram Hm of the wide image area Em for each image area Pm.
  • the wide area image area Em is a set of a plurality of image areas including each image area Pm.For example, 25 images of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm A set of regions. Note that depending on the position of the image area Pm, it may not be possible to take a wide image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pm. For example, with respect to the image area PI located around the original image, it is not possible to take a wide image area EI of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area PI.
  • the brightness histogram Hm created by the histogram creating unit 3 indicates the distribution of brightness values of all pixels in the wide-area image area Em. That is, in the brightness histograms Hm shown in FIGS. 3A to 3C, the horizontal axis represents the brightness level of the input signal IS, and the vertical axis represents the number of pixels.
  • the gradation curve creation unit 4 accumulates “the number of pixels j” in the lightness histogram Hm of the wide area image area Em in the order of lightness, and sets the accumulated curve as the gradation conversion curve Cm of the image area Pm (see FIG. 4).
  • the horizontal axis represents the brightness value of the pixel in the image area Pm in the input signal IS
  • the vertical axis represents the brightness value of the pixel in the image area Pm in the output signal OS.
  • the gradation processing unit 5 loads the gradation conversion curve Cm and converts the brightness value of the pixel of the image area Pm in the input signal IS based on the gradation conversion curve Cm.
  • FIG. 5 shows a flowchart illustrating a visual processing method in the visual processing device 1.
  • the visual processing method shown in FIG. 5 is realized by hardware in the visual processing device 1 and is a method for performing gradation processing of the input signal IS (see FIG. 1).
  • the input signal IS is processed in image units (steps SI0 to S16).
  • the original image input as the input signal IS is divided into a plurality of image areas Pm (1 ⁇ m ⁇ n: n is the number of divisions of the original image) (step SI 1), and gradation processing is performed for each image area Pm (Steps SI2 to S15).
  • a brightness histogram Hm of the pixels of the wide area image area Em composed of each image area P m and the image area around the image area P m is created (step S12). Further, a gradation conversion curve Cm for each image area Pm is created based on the brightness histogram Hm (step S13). Here, the description of the lightness histogram Hm and the gradation conversion curve Cm is omitted (see the section ⁇ Effect> above). Using the created gradation conversion curve Cm, gradation processing is performed on the pixels in the image area Pm (step S 1).
  • step S15 it is determined whether or not the processing for all the image areas Pm has been completed (step S15), and the processing of steps SI2 to S15 is performed on the original image until it is determined that the processing has been completed. Repeat several times. Thus, the processing for each image is completed (step S16).
  • Each step of the visual processing method shown in FIG. 5 may be realized as a visual processing program by a computer or the like.
  • the gradation conversion curve Cm is created for each image area Pm. Therefore, it is possible to perform appropriate gradation processing as compared with the case where the same gradation conversion is performed on the entire original image.
  • the gradation conversion curve Cm created for each image area Pm is created based on the brightness histogram Hm of the wide-area image area Em. Therefore, even if the size of each image area Pm is small, it is possible to sample a sufficient lightness value. As a result, it is necessary to create an appropriate gradation conversion curve Gm even for a small image area Pm. Becomes possible.
  • each image area Pm is smaller than before. For this reason, it is possible to suppress the occurrence of pseudo contours in the image area Pm.
  • the number of divisions of the original image was set to 480 as an example.
  • the effect of the present invention is not limited to this case, and similar effects can be obtained with other division numbers. Is possible. Note that there is a trade-off between the amount of gradation processing and the visual effect on the number of divisions. In other words, if the number of divisions is increased, the amount of gradation processing increases, but a better visual effect (for example, suppression of pseudo contours) can be obtained.
  • the number of image areas constituting the wide area image area is 25, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other numbers. It is possible to obtain.
  • the visual processing device 11 is a device that performs a gradation process on an image by being built in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA.
  • the visual processing device 11 is characterized in that a plurality of gradation conversion curves stored in advance as LUTs are switched and used. ⁇ Constitution>
  • FIG. 6 is a block diagram illustrating the structure of the visual processing device 11.
  • the visual processing device 11 includes an image dividing unit 12, a selection signal deriving unit 13, and a gradation processing unit 20.
  • the image division unit 12 receives the input signal IS as an input, and outputs an image area Pm (1 ⁇ m ⁇ n: n is the number of divisions of the original image) obtained by dividing the original image input as the input signal IS into a plurality of parts.
  • the selection signal deriving unit 13 outputs a selection signal Sm for selecting a gradation conversion curve Cm applied to the gradation processing of each image area Pm.
  • the gradation processing unit 20 includes a gradation processing execution unit 14 and a gradation correction unit 15.
  • the gradation processing execution unit 14 includes a plurality of gradation conversion curve candidates G 1 to G p (p is the number of candidates) as a two-dimensional LUT, receives the input signal IS and the selection signal Sm as inputs, and A gradation processing signal CS obtained by performing gradation processing on the pixels in the image area Pm is output.
  • the gradation correction section 15 receives the gradation processing signal CS as an input, and outputs an output signal OS in which the gradation of the gradation processing signal CS is corrected.
  • the gradation conversion curve candidates G1 to Gp will be described with reference to FIG.
  • the gradation conversion curve candidates G1 to Gp are curves that give the relationship between the brightness value of the pixel of the input signal IS and the brightness value of the pixel of the gradation processing signal CS.
  • the horizontal axis represents the brightness value of the pixel in the input signal IS
  • the vertical axis represents the brightness value of the pixel in the gradation processing signal CS.
  • the gradation conversion curve candidates G 1 to G p have a monotonically decreasing relationship with respect to the subscript, and the relationship of G 1 ⁇ G 2 ⁇ ' ⁇ ' ⁇ G p with respect to the brightness values of all input signal IS pixels Is satisfied.
  • the brightness value of the input signal IS is in the range of the value [0.0 to 1.0].
  • the gradation processing execution unit 14 has gradation conversion curve candidates G1 to Gp as a two-dimensional LUT. That is, the two-dimensional LUT provides a look-up that provides the brightness value of the pixel of the gradation processing signal CS with respect to the brightness value of the pixel of the input signal IS and the selection signal Sm for selecting the gradation conversion curve candidates G1 to Gp.
  • FIG. 8 shows an example of this two-dimensional LUT.
  • the two-dimensional LUT 41 shown in FIG. 8 is a matrix with 64 rows and 64 columns, in which the gradation conversion curve candidates G1 to G64 are arranged in the row direction (horizontal direction).
  • the column direction (vertical direction) of the matrix for example, the value of the upper 6 bits of the pixel value of the input signal IS represented by 10 bits, that is, the gradation processing signal for the value of the input signal IS divided into 64 steps
  • the pixel values of CS are arranged.
  • the pixel value of the gradation processing signal CS has, for example, a value in the range of [0.0 to 1.0] when the gradation conversion curve candidates G “! To G are“ power functions ”.
  • the image dividing unit 12 operates in substantially the same manner as the image dividing unit 2 in FIG. 1, and divides the original image input as the input signal IS into a plurality (n) of image areas Pm (see FIG. 2).
  • the number of divisions of the original image is larger than the number of divisions (for example, 4 to 16 divisions) of the conventional visual processing device 300 shown in FIG. 33, for example, 80 divisions in the horizontal direction and 60 divisions in the vertical direction. 4800 split.
  • the selection signal deriving unit 13 selects a gradation conversion curve Cm applied to each image area Pm from the gradation conversion curve candidates G1 to Gp. Specifically, the selection signal deriving unit 13 calculates the average brightness value of the wide area image area Em of the image area Pm, and calculates the gradation conversion curve candidates G1 to Gp according to the calculated average brightness value. Make one of the choices. That is, the gradation conversion curve candidates G1 to Gp are associated with the average brightness value of the wide area image area Em, and as the average brightness value increases, the gradation conversion curve candidates G1 to Gp with larger subscripts are selected. .
  • the wide area image area Em is the same as that described in the first embodiment with reference to FIG. That is, the wide-area image area Em is a set of a plurality of image areas including the respective image areas Pm. It is a set of 25 image areas consisting of 5 blocks and 5 blocks in the horizontal direction. Note that, depending on the position of the image area Pm, it may not be possible to have a wide image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pm. For example, with respect to the image area PI located around the original image, a wide image area EI of 5 blocks vertically and 5 blocks horizontally cannot be taken around the image area PI. In this case, the area where the original image is overlapped with the area of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area PI is adopted as the wide area image area EI.
  • the selection result of the selection signal deriving unit 13 is output as a selection signal Sm indicating one of the gradation conversion curve candidates G1 to Gp. More specifically, the selection signal Sm is output as the value of the subscript (1 to p) of the gradation conversion curve candidates G1 to Gp.
  • the gradation processing execution unit 14 receives the brightness values of the pixels in the image area Pm included in the input signal IS and the selection signal Sm as inputs, and, for example, uses the two-dimensional LUT 41 shown in FIG. Outputs the brightness value of CS.
  • the tone correction unit 15 converts the brightness value of the pixel in the image area Pm included in the tone processing signal CS into the pixel position and the tone conversion selected for the image area Pm and the image area around the image area Pm. Correct based on the curve. For example, the gradation conversion curve Cm applied to the pixels included in the image area Pm and the gradation conversion curve selected for the image area around the image area Pm are corrected by the internal division ratio of the pixel position, and the corrected The brightness value of the pixel is determined. The operation of the gradation correction unit 15 will be described in more detail with reference to FIG. FIG.
  • FIG. 9 shows a gradation conversion curve C o, G p, of the image area Po, P p, P q, P r (o, p, q, r are positive integers equal to or less than the number of divisions n (see FIG. 2)).
  • Cq and Cr are selected as the gradation conversion curve candidates G s, G t, Gu, and G v (where s, t, u, and v are positive integers equal to or less than the number of gradation conversion curve candidates p). I have.
  • the position of the pixel X (assumed to be the lightness value [X]) of the image area P o to be subjected to the gradation correction is represented by [i: 1—i between the center of the image area Po and the center of the image area P p.
  • the center of the image area Po and the center of the image area P q are internally divided into [j: 1-j].
  • [Gs], [Gt], [Gu], and [Gv] are the lightness values when the gradation conversion curve candidates Gs, Gt, Gu, and Gv are applied to the lightness value [x]. Let it be a value.
  • FIG. 10 is a flowchart illustrating a visual processing method in the visual processing device 11.
  • the visual processing method shown in FIG. 10 is a method that is realized by hardware in the visual processing device 11 and performs gradation processing of the input signal I S (see FIG. 6).
  • the input signal I S is processed in image units (steps S20-S26).
  • the original image input as the input signal IS is divided into a plurality of image areas P m (1 ⁇ m ⁇ n: ⁇ is the number of divisions of the original image) (step S21), and gradation processing is performed for each image area Pm. (Steps S22 to S24).
  • the gradation conversion curve Cm applied to each image region Pm is selected from the gradation conversion curve candidates G1 to Gp (step S22). Specifically, the average brightness value of the wide area image area Em of the image area Pm is calculated, and one of the gradation conversion curve candidates G 1 to G p is selected according to the calculated average brightness value.
  • the gradation conversion curve candidates G 1 to Gp are associated with the average brightness value of the wide-area image area Em, and as the average brightness value increases, the gradation conversion curve candidates G 1 to Gp with larger subscripts are selected. You. Here, the description of the wide-area image area Em is omitted (see the section ⁇ Action> above).
  • the brightness value of the gradation processing signal CS is output using the two-dimensional LUT 41 shown in FIG. 8 (step S23). Further, it is determined whether or not the processing has been completed for all the image areas Pm (step S24), and the processing of steps S22 to S24 is repeated several times until the processing is determined to be completed. repeat. As described above, the processing for each image area is completed.
  • the brightness value of the pixel in the image area Pm included in the gradation processing signal CS is based on the pixel position and the gradation conversion curve selected for the image area Pm and the image area around the image area Pm. Is corrected (step S25). For example, the pixels included in the image area Pm The applied gradation conversion curve Cm and the gradation conversion curve selected for the image area around the image area Pm are corrected by the internal division ratio of the pixel position, and the brightness value of the corrected pixel is obtained. . The description of the details of the correction is omitted (see the above-mentioned ⁇ action> column, FIG. 9).
  • Each step of the visual processing method shown in FIG. 10 may be realized as a visual processing program by a computer or the like.
  • the gradation conversion curve Cm selected for each image area Pm is created based on the average brightness value of the wide area image area Em. For this reason, even if the size of the image area Pm is small, it is possible to sample sufficient brightness values. As a result, an appropriate gradation conversion curve Cm can be selected and applied to a small image area Pm.
  • the gradation processing execution unit 14 has a two-dimensional LUT created in advance. Therefore, it is possible to reduce the processing load required for the gradation processing, more specifically, the processing load required for creating the gradation conversion curve Cm. As a result, it is possible to speed up the processing required for the gradation processing of the image area Pm.
  • the gradation processing execution unit 14 executes gradation processing using a two-dimensional LUT.
  • the two-dimensional LUT is read from a storage device such as a hard disk or a ROM included in the visual processing device 11 and used for gradation processing.
  • a storage device such as a hard disk or a ROM included in the visual processing device 11
  • gradation processing By changing the contents of the two-dimensional LUT to be read, various gradation processing can be realized without changing the hardware configuration. That is, it is possible to realize gradation processing more suitable for the characteristics of the original image.
  • the gradation correction unit 15 corrects the gradation of the pixels in the image area Pm that has been subjected to the gradation processing using one gradation conversion curve Cm. Therefore, it is possible to obtain an output signal OS that has been subjected to more appropriate gradation processing. For example, it is possible to suppress the occurrence of a false contour. Further, in the output signal OS, it is possible to further prevent the joints at the boundaries of the respective image areas P m from being unnaturally conspicuous.
  • the number of divisions of the original image was set to 480 as an example.
  • the effect of the present invention is not limited to this case, and similar effects can be obtained with other division numbers. Is possible.
  • the number of image areas constituting the wide area image area is 25, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other numbers. It is possible to obtain.
  • the two-dimensional LUT 41 composed of a matrix of 64 rows and 64 columns is an example of the two-dimensional LUT.
  • the effect of the present invention is not limited to a two-dimensional LU of this size.
  • a matrix in which more tone conversion curve candidates are arranged in the row direction may be used.
  • the pixel values of the gradation processing signal CS for the values obtained by dividing the pixel values of the input signal IS into smaller steps may be arranged in the column direction of the matrix.
  • a pixel value of the gradation processing signal CS may be arranged for each pixel value of the input signal IS represented by 10 bits.
  • the size of the two-dimensional LUT increases, more appropriate gradation processing can be performed. If the size is reduced, it is possible to reduce the memory for storing the two-dimensional LUT, etc. (4)
  • the gradation processing signal CS may be output as a matrix component linearly interpolated by the gradation processing execution unit 14 with the lower 4 bits of the pixel value of the input signal IS. .
  • the components of the matrix corresponding to the upper 6 bits of the pixel value of the input signal IS represented by 10 bits are arranged, and the upper 6 bits of the pixel value of the input signal IS are arranged.
  • the matrix component for the value of the input signal IS and the component of the matrix for the value obtained by adding [1] to the value of the upper 6 bits of the pixel value of the input signal IS (for example, the component one row below in Fig. 8) Linear interpolation is performed using the lower 4 bits of the pixel value of the input signal IS and output as the gradation processing signal CS.
  • the gradation conversion curve Cm to be applied to the image area Pm is selected based on the average brightness value of the wide area image area Em.
  • the method of selecting the gradation conversion curve Cm is not limited to this method.
  • the gradation conversion curve Cm to be applied to the image area Pm may be selected based on the maximum lightness value or the minimum lightness value of the wide area image area Em.
  • the value [Sm] of the selection signal Sm may be the average brightness value, the maximum brightness value, or the minimum brightness value of the wide area image area Em.
  • the gradation conversion curve candidates G1 to G64 are associated with the values obtained by dividing the possible values of the selection signal Sm into 64 steps.
  • a gradation conversion curve Gm applied to the image area Pm may be selected as follows. That is, an average brightness value is obtained for each image region Pm, and a provisional selection signal S m ′ for each image region Pm is obtained from each average brightness value. Ask for.
  • the provisional selection signal Sm ' has a value of a subscript number of the gradation conversion curve candidate G1 to Gp.
  • the value of the provisional selection signal Sm ' is averaged to obtain the value [Sm] of the selection signal Sm of the image area Pm, and the gradation conversion curve candidate G "!
  • the candidate whose subscript is the integer closest to the value [Sm] of Gp is selected as the gradation conversion curve Cm.
  • the gradation conversion curve Cm to be applied to the image area Pm is selected based on the average brightness value of the wide area image area Em.
  • the gradation conversion curve Cm applied to the image area Pm may be selected based on a weighted average (weighted average) instead of the simple average of the wide area image area Em.
  • weighted average weighted average
  • the average brightness value of each image region constituting the wide image region Em is obtained, and the image regions P s1 and P s P having average brightness values that are significantly different from the average brightness value of the image region are obtained.
  • the weight is reduced or excluded, and the average brightness value of the wide image area Em is calculated.
  • the image area Pm is applied to the image area Pm.
  • the effect of the brightness value of the specific area on the selection of the gradation conversion curve Cm is reduced, and more appropriate gradation processing is performed.
  • the existence of the gradation correction section 15 may be optional. That is, even when the gradation processing signal CS is output, the same effect as described in ⁇ Effect> of [First Embodiment] is obtained, compared to the conventional visual processing device 300 (see FIG. 33). Effects, and ⁇ Effects> of [Second Embodiment] The same effects as those described in (1) and (2) can be obtained.
  • the gradation conversion curve candidates G1 to Gp are in a relationship of monotonously decreasing with respect to the subscript, and G1 ⁇ G2 ⁇ '' - ⁇ Gp with respect to the brightness values of the pixels of all the input signals IS. He explained that the relationship was satisfied.
  • the floor of the 2D LUT The tonal conversion curve candidates G 1 to Gp do not have to satisfy the relationship of G 1 ⁇ G2 ⁇ 1 ⁇ ⁇ Gp with respect to a part of the brightness values of the pixels of the input signal IS. That is, any of the gradation conversion curve candidates G1 to Gp may intersect each other.
  • the input signal IS value is large, but the average brightness value of the wide image area Em is small.
  • the effect of the image signal value on the image quality is small.
  • the gradation conversion curve candidates G "! To Gp included in the two-dimensional LUT are expressed as G 1 ⁇ G2 ⁇ '' ⁇ Gp with respect to a part of the brightness value of the pixel of the input signal IS.
  • the value stored in the two-dimensional LUT may be arbitrary where the value after gradation processing has little effect on image quality.
  • the values stored for the input signal IS and the selection signal Sm with the same value are the same as the values of the input signal IS and the selection signal Sm. It is desirable to maintain a monotonically increasing or monotonically decreasing relationship.
  • the gradation conversion curve candidates G1 to Gp included in the two-dimensional LUT are described as “power functions”.
  • the gradation conversion curve candidates G 1 to Gp do not have to be strictly formulated as “power functions”.
  • the function may have a shape such as an S-shape or an inverted S-shape.
  • the visual processing device 11 may further include a profile data creation unit that creates profile data that is a value stored in the two-dimensional LUT.
  • the profile data creation unit is composed of an image division unit 2 and a gradation conversion curve derivation unit 10 in the visual processing device 1 (see FIG. 1). Is stored in the 2D LUT as profile data.
  • each of the gradation conversion curves stored in the two-dimensional LUT may be associated with the spatially processed input signal IS.
  • the image dividing unit 12 and the selection signal deriving unit 13 may be replaced with a spatial processing unit that spatially processes the input signal IS.
  • the brightness value of the pixel of the input signal IS does not have to be a value in the range of [0.0 to 1.0].
  • the value in that range may be normalized to a value [0.0 to 1.0].
  • Each of the gradation conversion curve candidates G "! To Gp performs gradation processing on an input signal IS having a wider dynamic range than a normal dynamic range, and outputs a gradation processing signal GS having a normal dynamic range. It may be a tone conversion curve.
  • the input signal IS has a dynamic range wider than the normal dynamic range (for example, a signal in the range of [0.0-1. It has been demanded.
  • the gradation processing signal CS of the value [0.0 to 1.0] is applied. Use a tone conversion curve to output.
  • the pixel value of the gradation processing signal CS may be in the range of the value [0.0 to 1.0] when the gradation conversion curve candidates G 1 to Gp are “power functions”. Has the value of ".
  • the pixel value of the gradation processing signal CS is not limited to this range.
  • the gradation conversion curve candidates G "! To Gp for the input signal I S having the value [0.0 to 1.0] may perform dynamic range compression.
  • the gradation processing execution unit 14 has the gradation conversion curve candidates G1 to Gp as a two-dimensional LUT. It has been described as J.
  • FIG. 13 is a block diagram illustrating the structure of a gradation processing execution unit 44 as a modification of the gradation processing execution unit 14.
  • the gradation processing execution unit 44 receives the input signal IS and the selection signal Sm as inputs, and outputs a gradation processing signal CS, which is the input signal IS subjected to gradation processing.
  • the gradation processing execution unit 44 includes a curve parameter output unit 45 and a calculation unit 48.
  • the curve parameter output unit 45 includes a first LUT 46 and a second LUT 47.
  • the first 1___________________ 46 and the 21st_____________________ input the selection signal Sm as input, and respectively select the curve parameters P 1 and P 2 of the gradation conversion curve candidate Gm specified by the selection signal Sm. Output.
  • the operation unit 48 receives the curve parameters P1 and P2, the input signal IS, and outputs the gradation processing signal CS.
  • the eleventh eleventh to eleventh eleventh eleventh 47 are one-dimensional LUTs storing the values of the curve parameters P1 and P2 for the selection signal Sm, respectively.
  • FIG. 14 shows gradation conversion curve candidates G 1 to Gp.
  • the gradation conversion curve candidates G1 to Gp have a monotonically decreasing relationship with respect to the suffix, and satisfy the relationship of G1 ⁇ G2 ⁇ '' ⁇ Gp with respect to the brightness values of all input signal IS pixels. ing.
  • the relationship between the above-mentioned gradation conversion curve candidates G1 to Gp is as follows: for a gradation conversion curve candidate with a large subscript, when the input signal IS is small, or for a gradation conversion curve candidate with a small subscript, When the input signal IS is large, it does not have to be established in the case where the input signal IS is large.
  • the curve parameters P1 and P2 are output as the value of the gradation processing signal CS for a predetermined value of the input signal IS. That is, the gradation conversion curve is selected by the selection signal Sm.
  • the value of the curve parameter P1 is output as the value [Rim] of the gradation conversion curve candidate Gm for the predetermined value [XI] of the input signal IS
  • the value of the curve parameter P2 is Is output as the value [R2m] of the gradation conversion curve candidate Gm for the predetermined value [X2] of the input signal IS.
  • the value [X2] is larger than the value [X1].
  • the first LUT 46 and the second LUT 47 store the values of the curve parameters P1 and P2 for the selection signal Sm, respectively. More specifically, for example, for each selection signal Sm given as a 6-bit signal, the values of the curve parameters P1 and P2 are given in 6 bits, respectively.
  • the number of bits secured for the selection signal Sm and the curve parameters P1 and P2 is not limited to this.
  • FIG. 15 shows the change in the values of the curve parameters P1 and P2 with respect to the selection signal Sm.
  • the first LUT 46 and the second LUT 47 store the values of the curve parameters P1 and P2 for the respective selection signals Sm.
  • the value [R 1 m] is stored as the value of the curve parameter P1 for the selection signal Sm
  • the value [R2m] is stored as the value of the curve parameter P2.
  • the curve parameters P 1 and P 2 are output in response to the input selection signal Sm in the above-mentioned first 1_th and second 46th steps.
  • the arithmetic unit 48 derives a gradation processing signal CS for the input signal IS based on the acquired curve parameters P1 and P2 (value [Rim] and value [R2m]). The specific procedure is described below. Here, it is assumed that the value of the input signal IS is given in the range of the value [0.0 to 1.0].
  • the gradation conversion curve candidates G1 to Gp are used to convert the input signal IS given in the range of [0.0 to 1.0] into the range of value [0.0 to 1.0]. And The present invention can be applied to a case where the input signal Is is not limited to this range.
  • the arithmetic unit 48 compares the value of the input signal IS with predetermined values [X 1] and [X 2].
  • the operation unit 48 derives the gradation processing signal CS for the input signal IS.
  • the above-described processing may be executed by a computer or the like as a gradation processing program.
  • the gradation processing program is a program for causing a computer to execute the gradation processing method described below.
  • the gradation processing method is a method of obtaining the input signal IS and the selection signal Sm and outputting the gradation processing signal CS, and is characterized in that the input signal IS is gradation processed using a one-dimensional LUT. are doing.
  • the first LUT 46 and the second LUT 47 output the curve parameters P 1 and P 2.
  • Detailed descriptions of the first LUT 46, the second LUT 47, and the curve parameters P1 and P2 are omitted.
  • gradation processing of the input signal IS is performed based on the curve parameters P1 and P2. The detailed contents of the gradation processing have been described in the description of the calculation unit 48, and thus the description thereof is omitted.
  • the gradation processing signal CS with respect to the input signal IS is derived.
  • the gradation processing execution unit 44 as a modification of the gradation processing execution unit 14 has two one-dimensional LUTs instead of two-dimensional LUTs. For this reason, the storage capacity for storing the lookup table can be reduced.
  • the values of the curve parameters P1 and P2 are the values of the gradation conversion curve candidate Gm with respect to the predetermined value of the input signal" S.
  • the curve parameters P 1 and P 2 may be other curve parameters of the tone conversion curve candidate Gm.
  • the curve parameter may be the gradient of the gradation conversion curve candidate Gm. This will be specifically described with reference to FIG.
  • the value of the curve parameter P1 is determined by the slope of the gradation conversion curve candidate Gm in the predetermined range [0.0 to X1] of the input signal IS.
  • the value of the curve parameter P2 is the value [K2m] of the gradient of the gradation conversion curve candidate Gm in the predetermined range [X "!-X2] of the input signal IS.
  • FIG. 16 shows the change in the values of the curve parameters P1 and P2 with respect to the selection signal Sm.
  • the values of the curve parameters P1 and P2 with respect to the respective selection signals Sm are stored in the first and second selection lines 46 and 21_47.
  • the value [K1m] is stored as the value of the curve parameter P1 for the selection signal Sm
  • the value [K2m] is stored as the value of the curve parameter P2.
  • the curve parameters P1 and P2 are output in the first to eleventh steps 46 to 21_11 to 47.
  • the arithmetic unit 48 derives a gradation processing signal CS for the input signal IS based on the acquired curve parameters P1 and P2. The specific procedure is described below. First, the arithmetic unit 48 compares the value of the input signal I S with predetermined values [X I] and [X 2]. ⁇
  • the value of the input signal IS is not less than [XI] and less than [X2]
  • the coordinates ([X1], [Y1]) and coordinates ([X2], [K1m] * [X 1] + [K2m] * ([X2]-[XI]) (hereinafter referred to as [Y2]))
  • the operation unit 48 derives the gradation processing signal CS for the input signal IS.
  • the curve parameter may be a coordinate on the gradation conversion curve candidate Gm. This will be described specifically with reference to FIG.
  • the value of the curve parameter P1 is the value [Mm] of one of the coordinates on the gradation conversion curve candidate Gm
  • the curve parameter P2 Is on the gradation conversion curve candidate Gm
  • the gradation conversion curve candidates G 1 to G p are all curves passing through the coordinates (X 1, Y 1).
  • FIG. 18 shows the change in the values of the curve parameters P1 and P2 with respect to the selection signal Sm.
  • the values of the curve parameters P1 and P2 with respect to the respective selection signals Sm are stored in the first selection section 46 and the 21_11 section 47.
  • the value [Mm] is stored as the value of the curve parameter P1 for the selection signal Sm
  • the value [Nm] is stored as the value of the curve parameter P2.
  • the curve parameters P1 and P2 are output to the channels 21_11 and 47.
  • the arithmetic unit 48 derives the gradation processing signal CS from the input signal IS by the same processing as in the modification described with reference to FIG. Detailed explanation is omitted.
  • curve parameters P 1 and P 2 may be other curve parameters of the tone conversion curve candidate Gm.
  • the number of curve parameters is not limited to the above. There may be fewer or more.
  • the calculation unit 48 the calculation in the case where the gradation conversion curve candidates G 1 to G p are curves composed of straight line segments has been described.
  • the coordinates on the gradation conversion curve candidates G1 to Gp are given as curve parameters, a smooth curve passing through the given coordinates is created (curve fitting), and the created curve is created.
  • the gradation conversion processing may be performed using a curve.
  • the curve parameter output unit 45 includes the first LUT 46 and the second LUT 47.
  • the curve parameter output unit 45 may not include the LUT that stores the values of the curve parameters P1 and P2 with respect to the value of the selection signal Sm.
  • the curve parameter output unit 45 outputs the values of the curve parameters P 1 and P 2 Is calculated. More specifically, the curve parameter output unit 45 stores parameters representing the graphs of the curve parameters P1 and P2 shown in FIGS. 15, 16, and 18. The curve parameter output unit 45 specifies a graph of the curve parameters P1 and P2 from the stored parameters. Further, the values of the curve parameters P1 and P2 with respect to the selection signal Sm are output using the graphs of the curve parameters P1 and P2. ,
  • the parameters for specifying the graph of the curve parameters P 1 and P 2 are the coordinates on the graph, the slope of the graph, the curvature, and the like.
  • the curve parameter output unit 45 stores the coordinates of two points on the graph of the curve parameters P 1 and P 2 shown in FIG. 15, and draws a straight line connecting the coordinates of these two points. , Used as a graph of curve parameters P1 and P2.
  • the visual processing device 21 is a device that performs gradation processing of an image by being built in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA.
  • the visual processing device 21 is characterized in that a plurality of gradation conversion curves stored in advance as LUT are switched and used for each pixel to be subjected to gradation processing.
  • FIG. 19 is a block diagram illustrating the structure of the visual processing device 21.
  • the visual processing device 21 includes an image dividing unit 22, a selection signal deriving unit 23, and a gradation processing unit 30.
  • the image division unit 22 receives the input signal IS as an input, and outputs an image area P m (1 ⁇ m ⁇ n: n is the number of divisions of the original image) obtained by dividing the original image input as the input signal IS into a plurality of parts. I do.
  • the selection signal deriving unit 23 calculates the gradation for each image area Pm. Outputs the selection signal Sm for selecting the conversion curve Cm.
  • the gradation processing unit 30 includes a selection signal correction unit 24 and a gradation processing execution unit 25.
  • the selection signal correction unit 24 receives the selection signal Sm as an input, and outputs a selection signal SS for each pixel which is a signal obtained by correcting the selection signal Sm for each image area Pm.
  • the gradation processing execution unit 25 is provided with a plurality of gradation conversion curve candidates G1 to Gp (p is the number of candidates) as a two-dimensional LUT, and receives an input signal IS and a selection signal SS for each pixel as inputs. An output signal OS that has been subjected to gradation processing for the pixel is output.
  • the gradation conversion curve candidates G1 to Gp are almost the same as those described in the second embodiment with reference to FIG. 7, and thus description thereof is omitted here.
  • the gradation conversion curve candidates G "! To Gp are curves that give the relationship between the brightness value of the pixel of the input signal IS and the brightness value of the pixel of the output signal OS.
  • the gradation processing execution unit 25 has gradation conversion curve candidates G 1 to Gp as a two-dimensional LUT.
  • the two-dimensional LUT has the brightness value of the pixel of the input signal IS and the gradation conversion curve candidate!
  • This is a look-up table (LUT) that gives the brightness value of the pixel of the output signal OS to the selection signal SS for selecting Gp. Since a specific example is almost the same as that described in the second embodiment with reference to FIG. 8, the description is omitted here.
  • the pixel values of the output signal OS corresponding to the upper 6 bits of the pixel value of the input signal IS represented by, for example, 10 bits are arranged in the column direction of the matrix.
  • the image dividing unit 22 operates in substantially the same manner as the image dividing unit 2 in FIG. 1, and divides the original image input as the input signal IS into a plurality (n) of image areas Pm (see FIG. 2).
  • the number of divisions of the original image is larger than the number of divisions (for example, 4 to 16 divisions) of the conventional visual processing device 300 shown in FIG. 33, for example, 80 divisions in the horizontal direction and 60 divisions in the vertical direction. 4800 split.
  • the selection signal deriving unit 23 selects a gradation conversion curve Cm for each image area Pm from the gradation conversion curve candidates G 1 to Gp. Specifically, the selection signal deriving unit 23 calculates the average brightness value of the wide area image area Em of the image area Pm, and calculates the calculated average value. One of the gradation conversion curve candidates G 1 to Gp is selected according to the lightness value. That is, the gradation conversion curve candidates G1 to Gp are associated with the average lightness value of the wide area image area Em. As the average lightness value increases, the gradation conversion curve candidates G1 to Gp having larger subscripts are selected. Is done.
  • the wide area image area Em is the same as that described in the first embodiment with reference to FIG. That is, the wide-area image area Em is a set of a plurality of image areas including the respective image areas Pm.For example, a set of 25 image areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm It is. Note that, depending on the position of the image area Pm, it may not be possible to have a wide image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pm. For example, with respect to the image area PI located around the original image, it is not possible to take a wide image area EI of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area PI. In this case, a region where the original image is overlapped with the region of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image region P I is adopted as the wide-area image region E I.
  • the selection result of the selection signal deriving unit 23 is output as a selection signal Sm indicating one of the gradation conversion curve candidates G 1 to Gp. More specifically, the selection signal Sm is output as the value of the subscript (1 to p) of the gradation conversion curve candidates G1 to Gp.
  • the selection signal correction unit 24 performs correction using each selection signal Sm output for each image area Pm, and performs pixel-by-pixel selection for selecting a gradation conversion curve for each pixel constituting the input signal IS. Outputs selection signal SS.
  • the selection signal SS for the pixels included in the image area Pm is obtained by correcting the value of the selection signal output for the image area Pm and the image area around the image area Pm with the internal ratio of the pixel position. It is
  • FIG. 20 shows the selection signals S o, S p for the image regions P o, P p, P q, P r (where o, p, q, r are positive integers less than or equal to the number of divisions n (see FIG. 2) , Sq, and Sr are output.
  • the position of the pixel X to be subjected to the gradation correction is divided into [i: 1 ⁇ ] with the center of the image area Po and the center of the image area Pp, and the center of the image area ⁇ And image area Let the center of the area Pq be a position that internally divides into [j: 1-j].
  • [S o], [S p], [S q], and [S r] are the values of the selection signals S o, S p, S q, and S r.
  • the gradation processing execution unit 25 receives the brightness value of the pixel included in the input signal IS and the selection signal SS as inputs, and outputs the brightness value of the output signal OS using, for example, the two-dimensional LUT 41 shown in FIG.
  • the value [SS] of the selection signal SS is not equal to the subscript (1 to p) of the gradation conversion curve candidates G1 to Gp included in the two-dimensional LUT 41, the integer closest to the value [SS]
  • the gradation conversion curve candidates G 1 to Gp with suffixes are used for the gradation processing of the input signal IS.
  • FIG. 21 is a flowchart illustrating a visual processing method in the visual processing device 21.
  • the visual processing method shown in FIG. 21 is a method that is realized by hardware in the visual processing device 21 and performs gradation processing of the input signal I S (see FIG. 19).
  • the input signal IS is processed in image units (steps S30 to S37).
  • the original image input as the input signal IS is divided into a plurality of image areas Pm (1 ⁇ m ⁇ n: n is the number of divisions of the original image) (step S31), and a gradation conversion curve Cm is obtained for each image area Pm.
  • step S32 to S33 the gradation conversion curve is selected for each pixel of the original image, and the pixel unit is selected. Is performed (steps S34 to S36).
  • a gradation conversion curve Cm is selected from gradation conversion curve candidates G1 to GP (step S32). Specifically, the average brightness value of the wide-area image region Em of the image region Pm is calculated, and any one of the gradation conversion curve candidates G1 to Gp is selected according to the calculated average brightness value.
  • the gradation conversion curve candidates G "! To Gp are associated with the average brightness value of the wide-area image area Em, and the average brightness value increases. , The gradation conversion curve candidates G1 to Gp having larger suffixes are selected.
  • the description of the wide-area image area Em will be omitted (see the section ⁇ Action> above).
  • the selection result is output as a selection signal Sm indicating any of the gradation conversion curve candidates G1 to Gp. More specifically, the selection signal Sm is output as the value of the subscript (1 to P) of the gradation conversion curve candidates G1 to Gp. Further, it is determined whether or not the processing for all image areas Pm has been completed (step S33), and the processing of steps S32 to S33 is repeated several times until the processing is determined to be completed. repeat. As described above, the processing for each image area is completed.
  • the correction using the selection signal Sm output for each image area Pm outputs the selection signal SS for each pixel for selecting the gradation conversion curve for each pixel constituting the input signal IS.
  • the selection signal SS for the pixels included in the image area Pm is obtained by correcting the value of the selection signal output for the image area Pm and the image area around the image area Pm by the internal division ratio of the pixel position. .
  • the description of the details of the correction is omitted (refer to the column of ⁇ Operation>, FIG. 20).
  • step S35 The brightness value of the pixel included in the input signal IS and the selection signal SS are input, and the brightness value of the output signal OS is output using, for example, the two-dimensional LUT 41 shown in FIG. 8 (step S35). Further, it is determined whether or not the processing has been completed for all the pixels (step S36), and the processing of steps S34 to S36 is repeated several times until it is determined that the processing has been completed. Thus, the processing for each image is completed.
  • each step of the visual processing method shown in FIG. 21 may be realized as a visual processing program by a computer or the like.
  • the gradation conversion curve Cm selected for each image area Pm is created based on the average brightness value of the wide area image area Em. Therefore, the size of the image area Pm is Even if it is small, it is possible to sample a sufficient brightness value. As a result, an appropriate gradation conversion curve Cm is selected even for a small image area Pm.
  • the selection signal correction unit 24 outputs a selection signal SS for each pixel by performing correction based on the selection signal Sm output for each image area.
  • the pixels of the original image that constitute the input signal IS are subjected to gradation processing using the gradation conversion curve candidates G "! To G0 specified by the selection signal SS for each pixel. It is possible to obtain a processed output signal OS. For example, it is possible to suppress the occurrence of false contours, and in the output signal OS, the joints of the boundaries of the respective image areas Pm are unnaturally conspicuous. This can be further prevented.
  • the gradation processing execution unit 25 has a two-dimensional LUT created in advance. Therefore, it is possible to reduce the processing load required for the gradation processing, and more specifically, to reduce the processing load required for creating the gradation conversion curve Cm. As a result, it is possible to speed up the gradation processing.
  • the gradation processing execution unit 25 executes gradation processing using a two-dimensional LUT.
  • the contents of the two-dimensional LUT are read from a storage device such as a hard disk or ROM provided in the visual processing device 21 and used for gradation processing.
  • a storage device such as a hard disk or ROM provided in the visual processing device 21 and used for gradation processing.
  • various gradation processing can be realized without changing the hardware configuration. That is, it is possible to realize gradation processing more suitable for the characteristics of the original image.
  • the two-dimensional LUT 41 composed of a matrix of 64 rows and 64 columns is an example of a two-dimensional LUT.
  • the effect of the present invention is not limited to a two-dimensional LUT of this size.
  • a matrix in which more tone conversion curve candidates are arranged in the row direction may be used.
  • the pixel value of the output signal OS corresponding to the value obtained by dividing the pixel value of the input signal IS into smaller steps may be arranged in the column direction of the matrix.
  • a pixel value of the output signal OS may be arranged for each pixel value of the input signal IS represented by 10 bits.
  • the value [SS] of the selection signal SS does not become equal to the subscript (1 to p) of the gradation conversion curve candidates G 1 to Gp included in the two-dimensional LUT 41, the value [SS] of the selection signal SS
  • the gradation conversion curve candidate Gk (1 ⁇ k ⁇ p-1) whose subscript is the largest integer (k) not exceeding, and the floor whose subscript is the smallest integer (k + 1) exceeding [SS]
  • the pixel value of the input signal IS that has been subjected to gradation processing using both the tone conversion curve candidate G k + 1 is weighted average (internally divided) using the fractional part of the value [SS] of the selection signal SS,
  • the output signal OS may be output.
  • the pixel values of the output signal OS with respect to the values of the upper six bits of the pixel value of the input signal IS represented by, for example, 10 bits are arranged in the column direction of the matrix.
  • the output signal OS is obtained as a matrix component linearly interpolated by the lower four bits of the pixel value of the input signal IS by the gradation processing execution unit 25. It may be output. That is, matrix components are arranged in the column direction of the matrix with respect to the upper six bits of the pixel value of the input signal IS represented by, for example, 10 bits.
  • the matrix component for the bit value and the matrix component for the value obtained by adding [1] to the value of the upper 6 bits of the pixel value of the input signal IS (for example, the component one row below in Fig. 8) Is linearly interpolated using the lower 4 bits of the pixel value of the input signal IS and output as the output signal OS.
  • the selection signal Sm for the image area Pm is output based on the average brightness value of the wide area image area Em.
  • the method of outputting the selection signal Sm is not limited to this method.
  • the selection signal Sm for the image area Pm may be output based on the maximum brightness value or the minimum brightness value of the wide area image area Em.
  • the value [Sm] of the selection signal Sm may be the average brightness value, the maximum brightness value, or the minimum brightness value of the wide area image region Em.
  • the selection signal Sm for the image area Pm may be output as follows. That is, an average brightness value is obtained for each image region Pm, and a tentative selection signal Sm 'for each image region Pm is obtained from each average brightness value.
  • the provisional selection signal Sm ′ has a value of a subscript number of the gradation conversion curve candidates G 1 to G p. Further, for each image area included in the wide area image area Em, the value of the provisional selection signal Sm 'is averaged to obtain the selection signal Sm of the image area Pm.
  • the selection signal Sm for the image area Pm is output based on the average brightness value of the wide area image area Em.
  • the selection signal Sm for the image area Pm may be output based on a weighted average (weighted average) instead of the simple average of the wide area image area Em.
  • the details are the same as those described with reference to FIG. 11 in [Second Embodiment] above.
  • the average brightness value of each image region constituting the wide area image region Em is obtained, and the average brightness value of the image region Pm is obtained. Images with average brightness values that differ significantly from the values For the regions P s 1, P s 2, 1, 2, the weight is reduced and the average brightness value of the wide area image region Em is obtained.
  • the selection signal S m The influence of the lightness value of the specific area on the output of is reduced, and a more appropriate selection signal Sm is output.
  • the visual processing device 21 may further include a profile data creation unit that creates profile data that is a value stored in the two-dimensional LUT.
  • the profile data creation unit is composed of an image division unit 2 and a gradation conversion curve derivation unit 10 in the visual processing device 1 (see FIG. 1). Is stored in the 2D LUT as profile data.
  • each of the gradation conversion curves stored in the two-dimensional LUT may be associated with the spatially processed input signal IS.
  • the image division unit 22, the selection signal derivation unit 23, and the selection signal correction unit 24 may be replaced with a spatial processing unit that spatially processes the input signal IS.
  • a visual processing device 61 as a fourth embodiment of the present invention will be described with reference to FIGS.
  • the visual processing device 61 shown in FIG. 22 is a device that performs visual processing such as spatial processing and gradation processing of an image signal.
  • the visual processing device 61 constitutes an image processing device together with a device that performs color processing of an image signal in a device that handles images, such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.
  • the visual processing device 61 is a device that performs visual processing using an image signal and a blur signal obtained by subjecting the image signal to spatial processing (blurring filter processing), and has features in spatial processing. .
  • Japanese Patent Application Laid-Open No. 10-75 3 95 discloses a technique in which a plurality of pocket signals having different degrees of blur are generated, and the respective blur signals are combined or switched. Outputs a blur signal. This aims to change the filter size of spatial processing and suppress the influence of pixels with different densities.
  • the visual processing device 61 as the fourth embodiment of the present invention aims to output an appropriate blur signal and to reduce the circuit scale or processing load in the device.
  • FIG. 22 shows the basic configuration of a visual processing device 61 that performs visual processing on an image signal (input signal I S) and outputs a visual processing image (output signal O S).
  • the visual processing device 61 performs spatial processing on the brightness value of each pixel of the original image obtained as the input signal IS, and outputs a unsharp signal US.
  • a visual processing unit 63 that performs visual processing of the original image using the sharp signal US and outputs an output signal OS.
  • the spatial processing of the spatial processing unit 62 will be described with reference to FIG.
  • the spatial processing unit 62 obtains, from the input signal IS, the pixel values of the target pixel 65 to be subjected to the spatial processing and the pixels in the peripheral area of the target pixel 65 (hereinafter, peripheral pixels 66).
  • the peripheral pixel 66 is a pixel located in a peripheral area of the target pixel 65, and is a pixel included in a peripheral area of 9 vertical pixels and 9 horizontal pixels spread around the target pixel 65. Note that the size of the peripheral region is not limited to this case, and may be smaller or larger. In addition, the peripheral pixel 66 is closer according to the distance from the target pixel 65. These are divided into a first peripheral pixel 67 and a second peripheral pixel 68. In FIG. 23, it is assumed that the first peripheral pixel 67 is a pixel included in an area of five vertical pixels and five horizontal pixels centering on the target pixel 65. Further, it is assumed that the second peripheral pixel 68 is a pixel located around the first peripheral pixel 67.
  • the spatial processing unit 62 performs a filter operation on the target pixel 65.
  • the pixel values of the target pixel 65 and the peripheral pixel 66 are weighted and averaged using a weight based on the difference between the pixel values of the target pixel 65 and the peripheral pixel 66 and the distance.
  • [W ij] is the weight coefficient of the pixel located at the i-th row and the j-th column in the target pixel 65 and the peripheral pixel 66
  • [A ij] is the i-th row in the target pixel 65 and the peripheral pixel 66.
  • ⁇ J means that the sum of the respective pixels of the target pixel 65 and the peripheral pixel 66 is calculated.
  • the weight coefficient [W ij] is a value determined based on the difference and the distance between the pixel value of the target pixel 65 and the peripheral pixel 66. More specifically, the larger the absolute value of the difference between the pixel values is, the smaller the weight coefficient is given. Also, the smaller the distance, the smaller the weighting factor.
  • the weight coefficient [W ij] is the value [1].
  • the weight coefficient [W ij] is represented by the value [1]. is there.
  • the weight coefficient [W ij] of the first peripheral pixel 67 having the pixel value whose absolute value of the difference is larger than the predetermined threshold value is [1/2]. That is, even for the pixels included in the first peripheral pixels 67, the weight coefficients given according to the pixel values are different.
  • the absolute value of the difference between the pixel value of the target pixel 65 and the pixel value of the target pixel 65 is smaller than a predetermined threshold value. 2].
  • the weight coefficient [W ij] is the value [1/4] for the pixel having the pixel value whose absolute value of the difference is larger than the predetermined threshold value among the second peripheral pixels 68. That is, even the pixel included in the second peripheral pixel 68 is given according to the pixel value. Weight coefficients are different. Further, the second peripheral pixel 68 having a distance from the target pixel 65 larger than the first peripheral pixel 67 has a smaller weighting factor.
  • the predetermined threshold value is a value [2 0 2 5 6 to 6 0 2 5 6] with respect to the pixel value of the target pixel 65 taking a value in the range of the value [0.0 to 1.0]. ].
  • the visual processing unit 63 performs visual processing using the values of the input signal I S and the unsharp signal U S for the same pixel.
  • the visual processing performed here is processing such as contrast enhancement of the input signal IS or dynamic range compression.
  • contrast enhancement a signal emphasized using a function for enhancing the difference or ratio between the input signal I S and the unsharp signal U S is added to the input signal I S to sharpen an image.
  • dynamic range compression the unsharp signal U S is subtracted from the input signal I S.
  • the processing in the visual processing unit 63 may be performed using a two-dimensional LUT that receives the input signal IS and the unsharp signal USB as inputs and outputs the output signal OS.
  • the above processing may be executed by a computer or the like as a visual processing program.
  • the visual processing program is a program for causing a computer to execute the visual processing method described below.
  • the visual processing method includes a spatial processing step of performing spatial processing on the brightness value of each pixel of the original image acquired as the input signal IS and outputting an unsharp signal US, and an input signal IS and an unsharp signal US of the same pixel. And a visual processing step of outputting an output signal OS by performing visual processing of the original image.
  • the weighted average described in the description of the spatial processing unit 62 is performed for each pixel of the input signal IS, and an unsharp signal U S is output. Details are omitted because they have been described above.
  • the visual processing described in the description of the visual processing section 63 is performed using the input signal IS and the unsharp signal US for the same pixel, and the output signal is output. Issue OS. Details are omitted because they have been described above.
  • FIGS. 25 (a) and (b) show processing by a conventional filter.
  • FIG. 25 (b) shows the processing by the filter of the present invention.
  • FIG. 25A shows a state in which the peripheral pixels 66 include objects 71 having different densities.
  • a smoothing filter having a predetermined filter coefficient is used in the spatial processing of the target pixel 65. Therefore, the target pixel 65 which is not originally a part of the object 71 is affected by the density of the object 71.
  • FIG. 25 (b) shows the state of the spatial processing of the present invention.
  • the peripheral pixel 66 includes a portion 66 a including the object 71, the first peripheral pixel 67 not including the object 71, the second peripheral pixel 68 including no object 71, Spatial processing is performed on each of the target pixels 65, using different weighting factors. For this reason, it is possible to suppress the effect of the spatially processed target pixel 65 from pixels having extremely different densities, and it is possible to perform more appropriate spatial processing.
  • the visual processing device 61 does not need to create a plurality of blur signals as in Japanese Patent Application Laid-Open No. H10-73595. For this reason, it is possible to reduce the circuit scale or processing load in the device.
  • the filter size of the spatial filter and the shape of the image referred to by the filter can be adaptively changed substantially according to the image content. For this reason, it is possible to perform spatial processing suitable for the image content.
  • the sizes of the above-described peripheral pixels 66, the first peripheral pixels 67, the second peripheral pixels, etc. are examples, and may be other sizes.
  • weighting coefficients described above are merely examples, and other weighting coefficients may be used.
  • the weight coefficient may be given as the value [0]. This makes it possible to eliminate the influence of the spatially processed target pixel 65 from pixels having extremely different densities. This is intended for contrast enhancement This application has the effect of not overemphasizing the contrast in the part where the contrast is originally large to some extent.
  • weight coefficient may be given as a function value as shown below.
  • the value of the weighting coefficient may be given by a function using the absolute value of the difference between the pixel values as a variable.
  • the function is such that when the absolute value of the pixel value difference is small, the weight coefficient is large (close to 1), and when the absolute value of the pixel value difference is large, the weight coefficient is small (close to 0). Is a function that monotonically decreases with respect to the absolute value of the pixel value difference.
  • the value of the weight coefficient may be given by a function using the distance from the target pixel 65 as a variable.
  • the function is, for example, such that the weight coefficient is large (close to 1) when the distance from the target pixel 65 is short, and small when the distance from the target pixel 65 is long (close to 0).
  • the weighting factor is given more continuously. For this reason, it is possible to give a more appropriate weighting coefficient compared to the case of using a threshold, suppress excessive contrast enhancement, suppress the generation of false contours, etc., and perform processing with higher visual effect. Can be done.
  • each pixel described above may be performed in units of blocks including a plurality of pixels. Specifically, first, an average pixel value of a target block to be subjected to spatial processing and an average pixel value of peripheral blocks around the target block are calculated. Furthermore, each average pixel value is weighted and averaged using the same weighting factor as above. As a result, the average pixel value of the target block is further spatially processed.
  • the spatial processing unit 62 can be used as the selection signal deriving unit 13 (see FIG. 6) or the selection signal deriving unit 23 (see FIG. 19). In this case, it is the same as described in [Second Embodiment] ⁇ Modification> (6) or [Third Embodiment] ⁇ Modification> (5). This will be further described with reference to FIGS. 26 to 28.
  • FIG. 26 is a block diagram illustrating a configuration of a visual processing device 961 that performs the processing described with reference to FIGS. 22 to 25 in units of blocks including a plurality of pixels.
  • the visual processing device 961 includes an image dividing unit 964 that divides an image input as the input signal IS into a plurality of image blocks, and a spatial processing unit 9 that performs spatial processing for each of the divided image blocks. 6 and a visual processing unit 963 that performs visual processing using the input signal IS and the spatial processing signal US2 output from the spatial processing unit 962.
  • the image dividing unit 964 divides an image input as the input signal IS into a plurality of image blocks. Further, a processing signal U S1 including the characteristic parameters for each of the divided image blocks is derived.
  • the feature parameters are, for example, parameters representing image features of each divided image block, and include, for example, an average value (simple average, weighted average, etc.) and a representative value (maximum value, minimum value, median value, etc.). is there.
  • the spatial processing unit 96 2 acquires a processing signal U S 1 including a feature parameter for each image block, and performs spatial processing.
  • FIG. 27 shows an input signal IS divided into image blocks including a plurality of pixels.
  • each image block is divided into an area including nine pixels, three pixels vertically and three pixels horizontally. Note that this division method is an example, and is not limited to such a division method. Further, in order to sufficiently exhibit the visual processing effect, it is preferable to generate the spatial processing signal U S 2 for a considerably wide area.
  • the spatial processing unit 9 6 2 is a feature parameter of the target image block 9 6 5 to be subjected to spatial processing and each peripheral image block included in the peripheral area 9 6 6 located around the target image block 9 6 5. Is obtained from the processing signal US 1.
  • the peripheral area 966 is an area located around the target image block 965, and is an area of 5 vertical blocks and 5 horizontal blocks spread around the target image block 965. Note that the size of the peripheral region 966 is not limited to this case, and may be smaller or larger. In addition, the peripheral area 966 is divided into the first peripheral area 966 and the second peripheral area 966 which are closer to each other according to the distance from the target image block 966. It is divided.
  • the first peripheral area 967 is an area of three vertical blocks and three horizontal blocks centered on the target image block 965. Further, it is assumed that the second peripheral region 968 is a region located around the first peripheral region 967.
  • the spatial processing unit 962 performs a filter operation on the feature parameters of the target image block 965. ⁇
  • the values of the characteristic parameters of the target image block 965 and the peripheral image blocks of the peripheral region 966 are weighted and averaged.
  • the weight of the weighted average is determined based on the distance between the target image block 965 and the peripheral image block and the difference between the characteristic values.
  • [W ij] is a weighting factor for the image block located in the i-th row and j-th column in the target image block 965 and the peripheral region 966
  • [A ij] is the target image block 965 and the peripheral region 966. Is the value of the feature parameter of the image block located in the i-th row and j-th column.
  • “ ⁇ ” means that the total calculation is performed for each image block of the target image block 965 and the peripheral region 966.
  • the weight coefficient [W ij] is a value determined based on the difference between the distance between the target image block 965 and the peripheral image block in the peripheral region 966 and the value of the characteristic parameter. More specifically, the larger the absolute value of the difference between the characteristic parameter values, the smaller the weight coefficient. Also, the smaller the distance, the smaller the weighting factor. For example, for the target image block 965, the weight coefficient [W i j] is the value [1].
  • a weight coefficient [W ij ] Is the value [1].
  • the weighting factor [W ij] is the value [1/2]. That is, even in the peripheral image block included in the first peripheral region 967, the weighting factor given according to the value of the characteristic parameter is different.
  • a weight coefficient [W ij ] Is the value [1/2].
  • the weight coefficient [W ij] is represented by the value [1 Z4]. is there. That is, even in the peripheral image block included in the second peripheral area 968, the weighting coefficient given according to the value of the special parameter is different. In the second peripheral region 968 whose distance from the target image block 965 is larger than the first peripheral region 967, a smaller weighting factor is given.
  • the predetermined threshold value is a value [20/256 to 60/256] or the like with respect to the value of the feature parameter of the target image block 965 having a value in the range of [0.0 to 1.0]. It is a value of such a magnitude.
  • the weighted average calculated as described above is output as the spatial processing signal US2.
  • the visual processing section 963 performs the same visual processing as the visual processing section 63 (see FIG. 22). However, the difference from the visual processing unit 63 is that the spatial processing signal US2 of the target image block including the target pixel to be subjected to the visual processing is used instead of the unsharp signal US. Further, the processing in the visual processing unit 963 may be performed collectively for each target image block including the target pixel, but is performed by switching the spatial processing signal US 2 in the order of pixels obtained from the input signal IS. You may. The above processing is performed for all pixels included in the input signal IS.
  • processing is performed in units of image blocks. For this reason, the processing amount of the spatial processing unit 962 can be reduced, and higher-speed visual processing can be realized. In addition, the hardware scale can be reduced.
  • weighting factor ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇
  • some values of the weighting factor may be the value [0]. In this case, this is the same as making the shape of the peripheral region 966 an arbitrary shape.
  • the spatial processing unit 962 performs the spatial processing using the characteristic parameters of the target image block 965 and the peripheral region 966, but the spatial processing is performed using the characteristic parameters of only the peripheral region 966. There may be. That is, in the weight of the weighted average of the spatial processing, the weight of the target image block 965 may be set to the value [0].
  • the processing in the visual processing unit 63 is not limited to the above.
  • the value C calculated by (A / B) may be output as the value of the output signal OS.
  • the visual processing unit 63 When such processing is performed in the visual processing unit 63, if the appropriate unsharp signal US output by the spatial processing unit 62 of the present invention is used, the dynamic range of the input signal IS can be compressed, The contrast can be emphasized.
  • the contrast enhancement cannot be performed properly although it is edge enhancement. If there is too much blur, contrast can be enhanced, but dynamic range compression cannot be performed properly.
  • a visual processing device is a device that performs gradation processing of an image by being built in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, or a PDA, and an integrated circuit such as an LSI. As realized.
  • each functional block of the above embodiment may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • the LSI is used, but depending on the degree of integration, it may be called IC, system LSI, super LSI, or ultra LSI.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • a field programmable gate array FPGA
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • each block in FIGS. 1, 6, 19, 22, and 26 is performed by, for example, a central processing unit (CPU) included in the visual processing device.
  • programs for performing the respective processes are stored in a storage device such as a hard disk and a ROM, and are read out from the ROM or read out to the RAM and executed.
  • the two-dimensional LUT referred to in the gradation processing execution units 14 and 25 in FIGS. 6 and 19 is stored in a storage device such as a hard disk and a ROM, and is referred to as necessary.
  • the two-dimensional LUT may be provided from a two-dimensional LUT providing device connected directly to a visual processing device or indirectly connected via a network. The same applies to the one-dimensional LUT referred to in the gradation processing execution unit 44 in FIG.
  • the visual processing device may be a device that performs gradation processing of an image for each frame (for each field) built in or connected to a device that handles moving images.
  • each visual processing device executes the visual processing method described in the first to fourth embodiments.
  • the visual processing program is stored in a storage device such as a hard disk or ROM in a device built in or connected to an image processing device such as a computer, television, digital camera, mobile phone, PDA, etc., and performs gradation processing of the image.
  • a program to be executed for example, provided via a recording medium such as a CD-ROM or via a network.
  • the processing is performed on the brightness value of each pixel.
  • the present invention does not depend on the color space of the input signal IS. That is, in the processing in the above embodiment, when the input signal IS is a YCbGr color space, a YUV color space, a Lab color space, a LuV color space, a YIQ color space, an XYZ color space, a YPbPr color space, When expressed in RGB color space, etc., the same can be applied to luminance and lightness in each color space.
  • the processing in the above embodiment may be performed independently for each component of RGB.
  • FIG. 29 is a block diagram showing an overall configuration of a content supply system eX100 realizing a content distribution service.
  • the area for providing communication services is divided into a desired size, and base stations e X 107 to e X 110 are fixed radio stations in each cell.
  • the content supply system eX100 is, for example, an Internet service provider eX102, a telephone network ex104, and a base station eX107-eX110 on the Internet eX101.
  • a computer ex 1 1 1 PDA (personal digital assistant) ex 1 1 2
  • camera exl 1 3 mobile phone ex 1 14
  • mobile phone with camera ex 1 15 Is done.
  • each device is connected directly to the telephone network ex 104 without going through the base station e X 107-e X 110, which is a fixed wireless station. It may be connected directly.
  • the camera eX113 is a device capable of shooting moving images such as a digital video camera.
  • PDG Personal Digital Communications
  • CDM A Code Division Multiple Access
  • W-CDMA Wideband-Code Division Multiple Access
  • GSM Global System for Mobile Communi cat ions
  • Mobile phone or PHS Personal Handypho e System
  • the streaming server ex 103 is connected from the camera ex 113 to the base station ex 110 and the telephone network ex 104, and performs an encoding process transmitted by the user using the camera ex 113. Live distribution and the like based on the received data becomes possible.
  • the encoding processing of the captured data may be performed by the camera e X 1 1 3 or may be performed by a server or the like that performs data transmission processing.
  • moving image data shot by the camera ex116 may be transmitted to the streaming server ex1O3 via the computer eX111.
  • the camera ex116 is a device such as a digital camera that can shoot still images and moving images. In this case, the video data may be encoded by the camera e X 1 1 6 or the computer e X 1 1 1.
  • the encoding process is performed in the LSI ex117 of the combi- ter ex111 or the camera ex116. It is a recording medium that can read software for image encoding and decoding with a computer eX111 or the like. It may be incorporated in any storage media (CD-ROM, flexible disk, hard disk, etc.).
  • the video data may be transmitted by a mobile phone with a camera eX115. The moving image data at this time is data encoded by the LSI included in the mobile phone eX115.
  • the content for example, a video image of a live music performance
  • the user with the camera ex1 "I3, power camera ex116, or the like is encoded and processed.
  • the streaming server eX103 While transmitting to the streaming server eX103, the streaming server eX103 distributes the above-mentioned content data to the requested client in a stream.
  • the ex 100 supply system can receive and play back encoded data at the client, and can also realize personal broadcasting by receiving, decoding, and playing back the data in real time at the client.
  • the visual processing device, visual processing method, and visual processing program described in the above embodiment may be used.
  • the computer ex, 111, PDA eX112, camera exl13, mobile phone ex114, etc. are provided with the visual processing device shown in the above embodiment, and perform the visual processing method and the visual processing program. It may be realized.
  • the streaming server eX103 may provide profile data to the visual processing device via the Internet eX101. Further, a plurality of streaming servers eX103 may be provided, each providing different opening file data. Further, the storage server ex 103 may create a profile. As described above, when the visual processing device can acquire profile data via the Internet eX101, the visual processing device does not need to store profile data used for the visual processing in advance. It is also possible to reduce the storage capacity of the device. Further, since profile data can be acquired from a plurality of servers connected via the Internet ex011, different visual processing can be realized. A mobile phone will be described as an example.
  • FIG. 30 is a diagram showing a mobile phone eX115 provided with the visual processing device of the above embodiment.
  • the mobile phone eX115 has an antenna ex210 for transmitting and receiving radio waves to and from the base station eX110, a camera capable of capturing images and still images from CCD cameras, etc. ex203, camera unit eX203, display unit such as a liquid crystal display that displays data obtained by decoding the video, etc. received by antenna ex201, etc. ex202, operation keys ex A main unit composed of 204 groups, an audio output unit eX208, such as a speaker for outputting audio, an audio input unit ex205, such as a microphone for inputting audio, Encoded or decoded data such as still image data, received mail data, video data or still image data, etc.
  • an audio output unit eX208 such as a speaker for outputting audio
  • an audio input unit ex205 such as a microphone for inputting audio
  • Encoded or decoded data such as still image data, received mail data, video data or still
  • the recording media eX207 is a type of EE PROM (Electrically ly Eraseble and Programmable Read Only Memory), a non-volatile memory that can be electrically rewritten and erased in a plastic case such as an SD card. It is stored. ,
  • EE PROM Electrically ly Eraseble and Programmable Read Only Memory
  • the mobile phone ex 115 has a power supply circuit ex ex, compared to a main control unit e X 31 1 that controls all parts of the main unit including a display unit e X 202 and operation keys ex 204 in a comprehensive manner.
  • the unit eX308, the recording / reproducing unit ex307, the modulation / demodulation circuit unit eX306, and the audio processing unit ex305 are connected to each other via a synchronous bus ex313.
  • the power supply circuit eX310 is a digital mobile phone with a camera, which supplies power to each part from the battery pack when the call is turned on and the power key is turned on by user operation. Is activated.
  • the mobile phone ex115 based on the control of the main control unit eX311, consisting of a CPU, ROM, RAM, etc., outputs the voice signal collected by the voice input unit eX205 in the voice call mode.
  • the processing unit eX 305 converts the digital audio data into digital voice data, and the modulation / demodulation circuit unit eX 306 performs spread spectrum processing.
  • the transmission / reception circuit unit ex 301 performs digital / analog conversion processing and frequency conversion processing. Send via eX201.
  • the mobile phone ex115 also amplifies the received signal received by the antenna eX201 in the voice communication mode, performs frequency conversion processing and analog digital conversion processing, and performs spectrum inverse processing in the modulation / demodulation circuit section eX306. After being subjected to diffusion processing and converted into an analog audio signal by the audio processing unit eX 305, this is output via the audio output unit eX 208.
  • the e-mail text data input by operating the operation key eX204 on the main unit is controlled by the operation input system. It is sent to the main control unit ex311 via the control unit ex3O4.
  • the main control unit ex311 performs spread spectrum processing on the text data in the modulation and demodulation circuit unit eX306, and performs digital-analog conversion processing and frequency conversion processing in the transmission and reception circuit unit eX301.
  • the signal is transmitted to the base station ex110 via the antenna eX201.
  • the image data captured by the camera unit ex203 is supplied to the image encoding unit eX312 via the camera interface: L-source unit eX303. I do.
  • the image data captured by the camera unit ex203 is transferred to the display unit ex2O2 via the camera interface unit eX303 and the LCD control unit eX302. It is also possible to display directly ⁇
  • the image encoding unit eX312 converts the image data supplied from the camera unit eX203 into encoded image data by performing compression encoding, and converts the image data into a demultiplexing unit eX308. Send out.
  • the mobile phone eX115 simultaneously outputs the audio collected by the audio input unit eX205 through the audio processing unit ex305 while capturing images with the camera unit ex203.
  • the data is sent to the demultiplexing unit eX308 as audio data.
  • the demultiplexing unit eX308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit eX305 in a predetermined manner, The resulting multiplexed data is subjected to spread spectrum processing in a modulation / demodulation circuit section eX306 and digital-analog conversion processing and frequency conversion processing in a transmission / reception circuit section eX301, followed by an antenna eX2. 0 through 1 to send.
  • the received signal received from the base station ex110 via the antenna eX201 is modulated and demodulated by the modem circuit eX306. Then, the spectrum despreading process is performed, and the resulting multiplexed data is sent to the demultiplexing unit eX308.
  • the demultiplexing unit ex308 demultiplexes the multiplexed data to form an encoded bit stream of the image data. And an encoded bit stream of audio data, and supplies the encoded image data to the image decoding unit eX309 via the synchronous bus eX313 and also converts the audio data to the audio processing unit. eX305.
  • the image decoding unit ex 309 generates replayed moving image data by decoding the coded bit stream of the image data, and performs this through the CD control unit e X302.
  • the data is supplied to the display unit eX202, and thereby, for example, moving image data included in a moving image file linked to a homepage is displayed.
  • the audio processing unit eX305 simultaneously converts the audio data into an analog audio signal, and then supplies the analog audio signal to the audio output unit ex208, whereby, for example, a moving image linked to a homepage The audio data contained in the file is played.
  • the image decoding unit eX309 may include the visual processing device of the above embodiment.
  • the visual processing device described in the above embodiment is also applied to a digital broadcasting system.
  • Visual processing methods and visual processing programs can be incorporated. Specifically, at the broadcasting station eX409, the coded bit stream of the video information is transmitted via radio waves to the communication or broadcasting satellite eX410.
  • the broadcasting satellite eX410 receiving this transmits a radio wave for broadcasting, receives this radio wave with the home antenna eX406 having the satellite broadcasting receiving equipment, and sets the television (receiver) eX
  • the coded bitstream is decoded by a device such as 401 or set-top box (STB) eX407 and reproduced.
  • a device such as a television (receiver) ex401 or a set-top box (STB) eX407 may include the visual processing device described in the above embodiment. Further, the visual processing method of the above embodiment may be used. Further, a visual processing program may be provided.
  • the visual processing device described in the above embodiment is also provided to a reproducing device eX403 that reads and decodes an encoded bitstream recorded on a storage medium eX02 such as a CD or DVD that is a recording medium. It is possible to implement visual processing methods and visual processing programs. In this case, the reproduced video signal is displayed on the monitor eX404.
  • the visual processing device described in the above embodiment is installed in a set-top box ex 407 connected to a cable eX405 for cable television or an antenna eX406 for satellite terrestrial broadcasting. It is also conceivable to implement a processing method and a visual processing program, and reproduce this on the TV monitor eX408.
  • the visual processing device described in the above embodiment may be incorporated in a television.
  • a car ex 12 having an antenna e X 4 11 1 receives a signal from a satellite ex 4 10 or a base station e X 10 7 or the like, and receives a signal from a car ex X 10 7 or the like. It is also possible to play a moving image on a display device such as 3rd.
  • the image signal can be encoded and recorded on a recording medium.
  • a recorder eX420 such as a DVD recorder for recording an image signal on a DVD disk eX421 and a disk recorder for recording on a hard disk.
  • it can be recorded in the SD force field eX422. If the recorder ex420 is equipped with the decoding device of the above embodiment, it interpolates and reproduces the image signal recorded on the DVD disc eX421 or the SD card eX422, and outputs it to the monitor ex4. 0 8 can be displayed.
  • the configuration of the car navigation eX413 is, for example, of the configuration shown in Fig. 31, where the camera section eX203, the camera interface section eX303, and the image encoding section eX313 are included.
  • the same configuration can be applied to the computer eX111 / TV (receiver) eX401, etc.
  • the terminal such as the mobile phone e X 1 1 4 is a transmission terminal having only an encoder and a receiving terminal having only a decoder.
  • the terminal such as the mobile phone e X 1 1 4 is a transmission terminal having only an encoder and a receiving terminal having only a decoder.
  • the visual processing device, the visual processing method, and the visual processing program described in the above embodiment can be used in any of the above-described device 'systems, and the effects described in the above embodiment can be obtained.
  • Image region dividing means for dividing an input image signal into a plurality of image regions; and means for deriving a gradation conversion characteristic for each of the image regions, wherein a target image region from which the gradation conversion characteristic is derived is provided.
  • a gradation conversion characteristic deriving unit that derives the gradation conversion characteristic of the target image region using a gradation characteristic of the target image region with a peripheral image region.
  • a gradation processing means for performing gradation processing of the image signal based on the derived gradation conversion characteristics
  • a visual processing device comprising:
  • the tone conversion characteristic is a tone conversion curve.
  • the tone conversion characteristic deriving means creates a histogram using the tone characteristic. Histogram creating means; and the histogram based on the created histogram.
  • the visual processing device according to attachment 1.
  • the gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation processing the image signal,
  • the gradation processing means has the plurality of gradation conversion tables as a two-dimensional LUT.
  • the visual processing device according to attachment 1.
  • the two-dimensional LUT stores the plurality of gradation conversion tables in the order in which the value of the image signal subjected to gradation processing with respect to the value of the selection signal is monotonously increased or monotonously decreased for all values of the image signal. are doing,
  • the value of the selection signal is derived as a feature amount of an individual selection signal that is a selection signal derived for each of the target image region and the peripheral image region.
  • the selection signal is derived based on a gradation characteristic feature amount that is a feature amount derived using gradation characteristics of the target image region and the peripheral image region.
  • the visual processing device according to any one of supplementary notes 3 to 5.
  • the gradation processing unit includes: a gradation processing execution unit configured to perform gradation processing of the target image area using the gradation conversion table selected by the selection signal; Means for correcting a tone, based on the gradation processing table selected for an image region including a target pixel to be corrected and an image region adjacent to the image region including the target pixel. Correction means for correcting the gradation of the target pixel.
  • the visual processing device according to any one of appendices 3 to 7.
  • the gradation processing unit corrects the selection signal, and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal.
  • the correction unit selects the gradation selection unit.
  • a tone processing execution unit for executing tone processing of the image signal using a tone conversion table.
  • the visual processing device according to any one of appendices 3 to 7.
  • a visual processing method comprising:
  • the tone conversion characteristic is a tone conversion curve
  • the tone conversion characteristic deriving step includes: a histogram creation step of creating a histogram using the tone characteristics; and a tone curve creating the tone conversion curve based on the created histogram. Having a creating step,
  • Appendix 10 The visual processing method according to 0.
  • the gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation processing the image signal,
  • the gradation processing step includes a gradation processing execution step of performing gradation processing of the target image area using the gradation conversion table selected by the selection signal, and a step of the image signal subjected to the gradation processing. Correcting the tone, based on the gradation processing table selected for the image area including the target pixel to be corrected and the image area adjacent to the image area including the target pixel, A correction step for correcting the gradation of the pixel,
  • Appendix 10 The visual processing method according to 0.
  • the gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation processing the image signal,
  • the gradation processing step includes a correction step of correcting the selection signal and deriving a correction selection signal for selecting a gradation processing table for each pixel of the image signal, and the gradation selected by the correction selection signal.
  • Appendix 10 The visual processing method according to 0.
  • a visual processing program for performing a visual processing method by a computer wherein the visual processing program is stored in a computer
  • a visual processing method comprising:
  • the gradation conversion characteristic is a gradation conversion curve
  • the tone conversion characteristic deriving step includes: a histogram creation step of creating a histogram using the tone characteristics; and a tone curve creating the tone conversion curve based on the created histogram. Having a creating step,
  • Appendix 14 The visual processing program according to 4.
  • the gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation processing the image signal,
  • the gradation processing step includes a gradation processing execution step of performing gradation processing of the target image area using the gradation conversion table selected by the selection signal; and a gradation processing of the image signal after the gradation processing. Correcting the tone based on the gradation processing table selected for an image area including a target pixel to be corrected and an image area adjacent to the image area including the target pixel. A correction step of correcting the gradation of the pixel.
  • Appendix 14 The visual processing program according to 4.
  • the gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation processing the image signal,
  • the gradation processing step includes a correction step of correcting the selection signal and deriving a correction selection signal for selecting a gradation processing table for each pixel of the image signal, and the gradation selected by the correction selection signal.
  • the gradation processing means includes parameter output means for outputting a curve parameter of a gradation conversion curve for gradation processing of the image signal based on the gradation conversion characteristics, and the gradation conversion specification And gradation processing of the image signal using the gradation conversion curve specified based on the curve parameter,
  • the parameter output means is a look-up table for storing a relationship between the gradation conversion characteristic and the curve parameter.
  • Appendix 18 The visual processing device according to 8.
  • the curve parameter includes a value of the gradation-processed image signal with respect to a predetermined value of the image signal.
  • APPENDIX 1 The visual processing device according to 1 8 or 1 9.
  • the curve parameter includes a gradient of the gradation conversion curve in a predetermined section of the image signal.
  • APPENDIX 1 The visual processing device according to any one of 8 to 20.
  • the visual processing device according to any one of supplementary notes 18 to 21, wherein the curve parameter includes coordinates of at least one point through which the gradation conversion curve passes.
  • a spatial processing unit that performs weighted averaging of the gradation characteristics of the target image area and the surrounding image area using weighting based on a difference in gradation characteristics from the image area;
  • Visual processing means for performing visual processing of the target image region based on the gradation characteristics of the target image region and the spatial processing signal;
  • a visual processing device comprising:
  • the visual processing device wherein the weighting decreases as the absolute value of the difference in gradation characteristics increases.
  • the weighting decreases as the distance between the target image area and the surrounding image area increases.
  • Appendix 2 The visual processing device according to 3 or 2 4.
  • the image area is composed of a plurality of pixels
  • the gradation characteristics of the target image area and the peripheral image area are determined as feature values of pixel values constituting each image area.
  • Target image area determining means for determining a target image area for which a gradation conversion characteristic is to be derived from an input image signal
  • Peripheral image region determining means for determining at least one peripheral image region including a plurality of pixels located around the target image region;
  • Tone conversion characteristic deriving means for deriving the tone conversion characteristic of the target image region using peripheral image data of the peripheral image region
  • Tone processing means for performing tone processing of an image signal of the target image area based on the derived tone conversion characteristic
  • a visual processing device comprising:
  • a visual processing method comprising:
  • a visual processing program for performing a visual processing method for performing visual processing of an input image signal using a computer
  • the visual processing method comprises:
  • a target image region determining unit that determines a target image region for which a gradation conversion characteristic is to be derived from an input image signal
  • a peripheral image region determining unit that determines at least one peripheral image region including a plurality of pixels and located around the target image region
  • a gradation conversion characteristic deriving unit that derives the gradation conversion characteristic of the target image region using peripheral image data of the peripheral image region;
  • a gradation processing unit that performs gradation processing of an image signal of the target image area based on the derived gradation conversion characteristic
  • a semiconductor device comprising:
  • the visual processing device includes an image area dividing unit, a gradation conversion characteristic deriving unit, and a gradation processing unit.
  • the image area dividing means divides the input image signal into a plurality of image areas.
  • the gradation conversion characteristic deriving means is a means for deriving the gradation conversion characteristic for each image area, and the gradation characteristic between the target image area from which the gradation conversion characteristic is derived and the surrounding image area of the target image area. Is used to derive the tone conversion characteristics of the target image area.
  • the gradation processing means performs gradation processing on the image signal based on the derived gradation conversion characteristics.
  • the gradation conversion characteristic is a characteristic of gradation processing for each image area.
  • the gradation characteristics are pixel values such as brightness and brightness for each pixel, for example.
  • the visual processing device of the present invention when determining the gradation conversion characteristics for each image area, not only the gradation characteristics for each image area, but also the gradation characteristics of a wide-area image area including the surrounding image areas. Use it to make a decision. Therefore, it is possible to add a spatial processing effect to the gradation processing for each image area, and it is possible to realize gradation processing that further improves the visual effect.
  • the visual processing device is the visual processing device according to attachment 1, wherein the gradation conversion characteristic is a gradation conversion curve.
  • the tone conversion characteristic deriving means includes a histogram creating means for creating a histogram using the tone characteristics, and a tone curve creating means for creating a tone conversion curve based on the created histogram. are doing.
  • the histogram is, for example, a distribution with respect to gradation characteristics of pixels included in the target image region and the peripheral image region.
  • the gradation curve creating means uses a cumulative curve obtained by accumulating the values of the hysteresis as a gradation conversion curve.
  • a histogram is created using not only the gradation characteristics for each image area but also the wide-range gradation characteristics including the surrounding image areas. For this reason, it is possible to increase the number of divisions of the image signal and reduce the size of the image area, and it is possible to suppress the generation of the pseudo contour due to the gradation processing. In addition, it is possible to prevent the boundary of the image area from being noticeable unnaturally.
  • the visual processing device is the visual processing device according to attachment 1, wherein the gradation conversion characteristic is one gradation conversion table among a plurality of gradation conversion tables for gradation processing of an image signal. Is a selection signal for selecting.
  • the gradation processing means includes a plurality of gradations. It has a conversion table as a two-dimensional LUT.
  • the gradation conversion table is, for example, a look-up table (L U T) that stores pixel values of image signals that have been subjected to gradation processing on pixel values of image signals.
  • the selection signal has a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables.
  • the gradation processing means outputs a pixel value of the image signal subjected to the gradation processing by referring to the two-dimensional LUT from the value of the selection signal and the pixel value of the image signal.
  • gradation processing is performed two-dimensionally and with reference to UT. For this reason, it is possible to speed up the gradation processing.
  • gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed.
  • the visual processing device is the visual processing device according to appendix 3, wherein the two-dimensional LUT is the value of the image signal subjected to gradation processing with respect to the value of the selection signal in all values of the image signal.
  • a plurality of gradation conversion tables are stored in the order of increasing or decreasing monotonically.
  • the value of the selection signal indicates the degree of gradation conversion.
  • the visual processing device according to attachment 5 is the visual processing device according to attachment 3 or 4, wherein the two-dimensional LUT can be changed by registering profile data.
  • the profile data is data stored in the two-dimensional LUT, and has, for example, pixel values of the image signal subjected to gradation processing as elements.
  • the visual processing device of the present invention by changing the two-dimensional LUT, it is possible to variously change the characteristics of the gradation processing without changing the hardware configuration.
  • the visual processing device is the visual processing device according to any one of attachments 3 to 5, and the value of the selection signal is derived for each of the target image region and the surrounding image region. It is derived as a feature amount of the individual selection signal which is the selected signal.
  • the feature amount of the individual selection signal is, for example, an average value (simple average or weighted average), a maximum value, or a minimum value of the selection signals derived for each image region.
  • the selection signal for the target image region is derived as a feature amount of the selection signal for a wide image region including the peripheral image region. For this reason, it is possible to add a spatial processing effect to the selection signal, and it is possible to prevent the boundary of the image region from being noticeable naturally.
  • the visual processing device is the visual processing device according to any one of appendices 3 to 5, wherein the selection signal is derived using the gradation characteristics of the target image region and the peripheral image region. It is derived based on the gradation characteristic feature quantity which is a quantity.
  • the gradation characteristic feature amount is, for example, an average value (simple average or weighted average), a maximum value, or a minimum value of a wide range of gradation characteristics between the target image region and the peripheral image region.
  • the selection signal for the target image area is derived based on the gradation characteristic feature amount for a wide image area including the peripheral image area. For this reason, it is possible to add a spatial processing effect to the selection signal, and it is possible to prevent the boundary of the image area from being noticeable unnaturally.
  • the visual processing device is the visual processing device according to any of Supplementary Notes 3 to 7, wherein the gradation processing unit includes a gradation processing execution unit and a correction unit.
  • the gradation processing execution means executes gradation processing of the target image region using the gradation conversion table selected by the selection signal.
  • the correction unit is a unit that corrects the gradation of the gradation-processed image signal, and is selected for an image area including the target pixel to be corrected and an image area adjacent to the image area including the target pixel. The tone of the target pixel is corrected based on the tone processing table.
  • the adjacent image region may be the same image region as the peripheral image region when the gradation conversion characteristics are derived, or may be a different image region.
  • the adjacent image areas are selected as three image areas having a short distance from the target pixel among the image areas adjacent to the image area including the target pixel.
  • the correction unit corrects the gradation of the image signal subjected to the gradation processing using, for example, the same gradation conversion table for each target image area.
  • the correction of the target pixel is performed so that, for example, the influence of each gradation conversion table selected for the adjacent image area appears according to the position of the target pixel.
  • the visual processing device is the visual processing device according to any one of attachments 3 to 7, wherein the gradation processing means includes correction means and gradation processing execution means.
  • the correction means corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal.
  • the gradation processing execution means executes gradation processing of the image signal using the gradation conversion table selected by the correction selection signal.
  • the correcting unit corrects the selection signal derived for each target image region based on the pixel position and the selection signal derived for the image region adjacent to the target image region, and derives a selection signal for each pixel.
  • a selection signal can be derived for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.
  • the visual processing method includes an image area dividing step, a gradation conversion characteristic deriving step, and a gradation processing step.
  • the image region dividing step divides the input image signal into a plurality of image regions.
  • the gradation conversion characteristic deriving step is a step of deriving gradation conversion characteristics for each image area, and the gradation characteristics of the target image area from which the gradation conversion characteristics are derived and the surrounding image area of the target image area. Is used to derive the tone conversion characteristics of the target image area.
  • gradation processing step gradation processing of the image signal is performed based on the derived gradation conversion characteristics.
  • the gradation conversion characteristic is a characteristic of gradation processing for each image area.
  • the gradation characteristics are pixel values such as brightness and brightness for each pixel, for example.
  • the visual processing method of the present invention when determining the gradation conversion characteristics for each image area, not only the gradation characteristics for each image area, but also the gradation characteristics of a wide-area image area including the peripheral image areas. Use it to make a decision. For this reason, it is possible to add a spatial processing effect to the gradation processing for each image area, and it is possible to realize gradation processing with a higher visual effect.
  • the visual processing method according to Supplementary Note 11 is the visual processing method according to Supplementary Note 10;
  • the gradation conversion characteristic is a gradation conversion curve.
  • the tone conversion characteristic deriving step includes a histogram creation step of creating a histogram using the tone characteristics, and a tone curve creation step of creating a tone conversion curve based on the created histogram. You.
  • the histogram is, for example, a distribution with respect to gradation characteristics of pixels included in the target image region and the peripheral image region.
  • a cumulative curve obtained by accumulating the values of the histograms is used as a gradation conversion curve.
  • a histogram is created using not only the tone characteristics for each image region but also a wide range of tone characteristics including peripheral image regions. For this reason, it is possible to increase the number of divisions of the image signal and reduce the size of the image area, and it is possible to suppress the generation of pseudo contours due to gradation processing. In addition, it is possible to prevent the boundary of the image area from being noticeable unnaturally.
  • the visual processing method described in 2 is the visual processing method described in Appendix 10, wherein the gradation conversion characteristic is one of a plurality of gradation conversion tables for gradation processing of an image signal. It is a selection signal for selecting a key conversion table.
  • the gradation processing step has a gradation processing execution step and a correction step. In the gradation processing execution step, the gradation processing of the target image area is executed using the gradation conversion table selected by the selection signal.
  • the correction step is a step of correcting the gradation of the gradation-processed image signal, and is selected for an image area including the target pixel to be corrected and an image area adjacent to the image area including the target pixel. The gradation of the target pixel is corrected based on the gradation processing table.
  • the gradation conversion table is, for example, a look-up table (L U T) that stores pixel values of image signals that have been subjected to gradation processing on pixel values of image signals.
  • the adjacent image region may be the same image region as the peripheral image region when the gradation conversion characteristics are derived, or may be a different image region.
  • the adjacent image areas are selected as three image areas having a short distance from the target pixel among the image areas adjacent to the image area including the target pixel.
  • the selection signal has, for example, a value assigned to one tone conversion table selected from values assigned to each of the plurality of tone conversion tables.
  • the pixel value of the gradation-processed image signal is output by referring to the LUT based on the value of the selection signal and the pixel value of the image signal.
  • the correction step for example, the gradation of the image signal subjected to gradation processing using the same gradation conversion table for each target image area is corrected.
  • the correction of the target pixel is performed so that, for example, the influence of each gradation conversion table selected for the adjacent image region appears according to the position of the target pixel.
  • gradation processing is performed with reference to LU.
  • gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed. Furthermore, the gradation of the image signal can be corrected for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.
  • the visual processing method described in appendix 13 is the visual processing method described in appendix 10, and the gradation conversion characteristic is one level among a plurality of gradation conversion tables that perform gradation processing on an image signal. It is a selection signal for selecting a key conversion table.
  • the gradation processing step has a correction step and a gradation processing execution step.
  • the correction step corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal.
  • gradation processing execution step gradation processing of the image signal is executed using a gradation conversion table selected by the correction selection signal.
  • the gradation conversion table is, for example, a look-up table (L U T) that stores pixel values of image signals that have been subjected to gradation processing on pixel values of image signals.
  • the selection signal has a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables.
  • the gradation processing step outputs a pixel value of the gradation-processed image signal by referring to the two-dimensional LUT from the value of the selection signal and the pixel value of the image signal.
  • the correction step for example, the selection signal derived for each target image region is corrected based on the pixel signal and the selection signal derived for the image region adjacent to the target image region, and a selection signal for each pixel is derived.
  • gradation processing is performed with reference to the LUT. For this reason, it is possible to speed up the gradation processing.
  • one from multiple tone conversion tables Since the gradation conversion table is selected and gradation processing is performed, appropriate gradation processing can be performed.
  • a selection signal can be derived for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.
  • the visual processing program described in appendix 14 is a visual processing program that causes a computer to execute a visual processing method including an image region dividing step, a gradation conversion characteristic deriving step, and a gradation processing step.
  • the image area dividing step divides the input image signal into a plurality of image areas.
  • the step of deriving the gradation conversion characteristic is a step of deriving the gradation conversion characteristic for each image region. It is used to derive the gradation conversion characteristics of the target image area.
  • gradation processing of the image signal is performed based on the derived gradation conversion characteristics.
  • the gradation conversion characteristic is a characteristic of gradation processing for each image area.
  • the gradation characteristic is, for example, a pixel value such as luminance and brightness for each pixel.
  • the visual processing program of the present invention when determining the gradation conversion characteristics for each image area, not only the gradation characteristics for each image area but also the gradation characteristics of a wide image area including the peripheral image areas are used. Make a decision. For this reason, spatial processing effects can be added to the gradation processing for each image area, and gradation processing with higher visual effects can be realized.
  • the visual processing program according to attachment 15 is the visual processing program according to attachment 14 in which the gradation conversion characteristic is a gradation conversion curve.
  • the tone conversion characteristic deriving step includes a histogram creation step of creating a histogram using the tone characteristics, and a tone curve creation step of creating a tone conversion curve based on the created histogram. are doing.
  • the histogram is, for example, a distribution with respect to gradation characteristics of pixels included in the target image region and the peripheral image region.
  • a cumulative curve obtained by accumulating the values of the histograms is used as a gradation conversion curve.
  • the visual processing program of the present invention when creating a histogram, not only the gradation characteristics of each image region but also the wide range of gradation characteristics including the peripheral image regions are used. Create a gram. For this reason, it is possible to increase the number of divisions of the image signal and reduce the size of the image area, and it is possible to suppress the occurrence of a false contour due to the gradation processing. In addition, it is possible to prevent the boundary of the image area from being noticeable unnaturally.
  • the visual processing program according to Supplementary Note 16 ' is the visual processing program according to Supplementary Note 14, wherein the gradation conversion characteristic is one of a plurality of gradation conversion tables for performing gradation processing on an image signal.
  • the gradation processing step has a gradation processing execution step and a correction step.
  • gradation processing execution step gradation processing of the target image area is performed using a gradation conversion table selected by the selection signal.
  • the correction step is a step of correcting the gradation of the gradation-processed image signal.
  • the correction step includes selecting an image region including the target pixel to be corrected and an image region adjacent to the image region including the target pixel. The gradation of the target pixel is corrected based on the gradation processing table.
  • the gradation conversion table is, for example, a look-up table (L U T) that stores pixel values of image signals that have been subjected to gradation processing on pixel values of image signals.
  • the adjacent image region may be the same image region as the peripheral image region when the gradation conversion characteristics are derived, or may be a different image region.
  • the adjacent image areas are selected as three image areas having a short distance from the target pixel among the image areas adjacent to the image area including the target pixel.
  • the selection signal has, for example, a value assigned to one tone conversion table selected from values assigned to each of the plurality of tone conversion tables.
  • the pixel value of the gradation-processed image signal is output by referring to the LUT based on the value of the selection signal and the pixel value of the image signal.
  • the correction step for example, the gradation of the image signal subjected to gradation processing using the same gradation conversion table for each target image area is corrected.
  • the correction of the target pixel is performed so that, for example, the influence of each gradation conversion table selected for the adjacent image region appears according to the position of the target pixel.
  • gradation processing is performed with reference to the LUT.
  • the visual processing program described in 7 is the visual processing program described in APPENDIX 14, wherein the gradation conversion characteristic is one floor among a plurality of gradation conversion tables for gradation processing of image signals. It is a selection signal for selecting a key conversion table. Further, the gradation processing step has a correction step and a gradation processing execution step. The correction step corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal. In the gradation processing execution step, the gradation processing of the image signal is executed using a gradation conversion table selected by the correction selection signal.
  • the gradation conversion table is, for example, a look-up table (L U T) that stores pixel values of image signals that have been subjected to gradation processing on pixel values of image signals.
  • the selection signal has a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables.
  • the gradation processing step outputs a pixel value of the gradation-processed image signal by referring to the two-dimensional LUT from the value of the selection signal and the pixel value of the image signal.
  • the correction step for example, the selection signal derived for each target image region is corrected based on the pixel signal and the selection signal derived for the image region adjacent to the target image region, and a selection signal for each pixel is derived.
  • gradation processing is performed with reference to LUT. For this reason, it is possible to speed up the gradation processing.
  • gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed.
  • a selection signal can be derived for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.
  • the visual processing device is the visual processing device according to Supplementary Note 1, wherein the gradation processing unit converts a curve parameter of a gradation conversion curve for performing gradation processing on the image signal into a gradation conversion curve. It has parameter output means for outputting based on characteristics.
  • the gradation processing means performs gradation processing on the image signal using a gradation conversion curve specified based on the gradation conversion specification and the curve parameter.
  • the gradation conversion curve includes a curve that is at least partially linear.
  • the curve parameter is a parameter for distinguishing the gradation conversion curve from other gradation conversion curves, such as the coordinates on the gradation conversion curve, the gradient of the gradation conversion curve, and the curvature.
  • the parameter output means includes, for example, a lookup table for storing curve parameters for gradation conversion characteristics, and a calculation means for calculating curve parameters by performing calculations such as curve approximation using curve parameters for predetermined gradation conversion characteristics. It is.
  • the visual processing device of the present invention performs gradation processing on an image signal according to gradation conversion characteristics. For this reason, it is possible to perform gradation processing more appropriately. In addition, it is not necessary to store in advance the values of all tone conversion curves used for tone processing, and tone processing is performed by specifying the tone conversion curve from the output curve parameters. For this reason, it is possible to reduce the storage capacity for storing the gradation conversion curve.
  • the visual processing device according to attachment 19 is the visual processing device according to attachment 18 and the parameter output means is a look-up table that stores the relationship between the gradation conversion characteristics and the curve parameters.
  • the look-up table stores the relationship between tone conversion characteristics and curve parameters.
  • the gradation processing means performs gradation processing on the image signal using the specified gradation conversion curve.
  • the visual processing device of the present invention performs gradation processing on an image signal according to gradation conversion characteristics. For this reason, it is possible to perform gradation processing more appropriately. Furthermore, it is not necessary to store in advance the values of all tone conversion curves that are used, only the curve parameters are stored. For this reason, it is possible to reduce the storage capacity for storing the gradation conversion curve.
  • the visual processing device according to attachment 20 is the visual processing device according to attachment 18 or 19, wherein the curve parameter includes a value of the gradation-processed image signal with respect to a predetermined value of the image signal.
  • the gradation processing means non-linearly or linearly internally divides the value of the gradation-processed image signal included in the curve parameter using the relationship between a predetermined value of the image signal and the value of the image signal to be subjected to visual processing. Then, the value of the gradation-processed image signal is derived.
  • the visual processing device of the present invention it is possible to specify a gradation conversion curve from the value of a gradation-processed image signal with respect to a predetermined value of the image signal and perform gradation processing.
  • the visual processing device according to attachment 21 is the visual processing device according to any one of attachments 18 to 20, wherein the curve parameter represents a slope of a gradation conversion curve in a predetermined section of the image signal. Including.
  • the gradation conversion curve is specified by the gradient of the gradation conversion curve in a predetermined section of the image signal. Further, using the specified gradation conversion curve, the value of the image signal subjected to gradation processing with respect to the value of the image signal is derived.
  • the visual processing device of the present invention it is possible to specify a gradation conversion curve and perform gradation processing based on the inclination of the gradation conversion curve in a predetermined section of the image signal.
  • the visual processing device according to attachment 22 is the visual processing device according to any of attachments 18 to 21, wherein the curve parameter includes coordinates of at least one point through which the gradation conversion curve passes.
  • the coordinates of at least one point through which the gradation conversion curve passes are specified. That is, at least one point of the value of the image signal after gradation processing is specified for the value of the image signal.
  • the gradation processing means uses the relationship between the value of the specified image signal and the value of the image signal that is the target of visual processing, and adds the value of the specified image signal after gradation processing in a nonlinear or linear manner. By dividing, the value of the image signal subjected to gradation processing is derived.
  • the visual processing device of the present invention it is possible to specify the gradation conversion curve and perform the gradation processing based on the coordinates of at least one point through which the gradation conversion curve passes.
  • the visual processing device includes spatial processing means and visual processing means.
  • the spatial processing means is means for performing spatial processing for each of a plurality of image regions in the input image signal to derive a spatial processing signal.
  • Spatial processing uses the weighting based on the difference in gradation characteristics between the target image area that is the target of spatial processing and the surrounding image area of the target image area, and the gradation characteristics between the target image area and the surrounding image area. Perform a weighted average.
  • the visual processing means performs visual processing of the target image area based on the gradation characteristics of the target image area and the spatial processing signal.
  • the image area is an area including a plurality of pixels in an image, or a pixel.
  • the gradation characteristics are values based on pixel values such as luminance and brightness for each pixel.
  • the gradation characteristics of an image area include an average value (simple average or weighted average), a maximum value, or a minimum value of pixel values of pixels included in the image area.
  • the spatial processing means performs spatial processing of the target image area using the gradation characteristics of the peripheral image area.
  • the gradation characteristics of the target image area and the surrounding image area are weighted averaged.
  • the weight in the weighted average is set based on the difference in gradation characteristics between the target image area and the peripheral image area.
  • the visual processing device of the present invention it is possible to suppress the influence received from image regions having greatly different gradation characteristics in the spatial processing signal. For example, it is possible to derive an appropriate spatial processing signal even when the peripheral image area is an image including the boundary of an object and the gradation characteristics are significantly different from the target image area. As a result, even in visual processing using spatially processed signals, it is possible to suppress the occurrence of pseudo contours. This makes it possible to realize visual processing that improves the visual effect.
  • the visual processing device according to attachment 24 is the visual processing device according to attachment 23, wherein the weighting decreases as the absolute value of the difference in gradation characteristics increases.
  • the weight may be given as a value that monotonously decreases in accordance with a difference in gradation characteristics, or is set to a predetermined value by comparing a predetermined threshold value with a difference in gradation characteristics. It may be a thing.
  • the visual processing device of the present invention it is possible to suppress the influence received from image regions having greatly different gradation characteristics in the spatial processing signal. For example, it is possible to derive an appropriate spatial processing signal even when the peripheral image area is an image including the boundary of an object and the tone characteristics are largely different from the target image area. As a result, even in visual processing using spatially processed signals, it is possible to suppress the occurrence of pseudo contours. This makes it possible to realize visual processing that improves the visual effect.
  • the visual processing device according to attachment 25 is the visual processing device according to attachment 23 or 24, wherein the weighting is smaller as the distance between the target image region and the peripheral image region is larger. 1
  • the weight may be given as a value that monotonically decreases according to the magnitude of the distance between the target image area and the peripheral image area, or by comparing a predetermined threshold value with the magnitude of the distance. It may be set to a predetermined value.
  • the visual processing device of the present invention it is possible to suppress the influence of the spatial processing signal from the peripheral image region that is distant from the target image region. For this reason, the peripheral image area is an image including the boundary of the object, etc., and even if the gradation characteristics are significantly different from the target image area, if the peripheral image area and the target image area are separated from each other, It is possible to suppress the influence from the image area and derive a more appropriate spatial processing signal.
  • the visual processing device according to attachment 26 is the visual processing device according to any one of attachments 23 to 25, wherein the image area includes a plurality of pixels.
  • the gradation characteristics of the target image area and the peripheral image area are determined as feature values of pixel values constituting each image area.
  • the visual processing device of the present invention when performing spatial processing for each image area, not only the pixels included in each image area but also the gradation characteristics of the pixels included in a wide-area image area including the surrounding image areas Process using. This makes it possible to perform more appropriate spatial processing. As a result, even in visual processing using spatially processed signals, it is possible to suppress the occurrence of pseudo contours. Therefore, it is possible to realize visual processing that improves the visual effect.
  • the visual processing device includes a target image region determining unit, a peripheral image region determining unit, a gradation conversion characteristic deriving unit, and a gradation processing unit.
  • the target image area determining means determines a target image area for which the gradation conversion characteristic is to be derived from the input image signal.
  • the peripheral image area determining means determines at least one peripheral image area located around the target image area and including a plurality of pixels.
  • the gradation conversion characteristic deriving means derives a gradation conversion characteristic of the target image region using the peripheral image data of the peripheral image region.
  • the gradation processing means performs gradation processing on the image signal of the target image area based on the derived gradation conversion characteristics.
  • the target image area is, for example, a pixel included in the image signal or a predetermined unit of the image signal. It is an image block divided into several places, or an area composed of a plurality of pixels.
  • the peripheral image area is, for example, an area composed of an image block obtained by dividing an image signal into predetermined units and other plural pixels.
  • the peripheral image data is image data of the peripheral image area or data derived from the image data, and includes, for example, a pixel value of the peripheral image area, a gradation characteristic (brightness and brightness for each pixel), a thumbnail (a reduced image) Or thinned images with reduced resolution). Further, the peripheral image area only needs to be located around the target image area, and need not be an area surrounding the target image area.
  • the visual processing device of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using peripheral image data of the peripheral image area. Therefore, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further improves the visual effect.
  • the visual processing method includes a target image region determining step, a peripheral image region determining step, a gradation conversion characteristic deriving step, and a gradation processing step.
  • the target image area determining step determines a target image area for which the gradation conversion characteristic is to be derived from the input image signal.
  • the peripheral image region determining step determines at least one peripheral image region that is located around the target image region and includes a plurality of pixels.
  • the gradation conversion characteristic of the target image area is derived using the peripheral image data of the peripheral image area.
  • the gradation processing step performs gradation processing of the image signal of the target image area based on the derived gradation conversion characteristics.
  • the visual processing method of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using peripheral image data of the peripheral image area. Therefore, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further improves the visual effect.
  • the visual processing program according to Supplementary Note 29 is a visual processing program for performing a visual processing method of performing visual processing on an input image signal using a computer.
  • the visual processing method includes a target image region determining step, a peripheral image region determining step, a gradation conversion characteristic deriving step, and a gradation processing step.
  • the target image area determining step determines a target image area from which the gradation conversion characteristic is to be derived from the input image signal.
  • the peripheral image area determination step is located around the target image area. At least one peripheral image area including a plurality of pixels is determined.
  • the gradation conversion characteristic deriving step derives a gradation conversion characteristic of the target image region using the peripheral image data of the peripheral image region.
  • the gradation processing step performs gradation processing on the image signal of the target image area based on the derived gradation conversion characteristics.
  • the visual processing program of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further enhances the visual effect.
  • the semiconductor device includes a target image region determining unit, a peripheral image region determining unit, a gradation conversion characteristic deriving unit, and a gradation processing unit.
  • the target image area determination unit determines a target image area from which the gradation conversion characteristic is to be derived from the input image signal.
  • the peripheral image region determining unit determines at least one peripheral image region located around the target image region and including a plurality of pixels.
  • the gradation conversion characteristic deriving unit derives a gradation conversion characteristic of the target image region using peripheral image data of the peripheral image region.
  • the gradation processing unit performs gradation processing on the image signal of the target image area based on the derived gradation conversion characteristics.
  • the semiconductor device of the present invention when judging the gradation conversion characteristics of the target image area, the judgment is made using the peripheral image data of the peripheral image area. For this reason, it is possible to add a spatial processing effect to the gradation processing for each target image area, and it is possible to realize gradation processing that further enhances the visual effect.
  • the visual processing device is also applicable to applications such as a visual processing device that performs a gradation process on an image signal that needs to realize a gradation process for further improving a visual effect.

Abstract

 本発明は、さらに視覚的効果を向上させる階調処理を実現する視覚処理装置を提供するものである。視覚処理装置1は、入力信号ISを画像領域毎に階調処理する視覚処理装置であって、画像分割部2と、階調変換曲線導出部10と、階調処理部5とを備えている。画像分割部2と、階調変換曲線導出部10とは、広域画像領域Emの明度ヒストグラムHmを用いて、画像領域Pmの階調変換曲線Cmを作成する。階調処理部5は、導出された階調変換曲線Cmに基づいて、画像領域Pmの階調処理を行う。

Description

明 細 書 視覚処理装置、 視覚処理方法、 視覚処理プログラムおよび半導体装置 (技術分野)
本発明は、 視覚処理装置、 特に、 画像信号の階調処理を行う視覚処理装置に関 する。 また、 別の本発明は、 視覚処理方法、 視覚処理プログラムおよび半導体装 置に関する。 (背景技術)
原画像の画像信号の視覚処理として、 空間処理と階調処理とが知られている。 空間処理とは、 処理対象となる対象画素の周辺の画素を用い、 対象画素の処理 を行うことである。 また、 空間処理された画像信号を用いて、 原画像のコントラ スト強調、 ダイナミックレンジ (D R ) 圧縮など行う技術が知られている。 コン トラスト強調では、 原画像とボケ信号との差分 (画像の鮮鋭成分) を原画像に加 え、 画像の鮮鋭化が行われる。 D R圧縮では、 原画像からボケ信号の一部が減算 され、 ダイナミックレンジの圧縮が行われる。
階調処理とは、 対象画素の周辺の画素とは無関係に、 対象画素毎にルックアツ プテーブル (L U T ) などを用いて画素値の変換を行う処理であり、 ガンマ補正 と呼ばれることもある。 例えば、 コントラスト強調する場合、 原画像での出現頻 度の高い階調レベルの階調を強調する L U Tを用いて画素値の変換が行われる。
L U Tを用いた階調処理として、 原画像全体に 1つの L U Tを決定して用いる階 調処理 (ヒストグラム均等化法) と、 原画像を複数に分割した画像領域のそれぞ れについて L U Tを決定して用いる階調処理 (局所的ヒストグラム均等化法) と が知られている (例えば、 特開 2 0 0 0— 5 7 3 3 5号公報 (第 3頁, 第 1 3図 〜第 1 6図) 参照。 ) 。
図 3 3〜図 3 6を用いて、 原画像を複数に分割した画像領域のそれぞれについ て L U Tを決定して用いる階調処理について説明する。
図 3 3に、 原画像を複数に分割した画像領域のそれぞれについて L U Tを決定 して用いる視覚処理装置 300を示す。 視覚処理装置 300は、 入力信号 I Sと して入力される原画像を複数の画像領域 Sm (1≤m≤n : nは原画像の分割数 ) に分割する画像分割部 301と、 それぞれの画像領域 Smに対して階調変換曲 線 Cmを導出する階調変換曲線導出部 31 0と、 階調変換曲線 Cmをロードしそ れぞれの画像領域 Smに対して階調処理した出力信号 OSを出力する階調処理部 304とを備えている。 階調変換曲線導出部 31 0は、 それぞれの画像領域 Sm 内の明度ヒストグラム Hmを作成するヒストグラム作成部 302と、 作成された 明度ヒストグラム Hmからそれぞれの画像領域 Smに対する階調変換曲線 Cmを 作成する階調曲線作成部 303とから構成される。
図 34〜図 36を用いて、 各部の動作について説明を加える。 画像分割部 30 1は、 入力信号 I Sとして入力される原画像を複数 (n個) の画像領域に分割す る (図 34 (a) 参照。 ) 。 ヒストグラム作成部 302は、 それぞれの画像領域 Smの明度ヒストグラム Hmを作成する (図 35参照。 ) 。 それぞれの明度ヒス トグラム Hmは、 画像領域 Sm内の全画素の明度値の分布状態を示している。 す なわち、 図 35 (a) 〜 (d) に示す明度ヒストグラム Hmにおいて、 横軸は入 力信号 I Sの明度レベルを、 縦軸は画素数を示している。 階調曲線作成部 303 は、 明度ヒストグラム Hmの 「画素数」 を明度の順に累積し、 この累積曲線を階 調変換曲線 Cmとする (図 36参照。 ) 。 図 36に示す階調変換曲線 Cmにおい て、 横軸は入力信号 I Sにおける画像領域 Smの画素の明度値を、 縦軸は出力信 号 OSにおける画像領域 Smの画素の明度値を示している。 階調処理部 304は 、 階調変換曲線 Cmをロードし階調変換曲線 Cmに基づいて、 入力信号 I Sにお ける画像領域 Smの画素の明度値を変換する。 こうすることにより、 各ブロック において出現頻度の高い階調の傾きを立てることとなり、 ブロックごとのコント ラスト感が向上するものである。
. (発明の開示)
ヒス卜グラム作成部 302では、 画像領域 Sm内の画素の明度ヒストグラム H mから階調変換曲線 Cmを作成する。 画像領域 Smに適用する階調変換曲線 Cm をより適切に作成するには、 画像の暗部 (シャドー) から明部 (ハイライ卜) ま でを満遍なく有していることが必要であり、 より多くの画素を参照する必要があ る。 このため、 それぞれの画像領域 S mをあまり小さくすることができない、 す なわち原画像の分割数 nをあまり大きくすることができない。 分割数 nとしては、 画像内容によって異なるが、 経験的に、 4 ~ 1 6の分割数が用いられている。 それぞれの画像領域 S mをあまり小さくすることができないため、 階調処理後 の出力信号 O Sにおいては、 次の問題が発生することがある。 すなわち、 それぞ れの画像領域 S mごとに 1つの階調変換曲線 C mを用いて階調処理するため、 そ れぞれの画像領域 S mの境界のつなぎ目が不自然に目立ったり、 画像領域 S m内 で疑似輪郭が発生する場合がある。 また、 分割数がせいぜい 4 ~ 1 6では画像領 域 S mが大きいため、 画像領域間で極端に異なる画像が存在する場合、 画像領域 間の濃淡変化が大きく、 擬似輪郭の発生を防止することが、難し'い。 例えば、 図 3 4 ( b ) 、 図 3 4 ( c ) のように、 画像 (例えば、 画像中の物体など) と画像領 域 S mとの位置関係で極端に濃淡が変化する。
そこで、 本発明では、 さらに視覚的効果を向上させる階調処理を実現する視覚 処理装置を提供することを課題とする。
請求項 1に記載の視覚処理装置は、 入力された画像信号を画像領域毎に階調処 理する視覚処理装置であって、 階調変換特性導出手段と、 階調処理手段とを備え ている。 階調変換特性導出手段は、 階調処理の対象となる対象画像領域の周辺に 位置する画像領域であって、 複数の画素を含む少なくとも 1つの周辺画像領域の 周辺画像データを用いて、 対象画像領域の階調変換特性を導出する。 階調処理手 段は、 導出された階調変換特性に基づいて、 対象画像領域の画像信号の階調処理 を行う。
対象画像領域とは、 例えば、 画像信号に含まれる画素や、 画像信号を所定の単 位に分割した画像ブロックその他の複数の画素から構成される領域などである。 周辺画像領域とは、 例えば、 画像信号を所定の単位に分割した画像ブロックその 他の複数の画素から構成される領域である。 周辺画像データとは、 周辺画像領域 の画像データあるいは画像データから導出されるデータなどであり、 例えば、 周 辺画像領域の画素値、 階調特性 (画素毎の輝度や明度) 、 サムネイル (縮小画像 や解像度を落とした間引き画像) などである。 また、 周辺画像領域は、 対象画像 領域の周辺に位置すればよく、 対象画像領域を取り囲む領域である必要はない。 本発明の視覚処理装置では、 対象画像領域の階調変換特性を判断する際に、 周 辺画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領域毎の 階調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果を向上 させる階調処理を実現することが可能となる。
請求項 2に記載の視覚処理装置は、 請求項 1に記載の視覚処理装置であって、 周辺画像領域は、 画像信号を所定の単位に分割した画像ブロックである。
ここで、 画像ブロックとは、 画像信号を矩形に分割したそれぞれの領域である。 本発明の視覚処理装置では、 周辺画像領域を画像プロック単位で処理すること が可能となる。 このため、 周辺画像領域の決定や、 階調変換特性の導出に要する 処理負荷を低減することが可能となる。
請求項 3に記載の視覚処理装置は、 請求項 1または 2に記載の視覚処理装置で あって、 階調変換特性導出手段は、 対象画像領域の対象画像データをさらに用い て、 対象画像領域の階調変換特性を導出する。
対象画像データとは、 対象画像領域の画像データあるいは画像データから導出 されるデータなどであり、 例えば、 対象画像領域の画素値、 階調特性 (画素毎の 輝度や明度) 、 サムネイル (縮小画像や解像度を落とした間引き画像) などであ る。
本発明の視覚処理装置では、 対象画像領域の階調変換特性を判断する際に、 対 象画像領域の対象画像データだけでなく、 周辺画像領域の周辺画像データを用い て判断を行う。 このため、 対象画像領域の階調処理に空間処理的効果を加えるこ とが可能となり、 さらに視覚的効果を向上させる階調処理を実現することが可能 となる。
請求項 4に記載の視覚処理装置は、 請求項 3に記載の視覚処理装置であって、 階調変換特性導出手段は、 対象画像データおよび周辺画像データを用いて対象画 像領域の特徴を示すパラメータである特徴パラメータを導出する特徴パラメータ 導出手段と、 特徴パラメータ導出手段で導出された対象領域の特徴パラメータに 基づいて階調変換特性を決定する階調変換特性決定手段とを有している。
特徴パラメータとは、 例えば、 対象画像データおよび周辺画像データなどの平 均値 (単純平均値、 加重平均値など) や、 代表値 (最大値、 最小値、 中央値な ど) や、 ヒストグラムなどである。 ここで、 ヒストグラムとは、 例えば、 対象画 像データおよび周辺画像データの階調特性の分布である。
本発明の視覚処理装置では、 対象画像データだけでなく、 周辺画像データを用 いて特徴パラメータを導出する。 このため、 対象画像領域の階調処理に空間処理 的効果を加えることが可能となり、 さらに視覚的効果を向上させる階調処理を実 現することが可能となる。 より具体的な効果として、 階調処理による疑似輪郭の 発生を抑制することが可能となる。 また、 対象画像領域の境界が不自然に目立つ ことが防止可能となる。
請求項 5に記載の視覚処理装置は、 請求項 4に記載の視覚処理装置であって、 特徴パラメータは、 ヒストグラムであることを特徴とする。
階調変換特性決定手段は、 例えば、 ヒストグラムの値を累積した累積曲線を階 調変換特性として決定する、 あるいはヒス卜グラムに応じた階調変換特性を選択 する。
本発明の視覚処理装置では、 対象画像データだけでなく、 周辺画像データを用 いてヒス卜グラムを作成する。 このため、 階調処理による疑似輪郭の発生を抑制 することが可能となる。 また、 対象画像領域の境界が不自然に目立つことが防止 可能となる。
請求項 6に記載の視覚処理装置は、 請求項 4に記載の視覚処理装置であって、 階調変換特性決定手段は、 特徴パラメータを用いて予めテーブル化された階調変 換特性を選択することを特徴とする。
ここで、 階調変換特性は、 テーブル化されたデータであり、 テーブルには、 対 象画像データに対する階調処理後の対象画像データの特性が格納されている。 階調変換特性決定手段は、 特徴パラメータの値のそれぞれに対応するテーブル を選択する。
本発明の視覚処理装置では、 テーブル化された階調変換特性を用いて階調処理 を行う。 このため、 階調処理を高速化することが可能となる。 また、 複数のテー ブルから 1つのテーブルを選択して階調処理を行うため、 適切な階調処理を行う ことが可能となる。 請求項 1に記載の視覚処理装置は、 請求項 6に記載の視覚処理装置であって、 予めテーブル化された階調変換特性は、 変更可能なことを特徴とする。
本発明の視覚処理装置では、 階調変換特性を変更することにより、 ハードゥエ ァ構成を変更せずに階調処理の特性を様々に変更することが可能となる。
請求項 8に記載の視覚処理装置は、 請求項 7に記載の視覚処理装置であって、 階調変換特性の変更は、 階調変換特性の少なくとも一部を補正することによって 実現されることを特徴とする。
本発明の視覚処理装置では、 階調変換特性の少なくとも一部を補正することに より階調変換特性の変更を行う。 このため、 階調変換特性のための記憶容量を削 減しつつ、 様々な階調処理を実現することが可能となる。
請求項 9に記載の視覚処理装置は、 請求項 4に記載の視覚処理装置であって、 階調変換特性決定手段は、 特徴パラメータを用いて予め決定された演算により階 調変換特性を生成することを特徴とする。
ここで、 階調変換特性は、 対象画像データに対する階調処理後の対象画像デー タを与える。 また、 階調変換特性を生成する演算は、 特徴パラメータを用いて予 め決定されている。 より詳しくは、 例えば、 特徴パラメータの値のそれぞれに対 応ずる演算が選択される、 あるいは特徴パラメータの値に応じて演算が生成され る。
本発明の視覚処理装置では、 階調変換特性を予め記憶しておく必要が無く、 階 調変換特性を記憶するための記憶容量を削減することが可能となる。
請求項 1 0に記載の視覚処理装置は、 請求項 9に記載の視覚処理装置であって、 予め決定された演算は、 変更可能なことを特徴とする。
本発明の視覚処理装置では、 演算を変更することにより、 階調処理の特性を 様々に変更することが可能となる。
請求項 1 1に記載の視覚処理装置は、 請求項 1 0に記載の視覚処理装置であつ て、 演算の変更は、 演算の少なくとも一部を補正することによって実現されるこ とを特徴とする。
本発明の視覚処理装置では、 演算の少なくとも一部を補正することにより階調 変換特性が変更される。 このため、 演算を記憶するための記憶容量が同じであつ ても、 さらに多様な階調処理を実現することが可能となる。
請求項 1 2に記載の視覚処理装置は、 請求項 4に記載の視覚処理装置であって、 階調変換特性は、 複数の階調変換特性を内挿または外挿して得られるものである ことを特徴とする。
ここで、 階調変換特性とは、 例えば、 対象画像データに対する階調処理後の対 象画像データの特性である。 階調変換特性は、 例えば、 テーブル形式、、あるいは 演算形式で与えられている。
本発明の視覚処理装置では、 複数の階調変換特性を内挿あるいは外揷すること により得られる新たな階調変換特性を用いて、 階調処理を行うことが可能となる。 このため、 階調変換特性を記憶するための記憶容量を削減しても、 より多様な階 調処理を実現することが可能となる。
請求項 1 3に記載の視覚処理方法は、 入力された画像信号を画像領域毎に階調 処理する視覚処理方法であって、 階調変換特性導出ステップと、 階調処理ステツ プとを備えている。 階調変換特性導出ステップは、 階調処理の対象となる対象画 像領域の周辺に位置する画像領域であって、 複数の画素を含む少なくとも 1つの 周辺画像領域の周辺画像データを用いて、 対象画像領域の階調変換特性を導出す る。 階調処理ステップは、 導出された階調変換特性に基づいて、 対象画像領域の 画像信号の階調処理を行う。
本発明の視覚処理方法では、 対象画像領域の階調変換特性を判断する際に、 周 辺画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領域毎の 階調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果を向上 させる階調処理を実現することが可能となる。
請求項 1 4に記載の視覚処理方法は、 請求項 1 3に記載の視覚処理方法であつ て、 周辺画像領域は、 画像信号を所定の単位に分割した画像ブロックである。 本発明の視覚処理方法では、 周辺画像領域 画像ブロック単位で処理すること が可能となる。 このため、 周辺画像領域の決定や、 階調変換特性の導出に要する 処理負荷を低減することが可能となる。
請求項 1 5に記載の視覚処理方法は、 請求項 1 3または 1 4に記載の視覚処理 方法であって、 階調変換特性導出ステップは、 対象画像領域の対象画像データを さらに用いて、 対象画像領域の階調変換特性を導出する。
本発明の視覚処理方法では、 対象画像領域の階調変換特性を判断する際に、 対 象画像領域の対象画像データだけでなく、 周辺画像領域の周辺画像データを用い て判断を行う。 このため、 対象画像領域の階調処理に空間処理的効果を加えるこ とが可能となり、 さらに視覚的効果を向上させる階調処理を実現することが可能 となる。 、
請求項 1 6に記載の視覚処理方法は、 請求項 1 5に記載の視覚処理方法であつ て、 階調変換特性導出ステップは、 対象画像データおよび周辺画像データを用い て対象画像領域の特徴を示すパラメータである特徴パラメータを導出する特徴パ ラメ一タ導出ステップと、 特徴パラメータ導出ステップで導出された対象領域の 特徴パラメータに基づいて階調変換特性を決定する階調変換特性決定ステップと を有している。
本発明の視覚処理方法では、 対象画像データだけでなく、 周辺画像データを用 いて特徴パラメータを導出する。 このため、 対象画像領域の階調処理に空間処理 的効果を加えることが可能となり、 さらに視覚的効果を向上させる階調処理を実 現することが可能となる。 より具体的な効果として、 階調処理による疑似輪郭の 発生を抑制することが可能となる。 また、 対象画像領域の境界が不自然に目立つ ことが防止可能となる。
請求項 1 7に記載の視覚処理プログラムは、 コンピュータを用いて、 入力され た画像信号を画像領域毎に階調処理する視覚処理方法を行うための視覚処理プロ グラムである。 視覚処理方法は、 階調変換特性導出ステップと、 階調処理ステツ プとを備えている。 階調変換特性導出ステップは、 階調処理の対象となる対象画 像領域の周辺に位置する画像領域であって、 複数の画素を含む少なくとも 1つの 周辺画像領域の周辺画像データを用いて、 対象画像領域の階調変換特性を導出す る。 階調処理ステップは、 導出された階調変換特性に基づいて、 対象画像領域の 画像信号の階調処理を行う。
本発明の視覚処理プログラムでは、 対象画像領域の階調変換特性を判断する際 に、 周辺画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領 域毎の階調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果 W
9 を向上させる階調処理を実現することが可能となる。
請求項 1 8に記載の視覚処理プログラムは、 請求項 1 7に記載の視覚処理プロ グラムであって、 周辺画像領域は、 画像信号を所定の単位に分割した画像ブロッ クである。
本発明の視覚処理プログラムでは、 周辺画像領域を画像ブロック単位で処理す ることが可能となる。 このため、 周辺画像領域の決定や、 階調変換特性の導出に 要する処理負荷を低減することが可能となる。
請求項 1 9に記載の視覚処理プログラムは、 請求項 1 7または 1 8に記載の視 覚処理プログラムであって、 階調変換特性導出ステップは、 対象画像領域の対象 画像データをさらに用いて、 対象画像領域の階調変換特性を導出する。
本発明の視覚処理プログラムでは、 対象画像領域の階調変換特性を判断する際 に、 対象画像領域の対象画像データだけでなく、 周辺画像領域の周辺画像データ を用いて判断を行う。 このため、 対象画像領域の階調処理に空間処理的効果を加 えることが可能となリ、 さらに視覚的効果を向上させる階調処理を実現すること が可能となる。
請求項 2 0に記載の視覚処理プログラムは、 請求項 1 9に記載の視覚処理プロ グラムであって、 階調変換特性導出ステップは、 対象画像データおよび周辺画像 データを用いて対象画像領域の特徴を示すパラメータである特徴パラメータを導 出する特徴パラメータ導出ステップと、 特徴パラメータ導出ステップで導出され た対象領域の特徴パラメータに基づいて階調変換特性を決定する階調変換特性決 定ステップとを有している。
本発明の視覚処理プログラムでは、 対象画像データだけでなく、 周辺画像デ一 タを用いて特徴パラメータを導出する。 このため、 対象画像領域の階調処理に空 間処理的効果を加えることが可能となり、 さらに視覚的効果を向上させる階調処 理を実現することが可能となる。 より具体的な効果として、 階調処理による疑似 輪郭の発生を抑制することが可能となる。 また、 対象画像領域の境界が不自然に 目立つことが防止可能となる。
請求項 2 1に記載の半導体装置は、 入力された画像信号を画像領域毎に階調処 理する半導体装置であって、 階調変換特性導出部と、 階調処理部とを備えている。 階調変換特性導出部は、 階調処理の対象となる対象画像領域の周辺に位置する画 像領域であって、 複数の画素を含む少なくとも 1つの周辺画像領域の周辺画像デ ータを用いて、 対象画像領域の階調変換特性を導出する。 階調処理部は、 導出さ れた階調変換特性に基づいて、 対象画像領域の画像信号の階調処理を行う。 本発明の半導体装置では、 対象画像領域の階調変換特性を判断する際に、 周辺 画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領域毎の階 調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果を向上さ せる階調処理を実現することが可能となる。
請求項 2 2に記載の半導体装置は、 請求項 2 1に記載の半導体装置であって、 周辺画像領域は、 画像信号を所定の単位に分割した画像ブロックである。
本発明の半導体装置では、 周辺画像領域を画像ブロック単位で処理することが 可能となる。 このため、 周辺画像領域の決定や、 階調変換特性の導出に要する処 理負荷を低減することが可能となる。
請求項 2 3に記載の半導体装置は、 請求項 2 1または 2 2に記載の半導体装置 であって、 階調変換特性導出部は、 対象画像領域の対象画像データをさらに用い て、 対象画像領域の階調変換特性を導出する。
本発明の半導体装置では、 対象画像領域の階調変換特性を判断する際に、 対象 画像領域の対象画像データだけでなく、 周辺画像領域の周辺画像データを用いて 判断を行う。 このため、 対象画像領域の階調処理に空間処理的効果を加えること が可能となり、 さらに視覚的効果を向上させる階調処理を実現することが可能と なる。
請求項 2 4に記載の半導体装置は、 請求項 2 3に記載の半導体装置であって、 階調変換特性導出部は、 対象画像データおよび周辺画像データを用いて対象画像 領域の特徴を示すパラメータである特徴パラメータを導出する特徴パラメータ導 出部と、 特徴パラメータ導出部で導出された対象領域の特徴パラメータに基づい て階調変換特性を決定する階調変換特性決定部とを有している。
本発明の半導体装置では、 対象画像データだけでなく、 周辺画像データを用い て特徴パラメータを導出する。 このため、 対象画像領域の階調処理に空間処理的 効果を加えることが可能となり、 さらに視覚的効果を向上させる階調処理を実現 することが可能となる。 より具体的な効果として、 階調処理による疑似輪郭の発 生を抑制することが可能となる。 また、 対象画像領域の境界が不自然に目立つこ とが防止可能となる。
本発明の視覚処理装置により、 さらに視覚的効果を向上させる階調処理を実現 することが可能となる。
(図面の簡単な説明)
図 1は、 視覚処理装置 1の構造を説明するブロック図 (第 1実施形態) である。 図 2は、 画像領域 P mについて説明する説明図 (第 1実施形態) である。
図 3は、 明度ヒストグラム H mについて説明する説明図 (第 1実施形態) である 図 4は、 階調変換曲線 C mについて説明する説明図 (第 1実施形態) である。 図 5は、 視覚処理方法について説明するフローチャート (第 1実施形態) である 図 6は、 視覚処理装置 1 1の構造を説明するブロック図 (第 2実施形態) である 図 7は、 階調変換曲線候補 G 1 ~ G pについて説明する説明図 (第 2実施形態) である。
図 8は、 2次元 L U T 4 1について説明する説明図 (第 2実施形態) である。 図 9は、 階調補正部 1 5の動作について説明する説明図 (第 2実施形態) である 図 1 0は、 視覚処理方法について説明するフローチャート (第 2実施形態) であ る。
図 1 1は、 階調変換曲線 C mの選択の変形例について説明する説明図 (第 2実施 形態) である。
図.1 2は、 変形例としての階調処理について説明する説明図 (第 2実施形態) で ある。
図 1 3は、 階調処理実行部 4 4の構造を説明するブロック図 (第 2実施形態) で る。 図 1 4は、 曲線パラメータ P Iおよび P 2と、 階調変換曲線候補 G 1〜G pとの 関係について説明する説明図 (第 2実施形態) である。
図 1 5は、 曲線パラメータ P 1および P 2と、 選択信号 S mとの関係について説 明する説明図 (第 2実施形態) である。
図 1 6は、 曲線パラメータ P 1および P 2と、 選択信号 S mとの関係について説 明する説明図 (第 2実施形態) である。 、 図 1 7は、 曲線パラメータ P 1および P 2と、 階調変換曲線候補 G 1 ~ G pとの 関係について説明する説明図 (第 2実施形態) である。
図 1 8は、 曲線パラメータ P 1および P 2と、 選択信号 S mとの関係について説 明する説明図 (第 2実施形態) である。
図 1 9は、 視覚処理装置 2 1の構造を説明するブロック図 (第 3実施形態) であ る。
図 2 0は、 選択信号補正部 2 4の動作について説明する説明図 (第 3実施形態) である。
図 2 1は、 視覚処理方法について説明するフローチヤ一ト (第 3実施形態) であ る。
図 2 2は、 視覚処理装置 6 1の構造を説明するブロック図 (第 4実施形態) であ る。
図 2 3は、 空間処理部 6 2の空間処理について説明する説明図 (第 4実施形態) である。
図 2 4は、 重み係数 [W i j ] について説明する表 (第 4実施形態) である。 図 2 5は、 視覚処理装置 6 1による視覚処理の効果を説明する説明図 (第 4実施 形態) である。
図 2 6は、 視覚処理装置 9 6 1の構造を説明するブロック図 (第 4実施形態) で ある。
図.2 7は、 空間処理部 9 6 2の空間処理について説明する説明図 (第 4実施形態 ) である。
図 2 8は、 重み係数 [W i j ] について説明する表 (第 4実施形態) である。 図 2 9は、 コンテンツ供給システムの全体構成について説明するブロック図 (第 6実施形態) である。
図 3 0は、 本発明の視覚処理装置を搭載する携帯電話の例 (第 6実施形態) であ る。
図 3 1は、 携帯電話の構成について説明するブロック図 (第 6実施形態) である o
図 3 2は、 ディジタル放送用システムの例 (第 6実施形態) である。 、 図 3 3は、 視覚処理装置 3 0 0の構造を説明するブロック図 (背景技術) である 図 3 4は、 画像領域 S mについて説明する説明図 (背景技術) である。
図 3 5は、 明度ヒストグラム H mについて説明する説明図 (背景技術) である。 図 3 6は、 階調変換曲線 C mについて説明する説明図 (背景技術) である。
(発明を実施するための最良の形態)
[第 1実施形態]
本発明の第 1実施形態としての視覚処理装置 1について図 1〜図 5を用いて説 明する。 視覚処理装置 1は、 例えば、 コンピュータ、 テレビ、 デジタルカメラ、 携帯電話、 P D Aなど、 画像を取り扱う機器に内蔵、 あるいは接続されて、 画像 の階調処理を行う装置である。 視覚処理装置 1は、 従来に比して細かく分割され た画像領域のそれぞれについて階調処理を行う点を特徴として有している。
〈構成〉
図 1に、 視覚処理装置 1の構造を説明するブロック図を示す。 視覚処理装置 1 は、 入力信号 I Sとして入力される原画像を複数の画像領域 P m ( 1≤m≤n : nは原画像の分割数) に分割する画像分割部 2と、 それぞれの画像領域 P mに対 して階調変換曲線 C mを導出する階調変換曲線導出部 1 0と、 階調変換曲線 G m をロードしそれぞれの画像領域 P mに対して階調処理した出力信号 O Sを出力す る階調処理部 5とを備えている。 階調変換曲線導出部 1 0は、 それぞれの画像領 域 P mと画像領域 P m周辺の画像領域とから構成される広域画像領域 E mの画素 の明度ヒストグラム H mを作成するヒストグラム作成部 3と、 作成された明度ヒ ストグラム H mからそれぞれの画像領域 P mに対する階調変換曲線 C mを作成す る階調曲線作成部 4とから構成される。
〈作用〉
図 2〜図 4を用いて、 各部の動作について説明を加える。 画像分割部 2は、 入 力信号 I Sとして入力される原画像を複数 (n個) の画像領域 Pmに分割する ( 図 2参照。 ) 。 ここで、 原画像の分割数は、 図 33に示す従来の視覚処理装置 3 00の分割数 (例えば、 4~1 6分割) よりも多く、 例えば、 横方向に 80分割 し縦方向に 60分割する 4800分割などである。
ヒス卜グラム作成部 3は、 それぞれの画像領域 Pmに対して広域画像領域 Em の明度ヒストグラム Hmを作成する。 ここで、 広域画像領域 Emとは、 それぞれ の画像領域 Pmを含む複数の画像領域の集合であり、 例えば、 画像領域 Pmを中 心とする縦方向 5ブロック、 横方向 5ブロックの 25個の画像領域の集合である 。 なお、 画像領域 Pmの位置によっては、 画像領域 Pmの周辺に縦方向 5ブロッ ク、 横方向 5ブロックの広域画像領域 Emを取ることができない場合がある。 例 えば、 原画像の周辺に位置する画像領域 P Iに対して、 画像領域 P Iの周辺に縦 方向 5ブロック、 横方向 5ブロックの広域画像領域 E Iを取ることができない。 この場合には、 画像領域 P I を中心とする縦方向 5ブロック横方向 5ブロックの 領域と原画像とが重なる領域が広域画像領域 E I として採用される。 ヒストグラ ム作成部 3が作成する明度ヒス卜グラム Hmは広域画像領域 Em内の全画素の明 度値の分布状態を示している。 すなわち、 図 3 (a) ~ (c) に示す明度ヒスト グラム Hmにおいて、 横軸は入力信号 I Sの明度レベルを、 縦軸は画素数を示し ている。
階調曲線作成部 4は、 広域画像領域 Emの明度ヒストグラム Hmの 「画素数 j を明度の順に累積し、 この累積曲線を画像領域 Pmの階調変換曲線 Cmとする ( 図 4参照。 ) 。 図 4に示す階調変換曲線 Cmにおいて、 横軸は入力信号 I Sにお ける画像領域 Pmの画素の明度値を、 縦軸は出力信号 OSにおける画像領域 Pm の画素の明度値を示している。 階調処理部 5は、 階調変換曲線 Cmをロードし階 調変換曲線 Cmに基づいて、 入力信号 I Sにおける画像領域 Pmの画素の明度値 を変換する。
〈視覚処理方法および視覚処理プログラム〉 図 5に、 視覚処理装置 1における視覚処理方法を説明するフローチャートを示 す。 図 5に示す視覚処理方法は、 視覚処理装置 1においてハードウエアにより実 現され、 入力信号 I S (図 1参照) の階調処理を行う方法である。 図 5に示す視 覚処理方法では、 入力信号 I Sは、 画像単位で処理される (ステップ S I 0〜S 1 6) 。 入力信号 I Sとして入力される原画像は、 複数の画像領域 Pm (1≤m ≤n : nは原画像の分割数) に分割され (ステップ S I 1 ) 、 画像領域 Pm毎に 階調処理される (ステップ S I 2〜S 1 5) 。
それぞれの画像領域 P mと画像領域 P m周辺の画像領域とから構成される広域 画像領域 Emの画素の明度ヒストグラム Hmが作成される (ステップ S 1 2) 。 さらに、 明度ヒストグラム Hmに基づいて、 それぞれの画像領域 Pmに対する階 調変換曲線 Cmが作成される (ステップ S 1 3) 。 ここで、 明度ヒス卜グラム H mおよび階調変換曲線 Cmについては、 説明を省略する (上記 〈作用〉 の欄参照 。 ) 。 作成された階調変換曲線 Cmを用いて、 画像領域 Pmの画素について階調 処理が行われる (ステップ S 1 ) 。 さらに、 全ての画像領域 Pmについての処 理が終了したか否かを判定し (ステップ S 1 5) 、 処理が終了したと判定される まで、 ステップ S I 2~S 1 5の処理を原画像の分割数回繰り返す。 以上により 、 画像単位の処理が終了する (ステップ S 1 6) 。
なお、 図 5に示す視覚処理方法のそれぞれのステップは、 コンピュータなどに より、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
(1 )
階調変換曲線 Cmは、 それぞれの画像領域 Pmに対して作成される。 このため 、 原画像全体に対して同一の階調変換を行う場合に比して、 適切な階調処理を行 うことが可能となる。
(2)
それぞれの画像領域 Pmに対して作成される階調変換曲線 Cmは、 広域画像領 域 Emの明度ヒストグラム Hmに基づいて作成される。 このため、 画像領域 Pm 毎の大きさは小さくとも十分な明度値のサンプリングが可能となる。 また、 この 結果、 小さな画像領域 Pmに対しても、 適切な階調変換曲線 Gmを作成すること が可能となる。
( 3 )
隣接する画像領域に対する広域画像領域は、 重なりを有している。 このため、 隣接する画像領域に対する階調変換曲線は、 お互いに似通った傾向を示すことが 多い。 このため、 画像領域毎の階調処理に空間処理的効果を加えることが可能と なり隣接する画像領域の境界のつなぎ目が不自然に目立つことが防止可能となる。
( 4 )
それぞれの画像領域 P mの大きさは、 従来に比して小さい。 このため、 画像領 域 P m内での疑似輪郭の発生を抑えることが可能となる。
〈変形例〉
本発明は上記実施形態に限定されるものではなく、 その要旨を逸脱しない範囲 で種々の変形が可能である。
( 1 )
上記実施形態では、 原画像の分割数の一例として、 4 8 0 0分割としたが、 本 発明の効果は、 この場合に限定されるものではなく、 他の分割数でも同様の効果 を得ることが可能である。 なお、 階調処理の処理量と視覚的効果とは分割数につ いてトレードオフの関係にある。 すなわち、 分割数を増やすと階調処理の処理量 は増加するがより良好な視覚的効果 (例えば、 疑似輪郭の抑制など) を得ること が可能となる。
( 2 )
上記実施形態では、 広域画像領域を構成する画像領域の個数の一例として、 2 5個としたが、 本発明の効果は、 この場合に限定されるものではなく、 他の個数 でも同様の効果を得ることが可能である。
[第 2実施形態]
本発明の第 2実施形態としての視覚処理装置 1 1について図 6〜図 1 8を用い て.説明する。 視覚処理装置 1 1は、 例えば、 コンピュータ、 テレビ、 デジタル力 メラ、 携帯電話、 P D Aなど、 画像を取り扱う機器に内蔵、 あるいは接続されて 、 画像の階調処理を行う装置である。 視覚処理装置 1 1は、 あらかじめ L U Tと して記憶した複数の階調変換曲線を切り換えて用いる点を特徴として有している 〈構成〉
図 6に、 視覚処理装置 1 1の構造を説明するブロック図を示す。 視覚処理装置 1 1は、 画像分割部 1 2と、 選択信号導出部 1 3と、 階調処理部 20とを備えて いる。 画像分割部 1 2は、 入力信号 I Sを入力とし、 入力信号 I Sとして入力さ れる原画像を複数に分割した画像領域 Pm ( 1 ≤m≤ n : nは原画像の分割数) を出力とする。 選択信号導出部 1 3は、 それぞれの画像領域 Pmの階調処理に適 用される階調変換曲線 Cmを選択するための選択信号 Smを出力する。 階調処理 部 20は、 階調処理実行部 1 4と、 階調補正部 1 5とを備えている。 階調処理実 行部 1 4は、 複数の階調変換曲線候補 G 1 ~G p (pは候補数) を 2次元 L U T として備えており、 入力信号 I Sと選択信号 Smとを入力とし、 それぞれの画像 領域 Pm内の画素について階調処理した階調処理信号 CSを出力とする。 階調補 正部 1 5は、 階調処理信号 C Sを入力とし、 階調処理信号 C Sの階調を補正した 出力信号 O Sを出力とする。
(階調変換曲線候補について)
図 7を用いて、 階調変換曲線候補 G 1 〜G pについて説明する。 階調変換曲線 候補 G 1 〜G pは、 入力信号 I Sの画素の明度値と階調処理信号 CSの画素の明 度値との関係を与える曲線である。 図 7において、 横軸は入力信号 I Sにおける 画素の明度値を、 縦軸は階調処理信号 C Sにおける画素の明度値を示している。 階調変換曲線候補 G 1 〜G pは、 添え字について単調減少する関係にあり、 全て の入力信号 I Sの画素の明度値に対して、 G 1 ≥G 2≥ ' ■ ' ≥G pの関係を満 たしている。 例えば、 階調変換曲線候補 G 1 ~G pがそれぞれ入力信号 I Sの画 素の明度値を変数とする 「べき関数」 であり、 ΘΓΠ= Χ Λ (dm) と表される場 合 (1 ≤m≤ p、 Xは変数、 は定数) 、 S 1 ≤ <52≤ ■ ■ ' ≤ S pの関係を 満たしている。 ここで、 入力信号 I Sの明度値は、 値 [0. 0〜 1 . 0] の範囲 であるとする。
なお、 以上の階調変換曲線候補 G 1 〜G pの関係は、 添え字の大きい階調変換 曲線候補について、 入力信号 I Sが小さい場合、 若しくは、 添え字の小さい階調 変換曲線候補について、 入力信号 I Sが大きい場合、 において、 成立していなく てもよい。 このような場合は、 ほとんど無く、 画質への影響が小さいためである 階調処理実行部 1 4は、 階調変換曲線候補 G1 ~Gpを 2次元 LUTとして備 えている。 すなわち、 2次元 L UTは、 入力信号 I Sの画素の明度値と階調変換 曲線候補 G1〜Gpを選択する選択信号 Smとに対して、 階調処理信号 CSの画 素の明度値を与えるルックアップテーブル (LUT) である。 図 8に、、この 2次 元 LUTの一例を示す。 図 8に示す 2次元 L U T 41は、 64行 64列のマトリ クスであり、 それぞれの階調変換曲線候補 G 1〜G 64を行方向 (横方向) に並 ベたものとなっている。 マトリクスの列方向 (縦方向) には、 例えば 1 0ビット で表される入力信号 I Sの画素値の上位 6ピッ卜の値、 すなわち 64段階に分け られた入力信号 I Sの値に対する階調処理信号 CSの画素値が並んでいる。 階調 処理信号 CSの画素値は、 階調変換曲線候補 G "!〜 G口が 「べき関数」 である場 合、 例えば、 値 [0. 0~1. 0] の範囲の値を有する。
〈作用〉
各部の動作について説明を加える。 画像分割部 1 2は、 図 1の画像分割部 2と ほぼ同様に動作し、 入力信号 I Sとして入力される原画像を複数 (n個) の画像 領域 Pmに分割する (図 2参照) 。 ここで、 原画像の分割数は、 図 33に示す従 来の視覚処理装置 300の分割数 (例えば、 4〜1 6分割) よりも多く、 例えば 、 横方向に 80分割し縦方向に 60分割する 4800分割などである。
選択信号導出部 1 3は、 それぞれの画像領域 Pmに対して適用される階調変換 曲線 Cmを階調変換曲線候補 G 1〜Gpの中から選択する。 具体的には、 選択信 号導出部 1 3は、 画像領域 Pmの広域画像領域 Emの平均明度値を計算し、 計算 された平均明度値に応じて階調変換曲線候補 G 1 ~ G pのいずれかの選択を行う 。 すなわち、 階調変換曲線候補 G1 ~Gpは、 広域画像領域 Emの平均明度値に 関連づけられており、 平均明度値が大きくなるほど、 添え字の大きい階調変換曲 線候補 G1〜Gpが選択される。
ここで、 広域画像領域 Emとは、 [第 1実施形態] において図 2を用いて説明 したのと同様である。 すなわち、 広域画像領域 Emは、 それぞれの画像領域 Pm を含む複数の画像領域の集合であり、 例えば、 画像領域 Pmを中心とする縦方向 5ブロック、 横方向 5ブロックの 25個の画像領域の集合である。 なお、 画像領 域 Pmの位置によっては、 画像領域 Pmの周辺に縦方向 5ブロック、 横方向 5ブ ロックの広域画像領域 Emを取ることができない場合がある。 例えば、 原画像の 周辺に位置する画像領域 P Iに対して、 画像領域 P Iの周辺に縦方向 5ブロック 、 横方向 5ブロックの広域画像領域 E I を取ることができない。 この場合には、 画像領域 P Iを中心とする縦方向 5ブロック横方向 5ブロックの領域と原画像と が重なる領域が広域画像領域 E I として採用される。
選択信号導出部 1 3の選択結果は、 階調変換曲線候補 G 1〜Gpのいずれかを 示す選択信号 Smとして出力される。 より具体的には、 選択信号 Smは、 階調変 換曲線候補 G 1〜G pの添え字 (1〜p) の値として出力される。
階調処理実行部 1 4は、 入力信号 I Sが含む画像領域 Pmの画素の明度値と選 択信号 Smとを入力とし、 例えば、 図 8に示す 2次元 L U T 41を用いて、 階調 処理信号 CSの明度値を出力する。
階調補正部 1 5は、 階調処理信号 CSが含む画像領域 Pmの画素の明度値を画 素の位置と画像領域 Pmおよび画像領域 Pmの周辺の画像領域に対して選択され た階調変換曲線とに基づいて補正する。 例えば、 画像領域 Pmが含む画素に適用 された階調変換曲線 Cmと画像領域 Pmの周辺の画像領域に対して選択された階 調変換曲線とを画素位置の内分比で補正し、 補正後の画素の明度値を求める。 図 9を用いて、 階調補正部 1 5の動作についてさらに詳しく説明する。 図 9は 、 画像領域 Po, P p, P q, P r (o, p, q, rは分割数 n (図 2参照。 ) 以下の正整数) の階調変換曲線 C o, G p, Cq, C rが階調変換曲線候補 G s , G t, Gu, G v (s, t, u, vは階調変換曲線の候補数 p以下の正整数) と選択されたことを示している。
ここで、 階調補正の対象となる画像領域 P oの画素 X (明度値 [X ] とする) の位置を、 画像領域 Poの中心と画像領域 P pの中心とを [ i : 1— i ] に内分 し.、 かつ、 画像領域 Poの中心と画像領域 P qの中心とを [ j : 1— j ] に内分 する位置であるとする。 この場合、 階調補正後の画素 Xの明度値 [X ' ] は、 [ X ' ] = { ( 1 - j ) ' (1 - i ) ' [Gs] + (1 - j ) ■ ( i ) ' [Θ t ] + ( j ) ■ (1 - i ) ' CGu] + ( j ) ' ( i ) ■ [Gv] } ■ { [x] / [ Gs] } と求められる。 なお、 [Gs] , [G t] , [G u] , [Gv] は、 明 度値 [x] に対して、 階調変換曲線候補 Gs, G t, Gu, Gvを適用した場合 の明度値であるとする。
〈視覚処理方法および視覚処理プログラム〉
図 1 0に、 視覚処理装置 1 1における視覚処理方法を説明するフローチャート を示す。 図 1 0に示す視覚処理方法は、 視覚処理装置 1 1においてハ ドウエア により実現され、 入力信号 I S (図 6参照) の階調処理を行う方法である。 図 1 0に示す視覚処理方法では、 入力信号 I Sは、 画像単位で処理される (ステップ S 20-S 26) 。 入力信号 I Sとして入力される原画像は、 複数の画像領域 P m (1≤m≤n : πは原画像の分割数) に分割され (ステップ S 21 ) 、 画像領 域 Pm毎に階調処理される (ステップ S 22〜S 24) 。
画像領域 P m毎の処理では、 それぞれの画像領域 P mに対して適用される階調 変換曲線 Cmが階調変換曲線候補 G 1〜G pの中から選択される (ステップ S 2 2) 。 具体的には、 画像領域 Pmの広域画像領域 Emの平均明度値を計算し、 計 算された平均明度値に応じて階調変換曲線候補 G 1 ~G pのいずれかの選択が行 われる。 階調変換曲線候補 G 1 ~Gpは、 広域画像領域 Emの平均明度値に関連 づけられており、 平均明度値が大きくなるほど、 添え字の大きい階調変換曲線候 補 G 1 ~Gpが選択される。 ここで、 広域画像領域 Emについては、 説明を省略 する (上記 〈作用〉 の欄参照。 ) 。
入力信号 I Sが含む画像領域 Pmの画素の明度値と階調変換曲線候補 G 1 ~G pのうちステップ S22で選択された階調変換曲線候補を示す選択信号 S mとに 対して、 例えば、 図 8に示す 2次元 LUT41を用いて、 階調処理信号 CSの明 度値が出力される (ステップ S 23) 。 さらに、 全ての画像領域 Pmについての 処理が終了したか否かを判定し (ステップ S 24) 、 処理が終了したと判定され るまで、 ステップ S 22〜S 24の処理を原画像の分割数回繰り返す。 以上によ リ、 画像領域単位の処理が終了する。
階調処理信号 C Sが含む画像領域 P mの画素の明度値は、 画素の位置と画像領 域 P mおよび画像領域 P mの周辺の画像領域に対して選択された階調変換曲線と に基づいて補正される (ステップ S 25) 。 例えば、 画像領域 Pmが含む画素に 適用された階調変換曲線 Cmと画像領域 Pmの周辺の画像領域に対して選択され た階調変換曲線とを画素位置の内分比で補正し、 補正後の画素の明度値が求めら れる。 補正の詳細な内容については、 説明を省略する (上記 〈作用〉 の欄、 図 9 参照。 ) 。
以上により、 画像単位の処理が終了する (ステップ S 26) 。
なお、 図 1 0に示す視覚処理方法のそれぞれのステップは、 コンピ ータなど により、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
本発明により、 上記 [第 1実施形態] の 〈効果〉 とほぼ同様の効果を得ること が可能である。 以下、 第 2実施形態特有の効果を記載する。
(1 )
それぞれの画像領域 Pmに対して選択される階調変換曲線 Cmは、 広域画像領 域 Emの平均明度値に基づいて作成される。 このため、 画像領域 Pmの大きさは 小さくとも十分な明度値のサンプリングが可能となる。 また、 この結果、 小さな 画像領域 Pmに対しても、 適切な階調変換曲線 Cmを選択して適用することが可 能となる。
(2)
階調処理実行部 1 4は、 あらかじめ作成された 2次元 LUTを有している。 こ のため、 階調処理に要する処理負荷、 より具体的には、 階調変換曲線 Cmの作成 に要する処理負荷を削減することが可能となる。 この結果、 画像領域 Pmの階調 処理に要する処理を高速化することが可能となる。
(3)
階調処理実行部 1 4は、 2次元 LUTを用いて階調処理を実行する。 2次元 L UTは、 視覚処理装置 1 1が備えるハードディスクあるいは ROMなどの記憶装 置から読み出されて階調処理に用いられる。 読み出す 2次元 LUTの内容を変更 することにより、 ハードウエアの構成を変更せずに様々な階調処理を実現するこ とが可能となる。 すなわち、 原画像の特性により適した階調処理を実現すること が可能となる。
(4) 階調補正部 1 5は、 1つの階調変換曲線 C mを用いて階調処理された画像領域 P mの画素の階調を補正する。 このため、 より適切に階調処理された出力信号 O Sを得ることができる。 例えば、 疑似輪郭の発生を抑制することが可能となる。 また、 出力信号 O Sにおいては、 それぞれの画像領域 P mの境界のつなぎ目が不 自然に目立つことがさらに防止可能となる。
〈変形例〉 、 本発明は上記実施形態に限定されるものではなく、 その要旨を逸脱しない範囲 で種々の変形が可能である。
( 1 )
上記実施形態では、 原画像の分割数の一例として、 4 8 0 0分割としたが、 本 発明の効果は、 この場合に限定されるものではなく、 他の分割数でも同様の効果 を得ることが可能である。 なお、 階調処理の処理量と視覚的効果とは分割数につ いてトレードオフの関係にある。 すなわち、 分割数を増やすと階調処理の処理量 は増加するがより良好な視覚的効果 (例えば、 疑似輪郭の抑制された画像など) を得ることが可能となる。
( 2 )
上記実施形態では、 広域画像領域を構成する画像領域の個数の一例として、 2 5個としたが、 本発明の効果は、 この場合に限定されるものではなく、 他の個数 でも同様の効果を得ることが可能である。
( 3 )
上記実施形態では、 6 4行 6 4列のマトリクスからなる 2次元 L U T 4 1を 2 次元 L U Tの一例とした。 ここで、 本発明の効果は、 このサイズの 2次元 L U丁 に限定されるものではない。 例えば、 さらに多くの階調変換曲線候補を行方向に 並べたマトリクスであっても良い。 また、 入力信号 I Sの画素値をさらに細かい ステップに区切った値に対する階調処理信号 C Sの画素値をマトリクスの列方向 に並べたもので有っても良い。 具体的には、 例えば 1 0ビッ卜で表される入力信 号 I Sのそれぞれの画素値に対して、 階調処理信号 C Sの画素値を並べたもので 有っても良い。
2次元 L U Tのサイズが大きくなれば、 よリ適切な階調処理を行うことが可能 となり、 小さくなれば、 2次元 LUTを記憶するメモリの削減などが可能となる (4)
上記実施形態では、 マトリクスの列方向には、 例えば 1 0ビッ卜で表される入 力信号 I Sの画素値の上位 6ビッ卜の値、 すなわち 64段階に分けられた入力信 号 I Sの値に対する階調処理信号 CSの画素値が並んでいる、 と説明じた。 ここ で、 階調処理信号 CSは、 階調処理実行部 1 4により、 入力信号 I Sの画素値の 下位 4ビッ卜の値で線形補間されたマトリクスの成分として出力されるものであ つても良い。 すなわち、 マトリクスの列方向には、 例えば 1 0ビットで表される 入力信号 I Sの画素値の上位 6ビッ卜の値に対するマトリクスの成分が並んでお リ、 入力信号 I Sの画素値の上位 6ビッ卜の値に対するマトリクスの成分と、 入 力信号 I Sの画素値の上位 6ビッ卜の値に [1 ] を加えた値に対するマトリクス の成分 (例えば、 図 8では、 1行下の成分) とを入力信号 I Sの画素値の下位 4 ビッ卜の値を用いて線形補間し、 階調処理信号 CSとして出力する。
これにより、 2次元 LUT41 (図 8参照) のサイズが小さくとも、 より適切 な階調処理を行うことが可能となる。
(5)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に適用する階調変換曲線 Cmを選択すると説明した。 ここで、 階調変換曲線 Cm の選択方法は、 この方法に限られない。 例えば、 広域画像領域 Emの最大明度値 、 あるいは最小明度値に基づいて、 画像領域 Pmに適用する階調変換曲線 Cmを 選択してもよい。 なお、 階調変換曲線 Cmの選択に際して、 選択信号 Smの値 [ Sm] は、 広域画像領域 Emの平均明度値、 最大明度値、 あるいは最小明度値そ のものであってもよい。 この場合、 選択信号 Smの取りうる値を 64段階に分け たそれぞれの値に対して、 階調変換曲線候補 G1〜G 64が関連付けられている こととなる。
また例えば、 次のようにして画像領域 Pmに適用する階調変換曲線 Gmを選択 してもよい。 すなわち、 それぞれの画像領域 Pmについて平均明度値を求め、 そ れぞれの平均明度値からそれぞれの画像領域 P mについての仮の選択信号 S m ' を求める。 ここで、 仮の選択信号 Sm' は、 階調変換曲線候補 G1 ~Gpの添え 字の番号を値としている。 さらに、 広域画像領域 Emが含むそれぞれの画像領域 について、 仮の選択信号 Sm' の値を平均し、 画像領域 Pmの選択信号 Smの値 [Sm] を求め、 階調変換曲線候補 G "!〜 Gpのうち値 [Sm] に最も近い整数 を添え字とする候補を階調変換曲線 Cmとして選択する。
(6) 、 上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に適用する階調変換曲線 Cmを選択すると説明した。 ここで、 広域画像領域 Em の単純平均でなく、 加重平均 (重み付き平均) に基づいて、 画像領域 Pmに適用 する階調変換曲線 Cmを選択してもよい。 例えば、 図 1 1に示すように、 広域画 像領域 Emを構成するそれぞれの画像領域の平均明度値を求め、 画像領域 の 平均明度値と大きく異なる平均明度値を持つ画像領域 P s 1, P s 2, ■ ■ 'に ついては、 重み付けを軽くして、 あるいは除外して、 広域画像領域 Emの平均明 度値を求める。
これにより、 広域画像領域 Emが明度的に特異的な領域を含む場合 (例えば、 広域画像領域 Emが 2つの明度値の異なる物体の境界を含む場合) であっても、 画像領域 Pmに適用される階調変換曲線 Cmの選択に対して、 その特異的な領域 の明度値が与える影響が少なくなリ、 さらに適切な階調処理が行われることとな る。
(7)
上記実施形態において、 階調補正部 1 5の存在は任意としても良い。 すなわち 、 階調処理信号 CSを出力とした場合であっても、 従来の視覚処理装置 300 ( 図 33参照) に比して、 [第 1実施形態] の 〈効果〉 に記載したのと同様の効果 、 および [第 2実施形態] の 〈効果〉 (1 ) および (2) に記載したのと同様の 効果を得ることが可能である。
(8)
上記実施形態では、 階調変換曲線候補 G 1〜Gpは、 添え字について単調減少 する関係にあり、 全ての入力信号 I Sの画素の明度値に対して、 G1≥G2≥ ' ■ -≥Gpの関係を満たしていると説明した。 ここで、 2次元 LUTが備える階 調変換曲線候補 G 1 ~Gpは、 入力信号 I Sの画素の明度値の一部に対して、 G 1≥G2≥■ ■ ■≥Gpの関係を満たしていなくてもよい。 すなわち、 階調変換 曲線候補 G1 ~Gpのいずれかが、 互いに交差する関係にあってもよい。
例えば、 暗い夜景の中にある小さい明かりの部分など (夜景の中にあるネオン 部分など) 、 入力信号 I Sの値は大きいが、 広域画像領域 Emの平均明度値は小 さい場合、 階調処理された画像信号の値が画質に与える影響は小さい。、このよう な場合には、 2次元 LUTが備える階調変換曲線候補 G"!〜 Gpは、 入力信号 I Sの画素の明度値の一部に対して、 G 1≥G2≥ ' ' '≥Gpの関係を満たして いなくてもよい。 すなわち、 階調処理後の値が画質に与える影響が小さい部分で は、 2次元 L U Tが格納する値は、 任意であってよい。
なお、 2次元 LUTが格納する値が任意である場合にも、 同じ値の入力信号 I Sと選択信号 Smとに対して格納されている値は、 入力信号 I Sと選択信号 Sm との値に対して、 単調増加、 あるいは単調減少する関係を維持していることが望 ましい。
また、 上記実施形態では、 2次元 LUTが備える階調変換曲線候補 G1〜Gp は、 「べき関数」 であると説明した。 ここで、 階調変換曲線候補 G 1 ~Gpは、 厳密に 「べき関数」 として定式化されるもので無くともよい。 また、 S字、 逆 S 字などといった形状を有する関数であってもよい。
(9)
視覚処理装置 1 1では、 2次元 LUTが格納する値であるプロファイルデータ を作成するプロファイルデータ作成部をさらに備えていても良い。 具体的には、 プロファイルデータ作成部は、 視覚処理装置 1 (図 1参照) における画像分割部 2と階調変換曲線導出部 1 0とから構成されており、 作成された複数の階調変換 曲線の集合をプロファイルデータとして 2次元 L U Tに格納する。
また、 2次元 LUTに格納される階調変換曲線のそれぞれは、 空間処理された 入力信号 I Sに関連づけられていてもかまわない。 この場合、 視覚処理装置 1 1 では、 画像分割部 1 2と選択信号導出部 1 3とを、 入力信号 I Sを空間処理する 空間処理部に置き換えても良い。
(1 0) 上記実施形態において、 入力信号 I Sの画素の明度値は、 値 [0. 0〜1. 0 ] の範囲の値でなくてもよい。 入力信号 I sが他の範囲の値として入力される場 合には、 その範囲の値を値 [0. 0~1. 0] に正規化して用いてもよい。 また
、 正規化は行わず、 上記した処理において取り扱う値を適宜変更してもよい。
(1 1 )
階調変換曲線候補 G "!〜 G pのそれぞれは、 通常のダイナミックレンジよリも 広いダイナミックレンジを有する入力信号 I Sを階調処理し、 通常のダイナミツ クレンジの階調処理信号 GSを出力する階調変換曲線であってもよい。
近年、 SZNの良い CCDを光量を絞って使用する、 電子シャツタを長短 2回 開く、 あるいは低感度 '高感度の画素を持つセンサを使用する、 などの方法によ リ、 通常のダイナミックレンジよりも 1 ~3桁広いダイナミックレンジを极うこ とができる機器の開発が進んでいる。
これに伴って、 入力信号 I Sが通常のダイナミックレンジ (例えば、 値 [0. 0-1. 0] の範囲の信号) よりも広いダイナミックレンジを有する場合にも、 適切に階調処理することが求められている。
ここで、 図 1 2に示すように、 値 [0. 0~1. 0] を超える範囲の入力信号 I Sに対しても、 値 [0. 0〜1. 0] の階調処理信号 CSを出力するような階 調変換曲線を用いる。
これにより、 広いダイナミックレンジを有する入力信号 I Sに対しても、 適切 な階調処理を行い、 通常のダイナミックレンジの階調処理信号 CSを出力するこ とが可能となる。
また、 上記実施形態では、 「階調処理信号 CSの画素値は、 階調変換曲線候補 G 1 ~Gpが 「べき関数」 である場合、 例えば、 値 [0. 0~1. 0] の範囲の 値を有する。 」 と記載した。 ここで、 階調処理信号 CSの画素値は、 この範囲に 限られない。 例えば、 値 [0. 0~1. 0] の入力信号 I Sに対して、 階調変換 曲線候補 G"!〜 Gpは、 ダイナミックレンジ圧縮を行うものであってもよい。
(1 2)
上記実施形態では、 「階調処理実行部 1 4は、 階調変換曲線候補 G 1〜G pを 2次元 LUTとして有している。 J と説明した。 ここで、 階調処理実行部 1 4は 、 階調変換曲線候補 G 1 ~Gpを特定するための曲線パラメータと選択信号 Sm との関係を格納する 1次元 L U Tを有するものであってもよい。
《構成》
図 1 3に、 階調処理実行部 1 4の変形例としての階調処理実行部 44の構造を 説明するブロック図を示す。 階調処理実行部 44は、 入力信号 I Sと選択信号 S mとを入力とし、 階調処理された入力信号 I Sである階調処理信号 CSを出力と する。 階調処理実行部 44は、 曲線パラメータ出力部 45と演算部 48とを備え ている。
曲線パラメータ出力部 45は、 第 1 LUT46と第 2 LUT47から構成され る。 第 1 1_リ丁46ぉょぴ第21_リ丁47は、 選択信号 Smを入力とし、 選択信 号 Smが指定する階調変換曲線候補 Gmの曲線パラメータ P 1および P 2をそれ ぞれ出力する。
演算部 48は、 曲線パラメータ P 1および P2と、 入力信号 I Sとを入力とし 、 階調処理信号 CSを出力とする。
«1次元 L UTについて》
第 1 1_リ丁46ぉょぴ第21_11丁47は、 それぞれ選択信号 S mに対する曲線 パラメータ P 1および P 2の値を格納する 1次元 L U Tである。 第 1 L U T 46 および第 2 L U T47について詳しく説明する前に、 曲線パラメータ P 1および P 2の内容について説明する。
図 1 4を用いて、 曲線パラメータ P 1および P 2と、 階調変換曲線候補 G 1 ~ Gpとの関係について説明する。 図 1 4は、 階調変換曲線候補 G 1 ~Gpを示し ている。 ここで、 階調変換曲線候補 G1 ~Gpは、 添え字について単調減少する 関係にあり、 全ての入力信号 I Sの画素の明度値に対して、 G1≥G2≥ ' ' ■ ≥Gpの関係を満たしている。 なお、 以上の階調変換曲線候補 G 1〜Gpの関係 は、 添え字の大きい階調変換曲線候補について、 入力信号 I Sが小さい場合、 若 しくは、 添え字の小さい階調変換曲線候補について、 入力信号 I Sが大きい場合 、 などにおいて成立していなくてもよい。
曲線パラメータ P 1および P 2は、 入力信号 I Sの所定の値に対する階調処理 信号 CSの値として出力される。 すなわち、 選択信号 Smにより階調変換曲線候 補 Gmが指定された場合、 曲線パラメータ P 1の値は、 入力信号 I Sの所定の値 [X I ] に対する階調変換曲線候補 Gmの値 [Ri m] として出力され、 曲線パ ラメータ P2の値は、 入力信号 I Sの所定の値 [X2] に対する階調変換曲線候 補 Gmの値 [R2m] として出力される。 ここで、 値 [X2] は、 値 [X 1 ] よ リも大きい値である。
次に、 第 1 L U T 46および第 2 L U T 47について説明する。 、 第 1 LUT46および第 2 LUT47は、 それぞれ選択信号 S mに対する曲線 パラメータ P 1および P2の値を格納している。 より具体的には、 例えば、 6ビ ッ卜の信号として与えられるそれぞれの選択信号 Smに対して、 曲線パラメータ P 1および P 2の値がそれぞれ 6ビットで与えられる。 ここで、 選択信号 Smや 曲線パラメータ P 1および P 2にたいして確保されるビッ卜数はこれに限られな い。
図 1 5を用いて、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係に ついて説明する。 図 1 5は、 選択信号 Smに対する曲線パラメータ P 1および P 2の値の変化を示している。 第 1 L UT46および第 2 L UT47には、 それぞ れの選択信号 Smに対する曲線パラメータ P 1および P 2の値が格納されている 。 例えば、 選択信号 Smに対する曲線パラメータ P 1の値として、 値 [R 1 m] が格納されており、 曲線パラメータ P2の値として、 値 [R2m] が格納されて いる。
以上の第 1 1_リ丁46ぉょぴ第2しリ丁47にょリ、 入力された選択信号 Sm に対して、 曲線パラメータ P 1および P 2が出力される。
《演算部 48について》
演算部 48は、 取得した曲線パラメータ P 1および P 2 (値 [Ri m] および 値 [R2m] ) に基づいて、 入力信号 I Sに対する階調処理信号 CSを導出する 。 具体的な手順を以下記載する。 ここで、 入力信号 I Sの値は、 値 [0. 0〜1 . 0] の範囲で与えられるものとする。 また、 階調変換曲線候補 G1 ~Gpは、 値 [0. 0〜1. 0] の範囲で与えられる入力信号 I Sを、 値 [0. 0~1. 0 ] の範囲に階調変換するものとする。 なお、 本発明は、 入力信号 I sをこの範囲 に限定しない場合にも適用可能である。 まず、 演算部 48は、 入力信号 I Sの値と、 所定の値 [X 1 ], [X2] との 比較を行う。
入力信号 I Sの値 (値 [X] とする) が [0. 0] 以上 [X 1 ] 未満である場 合、 図 1 4における原点と座標 ( [X 1 ], [ i m] ) とを結ぶ直線上におい て、 値 [X] に対する階調処理信号 CSの値 (値 [Y] とする) が求められる。 より具体的には、 値 [Y] は、 次式 [Y] = ( [X] / [X I ] ) *、[R1 m] 、 により求められる。
入力信号 I Sの値が [X 1 ] 以上 [X2] 未満である場合、 図 1 4における座 標 ( [X 1 ], [R i m] ) と座標 ( [X2], [R2m] ) とを結ぶ直線上に おいて、 値 [X] に対する値 [Y] が求められる。 より具体的には、 値 [Y] は 、 次式 [Y] = [R 1 m] + { ( [R2m] - [R i m] ) / ( [X 2] - [X 1 ] ) } * ( [X] — [X 1 ] ) 、 により求められる。
入力信号 I Sの値が [X2] 以上 [1. 0] 以下である場合、 図 1 4における 座標 ( [X2], [R2m] ) と座標 ( [1. 0], [1. 0] ) とを結ぶ直線 上において、 値 [X] に対する値 [Y] が求められる。 より具体的には、 値 [Y ] は、 次式 [Y] = [R2m] + { ( [1. 0] - [R2m] ) / ( [1. 0] ― [X2] ) } * ( [X] - [X2] ) 、 により求められる。
以上の演算により、 演算部 48は、 入力信号 I Sに対する階調処理信号 CSを 導出する。
《階調処理方法■プログラム》
上述の処理は、 階調処理プログラムとして、 コンピュータなどにより実行され るものであってもよい。 階調処理プログラムは、 以下記載する階調処理方法をコ ンピュータに実行させるためのプログラムである。
階調処理方法は、 入力信号 I Sと選択信号 Smとを取得し、 階調処理信号 CS を出力する方法であって、 入力信号 I Sを 1次元 LUTを用いて階調処理する点 に特徴を有している。
まず、 選択信号 Smが取得されると、 第 1 LUT46および第 2 LUT47か ら曲線パラメータ P 1および P 2が出力される。 第 1 LUT46、 第 2 LUT4 7、 曲線パラメータ P 1および P 2については、 詳細な説明を省略する。 さらに、 曲線パラメータ P 1および P 2に基づいて、 入力信号 I Sの階調処理 が行われる。 階調処理の詳しい内容は、 演算部 48についての説明のなかで記載 したため省略する。
以上の階調処理方法により、 入力信号 I Sに対する階調処理信号 CSが導出さ れる。
《効果》 、 階調処理実行部 1 4の変形例としての階調処理実行部 44では、 2次元 L U T ではなく、 2つの 1次元 L U Tを備えている。 このため、 ルックアップテーブル を記憶するための記憶容量を削減することが可能となる。
《変形例》
(1 )
上記変形例では、 「曲線パラメータ P 1および P2の値は、 入力信号』 Sの所 定の値に対する階調変換曲線候補 Gmの値である。 」 、 と説明した。 ここで、 曲 線パラメータ P 1および P 2は、 階調変換曲線候補 Gmの他の曲線パラメータで あってもよい。 以下、 具体的に説明を加える。
(1 -1 )
曲線パラメータは、 階調変換曲線候補 Gmの傾きであってもよい。 図 1 4を用 いて具体的に説明する。 選択信号 Smによリ階調変換曲線候補 Gmが指定された 場合、 曲線パラメータ P 1の値は、 入力信号 I Sの所定の範囲 [0. 0~X 1 ] における階調変換曲線候補 Gmの傾きの値 [K1 m] であり、 曲線パラメータ P 2の値は、 入力信号 I Sの所定の範囲 [X "!〜 X2] における階調変換曲線候補 Gmの傾きの値 [K2m] である。
図 1 6を用いて、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係に ついて説明する。 図 1 6は、 選択信号 Smに対する曲線パラメータ P 1および P 2の値の変化を示している。 第 1 しリ丁46ぉょび第21_リ丁47には、 それぞ れの選択信号 Smに対する曲線パラメータ P 1および P 2の値が格納されている 。 例えば、 選択信号 Smに対する曲線パラメータ P 1の値として、 値 [K1 m] が格納されており、 曲線パラメータ P2の値として、 値 [K2m] が格納されて いる。 以上の第 1 し11丁46ぉょぴ第21_11丁47にょリ、 入力された選択信号 Sm に対して、 曲線パラメータ P 1および P 2が出力される。
演算部 48では、 取得した曲線パラメータ P 1および P 2に基づいて、 入力信 号 I Sに対する階調処理信号 CSを導出する。 具体的な手順を以下記載する。 まず、 演算部 48は、 入力信号 I Sの値と、 所定の値 [X I ], [X2] との 比較を行う。 ヽ
入力信号 I Sの値 (値 [X] とする) が [0. 0] 以上 [X 1 ] 未満である場 合、 図 1 4における原点と座標 ( [X 1 ], [Ki m] * [X 1 ] (以下、 [Y 1 ] と記載する) ) とを結ぶ直線上において、 値 [X] に対する階調処理信号 C Sの値 (値 [Y] とする) が求められる。 より具体的には、 値 [Y] は、 次式 [ Y] = [Ki m] * [X] 、 により求められる。
入力信号 I Sの値が [X I ] 以上 [X2] 未満である場合、 図 1 4における座 標 ( [X 1 ], [Y 1 ] ) と座標 ( [X2], [K 1 m] * [X 1 ] + [K2m ] * ( [X2] - [X I ] ) (以下、 [Y2] と記載する) ) とを結ぶ直線上に おいて、 値 [X] に対する値 [Υ] が求められる。 より具体的には、 値 [Υ] は 、 次式 [Υ] = [Υ 1 ] + [K2m] * ( [X] — [X I ] ) 、 により求められ る。
入力信号 I Sの値が [X2] 以上 [1. 0] 以下である場合、 図 1 4における 座標 ( [X2], [Y2] ) と座標 (1. 0, 1. 0) とを結ぶ直線上において 、 値 [X] に対する値 [Y] が求められる。 より具体的には、 値 [Y] は、 次式 [Y] = [Y2] + { ( [1. 0] ― [Y 2] ) / ( [1. 0] 一 [X2] ) } * ( [X] — [X 2] ) 、 により求められる。
以上の演算により、 演算部 48は、 入力信号 I Sに対する階調処理信号 CSを 導出する。
(1 -2)
曲線パラメータは、 階調変換曲線候補 Gm上の座標であってもよい。 図 1 7を 用いて具体的に説明する。 選択信号 Smにより階調変換曲線候補 Gmが指定され た場合、 曲線パラメータ P 1の値は、 階調変換曲線候補 Gm上の座標の一方の成 分の値 [Mm] であり、 曲線パラメータ P 2の値は、 階調変換曲線候補 Gm上の 座標の他方の成分の値 [Nm] である。 さらに、 階調変換曲線候補 G 1 ~G pは 、 全て座標 (X 1, Y 1 ) を通過する曲線である。
図 1 8を用いて、 曲線パラメータ P 1および P 2と、 選択信号 Smとの関係に ついて説明する。 図 1 8は、 選択信号 Smに対する曲線パラメータ P 1および P 2の値の変化を示している。 第 1 しリ丁46ぉょび第21_11丁47には、 それぞ れの選択信号 Smに対する曲線パラメータ P 1および P 2の値が格納ざれている 。 例えば、 選択信号 Smに対する曲線パラメータ P 1の値として、 値 [Mm] が 格納されており、 曲線パラメータ P 2の値として、 値 [Nm] が格納されている 以上の第"! 1_リ丁46ぉょび第21_11丁47にょリ、 入力された選択信号 Sm に対して、 曲線パラメ一タ P 1および P 2が出力される。
演算部 48では、 図 1 4を用いて説明した変形例と同様の処理により、 入力信 号 I Sから階調処理信号 CSが導出される。 詳しい説明は、 省略する。
(1 -3)
以上の変形例は、 一例であり、 曲線パラメータ P 1および P2は、 階調変換曲 線候補 Gmのさらに他の曲線パラメータであってもよい。
また、 曲線パラメータの個数も上記に限られない。 さらに少なくてもよいし、 さらに多くてもよい。
演算部 48についての説明では、 階調変換曲線候補 G 1 ~G pが直線の線分か ら構成される曲線である場合についての演算について記載した。 ここで、 階調変 換曲線候補 G 1〜 G p上の座標が曲線パラメータとして与えられる場合には、 与 えられた座標を通過する滑らかな曲線が作成され (カーブフィッティング) 、 作 成された曲線を用いて、 階調変換処理が行われるものであってもよい。
(2)
上記変形例では、 「曲線パラメータ出力部 45は、 第 1 L UT 46と第 2 L U 丁 47から構成される。 」 と説明した。 ここで、 曲線パラメータ出力部 45は、 選択信号 S mの値に対する曲線パラメータ P 1および P 2の値を格納する L U T を備えないものであってもよい。
この場合、 曲線パラメータ出力部 45は、 曲線パラメータ P 1および P 2の値 を演算する。 より具体的には、 曲線パラメ一タ出力部 4 5は、 図 1 5、 図 1 6、 図 1 8などに示される曲線パラメータ P 1および P 2のグラフを表すパラメータ を記憶している。 曲線パラメータ出力部 4 5は、 記憶されたパラメータから曲線 パラメータ P 1および P 2のグラフを特定する。 さらに、 曲線パラメータ P 1お よび P 2のグラフを用いて、 選択信号 S mに対する曲線パラメータ P 1および P 2の値を出力する。 、
ここで、 曲線パラメータ P 1および P 2のグラフを特定するためのパラメータ とは、 グラフ上の座標、 グラフの傾き、 曲率などである。 例えば、 曲線パラメ一 タ出力部 4 5は、 図 1 5に示す曲線パラメータ P 1および P 2のグラフ上のそれ ぞれ 2点の座標を記憶しており、 この 2点の座標を結ぶ直線を、 曲線パラメータ P 1および P 2のグラフとして用いる。
ここで、 パラメータから曲線パラメータ P 1および P 2のグラフを特定する際 には、 直線近似だけでなく、 折れ線近似、 曲線近似などを用いてもよい。
これによリ、 L U Tを記憶するためのメモリを用いずに曲線パラメータを出力 することが可能となる。 すなわち、 装置が備えるメモリの容量をさらに削減する ことが可能となる。
[第 3実施形態]
本発明の第 3実施形態としての視覚処理装置 2 1について図 1 9〜図 2 1を用 いて説明する。 視覚処理装置 2 1は、 例えば、 コンピュータ、 テレビ、 デジタル カメラ、 携帯電話、 P D Aなど、 画像を取り扱う機器に内蔵、 あるいは接続され て、 画像の階調処理を行う装置である。 視覚処理装置 2 1は、 あらかじめ L U T として記憶した複数の階調変換曲線を階調処理の対象となる画素ごとに切り換え て用いる点を特徴として有している。
〈構成〉
図 1 9に、 視覚処理装置 2 1の構造を説明するブロック図を示す。 視覚処理装 置 2 1は、 画像分割部 2 2と、 選択信号導出部 2 3と、 階調処理部 3 0とを備え ている。 画像分割部 2 2は、 入力信号 I Sを入力とし、 入力信号 I Sとして入力 される原画像を複数に分割した画像領域 P m ( 1≤m≤n : nは原画像の分割数 ) を出力とする。 選択信号導出部 2 3は、 それぞれの画像領域 P mに対して階調 変換曲線 Cmを選択するための選択信号 Smを出力する。 階調処理部 30は、 選 択信号補正部 24と、 階調処理実行部 25とを備えている。 選択信号補正部 24 は、 選択信号 Smを入力とし、 それぞれの画像領域 Pm毎の選択信号 Smを補正 した信号である画素毎の選択信号 SSを出力する。 階調処理実行部 25は、 複数 の階調変換曲線候補 G1〜Gp (pは候補数) を 2次元 LUTとして備えており 、 入力信号 I Sと画素毎の選択信号 SSとを入力とし、 それぞれの画素について 階調処理した出力信号 OSを出力とする。
(階調変換曲線候補について)
階調変換曲線候補 G1 ~Gpについては、 [第 2実施形態] において図 7を用 いて説明したのとほぼ同様であるため、 ここでは説明を省略する。 但し、 本実施 形態においては、 階調変換曲線候補 G "!〜 Gpは、 入力信号 I Sの画素の明度値 と出力信号 OSの画素の明度値との関係を与える曲線である。
階調処理実行部 25は、 階調変換曲線候補 G 1 ~Gpを 2次元 LUTとして備 えている。 すなわち、 2次元 LUTは、 入力信号 I Sの画素の明度値と階調変換 曲線候補 !〜 Gpを選択する選択信号 SSとに対して、 出力信号 OSの画素の 明度値を与えるルックアップテーブル (LUT) である。 具体例は、 [第 2実施 形態] において図 8を用いて説明したのとほぼ同様であるため、 ここでは説明を 省略する。 但し、 本実施形態においては、 マトリクスの列方向には、 例えば 1 0 ビッ卜で表される入力信号 I Sの画素値の上位 6ビッ卜の値に対する出力信号 O Sの画素値が並んでいる。
〈作用〉
各部の動作について説明を加える。 画像分割部 22は、 図 1の画像分割部 2と ほぼ同様に動作し、 入力信号 I Sとして入力される原画像を複数 (n個) の画像 領域 Pmに分割する (図 2参照) 。 ここで、 原画像の分割数は、 図 33に示す従 来の視覚処理装置 300の分割数 (例えば、 4〜1 6分割) よりも多く、 例えば 、 横方向に 80分割し縦方向に 60分割する 4800分割などである。
選択信号導出部 23は、 それぞれの画像領域 Pmに対して階調変換曲線 Cmを 階調変換曲線候補 G 1 ~Gpの中から選択する。 具体的には、 選択信号導出部 2 3は、 画像領域 Pmの広域画像領域 Emの平均明度値を計算し、 計算された平均 明度値に応じて階調変換曲線候補 G 1 ~Gpのいずれかの選択を行う。 すなわち 、 階調変換曲線候補 G 1〜Gpは、 広域画像領域 Emの平均明度値に関連づけら れており、 平均明度値が大きくなるほど、 添え字の大きい階調変換曲線候補 G 1 〜Gpが選択される。
ここで、 広域画像領域 Emとは、 [第 1実施形態] において図 2を用いて説明 したのと同様である。 すなわち、 広域画像領域 Emは、 それぞれの画像領域 Pm を含む複数の画像領域の集合であり、 例えば、 画像領域 Pmを中心とする縦方向 5ブロック、 横方向 5ブロックの 25個の画像領域の集合である。 なお、 画像領 域 Pmの位置によっては、 画像領域 Pmの周辺に縦方向 5ブロック、 横方向 5ブ ロックの広域画像領域 Emを取ることができない場合がある。 例えば、 原画像の 周辺に位置する画像領域 P Iに対して、 画像領域 P Iの周辺に縦方向 5ブロック 、 横方向 5ブロックの広域画像領域 E Iを取ることができない。 この場合には、 画像領域 P I を中心とする縦方向 5ブロック横方向 5ブロックの領域と原画像と が重なる領域が広域画像領域 E I として採用される。
選択信号導出部 23の選択結果は、 階調変換曲線候補 G 1 ~Gpのいずれかを 示す選択信号 Smとして出力される。 より具体的には、 選択信号 Smは、 階調変 換曲線候補 G 1 ~G pの添え字 (1 ~p) の値として出力される。
選択信号補正部 24は、 それぞれの画像領域 Pmに対して出力されたそれぞれ の選択信号 Smを用いた補正により、 入力信号 I Sを構成する画素毎に階調変換 曲線を選択するための画素毎の選択信号 SSを出力する。 例えば、 画像領域 Pm に含まれる画素に対する選択信号 SSは、 画像領域 Pmおよび画像領域 Pmの周 辺の画像領域に対して出力された選択信号の値を画素位置の内分比で補正して求 められる。
図 20を用いて、 選択信号補正部 24の動作についてさらに詳しく説明する。 図 20は、 画像領域 P o, P p, P q, P r (o, p, q, rは分割数 n (図 2 参照。 ) 以下の正整数) に対して選択信号 S o, S p, S q, S rが出力された 状態を示している。
ここで、 階調補正の対象となる画素 Xの位置を、 画像領域 Poの中心と画像領 域 Ppの中心とを [ i : 1一 ί ] に内分し、 かつ、 画像領域 Ρ οの中心と画像領 域 Pqの中心とを [ j : 1 - j ] に内分する位置であるとする。 この場合、 画素 Xに対する選択信号 SSの値 [SS] は、 [SS] = { (1— j ) ' (1 - i ) ■ [S o] + (1 - j ) ■ ( i ) ■ [S p] + ( j ) ■ (1 - i ) ■ [S q] + ( j ) ■ ( i ) ■ [S r ] } と求められる。 なお、 [S o] , [S p] , [S q ] , [S r ] は、 選択信号 S o, S p, S q, S rの値であるとする。
階調処理実行部 25は、 入力信号 I Sが含む画素の明度値と選択信号 SSとを 入力とし、 例えば図 8に示す 2次元 LUT 41を用いて、 出力信号 OSの明度値 を出力する。
なお、 選択信号 SSの値 [SS] が、 2次元 LUT41の備える階調変換曲線 候補 G 1〜Gpの添え字 (1〜p) と等しい値にならない場合、 値 [SS] に最 も近い整数を添え字とする階調変換曲線候補 G 1 ~Gpが入力信号 I Sの階調処 理に用いられる。
〈視覚処理方法および視覚処理プログラム〉
図 21に、 視覚処理装置 21における視覚処理方法を説明するフローチャート を示す。 図 21に示す視覚処理方法は、 視覚処理装置 21においてハ一ドウエア により実現され、 入力信号 I S (図 1 9参照) の階調処理を行う方法である。 図 21に示す視覚処理方法では、 入力信号 I Sは、 画像単位で処理される (ステツ プ S30~S37) 。 入力信号 I Sとして入力される原画像は、 複数の画像領域 Pm (1≤m≤n : nは原画像の分割数) に分割され (ステップ S31 ) 、 画像 領域 Pm毎に階調変換曲線 Cmが選択され (ステップ S 32〜 S 33 ) 、 画像領 域 Pm毎に階調変換曲線 Cmを選択するための選択信号 Smに基づいて、 原画像 の画素毎に階調変換曲線が選択され、 画素単位での階調処理が行われる (ステツ プ S 34〜S 36) 。
それぞれのステップについて具体的に説明を加える。
それぞれの画像領域 Pmに対して階調変換曲線 Cmが階調変換曲線候補 G 1〜 G.Pの中から選択される (ステップ S32) 。 具体的には、 画像領域 Pmの広域 画像領域 Emの平均明度値を計算し、 計算された平均明度値に応じて階調変換曲 線候補 G 1〜G pのいずれかの選択が行われる。 階調変換曲線候補 G "!〜 G pは 、 広域画像領域 Emの平均明度値に関連づけられており、 平均明度値が大きくな るほど、 添え字の大きい階調変換曲線候補 G1 ~Gpが選択される。 ここで、 広 域画像領域 Emについては、 説明を省略する (上記 〈作用〉 の欄参照。 ) 。 選択 結果は、 階調変換曲線候補 G 1〜Gpのいずれかを示す選択信号 Smとして出力 される。 より具体的には、 選択信号 Smは、 階調変換曲線候補 G1〜Gpの添え 字 (1〜P) の値として出力される。 さらに、 全ての画像領域 Pmについての処 理が終了したか否かを判定し (ステップ S33) 、 処理が終了したと判定される まで、 ステップ S 32〜S 33の処理を原画像の分割数回繰り返す。 以上により 、 画像領域単位の処理が終了する。
それぞれの画像領域 Pmに対して出力されたそれぞれの選択信号 Smを用いた 補正により、 入力信号 I Sを構成する画素毎に階調変換曲線を選択するための画 素毎の選択信号 SSが出力される (ステップ S34) 。 例えば、 画像領域 Pmに 含まれる画素に対する選択信号 SSは、 画像領域 Pmおよび画像領域 Pmの周辺 の画像領域に対して出力された選択信号の値を画素位置の内分比で補正して求め られる。 補正の詳細な内容については、 説明を省略する (上記 〈作用〉 の欄、 図 20参照。 ) 。
入力信号 I Sが含む画素の明度値と選択信号 SSとを入力とし、 例えば図 8に 示す 2次元 LUT41を用いて、 出力信号 OSの明度値が出力される (ステップ S35) 。 さらに、 全ての画素についての処理が終了したか否かを判定し (ステ ップ S 36) 、 処理が終了したと判定されるまで、 ステップ S 34~S 36の処 理を画素数回繰り返す。 以上により、 画像単位の処理が終了する。
なお、 図 21に示す視覚処理方法のそれぞれのステップは、 コンピュータなど により、 視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
本発明により、 上記 [第 1実施形態] および [第 2実施形態] の 〈効果〉 とほ ぼ同様の効果を得ることが可能である。 以下、 第 3実施形態特有の効果を記載す る。
(1 )
それぞれの画像領域 Pmに対して選択される階調変換曲線 Cmは、 広域画像領 域 Emの平均明度値に基づいて作成される。 このため、 画像領域 Pmの大きさは 小さくとも十分な明度値のサンプリングが可能となる。 また、 この結果、 小さな 画像領域 Pmに対しても、 適切な階調変換曲線 Cmが選択される。
(2)
選択信号補正部 24は、 画像領域単位で出力される選択信号 Smに基づいた補 正により、 画素毎の選択信号 SSを出力する。 入力信号 I Sを構成す 原画像の 画素は、 画素毎の選択信号 S Sが指定する階調変換曲線候補 G "!〜 G 0を用いて、 階調処理される。 このため、 より適切に階調処理された出力信号 OSを得ること ができる。 例えば、 疑似輪郭の発生を抑制することが可能となる。 また、 出力信 号 OSにおいては、 それぞれの画像領域 Pmの境界のつなぎ目が不自然に目立つ ことがさらに防止可能となる。
(3)
階調処理実行部 25は、 あらかじめ作成された 2次元 LUTを有している。 こ のため、 階調処理に要する処理負荷を削減すること、 より具体的には、 階調変換 曲線 Cmの作成に要する処理負荷を削減することが可能となる。 この結果、 階調 処理を高速化することが可能となる。
(4)
階調処理実行部 25は、 2次元 LUTを用いて階調処理を実行する。 ここで、 2次元 LUTの内容は、 視覚処理装置 21が備えるハードディスクあるいは RO Mなどの記憶装置から読み出されて階調処理に用いられる。 読み出す 2次元 L U Tの内容を変更することにより、 ハードウェアの構成を変更せずに様々な階調処 理を実現することが可能となる。 すなわち、 原画像の特性により適した階調処理 を実現することが可能となる。
〈変形例〉
本発明は上記実施形態に限定されるものではなく、 その要旨を逸脱しない範囲 で種々の変形が可能である。 例えば、 上記 [第 2実施形態] 〈変形例〉 とほぼ同 様の変形を第 3実施形態に適用することが可能である。 特に、 [第 2実施形態]
〈変形例〉 の (1 0) 〜 (1 2) では、 選択信号 Smを選択信号 SSと、 階調処 理信号 C Sを出力信号 O Sと読み替えることによリ、 同様に適用可能である。 以下、 第 3実施形態特有の変形例を記載する。 (1 )
上記実施形態では、 64行 64列のマトリクスからなる 2次元 LUT 41を 2 次元 LUTの一例とした。 ここで、 本発明の効果は、 このサイズの 2次元 LUT に限定されるものではない。 例えば、 さら 多くの階調変換曲線候補を行方向に 並べたマトリクスであっても良い。 また、 入力信号 I Sの画素値をさらに細かい ステツプに区切つた値に対する出力信号 O Sの画素値をマトリクスの列方向に並 ベたもので有っても良い。 具体的には、 例えば 1 0ビットで表される入力信号 I Sのそれぞれの画素値に対して、 出力信号 OSの画素値を並べたもので有っても 良い。
2次元 LUTのサイズが大きくなれば、 より適切な階調処理を行うことが可能 となり、 小さくなれば、 2次元 LUTを記憶するメモリの削減などが可能となる
(2)
上記実施形態では、 選択信号 SSの値 [SS] が、 2次元 LUT41 (図 8参 照) の備える階調変換曲線候補 G1 ~Gpの添え字 (1 ~p) と等しい値になら ない場合、 値 [SS] に最も近い整数を添え字とする階調変換曲線候補 G 1〜G Pが入力信号 I Sの階調処理に用いられる、 と説明した。 ここで、 選択信号 SS の値 [SS] が、 2次元 LUT41の備える階調変換曲線候補 G 1 ~Gpの添え 字 (1〜p) と等しい値にならない場合、 選択信号 SSの値 [SS] を超えない 最大の整数 (k) を添え字とする階調変換曲線候補 Gk (1≤k≤p-1 ) と、 [SS] を超える最小の整数 (k + 1 ) を添え字とする階調変換曲線候補 G k + 1との双方を用いて階調処理した入力信号 I Sの画素値を、 選択信号 SSの値 [ SS] の小数点以下の値を用いて加重平均 (内分) し、 出力信号 OSを出力して もよい。
(3)
上記実施形態では、 マトリクスの列方向には、 例えば 1 0ビットで表される入 力信号 I Sの画素値の上位 6ビッ卜の値に対する出力信号 OSの画素値が並んで いる、 と説明した。 ここで、 出力信号 OSは、 階調処理実行部 25により、 入力 信号 I Sの画素値の下位 4ビッ卜の値で線形補間されたマトリクスの成分として 出力されるものであっても良い。 すなわち、 マトリクスの列方向には、 例えば 1 0ビッ卜で表される入力信号 I Sの画素値の上位 6ピッ卜の値に対するマトリク スの成分が並んでおり、 入力信号 I Sの画素値の上位 6ビッ卜の値に対するマ卜 リクスの成分と、 入力信号 I Sの画素値の上位 6ビッ卜の値に [1 ] を加えた値 に対するマトリクスの成分 (例えば、 図 8では、 1行下の成分) とを入力信号 I Sの画素値の下位 4ビッ卜の値を用いて線形補間し、 出力信号 OSとレて出力す る。
これにより、 2次元 LUT41 (図 8参照) のサイズが小さくとも、 より適切 な階調処理を行うことが可能となる。
(4)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に対する選択信号 Smを出力すると説明した。 ここで、 選択信号 Smの出力方法 は、 この方法に限られない。 例えば、 広域画像領域 Emの最大明度値、 あるいは 最小明度値に基づいて、 画像領域 Pmに対する選択信号 Smを出力してもよい。 なお、 選択信号 Smの値 [Sm] は、 広域画像領域 Emの平均明度値、 最大明度 値、 あるいは最小明度値そのものであってもよい。
また例えば、 次のようにして画像領域 Pmに対する選択信号 Smを出力しても よい。 すなわち、 それぞれの画像領域 Pmについて平均明度値を求め、 それぞれ の平均明度値からそれぞれの画像領域 Pmについての仮の選択信号 Sm' を求め る。 ここで、 仮の選択信号 Sm' は、 階調変換曲線候補 G 1 ~G pの添え字の番 号を値としている。 さらに、 広域画像領域 Emが含むそれぞれの画像領域につい て、 仮の選択信号 Sm' の値を平均し、 画像領域 Pmの選択信号 Smとする。
(5)
上記実施形態では、 広域画像領域 Emの平均明度値に基づいて、 画像領域 Pm に対する選択信号 Smを出力すると説明した。 ここで、 広域画像領域 Emの単純 平均でなく、 加重平均 (重み付き平均) に基づいて、 画像領域 Pmに対する選択 信号 Smを出力しても良い。 詳細は、 上記 [第 2実施形態] で図 1 1を用いて説 明したのと同様であり、 広域画像領域 Emを構成するそれぞれの画像領域の平均 明度値を求め、 画像領域 Pmの平均明度値と大きく異なる平均明度値を持つ画像 領域 P s 1, P s 2, ■ ■ ■については、 重み付けを軽くして広域画像領域 E m の平均明度値を求める。
これにより、 広域画像領域 E mが明度的に特異的な領域を含む場合 (例えば、 広域画像領域 E mが 2つの明度値の異なる物体の境界を含む場合) であっても、 選択信号 S mの出力に対して、 その特異的な領域の明度値が与える影響が少なく なり、 さらに適切な選択信号 S mの出力が行われることとなる。 、
( 6 )
視覚処理装置 2 1では、 2次元 L U Tが格納する値であるプロファイルデータ を作成するプロファイルデータ作成部をさらに備えていても良い。 具体的には、 プロファイルデータ作成部は、 視覚処理装置 1 (図 1参照) における画像分割部 2と階調変換曲線導出部 1 0とから構成されており、 作成された複数の階調変換 曲線の集合をプロファイルデータとして 2次元 L U Tに格納する。
また、 2次元 L U Tに格納される階調変換曲線のそれぞれは、 空間処理された 入力信号 I Sに関連づけられていてもかまわない。 この場合、 視覚処理装置 2 1 では、 画像分割部 2 2と選択信号導出部 2 3と選択信号補正部 2 4とを、 入力信 号 I Sを空間処理する空間処理部に置き換えても良い。
[第 4実施形態]
図 2 2〜図 2 5を用いて本発明の第 4実施形態としての視覚処理装置 6 1につ いて説明する。
図 2 2に示す視覚処理装置 6 1は、 画像信号の空間処理、 階調処理など視覚処 理を行う装置である。 視覚処理装置 6 1は、 例えば、 コンピュータ、 テレビ、 デ ジタルカメラ、 携帯電話、 P D A、 プリンタ、 スキャナなどの画像を取り扱う機 器において、 画像信号の色処理を行う装置とともに画像処理装置を構成する。 視覚処理装置 6 1は、 画像信号と、 画像信号に対して空間処理 (ボケフィルタ 処理) を施したボケ信号とを用いた視覚処理を行う装置であり、 空間処理におい て特徴を有している。
従来、 対象画素の周辺の画素を用いてボケ信号を導出する際に、 周辺の画素が 対象画素と大きく濃度の異なる画素を含むと、 ボケ信号は、 濃度の異なる画素の 影響を受ける。 すなわち、 画像において物体のエッジ近傍の画素を空間処理する 場合、 本来エッジでない画素がエッジの濃度の影響を受けることとなる。 このた め、 この空間処理により、 例えば、 擬似輪郭の発生などが引き起こされることと なる。
そこで、 空間処理を画像の内容に適応させて行うことが求められる。 これに対 して、 例えば、 特開平 1 0— 7 5 3 9 5号公報は、 ボケ度合いの異なる複数のポ ケ信号を作成し、 それぞれのボケ信号を合成、 あるいは切り替えることによリ適 切なボケ信号を出力する。 これにより、 空間処理のフィルタサイズを変更し、 濃 度の異なる画素の影響を抑制することを目的とする。
一方、 上記公報では、 複数のボケ信号を作成し、 それぞれのボケ信号を合成、 あるいは切り替えることとなるため、 装置における回路規模、 あるいは処理負荷 が大きくなる。
そこで、 本発明の第 4実施形態としての視覚処理装置 6 1では、 適切なボケ信 号を出力することを目的とし、 かつ、 装置における回路規模、 あるいは処理負荷 を削減することを目的とする。
〈視覚処理装置 6 1〉
図 2 2に、 画像信号 (入力信号 I S ) に視覚処理を行い視覚処理画像 (出力信 号 O S ) を出力する視覚処理装置 6 1の基本構成を示す。 視覚処理装置 6 1は、 入力信号 I Sとして取得した原画像の画素ごとの明度値に空間処理を実行しアン シャープ信号 U Sを出力する空間処理部 6 2と、 同じ画素についての入力信号 I Sとアンシャープ信号 U Sとを用いて、 原画像の視覚処理を行い、 出力信号 O S を出力する視覚処理部 6 3とを備えている。
〈空間処理部 6 2 >
図 2 3を用いて、 空間処理部 6 2の空間処理について説明する。 空間処理部 6 2は、 空間処理の対象となる対象画素 6 5と、 対象画素 6 5の周辺領域の画素 ( 以下、 周辺画素 6 6という) との画素値を入力信号 I Sから取得する。
周辺画素 6 6は、 対象画素 6 5の周辺領域に位置する画素であり、 対象画素 6 5を中心として広がる縦 9画素、 横 9画素の周辺領域に含まれる画素である。 な お、 周辺領域の大きさは、 この場合に限定されず、 より小さくてもよいし、 より 大きくてもよい。 また、 周辺画素 6 6は、 対象画素 6 5からの距離に応じて近い ものから第 1周辺画素 67、 第 2周辺画素 68と分けられている。 図 23では、 第 1周辺画素 67は、 対象画素 65を中心とする縦 5画素、 横 5画素の領域に含 まれる画素であるとする。 さらに第 2周辺画素 68は、 第 1周辺画素 67の周辺 に位置する画素であるとする。
空間処理部 62は、 対象画素 65に対してフィルタ演算を行う。 フィルタ演算 では、 対象画素 65と周辺画素 66との画素値とが、 対象画素 65と周辺画素 6 6との画素値の差および距離に基づく重みを用いて、 加重平均される。 加重平均 は、 次式 F= (∑ [W i j ] * [A i j ] ) / (∑ [W i j ] ) に基づいて計算 される。 ここで、 [W i j ] は、 対象画素 65および周辺画素 66において、 i 行 j列目に位置する画素の重み係数であり、 [A i j ] は、 対象画素 65および 周辺画素 66において、 i行 j '列目に位置する画素の画素値である。 また、 Γ∑ J は、 対象画素 65および周辺画素 66のそれぞれの画素についての合計の計算 を行うことを意味している。
図 24を用いて、 重み係数 [W i j ] について説明する。 重み係数 [W i j ] は、 対象画素 65と周辺画素 66との画素値の差および距離に基づいて定められ る値である。 より具体的には、 画素値の差の絶対値が大きいほど小さい値の重み 係数が与えられる。 また、 距離が大きいほど小さい重み係数が与えられる。
例えば、 対象画素 65に対しては、 重み係数 [W i j ] は、 値 [1 ] である。 第 1周辺画素 67のうち、 対象画素 65の画素値との差の絶対値が所定の閾値 よりも小さい画素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [1 ] である。 第 1周辺画素 67のうち、 差の絶対値が所定の閾値よりも大きい画素値 を有する画素に対しては、 重み係数 [W i j ] は、 値 [1 /2] である。 すなわ ち、 第 1周辺画素 67に含まれる画素であっても、 画素値に応じて与えられる重 み係数が異なっている。
第 2周辺画素 68のうち、 対象画素 65の画素値との差の絶対値が所定の閾値 よ.リも小さい画素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [1 2] である。 第 2周辺画素 68のうち、 差の絶対値が所定の閾値よりも大きい画 素値を有する画素に対しては、 重み係数 [W i j ] は、 値 [1 /4] である。 す なわち、 第 2周辺画素 68に含まれる画素であっても、 画素値に応じて与えられ る重み係数が異なっている。 また、 対象画素 6 5からの距離が第 1周辺画素 6 7 よりも大きい第 2周辺画素 6 8では、 より小さい重み係数が与えられている。
ここで、 所定の閾値とは、 値 [ 0 . 0 ~ 1 . 0 ] の範囲の値をとる対象画素 6 5の画素値に対して、 値 [ 2 0 2 5 6〜6 0ノ 2 5 6 ] などといった大きさの 値である。
以上により計算された加重平均が、 アンシャープ信号 U Sとして出力される。 〈視覚処理部 6 3〉
視覚処理部 6 3では、 同一の画素についての入力信号 I Sとアンシャープ信号 U Sとの値を用いて、 視覚処理を行う。 ここで行われる視覚処理は、 入力信号 I Sのコントラスト強調、 あるいはダイナミックレンジ圧縮などといった処理であ る。 コントラス卜強調では、 入力信号 I Sとアンシャープ信号 U Sとの差、 ある いは比を強調する関数を用いて強調した信号を入力信号 I Sに加え、 画像の鮮鋭 化が行われる。 ダイナミックレンジ圧縮では、 入力信号 I Sからアンシャープ信 号 U Sが減算される。
視覚処理部 6 3における処理は、 入力信号 I Sとアンシャープ信号 U Sとを入 力として出力信号 O Sを出力する 2次元 L U Tを用いて行われても良い。
〈視覚処理方法■プログラム〉
上述の処理は、 視覚処理プログラムとして、 コンピュータなどにより実行され るものであってもよい。 視覚処理プログラムは、 以下記載する視覚処理方法をコ ンピュータに実行させるためのプログラムである。
視覚処理方法は、 入力信号 I Sとして取得した原画像の画素ごとの明度値に空 間処理を実行しアンシヤープ信号 U Sを出力する空間処理ステツプと、 同じ画素 についての入力信号 I Sとアンシャープ信号 U Sとを用いて、 原画像の視覚処理 を行い、 出力信号 O Sを出力する視覚処理ステップとを備えている。
空間処理ステップでは、 入力信号 I Sの画素毎に、 空間処理部 6 2の説明にお いて記載した加重平均を行い、 アンシャープ信号 U Sを出力する。 詳細について は、 上述したため省略する。
視覚処理ステップでは、 同じ画素についての入力信号 I Sとアンシャープ信号 U Sとを用いて、 視覚処理部 6 3の説明において記載した視覚処理を行い出力信 号 O Sを出力する。 詳細については、 上述したため省略する。
〈効果〉
図 2 5 ( a ) 〜 (b ) を用いて、 視覚処理装置 6 1による視覚処理の効果を説 明する。 図 2 5 ( a ) と図 2 5 ( b ) とは、 従来のフィルタによる処理を示して いる。 図 2 5 ( b ) は、 本発明のフィルタによる処理を示している。
図 2 5 ( a ) は、 周辺画素 6 6が濃度の異なる物体 7 1を含む様子を示してい る。 対象画素 6 5の空間処理では、 所定のフィルタ係数を持つ平滑化フィルタが 用いられる。 このため、 本来物体 7 1の一部でない対象画素 6 5が物体 7 1の濃 度の影響を受けることとなる。
図 2 5 ( b ) は、 本発明の空間処理の様子を示している。 本発明の空間処理で は、 周辺画素 6 6が物体 7 1を含む部分 6 6 a、 物体 7 1を含まない第 1周辺画 素 6 7、 物体 7 1を含まない第 2周辺画素 6 8、 対象画素 6 5、 のそれぞれに対 して、 異なる重み係数を用いて空間処理が行われる。 このため、 空間処理された 対象画素 6 5が極端に濃度の異なる画素から受ける影響を抑えることが可能とな リ、 より適切な空間処理が可能となる。
また、 視覚処理装置 6 1では、 特開平 1 0— 7 5 3 9 5号公報のように複数の ボケ信号を作成する必要が無い。 このため、 装置における回路規模、 あるいは処 理負荷を削減することが可能となる。
さらに、 視覚処理装置 6 1では、 実質的に、 空間フィルタのフィルタサイズ、 およびフィルタが参照する画像の形状を画像内容に応じて適応的に変更すること が可能である。 このため、 画像内容に適した空間処理を行うことが可能となる。
〈変形例〉
( 1 )
上記した周辺画素 6 6、 第 1周辺画素 6 7、 第 2周辺画素などの大きさは、 ― 例であり、 他の大きさであってもよい。
上記した重み係数は、 一例であり、 他のものであっても良い。 例えば、 画素値 の差の絶対値が所定の閾値を超える場合に、 重み係数を値 [ 0 ] として与えても よい。 これにより、 空間処理された対象画素 6 5が極端に濃度の異なる画素から 受ける影響を無くすことが可能となる。 このことは、 コントラスト強調を目的と した応用では、 元々ある程度コントラス卜の大きい部分におけるコントラス卜を 過剰に強調しないという効果がある。
また、 重み係数は、 次に示すような関数の値として与えられるものであっても よい。
( 1 - a )
画素値の差の絶対値を変数とする関数によリ重み係数の値を与えてもよい。 関 数は、 例えば、 画素値の差の絶対値が小さいときは重み係数が大きく (1に近く ) 、 画素値の差の絶対値が大きいときは重み係数が小さく (0に近く) なるよう な、 画素値の差の絶対値に対して単調減少する関数である。
( 1 — b )
対象画素 6 5からの距離を変数とする関数により重み係数の値をあたえてもよ し、。 関数は、 例えば、 対象画素 6 5からの距離が近いときには重み係数が大きく ( 1に近く) 、 対象画素 6 5からの距離が遠いときには重み係数が小さく (0に 近く) なるような、 対象画素 6 5からの距離に対して単調減少する関数である。 上記 (1 — a ) 、 ( 1 - b ) では、 重み係数がより連続的に与えられることと なる。 このため、 閾値を用いた場合に比して、 より適切な重み係数を与えること が可能となり、 過剰なコントラスト強調を抑制し、 擬似輪郭の発生などを抑制し 、 より視覚的効果の高い処理を行うことが可能となる。
( 2 )
上記したそれぞれの画素についての処理は、 複数の画素を含むブロックを単位 として行われても良い。 具体的には、 まず、 空間処理の対象となる対象ブロック の平均画素値と、 対象ブロックの周辺の周辺ブロックの平均画素値とが計算され る。 さらに、 それぞれの平均画素値が上記と同様の重み係数を用いて加重平均さ れる。 これにより、 対象ブロックの平均画素値がさらに空間処理されることとな る。
このような場合には、 空間処理部 6 2を選択信号導出部 1 3 (図 6参照) ある いは選択信号導出部 2 3 (図 1 9参照) として用いることも可能である。 この場 合、 [第 2実施形態] 〈変形例〉 (6 ) 、 あるいは [第 3実施形態] 〈変形例〉 ( 5 ) に記載したのと同様である。 これに関し、 図 2 6〜図 2 8を用いて説明を加える。
《構成》
図 2 6は、 図 2 2〜図 2 5を用いて説明した処理を複数の画素を含むブロック 単位で行う視覚処理装置 9 6 1の構成を示すブロック図である。
視覚処理装置 9 6 1は、 入力信号 I Sとして入力される画像を複数の画像プロ ックに分割する画像分割部 9 6 4と、 分割された画像ブロック毎の空間処理を行 う空間処理部 9 6 2と、 入力信号 I Sと空間処理部 9 6 2の出力である空間処理 信号 U S 2とを用いて視覚処理を行う視覚処理部 9 6 3とから構成されている。 画像分割部 9 6 4は、 入力信号 I Sとして入力される画像を複数の画像ブロッ クに分割する。 さらに、 分割された画像ブロック毎の特徴パラメータを含む処理 信号 U S 1を導出する。 特徴パラメータとは、 例えば、 分割された画像ブロック 毎の画像の特徴を表すパラメータであり、 例えば、 平均値 (単純平均、 加重平均 など) や代表値 (最大値、 最小値、 中央値など) である。
空間処理部 9 6 2は、 画像ブロック毎の特徴パラメータを含む処理信号 U S 1 を取得し、 空間処理を行う。
図 2 7を用いて、 空間処理部 9 6 2の空間処理について説明する。 図 2 7は、 複数画素を含む画像ブロックに分割された入力信号 I Sを示している。 ここで、 それぞれの画像ブロックは、 縦 3画素■横 3画素の 9画素を含む領域に分割され ている。 なお、 この分割方法は、 一例であり、 このような分割方法に限定される わけではない。 また、 視覚処理効果を十分に発揮するためには、 かなり広い領域 を対象として空間処理信号 U S 2を生成することが好ましい。
空間処理部 9 6 2は、 空間処理の対象となる対象画像ブロック 9 6 5と、 対象 画像ブロック 9 6 5の周辺に位置する周辺領域 9 6 6に含まれるそれぞれの周辺 画像ブロックとの特徴パラメータを処理信号 U S 1から取得する。
周辺領域 9 6 6は、 対象画像ブロック 9 6 5の周辺に位置する領域であり、 対 象画像ブロック 9 6 5を中心として広がる縦 5ブロック、 横 5ブロックの領域で ある。 なお、 周辺領域 9 6 6の大きさは、 この場合に限定されず、 より小さくて もよいし、 より大きくてもよい。 また、 周辺領域 9 6 6は、 対象画像ブロック 9 6 5からの距離に応じて近いものから第 1周辺領域 9 6 7、 第 2周辺領域 9 6 8 と分けられている。
図 27では、 第 1周辺領域 967は、 対象画像ブロック 965を中心とする縦 3ブロック、 横 3ブロックの領域であるとする。 さらに第 2周辺領域 968は、 第 1周辺領域 967の周辺に位置する領域であるとする。
空間処理部 962は、 対象画像ブロック 965の特徴パラメータに対してフィ ルタ演算を行う。 ヽ
フィルタ演算では、 対象画像ブロック 965と周辺領域 966の周辺画像ブ口 ックとの特徴パラメータの値が加重平均される。 ここで加重平均の重みは、 対象 画像ブロック 965と周辺画像ブロックとの距離および特徵ノ《ラメータの値の差 に基づいて定められている。
より具体的には、 加重平均は、 次式 F= (∑ [W i j ] * [A i ] ! ) / (∑ [W i 〗 ] ) に基づいて計算される。
ここで、 [W i j ] は、 対象画像ブロック 965および周辺領域 966におい て、 i行 j列目に位置する画像ブロックに対する重み係数であり、 [A i j ] は 、 対象画像ブロック 965および周辺領域 966において、 i行 j列目に位置す る画像ブロックの特徴パラメータの値である。 また、 「∑」 は、 対象画像ブロッ ク 965および周辺領域 966のそれぞれの画像ブロックについての合計の計算 を行うことを意味している。
図 28を用いて、 重み係数 [W i j ] について説明する。
重み係数 [W i j ] は、 対象画像ブロック 965と周辺領域 966の周辺画像 ブロックとの距離および特徴パラメ一タの値の差に基づいて定められる値である 。 より具体的には、 特徴パラメータの値の差の絶対値が大きいほど小さい値の重 み係数が与えられる。 また、 距離が大きいほど小さい重み係数が与えられる。 例えば、 対象画像ブロック 965に対しては、 重み係数 [W i j ] は、 値 [1 ] である。
第 1周辺領域 967のうち、 対象画像ブロック 965の特徴パラメータの値と の差の絶対値が所定の閾値よりも小さい特徴パラメータの値を有する周辺画像ブ ロックに対しては、 重み係数 [W i j ] は、 値 [1 ] である。 第 1周辺領域 96 7のうち、 差の絶対値が所定の閾値よりも大きい特徴パラメータの値を有する周 辺画像ブロックに対しては、 重み係数 [W i j ] は、 値 [1 /2] である。 すな わち、 第 1周辺領域 967に含まれる周辺画像ブロックであっても、 特徴パラメ ータの値に応じて与えられる重み係数が異なっている。
第 2周辺領域 968のうち、 対象画像ブロック 965の特徴パラメータの値と の差の絶対値が所定の閾値よりも小さい特徴パラメータの値を有する周辺画像ブ ロックに対しては、 重み係数 [W i j ] は、 値 [1 /2] である。 第2、周辺領域 968のうち、 差の絶対値が所定の閾値よりも大きい特徴パラメータの値を有す る周辺画像ブロックに対しては、 重み係数 [W i j ] は、 値 [1 Z4] である。 すなわち、 第 2周辺領域 968に含まれる周辺画像ブロックであっても、 特徵パ ラメータの値に応じて与えられる重み係数が異なっている。 また、 対象画像ブロ ック 965からの距離が第 1周辺領域 967よりも大きい第 2周辺領域 968で は、 より小さい重み係数が与えられている。
ここで、 所定の閾値とは、 値 [0. 0~1. 0] の範囲の値をとる対象画像ブ ロック 965の特徴パラメータの値に対して、 値 [20/256〜 60/256 ] などといった大きさの値である。
以上により計算された加重平均が、 空間処理信号 US 2として出力される。 視覚処理部 963では、 視覚処理部 63 (図 22参照) と同様の視覚処理が行 われる。 ただし、 視覚処理部 63との相違点は、 アンシャープ信号 USの代わり に、 視覚処理の対象となる対象画素を含む対象画像ブロックの空間処理信号 US 2が用いられる点である。 また、 視覚処理部 963における処理は、 対象画素 を含む対象画像ブロック単位で一括して処理されてもよいが、 入力信号 I Sから 取得される画素の順序で空間処理信号 U S 2を切り換えて処理されてもよい。 以上の処理が、 入力信号 I Sに含まれる全ての画素について行われる。
《効果》
空間処理部 962の処理では、 画像ブロックを単位とした処理が行われる。 こ のため、 空間処理部 962の処理量を削減でき、 より高速の視覚処理が実現可能 となる。 また、 ハードウェア規模を小さくすることが可能となる。
《変形例》
上記では、 正方のブロック単位で処理を行うと記載した。 ここで、 ブロックの 形状は、 任意としてもよい。
また、 上記した重み係数、 閾値なども適宜変更可能である。
ここで、 重み係数の一部の値は、 値 [0] であってもよい。 この場合には、 周 辺領域 966の形状を任意の形状とすることと同じこととなる。
また、 空間処理部 962では、 対象画像ブロック 965と周辺領域 966との 特徴パラメータを用いて空間処理を行うと説明したが、 空間処理は、 周辺領域 9 66のみの特徴パラメータを用いて行うものであってもよい。 すなわち、 空間処 理の加重平均の重みにおいて、 対象画像ブロック 965の重みを値 [0] として もよい。
( 3 )
視覚処理部 63における処理は、 上記したものに限られない。 例えば、 視覚処 理部 63は、 入力信号 I Sの値 A、 アンシャープ信号 U Sの値 B、 ダイナミック レンジ圧縮関数 F 4、 強調関数 F 5を用いて、 次式 C= F 4 (A) * F 5 (A/ B) により演算される値 Cを出力信号 OSの値として出力するものであってもか まわない。 ここで、 ダイナミックレンジ圧縮関数 F 4は、 上に凸のべき関数など の単調増加関数であり、 例えば、 F 4 (χ) =χ Λ (0<r< 1 ) と表される。 強調関数 F 5は、 べき関数であり、 例えば、 F 5 ( X ) =χ Λ a (0<Qf≤ 1 ) と表される。
視覚処理部 63においてこのような処理が行われる場合、 本発明の空間処理部 62により出力された適切なアンシャープ信号 U Sが用いられれば、 入力信号 I Sのダイナミックレンジを圧縮しつつ、 局所的なコントラス卜を強調することが 可能となる。
一方、 アンシャープ信号 USが適切でなく、 ボケが少なすぎる場合には、 エツ ジ強調的ではあるがコントラストの強調が適切に行えない。 また、 ボケが多すぎ る場合には、 コントラストの強調は行えるが、 ダイナミックレンジの圧縮が適切 に行えない。
[第 5実施形態]
本発明の第 5実施形態として、 上記第 1〜第 4実施形態で説明した視覚処理装 置、 視覚処理方法、 視覚処理プログラムの応用例と、 それを用いたシステムとに ついて説明する。
視覚処理装置は、 例えば、 コンピュータ、 テレビ、 デジタルカメラ、 携帯電話 、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続されて、 画像の階調処 理を行う装置であり、 LS Iなどの集積回路として実現される。
より詳しくは、 上記実施形態の各機能ブロックは、 個別に 1チップ化されても 良いし、 一部又は全てを含むように 1チップ化されても良い。 なお、 ここでは、 LS I としたが、 集積度の違いにより、 I C、 システム LS I、 スーパー LS I 、 ウルトラ LS I と呼称されることもある。
また、 集積回路化の手法は LS Iに限るものではなく、 専用回路又は汎用プロ セサで実現してもよい。 LS I製造後に、 プログラムすることが可能な F PGA (Field Programmable Gate Array) や、 L S I内部の回路セルの接続や設定を 再構成可能なリコンフィギユラブル■プロセッサ一を利用しても良い。
さらには、 半導体技術の進歩又は派生する別技術により LS Iに置き換わる集 積回路化の技術が登場すれば、 当然、 その技術を用いて機能ブロックの集積化を 行ってもよい。 バイオ技術の適応等が可能性としてありえる。
図 1、 図 6、 図 1 9、 図 22、 図 26の各ブロックの処理は、 例えば、 視覚処 理装置が備える中央演算装置 (C PU) により行われる。 また、 それぞれの処理 を行うためのプログラムは、 ハードディスク、 ROMなどの記憶装置に格納され ており、 ROMにおいて、 あるいは RAMに読み出されて実行される。 また、 図 6、 図 1 9の階調処理実行部 1 4, 25において参照される 2次元 L UTは、 ハ ードディスク、 ROMなどの記憶装置に格納されており、 必要に応じて參照され る。 さらに、 2次元 LUTは、 視覚処理装置に直接的に接続される、 あるいはネ ットワークを介して間接的に接続される 2次元 L U Tの提供装置から提供される ものであってもよい。 また、 図 1 3の階調処理実行部 44において参照される 1 次元 L U Tについても同様である。
また、 視覚処理装置は、 動画像を取り扱う機器に内蔵、 あるいは接続されて、 フレーム毎 (フィールド毎) の画像の階調処理を行う装置であってもよい。
また、 それぞれの視覚処理装置では、 上記第 1〜第 4実施形態で説明した視覚 処理方法が実行される。 視覚処理プログラムは、 コンピュータ、 テレビ、 デジタルカメラ、 携帯電話、 PDAなど、 画像を取り扱う機器に内蔵、 あるいは接続される装置において、 ハ ードディスク、 ROMなどの記憶装置に記憶され、 画像の階調処理を実行するプ ログラムであり、 例えば、 CD— ROMなどの記録媒体を介して、 あるいはネッ 卜ワークを介して提供される。
上記実施形態では、 それぞれの画素の明度値について処理を行うと説明した。 ここで、 本発明は、 入力信号 I Sの色空間に依存するものではない。 すなわち、 上記実施形態における処理は、 入力信号 I Sが YCb G r色空間、 YUV色空間 、 L a b色空間、 L u V色空間、 Y I Q色空間、 X Y Z色空間、 Y P b P r色空 間、 RGB色空間などで表されている場合に、 それぞれの色空間の輝度、 明度に 対して、 同様に適用可能である。
また入力信号 I Sが RGB色空間で表されている場合に、 上記実施形態におけ る処理は、 RGBそれぞれの成分に対して独立に行われるものであってもよい。
[第 6実施形態]
本発明の第 6実施形態として、 上記で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムの応用例とそれを用いたシステムを図 29〜図 32を用いて 説明する。
図 29は、 コンテンツ配信サービスを実現するコンテンツ供給システム e X 1 00の全体構成を示すブロック図である。 通信サービスの提供エリアを所望の大 きさに分割し、 各セル内にそれぞれ固定無線局である基地局 e X 1 07〜e X 1 1 0が設置されている。
このコンテンツ供給システム e X 1 00は、 例えば、 インターネット e X 1 0 1にインタ一ネットサービスプロバイダ e X 1 02および電話網 e x 1 04、 お ょぴ基地局 e X 1 07〜e X 1 1 0を介して、 コンピュータ e x 1 1 1、 PDA (personal digital assistant) e x 1 1 2、 カメラ e x l 1 3、 携^電古 e x 1 1 4、 カメラ付きの携帯電話 e x 1 1 5などの各機器が接続される。
しかし、 コンテンツ供給システム e X 1 00は図 29のような組合せに限定さ れず、 いずれかを組み合わせて接続するようにしてもよい。 また、 固定無線局で ある基地局 e X 1 07-e X 1 1 0を介さずに、 各機器が電話網 e x 1 04に直 接接続されてもよい。
カメラ e X 1 1 3はデジタルビデオカメラ等の動画撮影が可能な機器である。 また、 携帯電話は、 PDG (Personal Digital Communications) 方式、 CDM A (Code Division Multiple Access) 方式、 W— CDMA (Wideband-Code Div ision Multiple Access) 方式、 若しくは GSM (Global System for Mobile Co mmuni cat ions) 方式の携帯電話機、 または PHS (Personal Handypho e System ) 等であり、 いずれでも構わない。
また、 ストリ一ミングサーバ e x 1 03は、 カメラ e x 1 1 3から基地局 e x 1 O 9、 電話網 e x 1 04を通じて接続されており、 カメラ e x 1 1 3を用いて ユーザが送信する符号化処理されたデータに基づいたライブ配信等が可能になる 。 撮影したデータの符号化処理はカメラ e X 1 1 3で行っても、 データの送信処 理をするサーバ等で行ってもよい。 また、 カメラ e x 1 1 6で撮影した動画デー タはコンピュータ e X 1 1 1を介してストリ一ミングサーバ e x 1 O 3に送信さ れてもよい。 カメラ e x 1 1 6はデジタルカメラ等の静止画、 動画が撮影可能な 機器である。 この場合、 動画データの符号化はカメラ e X 1 1 6で行ってもコン ピュータ e X 1 1 1で行ってもどちらでもよい。 また、 符号化処理はコンビユー タ e x 1 1 1やカメラ e x 1 1 6が有する LS I e x 1 1 7において処理するこ とになる。 なお、 画像符号化 .復号化用のソフトウェアをコンピュータ e X 1 1 1等で読み取り可能な記録媒体である^!らかの蓄積メディア (CD— ROM、 フ レキシブルディスク、 ハードディスクなど) に組み込んでもよい。 さらに、 カメ ラ付きの携帯電話 e X 1 1 5で動画データを送信してもよい。 このときの動画デ ータは携帯電話 e X 1 1 5が有する LS Iで符号化処理されたデータである。 このコンテンツ供給システム e X 1 00では、 ユーザがカメラ e x 1 "I 3、 力 メラ e x 1 1 6等で撮影しているコンテンツ (例えば、 音楽ライブを撮影した映 像等) を符号化処理してストリーミングサーバ e X 1 03に送信する一方で、 ス トリーミングサーバ e X 1 03は要求のあったクライアン卜に対して上記コンテ ンッデータをストリーム配信する。 クライアントとしては、 符号化処理されたデ —タを復号化することが可能な、 コンピュータ e x 1 1 1、 PDAe x 1 1 2、 カメラ e x 1 1 3、 携帯電話 e x 1 1 4等がある。 このようにすることでコンテ ンッ供給システム e x 1 0 0は、 符号化されたデータをクライアントにおいて受 信して再生することができ、 さらにクライアン卜においてリアルタイムで受信し て復号化し、 再生することにより、 個人放送をも実現可能になるシステムである コンテンツの表示に際して、 上記実施形態で説明した視覚処理装置、 視覚処理 方法、 視覚処理プログラムを用いても良い。 例えば、 コンピュータ e x、1 1 1、 P D A e X 1 1 2、 カメラ e x l 1 3、 携帯電話 e x 1 1 4等は、 上記実施形態 で示した視覚処理装置を備え、 視覚処理方法、 視覚処理プログラムを実現するも のであっても良い。
また、 ストリ一ミングサーバ e X 1 0 3は、 視覚処理装置に対して、 インタ一 ネット e X 1 0 1を介してプロファイルデータを提供するものであっても良い。 さらに、 ストリーミングサーバ e X 1 0 3は、 複数台存在し、 それぞれ異なるプ 口ファイルデータを提供するものであっても良い。 さらに、 ストリ一ミンダサ一 バ e x 1 0 3は、 プロファイルの作成を行うものであっても良い。 このように、 インタ一ネット e X 1 0 1を介して、 視覚処理装置がプロファイルデータを取得 できる場合、 視覚処理装置は、 あらかじめ視覚処理に用いるプロファイルデータ を記憶しておく必要が無く、 視覚処理装置の記憶容量を削減することも可能とな る。 また、 インターネット e x l 0 1介して接続される複数のサーバからプロフ アイルデータを取得できるため、 異なる視覚処理を実現することが可能となる。 一例として携帯電話について説明する。
図 3 0は、 上記実施形態の視覚処理装置を備えた携帯電話 e X 1 1 5を示す図 である。 携帯電話 e X 1 1 5は、 基地局 e X 1 1 0との間で電波を送受信するた めのアンテナ e x 2 0 1、 C C Dカメラ等の映像、 静止画を撮ることが可能な力 メラ部 e x 2 0 3、 カメラ部 e X 2 0 3で撮影した映像、 アンテナ e x 2 0 1で 受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部 e x 2 0 2、 操作キー e x 2 0 4群から構成される本体部、 音声出力をするための スピーカ等の音声出力部 e X 2 0 8、 音声入力をするためのマイク等の音声入力 部 e x 2 0 5、 撮影した動画もしくは静止画のデータ、 受信したメールのデータ 、 動画のデータもしくは静止画のデータ等、 符号化されたデータまたは復号化さ れたデータを保存するための記録メディア e X 207、 携帯電話 e x 1 1 5に記 録メディア e X 207を装着可能とするためのスロット部 e X 206を有してい る。 記録メディア e X 207は SDカード等のプラスチックケース内に電気的に 書換えや消去が可能な不揮発性メモリである EE PROM (Electrical ly Erasa ble and Programmable Read Only Memory) の一種であ フラッシュメモリ素ナ を格納したものである。 、
さらに、 携帯電話 e X 1 1 5について図 31を用いて説明する。 携帯電話 e x 1 1 5は表示部 e X 202および操作キー e x 204を備えた本体部の各部を統 括的に制御するようになされた主制御部 e X 31 1に対して、 電源回路部 e x 3 1 0、 操作入力制御部 e X 304、 画像符号化部 e x 31 2、 カメラインターフ エース部 e X 303、 LCD (Liquid Crystal Display) 制御部 e x 302、 画 像復号化部 e X 309、 多重分離部 e X 308、 記録再生部 e x 307、 変復調 回路部 e X 306および音声処理部 e x 305が同期バス e x 31 3を介して互 いに接続されている。
電源回路部 e X 31 0は、 ユーザの操作により終話および電源キーがオン状態 にされると、 バッテリパックから各部に対して電力を供給することによリカメラ 付ディジタル携帯電話 e X 1 1 5を動作可能な状態に起動する。
携帯電話 e x 1 1 5は、 C PU、 ROMおよび RAM等でなる主制御部 e X 3 1 1の制御に基づいて、 音声通話モード時に音声入力部 e X 205で集音した音 声信号を音声処理部 e X 305によってディジタル音声データに変換し、 これを 変復調回路部 e X 306でスぺク卜ラム拡散処理し、 送受信回路部 e x 301で ディジタルアナログ変換処理および周波数変換処理を施した後にアンテナ e X 2 01を介して送信する。 また携帯電話 e x 1 1 5は、 音声通話モード時にアンテ ナ e X 201で受信した受信信号を増幅して周波数変換処理およびアナログディ ジタル変換処理を施し、 変復調回路部 e X 306でスぺクトラム逆拡散処理し、 音声処理部 e X 305によってアナログ音声信号に変換した後、 これを音声出力 部 e X 208を介して出力する。
さらに、 データ通信モード時に電子メールを送信する場合、 本体部の操作キー e X 204の操作によって入力された電子メールのテキス卜データは操作入力制 御部 e x 3 O 4を介して主制御部 e x 3 1 1に送出される。 主制御部 e x 3 1 1 は、 テキス卜データを変復調回路部 e X 3 0 6でスペク トラム拡散処理し、 送受 信回路部 e X 3 0 1でディジタルアナログ変換処理および周波数変換処理を施し た後にアンテナ e X 2 0 1を介して基地局 e x 1 1 0へ送信する。
データ通信モード時に画像データを送信する場合、 カメラ部 e x 2 0 3で撮像 された画像データをカメラインターフ: L—ス部 e X 3 0 3を介して画像符号化部 e X 3 1 2に供給する。 また、 画像データを送信しない場合には、 カメラ部 e x 2 0 3で撮像した画像データをカメラインターフェース部 e X 3 0 3および L C D制御部 e X 3 0 2を介して表示部 e x 2 O 2に直接表示することも可能である α
画像符号化部 e X 3 1 2は、 カメラ部 e X 2 0 3から供給された画像データを 圧縮符号化することにより符号化画像データに変換し、 これを多重分離部 e X 3 0 8に送出する。 また、 このとき同時に携帯電話 e X 1 1 5は、 カメラ部 e x 2 0 3で撮像中に音声入力部 e X 2 0 5で集音した音声を音声処理部 e x 3 0 5を 介してディジタルの音声データとして多重分離部 e X 3 0 8に送出する。
多重分離部 e X 3 0 8は、 画像符号化部 e x 3 1 2から供給された符号化画像 データと音声処理部 e X 3 0 5から供給された音声データとを所定の方式で多重 化し、 その結果得られる多重化データを変復調回路部 e X 3 0 6でスぺクトラム 拡散処理し、 送受信回路部 e X 3 0 1でディジタルアナログ変換処理および周波 数変換処理を施した後にアンテナ e X 2 0 1を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータ を受信する場合、 アンテナ e X 2 0 1 を介して基地局 e x 1 1 0から受信した受 信信号を変復調回路部 e X 3 0 6でスぺク トラム逆拡散処理し、 その結果得られ る多重化データを多重分離部 e X 3 0 8に送出する。
また、 アンテナ e X 2 0 1を介して受信された多重化データを復号化するには 、 多重分離部 e x 3 0 8は、 多重化データを分離することにより画像データの符 号化ビッ卜ストリームと音声データの符号化ビットストリームとに分け、 同期バ ス e X 3 1 3を介して当該符号化画像データを画像復号化部 e X 3 0 9に供給す ると共に当該音声データを音声処理部 e X 3 0 5に供給する。 次に、 画像復号化部 e x 3 0 9は、 画像データの符号化ビットストリームを復 号することによリ再生動画像データを生成し、 これをし C D制御部 e X 3 0 2を 介して表示部 e X 2 0 2に供給し、 これにより、 例えばホームページにリンクさ れた動画像ファイルに含まれる動画データが表示される。 このとき同時に音声処 理部 e X 3 0 5は、 音声データをアナログ音声信号に変換した後、 これを音声出 力部 e x 2 0 8に供給し、 これにより、 例えばホームページにリンクされた動画 像ファイルに含まる音声データが再生される。
以上の構成において、 画像復号化部 e X 3 0 9は、 上記実施形態の視覚処理装 置を備えていても良い。
なお、 上記システムの例に限られず、 最近は衛星、 地上波によるディジタル放 送が話題となっておリ、 図 3 2に示すようにディジタル放送用システムにも上記 実施形態で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムを組み込 むことができる。 具体的には、 放送局 e X 4 0 9では映像情報の符号化ビットス トリームが電波を介して通信または放送衛星 e X 4 1 0に伝送される。 これを受 けた放送衛星 e X 4 1 0は、 放送用の電波を発信し、 この電波を衛星放送受信設 備をもつ家庭のアンテナ e X 4 0 6で受信し、 テレビ (受信機) e X 4 0 1また はセットトップボックス (S T B ) e X 4 0 7などの装置により符号化ビットス トリームを復号化してこれを再生する。 ここで、 テレビ (受信機) e x 4 0 1ま たはセットトップボックス (S T B ) e X 4 0 7などの装置が上記実施形態で説 明した視覚処理装置を備えていてもよい。 また、 上記実施形態の視覚処理方法を 用いるものであってもよい。 さらに、 視覚処理プログラムを備えていてもよい。 また、 記録媒体である C Dや D V D等の蓄積メディア e X 0 2に記録した符号 化ビットス卜リームを読み取り、 復号化する再生装置 e X 4 0 3にも上記実施形 態で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムを実装すること が可能である。 この場合、 再生された映像信号はモニタ e X 4 0 4に表示される 。 また、 ケーブルテレビ用のケーブル e X 4 0 5または衛星 地上波放送のアン テナ e X 4 0 6に接続されたセッ卜トップボックス e x 4 0 7内に上記実施形態 で説明した視覚処理装置、 視覚処理方法、 視覚処理プログラムを実装し、 これを テレビのモニタ e X 4 0 8で再生する構成も考えられる。 このときセットトップ ボックスではなく、 テレビ内に上記実施形態で説明した視覚処理装置を組み込ん でも良い。 また、 アンテナ e X 4 1 1を有する車 e x 1 2で衛星 e x 4 1 0か らまたは基地局 e X 1 0 7等から信号を受信し、 車 e X 4 1 2が有するカーナビ ゲーシヨン e X 1 3等の表示装置に動画を再生することも可能である。
更に、 画像信号を符号化し、 記録媒体に記録することもできる。 具体例として は、 D V Dディスク e X 4 2 1に画像信号を記録する D V Dレコーダや、 ハード ディスクに記録するディスクレコーダなどのレコーダ e X 4 2 0がある。 更に S D力一ド e X 4 2 2に記録することもできる。 レコーダ e x 4 2 0が上記実施形 態の復号化装置を備えていれば、 D V Dディスク e X 4 2 1や S Dカード e X 4 2 2に記録した画像信号を補間して再生し、 モニタ e x 4 0 8に表示することが できる。
なお、 カーナビゲーシヨン e X 4 1 3の構成は例えば図 3 1に示す構成のうち 、 カメラ部 e X 2 0 3とカメラインターフェース部 e X 3 0 3、 画像符号化部 e X 3 1 2を除いた構成が考えられ、 同様なことがコンピュータ e X 1 1 1ゃテレ ビ (受信機) e X 4 0 1等でも考えられる。
また、 上記携帯電話 e X 1 1 4等の端末は、 符号化器 '復号化器を両方持つ送 受信型の端末の他に、 符号化器のみの送信端末、 復号化器のみの受信端末の 3通 りの実装形式が考えられる。
このように、 上記実施形態で説明した視覚処理装置、 視覚処理方法、 視覚処理 プログラムを上述したいずれの機器'システムに用いることは可能であり、 上記 実施形態で説明した効果を得ることができる。
[付記]
上記実施形態に記載の本発明は、 次のように表現することも可能である。 〈付記の内容〉
(付記 1 )
入力された画像信号を複数の画像領域に分割する画像領域分割手段と、 前記画像領域毎に階調変換特性を導出する手段であって、 前記階調変換特性の 導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特性を 用いて、 前記対象画像領域の前記階調変換特性を導出する階調変換特性導出手段 と、
導出された前記階調変換特性に基づいて、 前記画像信号の階調処理を行う階調 処理手段と、
を備える視覚処理装置。
(付記 2 )
前記階調変換特性は、 階調変換曲線であり、 ヽ 前記階調変換特性導出手段は、 前記階調特性を用いてヒストグラムを作成する ヒストグラム作成手段と、 作成された前記ヒストグラムに基づいて前記階調変換 曲線を作成する階調曲線作成手段とを有している、
付記 1に記載の視覚処理装置。
(付記 3 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理手段は、 前記複数の階調変換テーブルを 2次元 L U Tとして有し ている、
付記 1に記載の視覚処理装置。
(付記 4 )
前記 2次元 L U Tは、 前記画像信号の全ての値において、 前記選択信号の値に 対する階調処理された前記画像信号の値が単調増加あるいは単調減少する順序で 前記複数の階調変換テーブルを格納している、
付記 3に記載の視覚処理装置。
(付記 5 )
前記 2次元 L U Tは、 プロフアイルデ一タの登録によリ変更可能である、 付記 3又は 4に記載の視覚処理装置。
(付記 6 )
前記選択信号の値は、 前記対象画像領域と前記周辺画像領域とのそれぞれの画 像領域について導出された選択信号である個別選択信号の特徴量として導出され る、
付記 3〜 5のいずれかに記載の視覚処理装置。 (付記 7 )
前記選択信号は、 前記対象画像領域と前記周辺画像領域との階調特性を用いて 導出される特徴量である階調特性特徴量に基づいて導出される、
付記 3〜 5のいずれかに記載の視覚処理装置。
(付記 8 )
前記階調処理手段は、 前記選択信号が選択する前記階調変換テーブルを用いて 前記対象画像領域の階調処理を実行する階調処理実行手段と、 前記階調処理され た前記画像信号の階調を補正する手段であって、 補正の対象となる対象画素を含 む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とについて選択さ れた前記階調処理テーブルに基づいて、 前記対象画素の階調を補正する補正手段 とを有している、
付記 3 ~ 7のいずれかに記載の視覚処理装置。
(付記 9 )
前記階調処理手段は、 前記選択信号を補正し、 前記画像信号の画素毎に階調処 理テーブルを選択するための補正選択信号を導出する補正手段と、 前記補正選択 信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理を実行す る階調処理実行手段とを有している、
付記 3〜 7のいずれかに記載の視覚処理装置。
(付記 1 0 )
入力された画像信号を複数の画像領域に分割する画像領域分割ステップと、 前記画像領域毎に階調変換特性を導出するステップであって、 前記階調変換特 性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特 性を用いて、 前記対象画像領域の前記階調変換特性を導出する階調変換特性導出 ステップと、
導出された前記階調変換特性に基づいて、 前記画像信号の階調処理を行う階調 処理ステップと、
を備える視覚処理方法。
(付記 1 1 )
前記階調変換特性は、 階調変換曲線であり、 前記階調変換特性導出ステップは、 前記階調特性を用いてヒス卜グラムを作成 するヒス卜グラム作成ステップと、 作成された前記ヒス卜グラムに基づいて前記 階調変換曲線を作成する階調曲線作成ステップとを有している、
付記 1 0に記載の視覚処理方法。
(付記 1 2 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステツプは、 前記選択信号が選択する前記階調変換テーブルを用 いて前記対象画像領域の階調処理を実行する階調処理実行ステップと、 前記階調 処理された前記画像信号の階調を補正するステップであって、 補正の対象となる 対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とに ついて選択された前記階調処理テーブルに基づいて、 前記対象画素の階調を補正 する補正ステップとを有している、
付記 1 0に記載の視覚処理方法。
(付記 1 3 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、 前記選択信号を補正し、 前記画像信号の画素毎に階 調処理テーブルを選択するための補正選択信号を導出する補正ステップと、 前記 補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理 を実行する階調処理実行ステップとを有している、
付記 1 0に記載の視覚処理方法。
(付記 1 4 )
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、 前記視覚処理プログラムは、 コンピュータに、
入力された画像信号を複数の画像領域に分割する画像領域分割ステップと、 前記画像領域毎に階調変換特性を導出するステップであって、 前記階調変換特 性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特 性を用いて、 前記対象画像領域の前記階調変換特性を導出する階調変換特性導出 ステップと、
導出された前記階調変換特性に基づいて、 前記画像信号の階調処理を行う階調 処理ステップと、
を備える視覚処理方法を行わせるものである、
視覚処理プログラム。
(付記 1 5 )
前記階調変換特性は、 階調変換曲線であり、
前記階調変換特性導出ステップは、 前記階調特性を用いてヒス卜グラムを作成 するヒス卜グラム作成ステップと、 作成された前記ヒス卜グラムに基づいて前記 階調変換曲線を作成する階調曲線作成ステップとを有している、
付記 1 4に記載の視覚処理プログラム。
(付記 1 6 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、 前記選択信号が選択する前記階調変換テーブルを用 いて前記対象画像領域の階調処理を実行する階調処理実行ステップと、 前記階調 処理された前記画像信号の階調を補正するステップであって、 補正の対象となる 対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とに ついて選択された前記階調処理テーブルに基づいて、 前記対象画素の階調を補正 する補正ステップとを有している、
付記 1 4に記載の視覚処理プログラム。
(付記 1 7 )
前記階調変換特性は、 前記画像信号を階調処理する複数の階調変換テーブルの 中から 1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、 前記選択信号を補正し、 前記画像信号の画素毎に階 調処理テーブルを選択するための補正選択信号を導出する補正ステップと、 前記 補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理 を実行する階調処理実行ステツプとを有している、
付記 1 4に記載の視覚処理プログラム。 (付記 1 8 )
前記階調処理手段は、 前記画像信号を階調処理するための階調変換曲線の曲線 パラメータを、 前記階調変換特性に基づいて出力するパラメータ出力手段を有し ており、 前記階調変換特定と前記曲線パラメータとに基づいて特定される前記階 調変換曲線を用いて、 前記画像信号を階調処理する、
付記 1に記載の視覚処理装置。 ヽ
(付記 1 9 )
前記パラメータ出力手段は、 前記階調変換特性と前記曲線パラメータとの関係 を格納するルックアツプテーブルである、
付記 1 8に記載の視覚処理装置。
(付記 2 0 )
前記曲線パラメータは、 前記画像信号の所定の値に対する前記階調処理された 画像信号の値を含む、
付記 1 8または 1 9に記載の視覚処理装置。
(付記 2 1 )
前記曲線パラメータは、 前記画像信号の所定の区間における前記階調変換曲線 の傾きを含む、
付記 1 8 ~ 2 0のいずれかに記載の視覚処理装置。
(付記 2 2 )
前記曲線パラメータは、 前記階調変換曲線が通る少なくとも 1点の座標を含む、 付記 1 8〜2 1のいずれかに記載の視覚処理装置。
(付記 2 3 )
入力された画像信号における複数の画像領域毎の空間処理を行い空間処理信号 を導出する手段であって、 前記空間処理では、 前記空間処理の対象となる対象画 像領域と前記対象画像領域の周辺画像領域との階調特性の差に基づいた重み付け を用いて、 前記対象画像領域と前記周辺画像領域との階調特性の加重平均を行う 、 空間処理手段と、
前記対象画像領域の階調特性と前記空間処理信号とに基づいて、 前記対象画像 領域の視覚処理を行う視覚処理手段と、 を備える視覚処理装置。
(付記 2 4 )
前記重み付けは、 前記階調特性の差の絶対値が大きいほど小さくなる、 付記 2 3に記載の視覚処理装置。
(付記 2 5 )
前記重み付けは、 前記対象画像領域と前記周辺画像領域との距離が大きいほど 小さくなる、
付記 2 3または 2 4に記載の視覚処理装置。
(付記 2 6 )
前記画像領域は、 複数の画素から構成されており、
前記対象画像領域と前記周辺画像領域との階調特性は、 それぞれの画像領域を 構成する画素値の特徴量として定められている、
付記 2 3〜2 5のいずれかに記載の視覚処理装置。
(付記 2 7 )
入力された画像信号から階調変換特性の導出対象となる対象画像領域を決定す る対象画像領域決定手段と、
前記対象画像領域の周辺に位置し複数の画素を含む少なくとも 1つの周辺画像 領域を決定する周辺画像領域決定手段と、
前記周辺画像領域の周辺画像データを用いて、 前記対象画像領域の前記階調変 換特性を導出する階調変換特性導出手段と、
導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理手段と、
を備える視覚処理装置。
(付記 2 8 )
入力された画像信号から階調変換特性の導出対象となる対象画像領域を決定す る対象画像領域決定ステップと、
前記対象画像領域の周辺に位置し複数の画素を含む少なくとも 1つの周辺画像 領域を決定する周辺画像領域決定ステップと、
前記周辺画像領域の周辺画像データを用いて、 前記対象画像領域の前記階調変 換特性を導出する階調変換特性導出ステップと、
導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理ステップと、
を備える視覚処理方法。
(付記 2 9 )
コンピュータを用いて、 入力された画像信号の視覚処理を行う視覚処理方法を 行うための視覚処理プログラムであって、
前記視覚処理方法は、
入力された画像信号から階調変換特性の導出対象となる対象画像領域を決定す る対象画像領域決定ステップと、
前記対象画像領域の周辺に位置し複数の画素を含む少なくとも 1つの周辺画像 領域を決定する周辺画像領域決定ステップと、
前記周辺画像領域の周辺画像データを用いて、 前記対象画像領域の前記階調変 換特性を導出する階調変換特性導出ステップと、
導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理ステップと、
を備える視覚処理方法である、
視覚処理プログラム。
(付記 3 0 )
入力された画像信号から階調変換特性の導出対象となる対象画像領域を決定す る対象画像領域決定部と、
前記対象画像領域の周辺に位置し複数の画素を含む少なくとも 1つの周辺画像 領域を決定する周辺画像領域決定部と、
前記周辺画像領域の周辺画像データを用いて、 前記対象画像領域の前記階調変 換特性を導出する階調変換特性導出部と、
導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理部と、
を備える半導体装置。
〈付記の説明〉 付記 1に記載の視覚処理装置は、 画像領域分割手段と、 階調変換特性導出手段 と、 階調処理手段とを備えている。 画像領域分割手段は、 入力された画像信号を 複数の画像領域に分割する。 階調変換特性導出手段は、 画像領域毎に階調変換特 性を導出する手段であって、 階調変換特性の導出対象となる対象画像領域と対象 画像領域の周辺画像領域との階調特性を用いて、 対象画像領域の階調変換特性を 導出する。 階調処理手段は、 導出された階調変換特性に基づいて、 画像信号の階 調処理を行う。
ここで、 階調変換特性とは、 画像領域毎の階調処理の特性である。 階調特性と は、 例えば、 画素毎の輝度、 明度などといった画素値である。
本発明の視覚処理装置では、 画像領域毎の階調変換特性を判断する際に、 画像 領域毎の階調特性だけでなく、 周辺の画像領域を含めた広域の画像領域の階調特 性を用いて判断を行う。 このため、 画像領域毎の階調処理に空間処理的効果を加 えることが可能となリ、 さらに視覚的効果を向上させる階調処理を実現すること が可能となる。
付記 2に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 階調 変換特性は、 階調変換曲線である。 階調変換特性導出手段は、 階調特性を用いて ヒストグラムを作成するヒス卜グラム作成手段と、 作成されたヒス卜グラムに基 づいて階調変換曲線を作成する階調曲線作成手段とを有している。
ここで、 ヒストグラムとは、 例えば、 対象画像領域および周辺画像領域が含む 画素の階調特性に対する分布である。 階調曲線作成手段は、 例えば、 ヒス卜ダラ ムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理装置では、 ヒストグラムを作成する際に、 画像領域毎の階調 特性だけでなく、 周辺の画像領域を含めた広域の階調特性を用いてヒス卜グラム の作成を行う。 このため、 画像信号の分割数を増やし画像領域の大きさを小さく することが可能となり、 階調処理による疑似輪郭の発生を抑制することが可能と なる。 また、 画像領域の境界が不自然に目立つことが防止可能となる。
付記 3に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 階調 変換特性は、 画像信号を階調処理する複数の階調変換テーブルの中から 1つの階 調変換テーブルを選択するための選択信号である。 階調処理手段は、 複数の階調 変換テーブルを 2次元 L U Tとして有している。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理手段は、 選択信号の値と画像信号の画素値とから 2次元 L U Tを参照し て階調処理された画像信号の画素値を出力する。
本発明の視覚処理装置では、 階調処理を 2次元し U Tを参照して行う。 このた め、 階調処理を高速化することが可能となる。 また、 複数の階調変換テーブルか ら 1つの階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行 うことが可能となる。
付記 4に記載の視覚処理装置は、 付記 3に記載の視覚処理装置であって、 2次 元 L U Tは、 画像信号の全ての値において、 選択信号の値に対する階調処理され た画像信号の値が単調増加あるいは単調減少する順序で複数の階調変換テーブル を格納している。
本発明の視覚処理装置では、 例えば、 選択信号の値が階調変換の度合いを示す こととなる。
付記 5に記載の視覚処理装置は、 付記 3又は 4に記載の視覚処理装置であって、 2次元 L U Tは、 プロファイルデータの登録によリ変更可能である。
ここで、 プロファイルデータとは、 2次元 L U Tに格納されるデータであり、 例えば、 階調処理された画像信号の画素値を要素としている。
本発明の視覚処理装置では、 2次元 L U Tを変更することにより、 ハードゥエ ァの構成を変更せずに階調処理の特性を様々に変更することが可能となる。
付記 6に記載の視覚処理装置は、 付記 3 ~ 5のいずれかに記載の視覚処理装置 であって、 選択信号の値は、 対象画像領域と周辺画像領域とのそれぞれの画像領 域について導出された選択信号である個別選択信号の特徴量として導出される。
ここで、 個別選択信号の特徴量とは、 例えば、 それぞれの画像領域について導 出された選択信号の平均値 (単純平均または加重平均) 、 最大値、 あるいは最小 値などである。 本発明の視覚処理装置では、 対象画像領域に対する選択信号を周辺画像領域を 含む広域の画像領域に対する選択信号の特徴量として導出する。 このため、 選択 信号について空間処理的効果を加えることが可能となり、 画像領域の境界が不自 然に目立つことが防止可能となる。
付記 7に記載の視覚処理装置は、 付記 3 ~ 5のいずれかに記載の視覚処理装置 であって、 選択信号は、 対象画像領域と周辺画像領域との階調特性を用いて導出 される特徴量である階調特性特徴量に基づいて導出される。
ここで、 階調特性特徴量とは、 例えば、 対象画像領域と周辺画像領域との広域 の階調特性の平均値 (単純平均または加重平均) 、 最大値、 あるいは最小値など である。
本発明の視覚処理装置では、 対象画像領域に対する選択信号を周辺画像領域を 含む広域の画像領域に対する階調特性特徴量に基づいて導出する。 このため、 選 択信号について空間処理的効果を加えることが可能となリ、 画像領域の境界が不 自然に目立つことが防止可能となる。
付記 8に記載の視覚処理装置は、 付記 3〜 7のいずれかに記載の視覚処理装置 であって、 階調処理手段は、 階調処理実行手段と、 補正手段とを有している。 階 調処理実行手段は、 選択信号が選択する階調変換テーブルを用いて対象画像領域 の階調処理を実行する。 補正手段は、 階調処理された画像信号の階調を補正する 手段であって、 補正の対象となる対象画素を含む画像領域と対象画素を含む画像 領域の隣接画像領域とについて選択された階調処理テーブルに基づいて、 対象画 素の階調を補正する。
ここで、 隣接画像領域とは、 階調変換特性を導出する際の周辺画像領域と同じ 画像領域であってもよいし、 異なる画像領域であってもよい。 例えば、 隣接画像 領域は、 対象画素を含む画像領域に隣接する画像領域のうち、 対象画素からの距 離が短い 3つの画像領域として選択される。
補正手段は、 例えば、 対象画像領域毎に同一の階調変換テーブルを用いて階調 処理された画像信号の階調を補正する。 対象画素の補正は、 例えば、 対象画素の 位置に応じて、 隣接画像領域について選択されたそれぞれの階調変換テーブルの 影響が現れるように行われる。 本発明の視覚処理装置では、 画像信号の階調を画素毎に補正することが可能と なる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚 的効果を向上させることが可能となる。
付記 9に記載の視覚処理装置は、 付記 3 ~ 7のいずれかに記載の視覚処理装置 であって、 階調処理手段は、 補正手段と、 階調処理実行手段とを有している。 補 正手段は、 選択信号を補正し、 画像信号の画素毎に階調処理テーブルを選択する ための補正選択信号を導出する。 階調処理実行手段は、 補正選択信号が選択する 階調変換テーブルを用いて画像信号の階調処理を実行する。
補正手段は、 例えば、 対象画像領域毎に導出された選択信号を画素位置および 対象画像領域に隣接する画像領域について導出された選択信号に基づいて補正し、 画素毎の選択信号を導出する。
本発明の視覚処理装置では、 画素毎に選択信号を導出することが可能となる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果 を向上させることが可能となる。
付記 1 0に記載の視覚処理方法は、 画像領域分割ステップと、 階調変換特性導 出ステップと、 階調処理ステップとを備えている。 画像領域分割ステップは、 入 力された画像信号を複数の画像領域に分割する。 階調変換特性導出ステップは、 画像領域毎に階調変換特性を導出するステップであって、 階調変換特性の導出対 象となる対象画像領域と対象画像領域の周辺画像領域との階調特性を用いて、 対 象画像領域の階調変換特性を導出する。 階調処理ステップは、 導出された階調変 換特性に基づいて、 画像信号の階調処理を行う。
ここで、 階調変換特性とは、 画像領域毎の階調処理の特性である。 階調特性と は、 例えば、 画素毎の輝度、 明度などといった画素値である。
本発明の視覚処理方法では、 画像領域毎の階調変換特性を判断する際に、 画像 領域毎の階調特性だけでなく、 周辺の画像領域を含めた広域の画像領域の階調特 性を用いて判断を行う。 このため、 画像領域毎の階調処理に空間処理的効果を加 えることが可能となり、 さらに視覚的効果の高い階調処理を実現することが可能 となる。
付記 1 1に記載の視覚処理方法は、 付記 1 0に記載の視覚処理方法であって、 階調変換特性は、 階調変換曲線である。 階調変換特性導出ステップは、 階調特性 を用いてヒス卜グラムを作成するヒストグラム作成ステップと、 作成されたヒス トグラムに基づいて階調変換曲線を作成する階調曲線作成ステップとを有してい る。
ここで、 ヒストグラムとは、 例えば、 対象画像領域および周辺画像領域が含む 画素の階調特性に対する分布である。 階調曲線作成ステップは、 例えば、 ヒス卜 グラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理方法では、 ヒストグラムを作成する際に、 画像領域毎の階調 特性だけでなく、 周辺の画像領域を含めた広域の階調特性を用いてヒス卜グラム の作成を行う。 このため、 画像信号の分割数を増やし画像領域の大きさを小さく することが可能となリ、 階調処理による疑似輪郭の発生を抑制することが可能と なる。 また、 画像領域の境界が不自然に目立つことが防止可能となる。
付記 1 2に記載の視覚処理方法は、 付記 1 0に記載の視覚処理方法であって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブルの中から 1つ の階調変換テーブルを選択するための選択信号である。 また、 階調処理ステップ は、 階調処理実行ステップと、 補正ステップとを有している。 階調処理実行ステ ップは、 選択信号が選択する階調変換テーブルを用いて対象画像領域の階調処理 を実行する。 補正ステップは、 階調処理された画像信号の階調を補正するステツ プであって、 補正の対象となる対象画素を含む画像領域と対象画素を含む画像領 域の隣接画像領域とについて選択された階調処理テーブルに基づいて、 対象画素 の階調を補正する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 隣接画像領域とは、 階調変換特性を導出する際の周辺画像領域と同じ画像領域で あってもよいし、 異なる画像領域であってもよい。 例えば、 隣接画像領域は、 対 象画素を含む画像領域に隣接する画像領域のうち、 対象画素からの距離が短い 3 つの画像領域として選択される。
選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから L U Tを参照して 階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画 像領域毎に同一の階調変換テーブルを用いて階調処理された画像信号の階調を補 正する。 対象画素の補正は、 例えば、 対象画素の位置に応じて、 隣接画像領域に ついて選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。 本発明の視覚処理方法では、 階調処理を L U丁を参照して行う。 このため、 階 調処理を高速化することが可能となる。 また、 複数の階調変換テーブルから 1つ の階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行うこと が可能となる。 さらに、 画像信号の階調を画素毎に補正することが可能となる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果 を向上させることが可能となる。
付記 1 3に記載の視覚処理方法は、 付記 1 0に記載の視覚処理方法であって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブルの中から 1つ の階調変換テーブルを選択するための選択信号である。 また、 階調処理ステップ は、 補正ステップと、 階調処理実行ステップとを有している。 補正ステップは、 選択信号を補正し、 画像信号の画素毎に階調処理テーブルを選択するための補正 選択信号を導出する。 階調処理実行ステップは、 補正選択信号が選択する階調変 換テーブルを用いて画像信号の階調処理を実行する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから 2次元 L U Tを参 照して階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する 画像領域について導出された選択信号に基づいて補正し、 画素毎の選択信号を導 出する。
本発明の視覚処理方法では、 .階調処理を L U Tを参照して行う。 このため、 階 調処理を高速化することが可能となる。 また、 複数の階調変換テーブルから 1つ の階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行うこと が可能となる。 さらに、 画素毎に選択信号を導出することが可能となる。 このた め、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果を向上 させることが可能となる。
付記 1 4に記載の視覚処理プログラムは、 コンピュータにより、 画像領域分割 ステップと、 階調変換特性導出ステップと、 階調処理ステップとを備える視覚処 理方法を行わせる視覚処理プログラムである。 画像領域分割ステップは、 入力さ れた画像信号を複数の画像領域に分割する。 階調変換特性導出ステップは、 画像 領域毎に階調変換特性を導出するステップであって、 階調変換特性の導出対象と なる対象画像領域と対象画像領域の周辺画像領域との階調特性を用いて、 対象画 像領域の階調変換特性を導出する。 階調処理ステップは、 導出された階調変換特 性に基づいて、 画像信号の階調処理を行う。
ここで、 階調変換特性とは、 画像領域毎の階調処理の特性である。 階調特性と は、 例えば、 画素毎の輝度、 明度など いった画素値である。
本発明の視覚処理プログラムでは、 画像領域毎の階調変換特性を判断する際に、 画像領域毎の階調特性だけでなく、 周辺の画像領域を含めた広域の画像領域の階 調特性を用いて判断を行う。 このため、 画像領域毎の階調処理に空間処理的効果 を加えることが可能となリ、 さらに視覚的効果の高い階調処理を実現することが 可能となる。
付記 1 5に記載の視覚処理プログラムは、 付記 1 4に記載の視覚処理プロダラ ムであって、 階調変換特性は、 階調変換曲線である。 階調変換特性導出ステップ は、 階調特性を用いてヒス卜グラムを作成するヒストグラム作成ステップと、 作 成されたヒス卜グラムに基づいて階調変換曲線を作成する階調曲線作成ステップ とを有している。
ここで、 ヒストグラムとは、 例えば、 対象画像領域および周辺画像領域が含む 画素の階調特性に対する分布である。 階調曲線作成ステップは、 例えば、 ヒス卜 グラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理プログラムでは、 ヒストグラムを作成する際に、 画像領域毎 の階調特性だけでなく、 周辺の画像領域を含めた広域の階調特性を用いてヒス卜 グラムの作成を行う。 このため、 画像信号の分割数を増やし画像領域の大きさを 小さくすることが可能となリ、 階調処理による疑似輪郭の発生を抑制することが 可能となる。 また、 画像領域の境界が不自然に目立つことが防止可能となる。 付記 1 6'に記載の視覚処理プログラムは、 付記 1 4に記載の視覚処理プロダラ ムであって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブル の中から 1つの階調変換テーブルを選択するための選択信号である。 また、 階調 処理ステップは、 階調処理実行ステップと、 補正ステップとを有している。 階調 処理実行ステップは、 選択信号が選択する階調変換テーブルを用いて対象画像領 域の階調処理を実行する。 補正ステップは、 階調処理された画像信号の階調を補 正するステップであって、 補正の対象となる対象画素を含む画像領域と対象画素 を含む画像領域の隣接画像領域とについて選択された階調処理テーブルに基づい て、 対象画素の階調を補正する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 隣接画像領域とは、 階調変換特性を導出する際の周辺画像領域と同じ画像領域で あってもよいし、 異なる画像領域であってもよい。 例えば、 隣接画像領域は、 対 象画素を含む画像領域に隣接する画像領域のうち、 対象画素からの距離が短い 3 つの画像領域として選択される。
選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから L U Tを参照して 階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画 像領域毎に同一の階調変換テーブルを用いて階調処理された画像信号の階調を補 正する。 対象画素の補正は、 例えば、 対象画素の位置に応じて、 隣接画像領域に ついて選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。 本発明の視覚処理プログラムでは、 階調処理を L U Tを参照して行う。 このた め、 階調処理を高速化することが可能となる。 また、 複数の階調変換テーブルか ら 1つの階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行 うことが可能となる。 さらに、 画像信号の階調を画素毎に補正することが可能と なる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚 的効果を向上させることが可能となる。
付記 1 7に記載の視覚処理プログラムは、 付記 1 4に記載の視覚処理プロダラ ムであって、 階調変換特性は、 画像信号を階調処理する複数の階調変換テーブル の中から 1つの階調変換テーブルを選択するための選択信号である。 また、 階調 処理ステップは、 補正ステップと、 階調処理実行ステップとを有している。 補正 ステップは、 選択信号を補正し、 画像信号の画素毎に階調処理テーブルを選択す るための補正選択信号を導出する。 階調処理実行ステップは、 補正選択信号が選 択する階調変換テーブルを用いて画像信号の階調処理を実行する。
ここで、 階調変換テーブルとは、 例えば、 画像信号の画素値に対して階調処理 された画像信号の画素値を記憶するルックアップテーブル (L U T ) などである。 選択信号は、 例えば、 複数の階調変換テーブルのそれぞれに割り付けられた値 の中から選択される 1つの階調変換テーブルに割り付けられた値を有している。 階調処理ステップは、 選択信号の値と画像信号の画素値とから 2次元 L U Tを参 照して階調処理された画像信号の画素値を出力する。 補正ステップは、 例えば、 対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する 画像領域について導出された選択信号に基づいて補正し、 画素毎の選択信号を導 出する。
本発明の視覚処理プログラムでは、 階調処理を L U Tを参照して行う。 このた め、 階調処理を高速化することが可能となる。 また、 複数の階調変換テーブルか ら 1つの階調変換テーブルを選択して階調処理を行うため、 適切な階調処理を行 うことが可能となる。 さらに、 画素毎に選択信号を導出することが可能となる。 このため、 画像領域の境界が不自然に目立つことがさらに防止され、 視覚的効果 を向上させることが可能となる。
付記 1 8に記載の視覚処理装置は、 付記 1に記載の視覚処理装置であって、 階 調処理手段は、 画像信号を階調処理するための階調変換曲線の曲線パラメータを、 階調変換特性に基づいて出力するパラメータ出力手段を有している。 階調処理手 段は、 階調変換特定と曲線パラメータとに基づいて特定される階調変換曲線を用 いて、 画像信号を階調処理する。 ここで、 階調変換曲線とは、 少なくとも一部が直線であるようなものも含んで いる。 曲線パラメータとは、 階調変換曲線を他の階調変換曲線と区別するための パラメータであり、 例えば、 階調変換曲線上の座標、 階調変換曲線の傾き、 曲率 などである。 パラメータ出力手段は、 例えば、 階調変換特性に対する曲線パラメ ータを格納するルックアップテーブルや、 所定の階調変換特性に対する曲線パラ メータを用いた曲線近似などの演算により曲線パラメータを求める演算手段など である。
本発明の視覚処理装置では、 階調変換特性に応じて画像信号を階調処理する。 このため、 より適切に階調処理を行うことが可能となる。 また、 階調処理に用い られる全ての階調変換曲線の値をあらかじめ記憶しておく必要がなく、 出力され た曲線パラメータから階調変換曲線を特定して階調処理を行う。 このため、 階調 変換曲線を記憶するための記憶容量を削減することが可能となる。
付記 1 9に記載の視覚処理装置は、 付記 1 8に記載の視覚処理装置であって、 パラメータ出力手段は、 階調変換特性と曲線パラメータとの関係を格納するルツ クアップテーブルである。
ルックアップテーブルは、 階調変換特性と曲線パラメータとの関係を格納して いる。 階調処理手段は、 特定された階調変換曲線を用いて、 画像信号を階調処理 する。
本発明の視覚処理装置では、 階調変換特性に応じて画像信号を階調処理する。 このため、 より適切に階調処理を行うことが可能となる。 さらに、 用いられる全 ての階調変換曲線の値をあらかじめ記憶しておく必要がなく、 曲線パラメータを 記憶するのみである。 このため、 階調変換曲線を記憶するための記憶容量を削減 することが可能となる。
付記 2 0に記載の視覚処理装置は、 付記 1 8または 1 9に記載の視覚処理装置 であって、 曲線パラメータは、 画像信号の所定の値に対する階調処理された画像 信号の値を含む。
階調処理手段では、 画像信号の所定の値と視覚処理の対象となる画像信号の値 との関係を用いて、 曲線パラメータが含む階調処理された画像信号の値を非線形 あるいは線形に内分し、 階調処理された画像信号の値を導出する。 本発明の視覚処理装置では、 画像信号の所定の値に対する階調処理された画像 信号の値から階調変換曲線を特定し、 階調処理を行うことが可能となる。
付記 2 1に記載の視覚処理装置は、 付記 1 8 ~ 2 0のいずれかに記載の視覚処 理装置であって、 曲線パラメータは、 画像信号の所定の区間における階調変換曲 線の傾きを含む。
階調処理手段では、 画像信号の所定の区間における階調変換曲線の傾きによリ、 階調変換曲線が特定される。 さらに、 特定された階調変換曲線を用いて、 画像信 号の値に対する階調処理された画像信号の値が導出される。
本発明の視覚処理装置では、 画像信号の所定の区間における階調変換曲線の傾 きにより、 階調変換曲線を特定し、 階調処理を行うことが可能となる。
付記 2 2に記載の視覚処理装置は、 付記 1 8〜 2 1のいずれかに記載の視覚処 理装置であって、 曲線パラメータは、 階調変換曲線が通る少なくとも 1点の座標 を含む。
曲線パラメータでは、 階調変換曲線が通る少なくとも 1点の座標が特定されて いる。 すなわち画像信号の値に対する階調処理後の画像信号の値が少なくとも 1 点特定されている。 階調処理手段では、 特定された画像信号の値と、 視覚処理の 対象となる画像信号の値との関係を用いて、 特定された階調処理後の画像信号の 値を非線形あるいは線形に内分することによリ階調処理された画像信号の値を導 出する。
本発明の視覚処理装置では、 階調変換曲線が通る少なくとも 1点の座標により、 階調変換曲線を特定し、 階調処理を行うことが可能となる。
付記 2 3に記載の視覚処理装置は、 空間処理手段と、 視覚処理手段とを備えて いる。 空間処理手段は、 入力された画像信号における複数の画像領域毎の空間処 理を行い空間処理信号を導出する手段である。 空間処理では、 空間処理の対象と なる対象画像領域と対象画像領域の周辺画像領域との階調特性の差に基づいた重 み付けを用いて、 対象画像領域と周辺画像領域との階調特性の加重平均を行う。 視覚処理手段は、 対象画像領域の階調特性と空間処理信号とに基づいて、 対象画 像領域の視覚処理を行う。
ここで、 画像領域とは、 画像において、 複数の画素を含む領域、 あるいは画素 そのものを意味している。 階調特性とは、 画素毎の輝度、 明度などといった画素 値に基づく値である。 例えば、 画像領域の階調特性とは、 画像領域が含む画素の 画素値の平均値 (単純平均または加重平均) 、 最大値、 あるいは最小値などであ る。
空間処理手段は、 周辺画像領域の階調特性を用いて、 対象画像領域の空間処理 を行う。 空間処理では、 対象画像領域と周辺画像領域との階調特性が加重平均さ れる。 加重平均における重みは、 対象画像領域と周辺画像領域との階調特性の差 に基づいて設定される。
本発明の視覚処理装置では、 空間処理信号において、 階調特性が大きく異なる 画像領域から受ける影響を抑制することなどが可能となる。 例えば、 周辺画像領 域が物体の境界などを含む画像であり、 対象画像領域とは階調特性が大きく異な る場合にも、 適切な空間処理信号を導出することが可能となる。 この結果、 空間 処理信号を用いた視覚処理においても、 特に擬似輪郭などの発生を抑制すること などが可能となる。 このため、 視覚的効果を向上させる視覚処理を実現すること が可能となる。
付記 2 4に記載の視覚処理装置は、 付記 2 3に記載の視覚処理装置であって、 重み付けは、 階調特性の差の絶対値が大きいほど小さくなる。
ここで、 重みは、 階調特性の差に応じて単調減少する値として与えられるもの であってもよいし、 所定の閾値と階調特性の差との比較により、 所定の値に設定 されるものであってもよい。
本発明の視覚処理装置では、 空間処理信号において、 階調特性が大きく異なる 画像領域から受ける影響を抑制することなどが可能となる。 例えば、 周辺画像領 域が物体の境界などを含む画像であリ、 対象画像領域とは階調特性が大きく異な る場合にも、 適切な空間処理信号を導出することが可能となる。 この結果、 空間 処理信号を用いた視覚処理においても、 特に擬似輪郭などの発生を抑制すること などが可能となる。 このため、 視覚的効果を向上させる視覚処理を実現すること が可能となる。
付記 2 5に記載の視覚処理装置は、 付記 2 3または 2 4に記載の視覚処理装置 であって、 重み付けは、 対象画像領域と周辺画像領域との距離が大きいほど小さ 1
78 くなる。
ここで、 重みは、 対象画像領域と周辺画像領域との距離の大きさに応じて単調 減少する値として与えられるものであってもよいし、 所定の閾値と距離の大きさ との比較により、 所定の値に設定されるものであってもよい。
本発明の視覚処理装置では、 空間処理信号において、 対象画像領域と離れた周 辺画像領域から受ける影響を抑制することなどが可能となる。 このため、 周辺画 像領域が物体の境界などを含む画像であり、 対象画像領域とは階調特性が大きく 異なる場合にも、 周辺画像領域と対象画像領域とが離れている場合には、 周辺画 像領域から受ける影響を抑制し、 より適切な空間処理信号を導出することが可能 となる。
付記 2 6に記載の視覚処理装置は、 付記 2 3〜 2 5のいずれかに記載の視覚処 理装置であって、 画像領域は、 複数の画素から構成されている。 対象画像領域と 周辺画像領域との階調特性は、 それぞれの画像領域を構成する画素値の特徴量と して定められている。
本発明の視覚処理装置では、 画像領域毎の空間処理を行う際に、 画像領域毎に 含まれる画素だけでなく、 周辺の画像領域を含めた広域の画像領域に含まれる画 素の階調特性を用いて処理を行う。 このため、 より適切な空間処理を行うことが 可能となる。 この結果、 空間処理信号を用いた視覚処理においても、 特に擬似輪 郭などの発生を抑制することなどが可能となる。 このため、 視覚的効果を向上さ せる視覚処理を実現することが可能となる。
付記 2 7に記載の視覚処理装置は、 対象画像領域決定手段と、 周辺画像領域決 定手段と、 階調変換特性導出手段と、 階調処理手段とを備えている。 対象画像領 域決定手段は、 入力された画像信号から階調変換特性の導出対象となる対象画像 領域を決定する。 周辺画像領域決定手段は、 対象画像領域の周辺に位置し複数の 画素を含む少なくとも 1つの周辺画像領域を決定する。 階調変換特性導出手段は、 周辺画像領域の周辺画像データを用いて、 対象画像領域の階調変換特性を導出す る。 階調処理手段は、 導出された階調変換特性に基づいて、 対象画像領域の画像 信号の階調処理を行う。
対象画像領域とは、 例えば、 画像信号に含まれる画素や、 画像信号を所定の単 位に分割した画像ブロックその他の複数の画素から構成される領域などである。 周辺画像領域とは、 例えば、 画像信号を所定の単位に分割した画像ブロックその 他の複数の画素から構成される領域である。 周辺画像データとは、 周辺画像領域 の画像データあるいは画像データから導出されるデータなどであり、 例えば、 周 辺画像領域の画素値、 階調特性 (画素毎の輝度や明度) 、 サムネイル (縮小画像 や解像度を落とした間引き画像) などである。 また、 周辺画像領域は、、対象画像 領域の周辺に位置すればよく、 対象画像領域を取り囲む領域である必要はない。 本発明の視覚処理装置では、 対象画像領域の階調変換特性を判断する際に、 周 辺画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領域毎の 階調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果を向上 させる階調処理を実現することが可能となる。
付記 2 8に記載の視覚処理方法は、 対象画像領域決定ステップと、 周辺画像領 域決定ステップと、 階調変換特性導出ステップと、 階調処理ステップとを備えて いる。 対象画像領域決定ステップは、 入力された画像信号から階調変換特性の導 出対象となる対象画像領域を決定する。 周辺画像領域決定ステップは、 対象画像 領域の周辺に位置し複数の画素を含む少なくとも 1つの周辺画像領域を決定する。 階調変換特性導出ステップは、 周辺画像領域の周辺画像データを用いて、 対象画 像領域の階調変換特性を導出する。 階調処理ステップは、 導出された階調変換特 性に基づいて、 対象画像領域の画像信号の階調処理を行う。
本発明の視覚処理方法では、 対象画像領域の階調変換特性を判断する際に、 周 辺画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領域毎の 階調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果を向上 させる階調処理を実現することが可能となる。
付記 2 9に記載の視覚処理プログラムは、 コンピュータを用いて、 入力された 画像信号の視覚処理を行う視覚処理方法を行うための視覚処理プログラムである。 視覚処理方法は、 対象画像領域決定ステップと、 周辺画像領域決定ステップと、 階調変換特性導出ステップと、 階調処理ステップとを備えている。 対象画像領域 決定ステップは、 入力された画像信号から階調変換特性の導出対象となる対象画 像領域を決定する。 周辺画像領域決定ステップは、 対象画像領域の周辺に位置し 複数の画素を含む少なくとも 1つの周辺画像領域を決定する。 階調変換特性導出 ステップは、 周辺画像領域の周辺画像データを用いて、 対象画像領域の階調変換 特性を導出する。 階調処理ステップは、 導出された階調変換特性に基づいて、 対 象画像領域の画像信号の階調処理を行う。
本発明の視覚処理プログラムでは、 対象画像領域の階調変換特性を判断する際 に、 周辺画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領 域毎の階調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果 を向上させる階調処理を実現することが可能となる。
付記 3 0に記載の半導体装置は、 対象画像領域決定部と、 周辺画像領域決定部 と、 階調変換特性導出部と、 階調処理部とを備えている。 対象画像領域決定部は、 入力された画像信号から階調変換特性の導出対象となる対象画像領域を決定する。 周辺画像領域決定部は、 対象画像領域の周辺に位置し複数の画素を含む少なくと も 1つの周辺画像領域を決定する。 階調変換特性導出部は、 周辺画像領域の周辺 画像データを用いて、 対象画像領域の階調変換特性を導出する。 階調処理部は、 導出された階調変換特性に基づいて、 対象画像領域の画像信号の階調処理を行う。 本発明の半導体装置では、 対象画像領域の階調変換特性を判断する際に、 周辺 画像領域の周辺画像データを用いて判断を行う。 このため、 対象画像領域毎の階 調処理に空間処理的効果を加えることが可能となり、 さらに視覚的効果を向上さ せる階調処理を実現することが可能となる。
(産業上の利用可能性)
本発明にかかる視覚処理装置は、 さらに視覚的効果を向上させる階調処理を実 現することが必要な画像信号の階調処理を行う視覚処理装置などの用途にも適用 可能である。

Claims

請 求 の 範 囲
1 .
入力された画像信号を画像領域毎に階調処理する視覚処理装置であって、 前記階調処理の対象となる対象画像領域の周辺に位置する画像領域であって、 複数の画素を含む少なくとも 1つの周辺画像領域の周辺画像データを用いて、 前 記対象画像領域の前記階調変換特性を導出する階調変換特性導出手段と、 導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理手段と、
を備える視覚処理装置。
2.
前記周辺画像領域は、 前記画像信号を所定の単位に分割した画像プロックであ る、
請求項 1に記載の視覚処理装置。
3.
前記階調変換特性導出手段は、 前記対象画像領域の対象画像データをさらに用 いて、 前記対象画像領域の前記階調変換特性を導出する、
請求項 1または 2に記載の視覚処理装置。
4.
前記階調変換特性導出手段は、 前記対象画像データおよび前記周辺画像データ を用いて前記対象画像領域の特徴を示すパラメータである特徴パラメータを導出 する特徴パラメータ導出手段と、 前記特徴パラメータ導出手段で導出された前記 対象領域の前記特徴パラメータに基づいて前記階調変換特性を決定する階調変換 特性決定手段とを有している、
請求項 3に記載の視覚処理装置。
5 .
前記特徴パラメータは、 ヒス卜グラムであることを特徴とする、
請求項 4に記載の視覚処理装置。
6 . 前記階調変換特性決定手段は、 前記特徴パラメータを用いて予めテーブル化さ れた前記階調変換特性を選択することを特徴とする、
請求項 4に記載の視覚処理装置。 予めテーブル化された前記階調変換特性は、 変更可能なことを特徴とする、 請求項 6に記載の視覚処理装置。 、
8 .
前記階調変換特性の変更は、 前記階調変換特性の少なくとも一部を補正するこ とによって実現されることを特徴とする、
請求項 7に記載の視覚処理装置。
9 .
前記階調変換特性決定手段は、 前記特徴パラメータを用いて予め決定された演 算により前記階調変換特性を生成することを特徴とする、
請求項 4に記載の視覚処理装置。
1 0 .
予め決定された前記演算は、 変更可能なことを特徴とする、
請求項 9に記載の視覚処理装置。 前記演算の変更は、 前記演算の少なくとも一部を補正することによって実現さ れることを特徴とする、
請求項 1 0に記載の視覚処理装置。
1 2 .
前記階調変換特性は、 複数の前記階調変換特性を内挿または外挿して得られる ものであることを特徴とする、
請求項 4記載の視覚処理装置。
1 3 .
入力された画像信号を画像領域毎に階調処理する視覚処理方法であって、 前記階調処理の対象となる対象画像領域の周辺に位置する画像領域であって、 複数の画素を含む少なくとも 1つの周辺画像領域の周辺画像データを用いて、 前 記対象画像領域の前記階調変換特性を導出する階調変換特性導出ステップと、 導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理ステップと、
を備える視覚処理方法。
1 4 .
前記周辺画像領域は、 前記画像信号を所定の単位に分割した画像ブ ΰックであ る、
請求項 1 3に記載の視覚処理方法。
1 5 .
前記階調変換特性導出ステップは、 前記対象画像領域の対象画像データをさら に用いて、 前記対象画像領域の前記階調変換特性を導出する、
請求項 1 3または 1 4に記載の視覚処理方法。
1 6 .
前記階調変換特性導出ステツプは、 前記対象画像データおよび前記周辺画像デ ータを用いて前記対象画像領域の特徴を示すパラメータである特徴パラメータを 導出する特徴パラメータ導出ステップと、 前記特徴パラメータ導出ステップで導 出された前記対象領域の前記特徴パラメータに基づいて前記階調変換特性を決定 する階調変換特性決定ステップとを有している、
請求項 1 5に記載の視覚処理方法。
1 7 .
コンピュータを用いて、 入力された画像信号を画像領域毎に階調処理する視覚 処理方法を行うための視覚処理プログラムであって、
前記視覚処理方法は、
前記階調処理の対象となる対象画像領域の周辺に位置する画像領域であって、 複数の画素を含む少なくとも 1つの周辺画像領域の周辺画像データを用いて、 前 記対象画像領域の前記階調変換特性を導出する階調変換特性導出ステップと、 導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理ステツプと、
を備える視覚処理方法である、 視覚処理プログラム。
1 8 .
前記周辺画像領域は、 前記画像信号を所定の単位に分割した画像ブロックであ る、
請求項 1 7に記載の視覚処理プログラム。
1 9 . 、
前記階調変換特性導出ステツプは、 前記対象画像領域の対象画像データをさら に用いて、 前記対象画像領域の前記階調変換特性を導出する、
請求項 1 7または 1 8に記載の視覚処理プログラム。
2 0 .
前記階調変換特性導出ステップは、 前記対象画像データおよび前記周辺画像デ —タを用いて前記対象画像領域の特徴を示すパラメータである特徴パラメータを 導出する特徴パラメータ導出ステップと、 前記特徴パラメータ導出ステップで導 出された前記対象領域の前記特徴パラメータに基づいて前記階調変換特性を決定 する階調変換特性決定ステップとを有している、
請求項 1 9に記載の視覚処理プログラム。
2 1 ·
入力された画像信号を画像領域毎に階調処理する半導体装置であって、 前記階調処理の対象となる対象画像領域の周辺に位置する画像領域であって、 複数の画素を含む少なくとも 1つの周辺画像領域の周辺画像データを用いて、 前 記対象画像領域の前記階調変換特性を導出する階調変換特性導出部と、
導出された前記階調変換特性に基づいて、 前記対象画像領域の画像信号の階調 処理を行う階調処理部と、
を備える半導体装置。
2 2 .
前記周辺画像領域は、 前記画像信号を所定の単位に分割した画像ブロックであ る、
請求項 2 1に記載の半導体装置。
2 3 . 前記階調変換特性導出部は、 前記対象画像領域の対象画像データをさらに用い て、 前記対象画像領域の前記階調変換特性を導出する、
請求項 2 1または 2 2に記載の半導体装置。
2 4 .
前記階調変換特性導出部は、 前記対象画像データおよび前記周辺画像データを 用いて前記対象画像領域の特徴を示すパラメータである特徴パラメータを導出す る特徴パラメータ導出部と、 前記特徴パラメータ導出部で導出された前記対象領 域の前記特徴パラメータに基づいて前記階調変換特性を決定する階調変換特性決 定部とを有している、
請求項 2 3に記載の半導体装置。
PCT/JP2004/013601 2003-09-11 2004-09-10 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置 WO2005027041A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP04773245A EP1667064A4 (en) 2003-09-11 2004-09-10 IMAGE PROCESSING DEVICE, METHOD AND PROGRAM AND SEMICONDUCTOR ELEMENT
US10/571,120 US7783126B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, and semiconductor device
KR1020107029130A KR101089394B1 (ko) 2003-09-11 2004-09-10 시각 처리 장치, 시각 처리 방법, 시각 처리 프로그램 및 반도체 장치
US12/838,689 US7945115B2 (en) 2003-09-11 2010-07-19 Visual processing device, visual processing method, visual processing program, and semiconductor device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-320059 2003-09-11
JP2003320059 2003-09-11
JP2004115166 2004-04-09
JP2004-115166 2004-04-09

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/571,120 A-371-Of-International US7783126B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, and semiconductor device
US12/838,689 Continuation US7945115B2 (en) 2003-09-11 2010-07-19 Visual processing device, visual processing method, visual processing program, and semiconductor device

Publications (1)

Publication Number Publication Date
WO2005027041A1 true WO2005027041A1 (ja) 2005-03-24

Family

ID=34315661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/013601 WO2005027041A1 (ja) 2003-09-11 2004-09-10 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置

Country Status (5)

Country Link
US (2) US7783126B2 (ja)
EP (1) EP1667064A4 (ja)
JP (1) JP2009211708A (ja)
KR (2) KR101089394B1 (ja)
WO (1) WO2005027041A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2026561A1 (en) * 2006-06-02 2009-02-18 Rohm Co., Ltd. Image processing circuit, semiconductor device, and image processing device
US7990465B2 (en) 2007-09-13 2011-08-02 Panasonic Corporation Imaging apparatus, imaging method, storage medium, and integrated circuit
US8144214B2 (en) 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101010937A (zh) * 2004-09-01 2007-08-01 日本电气株式会社 图像修正处理系统以及图像修正处理方法
US7551234B2 (en) * 2005-07-28 2009-06-23 Seiko Epson Corporation Method and apparatus for estimating shot boundaries in a digital video sequence
JP4345757B2 (ja) * 2006-02-22 2009-10-14 セイコーエプソン株式会社 画像データの色の補正
US7809210B2 (en) * 2006-12-12 2010-10-05 Mitsubishi Digital Electronics America, Inc. Smart grey level magnifier for digital display
JP4525719B2 (ja) * 2007-08-31 2010-08-18 カシオ計算機株式会社 階調補正装置、階調補正方法、及び、プログラム
JP4462359B2 (ja) * 2008-02-27 2010-05-12 コニカミノルタビジネステクノロジーズ株式会社 画像圧縮装置
ITTO20090161A1 (it) * 2009-03-03 2010-09-04 Galileo Avionica Spa Equalizzazione ed elaborazione di immagini ir
JP2010278724A (ja) * 2009-05-28 2010-12-09 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2011049650A (ja) * 2009-08-25 2011-03-10 Canon Inc 画像処理装置及び画像処理方法
JP5493717B2 (ja) * 2009-10-30 2014-05-14 大日本印刷株式会社 画像処理装置、画像処理方法、および、画像処理用プログラム
JP5140206B2 (ja) * 2010-10-12 2013-02-06 パナソニック株式会社 色信号処理装置
US9245495B2 (en) 2011-12-29 2016-01-26 Intel Corporation Simplification of local contrast compensation by using weighted look-up table
KR20130106642A (ko) * 2012-03-20 2013-09-30 삼성디스플레이 주식회사 휘도 보정 시스템 및 그 방법
US11113821B2 (en) 2017-12-20 2021-09-07 Duelight Llc System, method, and computer program for adjusting image contrast using parameterized cumulative distribution functions
TWI473039B (zh) * 2013-03-05 2015-02-11 Univ Tamkang 影像的動態範圍壓縮與局部對比增強方法及影像處理裝置
JP6904838B2 (ja) * 2017-07-31 2021-07-21 キヤノン株式会社 画像処理装置、その制御方法およびプログラム
KR102349376B1 (ko) * 2017-11-03 2022-01-11 삼성전자주식회사 전자 장치 및 그의 영상 보정 방법
KR102368229B1 (ko) * 2018-02-06 2022-03-03 한화테크윈 주식회사 영상처리장치 및 방법
JP7104575B2 (ja) * 2018-06-29 2022-07-21 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP7212466B2 (ja) * 2018-07-06 2023-01-25 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
CN108877673B (zh) * 2018-07-27 2020-12-25 京东方科技集团股份有限公司 控制显示面板驱动电流的方法及装置、电子设备、存储介质
CN110120021B (zh) * 2019-05-05 2021-04-09 腾讯科技(深圳)有限公司 图像亮度的调整方法、装置、存储介质及电子装置
CN112950515A (zh) * 2021-01-29 2021-06-11 Oppo广东移动通信有限公司 图像处理方法及装置、计算机可读存储介质和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5524070A (en) 1992-10-07 1996-06-04 The Research Foundation Of State University Of New York Local adaptive contrast enhancement
JPH11122488A (ja) * 1997-10-17 1999-04-30 Sharp Corp 画像処理装置
JP2000004379A (ja) * 1995-09-25 2000-01-07 Matsushita Electric Ind Co Ltd 画像表示方法及びその装置
WO2001026054A2 (en) 1999-10-01 2001-04-12 Microsoft Corporation Locally adapted histogram equalization
JP2001243463A (ja) * 2000-02-28 2001-09-07 Minolta Co Ltd 記録媒体、並びに、画像処理装置および画像処理方法

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3024459A1 (de) 1979-07-03 1981-01-08 Crosfield Electronics Ltd Pyramideninterpolation
JPS5827145A (ja) 1981-08-10 1983-02-17 Fuji Photo Film Co Ltd カラ−画像信号の輪郭強調処理方法及びカラ−画像走査装置
US4837722A (en) * 1986-05-14 1989-06-06 Massachusetts Institute Of Technology Digital high speed 3-dimensional interpolation machine
JP2718448B2 (ja) 1987-10-19 1998-02-25 富士写真フイルム株式会社 画像処理データの設定方法
JP2655602B2 (ja) 1987-11-04 1997-09-24 日本電気株式会社 画像強調回路
JP2832954B2 (ja) 1988-09-09 1998-12-09 日本電気株式会社 画像強調回路
JPH0348980A (ja) 1989-07-18 1991-03-01 Fujitsu Ltd 輪郭強調処理方式
JP2663189B2 (ja) * 1990-01-29 1997-10-15 富士写真フイルム株式会社 画像のダイナミックレンジ圧縮処理方法
JP2961953B2 (ja) 1991-06-14 1999-10-12 松下電器産業株式会社 色補正方法および装置
JP3303427B2 (ja) 1992-05-19 2002-07-22 ミノルタ株式会社 デジタル画像形成装置
JP3222577B2 (ja) 1992-09-16 2001-10-29 古河電気工業株式会社 熱交換器用アルミニウム合金フィン材
JPH06259543A (ja) 1993-03-05 1994-09-16 Hitachi Medical Corp 画像処理装置
JP3196864B2 (ja) * 1993-04-19 2001-08-06 富士写真フイルム株式会社 画像のダイナミックレンジ圧縮処理方法
JPH07220066A (ja) 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd 画像処理装置
US5483360A (en) 1994-06-06 1996-01-09 Xerox Corporation Color printer calibration with blended look up tables
JP3518913B2 (ja) 1994-12-22 2004-04-12 株式会社リコー 階調変換曲線生成装置
US5479926A (en) 1995-03-10 1996-01-02 Acuson Corporation Imaging system display processor
US5774599A (en) 1995-03-14 1998-06-30 Eastman Kodak Company Method for precompensation of digital images for enhanced presentation on digital displays with limited capabilities
JP3501252B2 (ja) * 1995-06-16 2004-03-02 三菱電機株式会社 階調補正装置
US6094185A (en) * 1995-07-05 2000-07-25 Sun Microsystems, Inc. Apparatus and method for automatically adjusting computer display parameters in response to ambient light and user preferences
JP3003561B2 (ja) * 1995-09-25 2000-01-31 松下電器産業株式会社 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置
JP4014671B2 (ja) 1995-09-29 2007-11-28 富士フイルム株式会社 多重解像度変換方法および装置
EP0766202B1 (en) * 1995-09-29 2002-12-18 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP3816151B2 (ja) 1995-09-29 2006-08-30 富士写真フイルム株式会社 画像処理方法および装置
JP3171081B2 (ja) 1995-12-18 2001-05-28 富士ゼロックス株式会社 画像処理装置
JPH09231353A (ja) 1996-02-23 1997-09-05 Toshiba Corp カラー画像処理システム
JPH09275496A (ja) 1996-04-04 1997-10-21 Dainippon Screen Mfg Co Ltd 画像の輪郭強調処理装置および方法
JP3797442B2 (ja) 1996-06-18 2006-07-19 富士写真フイルム株式会社 画像再生方法および装置
JPH1065930A (ja) 1996-08-19 1998-03-06 Fuji Xerox Co Ltd カラー画像処理方法およびカラー画像処理装置
US6351558B1 (en) * 1996-11-13 2002-02-26 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
JPH10154223A (ja) 1996-11-25 1998-06-09 Ricoh Co Ltd データ変換装置
KR100261214B1 (ko) * 1997-02-27 2000-07-01 윤종용 영상처리 시스템의 콘트라스트 확장장치에서 히스토그램 등화방법 및 장치
JP2951909B2 (ja) * 1997-03-17 1999-09-20 松下電器産業株式会社 撮像装置の階調補正装置及び階調補正方法
JPH10334218A (ja) 1997-06-02 1998-12-18 Canon Inc 画像処理装置およびその方法、並びに、記録媒体
JP3585703B2 (ja) * 1997-06-27 2004-11-04 シャープ株式会社 画像処理装置
JP3671616B2 (ja) 1997-08-21 2005-07-13 富士ゼロックス株式会社 画像処理装置
US6147664A (en) * 1997-08-29 2000-11-14 Candescent Technologies Corporation Controlling the brightness of an FED device using PWM on the row side and AM on the column side
US6069597A (en) 1997-08-29 2000-05-30 Candescent Technologies Corporation Circuit and method for controlling the brightness of an FED device
JP4834896B2 (ja) * 1997-10-31 2011-12-14 ソニー株式会社 画像処理装置及び方法、画像送受信システム及び方法、並びに記録媒体
US6411306B1 (en) * 1997-11-14 2002-06-25 Eastman Kodak Company Automatic luminance and contrast adustment for display device
JP3907810B2 (ja) 1998-01-07 2007-04-18 富士フイルム株式会社 3次元ルックアップテーブルの補正法およびこれを行う画像処理装置ならびにこれを備えたデジタルカラープリンタ
US6323869B1 (en) * 1998-01-09 2001-11-27 Eastman Kodak Company Method and system for modality dependent tone scale adjustment
JP3809298B2 (ja) 1998-05-26 2006-08-16 キヤノン株式会社 画像処理方法、装置および記録媒体
JP2000032281A (ja) 1998-07-07 2000-01-28 Ricoh Co Ltd 画像処理方法、装置および記録媒体
US6161311A (en) * 1998-07-10 2000-12-19 Asm America, Inc. System and method for reducing particles in epitaxial reactors
JP3791199B2 (ja) 1998-08-05 2006-06-28 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像処理方法及び画像処理プログラムを記録した記録媒体
US6643398B2 (en) * 1998-08-05 2003-11-04 Minolta Co., Ltd. Image correction device, image correction method and computer program product in memory for image correction
US6275605B1 (en) * 1999-01-18 2001-08-14 Eastman Kodak Company Method for adjusting the tone scale of a digital image
US6674436B1 (en) 1999-02-01 2004-01-06 Microsoft Corporation Methods and apparatus for improving the quality of displayed images through the use of display device and display condition information
JP2000278522A (ja) 1999-03-23 2000-10-06 Minolta Co Ltd 画像処理装置
US6580835B1 (en) 1999-06-02 2003-06-17 Eastman Kodak Company Method for enhancing the edge contrast of a digital image
JP2001111858A (ja) 1999-08-03 2001-04-20 Fuji Photo Film Co Ltd 色修正定義作成方法、色修正定義作成装置、および色修正定義作成プログラム記憶媒体
JP2001069352A (ja) 1999-08-27 2001-03-16 Canon Inc 画像処理装置およびその方法
JP2001078047A (ja) 1999-09-02 2001-03-23 Seiko Epson Corp プロファイル合成方法、プロファイル合成装置、並びにプロファイル合成プログラムを記憶した媒体、及びデータ変換装置
US7006668B2 (en) 1999-12-28 2006-02-28 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US6618045B1 (en) * 2000-02-04 2003-09-09 Microsoft Corporation Display device with self-adjusting control parameters
US6822762B2 (en) * 2000-03-31 2004-11-23 Hewlett-Packard Development Company, L.P. Local color correction
US6813041B1 (en) * 2000-03-31 2004-11-02 Hewlett-Packard Development Company, L.P. Method and apparatus for performing local color correction
JP4081219B2 (ja) * 2000-04-17 2008-04-23 富士フイルム株式会社 画像処理方法及び画像処理装置
JP2002044451A (ja) 2000-07-19 2002-02-08 Canon Inc 画像処理装置およびその方法
DE60110399T2 (de) 2000-08-28 2006-01-19 Seiko Epson Corp. Sich an die umgebung anpassendes anzeigesystem, bildverarbeitungsverfahren und bildspeichermedium
US6856704B1 (en) 2000-09-13 2005-02-15 Eastman Kodak Company Method for enhancing a digital image based upon pixel color
JP3793987B2 (ja) 2000-09-13 2006-07-05 セイコーエプソン株式会社 補正カーブ生成方法、画像処理方法、画像表示装置および記録媒体
US6915024B1 (en) * 2000-09-29 2005-07-05 Hewlett-Packard Development Company, L.P. Image sharpening by variable contrast mapping
JP2002204372A (ja) * 2000-12-28 2002-07-19 Canon Inc 画像処理装置およびその方法
JP2002281333A (ja) 2001-03-16 2002-09-27 Canon Inc 画像処理装置およびその方法
US7023580B2 (en) * 2001-04-20 2006-04-04 Agilent Technologies, Inc. System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines
US6826310B2 (en) * 2001-07-06 2004-11-30 Jasc Software, Inc. Automatic contrast enhancement
JP3705180B2 (ja) * 2001-09-27 2005-10-12 セイコーエプソン株式会社 画像表示システム、プログラム、情報記憶媒体および画像処理方法
JP3752448B2 (ja) 2001-12-05 2006-03-08 オリンパス株式会社 画像表示システム
JP2003242498A (ja) 2002-02-18 2003-08-29 Konica Corp 画像処理方法および画像処理装置ならびに画像出力方法および画像出力装置
JP4367162B2 (ja) 2003-02-19 2009-11-18 パナソニック株式会社 プラズマディスプレイパネルおよびそのエージング方法
JP4089483B2 (ja) * 2003-03-27 2008-05-28 セイコーエプソン株式会社 異なった特徴の画像が混在する画像を表す画像信号の階調特性制御

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5524070A (en) 1992-10-07 1996-06-04 The Research Foundation Of State University Of New York Local adaptive contrast enhancement
JP2000004379A (ja) * 1995-09-25 2000-01-07 Matsushita Electric Ind Co Ltd 画像表示方法及びその装置
JPH11122488A (ja) * 1997-10-17 1999-04-30 Sharp Corp 画像処理装置
WO2001026054A2 (en) 1999-10-01 2001-04-12 Microsoft Corporation Locally adapted histogram equalization
JP2001243463A (ja) * 2000-02-28 2001-09-07 Minolta Co Ltd 記録媒体、並びに、画像処理装置および画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1667064A4
VOSSEPOEL, A.M.; STOEL, B.C.; MEERSHOEK, A.P., PATTERN RECOGNITION, 1988., 9TH INTERNATIONAL CONFERENCE ON 14-17 NOV. 1988, vol. 1, 14 November 1988 (1988-11-14), pages 351 - 353

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2026561A1 (en) * 2006-06-02 2009-02-18 Rohm Co., Ltd. Image processing circuit, semiconductor device, and image processing device
EP2026561A4 (en) * 2006-06-02 2010-06-02 Rohm Co Ltd IMAGE PROCESSING CIRCUIT, SEMICONDUCTOR ARRANGEMENT AND IMAGE PROCESSING ARRANGEMENT
US8159558B2 (en) 2006-06-02 2012-04-17 Rohm Co., Ltd. Image processing circuit, semiconductor device and image processing device
US8144214B2 (en) 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
US8488029B2 (en) 2007-04-18 2013-07-16 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
US8711255B2 (en) 2007-04-18 2014-04-29 Panasonic Corporation Visual processing apparatus and visual processing method
US7990465B2 (en) 2007-09-13 2011-08-02 Panasonic Corporation Imaging apparatus, imaging method, storage medium, and integrated circuit
US8786764B2 (en) 2007-09-13 2014-07-22 Panasonic Intellectual Property Corporation Of America Imaging apparatus, imaging method, and non-transitory storage medium which perform backlight correction

Also Published As

Publication number Publication date
US7945115B2 (en) 2011-05-17
EP1667064A1 (en) 2006-06-07
US20070071318A1 (en) 2007-03-29
KR101027825B1 (ko) 2011-04-07
US7783126B2 (en) 2010-08-24
JP2009211708A (ja) 2009-09-17
KR20110003598A (ko) 2011-01-12
KR20060121876A (ko) 2006-11-29
US20100309216A1 (en) 2010-12-09
EP1667064A4 (en) 2009-06-10
KR101089394B1 (ko) 2011-12-07

Similar Documents

Publication Publication Date Title
WO2005027041A1 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP4157592B2 (ja) 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP4688945B2 (ja) 視覚処理装置、視覚処理方法、テレビジョン、携帯情報端末、カメラおよびプロセッサ
JP5259785B2 (ja) 視覚処理装置、視覚処理方法、テレビジョン、携帯情報端末、カメラおよびプロセッサ
JP4481333B2 (ja) 視覚処理装置、視覚処理方法、画像表示装置、テレビジョン、情報携帯端末、カメラおよびプロセッサ
JP4437150B2 (ja) 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP4641784B2 (ja) 階調変換処理装置、階調変換処理方法、画像表示装置、テレビジョン、携帯情報端末、カメラ、集積回路および画像処理プログラム
JP2008159069A5 (ja)
KR20090009232A (ko) 시각 처리 장치, 시각 처리 방법, 프로그램, 기록 매체, 표시 장치 및 집적 회로
JP4126297B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
JP4414307B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP4094652B2 (ja) 視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路
JP4414464B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP4126298B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP4437149B2 (ja) 視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路
CN101453544B (zh) 灰度变换处理装置
JP2005322205A5 (ja)

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480026254.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS KE KG KP KR LC LK LR LS LT LU LV MA MD MG MN MW MX MZ NA NI NO NZ OM PG PL PT RO RU SC SD SE SG SK SL SY TM TN TR TT TZ UA UG US UZ VC YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IT MC NL PL PT RO SE SI SK TR BF CF CG CI CM GA GN GQ GW ML MR SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020067005005

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004773245

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004773245

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007071318

Country of ref document: US

Ref document number: 10571120

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020067005005

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10571120

Country of ref document: US