WO2002013512A1 - Procede et dispositif de traitement d'image et support enregistre - Google Patents

Procede et dispositif de traitement d'image et support enregistre Download PDF

Info

Publication number
WO2002013512A1
WO2002013512A1 PCT/JP2001/006794 JP0106794W WO0213512A1 WO 2002013512 A1 WO2002013512 A1 WO 2002013512A1 JP 0106794 W JP0106794 W JP 0106794W WO 0213512 A1 WO0213512 A1 WO 0213512A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
stored
student
accumulated
Prior art date
Application number
PCT/JP2001/006794
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Yasunobu Node
Hisakazu Shiraki
Katsuhisa Shinmei
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/089,926 priority Critical patent/US6987884B2/en
Priority to JP2002518736A priority patent/JP4725001B2/ja
Publication of WO2002013512A1 publication Critical patent/WO2002013512A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S348/00Television
    • Y10S348/91Flicker reduction

Definitions

  • the present invention relates to an image processing apparatus and method, and a recording medium, and in particular, to an image capable of appropriately generating a higher-quality image than an input image.
  • the present invention relates to a processing device and method, and a recording medium.
  • Background Art Conventionally, a technology has been developed that performs various types of image processing on an input image to generate a higher-quality image. Using this technology, for example, an image with reduced noise can be generated from an input image containing noise, or an image area that has motion relative to other parts, such as a background, such as a telop. (Hereinafter, referred to as a characteristic region), and an image in which the edge of the characteristic region is not blurred can be generated from the input image.
  • an input image including noise is input to a subtracter 11 and an amplifier 14.
  • An image delayed by one frame from the input image is also supplied to the subtracter 11 from the frame memory 17.
  • the image from the frame memory 17 is also supplied to the amplifier 16.
  • the subtracter 11 subtracts the image from the frame memory 17 from the input image, and outputs the subtraction result to the difference calculator 12.
  • the difference calculation unit 12 obtains the absolute value of the calculation result from the subtracter 11 as a difference value between the input image and the image from the frame memory 17 (an image one frame before), and determines a threshold. Output to section 13.
  • the threshold determination unit 13 compares the difference value from the difference calculation unit 12 with a predetermined threshold, and Based on the comparison result, it is determined for each pixel whether the input image is a still portion or a moving portion, and a weighting value P is set based on the determination result.
  • the weighted addition value p is set to a predetermined fixed value between the values 0 to 0 and 5, and when the input image is determined to be a moving portion.
  • the weight p is set to the value 1.
  • the amplifier 14 amplifies the signal of the input image using the weighting value p set by the threshold determination unit 13 as an amplification factor, and supplies the signal to the adder 15.
  • the amplifier 16 widens the image signal from the frame memory 17 using the value obtained by subtracting the set weighting value P from the value 1 as an amplification factor, and supplies it to the adder 15.
  • the adder 15 adds the outputs of the amplifier 14 and the amplifier 16 and outputs the result.
  • the pixel value of the input image and the pixel value of the image delayed by one frame with respect to the input image are weighted and added according to the weight value p.
  • the weight value p is added to the input image one frame before, it is possible to reduce elements that are not stationary in terms of time, for example, noise.
  • the weighting value p is set to a predetermined fixed value, so that noise cannot be reduced corresponding to the size and direction.
  • the weighted addition with the weighting value p is performed on the moving part. Image quality degradation occurs.
  • the input image is a moving part
  • the noise included in the input image is large, it may be erroneously determined that the input image is a moving part. . That is, noise is not reduced.
  • FIG. 2 shows another configuration example of a conventional image processing apparatus.
  • the noise of the moving part is reduced by executing the class classification adaptation processing based on the evening utterance corresponding to the motion vector.
  • the input image including noise is supplied to the frame memory 21-1.
  • the frame memory 21-1 delays the input image by one frame, and the input image is delayed by the frame memory 21-2, the motion vector detection unit 22, the region extraction unit 24, and the region extraction unit 2 Supply it to 7 each.
  • the frame memory 2 1-2 delays the image from the frame memory 2 1-1 by one frame, and transfers it to the frame memory 2 1-3, the motion vector detecting section 22, and the motion vector detecting section 2. 3. Supply them to the area cutout section 24 and the area cutout section 27, respectively.
  • the frame memory 2 1-3 delays the image from the frame memory 2 1-2 by one frame, and converts the image into a motion vector detecting section 23, an area extracting section 24 and an area extracting section 2. 7 respectively.
  • the motion vector detection unit 22 detects a motion vector by performing block matching on two temporally continuous frames supplied from the frame memories 21-1 and 21-2. The detection result is supplied to the region extracting section 24.
  • the motion vector detection unit 23 detects a motion vector by performing block matching on two consecutive frames supplied from the frame memories 21-2 and 21-3, and The detection result is supplied to the region extracting section 27.
  • the region extracting section 24 refers to the motion vector supplied from the motion vector detecting section 22 and determines a predetermined value from the frames supplied from the frame memories 21-1 to 21-3. Cut out the image area of as a class map.
  • FIG. 3A shows an image region cut out as a class sunset.
  • Frame memory 2 at the position corresponding to the pixel of interest (black circle in the figure), pixel of interest, and the motion vector from motion vector detector 22 from frame memory 2 1-2 Pixels (frames shaded in the figure) and the pixel of interest on frame F n- 1 (frame; frame immediately before F n) from 1-1, and motion from motion vector detector 22 Pixel on frame F n + 1 (the frame after frame F n) from frame memory 2 1–3 at the position corresponding to the vector (circled circle in the figure) A total of three pixels are cut out as class taps.
  • the motion vector between the frame Fn-1 and the frame Fn is (11, 11)
  • the frame and the frame Fn + 1 If the motion vector between and is (1, 1) (the motion vector between frame: Fn and frame Fn is (0, 0)), as shown in Fig. 3C
  • the pixel of interest in frame Fn, the pixel of the frame at the position corresponding to the pixel of interest and the motion vector (1-1,11) and the frame Fn + 1 at the position corresponding to the pixel of interest and the motion vector (1,1) Pixels are cut out as class taps.
  • the area extracting unit 24 supplies the extracted class map to the class code generating unit 25.
  • the class code generation unit 25 performs, for example, an ADRC process on the cluster group supplied from the region extraction unit 24, extracts a pattern in the spatiotemporal space of the class tap, and classifies the cluster tap according to the extracted pattern. Generate a class code indicating the class The class code generator 25 supplies the generated class code to the ROM table 26.
  • the ROM table 26 stores, for each class, a set of prediction coefficients calculated when an image containing noise is used as a student image and an image containing no noise is used as a teacher image. Then, a code corresponding to the class code from the class code generator 25 is output to the estimation calculator 28.
  • the region extracting unit 27 refers to the motion vector supplied from the motion vector detecting unit 23, and determines a predetermined time from the image data of the frame supplied from the frame memories 21-1 to 21-13. Is extracted as a prediction tab.
  • Figure 4A shows the structure of the predicted sunset. Pixels of interest on frame Fn (black circles in the figure) and pixels located around the pixels of interest (circles with light black in the figure), 13 pixels in total, and pixels of interest in frame 1 And a pixel at a position corresponding to the motion vector from the motion vector detection unit 22, and a total of 13 pixels around the pixel (in the figure, a hatched circle), and a frame Fn + 1
  • the pixel at the position corresponding to the pixel of interest and the motion vector from the motion vector detection unit 22; A total of 13 pixels (surrounded circles in the figure) located in the surrounding area are cut out as prediction blocks.
  • the motion vector between frame Fn-1 and frame Fn is (1-1, —1), and the motion vector between frame Fn + 1 and frame Fn + 1.
  • Is (1, 1) (the motion vector between frame Fn and frame Fn is (0, 0)
  • FIG. 4C The pixel of frame Fn-1 at the position corresponding to the pixel of interest and the motion vector (1-1, 1 1), and the pixel of frame Fn + 1 at the position corresponding to the pixel of interest and the motion vector (1, 1, 1); A total of 13 pixels around them are cut out as prediction taps.
  • the region cutout unit 27 supplies the cutout prediction tap to the estimation calculation unit 28.
  • the estimation calculation unit 28 performs a predetermined calculation based on the prediction tap supplied from the region extraction unit 27 and the prediction coefficient set supplied from the ROM memory 26, and as a result, an image with reduced noise Generate
  • FIG. 5 shows another configuration example of a conventional image processing apparatus. Also in the image processing device 30 shown in FIG. 5, the noise in the moving part is reduced by executing the classification processing based on the type corresponding to the motion vector. However, in this case, the motion vector is detected by a method with a smaller processing load than that of the work matching.
  • the image processing device 30 is provided with a type arrangement determining unit 31 instead of the motion vector detecting units 22 and 23 of the image processing device 20 in FIG.
  • parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
  • the input image including noise is supplied to the frame memory 21-1.
  • the frame memory 21-1 delays the input image by one frame and supplies it to the frame memory 21-2, the area cutout section 24, the area cutout section 27, and the tap arrangement determination section 31. I do.
  • the frame memory 2 1-2 delays the image from the frame memory 2 1-1 by one frame, and then delays the image by the frame memory 2 1-3, the area cutout section 24, and the area cutout section 2 7 And the tap arrangement determination unit 31.
  • the frame memory 2 1-3 delays the image from the frame memory 2 1-2 by one frame, and the frame memory 2 1-4, the area cutout section 24, and the area cutout section 2 7 And the tap arrangement determination unit 31.
  • the frame memory 2 1-4 delays the image from the frame memory 2 1-3 by one frame, and also delays the image by the frame memory 2 1-5, the area cutout section 24, and the area cutout section 2 7 And the tap arrangement determination unit 31.
  • the frame memory 2 1-5 delays the image from the frame memory 2 1-4 by one frame, and outputs it to the area cutout section 24, the area cutout section 27 and the tap arrangement determination section 3 Supply 1
  • the sunset arrangement section 31 detects a motion vector from the data supplied from the frame memories 21-1 to 21-5 and, based on the detected motion vector, class taps or prediction taps. The arrangement position of is determined, and the result of the determination is supplied to the region cutout section 24 and the region cutout section 27.
  • the motion vector detection in the tap arrangement determination unit 31 is performed on the assumption that the following is performed.
  • the frame F n (the frame from the frame memory 21-3) Frame F n-1 (frame from frame memory 21-2), frame F n-2 (frame memory 21-1) corresponding to the pixel of interest and the pixel of interest (located at the same location on the image) From the frame), frame memory F n + 1 (F One straight line passing through the pixels on the frame memory 21-4 (frame from frame memory 21) and the frame memory Fn + 2 (frame from frame memory 21-5) can be drawn. That is, the tab arrangement determining unit 31 detects this straight line as a motion vector.
  • step S1 the tap arrangement determining unit 31 sets, for example, an area of 5 ⁇ 5 pixels centered on the target pixel on the frame Fn from the frame memory 21-3 on the frame Fn.
  • step S2 the type arrangement determining unit 31 selects one pixel as a central pixel from the 5 ⁇ 5 pixel area on the frame Fn set in step S1, and For example, a search range is set centering on a pixel on the frame Fn-1 from the frame memory 2 1 1 2 at a position corresponding to.
  • step S3 the sunset arrangement determination unit 31 initializes the coordinates (a, b) for specifying the pixels within the search range to (0, 0) as shown in FIG.
  • step S4 the tab arrangement determining unit 31 determines a pixel within the search range specified by the coordinates (a, b) (a pixel on the frame: Fn-1) and a pixel of interest on the frame Fn. Generates a straight line that passes through.
  • step S5 the tap arrangement determination unit 31 calculates the variance between the pixels of the frames Fn_2 to Fii + 2 positioned on the straight line generated in step S4, and in step S6, the calculated variance is calculated. It is determined whether or not the variance is smaller than the variance value held in step S7, which will be described later. Of these, it is determined whether or not it is minimum. If it is determined that it is minimum, the process proceeds to step S7. In step S7, the sunset arrangement determination unit 31 holds the variance value calculated in step S5 and the coordinates (a, b) at that time.
  • step S6 When it is determined in step S6 that the coordinates are not the minimum, or when the variance value and the coordinates (a, b) are held in step S7, the process proceeds to step S8, where the tap arrangement determination unit 31 determines the coordinates (a, b) is updated. Updating of coordinates (a, b) can be done on raster scan.
  • step S9 the type arrangement determining unit 31 determines whether or not the coordinates (a, b) updated in step S8 exceed the search range (FIG. 8) set in step S2. If not, the process returns to step S4 to execute the subsequent processes. On the other hand, if it is determined that the search range is exceeded, the search within the search range is determined to have been completed, the process proceeds to step S10, and the tap arrangement determination unit 31 determines the coordinates ( Vote for a, b).
  • step SI1 the sunset arrangement determination unit 31 determines whether or not all the pixels in the area set in step S1 have been extracted as the center pixel, and determines all the pixels as the center pixel. If it is determined that the pixel is not extracted as, the process returns to step S2 to extract another pixel as the center pixel and execute the subsequent processing. On the other hand, if it is determined that all the pixels have been extracted as the center pixel, the process proceeds to step S12.
  • step S12 the evening arrangement determining unit 31 detects the coordinates (a, b) having the largest number of votes cast in step S10. That is, a straight line passing through the pixel on frame F n-1 specified by the coordinates (a, b) and the pixel of interest on frame F n is detected. Thus, a straight line is detected as a motion vector.
  • the evening arrangement determining unit 31 supplies the position information of the pixels of the frames F n ⁇ 2 to F n + 2 located on the detected straight line to the region extracting unit 24 and the region extracting unit 27. .
  • FIG. 9 shows another configuration example of a conventional image processing apparatus.
  • an input image including noise is supplied to that of the stationary noise reduction filter 51, the motion noise reduction filter 52, and the motion detection unit 53.
  • the static part noise reduction filter 51 is composed of the amplifier 14 and the frame memory 17 of the image processing apparatus 10 shown in FIG. 1, and converts the input image and the image delayed by one frame with respect to the input image. On the other hand, weighted addition based on the weighted value P is performed. sand That is, when the input image is a static portion, noise included in the static portion is reduced.
  • the motion partial noise reduction filter 52 is composed of the image processing device 20 shown in FIG. 2 or the image processing device 30 shown in FIG. 5, and performs class classification adaptation based on the evening corresponding to the motion vector. Execute the process. That is, when the input image is a moving part, the noise contained therein is reduced.
  • the motion detection section 53 detects a motion in pixel units from the input image, and outputs the detection result to the output switching section 54.
  • the output switching unit 54 selects the output from the still part noise reduction filter 51 and outputs it. Output to the outside.
  • the output switching section 54 selects the output from the moving section noise reduction filter 52. Output it to the outside.
  • the processing of the moving part noise reduction filter 52 is performed when the input image is a stationary part, and the processing of the stationary part noise reduction is performed when the input image is a moving part.
  • the processing of filter 51 is wasted.
  • the conventional image processing apparatus 50 has a problem that noise included in an input image cannot be effectively reduced.
  • a quadruple-density image signal is generated from an input image by performing, for example, a linear interpolation process on the input image.
  • the waveform of the image signal becomes dull due to the linear interpolation process.
  • there has been a problem that the whole image is blurred due to the influence of the linear processing.
  • an image in which the edge of the characteristic region is not blurred can be generated.
  • FIG. 10 shows a configuration of an image processing apparatus that generates an image in which the edge of the feature region is not blurred. An example is shown.
  • an input image having an edge of a characteristic region is input to the characteristic region extraction unit 61 and the class. It is supplied to the classification adaptive processing section 62.
  • the characteristic region extracting unit 61 extracts a characteristic region included in the input image and supplies the characteristic region to the synthesizing unit 63. Note that the characteristic region extracting unit 61 extracts the characteristic region such that the pixel density of the characteristic region is equal to or higher than that of the input image.
  • the classification adaptive processing unit 62 performs, on the input image, a classification adaptive processing for, for example, removing noise, correcting luminance, or generating a high-definition image.
  • the combined image is output to the combining unit 63.
  • the combining unit 63 combines the feature region from the feature region extracting unit 61 and the image from the classification adaptive processing unit 62. In this way, by extracting a characteristic region once and combining it with another image portion, an image in which the edge of the characteristic region is not blurred can be generated.
  • FIG. 11 shows a configuration example of the characteristic region extraction unit 61.
  • the input image is supplied to a delay circuit 71 and a motion vector detection circuit 75.
  • the delay circuit 71 delays the supplied input image by a time required for processing in a later-described synthesizing circuit 72 to a phase shift circuit 76, and supplies the input image to the synthesizing circuit 72.
  • an input image and an image corresponding to the input image are synthesized in a synthesis circuit 72 described later.
  • the synthesizing circuit 72 synthesizes the input image supplied from the delay circuit 71 with the phase-shifted stored image stored in the storage memory 73 supplied from the phase shift circuit 76. At the same time, the combined image is supplied to the storage memory 73.
  • the storage memory 73 stores the image supplied from the synthesizing circuit 72 to generate a stored image, and supplies the generated image to the extraction circuit 74 and the phase shift circuit 76.
  • FIG. 12A shows an example of the level distribution of the pixel values of the pixels constituting the characteristic region on the accumulated image.
  • the level distribution of the characteristic region on the accumulated image is the same as the input image, but the level distribution of the pixel values of the pixels constituting the image other than the characteristic region is, for example, as shown in FIG. As shown in B, it is flattened.
  • the extraction circuit 74 extracts the characteristic region from the stored image supplied from the storage memory 73.
  • the extracted area is supplied to the synthesizing unit 63. Since the characteristic area on the stored image has the characteristic described with reference to FIG. 12, the extraction circuit 74 extracts the characteristic area with high accuracy. can do.
  • the motion vector detection circuit 75 receives an input image and the image data and display position of the characteristic region from the extraction circuit 74.
  • the motion vector detection circuit 75 detects a motion vector between the feature region from the extraction circuit 74 and the feature region in the input image, and supplies the detection result to the phase shift circuit 76.
  • the phase shift circuit 76 shifts the phase of the stored image from the storage memory 73 based on the motion vector from the motion vector circuit 75, and supplies the shifted image to the synthesizing circuit 72. In this way, an image in which the edge of the characteristic region is not blurred is generated. However, when the characteristic region and other images are combined, special processing is required for the boundary portion to be combined. That is, the processing of the combining unit 63 becomes complicated.
  • the present invention has been made in view of such a situation, and aims to appropriately generate a higher-quality image from an input image.
  • the present invention provides an image processing apparatus that generates a second image having higher image quality than the first image from the first image, wherein the obtaining unit obtains the first image, and the obtaining unit obtains the first image.
  • a storage processing unit configured to store the stored image of the first image in the storage unit; a storage image based on a position of a pixel of interest in the second image; First extracting means for extracting first pixel information from both of the first images obtained by the above; feature amount extracting means for extracting a predetermined feature amount from the first pixel information; Based on the features, Class classification means for classifying the pixel of interest into any of a plurality of classes; and based on both the accumulated image and the first image acquired by the acquisition means based on the position of the pixel of interest. Using a second clipping means for clipping the second pixel information, and the second pixel information described above, according to a generation method preset for the class classified by the class classification means, Generating means for generating a pixel of interest.
  • the present invention provides an image processing method of an image processing device for generating a second image having higher image quality than the first image from the first image, wherein the obtaining step obtains the first image;
  • a memory for storing the first image obtained in the processing of the obtaining step; and a position obtained by the processing of the obtaining step in a position corresponding to the first image stored in the processing of the storing step.
  • Storing the new first image so that the stored image of the first image is stored; and storing the stored image based on the position of the pixel of interest in the second image.
  • a first extracting step of extracting first pixel information from both the image and the first image acquired in the processing of the acquiring step; and extracting a predetermined feature amount from the first pixel information.
  • the recording medium according to the present invention is a program for an image processing apparatus that generates a second image having higher quality than the first image from the first image, and acquires the first image.
  • a first extraction step of extracting first pixel information from both of the first images acquired in the processing of the acquisition step, and a feature quantity of extracting a predetermined feature quantity from the first pixel information An extraction step; a class classification step of classifying the pixel of interest into one of a plurality of classes based on the feature amount; a stored image based on a position of the pixel of interest; A second extraction step of extracting second pixel information from both of the first images obtained in the processing, and a class classified in the processing of the classification step using the second pixel information.
  • a computer-readable program characterized by including a generation step for generating the pixel of interest according to a generation method set in advance corresponding to the class. .
  • the present invention relates to an image processing apparatus for learning predetermined data used to generate a second image having higher image quality than the first image from the first image, wherein the student corresponding to the first image Generating means for generating an image, storing means for storing the student image, and storing the new student image generated by the generating means at a position corresponding to the student image stored by the storing means.
  • the storage means stores the stored image of the student image in the storage means, and the stored image based on the position of the pixel of interest of the teacher image corresponding to the second image.
  • a first extracting unit that extracts first pixel information from both the student image generated by the generating unit; and a feature amount extracting unit that extracts a predetermined feature amount from the first pixel information.
  • a class classification unit that classifies the pixel of interest into one of a plurality of classes based on the amount; a stored image based on a position of the pixel of interest; and the first generated by the generation unit.
  • the present invention also relates to an image processing method of an image processing apparatus for learning a predetermined image used for generating a second image having higher image quality than the first image from the first image.
  • a first extracting step of extracting first pixel information from both the above-described accumulated image and the student image generated in the processing of the generating step based on the position of a pixel of interest of the teacher image corresponding to the image of
  • a second extraction step for extracting second pixel information from both the accumulated image and the first image generated in the generation step based on the position of the target pixel.
  • the recording medium is a program for an image processing apparatus for learning predetermined data used to generate a second image having higher quality than the first image from the first image.
  • FIG. 1 is a block diagram showing a configuration example of a conventional image processing apparatus.
  • FIG. 2 is a block diagram showing another configuration example of the conventional image processing apparatus.
  • FIGS. 3A, 3B, and 3C are diagrams showing the structure of the class tap in the image processing device of FIG.
  • FIGS. 4A, 4B, and 4C are diagrams illustrating the structure of a prediction knob in the image processing device of FIG.
  • FIG. 5 is a block diagram showing another configuration example of the conventional image processing apparatus.
  • FIG. 6 is a diagram illustrating a motion vector detection method in the image processing device of FIG.
  • FIG. 7 is a flowchart illustrating the evening arrangement determination processing in the image processing apparatus of FIG.
  • FIG. 8 is a diagram illustrating a search range.
  • FIG. 9 is a block diagram showing another configuration example of the conventional image processing apparatus.
  • FIG. 10 is a professional / successful diagram showing a configuration example of an image processing apparatus that generates an image in which the edge of a characteristic region is not blurred.
  • FIG. 11 is a block diagram showing a configuration example of a feature region extracting unit in the image processing device of FIG.
  • FIG. 12A and FIG. 12B are diagrams showing the level distribution of the characteristic region and other pixels.
  • FIG. 13 is a block diagram illustrating a configuration example of an image processing apparatus to which the present invention has been applied.
  • FIG. 14 is a block diagram illustrating a configuration example of a stored image generation unit in the image processing device of FIG.
  • FIG. 15 is a block diagram showing another configuration example of the stored image generation unit in the image processing device of FIG.
  • FIG. 16 is a block diagram showing another configuration example of the stored image generation unit in the image processing device of FIG.
  • FIG. 17 is a block diagram illustrating a configuration example of an area cutout unit in the image processing apparatus of FIG.
  • FIGS. 18A and 18B are diagrams showing the structure of a cluster group in the image processing device of FIG.
  • FIG. 19 is a project diagram showing a configuration example of a feature amount extraction unit in the image processing device of FIG.
  • FIG. 20 is a block diagram illustrating a configuration example of an area cutout unit in the image processing apparatus in FIG. 13.
  • FIG. 21 is a block diagram illustrating another configuration example of the image processing apparatus to which the present invention is applied.
  • FIG. 22 is a block diagram illustrating a configuration example of an area cutout unit in the image processing device in FIG. 21.
  • -FIG. 23 is a block diagram illustrating a configuration example of a feature amount extraction unit in the image processing apparatus in FIG.
  • FIG. 24 is a diagram showing a structure of a class tap in the image processing device of FIG. 21.
  • FIGS. 25A and 25B show a structure of a prediction pulse in the image processing device of FIG. 21.
  • FIG. 24 is a diagram showing a structure of a class tap in the image processing device of FIG. 21.
  • FIGS. 25A and 25B show a structure of a prediction pulse in the image processing device of FIG. 21.
  • FIGS. 26A and 26B show the characteristic region when generating a high-definition image from the input image by synthesizing the pixels of the characteristic region so that they are shifted by a predetermined phase.
  • FIG. 9 is a diagram illustrating another level distribution of pixels.
  • FIGS. 27A and 27B are diagrams showing another structure of the cluster group in the image processing apparatus of FIG. 21.
  • FIG. 28 is a diagram illustrating another structure of the predicted sunset in the image processing device in FIG. 21.
  • FIG. 29 is a flowchart showing a procedure of image processing executed in the image processing apparatus of FIG.
  • FIG. 30 is a block diagram illustrating a configuration example of an image processing apparatus that performs a learning process to which the present invention has been applied.
  • FIG. 31 is a professional diagram illustrating a configuration example of the student image generation unit in the image processing apparatus of FIG. FIG.
  • FIG. 32 is a block diagram showing another configuration example of the student image generation unit in the image processing device of FIG.
  • FIG. 33 is a block diagram illustrating another configuration example of the student image generation unit in the image processing device in FIG. 30.
  • FIG. 34A and FIG. 34B are diagrams illustrating blocks cut out by an area cut-out unit in the image processing apparatus of FIG.
  • FIG. 35 is a flowchart showing a procedure of a learning process performed in the image processing apparatus of FIG.
  • FIG. 36 is a flowchart showing a procedure of student image generation processing executed when the above-described configuration of FIG. 31 is employed as the student image generation unit in the image processing apparatus of FIG.
  • FIG. 37 is a flowchart showing a procedure of a student image generation process executed when the above-described configuration of FIG. 32 is employed as the student image generation unit in the image processing apparatus of FIG.
  • FIG. 38 is a flowchart showing a procedure of a student image generation process executed when the above-described configuration of FIG. 33 is employed as the student image generation unit in the image processing apparatus of FIG.
  • FIG. 39 is a flowchart showing a procedure of a student image generation process executed when the resolution of the teacher image is higher than the student image generated by the student image generation unit in the image processing apparatus of FIG. is there.
  • FIG. 40 is a flowchart illustrating a procedure of a stored image generation process performed when the configuration of FIG. 14 is employed as the stored image generation unit in the image processing apparatus of FIG.
  • FIG. 41 is a flowchart illustrating a procedure of a stored image generation process performed when the configuration of FIG. 15 is employed as the stored image generation unit in the image processing apparatus of FIG.
  • FIG. 42 is a flowchart showing a procedure of a stored image generation process executed when the configuration of FIG. 16 is employed as the stored image generation unit in the image processing apparatus of FIG. is there.
  • FIG. 43 is a flowchart showing a procedure of a stored image generation process executed when the resolution of the stored image is higher than that of the student image generated by the stored image generation unit in the image processing apparatus of FIG. It is.
  • FIGS. 44A and 44B are diagrams illustrating a reference image and a quadruple-density image in the motion vector detection process when an image (accumulated image) having a higher image quality than the input image (student image) is generated. .
  • FIG. 45 is a diagram showing the relationship between the reference block and the reference block.
  • FIGS. 46A and 46B are views for explaining the absolute value sum table.
  • FIG. 47 is a block diagram showing a configuration of a motion vector detection device that detects a motion vector between a reference image and a quadruple-density image in the vertical direction.
  • FIG. 48 is a block diagram illustrating a configuration example of a computer that functions as the above-described image processing apparatus.
  • BEST MODE FOR CARRYING OUT THE INVENTION will be described in detail with reference to the drawings.
  • FIG. 13 shows a configuration example of an image processing apparatus 100 to which the present invention is applied.
  • the image processing apparatus 1 0 0 at c its classification adaptive process for performing classification adaptive processing for noise reduction, the prediction coefficient calculated by the learning process described below is utilized.
  • the image processing apparatus 100 includes a stored image generating unit 102 to which an input image including noise is supplied, an area extracting unit 104, and an area extracting unit 107.
  • the accumulated image generation unit 102 executes a process of effectively reducing noise included in a still portion of the input image, or executes a process of extracting a characteristic region.
  • FIG. 17 shows a configuration example of the stored image generation unit 102 in the case of reducing noise in a stationary portion.
  • the noisy student image is supplied to the amplifier 13 1.
  • the amplifier 1 3 1 calculates the value obtained by subtracting the weight value q (0 ⁇ q ⁇ 1) from the value 1,
  • the supplied student image signal is amplified and supplied to the adder 132.
  • the stored image generated by the stored image generation unit 102 immediately before (the stored image one frame earlier than the supplied student image) Is supplied to the amplifiers 1 3 3.
  • the amplifier 133 amplifies the signal of the accumulated image using the weighting value q as an amplification factor, and supplies the amplified image signal to the adder 1332.
  • the adder 1332 adds the output from the amplifier 1331 and the output from the amplifier 1333, and supplies the sum to the accumulated image memory 103.
  • weighting addition based on the weighting value q is performed on the input image and the stored image one frame before. For example, if the value q is 0.8, a stored image is generated by adding the input image by 20% and the stored image by 80%. In this manner, the input image and the accumulated image of one frame before are added at a predetermined ratio, so that noise in a stationary portion is effectively reduced. Also, since a plurality of images are accumulated and added together in the accumulated image at a certain ratio, the noise in the stationary portion is more effectively reduced as compared with the conventional image processing apparatus 10 shown in FIG. 1 described above. You.
  • the stored image that is first weighted and added to the input image can be the input image originally stored in the stored image memory 103, or can be obtained by averaging a plurality of input images. Image.
  • FIG. 15 shows another configuration example of the accumulated image generation unit 102 in the case of reducing noise in a stationary portion.
  • the motion detecting unit 141 is further provided in the stored image generating unit 102 of FIG.
  • the motion detecting unit 14 1 includes a subtractor 14 2 to a threshold judging unit 1 having the same functions as those of the subtractor 11 to the threshold judging unit 13 included in the image processing apparatus 10 shown in FIG. It consists of 4 4. That is, in the accumulated image generation unit 102, the input image and the accumulated image are weighted and added based on the weight value q corresponding to the motion of the input image. Note that, instead of the motion of the image, the weighting value q can be set based on the difference between the luminance of the input image and the luminance of the accumulated image.
  • FIG. 16 shows a configuration example of the stored image generation unit 102 when extracting a characteristic region.
  • the input image is supplied to the delay circuit 151 and the moving vector detection circuit 1555.
  • the delay circuit 151 delays the supplied input image by the time required for processing in a later-described synthesizing circuit 152 to a phase shift circuit 1556, and supplies the input image to the synthesizing circuit 152.
  • the synthesizing circuit 152 the input image and the corresponding image are synthesized.
  • the synthesizing circuit 152 is stored in the input memory supplied from the delay circuit 151 and the phase-shifted supplied memory 153 supplied from the phase shift circuit 156.
  • the stored image is synthesized, and the synthesized image is supplied to the storage memory 153.
  • the storage memory 153 accumulates the image supplied from the synthesizing circuit 152 to generate a stored image, and supplies it to the extraction circuit 154 and the phase shift circuit 156.
  • the extraction circuit 154 extracts a feature area from the stored image supplied from the storage memory 153, and supplies the extracted characteristic area to the motion vector detection circuit 155.
  • the level distribution of the feature area on the stored image is the same as that of the input image, the level distribution of the pixel values of the pixels constituting the image other than the feature area is flattened.
  • the feature area can be extracted with high accuracy.
  • the motion vector detection circuit 155 receives the input image, the image data of the feature area from the extraction circuit 154 and the display position.
  • the motion vector detection circuit 155 detects a motion vector between the feature region from the extraction circuit 154 and the feature region in the input image, and outputs the detection result to the phase shift circuit 156. Supply.
  • the phase shift circuit 156 shifts the phase of the stored image from the storage memory 153 based on the motion vector from the motion vector circuit 155, and supplies it to the synthesizing circuit 152.
  • the accumulated image generation unit 102 stores the input image in the accumulated image so that the characteristic region of the accumulated image and the characteristic region of the input image maintain a predetermined phase relationship. Is extracted.
  • the pixel density of the feature region generated here can be higher than that of the input image, or can be the same. However, the pixels in the feature area It is necessary to secure the capacity of the storage memory 153 according to the density.
  • the stored image generating unit 102 having the above configuration supplies the generated (extracted) noise-reduced image and the characteristic region to the stored image memory 103 as a stored image.
  • the accumulated image generation unit 191 performs weighted addition on the input image and the accumulated image based on the weight value q to reduce noise in a stationary portion or extract a characteristic region ⁇ noise in a stationary portion
  • the image and the characteristic region in which the image has been reduced are supplied to the stored image memory 192 as a stored image.
  • the stored image memory 1992 stores the stored image from the stored image generation unit 191, and supplies the stored image to the region cutout unit 193 and the region cutout unit 197 as appropriate.
  • the area cutout unit 104 cuts out a class map from the input image, cuts out a program from each of the input image and the stored image, and uses the cut-out class map and block as pixel information as a feature amount extraction unit 1. 0 to 5
  • FIG. 17 shows a configuration example of the region cutout unit 104.
  • the input image is supplied to a frame memory 161-1 and a delay circuit 1664, and the stored image from the stored image memory 103 is input to a block extracting section. Supplied to 1 6 6
  • the frame memory 16 1-1 delays the student image by one frame, and then delays it by the frame memory 16 1-2, the sunset arrangement determination unit 16 2, and the class sunset extraction unit 16. Supply to 3.
  • the frame memory 161-2 delays the image from the frame memory 161-1 by one frame, and delays the image by the frame memory 161-3, the sunset arrangement determination unit 162 and It is supplied to the cluster cutout section 16 3.
  • the frame memory 16 1-3 delays the image from the frame memory 16 1-2 by one frame, and delays the image by the frame memory 16 1-4, the evening arrangement determining unit 16 2 and It is supplied to the cluster cutout section 16 3.
  • the frame memory 1 6 1-4 delays the image from the frame memory 1 6 1-3 by one frame, and the frame memory 16 1-5, the type arrangement determination unit 16 2 and the class tap It is supplied to the cutout section 1 63.
  • the frame memory 16 1-5 delays the image from the frame memory 16 1-4 by one frame, and outputs the delayed image to the sunset arrangement determining unit 16 2 and the cluster cutting unit 16 3 To supply.
  • the sunset arrangement determining unit 162 determines the arrangement position of the class sunset based on the image data of the frame supplied from the frame memories 161-1-1 to 161-5, and determines the position. The result is supplied to the cluster group cutout unit 163. Note that the tap arrangement determining process performed by the tap arrangement determining unit 162 is the same as that of the tap arrangement determining unit 31 shown in FIG. 5 described above, and a description thereof will be omitted.
  • the stored image from the stored image memory 103 is supplied to the class-map extracting unit 163.
  • the class pixel extraction section 163 shows the target pixel on the frame (black circle in the figure) and the target pixel and the position from the tap arrangement determination section 162.
  • a pixel on the accumulated image at the same position as the target pixel on the frame Fn is set as the target pixel, and the target pixel is also cut out as a class evening.
  • FIG. 18B shows the stored images supplied from the stored image memory 103 to the cluster cutout unit 163.
  • the cluster group extraction unit 163 outputs the class map extracted from the input image to the feature amount extraction unit 105.
  • the feature amount extraction unit 105 is configured as shown in FIG.
  • the class map clipped from the input image by the region clipping unit 104 is supplied to the DR analysis unit 171 and the waveform analysis unit 172. Further, the cluster group cut out from the accumulated image by the region cutout unit 104 is supplied to the waveform analysis unit 1772.
  • the DR analysis unit 171 calculates the dynamic range of the pixel values of the pixels constituting the supplied class map, converts the value into a binary number, and supplies it to the class code generation unit 106.
  • the waveform analyzers 1 and 2 simultaneously analyze the waveform of the class tap cut out from the input image and the class tap cut out from the stored image. For example, in the case of a still image without noise, pixel values cannot change between frames for the same pixel. Also, in the case of moving images, degradation such as blurring can be seen in a fast motion, but basically there is no temporal change in the same pixel. That is, when there is a change in the value of the same pixel, the change can be regarded as noise. That is, by performing waveform analysis on the cluster map from the student image and the cluster map from the accumulated image, it is possible to detect noise contained therein.
  • the target pixel is a motion
  • there is a luminance difference between the accumulated image and the input image and as a result of the ADRC process, the values of both pixels are different.
  • the values of the two pixels are (0, 1) or (1, 0).
  • the luminance difference is small, and as a result of ADRC processing, both pixel values are likely to be the same.
  • the values of two pixels Becomes (0, 0) or (1, 1).
  • the feature extraction unit 105 makes use of such a principle to make a static / dynamic judgment by waveform analysis, and obtains the dynamic range and waveform analysis results from the class taps from the region extraction unit 104. Further, information indicating whether the target pixel is still or moving is extracted from the block from the region extracting unit 107 as a feature amount necessary for class classification, and a class code generating unit is provided. Feed to 106.
  • the class code generation unit 106 generates a class code based on the feature amount supplied from the feature amount extraction unit 105, and supplies the generated class code to the ROM table 108.
  • the ROM table 108 stores, for each class, a set of prediction coefficients calculated by a learning process to be described later, and from the stored set of prediction coefficients, a class code generation unit 106 from the class code generation unit 106. The one corresponding to the class code is output to the estimation operation 109.
  • the region cutout unit 107 cuts out prediction taps from the input image and the stored image, and supplies the prediction taps to the estimation calculation unit 109.
  • FIG. 20 shows a configuration example of the region cutout section 10 #.
  • the input image is supplied to the frame memory 181-1-1, and the stored image from the stored image memory 103 is supplied to the prediction tap extracting section 183.
  • the frame memories 181-1 through 181-5 operate basically in the same manner as the frame memories 161-1_1 through 161-5 in FIG. 17, and therefore description thereof is omitted.
  • the tap arrangement determining unit 182 determines the arrangement position of the prediction type based on the image data of the frame supplied from the frame memories 181-1 to 181-5, and predicts tap extraction based on the determination result. Supply to part 183.
  • the tap arrangement determining process performed by the tap arrangement determining unit 182 is the same as that performed by the tab arrangement determining unit 31 in FIG. 5, and a description thereof will be omitted.
  • the prediction type extraction unit 183 sets a pixel on the frame supplied from the frame memory 18 1-3 as a pixel of interest, and sets a frame having a positional relationship based on the pixel of interest and the positional information from the tap arrangement determination unit 182.
  • Frame Fn-2 from 1 8 1—1, Frame Fn-1 from Frame 1 8 1—2, Frame Fn + 1 from Frame 18 1—4: Fn + 1 and Frame Fn + 2 from Frame 1 8 1—5
  • the upper pixel is cut out as a prediction type and output to the normal equation adding unit 108.
  • the prediction tap clipping unit 183 also sets a pixel on the stored image at the same position as the pixel of interest on the frame Fn as a pixel of interest, and also cuts out a pixel on the stored image having a predetermined positional relationship with the pixel of interest as a prediction pixel. .
  • the estimation calculation unit 109 calculates, for example, Expression (1) using the prediction coefficient set from the ROM table 108 and pixel data based on the pixel information from the region extraction unit 197, and calculates the calculation result as the calculation result. Generate pixel values y of the output image sequentially.
  • the estimating calculation unit 109 calculates, for example, a linear value defined by a linear combination of the pixel value ⁇ ⁇ 5 ⁇ , X ⁇ of the extracted pixel and the prediction coefficient Wi, ⁇ , w n. Equation (1), which is the next combined model, is calculated, and the pixel value of the output image is calculated.
  • FIG. 21 shows a configuration example of an image processing device 190 to which the present invention is applied.
  • This image processing device 190 performs noise reduction processing and characteristic area edge correction processing by class classification adaptive processing.
  • classification adaptive processing a prediction coefficient calculated by a learning processing described later is used.
  • the input image including noise or the feature region is etched.
  • the blurred input image is supplied to the accumulated image generation unit 191, the region cutout unit 1993, and the region cutout unit 197, respectively.
  • the accumulated image generation unit 1911 has the same configuration as the accumulated image generation unit 102 of the image processing apparatus 100 shown in FIG. 13, and assigns a weight value to the input image and the accumulated image. Perform weighted addition based on q to reduce noise in stationary parts and extract feature regions. The image or the characteristic region in which the noise in the stationary portion has been reduced is supplied to the stored image memory 192 as a stored image.
  • the stored image memory 1992 stores the stored image from the stored image generation unit 191, and supplies the stored image to the region cutout unit 193 and the region cutout unit 197 as appropriate.
  • the area cutout unit 1993 cuts out class taps from the input image, cuts out a program from each of the input image and the accumulated image, and supplies the cutout class taps and blocks to the feature amount extraction unit 1994 as pixel information. I do.
  • FIG. 22 shows an example of the configuration of the region cutout section 1993.
  • an input image is supplied to a frame memory 161-1 and a delay circuit 1664, and the stored image from the stored image memory 1992 is output to a block extracting section. Supplied to 1 6 6
  • the frame memory 161-1-1 delays the student image by one frame, and the frame memory 161-1-2, the sunset arrangement determination unit 162, and the class sunset extraction unit 16 Supply to 3.
  • the frame memory 161-2 delays the image from the frame memory 161-1 by one frame, and delays the image by the frame memory 161-3, the sunset arrangement determination unit 162 and Supplied to the cut-out section 16 3 of the class.
  • the frame memory 16 1-3 delays the image from the frame memory 16 1-2 by one frame, and delays the image by the frame memory 16 1-4, the sunset arrangement determining unit 16 2 and It is supplied to the cluster cut-out section 16 3.
  • the frame memory 16 1-4 delays the image from the frame memory 16 1-3 by one frame, and delays the image by the frame memory 16 1-5, the sunset arrangement determining unit 16 2 and Supplied to the cut-out section 16 3 of the class.
  • Frame memory 16 1-5 stores the image from frame memory 16 1-4 in one frame. While delaying by the frame, it is supplied to the tap arrangement determining unit 162 and the cluster group extracting unit 163.
  • the type layout determining unit 162 determines the layout position of the class map based on the image data of the frames supplied from the frame memories 161-1 to 165-1, and determines the determination result. Supply to the class tap cutout section 16 3.
  • the tap arrangement determining process performed by the tap arrangement determining unit 162 is the same as the case of the tap arrangement determining unit 31 shown in FIG. 5 described above, and a description thereof will be omitted.
  • the cluster section extraction unit 16 3 sets the pixel on the frame F n supplied from the frame memory 16 1-3 as the pixel of interest, and the position of the pixel of interest and the position of the pixel and the pixel from the sub-map arrangement unit 16 2
  • Frame Fn-2 from frame 16 1—1 (frame two frames before frame F n)
  • frame F n-1 from frame 16 1—2 (from frame Frame one frame before)
  • frame F n + 1 from frame 1 6 1-4 (frame one frame after frame F n) and frame from frame 1 6 1-5:
  • F n + 2 frame
  • the upper pixel is extracted as a cluster group and output to the feature amount extraction unit 105.
  • each tap can be switched for each pixel, and the position of the sunset can be changed according to the motion vector. Can be cut out.
  • the delay circuit 16 4 is provided with a frame memory 16 5 corresponding to the timing at which the image stored therein is supplied from the frame memory 16 1-3 to the class dropout section 16 3. Then, the supplied student image is delayed so that the image held there is supplied to the block extracting section 166.
  • the stored image is input from the stored image memory 192 together with the image from the frame memory 165 to the work extraction unit 166.
  • the block extracting unit 166 extracts, for example, a block composed of 8 ⁇ 8 pixels at the same position from the input image and the stored image, and supplies the block to the feature amount extracting unit 194.
  • the region cutout unit 1993 cuts out class taps from the input image, cuts out blocks from each of the input image and the stored image, and uses the cutout class taps and blocks as pixel information as a feature amount extraction unit.
  • Supply 1 94 the feature amount extracting unit 194 extracts a predetermined feature amount from the pixel information (class map and block) supplied from the region extracting unit 193, and supplies the extracted feature amount to the class code generating unit 195. I do.
  • FIG. 22 shows an example of the configuration of the feature amount extraction section 1994.
  • the class taps cut out by the class tap cutout unit 163 of the region cutout unit 1993 are supplied to the DR analysis unit 1 ⁇ 1 and the waveform analysis unit 172.
  • the block cut out by the block cut-out section 1666 of the area cut-out section 1997 is supplied to the static / movement judging section 1733.
  • the DR analysis unit 171 calculates the dynamic range of the pixel values of the pixels constituting the supplied class map, converts the value to a binary number, and supplies the binary value to the class code generation unit 106.
  • the waveform analysis unit 172 analyzes the waveform based on the pixel values of the pixels constituting the supplied class map, for example, by performing a 1-bit ADRC process, and analyzes the analysis result as a bead. Is supplied to the class code generator 195.
  • Y [in (x, y)] represents the luminance value of the pixel on the block of the student image specified by the coordinates (x, y), and Y [tmp (x, y)] Indicates the luminance value of the pixel of the block of the stored image specified by the coordinates (x, y).
  • the still / movement determining unit 1733 determines whether the calculated difference value is larger than a predetermined threshold value, and determines whether the target pixel is stationary or moving based on the determination result. judge. If it is determined that the calculated difference value is larger than the predetermined threshold value, it is determined that the pixel of interest is a motion, and the static / movement determining unit 173 sets information indicating the fact, for example, a value 0 to the class code generating unit 19. Output to 5. On the other hand, if it is determined that the calculated difference value is smaller than the threshold value, it is determined that the target pixel is stationary, and the static / moving determining unit 173 sets information indicating that, for example, a value 1 to the class code generating unit. Output to 1 95.
  • the feature quantity extraction unit 1994 pays attention to the dynamic range and the waveform analysis result from the class tap from the region extraction unit 1993, and also from the block from the region extraction unit 1997.
  • Information indicating whether the pixel is stationary or moving is extracted as a feature amount necessary for classifying the pixel to be generated, and is supplied to the class code generator 195.
  • the movement of the pixel of interest is set as the feature amount.
  • the brightness difference between the block of the student image and the block of the stored image may be set as the feature amount.
  • both the motion of the target pixel and the luminance difference can be used as the feature amount.
  • the class code generator 195 generates a class code based on the feature supplied from the feature extractor 194, and supplies the generated class code to the ROM table 196.
  • the ROM table 196 stores a prediction coefficient set calculated by the above-described learning process for each class, and from among the stored prediction coefficient sets, a class code generation unit 195 outputs the prediction coefficient set. The one corresponding to the class code is output to the estimation operation unit 198.
  • the region cutout unit 197 has the same configuration as the region cutout unit 107 of the image processing apparatus 100 shown in FIG. 13, that is, the configuration shown in FIG. 20. From the stored image, a predicted pixel is cut out and supplied to the estimating operation unit 198.
  • the estimation calculation unit 198 calculates, for example, the above equation (1) using the prediction coefficient set from the ROM table 196 and the pixel data based on the pixel information from the region extraction unit 197.
  • the pixel values y of the output image are sequentially generated as the operation result.
  • the input image including noise is supplied to the accumulated image generation unit 191, the region cutout unit 1993, and the region cutout unit 197.
  • the stored image generation unit 1911 has the same configuration as the stored image generation unit 102 of the image processing apparatus 100, that is, the configuration shown in FIG. 14 or FIG. That is, the stored image generation unit 1991 generates a stored image by effectively reducing noise in a stationary portion.
  • the generated accumulated image is supplied to the accumulated image memory 192, and the It is stored here.
  • the region cutout unit 1993 cuts out class taps from the input image, cuts out blocks from the input image and the accumulated image, and supplies them to the feature amount extraction unit 1994.
  • the target pixel on the frame F n black circle in the figure
  • the feature quantity extraction unit 1994 calculates the dynamic range of the pixel values of the pixels constituting the class map based on the class taps from the region extraction unit 1993, and calculates the 1-bit ADRC In addition to performing the waveform analysis by the processing, the still / moving judgment of the target pixel is performed based on the procedure from the region cut-out section 1993.
  • the feature quantity extraction unit 194 supplies the dynamic range, the waveform analysis result, and the static / dynamic determination result to the class code generation unit 195.
  • the class code generator 195 generates a class code based on the data from the feature quantity extractor 194 and supplies the generated class code to the ROM table 196.
  • the RQM table 196 calculates the prediction coefficient set corresponding to the class code from the class code generation section 195 from among the prediction coefficient sets for reducing noise stored for each class. Output to 9-8.
  • the region cutout unit 197 cuts out prediction taps from the input image and the stored image, and supplies the prediction taps to the estimation operation unit 198.
  • the frame; the pixel of interest on Fn (black circle in the figure), and the frame having a positional relationship based on the pixel of interest and the positional information from the tap arrangement determination unit Fn-1 to Fn + 2 pixels (circled circles in the figure) are extracted as prediction pixels from each of the 13 pixels.
  • a pixel on the accumulated image at the same position as the target pixel on frame Fn is set as a target pixel (in the figure, a black circle), and the target pixel and a predetermined Pixels on the stored image that have a positional relationship (the shaded circles in the figure) are also cut out as prediction taps.
  • the estimation operation unit 198 uses the prediction coefficient set from the ROM table 196, the source, and the pixel data of the prediction tap based on the pixel information from the region extraction unit 197, for example, by using the above equation. (1) is calculated, and pixel values y of the output image are sequentially generated.
  • the page of the characteristic region is corrected. That is, as shown in FIG. 26A, the accumulated image generation unit 1991 synthesizes the input image and the accumulated image such that the phases of the pixels in the characteristic region are shifted by a predetermined phase. Then, the characteristic region as the stored image is extracted. As a result, the stored image becomes a high-definition image having the same pixel density of the finally generated image as shown in FIG. 26B.
  • the operation of the region cutout unit 1993 is basically the same as that for reducing noise, so a detailed description thereof is omitted, but the class map in this example is shown in FIG. It shall have the configuration shown in
  • the image processing apparatus 190 having such a configuration performs image processing according to the procedure of the flowchart shown in FIG.
  • the image processing apparatus 190 first obtains an input image in step S111.
  • the stored image generation unit 191 generates a still image from the input image.
  • the characteristic region in which the noise of the part is reduced is extracted and stored as a stored image in the stored image memory 1992.
  • the area cutout section 1993 cuts out the class map from the input image and cuts out the blocks from the input image and the stored image.
  • a predetermined amount of feature is extracted from the input image and the input image by the feature amount extraction unit 194 based on the cluster group and the block extracted by the area extraction unit 193.
  • a class code is generated by the class code generator 195 based on the feature extracted by the feature extractor 194.
  • a prediction coefficient set corresponding to the class code generated by the class code generation section 195 is output from the ROM table 196.
  • the estimation calculation unit 198 uses the prediction coefficient set from the ROM table 196 and the pixel data of the prediction tap based on the pixel information from the region extraction unit 197. Perform a prediction operation.
  • next step S118 the pixel values of the output image predicted and calculated by the estimation calculation section 198 are sequentially output.
  • FIG. 30 shows a configuration example of an image processing apparatus 300 to which the present invention is applied.
  • This image processing apparatus 300 is the same as the image processing apparatuses 100 and 190 described above. A learning process is performed to find the prediction coefficients used in the image generation process.
  • an image to be a teacher image in learning for example, an image that does not include noise or an image in which the page of the characteristic region is not blurred is converted into a student image generation unit 301 and a normal equation. It is supplied to the adder 308.
  • the student image generation unit 301 generates a student image corresponding to an input image in the image generation processing by performing a predetermined process on the teacher image. For example, in the teacher image By adding noise, generate student images for calculating prediction coefficients in the process of generating images with reduced noise, or reduce the resolution of teacher images, for example, to reduce the number of pixels. Accordingly, it is possible to generate a student image for calculating a prediction coefficient in a process of generating an image in which the edge of the characteristic region is not blurred.
  • the student image generation unit 301 can generate random noise and add it to the teacher image, or have a configuration as shown in FIGS. 31 to 33.
  • noise can be added to the teacher image.
  • the RF modulator 321 subjects the teacher image to RF modulation, and supplies the teacher image to the audio player 3222.
  • the filter 322 performs attenuation processing on the output of the RF modulator 321 and outputs the result to the RF demodulator 323.
  • the demodulator 322 demodulates the output of Athens 322 by RF demodulation to generate an image with noise added to the teacher image.
  • an image having a uniform background is supplied to the RF modulator 321 and the subtractor 3224.
  • the processing of the RF modulators 32 1 to 32 3 is the same as that in the case of FIG. 32, and a detailed description thereof will be omitted.
  • the output of the RF demodulator 322 is supplied to the subtractor 324.
  • the subtractor 3 2 4 calculates the difference between the image having the same background and the output of the RF demodulator 3 2 3, and outputs the result to the adder 3 2 5 t
  • the adder 3 2 5 outputs the subtractor 3 2 4 Is added to the teacher image to generate an image with noise added to the teacher image.
  • an image having a uniform background is supplied to the RF modulator 3221. Since the processing of the RF modulators 3 2 1 to 3 2 3 is the same as that of FIG. 31, the detailed description is omitted, but the output of the RF demodulator 3 2 3 24 and the frame adder circuit 3 26 are supplied.
  • the frame addition circuit 3 2 6 generates an image from which noise is removed from the output of the RF demodulator 3 2 3 by adding the frames supplied from the RF demodulator 3 2 3, and supplies the image to the subtractor 3 2 4 I do.
  • the processing of the subtractor 324 and the adder 325 is the same as in the case of FIG.
  • the accumulated image generation unit 302 The configuration similar to that of the accumulated image generation units 102 and 191 of the image processing device 100 shown in FIG. 13 and the image processing device 190 shown in FIG. 21, that is, FIG. 14 to FIG. The configuration shown is used. Then, in the stored image generation unit 302, weight addition based on the weight value q is performed on the student image and the stored image one frame before. For example, if the value q is 0.8, a stored image is generated by adding the student image by 20% and the stored image by 80%. As described above, the student image and the accumulated image one frame before are added at a predetermined ratio, so that the noise in the stationary part is effectively reduced. In addition, since a plurality of images are accumulated and added together at a certain ratio in the accumulated images, noise in a stationary portion is more effectively reduced.
  • the stored image generation unit 302 supplies the generated (extracted) image with reduced noise and the characteristic region to the storage image memory 303 as a stored image.
  • the storage image memory 303 stores the image from the storage image generation unit 302 and supplies the storage image to the region extraction unit 304 and the region extraction unit 307 as appropriate.
  • the area extracting unit 304 extracts pixel information necessary for class classification from the student image from the student image generating unit 301 and the stored image from the stored image memory 303, and extracts the feature amount.
  • Supply 5 As the area cutout section 304, the same configuration as the area cutout section 193 in the image processing apparatus 190 described above, that is, the configuration shown in FIG. 22 is used.
  • This area cutout section 304 cuts out class taps from the student image, and as shown in FIG. 34A and FIG. 34B, extracts the class tap at the same position from the student image and the stored image. Cut out a block of pixels and cut out the cluster. The block and the block are supplied to the feature amount extraction unit 305 as pixel information.
  • the feature quantity extraction unit 304 determines the dynamic range and the waveform analysis result from the class tap from the region extraction unit 304, and determines whether or not the pixel of interest is still from the block from the region extraction unit 304. Information indicating whether the motion is a motion is extracted as a feature amount necessary for classifying a pixel to be generated, and is supplied to a class code generation unit 303.
  • the feature amount extraction unit 3005 the same configuration as the feature amount extraction unit 105 in the image processing apparatus 100 described above, that is, the configuration shown in FIG. 23 is used.
  • the movement of the pixel of interest is used as the feature amount.
  • the brightness difference between the block of the student image and the block of the stored image may be used as the feature amount (1).
  • the luminance difference between pixels may be used).
  • both the motion of the target pixel and the luminance difference can be used as the feature amount.
  • the class code generating section 303 generates a class code based on the feature amount from the feature amount extracting section 305, and supplies the generated class code to the normal equation adding section 308.
  • the area cutout unit 307 cuts out pixel information necessary for prediction from the student image from the student image generation unit 301 and the stored image from the stored image memory 303, respectively. 0 to 8
  • As the area cutout section 307 the same configuration as that of the area cutout section 107 in the image processing apparatus 100 described above, that is, the configuration shown in FIG. 20 is used.
  • the normal equation addition unit 308 generates a normal equation that solves the prediction coefficient based on the class code from the class code generation unit 306, the teacher image, and the prediction tap from the region extraction unit 307. Data required for solving is calculated, and the calculation result is output to the prediction coefficient determination unit 309.
  • the prediction coefficient determination unit 309 determines a prediction coefficient for each class by performing a predetermined operation using the calculation result from the normal equation addition unit 308, and supplies the prediction coefficient to the memory 310. I do.
  • the memory 310 stores it.
  • an input image an input image including noise or an input image in which the edge of a characteristic region is blurred
  • an accumulated image an accumulated image in which noise in a still portion is reduced or an extracted image is extracted.
  • W n for example, the above equation (1), which is a linear first-order combination model defined by a linear combination, is calculated to calculate the pixel value of the output image.
  • the pixel value of the output image can be calculated by calculating a high-order expression or a non-linear expression in addition to a linear expression such as Expression (1).
  • Equation (1) can be expressed as in equation (3).
  • Equation (6) can be expressed as a determinant generally called a normal equation, as shown in equation (9).
  • the student data X 31 means the j-th student data set in the i-th set of student data (the i-th set of student data used for estimating the teacher data yi). I do.
  • the normal equation addition unit 308 calculates Expressions (7) and (8) based on the supplied student image, accumulated image, and teacher image, and calculates the pixel value of the pixel of the student image or the accumulated image from the pixel value. Then, the teacher data yi of the pixel values of the student data and the teacher image are calculated.
  • the prediction coefficient determination unit 309 solves the normal equation of Expression (9) according to a general matrix solution method such as a sweeping method, and calculates a prediction coefficient w.
  • the image processing apparatus 300 having such a configuration performs image processing according to the procedure of the flowchart shown in FIG.
  • the image processing apparatus 300 first acquires a teacher image in step S122.
  • the student image generation unit 301 applies a predetermined process to the teacher image acquired in step S122, thereby obtaining a student image corresponding to the input image in the image generation process. Generate an image.
  • the accumulated image generation unit 302 extracts a feature area in which the noise of the stationary portion is reduced from the student image by weighting and adding the student image and the accumulated image one frame before. Then, the stored image is stored in the stored image memory 303 as a stored image.
  • the region extraction unit 304 extracts a cluster map from the student image generated by the student image generation unit 301 as pixel information necessary for class classification.
  • a block consisting of a plurality of pixels at the same position is cut out from the image and the stored image.
  • the feature amount extraction unit 300 5 classifies the generated pixels into classes.
  • a feature quantity necessary for the classification a dynamic range and a waveform analysis result are obtained from the cluster extracted by the region extraction unit 304, and the pixel of interest is stopped from the block extracted by the region extraction unit 304. Or information indicating whether it is a motion.
  • a class code is generated by the class code generator 306 on the basis of the feature extracted by the feature extractor 305.
  • the normal equation adding unit 308 uses the class code from the class code generation unit 306, the prediction image from the teacher image and the region extraction unit 307, Based on this, the data required to solve the normal equation using the prediction coefficients is calculated.
  • the prediction coefficient determination unit 309 determines a prediction coefficient for each class by performing a predetermined operation using the calculation result from the normal equation adding unit 308. .
  • the prediction coefficient for each class calculated by the prediction coefficient determination unit 309 is stored in the memory 310.
  • step S130 the image processing apparatus 300 determines whether or not processing has been performed for all image data, and when there is an image data to be processed, Returning to step S121, the processing from step S121 to step S130 is repeated, all the image data are processed, and the learning processing ends.
  • the generation process of the student image in the above step S122 is performed according to the procedure of the flowchart shown in FIG. Will be
  • step S131 the student image generation unit 301 directly adds noise to the teacher image by the attenuator 3222.
  • step S132 the teacher image to which noise has been added in the processing of step S131 is output as a student image.
  • step S133 it is determined whether or not all image data for one field has been processed, and if there is image data to be processed, the above-mentioned step S133 Return to step S131, and repeat the processing of step S1333. Then, all the image data are processed, and the student image generation processing ends.
  • step S122 When the configuration of FIG. 32 described above is adopted as the student image generation unit 301, the process of generating a student image in step S122 is performed according to the procedure of the flowchart shown in FIG.
  • the student image generation unit 301 adds noise to the image having a uniform background by the artist 3222 in step S141.
  • the subtractor 3 24 subtracts the image with the original background from the image with the uniform background to which noise has been added in the processing of the step S 11, and Extract only the noise component from the garage.
  • step S144 the noise extracted in the processing in step S142 is added to the teacher image by the adder 325.
  • step S144 the teacher image to which noise has been added in the processing in step S13 is output as a student image.
  • step S15 it is determined whether or not processing has been performed for all image data for one field, and if there is an image data to be processed, the above-described step S14 is performed. Returning to step 1, the processing from step S141 to step S145 is repeated, all the image data are processed, and the student image generation processing ends.
  • step S122 is performed according to the procedure of the flowchart shown in FIG.
  • the student image generating unit 301 adds noise to the image having a uniform background in the step S221 in step S151.
  • step S152 an image from which noise has been removed is generated by adding a frame to the image with a uniform background to which noise has been added in the processing of step S11 above using the frame addition circuit 326.
  • the subtractor 324 removes noise from the image with a uniform background to which noise has been added in the above-described step S151 by the above-described step S151. By subtracting the obtained image, only the noise component caused by the attenuator 3222 is extracted.
  • the noise extracted in the processing in step S153 is added to the teacher image by the adder 325.
  • step S155 the teacher image to which noise has been added in the processing in step S153 is output as a student image.
  • step S 156 it is determined whether or not processing has been performed for all image data for one field, and if there is image data to be processed, the flow returns to step S 515 above. The processing from step S151 to step S156 is repeated, all the image data are processed, and the student image generation processing ends.
  • step S122 if the resolution of the teacher image is higher than that of the generated student image, the generation of the student image is performed according to the procedure of the flowchart shown in FIG. Do.
  • step S1661 the teacher image is subjected to a process of lowering the resolution by a puling or fill process.
  • step S 162 the teacher image whose resolution has been reduced in the process of step S 161 is output as a student image.
  • step S1663 it is determined whether or not processing has been performed for all image data for one field, and if there is image data to be processed, the process returns to step S1661, and returns to step S166.
  • the processing from step 1 to step S 16 3 is repeated, and all the image data is processed to complete the student image generation processing.
  • step S123 When the configuration of FIG. 14 described above is employed as the stored image generation unit 302, the generation processing of the stored image in step S123 is performed according to the procedure of the flowchart shown in FIG.
  • step S171 the stored image generation unit 302 obtains the stored image at the time of the previous field from the stored image memory 303.
  • step S 172 the accumulated image in the previous field is multiplied by a weight value q, and the student image is multiplied by a weight value 1 ⁇ q.
  • step S173 the accumulated image at the previous field multiplied by the weighting value (q, 1-q) in step S172 and the student image are added and synthesized to form a new accumulated image.
  • step S174 the new accumulated image synthesized in step S173 is output.
  • step S175 it is determined whether or not processing has been performed for all image data for one field. If there is image data to be processed, the process returns to step S171, and step S177 is performed. The processing from step 1 to step S175 is repeated to process all the image data, and the generation processing of the stored image is completed.
  • step S181 the stored image generation unit 302 acquires the stored image in the previous field from the stored image memory 303.
  • the motion detection unit 141 determines the difference between the pixels at the same position to determine whether the motion is still or not.
  • a weight value q is determined based on the difference value of the pixel at the same position calculated in step S182.
  • step S 184 the accumulated image in the previous field is multiplied by a weight value q, and the student image is multiplied by a weight value 1 ⁇ q.
  • step S185 the accumulated image at the previous field multiplied by the weight value (q, 1-q) in step S184 and the student image are added and synthesized to form a new accumulated image.
  • step S186 the new accumulated image synthesized in step S185 is output.
  • next step S187 it is determined whether or not processing has been performed for all image data for one field. If there is image data to be processed, the process returns to step S181, and step S181 is performed. The processing from Step S181 to Step S187 is repeated, all the image data are processed, and the generation processing of the stored image is completed.
  • step S123 When the configuration of FIG. 16 described above is adopted as the stored image generation unit 302, the generation process of the stored image in step S123 is performed according to the procedure of the flowchart shown in FIG. That is, in step S191, the stored image generation unit 3 ⁇ 2 acquires the stored image in the previous field from the stored image memory 303.
  • a feature area is extracted by the extraction circuit 154 from the stored image supplied from the storage memory 153.
  • the same-density motion vector is detected based on the feature region extracted in step S192. That is, the motion vector detection circuit 155 detects a motion vector motion vector between the feature region from the extraction circuit 154 and the feature region in the student image.
  • step S 194 the phase of the stored image from the storage memory 153 is shifted by the phase shift circuit 15 based on the motion vector detected in step S 193, and the student image And position.
  • step S 195 the stored image and the student image that have been aligned in step S 194 are added and synthesized to form a new stored image.
  • step S196 a new accumulated image synthesized in step S195 is output.
  • step S 197 it is determined whether or not all the image data for one field has been processed. If there is image data to be processed, the process returns to step S 181, and step S 199 The processing from step 1 to step S197 is repeated, and all the image data are processed, and the generation processing of the stored image is completed.
  • step S123 if the resolution of the stored image is higher than the generated student image, the stored image generation processing is performed according to the procedure of the flowchart shown in FIG. Do.
  • step S201 the stored image generation unit 302 obtains the stored image in the previous field from the stored image memory 303.
  • a feature region is extracted by the extraction circuit 154 from the N-fold density stored image supplied from the storage memory 153.
  • step S203 a 1: N density motion vector is detected for the student image based on the feature region extracted in step S192.
  • step S194 the motion vector detected in step S193 is used. Then, the phase of the stored image from the storage memory 153 is shifted by the phase shift circuit 156 to align the position with the student image.
  • step S195 the stored image and the student image that have been aligned in step S194 are added and synthesized to form a new stored image.
  • step S196 a new accumulated image synthesized in step S195 is output.
  • step S197 it is determined whether or not processing has been performed for all image data for one field. If there is an image to be processed, the process returns to step S181, and step S181 is performed. The processing from step 191 to step S 197 is repeated, all the image data are processed, and the generation processing of the stored image is completed.
  • FIG. 44A shows the detection of the motion vector between one image (reference image) Ps and an image Ph having a density four times higher than the image Ps in the vertical direction. is there.
  • the dashed line represents the position of the line, and is actually a line having no pixels.
  • the quadruple-density image P h spatially matches the reference image P s, and the line position matches the reference image P s, and three images with the line position shifted by one line, for a total of four images It can be handled as a 1-density image Ph1, Ph2, Ph3, Ph4.
  • P hi is obtained by selecting the topmost line in a set of four consecutive lines of the high-density image P li.
  • P h 2 is obtained by selecting the second line from the top of this set of four lines.
  • P h 3 is obtained by selecting the third line from the top of this set of four lines.
  • P h 4 is obtained by selecting the bottom line in this set of four lines.
  • FIG. 44B an identically sized and identically shaped reference block; B s and a reference block B hl (in FIG. 44B, a 5 ⁇ 5 block is shown)
  • the absolute value of the difference between the pixel values of the pixels existing at the same position as the reference block Bs is calculated, the absolute values are summed over one block, and the sum of the absolute values is calculated.
  • the reference block Bh1 is moved to various positions in units of pixels of the 1 ⁇ dense image, and the sum of absolute values is calculated at the position after the movement.
  • the calculated absolute value sum is stored in the absolute value sum table.
  • the movement range is defined as a search range.
  • the sum of absolute values is calculated for a total of 5 ⁇ 3 reference blocks of five reference blocks shifted by one pixel in the horizontal direction and three reference blocks shifted by one pixel in the vertical direction.
  • 5 ⁇ 3 absolute value sum tables T1 are obtained.
  • the center position in the 5 x 3 area is the origin 0.
  • the origin ⁇ coincides with the spatial center of the reference block B s and the reference block B h1. If the position of the reference block that gives the minimum value is at the origin in the final absolute value sum table T O obtained as described later, the dynamic vector is zero.
  • a reference block Bh2 having the same size and the same shape as the reference block Bh1 is set at the same spatial position in the thinned image Ph2.
  • the sum of the absolute values of the differences between the reference work Bs and the reference work Bh2 is obtained, and a table T2 of the sum of the absolute values is obtained.
  • the table T2 is spatially located one line below the image of the table T1 four times denser.
  • block matching with the reference block Bs is performed, and a table T3 of the calculated sum of absolute values is obtained.
  • Table T3 is spatially one line below the table T2, one line below the table T2, and Table T4 is spatially four times the denser image than table T3. Is one line below.
  • the four tables are combined in the reverse relationship to the case where four 1 ⁇ dense images are obtained from the 4 ⁇ dense image, and the final absolute value sum table T 0 Create
  • the table TO shows the distribution of the sum of absolute values for each of the 5 X 3 X 4 types. Find the minimum value in this table TO.
  • the vector from the origin 0 to the minimum value that gives the minimum value is detected as a motion vector. in this way, Motion vector detection can be performed with 4x density image accuracy.
  • N is preferably an integer greater than or equal to 2.
  • FIG. 47 shows a configuration of a motion vector detection device 400 that detects a motion vector between a reference image and a quadruple-density image in the vertical direction.
  • the motion vector detection device 400 is composed of a blocking circuit 401 for decomposing the reference image (the image Ps in FIG. 44A) into blocks, a quadruple-density image having the same density as the reference image,
  • a phase separation circuit 402 is provided for separating N images having the same relationship, for example, four images (images P hi, Ph 2, Ph 3, and P 4 in FIG. 44A).
  • the phase separation circuit 402 receives the reference image Ps, and separates the data for each line from the data of the first line to the data of the fourth line of the set of four lines. Is output.
  • the output of the image P h1 of the phase separation circuit 402 is supplied to the blocking circuit 403 and decomposed into blocks, and the output of the image P h2 is supplied to the blocking circuit 404 and decomposed into blocks.
  • the output of the image P h3 is supplied to the blocking circuit 405 and decomposed into blocks, and the output of the image P h1 is supplied to the blocking circuit 406 and decomposed into blocks.
  • the blocking circuit 406 subdivides the images Phl to Ph4 into blocks (for example, 5 ⁇ 5 pixels) having the same shape and the same size as the blocks by the blocking circuit 401.
  • the output of the blocking circuit 410 is supplied in common to the error detection circuits 407, 408, 409 and 410. As the other input of the error detection circuit 407, the output of the blocking circuit 3 is supplied.
  • the error detection circuit 407 calculates the absolute difference between the pixel value of the pixel at the corresponding position in the block between the block Bs of the reference image and the block of the image Ph1 from the blocking circuit 403. Aggregate the sum of values. Then, a table T1 for storing the sum of absolute values for each position of the reference block is created.
  • the output of the block generation circuit 404 is supplied.
  • the error detection circuit 408 generates an image between pixels at corresponding positions in the block between the block of the reference image and the block of the image Ph2 from the blocking circuit 404. Aggregate the sum of absolute differences between prime values. Then, a table T2 for storing the sum of absolute values for each position of the reference block is created. Similarly, the error detection circuit 409 creates a table T3 of the sum of absolute values of the difference between the reference image block and the image Ph3 block, and the error detection circuit 409 sets the reference image block. A table T4 of the sum of absolute values of the difference between the image and the block of the image Ph4 is created.
  • the tables T1 to T4 generated by the error detection circuits 4.07 to 410 are supplied to the phase synthesis circuit 411.
  • the phase synthesizing circuit 4111 synthesizes the sum of absolute values in the reverse of the phase separation in the phase separating circuit 2, and a final table ⁇ 0 is created by the phase synthesizing circuit 411.
  • the motion vector detection circuit 4 12 detects the motion vector with reference to the table ⁇ 0 created by the phase synthesis circuit 4 1 1. That is, the motion vector detection circuit 412 detects the minimum value of the sum of absolute values and outputs a motion vector.
  • the lower part of the block diagram in Fig. 47 shows two images in the phase separation circuit 402, the error detection circuits 407 to 410, and the motion vector detection circuit 412 in the respective processing. And the spatial relationship between the sum of the absolute values of the pixels and the differences.
  • the prediction coefficient is calculated by referring to the accumulated image in addition to the teacher image and the student image.
  • the movement of the target pixel is also regarded as one of the feature amounts, and the class of the target pixel is classified.
  • the target pixel is determined to be a motion, that is, if the pixel of interest is classified into a motion class, it is possible to learn more pixel information of a student image in which noise in a motion portion is effectively performed.
  • Each of the image processing devices 100 and 190 described above executes an image generation process using the prediction coefficient calculated by the learning process performed by the image processing device 300 to reduce noise included in the input image. And the edge of the characteristic region can be corrected.
  • the prediction coefficients calculated by the learning process performed by the image processing device 300 are used as the ROM tables 110 8, 1 of the image processing devices 100, 190 performing the above-described image generation process.
  • the example described in the case of 96 is described as an example, but a pixel value, other coefficients or a predetermined expression showing a predetermined expression necessary to generate an output image is generated, and it is generated.
  • the information can be stored in the ROM tables 108 and 196.
  • the present invention can also be applied to a case where the input image is an evening race image.
  • the series of processing in the image processing apparatuses 100, 190, and 300 as described above can be realized by hardware, but can also be realized by software.
  • a series of processing is realized by software, a program constituting the software is installed in a computer, and the program is executed by the computer, whereby the image processing apparatus 100 described above is functionally realized. .
  • FIG. 48 is a block diagram showing a configuration of an embodiment of a computer 501 functioning as the image processing apparatuses 100, 190, and 300 described above.
  • An input / output interface 516 is connected to a CPU (Central Processing Unit) 511 via a bus 515, and the CPU 511 is connected via an input / output interface 516.
  • CPU Central Processing Unit
  • a user When a user inputs a command from the input unit 518 including a keyboard, a mouse, and the like, for example, a ROM (Read Only Memory) 512, a hard disk 514, or a magnetic disk 53 1 mounted on the drive 520
  • a program stored in a recording medium such as an optical disk 532, a magneto-optical disk 533, or a semiconductor memory 534 is loaded into a RAM (Random Access Memory) 513 and executed. Thereby, the various processes described above are performed. Further, the CPU 511 outputs the processing result to a display unit 517 such as an LCD (Liquid Crystal Display) via the input / output interface 516 as necessary.
  • a display unit 517 such as an LCD (Liquid Crystal Display)
  • the program is stored in the hard disk 514 or the ROM 512 in advance, and provided to the user integrally with the computer 501, or the magnetic disk 531, the optical disk 532, the magneto-optical disk 533, and the semiconductor memory 534. And other package media Or from a satellite, a network, or the like to the hard disk 514 via the communication unit 519.
  • steps for describing a program provided by a recording medium are not limited to processing performed in chronological order according to the described order, but are not necessarily performed in chronological order. It also includes processes that are executed in parallel or individually.
  • a first image is obtained, the obtained first image is stored, and the stored first image is stored.
  • the stored image of the first image is stored, and based on the position of the pixel of interest of the second image, the stored image First pixel information is cut out from both of the acquired first images, a predetermined feature amount is extracted from the first pixel information, and a pixel of interest is extracted from a plurality of classes based on the feature amount.
  • the second pixel information is cut out from both the accumulated image and the obtained first image, and the second pixel information is used to perform classification.
  • Generates the pixel of interest according to the generation method preset for the class As a result, it is possible to appropriately generate a second image having higher image quality than the first image.
  • the generated new student image is stored at a position corresponding to the stored student image, and the accumulated image of the student image is stored.
  • the first pixel information is cut out from both the accumulated image and the generated student image based on the position of the pixel of interest of the teacher image corresponding to the second image, and the first pixel information is extracted from the first pixel information.
  • Extracting a predetermined feature amount classifying the target pixel into one of a plurality of classes based on the feature amount, and storing the accumulated image and the generated first image based on the position of the target pixel. From both of them, the second pixel information is cut out, and a predetermined data is obtained for each classified class using the second pixel information and the teacher image. Can generate a second image with high quality. That.

Description

明細書 画像処理装置及び方法、 並びに記録媒体 技術分野 本発明は、 画像処理装置及び方法、 並びに記録媒体に関し、 特に、 入力画像よ り高画質な画像を適切に生成することができるようにした画像処理装置及び方法、 並びに記録媒体に関する。 景技術 従来から、 入力画像に対して各種の画像処理を施し、 より高画質な画像を生成 する技術が開発されている。 この技術を利用して、 例えば、 ノイズが含まれる入 力画像から、 そのノイズが低減した画像を生成したり、 テロップなどの、 他の部 分例えば背景に対して相対的に動きがある画像領域 (以下、 特徴領域と称する) を含む入力画像であって、 その特徴領域のエッジが所謂ぼけている入力画像から、 そのェヅジがぼけていない画像を生成することができる。
ここで、 図 1乃至図 9を参照して、 ノイズが低減した画像を生成する従来の方 法を説明する。
図 1に示す従来の画像処理装置 1 0おいて、 ノイズを含む入力画像は、 減算器 1 1及び増幅器 1 4に入力される。 減算器 1 1には、 フレームメモリ 1 7から、 入力画像に対して、 1 フレーム分遅延された画像も供給される。 またフレームメ モリ 1 7からの画像は、 増幅器 1 6にも供給される。
減算器 1 1は、 入力画像から、 フレームメモリ 1 7からの画像を減算し、 その 減算結果、 差分算出部 1 2に出力する。 差分算出部 1 2は、 減算器 1 1からの算 出結果の絶対値を、 入力画像と、 フレームメモリ 1 7からの画像 ( 1フレーム分 前の画像) との差分値として取得し、 閾値判定部 1 3に出力する。
閾値判定部 1 3は、 差分算出部 1 2からの差分値を所定の閾値と比較し、 その 比較結果に基づいて、 入力画像が静止部分であるか又は動き部分であるかを画素 毎に判定し、 その判定結果に基づいて重み付け値 Pを設定する。
入力画像が静止部分であると判定された場合、 重み加算値 pは、 値 0乃至値 0 , 5の間の予め決められた所定の固定値に設定され、 動き部分であると判定された 場合、 重み付け値 pは、 値 1に設定される。
増幅器 1 4は、 閾値判定部 1 3により設定された重み付け値 pを増幅率として、 入力画像の信号を増幅し、 加算器 1 5に供給する。 増幅器 1 6は、 値 1から、 設 定された重み付け値 Pを減算した値を増幅率として、 フレームメモリ 1 7からの 画像の信号を增幅し、 加算器 1 5に供給する。 加算器 1 5は、 増幅器 1 4及び増 幅器 1 6の出力を加算して、 出力する。
すなわち、 入力画像が静止部分である場合、 入力画像の画素値と、 入力画像に 対して 1 フレーム分遅延された画像の画素値とが、 重み付け値 pに従って、 重み 付け加算される。 このようにノイズが含まれる入力画像を 1 フレーム前の画像と 足し合わせることにより、 時間的にみて定常でない要素、 例えばノイズを低減す ることができる。
しかしながら、 入力画像が静止部分である場合、 重み付け値 pは、 所定の固定 値に設定されるので、 その大きさや方向に対応してノィズを低減することができ ない。 また、 閾値判定部 1 3による誤判定により、 動き部分が静止部分であると 判定された場合、 動き部分に対しても、 重み付け値 pによる重み付け加算が行わ れるので、 この場合、 尾引き状の画質劣化が生じる。
入力画像が動き部分である場合、 重み付け値 p = 1に基づく重み付け加算が行 われる。 すなわち入力画像は、 そのまま出力される。 すなわち、 動き部分につい ては、 ノイズは低減されない。 また、 入力画像が静止部分である場合においても、 それに含まれるノイズが大きいとき、 動き部分であると誤判定されるときがあり、 この場合、 この入力画像 (静止部分) は、 そのまま出力される。 すなわち、 ノィ ズは低減されない。
図 2は、 従来の画像処理装置の他の構成例を示している。 この図 2に示す画像 処理装置 2 0においては、 動きべクトルに対応する夕ップに基づくクラス分類適 応処理が実行されることで、 動き部分のノィズが低減される。 ノイズを含む入力画像は、 フレ一ムメモリ 2 1— 1に供給される。 フレームメ モリ 2 1— 1は、 入力画像を、 1フレーム分遅延させるとともに、 それを、 フレ ームメモリ 2 1— 2、 動きべクトル検出部 2 2、 領域切出部 2 4及び領域切出部 2 7にそれそれ供給する。
フレームメモリ 2 1— 2は、 フレームメモリ 2 1— 1からの画像を、 1フレー ム分遅延させるとともに、 それを、 フレームメモリ 2 1— 3、 動きベク トル検出 部 2 2、 動きベクトル検出部 2 3、 領域切出部 2 4及び領域切出部 2 7にそれそ れ供給する。
フレームメモリ 2 1— 3は、 フレームメモリ 2 1— 2からの画像を、 1フレー ム分遅延させるとともに、 それを、 動きベクトル検出部 2 3、 領域切出部 2 4及 び領域切出部 2 7にそれぞれ供給する。
動きべクトル検出部 2 2は、 フレームメモリ 2 1— 1及びフレームメモリ 2 1 - 2から供給される、 時間的に連続する 2つのフレームに対してブロックマヅチ ングを行って動きベクトルを検出し、 その検出結果を、 領域切出部 2 4に供給す る。
動きべクトル検出部 2 3は、 フレームメモリ 2 1— 2及びフレームメモリ 2 1 ― 3から供給される、 時閭的に連続する 2つのフレームに対してブロヅクマヅチ ングを行って動きベクトルを検出し、 その検出結果を、 領域切出部 2 7に供給す る。
領域切出部 2 4は、 動きぺクトル検出部 2 2から供給された動きべクトルを参 照して、 フレームメモリ 2 1— 1乃至フレームメモリ 2 1— 3から供給されるフ レームから、 所定の画像領域をクラス夕ヅプとして切り出す。
図 3 Aは、 クラス夕ヅプとして切り出された画像領域を示している。 フレーム メモリ 2 1— 2からのフレーム F n上の注目画素 (図中、 黒色の丸印) 、 注目画素 と、 動きベクトル検出部 2 2からの動きベクトルに対応する位置にある、 フレ一 ムメモリ 2 1— 1からのフレーム F n- 1 (フレーム; F nの 1つ前のフレーム) 上の 画素 (図中、 斜線を付した丸印) 及び注目画素と、 動きベクトル検出部 2 2から の動きぺクトルに対応する位置にある、 フレームメモリ 2 1— 3からのフレーム F n+1 (フレーム F nの 1つ後のフレ一ム) 上の画素 (図中、 斜線を付した丸印) の合計 3つの画素が、 クラスタップとして切り出される。
例えばフレーム Fnと各フレームが図 3Bに示すような場合、 すなわち、 フレー ム Fn-1とフレーム Fnとの間の動きベクトルが、 (一 1, 一 1 ) であり、 フレー ム とフレーム Fn+1との間の動きベクトルが、 (1, 1 ) である場合 (フレー ム: Fnとフレーム Fnとの間の動きべクトルは、 当然 (0, 0) となる) 、 図 3 C に示すように、 フレーム Fnの注目画素、 注目画素と動きベクトル (一 1, 一1) に対応する位置にあるフレーム の画素及び注目画素と動きぺクトル ( 1, 1 ) に対応する位置にあるフレーム Fn+1の画素が、 クラスタップとして切り出さ れる。
領域切出部 24は、 切り出したクラス夕ヅプを、 クラスコード発生部 25に供 給する。
クラスコード発生部 25は、 領域切出部 24から供給されたクラスタヅプに対 して、 例えば AD R C処理等を施し、 そのクラスタップの時空間内のパターンを 抽出するとともに、 抽出したパターンに従って分類されるクラスを示すクラスコ —ドを生成する。 クラスコード発生部 25は、 生成したクラスコードを ROMテ 一ブル 26に供給する。
ROMテーブル 26は、 ノイズを含む画像を生徒画像とし、 ノイズを含まない 画像を教師画像とした場合に算出された予測係数セッ トを、 クラス毎に記憶して おり、 その予測係数セヅトのうちから、 クラスコード発生部 25からのクラスコ ードに対応するものを推定演算部 28に出力する。
領域切出部 27は、 動きぺクトル検出部 23から供給された動きべクトルを参 照して、 フレームメモリ 2 1— 1乃至 2 1一 3から供給されるフレームの画像デ 一夕から、 所定の画像領域を予測タッブとして切り出す。
図 4 Aは、 予測夕ヅプの構造を示している。 フレーム Fn上の注目画素 (図中、 黒色の丸印) と、 注目画素の周囲に位置する画素 (図中、 薄墨を付した丸印) の 合計 1 3個の画素、 フレーム 1の、 注目画素と動きべクトル検出部 22からの 動きべクトルに対応する位置にある画素と、 その画素の周囲に位置する合計 13 個の画素 (図中、 斜線を付した丸印) 、 及びフレーム Fn+1の、 注目画素と動きべ クトル検出部 22からの動きべクトルに対応する位置にある画素と、 その画素の 周囲に位置する合計 1 3個の画素 (図中、 斜線を付した丸印) のそれぞれが予測 夕ップとして切り出される。
例えば、 図 4Bに示すように、 フレーム Fn- 1とフレーム Fnとの間の動きべク トルが、 (一 1 , — 1) であり、 フレーム とフレーム Fn+1との間の動きべク トルが、 ( 1 , 1 ) である場合 (フレーム Fnとフレーム Fnとの間の動きべクト ルは、 当然 (0, 0) となる) 、 図 4 Cに示すように、 フレーム Fnの注目画素、 注目画素と動きベクトル (一 1, 一 1 ) に対応する位置にあるフレーム Fn-1の画 素、 及び注目画素と動きベクトル ( 1 , 1) に対応する位置にあるフレーム Fn+ 1の画素と、 それらの周囲の合計 13個ずつの画素が、 予測タップとして切り出さ れる。
領域切出部 27は、 切り出した予測タップを、 推定演算部 28に供給する。 推定演算部 28は、 領域切出部 27から供給された予測タップと、 ROMメモ リ 26から供給される予測係数セヅトとに基づいて所定の演算を行い、 その結果 として、 ノイズが低減された画像を生成する。
しかしながら、 この例の場合、 プロヅクマッチングを行って動きベクトルを検 出するため、 莫大な数の計算が行われ、 例えば、 処理に時間がかかる。
図 5は、 従来の画像処理装置の他の構成例を示している。 この図 5に示す画像 処理装置 30においても、 動きべクトルに対応するタヅプに基づくクラス分類適 応処理が実行されることで、 動き部分のノイズが低減される。 しかしながら、 こ の場合、 プロヅクマッチングよりも、 処理負荷が小さい方法で、 動きぺクトルが 検出される。
この画像処理装置 30には、 図 2の画像処理装置 20の動きべクトル検出部 2 2, 23に代えて、 タヅプ配置決定部 3 1が設けられている。 なお、 図中、 図 2 における場合と対応する部分については、 同一の符号を付してあり、 以下では、 その説明は、 適宜省略する。
ノイズを含む入力画像は、 フレームメモリ 21— 1に供給される。 フレームメ モリ 2 1— 1は、 入力画像を、 1フレーム分遅延させるとともに、 それを、 フレ ームメモリ 2 1— 2、 領域切出部 24、 領域切出部 27及びタップ配置決定部 3 1に供給する。 フレームメモリ 2 1— 2は、 フレームメモリ 2 1— 1からの画像を、 1フレー ム分遅延させるとともに、 それを、 フレームメモリ 2 1— 3、 領域切出部 2 4、 領域切出部 2 7及びタップ配置決定部 3 1に供給する。
フレームメモリ 2 1— 3は、 フレームメモリ 2 1— 2からの画像を、 1フレー ム分遅延させるとともに、 それを、 フレームメモリ 2 1—4、 領域切出部 2 4、 領域切出部 2 7及びタップ配置決定部 3 1に供給する。
フレームメモリ 2 1— 4は、 フレームメモリ 2 1— 3からの画像を、 1フレー ム分遅延させるとともに、 それを、 フレームメモリ 2 1— 5、 領域切出部 2 4、 領域切出部 2 7及びタップ配置決定部 3 1に供給する。
フレームメモリ 2 1— 5は、 フレームメモリ 2 1— 4からの画像を、 1フレー ム分遅延させるとともに、 それを、 領域切出部 2 4、 領域切出部 2 7及ぴタップ 配置決定部 3 1に供給する。
夕ヅプ配置泱定部 3 1は、 フレームメモリ 2 1— 1乃至 2 1— 5から供給され るデータから動きぺクトルを検出するとともに、 検出した動きべクトルに基づい て、 クラスタップ又は予測タップの配置位置を決定し、 その決定結果を、 領域切 出部 2 4及び領域切出部 2 7に供給する。
タップ配置決定部 3 1での動きベク トル検出は、 以下に示すことが前提として 行われる。
• 連続する 5フレームにおいては、 最初のフレーム ( 1番目のフレーム) と 最後のフレーム (5番目のフレーム) との間隔が短いと仮定し、 5フレーム 上の画像の動きは等速直線運動である。
• 連続する 5フレームのそれぞれにノイズが含まれていない場合、 画像上の 同じ場所に位置する各フレームの画素の分散は、 0であるか又は極めて 0に 近い。
すなわち、 これらの前提によれば、 図 6に示すように、 画像上の X軸及び Y軸、 並びに時間からなる 3次元空間において、 フレーム F n (フレームメモリ 2 1— 3 からのフレーム) 上の注目画素、 並びに注目画素に対応する (画像上同じ場所に 位置する) 、 フレーム F n-1 (フレームメモリ 2 1— 2からのフレーム) 、 フ レー ム F n-2 (フレームメモリ 2 1— 1からのフレーム) 、 フレームメモリ F n+1 (フ レームメモリ 2 1— 4からのフレーム) 及びフレームメモリ Fn+2 (フレームメモ リ 2 1— 5からのフレーム) 上の画素を通る 1本の直線を描くことができる。 つ まり、 タヅブ配置決定部 3 1は、 この直線を動きベクトルとして検出する。
次に、 タップ配置決定処理を実行する場合のタップ配置決定部 3 1の動作を、 図 7のフローチャートを参照して説明する。
ステヅブ S 1において、 タップ配置決定部 3 1は、 フレームメモリ 2 1— 3か らのフレーム Fn上の注目画素を中心とする例えば、 5 X 5画素の領域を、 フレー 厶 Fn上に設定する。
次に、 ステヅプ S 2において、 .タヅプ配置決定部 3 1は、 ステップ S 1で設定 した、 フレーム Fn上の 5 X 5画素の領域から、 1つの画素を中心画素として選択 するとともに、 その中心画素に対応する位置にある、 例えば、 フレームメモリ 2 1一 2からのフレーム Fn-1上の画素を中心に探索範囲を設定する。
ステヅブ S 3において、 夕ヅプ配置決定部 3 1は、 図 8に示すように、 探索範 囲内の画素を特定する座標 (a, b) を、 (0, 0) に初期設定する。
次に、 ステヅプ S 4において、 タヅブ配置決定部 31は、 座標 (a, b) で特 定される探索範囲内の画素 (フレーム: Fn-1上の画素) と、 フレーム Fn上の注目 画素とを通る直線を生成する。
ステヅプ S 5において、 タップ配置決定部 3 1は、 ステヅプ S 4で生成した直 線上に位置する、 フレーム Fn_2乃至 Fii+2の画素の間の分散を算出し、 ステヅプ S 6において、 算出した分散が、 後述するステップ S 7で保持された分散値より も小さいか否かを判定し、 すなわち、 それ以前の座標 (a, b) の画素と注目画 素を通る直線の場合において算出された分散のうち、 最小であるか否かを判定し、 最小であると判定し場合、 ステヅブ S 7に進む。 ステップ S 7において、 夕ヅプ 配置決定部 31は、 ステップ S 5で算出した分散値及びそのときの座標 (a, b) を保持する。
ステヅプ S 6で最小でないと判定されたとき、 又はステップ S 7で分散値及び 座標 (a, b) が保持されたとき、 ステヅプ S 8に進み、 タップ配置決定部 3 1 は、 座標 (a, b) を更新する。 座標 (a, b) の更新は、 ラスタスキャン上に 行うことができる。 次に、 ステップ S 9において、 タヅプ配置決定部 3 1は、 ステヅプ S 8で更新 された座標 (a , b ) が、 ステップ S 2で設定された探索範囲 (図 8 ) を超えて いるか否かを判定し、 超えていないと判定した場合、 ステヅプ S 4に戻り、 それ 以降の処理を実行する。 一方、 探索範囲を超えていると判定された場合、 その探 索範囲内の探索は終了したものとして、 ステップ S 1 0に進み、 タップ配置決定 部 3 1は、 ステップ S 7で保持した座標 (a, b ) を投票する。
次に、 ステップ S I 1において、 夕ヅプ配置決定部 3 1は、 ステヅブ S 1で設 定された領域の全ての画素を、 中心画素として取り出したか否かを判定し、 全て の画素を中心画素として取り出したわけではないと判定した場合、 ステップ S 2 に戻り、 他の画素を中心画素として取り出し、 それ以降の処理を実行する。 一方、 全ての画素を、 中心画素として取り出したと判定された場合、 ステップ S 1 2に 進む。
ステヅプ S 1 2において、 夕ヅブ配置決定部 3 1は、 ステップ S 1 0で投票さ れた数が最も多い座標 (a, b ) を検出する。 すなわち、 その座標 (a, b ) に より特定されるフレーム F n-1上の画素と、 フレーム F n上の注目画素を通る直線 が検出される。 このようにして、 動きベクトルとしての直線が検出される。 夕ッ プ配置決定部 3 1は、 検出した直線上に位置するフレーム F n- 2乃至 F n+2の画素 の位置情報を、 領域切出部 2 4及び領域切出部 2 7に供給する。
その後、 処理は終了する。
以上のように、 連続する 5フレームを通過する所定の直線を、 動きベクトルと して検出するようにしたので、 ブロックマヅチングの場合のように、 莫大な数の 計算を行う必要がない。
図 9は、 従来の画像処理装置の他の構成例を示している。 この図 9に示す画像 処理装置 5 0において、 ノイズを含む入力画像は、.静止部分ノイズ低減フィルタ 5 1、 動き部分ノイズ低減フィルタ 5 2及び動き検出部 5 3のそれそれに供給さ れる。
静止部分ノィズ低減フィル夕 5 1は、 図 1の画像処理装置 1 0の増幅器 1 4乃 至フレームメモリ 1 7で構成されており、 入力画像と、 それに対して 1フレーム 分遅延された画像とに対して、 重み付け値 Pに基づく重み付け加算を行う。 すな わち、 入力画像が静止部分である場合、 それに含まれるノイズは低減される。 動き部分ノイズ低減フィルタ 5 2は、 図 2に示した画像処理装置 2 0又は図 5 に示した画像処理装置 3 0により構成されており、 動きぺクトルに対応する夕ッ プに基づくクラス分類適応処理を実行する。 すなわち、 入力画像が動き部分であ る場合、 それに含まれるノイズは低減される。
動き検出部 5 3は、 入力画像から、 画素単位で動きを検出し、 検出結果を出力 切り替え部 5 4に出力する。
出力切り替え部 5 4は、 動き検出部 5 3からの検出結果が、 入力画像が静止部 分であることを示している場合、 静止部分ノイズ低減フィルタ 5 1からの出力を 選択し、 それを、 外部に出力する。 一方、 動き検出部 5 3からの検出結果が、 入 力画像が動き部分であることを示している場合、 出力切り替え部 5 4は、 動き部 分ノイズ低減フィル夕 5 2からの出力を選択し、 それを外部に出力する。
このようにすることで、 静止部分及び動き部分の両方に含まれるノイズを低減 することができる。
しかしながら、 この画像処理装置 5 0の場合、 入力画像が静止部分である場合 においては、 動き部分ノイズ低減フィルタ 5 2の処理が、 また入力画像が動き部 分である場合においては、 静止部分ノイズ低減フィルタ 5 1の処理が、 それそれ 無駄になる。
上述のように、 従来の画像処理装置 5 0においては、 入力画像に含まれるノィ ズを効果的に低減することができないという問題点があった。
また、 入力画像に例えば線形補間処理を施すことにより、 入力画像から例えば 4倍密度の画像信号を生成することが行われているが、 線形補間処理を行うこと により画像信号の波形が鈍ってしまい、 上記線形処理の影響により全体的にぼや けた画像となってしまうといった問題点があつた。
ところで、 例えばクラス分類適応処理を採用することよって、 特徴領域のエツ ジがぼけていない画像を生成することができる。
ここで、 特徴領域のェヅジがぼけていない画像を生成する画像処理について図 1 ◦乃至図 1 2を参照して説明する。
図 1 0は、 特徴領域のエッジがぼけていない画像を生成する画像処理装置の構 成例を示している。 この図 1 0に示す画像処理装置 6 0において、 特徴領域 (他 の画像に対して相対的に動いている画像領域) のエッジがぽけている入力画像は、 特徴領域抽出部 6 1及びクラス分類適応処理部 6 2に供給される。
特徴領域抽出部 6 1は、 入力画像に含まれる特徴領域を抽出し、 合成部 6 3に 供給する。 なお、 特徴領域抽出部 6 1は、 特徴領域の画素密度を、 入力画像と同 じ密度又はそれよりも高い密度となるようにして、 特徴領域を抽出する。
クラス分類適応処理部 6 2は、 入力画像に対して、 例えば、 ノイズを除去する ため、 輝度を補正するための又は高精細な画像を生成するためのクラス分類適応 処理を施し、 その結果得られた画像を、 合成部 6 3に出力する。
合成部 6 3は、 特徴領域抽出部 6 1からの特徴領域と、 クラス分類適応処理部 6 2からの画像を合成する。 このように、 特徴領域を一度取り出した後、 他の画 像部分と合成することにより、 特徴領域のエッジがぼけていない画像を生成する ことができる。
図 1 1は、 特徴領域抽出部 6 1の構成例を示している。 入力画像は、 ディレイ 回路 7 1及び動きべクトル検出回路 7 5に供給される。 ディレイ回路 7 1は、 供 給された入力画像を、 後述する合成回路 7 2乃至位相シフト回路 7 6での処理に 要する時間分だけ遅延させて、 合成回路 7 2に供給する。 これにより、 後述する 合成回路 7 2において、 入力画像と、 それに対応する画像が合成されるようにな る。
合成回路 7 2は、 ディレイ回路 7 1から供給される入力画像と、 位相シフト回 路 7 6から供給される、 位相がシフトされた、 蓄積メモリ 7 3に蓄積されている 蓄積画像とを合成するとともに、 合成した画像を、 蓄積メモリ 7 3に供給する。 蓄積メモリ 7 3は、 合成回路 7 2から供給された画像を蓄積して、 蓄積画像を 生成するとともに、 それを、 抽出回路 7 4及び位相シフト回路 7 6に供給する。 図 1 2 Aは、 蓄積画像上の特徴領域を構成する画素の画素値のレベル分布例を 示している。 このように、 この例の場合、 蓄積画像上の特徴領域のレベル分布は、 入力画像と同じであるが、 特徴領域以外の画像を構成する画素の画素値のレベル 分布は、 例えば、 図 1 2 Bに示すように、 平坦化されている。
抽出回路 7 4は、 蓄積メモリ 7 3から供給される蓄積画像上から、 特徴領域を 抽出して、 合成部 6 3に供給するが、 蓄積画像上の特徴領域は、 図 1 2を参照し て説明したような特徴を有することから、 抽出回路 7 4は、 精度良く特徴領域を 抽出することができる。
動きベク トル検出回路 7 5には、 入力画像と、 抽出回路 7 4からの特徴領域の 画像データと表示位置が入力される。 動きベクトル検出回路 7 5は、 抽出回路 7 4からの特徴領域と、 入力画像内における特徴領域との間の動きべクトルを検出 し、 その検出結果を位相シフト回路 7 6に供給する。
位相シフト回路 7 6は、 動きべクトル回路 7 5からの動きぺクトルに基づいて、 蓄積メモリ 7 3からの蓄積画像の位相をシフトさせ、 合成回路 7 2に供給する。 このようにして、 特徴領域のエッジがぼけていない画像が生成されるが、 特徴 領域と、 それ以外の画像を合成する場合、 合成される境の部分に特別な処理が必 要となる。 すなわち、 合成部 6 3の処理が複雑になってしまう。
このような構成の画像処理装置 6 0では、 入力画像から、 より高画質の画像、 例えば、 ノィズが低減された画像又は特徴領域のエツジがぽけていない画像を適 切に生成することができないという問題があった。 発明の鬨示 本発明はこのような状況に鑑みてなされたものであり、 入力画像から、 より高 画質の画像を適切に生成することができるようにするものである。
本発明は、 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成す る画像処理装置において、 上記第 1の画像を取得する取得手段と、 上記取得手段 により取得された上記第 1の画像を記憶する記憶手段と、 上記記憶手段により記 憶された上記第 1の画像に対応した位置に、 上記取得手段により取得された新た な上記第 1の画像を記憶することで、 上記記憶手段に、 上記第 1の画像の蓄積画 像が記憶されるようにする蓄積処理手段と、 上記第 2の画像の注目画素の位置に 基づいて、 上記蓄積画像と、 上記取得手段により取得された上記第 1の画像の両 方から、 第 1の画素情報を切り出す第 1の切り出し手段と、 上記第 1の画素情報 から、 所定の特徴量を抽出する特徴量抽出手段と、 上記特徴量に基づいて、 上記 注目画素を、 複数のクラスのうちのいずれかに分類するクラス分類手段と、 上記 注目画素の位置に基づいて、 上記蓄積画像と、 上記取得手段により取得された上 記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出し手段と、 上 記第 2の画素情報を利用して、 上記クラス分類手段により分類されたクラスに対 応して予め設定された生成方式に従い、 上記注目画素を生成する生成手段とを備 えることを特徴とする。
また、 本発明は、 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を 生成する画像処理装置の画像処理方法において、 上記第 1の画像を取得する取得 ステップと、 上記取得ステップの処理で取得された上記第 1の画像を記憶する記 憶.ステヅプと、 上記記憶ステヅプの処理で記憶された上記第 1の画像に対応した 位置に、 上記取得ステップの処理で取得された新たな上記第 1の画像を記憶する ことで、 上記第 1の画像の蓄積画像が記憶されるようにする蓄積処理ステップと、 上記第 2の画像の注目画素の位置に基づいて、 上記蓄積画像と、 上記取得ステツ プの処理で取得された上記第 1の画像の両方から、 第 1の画素情報を切り出す第 1の切り出しステップと、 上記第 1の画素情報から、 所定の特徴量を抽出する特 徴量抽出ステップと、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスの うちのいずれかに分類するクラス分類ステップと、 上記注目画素の位置に基づい て、 上記蓄積画像と、 上記取得ステップの処理で取得された上記第 1の画像の両 方から、 第 2の画素情報を切り出す第 2の切り出しステップと、 上記第 2の画素 情報を利用して、 上記クラス分類ステツプの処理で分類されたクラスに対応して 予め設定された生成方式に従い、 上記注目画素を生成する生成ステップとを含む ことを特徴とする。
さらに、 本発明に係る記録媒体は、 第 1の画像から、 上記第 1の画像より高画 質な第 2の画像を生成する画像処理装置のプログラムであって、 上記第 1の画像 を取得する取得ステツプと、 上記取得ステップの処理で取得された上記第 1の画 像を記憶する記憶ステップと、 上記記憶ステップの処理で記憶された上記第 1の 画像に対応した位置に、 上記取得ステップの処理で取得された新たな上記第 1の 画像を記憶することで、 上記第 1の画像の蓄積画像が記憶されるようにする蓄積 処理ステップと、 上記第 2の画像の注目画素の位置に基づいて、 上記蓄積画像と、 上記取得ステツプの処理で取得された上記第 1の画像の両方から、 第 1の画素情 報を切り出す第 1の切り出しステップと、 上記第 1の画素情報から、 所定の特徴 量を抽出する特徴量抽出ステップと、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分類するクラス分類ステツプと、 上記注目画素 の位置に基づいて、 上記蓄積画像と、 上記取得ステップの処理で取得された上記 第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出しステップと、 上記第 2の画素情報を利用して、 上記クラス分類ステツプの処理で分類されたク ラスに対応して予め設定された生成方式に従い、 上記注目画素を生成する生成ス テヅプとを含むことを特徴とするコンピュータが読み取り可能なプログラムが記 録されている。
本発明は、 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成す るのに用いる所定のデータを学習する画像処理装置において、 上記第 1の画像に 相当する生徒画像を生成する生成手段と、 上記生徒画像を記憶する記憶手段と、 上記記憶手段により記憶された上記生徒画像に対応した位置に、 上記生成手段に より生成された新たな上記生徒画像を記憶することで、 上記記憶手段に、 上記生 徒画像の蓄積画像が記憶されるようにする蓄積処理手段と、 上記第 2の画像に相 当する教師画像の注目画素の位置に基づいて、 上記蓄積画像と、 上記生成手段に より生成された上記生徒画像の両方から、 第 1の画素情報を切り出す第 1の切り 出し手段と、 上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出手段 と、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに 分類するクラス分類手段と、 上記注目画素の位置に基づいて、 上記蓄積画像と、 上記生成手段により生成された上記第 1の画像の両方から、 第 2の画素情報を切 り出す第 2の切り出し手段と、 上記第 2の画素情報及び上記教師画像を利用して、 上記クラス分類手段により分類されたクラス毎に、 上記所定のデ一夕を求める演 算手段とを備えることを特徴とする。
また、 本発明は、 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を 生成するのに用いる所定のデ一夕を学習する画像処理装置の画像処理方法におい て、 上記第 1の画像に相当する生徒画像を生成する生成ステップと、 上記生徒画 像を記憶する記憶ステップと、 上記記憶ステップの処理で記憶された上記生徒画 像に対応した位置に、 上記生成ステツプの処理で生成された新たな上記生徒画像 を記億することで、 上記生徒画像の蓄積画像が記憶されるようにする蓄積処理ス テツプと、 上記第 2の画像に相当する教師画像の注目画素の位置に基づいて、 上 記蓄積画像と、 上記生成ステツプの処理で生成された上記生徒画像の両方から、 第 1の画素情報を切り出す第 1の切り出しステップと、 上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出ステップと、 上記特徴量に基づいて、 上記注 目画素を、 複数のクラスのうちのいずれかに分類するクラス分類ステヅプと、 上 記注目画素の位置に基づいて、 上記蓄積画像と、 上記生成ステップの処理で生成 された上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出しス テツプと、 上記第 2の画素情報及び上記教師画像を利用して、 上記クラス分類ス テヅプの処理で分類されたクラス毎に、 上記所定のデ一夕を求める演算ステップ とを含むことを特徴とする。
さらに、 本発明に係る記録媒体は、 第 1の画像から、 上記第 1·の画像より高画 質な第 2の画像を生成するのに用いる所定のデータを学習する画像処理装置のプ ログラムであって、 上記第 1の画像に相当する生徒画像を生成する生成ステップ と、 上記生徒画像を記憶する記憶ステップと、 上記記憶ステップの処理で記憶さ れた上記生徒画像に対応した位置に、 上記生成ステップの処理で生成された新た な上記生徒画像を記憶することで、 上記生徒画像の蓄積画像が記憶されるように する蓄積処理ステツプと、 上記第 2の画像に相当する教師画像の注目画素の位置 に基づいて、 上記蓄積画像と、 上記生成ステップの処理で生成された上記生徒画 像の両方から、 第 1の画素情報を切り出す第 1の切り出しステップと、 上記第 1 の画素情報から、 所定の特徴量を抽出する特徴量抽出ステップと、 上記特徴量に 基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分類するクラス分 類ステップと、 上記注目画素の位置に基づいて、 上記蓄積画像と、 上記生成ステ ップの処理で生成された上記第 1の画像の両方から、 第 2の画素情報を切り出す 第 2の切り出しステップと、 上記第 2の画素情報及び上記教師画像を利用して、 上記クラス分類ステツプの処理で分類されたクラス毎に、 上記所定のデータを求 める演算ステヅプとを含むことを特徴とするコンピュータが読み取り可能なプロ グラムが記録されている。 図面の簡単な説明 図 1は、 従来の画像処理装置の構成例を示すプロック図である。
図 2は、 従来の画像処理装置の他の構成例を示すプロック図である。
図 3 A , 図 3 B及び図 3 Cは、 図 2の画像処理装置におけるクラスタップの構 造を示す図である。
図 4 A , 図 4 B及び図 4 Cは、 図 2の画像処理装置における予測夕ッブの構造 を示す図である。
図 5は、 従来の画像処理装置の他の構成例を示すプロヅク図である。
図 6は、 図 5の画像処理装置における動きべクトル検出方法を説明する図であ る。
図 7は、 図 5の画像処理装置における夕ッブ配置決定処理を説明するフローチ ヤー卜である。
図 8は、 探索範囲を説明する図である。
図 9は、 従来の画像処理装置の他の構成例を示すプロック図である。
図 1 0は、 特徴領域のエッジがぼけていない画像を生成する画像処理装置の構 成例を示すプロ、ソク図である。
図 1 1は、 図 1 0の画像処理装置における特徴領域抽出部の構成例を示すプロ ヅク図である。
図 1 2 A及び図 1 2 Bは、 特徴領域及びそれ以外の画素のレベル分布を示す図 である。
図 1 3は、 本発明を適用した画像処理装置の構成例を示すブロック図である。 図 1 4は、 図 1 3の画像処理装置における蓄積画像生成部の構成例を示すブロ ヅク図である。
図 1 5は、 図 1 3の画像処理装置における蓄積画像生成部の他の構成例を示す プロヅク図である。
図 1 6は、 図 1 3の画像処理装置における蓄積画像生成部の他の構成例を示す プロヅク図である。 図 1 7は、 図 1 3の画像処理装置における領域切出部の構成例を示すブロック 図である。
図 1 8 A及び図 1 8 Bは、 図 1 3の画像処理装置におけるクラスタヅプの構造 を示す図である。
図 1 9は、 図 1 3の画像処理装置における特徴量抽出部の構成例を示すプロジ ク図である。
図 2 0は、 図 1 3の画像処理装置における領域切出部の構成例を示すプロック 図である。
図 2 1は、 本発明を適用した画像処理装置の他の構成例を示すブロック図であ る。
図 2 2は、 図 2 1の画像処理装置における領域切出部の構成例を示すブロック 図である。 - 図 2 3は、 図 2 1の画像処理装置における特徴量抽出部の構成例を示すブ口ッ ク図である。
図 2 4は、 図 2 1の画像処理装置におけるクラスタップの構造を示す図である c 図 2 5 A及び図 2 5 Bは、 図 2 1の画像処理装置における予測夕ヅブの構造を 示す図である。
図 2 6 A及び図 2 6 Bは、 特徴領域の画素の位相を所定の位相だけずれによう にして合成することにより入力画像から高精細の画像を生成する場合の特徴領域 及ぴそれ以外の画素の他のレベル分布を示す図である。
図 2 7 A及び図 2 7 Bは、 図 2 1の画像処理装置におけるクラスタヅプの他の 構造を示す図である。
図 2 8は、 図 2 1の画像処理装置における予測夕ップの他の構造を示す図であ る。
図 2 9は、 図 2 1の画像処理装置において実行される画像処理の手順を示すフ ローチャートである。
図 3 0は、 本発明を適用した学習処理を実行する画像処理装置の構成例を示す ブロック図である。
図 3 1は、 図 3 0の画像処理装置における生徒画像生成部の構成例を示すプロ ヅク図である。
図 3 2は、 図 3 0の画像処理装置における生徒画像生成部の他の構成例を示す プロヅク図である。
図 3 3は、 図 3 0の画像処理装置における生徒画像生成部の他の構成例を示す ブロック図である。
図 3 4 A及び図 3 4 Bは、 図 3 0の画像処理装置における領域切出部により切 り出されるプロックを説明する図である。
図 3 5は、 図 3 0の画像処理装置において実行される学習処理の手順を示すフ 口—チヤ一トである。
図 3 6は、 図 3 0の画像処理装置における生徒画像生成部として上述の図 3 1 の構成を採用した場合に実行される生徒画像の生成処理の手順を示すフローチヤ ートである。
図 3 7は、 図 3 0の画像処理装置における生徒画像生成部として上述の図 3 2 の構成を採用した場合に実行される生徒画像の生成処理の手順を示すフローチヤ ートである。
図 3 8は、 図 3 0の画像処理装置における生徒画像生成部として上述の図 3 3 の構成を採用した場合に実行される生徒画像の生成処理の手順を示すフローチヤ ートである。
図 3 9は、 図 3 0の画像処理装置における生徒画像生成部において生成する生 徒画像よりも教師画像の解像度が高い場合に実行される生徒画像の生成処理の手 順を示すフローチヤ一トである。
図 4 0は、 図 3 0の画像処理装置における蓄積画像生成部として図 1 4の構成 を採用した場合に実行される蓄積画像の生成処理の手順を示すフローチャートで ある。
図 4 1は、 図 3 0の画像処理装置における蓄積画像生成部として図 1 5の構成 を採用した場合に実行される蓄積画像の生成処理の手順を示すフローチャートで ある。
図 4 2は、 図 3 0の画像処理装置における蓄積画像生成部として図 1 6の構成 を採用した場合に実行される蓄積画像の生成処理の手順を示すフローチャートで ある。
図 4 3は、 図 3 0の画像処理装置における蓄積画像生成部において生成する生 徒画像よりも蓄積画像の解像度が高い場合に実行される蓄積画像の生成処理の手 順を示すフロ一チヤ一トである。
図 4 4 A , 図 4 4 Bは、 入力画像 (生徒画像) より高画質な画像 (蓄積画像) を生成する場合の動きぺクトル検出処理における基準画像及び 4倍密画像を説明 する図である。
図 4 5は、 基準プロヅクと参照プロックの関係を示す図である。
図 4 6 A, 図 4 6 Bは、 絶対値和テーブルを説明する図である。
図 4 7は、 基準画像と垂直方向に 4倍密画像との間で動きぺクトルを検出する 動きべクトル検出装置の構成を示すプロック図である。
図 4 8は、 上述のような画像処理装置として機能するコンピュータの構成例を 示すプロック図である。 発明を実施するための最良の形態 以下、 本発明の実施の形態について図面を参照して詳細に説明する。
図 1 3は、 本発明を適用した画像処理装置 1 0 0の構成例を示している。 この 画像処理装置 1 0 0は、 ノイズを低減するためのクラス分類適応処理を実行する c そのクラス分類適応処理においては、 後述する学習処理により算出された予測係 数が利用される。
この画像処理装置 1 0 0は、 ノイズを含む入力画像が供給される蓄積画像生成 部 1 0 2、 領域切出部 1 0 4及び領域切出部 1 0 7を備える。
蓄積画像生成部 1 0 2は、 入力画像の静止部分に含まれるノイズを効果的に低 減する処理を実行したり、 又は特徴領域を抽出する処理を実行する。
図 1 4乃至図 1 9は、 蓄積画像生成部 1 0 2の構成例を示している。
図 1 7は、 静止部分のノイズを低減する場合の蓄積画像生成部 1 0 2の構成例 を示している。 ノイズを含んだ生徒画像は、 増幅器 1 3 1に供給される。 増幅器 1 3 1は、 値 1から、 重み付け値 q ( 0 < q < 1 ) を減算した値を増幅率どして、 供給される生徒画像の信号を増幅し、 加算器 1 3 2に供給する。
後述する蓄積画像用メモリ 1 0 3からは、 1つ前に蓄積画像生成部 1 0 2によ り生成された蓄積画像 (供給された生徒画像に対して、 1フレーム分前の蓄積画 像) が、 増幅器 1 3 3に供給される。 増幅器 1 3 3は、 重み付け値 qを増幅率と して、 蓄積画像の信号を増幅し、 加算部 1 3 2に供給する。
加算部 1 3 2は、 増幅器 1 3 1からの出力と増幅器 1 3 3の出力を加算し、 蓄 積画像用メモリ 1 0 3に供給する。
すなわち、 この蓄積画像生成部 1 0 2においては、 入力画像と、 1フレーム分 前の蓄積画像に対して、 重み付け値 qに基づく重み付け加算が行われる。 例えば、 値 q = 0 . 8である場合、 入力画像を 2 0 %、 蓄積画像を 8 0 %で足し合わせた 蓄積画像が生成される。 このように、 入力画像と、 1フレーム分前の蓄積画像が 所定の割合で足し合わされるので、 静止部分のノイズが効果的に低減される。 ま た蓄積画像には、 複数の画像が、 ある割合で蓄積され足し合わされるので、 上述 の図 1に示した従来の画像処理装置 1 0に比べ、 静止部分のノイズがより効果的 に低減される。
なお、 入力画像と最初に重み付け加算される蓄積画像は、 蓄積画像用メモリ 1 0 3に最初に蓄積された入力画像そのものとすることもできるし、 複数の入力画 像を平均することで得られた画像とすることもできる。
図 1 5は、 静止部分のノイズを低減する場合の蓄積画像生成部 1 0 2の他の構 成例を示している。 この蓄積画像生成部 1 0 2には、 図 1 4の蓄積画像生成部 1 0 2に、 動き検出部 1 4 1がさらに設けられている。 この動き検出部 1 4 1は、 上述の図 1に示した画像処理装置 1 0を構成する減算器 1 1乃至閾値判定部 1 3 と同様の機能を有する減算器 1 4 2乃至閾値判定部 1 4 4から構成されている。 すなわち、 この蓄積画像生成部 1 0 2においては、 入力画像と蓄積画像が、 入力 画像の動きに対応する重み付け値 qに基づいて重み付け加算される。 なお、 画像 の動きに代えて、 入力画像と蓄積画像との輝度の差分値に基づいて、 重み付け値 qを設定することもできる。
図 1 6は、 特徴領域を抽出する場合の蓄積画像生成部 1 0 2の構成例を示して いる。 この蓄積画像生成部 1 0 2において、 入力画像は、 ディレイ回路 1 5 1及び動 きべクトル検出回路 1 5 5に供給される。 ディレイ回路 1 5 1は、 供給された入 力画像を、 後述する合成回路 1 5 2乃至位相シフト回路 1 5 6での処理に要する 時間分だけ遅延させて、 合成回路 1 5 2に供給する。 これにより、 合成回路 1 5 2において、 入力画像と、 それに対応する画像が合成されるようになる。
合成回路 1 5 2は、 ディレイ回路 1 5 1から供給される入力画像と、 位相シフ ト回路 1 5 6から供給される、 位相がシフ 卜された、 蓄積メモリ 1 5 3に蓄積さ れている蓄積画像とを合成するとともに、 合成した画像を、 蓄積メモリ 1 5 3に 供給する。
蓄積メモリ 1 5 3は、 合成回路 1 5 2から供給された画像を蓄積して、 蓄積画 像を生成するとともに、 それを、 抽出回路 1 5 4及び位相シフト回路 1 5 6に供 給する。
抽出回路 1 5 4は、 蓄積メモリ 1 5 3から供給される蓄積画像上から、 特徴領 域を抽出して、 動きベクトル検出回路 1 5 5に供給する。 なお、 蓄積画像上の特 徴領域のレベル分布は入力画像と同じであるが、 特徴領域以外の画像を構成する 画素の画素値のレベル分布は平坦化されるので、 抽出回路 1 5 4は、 精度良く特 徴領域を抽出することができる。
動きべクトル検出回路 1 5 5には、 入力画像と、 抽出回路 1 5 4からの特徴領 域の画像データと表示位置が入力される。 動きべクトル検出回路 1 5 5は、 抽出 回路 1 5 4からの特徴領域と、 入力画像内における特徴領域との間の動きべクト ルを検出し、 その検出結果を位相シフト回路 1 5 6に供給する。
位相シフト回路 1 5 6は、 動きべクトル回路 1 5 5からの動きべクトルに基づ いて、 蓄積メモリ 1 5 3からの蓄積画像の位相をシフ トさせ、 合成回路 1 5 2に 供給する。
すなわち、 この蓄積画像生成部 1 0 2では、 蓄積画像の特徴領域と入力画像の 特徴領域が、 所定の位相関係を保持するように、 入力画像を蓄積画像に蓄積する ようにして、 特徴領域が抽出される。
なお、 ここで生成される特徴領域の画素密度は、 入力画像のそれよりも高密度 にすることもできるし、 同じ密度にすることができる。 ただし、 特徴領域の画素 密度に応じた蓄.積メモリ 1 5 3の容量を確保する必要がある。
以上のような構成を有する蓄積画像生成部 1 0 2は、 生成 (抽出) した、 ノィ ズが低減された画像と特徴領域を、 蓄積画像として、 蓄積画像用メモリ 1 0 3に 供給する。
蓄積画像生成部 1 9 1は、 入力画像と蓄積画像に対して、 重み付け値 qに基づ く重み付け加算を行って、 静止部分のノイズを低減したり、 特徴領域を抽出する < 静止部分のノイズが低減された画像や特徴領域は、 蓄積画像として、 蓄積画像用 メモリ 1 9 2に供給される。
蓄積画像用メモリ 1 9 2は、 蓄積画像生成部 1 9 1からの蓄積画像を記憶する とともに、 適宜、 領域切出部 1 9 3及び領域切出部 1 9 7に供給する。
領域切出部 1 0 4は、 入力画像からクラス夕ップを切り出すとともに、 入力画 像と蓄積画像のそれそれからプロヅクを切り出し、 切り出したクラス夕ヅプ及び ブロックを画素情報として特徴量抽出部 1 0 5に供給する。
図 1 7は、 領域切出部 1 0 4の構成例を示している。
この領域切出部 1 0 4において、 入力画像は、 フレームメモリ 1 6 1— 1及び ディレイ回路 1 6 4に供給され、 蓄積画像用メモリ 1 0 3からの蓄積画像は、 ブ 口ヅク切出部 1 6 6に供給される。
フレームメモリ 1 6 1— 1は、 生徒画像を、 1フレーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 2、 夕ヅプ配置決定部 1 6 2及びクラス夕ヅプ 切出部 1 6 3に供給する。
フレームメモリ 1 6 1— 2は、 フレームメモリ 1 6 1— 1からの画像を、 1フ レーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 3、 夕ヅプ配置 決定部 1 6 2及びクラスタヅブ切出部 1 6 3に供給する。
フレームメモリ 1 6 1— 3は、 フレームメモリ 1 6 1— 2からの画像を、 1フ レーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 4、 夕ヅブ配置 決定部 1 6 2及びクラスタヅブ切出部 1 6 3に供給する。
フレームメモリ 1 6 1— 4は、 フレームメモリ 1 6 1— 3からの画像を、 1フ レーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 5、 タヅプ配置 決定部 1 6 2及びクラスタップ切出部 1 6 3に供給する。 フレームメモリ 1 6 1— 5は、 フレームメモリ 1 6 1 - 4からの画像を、 1フ レーム分遅延させるとともに、 それを、 夕ヅプ配置決定部 1 6 2及びクラスタヅ ブ切出部 1 6 3に供給する。
夕ヅプ配置決定部 1 6 2は、 フレームメモリ 1 6 1— 1乃至 1 6 1— 5から供 給されるフレームの画像データに基づいて、 クラス夕ヅブの配置位置を決定し、 その決定結果をクラスタヅプ切出部 1 6 3に供給する。 なお、 このタヅプ配置決 定部 1 6 2が行うタップ配置決定処理は、 上述の図 5に示したタップ配置決定部 3 1の場合と同様であるので、 その説明は省略する。
また、 蓄積画像用メモリ 1 0 3からの蓄積画像がクラス夕ヅプ切出部 1 6 3に 供給されている。
クラス夕ヅプ切出部 1 6 3では、 図 1 8 Aに示すように、 フレーム 上の注目 画素 (図中、 黒色の丸印) 及びその注目画素とタップ配置決定部 1 6 2からの位 置情報に基づく位置関係にあるフレーム: F n-1乃至 F n+2の画素 (図中、 斜線を付 した丸印) の画素がクラスタヅプとして切り出される。 またフレーム F n上の注目 画素と同位置にある蓄積画像上の画素が注目画素とされ、 その注目画素も、 クラ ス夕ヅブとして切り出される。 図 1 8 Bは、 蓄積画像用メモリ 1 0 3からクラス タヅプ切出部 1 6 3に供給されている蓄積画像を示している。
このクラスタヅプ切出部 1 6 3は、 入力画像から切り出したクラス夕ヅプを特 徴量抽出部 1 0 5に出力する。
特徴量抽出部 1 0 5は、 図 1 9に示すように構成されている。 この特徴量抽出 部 1 0 5において、 領域切出部 1 0 4により入力画像から切り出されたクラス夕 ップは、 D R解析部 1 7 1及び波形解析部 1 7 2に供給される。 また、 領域切出 部 1 0 4により蓄積画像から切り出されたクラスタヅプは、 波形解析部 1 7 2に 供給される。
D R解析部 1 7 1は、 供給されたクラス夕ヅプを構成する画素の画素値のダイ ナミヅクレンジを算出し、 その値を 2進数に変換してクラスコ一ド発生部 1 0 6 に供給する。
波形解析部 1 Ί 2は、 入力画像から切り出されたクラス夕ヅプと蓄積画像から 切り出されたクラスタップについて、 同時に波形の解析を行う。 例えば、 ノイズのない静止画の場合、 同じ画素であればフレーム間での画素値 の変動はあり得ない。 また動画の場合においても、 速い動きではぼけ等の劣化は 見られるが基本的に同一画素では時間的な変動はない。 つまり、 同一画素の値に 変動がある場合、 その変動をノイズとすることができる。 すなわち、 生徒画像か らのクラスタヅプと蓄積画像からのクラスタツプについて波形解析を行うことで、 そこに含まれるノィズを検出することができる。
さらに、 具体的には、 注目画素が動きである場合、 蓄積画像と入力画像の輝度 差があるので、 A D R C処理の結果、 両方の画素の値は異なる。 例えば、 1 ビヅ ト A D R Cの場合、 2つの画素の値は、 (0 , 1 ) 又は ( 1 , 0 ) となる。 一方、 注目画素が静止部分である場合、 輝度差が少ないので、 A D R C処理の結果、 両 方の画素値は、 同じになる可能性が高い、 例えば、 1ビット A D R Cの場合、 2 つの画素の値は、 ( 0, 0 ) 又は ( 1 , 1 ) となる。
特徴量抽出部 1 0 5では、 このような原理を利用して、 波形解析による静動判 定を行い、 領域切出部 1 0 4からのクラスタップからダイナミヅクレンジ及び波 形解析結果を、 また領域切出部 1 0 7からのブロックから、 注目画素が静止であ るか又は動きであるかを示す情報を、 クラス分類をするために必要な特徴量とし て抽出し、 クラスコード発生部 1 0 6に供給する。
クラスコード発生部 1 0 6は、 特徴量抽出部 1 0 5から供給された特徴量に基 づくクラスコードを生成し、 R O Mテーブル 1 0 8に供給する。
R O Mテーブル 1 0 8は、 後述する学習処理により算出された予測係数セヅ ト をクラス毎に記憶しており、 記憶している予測係数セットのうちから、 クラスコ 一ド発生部 1 0 6からのクラスコードに対応するものを推定演算 1 0 9に出力す る。
領域切出部 1 0 7は、 入力画像と蓄積画像から予測タップを切り出し、 推定演 算部 1 0 9に供給する。
図 2 0は、 領域切出部 1 0 Ίの構成例を示している。
この領域切出部 1 0 7において、 入力画像は、 フレームメモリ 1 8 1— 1に供 給され、 蓄積画像用メモリ 1 0 3からの蓄積画像は、 予測タップ切出部 1 8 3に 供給される。 フレームメモリ 1 8 1— 1乃至 18 1— 5は、 図 17のフレームメモリ 1 6 1 _ 1乃至 1 6 1— 5と基本的に同様に動作するので、 その説明は省略する。
タップ配置決定部 1 82は、 フレームメモリ 18 1— 1乃至 18 1— 5から供 給されるフレームの画像データに基づいて、 予測タヅプの配置位置を決定し、 そ の決定結果を予測タップ切出部 1 83に供給する。 なお、 このタップ配置決定部 1 82が行う夕ップ配置決定処理は、 図 5のタツブ配置決定部 3 1の場合と同様 であるので、 その説明は省略する。
予測タヅプ切出部 183は、 フレームメモリ 1 8 1— 3から供給されるフレー ム上の画素を注目画素とし、 その注目画素とタップ配置決定部 1 82からの位置 情報に基づく位置関係にあるフレーム 1 8 1— 1からのフレーム Fn-2、 フレーム 1 8 1— 2からのフレーム Fn-1、 フレーム 18 1— 4からのフレーム: Fn+1及び フレーム 1 8 1— 5からのフレーム Fn+2上の画素を、 予測タヅプとして切り出し、 正規方程式加算部 108に出力する。 予測タップ切出部 183は、 フレーム Fn上 の注目画素と同位置の蓄積画像上の画素も注目画素とし、 その注目画素と所定の 位置関係にある蓄積画像上の画素も予測夕ップとして切り出す。
推定演算部 1 09は、 ROMテーブル 108からの予測係数セヅ トと領域切出 部 197からの画素情報に基づく画素データを用いて、 例えば、 式 (1 ) を演算 して、 その演算結果として出力画像の画素値 yを順次生成する。
すなわち、 推定演算部 1 09では、 切り出された画素の画素値 χ ΐ 5 · · · , X ηと、 予測係数 Wi, · ■ · , wnとの、 例えば、 線形結合により規定される線形 1 次結合モデルである式 ( 1) が演算されて、 出力画像の画素値が算出される。
y = W 1 X X 1 + W 2 X X 2 + · · · + Wn X X η · · · ( 1 ) なお、 式 (1) のような線形 1次式の他、 高次式や線形でない式を演算して、 出力画像の画素値を算出することもできる。
次に、 図 2 1は、 本発明を適用した画像処理装置 190の構成例を示している。 この画像処理装置 1 90は、 ノイズの低減処理と特徴領域のエッジの補正処理を クラス分類適応処理により行う。 そのクラス分類適応処理においては、 後述する 学習処理により算出された予測係数が用いられる。
この画像処理装置 190において、 ノイズを含む入力画像又は特徴領域のエツ ジがぼけている入力画像は、 蓄積画像生成部 1 9 1、 領域切出部 1 9 3及び領域 切出部 1 9 7にそれそれ供給される。
蓄積画像生成部 1 9 1は、 図 1 3に示した画像処理装置 1 0 0の蓄積画像生成 部 1 0 2と同様の構成を有しており、 入力画像と蓄積画像に対して、 重み付け値 qに基づく重み付け加算を行って、 静止部分のノイズを低減したり、 特徴領域を 抽出する。 静止部分のノイズが低減された画像や特徴領域は、 蓄積画像として蓄 積画像用メモリ 1 9 2に供給される。
蓄積画像用メモリ 1 9 2は、 蓄積画像生成部 1 9 1からの蓄積画像を記憶する とともに、 適宜、 領域切出部 1 9 3及び領域切出部 1 9 7に供給する。
領域切出部 1 9 3は、 入力画像からクラスタップを切り出すとともに、 入力画 像と蓄積画像のそれそれからプロヅクを切り出し、 切り出したクラスタップ及び ブロックを画素情報として特徴量抽出部 1 9 4に供給する。
図 2 2は、 領域切出部 1 9 3の構成例を示している。
この領域切出部 1 9 3において、 入力画像は、 フレームメモリ 1 6 1— 1及び ディレイ回路 1 6 4に供給され、 蓄積画像用メモリ 1 9 2からの蓄積画像は、 ブ 口ヅク切出部 1 6 6に供給される。
フレームメモリ 1 6 1— 1は、 生徒画像を、 1 フレーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 2、 夕ヅプ配置決定部 1 6 2及びクラス夕ヅプ 切出部 1 6 3に供給する。
フレームメモリ 1 6 1— 2は、 フレームメモリ 1 6 1— 1からの画像を、 1フ レーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 3、 夕ヅプ配置 決定部 1 6 2及びクラス夕ヅプ切出部 1 6 3に供給する。
フレームメモリ 1 6 1— 3は、 フレームメモリ 1 6 1— 2からの画像を、 1フ レーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 4、 夕ヅプ配置 決定部 1 6 2及びクラスタツプ切出部 1 6 3に供給する。
フレームメモリ 1 6 1— 4は、 フレームメモリ 1 6 1— 3からの画像を、 1フ レーム分遅延させるとともに、 それを、 フレームメモリ 1 6 1— 5、 夕ヅプ配置 決定部 1 6 2及びクラス夕ヅプ切出部 1 6 3に供給する。
フレームメモリ 1 6 1 - 5は、 フレームメモリ 1 6 1— 4からの画像を、 1フ レ一ム分遅延させるとともに、 それを、 タップ配置決定部 1 6 2及びクラスタヅ プ切出部 1 6 3に供給する。
タヅプ配置決定部 1 6 2は、 フレームメモリ 1 6 1— 1乃至 1 6 1— 5から供 給されるフレームの画像データに基づいて、 クラス夕ヅプの配置位置を決定し、 その決定結果を、 クラスタップ切出部 1 6 3に供給する。 なお、 このタップ配置 決定部 1 6 2が行うタップ配置決定処理は、 上述の図 5に示したタップ配置決定 部 3 1の場合ど同様であるので、 その説明は省略する。
クラスタヅブ切出部 1 6 3は、 フレームメモリ 1 6 1— 3から供給されるフレ ーム F n上の画素を注目画素とし、 その注目画素と夕、ソプ配置泱定部 1 6 2からの 位置情報に基づく位置関係にある、 フレーム 1 6 1— 1からのフレーム Fn-2 (フ レーム F nから 2フレーム分前のフレーム) 、 フレーム 1 6 1— 2からのフレーム F n-1 (フレーム から 1 フレーム分前のフレーム) 、 フレーム 1 6 1— 4から のフレーム F n+1 (フレーム F nから 1フレーム分後のフレーム) 及びフレーム 1 6 1— 5からのフレーム: F n+2 (フレーム F nから 2フレーム分後のフレーム) 上 の画素を、 クラスタヅプとして切り出し、 特徴量抽出部 1 0 5に出力する。
このように、 各画素毎に各タップの配置を切り換えることができ、 また動きべ クトルに応じて夕ヅプの位置を変化させることができるので、 動きに対しても各 フレーム間で対応する画素を切り出すことができる。
ディレイ回路 1 6 4は、 フレームメモリ 1 6 1— 3から、 そこに保持されてい た画像がクラス夕ヅプ切出部 1 6 3に供給される夕ィミングに対応して、 フレー ムメモリ 1 6 5から、 そこに保持されていた画像がプロヅク切出部 1 6 6に供給 されるように、 供給された生徒画像を遅延させる。
プロヅク切出部 1 6 6には、 フレームメモリ 1 6 5からの画像とともに、 蓄積 画像用メモリ 1 9 2から蓄積画像が入力される。
プロック切出部 1 6 6は、 入力画像と蓄積画像から、 それそれ同じ位置にある 例えば 8 X 8画素からなるブロックを切り出し、 特徴量抽出部 1 9 4に供給する。 このように、 領域切出部 1 9 3は、 入力画像からクラスタップを切り出し、 そ して入力画像と蓄積画像のそれぞれからブロックを切り出し、 切り出したクラス タップ及びブロックを画素情報として特徴量抽出部 1 9 4に供給する。 そして、 特徴量抽出部 1 94は、 領域切出部 1 9 3から供給された画素情報 (クラス夕ヅプ及びブロック) から、 所定の特徴量を抽出し、 クラスコード発生 部 1 9 5に供給する。
図 2 2は、 特徴量抽出部 1 9 4の構成例を示している。 この特徴量抽出部 1 9 4において、 領域切出部 1 9 3のクラスタップ切出部 1 6 3により切り出された クラスタップは、 D R解析部 1 Ί 1及び波形解析部 1 7 2に供給される。 領域切 出部 1 9 7のブロック切出部 1 6 6により切り出されたブロックは、 静動判定部 1 7 3に供給される。
DR解析部 1 7 1は、 供給されたクラス夕ヅプを構成する画素の画素値のダイ ナミヅクレンジを算出し、 その値を 2進数に変換してクラスコード発生部 1 0 6 に供給する。
波形解析部 1 7 2は、 供給されたクラス夕ップを構成する画素の画素値に基づ いて、 例えば、 1ビッ ト ADR C処理を行って、 波形を解析し、 その解析結果の ビヅ ト列を、 クラスコード発生部 1 9 5に供給する。
静動判定部 1 7 3は、 供給されたブロック毎に、 下記の式 (2 ) を演算し、 ブ ロックを構成する画素の輝度の差分値を算出する。 差分値 = ∑ ∑ I Y [in (x, y) ] — Y [tmp (χ, y) ] · · · ( 2 )
χ y
式 (2) におい、 Y [in (x, y) ] は、 座標 (x、 y) で特定される生徒画 像のブロック上の画素の輝度値を示し、 Y [tmp (x, y) ] は、 座標 (x、 y) で特定される蓄積画像のプロックの画素の輝度値を示している。
また、 静動判定部 1 7 3は、 算出した差分値が、 所定の閾値より大きいか否か を判定し、 その判定結果に基づいて、 注目画素が、 静止であるか又は動きである かを判定する。 算出した差分値が所定の閾値より大きいと判定した場合、 注目画 素は動きであるとして、 静動判定部 1 7 3は、 その旨を示す情報、 例えば、 値 0 をクラスコード発生部 1 9 5に出力する。 一方、 算出した差分値が、 その閾値よ り小さいと判定した場合、 注目画素は静止であるとして、 静動判定部 1 7 3は、 その旨を示す情報、 例えば、 値 1をクラスコード発生部 1 9 5に出力する。 このように、 特徴量抽出部 1 9 4は、 領域切出部 1 9 3からのクラスタップか らダイナミックレンジ及び波形解析結果を、 また、 領域切出部 1 9 7からのプロ ックから注目画素が静止であるか又は動きであるかを示す情報を、 生成する画素 をクラス分類するために必要な特徴量として抽出し、 クラスコード発生部 1 9 5 に供給する。
この例の場合、 注目画素の動きが特徴量とされたが、 それに代えて、 生徒画像 のブロックと蓄積画像のプロヅク間の輝度差分を特徴量とすることもできる ( 1 画素間の輝度差分でもよい) 。 また、 注目画素の動きと輝度差分の両方を特徴量 とすることもできる。
クラスコード発生部 1 9 5は、 特徴量抽出部 1 9 4から供給された特徴量に基 づくクラスコ一ドを生成し、 R O Mテーブル 1 9 6に供給する。
R O Mテーブル 1 9 6は、 上述した学習処理により算出された予測係数セット をクラス毎に記憶しており、 記憶している予測係数セヅ トのうちから、 クラスコ ―ド発生部 1 9 5からのクラスコードに対応するものを推定演算部 1 9 8に出力 する。
領域切出部 1 9 7は、 図 1 3に示した画像処理装置 1 0 0の領域切出部 1 0 7 と同様の構成すなわち図 2 0に示した構成を有しており、 入力画像と蓄積画像か ら、 予測夕ヅブを切り出し、 推定演算部 1 9 8に供給する。
推定演算部 1 9 8は、 R O Mテーブル 1 9 6からの予測係数セヅトと領域切出 部 1 9 7からの画素情報に基づく画素データを用いて、 例えば、 上述の式 ( 1 ) を演算して、 その演算結果として出力画像の画素値 yを順次生成する。
次に、 このような構成の画像処理装置 1 9 0において、 ノイズが低減された画 像を生成する場合の動作を説明する。
ノイズを含む入力画像は、 蓄積画像生成部 1 9 1、 領域切出部 1 9 3及び領域 切出部 1 9 7に供給される。
蓄積画像生成部 1 9 1は、 この場合、 上記画像処理装置 1 0 0の蓄積画像生成 部 1 0 2と同様の構成すなわち図 1 4又は図 1 5で示した構成を有している。 す なわち、 蓄積画像生成部 1 9 1は、 静止部分のノイズを効果的に低減して、 蓄積 画像を生成する。 生成した蓄積画像は、 蓄積画像用メモリ 1 9 2に供給され、 そ こに記憶される。
領域切出部 1 9 3は、 入力画像からクラスタップを切り出すとともに、 入力画 像及び蓄積画像からブロックを切り出し、 それらを特徴量抽出部 1 9 4に供給す る。
この例の場合、 図 2 4に示すように、 フレーム F n上の注目画素 (図中、 黒色の 丸印) 、 その注目画素と、 タップ配置決定部からの位置情報に基づく位置関係に あるフレーム F n-2、 フレーム F n-1、 フレーム: F n+1及びフレーム: F n+2の画素 (図中、 斜線を付した丸印) の合計 5つの画素が、 クラスタップとして切り出さ れる。
特徴量抽出部 1 9 4は、 領域切出部 1 9 3からのクラスタップに基づいて、 ク ラス夕ヅプを構成する画素の画素値のダイナミヅクレンジの算出し、 また 1 ビヅ ト A D R C処理による波形解析を行うとともに、 領域切出部 1 9 3からのプロヅ クに基づいて、 注目画素の静動判定を行う。
特徴量抽出部 1 9 4は、 そのダイナミックレンジ、 波形解析結果及び静動判定 結果をクラスコード発生部 1 9 5に供給する。
クラスコード発生部 1 9 5は、 特徴量抽出部 1 9 4からのデータに基づくクラ スコードを生成し、 R O Mテーブル 1 9 6に供給する。
R Q Mテーブル 1 9 6は、 クラス毎に記憶しているノイズを低減するための予 測係数セヅ トのうちから、 クラスコード発生部 1 9 5からのクラスコードに対応 するものを推定演算部 1 9 8に出力する。
領域切出部 1 9 7は、 入力画像と蓄積画像から予測タップを切り出し、 推定演 箅部 1 9 8に供給する。
この例の場合、 図 2 5 Aに示すように、 フレーム; Fn上の注目画素 (図中、 黒色 の丸印) 、 その注目画素とタップ配置決定部からの位置情報に基づく位置関係に あるフレーム F n-1乃至 F n+2の画素 (図中、 斜線が付されている丸印) の、 それ それ 1 3個ずつの画素が、 予測夕ヅプとして切り出される。 また、 図 2 5 Bに示 すように、 フレーム F n上の注目画素と同位置にある蓄積画像上の画素が注目画素 (図中、 黒丸の丸印) とされ、 その注目画素と所定の位置関係にある蓄積画像上 の画素 (図中、 斜線を付した丸印) も予測タップとして切り出される。 推定演算部 1 9 8は、 R O Mテーブル 1 9 6からの予測係数セ、ソ トと領域切出 部 1 9 7からの画素情報に基づく予測タップの画素データを用いて、 例えば、 上 述の式 ( 1 ) を演算し、 出力画像の画素値 yを順次生成する。
次に、 この画像処理装置 1 9 0において、 特徴領域のエッジがぼけていない画 像を生成する場合の動作を説明する。
この例の場合、 入力画像から高精細の画像を生成することで、 特徴領域のェヅ ジが補正される。 すなわち、 蓄積画像生成部 1 9 1においては、 図 2 6 Aに示す ように、 入力画像及び蓄積画像が、 その特徴領域の画素の位相を所定の位相だけ ずれにようにして合成されることにより、 蓄積画像としての特徴領域が抽出され る。 これにより、 蓄積画像は、 図 2 6 Bに示すように、 最終的に生成される画像 の同じ画素密度を有する高精細な画像となる。
領域切出部 1 9 3の動作は、 基本的に、 ノイズを低減する場合と同様であるの で、 その詳細な説明は省略するが、 この例の場合のクラス夕ヅプは、 図 2 7に示 すような構成を有するものとする。
最終的に生成される画像 (フレーム F n及び蓄積画像と同時刻の画像) 上の注目 画素 (図中、 黒色の丸印) に対して所定の位置関係にあるフレーム: F nの 8個の画 素、 フレーム F n-2, F n-1 , F n+1, F n+2のそれそれ 5個の画素 (図 2 7 A ) 及 び蓄積画像の 1 1個の画素から構成される。
なお、 図 2 8に示すように、 入力画像の画素間に位置する生成される画像の画 素が注目画素とされている場合、 その中のいずれの画素が注目画素となっても、 クラスタップとして切り出されるフレーム F n-2乃至 F n+2上の画素は同じである。 蓄積画像から切り出される画素は、 注目画素の位置により異なる。
なお、 以上においては、 クラスタップと予測タップの構造が異なる場合を例と して説明したが、 同一の構造にすることもできる。
このような構成の画像処理装置 1 9 0では、 図 2 9に示すフローチヤ一トの手 順に従って画像処理を行う。
すなわち、 この画像処理装置 1 9 0は、 先ず、 ステヅプ S 1 1 1において入力 画像を取得する。
次のステヅプ S 1 1 2では、 蓄積画像生成部 1 9 1により、 入力画像から静止 部分のノイズを低減した特徴領域を抽出し、 蓄積画像用メモリ 1 9 2に蓄積画像 として記憶する。
次のステヅプ S 1 1 3では、 領域切出部 1 9 3により、 入力画像からクラス夕 ップを切り出すとともに、 入力画像と蓄積画像のそれそれからプロックを切り出 す。
次のステヅプ S 1 1 4では、 領域切出部 1 9 3により切り出されたクラスタヅ プ及びブロックに基づいて、 特徴量抽出部 1 9 4により入力画像とから所定の特 微量を抽出する。
次のステップ S 1 1 5では、 特徴量抽出部 1 9 4により抽出された特徴量に基 づいて、 クラスコード発生部 1 9 5によりクラスコードを生成する。
次のステヅプ S 1 1 6では、 クラスコード発生部 1 9 5により生成されたクラ スコードに対応する予測係数セヅトを R O Mテ一ブル 1 9 6から出力する。
次のステップ S 1 1 7では、 R O Mテーブル 1 9 6からの予測係数セヅトと領 域切出部 1 9 7からの画素情報に基づく予測タップの画素データを用いて、 推定 演算部 1 9 8により予測演算を行う。
次のステヅプ S 1 1 8では、 推定演算部 1 9 8により予測演算した出力画像の 画素値を順次出力する。
そして、 この画像処理装置 1 9 0は、 次のステヅプ S 1 1 8において、 出力画 像の全ての画素値を出力したか否かを判定し、 出力していない画素値があるとき には、 上記ステヅプ S 1 1 1に戻り、 ステヅプ S 1 1 1からステップ S 1 1 8の 処理を繰り返し行い、 出力画像の全ての画素値を出力して画像処理を終了する。 次に、 図 3 0は、 本発明を適用した画像処理装置 3 0 0の構成例を示している c この画像処理装置 3 0 0は、 上述の各画像処理装置 1 0 0 , 1 9 0における画像 生成処理に使用する予測係数を求める学習処理を行う。
この画像処理装置 3 0 0において、 学習における教師画像となるべき画像、 例 えば、 ノイズが含まれていない画像又は特徴領域のェヅジがぼけていない画像が、 生徒画像生成部 3 0 1及び正規方程式加算部 3 0 8に供給される。
生徒画像生成部 3 0 1は、 教師画像に対し所定の処理を施すことにより、 画像 生成処理における入力画像に相当する生徒画像を生成する。 例えば、 教師画像に ノイズを付加することにより、 ノイズが低減された画像を生成する処理における 予測係数を算出するための生徒画像を生成し、 又は教師画像の解像度を落とすこ とにより、 例えば、 その画素数を間引くことより、 特徴領域のエッジがぼけてい ない画像を生成する処理における予測係数を算出するための生徒画像を生成する ことができる。
例えば、 ノイズを付加する場合、 生徒画像生成部 3 0 1は、 ランダムノイズを 発生し、 それを教師画像に付加することもできるし、 図 3 1乃至図 3 3に示すよ うな構成を有することで、 ノイズを教師画像に付加することもできる。
図 3 1に示す生徒画像生成部 3 0 1の場合、 R F変調器 3 2 1は、 教師画像に R F変調を施し、 ァヅテネ一夕 3 2 2に供給する。 ァヅテネ一夕 3 2 2は、 R F 変調器 3 2 1の出力に減衰処理を施し、 R F復調器 3 2 3に出力する。 復調 器 3 2 3は、 アツテネ一夕 3 2 2の出力を R F復調することにより、 教師画像に ノィズが付加された画像を生成する。
図 3 2に示す生徒画像生成部 3 0 1の場合、 背景が一様な画像が R F変調器 3 2 1 と減算器 3 2 4に供給される。 R F変調器 3 2 1乃至 R F復調器 3 2 3の処 理は、 図 3 2の場合と同様であるので、 その詳細な説明は省略する。 なお、 R F 復調器 3 2 3の出力は、 減算器 3 2 4に供給される。 減算器 3 2 4は、 背景が一 様な画像と R F復調器 3 2 3の出力との差分を算出し、 加算器 3 2 5に出力する t 加算器 3 2 5は、 減算器 3 2 4の出力を教師画像に加算して、 教師画像にノイズ が付加された画像を生成する。
図 3 3に示す生徒画像生成部 3 0 1では、 背景が一様な画像が、 R F変調器 3 2 1に供給される。 R F変調器 3 2 1乃至 R F復調器 3 2 3の処理は、 図 3 1の 場合と同様であるので、 その詳細な説明は省略するが、 R F復調器 3 2 3の出力 は、 減算器 3 2 4とフレ一ム加算回路 3 2 6に供給される。 フレーム加算回路 3 2 6は、 R F復調器 3 2 3から供給されるフレームを加算することによって R F 復調器 3 2 3の出力からノイズが除去された画像を生成し、 減算器 3 2 4に供給 する。 減算器 3 2 4及び加算器 3 2 5の処理は、 図 3 2の場合と同様であるので、 その説明は省略する。
そして、 この画像処理装置 3 0 0において、 蓄積画像生成部 3 0 2は、 上述の 図 1 3に示した画像処理装置 1 0 0や図 2 1に示した画像処理装置 1 9 0の蓄積 画像生成部 1 0 2 , 1 9 1と同様な構成すなわち図 1 4乃至図 1 6に示した構成 のものが用いられる。 そして、 この蓄積画像生成部 3 0 2においては、 生徒画像 と、 1 フレーム分前の蓄積画像に対して、 重み付け値 qに基づく重み付け加算が 行われる。 例えば、 値 q = 0 . 8である場合、 生徒画像を 2 0 %、 蓄積画像を 8 0 %で足し合わせた蓄積画像が生成される。 このように、 生徒画像と、 1フレー ム分前の蓄積画像が所定の割合で足し合わされるので、 静止部分のノイズが効果 的に低減される。 また蓄積画像には、 複数の画像が、 ある割合で蓄積されて足し 合わされるので、 静止部分のノィズがより効果的に低減される。
そして、 蓄積画像生成部 3 0 2は、 生成 (抽出) した、 ノイズが低減された画 像と特徴領域を蓄積画像として蓄積画像用メモリ 3 0 3に供給する。
蓄積画像用メモリ 3 0 3は、 蓄積画像生成部 3 0 2からの画像を記憶するとと もに、 適宜、 蓄積画像を領域切出部 3 0 4及び領域切出部 3 0 7に供給する。 領域切出部 3 0 4は、 生徒画像生成部 3 0 1からの生徒画像及び蓄積画像用メ モリ 3 0 3からの蓄積画像からクラス分類に必要な画素情報を切り出し、 特徴量 抽出部 3 0 5に供給する。 領域切出部 3 0 4には、 上述の画像処理装置 1 9 0に おける領域切出部 1 9 3と同様な構成すなわち図 2 2に示じた構成のものが用い られる。 この領域切出部 3 0 4は、 生徒画像からクラスタップを切り出し、 また、 図 3 4 A, 図 3 4 Bに示すように、 生徒画像と蓄積画像から、 それそれ同じ位置 にある例えば 8 8画素からなるプロヅクを切り出し、 切り出したクラスタヅフ。 及びプロックを、 画素情報として、 特徴量抽出部 3 0 5に供給する。
特徴量抽出部 3 0 5は、 領域切出部 3 0 4からのクラスタップからダイナミヅ クレンジ及び波形解析結果を、 また領域切出部 3 0 4からのブロックから注目画 素が静止であるか又は動きであるかを示す情報を、 生成する画素をクラス分類す るために必要な特徴量として抽出し、 クラスコード発生部 3 0 6に供給する。 こ の特徴量抽出部 3 0 5には、 上述の画像処理装置 1 0 0における特徴量抽出部 1 0 5と同様な構成すなわち図 2 3に示した構成のものが用いられる。
この例の場合、 注目画素の動きが特徴量とされたが、 それに代えて、 生徒画像 のプロヅクと蓄積画像のプロック間の輝度差分を特徴量とすることもできる ( 1 画素間の輝度差分でもよい) 。 また、 注目画素の動きと輝度差分の両方を特徴量 とすることもできる。
また、 クラスコード発生部 3 0 6は、 特徴量抽出部 3 0 5からの特徴量に基づ くクラスコードを生成し、 正規方程式加算部 3 0 8に供給する。
領域切出部 3 0 7は、 生徒画像生成部 3 0 1からの生徒画像及び蓄積画像用メ モリ 3 0 3からの蓄積画像から予測に必要な画素情報をそれそれ切り出し、 正規 方程式加算部 3 0 8に供給する。 この領域切出部 3 0 7には、 上述の画像処理装 置 1 0 0における領域切出部 1 0 7と同様な構成すなわち図 2 0に示した構成の ものが用いられる。
正規方程式加算部 3 0 8は、 クラスコ一ド発生部 3 0 6からのクラスコード、 教師画像及び領域切出部 3 0 7からの予測タップに基づいて、 予測係数を解とす る正規方程式を解くために必要なデータを算出し、 その算出結果を予測係数決定 部 3 0 9に出力する。
予測係数決定部 3 0 9は、 正規方程式加算部 3 0 8からの算出結果を利用して、 所定の演算を行うことにより、 クラス毎の予測係数を決定し、 それをメモリ 3 1 0に供給する。 メモリ 3 1 0は、 それを記憶する。
ここで、 正規方程式加算部 3 0 8及び予測係数決定部 3 0 9において行われる 演算について説明する。
上述の画像生成処理においては、 例えば、 入力画像 (ノイズを含む入力画像又 は特徴領域のエッジがぼけている入力画像) と蓄積画像 (静止部分のノイズが低 減された蓄積画像又は抽出された特徴領域としての蓄積画像) から、 注目画素と 所定の位置関係にある画素が切り出される。 そして、 切り出されたこれらの画素 の画素値 (生徒データ) χ ΐ 5 · · · , と、 学習処理で算出された予測係数 w
1 , · · · , W nとの、 例えば、 線形結合により規定される線形 1次結合モデルで ある上記式 (1 ) が演算されて、 出力画像の画素値が算出される。
なお、 式 (1 ) のような、 線形 1次式の他、 高次式や線形でない式を演算して、 出力画像の画素値を算出することもできる。
式 ( 1 ) は、 式 (3 ) のように示すことができるが、 式 (3 ) において、 k = 1 , 2, 3, · · ·, m ( > n ) である場合、 予測係数 wは、 一意に決まらない ので、 予測係数 wは、 所謂最小 2乗法によって求められる。
y ¾ = W l X X ]c l+W2X k2+ ' · * + W n X X kn . . . ( 3 ) すなわち、 誤差ベクトル eの要素 ekを式 (4) で定義した場合の、 式 ( 5) の 値が最小となるように予測係数が求められる。
e k= y k— (wi x ki + W2X k 8 + · · · + wn x x ¾η · · · 4)
e 2 = ≥^ e k: (5)
最小 2乗法について、 具体的に説明すると、 e2が式 (6) に示すように、 予測 係数 W i ( i = l, 2, · · ·) で偏微分される。
そこで、 切り出された入力画像又は蓄積画像の画素値からなる生徒データ X j i を式 (7) に示すように、 そして教師画像の画素値 (教師デ一夕) y iを式 (8) に示すように定義すると、 式 (6) を式 (9) に示すように、 一般的に正規方程 式と呼ばれる行列式に表すことができる。 なお、 生徒データ X 31は、 i件目の生 徒データの集合 (i件目の教師デ一夕 y iの予測に用いる生徒デ一夕の集合) の中 の j番目の生徒デ一夕を意味する。
X p j (7)
y i = ∑ ki · k (8)
k= 1 2 X w 广 5 、
X 2 1 2: X 2 n W 2 y
( 9 )
X X X n nン w n
すなわち、 正規方程式加算部 3 0 8は、 供給される生徒画像、 蓄積画像及び教 師画像に基づいて式 (7 ) 及び式 (8 ) を演算し、 生徒画像又は蓄積画像の画素 の画素値からなる生徒デ一夕 及び教師画像の画素値の教師データ y iをそれそ れ計算する。 予測係数決定部 3 0 9は、 掃き出し法等の一般的な行列解法に従つ て、 式 (9 ) の正規方程式を解き、 予測係数 wを算出する。
このような構成の画像処理装置 3 0 0では、 図 3 5に示すフローチャートの手 順に従って画像処理を行う。
すなわち、 この画像処理装置 3 0 0は、 先ず、 ステップ S 1 2 1において教師 画像を取得する。
次のステップ S 1 2 2では、 生徒画像生成部 3 0 1において、 ステップ S 1 2 1で取得した教師画像に対し所定の処理を施すことにより、 画像生成処理におけ る入力画像に相当する生徒画像を生成する。
次のステップ S 1 2 3では、 蓄積画像生成部 3 0 2において、 生徒画像と 1フ レーム分前の蓄積画像を重み付け加算することにより、 生徒画像から静止部分の ノイズを低減した特徴領域を抽出し、 蓄積画像用メモリ 3 0 3に蓄積画像として 記憶する。
次のステップ S 1 2 4では、 領域切出部 3 0 4により、 クラス分類に必要な画 素情報として、 生徒画像生成部 3 0 1により生成された生徒画像からクラスタツ プを切り出すとともに、 上記生徒画像と蓄積画像からそれぞれ同じ位置にある複 数画素からなるプロックを切り出す。
次のステップ S 1 2 5では、 特徴量抽出部 3 0 5は、 生成する画素をクラス分 類するために必要な特徴量として、 領域切出部 3 0 4により切り出されたクラス タヅプからダイナミックレンジ及び波形解析結果を得るとともに、 領域切出部 3 0 4により切り出されたブロックから注目画素が静止であるか又は動きであるか を示す情報を抽出する。
次のステップ S 1 2 6では、 特徴量抽出部 3 0 5により抽出された特徴量に基 づいて、 クラスコード究生部 3 0 6によりクラスコ一ドを生成する。
次のステ.ヅブ S 1 2 7では、 正規方程式加算部 3 0 8において、 クラスコード 発生部 3 0 6からのクラスコード、 教師画像及び領域切出部 3 0 7からの予測夕 ップに基づいて、 予測係数を解とする正規方程式を解くために必要なデータを算 出する。
次のステップ S 1 2 8では、 予測係数決定部 3 0 9において、 正規方程式加算 部 3 0 8からの算出結果を利用して、 所定の演算を行うことにより、 クラス毎の 予測係数を決定する。
次のステップ S 1 2 9では、 予測係数決定部 3 0 9により算出されたクラス毎 の予測係数をメモリ 3 1 0に格納する。
そして、 この画像処理装置 3 0 0は、 次のステヅブ S 1 3 0において、 全ての 画像デ一夕について処理を行った否かを判定し、 処理すべき画像デ一夕があると きには、 上記ステップ S 1 2 1に戻り、 ステップ S 1 2 1からステヅプ S 1 3 0 の処理を繰り返し行い、 全ての画像デ一夕を処理して学習処理を終了する。 ここで、 生徒画像生成部 3 0 1として上述の図 3 1の構成を採用した場合、 上 記ステップ S 1 2 2における生徒画像の生成処理は、 図 3 6に示すフローチヤ一 トの手順に従って行われる。
すなわち、 この生徒画像生成部 3 0 1は、 ステップ S 1 3 1において、 ァヅテ ネータ 3 2 2により教師画像にノイズを直接付加する。
次のステヅブ S 1 3 2では、 ステヅプ S 1 3 1の処理でノイズが付加された教 師画像を生徒画像として出力する。
次のステヅプ S 1 3 3では、 1フィ一ルド分の全ての画像デ一夕画像データに ついて処理を行った否かを判定し、 処理すべき画像データがあるときには、 上記 ステヅプ S 1 3 1に戻り、 ステップ S 1 3 1からステヅプ S 1 3 3の処理を繰り 返し行い、 全ての画像デ一夕を処理して生徒画像の生成処理を終了する。
また、 生徒画像生成部 3 0 1 として上述の図 3 2の構成を採用した場合、 上記 ステップ S 1 2 2における生徒画像の生成処理は、 図 3 7に示すフローチャート の手順に従って行われる。
すなわち、 この生徒画像生成部 3 0 1は、 ステップ S 1 4 1において、 ァヅテ ネー夕 3 2 2により背景が一様な画像に対してノイズを付加する。
次のステヅブ S 1 4 2では、 上記ステヅブ S 1 1の処理でノイズが付加され た背景が一様な画像から、 減算器 3 2 4により元の背景が一様な画像を引くこと で、 上記ァヅテネー夕 3 2 2によるノィズ成分のみを抽出する。
次のステップ S 1 4 3では、 上記ステヅブ S 1 4 2の処理で抽出されたノイズ を加算器 3 2 5により教師画像に付加する。
次のステップ S 1 4 4では、 上記ステヅブ S 1 3の処理でノイズが付加され た教師画像を生徒画像として出力する。
次のステヅプ S 1 5では、 1フィールド分の全ての画像デ一夕画像デ一夕に ついて処理を行った否かを判定し、 処理すべき画像デ一夕があるときには、 上記 ステップ S 1 4 1に戻り、 ステヅプ S 1 4 1からステップ S 1 4 5の処理を繰り 返し行い、 全ての画像デ一夕を処理して生徒画像の生成処理を終了する。
また、 生徒画像生成部 3 0 1として上述の図 3 3の構成を採用した場合、 上記 ステヅプ S 1 2 2における生徒画像の生成処理は、 図 3 8に示すフローチャート の手順に従って行われる。
すなわち、 この生徒画像生成部 3 0 1は、 ステップ S 1 5 1において、 ァヅテ ネー夕 3 2 2により背景が一様な画像に対してノィズを付加する。
次のステヅプ S 1 5 2では、 上記ステップ S 1 1の処理でノイズが付加され た背景が一様な画像をフレーム加算回路 3 2 6でフレーム加算することによって ノイズが除去された画像を生成する。
次のステップ S 1 5 3では、 上記ステヅプ S 1 5 1の処理でノイズが付加され た背景が一様な画像から、 減算器 3 2 4により、 上記ステヅプ S 1 5 1の処理で ノイズが除去された画像を引くことで、 上記ァヅテネータ 3 2 2によるノイズ成 分のみを抽出する。 次のステツプ S 1 5 4では、 上記ステヅプ S 1 5 3の処理で抽出されたノィズ を加算器 3 2 5により教師画像に付加する。
次のステヅプ S 1 5 5では、 上記ステップ S 1 5 3の処理でノイズが付加され た教師画像を生徒画像として出力する。
次のステヅプ S 1 5 6では、 1フィ一ルド分の全ての画像デ一夕について処理 を行った否かを判定し、 処理すべき画像データがあるときには、 上記ステップ S 1 5 1に戻り、 ステヅプ S 1 5 1からス ヅプ S 1 5 6の処理を繰り返し行い、 全ての画像データを処理して生徒画像の生成処理を終了する。
さらに、 上記ステップ S 1 2 2における生徒画像の生成処理において、 生成す る生徒画像よりも教師画像の解像度が高い場合には、 図 3 9に示すフローチヤ一 トの手順に従って生徒画像の生成処理を行う。
すなわち、 生徒画像生成部 3 0 1では、 ステップ S 1 6 1において、 教師画像 に対し、 閭引き若しくはフィル夕処理により、 解像度を落とす処理を施す。 次のステップ S 1 6 2では、 上記ステヅプ S 1 6 1の処理で解像度を落とした 教師画像を生徒画像として出力する。
次のステヅプ S 1 6 3では、 1フィールド分の全ての画像デ一夕について処理 を行った否かを判定し、 処理すべき画像データがあるときには、 上記ステップ S 1 6 1に戻り、 ステップ S 1 6 1からステップ S 1 6 3の処理を繰り返し行い、 全ての画像デ一夕を処理して生徒画像の生成処理を終了する。
また、 蓄積画像生成部 3 0 2として上述の図 1 4の構成を採用した場合、 上記 ステップ S 1 2 3における蓄積画像の生成処理は、 図 4 0に示すフローチャート の手順に従って行われる。
すなわち、 この蓄積画像生成部 3 0 2は、 ステップ S 1 7 1において、 前フィ —ルド時の蓄積画像を蓄積画像用メモリ 3 0 3から取得する。
次のステップ S 1 7 2では、 前フィールド時の蓄積画像に重み付け値 qを乗算 し、 生徒画像に重み付け値 1— qを乗算する。
次のステップ S 1 7 3では、 上記ステップ S 1 7 2で重み付け値 (q, 1— q ) を乗算した前フィールド時の蓄積画像と生徒画像を加算合成して新たな蓄積 画像とする。 次のステップ S 1 7 4では、 上記ステップ S 1 7 3で合成した新たな蓄積画像 を出力する。
次のステヅプ S 1 7 5では、 1フィールド分の全ての画像データについて処理 を行った否かを判定し、 処理すべき画像データがあるときには、 上記ステップ S 1 7 1に戻り、 ステヅブ S 1 7 1からステップ S 1 7 5の処理を繰り返し行い、 全ての画像データを処理して蓄積画像の生成処理を終了する。
また、 蓄積画像生成部 3 0 2として上述の図 1 5の構成を採用した場合、 上記 ステヅプ S 1 2 3における蓄積画像の生成処理は、 図 4 1に示すフロ一チャート の手順に従って行われる。
すなわち、 この蓄積画像生成部 3 0 2は、 ステップ S 1 8 1において、 前フィ ールド時の蓄積画像を蓄積画像用メモリ 3 0 3から取得する。
次のステヅプ S 1 8 2では、 動き検出部 1 4 1において、 同位置の画素の差分 をとり静動判定を行う。
次のステップ S 1 8 3では、 ステヅプ S 1 8 2で算出した同位置の画素の差分 値に基づいて重み付け値 qを決定する。
次のステップ S 1 8 4では、 前フィールド時の蓄積画像に重み付け値 qを乗算 し、 生徒画像に重み付け値 1—qを乗算する。
次のステヅプ S 1 8 5では、 上記ステヅプ S 1 8 4で重み付け値 ( q, 1— q ) を乗算した前フィールド時の蓄積画像と生徒画像を加算合成して新たな蓄積 画像とする。
次のステップ S 1 8 6では、 上記ステヅプ S 1 8 5で合成した新たな蓄積画像 を出力する。
次のステツプ S 1 8 7では、 1フィールド分の全ての画像デ一夕について処理 を行った否かを判定し、 処理すべき画像データがあるときには、 上記ステップ S 1 8 1に戻り、 ステップ S 1 8 1からステップ S 1 8 7の処理を繰り返し行い、 全ての画像データを処理して蓄積画像の生成処理を終了する。
また、 蓄積画像生成部 3 0 2として上述の図 1 6の構成を採用した場合、 上記 ステップ S 1 2 3における蓄積画像の生成処理は、 図 4 2に示すフローチャート の手順に従って行われる。 すなわち、 この蓄積画像生成部 3◦ 2は、 ステヅプ S 1 9 1において、 前フィ ールド時の蓄積画像を蓄積画像用メモリ 3 0 3から取得する。
次のステップ S 1 9 2では、 蓄積メモリ 1 5 3から供給される蓄積画像上から、 抽出回路 1 5 4により特徴領域を抽出する。
次のステップ S 1 9 3では、 ステヅブ S 1 9 2で抽出した特徴領域に基づいて 同密度動きべク トルの検出を行う。 すなわち、 動きべクトル検出回路 1 5 5によ り、 抽出回路 1 5 4からの特徴領域と、 生徒画像内における特徴領域との間の動 きぺクトル動きべクトルを検出する。
次のステップ S 1 9 4では、 ステップ S 1 9 3で検出した動きべクトルに基づ いて、 位相シフ ト回路 1 5により蓄積メモリ 1 5 3からの蓄積画像の位相をシフ トさせ、 生徒画像と位置を合わせる。
次のステップ S 1 9 5では、 ステヅブ S 1 9 4で位置を合わせた蓄積画像と生 徒画像を加算合成して新たな蓄積画像とする。
次のステップ S 1 9 6では、 上記ステップ S 1 9 5で合成した新たな蓄積画像 を出力する。
次のステヅプ S 1 9 7では、 1フィールド分の全ての画像データについて処理 を行った否かを判定し、 処理すべき画像データがあるときには、 上記ステヅプ S 1 8 1に戻り、 ステヅプ S 1 9 1からステヅプ S 1 9 7の処理を繰り返し行い、 全ての画像データを処理して蓄積画像の生成処理を終了する。
さらに、 上記ステップ S 1 2 3における蓄積画像の生成処理において、 生成す る生徒画像よりも蓄積画像の解像度が高い場合には、 図 4 3に示すフローチヤ一 トの手順に従って蓄積画像の生成処理を行う。
すなわち、 この蓄積画像生成部 3 0 2は、 ステヅプ S 2 0 1において、 前フィ ールド時の蓄積画像を蓄積画像用メモリ 3 0 3から取得する。
次のステップ S 2 0 2では、 蓄積メモリ 1 5 3から供給される N倍密度の蓄積 画像上から、 抽出回路 1 5 4により特徴領域を抽出する。
次のステップ S 2 0 3では、 ステップ S 1 9 2で抽出した特徴領域に基づいて、 生徒画像について 1 : N密度動きべクトルの検出を行う。
次のステヅプ S 1 9 4では、 ステヅプ S 1 9 3で検出した動きべク トルに基づ いて、 位相シフト回路 1 5 6により蓄積メモリ 1 5 3からの蓄積画像の位相をシ フトさせ、 生徒画像と位置を合わせる。
次のステヅプ S 1 9 5では、 ステップ S 1 9 4で位置を合わせた蓄積画像と生 徒画像を加算合成して新たな蓄積画像とする。
次のステップ S 1 9 6では、 上記ステヅブ S 1 9 5で合成した新たな蓄積画像 を出力する。
次のステップ S 1 9 7では、 1フィールド分の全ての画像データについて処理 を行った否かを判定し、 処理すべき画像デ一夕があるときには、 上記ステヅプ S 1 8 1に戻り、 ステヅプ S 1 9 1からステヅブ S 1 9 7の処理を繰り返し行い、 全ての画像データを処理して蓄積画像の生成処理を終了する。
ここで、 入力画像 (生徒画像) より高画質な画像 (蓄積画像) を生成する場合 の動きぺクトル検出処理について説明する。
例を図 4 4 Aに示す。 図 4 4 Aは、 1枚の画像 (基準画像) P sと、 この画像 P sに対して垂直方向で 4倍の密度の画像 P hとの間の動きべクトル検出につい て示した図である。 図 4 4 Aにおいて、 破線のラインは、 ラインの位置を表し、 実際には、 画素が存在しないラインである。 4倍密画像 P hは、 基準画像 P sと 空間的に一致し、 ライン位置が基準画像 P sと一致するものと、 ライン位置を 1 ラインずつずらした 3枚の画像との合計 4枚の 1倍密画像 P h 1, P h 2 , P h 3, P h 4と扱うことができる。
すなわち、 図 4 4 Aにおいて、 P h iは、 高密度画像 P liの連続する 4ライン の組で最も上に位置するラインを選択することで得られるものである。 P h 2は、 この 4ラインの組の上から 2番目に位置するラインを選択することで得られるも のである。 P h 3は、 この 4ラインの組の上から 3番目に位置するラインを選択 することで得られるものである。 P h 4は、 この 4ラインの組の最も下に位置す るラインを選択することで得られるものである。 これらの画像 P h 1〜P h 4を 合わせることで 4倍密画像が構成される。
最初に、 図 4 4 Bに示すように、 同一の大きさで同一の形の基準ブロック; B s 及び参照ブロック B h l (図 4 4 Bでは、 5 X 5のブロックが示されている) を 画像 P s及び P h 1〜: P h 4の中の 1枚の画像例えば P 1の空間的に対応する 位置に設定する。 そして、 図 4 5に示すように、 基準ブロヅク B sと同一の位置 に存在する画素の画素値同士の差分の絶対値を求め、 この絶対値を 1プロックに わたって集計し、 絶対値和を求める。 次に、 図 4 5において破線で示すように、 参照プロック B h 1を 1倍密画像の画素単位で種々の位置に移動し、 移動後の位 置で絶対値和をそれそれ求める。 求めた絶対値和を絶対値和のテーブルに格納す る。
移動範囲は、 探索範囲として規定される。 例えば水平方向に 1画素ずつずれた 5個の参照プロックと、 垂直方向に 1画素ずつずれた 3個の参照プロックとの合 計 5 X 3個の参照プロヅクに関して絶対値和が計算される。 その場合には、 図 4 6 Aに示すように、 5 X 3個の絶対値和テーブル T 1が得られる。 5 x 3の範囲 の中央位置が原点 0である。 原点〇は、 基準プロック B s及び参照プロック B h 1の空間的な中心と一致する。 もし、 後述するように得られた最終的な絶対値和 テーブル T Oの中で、 最小値を与える参照ブロックの位置が原点にある時は、 動 きぺク トリレが 0である。
次に、 参照プロヅク B h 1と同様の大きさで同一の形の参照プロック B h 2を 間引かれた画像 P h 2の空間的に同一の位置に設定する。 参照プロック 1の 場合と同様に、 基準プロヅク B sと参照プロヅク B h 2の間の差分の絶対値和を 求め、 絶対値和のテーブル T 2を得る。 このテーブル T 2は、 空間的には、 テー ブル T 1より 4倍密画像の 1ライン下側の位置のものである。 さらに、 参照プロ ヅク B h 3、 B h 4についても、 参照ブロック B h l、 B h 2と同様に基準プロ ヅク B sとのプロヅクマヅチングを行い、 求めた絶対値和のテーブル T 3及び T 4を得る。 テーブル T 3は、 空間的には、 テ一ブル T 2より 4倍密画像の 1ライ ン下側の位置であり、 テーブル T 4は、 空間的には、 テーブル T 3より 4倍密画 像の 1ライン下側の位置である。
そして、 図 4 6 Bに示すように、 4個のテーブルを 4倍密画像から 4枚の 1倍 密画像を得る時と逆の関係でもって合成し、 最終的な絶対値和のテーブル T 0を 作成する。 テーブル T Oは、 5 X 3 X 4種類の毎の絶対値和の分布を示すもので ある。 このテーブル T Oの中で、 最小値を検出する。 原点 0から最小値を与える 参照プロヅクの位置へのべクトルが動きぺクトルとして検出される。 このように、 動きべクトル検出を 4倍密度の画像の精度で行うことができる。
なお、 基準画像と垂直方向に 4倍密画像との間で動きべクトルを検出する例に ついて説明したが、 垂直方向のみならず、 水平方向又は垂直及び水平方向に N倍 密画像と基準画像との間で動きベクトルを検出することもできる。 Nは、 好まし くは 2以上の整数である。
図 4 7は、 基準画像と垂直方向に 4倍密画像との間で動きぺクトルを検出する 動きべクトル検出装置 4 0 0の構成を示す。 この動きべクトル検出装置 4 0 0は、 基準画像 (図 4 4 Aにおける画像 P s ) をブロックに分解するプロヅク化回路 4 0 1と、 4倍密画像を基準画像と同じ密度で、 且つ空間的に同じ関係の N枚例え ば 4枚の画像 (図 4 4 Aにおける画像 P h i , P h 2 , P h 3 , P 4 ) に分離 する位相分離回路 4 0 2を備える。 位相分離回路 4 0 2は、 基準画像 P sが入力 され、 4ラインの組の第 1番目のラインのデ一夕から第 4番目のラインのデ一タ まで、 ライン毎に分離したデ一夕を出力する。
位相分離回路 4 0 2の画像 P h 1の出力がブロック化回路 4 0 3に供給され、 ブロックに分解され、 画像 P h 2の出力がブロック化回路 4 0 4に供給され、 ブ ロックに分解され、 画像 P h 3の出力がブロック化回路 4 0 5に供給され、 プロ ヅクに分解され、 画像 P h 1の出力がブロック化回路 4 0 6に供給され、 プロヅ クに分解される。 ブロック化回路 4 0 6は、 プロヅク化回路 4 0 1によるブロヅ クと同一形状で同一サイズのブロック (例えば 5 x 5画素) に画像 P h l〜P h 4をそれそれ細分化するものである。
プロヅク化回路 4 0 1の出力が誤差検出回路 4 0 7 , 4 0 8 , 4 0 9, 4 1 0 に共通に供給される。 誤差検出回路 4 0 7の他方の入力として、 プロツク化回路 3の出力が供給される。 誤差検出回路 4 0 7は、 基準画像のプロヅク B sとプロ ヅク化回路 4 0 3からの画像 P h 1のブロックとの間で、 ブロック内の対応する 位置の画素同士の画素値の差分絶対値和を集計する。 そして、 参照ブロックの位 置毎に絶対値和を記憶するテーブル T 1を作成する。
誤差検出回路 4 0 8の他方の入力として、 ブ口ック化回路 4 0 4の出力が供給 される。 誤差検出回路 4 0 8は、 基準画像のプロヅクとプロック化回路 4 0 4か らの画像 P h 2のプロヅクとの間で、 プロヅク内の対応する位置の画素同士の画 素値の差分絶対値和を集計する。 そして、 参照ブロックの位置毎に絶対値和を記 憶するテーブル T 2を作成する。 同様に、 誤差検出回路 4 0 9が基準画像のプロ ヅクと画像 P h 3のプロヅクとの間の差分の絶対値和のテーブル T 3を作成し、 誤差検出回路 4 1 0が基準画像のブロックと画像 P h 4のプロヅクとの間の差分 の絶対値和のテーブル T 4を作成する。
誤差検出回路 4 .0 7〜4 1 0のそれそれにより作成されたテーブル T 1〜T 4 が位相合成回路 4 1 1に.供給される。 位相合成回路 4 1 1は、 位相分離回路 2に おける位相分離と逆に絶対値和を合成し、 位相合成回路 4 1 1によって最終的な テーブル Τ 0が作成される。 位相合成回路 4 1 1により作成されたテーブル Τ 0 を参照して動きべクトル検出回路 4 1 2が動きぺクトルを検出する。 すなわち、 動きべク トル検出回路 4 1 2は、 絶対値和の中の最小値を検出し、 動きベクトル を出力する。 図 4 7のブロ ク図の下側には、 位相分離回路 4 0 2、 誤差検出回 路 4 0 7〜 4 1 0、 動きべクトル検出回路 4 1 2のそれそれの処理における 2つ の画像の画素及び差分の絶対値和の空間的関係を概略的に表す。
以上のように、 この画像処理装置 3 0 0による学習処理においては、 教師画像 及び生徒画像の他、 蓄積画像が参照されて予測係数が算出される。 また予測係数 の算出にあたり、 注目画素の動きも、 特徴量の 1つとされて、 注目画素のクラス 分類が行われる。 その結果、 注目画素が静止であると判定された場合、 すなわち、 静止というクラスに分類された場合、 静止部分のノイズが効果的に低減されてい る蓄積画像の画素情報をより多く学習し、 また注目画素が動きであると判定され た場合、 すなわち、 動きというクラスに分類された場合、 動き部分のノイズが効 果的に行われる生徒画像の画素情報をより多く学習することができる。
上述の各画像処理装置 1 0 0 , 1 9 0は、 この画像処理装置 3 0 0による学習 処理で算出した予測係数を利用した画像生成処理を実行することで、 入力画像に 含まれるノィズを低減したり、 特徴領域のエッジを補正することができる。
なお、 以上においては、 画像処理装置 3 0 0による学習処理により算出された 予測係数が、 上述の画像生成処理を行う画像処理装置 1 0 0, 1 9 0の R O Mテ 一ブル 1 0 8 , 1 9 6に記億される場合を例として説明したが、 出力画像を生成 するのに必要な、 画素値、 他の係数又は所定の式を示すデ一夕を生成し、 それを ROMテーブル 1 08, 1 96に記憶させるようにすることもできる。
また、 以上においては、 ノイズが低減された画像又は特徴領域のエッジがぽけ ていない画像を生成する場合を例として説明したが、 階調度、 画素、 データのビ ッ ト数において、 入力画像より高画質な画像を生成する場合においても、 本発明 を適用することができる。
また、 以上においては、 入力画像がプログレッシブ画像である場合を例として 説明したが、 イン夕レース画像である場合においても、 本発明を適用することが できる。
さらに、 上述のような画像処理装置 1 00 , 1 90, 300における一連の処 理は、 ハードウェアにより実現させることもできるが、 ソフトウェアにより実現 させることもできる。 一連の処理をソフトウェアにより実現する場合には、 その ソフトウェアを構成するプログラムがコンピュータにィンストールされ、 そのプ ログラムがコンピュータで実行されることより、 上述した画像処理装置 1 00が 機能的に実現される。
図 48は、 上述のような画像処理装置 100、 190 , 300として機能する コンピュータ 50 1の一実施の形態の構成を示すプロヅク図である。 CPU (Ce ntral Processing Unit) 5 1 1にはバス 5 1 5を介して入出力ィンタフエ一ス 5 1 6が接続されており、 CPU 51 1は、 入出力ィン夕フエース 5 1 6を介して、 ユーザから、 キーボード、 マウスなどよりなる入力部 51 8から指令が入力され ると、 例えば、 ROM (Read Only Memory) 5 1 2、 ハードディスク 5 14、 又 はドライブ 520に装着される磁気ディスク 53 1、 光ディスク 532、 光磁気 ディスク 533、 若しくは半導体メモリ 534などの記録媒体に格納されている プログラムを、 RAM (Random Access Memory) 51 3にロードして実行する。 これにより、 上述した各種の処理が行われる。 さらに、 CPU5 1 1は、 その処 理結果を、 例えば、 入出力インタフェース 51 6を介して、 LCD (Liquid Cry stal Display) などよりなる表示部 5 1 7に必要に応じて出力する。 なお、 プロ グラムは、 ハードディスク 514や ROM 51 2に予め記憶しておき、 コンピュ 一夕 50 1と一体的にユーザに提供したり、 磁気ディスク 531、 光ディスク 5 32、 光磁気ディスク 533、 半導体メモリ 534等のパヅケージメディアとし て提供したり、 衛星、 ネヅ トワーク等から通信部 5 1 9を介してハードディスク 5 1 4に提供することができる。
なお、 本明細書において、 記録媒体により提供されるプログラムを記述するス テツプは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずし も時系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含む ものである。
以上のように、 本発明に係る画像処理装置及び方法、 並びに記録媒体のプログ ラムによれば、 第 1の画像を取得し、 取得された第 1の画像を記憶し、 記憶され た第 1の画像に対応した位置に、 取得された新たな第 1の画像を記憶することで、 第 1の画像の蓄積画像を記憶し、 第 2の画像の注目画素の位置に基づいて、 蓄積 画像と、 取得された第 1の画像の両方から、 第 1の画素情報を切り出し、 第 1の 画素情報から、 所定の特徴量を抽出し、 特徴量に基づいて、 注目画素を、 複数の クラスのうちのいずれかに分類し、 注目画素の位置に基づいて、 蓄積画像と、 取 得された第 1の画像の両方から、 第 2の画素情報を切り出し、 第 2の画素情報を 利用して、 分類されたクラスに対応して予め設定された生成方式に従い、 注目画 素を生成するようにしたので、 第 1の画像より高画質な第 2の画像を適切に生成 することができる。
また、 本発明に係る画像処理装置及び方法、 並びに記録媒体のプログラムによ れば、 記憶された生徒画像に対応した位置に、 生成された新たな生徒画像を記憶 して、 生徒画像の蓄積画像を記憶し、 第 2の画像に相当する教師画像の注目画素 の位置に基づいて、 蓄積画像と、 生成された生徒画像の両方から、 第 1の画素情 報を切り出し、 第 1の画素情報から、 所定の特徴量を抽出し、 特徴量に基づいて、 注目画素を、 複数のクラスのうちのいずれかに分類し、 注目画素の位置に基づい て、 蓄積画像と、 生成された第 1の画像の両方から、 第 2の画素情報を切り出し、 第 2の画素情報及び教師画像を利用して、 分類されたクラス毎に、 所定のデ一夕 を求めるようにしたので、 第 1の画像より高画質な第 2の画像を生成することが できる。

Claims

請求の範囲
1 . 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成する画像 処理装置において、
上記第 1の画像を取得する取得手段と、
上記取得手段により取得された上記第 1の画像を記憶する記憶手段と、 上記記憶手段により記憶された上記第 1の画像に対応した位置に、 上記取得手 段により取得された新たな上記第 1の画像を記憶することで、 上記記憶手段に、 上記第 1の画像の蓄積画像が記憶されるようにする蓄積処理手段と、
上記第 2の画像の注目画素の位置に基づいて、 上記蓄積画像と、 上記取得手段 により取得された上記第 1の画像の両方から、 第 1の画素情報を切り出す第 1の 切り出し手段と、
上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出手段と、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分 類するクラス分類手段と、
上記注目画素の位置に基づいて、 上記蓄積画像と、 上記取得手段により取得さ れた上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出し手段 と、
上記第 2の画素情報を利用して、 上記クラス分類手段により分類されたクラス に対応して予め設定された生成方式に従い、 上記注目画素を生成する生成手段と を備えることを特徴とする画像処理装置。
2 . 上記蓄積処理手段は、 上記第 1の画像と上記蓄積画像を、 所定の重み付け 値に従って重み付け加算し、 その結果得られた画像を、 上記記憶手段に記憶させ ることを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 上記蓄積処理手段は、 上記第 1の画像の動きを検出するとともに、 検出し た上記動きに基づいて、 上記重み付け値を設定することを特徴とする請求の範囲 第 2項に記載の画像処理装置。
4 . 上記蓄積画像は、 上記第 1の画像よりも、 静止部分においては S N比が高 い画像であることを特徴とする請求の範囲第 2項に記載の画像処理装置。
5 . 上記蓄積処理手段は、 上記第 1の画像に含まれる特徴領域の動きを検出す るとともに、 上記第 1の画像を、 検出した上記動きに応じた位置に移動して蓄積 し、 その結果得られた上記蓄積画像を、 上記記憶手段に記憶させることを特徴と する請求の範囲第 1項に記載の画像処理装置。
6 . 上記蓄積画像の画素密度は、 上記第 1の画像の画素密度より高いことを特 徴とする請求の範囲第 5項に記載の画像処理装置。
7 . 上記蓄積画像の画素密度は、 上記第 1の画像の画素密度と同じであること を特徴とする請求の範囲第 5項に記載の画像処理装置。
8 . 上記蓄積画像の画素数が、 上記第 1の画像の画素数よりも多いことを特徴 とする請求の範囲第 5項に記載の画像処理装置。
9 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記第 1の画像 からクラスタップを切り出し、 上記特徴量抽出手段は、 上記クラスタップを構成 する画素の画素値の分布を、 上記特徴量として抽出することを特徴とする請求の 範囲第 1項に記載の画像処理装置。
1 0 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記第 1の画 像と上記蓄積画像のそれぞれから、 1個又は複数個の画素を切り出し、 上記特徴 量抽出手段は、 上記 1個又は複数個の画素の画素値を利用して、 上記注目画素の 静動判定を行うとともに、 その判定結果を上記特徴量として抽出することを特徴 とする請求の範囲第 1項に記載の画像処理装置。
1 1 . 上記特徴量抽出手段は、 上記 1個又は複数個の画素の画素値を利用して、 上記第 1の画像と上記蓄積画像の輝度値の差分を算出するとともに、 その算出結 果を上記特徴量として抽出することを特徴とする請求の範囲第 1 0項に記載の画 像処理装置。
1 2 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記第 1の画 像から第 1のクラス夕ヅプを切り出すとともに、 上記蓄積画像から第 2のクラス タップを切り出し、 上記特徴量抽出手段は、 上記第 1のクラスタップと上記第 2 のクラスタップを利用して、 上記注目画素の静動判定を行うとともに、 その判定 結果及び上記第 1のクラスタップを構成する画素の画素値の分布を、 上記特徴量 として抽出することを特徴とする請求の範囲第 1項に記載の画像処理装置。
1 3 . 上記第 2の切り出し手段は、 上記第 2の画素情報として、 予測タップを 切り出し、 上記生成手段は、 上記クラス毎に予め設定された係数を格納した係数 格納手段を備え、 上記係数と上記予測夕、ソブとを用いた演算を行うことで、 上記 第 2の画像を生成することを特徴とする請求の範囲第 1項に記載の画像処理装置 c
1 4 . 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成する画 像処理装置の画像処理方法において、
上記第 1の画像を取得する取得ステップと、
上記取得ステツプの処理で取得された上記第 1の画像を記憶する記憶ステップ と、
上記記憶ステップの処理で記憶された上記第 1の画像に対応した位置に、 上記 取得ステツプの処理で取得された新たな上記第 1の画像を記憶することで、 上記 第 1の画像の蓄積画像が記憶されるようにする蓄積処理ステツプと、
上記第 2の画像の注目画素の位置に基づいて、 上記蓄積画像と、 上記取得ステ ップの処理で取得された上記第 1の画像の両方から、 第 1の画素情報を切り出す 第 1の切り出しステップと、
上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出ステップと、 上記特微量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分 類するクラス分類ステヅプと、
上記注目画素の位置に基づいて、 上記蓄積画像と、 上記取得ステップの処理で 取得された上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出 しステヅプと、
上記第 2の画素情報を利用して、 上記クラス分類ステツプの処理で分類ざれた クラスに対応して予め設定された生成方式に従い、 上記注目画素を生成する生成 ステップと
を含むことを特徴とする画像処理方法。
1 5 . 上記蓄積処理ステップにおいて、 上記第 1の画像と上記蓄積画像を、 所 定の重み付け値に従って重み付け加算し、 その結果得られた画像を、 上記記憶ス テツプで記憶させることを特徴とする請求の範囲第 1 4項に記載の画像処理方法。
1 6 . 上記蓄積処理ステップにおいて、 上記第 1の画像の動きを検出するとと もに、 検出した上記動きに基づいて、 上記重み付け値を設定することを特徴とす る請求の範囲第 1 5項に記載の画像処理方法。
1 7 . 上記蓄積画像は、 上記第 1の画像よりも、 静止部分においては S N比が 高い画像であることを特徴とする請求の範囲第 1 5項に記載の画像処理方法。
1 8 . 上記蓄積処理ステップにおいて、 上記第 1の画像に含まれる特徴領域の 動きを検出するとともに、 上記第 1の画像を、 検出した上記動きに応じた位置に 移動して蓄積し、 その結果得られた上記蓄積画像を、 上記記憶ステップで記憶さ せることを特徴とする請求の範囲第 1 4項に記載の画像処理方法。
1 9 . 上記蓄積画像の画素密度は、 上記第 1の画像の画素密度より高いことを 特徴とする請求の範囲第 1 8項に記載の画像処理方法。
2 0 . 上記蓄積画像の画素密度は、 上記第 1の画像の画素密度と同じであるこ とを特徴とする請求の範囲第 1 8項に記載の画像処理方法。
2 1 . 上記蓄積画像の画素数が、 上記第 1の画像の画素数よりも多いことを特 徴とする請求の範囲第 1 8項に記載の画像処理方法。
2 2 . 上記第 1の切り出しステヅプにおいて、 上記第 1の画素情報として、 上 記第 1の画像からクラス夕ッブを切り出し、 上記特徴量抽出ステヅプにおいて、 上記クラス夕ップを構成する画素の画素値の分布を、 上記特徴量として抽出する ことを特徴とする請求の範囲第 1 4項に記載の画像処理方法。
2 3 . 上記第 1の切り出しステップにおいて、 上記第 1の画素情報として、 上 記第 1の画像と上記蓄積画像のそれそれから、 1個又は複数個の画素を切り出し、 上記特徴量抽出ステツブにおいて、 上記 1個又は複数個の画素の画素値を利用し て、 上記注目画素の静動判定を行うとともに、 その判定結果を上記特徴量として 抽出することを特徴とする請求の範囲第 1 4項に記載の画像処理方法。
2 4 . 上記特徴量抽出ステップにおいて、 上記 1個又は複数個の画素の画素値 を利用して、 上記第 1の画像と上記蓄積画像の輝度値の差分を算出するとともに、 その算出結果を上記特徴量として抽出することを特徴とする請求の範囲第 2 3項 に記載の画像処理方法。
2 5 . 上記第 1の切り出しステップにおいて、 上記第 1の画素情報として、 上 記第 1の画像から第 1のクラスタップを切り出すとともに、 上記蓄積画像から第 2のクラスタップを切り出し、 上記特徴量抽出は、 上記第 1のクラスタップと上 記第 2のクラスタップを利用して、 上記注目画素の静動判定を行うとともに、 そ の判定結果及び上記第 1のクラスタップを構成する画素の画素値の分布を、 上記 特徴量として抽出することを特徴とする請求の範囲第 1 4項に記載の画像処理方 法。
2 6 . 上記第 2の切り出しステップにおいて、 上記第 2の画素情報として、 予 測タップを切り出し、 上記生成ステップにおいて、 上記クラス毎に予め設定され た係数と上記予測夕ップとを用いた演算を行うことで、 上記第 2の画像を生成す ることを特徴とする請求の範囲第 1 4項に記載の画像処理方法。
2 7 . 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成する画 像処理装置のプログラムであって、
上記第 1の画像を取得する取得ステップと、
上記取得ステップの処理で取得された上記第 1の画像を記憶する記憶ステップ と、
上記記憶ステップの処理で記憶された上記第 1の画像に対応した位置に、 上記 取得ステツプの処理で取得された新たな上記第 1の画像を記憶することで、 上記 第 1の画像の蓄積画像が記憶されるようにする蓄積処理ステップと、
上記第 2の画像の注目画素の位置に基づいて、 上記蓄積画像と、 上記取得ステ ップの処理で取得された上記第 1の画像の両方から、 第 1の画素情報を切り出す 第 1の切り出しステップと、
上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出ステップと、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分 類するクラス分類ステヅプと、
上記注目画素の位置に基づいて、 上記蓄積画像と、 上記取得ステップの処理で 取得された上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出 しステヅプと、 .
上記第 2の画素情報を利用して、 上記クラス分類ステツプの処理で分類された クラスに対応して予め設定された生成方式に従い、 上記注目画素を生成する生成 ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
2 8 . 上記蓄積処理ステップにおいて、 上記第 1の画像と上記蓄積画像を、 所 定の重み付け値に従って重み付け加算し、 その結果得られた画像を、 上記記憶ス テヅプで記憶させることを特徴とするコンピュータが読み取り可能なプログラム が記録されている請求の範囲第 2 7項に記載の記録媒体。
2 9 . 上記蓄積処理ステップにおいて、 上記第 1の画像の動きを検出するとと もに、 検出した上記動きに基づいて、 上記重み付け値を設定することを特徴と.す るコンビユー夕が読み取り可能なプログラムが記録されている請求の範囲第 2 8 項に記載の記録媒体。
3 0 . 上記蓄積画像は、 上記第 1の画像よりも、 静止部分においては S N比が 高い画像であることを特徴とする請求の範囲第 2 8項に記載の記録媒体。
3 1 . 上記蓄積処理ステップにおいて、 上記第 1の画像に含まれる特徴領域の 動きを検出するとともに、 上記第 1の画像を、 検出した上記動きに応じた位置に 移動して蓄積し、 その結果得られた上記蓄積画像を、 上記記憶ステップで記憶さ せることを特徴とするコンピュ一夕が読み取り可能なプログラムが記録されてい る請求の範囲第 2 7項に記載の記録媒体。
3 2 . 上記蓄積画像の画素密度は、 上記第 1の画像の画素密度より高いことを 特徴とするコンピュータが読み取り可能なプログラムが記録されている請求の範 囲第 2 8項に記載の記録媒体。
3 3 . 上記蓄積画像の画素密度は、 上記第 1の画像の画素密度と同じであるこ とを特徴とするコンピュータが読み取り可能なプログラムが記録されている請求 の範囲第 2 8項に記載の記録媒体。
3 4 . 上記蓄積画像の画素数が、 上記第 1の画像の画素数よりも多いことを特 徴とするコンピュータが読み取り可能なプログラムが記録されている請求の範囲 第 2 8項に記載の記録媒体。
3 5 . 上記第 1の切り出しステヅプにおいて、 上記第 1の画素情報として、 上 記第 1の画像からクラスタヅプを切り出し、 上記特徴量抽出ステップにおいて、 上記クラスタップを構成する画素の画素値の分布を、 上記特徴量として抽出する ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている請 求の範囲第 2 7項に記載の記録媒体。
3 6 . 上記第 1の切り出しステップにおいて、 上記第 1の画素情報として、 上 記第 1の画像と上記蓄積画像のそれそれから、 1個又は複数個の画素を切り出し、 上記特徴量抽出ステップにおいて、 上記 1個又は複数個の画素の画素値を利用し て、 上記注目画素の静動判定を行うとともに、 その判定結果を上記特徴量として 抽出することを特徴とするコンピュータが読み取り可能なプログラムが記録され ている請求の範囲第 2 7項に記載の記録媒体。
3 7 . 上記特徴量抽出ステップにおいて、 上記 1個又は複数個の画素の画素値 を利用して、 上記第 1の画像と上記蓄積画像の輝度値の差分を算出するとともに、 その算出結果を上記特徴量として抽出することを特徴とするコンピュータが読み 取り可能なプログラムが記録されている請求の範囲第 3 6項に記載の記録媒体。
3 8 . 上記第 1の切り出しステップにおいて、 上記第 1の画素情報として、 上 記第 1の画像から第 1のクラスタップを切り出すとともに、 上記蓄積画像から第 2のクラスタヅプを切り出し、 上記特徴量抽出は、 上記第 1のクラスタップと上 記第 2のクラスタップを利用して、 上記注目画素の静動判定を行うとともに、 そ の判定結果及び上記第 1のクラスタツプを構成する画素の画素値の分布を、 上記 特徴量として抽出することを特徴とするコンピュータが読み取り可能なプログラ ムが記録されている請求の範囲第 2 7項に記載の記録媒体。
3 9 . 上記第 2の切り出しステップにおいて、 上記第 2の画素情報として、 予 測タップを切り出し、 上記生成ステップにおいて、 上記クラス毎に予め設定され た係数と上記予測タップとを用いた演算を行うことで、 上記第 2の画像を生成す ることを特徴とするコンピュータが読み取り可能なプログラムが記録されている 請求の範囲第 2 7項に記載の記録媒体。
4 0 . 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成するの に用いる所定のデータを学習する画像処理装置において、
上記第 1の画像に相当する生徒画像を生成する生成手段と、
上記生徒画像を記憶する記憶手段と、 上記記憶手段により記憶された上記生徒画像に対応した位置に、 上記生成手段 により生成された新たな上記生徒画像を記憶することで、 上記記憶手段に、 上記 生徒画像の蓄積画像が記億されるようにする蓄積処理手段と、
上記第 2の画像に相当する教師画像の注目画素の位置に基づいて、 上記蓄積画 像と、 上記生成手段により生成された上記生徒画像の両方から、 第 1の画素情報 を切り出す第 1の切り出し手段と、
上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出手段と、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分 類するクラス分類手段と、
上記注目画素の位置に基づいて、 上記蓄積画像と、 上記生成手段により生成さ れた上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出し手段 と、
上記第 2の画素情報及び上記教師画像を利用して、 上記クラス分類手段により 分類されたクラス毎に、 上記所定のデータを求める演算手段と
を備えることを特徴とする画像処理装置。
4 1 . 上記蓄積処理手段は、 上記生徒画像と上記蓄積画像を、 所定の重み付け 値に従って重み付け加算し、 その結果得られた画像を、 上記記憶手段に記憶させ ることを特徴とする請求の範囲第 4 0項に記載の画像処理装置。
4 2 . 上記蓄積手段は、 上記生徒画像と蓄積画像の値又は差分の大きさに基づ いて、 上記重み付け値を設定することを特徴とする請求の範囲第 4 1項に記載の 画像処理装置。
4 3 . 上記蓄積処理手段は、 上記生徒画像の動きを検出するとともに、 検出し た上記動きに基づいて、 上記重み付け値を設定することを特徴とする請求の範囲 第 4 1項に記載の画像処理装置。
4 4 . 上記蓄積画像は、 上記生徒画像よりも、 静止部分においては S N比が高 い画像であることを特徴とする請求の範囲第 4 1項に記載の画像処理装置。
4 5 . 上記蓄積処理手段は、 上記生徒画像に含まれる特徴領域の動きを検出す るとともに、 上記生徒画像を、 検出した上記動きに応じた位置に移動して蓄積し、 その結果得られた上記蓄積画像を、 上記記憶手段に記億させることを特徴とする 請求の範囲第 4 2項に記載の画像処理装置。
4 6 . 上記蓄積画像の画素密度は、 上記生徒画像の画素密度より高いことを特 徴とする請求の範囲第 4 5項に記載の画像処理装置。
4 7 . 上記蓄積画像の画素密度は、 上記生徒画像の画素密度と同じであること を特徴とする請求の範囲第 4 5項に記載の画像処理装置。
4 8 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記生徒画像 からクラスタップを切り出し、 上記特徴量抽出手段は、 上記クラスタップを構成 する画素の画素値の分布を、 上記特徴量として抽出することを特徴とする請求の 範囲第 4 0項に記載の画像処理装置。
4 9 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記生徒画像 と上記蓄積画像のそれそれから、 1個又は複数個の画素を切り出し、 上記特徴量 抽出手段は、 上記 1個又は複数個の画素の画素値を利用して、 上記注目画素の静 動判定を行うとともに、 その判定結果を上記特徴量として抽出することを特徴と する請求の範囲第 4 0項に記載の画像処理装置。
5 0 . 上記特徴量抽出手段は、 上記 1個又は複数個の画素の画素値を利用して、 上記第 1の画像と上記蓄積画像の輝度値の差分を算出するとともに、 その算出結 果を上記特徴量として抽出することを特徴とする請求の範囲第 4 9項に記載の画 像処理装置。
5 1 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記生徒画像 から第 1のクラスタツブを切り出すとともに、 上記蓄積画像から第 2のクラスタ ップを切り出し、 上記特徴量抽出手段は、 上記第 1のクラスタップと上記第 2の クラスタップを利用して、 上記注目画素の静動判定を行うとともに、 その判定結 果及び上記第 1のクラスタップを構成する画素の画素値の分布を、 上記特徴量と して抽出することを特徴とする請求の範囲第 4 0項に記載の画像処理装置。
5 2 . 上記第 2の切り出し手段は、 上記第 2の画素情報として、 予測タップを 切り出すことを特徴とする請求の範囲第 4 0項に記載の画像処理装置。
5 3 . 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成するの に用いる所定のデ一夕を学習する画像処理装置の画像処理方法において、
上記第 1の画像に相当する生徒画像を生成する生成ステップと、 上記生徒画像を記憶する記憶ステツプと、
上記記憶ステップの処理で記憶された上記生徒画像に対応した位置に、 上記生 成ステップの処理で生成された新たな上記生徒画像を記憶することで、 上記生徒 画像の蓄積画像が記憶されるようにする蓄積処理ステツプと、
上記第 2の画像に相当する教師画像の注目画素の位置に基づいて、 上記蓄積画 像と、 上記生成ステップの処理で生成された上記生徒画像の両方から、 第 1の画 素情報を切り出す第 1の切り出しステップと、
上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出ステップと、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分 類するクラス分類ステップと、
上記注目画素の位置に基づいて、 上記蓄積画像と、 上記生成ステップの処理で 生成された上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出 しステップと、
上記第 2の画素情報及び上記教師画像を利用して、 上記クラス分類ステップの 処理で分類されたクラス毎に、 上記所定のデータを求める演算ステツプと
を含むことを特徴とする画像処理方法。 .
5 4 . 上記蓄積処理手段は、 上記生徒画像と上記蓄積画像を、 所定の重み付け 値に従って重み付け加算し、 その結果得られた画像を、 上記記憶手段に記憶させ ることを特徴とする請求の範囲第 5 3項に記載の画像処理方法。
5 5 . 上記蓄積手段は、 上記生徒画像と蓄積画像の値又は差分の大きさに基づ いて、 上記重み付け値を設定することを特徴とする請求の範囲第 5 4項に記載の 画像処理方法。
5 6 . 上記蓄積処理手段は、 上記生徒画像の動きを検出するとともに、 検出し た上記動きに基づいて、 上記重み付け値を設定することを特徴とする請求の範囲 第 5 4項に記載の画像処理方法。
5 7 . 上記蓄積画像は、 上記生徒画像よりも、 静止部分においては S N比が高 い画像であることを特徴とする請求の範囲第 5 4項に記載の画像処理方法。
5 8 . 上記蓄積処理手段は、 上記生徒画像に含まれる特徴領域の動きを検出す るとともに、 上記生徒画像を、 検出した上記動きに応じた位置に移動して蓄積し、 その結果得られた上記蓄積画像を、 上記記憶手段に記憶させることを特徴とする 請求の範囲第 5 5項に記載の画像処理方法。
5 9 . 上記蓄積画像の画素密度は、 上記生徒画像の画素密度より高いことを特 徴とする請求の範囲第 5 8項に記載の画像処理方法。
6 0 . 上記蓄積画像の画素密度は、 上記生徒画像の画素密度と同じであること を特徴とする請求の範囲第 5 8項に記載の画像処理方法。
6 1 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記生徒画像 からクラスタップを切り出し、 上記特徴量抽出手段は、 上記クラス夕ップを構成 する画素の画素値の分布を、 上記特徴量として抽出することを特徴とする請求の 範囲第 5 3項に記載の画像処理方法。
6 2 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記生徒画像 と上記蓄積画像のそれそれから、 1個又は複数個の画素を切り出し、 上記特徴量 抽出手段は、 上記 1個又は複数個の画素の画素値を利用して、 上記注目画素の静 動判定を行うとともに、 その判定結果を上記特徴量として抽出することを特徴と する請求の範囲第 5 3項に記載の画像処理方法。
6 3 . 上記特徴量抽出手段は、 上記 1個又は複数個の画素の画素値を利用して、 上記第 1の画像と上記蓄積画像の輝度値の差分を算出するとともに、 その算出結 果を上記特徴量として抽出することを特徴とする請求の範囲第 6 2項に記載の画 像処理方法。
6 4 . 上記第 1の切り出し手段は、 上記第 1の画素情報として、 上記生徒画像 から第 1のクラスタヅプを切り出すとともに、 上記蓄積画像から第 2のクラス夕 ップを切り出し、 上記特徴量抽出手段は、 上記第 1のクラスタップと上記第 2の クラスタップを利用して、 上記注目画素の静動判定を行うとともに、 その判定結 果及ぴ上記第 1のクラスタップを構成する画素の画素値の分布を、 上記特徴量と して抽出することを特徴とする請求の範囲第 5 3項に記載の画像処理方法。
6 5 . 上記第 2の切り出し手段は、 上記第 2の画素情報として、 予測タップを 切り出すことを特徴とする請求の範囲第 5 3項に記載の画像処理方法。
6 6 . 第 1の画像から、 上記第 1の画像より高画質な第 2の画像を生成するの に用いる所定のデ一夕を学習する画像処理装置のプログラムであって、 上記第 1の画像に相当する生徒画像を生成する生成ステツプと、
上記生徒画像を記憶する記憶ステップと、
上記記憶ステップの処理で記憶された上記生徒画像に対応した位置に、 上記生 成ステップの処理で生成された新たな上記生徒画像を記憶することで、 上記生徒 画像の蓄積画像が記憶されるようにする蓄積処理ステップと、
上記第 2の画像に相当する教師画像の注目画素の位置に基づいて、 上記蓄積画 像と、 上記生成ステップの処理で生成された上記生徒画像の両方から、 第 1の画 素情報を切り出す第 1の切り出しステップと、
上記第 1の画素情報から、 所定の特徴量を抽出する特徴量抽出ステップと、 上記特徴量に基づいて、 上記注目画素を、 複数のクラスのうちのいずれかに分 類するクラス分類ステヅプと、
上記注目画素の位置に基づいて、 上記蓄積画像と、 上記生成ステップの処理で 生成された上記第 1の画像の両方から、 第 2の画素情報を切り出す第 2の切り出 しステヅプと、
上記第 2の画素情報及び上記教師画像を利用して、 上記クラス分類ステップの 処理で分類されたクラス毎に、 上記所定のデータを求める演算ステップと を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
6 7 . 上記蓄積処理ステップにおいて、 上記生徒画像と上記蓄積画像を、 所定 の重み付け値に従って重み付け加算し、 その結果得られた画像を、 上記記憶ステ ヅプで記憶させることを特徴とするコンピユー夕が読み取り可能なプログラムが 記録されている請求の範囲第 6 6項に記載の記録媒体。
6 8 . 上記蓄積ステップにおいて、 上記生徒画像と蓄積画像の値又は差分の大 きさに基づいて、 上記重み付け値を設定することを特徴とするコンピュータが読 み取り可能なプログラムが記録されている請求の範囲第 6 7項に記載の記録媒体 6 9 . 上記蓄積処理ステップにおいて、 上記生徒画像の動きを検出するととも に、 検出した上記動きに基づいて、 上記重み付け値を設定する
ことを特徴とするコンピュー夕が読み取り可能なプログラムが記録されている 請求の範囲第 6 7項に記載の記録媒体。
7 0 . 上記蓄積画像は、 上記生徒画像よりも、 静止部分においては S N比が高 い画像であることを特徴とするコンピュータが読み取り可能なプログラムが記録 されている請求の範囲第 6 7項に記載の記録媒体。
7 1 . 上記蓄積処理ステップにおいて、 上記生徒画像に含まれる特徴領域の動 きを検出するとともに、 上記生徒画像を、 検出した上記動きに応じた位置に移動 して蓄積し、 その結果得られた上記蓄積画像を、 上記記憶ステップで記憶させる ことを特徴とするコンビユー夕が読み取り可能なプログラムが記録されている請 求の範囲第 6 8項に記載の記録媒体。
7 2 . 上記蓄積画像の画素密度は、 上記生徒画像の画素密度より高いことを特 徴とするコンピュータが読み取り可能なプログラムが記録されている請求の範囲 第 7 1項に記載の記録媒体。
7 3 . 上記蓄積画像の画素密度は、 上記生徒画像の画素密度と同じであること を特徴とするコンビユー夕が読み取り可能なプログラムが記録されている請求の 範囲第 7 1項に記載の記録媒体。
7 4 . 上記第 1の切り出しステップにおいて、 上記第 1の画素情報として、 上 記生徒画像からクラスタップを切り出し、 上記特徴量抽出ステップにおいて、 上 記クラス夕ップを構成する画素の画素値の分布を、 上記特徴量として抽出するこ とを特徴とするコンピュータが読み取り可能なプログラムが記録されている請求 の範囲第 6 6項に記載の記録媒体。
7 5 . 上記第 1の切り出しステップにおいて、 上記第 1の画素情報として、 上 記生徒画像と上記蓄積画像のそれそれから、 1個又は複数個の画素を切り出し、 上記特徴量抽出ステップにおいて、 上記 1個又は複数個の画素の画素値を利用し て、 上記注目画素の静動判定を行うとともに、 その判定結果を上記特徴量として 抽出することを特徴とするコンピュータが読み取り可能なプログラムが記録され ている請求の範囲第 6 6項に記載の記録媒体。
7 6 . 上記特徴量抽出ステップにおいて、 上記 1個又は複数個の画素の画素値 を利用して、 上記第 1の画像と上記蓄積画像の輝度値の差分を算出するとともに、 その算出結果を上記特徴量として抽出することを特徴とするコンピュータが読み 取り可能なプログラムが記録されている請求の範囲第 7 5項に記載の記録媒体。
7 7 . 上記第 1の切り出しステヅプにおいて、 上記第 1の画素情報として、 上 記生徒画像から第 1のクラスタツプを切り出すとともに、 上記蓄積画像から第 2 のクラスタップを切り出し、 上記特徴量抽出ステップにおいて、 上記第 1のクラ スタップと上記第 2のクラスタツプを利用して、 上記注目画素の静動判定を行う とともに、 その判定結果及び上記第 1のクラスタップを構成する画素の画素値の 分布を、 上記特徴量として抽出することを特徴とするコンピュータが読み取り可 能なプログラムが記録されている請求の範囲第 6 6項に記載の記録媒体。
7 8 . 上記第 2の切り出しステップにおいて、 上記第 2の画素情報として、 予 測タップを切り出すことを特徴とするコンピュータが読み取り可能なプログラム が記録されている請求の範囲第 6 6項に記載の記録媒体。
PCT/JP2001/006794 2000-08-07 2001-08-07 Procede et dispositif de traitement d'image et support enregistre WO2002013512A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/089,926 US6987884B2 (en) 2000-08-07 2001-08-07 Image processing device and method, and recorded medium
JP2002518736A JP4725001B2 (ja) 2000-08-07 2001-08-07 画像処理装置及び方法、並びに記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-238108 2000-08-07
JP2000238108 2000-08-07

Publications (1)

Publication Number Publication Date
WO2002013512A1 true WO2002013512A1 (fr) 2002-02-14

Family

ID=18729863

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/006794 WO2002013512A1 (fr) 2000-08-07 2001-08-07 Procede et dispositif de traitement d'image et support enregistre

Country Status (4)

Country Link
US (1) US6987884B2 (ja)
JP (1) JP4725001B2 (ja)
KR (1) KR100780516B1 (ja)
WO (1) WO2002013512A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014879A (ja) * 2008-07-02 2010-01-21 Sony Corp 係数生成装置および方法、画像生成装置および方法、並びにプログラム
US7729558B2 (en) * 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program
JP2015216459A (ja) * 2014-05-08 2015-12-03 株式会社東芝 画像処理装置、撮像装置及び画像処理方法
JP6893278B1 (ja) * 2020-12-18 2021-06-23 株式会社Retail AI 情報処理装置、方法及びコンピュータプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6687388B2 (en) * 2000-01-28 2004-02-03 Sony Corporation Picture processing apparatus
US7085318B2 (en) * 2000-06-15 2006-08-01 Sony Corporation Image processing system, image processing method, program, and recording medium
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
ATE453903T1 (de) * 2001-12-21 2010-01-15 Ibm Verfahren und schaltungen zur bildskalierung mit hilfe neuronaler netzwerke
KR101013130B1 (ko) * 2002-07-30 2011-02-10 소니 주식회사 기억 장치, 신호 처리 장치, 및 화상 신호 처리 장치, 및그들의 방법
JP4311258B2 (ja) * 2004-04-02 2009-08-12 ソニー株式会社 係数データの生成装置および生成方法、係数種データの生成装置および生成方法、情報信号処理装置、並びにプログラムおよびそれを記録した記録媒体
TWI257811B (en) * 2004-08-16 2006-07-01 Realtek Semiconductor Corp De-interlacing method
US7271850B2 (en) * 2004-06-16 2007-09-18 Realtek Semiconductor Corp. Method and apparatus for cross color/cross luminance suppression
US7460180B2 (en) * 2004-06-16 2008-12-02 Realtek Semiconductor Corp. Method for false color suppression
US7280159B2 (en) * 2004-06-16 2007-10-09 Realtek Semiconductor Corp. Method and apparatus for cross color and/or cross luminance suppression
JP4561273B2 (ja) * 2004-09-22 2010-10-13 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR100579890B1 (ko) * 2004-12-30 2006-05-15 삼성전자주식회사 움직임 적응적 영상처리 장치 및 그 방법
JP2006287632A (ja) * 2005-03-31 2006-10-19 Pioneer Electronic Corp ノイズ低減装置およびノイズ低減方法
US8395199B2 (en) * 2006-03-25 2013-03-12 4D-S Pty Ltd. Systems and methods for fabricating self-aligned memory cell
US8115726B2 (en) * 2007-10-26 2012-02-14 Hewlett-Packard Development Company, L.P. Liquid crystal display image presentation
JP5061883B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および学習装置
CN102138323A (zh) * 2008-09-01 2011-07-27 三菱数字电子美国公司 画面改善系统
US8760466B1 (en) * 2010-01-18 2014-06-24 Pixar Coherent noise for non-photorealistic rendering
KR101794486B1 (ko) * 2010-04-01 2017-11-06 소니 주식회사 화상 처리 장치, 방법 및 기록매체
CN103632352B (zh) 2013-11-01 2017-04-26 华为技术有限公司 一种噪声图像的时域降噪方法和相关装置
EP4105886A4 (en) * 2020-02-27 2023-04-19 Guangdong Oppo Mobile Telecommunications Corp., Ltd. IMAGE PROCESSING METHOD AND DEVICE AND DEVICE

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225178A (ja) * 1993-01-22 1994-08-12 Matsushita Electric Ind Co Ltd 動き検出回路
JPH07115569A (ja) * 1993-08-27 1995-05-02 Sony Corp ノイズ低減装置及び方法
JPH0851599A (ja) * 1994-08-08 1996-02-20 Sony Corp 画像情報変換装置
WO1998051072A1 (en) * 1997-05-06 1998-11-12 Sony Corporation Image converter and image conversion method
JP2000078534A (ja) * 1998-06-19 2000-03-14 Sony Corp 画像変換装置および方法、並びに提供媒体
JP2000134511A (ja) * 1998-10-26 2000-05-12 Sony Corp 画像情報変換装置および変換方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0648400A1 (en) * 1992-06-29 1995-04-19 BRITISH TELECOMMUNICATIONS public limited company Coding and decoding video signals
US5499057A (en) 1993-08-27 1996-03-12 Sony Corporation Apparatus for producing a noise-reducded image signal from an input image signal
KR960014184B1 (ko) * 1993-08-31 1996-10-14 대우전자 주식회사 분류 벡터 양자화된 영상의 클라스(Class) 오류 검출 방법
US5602938A (en) * 1994-05-20 1997-02-11 Nippon Telegraph And Telephone Corporation Method of generating dictionary for pattern recognition and pattern recognition method using the same
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method
US5778095A (en) * 1995-12-20 1998-07-07 Xerox Corporation Classification of scanned symbols into equivalence classes
JP4062771B2 (ja) 1997-05-06 2008-03-19 ソニー株式会社 画像変換装置および方法、並びに記録媒体
US5991464A (en) * 1998-04-03 1999-11-23 Odyssey Technologies Method and system for adaptive video image resolution enhancement
EP0969443A1 (en) * 1998-06-29 2000-01-05 Sony Corporation Image data processing apparatus and methods for image resolution change
JP2000138949A (ja) * 1998-10-30 2000-05-16 Sony Corp 画像情報変換装置および変換方法
US6658155B1 (en) * 1999-03-25 2003-12-02 Sony Corporation Encoding apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225178A (ja) * 1993-01-22 1994-08-12 Matsushita Electric Ind Co Ltd 動き検出回路
JPH07115569A (ja) * 1993-08-27 1995-05-02 Sony Corp ノイズ低減装置及び方法
JPH0851599A (ja) * 1994-08-08 1996-02-20 Sony Corp 画像情報変換装置
WO1998051072A1 (en) * 1997-05-06 1998-11-12 Sony Corporation Image converter and image conversion method
JP2000078534A (ja) * 1998-06-19 2000-03-14 Sony Corp 画像変換装置および方法、並びに提供媒体
JP2000134511A (ja) * 1998-10-26 2000-05-12 Sony Corp 画像情報変換装置および変換方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729558B2 (en) * 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program
JP2010014879A (ja) * 2008-07-02 2010-01-21 Sony Corp 係数生成装置および方法、画像生成装置および方法、並びにプログラム
JP4548520B2 (ja) * 2008-07-02 2010-09-22 ソニー株式会社 係数生成装置および方法、画像生成装置および方法、並びにプログラム
JP2015216459A (ja) * 2014-05-08 2015-12-03 株式会社東芝 画像処理装置、撮像装置及び画像処理方法
JP6893278B1 (ja) * 2020-12-18 2021-06-23 株式会社Retail AI 情報処理装置、方法及びコンピュータプログラム
JP2022097002A (ja) * 2020-12-18 2022-06-30 株式会社Retail AI 情報処理装置、方法及びコンピュータプログラム

Also Published As

Publication number Publication date
KR100780516B1 (ko) 2007-11-29
JP4725001B2 (ja) 2011-07-13
US6987884B2 (en) 2006-01-17
KR20020041818A (ko) 2002-06-03
US20030035594A1 (en) 2003-02-20

Similar Documents

Publication Publication Date Title
WO2002013512A1 (fr) Procede et dispositif de traitement d&#39;image et support enregistre
US7881539B2 (en) Image processing apparatus and method, program recording medium, and program
US7848427B2 (en) Apparatus and method for determining motion vector with effective pixel gradient
KR100746839B1 (ko) 데이터 처리 장치, 데이터 처리 방법, 학습 장치, 학습방법, 및 매체
US7738556B2 (en) Apparatus and method for estimating motion vector with gradient method
US20050271144A1 (en) Image processing apparatus and method, and recording medium and program used therewith
US8346003B2 (en) Image processing for reducing blur
JP4362895B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP2009212969A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US7031513B1 (en) Data processing apparatus and data processing method
JP4407015B2 (ja) ノイズ除去装置およびノイズ除去方法
JP2006067541A (ja) 映像変換装置及び映像変換方法並びに記録媒体
JP2001084368A (ja) データ処理装置およびデータ処理方法、並びに媒体
KR100816593B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
JP2010118940A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4096281B2 (ja) 画像処理装置および画像処理方法、並びに媒体
JP2011217010A (ja) 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP2000348019A (ja) データ処理装置およびデータ処理方法、並びに媒体
JP3651093B2 (ja) 動きベクトル検出装置および方法
JP4182574B2 (ja) 画像情報変換装置および変換方法
US8300954B2 (en) Information processing apparatus and method, and program
JP4403330B2 (ja) 動きベクトル検出装置および検出方法、並びに画像信号処理装置および処理方法
JP4273979B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US8311963B2 (en) Signal processing apparatus, signal processing method, signal processing program and learning apparatus
JP2011217011A (ja) 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2002 518736

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 1020027004468

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020027004468

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10089926

Country of ref document: US