WO2004072898A1 - 信号処理装置および方法、並びにプログラム - Google Patents

信号処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2004072898A1
WO2004072898A1 PCT/JP2004/001488 JP2004001488W WO2004072898A1 WO 2004072898 A1 WO2004072898 A1 WO 2004072898A1 JP 2004001488 W JP2004001488 W JP 2004001488W WO 2004072898 A1 WO2004072898 A1 WO 2004072898A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
data
pixels
continuity
image
Prior art date
Application number
PCT/JP2004/001488
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Junichi Ishibashi
Takashi Sawao
Takahiro Nagano
Naoki Fujiwara
Toru Miyake
Seiji Wada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP04710482A priority Critical patent/EP1594084A4/en
Priority to US10/543,839 priority patent/US7668393B2/en
Publication of WO2004072898A1 publication Critical patent/WO2004072898A1/ja
Priority to US11/670,785 priority patent/US7576777B2/en
Priority to US11/670,763 priority patent/US7609292B2/en
Priority to US11/670,732 priority patent/US7590304B2/en
Priority to US11/670,795 priority patent/US7734113B2/en
Priority to US11/670,754 priority patent/US7595800B2/en
Priority to US11/670,776 priority patent/US7593594B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to a signal processing apparatus and method, and more particularly, to a signal processing apparatus and method and a program in consideration of a real world from which data is acquired.
  • a first signal obtained by detecting a first signal, which is a real-world signal having a first dimension, by a sensor is described.
  • the second signal is compared with the second signal. To generate a third signal with reduced distortion.
  • a first signal that is obtained by projecting a first signal that is a real-world signal having a first dimension is less than a first dimension in which a part of the continuity of the real-world signal is missing.
  • the first signal is estimated from the second signal in consideration of the fact that the second signal of the two dimensions has data stationarity corresponding to the stationarity of the missing real-world signal. Signal processing has not been considered before. Disclosure of the invention
  • the present invention has been made in view of such circumstances, and takes into account the real world from which data is acquired, and performs more accurate and more accurate processing of events in the real world.
  • the aim is to be able to obtain fruit.
  • the first signal which is a real-world signal having the first dimension
  • the stationery of the real-world signal is less than the first dimension in which a part of the stationarity is missing.
  • Data continuity detecting means for detecting data continuity corresponding to the continuity of the missing real-world signal of the second signal of the second dimension; and data continuity detecting means for detecting data continuity.
  • Real-world estimating means for estimating the first signal by estimating the stationarity of the missing real-world signal based on the stationarity.
  • the data continuity detecting means is a real-world signal, which is a second signal obtained by projecting an optical signal of the real world, which is the first signal, onto a plurality of detecting elements each having a spatiotemporal integration effect.
  • the real-world estimator detects the continuity of the data in the image data composed of a plurality of pixels in which part of the continuity of the optical signal is missing. And generating a second function approximating the first function representing the optical signal in the real world.
  • the real-world estimating means determines, based on the continuity of the data detected by the data continuity detecting means, that a pixel value of a pixel corresponding to at least a one-dimensional position in the spatiotemporal direction of the image data is at least one-dimensional.
  • the real-world estimating means calculates the pixel value of the pixel corresponding to the one-dimensional position in the spatiotemporal direction of the image data in accordance with the continuity of the data detected by the data continuity detecting means.
  • the real-world estimating means determines that the pixel value of each pixel corresponding to a predetermined distance along the at least one-dimensional direction from the reference point corresponding to the continuity of the data detected by the continuity detecting means is at least one-dimensional. Approximating the first function representing the real-world optical signal by approximating the image data as pixel values obtained by the integration effect A second function can be generated.
  • the signal processing device integrates the second function generated by the real-world estimating means in at least a desired unit in a one-dimensional direction to generate a pixel value corresponding to a pixel having a desired size. Means can be further provided.
  • the pixel value generation means generates a pixel value by integrating the second function at least in units corresponding to each pixel in the one-dimensional direction, and the signal processing device generates the pixel value by the pixel value generated by the pixel value generation means.
  • Output means for detecting a difference value between the value and the pixel values of a plurality of pixels constituting the image data and selectively outputting the second function according to the difference value can be further provided.
  • the real-world estimating means determines that the pixel value of a pixel corresponding to at least a two-dimensional position in the spatio-temporal direction of the image data is at least 2 in accordance with the continuity of the data detected by the data continuity detecting means.
  • the real-world estimating means includes a pixel value of a pixel corresponding to a predetermined distance along at least a two-dimensional direction from a reference point corresponding to the stationarity of the data detected by the stationarity detecting means, and at least an integral in the two-dimensional direction.
  • the signal processing device integrates the second function generated by the real-world estimating means into at least a desired unit in a two-dimensional direction to generate a pixel value corresponding to a pixel having a desired size. Means can be further provided.
  • the first signal which is a real-world signal having the first dimension
  • the first signal is projected, and is less than the first dimension in which a part of the continuity of the real-world signal is missing.
  • the program according to the present invention is configured such that a first signal, which is a real-world signal having a first dimension, is projected, and a second dimension is smaller than the first dimension in which part of the stationarity of the real-world signal is missing.
  • a data continuity detecting step for detecting continuity of data corresponding to the continuity of the missing real-world signal of the second signal of the second signal; and And estimating the continuity of the missing real-world signal to cause the computer to execute a real-world estimation step of estimating the first signal.
  • FIG. 1 is a diagram illustrating the principle of the present invention.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the signal processing device.
  • FIG. 3 is a block diagram showing a signal processing device.
  • FIG. 4 is a diagram illustrating the principle of processing of a conventional signal processing device.
  • FIG. 5 is a diagram illustrating the principle of processing of the signal processing device.
  • FIG. 6 is a diagram for more specifically explaining the principle of the present invention.
  • FIG. 7 is a diagram for more specifically explaining the principle of the present invention.
  • FIG. 8 is a diagram illustrating an example of the arrangement of pixels on the image sensor.
  • FIG. 9 is a diagram for explaining the operation of the detection element which is a CCD.
  • FIG. 10 is a diagram for explaining the relationship between the light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • FIG. 11 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • FIG. 12 is a diagram illustrating an example of an image of a linear object in the real world.
  • FIG. 15 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background.
  • FIG. 16 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 17 is a schematic diagram of image data.
  • FIG. 18 is a diagram illustrating the principle of the present invention.
  • FIG. 19 is a diagram illustrating the principle of the present invention.
  • FIG. 20 is a diagram illustrating an example of generation of high-resolution data.
  • FIG. 21 is a diagram illustrating approximation by a model.
  • FIG. 22 is a diagram illustrating model estimation based on M pieces of data.
  • FIG. 23 is a diagram illustrating the relationship between real-world signals and data.
  • FIG. 24 is a diagram showing an example of data of interest when formulating an equation.
  • FIG. 25 is a diagram illustrating signals for two objects in the real world and values belonging to a mixed region when formulating is performed.
  • FIG. 26 is a diagram for explaining the stationarity expressed by the equations (18), (19), and (22).
  • FIG. 27 is a diagram illustrating an example of M pieces of data extracted from the data.
  • FIG. 28 is a diagram illustrating an area where a pixel value that is data is obtained.
  • FIG. 29 is a diagram illustrating approximation of the position of a pixel in the spatiotemporal direction.
  • FIG. 30 is a diagram for explaining integration of real-world signals in the time direction and the two-dimensional spatial direction in data.
  • FIG. 31 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the spatial direction.
  • FIG. 32 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the time direction.
  • FIG. 33 is a diagram for explaining an integration area when generating high-resolution data from which motion blur has been removed.
  • Figure 34 shows the case when generating high-resolution data with higher resolution in the time-space direction. It is a figure explaining the area of integration.
  • FIG. 35 shows the original image of the input image.
  • FIG. 36 is a diagram illustrating an example of the input image.
  • FIG. 37 is a diagram showing an image obtained by applying the conventional classification adaptive processing.
  • FIG. 38 is a diagram showing a result of detecting a thin line region.
  • FIG. 39 is a diagram illustrating an example of an output image output from the signal processing device.
  • FIG. 40 is a flowchart illustrating signal processing by the signal processing device.
  • FIG. 41 is a block diagram illustrating a configuration of the data continuity detection unit.
  • Figure 42 is a diagram showing an image of the real world with a thin line in front of the background.
  • FIG. 43 is a view for explaining the approximation of the background by a plane.
  • FIG. 44 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 45 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 46 is a diagram illustrating a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 47 is a diagram for describing processing of detecting a vertex and detecting a monotonous increase / decrease region.
  • FIG. 48 is a diagram illustrating a process of detecting a thin line region in which the pixel value of the vertex exceeds the threshold value and the pixel value of an adjacent pixel is equal to or less than the threshold value.
  • FIG. 49 is a diagram illustrating the pixel values of the pixels arranged in the direction indicated by the dotted line AA ′ in FIG.
  • FIG. 50 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
  • FIG. 51 is a diagram illustrating an example of an image in which a stationary component is extracted by approximation on a plane.
  • FIG. 52 is a diagram showing a result of detecting a monotonically decreasing region.
  • FIG. 53 is a diagram showing an area where continuity is detected.
  • FIG. 54 is a diagram illustrating pixel values of an area where continuity is detected.
  • FIG. 55 is a diagram illustrating an example of another process of detecting a region where a thin line image is projected.
  • FIG. 56 is a flowchart for explaining the processing of the continuity detection.
  • FIG. 57 is a diagram illustrating a process of detecting the continuity of data in the time direction.
  • FIG. 58 is a block diagram illustrating the configuration of the non-stationary component extraction unit.
  • FIG. 60 is a diagram illustrating an example of an input image.
  • FIG. 61 is a diagram showing an image in which a standard error obtained as a result of approximation by a plane without rejection is used as a pixel value.
  • FIG. 62 is a diagram illustrating an image in which the standard error obtained as a result of rejection and approximation by a plane is used as a pixel value.
  • FIG. 63 is a diagram illustrating an image in which the number of rejections is set as a pixel value.
  • FIG. 64 is a diagram illustrating an image in which the inclination of the plane in the spatial direction X is a pixel value.
  • FIG. 65 is a diagram illustrating an image in which the inclination of the plane in the spatial direction Y is a pixel value.
  • FIG. 66 is a diagram showing an image composed of approximate values indicated by a plane.
  • FIG. 67 is a diagram illustrating an image including a difference between an approximate value indicated by a plane and a pixel value.
  • FIG. 68 is a flowchart illustrating the process of extracting the unsteady component.
  • FIG. 69 is a flowchart for explaining the process of extracting the stationary component.
  • FIG. 70 is a flowchart illustrating another process of extracting a steady component.
  • FIG. 71 is a flowchart illustrating still another process of extracting a stationary component.
  • C FIG. 72 is a block diagram illustrating another configuration of the data continuity detecting unit.
  • FIG. 73 is a diagram for explaining the activity in an input image having data continuity.
  • FIG. 74 is a diagram for explaining a block for detecting an activity.
  • FIG. 75 is a diagram illustrating the angle of data continuity with respect to the activity.
  • C is a block diagram illustrating a more detailed configuration of the data continuity detection unit.
  • FIG. 77 is a diagram illustrating a set of pixels.
  • FIG. 78 is a view for explaining the relationship between the position of a set of pixels and the angle of data continuity.
  • FIG. 79 is a flowchart for describing processing for detecting data continuity.
  • FIG. 80 is a diagram showing a set of pixels extracted when detecting the continuity angle of data in the time direction and the spatial direction.
  • FIG. 81 is a block diagram showing another more detailed configuration of the data continuity detector.
  • FIG. 82 is a diagram illustrating a set of pixels including a number of pixels corresponding to the range of the set angle of the straight line.
  • FIG. 83 is a view for explaining the range of the angle of the set straight line.
  • FIG. 84 is a diagram illustrating the range of the angle of the set straight line, the number of pixel sets, and the number of pixels for each pixel set.
  • FIG. 85 is a diagram for explaining the number of pixels in each pixel set.
  • FIG. 86 is a diagram for explaining the number of pixels in each pixel set.
  • FIG. 87 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 88 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 89 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 90 is a diagram illustrating the number of pixels in each pixel set.
  • FIG. 91 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 92 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 93 is a flowchart illustrating a process of detecting data continuity.
  • FIG. 94 is a block diagram showing still another configuration of the data continuity detecting unit.
  • FIG. 95 is a block diagram showing a more detailed configuration of the data continuity detector.
  • FIG. 96 is a diagram illustrating an example of a block.
  • FIG. 97 is a diagram illustrating a process of calculating the absolute value of the pixel value difference between the target block and the reference block.
  • FIG. 98 is a diagram illustrating the distance in the spatial direction X between the position of a pixel around the target pixel and a straight line having an angle ⁇ .
  • FIG. 99 is a diagram illustrating a relationship between the shift amount y and the angle 0.
  • FIG. 99 is a diagram illustrating a relationship between the shift amount y and the angle 0.
  • FIG. 100 is a diagram showing a distance in the spatial direction X between a position of a pixel around the target pixel and a straight line passing through the target pixel and having an angle of 0 with respect to the shift amount ⁇ .
  • FIG. 101 is a diagram showing a reference block which passes through the pixel of interest and has a minimum distance from a straight line having an angle of 0 with respect to the axis in the spatial direction X.
  • FIG. 102 is a diagram for explaining a process of setting the range of the continuity angle of the detected data to 1Z2.
  • FIG. 103 is a flowchart for explaining processing for detecting data continuity.
  • FIG. 104 is a diagram showing blocks extracted when detecting the continuity angle of data in the inter-direction and the spatial direction.
  • FIG. 105 is a block diagram illustrating a configuration of a data continuity detecting unit that executes a process of detecting data continuity based on a component signal of an input image.
  • FIG. 106 is a block diagram illustrating a configuration of a data continuity detection unit that executes a process of detecting data continuity based on a component signal of an input image.
  • FIG. 107 is a block diagram showing still another configuration of the data continuity detecting unit.
  • FIG. 108 is a view for explaining the continuity angle of data with respect to a reference axis in an input image.
  • FIG. 109 is a diagram illustrating an angle of data continuity with respect to a reference axis in an input image.
  • FIG. 110 is a diagram illustrating an angle of data continuity with respect to a reference axis in an input image.
  • FIG. 11 is a diagram illustrating a relationship between a change in a pixel value and a regression line with respect to a spatial position of a pixel in an input image.
  • FIG. 112 is a diagram for explaining the angle between the regression line A and, for example, an axis indicating the spatial direction X which is a reference axis.
  • FIG. 113 is a diagram showing an example of the area.
  • FIG. 114 is a flowchart illustrating a process of detecting data continuity performed by the data continuity detection unit having the configuration illustrated in FIG. 107.
  • FIG. 115 is a block diagram showing still another configuration of the data continuity detecting unit.
  • FIG. 116 is a diagram illustrating a relationship between a change in a pixel value and a regression line with respect to a position of a pixel in a spatial direction in an input image.
  • Fig. 117 is a diagram explaining the relationship between the standard deviation and the region with data continuity. 4 001488
  • FIG. 118 is a diagram illustrating an example of a region.
  • 'FIG. 119 is a flowchart illustrating a process of detecting data continuity by the data continuity detection unit having the configuration shown in FIG. 115.
  • FIG. 120 is a flowchart illustrating another process of detecting data continuity by the data continuity detection unit having the configuration shown in FIG.
  • FIG. 121 is a block diagram illustrating a configuration of a data continuity detecting unit that detects the angle of a thin line or a binary edge according to the present invention as data continuity information.
  • FIG. 122 is a diagram for explaining a method of detecting data continuity information.
  • FIG. 123 is a diagram for explaining a method of detecting data continuity information.
  • FIG. 124 is a diagram showing a more detailed configuration of the data continuity detector of FIG.
  • FIG. 125 is a diagram for explaining the horizontal / vertical determination processing.
  • FIG. 126 illustrates the horizontal / vertical determination process.
  • FIG. 127A is a diagram illustrating the relationship between a thin line in the real world and a thin line imaged by a sensor.
  • FIG. 127B is a diagram illustrating the relationship between a thin line in the real world and a thin line imaged by a sensor.
  • FIG. 127C is a diagram for explaining the relationship between a thin line in the real world and a thin line imaged by a sensor.
  • FIG. 128A is a diagram for explaining the relationship between the thin lines and the background of the real world image.
  • FIG. 128B is a diagram for explaining the relationship between the thin lines and the background of the real world image.
  • FIG. 12A is a diagram illustrating the relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 12B is a diagram for explaining a relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 13 OA is a diagram for explaining an example of a relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 13 OB is a diagram for explaining an example of the relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 13A is a diagram illustrating the relationship between the thin lines and the background of the real world image.
  • FIG. 13B is a diagram illustrating the relationship between the thin lines and the background of the real world image.
  • FIG. 13A is a diagram for explaining a relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 13B is a diagram for explaining a relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 13A is a diagram illustrating an example of a relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 13B is a diagram for explaining an example of the relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 134 is a diagram showing a model for obtaining the angle of a thin line.
  • FIG. 135 is a diagram showing a model for obtaining the angle of a thin line.
  • FIG. 13A illustrates the maximum and minimum pixel values of the dynamic range block corresponding to the target pixel.
  • FIG. 13B illustrates the maximum value and the minimum value of the pixel value of the dynamic range block corresponding to the target pixel.
  • FIG. 13A is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 13B is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 13C is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 138 is a view for explaining how to obtain the angle of a thin line.
  • FIG. 139 is a diagram illustrating the extraction block and the dynamic range block.
  • C FIG. 140 is a diagram illustrating the solution of the least squares method.
  • FIG. 141 is a diagram for explaining the solution of the least squares method.
  • FIG. 144A is a diagram for explaining binary edges.
  • FIG. 144B illustrates a binary edge. 04 001488
  • FIG. 144C illustrates a binary edge
  • FIG. 144A is a diagram illustrating binary edges of an image captured by a sensor.
  • FIG. 144B is a diagram for explaining binary edges of an image captured by a sensor.
  • FIG. 144A is a diagram illustrating an example of a binary edge of an image captured by a sensor.
  • FIG. 144B is a diagram illustrating an example of a binary edge of an image captured by a sensor.
  • FIG. 144A is a diagram for explaining binary edges of an image captured by a sensor.
  • FIG. 144B is a diagram for explaining binary edges of an image captured by a sensor.
  • FIG. 146 is a diagram showing a model for determining the angle of a binary edge.
  • FIG. 147A is a view for explaining a method of obtaining the angle of a binary edge.
  • FIG. 147B is a diagram for explaining a method of obtaining the angle of the binary edge.
  • FIG. 147C is a diagram for explaining a method of obtaining the angle of the binary edge.
  • FIG. 148 is a view for explaining a method of obtaining the angle of a binary edge.
  • FIG. 149 is a flowchart illustrating a process of detecting the angle of a thin line or a binary edge as data continuity.
  • FIG. 150 is a flowchart illustrating the data extraction process.
  • FIG. 151 is a flowchart for explaining a process of adding a normal equation.
  • FIG. 15A is a diagram comparing the inclination of the thin line obtained by applying the present invention with the angle of the thin line obtained by using the correlation.
  • FIG. 15B is a diagram comparing the inclination of the thin line obtained by applying the present invention with the angle of the thin line obtained by using the correlation.
  • FIG. 15A is a diagram comparing the slope of a binary edge obtained by applying the present invention with the angle of a thin line obtained using correlation.
  • FIG. 15B is a diagram comparing the slope of a binary edge obtained by applying the present invention with the angle of a thin line obtained using correlation.
  • Fig. 154 shows data for detecting the mixture ratio to which the present invention is applied as data continuity information. 2004/001488
  • FIG. 3 is a block diagram illustrating a configuration of a data continuity detection unit.
  • FIG. 155A is a diagram for explaining how to determine the mixture ratio.
  • FIG. 155B is a diagram for explaining how to obtain the mixture ratio.
  • FIG. 155C is a diagram for explaining how to determine the mixture ratio.
  • FIG. 156 is a flowchart illustrating a process of detecting the mixture ratio as data continuity.
  • FIG. 157 is a flowchart for explaining the process of adding to the normal equation.
  • FIG. 158A is a diagram showing an example of the distribution of the mixing ratio of the fine lines.
  • FIG. 158B is a diagram illustrating an example of the distribution of the mixing ratio of the thin lines.
  • FIG. 159A is a diagram illustrating an example of a distribution of the mixture ratio of binary edges.
  • FIG. 159B is a diagram illustrating a distribution example of the mixture ratio of binary edges.
  • FIG. 160 is a diagram illustrating linear approximation of the mixture ratio.
  • FIG. 16A illustrates a method of obtaining the motion of an object as data continuity information.
  • FIG. 16B is a diagram illustrating a method of obtaining the motion of an object as data continuity information.
  • FIG. 16A is a diagram illustrating a method of obtaining the motion of an object as data continuity information.
  • FIG. 16B is a diagram for explaining a method of obtaining the motion of an object as data continuity information.
  • FIG. 16A is a diagram illustrating a method of obtaining a mixture ratio due to the movement of an object as data continuity information.
  • 'FIG. 16B is a diagram for explaining a method of obtaining the mixture ratio due to the motion of the object as data continuity information.
  • FIG. 16C is a diagram illustrating a method for obtaining a mixture ratio due to the movement of an object as data continuity information.
  • Fig. 164 shows the mixture when calculating the mixture ratio due to the motion of the object as data continuity information. It is a figure explaining the linear approximation of a ratio.
  • FIG. 165 is a block diagram illustrating a configuration of a data continuity detection unit that detects a processing area to which the present invention is applied as data continuity information.
  • FIG. 166 is a flowchart for describing the processing of continuity detection by the data continuity detection unit in FIG.
  • FIG. 167 is a diagram for explaining the integration range of the processing for detecting continuity by the data continuity detection unit in FIG.
  • FIG. 168 is a diagram for explaining the integration range of the processing of continuity detection by the data continuity detection unit in FIG.
  • FIG. 169 is a block diagram illustrating another configuration of the data continuity detecting unit that detects a processing region to which the present invention is applied as data continuity information.
  • FIG. 170 is a flowchart illustrating processing for detecting continuity by the data continuity detecting unit in FIG. 169.
  • FIG. 171 is a diagram for explaining the integration range of the continuity detection processing by the data continuity detection unit in FIG. 169.
  • FIG. 172 is a view for explaining the integration range of the processing of the continuity detection by the data continuity detection unit in FIG. 169.
  • FIG. 173 is a block diagram showing the configuration of the real world estimation unit 102.
  • FIG. 174 is a diagram illustrating a process of detecting the width of a thin line in a signal in the real world.
  • FIG. 175 is a diagram illustrating a process of detecting the width of a thin line in a signal in the real world.
  • FIG. 176 is a diagram illustrating a process of estimating the level of a thin-line signal in a real-world signal.
  • FIG. 177 is a flowchart illustrating the process of estimating the real world.
  • FIG. 178 is a block diagram illustrating another configuration of the real world estimation unit.
  • FIG. 179 is a block diagram illustrating a configuration of the boundary detection unit. 04 001488
  • FIG. 180 is a diagram for explaining the process of calculating the distribution ratio.
  • FIG. 181 is a diagram for explaining the process of calculating the distribution ratio.
  • FIG. 182 is a diagram for explaining the process of calculating the distribution ratio.
  • FIG. 183 is a diagram for explaining a process of calculating a regression line indicating a boundary of a monotone increase / decrease region.
  • FIG. 184 is a diagram for explaining a process of calculating a regression line indicating a boundary of a monotone increase / decrease region.
  • FIG. 185 is a flowchart for explaining the process of estimating the real world.
  • FIG. 186 is a flowchart for explaining the boundary detection processing.
  • FIG. 187 is a block diagram illustrating a configuration of a real world estimating unit that estimates a differential value in a spatial direction as real world estimation information.
  • FIG. 188 is a flowchart for explaining the processing of the real world estimation by the real world estimation unit in FIG.
  • FIG. 189 is a diagram illustrating a reference pixel.
  • FIG. 190 is a view for explaining positions where differential values in the spatial direction are obtained.
  • FIG. 191 is a diagram for explaining the relationship between the differential value in the spatial direction and the shift amount.
  • FIG. 192 is a block diagram illustrating a configuration of a real world estimating unit that estimates the inclination in the spatial direction as real world estimation information.
  • FIG. 193 is a flowchart illustrating a process of real world estimation by the real world estimation unit in FIG.
  • FIG. 194 is a view for explaining the processing for obtaining the inclination in the spatial direction.
  • FIG. 195 is a view for explaining the processing for obtaining the inclination in the spatial direction.
  • FIG. 196 is a block diagram illustrating a configuration of a real world estimating unit that estimates a differential value in the frame direction as real world estimation information.
  • FIG. 197 is a flowchart for explaining the processing of the real world estimation by the real world estimation unit in FIG.
  • FIG. 198 is a view for explaining reference pixels. 1488
  • FIG. 199 is a view for explaining positions where differential values in the frame direction are obtained.
  • FIG. 200 is a diagram for explaining the relationship between the differential value in the frame direction and the shift amount.
  • FIG. 201 is a block diagram illustrating a configuration of a real world estimating unit that estimates a tilt in a frame direction as real world estimation information.
  • FIG. 202 is a flowchart for explaining the process of real world estimation by the real world estimation unit in FIG.
  • FIG. 203 is a view for explaining the processing for obtaining the inclination in the frame direction.
  • FIG. 204 is a view for explaining the processing for obtaining the inclination in the frame direction.
  • FIG. 205 is a diagram for explaining the principle of the function approximation method, which is an example of the embodiment of the real world estimation unit in FIG.
  • FIG. 206 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 207 is a view for explaining a specific example of the integration effect of the sensor of FIG.
  • FIG. 208 is a view for explaining another specific example of the integration effect of the sensor of FIG. 206.
  • FIG. 209 is a diagram showing the real world region containing fine lines shown in FIG.
  • FIG. 210 illustrates the principle of an example of the embodiment of the real world estimating unit in FIG. 3 in comparison with the example in FIG.
  • FIG. 211 is a diagram showing the thin-line-containing data area shown in FIG.
  • FIG. 212 is a graph in which each of the pixel values included in the thin line containing data area of FIG. 211 is graphed.
  • FIG. 2 13 is a graph of an approximation function that approximates each pixel value included in the thin line containing data area of FIG.
  • FIG. 214 is a diagram for explaining the stationarity in the spatial direction of the real world region containing fine lines shown in FIG.
  • FIG. 215 is a graph in which each of the pixel values included in the thin line containing data area of FIG. 211 is graphed.
  • Figure 216 shows each of the input pixel values shown in Figure 215 by a predetermined shift amount.
  • FIG. 7 is a diagram for explaining a state in which the shift has been performed.
  • FIG. 217 is a graph showing an approximation function that approximates each pixel value included in the thin-line-containing data area of FIG. 212 in consideration of the spatial continuity.
  • FIG. 218 is a diagram illustrating a spatial mixing region.
  • FIG. 219 is a diagram illustrating an approximation function that approximates a real-world signal in the spatial mixing region.
  • Figure 220 is a graph of an approximation function that approximates the real-world signal corresponding to the thin-line-containing data area in Figure 212, taking into account both the integration characteristics of the sensor and the stationarity in the spatial direction. is there.
  • FIG. 221 is a block diagram illustrating a configuration example of a real-world estimator that uses a first-order polynomial approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 222 is a flowchart for explaining the real world estimation process executed by the real world estimation unit having the configuration shown in FIG.
  • FIG. 223 is a diagram illustrating the tap range.
  • FIG. 224 is a view for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 225 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 226 is a view for explaining the distance in the cross-sectional direction.
  • FIG. 227 is a block diagram illustrating a configuration example of a real-world estimator that uses a quadratic polynomial approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 228 is a flowchart for explaining the real world estimation process executed by the real world estimation unit having the configuration of FIG.
  • FIG. 229 is a diagram illustrating the tap range.
  • FIG. 230 illustrates the direction of continuity in the spatiotemporal direction.
  • FIG. 23 is a diagram for explaining the integration effect when the sensor is a CCD.
  • FIG. 232 is a diagram for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 233 is a diagram for explaining signals in the real world having continuity in the spatiotemporal direction.
  • Figure 234 shows the three-dimensional function approximation method based on the principle shown in Figure 205. 4 001488
  • FIG. 235 is a flowchart illustrating the real world estimation processing executed by the real world estimation unit having the configuration of FIG.
  • FIG. 236 is a diagram for explaining the principle of the reintegration method, which is an example of the embodiment of the image generation unit in FIG.
  • FIG. 237 is a diagram illustrating an example of an input pixel and an approximation function that approximates a real-world signal corresponding to the input pixel.
  • FIG. 238 is a view for explaining an example of creating four high-resolution pixels in one input pixel shown in FIG. 237 from the approximation function shown in FIG.
  • FIG. 239 is a block diagram illustrating a configuration example of an image generation unit that uses a one-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 240 is a flowchart illustrating the image generation processing executed by the image generation unit having the configuration of FIG.
  • FIG. 241 is a diagram illustrating an example of an original image of the input image.
  • FIG. 242 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 243 is a diagram illustrating an example of an input image.
  • FIG. 244 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 245 is a diagram illustrating an example of an image obtained by performing a conventional classification adaptive process on an input image.
  • FIG. 246 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 247 is a diagram illustrating an example of an image obtained by performing the processing of the one-dimensional reintegration method of the present invention on an input image.
  • FIG. 248 is a diagram illustrating an example of image data corresponding to the image in FIG.
  • FIG. 249 is a diagram for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 250 is a block diagram illustrating a configuration example of an image generation unit that uses a two-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 251 is a diagram for explaining the distance in the cross-sectional direction. 2004/001488
  • FIG. 252 is a flowchart illustrating the image generation processing executed by the image generation unit having the configuration of FIG.
  • FIG. 253 is a diagram illustrating an example of an input pixel.
  • FIG. 254 is a diagram for explaining an example of creating four high-resolution pixels in one input pixel shown in FIG. 25 3 by the two-dimensional reintegration method.
  • FIG. 255 is a diagram illustrating the direction of continuity in the spatiotemporal direction.
  • FIG. 256 is a block diagram illustrating a configuration example of an image generation unit that uses a three-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 256 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG.
  • FIG. 258 is a block diagram showing another configuration of the image generation unit to which the present invention is applied.
  • 'FIG. 255 is a flowchart illustrating the process of generating an image by the image generating unit in FIG.
  • FIG. 260 is a diagram illustrating a process of generating a quadruple-density pixel from an input pixel.
  • FIG. 261 is a diagram showing a relationship between an approximate function indicating a pixel value and a shift amount.
  • FIG. 262 is a block diagram showing another configuration of the image generation unit to which the present invention is applied.
  • FIG. 263 is a flowchart illustrating a process of generating an image by the image generation unit in FIG.
  • FIG. 264 is a diagram illustrating a process of generating a quadruple-density pixel from an input pixel.
  • FIG. 265 is a diagram illustrating a relationship between an approximate function indicating a pixel value and a shift amount.
  • FIG. 266 is a block diagram illustrating a configuration example of an image generation unit that uses the one-dimensional reintegration method of the class classification adaptive processing correction method, which is an example of the embodiment of the image generation unit of FIG. is there.
  • FIG. 267 is a block diagram illustrating a configuration example of the class classification adaptive processing unit of the image generation unit in FIG. 2004/001488
  • FIG. 268 is a block diagram illustrating a configuration example of a learning device that determines, by learning, the coefficients used by the class classification adaptive processing unit and the class classification adaptive processing correction unit in FIG.
  • FIG. 269 is a block diagram illustrating a detailed configuration example of the class classification adaptive processing learning unit in FIG.
  • FIG. 270 is a diagram illustrating an example of a processing result of the class classification adaptive processing unit in FIG.
  • FIG. 271 is a diagram illustrating a difference image between the predicted image in FIG. 270 and the HD image.
  • Figure 272 shows the HD of Figure 270, which corresponds to the four HD pixels from the left in the figure among the six HD pixels that are continuous in the X direction contained in the area shown in Figure 271.
  • FIG. 6 is a diagram showing a plot of a specific pixel value of an image, a specific pixel value of an SD image, and an actual waveform (real-world signal).
  • FIG. 273 is a diagram illustrating a difference image between the predicted image in FIG. 270 and the HD image.
  • Figure 274 shows the HD image of Figure 270, corresponding to the four HD pixels from the left in the figure out of the six HD pixels consecutive in the X direction included in the area shown in Figure 273
  • FIG. 7 is a diagram showing a plot of specific pixel values, specific pixel values of an SD image, and actual waveforms (real world signals).
  • FIG. 275 is a diagram for explaining the knowledge obtained based on the contents shown in FIG. 272 to FIG. 274.
  • FIG. 276 is a block diagram illustrating a configuration example of the class classification adaptive processing correction unit of the image generation unit in FIG.
  • FIG. 277 is a block diagram illustrating a detailed configuration example of the learning unit for class classification adaptive processing correction in FIG.
  • FIG. 278 is a view for explaining the tilt in the pixel.
  • FIG. 279 is a diagram illustrating the SD image of FIG. 270 and a feature amount image in which the in-pixel inclination of each pixel of the SD image is used as a pixel value.
  • FIG. 280 is a view for explaining a method of calculating an in-pixel inclination.
  • FIG. 281 is a view for explaining a method of calculating an in-pixel inclination.
  • FIG. 282 describes the image generation processing executed by the image generation unit having the configuration of FIG. It is a flow chart.
  • FIG. 283 is a flowchart for explaining the details of the input image class classification adaptation process of the image generation process of FIG. 282.
  • FIG. 284 is a flowchart illustrating the details of the correction processing of the class classification adaptive processing in the image generation processing of FIG. 282.
  • FIG. 285 is a diagram for explaining an example of the arrangement of class taps.
  • FIG. 286 is a diagram illustrating an example of the class classification.
  • FIG. 287 is a diagram illustrating an example of a prediction tap arrangement.
  • FIG. 288 is a flowchart illustrating the learning processing of the learning device in FIG.
  • FIG. 289 is a flowchart for explaining the details of the learning process for the classification adaptive processing in the learning process in FIG. 288.
  • FIG. 290 is a flowchart for explaining the details of the learning process for correcting the classification adaptive processing in the learning process of FIG.
  • FIG. 291 is a diagram illustrating the predicted image of FIG. 270 and an image obtained by adding the corrected image to the predicted image (the image generated by the image generating unit of FIG. 266).
  • FIG. 292 is a block diagram illustrating a first configuration example of a signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG.
  • FIG. 293 is a block diagram illustrating a configuration example of an image generation unit that performs the classification adaptive process in the signal processing device in FIG.
  • FIG. 294 is a block diagram illustrating a configuration example of a learning device for the image generation unit in FIG.
  • FIG. 295 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 296 is a flowchart illustrating details of execution processing of the class classification adaptive processing of the signal processing of FIG.
  • FIG. 297 is a flowchart illustrating the learning processing of the learning device in FIG.
  • FIG. 298 shows another example of the embodiment of the signal processing device shown in FIG.
  • FIG. 4 is a block diagram illustrating a second configuration example of the signal processing device to be used.
  • FIG. 299 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 300 is a block diagram illustrating another example of the embodiment of the signal processing device in FIG. 1 and illustrating a third configuration example of the signal processing device using the combined method.
  • FIG. 301 is a flowchart illustrating signal processing executed by the signal processing device having the configuration in FIG.
  • FIG. 302 is a block diagram illustrating a fourth configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG.
  • FIG. 303 is a flowchart illustrating signal processing executed by the signal processing device having the configuration shown in FIG.
  • FIG. 304 is a block diagram illustrating a fifth configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG.
  • FIG. 305 is a flowchart illustrating signal processing executed by the signal processing device having the configuration in FIG.
  • FIG. 306 is a block diagram showing a configuration of another embodiment of the data continuity detecting unit.
  • FIG. 307 is a flowchart illustrating the data continuity detection processing by the data continuity detection unit in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 illustrates the principle of the present invention.
  • events phenomena
  • Real world 1 events include light (image), sound, pressure, temperature, mass, density, light / darkness, or smell.
  • Events in the real world 1 are distributed in the spatiotemporal direction.
  • the image of the real world 1 is the distribution of the light intensity of the real world 1 in the spatiotemporal direction.
  • the events of real world 1 that can be acquired by sensor 2 are converted into data 3 by sensor 2. It can be said that the sensor 2 obtains information indicating an event in the real world 1.
  • the senor 2 converts information indicating an event of the real world 1 into data 3. It can be said that a signal that is information indicating an event (phenomenon) in the real world 1 having dimensions such as space, time, and mass is acquired by the sensor 2 and converted into data.
  • a signal that is information indicating an event (phenomenon) in the real world 1 having dimensions such as space, time, and mass is acquired by the sensor 2 and converted into data.
  • a signal that is information indicating an event of the real world 1 is also referred to as a signal that is information indicating an event of the real world 1.
  • a signal that is information indicating an event in the real world 1 is also simply referred to as a signal in the real world 1.
  • a signal includes a phenomenon or an event, and includes a signal that the transmission side does not intend.
  • the data 3 (detection signal) output from the sensor 2 is information obtained by projecting information indicating an event of the real world 1 to a lower-dimensional space-time than the real world 1.
  • data 3 which is image data of a moving image, is obtained by projecting a three-dimensional spatial and temporal image of the real world 1 into a two-dimensional spatial and temporal spatio-temporal image.
  • Information is also, for example, when data 3 is digital data, data 3 is rounded according to the unit of sampling.
  • Data 3 When the data is S-analog data, in Data 3, the information is compressed or a part of the information is deleted by a limiter or the like according to the dynamic range.
  • Data 3 estimates signals that are information indicating events (phenomena) in the real world 1. Contains significant information.
  • information having stationarity included in data 3 is used as significant information for estimating a signal which is information of the real world 1.
  • Stationarity is a newly defined concept.
  • the event of the real world 1 includes a certain feature in a direction of a predetermined dimension.
  • a shape, a pattern, a color, or the like is continuous in a spatial direction or a time direction, or a pattern of a shape, a pattern, or a color is repeated.
  • the information indicating the event of the real world 1 includes a certain feature in the direction of the predetermined dimension.
  • a linear object such as a thread, a string, or a rope, whose cross-sectional shape is the same at any position in the length direction, that is, constant in the length direction, that is, in the space direction
  • the constant feature in the spatial direction that the cross-sectional shape is the same at an arbitrary position in the length direction arises from the feature that the linear object is long. Therefore, the image of the linear object has a certain feature in the longitudinal direction, that is, in the spatial direction, that the cross-sectional shape is the same at an arbitrary position in the longitudinal direction.
  • a single-color object which is a tangible object extending in the spatial direction
  • an image of a single-color object which is a tangible object extending in the spatial direction
  • the signal of the actual world 1, c having certain characteristics in the direction of a predetermined dimension
  • continuity such a feature that is fixed in the direction of the predetermined dimension.
  • the continuity of a signal in the real world 1 (real world) refers to a characteristic of a signal indicating an event in the real world 1 (real world), which is constant in a predetermined dimension.
  • data 3 has a predetermined dimension due to sensor 2. Since the signal which is the information indicating the event of the real world 1 is projected, it includes a continuity corresponding to the continuity of the signal in the real world. Data 3 can also be said to include the stationarity of the real-world signal projected.
  • data 3 includes, as data continuity, a part of the continuity of the signal of the real world 1 (real world).
  • the data continuity is a feature of data 3 that is constant in a predetermined dimension direction.
  • data continuity of data 3 is used as significant information for estimating a signal that is information indicating an event in the real world 1.
  • information indicating a missing event of the real world 1 is generated by performing signal processing on the data 3 using the stationarity of the data.
  • the stationarity in the space direction or the time direction is used.
  • the senor 2 is composed of, for example, a digital still camera or a video camera, and captures an image of the real world 1 and outputs the obtained data 3 as image data to the signal processing device 4. I do.
  • the sensor 2 can be, for example, a thermography device or a pressure sensor using photoelasticity.
  • the signal processing device 4 is composed of, for example, a personal computer.
  • the signal processing device 4 is configured, for example, as shown in FIG. CPU
  • the (Central Processsing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • a RAM (Random Access Memory) 23 stores programs and data executed by the CPU 21 as appropriate. These CPU 21, ROM 22, and RAM 23 are interconnected by a bus 24. 1488
  • the CPU 21 is also connected to an input / output interface 25 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 including a keyboard, a mouse, and a microphone, and an output unit 27 including a display, a speaker, and the like.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, or the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and stores programs executed by the CPU 21 and various data.
  • the communication unit 29 communicates with external devices via the Internet or other networks. In the case of this example, the communication unit 29 functions as an acquisition unit that takes in the data 3 output from the sensor 2.
  • a program may be acquired via the communication unit 29 and stored in the storage unit 28.
  • Drive 30 connected to I / O interface 25
  • the optical disk 52, the magneto-optical disk 53, or the semiconductor memory 54 is mounted, it is driven to acquire the programs and data recorded therein. The acquired programs and data are transferred to and stored in the storage unit 28 as necessary.
  • FIG. 3 is a block diagram showing the signal processing device 4.
  • each function of the signal processing device 4 is realized by hardware ⁇ software. That is, each block diagram in this specification may be considered as a hardware block diagram or a function block diagram by software.
  • FIG. 3 is a diagram showing a configuration of the signal processing device 4 which is an image processing device.
  • the input image (image data as an example of the data 3) input to the signal processing device 4 is supplied to the data continuity detecting unit 101 and the real world estimating unit 102.
  • the data continuity detection unit 101 detects data continuity from the input image and supplies data continuity information indicating the detected continuity to the real world estimation unit 102 and the image generation unit 103.
  • the data continuity information includes, for example, the position of a pixel region having data continuity in the input image, the direction of the pixel region having data continuity (the angle or inclination in the time direction and the spatial direction), or the data Includes the length of the area of pixels that have stationarity. Details of the configuration of the data continuity detecting unit 101 will be described later.
  • the real world estimating unit 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detecting unit 101.
  • the real-world estimating unit 102 estimates an image, which is a real-world signal, incident on the sensor 2 when the input image is acquired.
  • the real world estimation unit 102 supplies real world estimation information indicating the result of estimation of the signal of the real world 1 to the image generation unit 103. Details of the configuration of the real world estimation unit 102 will be described later.
  • the image generation unit 103 generates a signal that is more similar to the signal of the real world 1 based on the real world estimation information indicating the estimated signal of the real world 1 supplied from the real world estimation unit 102. And output the generated signal.
  • the image generation unit 103 shows the data continuity information supplied from the data continuity detection unit 101 and the estimated real world 1 signal supplied from the real world estimation unit 102 Based on the real world estimation information, it generates a signal that is more similar to the real world 1 signal and outputs the generated signal.
  • the image generation unit 103 generates an image that is closer to the image of the real world 1 based on the real world estimation information, and outputs the generated image as an output image.
  • the image generation unit 103 based on the data continuity information and the real world estimation information, the image generation unit 103 generates an image that is closer to the image of the real world 1 and outputs the generated image as an output image.
  • the image generation unit 103 integrates the estimated image of the real world 1 in a desired spatial direction or temporal direction based on the real world estimation information, and compares Generate high-resolution images depending on the direction or time direction Output the image as an output image.
  • the image generation unit 103 generates an image by extrapolation and outputs the generated image as an output image.
  • FIG. 4 is a diagram for explaining the principle of processing in the conventional signal processing device 121.
  • the conventional signal processing device 122 uses data 3 as a reference for processing and performs processing such as high resolution processing on data 3 as a processing target.
  • the real world 1 is not considered, and the data 3 is the final criterion, and it is not possible to obtain more information than the information contained in the data 3 as output. Can not.
  • the distortion difference between the signal which is the information of the real world 1 and the data 3
  • the device 122 outputs a signal containing distortion. Further, depending on the content of the processing of the signal processing device 121, the distortion caused by the sensor 2 existing in the data 3 is further amplified, and data including the amplified distortion is output.
  • the processing is executed in consideration of (the signal of) the real world 1 itself.
  • FIG. 5 is a diagram illustrating the principle of processing in the signal processing device 4 according to the present invention. It is the same as the conventional one in that the sensor 2 acquires a signal that is information indicating an event in the real world 1 and the sensor 2 outputs data 3 obtained by projecting the signal that is the information of the real world 1.
  • the real world 1 acquired by the sensor 2 Signals that are information indicating elephants are explicitly considered.
  • the signal processing is performed while being aware that the data 3 includes the distortion caused by the sensor 2 (the difference between the signal which is the information of the real world 1 and the data 3).
  • the result of the processing is not limited by the information and distortion included in the data 3. It is possible to obtain more accurate and more accurate processing results for events. That is, according to the present invention, a more accurate and higher-precision processing result can be obtained for a signal that is input to the sensor 2 and that indicates information of the event in the real world 1.
  • 6 and 7 are diagrams for more specifically explaining the principle of the present invention.
  • the signal of the real world 1 which is an image
  • an optical system 141 such as a lens or an optical LPF (Low Pass Filter).
  • An image is formed on the light receiving surface of a CCD (Charge Coupled Device). Since the CCD, which is an example of the sensor 2, has an integration characteristic, the data 3 output from the CCD has a difference from the image of the real world 1. Details of the integration characteristic of the sensor 2 will be described later.
  • the relationship between the image of the real world 1 acquired by the CCD and the data 3 captured and output by the CCD is clearly considered. That is, the relationship between the data 3 and the signal, which is the real-world information acquired by the sensor 2, is clearly considered.
  • the signal processing device 4 approximates (describes) the real world 1 using a model 16 1.
  • the model 16 1 is represented by, for example, N variables. More precisely, the model 16 1 approximates (describes) the real world 1 signal.
  • the signal processor 4 extracts M data 16 2 from the data 3.
  • the signal processing device 4 uses the continuity of the data included in the data 3.
  • the signal processing device 4 extracts data 162 for predicting the model 161 based on the stationarity of the data included in the data 3.
  • the model 16 1 is bound by the stationarity of the data.
  • the model 16 1 represented by the N variables is predicted from the M data 16 2.
  • the signal processing device 4 can consider the signal that is the information of the real world 1.
  • An image sensor such as a CCD or a complementary metal-oxide semiconductor (CMOS) sensor, which captures an image, projects a signal, which is information of the real world, into two-dimensional data when imaging the real world.
  • CMOS complementary metal-oxide semiconductor
  • Each pixel of the image sensor has a predetermined area as a so-called light receiving surface (light receiving area). Light incident on a light receiving surface having a predetermined area is integrated in the spatial direction and the time direction for each pixel, and is converted into one pixel value for each pixel.
  • the image sensor captures an image of an object in the real world, and outputs image data obtained as a result of the capture in units of one frame. That is, the image sensor acquires the signal of the real world 1, which is the light reflected by the object of the real world 1, and outputs the data 3.
  • an image sensor outputs 30 frames of image data per second.
  • the exposure time of the image sensor can be set to 130 seconds.
  • the exposure time is a period from the time when the image sensor starts converting the incident light into electric charges to the time when the conversion of the incident light into electric charges ends.
  • the exposure time It is also referred to as tta time.
  • FIG. 8 is a diagram illustrating an example of the arrangement of pixels on the image sensor.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image displayed by the image data.
  • One detection element corresponding to one pixel is arranged on the image sensor.
  • one detection element outputs one pixel value corresponding to one pixel constituting the image data.
  • the position of the detector element in the spatial direction X corresponds to the position in the horizontal direction on the image displayed by the image data
  • the position of the detector element in the spatial direction Y (Y coordinate) corresponds to the image.
  • the distribution of the light intensity of the real world 1 has a spread in the three-dimensional spatial direction and the temporal direction, but the image sensor acquires the light of the real world 1 in the two-dimensional spatial direction and the temporal direction, Generates data 3 representing the distribution of light intensity in the two-dimensional spatial and temporal directions.
  • the detection element which is a CCD, converts light input to the light receiving surface (light receiving area) (detection area) into electric charges for a period corresponding to the shutter time, and converts the converted electric charges.
  • Light is the information (signal) in the real world 1 whose intensity is determined by its position in three-dimensional space and time.
  • the distribution of light intensity in the real world 1 is a function with variables x, y, and, and time t in a three-dimensional space.
  • the amount of electric charge stored in the detector element which is a CCD, is almost proportional to the intensity of light incident on the entire light-receiving surface, which has a two-dimensional spatial extent, and the time the light is incident. .
  • the detection element adds the electric charge converted from the light incident on the entire light receiving surface to the electric charge already accumulated during a period corresponding to the shutter time. In other words, the detection element integrates light incident on the entire light receiving surface having a two-dimensional spatial spread for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. .
  • the detection element integrates with respect to space (photosensitive surface) and time (shutter time) 1488
  • the electric charge stored in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output as data 3. Therefore, the individual pixel values output from the image sensor represent a part of the information (signal) of the real world 1 that has a temporal and spatial spread, in the time direction of the shutter time and the spatial direction of the light receiving surface of the detection element. It has the value of the one-dimensional space that is the result of integration.
  • the pixel value of one pixel is represented by integration of F (x, y, t).
  • F (x, y, t) is a function representing the distribution of light intensity on the light receiving surface of the detection element.
  • the pixel value P is represented by Expression (1).
  • Xl is the spatial coordinate (X coordinate) of the left boundary of the light receiving surface of the detection element.
  • chi 2 the spatial coordinates (X coordinate) of the right boundary of the light-receiving surface of the detector elements Ru der.
  • Yl is the spatial coordinate (Y coordinate) of the upper boundary of the light receiving surface of the detection element.
  • y 2 is the lower boundary spatial coordinates of the light-receiving surface of the detecting element (Y-coordinate).
  • t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the gain of the pixel value of the image data output from the image sensor is corrected, for example, for the entire frame.
  • Each pixel value of the image data is the integrated value of the light incident on the light receiving surface of each detection element of the image sensor, and of the light incident on the image sensor of the real world 1 which is smaller than the light receiving surface of the detection element.
  • the light waveform is hidden by the pixel value as an integrated value.
  • the waveform of a signal expressed with reference to a predetermined dimension is also simply referred to as a waveform.
  • the image of the real world 1 is expressed in spatial and temporal directions in units of pixels. 1488
  • the image data part of the continuity of the image of the real world 1 is missing, and only another part of the continuity of the image of the real world 1 is included in the image data.
  • the image data may include stationarity that has changed from the stationarity of the real world 1 image.
  • FIG. 10 is a diagram for explaining the relationship between the light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • F (x) in FIG. 10 is an example of a function that represents the distribution of light intensity in the real world 1 with the coordinate X in the spatial direction X in space (on the detection element) as a variable.
  • F (x) is an example of a function representing the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the time direction.
  • L indicates the length in the spatial direction X of the light receiving surface of the detection element corresponding to pixel D to pixel F.
  • the pixel value of one pixel is represented by the integral of F (x).
  • the pixel value P of the pixel E is represented by Expression (2).
  • Xl is the spatial coordinate in the spatial direction X of the left boundary of the light receiving surface of the detection element corresponding to pixel ⁇ .
  • x 2 is a spatial coordinate in the spatial direction X of the right boundary of the light-receiving surface of the detecting element corresponding to the pixel E.
  • FIG. 11 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • F (t) in FIG. 11 is a function representing the distribution of light intensity in the real world 1 with time t as a variable.
  • F (t) is an example of a function that represents the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the spatial direction X.
  • t s indicates the shirt time.
  • the frame #n_l is a frame temporally before the frame #n
  • the frame # + 1 is a frame temporally after the frame #n. That is, frame # n-1, frame #n, and frame # ⁇ + 1 are displayed in the order of frame # ⁇ _1, frame # ⁇ , and frame # ⁇ + 1.
  • the shirt time t s and the frame interval are the same.
  • the pixel value of one pixel is represented by the integral of F (t).
  • a pixel value p of a pixel of a frame is represented by Expression (3).
  • Equation (3) is the time at which the conversion of incident light into electric charge has started.
  • t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the integration effect in the spatial direction by the sensor 2 is simply referred to as the spatial integration effect
  • the integration effect in the time direction by the sensor 2 is simply referred to as the time integration effect
  • the spatial integration effect or the time integration effect is also simply referred to as an integration effect.
  • FIG. 12 is a diagram illustrating an image of a linear object (for example, a thin line) in the real world 1, that is, an example of a light intensity distribution.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image.
  • the position on the right in the middle indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the linear object in the real world 1 includes a certain stationarity.
  • the image shown in Fig. 12 has the continuity that the cross-sectional shape (level change with respect to position change in the direction orthogonal to the length direction) is the same at an arbitrary position in the length direction.
  • FIG. 13 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG.
  • FIG. 14 is a schematic diagram of the image data shown in FIG.
  • FIG. 14 is a linear line with a diameter smaller than the length L of the light-receiving surface of each pixel, which extends in a direction deviated from the pixel array (vertical or horizontal array of pixels) of the image sensor.
  • FIG. 3 is a schematic diagram of image data obtained by capturing an image of an object with an image sensor. When the image data shown in FIG. 14 is acquired, the image incident on the image sensor is the image of the linear object in the real world 1 in FIG.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the directions indicating the pixel values in FIG. 14 correspond to the level directions in FIG. 12, and the spatial direction X and the spatial direction Y in FIG. 14 are the same as the directions in FIG.
  • the linear object When an image of a linear object whose diameter is shorter than the length of the light receiving surface of each pixel is captured by the image sensor, the linear object is schematically represented in the image data obtained as a result of the imaging, for example, It is represented by a plurality of arcs (kamaboko-shaped) of a predetermined length that are arranged diagonally.
  • Each arc shape is almost the same.
  • One arc shape is formed vertically on one row of pixels or horizontally on one row of pixels.
  • one arc shape in FIG. 14 is formed on one column of pixels vertically.
  • the image of the linear object in the real world 1 has an arbitrary position in the length direction and a spatial direction.
  • the stationarity of the same cross-sectional shape in Y is lost.
  • the continuity that the image of the linear object in the real world 1 has is the same shape formed on one row of pixels vertically or one row of pixels horizontally. It can be said that there is a change to a stationary state in which certain arc shapes are arranged at regular intervals.
  • FIG. 15 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background, that is, an example of the distribution of light intensity.
  • the upper position in the middle indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure indicates Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the real world 1 of an object having a linear ⁇ of a color different from the background has a predetermined constancy. That is, the image shown in FIG. 15 has stationarity in which the cross-sectional shape (change in level with respect to change in position in the direction perpendicular to the edge) is the same at an arbitrary position in the length direction of the edge.
  • FIG. 16 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG. As shown in FIG. 16, the image data is composed of pixel values in units of pixels, and thus has a step-like shape.
  • FIG. 17 is a schematic diagram of the image data shown in FIG.
  • FIG. 17 shows a single-color, linear edge that has a different color from the background, with the edge extending in a direction deviating from the pixel arrangement (vertical or horizontal arrangement) of the image sensor.
  • FIG. 2 is a schematic diagram of image data obtained by capturing an image of the real world 1 of an object having an image by an image sensor.
  • the image incident on the image sensor was of a different color from the background shown in Fig. 15 and had a single color, linear edge. It is an image of the real world 1.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 17 corresponds to the direction of the level in FIG. 15, and the spatial direction X and the spatial direction Y in FIG. 17 are the same as the directions in FIG.
  • the linear edge is schematically represented in image data obtained as a result of the imaging. For example, it is represented by a plurality of pawls of a predetermined length, which are arranged obliquely.
  • Each claw shape is almost the same shape.
  • One claw shape is formed vertically on one row of pixels or horizontally on one row of pixels. For example, T JP2004 / 001488
  • one claw shape is formed vertically on one column of pixels.
  • the image data obtained by being captured by the image sensor there is a real-world 1 image of an object having a color different from the background and having a single-color, linear edge.
  • the continuity of the same cross-sectional shape at any position along the edge length has been lost.
  • the continuity of the image of the real world 1 which is a color different from the background and has a single color, and has a linear edge, has an image of one pixel vertically or one pixel horizontally. It can be said that the same shape of the claw shape formed on the pixel in the column has changed to a stationary state in which it is arranged at regular intervals.
  • the data continuity detecting unit 101 detects such continuity of data included in, for example, data 3 which is an input image. For example, the data continuity detection unit 101 detects data continuity by detecting an area having a certain feature in a predetermined dimension direction. For example, the data continuity detecting unit 101 detects a region shown in FIG. 14 in which the same arc shapes are arranged at regular intervals. Further, for example, the data continuity detecting unit 101 detects a region shown in FIG. 17 in which the same claw shapes are arranged at regular intervals.
  • the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction indicating a similar shape arrangement.
  • the data continuity detection unit 101 detects data continuity by detecting angles (movements) in the spatial direction and the temporal direction, which indicate how similar shapes are arranged in the spatial direction and the temporal direction. I do. '
  • the data continuity detecting unit 101 detects data continuity by detecting a length of an area having a certain characteristic in a direction of a predetermined dimension.
  • the portion of the data 3 in which the image of the real world 1 of the object having a single color and having a linear edge and different from the background is projected by the sensor 2 is also referred to as a binary edge.
  • desired high-resolution data 18 1 is generated from the data 3.
  • the real world 1 is estimated from the data 3, and the high-resolution data 18 1 is generated based on the estimation result. That is, as shown in Fig. 19, the real world 1 is estimated from the data 3 and the high-resolution data 18 1 1 8 1 is generated.
  • the sensor 2 which is a CCD has an integral characteristic as described above. That is, one unit (eg, pixel value) of the data 3 is calculated by integrating the signal of the real world 1 with the detection area (eg, light receiving surface) of the detection element (eg, CCD) of the sensor 2. Can be.
  • the virtual high-resolution sensor applies the process of projecting the real-world 1 signal to data 3 to the estimated real-world 1, resulting in a high-resolution sensor.
  • Data 1 8 1 can be obtained.
  • the signal of the real world 1 can be estimated from the data 3
  • the signal of the real world 1 is calculated for each detection region of the detection element of the virtual high-resolution sensor ( By integrating (in the spatiotemporal direction), one value included in the high-resolution data 18 1 can be obtained.
  • the data 3 cannot represent the small change of the signal of the real world 1. Therefore, by comparing the signal of the real world 1 estimated from the data 3 with the change of the signal of the real world 1 and integrating every smaller region (in the spatiotemporal direction), the signal of the real world 1 is obtained. It is possible to obtain high-resolution data 18 1 indicating a small change in
  • high-resolution data 18 1 is obtained by integrating the estimated real world 1 signal in the detection area.
  • the image generation unit 103 integrates the estimated real-world 1 signal in a space-time direction region of each detection element of a virtual high-resolution sensor, for example, to obtain a high-resolution image.
  • the relation between the data 3 and the real world 1, the stationarity, and the spatial mixing in the data 3 are used.
  • mixing means that in data 3, signals for two objects in the real world 1 are mixed into one value.
  • Spatial mixing refers to spatial mixing of signals for two objects due to the spatial integration effect of the sensor 2.
  • Real world 1 itself consists of an infinite number of phenomena, so in order to express real world 1 itself, for example, by mathematical formulas, an infinite number of variables are needed. From Data 3, it is not possible to predict all events in the real world 1.
  • the part of the signal of the real world 1 having a stationarity which can be represented by f (x, y, z, t), is approximated by a model 16 1 represented by N variables. Then, as shown in FIG. 22, the prediction is made from M data 162 in the model 16 1 force data 3.
  • model 161 is represented by N variables based on stationarity, and second, sensor Based on the integration characteristics of 2, it is necessary to formulate an expression using N variables that shows the relationship between the model 16 1 represented by N variables and the M data 16 2 .
  • Model 1 6 1 1 Based on the stationarity, it is represented by ⁇ variables, so the relationship between the model 16 1 represented by ⁇ ⁇ variables and ⁇ ⁇ ⁇ data 16 2 It can be said that the equation using the variable of describes the relationship between the stationary signal part of the real world 1 and the stationary part 3 of the data. 4 001488
  • the data continuity detecting unit 101 detects the features of the data 3 where the data continuity occurs and the features of the data where the continuity occurs, based on the signal portion of the real world 1 having the continuity.
  • the edge has a slope.
  • the arrow B in FIG. 23 indicates the edge inclination.
  • the inclination of the predetermined edge can be represented by an angle with respect to a reference axis or a direction with respect to a reference position.
  • the inclination of the predetermined edge can be represented by an angle between the coordinate axis in the spatial direction X and the edge.
  • the inclination of the predetermined edge can be represented by a direction indicated by the length in the spatial direction X and the length in the spatial direction Y.
  • An image of the real world 1 that is a color that is different from the background and has a single color, and has a linear edge.
  • the claw shape corresponding to the edge is arranged at the position indicated by A 'in Fig. 23 with respect to the position of interest (A) in Fig. 23, and corresponds to the inclination of the edge of the image of the real world 1 in Fig. 23.
  • the claw shapes corresponding to the edges are arranged in the direction of the inclination indicated by,.
  • the model 16 1 represented by N variables approximates a real-world signal portion that causes data continuity in data 3.
  • the data stationarity occurs in the data 3 shown in Fig. 24, and the value obtained by integrating the signal of the real world 1 is output from the detection element of the sensor 2 by focusing on the values belonging to the mixed region.
  • the formula is established as equal to For example, multiple expressions can be developed for multiple values in data 3 where data continuity occurs.
  • A indicates the position of interest of the edge
  • a ′ indicates (the position of) a pixel in the image of the real world 1 with respect to the position of interest (A) of the edge.
  • the mixed area refers to an area of data in which the signals for two objects in the real world 1 are mixed into one value in data 3.
  • the data 3 for an image of the real world 1 of an object having a single color and a straight edge that is a different color from the background the image for the object having the linear ⁇ and the image for the background are integrated. Pixel values belong to the mixed area.
  • FIG. 25 is a diagram for explaining values of two objects in the real world 1 that belong to the mixed region of the signal and the real world when the equation is formed.
  • the left side in Fig. 25 is the signal of the real world 1 for two objects in the real world 1 acquired in the detection area of one detecting element of the sensor 2 and having a predetermined spread in the spatial direction X and the spatial direction Y. Is shown.
  • the right side in FIG. 25 shows the pixel value P of one pixel of data 3 where the signal of the real world 1 shown on the left side of FIG. 25 is projected by one detection element of the sensor 2. That is, the signal of the real world 1 is projected onto two objects in the real world 1 having a predetermined spread in the spatial direction X and the spatial direction Y acquired by one detecting element of the sensor 2, The pixel value P of one pixel is shown.
  • L in FIG. 25 indicates the signal level of the real world 1 in the white part of FIG. 25 for one object in the real world 1.
  • R in FIG. 25 indicates the level of the signal of the real world 1 in the shaded portion of FIG. 25 with respect to another object in the real world 1.
  • the mixing ratio is a signal for two objects incident on a detection area having a predetermined spread in the spatial direction X and the spatial direction Y of one detecting element of the sensor 2.
  • the mixing ratio is incident on the detection area of one detection element of the sensor 2 having a predetermined spread in the spatial direction X and the spatial direction Y with respect to the area of the detection area of one detection element of the sensor 2.
  • Equation (4) the relationship between the level L, the level R, and the pixel value P is given by Equation (4).
  • level R may be the pixel value of the pixel of data 3 located on the right side of the pixel of interest.
  • level L may be the pixel value of data 3 located to the left of the pixel of interest.
  • the mixing ratio ⁇ and the mixing region can be considered in the time direction as in the spatial direction.
  • the ratio of the signal for the two objects incident on the detection area of one detection element of the sensor 2 in the time direction Changes.
  • the signals for the two objects, which are incident on the detection area of one detection element of the sensor 2 and change in proportion in the time direction, are projected to one value of the data 3 by the detection element of the sensor 2.
  • time mixing The mixing in the time direction of the signals for the two objects due to the time integration effect of the sensor 2 is called time mixing.
  • the data continuity detecting unit 101 detects, for example, a pixel area in the data 3 on which the signals of the real world 1 for the two objects in the real world 1 are projected.
  • the data continuity detecting unit 101 detects, for example, a tilt in the data 3 corresponding to the tilt of the edge of the image of the real world 1.
  • the real-world estimator 102 for example, based on the region of the pixel having the predetermined mixture ratio ⁇ detected by the data continuity detector 101 and the gradient of the region, ⁇ changes Estimate the real world 1 signal by formulating an expression using ⁇ ⁇ variables that shows the relationship between the model represented by numbers 16 1 and ⁇ ⁇ ⁇ data 16 2 I do. Further, a specific estimation of the real world 1 will be described.
  • the real-world signal represented by the function F (x, y, Z , t) in the cross section in the spatial direction Z (position of the sensor 2) Signal is determined by position x in spatial direction X, position y in spatial direction Y, and time t
  • the detection area of the sensor 2 has a spread in the spatial direction X and the spatial direction Y You.
  • the approximation function f (x, y, t) is a function that approximates the signal of the real world 1 acquired by the sensor 2 and having a spatial and temporal spread.
  • the value P (x, y, t) of data 3 is obtained by the projection of the signal of the real world 1 by the sensor 2.
  • the value P (x, y, ⁇ ) of the data 3 is, for example, a pixel value output from the sensor 2 which is an image sensor.
  • the value obtained by projecting the approximate function f (x, y, t) can be expressed as a projection function S (x, y, t).
  • the function F (x, y, z, t) representing the signal of the real world 1 can be a function of infinite order.
  • a function fi (x, y, t) that can describe a function f (x, y, t) that approximates the signal of the real world 1 (for example, a function of finite order) And the sum of the variables ⁇ .
  • the function Si (x, y, t) can be described from the description of the function fi (x, y, t). .
  • equation (6) by formulating the projection of sensor 2, from equation (5), the relationship between data 3 and the real-world signal can be formulated as equation (7).
  • equation (7) Can be. 4001488
  • j is the data index.
  • N is the number of variables representing the model 1 6 1 approximating the real world 1.
  • M is the number of data 16 2 included in data 3.
  • the variables can be made independent as Wi .
  • i indicates the number of variables as it is.
  • the form of the function represented by can be made independent, and a desired function can be used as.
  • the number N of the variable ⁇ can be defined without depending on the form of the function, and the variable ⁇ can be obtained in relation to the number N of the variable ⁇ and the number M of data.
  • the real world 1 can be estimated from the data 3.
  • N variables are defined, that is, equation (5) is defined. This is made possible by describing the real world 1 using stationarity.
  • a signal of the real world 1 can be described by a model 161, in which a cross section is represented by a polynomial and the same cross-sectional shape continues in a certain direction.
  • the projection by the sensor 2 is formulated, and the equation (7) is described.
  • the result of integrating the signals of the real world 2 is formulated as data 3.
  • Day Data 162 is collected from the region having data continuity detected by the data continuity detection unit 101.
  • data 162 of an area where a certain cross section continues which is an example of stationarity, is collected.
  • N M
  • the number N of variables is equal to the number M of expressions, so that the variables can be obtained by establishing a simultaneous equation.
  • variable can be obtained by the least squares method.
  • equation (9) for predicting data 3 from real world 1 according to equation (7) is shown.
  • P'j ( Xj , yj> tj) is a predicted value.
  • Equation (1 2) is derived from equation (1 1).
  • Equation (13) Si represents the projection of the real world 1.
  • Pj represents data 3.
  • Wi is a variable that describes the characteristics of the signal in the real world 1 and seeks to obtain.
  • the real world estimating unit 102 estimates the real world 1 by inputting the data 3 into the equation (13), for example, and obtaining an AT by a matrix solution or the like.
  • the cross-sectional shape of the signal in the real world 1 that is, the level change with respect to the position change, is described by a polynomial. Assume that the cross section of the signal of the real world 1 is constant, and that the cross section of the signal of the real world 1 moves at a constant speed c. Then, the projection of the signal of the real world 1 by the sensor 2 onto the data 3 It is formulated by integration in three dimensions in the spatiotemporal direction of the signal.
  • Equations (18) and (19) are obtained from the assumption that the cross-sectional shape of the signal in the real world 1 moves at a constant speed.
  • the cross-sectional shape of the signal in the real world 1 is expressed by Expression (20) by using Expressions (18) and (19).
  • S (x , y, t) is the spatial direction X, from the position x s to the position x e, the spatial direction Y, from the position y s to the position y e, for the time direction t, It shows the integrated value of the region from time to time t e , that is, the region represented by the rectangular parallelepiped of space-time.
  • equation (13) By solving equation (13) using a desired function f (x ′, y ′) that can determine equation (21), the signal of the real world 1 can be estimated.
  • Equation (22) the function shown in Equation (22) is used.
  • equation (2 3) is obtained.
  • FIG. 27 is a diagram illustrating an example of M pieces of data 162 extracted from data 3 c, for example, 27 pixel values are extracted as data 162, and the extracted pixel values But,
  • the pixel value of the pixel corresponding to the target position at time t, which is n, is Pi 3 (x, y, t), and the pixel values of the pixels having data continuity are arranged.
  • the region where the pixel value as data 3 output from the image sensor as sensor 2 is obtained has a spread in the time direction and the two-dimensional spatial direction as shown in FIG. Therefore, for example, as shown in FIG. 29, the center of gravity of the rectangular parallelepiped (the area where the pixel value is obtained) corresponding to the pixel can be used as the position of the pixel in the spatiotemporal direction.
  • the circle in Fig. 29 indicates the center of gravity.
  • the real world estimating unit 102 calculates, for example, 27 pixel values P. From (X, y, t) to P 26 (x, y, t) and Eq. (2 3), generate Eq. (13) and obtain W to obtain the signal of real world 1 presume.
  • a Gaussian function or a sigmoid function can be used as the function fi (, y, t).
  • the data 3 has a value obtained by integrating the signal of the real world 1 in the time direction and the two-dimensional spatial direction.
  • the pixel value of data 3 output from the image sensor of sensor 2 is the light that is incident on the detection element.
  • the signal of real world 1 is integrated in the time direction with the detection time, which is the shutter time. It has a value integrated in the light receiving area of the detection element in the spatial direction.
  • the high-resolution data 181 which has higher resolution in the spatial direction, is a sensor that outputs the estimated real world 1 signal and the data 3 in the time direction. It is generated by integrating in the same time as the detection time of 2, and by integrating in a narrower area in the spatial direction compared to the light receiving area of the detection element of the sensor 2 that has output the data 3.
  • the area where the estimated signal of the real world 1 is integrated is the sensor that output data 3.
  • the setting can be made completely independently of the light receiving area of the detection element of the second element.
  • the high-resolution data 18 1 is given a resolution that is an integer multiple in the spatial direction with respect to the data 3 as well as 5/3 times. Resolution can be provided.
  • the estimated time for integrating the signal of the real world 1 is determined by the detection element of the sensor 2 that outputs the data 3. It can be set completely independent of the shirt time.
  • the high-resolution data 18 1 has a resolution that is an integral multiple of the data 3 in the time direction with respect to the data 3. Can have a degree.
  • the high-resolution data 181 is generated by integrating the estimated signal of the real world 1 only in the spatial direction without integrating it in the time direction. Is done.
  • high-resolution data 181 which has higher resolution in the temporal and spatial directions, uses the estimated real-world 1 signal as the sensor 2 that outputs data 3 in the spatial direction. Integrates in a narrower area compared to the light-receiving area of the detector element, and integrates in a shorter time compared to the detection time of sensor 2 that output data 3 in the time direction.
  • the region and time in which the estimated signal of the real world 1 is integrated can be set completely independent of the light receiving region of the detection element of the sensor 2 that has output the data 3 and the shutter time.
  • the image generation unit 103 receives, for example, the signal of the estimated real world 1 By integrating in the spatiotemporal domain of, higher resolution data is generated in the time direction or the space direction.
  • FIG. 35 shows the original image of the input image.
  • FIG. 36 is a diagram illustrating an example of the input image.
  • the input image shown in Fig. 36 is an image generated by averaging the pixel values of the pixels belonging to the block consisting of 2 x 2 pixels of the image shown in Fig. 35 as the pixel value of one pixel. It is. That is, the input image is an image obtained by applying spatial integration that imitates the sensor integration characteristics to the image shown in FIG.
  • FIG. 37 is a diagram showing an image obtained by applying the conventional classification adaptive processing to the input image shown in FIG.
  • the class classification adaptation process includes a class classification process and an adaptation process.
  • the class classification process classifies data into classes based on their properties, and performs an adaptation process for each class.
  • the adaptive processing for example, a low-quality or standard-quality image is converted into a high-quality image by mapping using a predetermined tap coefficient.
  • FIG. 38 is a diagram illustrating a result of detecting a thin line region from the input image illustrated in the example of FIG. 36 by the data continuity detecting unit 101.
  • a white region indicates a thin line region, that is, a region where the arc shapes shown in FIG. 14 are arranged.
  • FIG. 39 is a diagram showing an example of an output image output from the signal processing device 4 according to the present invention, using the image shown in FIG. 36 as an input image. As shown in FIG. 39, according to the signal processing device 4 of the present invention, it is possible to obtain an image closer to the thin line image of the original image shown in FIG.
  • FIG. 40 is a flowchart for explaining signal processing by the signal processing device 4 according to the present invention.
  • step S101 the data continuity detecting unit 101 executes a process of detecting continuity.
  • the data continuity detection unit 101 detects the continuity of the data included in the input image, which is data 3, and outputs data continuity information indicating the continuity of the detected data to the real world estimation unit 1002. And to the image generation unit 103.
  • the data continuity detecting unit 101 detects the continuity of data corresponding to the continuity of a signal in the real world.
  • the continuity of the data detected by the data continuity detection unit 101 is a part of the continuity of the image of the real world 1 included in the data 3, or This is a stationary state that has changed from the stationary state of the signal in the real world 1.
  • the data continuity detecting unit 101 detects data continuity by detecting an area having a certain feature in a direction of a predetermined dimension. In addition, for example, the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction indicating a similar shape arrangement.
  • step S101 The details of the processing for detecting the stationarity in step S101 will be described later.
  • the data continuity information can be used as a feature quantity indicating the feature of data 3.
  • step S102 the real world estimating unit 102 executes a process of estimating the real world. That is, the real world estimating unit 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detecting unit 101. For example, in the process of step S102, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a model 161 that approximates (describes) the real world 1. 4 001488
  • the real world estimating unit 102 supplies the real world estimation information indicating the estimated signal of the real world 1 to the image generating unit 103.
  • the real-world estimator 102 predicts the width of a linear object
  • Estimate 1 signal Also, for example, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a level indicating the color of a linear object.
  • step S102 Details of the process of estimating the real world in step S102 will be described later.
  • the real world estimation information can be used as a feature amount indicating the feature of the data 3.
  • step S103 the image generation unit 103 executes a process of generating an image, and the process ends. That is, the image generation unit 103 generates an image based on the real world estimation information, and outputs the generated image. Alternatively, the image generation unit 103 generates an image based on the data continuity information and the real world estimation information, and outputs the generated image.
  • the image generation unit 103 integrates a function approximating the generated real-world optical signal in the spatial direction based on the real-world estimation information, thereby obtaining the input image. Generates a higher-resolution image in the spatial direction compared to, and outputs the generated image. For example, the image generation unit 103 integrates a function approximating the generated real-world optical signal in the spatio-temporal direction based on the real-world estimation information, so that the time-domain Generates a high-resolution image in the spatial direction and outputs the generated image. Details of the image generation process in step S103 will be described later.
  • the signal processing device 4 detects the data continuity from the data 3 and estimates the real world 1 based on the detected data continuity. Then, the signal processing device 4 generates a signal that is closer to the real world 1 based on the estimated real world 1.
  • a first signal which is a real-world signal having a first dimension
  • a second dimension of a second dimension that is less than the first dimension in which a part of the stationarity of the real-world signal is missing.
  • FIG. 41 is a block diagram showing a configuration of the data continuity detecting unit 101. As shown in FIG.
  • the data continuity detecting unit 101 shown in FIG. 41 has a data continuity detection unit 101 included in the data 3 which is generated due to continuity that the cross-sectional shape of the object is the same when a thin object is imaged. Detect data continuity.
  • the data continuity detector 101 shown in FIG. 41 has a change in the position in the direction orthogonal to the length direction at an arbitrary position in the length direction of the image of the real world 1 which is a thin line. Detects the stationarity of the data contained in Data 3, resulting from the stationarity that the change in light level with respect to is the same.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 41 includes a slanted image included in data 3 obtained by capturing an image of a thin line with the sensor 2 having a spatial integration effect. A region where a plurality of arc shapes (kamaboko shapes) of a predetermined length, which are arranged adjacent to each other, is detected.
  • the data continuity detection unit 101 is a part of the image data other than the image data part (hereinafter, also referred to as a stationary component) where the thin line image having the data continuity is projected from the input image which is the data 3. (Hereinafter referred to as a non-stationary component), and from the extracted non-stationary component and the input image, a pixel on which the image of the real world 1 thin line is projected is detected, and the real world 1 thin line in the input image is detected. Detects the area consisting of the pixels on which the image is projected.
  • the non-stationary component extracting unit 201 extracts the non-stationary component from the input image, and outputs the non-stationary component information indicating the extracted non-stationary component together with the input image to the vertex detecting unit 202 and the simple This is supplied to the regulation decrease detection unit 203.
  • non-stationary The component extraction unit 201 extracts the non-stationary component as the background by approximating the background in the input image as the data 3 with a plane.
  • a solid line indicates a pixel value of data 3
  • a dotted line indicates an approximate value indicated by a plane approximating the background.
  • A indicates the pixel value of the pixel on which the thin line image is projected
  • PL indicates a plane approximating the background.
  • the pixel values of a plurality of pixels in the image data portion having data continuity are discontinuous with respect to the non-stationary component.
  • the non-stationary component extraction unit 201 is configured to project a plurality of pixels of the image data, which is data 3, in which an image, which is an optical signal of the real world 1, is projected, and a part of the stationarity of the image of the real world 1 is missing. Detect discontinuities in values.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 remove non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 set the pixel value of a pixel on which only the background image is projected to 0 in each pixel of the input image, thereby To remove unsteady components.
  • the vertex detection unit 202 and the monotonous increase / decrease detection unit 203 subtract the value approximated by the plane PL from the pixel value of each pixel of the input image, and thereby, Remove components.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the portion of the image data on which the fine line is projected, and Processing in the detecting unit 202 to the continuity detecting unit 204 becomes easier.
  • non-stationary component extraction unit 201 may supply the image data obtained by removing the non-stationary component from the input image to the vertex detection unit 202 and the monotone increase / decrease detection unit 203. Les, o
  • image data in which an unsteady component has been removed from an input image that is, image data including only pixels including a steady component
  • image data projected from the vertex detection unit 202 to the continuity detection unit 204 to which the image of the thin line is projected will be described.
  • the cross-sectional shape in the spatial direction Y (change of the pixel value with respect to the change in the position in the spatial direction) of the image data onto which the thin line image shown in Fig. 42 is projected is the sensor 2 when there is no optical LPF. From the spatial integration effect of the image sensor, a trapezoid shown in FIG. 44 or a triangle shown in FIG. 45 can be considered. However, a normal image sensor has an optical LPF, and an image sensor acquires an image that has passed through the optical LPF and projects the acquired image onto data 3, so that in reality, the spatial direction Y of the thin line image data is
  • the cross-sectional shape is similar to a Gaussian distribution as shown in FIG.
  • the vertex detection unit 202 to the continuity detection unit 204 are pixels on which the fine line image is projected, and the same cross-sectional shape (change in pixel value with respect to change in position in the spatial direction) is displayed in the vertical direction of the screen.
  • the vertex detection unit 202 to the continuity detection unit 204 detect and detect an area in the input image where an arc shape (kamaboko type) is formed on one column of pixels vertically. It is determined whether or not the areas are arranged adjacent to each other in the horizontal direction, and the connection of the areas where the arc shape is formed corresponding to the length direction of the thin line image which is the signal of the real world 1 is detected.
  • the vertex detection unit 202 to the continuity detection unit 204 detect a region where pixels of the fine line image are projected and where the same cross-sectional shape is arranged at regular intervals in the horizontal direction of the screen. Then, by detecting the connection of the detected areas corresponding to the length direction of the thin line of the real world 1, the area having the data continuity is detected.
  • An area consisting of pixels onto which an image has been projected is detected. That is, the vertex detection unit 202 to the continuity detection unit 204 detects an area where an arc shape is formed on one row of pixels in the input image, and the detected area is vertical. It is determined whether or not they are arranged adjacent to each other in the direction, and the connection of the areas where the arc shape is formed corresponding to the length direction of the thin line image which is the signal of the real world 1 is detected.
  • the vertex detecting unit 202 detects a pixel having a larger pixel value than the surrounding pixels, that is, the vertex, and supplies vertex information indicating the position of the vertex to the monotone increase / decrease detecting unit 203.
  • the vertex detector 202 compares the pixel values of the pixels located on the upper side of the screen and the pixel values of the pixels located on the lower side of the screen. Then, a pixel having a larger pixel value is detected as a vertex.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, an image of one frame.
  • One screen contains frames or fields. The same applies to the following description.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and determines the pixel value of the pixel of interest and the pixel value of the pixel above the pixel of interest. Is compared with the pixel value of the target pixel and the pixel value of the lower pixel of the target pixel, and has a pixel value larger than the pixel value of the upper pixel, and is larger than the pixel value of the lower pixel. A target pixel having a pixel value is detected, and the detected target pixel is set as a vertex.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • the vertex detector 202 may not detect the vertex in some cases. For example, when the pixel values of the pixels of one image are all the same, or when the pixel value decreases in the 1 or 2 direction, no vertex is detected. In this case, the thin line image is not projected on the image data. Based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202, the monotonous increase / decrease detecting unit 203 detects the vertex detected by the vertex detecting unit 202 in the vertical direction. A candidate for a region consisting of pixels on which a thin line image is projected, which is a pixel arranged in a column, is detected, and region information indicating the detected region is supplied to the continuity detector 204 together with vertex information.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels having a pixel value that is monotonically decreased with respect to a pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Detect as a candidate.
  • Monotonic decrease means that the pixel value of a pixel at a longer distance from the vertex is smaller than the pixel value of a pixel at a shorter distance from the vertex.
  • the monotonous increase / decrease detection unit 203 detects a region composed of pixels having a monotonically increasing pixel value as a candidate for a region composed of pixels onto which a thin line image is projected, based on the pixel value of the vertex.
  • Monotonically increasing means that the pixel value of the pixel at a longer distance from the vertex is larger than the pixel value of the pixel at a shorter distance from the vertex.
  • the processing for the region composed of pixels having monotonically increasing pixel values is the same as the processing for the region composed of pixels having monotonically decreasing pixel values, and a description thereof will be omitted.
  • the monotonous increase / decrease detection unit 203 calculates the difference between the pixel value of each pixel and the pixel value of the upper pixel, and the pixel value of the lower pixel for each pixel in one column vertically with respect to the vertex. Find the difference between. Then, the monotone increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 detects a region having a pixel value having the same sign as that of the pixel value of the vertex based on the sign of the pixel value of the vertex from the region where the pixel value is monotonically decreasing. Are detected as candidates for the region consisting of the pixels on which the thin line image is projected. Put out.
  • the monotonous increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the upper pixel and the sign of the pixel value of the lower pixel, and the sign of the pixel value changes. By detecting all pixels, an area consisting of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels arranged in the up-down direction, the pixel value of which monotonously decreases with respect to the vertex, and which has the pixel value of the same sign as the vertex.
  • FIG. 47 is a diagram for explaining a process of detecting a vertex and detecting a monotonously increasing / decreasing region for detecting a pixel region on which a thin line image is projected from a pixel value with respect to a position in the spatial direction Y.
  • P indicates a vertex.
  • P indicates a vertex.
  • the vertex detection unit 202 compares the pixel value of each pixel with the pixel value of a pixel adjacent in the spatial direction Y, and determines a pixel value larger than the pixel value of the two pixels adjacent in the spatial direction Y.
  • the vertex P is detected by detecting the pixel having the vertex P.
  • the region consisting of the vertex P and the pixels on both sides of the vertex P in the spatial direction Y is a monotonically decreasing region in which the pixel values of the pixels on both sides in the spatial direction Y monotonically decrease with respect to the pixel value of the vertex P.
  • the arrow indicated by A and the arrow indicated by B indicate monotonically decreasing regions existing on both sides of the vertex P.
  • the monotone decrease detection unit 203 finds a difference between the pixel value of each pixel and the pixel value of a pixel adjacent to the pixel in the spatial direction Y, and detects a pixel whose sign of the difference changes.
  • the monotone increase / decrease detection unit 203 detects the detected pixel whose sign of the difference changes,
  • the boundary with the pixel at the (vertex P side) is defined as the boundary of the fine line area consisting of the pixels onto which the fine line image is projected.
  • the monotonous increase / decrease detection unit 203 detects the pixel value of each pixel in the monotonically decreasing region. The sign is compared with the sign of the pixel value of the pixel adjacent to the pixel in the spatial direction Y, and the pixel whose sign of the pixel value changes is detected. The monotone increase / decrease detection unit 203 sets the boundary between the detected pixel whose sign of the pixel value changes and the pixel on the near side (vertex ⁇ side) as the boundary of the thin line area.
  • the boundary of the thin line region that is the boundary between the pixel whose sign of the pixel value changes and the pixel on the near side (vertex ⁇ side) is indicated by D.
  • a thin line region F composed of pixels onto which a thin line image is projected is a region sandwiched between a thin line region boundary C and a thin line region boundary D.
  • the monotone increase / decrease detection unit 203 finds a thin line region F longer than a predetermined threshold, that is, a thin line region F including a number of pixels larger than the threshold, from the thin line region F composed of such a monotone increase / decrease region. For example, when the threshold value is 3, the monotonous increase / decrease detection unit 203 detects a thin line region F including four or more pixels.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex P, the pixel value of the pixel on the right side of the vertex P, and the pixel value of the pixel on the left side of the vertex P.
  • the pixel value of the vertex P exceeds the threshold value, the pixel value of the pixel on the right side of the vertex P is less than the threshold value, and the pixel value of the pixel on the left side of the vertex P is less than the threshold value.
  • a thin line area F to which P belongs is detected, and the detected thin line area F is set as a candidate for an area including pixels including components of a thin line image.
  • the pixel value of the vertex P is equal to or less than the threshold value, the pixel value of the pixel on the right side of the vertex P exceeds the threshold value, or the pixel value of the pixel on the left side of the vertex P exceeds the threshold value.
  • F is determined not to include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous decrease detection unit 203 compares the pixel value of the vertex P with the threshold value, and moves the vertex P in the spatial direction X (the direction indicated by the dotted line AA ′).
  • the pixel value of the pixel adjacent to the vertex P is compared with the threshold value, and the pixel value of the vertex P exceeds the threshold value, and the pixel value of the pixel adjacent to the spatial direction X is equal to or less than the threshold value.
  • FIG. 49 is a diagram illustrating pixel values of pixels arranged in the spatial direction X indicated by a dotted line AA ′ in FIG. Exceeds the pixel value is the threshold T h s of the vertex P, pixel values of pixels adjacent in the spatial direction X of the vertex P is less than or equal to the threshold value T h s, fine line region F where the vertex P belongs, including components of the thin line .
  • the monotonous increase / decrease detection unit 203 compares the difference between the pixel value of the vertex P and the pixel value of the background with a threshold value based on the pixel value of the background, and also determines the vertex P in the spatial direction X.
  • the difference between the pixel value of the adjacent pixel and the pixel value of the background is compared with a threshold value.
  • the fine line area F to which the vertex P belongs, where the difference between the pixel value of the pixel and the background pixel value exceeds the threshold and the difference between the pixel value of the pixel adjacent to the spatial direction X and the pixel value of the background is equal to or smaller than the threshold is detected. You may make it.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonically with the sign of the pixel value being the same as that of the vertex P with respect to the vertex P.
  • Monotonic increase / decrease region information indicating that the pixel value of the pixel on the right side of P is equal to or less than the threshold value and the pixel value of the pixel on the left side of the vertex P is equal to or less than the threshold value is supplied to the continuity detection unit 204.
  • the thin line image includes the projected pixels.
  • the area indicated by the monotone increasing / decreasing area information includes pixels arranged in a line in the vertical direction of the screen and includes an area formed by projecting a thin line image.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 use the property that the change in the pixel value in the spatial direction Y is similar to the Gaussian distribution in the pixel on which the thin line image is projected. Then, a steady area composed of pixels onto which the thin line image is projected is detected.
  • the continuity detection unit 204 includes pixels that are horizontally adjacent to each other in the area that is composed of vertically arranged pixels and that is indicated by the monotone increase / decrease area information supplied from the monotone increase / decrease detection unit 203. Regions, ie, similar pixels: changes and overlaps vertically Area is detected as a continuous area, and vertex information and data continuity information indicating the detected continuous area are output.
  • the data continuity information includes monotonically increasing / decreasing area information, information indicating the connection of areas, and the like.
  • the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data continuity information indicating the detected continuous area.
  • the continuity detecting unit 204 determines that the arc shape in the data 3 obtained by imaging the thin line, which is generated from the continuity of the image of the thin line in the real world 1 and is continuous in the length direction, is adjacent.
  • the candidates of the areas detected by the vertex detection unit 202 and the monotone increase / decrease detection unit 203 are further narrowed down.
  • FIG. 50 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
  • the continuity detector 204 performs two monotonic operations when the thin line area F composed of pixels arranged in one row in the vertical direction of the screen includes pixels that are adjacent in the horizontal direction. It is assumed that there is continuity between the increase / decrease regions, and that no continuity exists between the two thin line regions F when pixels adjacent in the horizontal direction are not included.
  • a thin line area composed of pixels arranged in one column in the vertical direction of the screen is a thin line area F composed of pixels arranged in one column in the vertical direction of the screen.
  • a thin line area F consisting of pixels arranged in a line in the vertical direction of the screen. Is considered to be continuous with the thin line region when it includes pixels in the thin line region composed of pixels arranged in one column in the vertical direction of the screen and pixels adjacent in the horizontal direction.
  • the vertex detection unit 202 to the continuity detection unit 204 detect pixels that are arranged in a line in the upper and lower direction of the screen and that are formed by projecting a thin line image. .
  • the vertex detection unit 202 to the continuity detection unit 204 Pixels that are aligned in one row in the horizontal direction and that consist of areas where the fine line image is projected, and pixels that are aligned in one row in the horizontal direction on the screen and where the fine line image is projected Is detected.
  • the vertex detection unit 202 compares the pixel values of the pixels located on the left side of the screen and the pixel values of the pixels located on the right side of the screen with respect to the pixels arranged in one row in the horizontal direction of the screen. Then, a pixel having a larger pixel value is detected as a vertex, and vertex information indicating the position of the detected vertex is supplied to the monotone increase / decrease detector 203.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, one frame image.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and calculates the pixel value of the pixel of interest and the pixel value of the pixel to the left of the pixel of interest.
  • the pixel value of the pixel of interest is compared with the pixel value of the pixel on the right side of the pixel of interest, and the pixel value of the pixel on the left side is larger than the pixel value of the pixel on the right side. Is detected, and the detected pixel of interest is set as the vertex.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • the vertex detector 202 may not detect the vertex in some cases.
  • the monotone increase / decrease detection unit 203 is a pixel that is arranged in a line in the left and right direction with respect to the vertex detected by the vertex detection unit 202, and is a candidate for an area composed of pixels onto which a thin line image is projected.
  • the detected and vertex information is supplied to the continuity detecting unit 204 together with the monotone increasing / decreasing area information indicating the detected area.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels having a pixel value that is monotonically decreased with respect to a pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Detect as a candidate.
  • the monotonous increase / decrease detection unit 203 detects, for each pixel in a row lateral to the vertex, 04 001488
  • the difference between the pixel value of each pixel and the pixel value of the pixel on the left and the pixel value of the pixel on the right are calculated. Then, the monotone increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 detects a region having a pixel value having the same sign as that of the pixel value of the vertex based on the sign of the pixel value of the vertex from the region where the pixel value is monotonically decreasing. Is detected as a candidate for an area composed of pixels onto which a thin line image is projected.
  • the monotone increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the left pixel or the sign of the pixel value of the right pixel, and the sign of the pixel value changes. By detecting a pixel having a pixel value, an area composed of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases.
  • the monotone increase / decrease detection unit 203 detects a region arranged in the left-right direction, the pixel value of which is monotonously decreased with respect to the vertex, and the pixel region having the same sign as the vertex.
  • the monotone decrease detection section 203 finds a thin line region longer than a predetermined threshold, that is, a thin line region including a larger number of pixels than the threshold, from the thin line region composed of such a monotonous increase / decrease region.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex, the pixel value of the pixel above the vertex, and the pixel value of the pixel below the vertex.
  • the pixel value of the vertex exceeds the threshold value, the pixel value of the pixel above the vertex is less than the threshold value, and the thin line region to which the pixel value of the pixel below the vertex is less than the threshold value belongs.
  • the detected and detected thin line region is set as a candidate for a region including pixels including components of a thin line image.
  • the thin line region to which the vertex whose pixel value is less than or equal to the threshold value, the pixel value of the pixel above the vertex exceeds the threshold value, or the pixel value of the pixel below the vertex exceeds the threshold value belongs to It is determined that the image does not include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous decrease detection unit 203 determines the pixel value of the vertex based on the pixel value of the background.
  • the difference between the pixel value of the background and the pixel value of the background is compared with the threshold value, and the difference between the pixel value of the pixel vertically adjacent to the vertex and the pixel value of the background is compared with the threshold value.
  • the difference between the pixel value of the pixel and the pixel value of the background exceeds the threshold value, and the difference between the pixel value of the vertically adjacent pixel and the pixel value of the background is equal to or less than the threshold value. May be set as a region candidate.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonously with the vertex as the reference and the sign of the pixel value is the same as the vertex, and the vertex exceeds the threshold value, and the right side of the vertex Is supplied to the continuity detecting unit 204, indicating that the pixel value of the pixel of the apex is less than or equal to the threshold value and the pixel value of the pixel on the left side of the vertex is less than the threshold value.
  • the region indicated by the monotone increase / decrease region information is a line of pixels arranged in the horizontal direction of the screen, and includes a region formed by projecting a thin line image.
  • the continuity detection unit 204 includes pixels that are vertically adjacent to each other in the region composed of pixels arranged in the horizontal direction, which is indicated by the monotone increase / decrease region information supplied from the monotone increase / decrease detection unit 203.
  • a region that is, a region having similar pixel value changes and overlapping in the horizontal direction is detected as a continuous region, and vertex information and data indicating the detected continuous region are detected.
  • the data continuity information includes information indicating the connection between the areas.
  • the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data continuity information indicating the detected continuous area.
  • the continuity detecting section 204 is continuous in the length direction.
  • the vertex detection unit 202 and the monotony are utilized by using the stationarity of the data 3 obtained by imaging the thin line, which is generated from the stationarity of the line image, and in which the arc shapes are arranged at regular intervals so that they are adjacent to each other.
  • the detection of the area detected by the increase / decrease detection unit 203 is further narrowed down.
  • FIG. 51 is a diagram illustrating an example of an image in which a stationary component is extracted by approximation on a plane.
  • FIG. 52 is a diagram illustrating a result of detecting a vertex from the image illustrated in FIG. 51 and detecting a monotonically decreasing region. In FIG. 52, the part shown in white is the detected area.
  • FIG. 53 is a diagram illustrating a region in which continuity is detected by detecting continuity of an adjacent region from the image illustrated in FIG. 52.
  • the portion shown in white is the region where continuity is detected.
  • the continuity detection shows that the region is further specified.
  • FIG. 54 is a diagram showing the pixel values of the region shown in FIG. 53, that is, the pixel values of the region where continuity is detected.
  • the data continuity detecting unit 101 can detect the continuity included in the data 3 as the input image. That is, the data continuity detecting unit 101 can detect the continuity of the data included in the data 3 that is generated by projecting the image of the real world 1 as a thin line onto the data 3. The data continuity detecting unit 101 detects, from the data 3, an area composed of pixels onto which the image of the real world 1 as a thin line is projected.
  • FIG. 55 is a diagram illustrating an example of another process of detecting an area having stationarity, on which a thin line image is projected, in the stationarity detection unit 101.
  • the continuity detecting unit 101 when the values of the adjacent differences are the same among the absolute values of the differences arranged corresponding to the pixels, the pixel () corresponding to the absolute value of the two differences The pixel between the absolute values of the two differences) is determined to contain a thin line component. Note that the continuity detection unit 101 determines that the absolute value of a difference is smaller than a predetermined threshold value when adjacent differential values are the same among the absolute values of the differentials arranged corresponding to the pixels. It is determined that the pixel corresponding to the absolute value of the two differences (the pixel sandwiched between the absolute values of the two differences) does not include a thin line component.
  • the continuity detector 101 can also detect a thin line by such a simple method.
  • FIG. 56 is a flowchart for explaining the processing of the continuity detection.
  • the non-stationary component extracting unit 201 extracts a non-stationary component, which is a portion other than the portion where the thin line is projected, from the input image.
  • the non-stationary component extraction unit 201 supplies, together with the input image, the non-stationary component information indicating the extracted non-stationary component to the vertex detection unit 202 and the monotone increase / decrease detection unit 203. Details of the process of extracting the unsteady component will be described later.
  • step S202 the vertex detection unit 202 removes non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201, and outputs Only pixels containing stationary components are left. Further, in step S202, the vertex detector 202 detects a vertex.
  • the vertex detection unit 202 compares the pixel value of each pixel with the pixel values of the upper and lower pixels for the pixel including the stationary component. Then, a vertex is detected by detecting a pixel having a pixel value larger than the pixel value of the upper pixel and the pixel value of the lower pixel.
  • step S202 the vertex detection unit 202, when executing the processing based on the horizontal direction of the screen, determines the pixel value of each pixel for the pixel including the stationary component, The vertex is detected by comparing the pixel value of the pixel with the pixel value of the right pixel and the pixel value with the pixel value larger than the pixel value of the left pixel.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • step S203 the monotone increase / decrease detection unit 203 removes the non-stationary component from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201, and outputs the non-stationary component to the input image. Only pixels containing stationary components are left. Further, in step S203, the monotone increase / decrease detecting unit 203 detects the monotone increase / decrease with respect to the vertex based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202. A region consisting of pixels having data continuity is detected.
  • the monotonous increase / decrease detection unit 203 When executing processing based on the vertical direction of the screen, the monotonous increase / decrease detection unit 203 vertically arranges the pixels based on the pixel values of the vertices and the pixel values of the pixels arranged vertically in one column. By detecting the monotonous increase / decrease of pixels in one row, the pixels of which one thin line image is projected, detect an area composed of pixels having data continuity. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing with the vertical direction of the screen as a reference, determines each of the vertices and the pixels vertically arranged in one column with respect to the vertices.
  • the difference between the pixel value of the pixel and the pixel value of the upper or lower pixel is determined, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 determines the sign of the pixel value of each pixel and the sign of the pixel value of the pixel above or below the vertex and the pixels arranged in one column vertically with respect to the vertex. And detects a pixel whose sign of the pixel value changes.
  • the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex and the pixel values of the right and left pixels of the vertex with the threshold, and the pixel value of the vertex exceeds the threshold, and the right and left pixels An area consisting of pixels whose pixel value is equal to or smaller than the threshold value is detected.
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 executes the processing based on the horizontal direction of the screen. 1488
  • the pixels are arranged in a row in a row, and are monotonically composed of the pixels onto which one thin line image is projected.
  • an area consisting of pixels having data continuity is detected. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing with the horizontal direction of the screen as a reference, determines each of the vertices and the pixels arranged in one row horizontally with respect to the vertices. The difference between the pixel value of the left pixel and the pixel value of the left or right pixel is obtained, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 calculates the sign of the pixel value of each pixel and the sign of the pixel value of the pixel on the left or right side of the pixel for the vertices and the pixels arranged in one row horizontally with respect to the vertices. By comparing, the pixel whose sign of the pixel value changes is detected. Further, the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex, and the pixel values of the pixels above and below the vertex with a threshold value, and the pixel value of the vertex exceeds the threshold value. An area consisting of pixels whose pixel value is less than or equal to a threshold is detected.
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • step S204 the monotone increase / decrease detection unit 203 determines whether or not the processing of all pixels has been completed.
  • the non-stationary component extraction unit 201 detects the vertices of all the pixels of one screen (for example, a frame or a field) of the input image, and determines whether a monotonous increase / decrease area has been detected.
  • step S204 If it is determined in step S204 that the processing of all the pixels has not been completed, that is, it is determined that there is still a pixel that has not been subjected to the processing of detecting the vertices and detecting the monotone increasing / decreasing area, Returning to 2, the pixel to be processed is selected from the pixels that are not subjected to the processing of the vertex detection and the detection of the monotone increase / decrease area, and the processing of the vertex detection and the detection of the monotone increase / decrease area are repeated.
  • step S204 if it is determined that the processing of all pixels has been completed, that is, it is determined that the vertices and the monotone increasing / decreasing area have been detected for all the pixels, the process proceeds to step S205, and the continuity detecting unit 2 0 4 is detected based on monotone increase / decrease area information Detect the continuity of the region.
  • the continuity detecting unit 204 determines that when a monotone increasing / decreasing area, which is indicated by monotonous increasing / decreasing area information and is composed of pixels arranged in one row in the vertical direction of the screen, includes horizontally adjacent pixels, Assume that there is continuity between two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when pixels adjacent in the horizontal direction are not included.
  • the continuity detecting unit 204 detects that when a monotone increasing / decreasing area, which is indicated by monotonous increasing / decreasing area information and is composed of pixels arranged in one row in the horizontal direction, includes pixels that are vertically adjacent to each other, Assume that there is continuity between two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when pixels adjacent in the vertical direction are not included.
  • the continuity detecting unit 204 sets the detected continuous area as a steady area having data continuity, and outputs data continuity information indicating the position of the vertex and the steady area.
  • the data continuity information includes information indicating the connection between the areas.
  • the data continuity information output from the continuity detection unit 204 indicates a thin line region that is a steady region and includes pixels onto which a thin line image of the real world 1 is projected.
  • step S206 the continuity direction detection unit 205 determines whether or not processing of all pixels has been completed. That is, the continuity direction detection unit 205 determines whether or not the force of detecting the continuity of the area has been detected for all the pixels of the predetermined frame of the input image.
  • step S206 If it is determined in step S206 that the processing of all the pixels has not been completed, that is, it is determined that there are still pixels that have not been subjected to the processing for detecting the continuity of the region, the process returns to step S205. Then, the pixel to be processed is selected from the pixels not to be subjected to the processing for detecting the continuity of the area, and the processing for detecting the continuity of the area is repeated. If it is determined in step S206 that the processing of all the pixels has been completed, that is, it is determined that the continuity of the area has been detected for all the pixels, the processing ends. In this way, the continuity contained in the input image data 3 is detected.
  • the data continuity detector 101 shown in FIG. 41 detects the continuity of the data in the time direction based on the continuity region of the data detected from the frame of data 3. Can be detected.
  • the continuity detecting unit 204 includes, in the frame, an area having the continuity of the detected data, in the frame ⁇ -1, an area having the continuity of the detected data, In frame # ⁇ + 1, based on the detected data continuity region, the end of the region is connected to detect the data continuity in the time direction.
  • Frame # ⁇ -1 is a frame temporally before the frame # ⁇
  • frame # ⁇ + 1 is a frame temporally after the frame # ⁇ . That is, frame # ⁇ _1, frame # ⁇ , and frame # ⁇ + 1 are displayed in order of frame # ⁇ -1, frame, and frame # ⁇ + 1.
  • G is an area having a stationarity of the detected data in frame # ⁇ , an area having a stationarity of the detected data in frame # ⁇ -1, and
  • the motion vector obtained by connecting one end of each of the regions having the stationarity of the detected data is shown, and G ′ is each of the areas having the stationarity of the detected data. This shows the motion vector obtained by connecting the other end of.
  • the motion vector G and the motion vector G ' are examples of the continuity of data in the time direction.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 41 can output information indicating the length of the region having data continuity as data continuity information.
  • Figure 58 shows a block diagram of the configuration of the non-stationary component extraction unit 201, which extracts the non-stationary component by approximating the non-stationary component, which is the part of the image data that does not have stationarity, with a plane.
  • FIG. 58 shows a block diagram of the configuration of the non-stationary component extraction unit 201, which extracts the non-stationary component by approximating the non-stationary component, which is the part of the image data that does not have stationarity, with a plane.
  • the non-stationary component extraction unit 201 shown in FIG. 58 has a predetermined number of pixels from the input image. Is extracted, and a non-stationary component is extracted by approximating the block with a plane so that the error between the block and the value indicated by the plane is less than a predetermined threshold.
  • the input image is supplied to the block extraction unit 221 and output as it is.
  • the block extracting unit 222 extracts a block including a predetermined number of pixels from the input image. For example, the block extracting unit 222 extracts a block composed of 7 ⁇ 7 pixels and supplies the extracted block to the plane approximating unit 222. For example, the block extraction unit 222 shifts the pixel at the center of the block to be extracted in raster scan order, and sequentially extracts blocks from the input image.
  • the plane approximating unit 222 approximates the pixel values of the pixels included in the block with a predetermined plane. For example, the plane approximating unit 222 approximates the pixel values of the pixels included in the block on the plane represented by the equation (24).
  • X indicates the position of the pixel in one direction (spatial direction X) on the screen
  • y indicates the position of the pixel on the screen.
  • z indicates an approximate value represented by a plane.
  • a indicates the inclination of the plane in the spatial direction X
  • b indicates the inclination of the plane in the spatial direction Y.
  • c indicates a plane offset (intercept).
  • the plane approximating unit 2 2 2 calculates the slope a, the slope b, and the offset c by regression processing, and obtains the pixels of the pixels included in the block on the plane represented by the equation (24). Approximate values.
  • the plane approximating unit 2 2 2 calculates the slope a, the slope b, and the offset c by regression processing with rejection, and obtains the pixel of the pixel included in the block on the plane represented by the equation (2 4). Approximate values.
  • the plane approximation unit 222 finds the plane represented by the equation (24) that minimizes the error with respect to the pixel value of the block pixel by the least squares method, and includes the plane in the block. The pixel value of the pixel to be approximated.
  • the plane approximating unit 2 2 2 approximates the block with a plane represented by the equation (2 4).
  • the function is not limited to the plane expressed by the equation (2 4), but a function with a higher degree of freedom, for example, a block expressed by a polynomial of degree n (n is an arbitrary integer) May be approximated.
  • the repetition determination unit 223 calculates an error between the approximate value indicated by the plane approximating the pixel value of the block and the pixel value of the corresponding pixel of the block.
  • Equation (25) is an equation representing an error ei which is a difference between an approximate value indicated by a plane approximating the pixel value of the block and the pixel value zi of the corresponding pixel of the block.
  • Equation (25) the z hat (letters with z are referred to as z hats. The same applies hereinafter in this specification.) Is expressed by the pixel value of the block. Indicates the approximate value indicated by the approximated plane, a knot indicates the gradient in the spatial direction X of the plane approximating the pixel value of the block, and b hat indicates the spatial direction Y of the plane approximating the pixel value of the block. Shows the inclination of. In equation (25), c hat indicates the offset (intercept) of the plane that approximates the pixel values of the block.
  • the repetition determination unit 2 23 rejects the pixel having the largest error ei force between the approximate value and the pixel value of the corresponding pixel of the block, which is expressed by Expression (25). In this way, the pixel on which the thin line is projected, that is, the pixel having continuity, is rejected.
  • the repetition determination unit 222 supplies rejection information indicating the rejected pixel to the plane approximation unit 222.
  • the repetition determination unit 223 calculates a standard error, and the standard error is equal to or more than a predetermined threshold value for approximation end determination, and more than half of the pixels of the block are not rejected. At this time, the repetition determination unit 222 causes the plane approximation unit 222 to repeat the plane approximation processing on the pixels included in the block excluding the rejected pixels.
  • the plane approximates the non-stationary component by approximating the pixels excluding the rejected pixels with a plane.
  • the repetition determination unit 223 ends the plane approximation.
  • e s ⁇ ( 2 i -z) / (n-3)
  • n is the number of pixels.
  • the repetition determination unit 223 may calculate not only the standard error but also the sum of the squares of the errors of all the pixels included in the block, and execute the following processing.
  • the pixels having stationarity that is, the pixels including the components of the thin line indicated by black circles in the figure are plural. Will be rejected.
  • the repetition determination unit 2 23 When the approximation by the plane is finished, the repetition determination unit 2 23 outputs information indicating the plane that approximates the pixel value of the block (the slope and intercept of the plane in equation (24)) as unsteady component information. .
  • the repetition determination unit 223 compares the number of rejections for each pixel with a predetermined threshold, and determines that a pixel whose number of rejections is equal to or greater than the threshold is a pixel including a steady component. May be output as stationary component information.
  • the vertex detection unit 202 to the continuity direction detection unit 205 execute the respective processes on the pixels including the stationary component indicated by the stationary component information.
  • Figure 60 shows the average of the pixel values of 2 ⁇ 2 pixels of the original image from the image containing the thin line.
  • FIG. 4 is a diagram illustrating an example of an input image generated by using values as pixel values.
  • FIG. 61 is a diagram showing an image in which a standard error obtained as a result of approximating the image shown in FIG. 60 by a plane without rejection is used as a pixel value.
  • a block consisting of 5 x 5 pixels for one pixel of interest is approximated by a plane.
  • a white pixel is a pixel having a larger pixel value, that is, a pixel having a larger standard error
  • a black pixel is a pixel having a smaller pixel value, that is, a pixel having a smaller standard error.
  • FIG. 61 is an image in which the standard error obtained when the image shown in FIG. 60 is rejected and approximated by a plane is used as a pixel value.
  • white pixels are pixels having larger pixel values, that is, pixels having a larger standard error
  • black pixels are pixels having smaller pixel values, that is, pixels having a smaller standard error. It can be seen that the standard error as a whole is smaller when rejection is performed than when no rejection is performed.
  • FIG. 63 is a diagram showing an image in which, when the image shown in FIG. 60 is rejected and approximated by a plane, the number of rejections is set as a pixel value.
  • white pixels are larger pixel values, that is, pixels having more rejections
  • black pixels are lower pixel values, that is, pixels having less rejection times.
  • FIG. 64 shows the slope of the plane in the spatial direction X that approximates the pixel value of the block as the pixel value.
  • FIG. FIG. 65 is a diagram illustrating an image in which the inclination in the spatial direction Y of the plane approximating the pixel value of the block is set as the pixel value.
  • FIG. 66 is a diagram illustrating an image including approximate values indicated by a plane approximating pixel values of a block. From the image shown in Fig. 66, it can be seen that the thin line has disappeared.
  • Fig. 67 shows the image shown in Fig. 60, in which the average value of the block of 2 X 2 pixels of the original image is generated as the pixel value of the pixel, and the approximate value shown by the plane shown in Fig. 66
  • FIG. 7 is a diagram showing an image composed of a difference from an image composed of. Since the non-stationary component is removed from the pixel values of the image in FIG. 67, the pixel values include only the values to which the fine line images are projected. As can be seen from FIG.
  • FIG. 68 is a flowchart corresponding to step S201 and illustrating a process of extracting a non-stationary component by the non-stationary component extracting unit 201 having the configuration shown in FIG.
  • the block extraction unit 222 extracts a block consisting of a predetermined number of pixels from the input pixels, and supplies the extracted block to the plane approximation unit 222.
  • the block extraction unit 221 selects one pixel from the input pixels that has not been selected yet, and extracts a block composed of 7 ⁇ 7 pixels centered on the selected pixel. I do.
  • the block extracting unit 221 can select pixels in raster scan order.
  • the plane approximating unit 222 approximates the extracted block with a plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels of the extracted block by a plane, for example, by regression processing.
  • the plane approximation unit 222 approximates, with a plane, the pixel values of the pixels excluding the rejected pixels among the extracted blocks of the block by the regression processing.
  • iterative determination unit 2 2 3 Performs repeated judgment. For example, a standard error is calculated from a pixel value of a pixel of a block and an approximate value of an approximate plane, and the number of rejected pixels is calculated to repeatedly execute the determination.
  • step S224 the repetition determination unit 223 determines whether or not the standard error is equal to or larger than the threshold. When it is determined that the standard error is equal to or larger than the threshold, the process proceeds to step S225.
  • step S224 the repetition determination unit 223 determines whether or not more than half of the pixels in the block have been rejected, and whether or not the standard error is equal to or greater than a threshold. If it is determined that half or more of the pixels have not been rejected and the standard error is equal to or greater than the threshold, the process may proceed to step S225.
  • step S225 the repetition determination unit 223 calculates, for each pixel of the block, an error between the pixel value of the pixel and the approximate value of the approximated plane, rejects the pixel having the largest error, and performs plane approximation. Notify part 222.
  • the procedure returns to step S 222, and the process of approximation with a plane and the process of repetition determination are repeated for the pixels of the block excluding the rejected pixels.
  • step S 225 if a block shifted by one pixel in the raster scan direction is extracted by the process of step S 221, as shown in FIG. 59, the pixel including the thin line component (the black circle in the figure) Will be rejected multiple times.
  • step S224 If it is determined in step S224 that the standard error is not greater than or equal to the threshold, the block is approximated by a plane, and the process proceeds to step S226.
  • step S224 the repetition determination unit 222 determines whether more than half of the pixels in the block have been rejected and whether the standard error is greater than or equal to a threshold. If more than half of the pixels are rejected, or if it is determined that the standard error is not greater than or equal to the threshold, the repetition determination unit 2 2 3 The pixel of the block pixel The slope and intercept of the plane approximating the value are output as non-stationary component information.
  • step S 227 the block extraction unit 221 determines whether or not processing has been completed for all pixels of one screen of the input image, and determines that there is a pixel that has not been processed yet. In this case, the process returns to step S221, and a block is extracted from pixels that have not been processed yet, and the above process is repeated.
  • step S227 If it is determined in step S227 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 having the configuration shown in FIG. 58 can extract the non-stationary component from the input image. Since the unsteady component extraction unit 201 extracts the unsteady component of the input image, the vertex detection unit 202 and the monotone increase / decrease detection unit 203 detect the input image and the unsteady component extraction unit 201. By calculating the difference from the extracted non-stationary component, the processing can be performed on the difference including the stationary component.
  • the standard error when rejected the standard error when not rejected, the number of rejected pixels, the slope of the spatial direction X of the plane (a hat in equation (2 4)) calculated in the approximation process using the plane ,
  • the inclination of the plane in the spatial direction Y (b hat in equation (24)), the level when replaced by the plane (c hat in equation (24)), and the pixel values of the input image and the plane
  • the difference from the approximated value can be used as a feature value.
  • FIG. 69 is a flowchart illustrating processing for extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 58 instead of the processing for extracting the unsteady component corresponding to step S201. It is.
  • the processing in steps S224 to S245 is the same as the processing in steps S221 to S225, and a description thereof will be omitted.
  • step S246 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the input image as a stationary component of the input image. That is, the repetition determination unit 223 outputs the difference between the approximate value based on the plane and the pixel value that is the true value. Note that the repetition determination unit 223 outputs a pixel value of a pixel whose difference between the approximate value indicated by the plane and the pixel value of the input image is equal to or greater than a predetermined threshold value as a stationary component of the input image. You may.
  • step S 247 is the same as the process in step S 227, and a description thereof will not be repeated.
  • the non-stationary component extraction unit 201 subtracts the approximate value indicated by the plane approximating the pixel value from the pixel value of each pixel of the input image, Non-stationary components can be removed from the input image.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the steady component of the input image, that is, the value on which the image of the thin line is projected, and the vertex detection unit Processing from 202 to the continuity detecting unit 204 becomes easier.
  • FIG. 70 illustrates another process of extracting a stationary component by the non-stationary component extraction unit 2 ⁇ 1 shown in FIG. 58 instead of the process of extracting the non-stationary component corresponding to step S 201. It is a flow chart. The processing of steps S261 to S265 is the same as the processing of steps S221 to S225, and a description thereof will be omitted.
  • step S266 the repetition determination unit 223 stores the number of rejections for each pixel, returns to step S266, and repeats the processing.
  • step S264 If it is determined in step S264 that the standard error is not equal to or larger than the threshold, the block is approximated by a plane, and the process proceeds to step S2667, where the repetition determination unit 223 determines one of the input images. It is determined whether or not processing has been completed for all pixels on the screen. If it is determined that there is a pixel that has not been processed yet, the process returns to step S2661, and a pixel that has not been processed yet is determined. A block is extracted for, and the processing described above is repeated.
  • step S267 If it is determined in step S267 that the processing has been completed for all the pixels of one screen of the input image, the process proceeds to step S2688, where the repetition determination unit 223 determines the pixels not yet selected. Select one pixel from, and for the selected pixel, It is determined whether the number of rejections is equal to or greater than the threshold. For example, in step S268, the repetition determination unit 222 determines whether or not the number of rejections for the selected pixel is equal to or greater than a previously stored threshold.
  • step S268 If it is determined in step S268 that the number of rejections for the selected pixel is equal to or greater than the threshold value, the selected pixel includes a stationary component.
  • the unit 223 outputs the pixel value of the selected pixel (pixel value in the input image) as a steady component of the input image, and proceeds to step S270. If it is determined in step S268 that the number of rejections for the selected pixel is not equal to or greater than the threshold value, the processing in step S266 is skipped because the selected pixel does not include a stationary component. Then, the procedure proceeds to step S270. That is, no pixel value is output for a pixel for which it is determined that the number of rejections is not greater than or equal to the threshold value. In addition, the repetition determination unit 223 may output a pixel value in which 0 is set for a pixel for which the number of rejections is determined not to be equal to or larger than the threshold value.
  • step S270 the return determination unit 222 determines whether or not the process of determining whether or not the number of rejections is equal to or greater than the threshold has been completed for all pixels of one screen of the input image. However, if it is determined that the processing has not been completed for all the pixels, there are pixels that have not yet been processed, so the process returns to step S2688, and one of the pixels that have not been processed yet is selected. A pixel is selected and the above-described processing is repeated. If it is determined in step S270 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 can output the pixel value of the pixel including the stationary component among the pixels of the input image as the stationary component information. That is, the non-stationary component extracting unit 201 can output the pixel value of the pixel including the component of the thin line image among the pixels of the input image.
  • FIG. 71 shows another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 58 instead of the process of extracting the non-stationary component corresponding to step S 201.
  • Step S 2 8 1 to Step S 2 8 8 Is the same as the processing from step S2661 to step S2688, and the description thereof will be omitted.
  • step S289 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the selected surface element as a stationary component of the input image. That is, the repetition determination unit 223 outputs an image obtained by removing the non-stationary component from the input image as the constancy information.
  • step S290 Since the processing in step S290 is the same as the processing in step S270, its description is omitted.
  • the non-stationary component extraction unit 201 can output an image obtained by removing the non-stationary component from the input image as the stationarity information.
  • the real-world optical signal is projected, and a part of the continuity of the real-world optical signal is lost.
  • Generates a model (function) that approximates the optical signal by detecting the stationarity of the data from the discontinuity that is output and estimating the stationarity of the optical signal in the real world based on the stationarity of the detected data.
  • a model function
  • the second image data is generated based on the generated function, a more accurate and more accurate processing result can be obtained for a real-world event.
  • FIG. 72 is a block diagram showing another configuration of the data continuity detecting unit 101.
  • the data continuity detecting unit 101 shown in FIG. 72 detects the change in the pixel value in the spatial direction of the input image, that is, the activity in the spatial direction of the input image, for the pixel of interest, which is the pixel of interest.
  • a set of pixels consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction is provided for each of the angle with respect to the target pixel and the reference axis.
  • the correlation between the extracted and extracted pixel sets is detected, and the continuity angle of the data with respect to the reference axis in the input image is detected based on the correlation.
  • the data continuity angle refers to the angle formed by the reference axis and the direction of a predetermined dimension, which data 3 has, in which certain features repeatedly appear. Certain features repeatedly appear View PC
  • change means, for example, a change in a value with respect to a change in position in data 3, that is, a case where the cross-sectional shapes are the same.
  • the reference axis may be, for example, an axis indicating the spatial direction X (horizontal direction of the screen) or an axis indicating the spatial direction Y (vertical direction of the screen).
  • the input image is supplied to the activity detection unit 401 and the data selection unit 402.
  • the activity detection unit 401 detects a change in pixel value of the input image in the spatial direction, that is, activity in the spatial direction, and outputs activity information indicating the detection result to the data selection unit 402 and the stationary direction derivation. Supply to part 404.
  • the activity detector 401 detects a change in the pixel value in the horizontal direction of the screen and a change in the pixel value in the vertical direction of the screen, and detects the detected change in the pixel value in the horizontal direction and the detected pixel value in the vertical direction.
  • the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, or the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction. It detects whether the change in pixel value is large.
  • the activity detection unit 401 indicates whether the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, which is the result of the detection, or In comparison, activity information indicating that the change in pixel value in the vertical direction is large is supplied to the data selection unit 402 and the steady direction derivation unit 404.
  • one row of pixels in the vertical direction has an arc shape (kamaboko shape).
  • a claw shape is formed, and the arc shape or the claw shape is repeatedly formed in a direction closer to vertical. That is, if the change in the pixel value in the horizontal direction is large compared to the change in the pixel value in the vertical direction, the standard axis is assumed to be the axis indicating the spatial direction X.
  • the sex angle is any value between 45 degrees and 90 degrees.
  • the change in the pixel value in the vertical direction is greater than the change in the pixel value in the horizontal direction, for example, an arc or nail shape is formed in one row of pixels in the horizontal direction, and the arc or nail shape is horizontal. It is formed repeatedly in a direction closer to the direction.
  • the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction
  • the reference axis is the axis indicating the spatial direction X
  • the stationarity angle is any value between 0 and 45 degrees.
  • the activity detection unit 401 extracts, from the input image, a block composed of nine 3 ⁇ 3 pixels centered on the pixel of interest, as shown in FIG.
  • the activity detection unit 401 calculates the sum of the difference between pixel values of vertically adjacent pixels and the sum of the difference of pixel values of horizontally adjacent pixels.
  • the sum of the differences between the pixel values of horizontally adjacent pixels, hdiff, is obtained by Eq. (27).
  • Equations (27) and (28) P indicates the pixel value, i indicates the horizontal position of the pixel, and j indicates the vertical direction of the pixel. Indicates the position of.
  • Akutibiti detector 40 1 compares the difference sum v di ff of the pixel values for the pixels adjacent to the sum h di ff and vertical difference between the pixel values of pixels adjacent to the calculated lateral input
  • the range of the continuity angle of the data with respect to the reference axis in the image may be determined. That is, in this case, the activity detection unit 401 determines whether the shape indicated by the change in the pixel value with respect to the position in the spatial direction is repeatedly formed in the horizontal direction or the vertical direction. . For example, the change in the pixel value in the horizontal direction for an arc formed on one row of pixels in the horizontal direction is larger than the change in the pixel value in the vertical direction.
  • the change in pixel value in the vertical direction for the arc is larger than the change in pixel value in the horizontal direction.
  • the direction of data continuity i.e., the change in the direction of a certain dimension of a certain feature of the input image that is data 3 is smaller than the change in the direction orthogonal to the data continuity. It can be said.
  • the difference in the direction orthogonal to the direction of data continuity (hereinafter also referred to as the non-stationary direction) is larger than the difference in the direction of data continuity.
  • the activity detection unit 401 detects the sum h diff of the calculated pixel values of the horizontally adjacent pixels and the difference h of the pixel values of the vertically adjacent pixels. Comparing the sum v diff , if the sum h diff of the pixel values of the horizontally adjacent pixels is large, the degree of stationarity of the data with respect to the reference axis is between 45 degrees and 1 35 If the sum of the differences between the pixel values of vertically adjacent pixels, v diff, is large, the degree of stationarity of the data with respect to the reference axis is 0 to 4 degrees. It is determined to be any value of 5 degrees or any value of 135 degrees to 180 degrees.
  • the activity detecting unit 410 supplies activity information indicating the result of the determination to the data selecting unit 402 and the steady direction deriving unit 404.
  • the activity detector 401 extracts a block of any size, such as a block consisting of 5 x 5 pixels of 25 pixels, or a block of 7 x 7 pixels of 49 pixels, and detects activity. can do.
  • the data selection unit 402 selects the pixel of interest from the pixels of the input image in order, and, based on the activity information supplied from the activity detection unit 401, sets the pixel of interest at each angle with respect to the reference axis. Then, a plurality of pixel sets each consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted.
  • the angle of data continuity is 45 to 135 degrees.
  • the data selector 402 selects one row in the vertical direction for each predetermined angle in the range of 45 degrees to 135 degrees with respect to the pixel of interest and the reference axis. A plurality of pixel sets consisting of a number of pixels are extracted.
  • the angle of data continuity is 0 to 45 degrees or 1 3 Since the value is any value between 5 degrees and 180 degrees, the data selection unit 402 sets the range of 0 degrees to 45 degrees or 135 degrees to 180 degrees with respect to the target pixel and the reference axis. For each predetermined angle, a plurality of pixel sets each consisting of a predetermined number of pixels in one row in the horizontal direction are extracted.
  • the data selection unit 402 sets the pixel of interest and the reference For each predetermined angle in the range of 45 degrees to 135 degrees with respect to the axis, a plurality of pixel sets consisting of a predetermined number of pixels in one column in the vertical direction are extracted.
  • the data selection unit 402 For each predetermined angle in the range of 0 to 45 degrees or 135 to 180 degrees with respect to the pixel and the reference axis, a set of pixels consisting of a predetermined number of pixels in a row in the horizontal direction is defined. , Extract multiple.
  • the data selection unit 402 supplies a plurality of sets of the extracted pixels to the error estimation unit 403.
  • the error estimator 403 detects the correlation of the pixel set for each angle with respect to a plurality of sets including the extracted pixels.
  • the error estimator 403 calculates the pixel value of the pixel at the corresponding position in the set of pixels for a plurality of sets of pixels having a predetermined number of pixels in one column in the vertical direction corresponding to one angle. Detect correlation. The error estimator 403 detects the correlation between the pixel values of the pixels at the corresponding positions in the set, for a plurality of sets of pixels consisting of a predetermined number of pixels in one row in the horizontal direction corresponding to one angle. .
  • the error estimating unit 403 supplies correlation information indicating the detected correlation to the stationary direction deriving unit 404.
  • the error estimating unit 4003 calculates, as a value indicating the correlation, the pixel value of the set of pixels including the pixel of interest supplied from the data selecting unit 402 and the corresponding position in another set.
  • the sum of the absolute values of the differences between the pixel values of the pixels is calculated, and the sum of the absolute values of the differences is supplied to the stationary direction deriving unit 404 as correlation information.
  • the stationary direction derivation unit 404 uses the reference axis of the input image corresponding to the continuity of the missing optical signal of the real world 1 as a reference. Detects the continuity angle of the obtained data and outputs data continuity information indicating the angle. For example, based on the correlation information supplied from the error estimator 403, the stationary direction deriving unit 404 detects the angle with respect to the set of pixels having the highest correlation as the angle of data continuity, Data continuity information indicating the angle with respect to the detected set of pixels having the strongest correlation is output.
  • FIG. 76 is a block diagram showing a more detailed configuration of data continuity detector 101 shown in FIG.
  • the data selection section 402 includes a pixel selection section 4111- 1 to a pixel selection section 4111-L.
  • the error estimating section 4003 includes an estimation error calculating section 41-2-1 to an estimation error calculating section 4121-L.
  • the stationary direction deriving unit 4 04 includes a minimum error angle selecting unit 4 13.
  • the pixel selection units 4 1 1-1 to 4 1 1 1 L The processing will be described.
  • Each of the pixel selection units 4 1 1 1 1 1 to 4 1 1 1 to 4 1 1 1 L sets a straight line having a different predetermined angle that passes through the pixel of interest with the axis indicating the spatial direction X as a reference axis.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs, and a predetermined number of pixels above the pixel of interest, And a predetermined number of pixels below the target pixel and the target pixel are selected as a set of pixels.
  • the pixel selection units 4111 to 1 through 4111-L determine the target pixel from the pixels belonging to one vertical pixel column to which the target pixel belongs.
  • Nine pixels are selected as a set of pixels as the center.
  • one square-shaped square indicates one pixel.
  • a circle shown in the center indicates a target pixel.
  • the pixel selection unit 4 1 1 1 1 1 to pixel selection unit 4 1 1 _L are pixels belonging to one vertical column of pixels to which the target pixel belongs, and one vertical column of pixels to the left. Select the pixel closest to the set straight line.
  • the lower left circle of the target pixel indicates an example of the selected pixel.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one vertical column of pixels to which the target pixel belongs and one vertical column of pixels to the left. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4111-1-1 through the pixel selection unit 4111-L are composed of one vertical column of pixels to which the pixel of interest belongs and one vertical column on the left.
  • Nine pixels are selected as a set of pixels, centering on the pixel closest to the straight line, from the pixels belonging to the pixel row of.
  • the L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs and a second vertical column of pixels to the left. Then, the pixel closest to the straight line set for each is selected. In FIG. 77, the leftmost circle shows an example of the selected pixel. Then, the pixel selection units 4 1 1 1 1 to 4 1 1 L are assigned to the vertical one column of pixels to which the pixel of interest belongs and the second vertical one column of pixels to the left. As a set of pixels, a predetermined number of pixels belonging to the selected pixel, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected.
  • the pixel selection unit 4111-1-1 through the pixel selection unit 4111-L are arranged on the left side of the column of one pixel to which the pixel of interest belongs, and the second column on the left side. Then, from the pixels belonging to one pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • Pixel selection unit 4 1 1 1 1 1 to pixel selection unit 4 1 1 1 L Pixels belonging to one vertical pixel column on the right side of the column of pixel columns and closest to the set straight line are selected.
  • the upper right circle of the target pixel indicates an example of the selected pixel.
  • the pixel selection units 4 1 1-1 to 4 1 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs and one vertical pixel column to the right. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4111-1-1 through the pixel selection unit 4111-L are each composed of one vertical column of pixels to which the pixel of interest belongs and one vertical column on the right.
  • Nine pixels are selected as a set of pixels, centering on the pixel closest to the straight line, from the pixels belonging to the pixel row of.
  • L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs, and a second vertical column of pixels to the right. Then, the pixel closest to the straight line set for each is selected.
  • the circle on the far right indicates an example of the pixel thus selected.
  • the pixel selectors 4 1 1-1 to 4 1 1-L belong to one vertical column of pixels to which the pixel of interest belongs, and belong to the second vertical column of pixels to the right. A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection units 4111-1 to 4111-L are arranged in the vertical direction of the pixel to which the pixel of interest belongs and the second vertical position on the right side. Then, from the pixels belonging to one pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • each of the pixel selection units 4111-1 to 411_L selects five pixel sets.
  • the pixel selection unit 4111- 1 to the pixel selection unit 4111-L select a set of pixels at different angles (straight lines set at different angles). For example, pixel selection section 4 1 1- 1, about 4 5 times, select a set of pixels, pixel selection unit 4 1 1 one 2, 4 7. For 5 degrees, then select the set of pixels, pixel selection unit 4 1 1 one 3 Select a set of pixels at 50 degrees.
  • the pixel selection unit 41-1-1 to pixel selection unit 4111-L selects a set of pixels at an angle of 2.5 degrees from 52.5 degrees to 135 degrees every 2.5 degrees.
  • the number of sets of pixels can be any number such as, for example, three or seven, and does not limit the present invention. Further, the number of pixels selected as one set can be an arbitrary number such as, for example, 5 or 13 and does not limit the present invention.
  • the pixel selection units 4111 to 1 to 4111L can select a set of pixels from a predetermined range of pixels in the vertical direction.
  • the pixel selection unit 4111-1-1 through the pixel selection unit 4111-L are composed of 121 pixels vertically (60 pixels upward and 60 pixels downward with respect to the pixel of interest). ), Select a set of pixels.
  • the data continuity detecting unit 101 can detect the data continuity angle up to 88.09 degrees with respect to the axis indicating the spatial direction X.
  • each of the pixel selection units 4 1 1 1 1 1 to 3 to L is a pixel selection unit that converts the set of selected pixels to an estimation error calculation unit 4 1 2-3 to an estimation error calculation unit 4 1 2 1 Supply to each of L.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L are provided for each of the plurality of sets supplied from any of the pixel selection sections 4 1 1 1 1 to 4 1 1-L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation unit 4 1 2 1 1 to the estimation error calculation unit 4 1 2 ⁇ L may be used as a value indicating the correlation from any one of the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L.
  • the sum of the supplied absolute values of the differences between the pixel values of the set of pixels including the target pixel and the pixel values of the corresponding positions in the other sets is calculated.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L are supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 1 -L. Also, based on the pixel values of the set of pixels including the pixel of interest and the pixel values of the set of pixels belonging to one vertical column of pixels to the left of the pixel of interest, The difference between the pixel values is calculated, and the absolute value of the difference between the pixel values is calculated in order from the pixel above, so that the difference between the pixel values of the second pixel from the top is calculated. Calculate the sum of the absolute values.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L include the pixel of interest supplied from any of the pixel selection sections 4 1 1 1 1 to 4 1 1 1 L Based on the pixel values of the set of pixels and the pixel values of the set of pixels belonging to the second vertical column of pixels to the left of the pixel of interest, the difference between the pixel values in Calculate the absolute value and calculate the sum of the absolute values of the calculated differences.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L are supplied from any of the pixel selection sections 4 1 1-1 to 4 1 1-1 L.
  • the difference between the pixel value of the uppermost pixel based on the pixel value of the set of pixels including the pixel and the pixel value of the set of pixels belonging to one vertical pixel row to the right of the pixel of interest is calculated.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are configured to calculate the pixel of interest supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 L. Based on the pixel values of the set of pixels included and the pixel values of the set of pixels that belong to the second vertical column of pixels to the right of the pixel of interest, the pixel values in order from the pixel above The absolute value of the difference is calculated, and the sum of the absolute values of the calculated differences is calculated.
  • the estimation error calculation units 4 1 2 _ 1 to 4 1 2 -L add all the sums of the absolute values of the pixel value differences calculated in this way, and calculate the absolute value of the pixel value differences. Calculate the sum.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the estimation error calculator 4 12 2-1 to the estimated error calculation unit 4 12 2-L supplies the sum of the absolute values of the calculated pixel value differences to the minimum error angle selection unit 4 13.
  • estimation error calculation units 4 1 2-1 to 4 1 2-L are not limited to the sum of the absolute values of the pixel value differences, but may be based on the sum of the squares of the pixel value differences or the pixel values. Other values, such as the calculated correlation coefficient, can be calculated as the correlation value.
  • the minimum error angle selection unit 413 is configured to calculate the missing real world 1 based on the correlation detected by the estimation error calculation units 41-2-1 to 41-2-L for different angles.
  • the angle of the continuity of the data with respect to the reference axis in the input image corresponding to the continuity of the image which is the optical signal of is detected.
  • the minimum error angle selection unit 4 13 is the strongest based on the correlation detected by the estimation error calculation units 4 12-1 to 4 12-L for different angles.
  • the minimum error angle selection unit 413 is the minimum error sum of the absolute values of the pixel value differences supplied from the estimation error calculation units 412-1 to 412-L.
  • Select the sum of The minimum error angle selection unit 4 13 is a pixel belonging to the second vertical column of pixels on the left side with respect to the pixel of interest for the selected set of pixels for which the sum has been calculated, Refers to the position of the pixel closest to the straight line and the position of the pixel that belongs to the second vertical pixel column on the right side of the pixel of interest and that is closest to the straight line .
  • the minimum error angle selector 413 finds the vertical distance S between the position of the pixel of interest and the position of the pixel of interest. As shown in FIG. 78, the minimum error angle selection unit 413 calculates the reference value in the input image, which is image data, corresponding to the missing signal of the real world 1 from the equation (29). Detects the continuity angle 0 of the data with respect to the axis indicating the spatial direction X which is the axis.
  • the processing of 1 to pixel selection unit 4 11 1 L will be described.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L set a straight line at a predetermined angle that passes through the pixel of interest with the axis indicating the spatial direction X as a reference axis, and the horizontal to which the pixel of interest belongs A predetermined number of pixels to the left of the pixel of interest, a predetermined number of pixels to the right of the pixel of interest, and a pixel of interest belonging to one column of pixels. .
  • the pixel selection unit 4 1 1-1 to the pixel selection unit 4 1 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs, and one vertical row of pixels, Select the pixel closest to the set straight line.
  • the pixel selection units 4111-1 to 4111-1L are pixels belonging to one horizontal row of pixels to which the target pixel belongs and one vertical row of pixels to the upper side. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
  • L is a pixel belonging to one horizontal pixel column to which the pixel of interest belongs, and a second vertical pixel column to the second upper pixel column. Then, the pixel closest to the straight line set for each is selected. Then, the pixel selection units 4 1 1 1 1 1 to 4 1 1_L belong to the first horizontal row of pixels to which the target pixel belongs and the second horizontal row of pixels to the upper side A predetermined number of pixels to the left of the selected pixel, a predetermined number of pixels to the right of the selected pixel, and a selected pixel are selected as a set of pixels.
  • the pixel selectors 4 1 1 1 1 to 4 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one lower horizontal row of pixels. Select the pixel closest to the set straight line.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the lower side. A predetermined number on the left side of the selected pixel And a predetermined number of pixels to the right of the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4 1 1 1 1 1 to pixel selection unit 4 1 1 1 L is a pixel belonging to the second horizontal row of pixels of the first horizontal row of pixels to which the pixel of interest belongs. Then, the pixel closest to the straight line set for each is selected.
  • the pixel selectors 4 1 1 1 1 1 to 4 1 1 L are arranged in the first row of pixels to which the pixel of interest belongs and the second row of pixels in the second row below. A predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixels are selected as a set of pixels.
  • each of the pixel selection units 4111_1 to 4111L selects five sets of pixels.
  • the pixel selectors 4 1 1-1 to 4 1 1-1 L select a set of pixels at different angles from each other.
  • the pixel selection section 4 1 1 1 1 selects a set of pixels for 0 degree
  • the pixel selection section 4 1 1 1 2 selects a set of pixels for 2.5 degree
  • Section 4 1 1—3 selects a set of pixels for 5 degrees.
  • the pixel selection section 4 1 1 1 1 to the pixel selection section 4 1 1-L are for angles from 7.5 degrees to 45 degrees, from 135 degrees to 180 degrees, every 2.5 degrees. Select a set of pixels.
  • each of the pixel selection units 4 1 1 1 1 1 to 3 to L is a pixel selection unit that converts the set of selected pixels to an estimation error calculation unit 4 1 2-3 to an estimation error calculation unit 4 1 2 1 Supply to each of L.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are used for a plurality of sets supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation sections 4 1 2-1 to 4 1-2 -L supply information indicating the detected correlation to the minimum error angle selection section 4 13.
  • the minimum error angle selection section 4 13 3 is configured to calculate the missing optical signal of the real world 1 based on the correlations detected by the estimation error calculation sections 4 1 2-1 to 4 1 2-L. Detects the continuity angle of the data with respect to the reference axis in the input image corresponding to the continuity.
  • step S101 the data continuity detection unit 101 shown in FIG. 72 and configured to detect the continuity of data corresponding to the processing of step S101. The processing will be described.
  • step S401 the activity detector 401 and the data selector
  • Step 402 selects a target pixel, which is a target pixel, from the input image.
  • the activity detection unit 401 and the data selection unit 402 select the same target pixel.
  • the activity detection unit 401 and the data selection unit 402 select a pixel of interest from the input image in raster scan order.
  • the activity detection unit 401 detects an activity for the target pixel. For example, the activity detecting unit 401 detects a difference between pixel values of pixels arranged in a vertical direction and a pixel value of pixels arranged in a horizontal direction of a block composed of a predetermined number of pixels centered on a target pixel. , Detect activity.
  • the activity detection unit 410 detects the activity in the spatial direction with respect to the pixel of interest, and supplies the activity information indicating the detection result to the data selection unit 402 and the steady direction derivation unit 410. .
  • the data selection unit 402 selects a predetermined number of pixels centered on the target pixel as a set of pixels from the column of pixels including the target pixel.
  • the data selection unit 402 is a pixel belonging to one vertical or horizontal pixel row to which the target pixel belongs, and a predetermined number of pixels above or to the left of the target pixel, and a target pixel.
  • a predetermined number of pixels on the lower side or the right side and the target pixel are selected as a set of pixels.
  • the data selection unit 402 determines a predetermined number of images for each angle in a predetermined range based on the activity detected in the processing in step S402.
  • a predetermined number of pixels are selected from the elementary column as a set of pixels. For example, the data selection unit 402 sets a straight line passing through the pixel of interest using the axis indicating the spatial direction X as a reference axis, having an angle in a predetermined range, and Select pixels that are one or two rows apart in the vertical or vertical direction and are closest to the straight line, and a predetermined number of pixels above or to the left of the selected pixel, and below or below the selected pixel. A predetermined number of pixels on the right side and selected pixels closest to the line are selected as a set of pixels.
  • the data selection unit 402 selects a set of pixels for each angle.
  • the data selection unit 402 supplies the selected pixel set to the error estimation unit 403.
  • the error estimator 403 calculates a correlation between a set of pixels centered on the target pixel and a set of pixels selected for each angle. For example, the error estimator 403 calculates, for each angle, the sum of the absolute value of the difference between the pixel value of the pixel of the group including the target pixel and the pixel value of the pixel at the corresponding position in the other group.
  • the continuity angle of the data may be detected based on the mutual correlation of a set of pixels selected for each angle.
  • the error estimating unit 403 supplies information indicating the calculated correlation to the stationary direction deriving unit 404.
  • step S ⁇ b> 406 the stationary direction deriving unit 404, based on the correlation calculated in the processing of step S ⁇ b> 405, starts from the position of the set of pixels having the strongest correlation, The angle of the continuity of the data with respect to the reference axis in the input image, which is the image data, corresponding to the continuity of the optical signal is detected.
  • the stationary direction deriving unit 404 selects the minimum sum of the absolute values of the pixel value differences, and determines the data continuity from the position of the set of pixels for which the selected sum was calculated. Detect angle 0.
  • the stationary direction deriving unit 404 outputs data continuity information indicating the continuity angle of the detected data.
  • step S407 the data selection unit 402 determines whether or not processing of all pixels has been completed. If it is determined that processing of all pixels has not been completed, step S404 0 Return to 1 and start from the pixel that has not been selected as the pixel of interest JP2004 / 001488
  • step S407 If it is determined in step S407 that the processing of all pixels has been completed, the processing ends.
  • the data continuity detection unit 101 can detect the continuity angle of the data with respect to the reference axis in the image data corresponding to the continuity of the missing optical signal of the real world 1. it can.
  • the data detection unit 101 shown in FIG. 72 detects the activity in the spatial direction of the input image with respect to the pixel of interest, which is the pixel of interest, of the frame of interest, which is the frame of interest.
  • the angle of the pixel of interest with respect to the reference axis in the spatial direction, and the vertical direction from the frame of interest and the frame temporally before or after the frame of interest for each motion vector A plurality of pixel pairs consisting of a predetermined number of pixels in one row in the horizontal direction or one row in the horizontal direction are extracted, the correlation between the extracted pixel sets is detected, and the input image is detected based on the correlation.
  • the continuity angle of the data in the time direction and the space direction may be detected.
  • the data selection unit 402 selects, based on the detected activity, an angle with respect to the pixel of interest and the reference axis in the spatial direction, and a motion vector. From each of frame #n, frame # n-1 and frame # n + l, a plurality of pixel sets consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted.
  • Frame -1 is a frame temporally before frame #n
  • frame # n + l is a frame temporally subsequent to frame #n. That is, frame #n_l, frame #n, and frame # n + l are displayed in order of frame # n-1, frame, and frame.
  • the error estimator 403 detects the correlation of the pixel set for each of one angle and one motion vector for a plurality of sets of extracted pixels.
  • the stationary direction deriving unit 404 responds to the continuity of the missing optical signal of the real world 1 based on the correlation of the set of pixels. It detects the continuity angle of the data in the time direction and the spatial direction in the input image, and outputs data continuity information indicating the angle.
  • FIG. 81 is a block diagram showing another more detailed configuration of the data continuity detector 101 shown in FIG.
  • the same portions as those shown in FIG. 76 are denoted by the same reference numerals, and description thereof will be omitted.
  • the data selection section 402 includes a pixel selection section 42-1-1 to a pixel selection section 4221-L.
  • the error estimating section 4003 includes an estimation error calculating section 42-21-1 to an estimation error calculating section 4221-L.
  • a set of pixels consisting of a number of pixels for the angle range is extracted, and a set of pixels for the angle range is extracted.
  • the set of correlations is detected, and the continuity angle of the data with respect to the reference axis in the input image is detected based on the detected correlation.
  • the data continuity angle is 4 5 times to 1 3 pixel selecting unit when a value of either 5 ° 4 2 1 - 1 through pixel selecting unit 4 2 1 -L of The processing will be described.
  • a set of pixels consisting of a fixed number of pixels does not depend on the angle of the set straight line.
  • the data is extracted from a number of pixels corresponding to the angle range of the set straight line. Are extracted.
  • a set of pixels is extracted by the number corresponding to the set range of the angle of the straight line.
  • the pixel selection units 4 2 1-1 to 4 2 1-L pass through the pixel of interest with the axis indicating the spatial direction X in the range of 45 degrees to 135 degrees passing through the pixel of interest. Set straight lines at different predetermined angles.
  • the pixel selection units 4 2 1-1 to 4 2 1-L are pixels belonging to one vertical pixel column to which the pixel of interest belongs, and are within the range of the angle of the straight line set for each pixel. A corresponding number of pixels above the pixel of interest, pixels below the pixel of interest, and pixels of interest are selected as a set of pixels.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1—L are located at a predetermined distance in the horizontal direction based on the pixel with respect to one vertical pixel row to which the pixel of interest belongs. And the pixels that belong to one vertical column of pixels on the right side and that are closest to the straight line set for each pixel are selected. , The number of pixels above the selected pixel, the number of pixels below the selected pixel, and the number of selected pixels as a set of pixels according to the range of the angle of the set straight line .
  • the pixel selection units 42-1-1 to 42-1-L select a number of pixels according to the set angle range of the straight line as a set of pixels.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1-L select a set of pixels in a number according to the set range of the angle of the straight line.
  • the set of pixels includes the same number of pixels
  • the thin line is located at an angle of approximately 45 degrees with respect to the spatial direction X
  • the number of pixels on which the image of the thin line is projected is small in the set of pixels. And the resolution will be reduced.
  • processing is performed on some of the pixels on which the fine line image is projected in the set of pixels, Accuracy may be reduced.
  • the pixel selection unit 4 is set so that the pixels projected with the thin line image are almost equal.
  • the straight line to be set is closer to the spatial direction X by an angle of 45 degrees, the number of pixels included in each pixel set is reduced, and the pixel selection unit 4 2 1—L If the number of pairs of pixels is increased and the line to be set is closer to the direction perpendicular to the spatial direction X, the number of pixels included in each pixel pair is increased, and the number of pixel pairs is reduced. Select a set of pixels or pixels.
  • the pixel selection unit 4 2 1-1 to the pixel selection unit 4 2 1-L have an angle of a set straight line of 45 degrees or more and 6 3.
  • the pixel of interest is shifted vertically from one pixel column to the center of the pixel of interest. Pixels are selected as a set of pixels, and the pixels belonging to one vertical pixel row on the left and right sides within 5 pixels in the horizontal direction with respect to the target pixel are respectively Select five pixels as a set of pixels.
  • the pixel selection units 4 2 1-1 to 4 2 1-L Select a set of 11 pixels, each consisting of 5 pixels.
  • the pixel selected as the pixel closest to the set straight line is located 5 to 9 pixels vertically away from the target pixel.
  • the number of columns indicates the number of columns of pixels to which a pixel is selected as a pixel set on the left or right side of the target pixel.
  • the number of pixels in one column is determined by the number of pixels selected as a set of pixels from a column of pixels vertically or a column on the left or right side of the pixel of interest.
  • the pixel selection range indicates the vertical position of the selected pixel as the pixel closest to the set straight line with respect to the target pixel.
  • the pixel selection unit 4 2 1—1 has one pixel column vertically with respect to the pixel of interest. From the above, the five pixels centered on the pixel of interest are selected as a set of pixels, and one vertical column on the left side and right side within 5 pixels horizontally from the pixel of interest. Row of pixels 5 pixels are selected as a set of pixels from the pixels belonging to. That is, the pixel selection unit 42-1-1 selects a set of 11 pixels, each including 5 pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 5 pixels vertically away from the pixel of interest .
  • a square represented by a dotted line (one square separated by a dotted line) represents one pixel, and a square represented by a solid line represents a set of pixels.
  • the coordinates of the target pixel in the spatial direction X are set to 0, and the coordinates of the target pixel in the spatial direction Y are set to 0.
  • a hatched square indicates a pixel closest to the target pixel or the set straight line.
  • squares represented by thick lines indicate a set of pixels selected with the target pixel as the center.
  • the pixel selection unit 4 2 1-2 vertically shifts the pixel of interest by one column From the column of, the five pixels centered on the pixel of interest are selected as a set of pixels, and the pixels of one column vertically on the left and right sides within 5 pixels in the horizontal direction with respect to the pixel of interest From the pixels belonging to the column, each of the five pixels is selected as a pixel set. That is, the pixel selection unit 4 2 1-2 selects a set of 11 pixels, each consisting of 5 pixels, from the input image. In this case, of the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 9 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 21-1 to the pixel selection unit 4 21 1 -L have an angle of the set straight line of 63.4 degrees or more.
  • the pixel of interest is shifted from one pixel column vertically to the center of the pixel of interest.
  • the selected 7 pixels are selected as a set of pixels, and the pixels belonging to one vertical pixel column on the left side and right side within a distance of 4 pixels in the horizontal direction with respect to the target pixel , 7 pixels Is selected as a set of pixels.
  • the pixel selection units 4 2 1-1 to 4 2 1-L From the image, select a set of nine pixels, each consisting of seven pixels. In this case, the vertical position of the pixel closest to the set straight line is 8 pixels to 11 pixels with respect to the target pixel.
  • the pixel selection unit 4 2 1-3 vertically shifts the pixel of interest by one column with respect to the pixel of interest. From the column of, select the seven pixels centered on the pixel of interest as a set of pixels, and set one column vertically on the left side to the right side within 4 pixels away from the pixel of interest. From each of the pixels belonging to the pixel column, seven pixels are selected as a pixel set. That is, the pixel selection unit 4 2 1-3 selects a set of nine pixels, each consisting of seven pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 8 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 21 1-4 From the pixel column of, select seven pixels centered on the pixel of interest as a set of pixels, and one column vertically and horizontally on the left and right within 4 pixels from the pixel of interest. Each of the seven pixels is selected as a pixel set from the pixels belonging to the pixel column of. That is, the pixel selection unit 4 2 1-4 selects a set of nine pixels, each consisting of seven pixels, from the input image. In this case, of the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located at a position vertically 11 pixels away from the pixel of interest. It is in.
  • the pixel selection unit 4 2 1-1 to the pixel selection unit 4 2 1-L have a set straight line angle of 71.6 degrees.
  • the pixel of interest When it is within the range of less than 76.0 degrees (the range indicated by C in FIGS. 83 and 84), the pixel of interest
  • nine pixels centered on the target pixel are selected as a set of pixels from one vertical column of pixels, and the target pixel is horizontally located within 3 pixels from the left side.
  • Nine pixels are selected as a set of pixels from the pixels belonging to one vertical pixel column on the right side.
  • the pixel selection unit 4 2 1-1 to pixel selection unit 4 2 1-L From, select a set of 7 pixels, each consisting of 9 pixels.
  • the vertical position of the pixel closest to the set straight line is 9 pixels to 11 pixels with respect to the target pixel.
  • the pixel selection unit 4 2 1-5 vertically shifts the pixel of interest by one column with respect to the target pixel. From the column of, the nine pixels centered on the pixel of interest are selected as a set of pixels, and the pixels of one column vertically and on the left and right sides within 3 pixels in the horizontal direction with respect to the pixel of interest Nine pixels are selected as a set of pixels from the pixels belonging to the column. That is, the pixel selection section 4 2 1-5 selects a set of seven pixels, each consisting of nine pixels, from the input image. In this case, of the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 9 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 2 1-6 vertically aligns the pixel of interest with one column.
  • Nine pixels centered on the pixel of interest are selected as a set of pixels from the column of pixels, and one column vertically and horizontally on the left and right within a distance of 3 pixels or less from the pixel of interest.
  • Nine pixels are selected as a set of pixels from the pixels belonging to the pixel column. That is, the pixel selection section 4 2 1-6 selects a set of seven pixels, each consisting of nine pixels, from the input image.
  • the pixel farthest from the pixel of interest is located at a position vertically 11 pixels away from the pixel of interest. It is in.
  • the pixel selection unit 42 1 _ 1 to the pixel selection unit 42 1-L have a set straight line angle of 76.0 degrees.
  • the pixel of interest is shifted from one vertical column of pixels to the center of the pixel of interest.
  • the selected 11 pixels are selected as a set of pixels, and the pixels belonging to one vertical pixel column on the left side and right side within a distance of 2 pixels or less from the pixel of interest are In each case, 11 pixels are selected as a set of pixels. That is, when the angle of the set straight line is in the range of 76.0 degrees or more and 87.7 degrees or less, the pixel selection units 4 2 1-1 to 4 2 1-L Select a set of five pixels, each consisting of 11 pixels. In this case, the vertical position of the pixel closest to the set straight line is 8 to 50 pixels with respect to the target pixel.
  • the pixel selection unit 4 2 1—7 is arranged so that the pixel of interest is one column vertically aligned with the pixel of interest. From the column of, select the 11 pixels centered on the pixel of interest as a set of pixels, and the pixels in the vertical column on the left and right sides within 2 pixels horizontally from the pixel of interest From each of the pixels belonging to the column, 11 pixels are selected as a set of pixels. That is, the pixel selection unit 4 2 1-7 selects a set of five pixels, each consisting of 11 pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 8 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 2 1-8 vertically extends one column with respect to the pixel of interest. From the column of pixels, select the 11 pixels centered on the pixel of interest as a set of pixels, and set the left and right vertical positions within 2 pixels horizontally from the pixel of interest. Then, 11 pixels are selected as a pixel set from the pixels belonging to one pixel column. That is, the pixel selection unit 4 2 1-8 selects a set of 5 pixels each consisting of 11 pixels from the input image. In this case, the position closest to the set straight line Among the selected pixels, the pixel farthest from the pixel of interest is located 50 pixels vertically away from the pixel of interest.
  • each of the pixel selection units 4 2 1-1 to 4 2 1-L includes a predetermined number of pixels corresponding to the angle range, each including a predetermined number of pixels corresponding to the angle range. Select the set of
  • the pixel selection unit 4 2 1-1 supplies the selected pixel pair to the estimation error calculation unit 4 2 2-1, and the pixel selection unit 4 2 1-2 converts the selected pixel pair to the estimation error calculation unit 4 2 2-2 Similarly, each of the pixel selection sections 4 2 1-3 to 4 2 1-L converts the selected pixel set into an estimation error calculation section 4 2 2-3 to an estimation error calculation section 4 2 1 Supply to each of L.
  • the estimation error calculation unit 4 2 2-1 to the estimation error calculation unit 4 2 2-L include a plurality of sets supplied from any of the pixel selection units 4 2 1 1 1 to 4 2 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation unit 4 2 2 1 1 to the estimation error calculation unit 4 2 2-L are the pixel of interest supplied from any of the pixel selection units 4 2 1 1 1 to 4 2 1-L.
  • the sum of the absolute value of the difference between the pixel value of the pixel set including the pixel set and the pixel value of the pixel at the corresponding position in the other pixel set is calculated. Divide the calculated sum by the number of included pixels. Dividing the calculated sum by the number of pixels included in the group other than the group including the pixel of interest indicates the correlation because the number of pixels selected varies depending on the angle of the set straight line. This is to normalize the value.
  • the estimation error calculation units 4 2 2-1 to 4 2 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the processing of the 1 to pixel selection unit 4 2 1-L will be described.
  • the pixel selection unit 4 2 1-1 to the pixel selection unit 4 2 1-L have a range of 0 to 45 degrees or 135 to 180 degrees, with an axis indicating the spatial direction X as a reference axis, Straight lines passing through the pixel of interest and having predetermined angles different from each other are set.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1—L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs, and are numbers corresponding to the angle range of the set straight line.
  • the pixel on the left side of the pixel of interest, the pixel on the right side of the pixel of interest, and the pixel of interest are selected as a set of pixels.
  • the pixel selecting unit 4 2 1 1 1 to the pixel selecting unit 4 2 1-L are located at a predetermined distance in the vertical direction based on the pixel with respect to one horizontal row of pixels to which the pixel of interest belongs. A pixel belonging to a row of one row of pixels on the lower side and which is located closest to the set straight line is selected. Pixels to the left of the selected pixel, pixels to the right of the selected pixel, and selected pixels are selected as a set of pixels according to the range of the set angle of the straight line.
  • the pixel selection units 42-1-1 to 42-1-L select a number of pixels according to the set angle range of the straight line as a set of pixels.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1-L select a set of pixels in a number according to the set range of the angle of the straight line.
  • the pixel selection unit 4 2 1-1 supplies the selected pixel pair to the estimation error calculation unit 4 2 2-1, and the pixel selection unit 4 2 1-2 converts the selected pixel pair to the estimation error calculation unit 4 2 2-2 Similarly, each of the pixel selection sections 4 2 1 1 to 3 to the pixel selection section 4 2 1 -L converts the selected set of pixels into an estimation error calculation section 4 2 2-3 to an estimation error calculation section 4 2 2 — Supply to each of L.
  • the estimation error calculation unit 4 2 2-1 to the estimation error calculation unit 4 2 2-L include a plurality of sets supplied from any of the pixel selection units 4 2 1 1 1 to 4 2 1 1 L. The correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation units 4 2 2-1 to 4 2 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the data continuity detection unit 101 shown in FIG. 81 corresponding to the processing of step S101 detects the continuity of data. The processing will be described.
  • step S421 and step S422 is the same as the processing in step S401 and step S402, and a description thereof will be omitted.
  • the data selecting unit 402 selects a pixel of interest from the pixel row including the pixel of interest for each angle within a predetermined range with respect to the activity detected in step S 422.
  • the number of pixels defined for the range of angles at the center is selected as a set of pixels.
  • the data selection unit 402 is a pixel that belongs to one vertical or horizontal pixel row to which the pixel of interest belongs, and has a number of pixels determined by the angle range with respect to the angle of the straight line to be set.
  • the pixel above or to the left of the pixel of interest, the pixel below or to the right of the pixel of interest, and the pixel of interest are selected as a set of pixels.
  • step S424 the data selection unit 402 determines, for each of a predetermined range of angles based on the activity detected in the processing of step S422, a predetermined number of angles for the angle range. From a row of pixels, a specified number of surface elements for an angle range are selected as a set of pixels. For example, the data selection unit 402 sets a straight line passing through the pixel of interest with an axis having a predetermined range and an axis indicating the spatial direction X as a reference axis, and the horizontal or vertical direction with respect to the pixel of interest.
  • a pixel that is a predetermined distance away from the range of the angle of the straight line to be set and that is closest to the straight line is selected, and the pixel above or to the left of the selected pixel is selected for the range of the angle of the straight line to be set.
  • the number of pixels, the number of pixels below or to the right of the selected pixel and within the range of the angle of the straight line to be set, and the pixel closest to the selected line are selected as a set of pixels.
  • the data selection unit 402 selects a set of pixels for each angle.
  • the data selection unit 402 supplies the selected pixel set to the error estimation unit 403.
  • the error estimator 403 calculates a correlation between a set of pixels centered on the target pixel and a set of pixels selected for each angle. For example, the error estimator 403 calculates the pixel value of the pixel of the set including the target pixel and the image of the corresponding position in the other set.
  • the correlation is calculated by calculating the sum of the absolute values of the differences between the elementary pixel values and dividing the sum of the absolute values of the differences between the pixel values by the number of pixels belonging to another group.
  • the continuity angle of the data may be detected based on the mutual correlation of a set of pixels selected for each angle.
  • the error estimating unit 403 supplies information indicating the calculated correlation to the stationary direction deriving unit 404.
  • step S 426 and step S 427 is the same as the processing in step S 406 and step S 407, and a description thereof will be omitted.
  • the data continuity detecting unit 101 more accurately calculates the continuity angle of the data with respect to the reference axis in the image data corresponding to the continuity of the missing optical signal of the real world 1. Can be detected with higher accuracy.
  • the data continuity detector 101 whose configuration is shown in Fig. 81, is especially useful when the continuity angle of the data is around 45 degrees. Can be evaluated, so that the continuity angle of the data can be detected with higher accuracy.
  • the pixel of interest which is the pixel of interest, in the spatial direction of the input image is An activity is detected, and an angle based on the detected pixel and the reference axis in the spatial direction is determined based on the detected activity, and, for each motion vector, a frame of interest and a frame temporally preceding or succeeding the frame of interest. From each of them, a set of pixels consisting of one row in the vertical direction or one row in the horizontal direction and having the number of pixels specified for the spatial angle range is determined by the number specified for the spatial angle range. As shown in FIG.
  • FIG. 9 is a block diagram showing still another configuration of the data continuity detecting unit 101.
  • a block consisting of a predetermined number of pixels, centered on the pixel of interest, and a plurality of blocks around the pixel of interest, each consisting of a predetermined number of pixels, are extracted.
  • the correlation between the center block and the surrounding blocks is detected, and the degree of stationarity of the data with respect to the reference axis in the input image is detected based on the correlation.
  • the data selection unit 441 selects a pixel of interest from the pixels of the input image in order, and a block composed of a predetermined number of pixels centered on the pixel of interest, and a predetermined number of pixels around the pixel of interest. A plurality of blocks are extracted, and the extracted blocks are supplied to the error estimating unit 442.
  • the data selection unit 441 generates a block of 5 ⁇ 5 pixels centered on the pixel of interest, from the periphery of the pixel of interest, for each predetermined angle range with respect to the pixel of interest and the reference axis, Extract two blocks of 5 x 5 pixels.
  • the error estimator 442 detects the correlation between the block around the pixel of interest and the block around the pixel of interest supplied from the data selector 441, and correlation information indicating the detected correlation. Is supplied to the stationary direction deriving unit 4 4 3.
  • the error estimator 4 4 2 includes, for each angle range, a block of 5 ⁇ 5 pixels centered on the pixel of interest, and two blocks of 5 ⁇ 5 pixels corresponding to one angle range. For, the correlation between pixel values is detected.
  • the continuity direction deriving unit 443 Based on the correlation information supplied from the error estimating unit 442, the continuity direction deriving unit 443 detects the optical signal of the real world 1 that is missing from the position of the block around the pixel of interest, which has the strongest correlation. Detects the continuity angle of the data with respect to the reference axis in the input image corresponding to the continuity of, and outputs data continuity information indicating the angle. For example, based on the correlation information supplied from the error estimating unit 442, the stationary direction deriving unit 443 has the strongest correlation with the block composed of 5X5 pixels centering on the target pixel. The angle range for two blocks of 5 pixels is detected as the data continuity angle, and data continuity information indicating the detected angle is output.
  • FIG. 95 is a block diagram showing a more detailed configuration of the data continuity detector 101 shown in FIG. FIG.
  • the data selection section 441 includes a pixel selection section 461-1 to a pixel selection section 461-1L.
  • the error estimating section 442 includes an estimation error calculating section 462-1 to an estimation error calculating section 4621-L.
  • the stationary direction deriving unit 443 includes a minimum error angle selecting unit 463.
  • the data selection unit 441 is provided with pixel selection units 46 1-1 to 46 1-18.
  • the error estimating unit 442 is provided with an estimated error calculating unit 462-1 through an estimated error calculating unit 462-2-8.
  • Each of the pixel selection unit 461-1 to the pixel selection unit 4611-L is a block composed of a predetermined number of pixels centered on the pixel of interest, and a predetermined block based on the pixel of interest and the reference axis. Extract two blocks consisting of a predetermined number of pixels corresponding to the angle range of.
  • FIG. 96 is a diagram for describing an example of a block of 5 ⁇ 5 pixels extracted by the pixel selection units 46 1-1 to 46 1 -L.
  • the center position in FIG. 96 indicates the position of the pixel of interest.
  • a block of 5 ⁇ 5 pixels is an example, and the number of pixels included in the block does not limit the present invention.
  • the pixel selection unit 46-1-1 extracts a 5 ⁇ 5 pixel block centered on the pixel of interest, and outputs 0 to 18.4 degrees and 161.6 to 18 degrees.
  • a block of 5 X 5 pixels (indicated by A in Fig. 96) centered on the pixel located 5 pixels to the right and extracted, A 5 x 5 pixel block (indicated by A 'in Fig. 96) is extracted with the pixel at the position shifted 5 pixels to the left from the target pixel.
  • the pixel selection section 46-1-1 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation section 4621-2.
  • the pixel selection unit 4 6 1-2 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts a block of the pixel of interest corresponding to the range of 18.4 degrees to 33.7 degrees. Then, a block of 5 ⁇ 5 pixels (indicated by B in FIG. 96) centering on the pixel at the position shifted 10 pixels to the right and 5 pixels to the upper side is extracted. On the left A block of 5 X 5 pixels (indicated by B 'in Fig. 96) is extracted, centering on the pixel at the position shifted 10 pixels downward and 5 pixels downward.
  • the pixel selection unit 461-2 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation unit 462-2.
  • the pixel selection unit 4 6 1 ⁇ 3 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts a block of the pixel of interest corresponding to the range of 33.7 degrees to 56.3 degrees. Then, extract a block of 5 X 5 pixels (shown by C in Fig. 96) centering on the pixel at the position shifted 5 pixels to the right and 5 pixels to the upper side. Then, a block of 5 x 5 pixels (indicated by C in Fig. 96) is extracted, centering on the pixel at the position shifted 5 pixels downward.
  • the pixel selection unit 461-3 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation unit 462-3.
  • the pixel selection unit 4 6 1-4 extracts a block of 5 ⁇ 5 pixels centering on the pixel of interest, and extracts a block of the pixel of interest corresponding to the range of 56.3 degrees to 71.6 degrees. Then, extract a block of 5 X 5 pixels (shown by D in Fig. 96) centering on the pixel at the position shifted by 5 pixels to the right and 10 pixels to the upper side. A 5 ⁇ 5 pixel block (indicated by D 'in Fig. 96) is extracted, centered on the pixel at the position shifted 5 pixels to the left and 10 pixels down.
  • the pixel selection unit 461-4 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-4.
  • the pixel selector 4 6 1-5 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts the block of interest corresponding to the range from 71.6 degrees to 108.4 degrees.
  • a 5 x 5 pixel block (indicated by E in Fig. 96) is extracted, centered on the pixel at the position shifted 5 pixels upward, and shifted 5 pixels downward with respect to the target pixel. Extract a 5 x 5 pixel block (indicated by E 'in Fig. 96) centering on the pixel at the position.
  • the pixel selection unit 461-5 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-2-5.
  • the pixel selection unit 4 6 1-6 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts the pixel of interest corresponding to the range from 108.4 to 123.7 degrees. Of the pixel at the position shifted 5 pixels to the left and 10 pixels upward. Also, a block of 5 X 5 pixels (indicated by F in Fig. 96) is extracted, and the pixel at the position shifted by 5 pixels to the right and 10 pixels to the lower side with respect to the target pixel is the center. , A 5 ⁇ 5 pixel block (indicated by F ′ in FIG. 96) is extracted. The pixel selection unit 46 1-6 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation unit 46 2-6.
  • the pixel selection unit 4 6 1-7 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts the pixel of interest corresponding to the range of 12.7 to 14.3 degrees. Then, a 5 X 5 pixel block (shown by G in Fig. 96) is extracted, centered on the pixel at the position shifted 5 pixels to the left and shifted 5 pixels to the upper side. Then, a block of 5 X 5 pixels (indicated by G 'in Fig. 96) is extracted, centering on the pixel at the position shifted 5 pixels to the right and 5 pixels down.
  • the pixel selection unit 461-7 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-2-7.
  • the pixel selection section 4 6 1-8 extracts a 5 ⁇ 5 pixel block centered on the pixel of interest, and the pixel of interest corresponding to the range from 14.6.3 degrees to 16.16 degrees. Then, a 5 x 5 pixel block (indicated by H in Fig. 96) is extracted, centered on the pixel at the position shifted 10 pixels to the left and 5 pixels to the upper side. On the other hand, a block of 5 X 5 pixels (indicated by H 'in Fig. 96) centering on the pixel at the position shifted 10 pixels to the right and shifted 5 pixels to the lower side is extracted.
  • the pixel selection unit 461-8 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-2-8.
  • a block composed of a predetermined number of pixels centered on the target pixel is referred to as a target block.
  • a block composed of a predetermined number of pixels corresponding to a range of a predetermined angle based on the target pixel and the reference axis is referred to as a reference block.
  • the pixel selection units 46-1 to 1 through 8 select, for example, a block of interest and a reference block from a range of 25 ⁇ 25 pixels around the pixel of interest. Extract.
  • the estimation error calculation unit 4 62-1 to the estimation error calculation unit 4 62-L are the target block and two references supplied from the pixel selection unit 4 611-1 to 4 6 1-L.
  • the correlation with the block is detected, and correlation information indicating the detected correlation is supplied to the minimum error angle selection unit 463.
  • the estimation error calculating unit 462-1 includes a block of interest including 5 ⁇ 5 pixels centered on the pixel of interest, and 0 to 18.4 degrees and 161.6 to 180 degrees. Pixels included in the block of interest with reference to a 5 x 5 pixel reference block centered on the pixel located 5 pixels to the right of the pixel of interest extracted corresponding to the 0 degree range The absolute value of the difference between the pixel value of and the pixel value of the pixel included in the reference block is calculated.
  • the estimation error calculation unit 462-2-1 sets the pixel value of the pixel of interest based on the position where the center pixel of the block of interest and the center pixel of the reference block overlap.
  • the position of the block of interest with respect to the reference block is either 2 pixels on the left or 2 pixels on the right, and 2 pixels on the upper side. Calculate the absolute value of the difference between the pixel values of the pixels at the position where they overlap when one of the two pixels is moved downward. That is, the absolute value of the difference between the pixel values of the pixels at the corresponding positions in the 25 types of positions of the target block and the reference block is calculated. In other words, when the absolute value of the difference between the pixel values is calculated, the range including the relatively shifted target block and the reference block is 9 ⁇ 9 pixels.
  • FIG. 97 squares indicate pixels, A indicates a reference block, and B indicates an attention block.
  • the bold line indicates the target pixel. That is, FIG. 97 is a diagram illustrating an example in which the target block moves two pixels to the right and one pixel to the upper side with respect to the reference block.
  • the estimation error calculation unit 462-1-1 includes a block of interest consisting of 5 ⁇ 5 pixels centered on the pixel of interest, and 0 to 18.4 degrees and 161.6 to 180 degrees. Position shifted 5 pixels to the left from the pixel of interest extracted corresponding to the 0 degree range The absolute value of the difference between the pixel value of the pixel included in the block of interest and the pixel value of the pixel included in the reference block is calculated for a reference block of 5 ⁇ 5 pixels centered on the pixel in.
  • the estimation error calculation unit 462-2-1 finds the sum of the calculated absolute values of the differences, and supplies the sum of the absolute values of the differences to the minimum error angle selection unit 463 as correlation information indicating the correlation. Pay.
  • the estimation error calculation unit 4 62-2 includes two reference blocks of 5 X 5 pixels extracted corresponding to a target block of 5 X 5 pixels and a range of 18.4 degrees to 33.7 degrees. With respect to the block, the absolute value of the difference between the pixel values is calculated, and further, the sum of the absolute values of the calculated differences is calculated.
  • the estimation error calculator 462-1 supplies the sum of absolute values of the calculated differences to the minimum error angle selector 463 as correlation information indicating the correlation.
  • each of the estimated error calculating unit 4 6 2 3 to the estimated error calculating unit 4 6 2 a target block of 5 X 5 pixels, which is extracted in response to a predetermined range of angles, 5
  • the absolute value of the difference between the pixel values of the two reference blocks of X5 pixels is calculated, and the sum of the absolute values of the calculated differences is calculated.
  • Each of the estimation error calculation unit 4 62-3 to the estimation error calculation unit 4 62-8 supplies the sum of the absolute values of the calculated differences to the minimum error angle selection unit 4 63 as correlation information indicating the correlation. I do.
  • the minimum error angle selection unit 463 is the sum of the absolute values of the pixel value differences as the correlation information supplied from the estimation error calculation units 462-1 to 462-2-8. From the position of the reference block showing the strongest correlation and obtaining the minimum value, the angle with respect to the two reference blocks is detected as the data continuity angle, and data continuity information indicating the detected angle is output.
  • the approximation function f (x) can be expressed by equation (30).
  • f (x) WQX ⁇ W ⁇ " -1 + ⁇ , + W n _iX + W N
  • indicates a ratio of a change in the position in the spatial direction X to a change in the position in the spatial direction Y.
  • is also referred to as a shift amount.
  • FIG. 98 shows the case where the distance in the spatial direction X between the position of the target pixel and the straight line having an angle of 0 is 0, that is, when the straight line passes through the target pixel, the positions of the pixels around the target pixel and the angle
  • FIG. 9 is a diagram illustrating a distance in a spatial direction X from a straight line having 0.
  • the position of the pixel is the position of the center of the pixel.
  • the distance between the position and the straight line is indicated by a negative value when the position is on the left side of the straight line, and is indicated by a positive value when the position is on the right side of the straight line.
  • the position of the pixel adjacent to the right side of the pixel of interest that is, the position where the coordinate X in the spatial direction X increases by 1, and the distance in the spatial direction X from the straight line having the angle ⁇ are 1, and the distance to the left of the pixel of interest is
  • the distance in the spatial direction X between the position of the adjacent pixel, that is, the position where the coordinate X in the spatial direction X decreases by 1 and the straight line having the angle of 0 is 11.
  • the position of the pixel adjacent above the target pixel that is, the position where the coordinate y in the spatial direction ⁇ ⁇ increases by 1
  • the distance in the spatial direction X between the position and the straight line having the angle ⁇ is ⁇
  • the position of the pixel adjacent to the lower side of the target pixel that is, the position where the coordinate y in the spatial direction ⁇ decreases by 1, and the angle ⁇
  • the distance in the spatial direction X from the straight line having is ⁇ .
  • FIG. 99 is a diagram showing the relationship between the shift amount ⁇ and the angle 6.
  • FIG. 100 is a diagram showing a distance in the spatial direction X between a position of a pixel around the target pixel and a straight line passing through the target pixel and having an angle ⁇ with respect to the shift amount ⁇ .
  • the one-dot chain line rising to the right indicates the distance in the spatial direction X between the position of the pixel adjacent to the lower side of the target pixel and the straight line with respect to the shift amount ⁇
  • the one-dot chain line falling to the left Indicates the distance in the spatial direction X between the position of the pixel adjacent above the target pixel and the straight line with respect to the shift amount ⁇ .
  • the two-dot chain line rising to the right is the distance in the spatial direction X between the position of the pixel located one pixel to the left and two pixels below the target pixel and the straight line with respect to the shift amount ⁇ .
  • the two-dot chain line at the lower left indicates the distance in the spatial direction X between the position of the pixel located two pixels above and one pixel to the right of the target pixel and the straight line with respect to the shift amount ⁇ .
  • the three-dot chain line rising to the right indicates the distance in the spatial direction X between the position of the pixel located one pixel below and one pixel left of the target pixel and the straight line with respect to the shift amount 0 /.
  • the three-dot chain line at the lower left indicates the distance in the spatial direction X between the position of the pixel located one pixel above and one pixel to the right of the target pixel and the straight line with respect to the shift amount ⁇ . From FIG. 100, it can be seen that the pixel having the smallest distance with respect to the shift amount ⁇ .
  • the distance from the pixel adjacent above the target pixel and the pixel adjacent to the lower side of the target pixel to the straight line is the minimum. That is, when the angle ⁇ is 71.6 degrees to 90 degrees, the distance from the pixel adjacent above the target pixel and the pixel adjacent below the target pixel to the straight line is the minimum.
  • the pixel located two pixels above the target pixel, one pixel to the right, and two pixels below the target pixel The distance from the pixel located on the left side of the pixel to the straight line is the minimum, that is, when the angle 6 is 56.3 degrees to 71.6 degrees, the pixel is 2 pixels above the target pixel and 1
  • the distance between the pixel located on the right side of the pixel and the pixel located on the left side of one pixel and two pixels below the target pixel is the shortest to the straight line.
  • the shift amount ⁇ is 2/3 to 1
  • the distance from the pixel located on the elementary left side to the straight line is the smallest. That is, when the angle 6 is between 45 degrees and 56.3 degrees, the pixel located one pixel above the pixel of interest, one pixel to the right of the pixel of interest, and one pixel below the pixel of interest The distance from the pixel located one pixel to the left to the straight line is the smallest.
  • the pixels shown in FIG. 98 can be replaced with the target block and the reference block, and the distance in the spatial direction X between the reference block and the straight line can be considered.
  • FIG. 101 shows a reference V that passes through the pixel of interest and has a minimum distance from a straight line having an angle of 0 with respect to the axis in the spatial direction X.
  • a to H and A 'to H' in FIG. 101 show the reference blocks of A to H and A 'to H' in FIG.
  • a straight line passing through the pixel of interest and having an angle 6 of any of 0 to 18.4 degrees and 161.6 to 180.0 degrees with respect to the axis in the spatial direction X Of the distances in the spatial direction X from each of the reference blocks A to H and A 'to H', the distance between the straight line and the reference block in A and A 'is the smallest. Therefore, when considered conversely, when the block of interest and the reference block of A and A 'have the strongest correlation, certain features repeat in the direction connecting the block of interest and the reference block of A and A'. As shown, the angles of stationarity of the data range from 0 degrees to 18.4 degrees and 1 degrees. It can be said that it is in the range of 61.6 degrees to 180.0 degrees.
  • the distance between the straight line and the reference block of E and E ' is the smallest of the distances in the spatial direction X from each of the blocks. Therefore, in reverse, when the block of interest and the reference block of E and E 'have the strongest correlation, the block of interest and the reference of E and E' Since certain features appear repeatedly in the direction connecting the blocks, the continuity angle of the data can be said to be in the range of 71.6 degrees to 108.4 degrees.
  • a line passing through the pixel of interest and having an angle 0 of 14.6.3 degrees to 161.6 degrees with reference to the axis in the spatial direction X, and references to A to H and A 'to H Among the distances in the spatial direction X from each of the blocks, the distance between the straight line and the reference blocks of H and H, is the smallest. In other words, when considered conversely, when the correlation between the block of interest and the reference block of H and H 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference block of H and H'. Therefore, it can be said that the continuity angle of the data is in the range of 14.6.3 degrees to 16.1.6 degrees.
  • the data continuity detection unit 101 can detect the continuity angle of the data based on the correlation between the target block and the reference block.
  • the data continuity detection unit 101 shown in FIG. 94 may output the range of the data continuity angle as data continuity information. May be output as data continuity information.
  • the median of the angle range of the data continuity can be used as the representative value.
  • the data continuity detection unit 101 shown in FIG. 94 uses the correlation of the reference blocks around the reference block having the strongest correlation to determine the range of the continuity angle of the detected data. It is possible to double the resolution of 1 Z 2, that is, the continuity angle of the detected data.
  • the minimum error angle selection unit 463 sets D and D for the block of interest as shown in FIG. Compare the correlation of the reference block 'with the correlation of the reference blocks F and F' with the block of interest. If the correlation of the reference block of D and D, to the block of interest is stronger than the correlation of the reference block of F and F, to the block of interest, the minimum error angle selection unit 463 Set the stationarity angle in the range of 71.6 degrees to 90 degrees. In this case, the minimum error angle selection unit 463 may set 81 degrees as a representative value for the data continuity angle.
  • the minimum error is obtained.
  • Set the angle from 90 degrees to 108.4 degrees.
  • the minimum error angle selection unit 463 may set the angle of data steadiness to be a representative value of 99 degrees.
  • the minimum error angle selection unit 463 can perform the same process to set the stationary angle range of the data to be detected to 1Z2 for other angle ranges.
  • the method described with reference to FIG. 102 is also referred to as a simple 16-direction detection method.
  • the data continuity detecting unit 101 shown in FIG. 94 can detect the data continuity angle with a narrower range by a simple process.
  • step S101 is performed.
  • a process of detecting data continuity by the data continuity detecting unit 101 having the configuration shown in FIG. 94 will be described.
  • step S444 the data selection unit 441 selects a target pixel, which is a target pixel, from the input image. For example, the data selection unit 441 selects a target pixel from the input image in the raster scan order.
  • step S444 the data selection unit 441 selects a target block consisting of a predetermined number of pixels centered on the target pixel. For example, the data selection unit 441 selects a target block consisting of 5 ⁇ 5 pixels centered on the target pixel.
  • step S444 the data selection unit 441 selects a reference block including a predetermined number of pixels at a predetermined position around the target pixel. For example, the data selection unit 441 sets the center of a pixel at a predetermined position on the basis of the size of the target pin for each predetermined angle range based on the target pixel and the reference axis. Select a reference block consisting of 5 pixels.
  • the data selection unit 44 1 supplies the block of interest and the reference block to the error estimation unit 4 42.
  • step S444 the error estimating unit 4442 sets the target block and the reference block corresponding to the angle range for each predetermined angle range based on the target pixel and the reference axis. Calculate the correlation.
  • the error estimating unit 442 supplies correlation information indicating the calculated correlation to the stationary direction deriving unit 443.
  • step S445 the stationary direction deriving unit 4443 corresponds to the continuity of the image, which is the optical signal of the real world 1 that is missing from the position of the reference block having the strongest correlation with the block of interest. Detects the continuity angle of data in the input image with respect to the reference axis.
  • the stationary direction deriving unit 443 outputs data continuity information indicating the continuity angle of the detected data.
  • step S446 the data selection unit 441 determines whether or not processing of all pixels has been completed, and if it is determined that processing of all pixels has not been completed, Returning to step S444, the target pixel is selected from the pixels not yet selected as the target pixel, and the above-described processing is repeated.
  • step S446 If it is determined in step S446 that processing of all pixels has been completed, the processing ends.
  • the data continuity detection unit 101 shown in FIG. 94 has a simpler processing, and the reference axis in the image data corresponding to the continuity of the missing optical signal of the real world 1 is more easily processed. Of the data can be detected based on the reference.
  • the data continuity detection unit 101 shown in FIG. 94 can detect the continuity angle of data using the pixel values of pixels in a relatively narrow range in the input image. Therefore, even if the input image includes noise or the like, the continuity angle of the data can be detected more accurately.
  • the data detection unit 101 shown in FIG. 94 has a predetermined number of pixels from the frame of interest, which is the pixel of interest, of the frame of interest. And a plurality of blocks around the pixel of interest, each consisting of a predetermined number of pixels, and a frame temporally preceding or following the frame of interest. , A block consisting of a predetermined number of pixels, centered on the pixel at the position corresponding to the pixel of interest, and a plurality of processors each consisting of a predetermined number of pixels around the pixel at the position corresponding to the pixel of interest. And detects the correlation between the block centered on the pixel of interest and surrounding blocks spatially or temporally, and based on the correlation, the temporal direction and the sky in the input image. It may be detected the angle of the continuity of data in the direction.
  • the data selection unit 441 selects a pixel of interest from frame #n, which is the frame of interest, in order, and a predetermined number of pixels centered around the pixel of interest. , And a plurality of blocks of a predetermined number of pixels around the pixel of interest.
  • the data selection unit 4 41 generates a block consisting of a predetermined number of pixels centered on the pixel at the position corresponding to the pixel of interest from each of the frame to-1 and the frame +1.
  • Pixel location Extract a plurality of blocks of a predetermined number of pixels around the pixel at the position corresponding to.
  • the data selector 441 supplies the extracted block to the error estimator 442.
  • the error estimator 442 detects the correlation between the block centered on the pixel of interest supplied from the data selector 441 and the surrounding blocks in space or time, and calculates the detected correlation.
  • the correlation information shown is supplied to the stationary direction deriving unit 4 43.
  • the stationarity direction deriving unit 4 4 3 finds the missing real world 1 from the position of the spatially or temporally neighboring block with the strongest correlation. It detects the continuity angle of the data in the time direction and the spatial direction in the input image corresponding to the continuity of the optical signal, and outputs data continuity information indicating the angle.
  • the data continuity detecting unit 101 can execute a process of detecting data continuity based on the component signals of the input image.
  • FIG. 105 is a block diagram illustrating a configuration of a data continuity detecting unit 101 that executes a process of detecting data continuity based on a component signal of an input image.
  • Each of the data continuity detectors 481-1 through 481-3 has the same configuration as the above-described or later-described data continuity detector 101, and is a component signal of the input image.
  • the above-described or later-described processing is executed for each of the processing targets.
  • the data continuity detector 481-1 detects the continuity of the data based on the first component signal of the input image, and determines information indicating the continuity of the data detected from the first component signal.
  • Supply to part 4 82 For example, the data continuity detecting section 481-1 detects the data continuity based on the luminance signal of the input image, and determines information indicating the continuity of the data detected from the luminance signal.
  • Supply 2
  • the data continuity detecting section 481-2 detects the data continuity based on the second component signal of the input image, and determines information indicating the continuity of the detected data from the second component signal.
  • Supply to part 4 82 the data continuity detection unit 481-1-2 detects data continuity based on the I signal, which is a color difference signal of the input image, and determines information indicating the continuity of the detected data from the I signal.
  • Supply to part 4 82 the data continuity detector 481--3 detects the continuity of the data based on the third component signal of the input image and determines information indicating the continuity of the data detected from the third component signal Supply to part 4 82.
  • the data continuity detection unit 481-1-2 detects data continuity based on the Q signal, which is a color difference signal of the input image, and determines information indicating the continuity of the detected data from the Q signal.
  • the deciding unit 482 is configured to determine the continuity of the data detected from each component signal, which is supplied from the data continuity detecting units 481-1 to 481-3, based on the information in the input image. Detects the stationarity of the final data and outputs data stationarity information indicating the stationarity of the detected data.
  • the deciding unit 482 is the largest continuity of data among the continuity of data detected from each component signal supplied from the data continuity detecting units 481-1 to 481-3. Is the continuity of the final data. Also, for example, the determining unit 482 may determine the smallest of the stationarities of the data detected from the component signals supplied from the data stationarity detecting sections 481-1-1 to 481_3. Let the data continuity be the final data continuity.
  • the determining unit 482 finally calculates the average value of the stationarity of the data detected from each component signal supplied from the data stationarity detecting unit 4811_1 to 4811-13.
  • Data continuity The decision unit 482 2 calculates the median (median value) of the continuity of the data detected from each component signal, which is supplied from the data continuity detection unit 481 1 to 4
  • the stationarity may be set as follows.
  • the determination unit 482 2 detects the data detected from each component signal supplied from the data continuity detection units 481-1 to 481-3 based on the signal input from the outside.
  • the stationarity of the data specified by the signal input from the outside is defined as the stationarity of the final data.
  • the deciding unit 482 is configured to determine the predetermined data continuity of the data continuity detected from each component signal supplied from the data continuity detecting unit 481-11 to 481-13. The final data of the steady state You may make it sex.
  • the decision unit 48.2 is based on the error obtained in the process of detecting the continuity of the data of each component signal supplied from the data continuity detection unit 481-1 to 481-1-3. Alternatively, the final data continuity may be determined. The error found in the process of detecting data continuity will be described later.
  • FIG. 106 is a diagram showing another configuration of the data continuity detecting unit 101 which executes a process of detecting data continuity based on a component signal of an input image.
  • the component processing unit 4991 generates one signal based on the component signal of the input image and supplies the signal to the data continuity detecting unit 492. For example, the component processing unit 4991 generates a signal composed of the sum of the component signal values by adding the value of each component signal of the input image to the pixel at the same position on the screen.
  • the component processing unit 4991 generates a signal composed of the average value of the pixel values of the component signals by averaging the pixel values of the component signals of the input image for the pixels at the same position on the screen. I do.
  • the data continuity detector 492 detects the continuity of the data in the input image based on the signal supplied from the component processor 491, and indicates the continuity of the detected data. Output information.
  • the data continuity detection unit 492 has the same configuration as the above-described or data continuity detection unit 101 described below, and performs the above-described processing on the signal supplied from the component processing unit 491, Alternatively, a process described later is executed.
  • the data continuity detecting unit 101 detects the continuity of the data of the input image based on the component signal, and thus can more accurately detect the data even if the input image includes noise or the like. Can be detected.
  • the data continuity detection unit 101 detects the continuity of the data of the input image based on the component signal, thereby more accurately detecting the continuity angle (slope), mixing ratio, or data of the data. Can be detected.
  • the component signal is not limited to a luminance signal and a color difference signal, and may be another type of component signal such as an RGB signal or a YUV signal.
  • the continuity of the data corresponding to the continuity of the missing real-world optical signal of the image data in which the real-world optical signal is projected and part of the continuity of the real-world optical signal is missing If the optical signal is estimated by detecting the angle with respect to the reference axis and estimating the continuity of the missing real-world optical signal based on the detected angle, thus, more accurate and more accurate processing results can be obtained.
  • the reference pixel and reference axis of the image data in which the continuity of the real-world optical signal is lacking which is obtained by projecting the real-world optical signal onto a plurality of detection elements, are used as a reference.
  • a plurality of sets of pixels consisting of a predetermined number of pixels are extracted for each angle, and the correlation between the pixel values of the pixels at the corresponding positions in the plurality of sets extracted for each angle is detected. Then, based on the detected correlation, the angle of the stationarity of the data with respect to the reference axis in the image data corresponding to the stationarity of the missing real-world optical signal is detected, and the angle in the detected image data is detected.
  • the optical signal is estimated by estimating the stationarity of the missing real-world optical signal based on the angle of the stationarity of the data with respect to the reference axis, it is more accurate for real-world events. More precise , A high processing result can be obtained.
  • FIG. 107 is a block diagram showing still another configuration of the data continuity detecting unit 101. As shown in FIG.
  • a real-world optical signal is projected, and a pixel of interest in image data in which a part of the continuity of the real-world optical signal is missing.
  • a region corresponding to a certain pixel of interest is selected, and a frequency based on the correlation value is set for a pixel whose correlation value between the pixel value of the pixel of interest and the pixel value of a pixel belonging to the selected region is equal to or greater than a threshold value.
  • the regression line is detected based on the detected frequency, thereby detecting the continuity of the image data corresponding to the continuity of the missing real-world optical signal. Is done.
  • the frame memory 501 stores the input image in frame units, and supplies the stored pixel values of the pixels constituting the frame to the pixel acquisition unit 502.
  • the frame memory 501 stores the current frame of the input image on one page, and the pixel value of the pixel of the previous (past) frame relative to the current frame stored on another page. Is supplied to the pixel acquisition unit 502, and at the time of switching the frame of the input image, by switching the page, the pixel value of the pixel of the frame of the input image as a moving image is supplied to the pixel acquisition unit 502. can do.
  • the pixel acquisition unit 502 selects a pixel of interest, which is the pixel of interest, based on the pixel value of the pixel supplied from the frame memory 501, and a predetermined number corresponding to the selected pixel of interest. Is selected. For example, the pixel acquisition unit 502 selects a region including 5 ⁇ 5 pixels centered on the pixel of interest.
  • the size of the region selected by the pixel acquisition unit 502 does not limit the present invention.
  • the pixel acquisition unit 502 acquires the pixel values of the pixels in the selected area, and supplies the pixel values of the pixels in the selected area to the frequency detection unit 503.
  • the frequency detection unit 503 determines the pixel value of the pixel of interest and the pixel values of the pixels belonging to the selected region. A frequency based on the correlation value is set for a pixel having a correlation value equal to or greater than the threshold value, thereby detecting the frequency of the pixel belonging to the area. The details of the process of setting the frequency based on the correlation value in the frequency detection unit 503 will be described later.
  • the frequency detection unit 503 supplies the detected frequency to the regression line calculation unit 504.
  • the regression line calculation unit 504 calculates a regression line based on the frequency supplied from the frequency detection unit 503. For example, the regression line calculation unit 504 calculates a regression line based on the frequency supplied from the frequency detection unit 503. In addition, for example, the regression line calculation unit 504 calculates a regression line that is a predetermined curve based on the frequency supplied from the frequency detection unit 503. The regression line calculation unit 504 supplies the calculated result parameter indicating the result of the calculated regression line calculation to the angle calculation unit 505.
  • the calculation results indicated by the calculation parameters include fluctuations and covariations described later.
  • the angle calculation unit 505 is based on the regression line, which is represented by the calculation result parameter supplied from the regression line calculation unit 504, and is based on the regression line and corresponds to the stationarity of the missing real-world optical signal. Detects the continuity of the data of the input image which is data. For example, the angle calculation unit 505, based on the regression line indicated by the calculation result parameter supplied from the regression line calculation unit 504, corresponds to the continuity of the missing real world 1 optical signal, Detects the angle of data continuity in the input image with respect to the reference axis. The angle calculator 505 outputs data continuity information indicating the continuity angle of the data with respect to the reference axis in the input image.
  • a circle indicates one pixel
  • a double circle indicates a target pixel.
  • the color of the circle indicates the approximate pixel value of the pixel, and the lighter color indicates the larger pixel value. For example, black indicates a pixel value of 30 and white indicates a pixel value of 120.
  • the data continuity detection unit 101 having the configuration shown in FIG. 107 detects that a straight line extends obliquely to the upper right when an input image including the pixels shown in FIG. 108 is input.

Abstract

本発明は、データが取得された現実世界を考慮し、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようにする。データ定常性検出部101は、第1の次元を有する現実世界の画像が射影され、現実世界の画像の定常性の一部が欠落した第1の次元よりも少ない第2の次元の入力画像の、欠落した現実世界の画像の定常性に対応するデータの定常性を検出する。実世界推定部102は、データ定常性検出部101により検出されたデータの定常性に基づいて、欠落した現実世界の画像の定常性を推定することにより、現実世界の画像を推定する。本発明は、入力画像に比較してより高解像度の出力画像を出力する画像処理装置に適用できる。

Description

明細書
信号処理装置および方法、 並びにプログラム 技術分野
本発明は、 信号処理装置おょぴ方法、 並びにプログラムに関し、 特に、 データ が取得された現実世界を考慮した信号処理装置および方法、 並びにプログラムに 関する。 背景技術
実世界 (現実世界) における事象をセンサで検出し、 センサが出力するサンプ リングデータを処理する技術が広く利用されている。 例えば、 実世界をイメージ センサで撮像し、 画像データであるサンプリングデータを処理する画像処理技術 が広く利用されている。
また、 特開 2 0 0 1— 2 5 0 1 1 9号公報においては、 第 1の次元を有する現 実世界の信号である第 1の信号をセンサによって検出することにより得た、 第 1 の次元に比較し次元が少ない第 2の次元を有し、 第 1の信号に対する歪を含む第 2の信号を取得し、 第 2の信号に基づく信号処理を行うことにより、 第 2の信号 に比して歪の軽減された第 3の信号を生成することが開示されている。
しかしながら、 第 1の次元を有する現実世界の信号である第 1の信号が射影さ れることにより取得される、 現実世界の信号の定常性の一部が欠落した第 1の次 元よりも少ない第 2の次元の第 2の信号には、 欠落した現実世界の信号の定常性 に対応するデータの定常性を有していることを考慮して第 2の信号から第 1の信 号を推定する信号処理はこれまで考えられていなかった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 データが取得された現 実世界を考慮し、 現実世界の事象に対して、 より正確で、 より精度の高い処理結 果を得ることができるようにすることを目的とする。
本発明の信号処理装置は、 第 1の次元を有する現実世界の信号である第 1の信 号が射影され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少な い第 2の次元の第 2の信号の、 欠落した現実世界の信号の定常性に対応するデー タの定常性を検出するデータ定常性検出手段と、 データ定常性検出手段により検 出されたデータの定常性に基づいて、 欠落した現実世界の信号の定常性を推定す ることにより第 1の信号を推定する実世界推定手段とを含むことを特徴とする。 データ定常性検出手段は、 それぞれ時空間積分効果を有する複数の検出素子に、 第 1の信号である現実世界の光信号が射影されることにより取得された、 第 2の 信号である、 現実世界の光信号の定常性の一部が欠落した複数の画素からなる画 像データにおけるデータの定常性を検出し、 実世界推定手段は、 データ定常性検 出手段により検出されたデータの定常性に基づき、 現実世界の光信号を表す第 1 の関数を近似する第 2の関数を生成するようにすることができる。
実世界推定手段は、 データ定常性検出手段により検出されたデータの定常性に 基づき、 画像データの時空間方向のうち少なくとも 1次元方向の位置に対応する 画素の画素値が、 少なくとも 1次元方向の積分効果により取得された画素値であ るとして画像データを近似することにより、 現実世界の光信号を表す第 1の関数 を近似する第 2の関数を生成するようにすることができる。
実世界推定手段は、 データ定常性検出手段により検出されたデータの定常性に 対応して、 画像データの時空間方向のうち 1次元方向の位置に対応する画素の画 素値が、 1次元方向の積分効果により取得された画素値であるとして画像データ を近似することにより、 現実世界の光信号を表す第 1の関数を近似する第 2の関 数を生成するようにすることができる。
実世界推定手段は、 定常性検出手段により検出されたデータの定常性に対応す る基準点からの少なくとも 1次元方向に沿った所定距離に対応する各画素の画素 値が、 少なくとも 1次元方向の積分効果により取得された画素値であるとして画 像データを近似することにより、 現実世界の光信号を表す第 1の関数を近似する 第 2の関数を生成するようにすることができる。
信号処理装置は、 実世界推定手段により生成された第 2の関数を、 少なくとも 1次元方向の所望の単位で積分することにより所望の大きさの画素に対応する画 素値を生成する画素値生成手段をさらに設けることができる。
画素値生成手段は、 第 2の関数を少なくとも 1次元方向の各画素に対応する単 位で積分することにより画素値を生成し、 信号処理装置は、 画素値生成手段によ り生成された画素値と、 画像データを構成する複数の画素の画素値との差分値を 検出し、 差分値に応じて第 2の関数を選択的に出力する出力手段をさらに設ける ことができる。
実世界推定手段は、 データ定常性検出手段により検出されたデータの定常性に 対応して、 画像データの時空間方向のうち少なくとも 2次元方向の位置に対応す る画素の画素値が、 少なくとも 2次元方向の積分効果により取得された画素値で あるとして画像データを多項式で近似することにより、 現実世界の光信号を表す 第 1の関数を近似する第 2の関数を生成するようにすることができる。
実世界推定手段は、 定常性検出手段により検出されたデータの定常性に対応す る基準点からの少なくとも 2次元方向に沿った所定距離に対応する画素の画素値 カ、 少なくとも 2次元方向の積分効果により取得された画素値であるとして画像 データを多項式で近似することにより、 現実世界の光信号を表す第 1の関数を近 似する第 2の関数を生成するようにすることができる。
信号処理装置は、 実世界推定手段により生成された第 2の関数を、 少なくとも 2次元方向の所望の単位で積分することにより所望の大きさの画素に対応する画 素値を生成する画素値生成手段をさらに設けることができる。
本発明の信号処理方法は、 第 1の次元を有する現実世界の信号である第 1の信 号が射影され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少な い第 2の次元の第 2の信号の、 欠落した現実世界の信号の定常性に対応するデー タの定常性を検出するデータ定常性検出ステップと、 データ定常性検出ステップ において検出されたデータの定常性に基づいて、 欠落した現実世界の信号の定常 性を推定することにより第 1の信号を推定する実世界推定ステップとを含むこと を特徴とする。
本発明のプログラムは、 第 1の次元を有する現実世界の信号である第 1の信号 が射影され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少ない 第 2の次元の第 2の信号の、 欠落した現実世界の信号の定常性に対応するデータ の定常性を検出するデータ定常性検出ステップと、 データ定常性検出ステップに おいて検出されたデータの定常性に基づいて、 欠落した現実世界の信号の定常性 を推定することにより第 1の信号を推定する実世界推定ステップとをコンビユー タに実行させることを特徴とする。 図面の簡単な説明
図 1は、 本発明の原理を示す図である。
図 2は、 信号処理装置の構成の例を示すプロック図である。
図 3は、 信号処理装置を示すブロック図である。
図 4は、 従来の信号処理装置の処理の原理を説明する図である。
図 5は、 信号処理装置の処理の原理を説明する図である。
図 6は、 本発明の原理をより具体的に説明する図である。
図 7は、 本発明の原理をより具体的に説明する図である。
図 8は、 イメージセンサ上の画素の配置の例を説明する図である。
図 9は、 CCDである検出素子の動作を説明する図である。
図 1 0は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値と の関係を説明する図である。
図 1 1は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。
図 1 2は、 実世界の線状の物の画像の例を示す図である。
図 1 3は、 実際の撮像により得られた画像データの画素値の例を示す図である t 図 1 4は、 画像データの模式図である。 図 1 5は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界 1の画像の例を示す図である。
図 1 6は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 7は、 画像データの模式図である。
図 1 8は、 本発明の原理を説明する図である。
図 1 9は、 本発明の原理を説明する図である。
図 2 0は、 高解像度データの生成の例を説明する図である。
図 2 1は、 モデルによる近似を説明する図である。
図 2 2は、 M個のデータによるモデルの推定を説明する図である。
図 2 3は、 実世界の信号とデータとの関係を説明する図である。
図 2 4は、 式を立てるときに注目するデータの例を示す図である。
図 2 5は、 式を立てる場合における、 実世界における 2つの物体に対する信号 および混合領域に属する値を説明する図である。
図 2 6は、 式 (1 8 ) 、 式 (1 9 ) 、 および式 (2 2 ) で表される定常性を説 明する図である。
図 2 7は、 データから抽出される、 M個のデータの例を示す図である。
図 2 8は、 データである画素値が取得された領域を説明する図である。
図 2 9は、 画素の時空間方向の位置の近似を説明する図である。
図 3 0は、 データにおける、 時間方向および 2次元の空間方向の実世界の信号 の積分を説明する図である。
図 3 1は、 空間方向により解像度の高い高解像度データを生成するときの、 積 分の領域を説明する図である。
図 3 2は、 時間方向により解像度の高い高解像度データを生成するときの、 積 分の領域を説明する図である。
図 3 3は、 動きボケを除去した高解像度データを生成するときの、 積分の領域 を説明する図である。
図 3 4は、 時間空間方向により解像度の高い高解像度データを生成するときの、 積分の領域を説明する図である。
図 3 5は、 入力画像の元の画像を示す図である。
図 3 6は、 入力画像の例を示す図である。
図 3 7は、 従来のクラス分類適応処理を適用して得られた画像を示す図である。 図 3 8は、 細線の領域を検出した結果を示す図である。
図 3 9は、 信号処理装置から出力された出力画像の例を示す図である。
図 4 0は、 信号処理装置による、 信号の処理を説明するフローチャートである。 図 4 1は、 データ定常性検出部の構成を示すブロック図である。
図 4 2は、 背景の前に細線がある実世界の画像を示す図である。
図 4 3は、 平面による背景の近似を説明する図である。
図 4 4は、 細線の画像が射影された画像データの断面形状を示す図である。 図 4 5は、 細線の画像が射影された画像データの断面形状を示す図である。 図 4 6は、 細線の画像が射影された画像データの断面形状を示す図である。 図 4 7は、 頂点の検出および単調増減領域の検出の処理を説明する図である。 図 4 8は、 頂点の画素値が閾値を超え、 隣接する画素の画素値が閾値以下であ る細線領域を検出する処理を説明する図である。
図 4 9は、 図 4 8の点線 AA'で示す方向に並ぶ画素の画素値を表す図である。 図 5 0は、 単調増減領域の連続性の検出の処理を説明する図である。
図 5 1は、 平面での近似により定常成分を抽出した画像の例を示す図である。 図 5 2は、 単調減少している領域を検出した結果を示す図である。
図 5 3は、 連続性が検出された領域を示す図である。
図 5 4は、 連続性が検出された領域の画素値を示す図である。
図 5 5は、 細線の画像が射影された領域の検出の他の処理の例を示す図である。 図 5 6は、 定常性検出の処理を説明するフローチャートである。
図 5 7は、 時間方向のデータの定常性を検出の処理を説明する図である。
図 5 8は、 非定常成分抽出部の構成を示すプロック図である。
図 5 9は、 棄却される回数を説明する図である。 図 6 0は、 入力画像の例を示す図である。
図 6 1は、 棄却をしないで平面で近似した結果得られる標準誤差を画素値とし た画像を示す図である。
図 6 2は、 棄却をして平面で近似した結果得られる標準誤差を画素値とした画 像を示す図である。
図 6 3は、 棄却された回数を画素値とした画像を示す図である。
図 6 4は、 平面の空間方向 Xの傾きを画素値とした画像を示す図である。
図 6 5は、 平面の空間方向 Yの傾きを画素値とした画像を示す図である。
図 6 6は、 平面で示される近似値からなる画像を示す図である。
図 6 7は、 平面で示される近似値と画素値との差分からなる画像を示す図であ る。
図 6 8は、 非定常成分の抽出の処理を説明するフローチヤ一トである。
図 6 9は、 定常成分の抽出の処理を説明するフローチャートである。
図 7 0は、 定常成分の抽出の他の処理を説明するフローチャートである。
図 7 1は、 定常成分の抽出のさらに他の処理を説明するフローチャートである c 図 7 2は、 データ定常性検出部の他の構成を示すプロック図である。
図 7 3は、 データの定常性を有する入力画像におけるァクティビティを説明す る図である。
図 7 4は、 ァクティビティを検出するためのプロックを説明する図である。 図 7 5は、 アクティビティに対するデータの定常性の角度を説明する図である c 図 7 6は、 データ定常性検出部のより詳細な構成を示すブロック図である。 図 7 7は、 画素の組を説明する図である。
図 7 8は、 画素の組の位置とデータの定常性の角度との関係を説明する図であ る。
図 7 9は、 データの定常性の検出の処理を説明するフローチャートである。 図 8 0は、 時間方向および空間方向のデータの定常性の角度を検出するとき、 抽出される画素の組を示す図である。 図 8 1は、 デ'ータ定常性検出部のより詳細な他の構成を示すブロック図である。 図 8 2は、 設定された直線の角度の範囲に応じた数の画素からなる画素の組を 説明する図である。
図 8 3は、 設定された直線の角度の範囲を説明する図である。
図 8 4は、 設定された直線の角度の範囲と、 画素の組の数、 および画素の組毎 の画素の数を説明する図である。
図 8 5は、 画素の組の数おょぴ画素の組毎の画素の数を説明する図である。 図 8 6は、 画素の組の数おょぴ画素の組毎の画素の数を説明する図である。 図 8 7は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 8 8は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 8 9は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 9 0は、 画素の組の数おょぴ画素の組毎の画素の数を説明する図である。 図 9 1は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 9 2は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 9 3は、 データの定常性の検出の処理を説明するフローチャートである。 図 9 4は、 データ定常性検出部のさらに他の構成を示すプロック図である。 図 9 5は、 データ定常性検出部のより詳細な構成を示すプロック図である。 図 9 6は、 ブロックの例を説明する図である。
図 9 7は、 注目ブロックと参照プロックとの、 画素値の差分の絶対値の算出の 処理を説明する図である。
図 9 8は、 注目画素の周辺の画素の位置と、 角度 Θを有する直線との空間方向 Xの距離を説明する図である。
図 9 9は、 シフト量 yと角度 0との関係を示す図である。
図 1 0 0は、 シフ ト量 γに対する、 注目画素の周辺の画素の位置と、 注目画素 を通り、 角度 0を有する直線との空間方向 Xの距離を示す図である。
図 1 0 1は、 注目画素を通り、 空間方向 Xの軸に対して角度 0の直線との距離 が最小の参照プロックを示す図である。 T JP2004/001488
9
図 1 0 2は、 検出するデータの定常性の角度の範囲を 1 Z 2にする処理を説明 する図である。
図 1 0 3は、 データの定常性の検出の処理を説明するフローチャートである。 図 1 0 4は、 間方向および空間方向のデータの定常性の角度を検出するとき、 抽出されるブロックを示す図である。
図 1 0 5は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の 処理を実行するデータ定常性検出部の構成を示すプロック図である。
図 1 0 6は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の 処理を実行するデータ定常性検出部の構成を示すブロック図である。
図 1 0 7は、 データ定常性検出部のさらに他の構成を示すブロック図である。 図 1 0 8は、 入力画像における、 基準軸を基準としたデータの定常性の角度を 説明する図である。
図 1 0 9は、 入力画像における、 基準軸を基準としたデータの定常性の角度を 説明する図である。
図 1 1 0は、 入力画像における、 基準軸を基準としたデータの定常性の角度を 説明する図である。
図 1 1 1は、 入力画像における、 画素の空間方向の位置に対する、 画素値の変 化と、 回帰直線との関係を示す図である。
図 1 1 2は、 回帰直線 Aと、 例えば、 基準軸である空間方向 Xを示す軸との角 度を説明する図である。
図 1 1 3は、 領域の例を示す図である。
図 1 1 4は、 図 1 0 7で構成が示されるデータ定常性検出部による、 データの 定常性の検出の処理を説明するフローチャートである。
図 1 1 5は、 データ定常性検出部のさらに他の構成を示すプロック図である。 図 1 1 6は、 入力画像における、 画素の空間方向の位置に対する、 画素値の変 化と、 回帰直線との関係を示す図である。
図 1 1 7は、 標準偏差とデータの定常性を有する領域との関係を説明する図で 4 001488
10
ある。
図 1 1 8は、 領域の例を示す図である。 ' 図 1 1 9は、 図 1 1 5で構成が示されるデータ定常性検出部による、 データの 定常性の検出の処理を説明するフローチヤ一トである。
図 1 2 0は、 図 1 1 5で構成が示されるデータ定常性検出部による、 データの 定常性の検出の他の処理を説明するフローチヤ一トである。
図 1 2 1は、 本発明を適用した細線、 または、 2値エッジの角度をデータ定常 性情報として検出するデータ定常性検出部の構成を示すプロック図である。
図 1 2 2は、 データ定常性情報の検出方法を説明する図である。
図 1 2 3は、 データ定常性情報の検出方法を説明する図である。
図1 2 4は、 図 1 2 1のデータ定常性検出部のより詳細な構成を示す図である。 図 1 2 5は、 水平■垂直判定処理を説明する図である。
図 1 2 6は、 水平 ·垂直判定処理を説明する図である。
図 1 2 7 Aは、 現実世界の細線とセンサにより撮像される細線の関係を説明す る図である。
図 1 2 7 Bは、 現実世界の細線とセンサにより撮像される細線の関係を説明す る図である。
図 1 2 7 Cは、 現実世界の細線とセンサにより撮像される細線の関係を説明す る図である。
図 1 2 8 Aは、 現実世界の画像の細線と背景の関係を説明する図である。
図 1 2 8 Bは、 現実世界の画像の細線と背景の関係を説明する図である。
図 1 2 9 Aは、 センサにより撮像された画像の細線と背景の関係を説明する図 である。
図 1 2 9 Bは、 センサにより撮像された画像の細線と背景の関係を説明する図 である。
図 1 3 O Aは、 センサにより撮像された画像の細線と背景の関係の例を説明す る図である。 図 1 3 O Bは、 センサにより撮像された画像の細線と背景の関係の例を説明す る図である。
図 1 3 1 Aは、 現実世界の画像の細線と背景の関係を説明する図である。
図 1 3 1 Bは、 現実世界の画像の細線と背景の関係を説明する図である。
図 1 3 2 Aは、 センサにより撮像された画像の細線と背景の関係を説明する図 である。
図 1 3 2 Bは、 センサにより撮像された画像の細線と背景の関係を説明する図 である。
図 1 3 3 Aは、 センサにより撮像された画像の細線と背景の関係の例を説明す る図である。
図 1 3 3 Bは、 センサにより撮像された画像の細線と背景の関係の例を説明す る図である。
図1 3 4は、 細線の角度を求めるためのモデルを示す図である。
図 1 3 5は、 細線の角度を求めるためのモデルを示す図である。
図 1 3 6 Aは、 注目画素に対応するダイナミックレンジブロックの画素値の最 大値と最小値を説明する図である。
図 1 3 6 Bは、 注目画素に対応するダイナミックレンジブ口ックの画素値の最 大値と最小値を説明する図である。
図 1 3 7 Aは、 細線の角度の求め方を説明する図である。
図 1 3 7 Bは、 細線の角度の求め方を説明する図である。
図 1 3 7 Cは、 細線の角度の求め方を説明する図である。
図1 3 8は、 細線の角度の求め方を説明する図である。
図 1 3 9は、 抽出プロックとダイナミックレンジブ口ックを説明する図である c 図 1 4 0は、 最小自乗法の解法を説明する図である。
図 1 4 1は、 最小自乗法の解法を説明する図である。
図 1 4 2 Aは、 2値エッジを説明する図である。
図 1 4 2 Bは、 2値エッジを説明する図である。 04 001488
12
図 1 4 2 Cは、 2値エッジを説明する図である。
図 1 4 3 Aは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 1 4 3 Bは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 1 4 4 Aは、 センサにより撮像された画像の 2値エッジの例を説明する図で ある。
図 1 4 4 Bは、 センサにより撮像された画像の 2値ェッジの例を説明する図で ある。
図 1 4 5 Aは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 1 4 5 Bは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 1 4 6は、 2値エッジの角度を求めるためのモデルを示す図である。
図 1 4 7 Aは、 2値エッジの角度を求める方法を説明する図である。
図 1 4 7 Bは、 2値エッジの角度を求める方法を説明する図である。
図 1 4 7 Cは、 2値エッジの角度を求める方法を説明する図である。
図 1 4 8は、 2値エッジの角度を求める方法を説明する図である。
図 1 4 9は、 細線、 または、 2値エッジの角度をデータ定常性と検出する処理 を説明するフローチヤ一トである。
図 1 5 0は、 データ抽出処理を説明するフローチャートである。
図 1 5 1は、 正規方程式への足し込み処理を説明するフローチャートである。 図 1 5 2 Aは、 本発明を適用して求めた細線の傾きと、 相関を用いて求めた細 線の角度とを比較する図である。
図 1 5 2 Bは、 本発明を適用して求めた細線の傾きと、 相関を用いて求めた細 線の角度とを比較する図である。
図 1 5 3 Aは、 本発明を適用して求めた 2値エッジの傾きと、 相関を用いて求 めた細線の角度とを比較する図である。
図 1 5 3 Bは、 本発明を適用して求めた 2値エッジの傾きと、 相関を用いて求 めた細線の角度とを比較する図である。
図 1 5 4は、 本発明を適用した混合比をデータ定常性情報として検出するデー 2004/001488
13
タ定常性検出部の構成を示すブロック図である。
図 1 5 5 Aは、 混合比の求め方を説明する図である。
図 1 5 5 Bは、 混合比の求め方を説明する図である。
図 1 5 5 Cは、 混合比の求め方を説明する図である。
図1 5 6は、 混合比をデータ定常性と検出する処理を説明するフローチャート である。
図 1 5 7は、 正規方程式への足し込み処理を説明するフローチャートである。 図 1 5 8 Aは、 細線の混合比の分布例を示す図である。
図 1 5 8 Bは、 細線の混合比の分布例を示す図である。
図 1 5 9 Aは、 2値エッジの混合比の分布例を示す図である。
図 1 5 9 Bは、 2値エッジの混合比の分布例を示す図である。
図 1 6 0は、 混合比の直線近似を説明する図である。
図 1 6 1 Aは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 6 1 Bは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 6 2 Aは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 6 2 Bは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 6 3 Aは、 物体の動きによる混合比をデータ定常性情報として求める方法 を説明する図である。 ' 図 1 6 3 Bは、 物体の動きによる混合比をデータ定常性情報として求める方法 を説明する図である。
図 1 6 3 Cは、 物体の動きによる混合比をデータ定常性情報として求める方法 を説明する図である。
図 1 6 4は、 物体の動きによる混合比をデータ定常性情報として求める際の混 合比の直線近似を説明する図である。
図 1 6 5は、 本発明を適用した処理領域をデータ定常性情報として検出するデ ータ定常性検出部の構成を示すプロック図である。
図 1 6 6は、 図 1 6 5のデータ定常性検出部による定常性の検出の処理を説明 するフローチャートである。
図 1 6 7は、 図 1 6 5のデータ定常性検出部による定常性の検出の処理の積分 範囲を説明する図である。
図 1 6 8は、 図 1 6 5のデータ定常性検出部による定常性の検出の処理の積分 範囲を説明する図である。
図 1 6 9は、 本発明を適用した処理領域をデータ定常性情報として検出するデ 一タ定常性検出部のその他の構成を示すブロック図である。
図 1 7 0は、 図 1 6 9のデータ定常性検出部による定常性の検出の処理を説明 するフローチヤ一トである。
図 1 7 1は、 図 1 6 9のデータ定常性検出部による定常性の検出の処理の積分 範囲を説明する図である。
図 1 7 2は、 図 1 6 9のデータ定常性検出部による定常性の検出の処理の積分 範囲を説明する図である。
図 1 7 3は、 実世界推定部 1 0 2の構成を示すプロック図である。
図 1 7 4は、 実世界の信号における、 細線の幅を検出する処理を説明する図で ある。
図 1 7 5は、 実世界の信号における、 細線の幅を検出する処理を説明する図で ある。
図1 7 6は、 実世界の信号における、 細線の信号のレベルを推定する処理を説 明する図である。
図 1 7 7は、 実世界の推定の処理を説明するフローチャートである。
図1 7 8は、 実世界推定部の他の構成を示すプロック図である。
図 1 7 9は、 境界検出部の構成を示すブロック図である。 04 001488
15
図 1 8 0は、 分配比の算出の処理を説明する図である。
図 1 8 1は、 分配比の算出の処理を説明する図である。
図 1 8 2は、 分配比の算出の処理を説明する図である。
図 1 8 3は、 単調増減領域の境界を示す回帰直線の算出の処理を説明する図で ある。
図 1 8 4は、 単調増減領域の境界を示す回帰直線の算出の処理を説明する図で ある。
図 1 8 5は、 実世界の推定の処理を説明するフローチャートである。
図 1 8 6は、 境界検出の処理を説明するフローチヤ一トである。
図 1 8 7は、 空間方向の微分値を実世界推定情報として推定する実世界推定部 の構成を示すプロック図である。
図 1 8 8は、 図 1 8 7の実世界推定部による実世界推定の処理を説明するフロ 一チヤ一トである。
図 1 8 9は、 参照画素を説明する図である。
図 1 9 0は、 空間方向の微分値を求める位置を説明する図である。
図 1 9 1は、 空間方向の微分値とシフト量の関係を説明する図である。
図 1 9 2は、 空間方向の傾きを実世界推定情報として推定する実世界推定部の 構成を示すプロック図である。
図 1 9 3は、 図 1 9 2の実世界推定部による実世界推定の処理を説明するフロ 一チャートである。
図1 9 4は、 空間方向の傾きを求める処理を説明する図である。
図 1 9 5は、 空間方向の傾きを求める処理を説明する図である。
図 1 9 6は、 フレーム方向の微分値を実世界推定情報として推定する実世界推 定部の構成を示すプロック図である。
図 1 9 7は、 図 1 9 6の実世界推定部による実世界推定の処理を説明するフロ 一チヤ一トである。
図 1 9 8は、 参照画素を説明する図である。 1488
16
図1 9 9は、 フレーム方向の微分値を求める位置を説明する図である。
図 2 0 0は、 フレーム方向の微分値とシフト量の関係を説明する図である。 図 2 0 1は、 フレーム方向の傾きを実世界推定情報として推定する実世界推定 部の構成を示すプロック図である。
図 2 0 2は、 図 2 ◦ 1の実世界推定部による実世界推定の処理を説明するフロ 一チャートである。
図 2 0 3は、 フレーム方向の傾きを求める処理を説明する図である。
図 2 0 4は、 フレーム方向の傾きを求める処理を説明する図である。
図 2 0 5は、 図 3の実世界推定部の実施の形態の一例である、 関数近似手法の 原理を説明する図である。
図 2 0 6は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 2 0 7は、 図 2 0 6のセンサの積分効果の具体的な例を説明する図である。 図 2 0 8は、 図 2 0 6のセンサの積分効果の具体的な他の例を説明する図であ る。
図 2 0 9は、 図 2 0 7で示される細線含有実世界領域を表した図である。 図 2 1 0は、 図 3の実世界推定部の実施の形態の一例の原理を、 図 2 0 5の例 と対比させて説明する図である。
図 2 1 1は、 図 2 0 7で示される細線含有データ領域を表した図である。 図 2 1 2は、 図 2 1 1の細線含有データ領域に含まれる各画素値のそれぞれを グラフ化した図である。
図 2 1 3は、 図 2 1 2の細線含有データ領域に含まれる各画素値を近似した近 似関数をグラフ化した図である。
図 2 1 4は、 図 2 0 7で示される細線含有実世界領域が有する空間方向の定常 性を説明する図である。
図 2 1 5は、 図 2 1 1の細線含有データ領域に含まれる各画素値のそれぞれを グラフ化した図である。
図 2 1 6は、 図 2 1 5で示される入力画素値のそれぞれを、 所定のシフト量だ けシフトさせた状態を説明する図である。
図 2 1 7は、 空間方向の定常性を考慮して、 図 2 1 2の細線含有データ領域に 含まれる各画素値を近似した近似関数をグラフ化した図である。
図 2 1 8は、 空間混合領域を説明する図である。
図 2 1 9は、 空間混合領域における、 実世界の信号を近似した近似関数を説明 する図である。
図 2 2 0は、 センサの積分特性と空間方向の定常性の両方を考慮して、 図 2 1 2の細線含有データ領域に対応する実世界の信号を近似した近似関数をグラフ化 した図である。
図 2 2 1は、 図 2 0 5で示される原理を有する関数近似手法のうちの、 1次多 項式近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 2 2 2は、 図' 2 2 1の構成の実世界推定部が実行する実世界の推定処理を説 明するフローチヤ一トである。
図 2 2 3は、 タップ範囲を説明する図である。
図 2 2 4は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 2 2 5は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 2 2 6は、 断面方向距離を説明する図である。
図 2 2 7は、 図 2 0 5で示される原理を有する関数近似手法のうちの、 2次多 項式近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 2 2 8は、 図 2 2 7の構成の実世界推定部が実行する実世界の推定処理を説 明するフローチャートである。
図 2 2 9は、 タップ範囲を説明する図である。
図 2 3 0は、 時空間方向の定常性の方向を説明する図である。
図 2 3 1は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 2 3 2は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 2 3 3は、 時空間方向の定常性を有する実世界の信号を説明する図である。 図 2 3 4は、 図 2 0 5で示される原理を有する関数近似手法のうちの、 3次元 4 001488
18
関数近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 2 3 5は、 図 2 3 4の構成の実世界推定部が実行する実世界の推定処理を説 明するフローチヤ一トである。
図 2 3 6は、 図 3の画像生成部の実施の形態の一例である、 再積分手法の原理 を説明する図である。
図 2 3 7は、 入力画素と、 その入力画素に対応する、 実世界の信号を近似する 近似関数の例を説明する図である。
図 2 3 8は、 図 2 3 7で示される近似関数から、 図 2 3 7で示される 1つの入 力画素における、 高解像度の 4つの画素を創造する例を説明する図である。 図 2 3 9は、 図 2 3 6で示される原理を有する再積分手法のうちの、 1次元再 積分手法を利用する画像生成部の構成例を説明するプロック図である。
図 2 4 0は、 図 2 3 9の構成の画像生成部が実行する画像の生成処理を説明す るフローチヤ一トである。
図 2 4 1は、 入力画像の元の画像の例を表す図である。
図 2 4 2は、 図 2 4 1の画像に対応する画像データの例を表す図である。 図 2 4 3は、 入力画像の例を表す図である。
図 2 4 4は、 図 2 4 3の画像に対応する画像データの例を表す図である。 図 2 4 5は、 入力画像に対して従来のクラス分類適応処理を施して得られる画 像の例を表す図である。
図 2 4 6は、 図 2 4 5の画像に対応する画像データの例を表す図である。 図 2 4 7は、 入力画像に対して本発明の 1次元再積分手法の処理を施して得ら れる画像,の例を表す図である。
図 2 4 8は、 図 2 4 7の画像に対応する画像データの例を表す図である。 図 2 4 9は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 2 5 0は、 図 2 3 6で示される原理を有する再積分手法のうちの、 2次元再 積分手法を利用する画像生成部の構成例を説明するブロック図である。
図 2 5 1は、 断面方向距離を説明する図である。 2004/001488
19
図 2 5 2は、 図 2 5 0の構成の画像生成部が実行する画像の生成処理を説明す るフローチヤ一トである。
図 2 5 3は、 入力画素の一例を説明する図である。
図 2 5 4は、 2次元再積分手法により、 図 2 5 3で示される 1つの入力画素に おける、 高解像度の 4つの画素を創造する例を説明する図である。
図 2 5 5は、 時空間方向の定常性の方向を説明する図である。
図 2 5 6は、 図 2 3 6で示される原理を有する再積分手法のうちの、 3次元再 積分手法を利用する画像生成部の構成例を説明するプロック図である。
図 2 5 7は、 図 2 5 6の構成の画像生成部が実行する画像の生成処理を説明す るフローチャートである。
図 2 5 8は、 本発明を適用した画像生成部のその他の構成を示すプロック図で ある。 ' 図 2 5 9は、 図 2 5 8の画像生成部による画像の生成の処理を説明するフロー チヤ一トである。
図 2 6 0は、 入力画素から 4倍密度の画素を生成する処理を説明する図である。 図 2 6 1は、 画素値を示す近似関数とシフト量との関係を示す図である。
図 2 6 2は、 本発明を適用した画像生成部のその他の構成を示すブロック図で ある。
図 2 6 3は、 図 2 6 2の画像生成部による画像の生成の処理を説明するフロー チャートである。
図 2 6 4は、 入力画素から 4倍密度の画素を生成する処理を説明する図である。 図 2 6 5は、 画素値を示す近似関数とシフト量との関係を示す図である。
図 2 6 6は、 図 3の画像生成部の実施の形態の一例である、 クラス分類適応処 理補正手法の 1次元再積分手法を利用する画像生成部の構成例を説明するプロッ ク図である。
図 2 6 7は、 図 2 6 6の画像生成部のクラス分類適応処理部の構成例を説明す るプロック図である。 2004/001488
20
図 2 6 8は、 図 2 6 6のクラス分類適応処理部と、 クラス分類適応処理補正部 が使用する係数を学習により決定する学習装置の構成例を示すプロック図である。 図 2 6 9は、 図 2 6 8のクラス分類適応処理用学習部の詳細な構成例を説明す るプロック図である。
図 2 70は、 図 2 6 7のクラス分類適応処理部の処理結果の例を示す図である。 図 2 7 1は、 図 2 70の予測画像と HD画像の差分画像を示す図である。
図 2 7 2は、 図 2 7 1で示される領域に含まれる X方向に連続した 6個の HD 画素のうちの、 図中左から 4個の HD画素に対応する、 図 2 7 0の HD画像の具 体的な画素値、 SD画像の具体的な画素値、 および、 実際の波形 (実世界の信 号) のそれぞれをプロットしたものを示す図である。
図 2 7 3は、 図 2 70の予測画像と HD画像の差分画像を示す図である。
図 2 74は、 図 2 7 3で示される領域に含まれる X方向に連続した 6個の HD 画素のうちの、 図中左から 4個の HD画素に対応する、 図 2 7 0の HD画像の具 体的な画素値、 SD画像の具体的な画素値、 および、 実際の波形 (実世界の信 号) のそれぞれをプロットしたものを示す図である。
図 2 7 5は、 図 2 7 2乃至図 2 74に示される内容に基づいて得られた知見を 説明する図である。
図 2 7 6は、 図 2 6 6の画像生成部のクラス分類適応処理補正部の構成例を説 明するプロック図である。
図 2 7 7は、 図 2 6 8のクラス分類適応処理補正用学習部の詳細な構成例を説 明するプロック図である。
図 2 7 8は、 画素内傾斜を説明する図である。
図 2 7 9は、 図 2 7 0の SD画像と、 その SD画像の各画素の画素内傾斜を画 素値とする特徴量画像を示す図である。
図 2 8 0は、 画素内傾斜の算出方法を説明する図である。
図 2 8 1は、 画素内傾斜の算出方法を説明する図である。
図 2 8 2は、 図 2 6 6の構成の画像生成部が実行する画像の生成処理を説明す るフローチヤ一トである。
図 2 8 3は、 図 2 8 2の画像の生成処理の入力画像クラス分類適応処理の詳細 を説明するフローチャートである。
図 2 84は、 図 2 8 2の画像の生成処理のクラス分類適応処理の補正処理の詳 細を説明するフローチャートである。
図 2 8 5は、 クラスタップの配置例を説明する図である。
図 2 8 6は、 クラス分類の一例を説明する図である。
図 2 8 7は、 予測タップ配置例を説明する図である。
図 2 8 8は、 図 2 6 8の学習装置の学習処理を説明するフローチヤ一トである。 図 2 8 9は、 図 2 8 8の学習処理のクラス分類適応処理用学習処理の詳細を説 明するフローチヤ一トである。
図 2 9 0は、 図 2 8 8の学習処理のクラス分類適応処理補正用学習処理の詳細 を説明するフローチャートである。
図 2 9 1は、 図 2 7 0の予測画像と、 その予測画像に捕正画像を加算した画像 (図 2 6 6の画像生成部により生成される画像) を表した図である。
図 2 9 2は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 1の構成例を説明するプロック図である。
図 2 9 3は、 図 2 9 2の信号処理装置の、 クラス分類適応処理を実行する画像 生成部の構成例を説明するプロック図である。
図 2 94は、 図 2 9 3の画像生成部に対する学習装置の構成例を説明するプロ ック図である。
図 2 9 5は、 図 2 9 2の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。
図 2 9 6は、 図 2 9 5の信号の処理のクラス分類適応処理の実行処理の詳細を 説明するフローチャートである。
図 2 9 7は、 図 2 9 4の学習装置の学習処理を説明するフローチャートである。 図 2 9 8は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 2の構成例を説明するプロック図である。
図 2 9 9は、 図 2 9 6の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。
図 3 0 0は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 3の構成例を説明するプロック図である。
図 3 0 1は、 図 2 9 8の構成の信号処理装置が実行する信号の処理を説明する フローチャートである。
図 3 0 2は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 4の構成例を説明するプロック図である。
図 3 0 3は、 図 3 0 0の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。
図 3 0 4は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 5の構成例を説明するプロック図である。
図 3 0 5は、 図 3 0 2の構成の信号処理装置が実行する信号の処理を説明する フローチャートである。
図 3 0 6は、 データ定常性検出部の他の実施の形態の構成を示すブロック図で ある。
図 3 0 7は、 図 3 0 6のデータ定常性検出部によるデータの定常性の検出処理 を説明するフローチヤ一トである。 発明を実施するための最良の形態
図 1は、 本発明の原理を表している。 同図で示されるように、 空間、 時間、 お ょぴ質量などの次元を有する実世界 1の事象 (現象) は、 センサ 2により取得さ れ、 データ化される。 実世界 1の事象とは、 光 (画像) 、 音声、 圧力、 温度、 質 量、 濃度、 明るさ/暗さ、 またはにおいなどをいう。 実世界 1の事象は、 時空間 方向に分布している。 例えば、 実世界 1の画像は、 実世界 1の光の強度の時空間 方向の分布である。 4 001488
23
センサ 2に注目すると、 空間、 時間、 および質量の次元を有する実世界 1の事 象のうち、 センサ 2が取得可能な、 実世界 1の事象が、 センサ 2により、 データ 3に変換される。 センサ 2によって、 実世界 1の事象を示す情報が取得されると も言える。
すなわち、 センサ 2は、 実世界 1の事象を示す情報を、 データ 3に変換する。 空間、 時間、 および質量などの次元を有する実世界 1の事象 (現象) を示す情報 である信号がセンサ 2により取得され、 データ化されるとも言える。
以下、 実世界 1における、 画像、 音声、 圧力、 温度、 質量、 濃度、 明るさ Z暗 さ、 またはにおいなどの事象の分布を、 実世界 1の事象を示す情報である信号と も称する。 また、 実世界 1の事象を示す情報である信号を、 単に、 実世界 1の信 号とも称する。 本明細書において、 信号は、 現象おょぴ事象を含み、 送信側に意 思がないものも含むものとする。
センサ 2から出力されるデータ 3 (検出信号) は、 実世界 1の事象を示す情報 を、 実世界 1に比較して、 より低い次元の時空間に射影して得られた情報である。 例えば、 動画像の画像データであるデータ 3は、 実世界 1の 3次元の空間方向お よび時間方向の画像が、 2次元の空間方向、 および時間方向からなる時空間に射 影されて得られた情報である。 また、 例えば、 データ 3がデジタルデータである とき、 データ 3は、 サンプリングの単位に応じて、 丸められている。 データ 3力 S アナ口グデータであるとき、 データ 3において、 ダイナミックレンジに応じて、 情報が圧縮されているか、 またはリミッタなどにより、 情報の一部が削除されて いる。
このように、 所定の次元を有する実世界 1の事象を示す情報である信号をデー タ 3 (検出信号) に射影することにより、 実世界 1の事象を示す情報の一部が欠 落する。 すなわち、 センサ 2が出力するデータ 3において、 実世界 1の事象を示 す情報の一部が欠落している。
しかしながら、 射影により実世界 1の事象を示す情報の一部が欠落しているも のの、 データ 3は、 実世界 1の事象 (現象) を示す情報である信号を推定するた めの有意情報を含んでいる。
本発明においては、 実世界 1の情報である信号を推定するための有意情報とし て、 データ 3に含まれる定常性を有する情報を利用する。 定常性は、 新たに定義 する概念である。
ここで、 実世界 1に注目すると、 実世界 1の事象は、 所定の次元の方向に一定 の特徴を含む。 例えば、 実世界 1の物体 (有体物) において、 空間方向または時 間方向に、 形状、 模様、 若しくは色彩などが連続するか、 または形状、 模様、 若 しくは色彩などのパターンが繰り返す。
従って、 実世界 1の事象を示す情報には、 所定の次元の方向に一定の特徴が含 まれることになる。
より具体的な例を挙げれば、 糸、 紐、 またはロープなどの線状の物体.は、 長さ 方向の任意の位置において、 断面形状が同じであるという長さ方向、 すなわち空 間方向に一定の特徴を有する。 長さ方向の任意の位置において、 断面形状が同じ であるという空間方向に一定の特徴は、 線状の物体が長いという特徴から生じる。 従って、 線状の物体の画像は、 長さ方向の任意の位置において、 断面形状が同 じであるという長さ方向、 すなわち空間方向に一定の特徴を有している。
また、 空間方向に広がりを有する有体物である、 単色の物体は、 部位にかかわ らず、 同一の色を有するという空間方向に一定の特徴を有していると言える。 同様に、 空間方向に広がりを有する有体物である、 単色の物体の画像は、 部位 にかかわらず、 同一の色を有するという空間方向に一定の特徴を有している。 このように、 実世界 1 (現実世界) の事象は、 所定の次元の方向に一定の特徴 を有しているので、 実世界 1の信号は、 所定の次元の方向に一定の特徴を有する c 本明細書において、 このような所定の次元の方向に一定の特徴を定常性と称す る。 実世界 1 (現実世界) の信号の定常性とは、 実世界 1 (現実世界) の事象を 示す信号が有している、 所定の次元の方向に一定の特徴をいう。
実世界 1 (現実世界) には、 このような定常性が無数に存在する。
次に、 データ 3に注目すると、 データ 3は、 センサ 2により、 所定の次元を有 する実世界 1の事象を示す情報である信号が射影されたものであるので、 実世界 の信号の定常性に対応する定常性を含んでいる。 データ 3は、 実世界の信号の定 常性が射影された定常性を含んでいるとも言える。
しかしながら、 上述したように、 センサ 2が出力するデータ 3において、 実世 界 1の情報の一部が欠落しているので、 データ 3から、 実世界 1 (現実世界) の 信号に含まれる定常性の一部が欠落してしまう。
換言すれば、 データ 3は、 データの定常性として、 実世界 1 (現実世界) の信 号の定常性の中の、 一部の定常性を含む。 データの定常性とは、 データ 3が有し ている、 所定の次元の方向に一定の特徴である。
本発明においては、 実世界 1の事象を示す情報である信号を推定するための有 意情報として、 データ 3が有する、 データの定常性が利用される。
例えば、 本発明においては、 データの定常性を利用して、 データ 3を信号処理 することで、 欠落した、 実世界 1の事象を示す情報が生成される。
なお、 本発明においては、 実世界 1の事象を示す情報である信号の次元の、 長 さ (空間) 、 時間、 および質量のうち、 空間方向または時間方向の定常性が利用 される。
図 1に戻り、 センサ 2は、 例えば、 デジタルスチルカメラ、 またはビデオカメ ラなどで構成され、 実世界 1の画像を撮像し、 得られたデータ 3である画像デー タを信号処理装置 4に出力する。 センサ 2は、 例えば、 サーモグラフィ装置、 ま たは光弾性を利用した圧力センサなどとすることができる。
信号処理装置 4は、 例えば、 パーソナルコンピュータなどで構成される。 信号処理装置 4は、 例えば、 図 2で示されるように構成される。 CPU
(Central Proces sing Uni t) 2 1は、 ROM (Read Only Memory) 2 2、 または 記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Acces s Memory) 2 3には、 CPU 2 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 2 1、 ROM 2 2 , および RAM 2 3は、 バス 2 4により相互に接続されている。 1488
26
CPU 2 1にはまた、 バス 2 4を介して入出力ィンタフェース 2 5が接続されて いる。 入出力インタフェース 2 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 2 6、 ディスプレイ、 スピーカなどよりなる出力部 2 7が接続さ れている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を出力部 2 7 に出力する。
入出力ィンタフェース 2 5に接続されている記憶部 2 8は、 例えばハードディ スクなどで構成され、 CPU 2 1が実行するプログラムや各種のデータを記憶する。 通信部 2 9は、 インターネット、 その他のネットワークを介して外部の装置と通 信する。 この例の場合、 通信部 2 9はセンサ 2の出力するデータ 3を取り込む取 得部として働く。
また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよい。 入出力インタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5
1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8に転送さ れ、 記憶される。
図 3は、 信号処理装置 4を示すプロック図である。
なお、 信号処理装置 4の各機能をハードウェアで実現する力 \ ソフトウェアで 実現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェアのブ 口ック図と考えても、 ソフトウェアによる機能プロック図と考えても良い。
図 3に構成を示す信号処理装置 4においては、 データ 3の一例である画像デー タが入力され、 入力された画像データ (入力画像) からデータの定常性が検出さ れる。 次に、 検出されたデータの定常性から、 センサ 2により取得された実世界 1の信号が推定される。 そして、 推定された実世界 1の信号を基に、 画像が生成 され、 生成された画像 (出力画像) が出力される。 すなわち、 図 3は、 画像処理 装置である信号処理装置 4の構成を示す図である。 信号処理装置 4に入力された入力画像 (データ 3の一例である画像データ) は、 データ定常性検出部 1 0 1および実世界推定部 1 0 2に供給される。
データ定常性検出部 1 0 1は、 入力画像からデータの定常性を検出して、 検出 した定常性を示すデータ定常性情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。 データ定常性情報は、 例えば、 入力画像における、 データの定常 性を有する画素の領域の位置、 データの定常性を有する画素の領域の方向 (時間 方向および空間方向の角度または傾き) 、 またはデータの定常性を有する画素の 領域の長さなどを含む。 データ定常性検出部 1 0 1の構成の詳細は、 後述する。 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出部 1 0 1から供給 されたデータ定常性情報を基に、 実世界 1の信号を推定する。 すなわち、 実世界 推定部 1 0 2は、 入力画像が取得されたときセンサ 2に入射された、 実世界の信 号である画像を推定する。 実世界推定部 1 0 2は、 実世界 1の信号の推定の結果 を示す実世界推定情報を画像生成部 1 0 3に供給する。 実世界推定部 1 0 2の構 成の詳細は、 後述する。
画像生成部 1 0 3は、 実世界推定部 1 0 2から供給された、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1の信号により近似した信号を生 成して、 生成した信号を出力する。 または、 画像生成部 1 0 3は、 データ定常性 検出部 1 0 1から供給されたデータ定常性情報、 および実世界推定部 1 0 2から 供給された、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1 の信号により近似した信号を生成して、 生成した信号を出力する。
すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 実世界 1の画像によ り近似した画像を生成して、 生成した画像を出力画像として出力する。 または、 画像生成部 1 0 3は、 データ定常性情報および実世界推定情報を基に、 実世界 1 の画像により近似した画像を生成して、 生成した画像を出力画像として出力する。 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 推定された実世界 1の 画像を所望の空間方向または時間方向の範囲で積分することにより、 入力画像に 比較して、 空間方向または時間方向により高解像度の画像を生成して、 生成した 画像を出力画像として出力する。 例えば、 画像生成部 1 0 3は、 外挿補間により、 画像を生成して、 生成した画像を出力画像として出力する。
画像生成部 1 0 3の構成の詳細は、 後述する。
次に、 図 4乃至図 7を参照して、 本発明の原理を説明する。
図 4は、 従来の信号処理装置 1 2 1における処理の原理を説明する図である。 従来の信号処理装置 1 2 1は、 データ 3を処理の基準とすると共に、 データ 3を 処理の対象として、 高解像度化などの処理を実行する。 従来の信号処理装置 1 2 1においては、 実世界 1が考慮されることはなく、 データ 3が最終的な基準とな り、 データ 3に含まれている情報以上の情報を出力として得ることはできない。 また、 従来の信号処理装置 1 2 1において、 データ 3に存在する、 センサ 2に よる歪み (実世界 1の情報である信号とデータ 3との差) は全く考慮されないの で、 従来の信号処理装置 1 2 1は、 歪みを含んだままの信号を出力することにな る。 さらに、 信号処理装置 1 2 1の処理の内容によっては、 データ 3に存在する、 センサ 2による歪みがさらに増幅されて、 増幅された歪みを含むデータが出力さ れることになる。
このように、 従来の信号処理においては、 データ 3が取得された実世界 1 (の 信号) そのものが考慮されることはなかった。 換言すれば、 従来の信号処理にお いては、 データ 3に含まれている情報の枠内で実世界 1を捉えていたので、 デー タ 3に含まれている情報および歪みにより、 信号処理の限界が決定される。 なお、 本出願人は、 実世界 1を考慮した信号処理を別途提案しているが、 後述する定常 性を考慮していなかった。
これに対して、 本発明の信号処理においては、 実世界 1 (の信号) そのものを 明確に考慮して、 処理が実行される。
図 5は、 本発明に係る信号処理装置 4における処理の原理を説明する図である。 実世界 1の事象を示す情報である信号をセンサ 2が取得し、 センサ 2が、 実世 界 1の情報である信号を射影したデータ 3を出力する点では、 従来と同様である。
しかしながら、 本発明においては、 センサ 2により取得された、 実世界 1の事 象を示す情報である信号が明確に考慮される。 すなわち、 データ 3が、 センサ 2 による歪み (実世界 1の情報である信号とデータ 3との差) を含むことを意識し て信号処理がなされる。
このようにすることで、 本発明の信号処理においては、 データ 3に含まれてい る情報および歪みにより処理の結果が限定されることがなく、 例えば、 従来に比 較して、 実世界 1の事象に対して、 より正確で、 より精度の高い処理結果を得る ことができるようになる。 すなわち、 本発明によれば、 センサ 2に入力された、 実世界 1の事象を示す情報である信号に対して、 より正確で、 より精度の高い処 理結果を得ることができるようになる。
図 6および図 7は、 本発明の原理をより具体的に説明する図である。
図 6で示されるように、 例えば、 画像である、 実世界 1の信号が、 レンズ、 ま たは光学 LPF (Low Pas s Fi lter) などでなる光学系 1 4 1により、 センサ 2の —例である CCD (Charge Coupl ed Device) の受光面に結像される。 センサ 2の 一例である CCDは、 積分特性を有しているので、 CCDから出力されるデータ 3に は、 実世界 1の画像との差が生じることになる。 センサ 2の積分特性の詳細につ いては、 後述する。
本発明の信号処理においては、 CCDにより取得された実世界 1の画像と、 CCD により撮像され、 出力されたデータ 3との関係が明確に考慮される。 すなわち、 データ 3と、 センサ 2で取得された実世界の情報である信号との関係が明確に考 盧される。
より具体的には、 図 7で示されるように、 信号処理装置 4は、 モデル 1 6 1を 用いて、 実世界 1を近似 (記述) する。 モデル 1 6 1は、 例えば、 N個の変数で 表現される。 より正確には、 モデル 1 6 1は、 実世界 1の信号を近似 (記述) す る。
モデル 1 6 1を予測するために、 信号処理装置 4は、 データ 3から、 M個のデ ータ 1 6 2を抽出する。 データ 3から、 M個のデータ 1 6 2を抽出するとき、 信 号処理装置 4は、 データ 3に含まれるデータの定常性を利用する。 換言すれば、 信号処理装置 4は、 データ 3に含まれるデータの定常性を基に、 モデル 1 6 1を 予測するためのデータ 1 6 2を抽出する。 結果的に、 モデル 1 6 1は、 データの 定常性に拘束されることになる。
すなわち、 モデル 1 6 1は、 センサ 2で取得されたとき、 データ 3においてデ ータの定常性を生じさせる、 定常性 (所定の次元の方向に一定の特徴) を有する 実世界 1の事象 (を示す情報 (信号) ) を近似する。
ここで、 データ 1 6 2の数 Mが、 モデルの変数の数 N以上であれば、 M個のデ ータ 1 6 2から、 N個の変数で表現されるモデル 1 6 1を予測することができる。 このように、 実世界 1 (の信号) を近似 (記述) するモデル 1 6 1を予測する ことにより、 信号処理装置 4は、 実世界 1の情報である信号を考慮することがで きる。
次に、 センサ 2の積分効果について説明する。
画像を撮像するセンサ 2である、 CCDまたは CMOS (Complementary Metal- Oxide Semiconductor) センサなどのイメージセンサは、 現実世界を撮像すると き、 現実世界の情報である信号を 2次元のデータに投影する。 イメージセンサの 各画素は、 いわゆる受光面 (受光領域) として、 それぞれ所定の面積を有する。 所定の面積を有する受光面に入射した光は、 画素毎に、 空間方向および時間方向 に積分され、 各画素に対して 1つの画素値に変換される。
図 8乃至図 1 1を参照して、 画像の空間的時間的な積分について説明する。 イメージセンサは、 現実世界の対象物 (オブジェク ト) を撮像し、 撮像の結果 得られた画像データを 1フレーム単位で出力する。 すなわち、 イメージセンサは、 実世界 1の対象物で反射された光である、 実世界 1の信号を取得し、 データ 3を 出力する。
例えば、 イメージセンサは、 1秒間に 3 0フレームからなる画像データを出力 する。 この場合、 イメージセンサの露光時間は、 1 3 0秒とすることができる。 露光時間は、 イメージセンサが入射された光の電荷への変換を開始してから、 入 射された光の電荷への変換を終了するまでの期間である。 以下、 露光時間をシャ ッタ時間とも称する。
図 8は、 イメージセンサ上の画素の配置の例を説明する図である。 図 8中にお いて、 A乃至 Iは、 個々の画素を示す。 画素は、 画像データにより表示される画 像に対応する平面上に配置されている。 1つの画素に対応する 1つの検出素子は、 イメージセンサ上に配置されている。 イメージセンサが実世界 1の画像を撮像す るとき、 1つの検出素子は、 画像データを構成する 1つの画素に対応する 1つの 画素値を出力する。 例えば、 検出素子の空間方向 Xの位置 (X座標) は、 画像デ ータにより表示される画像上の横方向の位置に対応し、 検出素子の空間方向 Yの 位置 (Y座標) は、 画像データにより表示される画像上の縦方向の位置に対応す る。
実世界 1の光の強度の分布は、 3次元の空間方向、 および時間方向に広がりを 有するが、 イメージセンサは、 2次元の空間方向、 および時間方向で、 実世界 1 の光を取得し、 2次元の空間方向、 および時間方向の光の強度の分布を表現する データ 3を生成する。
図 9で示されるように、 例えば、 CCDである検出素子は、 シャツタ時間に対応 する期間、 受光面 (受光領域) (検出領域) に入力された光を電荷に変換して、 変換された電荷を蓄積する。 光は、 3次元の空間上の位置、 および時刻により、 強度が決定される実世界 1の情報 (信号) である。 実世界 1の光の強度の分布は、 3次元の空間上の位置 x,y、 およぴ 、 並びに時刻 tを変数とする関数
F (x,y, z, t)で表すことができる。
CCDである検出素子に蓄積される電荷の量は、 2次元の空間上の広がりを有す る受光面の全体に入射された光の強さと、 光が入射されている時間にほぼ比例す る。 検出素子は、 シャツタ時間に対応する期間において、 受光面の全体に入射さ れた光から変換された電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対応する期間、 2次元の空間上の広がりを有する受 光面の全体に入射される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 空間 (受光面) および時間 (シャツタ時間) に対して、 積分 1488
32
効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値はさらにデジタルデータなどの画素値に変換されて、 データ 3として出力され る。 従って、 イメージセンサから出力される個々の画素値は、 実世界 1の情報 (信号) の時間的空間的に広がりを有するある部分を、 シャツタ時間の時間方向 および検出素子の受光面の空間方向について積分した結果である、 1次元の空間 に射影した値を有する。
すなわち、 1つの画素の画素値は、 F (x,y,t)の積分で表される。 F (x,y,t)は、 検出素子の受光面における、 光の強度の分布を表す関数である。 例えば、 画素値 Pは、 式 (1 ) で表される。
Figure imgf000034_0001
F(x,y' t ) dx dy dt
• · · ( 1 )
式 (1 ) において、 Xl は、 検出素子の受光面の左側の境界の空間座標 (X座 標) である。 χ2 は、 検出素子の受光面の右側の境界の空間座標 (X座標) であ る。 式 (1 ) において、 Ylは、 検出素子の受光面の上側の境界の空間座標 (Y 座標) である。 y2は、 検出素子の受光面の下側の境界の空間座標 (Y座標) で ある。 また、 ^ は、 入射された光の電荷への変換を開始した時刻である。 t2 は、 入射された光の電荷への変換を終了した時刻である。
なお、 実際には、 イメージセンサから出力される画像データの画素値は、 例え ばフレーム全体として、 そのゲインが補正されている。
画像データの各画素値は、 イメージセンサの各検出素子の受光面に入射した光 の積分値であり、 イメージセンサに入射された光のうち、 検出素子の受光面より も微小な実世界 1の光の波形は、 積分値としての画素値に隠されてしまう。
以下、 本明細書において、 所定の次元を基準として表現される信号の波形を単 に波形とも称する。
このように、 実世界 1の画像は、 画素を単位として、 空間方向および時間方向 1488
33
に積分されてしまうので、 画像データにおいては、 実世界 1の画像の定常性の一 部が欠落し、 実世界 1の画像の定常性の他の一部のみが画像データに含まれるこ とになる。 または、 画像データには、 実世界 1の画像の定常性から変化してしま つた定常性が含まれることがある。
積分効果を有するイメージセンサにより撮像された画像の、 空間方向の積分効 果についてさらに説明する。
図 1 0は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値と の関係を説明する図である。 図 1 0の F (x)は、 空間上 (検出素子上) の空間方 向 Xの座標 X を変数とする、 実世界 1の光の強度の分布を表す関数の例である。 言い換えれば、 F (x)は、 空間方向 Yおよび時間方向に一定である場合の、 実世 界 1の光の強度の分布を表す関数の例である。 図 1 0において、 Lは、 画素 D乃 至画素 Fに対応する検出素子の受光面の空間方向 Xの長さを示す。
1つの画素の画素値は、 F (x)の積分で表される。 例えば、 画素 Eの画素値 P は、 式 (2 ) で表される。
P = £2 F (x) dx
" χ1
• · · ( 2 )
式 (2 ) において、 Xl は、 画素 Εに対応する検出素子の受光面の左側の境界 の空間方向 Xの空間座標である。 x2は、 画素 Eに対応する検出素子の受光面の 右側の境界の空間方向 Xの空間座標である。
同様に、 積分効果を有するイメージセンサにより撮像された画像の、 時間方向 の積分効果についてさらに説明する。
図 1 1は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。 図 1 1の F (t)は、 時刻 tを変数とする、 実世界 1の光の強度の分布を表す関数である。 言い換えれば、 F (t)は、 空間方 向 Yおよび空間方向 Xに一定である場合の、 実世界 1の光の強度の分布を表す関 数の例である。 ts は、 シャツタ時間を示す。 フレーム #n_lは、 フレーム #nに対して時間的に前のフレームであり、 フレー ム¾+1は、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレ ーム #n- 1、 フレーム #n、 およびフレーム #η+1は、 フレーム #η_1、 フレーム #η、 およびフレーム #η+1の順で表示される。
なお、 図 1 1で示される例において、 シャツタ時間 ts とフレーム間隔とが同 一でめる。
1つの画素の画素値は、 F (t)の積分で表される。 例えば、 フレーム の画素 の画素値 pは、 式 (3 ) で表される。
P = /'2 F (t) dx
-1
· · · ( 3 )
式 (3 ) において、 は、 入射された光の電荷への変換を開始した時刻であ る。 t2 は、 入射された光の電荷への変換を終了した時刻である。
以下、 センサ 2による空間方向の積分効果を単に空間積分効果と称し、 センサ 2による時間方向の積分効果を単に時間積分効果と称する。 また、 空間積分効果 または時間積分効果を単に積分効果とも称する。
次に、 積分効果を有するイメージセンサにより取得されたデータ 3に含まれる データの定常性の例について説明する。
図 1 2は、 実世界 1の線状の物 (例えば、 細線) の画像、 すなわち光の強度の 分布の例を示す図である。 図 1 2において、 図中の上側の位置は、 光の強度 (レ ベル) を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方 向 Yの位置を示す。
実世界 1の線状の物の画像には、 所定の定常性が含まれる。 すなわち、 図 1 2 で示される画像は、 長さ方向の任意の位置において、 断面形状 (長さ方向に直交 する方向の位置の変化に対するレベルの変化) が同じであるという定常性を有す る。 図 1 3は、 図 1 2で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。
図 1 4は、 図 1 3に示す画像データの模式図である。
図 1 4で示される模式図は、 イメージセンサの画素の並ぴ (画素の縦または横 の並び) とずれた方向に延びる、 各画素の受光面の長さ Lよりも短い径の線状 の物の画像を、 イメージセンサで撮像して得られた画像データの模式図である。 図 1 4で示される画像データが取得されたときにイメージセンサに入射された画 像は、 図 1 2の実世界 1の線状の物の画像である。
図 1 4において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 4における画素 値を示す方向は、 図 1 2におけるレベルの方向に対応し、 図 1 4における空間方 向 X、 および空間方向 Yは、 図 1 2における方向と同じである。
各画素の受光面の長さしょりも短い径の線状の物の画像を、 イメージセンサ で撮像した場合、 撮像の結果得られる画像データにおいて、 線状の物は、 模式的 に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) で 表される。 各円弧形状は、 ほぼ同じ形状である。 1つの円弧形状は、 縦に 1列の 画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 4における 1 つの円弧形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 実世界 1の線状の物の画像が有していた、 長さ方向の任意の位置におい て、 空間方向 Yにおける断面形状が同じであるという定常性が失われている。 ま た、 実世界 1の線状の物の画像が有していた定常性は、 縦に 1列の画素の上、 ま たは横に 1列の画素の上に形成された、 同じ形状である円弧形状が一定の間隔で 並ぶという定常性に変化していると言える。
図 1 5は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界 1の画像、 すなわち光の強度の分布の例を示す図である。 図 1 5において、 図 P T/JP2004/001488
36
中の上側の位置は、 光の強度 (レベル) を示し、 図中の右上側の位置は、 画像の 空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の 空間方向の他の方向である空間方向 Yの位置を示す。
背景とは異なる色の、 直線状の緣を有する物の実世界 1の画像には、 所定の定 常性が含まれる。 すなわち、 図 1 5で示される画像は、 縁の長さ方向の任意の位 置において、 断面形状 (縁に直交する方向の位置の変化に対するレベルの変化) が同じであるという定常性を有する。
図 1 6は、 図 1 5で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。 図 1 6で示されるように、 画像データは、 画素を単位とした画素値からなるので、 階段状になる。
図 1 7は、 図 1 6に示す画像データの模式図である。
図 1 7で示される模式図は、 イメージセンサの画素の並び (画素の縦または横 の並び) とずれた方向に縁が延びる、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界 1の画像を、 イメージセンサで撮像して得られた画像 データの模式図である。 図 1 7で示される画像データが取得されたときにィメー ジセンサに入射された画像は、 図 1 5で示される、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像である。
図 1 7において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 7における画素 値を示す方向は、 図 1 5におけるレベルの方向に対応し、 図 1 7における空間方 向 X、 および空間方向 Yは、 図 1 5における方向と同じである。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像 を、 イメージセンサで撮像した場合、 撮像の結果得られる画像データにおいて、 直線状の縁は、 模式的に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さのつめ (pawl) 形状で表される。 各つめ形状は、 ほぼ同じ形状である。 1つのつめ形 状は、 縦に 1列の画素の上、 または横に 1列の画素の上に形成される。 例えば、 T JP2004/001488
37
図 1 7において、 1つのつめ形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1 の画像が有していた、 縁の長さ方向の任意の位置において、 断面形状が同じであ るという定常性が失われている。 また、 背景とは異なる色であって、 単色の、 直 線状の縁を有する物の実世界 1の画像が有していた定常性は、 縦に 1列の画素の 上、 または横に 1列の画素の上に形成された、 同じ形状であるつめ形状が一定の 間隔で並ぶという定常性に変化していると言える。
データ定常性検出部 1 0 1は、 このような、 例えば、 入力画像であるデータ 3 が有するデータの定常性を検出する。 例えば、 データ定常性検出部 1 0 1は、 所 定の次元の方向に一定の特徴を有する領域を検出することにより、 データの定常 性を検出する。 例えば、 データ定常性検出部 1 0 1は、 図 1 4で示される、 同じ 円弧形状が一定の間隔で並ぶ領域を検出する。 また、 例えば、 データ定常性検出 部 1 0 1は、 図 1 7で示される、 同じつめ形状が一定の間隔で並ぶ領域を検出す る。
また、 データ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の 角度 (傾き) を検出することにより、 データの定常性を検出する。
また、 例えば、 データ定常性検出部 1 0 1は、 空間方向および時間方向の同様 の形状の並び方を示す、 空間方向および時間方向の角度 (動き) を検出すること により、 データの定常性を検出する。 '
さらに、 例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特 徴を有する領域の長さを検出することにより、 データの定常性を検出する。
以下、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1 の画像がセンサ 2により射影されたデータ 3の部分を 2値エッジとも称する。 次に、 本発明の原理をさらに具体的に説明する。
図 1 8で示されるように、 従来の信号処理においては、 データ 3から、 例えば、 所望の高解像度データ 1 8 1が生成される。 T JP2004/001488
38
これに対して、 本発明に係る信号処理においては、 データ 3から、 実世界 1が 推定され、 推定の結果に基づいて、 高解像度データ 1 8 1が生成される。 すなわ ち、 図 1 9で示されるように、 実世界 1が、 データ 3から推定され、 高解像度デ ータ 1 8 1力 データ 3を考慮して、 推定された実世界 1から高解像度データ 1 8 1が生成される。
実世界 1から高解像度データ 1 8 1を生成するためには、 実世界 1とデータ 3 との関係を考慮する必要がある。 例えば、 実世界 1が、 CCDであるセンサ 2によ り、 データ 3に射影されるとどうなるかが考慮される。
CCDであるセンサ 2は、 上述したように、 積分特性を有する。 すなわち、 デー タ 3の 1つの単位 (例えば、 画素値) は、 実世界 1の信号をセンサ 2の検出素子 (例えば、 CCD) の検出領域 (例えば、 受光面) で積分することにより算出する ことができる。
これを高解像度データ 1 8 1について当てはめると、 仮想的な高解像度のセン サが実世界 1の信号をデータ 3に射影する処理を、 推定された実世界 1に適用す ることにより、 高解像度データ 1 8 1を得ることができる。
換言すれば、 図 2 0で示されるように、 データ 3から実世界 1の信号を推定で きれば、 実世界 1の信号を、 仮想的な高解像度のセンサの検出素子の検出領域毎 に (時空間方向に) 積分することにより、 高解像度データ 1 8 1に含まれる 1つ の値を得ることができる。
例えば、 センサ 2の検出素子の検出領域の大きさに比較して、 実世界 1の信号 の変化が、 より小さいとき、 データ 3は、 実世界 1の信号の小さい変化を表すこ とができない。 そこで、 データ 3から推定された実世界 1の信号を、 実世界 1の 信号の変化に比較して、 より小さい領域毎に (時空間方向に) 積分することによ り、 実世界 1の信号の小さい変化を示す高解像度データ 1 8 1を得ることができ る。
すなわち、 仮想的な高解像度のセンサの各検出素子について、 推定された実世 界 1の信号を検出領域で積分することにより、 高解像度データ 1 8 1を得ること T/JP2004/001488
39
ができる。
本発明において、 画像生成部 1 0 3は、 例えば、 仮想的な高解像度のセンサの 各検出素子の時空間方向の領域で、 推定された実世界 1の信号を積分することに より、 高解像度データ 1 8 1を生成する。
次に、 データ 3から、 実世界 1を推定するために、 本発明においては、 データ 3と実世界 1との関係、 定常性、 およびデータ 3における空間混合が利用される。 ここで、 混合とは、 データ 3において、 実世界 1における 2つの物体に対する 信号が混合されて 1つの値となることをいう。
空間混合とは、 センサ 2の空間積分効果による、 2つの物体に対する信号の空 間方向の混合をいう。
実世界 1そのものは、 無限の数の事象からなり、 従って、 実世界 1そのものを、 例えば、 数式で表現するためには、 無限の数の変数が必要になる。 データ 3から、 実世界 1の全ての事象を予測することはできない。
同様に、 データ 3から、 実世界 1の信号の全てを予測することはできない。 そこで、 図 2 1で示されるように、 本発明においては、 実世界 1の信号のうち、 定常性を有し、 ·関数 f (X, y, z, t)で表すことができる部分に注目し、 関数
f (x,y,z,t)で表すことができる、 定常性を有する実世界 1の信号の部分が、 N 個の変数で表現されるモデル 1 6 1で近似される。 そして、 図 2 2で示されるよ うに、 モデル 1 6 1力 データ 3の中の、 M個のデータ 1 6 2から予測される。
M個のデータ 1 6 2からモデル 1 6 1の予測を可能にするには、 第 1に、 モデ ル 1 6 1を、 定常性に基づいて、 N個の変数で表し、 第 2に、 センサ 2の積分特 性に基づいて、 N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との 関係を示す、 N個の変数を使用した式を立てることが必要である。 モデル 1 6 1 1 定常性に基づいて、 Ν個の変数で表されているので、 Ν個の変数で表現され るモデル 1 6 1と Μ個のデータ 1 6 2との関係を示す、 Ν個の変数を使用した式 は、 定常性を有する実世界 1の信号の部分と、 データの定常性を有するデータ 3 の部分との関係を記述しているとも言える。 4 001488
40
換言すれば、 N個の変数で表現されるモデル 1 6 1で近似される、 定常性を有 する実世界 1の信号の部分は、 データ 3において、 データの定常性を生じさせる。 データ定常性検出部 1 0 1は、 定常性を有する実世界 1の信号の部分によって、 データの定常性が生じたデータ 3の部分、 およびデータの定常性が生じた部分の 特徴を検出する。
例えば、 図 2 3で示されるように、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界 1の画像において、 図 2 3中 Aで示す、 注目する位置 における縁は、 傾きを有している。 図 2 3の Bの矢印は、 縁の傾きを示す。 所定 の縁の傾きは、 基準となる軸に対する角度または基準となる位置に対する方向で 表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの座標軸と、 縁との 角度で表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの長さおょぴ 空間方向 Yの長さで示される方向で表すことができる。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像 1 センサ 2で取得されて、 データ 3が出力されたとき、 データ 3において、 実 世界 1の画像における、 縁の注目する位置 (A) に対する、 図 2 3中 A ' で示す 位置に、 縁に対応するつめ形状が並び、 実世界 1の画像の縁の傾きに対応する、 図 2 3中 B, で示す傾きの方向に、 縁に対応するつめ形状が並ぶ。
N個の変数で表現されるモデル 1 6 1は、 このような、 データ 3において、 デ ータの定常性を生じさせる、 実世界の 1の信号の部分を近似する。
N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式を立てるとき、 データ 3において、 データの定常性が生 じている部分の値を利用する。
この場合において、 図 2 4で示される、 データ 3において、 データの定常性が 生じ、 混合領域に属する値に注目して、 実世界 1の信号を積分した値が、 センサ 2の検出素子が出力する値に等しいとして、 式が立てられる。 例えば、 データの 定常性が生じている、 データ 3における複数の値について、 複数の式を立てるこ とができる。 T JP2004/001488
41
図 2 4において、 Aは、 縁の注目する位置を示し、 A ' は、 実世界 1の画像に おける、 縁の注目する位置 (A) に対する、 画素 (の位置) を示す。
ここで、 混合領域とは、 データ 3において、 実世界 1における 2つの物体に対 する信号が混合されて 1つの値となっているデータの領域をいう。 例えば、 背景 とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像に対す るデータ 3において、 直線状の緣を有する物に対する画像、 および背景に対する 画像が積分されている画素値は、 混合領域に属する。
図 2 5は、 式を立てる場合における、 実世界 1における 2つの物体に対する信 号おょぴ混合領域に属する値を説明する図である。
図 2 5中の左側は、 センサ 2の 1つの検出素子の検出領域で取得される、 空間 方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2つの物体 に対する実世界 1の信号を示す。 図 2 5中の右側は、 図 2 5中の左側に示す実世 界 1の信号がセンサ 2の 1つの検出素子によって射影された、 データ 3の 1つの 画素の画素値 Pを示す。 すなわち、 センサ 2の 1つの検出素子によって取得され た、 空間方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2 つの物体に対する実世界 1の信号が射影された、 データ 3の 1つの画素の画素値 Pを示す。
図 2 5の Lは、 実世界 1における 1つの物体に対する、 図 2 5の白い部分の実 世界 1の信号のレベルを示す。 図 2 5の Rは、 実世界 1における他の 1つの物体 に対する、 図 2 5の斜線で表される部分の実世界 1の信号のレベルを示す。 ここで、 混合比ひは、 センサ 2の 1つの検出素子の、 空間方向 Xおよび空間方 向 Yに所定の広がりを有する検出領域に入射された、 2つの物体に対する信号
(の面積) の割合を示す。 例えば、 混合比ひは、 センサ 2の 1つの検出素子の検 出領域の面積に対する、 空間方向 Xおよび空間方向 Yに所定の広がりを有する、 センサ 2の 1つの検出素子の検出領域に入射された、 レベル Lの信号の面積の割 合を示す。
この場合において、 レベル L、 レベル R、 および画素値 Pの関係は、 式 (4 ) で表すことができる。
a X L + ( 1 - α ) X R = Ρ ■ ■ ■ ( 4 ) なお、 レベル Rは、 注目している画素の右側に位置している、 データ 3の画素 の画素値とすることができる場合があり、 レベル Lは、 注目している画素の左側 に位置している、 デ タ 3の画素値とすることができる場合がある。
また、 混合比 αおよび混合領域は、 空間方向と同様に、 時間方向を考慮するこ とができる。 例えば、 センサ 2に対して撮像の対象となる実世界 1の物体が移動 しているとき、 時間方向に、 センサ 2の 1つの検出素子の検出領域に入射される、 2つの物体に対する信号の割合は変化する。 センサ 2の 1つの検出素子の検出領 域に入射された、 時間方向に割合が変化する、 2つの物体に対する信号は、 セン サ 2の検出素子によって、 データ 3の 1つの値に射影される。
センサ 2の時間積分効果による、 2つの物体に対する信号の時間方向の混合を 時間混合と称する。
データ定常性検出部 1 0 1は、 例えば、 実世界 1における 2つの物体に対する 実世界 1の信号が射影された、 データ 3における画素の領域を検出する。 データ 定常性検出部 1 0 1は、 例えば、 実世界 1の画像の縁の傾きに対応する、 データ 3における傾きを検出する。
そして、 実世界推定部 1 0 2は、 例えば、 データ定常性検出部 1 0 1で検出さ れた、 所定の混合比 αを有する画素の領域、 および領域の傾きを基に、 Ν個の変 数で表現されるモデル 1 6 1と Μ個のデータ 1 6 2との関係を示す、 Ν個の変数 を使用した式を立てて、 立てた式を解くことにより、 実世界 1の信号を推定する。 さらに、 具体的な実世界 1の推定について説明する。
関数 F (x, y, Z,t)で表される実世界の信号のうち、 空間方向 Zの断面 (センサ 2の位置) における関数 F (x, y,t)で表される実世界の信号を、 空間方向 Xにお ける位置 x、 空間方向 Yにおける位置 y、 および時刻 tで決まる
近似関数 f ( , y, t) で近似することを考える。.
ここで、 センサ 2の検出領域は、 空間方向 Xおよび空間方向 Yに広がりを有す る。 換言すれば、 近似関数 f (x, y,t) は、 センサ 2で取得される、 空間方向お よび時間方向に広がりを有する実世界 1の信号を近似する関数である。
センサ 2による実世界 1の信号の射影によって、 データ 3の値 P(x,y,t)が得 られるものとする。 データ 3の値 P(x, y, ΐ)は、 例えば、 イメージセンサである センサ 2が出力する、 画素値である。
ここで、 センサ 2による射影を定式化できる場合、 近似関数 f (x, y, t) を射 影して得られた値を射影関数 S (x, y,t) と表すことができる。
射影関数 S (x, y, t) を求める上で、 以下に示す問題がある。
第 1に、 一般的に、 実世界 1の信号を表す関数 F(x,y,z,t)は、 無限の次数の 関数となり うる。
第 2に、 たとえ、 実世界の信号を関数として記述できたとしても、 センサ 2の 射影を介した、 射影関数 S (x, y, t) を定めることは、 一般的にはできない。 す なわち、 センサ 2による射影の動作、 言い換えればセンサ 2の入力信号と出力信 号との関係を知らないので、 射影関数 S (x,y, t) を定めることはできない。
第 1の問題点に対して、 実世界 1の信号を近似する関数 f(x,y,t)を記述可能 な関数 (例えば、 有限次数の関数) である関数 fi (x,y,t) および変数 ^ の積 和で表現することを考える。
また、 第 2の問題点に対して、 センサ 2による射影を定式化することで、 関数 fi (x,y,t) の記述から、 関数 Si (x,y,t) を記述することができる。
すなわち、 実世界 1の信号を近似する関数 f(x,y,t)を関数 (x,y,t) およ び変数 の積和で表現すると、 式 (5) が得られる。
N
f (X, y, t) = ∑ Wjf j (x, y, t)
i=1
• · · (5)
例えば、 式 (6) で示されるように、 センサ 2の射影を定式化することにより、 式 (5) から、 データ 3と実世界の信号の関係を式 (7) のように定式化するこ とができる。 4001488
44
Sj (x, y, t) = Jjf f j (x, y, t)dxdydt
(6)
N
Pj(xj, yj, j) = ∑ WjSjCxj.yj, tj)
• · · (7)
式 (7) において、 jは、 データのインデックスである。
式 (7) の N個の変数 (i = l乃至 N) が共通である M個のデータ群 (j=l乃 至 M) が存在すれば、 式 (8) を満たすので、 データ 3から実世界のモデル 1 6 1を求めることができる。
N≤M · · ■ (8)
Nは、 実世界 1を近似するモデル 1 6 1を表現する変数の数である。 Mは、 デー タ 3に含まれるデータ 1 6 2の数である。
実世界 1の信号を近似する関数 f(x,y,t)を式 (5) で表すことにより、 Wi と して変数の部分を独立させることができる。 このとき、 iは、 そのまま変数の数 を示すことになる。 また、 で示される関数の形を独立させることができ、 として所望の関数を利用することができるようになる。
従って、 関数 の形に依存せず、 変数 ^ の数 Nを定義でき、 変数^ の数 N とデータの数 Mとの関係で変数 ^ を求めることができる。
すなわち、 以下の 3つを用いることで、 データ 3から実世界 1を推定すること ができるようになる。
第 1に、 N個の変数を定める、 すなわち、 式 (5) を定める。 これは、 定常性 を用いて実世界 1を記述することにより可能になる。 例えば、 断面が多項式で表 され、 同じ断面形状が一定方向に続く、 というモデル 1 6 1で実世界 1の信号を 記述することができる。
第 2に、 例えば、 センサ 2による射影を定式化して、 式 (7) を記述する。 例 えば、 実世界 2の信号の積分を行った結果がデータ 3であると定式化する。 第 3に、 M個のデータ 1 6 2を集めて、 式 (8) を満足させる。 例えば、 デー タ定常性検出部 1 0 1で検出された、 データの定常性を有する領域から、 データ 1 6 2が集められる。 例えば、 定常性の一例である、 一定の断面が続く領域のデ ータ 1 6 2が集められる。
このように、 式 (5) によって、 データ 3と実世界 1との関係を記述し、 M個 のデータ 1 6 2を集めることで、 式 (8) を満たすことにより、 実世界 1を推定 することができる。
より具体的には、 N=Mのとき、 変数の数 Nと式の数 Mが等しいので、 連立方 程式を立てることにより、 変数 を求めることができる。
また、 N<Mのとき、 様々な解法を適用できる。 例えば、 最小自乗法により、 変数 を求めることができる。
ここで、 最小自乗法による解法について、 詳細に記載する。
まず、 式 (7) に従って、 実世界 1からデータ 3を予測する式 (9) を示す。
N
P'jCXj.yj, tj) = ∑ WjSj j, yj, tj)
i=1
• · · (9)
式 (9) において、 P'j (Xj,yj > tj) は、 予測値である。
予測値 P'と実測値 Pとの差分自乗和 Eは、 式 (1 0) で表される。
M
2
= ∑ (Pj(Xj, yj,tj)-P,j(Xj,yj, tj))
• ■ · (1 0)
差分自乗和 Eが最小になるように、 変数 ^ が求められる。 従って、 各変数 wk による式 (1 0) の偏微分値は 0とされる。 すなわち、 式 (1 1) が成り立つ。
¾ = "2 ∑ WiSk (xj, yjf ) (Pj (xj, tj) - 1 WiSi (xj( yj,tj)) = 0
• · · ( 1 1)
式 (1 1 ) から式 (1 2) が導かれる。 M N M
∑ (Sk(Xj(yj,tj)∑ WjSjCXj.yj.tj)) = ∑ Sk(Xj,yj,tj)Pj(Xj,yj,tj) j=l i=1 j=i
• · · ( 1 2)
式 (1 2) が K=l乃至 Nで成り立つとき、 最小自乗法による解が得られる, のときの正規方程式は、 式 (1 3 ) で示される。
Figure imgf000048_0001
• ( 1 4)
W2
WN
( 1 5) P T/JP2004/001488
47
Figure imgf000049_0001
(1 6)
式 (14) 乃至式 (1 6) から、 式 (1 3) は、 SMATWMAT=PMAT と表すこと ができる。
式 (1 3) において、 Si は、 実世界 1の射影を表す。 式 (1 3) において、 Pj は、 データ 3を表す。 式 (1 3) において、 Wi は、 実世界 1の信号の特徴を 記述し、 求めようとする変数である。
従って、 式 (1 3) にデータ 3を入力し、 行列解法などにより WMAT を求める ことで、 実世界 1を推定することが可能になる。 すなわち、 式 (1 7) を演算す ることにより、 実世界 1を推定することができるようになる。
A T ~SM A T A M A T , , , (丄 7/| なお、 SMAT が正則でない場合、 SMATの転置行列を利用して、 WMAT を求めるこ とができる。
実世界推定部 10 2は、 例えば、 式 (1 3) にデータ 3を入力し、 行列解法な どにより AT を求めることで、 実世界 1を推定する。
ここで、 さらにより具体的な例を説明する。 例えば、 実世界 1の信号の断面形 状、 すなわち位置の変化に対するレベルの変化を、 多項式で記述する。 実世界 1 の信号の断面形状が一定で、 実世界 1の信号の断面が等速で移動すると仮定する c そして、 センサ 2による実世界 1の信号からデータ 3への射影を、 実世界 1の信 号の時空間方向の 3次元で積分で定式化する。
実世界 1の信号の断面形状が、 等速で移動するとの仮定から、 式 (1 8) およ び式 (1 9) が得られる。 T細 04/001488
48 dx
dt = Vx
■ · · ( 1 8) dt — Vy
• · - (1 9)
ここで、 vxおよび vyは、 一定である。
実世界 1の信号の断面形状は、 式 (1 8) および式 (1 9) を用いることで、 式 (2 0) と表される。
f (x' ,y' )=f (x+vxt,y+vyt) · · · (2 0)
センサ 2による実世界 1の信号からデータ 3への射影を、 実世界 1の信号の時 空間方向の 3次元で積分で定式化すれば、 式 (2 1) が得られる。
S(x, y,t) =
Figure imgf000050_0001
= £Xe/t!ef(x+vxt'y+vyt)dxdydt
• · · (2 1 )
式 (2 1) において、 S(x,y, t)は、 空間方向 Xについて、 位置 xs から位置 xe まで、 空間方向 Yについて、 位置 ysから位置 yeまで、 時間方向 tについて、 時刻 から時刻 te までの領域、 すなわち時空間の直方体で表される領域の積分 値を示す。
式 (2 1 ) を定めることができる所望の関数 f(x',y')を用いて、 式 (1 3) を解けば、 実世界 1の信号を推定することができる。
以下では、 関数 f (x',y')の一例として、 式 (2 2) に示す関数を用いること とする。
f (X , y ) =w, x +w。 v +w3
= , (x+vxt)+w2 (y+vyt)+ 3 · · ■ (2 2)
すなわち、 実世界 1の信号が、 式 (1 8) 、 式 (1 9) 、 および式 (2 2) で 表される定常性を含むと仮定している。 これは、 図 2 6で示されるように、 一定 の形状の断面が、 時空間方向に移動していることを示す。
式 (2 1 ) に、 式 (2 2) を代入することにより、 式 (2 3) が得られる。
S(x,y,t) = Γχ f ft f(x -vxt,y+vyt)dxdydt
= Volume (-^ ( xe+xs+vx ( te+ts) )
= w0S0(x, y, t)+w S1 (x, y, t) +w2S2(x, y, t)
· · · (2 3)
ただし、
Volume (xe - xs ) (ye - ys ) (te - ts )
50 (x, y, t)二 Volume/2 X (xe +xs +vx (te +ts ) )
51 (x, y, t) =Volume/2 X (ye +ys +vy (te +ts ) )
S2 (x, y, t)=l
である。
図 2 7は、 データ 3から抽出される、 M個のデータ 1 6 2の例を示す図である c 例えば、 2 7個の画素値が、 データ 1 6 2として抽出され、 抽出された画素値が、
Pj (X, y, t)とされる。 この場合、 jは、 0乃至 2 6である。
図 2 7に示す例において、 nである時刻 tの注目する位置に対応する画素の画 素値が Pi 3 (x,y,t)であり、 データの定常性を有する画素の画素値の並ぶ方向
(例えば、 データ定常性検出部 1 0 1で検出された、 同じ形状であるつめ形状が 並ぶ方向) 1S P4 (x, y,t)、 P13 (x, y,t)、 および P22 (x, y, t)を結ぶ方向である とき、 nである時刻 tにおける、 画素値 Pg ^,1;)乃至?17 ( 7,1:)、 nより時 間的に前である、 n-1である時刻 tにおける、 画素値 P。 , y,t)乃至 P8 (x,y, t), および nより時間的に後である、 n+1である時刻 1:における、 画素値
P18 ( ,7,1:)乃至?26 (x,y,t)が抽出される。 T/JP2004/001488
50
ここで、 センサ 2であるイメージセンサから出力された、 データ 3である画素 値が取得された領域は、 図 2 8で示されるように、 時間方向および 2次元の空間 方向に広がりを有する。 そこで、 例えば、 図 2 9で示されるように、 画素に対応 する直方体 (画素値が取得された領域) の重心を、 画素の時空間方向の位置とし て使用することができる。 図 2 9中の丸は、 重心を示す。
2 7個の画素値 P。(x,y, t)乃至 P2 6 (x,y, t)、 および式 (2 3 ) から、 式 (1 3 ) を生成し、 Wを求めることで、 実世界 1を推定することが可能になる。
このように、 実世界推定部 1 0 2は、 例えば、 2 7個の画素値 P。(X, y,t)乃至 P2 6 (x,y,t)、 およぴ式 (2 3 ) から、 式 (1 3 ) を生成し、 W を求めることで、 実世界 1の信号を推定する。
なお、 関数 fi ( , y, t) として、 ガウス関数、 またはシグモイド関数などを利 用することができる。
図 3 0乃至図 3 4を参照して、 推定された実世界 1の信号から、 データ 3に対 応する、 より高解像度の高解像度データ 1 8 1を生成する処理の例について説明 する。
図 3 0で示されるように、 データ 3は、 時間方向および 2次元の空間方向に実 世界 1の信号が積分された値を有する。 例えば、 センサ 2であるイメージセンサ から出力された、 データ 3である画素値は、 検出素子に入射された光である、 実 世界 1の信号が、 時間方向に、 検出時間であるシャツタ時間で積分され、 空間方 向に、 検出素子の受光領域で積分された値を有する。
これに対して、 図 3 1で示されるように、 空間方向により解像度の高い髙解像 度データ 1 8 1は、 推定された実世界 1の信号を、 時間方向に、 データ 3を出力 したセンサ 2の検出時間と同じ時間で積分するとともに、 空間方向に、 データ 3 を出力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分する ことにより、 生成される。
なお、 空間方向により解像度の高い高解像度データ 1 8 1を生成する場合にお いて、 推定された実世界 1の信号が積分される領域は、 データ 3を出力したセン 8
51
サ 2の検出素子の受光領域と全く無関係に設定することができる。 例えば、 高解 像度データ 1 8 1に、 データ 3に対して、 空間方向に整数倍の解像度を持たせる ことは勿論、 5 / 3倍など、 データ 3に対して、 空間方向に有理数倍の解像度を 持たせることができる。
また、 図 3 2で示されるように、 時間方向により解像度の高い高解像度データ
1 8 1は、 推定された実世界 1の信号を、 空間方向に、 データ 3を出力したセン サ 2の検出素子の受光領域と同じ領域で積分するとともに、 時間方向に、 データ
3を出力したセンサ 2の検出時間に比較して、 より短い時間で積分することによ り、 生成される。
なお、 時間方尚により解像度の高い高解像度データ 1 8 1を生成する場合にお いて、 推定された実世界 1の信号が積分される時間は、 データ 3を出力したセン サ 2の検出素子のシャツタ時間と全く無関係に設定することができる。 例えば、 高解像度データ 1 8 1に、 データ 3に対して、 時間方向に整数倍の解像度を持た せることは勿論、 7 / 4倍など、 データ 3に対して、 時間方向に有理数倍の解像 度を持たせることができる。
図 3 3で示されるように、 動きボケを除去した高解像度データ 1 8 1は、 推定 された実世界 1の信号を、 時間方向に積分しないで、 空間方向にのみ積分するこ とにより、 生成される。
さらに、 図 3 4で示されるように、 時間方向および空間方向により解像度の高 い高解像度データ 1 8 1は、 推定された実世界 1の信号を、 空間方向に、 データ 3を出力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分す るとともに、 時間方向に、 データ 3を出力したセンサ 2の検出時間に比較して、 より短い時間で積分することにより、 生成される。
この場合において、 推定された実世界 1の信号が積分される領域および時間は、 データ 3を出力したセンサ 2の検出素子の受光領域およびシャッタ時間と全く無 関係に設定することができる。
このように、 画像生成部 1 0 3は、 例えば、 推定された実世界 1の信号を所望 の時空間の領域で積分することにより、 時間方向、 または空間方向に、 より高解 像度のデータを生成する。
以上のように、 実世界 1の信号を推定することにより、 実世界 1の信号に対し てより正確で、 時間方向、 または空間方向に、 より高解像度のデータを生成する ことができる。
図 3 5乃至図 3 9を参照して、 本発明に係る信号処理装置 4の、 入力画像の例 と、 処理の結果の例を示す。
図 3 5は、 入力画像の元の画像を示す図である。 図 3 6は、 入力画像の例を示 す図である。 図 3 6で示される入力画像は、 図 3 5で示される画像の 2 X 2の画 素からなるプロックに属する画素の画素値の平均値を、 1つの画素の画素値とし て生成された画像である。 すなわち、 入力画像は、 図 3 5で示される画像に、 セ ンサの積分特性を模した、 空間方向の積分を適用することにより得られた画像で ある。
図 3 5で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾い た細線の画像が含まれている。 同様に、 図 3 6で示される入力画像において、 上 下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 3 7は、 図 3 6で示される入力画像に、 従来のクラス分類適応処理を適用し て得られた画像を示す図である。 ここで、 クラス分類適応処理は、 クラス分類処 理と適応処理とからなり、 クラス分類処理によって、 データを、 その性質に基づ いてクラス分けし、 各クラスごとに適応処理を施すものである。 適応処理では、 例えば、 低画質または標準画質の画像が、 所定のタップ係数を用いてマッピング (写像) されることにより、 高画質の画像に変換される。
図 3 7で示される画像において、 細線の画像が、 図 3 5の元の画像とは異なる ものになっていることがわかる。
図 3 8は、 データ定常性検出部 1 0 1による、 図 3 6の例で示される入力画像 から細線の領域を検出した結果を示す図である。 図 3 8において、 白い領域は、 細線の領域、 すなわち、 図 1 4で示される円弧形状が並んでいる領域を示す。 図 3 9は、 図 3 6で示される画像を入力画像として、 本発明に係る信号処理装 置 4から出力された出力画像の例を示す図である。 図 3 9で示されるように、 本 発明に係る信号処理装置 4によれば、 図 3 5で示される元の画像の細線の画像に より近い画像を得ることができる。
図 4 0は、 本発明に係る信号処理装置 4による、 信号の処理を説明するフロー チヤ一トである。
ステップ S 1 0 1において、 データ定常性検出部 1 0 1は、 定常性の検出の処 理を実行する。 データ定常性検出部 1 0 1は、 データ 3である入力画像に含まれ ているデータの定常性を検出して、 検出したデータの定常性を示すデータ定常性 情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。
データ定常性検出部 1 0 1は、 現実世界の信号の定常性に対応するデータの定 常性を検出する。 ステップ S 1 0 1の処理において、 データ定常性検出部 1 0 1 により検出されるデータの定常性は、 データ 3に含まれる、 実世界 1の画像の定 常性の一部であるか、 または、 実世界 1の信号の定常性から変化してしまった定 常性である。
例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特徴を有す る領域を検出することにより、 データの定常性を検出する。 また、 例えば、 デー タ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の角度 (傾き) を検出することにより、 データの定常性を検出する。
ステップ S 1 0 1における、 定常性の検出の処理の詳細は、 後述する。
なお、 データ定常性情報は、 データ 3の特徴を示す特徴量として利用すること ができる。
ステップ S 1 0 2において、 実世界推定部 1 0 2は、 実世界の推定の処理を実 行する。 すなわち、 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出 部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号を推定する。 例えば、 ステップ S 1 0 2の処理において、 実世界推定部 1 0 2は、 実世界 1を 近似 (記述) するモデル 1 6 1を予測することにより、 実世界 1の信号を推定す 4 001488
54
る。 実世界推定部 1 0 2は、 推定された実世界 1の信号を示す実世界推定情報を 画像生成部 1 0 3に供給する。
例えば、 実世界推定部 1 0 2は、 線状の物の幅を予測することにより、 実世界
1の信号を推定する。 また、 例えば、 実世界推定部 1 0 2は、 線状の物の色を示 すレベルを予測することにより、 実世界 1の信号を推定する。
ステップ S 1 0 2における、 実世界の推定の処理の詳細は、 後述する。
なお、 実世界推定情報は、 データ 3の特徴を示す特徴量として利用することが できる。
ステップ S 1 0 3において、 画像生成部 1 0 3は、 画像の生成の処理を実行し て、 処理は終了する。 すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 画像を生成して、 生成した画像を出力する。 または、 画像生成部 1 0 3は、 デー タ定常性情報および実世界推定情報を基に、 画像を生成して、 生成した画像を出 力する。
例えば、 ステップ S 1 0 3の処理において、 画像生成部 1 0 3は、 実世界推定 情報を基に、 生成された現実世界の光信号を近似する関数を空間方向に積分する ことにより、 入力画像に比較して、 空間方向により高解像度の画像を生成して、 生成した画像を出力する。 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 生成された現実世界の光信号を近似する関数を時空間方向に積分することにより、 入力画像に比較して、 時間方向および空間方向により高解像度の画像を生成して、 生成した画像を出力する。 ステップ S 1 0 3における、 画像の生成の処理の詳細 は、 後述する。
このように、 本発明に係る信号処理装置 4は、 データ 3からデータの定常性を 検出し、 検出したデータの定常性を基に、 実世界 1を推定する。 そして、 信号処 理装置 4は、 推定された実世界 1を基に、 より実世界 1に近似した信号を生成す る。
以上のように、 現実世界の信号を推定して処理を実行するようにした場合には、 正確で、 精度の高い処理結果を得ることができるようになる。 T/JP2004/001488
55
また、 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実 世界の信号の定常性の一部が欠落した第 1の次元よりも少ない第 2の次元の第 2 の信号の、 欠落した現実世界の信号の定常性に対応するデータの定常性を検出し、 検出されたデータの定常性に基づいて、 欠落した現実世界の信号の定常性を推定 することにより第 1の信号を推定するようにした場合には、 現実世界の事象に対 して、 より正確で、 より精度の高い処理結果を得ることができるようになる。 次に、 データ定常性検出部 1 0 1の構成の詳細について説明する。
図 4 1は、 データ定常性検出部 1 0 1の構成を示すブロック図である。
図 4 1に構成を示すデータ定常性検出部 1 0 1は、 細線である対象物を撮像し たとき、 対象物の有する断面形状が同じであるという定常性から生じた、 データ 3に含まれるデータの定常性を検出する。 すなわち、 図 4 1に構成を示すデータ 定常性検出部 1 0 1は、 細線である実世界 1の画像の有する、 長さ方向の任意の 位置において、 長さ方向に直交する方向の位置の変化に対する光のレベルの変化 が同じであるという定常性から生じた、 データ 3に含まれるデータの定常性を検 出する。
より具体的には、 図 4 1に構成を示すデータ定常性検出部 1 0 1は、 細線の画 像を空間積分効果を有するセンサ 2で撮像して得られたデータ 3に含まれる、 斜 めにずれて隣接して並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) が配置さ れる領域を検出する。
データ定常性検出部 1 0 1は、 データ 3である入力画像から、 データの定常性 を有する細線の画像が射影された画像データの部分 (以下、 定常成分とも称す る) 以外の画像データの部分 (以下、 非定常成分と称する) を抽出し、 抽出され た非定常成分と入力画像とから、 実世界 1の細線の画像が射影された画素を検出 し、 入力画像における、 実世界 1の細線の画像が射影された画素からなる領域を 検出する。
非定常成分抽出部 2 0 1は、 入力画像から非定常成分を抽出して、 入力画像と 共に、 抽出された非定常成分を示す非定常成分情報を頂点検出部 2 0 2および単 調增減検出部 2 0 3に供給する。
例えば、 図 4 2で示されるように、 ほぼ一定の光のレベルの背景の前に細線が ある実世界 1の画像がデータ 3に射影されたとき、 図 4 3で示されるように、 非 定常成分抽出部 2 0 1は、 データ 3である入力画像における背景を平面で近似す ることにより、 背景である非定常成分を抽出する。 図 4 3において、 実線は、 デ ータ 3の画素値を示し、 点線は、 背景を近似する平面で示される近似値を示す。 図 4 3において、 Aは、 細線の画像が射影された画素の画素値を示し、 P Lは、 背景を近似する平面を示す。
このように、 データの定常性を有する画像データの部分における、 複数の画素 の画素値は、 非定常成分に対して不連続となる。
非定常成分抽出部 2 0 1は、 実世界 1の光信号である画像が射影され、 実世界 1の画像の定常性の一部が欠落した、 データ 3である画像データの複数の画素の 画素値の不連続部を検出する。
非定常成分抽出部 2 0 1における非定常成分の抽出の処理の詳細は、 後述する。 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 非定常成分抽出部 2 0 1か ら供給された非定常成分情報を基に、 入力画像から非定常成分を除去する。 例え ば、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画像の各画素のうち、 背景の画像のみが射影された画素の画素値を 0に設定することにより、 入力画 像から非定常成分を除去する。 また、 例えば、 頂点検出部 2 0 2および単調増減 検出部 2 0 3は、 入力画像の各画素の画素値から、 平面 P Lで近似される値を引 き算することにより、 入力画像から非定常成分を除去する。
入力画像から背景を除去することができるので、 頂点検出部 2 0 2乃至連続性 検出部 2 0 4は、 細線が射影された画像データの部分のみを処理の対象とするこ とができ、 頂点検出部 2 0 2乃至連続性検出部 2 0 4における処理がより容易に なる。
なお、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した画像デ ータを頂点検出部 2 0 2および単調増減検出部 2 0 3に供給するようにしてもよ レ、o
以下に説明する処理の例において、 入力画像から非定常成分が除去された画像 データ、 すなわち、 定常成分を含む画素のみからなる画像データが対象となる。 ここで、 頂点検出部 2 0 2乃至連続性検出部 2 0 4が検出しょうとする、 細線 の画像が射影された画像データについて説明する。
図 4 2で示される細線の画像が射影された画像データの空間方向 Yの断面形状 (空間方向の位置の変化に対する画素値の変化) は、 光学 LPFがないとした場 合、 センサ 2であるイメージセンサの空間積分効果から、 図 4 4に示す台形、 ま たは図 4 5に示す三角形となることが考えられる。 しかしながら、 通常のィメー ジセンサは、 光学 LPFを備え、 イメージセンサは、 光学 LPFを通過した画像を 取得し、 取得した画像をデータ 3に射影するので、 現実には、 細線の画像データ の空間方向 Yの断面形状は、 図 4 6に示すようなガウス分布に類似した形状とな る。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影された画素で あって、 同じ断面形状 (空間方向の位置の変化に対する画素値の変化) が画面の 上下方向に一定の間隔で並ぶものからなる領域を検出して、 さらに、 実世界 1の 細線の長さ方向に対応した、 領域の繋がりを検出することにより、 データの定常 性を有する領域である、 細線の画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像における、 縦 に 1列の画素の上に、 円弧形状 (かまぼこ型) が形成される領域を検出し、 検出 された領域が横方向に隣接して並んでいるか否かを判定して、 実世界 1の信号で ある細線の画像の長さ方向に対応した、 円弧形状が形成される領域の繋がりを検 出する。
また、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影された 画素であって、 同じ断面形状が画面の左右方向に一定の間隔で並ぶものからなる 領域を検出して、 さらに、 実世界 1の細線の長さ方向に対応した、 検出された領 域の繋がりを検出することにより、 データの定常性を有する領域である、 細線の T JP2004/001488
58
画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃 至連続性検出部 2 0 4は、 入力画像における、 横に 1列の画素の上に、 円弧形状 が形成される領域を検出し、 検出された領域が縦方向に隣接して並んでいるか否 かを判定して、 実世界 1の信号である細線の画像の長さ方向に対応した、 円弧形 状が形成される領域の繋がりを検出する。
まず、 細線の画像が射影された画素であって、 画面の上下方向に同じ円弧形状 が一定の間隔で並ぶものからなる領域を検出する処理を説明する。
頂点検出部 2 0 2は、 周囲の画素に比較して、 より大きい画素値を有する画素、 すなわち頂点を検出し、 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供 給する。 画面の上下方向に 1列に並ぶ画素を対象とした場合、 頂点検出部 2 0 2 は、 画面の上側に位置する画素の画素値、 および画面の下側に位置する画素の画 素値に比較して、 より大きい画素値を有する画素を頂点として検出する。 頂点検 出部 2 0 2は、 1つの画像、 例えば、 1つのフレームの画像から、 1または複数 の頂点を検出する。
1つの画面には、 フレームまたはフィールドが含まれる。 以下の説明において、 同様である。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされてい ない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の上側の画 素の画素値とを比較し、 注目画素の画素値と、 注目画素の下側の画素の画素値と を比較して、 上側の画素の画素値より大きい画素値を有し、 下側の画素の画素値 より大きい画素値を有する注目画素を検出して、 検出された注目画素を頂点とす る。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。 例えば、 1つの画像の画 素の画素値が全て同じ値であるとき、 または、 1若しくは 2の方向に対して画素 値が減少しているとき、 頂点は検出されない。 この場合、 細線の画像は、 画像デ ータに射影されていない。 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を示 す頂点情報を基に、 頂点検出部 2 0 2で検出された頂点に対して上下方向に 1列 に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候補を検出し、 頂点情報と共に、 検出した領域を示す領域情報を連続性検出部 2 0 4に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調 減少している画素値を有する画素からなる領域を、 細線の画像が射影された画素 からなる領域の候補として検出する。 単調減少とは、 頂点からの距離がより長い 画素の画素値が、 頂点からの距離が短い画素の画素値に比較して、 より小さいこ とを ヽう。
また、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調増加してい る画素値を有する画素からなる領域を、 細線の画像が射影された画素からなる領 域の候補として検出する。 単調増加とは、 頂点からの距離がより長い画素の画素 値が、 頂点からの距離が短い画素の画素値に比較して、 より大きいことをいう。 以下、 単調増加している画素値を有する画素からなる領域についての処理は、 単調減少している画素値を有する画素からなる領域についての処理と同様なので、 その説明は省略する。 細線の画像が射影された画素であって、 画面の横方向に同 じ円弧形状が一定の間隔で並ぶものからなる領域を検出する処理における、 単調 増加している画素値を有する画素からなる領域についての処理も、 単調減少して いる画素値を有する画素からなる領域についての処理と同様なので、 その説明は 省略する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して縦に 1列に各画素について、 各画素の画素値と、 上側の画素の画素値との差分、 および下側の画素の画素値と の差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する画素 を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂点 の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有する 画素からなる領域を、 細線の画像が射影された画素からなる領域の候補として検 出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 上側の画素の面 素値の符号および下側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出することにより、 画素値が単調減少している領域から、 頂点と同じ 符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 上下方向に並び、 頂点に対して画素値 が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出する。 図 4 7は、 空間方向 Yの位置に対する画素値から、 細線の画像が射影された画 素の領域を検出する、 頂点の検出および単調増減領域の検出の処理を説明する図 である。
図 4 7乃至図 4 9において、 Pは、 頂点を示す。 図 4 1で構成が示されるデー タ定常性検出部 1 0 1の説明において、 Pは、 頂点を示す。
頂点検出部 2 0 2は、 各画素の画素値と、 これに空間方向 Yに隣接する画素の 画素値とを比較して、 空間方向 Yに隣接する 2つの画素の画素値より大きい画素 値を有する画素を検出することにより、 頂点 Pを検出する。
頂点 Pと、 頂点 Pの空間方向 Yの両側の画素とからなる領域は、 頂点 Pの画 素値に対して、 空間方向 Yの両側の画素の画素値が単調に減少する単調減少領域 である。 図 4 7において、 Aで示す矢印、 および Bで示す矢印は、 頂点 Pの両側 に存在する単調減少領域を示す。
単調增減検出部 2 0 3は、 各画素の画素値と、 その画素に空間方向 Yに隣接す る画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 単調 増減検出部 2 0 3は、 検出された、 差分の符号が変化する画素と、 その手前側
(頂点 P側) の画素との境界を、 細線の画像が射影された画素からなる細線領 域の境界とする。
図 4 7において、 差分の符号が変化する画素と、 その手前側 (頂点 P側) の 画素との境界である細線領域の境界は Cで示される。
さらに、 単調増減検出部 2 0 3は、 単調減少領域において、 各画素の画素値の 符号と、 その画素に空間方向 Yに隣接する画素の画素値の符号とを比較し、 画素 値の符号が変化する画素を検出する。 単調増減検出部 2 0 3は、 検出された、 画 素値の符号が変化する画素と、 その手前側 (頂点 Ρ側) の画素との境界を細線 領域の境界とする。
図 4 7において、 画素値の符号が変化する画素と、 その手前側 (頂点 Ρ側) の画素との境界である細線領域の境界は Dで示される。
図 4 7で示されるように、 細線の画像が射影された画素からなる細線領域 F は、 細線領域の境界 Cと、 細線領域の境界 Dとに挟まれる領域とされる。
単調増減検出部 2 0 3は、 このような単調増減領域からなる細線領域 Fの中 から、 予め定めた閾値より長い細線領域 F、 すなわち、 閾値より多い数の画素を 含む細線領域 Fを求める。 例えば、 閾値が 3であるとき、 単調増減検出部 2 0 3は、 4つ以上の画素を含む細線領域 Fを検出する。
さらに、 このように検出された細線領域 Fの中から、 単調増減検出部 2 0 3 は、 頂点 Pの画素値、 および頂点 Pの右側の画素の画素値、 および頂点 Pの左 側の画素の画素値を、 それぞれ閾値と比較し、 頂点 Pの画素値が閾値を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素の画素値 が閾値以下である頂点 Pが属する細線領域 Fを検出し、 検出された細線領域 F を細線の画像の成分を含む画素からなる領域の候補とする。
言い換えれば、 頂点 Pの画素値が閾値以下であるか、 頂点 Pの右側の画素の 画素値が閾値を超えるか、 または頂点 Pの左側の画素の画素値が閾値を超える 頂点 Pが属する細線領域 Fは、 細線の画像の成分を含まないと判定され、 細線 の画像の成分を含む画素からなる領域の候補から除去される。
すなわち、 図 4 8で示されるように、 単調增減検出部 2 0 3は、 頂点 Pの画 素値を閾値と比較すると共に、 頂点 Pに対して、 空間方向 X (点線 AA'で示す方 向) に隣接する画素の画素値を、 閾値と比較し、 頂点 P の画素値が閾値を超え、 空間方向 Xに隣接する画素の画素値が閾値以下である、 頂点 Pが属する細線領 域 Fを検出する。 2004/001488
62
図 4 9は、 図 4 8の点線 AA'で示す空間方向 Xに並ぶ画素の画素値を表す図で ある。 頂点 Pの画素値が閾値 T h sを超え、 頂点 Pの空間方向 Xに隣接する画素 の画素値が、 閾値 T h s以下である、 頂点 Pが属する細線領域 Fは、 細線の成分 を含む。
なお、 単調増減検出部 2 0 3は、 背景の画素値を基準として、 頂点 Pの画素 値と背景の画素値との差分を閾値と比較すると共に、 頂点 Pに対して、 空間方 向 Xに隣接する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点? の画素値と背景の画素値との差分が閾値を超え、 空間方向 Xに隣接する画素の画 素値と背景の画素値との差分が閾値以下である、 頂点 Pが属する細線領域 Fを 検出するようにしてもよい。
単調増減検出部 2 0 3は、 頂点 Pを基準として、 画素値が単調減少し、 画素 値の符号が頂点 Pと同じである画素からなる領域であって、 その頂点 Pが閾値 を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素 の画素値が閾値以下であるものを示す単調増減領域情報を連続性検出部 2 0 4に 供給する。
画面の上下方向に 1列に並ぶ画素であって、 細線の画像が射影されたものから なる領域を検出する場合において、 単調増減領域情報により示される領域に属す る画素は、 上下方向に並び、 細線の画像が射影された画素を含む。 すなわち、 単 調増減領域情報により示される領域は、 画面の上下方向に 1列に並ぶ画素であつ て、 細線の画像が射影されたものからなる領域を含む。
このように、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 細線の画像が 射影された画素において、 空間方向 Yの画素値の変化が、 ガウス分布に類似する という性質を利用して、 細線の画像が射影された画素からなる定常領域を検出す る。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域情 報で示される、 上下方向に並ぶ画素からなる領域のうち、 横方向に隣接している 画素を含む領域、 すなわち、 相似した画素 :の変化を有し、 縦方向に重複してい る領域を、 連続している領域として検出し、 頂点情報、 およぴ検出された連続し ている領域を示すデータ定常性情報を出力する。 データ定常性情報は、 単調増減 領域情報、 および領域の繋がりを示す情報などを含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並ぶ ので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよう に一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領域と し、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定常性情 報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の細 線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧 形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3において検出された領域の候補をさらに絞り込む。 図 5 0は、 単調増減領域の連続性を検出の処理を説明する図である。
図 5 0に示すように、 連続性検出部 2 0 4は、 画面の縦方向に 1列に並ぶ画素 からなる細線領域 Fについて、 横方向に隣接する画素を含んでいるとき、 2つ の単調増減領域の間に連続性があるとし、 横方向に隣接する画素を含んでいない とき、 2つの細線領域 Fの間に連続性がないとする。 例えば、 画面の縦方向に 1列に並ぶ画素からなる細線領域 は、 画面の縦方向に 1列に並ぶ画素から なる細線領域 F。の画素と横方向に隣接する画素を含んでいるとき、 細線領域 F0 と連続しているとされる。 画面の縦方向に 1列に並ぶ画素からなる細線領域 F。 は、 画面の縦方向に 1列に並ぶ画素からなる細線領域 の画素と横方向に隣接 する画素を含んでいるとき、 細線領域 と連続しているとされる。
このように、 頂点検出部 2 0 2乃至連続性検出部 2 0 4により、 画面の上下方 向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域が検出 される。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 上述したように、 画面の上下方 向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域を検出 し、 さらに、 画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射影され たものからなる領域を検出する。
なお、 処理の順序は、 本発明を限定するものではなく、 並列に実行するように しても良いことは当然である。
すなわち、 頂点検出部 2 0 2は、 画面の左右方向に 1列に並ぶ画素を対象とし て、 画面の左側に位置する画素の画素値、 および画面の右側に位置する画素の画 素値に比較して、 より大きい画素値を有する画素を頂点として検出し、 検出した 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供給する。 頂点検出部 2 0 2は、 1つの画像、 例えば、 1フレームの画像から、 1または複数の頂点を検出 する。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされてい ない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の左側の画 素の画素値とを比較し、 注目画素の画素値と、 注目画素の右側の画素の画素値と を比較して、 左側の画素の画素値より大きい画素値を有し、 右側の画素の画素値 より大きい画素値を有する注目画素を検出して、 検出された注目画素を頂点とす る。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。
単調増減検出部 2 0 3は、 頂点検出部 2 0 2で検出された頂点に対して左右方 向に 1列に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候補 を検出し、 頂点情報と共に、 検出した領域を示す単調増減領域情報を連続性検出 部 2 0 4に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調 減少している画素値を有する画素からなる領域を、 細線の画像が射影された画素 からなる領域の候補として検出する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して横に 1列の各画素について、 04 001488
65
各画素の画素値と、 左側の画素の画素値との差分、 および右側の画素の画素値と の差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する画素 を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂点 の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有する 画素からなる領域を、 細線の画像が射影された画素からなる領域の候補として検 出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 左側の画素の画 素値の符号または右側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出することにより、 画素値が単調減少している領域から、 頂点と同じ 符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 左右方向に並び、 頂点に対して画素値 が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出する。 単調增減検出部 2 0 3は、 このような単調増減領域からなる細線領域の中から、 予め定めた閾値より長い細線領域、 すなわち、 閾値より多い数の画素を含む細線 領域を求める。
さらに、 このように検出された細線領域の中から、 単調増減検出部 2 0 3は、 頂点の画素値、 および頂点の上側の画素の画素値、 および頂点の下側の画素の画 素値を、 それぞれ閾値と比較し、 頂点の画素値が閾値を超え、 頂点の上側の画素 の画素値が閾値以下であり、 頂点の下側の画素の画素値が閾値以下である頂点が 属する細線領域を検出し、 検出された細線領域を細線の画像の成分を含む画素か らなる領域の候補とする。
言い換えれば、 頂点の画素値が閾値以下であるか、 頂点の上側の画素の画素値 が閾値を超えるか、 または頂点の下側の画素の画素値が閾値を超える頂点が属す る細線領域は、 細線の画像の成分を含まないと判定され、 細線の画像の成分を含 む画素からなる領域の候補から除去される。
なお、 単調增減検出部 2 0 3は、 背景の画素値を基準として、 頂点の画素値と 背景の画素値との差分を閾値と比較すると共に、 頂点に対して、 上下方向に隣接 する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点の画素値と背 景の画素値との差分が閾値を超え、 上下方向に隣接する画素の画素値と背景の画 素値との差分が閾値以下である、 検出された細線領域を細線の画像の成分を含む 画素からなる領域の候補とするようにしてもよい。
単調増減検出部 2 0 3は、 頂点を基準として、 画素値が単調減少し、 画素値の 符号が頂点と同じである画素からなる領域であって、 その頂点が閾値を超え、 頂 点の右側の画素の画素値が閾値以下であり、 頂点の左側の画素の画素値が閾値以 下であるものを示す単調増減領域情報を連続性検出部 2 0 4に供給する。
画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射影されたものから なる領域を検出する場合において、 単調増減領域情報により示される領域に属す る画素は、 左右方向に並び、 細線の画像が射影された画素を含む。 すなわち、 単 調増減領域情報により示される領域は、 画面の左右方向に並ぶ 1列の画素であつ て、 細線の画像が射影されたものからなる領域を含む。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域情 報で示される、 左右方向に並ぶ画素からなる領域のうち、 縦方向に隣接している 画素を含む領域、 すなわち、 相似した画素値の変化を有し、 横方向に重複してい る領域を、 連続している領域として検出し、 頂点情報、 およぴ検出された連続し ている領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋 がりを示す情報を含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並ぶ ので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよう に一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領域と し、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定常性情 報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の細 T/JP2004/001488
67
線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧 形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3において検出された領域の侯捕をさらに絞り込む。 図 5 1は、 平面での近似により定常成分を抽出した画像の例を示す図である。 図 5 2は、 図 5 1に示す画像から頂点を検出し、 単調減少している領域を検出し た結果を示す図である。 図 5 2において、 白で示される部分が、 検出された領域 である。
図 5 3は、 図 5 2に示す画像から、 隣接している領域の連続性を検出して、 連 続性が検出された領域を示す図である。 図 5 3において、 白で示される部分が、 連続性が検出された領域である。 連続性の検出により、 領域がさらに特定されて いることがわかる。
図 5 4は、 図 5 3に示す領域の画素値、 すなわち、 連続性が検出された領域の 画素値を示す図である。
このように、 データ定常性検出部 1 0 1は、 入力画像であるデータ 3に含まれ ている定常性を検出することができる。 すなわち、 データ定常性検出部 1 0 1は、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3 に含まれるデータの定常性を検出することができる。 データ定常性検出部 1 0 1 は、 データ 3から、 細線である実世界 1の画像が射影された画素からなる領域を 検出する。
図 5 5は、 定常性検出部 1 0 1における、 細線の画像が射影された、 定常性を 有する領域の検出の他の処理の例を示す図である。 定常性検出部 1 0 1は、 図 5 5に示すように、 各画素について、 隣接する画素との画素値の差分の絶対値を計 算する。 計算された差分の絶対値は、 画素に対応させて、 配置される。 例えば、 図 5 5に示すように、 画素値がそれぞれ P0、 Pl、 P2である画素が並んでいると き、 定常性検出部 1 0 1は、 差分 dO=PO- P 1および差分 dl=P l- P2を計算する。 さらに、 定常性検出部 1 0 1は、 差分 doおよび差分 dlの絶対値を算出する。 画素値 P0、 Pl、 および P2に含まれている非定常性成分が同一であるとき、 差 1488
68
分 dOおよび差分 dlには、 細線の成分に対応した値のみが設定されることにな る。
従って、 定常性検出部 1 0 1は、 画素に対応させて配置されている差分の絶対 値のうち、 隣り合う差分の値が同一であるとき、 その 2つの差分の絶対値に対応 する画素 (2つの差分の絶対値に挟まれた画素) に細線の成分が含まれていると 判定する。 なお、 定常性検出部 1 0 1は、 画素に対応させて配置されている差分 の絶対値のうち、 隣り合う差分の値が同一である場合、 差分の絶対値が所定の閾 値より小さいとき、 その 2つの差分の絶対値に対応する画素 (2つの差分の絶対 値に挟まれた画素) に細線の成分が含まれていないと判定する。
定常性検出部 1 0 1においては、 このような、 簡便な方法で細線を検出するこ ともできる。
図 5 6は、 定常性検出の処理を説明するフローチャートである。
ステップ S 2 0 1において、 非定常成分抽出部 2 0 1は、 入力画像から、 細線 が射影された部分以外の部分である非定常成分を抽出する。 非定常成分抽出部 2 0 1は、 入力画像と共に、 抽出された非定常成分を示す非定常成分情報を頂点検 出部 2 0 2および単調増減検出部 2 0 3に供給する。 非定常成分の抽出の処理の 詳細は、 後述する。
ステップ S 2 0 2において、 頂点検出部 2 0 2は、 非定常成分抽出部 2 0 1か ら供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入力画 像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 2において、 頂点 検出部 2 0 2は、 頂点を検出する。
すなわち、 頂点検出部 2 0 2は、 画面の縦方向を基準として、 処理を実行する 場合、 定常成分を含む画素について、 各画素の画素値と、 上側および下側の画素 の画素値とを比較して、 上側の画素の画素値および下側の画素の画素値より大き い画素値を有する画素を検出することにより、 頂点を検出する。 また、 ステップ S 2 0 2において、 頂点検出部 2 0 2は、 画面の横方向を基準として、 処理を実 行する場合、 定常成分を含む画素について、 各画素の画素値と、 右側および左側 の画素の画素値とを比較して、 右側の画素の画素値および左側の画素の画素値よ り大きい画素値を有する画素を検出することにより、 頂点を検出する。
頂点検出部 2 0 2は、 検出した頂点を示す頂点情報を単調増減検出部 2 0 3に 供給する。
ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 非定常成分抽出部 2 0 1から供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入 力画像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を示す 頂点情報を基に、 頂点に対する単調増減を検出することにより、 データの定常性 を有する画素からなる領域を検出する。
単調増減検出部 2 0 3は、 画面の縦方向を基準として、 処理を実行する場合、 頂点の画素値、 および頂点に対して縦に 1列に並ぶ画素の画素値を基に、 縦に並 ぶ 1列の画素であって、 1つの細線の画像が射影された画素からなる単調増減を 検出することにより、 データの定常性を有する画素からなる領域を検出する。 す なわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の縦方向を 基準として、 処理を実行する場合、 頂点および頂点に対して縦に 1列に並ぶ画素 について、 各画素の画素値と、 上側または下側の画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点お よび頂点に対して縦に 1列に並ぶ画素について、 各画素の画素値の符号と、 その 画素の上側または下側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並びに頂 点の右側および左側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値を超 え、 右側および左側の画素の画素値が閾値以下である画素からなる領域を検出す る。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
また、 単調増減検出部 2 0 3は、 画面の横方向を基準として、 処理を実行する 1488
70
場合、 頂点の画素値、 および頂点に対して横に 1列に並ぶ画素の画素値を基に、 横に並ぶ 1列の画素であって、 1つの細線の画像が射影された画素からなる単調 増減を検出することにより、 データの定常性を有する画素からなる領域を検出す る。 すなわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の横 方向を基準として、 処理を実行する場合、 頂点および頂点に対して横に 1列に並 ぶ画素について、 各画素の画素値と、 左側または右側の画素の画素値との差分を 求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点および頂点に対して横に 1列に並ぶ画素について、 各画素の画素値の符号と、 その画素の左側または右側の画素の画素値の符号とを比較し、 画素値の符号が変 化する画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並び に頂点の上側および下側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値 を超え、 上側および下側の画素の画素値が閾値以下である画素からなる領域を検 出する。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
ステップ S 2 0 4において、 単調増減検出部 2 0 3は、 全画素の処理が終了し たか否かを判定する。 例えば、 非定常成分抽出部 2 0 1は、 入力画像の 1つの画 面 (例えば、 フレームまたはフィールドなど) の全画素について、 頂点を検出し、 単調増減領域を検出したか否かを判定する。
ステップ S 2 0 4において、 全画素の処理が終了していない、 すなわち、 頂点 の検出および単調増減領域の検出の処理の対象とされていない画素がまだあると 判定された場合、 ステップ S 2 0 2に戻り、 頂点の検出および単調増減領域の検 出の処理の対象とされていない画素から処理の対象となる画素を選択して、 頂点 の検出および単調増減領域の検出の処理を繰り返す。
ステップ S 2 0 4において、 全画素の処理が終了した、 すなわち、 全ての画素 を対象として頂点および単調増減領域が検出されたと判定された場合、 ステップ S 2 0 5に進み、 連続性検出部 2 0 4は、 単調増減領域情報を基に、 検出された 領域の連続性を検出する。 例えば、 連続性検出部 2 0 4は、 単調増減領域情報で 示される、 画面の縦方向に 1列に並ぶ画素からなる単調増減領域について、 横方 向に隣接する画素を含んでいるとき、 2つの単調増減領域の間に連続性があると し、 横方向に隣接する画素を含んでいないとき、 2つの単調増減領域の間に連続 性がないとする。 例えば、 連続性検出部 2 0 4は、 単調増減領域情報で示される、 画面の横方向に 1列に並ぶ画素からなる単調増減領域について、 縦方向に隣接す る画素を含んでいるとき、 2つの単調増減領域の間に連続性があるとし、 縦方向 に隣接する画素を含んでいないとき、 2つの単調増減領域の間に連続性がないと する。
連続性検出部 2 0 4は、 検出された連続している領域をデータの定常性を有す る定常領域とし、 頂点の位置および定常領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋がりを示す情報を含んでいる。 連続性検出部 2 0 4から出力されるデータ定常性情報は、 実世界 1の細線の画像が射影された画素 からなる、 定常領域である細線領域を示す。
ステップ S 2 0 6において、 定常性方向検出部 2 0 5は、 全画素の処理が終了 したか否かを判定する。 すなわち、 定常性方向検出部 2 0 5は、 入力画像の所定 のフレームの全画素について、 領域の連続性を検出した力否かを判定する。
ステップ S 2 0 6において、 全画素の処理が終了していない、 すなわち、 領域 の連続性の検出の処理の対象とされていない画素がまだあると判定された場合、 ステップ S 2 0 5に戻り、 領域の連続性の検出の処理の対象とされていない画素 から処理の対象となる画素を選択して、 領域の連続性の検出の処理を繰り返す。 ステップ S 2 0 6において、 全画素の処理が終了した、 すなわち、 全ての画素 を対象として領域の連続性が検出されたと判定された場合、 処理は終了する。 このように、 入力画像であるデータ 3に含まれている定常性が検出される。 す なわち、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3に含まれるデータの定常性が検出され、 データ 3から、 細線である実世 界 1の画像が射影された画素からなる、 データの定常性を有する領域が検出され る。 "
なお、 図 4 1で構成が示されるデータ定常性検出部 1 0 1は、 データ 3のフレ ームから検出されたデータの定常性を有する領域を基に、 時間方向のデータの定 常性を検出することができる。
例えば、 図 5 7に示すように、 連続性検出部 2 0 4は、 フレーム において、 検出されたデータの定常性を有する領域、 フレーム ίίη - 1において、 検出された データの定常性を有する領域、 およびフレーム #η+1において、 検出されたデー タの定常性を有する領域を基に、 領域の端部を結ぶことにより、 時間方向のデー タの定常性を検出する。
フレーム #η- 1は、 フレーム #ηに対して時間的に前のフレームであり、 フレー ム #η+ 1は、 フレーム #ηに対して時間的に後のフレームである。 すなわち、 フレ ーム #η_1、 フレーム #η、 およびフレーム #η+1 は、 フレーム #η- 1、 フレーム 、 およびフレーム #η+1の順で表示される。
より具体的には、 図 5 7において、 Gは、 フレーム #ηにおいて、 検出された データの定常性を有する領域、 フレーム #η - 1において、 検出されたデータの定 常性を有する領域、 およびフレーム ίίη+lにおいて、 検出されたデータの定常性 を有する領域のそれぞれの一端を結ぶことにより得られた動きべク トルを示し、 G ' は、 検出されたデータの定常性を有する領域のそれぞれの他の一端を結ぶこ とにより得られた動きベクトルを示す。 動きべク トル Gおよび動きべク トル G ' は、 時間方向のデータの定常性の一例である。
さらに、 図 4 1で構成が示されるデータ定常性検出部 1 0 1は、 データの定常 性を有する領域の長さを示す情報を、 データ定常性情報として出力することがで さる。
図 5 8は、 データの定常性を有しない画像データの部分である非定常成分を平 面で近似して、 非定常成分を抽出する、 非定常成分抽出部 2 0 1の構成を示すブ ロック図である。
図 5 8に構成を示す非定常成分抽出部 2 0 1は、 入力画像から所定の数の画素 でなるブロックを抽出し、 ブロックと平面で示される値との誤差が所定の閾値未 満になるように、 ブロックを平面で近似して、 非定常成分を抽出する。
入力画像は、 ブロック抽出部 2 2 1に供給されるとともに、 そのまま出力され る。
ブロック抽出部 2 2 1は、 入力画像から、 所定の数の画素からなるブロックを 抽出する。 例えば、 ブロック抽出部 2 2 1は、 7 X 7の画素からなるブロックを 抽出し、 平面近似部 2 2 2に供給する。 例えば、 プロック抽出部 2 2 1は、 抽出 されるブロックの中心となる画素をラスタスキャン順に移動させ、 順次、 入力画 像からプロックを抽出する。
平面近似部 2 2 2は、 プロックに含まれる画素の画素値を所定の平面で近似す る。 例えば、 平面近似部 2 2 2は、 式 (2 4 ) で表される平面でプロックに含ま れる画素の画素値を近似する。
z=ax+by+c · ■ ■ ( 2 4 ) 式 (2 4 ) において、 Xは、 画素の画面上の一方の方向 (空間方向 X ) の位置 を示し、 yは、 画素の画面上の他の一方の方向 (空間方向 Y ) の位置を示す。 z は、 平面で示される近似値を示す。 a は、 平面の空間方向 Xの傾きを示し、 b は、 平面の空間方向 Yの傾きを示す。 式 (2 4 ) において、 cは、 平面のオフセット (切片) を示す。
例えば、 平面近似部 2 2 2は、 回帰の処理により、 傾き a、 傾き b、 およびォ フセット cを求めることにより、 式 (2 4 ) で表される平面で、 ブロックに含 まれる画素の画素値を近似する。 平面近似部 2 2 2は、 棄却を伴う回帰の処理に より、 傾き a、 傾き b、 およびオフセット cを求めることにより、 式 (2 4 ) で 表される平面で、 プロックに含まれる画素の画素値を近似する。
例えば、 平面近似部 2 2 2は、 最小自乗法により、 プロックの画素の画素値に 対して、 誤差が最小となる式 (2 4 ) で表される平面を求めることにより、 平面 でプロックに含まれる画素の画素値を近似する。
なお、 平面近似部 2 2 2は、 式 (2 4 ) で表される平面でブロックを近似する と説明したが、 式 (2 4 ) で表される平面に限らず、 より高い自由度をもった関 数、 例えば、 n次 (nは、 任意の整数) の多項式で表される面でブロックを近似 するようにしてもよい。
繰り返し判定部 2 2 3は、 プロックの画素値を近似した平面で示される近似値 と、 ブロックの対応する画素の画素値との誤差を計算する。 式 (2 5 ) は、 プロ ックの画素値を近似した平面で示される近似値と、 プロックの対応する画素の画 素値 zi との差分である誤差 eiを示す式である。
= Z j -2 = Zj - (a j +Dy j +c)
• · · ( 2 5 ) 式 (2 5 ) において、 zハット (zに を付した文字を zハットと記述する。 以下、 本明細書において、 同様に記載する。 ) は、 プロックの画素値を近似した 平面で示される近似値を示し、 a ノヽットは、 ブロックの画素値を近似した平面の 空間方向 Xの傾きを示し、 bハットは、 ブロックの画素値を近似した平面の空間 方向 Yの傾きを示す。 式 (2 5 ) において、 cハットは、 ブロックの画素値を近 似した平面のオフセット (切片) を示す。
繰り返し判定部 2 2 3は、 式 (2 5 ) で示される、 近似値とブロックの対応す る画素の画素値との誤差 ei力 最も大きい画素を棄却する。 このようにするこ とで、 細線が射影された画素、'すなわち定常性を有する画素が棄却されることに なる。 繰り返し判定部 2 2 3は、 棄却した画素を示す棄却情報を平面近似部 2 2 2に供給する。
さらに、 繰り返し判定部 2 2 3は、 標準誤差を算出して、 標準誤差が、 予め定 めた近似終了判定用の閾値以上であり、 プロックの画素のうち、 半分以上の画素 が棄却されていないとき、 繰り返し判定部 2 2 3は、 平面近似部 2 2 2に、 プロ ックに含まれる画素のうち、 棄却された画素を除いた画素を対象として、 平面に よる近似の処理を繰り返させる。
定常性を有する画素が棄却されるので、 棄却された画素を除いた画素を対象と して平面で近似をすることにより、 平面は、 非定常成分を近似することになる。 繰り返し判定部 2 2 3は、 標準誤差が、 近似終了判定用の閾値未満であるとき、 または、 ブロックの画素のうち、 半分以上の画素が棄却されたとき、 平面による 近似を終了する。
5 X 5の画素からなるブロックについて、 標準誤差 es は、 例えば、 式 (2 6 ) で算出される。 es =∑ (2 i -z) / (n-3)
=∑ { (Zj - ½Xi +byi +6) } / ( n - 3)
• - - ( 2 6 ) ここで、 nは、 画素の数である。
なお、 繰り返し判定部 2 2 3は、 標準誤差に限らず、 ブロックに含まれる全て の画素についての誤差の 2乗の和を算出して、 以下の処理を実行するようにして もよい。
ここで、 ラスタスキャン方向に 1画素ずつずれたブロックを平面で近似すると き、 図 5 9に示すように、 図中黒丸で示す、 定常性を有する画素、 すなわち細線 の成分を含む画素は、 複数回棄却されることになる。
繰り返し判定部 2 2 3は、 平面による近似を終了したとき、 プロックの画素値 を近似した平面を示す情報 (式 (2 4 ) の平面の傾きおよび切片) を、 非定常成 分情報として出力する。
なお、 繰り返し判定部 2 2 3は、 画素毎の棄却された回数と予め定めた閾値と を比較して、 棄却された回数が閾値以上である画素を定常成分を含む画素である として、 定常成分を含む画素を示す情報を定常成分情報として出力するようにし てもよい。 この場合、 頂点検出部 2 0 2乃至定常性方向検出部 2 0 5は、 定常成 分情報で示される、 定常成分を含む画素を対象として、 それぞれの処理を実行す る。
図 6 0乃至図 6 7を参照して、 非定常成分抽出の処理の結果の例を説明する。 図 6 0は、 細線が含まれる画像から、 元の画像の 2 X 2の画素の画素値の平均 値を画素値として生成した入力画像の例を示す図である。
図 6 1は、 図 6 0で示される画像を、 棄却をしないで平面で近似した結果得ら れる標準誤差を画素値とした画像を示す図である。 ,図 6 1で示される例において、 注目している 1つの画素に対する 5 X 5の画素からなるブロックを平面で近似し た。 図 6 1において、 白い画素はより大きい画素値、 すなわち、 より大きい標準 誤差を有する画素であり、 黒い画素はより小さい画素値、 すなわち、 より小さい 標準誤差を有する画素である。
図 6 1から、 棄却をしないで平面で近似した結果得られる標準誤差を画素値と した場合、 非定常部の周辺に広く、 大きな値が求められていることが確認できる。 図 6 2乃至図 6 7で示される例において、 注目している 1つの画素に対する 7 X 7の画素からなるプロックを平面で近似した。 7 X 7の画素からなるプロック を平面で近似する場合、 1つの画素が 4 9のブロックに繰り返し含まれることに なるので、 定常成分を含む画素は、 最も多くて 4 9回、 棄却されることになる。 図 6 2は、 図 6 0で示される画像を、 棄却をして平面で近似したとき、 得られ る標準誤差を画素値とした画像である。
図 6 2において、 白い画素はより大きい画素値、 すなわち、 より大きい標準誤 差を有する画素であり、 黒い画素はより小さい画素値、 すなわち、 より小さい標 準誤差を有する画素である。 棄却をしない場合に比較して、 棄却をした場合、 全 体として、 標準誤差がより小さくなることがわかる。
図 6 3は、 図 6 0で示される画像を、 棄却をして平面で近似したとき、 棄却さ れた回数を画素値とした画像を示す図である。 図 6 3において、 白い画素はより 大きい画素値、 すなわち、 棄却された回数がより多い画素であり、 黒い画素はよ り小さい画素値、 すなわち、 棄却された回数がより少ない画素である。
図 6 3から、 細線の画像が射影された画素は、 より多く棄却されていること力 わかる。 棄却された回数を画素値とした画像を用いて、 入力画像の非定常部をマ スクする画像を生成することも可能である。
図 6 4は、 ブロックの画素値を近似した平面の空間方向 Xの傾きを画素値とし た画像を示す図である。 図 6 5は、 プロックの画素値を近似した平面の空間方向 Yの傾きを画素値とした画像を示す図である。
図 6 6は、 ブロックの画素値を近似した平面で示される近似値からなる画像を 示す図である。 図 6 6で示される画像からは、 細線が消えていることがわかる。 図 6 7は、 図 6 0で示される、 元の画像の 2 X 2の画素のプロックの平均値を 画素の画素値として生成した画像と、 図 6 6で示される、 平面で示される近似値 からなる画像との差分からなる画像を示す図である。 図 6 7の画像の画素値は、 非定常成分が除去されるので、 細線の画像が射影された値のみを含む。 図 6 7か らもわかるように、 元の画素値と近似した平面で示される近似値との差分からな る画像では、 元の画像の定常成分がうまく抽出できていることが確認できる。 棄却された回数、 ブロックの画素の画素値を近似する平面の空間方向 Xの傾き、 プロックの画素の画素値を近似する平面の空間方向 Yの傾き、 プロックの画素の 画素値を近似する平面で示される近似値、 および誤差 eiは、 入力画像の特徴量 としても利用することができる。
図 6 8は、 ステップ S 2 0 1に対応する、 図 5 8に構成を示す非定常成分抽出 部 2 0 1による、 非定常成分の抽出の処理を説明するフローチャートである。 ステップ S 2 2 1において、 ブロック抽出部 2 2 1は、 入力画素から、 所定の 数の画素からなるプロックを抽出し、 抽出したブロックを平面近似部 2 2 2に供 給する。 例えば、 ブロック抽出部 2 2 1は、 入力画素から、 まだ、 選択されてい ない画素のうち、 1つの画素を選択し、 選択された画素を中心とする 7 X 7の画 素からなるブロックを抽出する。 例えば、 ブロック抽出部 2 2 1は、 ラスタスキ ャン順に画素を選択することができる。
ステップ S 2 2 2において、 平面近似部 2 2 2は、 抽出されたブロックを平面 で近似する。 平面近似部 2 2 2は、 例えば、 回帰の処理により、 抽出されたプロ ックの画素の画素値を、 平面で近似する。 例えば、 平面近似部 2 2 2は、 回帰の 処理により、 抽出されたプロックの画素のうち、 棄却された画素を除いた画素の 画素値を、 平面で近似する。 ステップ S 2 2 3において、 繰り返し判定部 2 2 3 は、 繰り返し判定を実行する。 例えば、 ブロックの画素の画素値と近似した平面 の近似値とから標準誤差を算出し、 棄却された画素の数を力ゥントすることによ り、 繰り返し判定を実行する。
ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 標準誤差が閾値以上で あるか否かを判定し、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画素 のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上である か否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却されておらず、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進むようにし てもよい。
ステップ S 2 2 5において、 繰り返し判定部 2 2 3は、 プロックの画素毎に、 画素の画素値と近似した平面の近似値との誤差を算出し、 誤差が最も大きい画素 を棄却し、 平面近似部 2 2 2に通知する。 手続きは、 ステップ S 2 2 2に戻り、 棄却された画素を除いた、 ブロックの画素を対象として、 平面による近似の処理 および繰り返し判定の処理が繰り返される。
ステップ S 2 2 5において、 ラスタスキャン方向に 1画素ずつずれたブロック がステップ S 2 2 1の処理で抽出される場合、 図 5 9に示すように、 細線の成分 を含む画素 (図中の黒丸で示す) は、 複数回棄却されることになる。
ステップ S 2 2 4において、 標準誤差が閾値以上でないと判定された場合、 ブ 口ックが平面で近似されたので、 ステップ S 2 2 6に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 プロックの画素 のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上である か否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却されたか、 また は標準誤差が閾値以上でないと判定された場合、 ステップ S 2 2 5に進むように ステップ S 2 2 6において、 繰り返し判定部 2 2 3は、 プロックの画素の画素 値を近似する平面の傾きおよび切片を、 非定常成分情報として出力する。
ステップ S 2 2 7において、 ブロック抽出部 2 2 1は、 入力画像の 1つの画面 の全画素について処理を終了したか否かを判定し、 まだ処理の対象となってない 画素があると判定された場合、 ステップ S 2 2 1に戻り、 まだ処理の対象となつ ていない画素からブロックを抽出して、 上述した処理を繰り返す。
ステップ S 2 2 7において、 入力画像の 1つの画面の全画素について、 処理を 終了したと判定された場合、 処理は終了する。
このように、 図 5 8に構成を示す非定常成分抽出部 2 0 1は、 入力画像から非 定常成分を抽出することができる。 非定常成分抽出部 2 0 1が入力画像の非定常 成分を抽出するので、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画 像と、 非定常成分抽出部 2 0 1で抽出された非定常成分との差分を求めることに より、 定常成分を含む差分を対象として処理を実行することができる。
なお、 平面による近似の処理において算出される、 棄却した場合の標準誤差、 棄却しない場合の標準誤差、 画素の棄却された回数、 平面の空間方向 Xの傾き (式 (2 4 ) における aハット) 、 平面の空間方向 Yの傾き (式 (2 4 ) にお ける bハット) 、 平面で置き換えたときのレベル (式 (2 4 ) における cハツ ト) 、 および入力画像の画素値と平面で示される近似値との差分は、 特徴量とし て利用することができる。
図 6 9は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 5 8に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の処理を説明 するフローチャートである。 ステップ S 2 4 1乃至ステップ S 2 4 5の処理は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明は省略す る。
ステップ S 2 4 6において、 繰り返し判定部 2 2 3は、 平面で示される近似値 と入力画像の画素値との差分を、 入力画像の定常成分として出力する。 すなわち、 繰り返し判定部 2 2 3は、 平面による近似値と、 真値である画素値との差分を出 力する。 なお、 繰り返し判定部 2 2 3は、 平面で示される近似値と入力画像の画素値と の差分が、 所定の閾値以上である画素の画素値を、 入力画像の定常成分として出 力するようにしてもよい。
ステップ S 2 4 7の処理は、 ステップ S 2 2 7の処理と同様なので、 その説明 は省略する。
平面が非定常成分を近似しているので、 非定常成分抽出部 2 0 1は、 入力画像 の各画素の画素値から、 画素値を近似する平面で示される近似値を引き算するこ とにより、 入力画像から非定常成分を除去することができる。 この場合、 頂点検 出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像の定常成分、 すなわち細線の画 像が射影された値のみを処理の対象とすることができ、 頂点検出部 2 0 2乃至連 続性検出部 2 0 4における処理がより容易になる。
図 7 0は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 5 8に構成を示す非定常成分抽出部 2 ◦ 1による、 定常成分の抽出の他の処理を 説明するフローチヤ一トである。 ステップ S 2 6 1乃至ステップ S 2 6 5の処理 は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明は省 略する。
ステップ S 2 6 6において、 繰り返し判定部 2 2 3は、 画素毎の、 棄却の回数 を記憶し、 ステップ S 2 6 2に戻り、 処理を繰り返す。
ステップ S 2 6 4において、 標準誤差が閾値以上でないと判定された場合、 ブ ロックが平面で近似されたので、 ステップ S 2 6 7に進み、 繰り返し判定部 2 2 3は、 入力画像の 1つの画面の全画素について処理を終了したか否かを判定し、 まだ処理の対象となってない画素があると判定された場合、 ステップ S 2 6 1に 戻り、 まだ処理の対象となっていない画素についてプロックを抽出して、 上述し た処理を繰り返す。
ステップ S 2 6 7において、 入力画像の 1つの画面の全画素について、 処理を 終了したと判定された場合、 ステップ S 2 6 8に進み、 繰り返し判定部 2 2 3は、 まだ選択されていない画素から 1つの画素を選択し、 選択された画素について、 棄却の回数が、 閾値以上であるか否かを判定する。 例えば、 繰り返し判定部 2 2 3は、 ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 予 め記憶している閾値以上であるか否かを判定する。
ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値以 上であると判定された場合、 選択された画素が定常成分を含むので、 ステップ S 2 6 9に進み、 繰り返し判定部 2 2 3は、 選択された画素の画素値 (入力画像に おける画素値) を入力画像の定常成分として出力し、 ステップ S 2 7 0に進む。 ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値以 上でないと判定された場合、 選択された画素が定常成分を含まないので、 ステツ プ S 2 6 9の処理をスキップして、 手続きは、 ステップ S 2 7 0に進む。 すなわ ち、 棄却の回数が、 閾値以上でないと判定された画素は、 画素値が出力されない。 なお、 棄却の回数が、 閾値以上でないと判定された画素について、 繰り返し判 定部 2 2 3は、 0を設定した画素値を出力するようにしてもよい。
ステップ S 2 7 0において、 操り返し判定部 2 2 3は、 入力画像の 1つの画面 の全画素について、 棄却の回数が閾値以上であるか否かの判定の処理を終了した か否かを判定し、 全画素について処理を終了していないと判定された場合、 まだ 処理の対象となってない画素があるので、 ステップ S 2 6 8に戻り、 まだ処理の 対象となっていない画素から 1つの画素を選択して、 上述した処理を繰り返す。 ステップ S 2 7 0において、 入力画像の 1つの画面の全画素について処理を終 了したと判定された場合、 処理は終了する。
このように、 非定常成分抽出部 2 0 1は、 定常成分情報として、 入力画像の画 素のうち、 定常成分を含む画素の画素値を出力することができる。 すなわち、 非 定常成分抽出部 2 0 1は、 入力画像の画素のうち、 細線の画像の成分を含む画素 の画素値を出力することができる。
図 7 1は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 5 8に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出のさらに他の 処理を説明するフローチヤ一トである。 ステップ S 2 8 1乃至ステップ S 2 8 8 の処理は、 ステップ S 2 6 1乃至ステップ S 2 6 8の処理と同様なので、 その説 明は省略する。
ステップ S 2 8 9において、 繰り返し判定部 2 2 3は、 平面で示される近似値 と、 選択された面素の画素値との差分を入力画像の定常成分として出力する。 す なわち、 繰り返し判定部 2 2 3は、 入力画像から非定常成分を除去した画像を定 常性情報として出力する。
ステップ S 2 9 0の処理は、 ステップ S 2 7◦の処理と同様なので、 その説明 は省略する。
このように、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した 画像を定常性情報として出力することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した、 第 1の画像データの複数の画素の画素値の不連続部を検出し、 検 出された不連続部からデータの定常性を検出し、 検出されたデータの定常性を基 に、 現実世界の光信号の定常性を推定することにより光信号を近似するモデル (関数) を生成し、 生成された関数に基づき第 2の画像データを生成するように した場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理結果を得 ることができるようになる。
図 7 2は、 データ定常性検出部 1 0 1の他の構成を示すブロック図である。 図 7 2に構成を示すデータ定常性検出部 1 0 1においては、 注目している画素 である注目画素について、 入力画像の空間方向に対する画素値の変化、 すなわち 入力画像の空間方向のァクテイビティが検出され、 検出されたァクティビティに 応じて、 注目画素および基準軸を基準とした角度毎に、 垂直方向に 1列または水 平方向に 1列の所定の数の画素からなる画素の組が、 複数抽出され、 抽出された 画素の組の相関が検出され、 相関に基づいて、 入力画像における、 基準軸を基準 としたデータの定常性の角度が検出される。
データの定常性の角度とは、 基準軸と、 データ 3が有している、 一定の特徴が 繰り返し現れる所定の次元の方向とがなす角度をいう。 一定の特徴が繰り返し現 PC觀麵纏
83
れるとは、 例えば、 データ 3における位置の変化に対する値の変化、 すなわち断 面形状が同じである場合などをいう。
基準軸は、 例えば、 空間方向 Xを示す軸 (画面の水平方向) 、 または空間方向 Yを示す軸 (画面の垂直方向) などとすることができる。
入力画像は、 アクティビティ検出部 4 0 1およびデータ選択部 4 0 2に供給さ れる。
ァクティビティ検出部 4 0 1は、 入力画像の空間方向に対する画素値の変化、 すなわち空間方向のァクティビティを検出して、 検出した結果を示すァクティビ ティ情報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
例えば、 アクティビティ検出部 4 0 1は、 画面の水平方向に対する画素値の変 化、 および画面の垂直方向に対する画素値の変化を検出し、 検出された水平方向 に対する画素値の変化および垂直方向に対する画素値の変化を比較することによ り、 垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化 が大きいか、 または水平方向に対する画素値の変化に比較して、 垂直方向に対す る画素値の変化が大きいかを検出する。
アクティビティ検出部 4 0 1は、 検出の結果である、 垂直方向に対する画素値 の変化に比較して、 水平方向に対する画素値の変化が大きいことを示すか、 また は水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化が 大きいことを示すァクティビティ情報をデータ選択部 4 0 2および定常方向導出 部 4 0 4に供給する。
垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化が 大きい場合、 例えば、 図 7 3で示されるように、 垂直方向に 1列の画素に円弧形 状 (かまぼこ型) またはつめ形状が形成され、 円弧形状またはつめ形状が垂直に より近い方向に繰り返して形成されている。 すなわち、 垂直方向に対する画素値 の変化に比較して、 水平方向に対する画素値の変化が大きい場合、 基準軸を空間 方向 Xを示す軸とすると、 入力画像における、 基準軸を基準としたデータの定常 性の角度は、 4 5度乃至 9 0度のいずれかの値である。 水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化が 大きい場合、 例えば、 水平方向に 1列の画素に円弧形状またはつめ形状が形成さ れ、 円弧形状またはつめ形状が水平方向により近い方向に繰り返して形成されて いる。 すなわち、 水平方向に対する画素値の変化に比較して、 垂直方向に対する 画素値の変化が大きい場合、 基準軸を空間方向 Xを示す軸とすると、 入力画像に おける、 基準軸を基準としたデータの定常性の角度は、 0度乃至 45度のいずれ かの値である。
例えば、 アクティビティ検出部 40 1は、 図 74で示される、 注目画素を中心 とした 3 X 3の 9つの画素からなるプロックを入力画像から抽出する。 ァクティ ビティ検出部 40 1は、 縦に隣接する画素についての画素値の差分の和、 および 横に隣接する画素についての画素値の差分の和を算出する。 横に隣接する画素に ついての画素値の差分の和 hdi ff は、 式 (27) で求められる。
hdif f =∑ (Pi + 1,厂 j) · ■ · (27) 同様に、 縦に隣接する画素についての画素値の差分の和 vdi ff は、 式 (2 8) で求められる。
d i f f ∑ (P -Pi, :) (28) 式 (27) および式 (28) において、 Pは、 画素値を示し、 iは、 画素の横 方向の位置を示し、 jは、 画素の縦方向の位置を示す。
ァクティビティ検出部 40 1は、 算出された横に隣接する画素についての画素 値の差分の和 hdi f f および縦に隣接する画素についての画素値の差分の和 vdi f f を比較して、 入力画像における、 基準軸を基準としたデータの定常性の角度の範 囲を判定するようにしてもよい。 すなわち、 この場合、 アクティビティ検出部 4 0 1は、 空間方向の位置に対する画素値の変化で示される形状が水平方向に繰り 返して形成されているか、 垂直方向に繰り返して形成されているかを判定する。 例えば、 横に 1列の画素上に形成された円弧についての横方向の画素値の変化 は、 縦方向の画素値の変化に比較して大きく、 横に 1列の画素上に形成された円 弧についての縦方向の画素値の変化は、 横方向の画素値の変化に比較して大きく、 データの定常性の方向、 すなわち、 データ 3である入力画像が有している、 一定 の特徴の所定の次元の方向の変化は、 データの定常性に直交する方向の変化に比 較して小さいと言える。 言い換えれば、 データの定常性の方向の差分に比較して、 データの定常性の方向に直交する方向 (以下、 非定常方向とも称する) の差分は 大きい。
例えば、 図 7 5に示すように、 アクティビティ検出部 4 0 1は、 算出された横 に隣接する画素についての画素値の差分の和 hd i f f および縦に隣接する画素に ついての画素値の差分の和 vd i f f を比較して、 横に隣接する画素についての画 素値の差分の和 hd i f f が大きい場合、 基準軸を基準としたデータの定常性の角 度が、 4 5度乃至 1 3 5度のいずれかの値であると判定し、 縦に隣接する画素に ついての画素値の差分の和 vd i f f が大きい場合、 基準軸を基準としたデータの 定常性の角度が、 0度乃至 4 5度のいずれかの値、 または 1 3 5度乃至 1 8 0度 のいずれかの値であると判定する。
例えば、 アクティビティ検出部 4 0 1は、 判定の結果を示すアクティビティ情 報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
なお、 アクティビティ検出部 4 0 1は、 5 X 5の 2 5の画素からなるプロック、 または 7 X 7の 4 9の画素からなるプロックなど、 任意の大きさのプロックを抽 出して、 アクティビティを検出することができる。
データ選択部 4 0 2は、 入力画像の画素から注目画素を順に選択し、 ァクティ ビティ検出部 4 0 1から供給されたアクティビティ情報を基に、 注目画素おょぴ 基準軸を基準とした角度毎に、 垂直方向に 1列または水平方向に 1列の所定の数 の画素からなる画素の組を、 複数抽出する。
例えば、 アクティビティ情報が垂直方向に対する画素値の変化に比較して、 水 平方向に対する画素値の変化が大きいことを示しているとき、 データの定常性の 角度が、 4 5度乃至 1 3 5度のいずれかの値なので、 データ選択部 4 0 2は、 注 目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。 ァクティビティ情報が水平方向に対する画素値の変化に比較して、 垂直方向に 対する画素値の変化が大きいことを示しているとき、 データの定常性の角度が、 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれかの値なので、 データ選択 部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度 乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素からな る画素の組を、 複数抽出する。
また、 例えば、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値で あることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注 目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。
データの定常性の角度が 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれ かの値であることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素からなる画素 の組を、 複数抽出する。
データ選択部 4 0 2は、 抽出した画素からなる複数の組を誤差推定部 4 0 3に 供給する。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 角度毎に、 画 素の組の相関を検出する。
例えば、 誤差推定部 4 0 3は、 1つの角度に対応する、 垂直方向に 1列の所定 の数の画素からなる画素の複数の組について、 画素の組における対応する位置の 画素の画素値の相関を検出する。 誤差推定部 4 0 3は、 1つの角度に対応する、 水平方向に 1列の所定の数の画素からなる画素の複数の組について、 組における 対応する位置の画素の画素値の相関を検出する。
誤差推定部 4 0 3は、 検出した相関を示す相関情報を定常方向導出部 4 0 4に 供給する。 誤差推定部 4 0 3は、 相関を示す値として、 データ選択部 4 0 2から 供給された、 注目画素を含む組の画素の画素値と、 他の組における対応する位置 の画素の画素値の差分の絶対値の和を算出し、 差分の絶対値の和を相関情報とし て定常方向導出部 4 0 4に供給する。
定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関情報に基いて、 欠落した実世界 1の光信号の定常性に対応する、 入力画像における、 基準軸を基 準としたデータの定常性の角度を検出し、 角度を示すデータ定常性情報を出力す る。 例えば、 定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関情 報に基いて、 データの定常性の角度として、 最も相関の強い画素の組に対する角 度を検出し、 検出された最も相関の強い画素の組に対する角度を示すデータ定常 性情報を出力する。
以下の説明において、 適宜、 0度乃至 9 0度の範囲 (いわゆる第 1象限) のデ ータの定常性の角度を検出するものとして説明する。
図 7 6は、 図 7 2に示すデータ定常性検出部 1 0 1のより詳細な構成を示すブ 口ック図である。
データ選択部 4 0 2は、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lを含 む。 誤差推定部 4 0 3は、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2 一 Lを含む。 定常方向導出部 4 0 4は、 最小誤差角度選択部 4 1 3を含む。
まず、 アクティビティ情報で示される、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1 一 Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を基 準軸として、 注目画素を通る、 それぞれ異なる所定の角度の直線を設定する。 画 素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の 画素の列に属する画素であって、 注目画素の上側の所定の数の画素、 および注目 画素の下側の所定の数の画素、 並びに注目画素を画素の組として選択する。
例えば、 図 7 7で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列に属する画素から、 注目画素を 中心として 9つの画素を画素の組として選択する。 図 7 7において、 マス目状の 1つの四角 (1つのマス目) は、 1つの画素を示 す。 図 7 7において、 中央に示す丸は、 注目画素を示す。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1 _ Lは、 注目画素が属する縦に 1 列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 図 7 7において、 注目画素の 左下側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の 組として選択する。
例えば、 図 7 7で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列 に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を画素の 組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 左側に 2つめの縦に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 図 7 7において、 最 も左側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つ めの縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の 数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画 素を画素の組として選択する。
例えば、 図 7 7で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つめの縦に 1列の 画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素 を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 図 7 7において、 注目画素の 右上側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1— 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の 組として選択する。
例えば、 図 7 7で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列 に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を画素の 組として選択する。
画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 図 7 7において、 最 も右側の丸は、 このように選択された画素の例を示す。 そして、 画素選択部 4 1 1— 1乃至画素選択部 4 1 1—Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 選択された画素の上 側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選 択された画素を画素の組として選択する。
例えば、 図 7 7で示されるように、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の 画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素 を画素の組として選択する。
このように、 画素選択部 4 1 1— 1乃至画素選択部 4 1 1 _ Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 互いに異なる角度 (に設 定された直線) についての、 画素の組を選択する。 例えば、 画素選択部 4 1 1 - 1は、 4 5度についての、 画素の組を選択し、 画素選択部4 1 1一 2は、 4 7 . 5度についての、 画素の組を選択し、 画素選択部 4 1 1一 3は、 5 0度について の、 画素の組を選択する。 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 5 2 . 5度から 1 3 5度までの、 2 . 5度毎の角度についての、 画素の組を選択 する。
なお、 画素の組の数は、 例えば、 3つ、 または 7つなど、 任意の数とすること ができ、 本発明を限定するものではない。 また、 1つの組として選択された画素 の数は、 例えば、 5つ、 または 1 3など、 任意の数とすることができ、 本発明を 限定するものではない。
なお、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 縦方向に所定の範 囲の画素から、 画素の組を選択するようにすることができる。 例えば、 画素選択 部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 縦方向に 1 2 1個の画素 (注目画素 に対して、 上方向に 6 0画素、 下方向に 6 0画素) から、 画素の組を選択する。 この場合、 データ定常性検出部 1 0 1は、 空間方向 Xを示す軸に対して、 8 8 . 0 9度まで、 データの定常性の角度を検出することができる。
画素選択部 4 1 1一 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に供 給し、 画素選択部 4 1 1一 2は、 選択した画素の組を推定誤差算出部 4 1 2 - 2 に供給する。 同様に、 画素選択部 4 1 1一 3乃至画素選択部 4 1 1一 Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出部 4 1 2 一 Lのそれぞれに供給する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 例えば、 推定誤差算出部 4 1 2 一 1乃至推定誤差算出部 4 1 2— Lは、 相関を示す値として、 画素選択部 4 1 1 一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む組の 画素の画素値と、 他の組における対応する位置の画素の画素値の差分の絶対値の 和を算出する。 より具体的には、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注 目画素を含む組の画素の画素値と、 注目画素の左側の縦に 1列の画素の列に属す る画素からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算出 し、 上から 2番目の画素の画素値の差分を算出するように、 上の画素から順に画 素値の差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を算出す る。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む 組の画素の画素値と、 注目画素の左に 2つめの縦に 1列の画素の列に属する画素 からなる組の画素の画素値とを基に、 上の画素から順に画素値の差分の絶対値を 算出して、 算出された差分の絶対値の和を算出する。
そして、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選 択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素 を含む組の画素の画素値と、 注目画素の右側の縦に 1列の画素の列に属する画素 からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算出し、 上 から 2番目の画素の画素値の差分を算出するように、 上の画素から順に画素値の 差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を算出する。 推 定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む組の画 素の画素値と、 注目画素の右に 2つめの縦に 1列の画素の列に属する画素からな る組の画素の画素値とを基に、 上の画素から順に画素値の差分の絶対値を算出し て、 算出された差分の絶対値の和を算出する。
推定誤差算出部 4 1 2 _ 1乃至推定誤差算出部 4 1 2— Lは、 このように算出 された画素値の差分の絶対値の和を全て加算して、 画素値の差分の絶対値の総和 を算出する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 例えば、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 算出された画素値の差分の絶対値 の総和を最小誤差角度選択部 4 1 3に供給する。
なお、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素値の 差分の絶対値の和に限らず、 画素値の差分の自乗の和、 または画素値を基にした 相関係数など他の値を相関値として算出するようにすることができる。
最小誤差角度選択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 欠 落した実世界 1の光信号である画像の定常性に対応する、 入力画像における、 基 準軸を基準としたデータの定常性の角度を検出する。 すなわち、 最小誤差角度選 択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2— 1乃至推 定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 最も強い相関を選択 し、 選択された相関が検出された角度を、 基準軸を基準としたデータの定常性の 角度とすることにより、 入力画像における、 基準軸を基準としたデータの定常性 の角度を検出する。
例えば、 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2 - 1乃至推定誤 差算出部 4 1 2— Lから供給された、 画素値の差分の絶対値の総和のうち、 最小 の総和を選択する。 最小誤差角度選択部 4 1 3は、 選択された総和が算出された 画素の組について、 注目画素に対して、 左側に 2つめの縦に 1列の画素の列に属 する画素であって、 直線に最も近い位置の画素の位置、 および、 注目画素に対し て、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 直線に最も近い 位置の画素の位置を参照する。
図 7 7で示されるように、 最小誤差角度選択部 4 1 3は、 注目画素の位置に対 する、 参照する画素の位置の縦方向の距離 Sを求める。 最小誤差角度選択部 4 1 3は、 図 7 8で示すように、 式 (2 9 ) から、 欠落した実世界 1の光信号の定 常性に対応する、 画像データである入力画像における、 基準軸である空間方向 X を示す軸を基準としたデータの定常性の角度 0を検出する。
0 =tan— 1 (s/2) · ■ · ( 2 9 ) 次に、 アクティビティ情報で示される、 データの定常性の角度が 0度乃至 4 5 度おょぴ 1 3 5度乃至 1 8 0度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を基 準軸として、 注目画素を通る、 所定の角度の直線を設定し、 注目画素が属する横 に 1列の画素の列に属する画素であって、 注目画素の左側の所定の数の画素、 お ょぴ注目画素の右側の所定の数の画素、 並びに注目画素を画素の組として選択す る。
画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 上側の横に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 上側 の横に 1列の画素の列に属する画素であって、 選択された画素の左側の所定の数 の画素、 および選択された画素の右側の所定の数の画素、 並びに選択された画素 を画素の組として選択する。
画素選択部 4 1 1— 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1 _ Lは、 注目画素が属する横に 1列の画素の列 の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 選択された画素 の左側の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並び に選択された画素を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 下側の横に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 下側 の横に 1列の画素の列に属する画素であって、 選択された画素の左側の所定の数 の画素、 および選択された画素の右側の所定の数の画素、 並びに選択された画素 を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列 の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 選択された画素 の左側の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並び に選択された画素を画素の組として選択する。
このように、 画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 4 1 1— 1乃至画素選択部 4 1 1一 Lは、 互いに異なる角度につい ての、 画素の組を選択する。 例えば、 画素選択部 4 1 1一 1は、 0度についての、 画素の組を選択し、 画素選択部 4 1 1一 2は、 2 . 5度についての、 画素の組を 選択し、 画素選択部 4 1 1— 3は、 5度についての、 画素の組を選択する。 画素 選択部 4 1 1一 1乃至画素選択部 4 1 1—Lは、 7 . 5度から 4 5度おょぴ 1 3 5度から 1 8 0度までの、 2 . 5度毎の角度についての、 画素の組を選択する。 画素選択部 4 1 1一 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に供 給し、 画素選択部 4 1 1一 2は、 選択した画素の組を推定誤差算出部 4 1 2 - 2 に供給する。 同様に、 画素選択部 4 1 1一 3乃至画素選択部 4 1 1一 Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出部 4 1 2 一 Lのそれぞれに供給する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 推定誤差算出部 4 1 2— 1乃至 推定誤差算出部 4 1 2— Lは、 検出された相関を示す情報を、 最小誤差角度選択 部 4 1 3に供給する。 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 欠落した実世界 1の光信号である 画像の定常性に対応する、 入力画像における、 基準軸を基準としたデータの定常 性の角度を検出する。
次に、 図 7 9のフローチャートを参照して、 ステップ S 1 0 1の処理に対応す る、 図 7 2で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性 の検出の処理を説明する。
ステップ S 4 0 1において、 ァクティビティ検出部 4 0 1およびデータ選択部
4 0 2は、 入力画像から、 注目している画素である注目画素を選択する。 ァクテ イビティ検出部 4 0 1およびデータ選択部 4 0 2は、 同一の注目画素を選択する。 例えば、 アクティビティ検出部 4 0 1およびデータ選択部 4 0 2は、 入力画像か ら、 ラスタスキャン順に、 注目画素を選択する。
ステップ S 4 0 2において、 アクティビティ検出部 4 0 1は、 注目画素に対す るアクティビティを検出する。 例えば、 アクティビティ検出部 4 0 1は、 注目画 素を中心とした所定の数の画素からなるプロックの縦方向に並ぶ画素の画素値の 差分および横方向に並ぶ画素の画素値の差分を基に、 ァクティビティを検出する。 ァクティビティ検出部 4 0 1は、 注目画素に対する空間方向のァクティビティ を検出して、 検出した結果を示すァクティビティ情報をデータ選択部 4 0 2およ び定常方向導出部 4 0 4に供給する。
ステップ S 4 0 3において、 データ選択部 4 0 2は、 注目画素を含む画素の列 から、 注目画素を中心とした所定の数の画素を、 画素の組として選択する。 例え ば、 データ選択部 4 0 2は、 注目画素が属する縦または横に 1列の画素の列に属 する画素であって、 注目画素の上側または左側の所定の数の画素、 および注目画 素の下側または右側の所定の数の画素、 並びに注目画素を画素の組として選択す る。
ステップ S 4 0 4において、 データ選択部 4 0 2は、 ステップ S 4 0 2の処理 で検出されたアクティビティを基にした、 所定の範囲の角度毎に、 所定の数の画 素の列から、 それぞれ所定の数の画素を、 画素の組として選択する。 例えば、 デ ータ選択部 4 0 2は、 所定の範囲の角度を有し、 空間方向 Xを示す軸を基準軸と して、 注目画素を通る直線を設定し、 注目画素に対して、 横方向または縦方向に 1列または 2列離れた画素であって、 直線に最も近い画素を選択し、 選択された 画素の上側または左側の所定の数の画素、 および選択された画素の下側または右 側の所定の数の画素、 並びに線に最も近い選択された画素を画素の組として選択 する。 データ選択部 4 0 2は、 角度毎に、 画素の組を選択する。
データ選択部 4 0 2は、 選択した画素の組を誤差推定部 4 0 3に供給する。 ステップ S 4 0 5において、 誤差推定部 4 0 3は、 注目画素を中心とした画素 の組と、 角度毎に選択した画素の組との相関を計算する。 例えば、 誤差推定部 4 0 3は、 角度毎に、 注目画素を含む組の画素の画素値と、 他の組における対応す る位置の画素の画素値の差分の絶対値の和を算出する。
角度毎に選択された、 画素の組の相互の相関を基に、 データの定常性の角度を 検出するようにしてもよい。
誤差推定部 4 0 3は、 算出された相関を示す情報を、 定常方向導出部 4 0 4に 供給する。
ステップ S 4 0 6において、 定常方向導出部 4 0 4は、 ステップ S 4 0 5の処 理で算出された相関を基に、 相関が最も強い画素の組の位置から、 欠落した実世 界 1の光信号の定常性に対応する、 画像データである入力画像における、 基準軸 を基準としたデータの定常性の角度を検出する。 例えば、 定常方向導出部 4 0 4 は、 画素値の差分の絶対値の総和のうち、 最小の総和を選択し、 選択された総和 が算出された画素の組の位置から、 データの定常性の角度 0を検出する。
定常方向導出部 4 0 4は、 検出したデータの定常性の角度を示すデータ定常性 情報を出力する。
ステップ S 4 0 7において、 データ選択部 4 0 2は、 全ての画素の処理を終了 したか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ス テツプ S 4 0 1に戻り、 まだ注目画素として選択されていない画素から注目画素 JP2004/001488
97
を選択して、 上述した処理を繰り返す。
ステップ S 4 0 7において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 データ定常性検出部 1 0 1は、 欠落した実世界 1の光信号の定常 性に対応する、 画像データにおける、 基準軸を基準としたデータの定常性の角度 を検出することができる。
なお、 図 7 2で構成が示されるデータ検出部 1 0 1は、 注目しているフレーム である注目フレームの、 注目している画素である注目画素について、 入力画像の 空間方向のアクティビティを検出し、 検出されたアクティビティに応じて、 注目 画素おょぴ空間方向の基準軸を基準とした角度、 並びに動きベクトル毎に、 注目 フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定の数の画素からなる画素の組を、 複 数抽出し、 抽出された画素の組の相関を検出し、 相関に基づいて、 入力画像にお ける、 時間方向および空間方向のデータの定常性の角度を検出するようにしても よい。
例えば、 図 8 0に示すように、 データ選択部 4 0 2は、 検出されたァクテイビ ティに応じて、 注目画素および空間方向の基準軸を基準とした角度、 並びに動き ベクトル毎に、 注目フレームであるフレーム #n、 フレーム #n- 1、 およびフレー ム #n+ lのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定の数の画 素からなる画素の組を、 複数抽出する。
フレーム -1は、 フレーム #nに対して時間的に前のフレームであり、 フレー ム #n+lは、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレ ーム #n_ l、 フレーム #n、 およびフレーム #n+l は、 フレーム #n- 1、 フレーム 、 およぴフレーム の順で表示される。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 1つの角度お よび 1つの動きべク トル毎に、 画素の組の相関を検出する。 定常方向導出部 4 0 4は、 画素の組の相関に基づいて、 欠落した実世界 1の光信号の定常性に対応す る、 入力画像における、 時間方向および空間方向のデータの定常性の角度を検出 し、 角度を示すデータ定常性情報を出力する。
図 8 1は、 図 7 2に示すデータ定常性検出部 1 0 1のより詳細な他の構成を示 すブロック図である。 図 7 6に示す場合と同様の部分には、 同一の番号を付して あり、 その説明は省略する。
データ選択部 4 0 2は、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lを含 む。 誤差推定部 4 0 3は、 推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2 一 Lを含む。
図 8 1で示すデータ定常性検出部 1 0 1においては、 角度の範囲に対する数の 画素からなる、 画素の組であって、 角度の範囲に対する数の組が抽出されて、 抽 出された画素の組の相関が検出され、 検出された相関に基づいて、 入力画像にお ける、 基準軸を基準としたデータの定常性の角度が検出される。
まず、 アクティビティ情報で示される、 データの定常性の角度が4 5度乃至 1 3 5度のいずれかの値であるときの画素選択部 4 2 1 - 1乃至画素選択部 4 2 1 —Lの処理を説明する。
図 8 2の左側に示すように、 図 7 6で示されるデータ定常性検出部 1 0 1にお いては、 設定された直線の角度によらず、 一定の数の画素からなる画素の組が抽 出されるのに対して、 図 8 1で示されるデータ定常性検出部 1 0 1においては、 図 8 2の右側に示すように、 設定された直線の角度の範囲に応じた数の画素から なる画素の組が抽出される。 また、 図 8 1で示されるデータ定常性検出部 1 0 1 においては、 画素の組が、 設定された直線の角度の範囲に応じた数だけ抽出され る。
画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 4 5度乃至 1 3 5度の範 囲の、 空間方向 Xを示す軸を基準軸として、 注目画素を通る、 それぞれ互いに異 なる所定の角度の直線を設定する。
画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 注目画素が属する縦に 1 列の画素の列に属する画素であって、 それぞれに設定された直線の角度の範囲に 応じた数の、 注目画素の上側の画素、 および注目画素の下側の画素、 並びに注目 画素を画素の組として選択する。
画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 注目画素が属する縦に 1 列の画素の列に対して、 画素を基準とした横方向に所定の距離にある、 左側およ び右側の縦に 1列の画素の列に属する画素であって、 それぞれに設定された直線 に最も近い位置の画素を選択し、 選択された画素に対して縦に 1列の画素から、 設定された直線の角度の範囲に応じた数の、 選択された画素の上側の画素、 およ び選択された画素の下側の画素、 並びに選択された画素を画素の組として選択す る。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度の範囲に応じた数の画素を、 画素の組として選択する。 画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 設定された直線の角度の範囲に応じた数の、 画素の組を選択する。
例えば、 空間方向 Xに対してほぼ 4 5度の角度に位置する、 検出素子の検出領 域の幅とほぼ同じ幅の細線の画像がセンサ 2で撮像された場合、 細線の画像は、 空間方向 Yに 1列に並ぶ 3つの画素に円弧形状が形成されるように、 データ 3に 射影される。 これに対して、 空間方向 Xに対してほぼ垂直に位置する、 検出素子 の検出領域の幅とほぼ同じ幅の細線の画像がセンサ 2で撮像された場合、 細線の 画像は、 空間方向 Yに 1列に並ぶ、 多数の画素に円弧形状が形成されるように、 データ 3に射影される。
画素の組に同じ数の画素が含まれるとすると、 細線が空間方向 Xに対してほぼ 4 5度の角度に位置する場合、 画素の組において、 細線の画像が射影された画素 の数が少なくなり、 分解能が低下することになる。 逆に、 細線が空間方向 Xに対 してほぼ垂直に位置する場合、 画素の組において、 細線の画像が射影された画素 のうちの、 一部の画素について処理が実行されることになり、 正確さが低下する 恐れがある。
そこで、 細線の画像が射影された画素がほぼ同等になるように、 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 設定する直線が空間方向 Xに対して 4 5 度の角度により近いとき、 それぞれ画素の組に含まれる画素の数を少なくして、 画素の組の数を多く し、 設定する直線が空間方向 Xに対して垂直により近い場合、 それぞれの画素の組に含まれる画素の数を多くして、 画素の組の数を少なくする ように、 画素おょぴ画素の組を選択する。
例えば、 図 8 3および図 8 4で示されるように、 画素選択部 4 2 1— 1乃至画 素選択部 4 2 1— Lは、 設定された直線の角度が、 4 5度以上 6 3 . 4度未満の 範囲 (図 8 3およぴ図 8 4において、 Aで示す範囲) にあるとき、 注目画素に対 して、 縦に 1列の画素の列から、 注目画素を中心とした 5つの画素を画素の組と して選択すると共に、 注目画素に対して、 横方向に 5画素以内の距離にある、 左 側および右側の縦に 1列の画素の列に属する画素から、 それぞれ、 5つの画素を 画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度が、 4 5度以上 6 3 . 4度未満の範囲にあるとき、 入力画像から、 それ ぞれ 5つの画素からなる、 1 1の画素の組を選択する。 この場合において、 設定 された直線に最も近い位置の画素として、 選択される画素は、 注目画素に対して、 縦方向に 5画素乃至 9画素離れた位置にある。
図 8 4において、 列の数は、 注目画素の左側または右側の、 画素の組として画 素が選択される画素の列の数を示す。 図 8 4において、 1列の画素の数は、 注目 画素に対して、 縦に 1列の画素の列、 または注目画素の左側または右側の列から、 画素の組として選択される画素の数を示す。 図 8 4において、 画素の選択範囲は、 注目画素に対する、 設定された直線に最も近い位置の画素として、 選択される画 素の縦方向の位置を示す。
図 8 5で示されるように、 例えば、 画素選択部 4 2 1— 1は、 設定された直線 の角度が、 4 5度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注 目画素を中心とした 5つの画素を画素の組として選択すると共に、 注目画素に対 して、 横方向に 5画素以内の距離にある、 左側おょぴ右側の縦に 1列の画素の列 に属する画素から、 それぞれ、 5つの画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 1は、 入力画像から、 それぞれ 5つの画素からなる、 1 1の 画素の組を選択する。 この場合において、 設定された直線に最も近い位置の画素 として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目 画素に対して、 縦方向に 5画素離れた位置にある。
なお、 図 8 5乃至図 9 2において、 点線で表された四角 (点線で仕切られた 1 つのマス目) は、 1つの画素を示し、 実線で表された四角は、 画素の組を示す。 図 8 5乃至図 9 2において、 注目画素の空間方向 Xの座標を 0とし、 注目画素の 空間方向 Yの座標を 0とした。
また、 図 8 5乃至図 9 2において、 斜線で表された四角は、 注目画素または設 定された直線に最も近い位置の画素を示す。 図 8 5乃至図 9 2において、 太線で 表された四角は、 注目画素を中心として選択された画素の組を示す。
図 8 6で示されるように、 例えば、 画素選択部 4 2 1— 2は、 設定された直線 の角度が、 6 0 . 9度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 5つの画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 5画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 5つの画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 2は、 入力画像から、 それぞれ 5つの画素からなる、 1 1の画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 9画素離れた位置にある。
例えば、 図 8 3および図 8 4で示されるように、 画素選択部 4 2 1— 1乃至画 素選択部 4 2 1— Lは、 設定された直線の角度が、 6 3 . 4度以上 7 1 . 6度未 満の範囲 (図 8 3およぴ図 8 4において、 Bで示す範囲) にあるとき、 注目画素 に対して、 縦に 1列の画素の列から、 注目画素を中心とした 7つの画素を画素の 組として選択すると共に、 注目画素に対して、 横方向に 4画素以内の距離にある、 左側おょぴ右側の縦に 1列の画素の列に属する画素から、 それぞれ、 7つの画素 を画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度が、 6 3 . 4度以上 7 1 . 6度未満の範囲囲にあるとき、 入力画像から、 それぞれ 7つの画素からなる、 9つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の画素の縦方向の位置は、 注目画素に対して、 8 画素乃至 1 1画素である。
図 8 7で示されるように、 例えば、 画素選択部 4 2 1— 3は、 設定された直線 の角度が、 6 3 . 4度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 7つの画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 4画素以内の距離にある、 左側おょぴ右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 7つの画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 3は、 入力画像から、 それぞれ 7つの画素からなる、 9 つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 8画素離れた位置にある。
また、 図 8 8で示されるように、 例えば、 画素選択部 4 2 1— 4は、 設定され た直線の角度が、 7 0 . 0度であるとき、 注目画素に対して、 縦に 1列の画素の 列から、 注目画素を中心とした 7つの画素を画素の組として選択すると共に、 注 目画素に対して、 横方向に 4画素以内の距離にある、 左側および右側の縦に 1列 の画素の列に属する画素から、 それぞれ、 7つの画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 4は、 入力画像から、 それぞれ 7つの画素からな る、 9つの画素の組を選択する。 この場合において、 設定された直線に最も近い 位置の画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画 素は、 注目画素に対して、 縦方向に 1 1画素離れた位置にある。
例えば、 図 8 3およぴ図 8 4で示されるように、 画素選択部 4 2 1— 1乃至画 素選択部 4 2 1— Lは、 設定された直線の角度が、 7 1 . 6度以上 7 6 . 0度未 満の範囲 (図 8 3およぴ図 8 4において、 Cで示す範囲) にあるとき、 注目画素 に対して、 縦に 1列の画素の列から、 注目画素を中心とした 9つの画素を画素の 組として選択すると共に、 注目画素に対して、 横方向に 3画素以内の距離にある、 左側おょぴ右側の縦に 1列の画素の列に属する画素から、 それぞれ、 9つの画素 を画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度が、 7 1 . 6度以上 7 6 . 0度未満の範囲にあるとき、 入力画像から、 それぞれ 9つの画素からなる、 7つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の画素の縦方向の位置は、 注目画素に対して、 9 画素乃至 1 1画素である。
図 8 9で示されるように、 例えば、 画素選択部 4 2 1— 5は、 設定された直線 の角度が、 7 1 . 6度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 9つの画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 3画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 9つの画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 5は、 入力画像から、 それぞれ 9つの画素からなる、 7 つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 9画素離れた位置にある。
また、 図 9 0で示されるように、 例えば、 画素選択部 4 2 1— 6は、 設定され た直線の角度が、 7 4 . 7度であるとき、 注目画素に対して、 縦に 1列の画素の 列から、 注目画素を中心とした 9つの画素を画素の組として選択すると共に、 注 目画素に対して、 横方向に 3画素以内の距離にある、 左側および右側の縦に 1列 の画素の列に属する画素から、 それぞれ、 9つの画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 6は、 入力画像から、 それぞれ 9つの画素からな る、 7つの画素の組を選択する。 この場合において、 設定された直線に最も近い 位置の画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画 素は、 注目画素に対して、 縦方向に 1 1画素離れた位置にある。 例えば、 図 8 3およぴ図 8 4で示されるように、 画素選択部 4 2 1 _ 1乃至画 素選択部 4 2 1— Lは、 設定された直線の角度が、 7 6 . 0度以上 8 7 . 7度以 下の範囲 (図 8 3および図 8 4において、 Dで示す範囲) にあるとき、 注目画素 に対して、 縦に 1列の画素の列から、 注目画素を中心とした 1 1の画素を画素の 組として選択すると共に、 注目画素に対して、 横方向に 2画素以内の距離にある、 左側おょぴ右側の縦に 1列の画素の列に属する画素から、 それぞれ、 1 1の画素 を画素の組として選択する。 すなわち、 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 設定された直線の角度が、 7 6 . 0度以上 8 7 . 7度以下の範囲に あるとき、 入力画像から、 それぞれ 1 1の画素からなる、 5つの画素の組を選択 する。 この場合において、 設定された直線に最も近い位置の画素の縦方向の位置 は、 注目画素に対して、 8画素乃至 5 0画素である。
図 9 1で示されるように、 例えば、 画素選択部 4 2 1— 7は、 設定された直線 の角度が、 7 6 . 0度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 1 1の画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 2画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 1 1の画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 7は、 入力画像から、 それぞれ 1 1の画素からなる、 5 つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 8画素離れた位置にある。
また、 図 9 2で示されるように、 例えば、 画素選択部 4 2 1— 8は、 設定され た直線の角度が、 8 7 . 7度であるとき、 注目画素に対して、 縦に 1列の画素の 列から、 注目画素を中心とした 1 1の画素を画素の組として選択すると共に、 注 目画素に対して、 横方向に 2画素以内の距離にある、 左側おょぴ右側の縦に 1列 の画素の列に属する画素から、 それぞれ、 1 1の画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 8は、 入力画像から、 それぞれ 1 1の画素からな る、 5の画素の組を選択する。 この場合において、 設定された直線に最も近い位 置の画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素 は、 注目画素に対して、 縦方向に 5 0画素離れた位置にある。
このように、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 それぞれ、 角度の範囲に対応した所定の数の画素からなる、 角度の範囲に対応した所定の数 の画素の組を選択する。
画素選択部 4 2 1— 1は、 選択した画素の組を推定誤差算出部 4 2 2— 1に供 給し、 画素選択部 4 2 1— 2は、 選択した画素の組を推定誤差算出部 4 2 2 - 2 に供給する。 同様に、 画素選択部 4 2 1— 3乃至画素選択部 4 2 1— Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 2 2— 3乃至推定誤差算出部 4 2 2 一 Lのそれぞれに供給する。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 画素選択部 4 2 1一 1乃至画素選択部 4 2 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 例えば、 推定誤差算出部 4 2 2 一 1乃至推定誤差算出部 4 2 2— Lは、 画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lのいずれかから供給された、 注目画素を含む画素の組の画素の画素値と、 他の画素の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、 注目画素を含む画素の組以外の画素の組に含まれる画素の数で、 算出された和を 割り算する。 算出された和を、 注目画素を含む組以外の組に含まれる画素の数で、 割り算するのは、 設定された直線の角度に応じて選択される画素の数が異なるの で、 相関を示す値を正規化するためである。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 例えば、 推定誤差算出部
4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 正規化された画素値の差分の絶対 値の和を最小誤差角度選択部 4 1 3に供給する。
次に、 アクティビティ情報で示される、 データの定常性の角度が 0度乃至 4 5 度おょぴ 1 3 5度乃至 1 8 0度のいずれかの値であるときの画素選択部 4 2 1 -
1乃至画素選択部 4 2 1— Lの処理を説明する。 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 0度乃至 4 5度または 1 3 5度乃至 1 8 0度の範囲の、 空間方向 Xを示す軸を基準軸として、 注目画素を 通る、 それぞれ互いに異なる所定の角度の直線を設定する。
画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 注目画素が属する横に 1 列の画素の列に属する画素であって、 設定された直線の角度の範囲に応じた数の、 注目画素の左側の画素、 および注目画素の右側の画素、 並びに注目画素を画素の 組として選択する。
画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 注目画素が属する横に 1 列の画素の列に対して、 画素を基準とした縦方向に所定の距離にある、 上側およ ぴ下側の横に 1列の画素の列に属する画素であって、 設定された直線に最も近い 位置の画素を選択し、 選択された画素に対して横に 1列の画素から、 設定された 直線の角度の範囲に応じた数の、 選択された画素の左側の画素、 および選択され た画素の右側の画素、 並びに選択された画素を画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度の範囲に応じた数の画素を、 画素の組として選択する。 画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 設定された直線の角度の範囲に応じた数の、 画素の組を選択する。
画素選択部 4 2 1— 1は、 選択した画素の組を推定誤差算出部 4 2 2— 1に供 給し、 画素選択部 4 2 1— 2は、 選択した画素の組を推定誤差算出部 4 2 2 - 2 に供給する。 同様に、 画素選択部 4 2 1一 3乃至画素選択部 4 2 1— Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 2 2— 3乃至推定誤差算出部 4 2 2 —Lのそれぞれに供給する。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 画素選択部 4 2 1一 1乃至画素選択部 4 2 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 次に、 図 9 3のフローチャートを参照して、 ステップ S 1 0 1の処理に対応す る、 図 8 1で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性 の検出の処理を説明する。
ステップ S 4 2 1およびステップ S 4 2 2の処理は、 ステップ S 4 0 1および ステップ S 4 0 2の処理と同様なので、 その説明は省略する。
ステップ S 4 2 3において、 データ選択部 4 0 2は、 ステップ S 4 2 2の処理 で検出されたァクティビティに対する所定の範囲の角度毎に、 注目画素を含む画 素の列から、 注目画素を中心とした、 角度の範囲に対して定めた数の画素を、 画 素の組として選択する。 例えば、 データ選択部 4 0 2は、 注目画素が属する縦ま たは横に 1列の画素の列に属する画素であって、 設定する直線の角度に対して、 角度の範囲により定めた数の、 注目画素の上側または左側の画素、 および注目画 素の下側または右側の画素、 並びに注目画素を画素の組として選択する。
ステップ S 4 2 4において、 データ選択部 4 0 2は、 ステップ S 4 2 2の処理 で検出されたアクティビティを基にした、 所定の範囲の角度毎に、 角度の範囲に 対して定めた数の画素の列から、 角度の範囲に対して定めた数の面素を、 画素の 組として選択する。 例えば、 データ選択部 4 0 2は、 所定の範囲の角度を有し、 空間方向 Xを示す軸を基準軸として、 注目画素を通る直線を設定し、 注目画素に 対して、 横方向または縦方向に、 設定する直線の角度の範囲に対して所定の範囲 だけ離れた画素であって、 直線に最も近い画素を選択し、 選択された画素の上側 または左側の、 設定する直線の角度の範囲に対する数の画素、 および選択された 画素の下側または右側の、 設定する直線の角度の範囲に対する数の画素、 並びに 選択された線に最も近い画素を画素の組として選択する。 データ選択部 4 0 2は、 角度毎に、 画素の組を選択する。
データ選択部 4 0 2は、 選択した画素の組を誤差推定部 4 0 3に供給する。 ステップ S 4 2 5において、 誤差推定部 4 0 3は、 注目画素を中心とした画素 の組と、 角度毎に選択した画素の組との相関を計算する。 例えば、 誤差推定部 4 0 3は、 注目画素を含む組の画素の画素値と、 他の組における対応する位置の画 素の画素値の差分の絶対値の和を算出し、 他の組に属する画素の数で、 画素値の 差分の絶対値の和を割り算することにより、 相関を計算する。
角度毎に選択された、 画素の組の相互の相関を基に、 データの定常性の角度を 検出するようにしてもよい。
誤差推定部 4 0 3は、 算出された相関を示す情報を、 定常方向導出部 4 0 4に 供給する。
ステップ S 4 2 6およぴステツプ S 4 2 7の処理は、 ステップ S 4 0 6および ステップ S 4 0 7の処理と同様なので、 その説明は省略する。
このように、 データ定常性検出部 1 0 1は、 欠落した実世界 1の光信号の定常 性に対応する、 画像データにおける、 基準軸を基準としたデータの定常性の角度 を、 より正確に、 より精度良く検出することができる。 図 8 1に構成を示すデー タ定常性検出部 1 0 1は、 特に、 データの定常性の角度が 4 5度付近である場合 において、 細線の画像が射影された、 より多くの画素の相関を評価することがで きるので、 より精度良くデータの定常性の角度を検出することができる。
なお、 図 8 1で構成が示されるデータ定常性検出部 1 0 1においても、 注目し ているフレームである注目フレームの、 注目している画素である注目画素につい て、 入力画像の空間方向のアクティビティを検出し、 検出されたアクティビティ に応じて、 注目画素および空間方向の基準軸を基準とした角度、 並びに動きべク トル毎に、 注目フレームおよび注目フレームの時間的に前または後ろのフレーム のそれぞれから、 垂直方向に 1列または水平方向に 1列の、 空間的な角度の範囲 に対して定めた数の画素からなる画素の組を、 空間的な角度の範囲に対して定め た数だけ抽出し、 抽出された画素の組の相関を検出し、 相関に基づいて、 入力画 像における、 時間方向および空間方向のデータの定常性の角度を検出するように 図 9 4は、 データ定常性検出部 1 0 1のさらに他の構成を示すプロック図であ る。
図 9 4に構成を示すデータ定常性検出部 1 0 1においては、 注目している画素 である注目画素について、 所定の数の画素からなる、 注目画素を中心としたプロ ックと、 注目画素の周辺の、 それぞれ、 所定の数の画素からなる複数のブロック が抽出され、 注目画素を中心としたプロックと周辺のプロックとの相関が検出さ れ、 相関に基づいて、 入力画像における、 基準軸を基準としたデータの定常性の 角度が検出される。
データ選択部 4 4 1は、 入力画像の画素から注目画素を順に選択し、 注目画素 を中心とした、 所定の数の画素からなるブロック、 および、 注目画素の周辺の、 所定の数の画素からなる複数のプロックを抽出し、 抽出したプロックを誤差推定 部 4 4 2に供給する。
例えば、 データ選択部 4 4 1は、 注目画素を中心とした 5 X 5画素からなるブ ロック、 注目画素の周辺から、 注目画素おょぴ基準軸を基準とした所定の角度の 範囲毎に、 5 X 5画素からなる 2つのプロックを抽出する。
誤差推定部 4 4 2は、 データ選択部 4 4 1から供給された、 注目画素を中心と したブロックと、 注目画素の周迈のブロックとの相関を検出して、 検出した相関 を示す相関情報を定常方向導出部 4 4 3に供給する。
例えば、 誤差推定部 4 4 2は、 角度の範囲毎に、 注目画素を中心とした 5 X 5 画素からなるブロックと、 1つの角度の範囲に対応する、 5 X 5画素からなる 2 つのプロックとについて、 画素値の相関を検出する。
定常性方向導出部 4 4 3は、 誤差推定部 4 4 2から供給された相関情報に基い て、 相関の最も強い、 注目画素の周辺のブロックの位置から、 欠落した実世界 1 の光信号の定常性に対応する、 入力画像における、 基準軸を基準としたデータの 定常性の角度を検出し、 角度を示すデータ定常性情報を出力する。 例えば、 定常 方向導出部 4 4 3は、 誤差推定部 4 4 2から供給された相関情報に基いて、 注目 画素を中心とした 5 X 5画素からなるプロックに対して最も相関の強い、 5 X 5 画素からなる 2つのブロックに対する角度の範囲を、 データの定常性の角度とし て検出し、 検出された角度を示すデータ定常性情報を出力する。
図 9 5は、 図 9 4に示すデータ定常性検出部 1 0 1のより詳細な構成を示すブ 口ック図である。
データ選択部 44 1は、 画素選択部 4 6 1— 1乃至画素選択部 4 6 1— Lを含 む。 誤差推定部 44 2は、 推定誤差算出部 4 6 2— 1乃至推定誤差算出部 4 6 2 一 Lを含む。 定常方向導出部 44 3は、 最小誤差角度選択部 4 6 3を含む。
例えば、 データ選択部 44 1には、 画素選択部 46 1 - 1乃至画素選択部 4 6 1一 8が設けられる。 例えば、 誤差推定部 44 2には、 推定誤差算出部 4 6 2— 1乃至推定誤差算出部 4 6 2— 8が設けられる。
画素選択部 4 6 1 - 1乃至画素選択部 4 6 1一 Lのそれぞれは、 注目画素を中 心とした、 所定の数の画素からなるブロック、 並びに注目画素および基準軸を基 準とした所定の角度の範囲に対応した、 所定の数の画素からなる 2つのプロック を抽出する。
図 9 6は、 画素選択部 46 1 - 1乃至画素選択部 4 6 1— Lにより抽出される、 5 X 5画素のプロックの例を説明する図である。 図 9 6における中央の位置は、 注目画素の位置を示す。
なお、 5 X 5画素のブロックは、 一例であって、 ブロックに含まれる画素の数 は、 本発明を限定するものではない。
例えば、 画素選択部 4 6 1— 1は、 注目画素を中心とした、 5 X 5画素のプロ ックを抽出すると共に、 0度乃至 1 8. 4度および 1 6 1. 6度乃至 1 8 0. 0 度の範囲に対応した、 注目画素に対して、 右側に 5画素移動した位置にある画素 を中心とした、 5 X 5画素のブロック (図 9 6中 Aで示す) を抽出し、 注目画素 に対して、 左側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブ ロック (図 9 6中 A' で示す) を抽出する。 画素選択部 4 6 1— 1は、 抽出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2 - 1に供給する。
画素選択部 4 6 1— 2は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 8. 4度乃至 3 3. 7度の範囲に対応した、 注目画素に対して、 右側に 1 0画素移動し、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 9 6中 Bで示す) を抽出し、 注目画素に対して、 左側に 1 0画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画 素のプロック (図 9 6中 B' で示す) を抽出する。 画素選択部 46 1— 2は、 抽 出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2 - 2に供給する。 画素選択部 4 6 1— 3は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 3 3. 7度乃至 5 6. 3度の範囲に対応した、 注目画素に対して、 右側に 5画素移動し、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 9 6中 Cで示す) を抽出し、 注目画素に対して、 左側に 5 画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画素の ブロック (図 9 6中 C, で示す) を抽出する。 画素選択部 4 6 1— 3は、 抽出し た、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2— 3に供給する。
画素選択部 4 6 1— 4は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 5 6. 3度乃至 7 1. 6度の範囲に対応した、 注目画素に対して、 右側に 5画素移動し、 上側に 1 0画素移動した位置にある画素を中心とした、 5 X 5画素のプロック (図 9 6中 Dで示す) を抽出し、 注目画素に対して、 左側に 5画素移動し、 下側に 1 0画素移動した位置にある画素を中心とした、 5 X 5画 素のブロック (図 9 6中 D' で示す) を抽出する。 画素選択部 4 6 1— 4は、 抽 出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2— 4に供給する。 画素選択部 4 6 1— 5は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 7 1. 6度乃至 1 0 8. 4度の範囲に対応した、 注目画素に対し て、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のプロック (図 9 6中 Eで示す) を抽出し、 注目画素に対して、 下側に 5画素移動した位置 にある画素を中心とした、 5 X 5画素のブロック (図 9 6中 E' で示す) を抽出 する。 画素選択部 4 6 1— 5は、 抽出した、 5 X 5画素の 3つのブロックを推定 誤差算出部 4 6 2— 5に供給する。
画素選択部 4 6 1— 6は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 0 8. 4度乃至 1 2 3. 7度の範囲に対応した、 注目画素に対 して、 左側に 5画素移動し、 上側に 1 0画素移動した位置にある画素を中心とし た、 5 X 5画素のブロック (図 9 6中 Fで示す) を抽出し、 注目画素に対して、 右側に 5画素移動し、 下側に 1 0画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 9 6中 F' で示す) を抽出する。 画素選択部 4 6 1— 6 は、 抽出した、 5 X 5画素の 3つのブロックを推定誤差算出部 46 2— 6に供給 する。
画素選択部 4 6 1— 7は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 2 3. 7度乃至 1 4 6. 3度の範囲に対応した、 注目画素に対 して、 左側に 5画素移動し、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 9 6中 Gで示す) を抽出し、 注目画素に対して、 右側 に 5画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画 素のブロック (図 9 6中 G' で示す) を抽出する。 画素選択部 4 6 1— 7は、 抽 出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2 - 7に供給する。 画素選択部 4 6 1— 8は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 4 6. 3度乃至 1 6 1. 6度の範囲に対応した、 注目画素に対 して、 左側に 1 0画素移動し、 上側に 5画素移動した位置にある画素を中心とし た、 5 X 5画素のブロック (図 9 6中 Hで示す) を抽出し、 注目画素に対して、 右側に 1 0画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 9 6中 H' で示す) を抽出する。 画素選択部 4 6 1— 8 は、 抽出した、 5 X 5画素の 3つのブロックを推定誤差算出部 4 6 2— 8に供給 する。
以下、 注目画素を中心とした、 所定の数の画素からなるブロックを注目プロッ クと称する。
以下、 注目画素および基準軸を基準とした所定の角度の範囲に対応した、 所定 の数の画素からなるプロックを参照プロックと称する。
このように、 画素選択部 4 6 1— 1乃至画素選択部 4 6 1— 8は、 例えば、 注 目画素を中心として、 2 5 X 2 5画素の範囲から、 注目ブロックおよび参照プロ ックを抽出する。 推定誤差算出部 4 6 2 - 1乃至推定誤差算出部 4 6 2— Lは、 画素選択部 4 6 1一 1乃至画素選択部 4 6 1— Lから供給された、 注目プロックと、 2つの参照 プロックとの相関を検出して、 検出した相関を示す相関情報を最小誤差角度選択 部 4 6 3に供給する。
例えば、 推定誤差算出部 4 6 2— 1は、 注目画素を中心とした、 5 X 5画素か らなる注目ブロックと、 0度乃至 1 8 . 4度および 1 6 1 . 6度乃至 1 8 0 . 0 度の範囲に対応して抽出された、 注目画素に対して、 右側に 5画素移動した位置 にある画素を中心とした、 5 X 5画素の参照プロックとについて、 注目ブロック に含まれる画素の画素値と、 参照プロックに含まれる画素の画素値との差分の絶 対値を算出する。
この場合において、 推定誤差算出部 4 6 2— 1は、 図 9 7に示されるように、 注目プロックの中央の画素と参照ブロックの中央の画素とが重なる位置を基準と して、 画素値の差分の絶対値の算出に、 注目画素の画素値が使用されるように、 参照ブロックに対して、 注目ブロックの位置を、 左側に 2画素乃至右側に 2画素 のいずれか、 上側に 2画素乃至下側に 2画素のいずれか移動させた場合に重なる 位置となる画素の画素値の差分の絶対値を算出する。 すなわち、 注目ブロックと 参照ブロックとの 2 5種類の位置における、 対応する位置の画素の画素値の差分 の絶対値が算出される。 言い換えれば、 画素値の差分の絶対値が算出される場合 において、 相対的に移動される注目プロックおよび参照ブロックとからなる範囲 は、 9 X 9画素である。
図 9 7において、 四角は、 画素を示し、 Aは、 参照ブロックを示し、 Bは、 注 目ブロックを示す。 図 9 7において、 太線は、 注目画素を示す。 すなわち、 図 9 7は、 参照プロックに対して、 注目プロックが右側に 2画素、 および上側に 1画 素移動した場合の例を示す図である。
さらに、 推定誤差算出部 4 6 2— 1は、 注目画素を中心とした、 5 X 5画素か らなる注目プロックと、 0度乃至 1 8 . 4度および 1 6 1 . 6度乃至 1 8 0 . 0 度の範囲に対応して抽出された、 注目画素に対して、 左側に 5画素移動した位置 にある画素を中心とした、 5 X 5画素の参照ブロックとについて、 注目ブロック に含まれる画素の画素値と、 参照プロックに含まれる画素の画素値との差分の絶 対値を算出する。
そして、 推定誤差算出部 4 6 2— 1は、 算出された差分の絶対値の和を求めて、 差分の絶対値の和を、 相関を示す相関情報として最小誤差角度選択部 4 6 3に供 給する。
推定誤差算出部 4 6 2— 2は、 5 X 5画素からなる注目ブロックと、 1 8 . 4 度乃至 3 3 . 7度の範囲に対応して抽出された、 5 X 5画素の 2つの参照ブロッ クとについて、 画素値の差分の絶対値を算出し、 さらに、 算出された差分の絶対 値の和を算出する。 推定誤差算出部 4 6 2— 1は、 算出された差分の絶対値の和 を、 相関を示す相関情報として最小誤差角度選択部 4 6 3に供給する。
同様に、 推定誤差算出部 4 6 2— 3乃至推定誤差算出部4 6 2— 8のそれぞれ は、 5 X 5画素からなる注目ブロックと、 所定の角度の範囲に対応して抽出され た、 5 X 5画素の 2つの参照ブロックとについて、 画素値の差分の絶対値を算出 し、 さらに、 算出された差分の絶対値の和を算出する。 推定誤差算出部 4 6 2— 3乃至推定誤差算出部 4 6 2— 8のそれぞれは、 算出された差分の絶対値の和を、 相関を示す相関情報として最小誤差角度選択部 4 6 3に供給する。
最小誤差角度選択部 4 6 3は、 推定誤差算出部 4 6 2 - 1乃至推定誤差算出部 4 6 2 - 8から供給された、 相関情報としての画素値の差分の絶対値の和のうち、 最も強い相関を示す、 最小の値が得られた参照ブロックの位置から、 2つの参照 プロックに対する角度をデータの定常性の角度として検出し、 検出された角度を 示すデータ定常性情報を出力する。
ここで、 参照プロックの位置と、 データの定常性の角度の範囲との関係につい て説明する。
実世界の信号を近似する近似関数 f (X) を n次の一次元多項式で近似した場 合、 近似関数 f (x) は、 式 (3 0 ) で表すことができる。 f (x) = WQX^W^"-1 + · · , +Wn_iX+WN
i=0
- · · (30)
近似関数 f (x) で近似される実世界 1の信号の波形が、 空間方向 Yに対して 一定の傾き (角度) を有する場合、 式 (30) における、 Xを x+y yとすること により得られた式 (31) で、 実世界 1の信号を近似する近似関数 (x, y) は、 表現される。 f (x, y) = w0(x+ry)n (x+ry)n_1 +· · · +wn_-, (x+ry) +wn
= ∑ Wi (x+ry)n"
i=0
• · · (31)
γは、 空間方向 Yの位置の変化に対する、 空間方向 Xの位置の変化の割合を示 す。 以下、 γをシフト量とも称する。
図 98は、 注目画素の位置と、 角度 0を有する直線との空間方向 Xの距離を 0 としたとき、 すなわち、 注目画素を直線が通るときの、 注目画素の周辺の画素の 位置と、 角度 0を有する直線との空間方向 Xの距離を示す図である。 ここで、 画 素の位置は、 画素の中心の位置である。 また、 位置と直線との距離は、 位置が直 線に対して左側にあるとき、 負の値で示され、 位置が直線に対して右側にあると き、 正の値で示される。
例えば、 注目画素の右側に隣接する画素の位置、 すなわち空間方向 Xの座標 X が 1増加する位置と、 角度 Θを有する直線との空間方向 Xの距離は、 1であり、 注目画素の左側に隣接する画素の位置、 すなわち空間方向 Xの座標 Xが 1減少 する位置と、 角度 0を有する直線との空間方向 Xの距離は、 一 1である。 注目画 素の上側に隣接する画素の位置、 すなわち空間方向 Υの座標 yが 1増加する位 置と、 角度 Θを有する直線との空間方向 Xの距離は、 - γであり、 注目画素の下 側に隣接する画素の位置、 すなわち空間方向 Υの座標 yが 1減少する位置と、 角度 Θを有する直線との空間方向 Xの距離は、 γである。
角度 0が 4 5度を超え、 9 0度未満であり、 シフ ト量 γ力 S、 0を超え、 1未満 であるとき、 シフ ト量 yと角度 6 との間には、 y = l/tan 0の関译式が成り立つ。 図 9 9は、 シフ ト量 γと角度 6との関係を示す図である。
ここで、 シフト量 γの変化に対する、 注目画素の周辺の画素の位置と、 注目画 素を通り、 角度 0を有する直線との空間方向 Xの距離の変化に注目する。
図 1 0 0は、 シフ ト量 γに対する、 注目画素の周辺の画素の位置と、 注目画素 を通り、 角度 Θを有する直線との空間方向 Xの距離を示す図である。 図 1 0 0に おいて、 右上がりの一点鎖線は、 シフ ト量 γに対する、 注目画素の下側に隣接す る画素の位置と直線との空間方向 Xの距離を示し、 左下がりの一点鎖線は、 シフ ト量 γに対する、 注目画素の上側に隣接する画素の位置と直線との空間方向 Xの 距離を示す。
図 1 0 0において、 右上がりの二点鎖線は、 シフ ト量 γに対する、 注目画素か ら、 2画素下側で、 1画素左側に位置する画素の位置と直線との空間方向 Xの距 離を示し、 左下がりの二点鎖線は、 シフ ト量 γに対する、 注目画素から、 2画素 上側で、 1画素右側に位置する画素の位置と直線との空間方向 Xの距離を示す。 図 1 0 0において、 右上がりの三点鎖線は、 シフ ト量 0/に対する、 注目画素か ら、 1画素下側で、 1画素左側に位置する画素の位置と直線との空間方向 Xの距 離を示し、 左下がりの三点鎖線は、 シフ ト量 γに対する、 注目画素から、 1画素 上側で、 1画素右側に位置する画素の位置と直線との空間方向 Xの距離を示す。 図 1 0 0から、 シフト量 γに対して、 距離が最も小さい画素がわかる。
すなわち、 シフト量 γが 0乃至 1 / 3であるとき、 注目画素の上側に隣接する 画素および注目画素の下側に瞵接する画素から、 直線までの距離が最小である。 すなわち、 角度 Θが 7 1 . 6度乃至 9 0度であるとき、 注目画素の上側に隣接す る画素および注目画素の下側に隣接する画素から、 直線までの距離が最小である。 シフ ト量" yが 1/3乃至 2 Z 3であるとき、 注目画素に対して、 2画素上側で、 1画素右側に位置する画素、 および注目画素に対して、 2画素下側で、 1画素左 側に位置する画素から、 直線までの距離が最小である。 すなわち、 角度 6が 5 6. 3度乃至 7 1. 6度であるとき、 注目画素に対して、 2画素上側で、 1画素右側 に位置する画素、 および注目画素に対して、 2画素下側で、 1画素左側に位置す る画素から、 直線までの距離が最小である。
また、 シフ ト量 γが 2/3乃至 1であるとき、 注目画素に対して、 1画素上側 で、 1画素右側に位置する画素、 および注目画素に対して、 1画素下側で、 1画 素左側に位置する画素から、 直線までの距離が最小である。 すなわち、 角度 6が 4 5度乃至 5 6. 3度であるとき、 注目画素に対して、 1画素上側で、 1画素右 側に位置する画素、 および注目画素に対して、 1画素下側で、 1画素左側に位置 する画素から、 直線までの距離が最小である。
角度 0が 0度から 4 5度までの範囲の直線と画素との関係も、 同様に考えるこ とができる。
図 9 8に示す画素を、 注目プロックおよび参照プロックに置き換えて、 参照プ 口ックと直線との空間方向 Xの距離を考えることができる。
図 1 0 1に、 注目画素を通り、 空間方向 Xの軸に対して角度 0の直線との距離 が最小の参照プロ Vクを示す。
図 1 0 1における A乃至 Hおよび A' 乃至 H' は、 図 9 6における A乃至 Hお ょぴ A' 乃至 H' の参照プロックを示す。
すなわち、 注目画素を通り、 空間方向 Xの軸を基準とした、 0度乃至 1 8. 4 度および 1 6 1. 6度乃至 1 8 0. 0度のいずれかの角度 6を有する直線と、 A 乃至 Hおよび A' 乃至 H' の参照プロックのそれぞれとの空間方向 Xの距離のう ち、 直線と Aおよび A' の参照ブロックとの距離が最小となる。 従って、 逆に考 えれば、 注目ブロックと、 Aおよび A' の参照プロックとの相関が最も強いとき、 注目プロックと、 Aおよび A' の参照ブロックとを結ぶ方向に、 一定の特徴が繰 り返し現れているので、 データの定常性の角度は、 0度乃至 1 8. 4度および 1 6 1. 6度乃至 1 8 0. 0度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 8. 4度乃至 3 3. 7度の いずれかの角度 0を有する直線と、 A乃至 Hおよび A ' 乃至 H' の参照ブロック のそれぞれとの空間方向 Xの距離のうち、 直線と Bおよび B, の参照ブロックと の距離が最小となる。 従って、 逆に考えれば、 注目プロックと、 Bおよび B, の 参照ブロックとの相関が最も強いとき、 注目ブロックと、 Bおよび B, の参照ブ ロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常性 の角度は、 1 8. 4度乃至 3 3. 7度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 3 3. 7度乃至 5 6. 3度の いずれかの角度 0を有する直線と、 A乃至 Hおよび A, 乃至 H' の参照プロック のそれぞれとの空間方向 Xの距離のうち、 直線と Cおよび C' の参照ブロックと の距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Cおよび c, の 参照プロックとの相関が最も強いとき、 注目ブロックと、 Cおよび C' の参照ブ ロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常性 の角度は、 3 3. 7度乃至 5 6. 3度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 5 6. 3度乃至 7 1. 6度の いずれかの角度 0を有する直線と、 A乃至 Hおよび A ' 乃至 H' の参照ブロック のそれぞれとの空間方向 Xの距離のうち、 直線と Dおよび D' の参照ブロックと の距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Dおよび D, の 参照プロックとの相関が最も強いとき、 注目ブロックと、 Dおよび D' の参照プ ロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常性 の角度は、 5 6. 3度乃至 7 1. 6度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 7 1. 6度乃至 1 0 8. 4度 のいずれかの角度 6を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照プロッ クのそれぞれとの空間方向 Xの距離のうち、 直線と Eおよび E' の参照ブロック との距離が最小となる。 従って、 逆に考えれば、 注目プロックと、 Eおよび E' の参照プロックとの相関が最も強いとき、 注目ブロックと、 Eおよび E' の参照 ブロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常 性の角度は、 7 1. 6度乃至 1 0 8. 4度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 0 8. 4度乃至 1 2 3. 7 度のいずれかの角度 0を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照プロ ックのそれぞれとの空間方向 Xの距離のうち、 直線と Fおよび F' の参照ブロッ クとの距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Fおよび F' の参照ブロックとの相関が最も強いとき、 注目ブロックと、 Fおよび F, の 参照ブロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 1 0 8. 4度乃至 1 2 3. 7度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 2 3. 7度乃至 1 4 6. 3 度のいずれかの角度 0を有する直線と、 A乃至 Hおよび A, 乃至 H, の参照ブロ ックのそれぞれとの空間方向 Xの距離のうち、 直線と Gおよび G' の参照ブロッ クとの距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Gおよび G, の参照プロックとの相関が最も強いとき、 注目ブロックと、 Gおよび G, の 参照ブロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 1 2 3. 7度乃至 1 46. 3度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 4 6. 3度乃至 1 6 1. 6 度のいずれかの角度 0を有する直線と、 A乃至 Hおよび A' 乃至 H, の参照プロ ックのそれぞれとの空間方向 Xの距離のうち、 直線と Hおよび H, の参照プロッ クとの距離が最小となる。 従って、 逆に考えれば、 注目プロックと、 Hおよび H' の参照プロックとの相関が最も強いとき、 注目ブロックと、 Hおよび H' の 参照プロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 1 4 6. 3度乃至 1 6 1. 6度の範囲にあると言える。
このように、 データ定常性検出部 1 0 1は、 注目ブロックと参照ブロックとの 相関を基に、 データの定常性の角度を検出することができる。
なお、 図 9 4に構成を示すデータ定常性検出部 1 0 1においては、 データの定 常性の角度の範囲をデータ定常性情報として出力するようにしても良く、 データ の定常性の角度の範囲を示す代表値をデータ定常性情報として出力するようにし ても良い。 例えば、 データの定常性の角度の範囲の中央値を代表値とすることが できる。
さらに、 図 9 4に構成を示すデータ定常性検出部 1 0 1は、 相関が最も強い参 照ブロックの周辺の参照ブロックの相関を利用することにより、 検出するデータ の定常性の角度の範囲を 1 Z 2に、 すなわち、 検出するデータの定常性の角度の 分解能を 2倍にすることができる。
例えば、 注目ブロックと、 Eおよび E, の参照ブロックとの相関が最も強いと き、 最小誤差角度選択部 4 6 3は、 図 1 0 2で示されるように、 注目プロックに 対する、 Dおよび D ' の参照ブロックの相関と、 注目ブロックに対する、 Fおよ び F ' の参照ブロックの相関とを比較する。 注目プロックに対する、 Dおよび D, の参照プロックの相関が、 注目ブロックに対する、 Fおよび F, の参照プロ ックの相関に比較して、 強い場合、 最小誤差角度選択部 4 6 3は、 データの定常 性の角度に、 7 1 . 6度乃至 9 0度の範囲を設定する。 また、 この場合、 最小誤 差角度選択部 4 6 3は、 データの定常性の角度に、 代表値として 8 1度を設定す るようにしてもよい。
注目ブロックに対する、 Fおよび F ' の参照ブロックの相関が、 注目ブロック に対する、 Dおよび D, の参照プロックの相関に比較して、 強い場合、 最小誤差 角度選択部 4 6 3は、 データの定常性の角度に、 9 0度乃至 1 0 8 . 4度の範囲 を設定する。 また、 この場合、 最小誤差角度選択部 4 6 3は、 データの定常性の 角度に、 代表値として 9 9度を設定するようにしてもよい。
最小誤差角度選択部 4 6 3は、 同様の処理で、 他の角度の範囲についても、 検 出するデータの定常性の角度の範囲を 1 Z 2にすることができる。
尚、 図 1 0 2を参照して説明した手法を、 簡易 1 6方位検出手法とも称する。 このように、 図 9 4に構成を示すデータ定常性検出部 1 0 1は、 簡単な処理で、 より範囲の狭い、 データの定常性の角度を検出することができる。
次に、 図 1 0 3のフローチャートを参照して、 ステップ S 1 0 1の処理に対応 する、 図 9 4で構成が示されるデータ定常性検出部 1 0 1による、 データの定常 性の検出の処理を説明する。
ステップ S 4 4 1において、 データ選択部 4 4 1は、 入力画像から、 注目して いる画素である注目画素を選択する。 例えば、 データ選択部 4 4 1は、 入力画像 から、 ラスタスキャン順に、 注目画素を選択する。
ステップ S 4 4 2において、 データ選択部 4 4 1は、 注目画素を中心とする所 定の数の画素からなる注目プロックを選択する。 例えば、 データ選択部 4 4 1は、 注目画素を中心とする 5 X 5画素からなる注目プロックを選択する。
ステップ S 4 4 3において、 データ選択部 4 4 1は、 注目画素の周辺の所定の 位置の所定の数の画素からなる参照ブロックを選択する。 例えば、 データ選択部 4 4 1は、 注目画素および基準軸を基準とした所定の角度の範囲毎に、 注目プロ ックの大きさを基準とした、 所定の位置の画素を中心とする 5 X 5画素からなる 参照プロックを選択する。
データ選択部 4 4 1は、 注目ブロックおよぴ参照ブロックを誤差推定部 4 4 2 に供給する。
ステップ S 4 4 4において、 誤差推定部 4 4 2は、 注目画素おょぴ基準軸を基 準とした所定の角度の範囲毎に、 注目ブロックと、 角度の範囲に対応した参照ブ ロックとの相関を計算する。 誤差推定部 4 4 2は、 算出された相関を示す相関情 報を定常方向導出部 4 4 3に供給する。
ステップ S 4 4 5において、 定常方向導出部 4 4 3は、 注目ブロックに対して、 相関が最も強い参照プロックの位置から、 欠落した実世界 1の光信号である画像 の定常性に対応する、 入力画像における、 基準軸を基準としたデータの定常性の 角度を検出する。
定常方向導出部 4 4 3は、 検出したデータの定常性の角度を示すデータ定常性 情報を出力する。
ステップ S 4 4 6において、 データ選択部 4 4 1は、 全ての画素の処理を終了 したか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ス テツプ S 4 4 1に戻り、 まだ注目画素として選択されていない画素から注目画素 を選択して、 上述した処理を繰り返す。
ステップ S 4 4 6において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 図 9 4に構成を示すデータ定常性検出部 1 0 1は、 より簡単な処 理で、 欠落した実世界 1の光信号の定常性に対応する、 画像データにおける、 基 準軸を基準としたデータの定常性の角度を検出することができる。 また、 図 9 4 に構成を示すデータ定常性検出部 1 0 1は、 入力画像の中の、 比較的狭い範囲の 画素の画素値を使用して、 データの定常性の角度を検出することができるので、 入力画像にノイズ等が含まれていても、 より正確にデータの定常性の角度を検出 することができる。
なお、 図 9 4で構成が示されるデータ検出部 1 0 1は、 注目しているフレーム である注目フレームの、 注目している画素である注目画素について、 注目フレー ムから、 所定の数の画素からなる、 注目画素を中心としたブロックと、 注目画素 の周辺の、 それぞれ、 所定の数の画素からなる複数のブロックとを抽出すると共 に、 注目フレームに対して時間的に前または後ろのフレームから、 所定の数の画 素からなる、 注目画素に対応する位置の画素を中心としたブロックと、 注目画素 に対応する位置の画素の周辺の、 それぞれ、 所定の数の画素からなる複数のプロ ックとを抽出し、 注目画素を中心としたプロックと空間的または時間的に周辺の ブロックとの相関を検出し、 相関に基づいて、 入力画像における、 時間方向およ び空間方向のデータの定常性の角度を検出するようにしてもよい。
例えば、 図 1 0 4に示すように、 データ選択部 4 4 1は、 注目フレームである フレーム #nから注目画素を順に選択し、 フレームおから、 注目画素を中心とし た、 所定の数の画素からなるブロック、 および、 注目画素の周辺の、 所定の数の 画素からなる複数のプロックを抽出する。 また、 データ選択部 4 4 1は、 フレー ム to- 1およびフレーム +1のそれぞれから、 注目画素の位置に対応する位置の 画素を中心とした、 所定の数の画素からなるブロック、 および、 注目画素の位置 に対応する位置の画素の周辺の、 所定の数の画素からなる複数のプロックを抽出 する。 データ選択部 4 4 1は、 抽出したプロックを誤差推定部 4 4 2に供給する。 誤差推定部 4 4 2は、 データ選択部 4 4 1から供給された、 注目画素を中心と したブロックと、 空間的または時間的に周辺のブロックとの相関を検出して、 検 出した相関を示す相関情報を定常方向導出部 4 4 3に供給する。 定常性方向導出 部 4 4 3は、 誤差推定部 4 4 2から供給された相関情報に基いて、 相関の最も強 い、 空間的または時間的に周辺のブロックの位置から、 欠落した実世界 1の光信 号の定常性に対応する、 入力画像における、 時間方向および空間方向のデータの 定常性の角度を検出し、 角度を示すデータ定常性情報を出力する。
また、 データ定常性検出部 1 0 1は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の処理を実行することができる。
図 1 0 5は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の 処理を実行するデータ定常性検出部 1 0 1の構成を示すプロック図である。
データ定常性検出部 4 8 1— 1乃至 4 8 1— 3のそれぞれは、 上述した、 また は後述するデータ定常性検出部 1 0 1と同様の構成を有し、 入力画像のコンポ一 ネント信号のそれぞれを処理の対象として、 上述した、 または後述する処理を実 行する。
データ定常性検出部 4 8 1— 1は、 入力画像の第 1のコンポーネント信号を基 に、 データの定常性を検出し、 第 1のコンポーネント信号から検出されたデータ の定常性を示す情報を決定部 4 8 2に供給する。 例えば、 データ定常性検出部 4 8 1— 1は、 入力画像の輝度信号を基に、 データの定常性を検出し、 輝度信号か ら検出されたデータの定常性を示す情報を決定部 4 8 2に供給する。
データ定常性検出部 4 8 1— 2は、 入力画像の第 2のコンポーネント信号を基 に、 データの定常性を検出し、 第 2のコンポーネント信号から検出されたデータ の定常性を示す情報を決定部 4 8 2に供給する。 例えば、 データ定常性検出部 4 8 1— 2は、 入力画像の色差信号である I信号を基に、 データの定常性を検出し、 I信号から検出されたデータの定常性を示す情報を決定部 4 8 2に供給する。 データ定常性検出部 4 8 1— 3は、 入力画像の第 3のコンポーネント信号を基 に、 データの定常性を検出し、 第 3のコンポーネント信号から検出されたデータ の定常性を示す情報を決定部 4 8 2に供給する。 例えば、 データ定常性検出部 4 8 1— 2は、 入力画像の色差信号である Q信号を基に、 データの定常性を検出し、 Q信号から検出されたデータの定常性を示す情報を決定部 4 8 2に供給する。 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1— 3から供給され た、 各コンポーネント信号から検出されたデータの定常性を示す情報を基に、 入 力画像における最終的なデータの定常性を検出して、 検出したデータの定常性を 示すデータ定常性情報を出力する。
例えば、 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1— 3から 供給された、 各コンポーネント信号から検出されたデータの定常性のうち、 最大 のデータの定常性を最終的なデータの定常性とする。 また、 例えば、 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1 _ 3から供給された、 各コンポ 一ネント信号から検出されたデータの定常性のうち、 最小のデータの定常性を最 終的なデータの定常性とする。
さらに、 例えば、 決定部 4 8 2は、 データ定常性検出部 4 8 1 _ 1乃至 4 8 1 一 3から供給された、 各コンポーネント信号から検出されたデータの定常性の平 均値を最終的なデータの定常性とする。 決定部 4 8 2は、 データ定常性検出部 4 8 1一 1乃至 4 8 1— 3から供給された、 各コンポーネント信号から検出された データの定常性のメディアン (中央値) を最終的なデータの定常性とするように してもよい。
また、 例えば、 決定部 4 8 2は、 外部から入力された信号を基に、 データ定常 性検出部 4 8 1 - 1乃至 4 8 1 - 3から供給された、 各コンポーネント信号から 検出されたデータの定常性のうち、 外部から入力された信号で指定されるデータ の定常性を最終的なデータの定常性とする。 決定部 4 8 2は、 データ定常性検出 部 4 8 1一 1乃至 4 8 1一 3から供給された、 各コンポーネント信号から検出さ れたデータの定常性のうち、 予め定めたデータの定常性を最終的なデータの定常 性とするようにしてもよい。
なお、 決定部 4 8. 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1— 3から供 給された、 各コンポーネント信号のデータの定常性の検出の処理で求めた誤差を 基に、 最終的なデータの定常性を決定するようにしてもよい。 データの定常性の 検出の処理で求められる誤差については、 後述する。
図 1 0 6は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の 処理を実行するデータ定常性検出部 1 0 1の他の構成を示す図である。
コンポーネント処理部 4 9 1は、 入力画像のコンポーネント信号を基に、 1つ の信号を生成し、 データ定常性検出部 4 9 2に供給する。 例えば、 コンポーネン ト処理部 4 9 1は、 入力画像の各コンポーネント信号における値を、 画面上で同 じ位置の画素について、 加算することにより、 コンポーネント信号の値の和から なる信号を生成する。
例えば、 コンポーネント処理部 4 9 1は、 入力画像の各コンポーネント信号に おける画素値を、 画面上で同じ位置の画素について、 平均することにより、 コン ポーネント信号の画素値の平均値からなる信号を生成する。
データ定常性検出部 4 9 2は、 コンポーネント処理部 4 9 1から供給された、 信号を基に、 入力画像における、 データの定常性を検出し、 検出したデータの定 常性を示すデータ定常性情報を出力する。
データ定常性検出部 4 9 2は、 上述した、 または後述するデータ定常性検出部 1 0 1と同様の構成を有し、 コンポーネント処理部 4 9 1から供給された信号を 対象として、 上述した、 または後述する処理を実行する。
このように、 データ定常性検出部 1 0 1は、 コンポーネント信号を基に、 入力 画像のデータの定常性を検出することにより、 入力画像にノイズなどが含まれて いても、 より正確に、 データの定常性を検出することができる。 例えば、 データ 定常性検出部 1 0 1は、 コンポーネント信号を基に、 入力画像のデータの定常性 を検出することにより、 より正確に、 データの定常性の角度 (傾き) 、 混合比、 またはデータの定常性を有する領域を検出することができる。 なお、 コンポーネント信号は、 輝度信号および色差信号に限らず、 RGB信号、 または YUV信号など他の方式のコンポーネント信号であつても良い。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した画像データの、 欠落した現実世界の光信号の定常性に対応するデー タの定常性の、 基準軸に対する角度を検出し、 検出された角度に基づいて、 欠落 した現実世界の光信号の定常性を推定することにより光信号を推定するようにし た場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理結果を得る ことができるようになる。
また、 現実世界の光信号が複数の検出素子に射影されることにより取得された、 現実世界の光信号の定常性の一部が欠落した画像データの注目している注目画素 および基準軸を基準とした角度毎に、 所定の数の画素からなる画素の組であって、 複数の組を抽出し、 角度毎に抽出された、 複数の組における対応する位置の画素 の画素値の相関を検出し、 検出された相関に基いて、 欠落した現実世界の光信号 の定常性に対応する、 画像データにおける、 基準軸を基準としたデータの定常性 の角度を検出し、 検出された画像データにおける基準軸に対するデータの定常性 の角度に基づいて、 欠落した現実世界の光信号の定常性を推定することにより光 信号を推定するようにした場合、 現実世界の事象に対して、 より正確で、 より精 度の高い処理結果を得ることができるようになる。
図 1 0 7は、 データ定常性検出部 1 0 1のさらに他の構成を示すブロック図で ある。
図 1 0 7に示されるデータ定常性検出部 1 0 1においては、 現実世界の光信号 が射影され、 現実世界の光信号の定常性の一部が欠落した画像データの注目して いる画素である注目画素に対応する領域が選択され、 注目画素の画素値と、 選択 された領域に属する画素の画素値との相関値が閾値以上である画素に、 相関値に 基づく度数が設定されることにより、 領域に属する画素の度数が検出され、 検出 された度数に基いて回帰線を検出することにより、 欠落した現実世界の光信号の 定常性に対応する、 画像データのデータの定常性が検出される。 フレームメモリ 5 0 1は、 入力画像をフレーム単位で記憶し、 記憶されている フレームを構成する画素の画素値を画素取得部 5 0 2に供給する。 フレームメモ リ 5 0 1は、 1つのページに入力画像の現在のフレームを記憶し、 他のページに 記憶している、 現在のフレームに対して 1つ前 (過去) のフレームの画素の画素 値を画素取得部 5 0 2に供給し、 入力画像のフレームの切り換えの時刻において、 ページを切り換えることにより、 画素取得部 5 0 2に、 動画である入力画像のフ レームの画素の画素値を供給することができる。
画素取得部 5 0 2は、 フレームメモリ 5 0 1から供給された画素の画素値を基 に、 注目している画素である注目画素を選択し、 選択された注目画素に対応する、 所定の数の画素からなる領域を選択する。 例えば、 画素取得部 5 0 2は、 注目画 素を中心とする 5 X 5画素からなる領域を選択する。
画素取得部 5 0 2が選択する領域の大きさは、 本発明を限定するものではない。 画素取得部 5 0 2は、 選択した領域の画素の画素値を取得して、 選択した領域 の画素の画素値を度数検出部 5 0 3に供給する。
度数検出部 5 0 3は、 画素取得部 5 0 2から供給された、 選択された領域の画 素の画素値を基に、 注目画素の画素値と、 選択された領域に属する画素の画素値 との相関値が閾値以上である画素に、 相関値に基づく度数を設定することにより、 領域に属する画素の度数を検出する。 度数検出部 5 0 3における、 相関値に基づ く度数の設定の処理の詳細は、 後述する。
度数検出部 5 0 3は、 検出した度数を回帰直線演算部 5 0 4に供給する。
回帰直線演算部 5 0 4は、 度数検出部 5 0 3から供給された度数に基づいて、 回帰線を演算する。 例えば、 回帰直線演算部 5 0 4は、 度数検出部 5 0 3から供 給された度数に基づいて、 回帰直線を演算する。 また、 例えば、 回帰直線演算部 5 0 4は、 度数検出部 5 0 3から供給された度数に基づいて、 所定の曲線である 回帰線を演算する。 回帰直線演算部 5 0 4は、 演算された回帰線おょぴ演算の結 果を示す演算結果パラメータを角度算出部 5 0 5に供給する。 演算パラメータが 示す演算の結果には、 後述する変動および共変動などが含まれる。 角度算出部 5 0 5は、 回帰直線演算部 5 0 4から供給された演算結果パラメ一 タで示される、 回帰線に基づいて、 欠落した現実世界の光信号の定常性に対応す る、 画像データである入力画像のデータの定常性を検出する。 例えば、 角度算出 部 5 0 5は、 回帰直線演算部 5 0 4から供給された演算結果パラメータで示され る、 回帰直線に基づいて、 欠落した実世界 1の光信号の定常性に対応する、 入力 画像における、 基準軸を基準としたデ タの定常性の角度を検出する。 角度算出 部 5 0 5は、 入力画像における、 基準軸を基準としたデータの定常性の角度を示 すデータ定常性情報を出力する。
図 1 0 8乃至図 1 1 0を参照して、 入力画像における、 基準軸を基準としたデ ータの定常性の角度について説明する。
図 1 0 8において、 丸は、 1つの画素を示し、 2重丸は、 注目画素を示す。 丸 の色は、 画素の画素値の概略を示し、 より明るい色は、 より大きい画素値を示す。 例えば、 黒は、 3 0である画素値を示し、 白は、 1 2 0である画素値を示す。 図 1 0 8で示される画素からなる画像を人間が見た場合、 画像を見た人間は、 斜め右上方向に直線が伸びていると認識することができる。
図 1 0 7に構成を示すデータ定常性検出部 1 0 1は、 図 1 0 8で示される画素 からなる入力画像を入力したとき、 斜め右上方向に直線が伸びていることを検出 する。
図 1 0 9は、 図 1 0 8で示される画素の画素値を数値で表した図である。 丸は、 1つの画素を示し、 丸の中の数値は、 画素値を示す。
例えば、 注目画素の画素値は、 1 2 0であり、 注目画素の上側の画素の画素値 は、 1 0 0であり、 注目画素の下側の画素の画素値は、 1 0 0である。 また、 注 目画素の左側の画素の画素値は、 8 0であり、 注目画素の右側の画素の画素値は、 8 0である。 同様に、 注目画素の左下側の画素の画素値は、 1 0 0であり、 注目 画素の右上側の画素の画素値は、 1 0 0である。 注目画素の左上側の画素の画素 値は、 3 0であり、 注目画素の右下側の画素の画素値は、 3 0である。
図 1 0 7に構成を示すデータ定常性検出部 1 0 1は、 図 1 0 9で示される入力 画像に対して、 図 1 1 0で示されるように、 回帰直線 Aを引く。
図 1 1 1は、 入力画像における、 画素の空間方向の位置に対する、 画素値の変 化と、 回帰直線 Aとの関係を示す図である。 データの定常性を有する領域におけ る画素の画素値は、 例えば、 図 1 1 1に示すように、 山脈状に変化している。 図 1 0 7に構成を示すデータ定常性検出部 1 0 1は、 データの定常性を有する 領域における画素の画素値を重みとして、 最小自乗法により回帰直線 Aを引く。 データ定常性検出部 1 0 1により求められた回帰直線 Aは、 注目画素の周辺にお けるデータの定常性を表現している。
入力画像における、 基準軸を基準としたデータの定常性の角度は、 図 1 1 2で 示されるように、 回帰直線 Aと、 例えば、 基準軸である空間方向 Xを示す軸との 角度 0を求めることにより、 検出される。
次に、 図 1 0 7に構成を示すデータ定常性検出部 1 0 1における、 回帰直線の 具体的な算出方法について説明する。
度数検出部 5 0 3は、 例えば、 画素取得部 5 0 2から供給された、 注目画素を 中心とする、 空間方向 Xに 9画素、 空間方向 Yに 5画素、 計 4 5画素からなる領 域の画素の画素値から、 領域に属する画素の座標に対応する度数を検出する。 例えば、 度数検出部 5 0 3は、 式 (3 2 ) で示される演算により、 度数を算出 することにより、 領域に属する、 座標 i Jj ) の度数 j を検出する。
Figure imgf000131_0001
- - - ( 3 2 )
式 (3 2 ) において、 P。,。は、 注目画素の画素値を示し、 Pi , j は、 座標 (Xi , yj ) の画素の画素値を示す。 Thは、 閾値を示す。
iは、 領域内における、 空間方向 Xの画素の順番を示し、 l≤i ^ kである。 j は、 領域内における、 空間方向 Yの画素の順番を示し、 l≤j≤lである。
kは、 領域における、 空間方向 Xの画素の数を示し、 1は、 領域における、 空 間方向 Yの画素の数を示す。 例えば、 領域が、 空間方向 Xに 9画素、 空間方向 Y に 5画素、 計 4 5画素からなるとき、 Kは、 9であり、 1は、 5である。
図 1 1 3は、 画素取得部 5 0 2において取得される領域の例を示す図である。 図 1 1 3において、 点線の四角は、 1つの画素を示す。
例えば、 図 1 1 3で示されるように、 領域が、 空間方向 Xについて、 注目画素 を中心とした 9画素、 空間方向 Yについて、 注目画素を中心とした 5画素からな り、 注目画素の座標 (x, y) が (0,0) であるとき、 領域の左上の画素の座標 (x, y) は、 (-4, 2) であり、 領域の右上の画素の座標 (x,y) は、 (4, 2) であ り、 領域の左下の画素の座標 (x,y) は、 (-4, -2) であり、 領域の右下の画素 の座標 (x,y) は、 (4,- 2) である。
領域の左側の画素の、 空間方向 Xにおける、 画素の順番 iは、 1であり、 領域 の右側の画素の、 空間方向 Xにおける、 画素の順番 iは、 9である。 領域の下側 の画素の、 空間方向 Yにおける、 画素の順番 jは、 1であり、 領域の上側の画素 の、 空間方向 Yにおける、 画素の順番 jは、 5である。
すなわち、 注目画素の座標 (x5 , y3 ) を (0,0) としたとき、 領域の左上の画 素の座標 ( ,75 ) は、 (-4, 2) であり、 領域の右上の画素の座標 (x9,y5 ) は、 (4, 2) であり、 領域の左下の画素の座標 (Χι , Υι ) は、 (-4, -2) であり、 領域 の右下の画素の座標 (x^ yj は、 (4,- 2) である。
度数検出部 5 0 3は、 式 (3 2 ) において、 相関値として、 注目画素の画素値 と、 領域に属する画素の画素値との差分の絶対値を算出するので、 実世界 1の細 線の画像が射影された、 入力画像における、 データの定常性を有する領域のみな らず、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の 画像が射影された、 入力画像における、 2値エッジのデータの定常性を有する領 域における、 画素値の空間的な変化の特徴を示す度数を検出することができる。 なお、 度数検出部 5 0 3は、 画素の画素値との差分の絶対値に限らず、 相関係 数など他の相関値を基に、 度数を検出するようにしてもよい。
また、 式 (3 2 ) において、 指数関数を適用しているのは、 画素値の差に対し て、 度数に大きく差をつけるためであり、 他の関数を適用するようにしてもよい。 閾値 Thは、 任意の値とすることができる。 例えば、 閾値 Thは、 30とする ことができる。
このように、 度数検出部 503は、 選択された領域に属する画素の画素値との 相関値が閾値以上である画素に、 相関値に基づく度数を設定することにより、 領 域に属する画素の度数を検出する。
また、 例えば、 度数検出部 503は、 式 (33) で示される演算により、 度数 を算出することにより、 領域に属する、 座標 (Xi,yj) の度数 Li ; j を検出する c
L |"255- |P。,。-PU| (|P0i0-P |)≤Th)
l' to (|Po,o-Pi,jD>T )
• · - (3 3)
座標 (Xi,yj) における度数を Li, j (l≤i≤k, l≤j≤l) としたとき、 座標 Xi における、 空間方向 Yの度数 Li,」 の和 qi は、 式 (34) で表され、 座標 yj に おける、 空間方向 Xの度数 ; の和 hj は、 式 (35) で表される。 qs = ∑ L I,
j=1
(34)
Figure imgf000133_0001
• · · (3 5)
度数の総和 uは、 式 (3 6) で表される。 k I
u = ∑ ∑ L, j
i=1 j=i , J
Figure imgf000133_0002
= ∑ j
j=1
(3 6) 図 1 1 3で示される例において、 注目画素の座標の度数 L5, 3は、 3であり、 注目画素の上側の画素の座標の度数 L54 は、 1であり、 注目画素の右上側の画 素の座標の度数 L6, 4は、 4であり、 注目画素に対して、 2画素上側であって、 1画素右側の画素の座標の度数 L6, 5 は、 2であり、 注目画素に対して、 2画素 上側であって、 2画素右側の画素の座標の度数 L7, 5は、 3である。 また、 注目 画素の下側の画素の座標の度数 L5, 2 は、 2であり、 注目画素の左側の画素の座 標の度数 L4, 3 は、 1であり、 注目画素の左下側の画素の座標の度数 L42 は、 3であり、 注目画素に対して、 1画素下側であって、 2画素左側の画素の座標の 度数 L3,2 は、 2であり、 注目画素に対して、 2画素下側であって、 2画素左側 の画素の座標の度数 L3, は、 4である。 図 1 1 3で示される領域の他の画素の 座標の度数は、 0であり、 図 1 1 3において、 0である度数の記載は省略する。 図 1 1 3で示される領域において、 空間方向 Yの度数の和 ¾ は、 iが 1であ る度数 Lが全て 0なので、 0であり、 は、 iが2である度数 Lが全て 0なの で、 0である。 q3 は、 度数 L32 が 2であり、 度数 L3, が 4なので、 6である。 同様に、 q4は、 4であり、 q5は、 6であり、 q6 は、 6であり、 q7 は、 3であり、 q8 は、 0であり、 q9 は、 0である。
図 1 1 3で示される領域において、 空間方向 Xの度数の和 は、 度数 L3i l が 4なので、 4である。 h2は、 度数 L3, 2が 2であり、 度数 L4,2が 3であり、 度数 L5> 2 が 2なので、 7である。 同様に、 h3 は、 4であり、 h4 は、 5であり、 h5 は、 5である。
図 1 1 3で示される領域において、 度数の総和 uは、 25である。
空間方向 Yの度数 1^, j の和 に、 座標 Xi を乗じた結果を加算した和 Tx は、 式 (3 7) で表される。
Tx = q1x1+q2x2+'''+C|kxk
k
= ∑ Qj j
• · · (37) 空間方向 Xの度数 Li, j の和 に、 座標 yj を乗じた結果を加算した和 Ty は、 式 (3 7) で表される。
Ty = h1y1+h2y2H--- -+h,y| = ∑ hjYj
j=1
• · · (38)
例えば、 図 1 1 3で示される領域において、 1 が 0であり、 Xl がー 4なので、 qlXl は 0であり、 q2 が 0であり、 x2 が一 3なので、 ¾ x2 は 0である。 同様に、 q3が 6であり、 x3がー 2なので、 q3x3は一 1 2であり、 ¾が 4であり、 x4力 S 一 1なので、 は、 一 4であり、 が 6であり、 x5が 0なので、 q5x5は 0 である。 同様に、 q6が 6であり、 x6が 1なので、 q6x6は 6であり、 q7が 3で あり、 x7が 2なので、 q7x7は 6であり、 q8が 0であり、 x8が 3なので、 q8 x8 は 0であり、 q9 が 0であり、 x9が 4なので、 q9 Xg は 0である。 従って、 xL 乃至 q9x9の和である Txは、 一 4である。
例えば、 図 1 1 3で示される領域において、 が 4であり、 yi がー 2なので、 hx yx は一 8であり、 h2が 7であり、 y2が一 1なので、 h2 y2 は一 7である。 同 様に、 h3が 4であり、 y3が 0なので、 h3 y3 は 0であり、 h4が 5であり、 y4力 S 1なので、 h4 y4 は、 5であり、 hsカ 5であり、 y5が 2なので、 h5y5 は 1 0で ある。 従って、 乃至 h5y5の和である Tyは、 0である。
また、 Qi を以下のように定義する。
Qi = .∑ LjjYj
」=ι
· · · (39) xの変動 Sx は、 式 (40) で表される。
Figure imgf000135_0001
(40) yの変動 Sy は、 式 (41) で表される,
Figure imgf000136_0001
(45) ただし、 正しい回帰直線を求めるための必要条件は、 度数し jカ、 回帰直線 01488
135 に対して、 ガウス分布状に、 分布していることである。 逆に言えば、 度数検出部 5 0 3は、 度数 Li,」がガウス分布するように、 領域の画素の画素値を度数 Li, j に変換する必要がある。
回帰直線演算部 5 04は、 式 (44) および式 (4 5) で示される演算を実行 して、 回帰直線を求める。
角度算出部 5 0 5は、 式 (4 6) に示す演算により、 回帰直線の傾き aを、 基準軸である空間方向 Xの軸に対する角度 0に変換する。
Θ二 tan— 1 (a) ■ ■ ■ (4 6) なお、 回帰直線演算部 5 0 4が所定の曲線である回帰線を演算する場合、 角度 算出部 5 0 5は、 基準軸に対する、 注目画素の位置における回帰線の角度 Θを求 める。
ここで、 画素毎にデータの定常性を検出するためには、 切片 bは、 不要であ る。 そこで、 式 (4 7) に示す 1次の回帰直線を求めることを考える。
y=ax · ■ · (4 7) この場合、 回帰直線演算部 5 0 4は、 最小自乗法により、 傾き aを式 (4 8) で求めることができる。
k I
∑ ∑ LiJxiyj
ι=1 j=1
∑ CijXi
• · · (4 8) 図 1 1 4のフローチヤ一トを参照して、 ステップ S 1 0 1の処理に対応する、 図 1 0 7で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性の 検出の処理を説明する。
ステップ S 5 ◦ 1において、 画素取得部 5 0 2は、 まだ注目画素とされていな い画素の中から注目画素を選択する。 例えば、 画素取得部 5 0 2は、 ラスタスキ ヤン順に、 注目画素を選択する。 ステップ S 5 0 2において、 画素取得部 5 0 2 は、 注目画素を中心とする領域に含まれる画素の画素値を取得し、 取得した画素 の画素値を度数検出部 5 0 3に供給する。 例えば、 画素取得部 5 0 2は、 注目画 素を中心とした、 9 X 5画素からなる領域を選択し、 領域に含まれる画素の画素 値を取得する。
ステップ S 5 0 3において、 度数検出部 5 0 3は、 領域に含まれる画素の画素 値を度数に変換することにより、 度数を検出する。 例えば、 度数検出部 5 0 3は、 式 (3 2 ) に示される演算により、 画素値を度数 Li . j に変換する。 この場合に おいて、 度数 Li , jがガウス分布するように、 領域の画素の画素値が度数 Li ; j に変換される。 度数検出部 5 0 3は、 変換された度数を回帰直線演算部 5 0 4に 供給する。
ステップ S 5 0 4において、 回帰直線演算部 5 0 4は、 度数検出部 5 0 3から 供給された度数を基に、 回帰線を求める。 例えば、 回帰直線演算部 5 0 4は、 度 数検出部 5 0 3から供給された度数を基に、 回帰直線を求める。 より具体的には、 回帰直線演算部 5 0 4は、 式 (4 4 ) および式 (4 5 ) で示される演算を実行し て、 回帰直線を求める。 回帰直線演算部 5 0 4は、 算出された結果である回帰直 線を示す演算結果パラメータを角度算出部 5 0 5に供給する。
ステップ S 5 0 5において、 角度算出部 5 0 5は、 基準軸に対する回帰直線の 角度を算出することにより、 欠落した現実世界の光信号の定常性に対応する、 画 像データのデータの定常性を検出する。 例えば、 角度算出部 5 0 5は、 式 (4 6 ) に示す演算により、 回帰直線の傾き aを、 基準軸である空間方向 Xの軸に 対する角度 0に変換する。 角度算出部 5 0 5は、 基準軸に対する回帰直線の角度 を示すデータ定常性情報を出力する。
なお、 角度算出部 5 0 5は、 傾き aを示すデータ定常性情報を出力するよう にしてもよレヽ。
ステップ S 5 0 6において、 画素取得部 5 0 2は、 全ての画素の処理を終了し たか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ステ ップ S 5 0 1に戻り、 まだ注目画素として選択されていない画素から注目画素を 選択して、 上述した処理を繰り返す。
ステップ S 5 0 6において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 図 1 0 7に構成を示すデータ定常性検出部 1 0 1は、 欠落した実 世界 1の光信号の定常性に対応する、 画像データにおける、 基準軸を基準とした データの定常性の角度を検出することができる。
特に、 図 1 0 7に構成を示すデータ定常性検出部 1 0 1は、 比較的狭い領域の 画素の画素値を基に、 画素以下の角度を求めることができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した画像データの注目している画素である注目画素に対応する領域を選 択し、 注目画素の画素値と、 選択された領域に属する画素の画素値との相関値が 閾値以上である画素に、 相関値に基づく度数を設定することにより、 領域に属す る画素の度数を検出し、 検出された度数に基いて回帰線を検出することにより、 欠落した現実世界の光信号の定常性に対応する、 画像データのデータの定常性を 検出し、 検出された画像データのデータの定常性に基いて、 欠落した現実世界の 光信号の定常性を推定することにより光信号を推定するようにした場合、 現実世 界の事象に対して、 より正確で、 より精度の高い処理結果を得ることができるよ うになる。
なお、 図 1 0 7に構成を示すデータ定常性検出部 1 0 1は、 注目画素の属する 注目フレームと、 注目フレームの時間的に前後のフレームについて、 所定の領域 に属する画素の画素値を度数に変換し、 度数を基に、 回帰平面を求めるようにす れば、 空間方向のデータの定常性の角度と共に、 時間方向のデータの定常性の角 度を検出することができる。
図 1 1 5は、 データ定常性検出部 1 0 1のさらに他の構成を示すブロック図で ある。
図 1 1 5に示されるデータ定常性検出部 1 0 1においては、 現実世界の光信号 が射影され、 現実世界の光信号の定常性の一部が欠落した画像データの注目して いる画素である注目画素に対応する領域が選択され、 注目画素の画素値と、 選択 された領域に属する画素の画素値との相関値が閾値以上である画素に、 相関値に 基づく度数が設定されることにより、 領域に属する画素の度数が検出され、 検出 された度数に基いて回帰線を検出することにより、 欠落した現実世界の光信号の 定常性に対応する、 画像データにおけるデータの定常性を有する領域を検出する。 フレームメモリ 6 0 1は、 入力画像をフレーム単位で記憶し、 記憶されている フレームを構成する画素の画素値を画素取得部 6 0 2に供給する。 フレームメモ リ 6 0 1は、 1つのページに入力画像の現在のフレームを記憶し、 他のページに 記憶している、 現在のフレームに対して 1つ前 (過去) のフレームの画素の画素 値を画素取得部 6 0 2に供給し、 入力画像のフレームの切り換えの時刻において、 ページを切り換えることにより、 画素取得部 6 0 2に、 動画である入力画像のフ レームの画素の画素値を供給することができる。
画素取得部 6 0 2は、 フレームメモリ 6 0 1から供給された画素の画素値を基 に、 注目している画素である注目画素を選択し、 選択された注目画素に対応する、 所定の数の画素からなる領域を選択する。 例えば、 画素取得部 6 0 2は、 注目画 素を中心とする 5 X 5画素からなる領域を選択する。
画素取得部 6 0 2が選択する領域の大きさは、 本発明を限定するものではない。 画素取得部 6 0 2は、 選択した領域の画素の画素値を取得して、 選択した領域 の画素の画素値を度数検出部 6 0 3に供給する。
度数検出部 6 0 3は、 画素取得部 6 0 2から供給された、 選択された領域の画 素の画素値を基に、 注目画素の画素値と、 選択された領域に属する画素の画素値 との相関値が閾値以上である画素に、 相関値に基づく度数を設定することにより、 領域に属する画素の度数を検出する。 度数検出部 6 0 3における、 相関値に基づ く度数の設定の処理の詳細は、 後述する。
度数検出部 6 0 3は、 検出した度数を回帰直線演算部 6 0 4に供給する。
回帰直線演算部 6 0 4は、 度数検出部 6 0 3から供給された度数に基づいて、 回帰線を演算する。 例えば、 回帰直線演算部 6 0 4は、 度数検出部 6 0 3から供 給された度数に基づいて、 回帰直線を演算する。 また、 例えば、 回帰直線演算部 6 0 4は、 度数検出部 6 0 3から供給された度数に基づいて、 所定の曲線である 回帰線を演算する。 回帰直線演算部 6 0 4は、 演算された回帰線およぴ演算の結 果を示す演算結果パラメータを領域算出部 6 0 5に供給する。 演算パラメータが 示す演算の結果には、 後述する変動および共変動などが含まれる。
領域算出部 6 0 5は、 回帰直線演算部 6 0 4から供給された演算結果パラメ一 タで示される、 回帰線に基づいて、 欠落した現実世界の光信号の定常性に対応す る、 画像データである入力画像においてデータの定常性を有する領域を検出する。 図 1 1 6は、 入力画像における、 画素の空間方向の位置に対する、 画素値の変 化と、 回帰直線 Aとの関係を示す図である。 データの定常性を有する領域におけ る画素の画素値は、 例えば、 図 1 1 6に示すように、 山脈状に変化している。 図 1 1 5に構成を示すデータ定常性検出部 1 0 1は、 データの定常性を有する 領域における画素の画素値を重みとして、 最小自乗法により回帰直線 Aを引く。 データ定常性検出部 1 0 1により求められた回帰直線 Aは、 注目画素の周辺にお けるデータの定常性を表現している。
回帰直線を引くということは、 ガウス関数を前提とした近似を意味する。 図 1 1 7に示すように、 図 1 1 5に構成を示すデータ定常性検出部 1 0 1は、 例えば、 標準偏差を求めることで、 細線の画像が射影された、 データ 3における領域の、 おおよその幅を知ることができる。 また、 例えば、 図 1 1 5に構成を示すデータ 定常性検出部 1 0 1は、 相関係数を基に、 細線の画像が射影された、 データ 3に おける領域の、 おおよその幅を知ることができる。
次に、 図 1 1 5に構成を示すデータ定常性検出部 1 0 1における、 回帰直線の 具体的な算出方法について説明する。
度数検出部 6 0 3は、 例えば、 画素取得部 6 0 2から供給された、 注目画素を 中心とする、 空間方向 Xに 9画素、 空間方向 Yに 5画素、 計 4 5画素からなる領 域の画素の画素値から、 領域に属する画素の座標に対応する度数を検出する。 例えば、 度数検出部 6 0 3は、 式 (4 9 ) で示される演算により、 度数を算出 することにより、 領域に属する、 座標 (xi > yj) の度数し j を検出する。
(0.050 (255- 1 P00— Pu I ) - 1 ) ( I P0,。-Pu I )≤Th )
Figure imgf000142_0001
• · · (4 9)
式 (4 9) において、 P。,。は、 注目画素の画素値を示し、 Pi, j は、 座標
(Xi,yj) の画素の画素値を示す。 Thは、 閾値を示す。
iは、 領域内における、 空間方向 Xの画素の順番を示し、 l≤i^kである。 j は、 領域内における、 空間方向 Yの画素の順番を示し、 である。
kは、 領域における、 空間方向 Xの画素の数を示し、 1は、 領域における、 空 間方向 Yの画素の数を示す。 例えば、 領域が、 空間方向 Xに 9画素、 空間方向 Y に 5画素、 計 4 5画素からなるとき、 Kは、 9であり、 1は、 5である。
図 1 1 8は、 画素取得部 6 0 2において取得される領域の例を示す図である。 図 1 1 8において、 点線の四角は、 1つの画素を示す。
例えば、 図 1 1 8で示されるように、 領域が、 空間方向 Xについて、 注目画素 を中心とした 9画素、 空間方向 Yについて、 注目画素を中心とした 5画素からな り、 注目画素の座標 (x,y) が (0,0) であるとき、 領域の左上の画素の座標
(x,y) は、 (-4, 2) であり、 領域の右上の画素の座標 (x,y) は、 (4, 2) であ り、 領域の左下の画素の座標 (X, y) は、 (-4,-2) であり、 領域の右下の画素 の座標 (x,y) は、 (4,- 2) である。
領域の左側の画素の、 空間方向 Xにおける、 画素の順番 iは、 1であり、 領域 の右側の画素の、 空間方向 Xにおける、 画素の順番 iは、 9である。 領域の下側 の画素の、 空間方向 Yにおける、 画素の順番 jは、 1であり、 領域の上側の画素 の、 空間方向 Yにおける、 画素の順番 jは、 5である。
すなわち、 注目画素の座標 (x5,y3) を (0,0) としたとき、 領域の左上の画 素の座標 ( , 5) は、 (-4,2) であり、 領域の右上の画素の座標 (x9,y5) は、 (4, 2) であり、 領域の左下の画素の座標 (x^yj は、 (-4, -2) であり、 領域 の右下の画素の座標 (x^yj は、 (4,- 2) である。 麵麵 488
141
度数検出部 6 0 3は、 式 (4 9 ) において、 相関値として、 注目画素の画素値 と、 領域に属する画素の画素値との差分の絶対値を算出するので、 実世界 1の細 線の画像が射影された、 入力画像における、 データの定常性を有する領域のみな らず、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の 画像が射影された、 入力画像における、 2値エッジのデータの定常性を有する領 域における、 画素値の空間的な変化の特徴を示す度数を検出することができる。 なお、 度数検出部 6 0 3は、 画素の画素値との差分の絶対値に限らず、 相関係 数など他の相関値を基に、 度数を検出するようにしてもよい。
また、 式 (4 9 ) において、 指数関数を適用しているのは、 画素値の差に対し て、 度数に大きく差をつけるためであり、 他の関数を適用するようにしてもよい。 閾値 Thは、 任意の値とすることができる。 例えば、 閾値 Thは、 3 0とする ことができる。
このように、 度数検出部 6 0 3は、 選択された領域に属する画素の画素値との 相関値が閾値以上である画素に、 相関値に基づく度数を設定することにより、 領 域に属する画素の度数を検出する。
また、 例えば、 度数検出部 6 0 3は、 式 (5 0 ) で示される演算により、 度数 を算出することにより、 領域に属する、 座標 ( 』) の度数 1^ ,」 を検出する c
Figure imgf000143_0001
• · · ( 5 0 )
座標 (Xi,yj ) における度数を Li ,」 (l≤i≤k, l≤j≤l ) としたとき、 座標 Xi における、 空間方向 Yの度数し j の和 qi は、 式 (5 1 ) で表され、 座標 yj に おける、 空間方向 Xの度数 Li , · の和 hj は、 式 (5 2 ) で表される。 q i 一 J= lし i , j
• · · ( 5 1 ) k
hj = ∑ Lu
J i=1
• · · (5 2)
度数の総和 uは、 式 (5 3) で表される。 k I
u = ∑ ∑ L, j
i=1 j=1
k
= ∑ Q\
=」
· · ■ (5 3)
図 1 1 8で示される例において、 注目画素の座標の度数 L53 は、 3であり、 注目画素の上側の画素の座標の度数 L5, 4 は、 1であり、 注目画素の右上側の画 素の座標の度数 L6, 4は、 4であり、 注目画素に対して、 2画素上側であって、 1画素右側の画素の座標の度数 L6, 5 は、 2であり、 注目画素に対して、 2画素 上側であって、 2画素右側の画素の座標の度数 L7, 5は、 3である。 また、 注目 画素の下側の画素の座標の度数 L5, 2 は、 2であり、 注目画素の左側の画素の座 標の度数 L4, 3 は、 1であり、 注目画素の左下側の画素の座標の度数 L4, 2 は、 3であり、 注目画素に対して、 1画素下側であって、 2画素左側の画素の座標の 度数 L3,2は、 2であり、 注目画素に対して、 2画素下側であって、 2画素左側 の画素の座標の度数 L3, i は、 4である。 図 1 1 8で示される領域の他の画素の 座標の度数は、 0であり、 図 1 1 8において、 0である度数の記載は省略する。 図 1 1 8で示される領域において、 空間方向 Yの度数の和 は、 iが 1であ る度数 Lが全て 0なので、 0であり、 q2は、 iが2である度数 Lが全て 0なの で、 0である。 q3 は、 度数 L3, 2 が 2であり、 度数 L3, t が 4なので、 6である, 同様に、 は、 4であり、 q5は、 6であり、 q6 は、 6であり、 q7 は、 3であり. q8は、 0であり、 は、 0である。 図 1 18で示される領域において、 空間方向 Xの度数の和 ^ は、 度数 L3> 1 が 4なので、 4である。 h2は、 度数 L3,2が 2であり、 度数 L42が 3であり、 度数 L5, 2 が 2なので、 7である。 同様に、 h3 は、 4であり、 h4 は、 5であり、 hs は、 5である。
図 1 1 8で示される領域において、 度数の総和 uは、 25である。
空間方向 Yの度数 Li,』 の和 に、 座標 Xi を乗じた結果を加算した和 Tx は、 式 (54) で表される。
Tx = q1x1+q2x2+''.+c|kxk
Figure imgf000145_0001
• · · (54)
空間方向 Xの度数 Li, j の和 hj に、 座標 yj を乗じた結果を加算した和 Ty は、 式 (5 5) で表される。
Ty = hly1+h2y2+-"+h|y|
J=1
• · · (55)
例えば、 図 1 1 8で示される領域において、 が 0であり、 Xl がー 4なので、 qlXl は 0であり、 q2 が 0であり、 x2 が一 3なので、 q2 x2 は 0である。 同様に、 q3が 6であり、 x3が一 2なので、 q3 x3は一 1 2であり、 q4が 4であり、 x4カ 一 1なので、 q4x4 は、 一 4であり、 q5が 6であり、 x5が 0なので、 q5 x5 は 0 である。 同様に、 q6が 6であり、 X6が 1なので、 q6x6 は 6であり、 q7 が 3で あり、 x7が 2なので、 q7x7 は 6であり、 q8が 0であり、 x8が 3なので、 q8 x8 は 0であり、 ¾ が 0であり、 x9が 4なので、 q9x9は 0である。 従って、 乃至 q9x9の和である Tx は、 一4である。
例えば、 図 1 1 8で示される領域において、 が 4であり、 Yl がー 2なので、 hlYl は _ 8であり、 h2 が 7であり、 y2がー 1なので、 h2y2は一 7である。 同 様に、 h3が 4であり、 y3が 0なので、 h3 y3は 0であり、 h4が 5であり、 y4が 1なので、 h4y4は、 5であり、 h5が 5であり、 y5が 2なので、 h5y5 は 1 0で ある。 従って、 hi yi乃至 h5y5の和である Tyは、 0である。
また、 Qi を以下のように定義する。
(5 6)
Xの変動 Sx は、 式 (5 7) で表される
Sx = ∑ cijXi— T;zu
i=1
(5 7) yの変動 SY は、 式 (5 8) で表される (
Figure imgf000146_0001
(5 8) 共変動 Sxv は、 式 (5 9) で表される,
Sxy = ∑ ∑ LuXjy厂 TxTyzu
ι=1 J=l
Figure imgf000146_0002
• · · (5 9) 式 (6 0) に示す 1次の回帰直線を求めることを考える。
y=ax+b · · · (6 0) 傾き aおよび切片 bは、 最小自乗法により、 以下のように求めることができ る。
∑ k - 2 i i X
y
Figure imgf000147_0001
• · · (6 2) ただし、 正しい回帰直線を求めるための必要条件は、 度数 , j力 回帰直線 に対して、 ガウス分布状に、 分布していることである。 逆に言えば、 度数検出部 6 0 3は、 度数 jがガウス分布するように、 領域の画素の画素値を度数 , j に変換する必要がある。
回帰直線演算部 6 04は、 式 (6 1 ) および式 (6 2) で示される演算を実行 して、 回帰直線を求める。
また、 画素毎にデータの定常性を検出するためには、 切片 b は、 不要である c そこで、 式 (6 3) に示す 1次の回帰直線を求めることを考える。
y=ax · ■ ■ 、 6 3ノ この場合、 回帰直線演算部 6 04は、 最小自乗法により、 傾き aを式 (6 4) で求めることができる。
k a = i=1 ■ · · (64)
データの定常性を有する領域を特定する第 1の手法においては、 式 (60) に 示す回帰直線の推定誤差が利用される。
yの変動 Sy.xは、 式 (65) で示される演算で求められる。
Figure imgf000148_0001
= Sy-aSxy
• · · (65) 推定誤差の分散は、 変動を用いて、 式 (66) で示される演算で求められる。
Vy.x = Sy.x/(u-2)
= (Sy— aSxy) (u - 2)
• · · (66) よって、 標準偏差は、 以下の式で導出される。
Figure imgf000148_0002
- · · (6 7) ただし、 標準偏差は、 細線の画像が射影された領域を対象とする場合、 細線の 幅に値する量なので、 一概に、 標準偏差が大きいことをもって、 データの定常を 有する領域ではないという判断をすることはできない。 しかしながら、 例えば、 クラス分類適応処理が破綻するのは、 データの定常を有する領域の中でも、 細線 の幅が狭い部分なので、 クラス分類適応処理が破綻する可能性が大きい領域を検 出するために、 標準偏差を用いて検出された領域を示す情報を利用することがで きる。
領域算出部 605は、 式 (6 7) で示される演算により、 標準偏差を算出して、 標準偏差を基に、 入力画像における、 データの定常性を有する領域を算出する。 例えば、 領域算出部 605は、 標準偏差に所定の係数を乗じて距離を求め、 回帰 PC漏 00傷 1488
147
直線から、 求めた距離以内の領域を、 データの定常性を有する領域とする。 例え ば、 領域算出部 6 0 5は、 回帰直線を中心として、 回帰直線から標準偏差以内の 距離の領域を、 データの定常性を有する領域として算出する。
第 2の手法においては、 度数の相関をデータの定常を有する領域の検出に用い る。
相関係数 の は、 Xの変動 Sx、 yの変動 Sy、 および共変動 Sx y を基に、 式 ( 6 8 ) で示される演算で求めることができる。
rxy = SxxSy
• · · ( 6 8 ) 相関には、 正の相関と負の相関があるので、 領域算出部 6 0 5は、 相関係数 rx y の絶対値を求めて、 相関係数 rx y の絶対値が 1に近いほど、 相関が強いと判 定する。 より具体的には、 領域算出部 6 0 5は、 閾値と、 相関係数 rx y の絶対 値とを比較し、 相関係数 rx y の絶対値が閾値以上である領域を、 データの定常 性を有する領域として検出する。
図 1 1 9のフローチャートを参照して、 ステップ S 1 0 1の処理に対応する、 図 1 1 5で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性の 検出の処理を説明する。
ステップ S 6 0 1において、 画素取得部 6 0 2は、 まだ注目画素とされていな い画素の中から注目画素を選択する。 例えば、 画素取得部 6 0 2は、 ラスタスキ ヤン順に、 注目画素を選択する。 ステップ S 6 0 2において、 画素取得部 6 0 2 は、 注目画素を中心とする領域に含まれる画素の画素値を取得し、 取得した画素 の画素値を度数検出部 6 0 3に供給する。 例えば、 画素取得部 6 0 2は、 注目画 素を中心とした、 9 X 5画素からなる領域を選択し、 領域に含まれる画素の画素 値を取得する。
ステップ S 6 0 3において、 度数検出部 6 0 3は、 領域に含まれる画素の画素 値を度数に変換することにより、 度数を検出する。 例えば、 度数検出部 6 0 3は、 式 (4 9 ) で示される演算により、 画素値を度数 に変換する。 この場合に おいて、 度数 Li , jがガウス分布状に分布するように、 領域の画素の画素値が度 数 Li , j に変換される。 度数検出部 6 0 3は、 変換された度数を回帰直線演算部 6 0 4に供給する。
ステップ S 6 0 4において、 回帰直線演算部 6 0 4は、 度数検出部 5 0 3から 供給された度数を基に、 回帰線を求める。 例えば、 回帰直線演算部 6 0 4は、 度 数検出部 6 0 3から供給された度数を基に、 回帰直線を求める。 より具体的には、 回帰直線演算部 6 0 4は、 式 (6 1 ) および式 (6 2 ) で示される演算を実行し て、 回帰直線を求める。 回帰直線演算部 6 0 4は、 算出された結果である回帰直 線を示す演算結果パラメータを領域算出部 6 0 5に供給する。
ステップ S 6 0 5において、 領域算出部 6 0 5は、 回帰直線についての標準偏 差を算出する。 例えば、 領域算出部 6 0 5は、 式 (6 7 ) に示す演算により、 回 帰直線に対する標準偏差を算出する。
ステップ S 6 0 6において、 領域算出部 6 0 5は、 標準偏差から、 入力画像に おける、 データの定常性を有する領域を特定する。 例えば、 領域算出部 6 0 5は、 標準偏差に所定の係数を乗じて距離を求め、 回帰直線から、 求めた距離以内の領 域を、 データの定常性を有する領域として特定する。
領域算出部 6 0 5は、 データの定常性を有する領域を示すデータ定常性情報を 出力する。
ステップ S 6 0 7において、 画素取得部 6 0 2は、 全ての画素の処理を終了し たか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ステ ップ S 6 0 1に戻り、 まだ注目画素として選択されていない画素から注目画素を 選択して、 上述した処理を繰り返す。
ステップ S 6 0 7において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
図 1 2 0のフローチャートを参照して、 ステップ S 1 0 1の処理に対応する、 図 1 1 5で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性の 検出の他の処理を説明する。 ステップ S 6 2 1乃至ステップ S 6 2 4の処理は、 ステップ S 6 ◦ 1乃至ステップ S 6 0 4の処理と同様なので、 その説明は省略す る。
ステップ S 6 2 5において、 領域算出部 6 0 5は、 回帰直線についての相関係 数を算出する。 例えば、 領域算出部 6 0 5は、 式 (6 8 ) で示される演算により、 回帰直線に対する相関係数を算出する。
ステップ S 6 2 6において、 領域算出部 6 0 5は、 相関係数から、 入力画像に おける、 データの定常性を有する領域を特定する。 例えば、 領域算出部 6 0 5は、 予め記憶している閾値と相関係数の絶対値とを比較し、 相関係数の絶対値が閾値 以上である領域を、 データの定常性を有する領域として特定する。
領域算出部 6 0 5は、 データの定常性を有する領域を示すデータ定常性情報を 出力する。
ステップ S 6 2 7の処理は、 ステップ S 6 0 7の処理と同様なので、 その説明 は省略する。
このように、 図 1 1 5に構成を示すデータ定常性検出部 1 0 1は、 欠落した実 世界 1の光信号の定常性に対応する、 画像データにおける、 データの定常性を有 する領域を検出することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した画像データの注目している画素である注目画素に対応する領域を選 択し、 注目画素の画素値と、 選択された領域に属する画素の画素値との相関値が 閾値以上である画素に、 相関値に基づく度数を設定することにより、 領域に属す る画素の度数を検出し、 検出された度数に基いて回帰線を検出することにより、 欠落した現実世界の光信号の定常性に対応する、 画像データにおけるデータの定 常性を有する領域を検出し、 検出された画像データのデータの定常性に基づいて、 欠落した現実世界の光信号の定常性を推定することにより光信号を推定するよう · にした場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理結果を 得ることができるようになる。
図 1 2 1は、 データ定常性検出部 1 0 1のその他の実施の形態の構成を示して T/JP2004/001488
150
いる。
図 1 2 1のデータ定常性検出部 1 0 1は、 データ選択部 7 0 1、 データ足し込 み部 7 0 2、 および、 定常方向導出部 7 0 3より構成される。
データ選択部 7 0 1は、 入力画像の各画素を注目画素として、 その注目画素毎 に対応する画素の画素値データを選択して、 データ足し込み部 7 0 2に出力する。 データ足し込み部 7 0 2は、 データ選択部 7 0 1より入力されたデータに基づ いて、 最小自乗法における足し込み演算を行い、 足し込み演算結果を定常方向導 出部 7 0 3に出力する。 このデータ足し込み部 7 0 2による足し込み演算とは、 後述する最小自乗法の演算に用いるサメーションの項における演算であり、 その 演算結果は、 定常性の角度を検出するための画像データの特徴であると言える。 定常方向導出部 7 0 3は、 データ足し込み部 7 0 2より入力された足し込み演 算結果から定常方向、 すなわち、 データの定常性が有する基準軸からの角度 (例 えば、 細線、 または 2値エッジなどの傾き、 または方向) を演算し、 これをデー タ定常性情報として出力する。
次に、 図 1 2 2を参照して、 データ定常性検出部 1 0 1における定常性 (方向、 または、 角度) を検出する動作の概要について説明する。 尚、 図 1 2 2, 図 1 2 3中、 図 6, 図 7における場合と対応する部分については、 同一の符号を付して あり、 以下では、 その説明は、 適宜省略する。
図 1 2 2で示されるように、 実世界 1の信号 (例えば、 画像) は、 光学系 1 4 1 (例えば、 レンズ、 または LPF (Low Pass Fi l ter) などからなる) により、 センサ 2 (例えば、 CCD (Charge Coupl ed Device) 、 または、 CMOS
(Complementary Metal-Oxi de Semi conductor) など) の受光面に結像される c センサ 2は、 例えば、 CCDや CMOSのような積分特性を有する素子から構成され る。 このような構成により、 センサ 2から出力されるデータ 3から得られる画像 は、 実世界 1の画像とは異なる画像となる (実世界 1の画像とは差が生じること になる) 。
そこで、 データ定常性検出部 1 0 1は、 図 1 2 3で示されるように、 モデル 7 0 5を用いて、 実世界 1を近似式により近似的に記述して、 その近似式からデー タ定常性を抽出する。 モデル 7 0 5は、 例えば、 N個の変数で表現される。 より 正確には、 モデル 7 0 5は、 実世界 1の信号を近似 (記述) する。
データ定常性検出部 1 0 1は、 モデノレ 7 0 5を予測するために、 データ 3から、 M個のデータ 7 0 6を抽出する。 その結果、 モデル 7 0 5は、 データの定常性に 拘束されることになる。
すなわち、 モデル 7 0 5は、 センサ 2で取得されたとき、 データ 3においてデ ータのデータ定常性を生じさせる、 定常性 (所定の次元の方向に一定の特徴) を 有する実世界 1の事象 (を示す情報 (信号) ) を近似する。
ここで、 データ 7 0 6の数 Mが、 モデル 7 0 5の変数の数 N以上であれば、 M 個のデータ 7 0 6から、 N個の変数で表現されるモデル 7 0 5を予測することが できる。
さらに、 データ定常性検出部 1 0 1は、 実世界 1 (の信号) を近似 (記述) す るモデル 7 0 5を予測することにより、 実世界 1の情報である信号に含まれるデ ータ定常性を、 例えば、 細線や 2値エッジの方向 (傾き、 または、 所定の方向を 軸としたときの軸とのなす角度) として導出し、 データ定常性情報として出力す る。
次に、 図 1 2 4を参照して、 入力画像より細線の方向 (角度) をデータ定常性 情報として出力するデータ定常性検出部 1 0 1について説明する。
データ選択部 7 0 1は、 水平 ·垂直判定部 7 1 1、 および、 データ取得部 7 1 2から構成されている。 水平 ·垂直判定部 7 1 1は、 注目画素とその周辺の画素 間の画素値の差分から、 入力画像の細線の水平方向に対する角度が、 水平方向に 近い細線か、 垂直方向に近い細線かを判定し、 判定結果をデータ取得部 7 1 2、 および、 データ足し込み部 7 0 2にそれぞれ出力する。
より詳細には、 例えば、 この手法という意味で、 他の手法でもよい。 例えば、 簡易 1 6方位検出手法をここで使用してもよい。 図 1 2 5で示されるように、 水 平 -垂直判定部 7 1 1は、 注目画素と、 その注目画素に隣接する画素間の差分 (画素間の画素値の差分) のうち、 水平方向の画素間の差分 (アクティビティ) の和 (hdiff) と、 垂直方向の画素間の差分 (アクティビティ) の和の差分
(vdiff) を求めて、 注目画素が垂直方向に隣接する画素間との差分の和が大き いか、 または、 水平方向に隣接する画素間との差分の和が大きいかを判定する。 ここで、 図 1 2 5においては、 各マス目が画素を示し、 図中の中央の画素が注目 画素である。 また、 図中の点線の矢印で示す画素間の差分が、 水平方向の画素間 の差分であり、 その和が hdiff で示される。 さらに、 図中の実線の矢印で示す 画素間の差分が、 垂直方向の画素間の差分であり、 その和が vdiff で示される。 このように求められた水平方向の画素間の画素値の差分和 hdiff と、 垂直方 向の画素間の画素値の差分和 vdiff に基づいて、 水平 ·垂直判定部 7 1 1は、 (hdiff- vdiff) が正であれば、 垂直方向よりも水平方向の画素間の画素値の 変化 (アクティビティ) が大きいので、 図 1 2 6で示されるように、 水平方向に 対する角度が 0 (0度度≤ 0≤180度度) で示される場合、 45度度 < Θ l35度 度、 すなわち、 垂直方向に近い角度の細線に属している画素であると判定し、 逆 に負であれば垂直方向の画素間の画素値の変化 (アクティビティ) が大きいので、 0度度≤ θ < 45度度、 または、 135度度く Θ 度度、 すなわち、 水平方向に 近い角度の細線に属している画素であると判定する (細線が続く方向 (角度) に 存在する画素は、 いずれも細線を表現する画素であるので、 その画素間の変化 (アクティビティ) は小さくなるはずである) 。
また、 水平 ·垂直判定部 7 1 1は、 入力画像の各画素を識別するカウンタ (図 示せず) を備えており、 適宜必要に応じて使用する。
尚、 図 1 2 5においては、 注目画素を中心として、 3画素 X 3画素の範囲にお ける垂直方向と水平方向の画素間の画素値の差分の和を比較して、 細線が垂直方 向に近いか、 または、 水平方向に近いかを判定する例について説明したが、 それ 以上の画素数を用いて同様の手法で細線の方向を判定するようにしてもよく、 例 えば、 注目画素を中心として 5画素 X 5画素や、 7画素 X 7画素など、 それ以上 の画素数のプロックに基づいて判定するようにしてもよい。 PC觀麵纏
153
データ取得部 7 1 2は、 水平 ·垂直判定部 7 1 1より入力された細線の方向の 判定結果に基づいて、 注目画素に対応する水平方向に並ぶ複数の画素からなるブ ロック単位、 または、 垂直方向に並ぶ複数の画素のプロック単位で画素値を読み 出し (取得し) 、 読み出した (取得した) 注目画素毎に対応する複数の画素間に おける、 水平,垂直方向判定部 7 1 1の判定結果の方向に隣接する画素間の差分 データとともに、 所定の画素数のブロックに含まれる画素から、 画素値の最大値 と最小値のデータをデータ足し込み部 7 0 2に出力する。 尚、 以下においては、 データ取得部 7 1 2により、 注目画素に対応して取得される複数の画素のプロッ クを取得プロックと称する (取得ブロックは、 例えば、 後述する図 1 3 9で示さ れる複数の画素 (各マス目で示される) のうち、 黒線の正方形が示された画素を 注目画素とするとき、 その上下 3画素分と、 左右 1画素分の合計 1 5画素などで ある) 。
データ足し込み部 7 0 2の差分足し込み部 7 2 1は、 データ選択部 7 0 1より 入力された差分データを検出し、 データ選択部 7 0 1の水平 '垂直判定部 7 1 1 より入力される水平方向、 または、 垂直方向の判定結果に基づいて、 後述する最 小自乗法の解法に必要な足し込み処理を実行し、 その足し込み結果を定常方向導 出部 7 0 3に出力する。 より具体的には、 複数の画素のうち水平 ·垂直判定部 7 1 1による判定方向に隣接する画素 i と画素 ( i + 1 ) の画素間の画素値の差 分データを yiとし、 注目画素に対応する取得ブロックが n個の画素から構成さ れた場合、 差分足し込み部 7 2 1は、 水平方向、 または、 垂直方向毎に (y 1 ) 2 + ( y 2 ) 2 + ( y 3 ) 2 + . ■ 'を足し込んで演算し、 定常方向導出部 7 0 3 に出力する。
MaxMin取得部 7 2 2は、 データ選択部 7 0 1より入力される注目画素に対応 する取得ブロックに含まれる各画素毎に設定されるプロック (以下、 ダイナミツ クレンジプロックと称する (ダイナミックレンジプロックは、 後述する図 1 3 9 で示される取得プロックの画素のうち、 例えば、 画素 pix l 2について、 黒の実 線で囲まれている、 ダイナミックレンジブロック B 1で示される、 画素 pix l 2 の上下 3画素分の合計 7画素などである) ) に含まれる画素の画素値の最大値と 最小値を取得すると、 その差分からダイナミックレンジ Dri (取得ブロック内の i番目の画素に対応する、 ダイナミックレンジプロックに含まれる画素の画素値 の最大値と最小値の差分) を演算 (検出) して、 差分足し込み部 7 2 3に出力す る。
差分足し込み部 7 2 3は、 MaxMin取得部 7 2 2より入力されたダイナミック レンジ Dri と、 データ選択部 7 0 1より入力された差分データを検出し、 ·検出 したダイナミックレンジ Dri と差分データに基づいて、 データ選択部 7 0 1の 水平 ·垂直判定部 7 1 1より入力される水平方向、 または、 垂直方向毎に、 ダイ ナミックレンジ Dri と差分データ y iを乗じた値を足し込んで、 演算結果を定 常方向導出部 7 0 3に出力する。 すなわち、 差分足し込み部 7 2 3が出力する演 算結果は、 水平方向、 または、 垂直方向毎に y 1 X Dr l + y 2 X Dr 2 + y 3 X Dr 3 + · ■ · となる。
定常方向導出部 7 0 3の定常方向演算部 7 3 1は、 データ足し込み部 7 0 2よ り入力されてくる、 水平方向、 または、 垂直方向毎の足し込み演算結果に基づい て、 細線の角度 (方向) を演算し、 演算された角度を定常性情報として出力する。 ここで、 細線の方向 (細線の傾き、 または、 角度) の演算方法について説明す る。
図 1 2 7 Aで示されるような入力画像中の白線により囲まれる部分を拡大する と、 細線 (図中、 右上がりで、 かつ斜め方向の白線) は、 実際には、 図 1 2 7 B で示されるように表示されている。 すなわち、 現実世界においては、 図 1 2 7 C で示されるように、 画像は、 細線のレベル (図 1 2 7 C中では濃度の薄い斜線 部) と背景レベルの 2種類のレベルが境界を形成し、 その他のレベルが存在しな い状態となる。 これに対して、 センサ 2により撮像された画像、 すなわち、 画素 単位で撮像された画像は、 図 1 2 7 Bで示されるように、 その積分効果により背 景レベルと細線レベルとが空間的に混合した画素が、 その比率 (混合比) を一定 のパターンで変化するように縦方向に配置された複数の画素からなるプロックが 細線方向に繰り返して配置されたような画像となる。 尚、 図 1 2 7 Bにおいて、 各正方形状のマス目は、 CCDの 1画素を示し、 各辺の長さを d_CCDであるものと する。 また、 マス目は、 格子状に塗りつぶされた部分が背景のレベルに相当する 画素値の最小値であり、 その他の斜線状に塗りつぶされた部分は、 斜線の密度が 低くなるに連れて画素値が高くなるものとする (従って、 斜線のない白色のマス 目が画素値の最大値となる) 。
図 1 2 8 Aで示されるように、 現実世界の背景上に細線が存在する場合、 現実 世界の画像は、 図 1 2 8 Bで示されるように、 横軸にレベル、 縦軸にそのレベル に対応する部分の画像上の面積を示すと、 画像中の背景に相当する面積と、 細線 に相当する部分の面積との、 画像上における占有面積の関係が示される。
同様にして、 センサ 2で撮像された画像は、 図 1 2 9 Aで示されるように、 背 景レベルの画素の中に、 縦に並んだ背景レベルと '細線レベルとが混合した画素が、 その混合比を所定のパターンで変化させながら縦方向に配置されたブロックが、 細線の存在する方向に繰り返して配置されたような画像となるため、 図 1 2 9 B で示すように、 背景のレベルとなる領域 (背景領域) と、 細線のレベルの中間の レベルをとる、 背景と細線が空間的に混合した結果生じる画素からなる空間混合 領域が存在する。 ここで、 図 1 2 9 Bにおいて縦軸は、 画素数であるが、 1画素 の面積は (d_CCD) となるため、 図 1 2 9 Bの画素値のレベルと画素数の関係 は、 画素値のレベルと面積の分布の関係と同様であるといえる。
これは、 図 1 3 O Aの実際の画像中の白線で囲まれる部分 (3 1画素 X 3 1画 素の画像) においても、 図 1 3 0 Bで示されるように同様の結果が得られる。 す なわち、 図 1 3 O Aで示される背景部分 (図 1 3 O A中では、 黒色に見える部 分) は、 図 1 3 0 Bで示されるように、 画素値レベルの低い (画素値が 2 0付近 の) 画素が多く分布しており、 これらの変化の少ない部分が、 背景領域の画像を 形成する。 これに対して、 図 1 3 0 Bの画素値レベルが低くない部分、 すなわち、 画素値レベルが 4 0付近乃至 1 6 0付近に分布する画素は、 細線の画像を形成す る、 空間混合領域に属する画素であり、 各画素値毎の画素数は少ないが、 広い画 素値の範囲に分布している。
ところで、 現実世界の画像における背景と細線のそれぞれのレベルは、 例えば、 図 1 3 1 Aで示される矢印方向 (Y座標方向) に見ると、 図 1 3 1 Bで示される ように変化することになる。 すなわち、 矢印の起点から細線までの背景領域では、 比較的レベルの低い背景レベルとなり、 細線の領域では、 レベルの高い細線のレ ベルとなり、 細線領域を通過して再ぴ背景領域に戻ると、 レベルの低い背景のレ ベルとなる。 結果として、 細線領域のみが高いレベルとなるパルス状の波形とな る。
これに対して、 センサ 2で撮像された画像のうち、 図 1 3 1 A中の矢印の向き に対応する、 図 1 3 2 Aの空間方向 X==X 1上の画素 (図 1 3 2Aにおいては、 黒丸で示されている画素) の画素値と、 その画素の空間方向 Yの関係は、 図 1 3 2 Bに示されるようになる。 尚、 図 1 3 2 Aにおいて、 右上がりの 2本の白線の 間が、 現実世界の画像上における細線を示している。
すなわち、 図 1 3 2 Bで示されるように、 図 1 3 2 A中の中央の画素に対応す る画素が最も高い画素値をとるため、 各画素の画素値は、 空間方向 Yの位置が、 図中の下部から中央の画素に向かうに連れて高くなり、 中央の位置を通過すると、 徐々に減少することになる。 結果として、 図 1 3 2 Bで示すように、 山型の波形 が形成される。 また、 図 1 3 2 Aの空間方向 X = X O, X 2に対応する各画素の 画素値の変化は、 空間方向 Yのピーク位置が、 細線の傾きに応じてずれるものの、 同様の外形となる。
例えば、 図 1 3 3 Aで示されるような、 実際にセンサ 2により撮像された画像 における場合においても、 図 1 3 3 Bで示されるように、 同様の結果が得られる。 すなわち、 図 1 3 3 Bは、 図 1 3 3 Aの画像中の白線で囲まれる範囲の細線付近 の画素値を所定の空間方向 X (図中では、 X= 5 6 1 , 5 6 2, 5 6 3) 毎の、 空間方向 Yに対応した画素値の変化を示している。 このように、 実際のセンサ 2 により撮像された画像においても、 X= 5 6 1においては、 Y= 7 3 0付近で、 Χ= 5 6 2においては、 Υ= 7 0 5付近で、 Χ= 5 6 3においては、 Υ= 6 8 5 2004/001488
157
付近で、 それぞれピークとなる山型の波形となっている。
このように、 現実世界の画像の細線付近のレベルの変化を示す波形はパルス状 の波形となるのに対して、 センサ 2により撮像された画像の画素値の変化を示す 波形は山型の波形となる。
すなわち、 換言すれば、 現実世界の画像のレベルは、 図 1 3 1 Bで示されるよ うな波形になるべきところが、 センサ 2により撮像されることにより、 撮像され た画像は、 図 1 3 2 Bで示されるように、 その変化に歪が生じて、 現実世界の画 像とは異なる (現実世界の情報が欠落した) 波形に変化していると言える。 そこで、 このセンサ 2により撮像された画像から、 現実世界の画像の定常性情 報を取得するため、 センサ 2より取得された画像のデータから現実世界を近似的 に記述するためのモデル (図 1 2 3のモデル 7 0 5に相当する) を設定する。 例 えば、 細線の場合、 図 1 3 4で示されるように、 現実世界の画像を設定する。 す なわち、 図中左部の背景部分のレベルを B 1、 図中右側の背景部分のレベルを B 2、 細線部分のレベルを L、 細線の混合比を o;、 細線の幅を W、 細線の水平方向 に対する角度を 0としてパラメータを設定し、 モデル化して、 現実世界を近似的 に表現する関数を設定し、 各パラメータを求めることにより現実世界を近似的に 表現する近似関数を求め、 その近似関数から細線の方向 (傾き、 または、 基準軸 に対する角度) を求める。
このとき、 背景領域は、 左部、 および、 右部は、 同一であるものとして近似す ることができるので、 図 1 3 5で示されるように、 統一して B ( = B 1 = B 2 ) とする。 また、 細線の幅を 1画素以上であるものとする。 このように設定された 現実世界をセンサ 2で撮像するとき、 撮像された画像は、 図 1 3 6 Aで示される ように撮像されることになる。 尚、 図 1 3 6 Aにおいて、 右上がりの 2本の白線 の間が、 現実世界の画像上における細線を示している。
すなわち、 現実世界の細線上の位置に存在する画素は、 細線のレベルに最も近 レ、レベルとなり、 垂直方向 (空間方向 Yの方向) に対して細線から離れるに従つ て画素値が減少し、 細線領域に接することのない位置に存在する画素の画素値、 すなわち、 背景領域の画素は、 背景レベルの画素値となる。 このとき、 細線領域 と背景領域に跨る位置に存在する画素の画素値は、 背景レベルの画素値 Bと、 細 線レベルの画素値 Lが、 混合比 aで混合された画素値となっている。
このように、 撮像された画像の各画素を注目画素とした場合、 データ取得部 7 1 2は、 その注目画素に対応する取得ブロックの画素を抽出し、 その抽出した取 得プロックを構成する画素毎に、 ダイナミックレンジブロックを抽出し、 そのダ イナミックレンジプロックを構成する画素のうちの最大値となる画素値をとる画 素と、 最小値となる画素値をとる画素とを抽出する。 すなわち、 図 1 3 6 Aで示 すように、 取得ブロック中の所定の画素 (図中の 1マスの中に黒の実線で正方 形が記述された画素 pix4) に対応したダイナミックレンジブロックの画素 (例 えば、 図中の黒の実線で囲まれた画素 pix l乃至 7の 7画素) ) が抽出された場 合、 その各画素に対応する現実世界の画像は、 図 1 3 6 Bで示されるようになる。 すなわち、 図 1 3 6 Bで示されるように、 画素 pixlは、 左部の略 1/8の面 積を占める部分が背景領域となり、 右部の略 7Z 8の面積を占める部分が細線領 域となる。 画素 pix2は、 略全領域が細線領域となる。 画素 pix3は、 左部の略 7/8の面積を占める部分が細線領域となり、 右部 1 / 8の面積を占める部分が 細線領域となる。 画素 pix4は、 左部の略 2/ 3の面積を占める部分が細線領域 となり、 右部の略 1 /3の面積を占める部分が背景領域となる。 画素 pix5は、 左部の略 1Z3の面積を占める部分が細線領域となり、 右部の略 2 Z 3の面積を 占める部分が背景領域となる。 画素 pix6は、 左部の略 1/8の面積を占める部 分が細線領域となり、 右部の略 7Z8の面積を占める部分が背景領域となる。 さ らに、 画素 pix7は、 全体が背景領域となる。
結果として、 図 1 3 6 Aおよぴ図 1 3 6 Bで示されるダイナミックレンジブ口 ックの各画素 pix 1乃至 7の画素値は、 細線領域と背景領域の面積の比率に対応 した混合比で、 背景レベルと細線レベルが混合された画素値となる。 すなわち、 背景レベル:前景レベルの混合比は、 画素 pixlが略 1 : 7、 画素 pix 2が略 0 : 1、 画素 pix 3が略 1 : 7、 画素 pix 4が略 1 : 2、 画素 pix 5が略 2 : 1、 画素 pix6が略 7 : 1、 および、 画素 pix7が略 1 : 0となる。
従って、 抽出されたダイナミックレンジブ口ックの画素 pixl乃至 7の各画素 の画素値は、 画素 pix2が最も高く、 次いで画素 pixl , 3が続き、 以下画素値 が高い順に画素 pix4, 5, 6, 7となる。 従って、 図 1 3 6 Bで示される場合、 最大値は、 画素 pix 2の画素値であり、 最小値は、 画素 pix 7の画素値となる。 また、 図 1 3 7 Aで示されるように、 細線の方向は、 画素値の最大値をとる画 素が連続する方向であると言えるので、 この最大値をとる画素が配置された方向 が細線の方向となる。
ここで、 細線の方向を示す傾き Gf l は、 空間方向 Xの単位距離に対する、 空 間方向 Yへの変化 (距離の変化) の比であるので、 図 1 3 7 Aで示されるような 場合、 図中の空間方向 Xへの 1画素の距離に対する、 空間方向 Yの距離が傾き Gf l となる。
空間方向 XO乃至 X 2の各々の空間方向 Yに対する画素値の変化は、 図 1 3 7 Bで示されるように、 各空間方向 X毎に所定の間隔で山型の波形が繰り返される ことになる。 上述のように、 センサ 2により撮像された画像において、 細線は、 最大値をとる画素が連続する方向であるので、 各空間方向 Xの最大値となる空間 方向 Yの間隔 Sが、 細線の傾き Gf l となる。 すなわち、 図 1 3 7 Cで示される ように、 水平方向に 1画素の距離に対する垂直方向の変化量が傾き Gf l となる。 従って、 この細線の傾き Gf l (水平方向を基準軸としたときの角度に対応す る) は、 図 1 3 7 Cで示すように、 その傾きに対応する水平方向を基準軸とした 細線の角度を 0として表現する場合、 以下の式 (6 9) で示される関係が成立す ることになる。
Θ =Tan一1 (Gf l ) ( = Tan一1 (S) )
• · · (6 9) また、 図 1 3 5で示されるようなモデルを設定し、 さらに、 空間方向 Yの画素 と画素値の関係が、 図 1 3 7 Bで示される山型の波形が、 完全な三角波形 (立ち 上がり、 または、 立下りが直線的に変化する、 二等辺三角形状の波形) であると 1488
160
仮定する場合、 図 1 3 8で示すように、 所定の注目画素の空間方向 Xにおける、 空間方向 Y上に存在する各画素の画素値の最大値を Max= L (ここでは、 現実世 界の細線のレベルに対応する画素値) 、 最小値を Min = B (ここでは、 現実世界 の背景のレベルに対応する画素値) とするとき、 以下の式 (7 0 ) で示される関 係が成立する。
L - B = Gf! X d_y
• · · ( 7 0 ) ここで、 d_yは、 空間方向 Yの画素間の画素値の差分を示す。
すなわち、 空間方向の傾き Gf l は、 大きいほど細線がより垂直なものに近づ くため、 山型の波形は、 底辺の大きな二等辺三角形状の波形となり、 逆に、 傾き Sが小さいほど底辺の小さな二等辺三角形状の波形となる。 この結果、 傾き Gf lが大きいほど、 空間方向 Yの画素間の画素値の差分 d—yは小さく、 傾き S が小さいほど、 空間方向 Yの画素間の画素値の差分 d_yは大きくなる。
そこで、 上述の式 (7 0 ) の関係が成立する傾き G f l を求めることにより、 細線の基準軸に対する角度 Θを求めることが可能となる。 式 (7 0 ) は、 傾き G f l を変数とする 1変数の関数であるため、 注目画素について、 周辺の画素間の 画素値の (垂直方向の) 差分 d_y、 並びに、 最大値、 および、 最小値の差分 (L 一 B ) を 1組用いれば求めることが可能であるが、 上述のように、 空間方向 Yの 画素値の変化が完全な三角波形であることを前提とした近似式を用いたものであ るので、 注目画素に対応する抽出プロックの各画素についてダイナミックレンジ ブロックを抽出し、 さらに、 その最大値と最小値からダイナミックレンジ Drを 求めるとともに、 抽出プロックの各画素毎の空間方向 Yの画素間の画素値の差分 d—yを用いて、 最小自乗法により統計的に求める。
ここで、 最小自乗法による統計的な処理の説明にあたり、 まず、 抽出ブロック、 および、 ダイナミックレンジブロックについて、 詳細を説明する。
抽出ブロックは、 例えば、 図 1 3 9で示すように、 注目画素 (図中の黒の実,線 で正方形が描かれているマス目の画素) の、 空間方向 Yについて上下 3画素分、 空間方向 Xについて、 左右 1画素分の合計 1 5画素などでもよい。 また、 この場 合、 抽出ブロックの各画素の画素間の画素値の差分 d—yは、 例えば、 画素 pix l 1に対応する差分が d_y l 1で示されるとき、 空間方向 X = X Oの場合、 画素 pix 1 1と pix 1 2、 pix 1 2と pix 1 3、 pi 1 3と pix 1 4、 pi 1 5と pix 1 6、 pix l 6と pix l 7の画素間の画素値の差分 d—y 1 1乃至 d— y 1 6が得られ ることになる。 このとき、 空間方向 X = X 1, X 2についても、 同様にして画素 間の画素値の差分が得られる。 結果として、 この場合、 画素間の画素値の差分 d_yは、 1 8個存在することになる。
さらに、 抽出ブロックの各画素について、 ダイナミックレンジブロックの画素 1 例えば、 画素 pix l 1については、 水平 ·垂直判定部 7 1 1の判定結果に基 づいて、 今の場合、 垂直方向であると判定されるので、 図 1 3 9で示されるよう に、 画素 pix l 1を含めて、 垂直方向 (空間方向 Y ) の上下方向にそれぞれ 3画 素分のダイナミックレンジプロック B 1の範囲の 7画素であるものとすると、 こ のダイナミックレンジプロック B 1の画素の画素値の最大値と最小値を求め、 さ らに、 この最大値と最小値から得られるダイナミックレンジをダイナミックレン ジ Dr 1 1とする。 同様にして、 抽出ブロックの画素 pix l 2については、 図 1 3 9中のダイナミックレンジブ口ック B 2の 7画素から同様にしてダイナミック レンジ Dr 1 2を求める。 このようにして、 抽出プロック内の 1 8個の画素間差 分 d— y i と、 対応するダイナミックレンジ Dr i との組み合わせに基づいて、 最 小自乗法を用いて統計的に傾き G f lが求められる。
次に、 1変数の最小自乗法の解法について説明する。 尚、 ここでは、 水平 -垂 直判定部 7 1 1の判定結果が垂直方向であったものとする。
1変数の最小自乗法による解法は、 例えば、 図 1 4 0で示される黒点で示され る全ての実測値に対しての距離を最小とする、 予測値 Dri_cからなる直線の傾 き G f l を求めるものである。 そこで、 上述の式 (7 0 ) で示される関係から以 下のような手法により、 傾き Sが求められる。
すなわち、 上述の式 (7 0 ) は、 最大値と最小値の差分をダイナミック Drとするとき、 以下の式 (7 1) で示すように記述される。
Dr=Gf 1 Xd—y
… (7 1) 上述の式 (7 1) に、 抽出プロックの各画素間についての差分 d—yiを代入す ることによりダイナミックレンジ Dri_cが求められることになる。 従って、 各 画素について、 以下の式 (7 2) の関係が満たされることになる。
Dri_c=Gf! Xd_yi
• · · (7 2) ここで、 差分 d_yiは、 各画素 iの空間方向 Yの画素間の画素値の差分 (例え ば、 画素 iに対して、 上方向、 または、 下方向に隣接した画素との画素間の画素 値の差分であり、 Dri— cは、 画素 iについて式 (7 0) が成立するときに得られ るダイナミックレンジである。
上述のように、 ここでいう最小自乗法は、 抽出プロックの画素 iのダイナミツ クレンジ Dri— cと、 図 1 3 6 Aおよび図 1 3 6 Bを参照して説明した方法で得 られる、 画素 iの実測値となるダイナミックレンジ Dri_r との差分自乗和 Qが. 画像内のすべての画素において最小となるときの傾き Gf t を求める方法である t 従って、 差分自乗和 Qは以下の式 (7 3) により求められることになる。
Figure imgf000164_0001
… (7 3) 式 (7 3) で示される差分自乗和 Qは、 2次関数であるので、 変数 Gf l (傾 き Gf l) について図 1 4 1で示すような下に凸の曲線となるため、 傾き Gf l カ 最小となる Gf i minが最小自乗法の解となる。
式 (7 3) で示される差分自乗和 Qは、 変数 Gf lで微分されると、 以下に示 す式 (74) で示される d Q/d Gf i となる。 = ∑ 2(-d_yi) (Dri_r-Gflxd_yi)
fl i=1
- · · ( 74) 式 (74) 力 0となる Gf lが図 1 4 1で示す差分自乗和 Qの最小値をとる Gf lminとなるので、 式 (74) が 0となるときの式を展開することにより、 以 下の式 (7 5) で傾き Gf lが求められることになる。
Figure imgf000165_0001
• · · ( 7 5) 上述の式 (7 5) は、 いわゆる、 1変数 (傾き Gf l) の正規方程式となる。 このようにして、 得られた傾き Gf l を上述の式 (6 9) に代入することによ り、 細線の傾き Gf l に対応する、 水平方向を基準軸としたときの細線の角度 0 を得ることができる。
尚、 以上の説明においては、 注目画素が、 水平方向を基準軸としたときの角度 Θが 45度度≤ Θく 135度度の範囲となる細線上の画素である場合の例について 説明してきたが、 例えば、 注目画素が、 水平方向を基準軸に対する細線の角度 0 が 0度度 0 <45度度、 または、 135度度≤ Θく 108度度となる、 水平方向に近 い細線上の画素である場合、 画素 iに隣接する画素間の画素値の差分は、 水平方 向に隣接する画素間の画素値の差分 d—x i となり、 同様に、 画素 iに対応する複 数の画素から画素値の最大値、 または、 最小値を求める際に、 抽出するダイナミ ックレンジブ口ックの画素についても、 画素 iに対して水平方向に存在する複数 の画素のうちから選択されることになる。 この場合の処理については、 上述の説 明における水平方向と垂直方向の関係が入れ替わるのみであるので、 その説明は 省略する。
また、 同様の手法により、 2値エッジの傾きに対応する角度を求めることも可 能である。
すなわち、 図 1 4 2 Aで示されるような入力画像中の白線により囲まれる部分 を拡大すると、 画像中のエッジ部分 (図中、 黒地の旗に描かれた 「十」 という白 で描かれた文字の下の部分) (以下、 このように、 2値のレベルからなる画像上 のエッジ部分を 2値エッジとも称する) は、 実際には、 図 1 4 2 Bで示されるよ うに表示されている。 すなわち、 現実世界においては、 図 1 4 2 Cで示されるよ うに、 画像では、 第 1のレベル (旗の地のレベル) と、 第 2のレベル (文字のレ ベル (図 1 4 2 C中では濃度の薄い斜線部) ) との 2種類のレベルからなる境界 が形成されており、 その他のレベルが存在しない。 これに対して、 センサ 2によ り撮像された画像、 すなわち、 画素単位で撮像された画像は、 図 1 4 2 Bで示さ れるように、 第 1のレベルと第 2のレベルとが空間的に混合した画素が、 その比 率 (混合比) を一定のパターンで変化するように縦方向に配置された複数の画素 からなるブロックがエッジが構成されている方向に繰り返して配置されたような 領域を境とした第 1のレベルの画素が配置される部分と、 第 2のレベルの画素が 配置される部分とが存在する画像となる。
すなわち、 図 1 4 3 Aで示されるように、 空間方向 X==X O, X I , X 2につ いて、 それぞれの空間方向 Yへの画素値の変化は、 図 1 4 3 B中では、 各画素値 は、 図中の下から 2値エッジ (図 1 4 3 A中の右上がりの直線) の境界手前付近 までは、 所定の最小値の画素値になっているが、 2値エッジの境界手前付近で、 画素値が徐々に増大し、 エッジを越えると図中の点 PE において、 画素値が所定 の最大値となる。 より詳細には、 空間方向 X-X 0の変化は、 図 1 4 3 Bで示さ れるように、 画素値の最小値となる点 Ps を通過した後、 徐々に画素値が増大し、 画素値の最大値となる点 P 0となる。 これに対して、 空間方向 X = X Iに対応す る各画素の画素値の変化は、 空間方向にずれた波形となるため、 図 1 4 3 Bで示 されるように、 画素値の最小値から徐々に画素値が増大する位置が空間方向 Yの 正方向にずれて、 図中の点 P 1を経由して、 画素値の最大値にまで増大する。 さ らに、 空間方向 X = X 2における空間方向 Yの画素値の変化は、 空間方向 Yの正 の方向にさらにずれ込んだ図中の点 P 2を経由して減少し、 画素値の最大値から 最小値となる。
これは、 実際の画像中の白線で囲まれる部分においても、 同様の傾向が見られ る。 すなわち、 図 1 4 4 Aの実際の画像中の白線で囲まれる部分 (3 1画素 3 1画素の画像) において、 背景部分 (図 1 4 4 A中では、 黒色に見える部分) は、 図 1 4 4 Bで示されるように、 画素値の低い (画素値が 9 0付近の) 画素数が多 く分布しており、 これらの変化の少ない部分が、 背景領域の画像を形成する。 こ れに対して、 図 1 4 4 Bの画素値が低くない部分、 すなわち、 画素値が 1 0 0付 近乃至 2 0 0付近に分布する画素は、 文字領域と背景領域との空間混合領域に属 する画素の分布であり、 各画素値毎の画素数は少ないが、 広い画素値の範囲に分 布している。 さらに、 画素値の高い文字領域 (図 1 4 4 A中では、 白色に見える 部分) の画素が、 2 2 0で示される画素値の付近に多く分布している。
この結果、 図 1 4 5 Aで示されるエッジ画像における所定の空間方向 Xに対す る、 空間方向 Yの画素値の変化は、 図 1 4 5 Bで示されるようになものとなる。 すなわち、 図 1 4 5 Bは、 図 1 4 5 Aの画像中の白線で囲まれる範囲のエッジ 付近の画素値を所定の空間方向 X (図中では、 X = 6 5 8, 6 5 9, 6 6 0 ) 毎 の、 空間方向 Yに対応した画素値の変化を示している。 このように、 実際のセン サ 2により撮像された画像においても、 X = 6 5 8において、 画素値は、 Y = 3 7 4付近で増大を開始し (図中、 黒丸で示される分布) 、 Χ = 3 8 2付近で最大 画素値に到達する。 また、 Χ - 6 5 9においては、 空間方向 Υに対して正方向に ずれ込んで、 画素値は、 Υ = 3 7 8付近で増大を開始し (図中、 黒三角で示され る分布) 、 Χ = 3 8 6付近で最大画素値に到達する。 さらに、 Χ = 6 6 0におい ては、 空間方向 Υに対して、 さらに、 正方向にずれ込んで、 画素値は、 Υ = 3 8 2付近で増大を開始し (図中、 黒四角で示される分布) 、 Χ = 3 9 0付近で最大 画素値に到達する。
そこで、 このセンサ 2により撮像された画像から、 現実世界の画像の定常性情 報を取得するため、 センサ 2より取得された画像のデータから現実世界を近似的 に記述するためのモデルを設定する。 例えば、 2値エッジの場合、 図 1 4 6で示 すように、 現実世界の画像を設定する。 すなわち、 図中左部の背景部分のレベル を V I、 図中右側の文字部分のレベルを V 2、 2値エッジ付近の画素間の混合比 を Q!、 エッジの水平方向に対する角度を Θとしてパラメータを設定し、 モデル化 して、 現実世界を近似的に表現する関数を設定し、 各パラメータを求めることに より現実世界を近似的に表現する関数を求め、 その近似関数からエッジの方向 (傾き、 または、 基準軸に対する角度) を求める。
ここで、 エッジの方向を示す傾きは、 空間方向 Xの単位距離に対する、 空間方 向 Yへの変化 (距離の変化) の比であるので、 図 1 4 7 Aで示されるような場合、 図中の空間方向 Xへの 1画素の距離に対する、 空間方向 Yの距離が傾きとなる。 空間方向 X O乃至 X 2の各々の空間方向 Yに対する画素値の変化は、 図 1 4 7 Bで示されるように、 各空間方向 X毎に所定の間隔で同様の波形が繰り返される ことになる。 上述のように、 センサ 2により撮像された画像において、 エッジは、 類似した画素値の変化 (今の場合、 最小値から最大値へと変化する、 所定の空間 方向 Y上の画素値の変化) が空間的に連続する方向であるので、 各空間方向 Xに おいて、 空間方向 Yの画素値の変化が開始される位置、 または、 変化が終了する 位置となる空間方向 Yの間隔 Sが、 エッジの傾き G f e となる。 すなわち、 図 1 4 7 Cで示されるように、 水平方向に 1画素の距離に対する垂直方向の変化量が 傾き G f e となる。
ところで、 この関係は、 図 1 3 7 A乃至 Cを参照して上述した細線の傾き
G f l における関係と同様である。 従って、 その関係式についても、 同様のもの となる。 すなわち、 2値エッジにおける場合の関係式は、 図 1 4 8で示すものと なり、 背景領域の画素値を V I、 文字領域の画素値を V 2、 それぞれは最小値、 および、 最大値となる。 また、 エッジ付近の画素の混合比をひとし、 エッジの傾 きを G f e とおけば、 成立する関係式は、 上述の式 (6 9 ) 乃至式 (7 1 ) と同 様となる (ただし、 Gf l は、 G f e に置き換えられる) 。
このため、 図 1 2 4で示されるデータ定常性検出部 1 0 1は、 同様の処理によ り、 細線の傾きに対応する角度、 および、 エッジの傾きに対応する角度を、 デー タ定常性情報として検出することができる。 そこで、 以下においては、 傾きは、 細線の傾きと、 2値エッジの傾きとを総称して、 傾き Gf と称する。 また、 上述 の式 (7 3 ) 乃至式 (7 5 ) の式における傾き G f lは、 G f eであってもよいも のであり、 結果として、 傾き Gf と置き換えて考えるものとする。
次に、 図 1 4 9のフローチャートを参照して、 データ定常性の検出の処理を説 明する。
ステップ S 7 0 1において、 水平 ·垂直判定部 7 1 1は、 入力画像の各画素を 識別する力ゥンタ Tを初期化する。
ステップ S 7 0 2において、 水平 ·垂直判定部 7 1 1は、 後段の処理に必要な データの抽出処理を実行する。
ここで、 図 1 5 0のフローチャートを参照して、 データを抽出する処理につい て説明する。
ステップ S 7 1 1において、 データ選択部 7 0 1の水平■垂直判定部 7 1 1は、 各注目画素 Tについて、 図 1 2 5を参照して説明したように、 水平方向、 垂直方 向、 および対角方向に隣接する 9画素の水平方向に隣接する画素間の画素値の差 分 (アクティビティ) の和 hdiff と、 垂直方向に隣接する画素間の画素値の差 分 (アクティビティ) の和 Vd!iff とを演算し、 さらに、 その差分 (hdiff— vdi ff) を求め、 差分 (hdiff— vdiff) 0の場合、 その注目画素 Tが、 水平方 向を基準軸としたとき、 その基準軸との角度 Θが 45 度度≤ Θ < 1;35 度度となる、 垂直方向に近い細線、 または、 2値エッジ付近の画素であるものとみなし、 使用 する抽出プロックを垂直方向に対応したものとする判定結果をデータ取得部 7 1 2、 および、 データ足し込み部 7 0 2に出力する。
一方、 差分 (hdiff— vdiff) く 0の場合、 水平 '垂直判定部 7 1 1は、 その 注目画素が、 水平方向を基準軸にしたとき、 その基準軸との細線、 または、 2値 エッジのなす角度 0が 0度度 0 < 45度度、 または、 135度度≤ Θ < 180度度と なる、 水平方向に近い細線、 または、 エッジ付近の画素であるものとみなし、 使 用する抽出ブロックを水平方向に対応したものとする判定結果をデータ取得部 7 1 2、 および、 データ足し込み部 7 0 2に出力する。
すなわち、 細線、 または、 2値エッジの傾きが垂直方向に近いと言うことは、 例えば、 図 1 3 1 Aで示されているように、 図中の矢印が細線と交差する部分が 増えることになるため、 垂直方向の画素数を多めにした抽出プロックを設定する (縦長な抽出プロックを設定する) 。 同様にして、 細線の傾きが水平方向に近い 場合についても、 水平方向の画素数を多めにした抽出プロックを設定するように する (横長な抽出ブロックを設定する) 。 このようにすることにより、 不要な計 算量を增やすことなく、 正確な最大値と最小値の演算が可能となる。
ステップ S 7 1 2において、 データ取得部 7 1 2は、 注目画素について水平 - 垂直判定部 7 1 1より入力される水平方向、 または、 垂直方向の判定結果に対応 した抽出プロックの画素を抽出する。 すなわち、 例えば、 図 1 3 9で示されるよ うに、 注目画素を中心として、 (水平方向に 3画素) X (垂直方向に 7画素) の 合計 2 1画素を抽出ブロックとして抽出し、 記憶する。
ステップ S 7 1 3において、 データ取得部 7 1 2は、 抽出プロックの各画素に ついて、 水平 ·垂直判定部 7 1 1の判定結果に対応した方向に対応するダイナミ ックレンジブロックの画素を抽出し、 記憶する。 すなわち、 図 1 3 9を参照して、 上述したように、 例えば、 抽出ブロックの画素 pix l 1については、 今の場合、 水平 '垂直判定部 7 1 1の判定結果が垂直方向になるので、 データ取得部 7 1 2 は、 垂直方向に、 ダイナミックレンジブロック B 1を、 同様にして、 画素 pix l 2は、 ダイナミックレンジブロック B 2を抽出する。 その他の抽出プロックにつ いても同様にしてダイナミックレンジブ口ックが抽出される。
すなわち、 このデータ抽出処理により、 所定の注目画素 Tについて、 正規方程 式の演算に必要な画素の情報がデータ取得部 7 1 2に蓄えられることになる (処 理される領域が選択されることになる) 。
ここで、 図 1 4 9のフローチャートの説明に戻る。
ステップ S 7 0 3において、 データ足し込み部 7 0 2は、 正規方程式 (ここで は、 式 (7 4 ) ) の演算の各項に必要な値の足し込み処理を実行する。
ここで、 図 1 5 1のフローチャ^ "トを参照して、 正規方程式への足し込み処理 について説明する。
ステップ S 7 2 1において、 差分足し込み部 7 2 1は、 データ選択部 7 0 1の 水平 ·垂直判定部 7 1 1の判定結果に応じて、 データ取得部 7 1 2に記憶されて いる抽出ブロックの画素間の画素値の差分を求め (検出し) 、 さらに、 2乗 (自 乗) して足し込む。 すなわち、 水平 '垂直判定部 7 1 1の判定結果が垂直方向で ある場合、 差分足し込み部 7 2 1は、 抽出ブロックの各画素について垂直方向に 隣接する画素間の画素値の差分を求めて、 さらに 2乗して足し込む。 同様にして、 水平 .垂直判定部 7 1 1の判定結果が水平方向である場合、 差分足し込み部 7 2 1は、 抽出プロックの各画素について水平方向に隣接する画素間の画素値の差分 を求めて、 さらに 2乗して足し込む。 結果として、 差分足し込み部 7 2 1は、 上 述の式 (7 5 ) の分母となる項の差分の自乗和を生成し、 記憶する。
ステップ S 7 2 2において、 MaxMin取得部 7 2 2は、 データ取得部 7 1 2に 記憶されたダイナミックレンジプロックに含まれる画素の画素値の最大値と最小 値を取得し、 ステップ S 7 2 3において、 その最大値と最小値との差分からダイ ナミックレンジを求め (検出し) 、 差分足し込み部 7 2 3に出力する。 すなわち、 図 1 3 6 Bで示されているような、 画素 pix l乃至 7からなる 7画素のダイナミ ックレンジプロックの場合、 pix 2の画素値が最大値として検出され、 pix 7の 画素が最小値として検出され、 これらの差分がダイナミックレンジとして求めら れる。
ステップ S 7 2 4において、 差分足し込み部 7 2 3は、 データ取得部 7 1 2に 記憶されている抽出プロックの画素間のうち、 データ選択部 7 0 1の水平 ·垂直 判定部 7 1 1の判定結果に対応する方向に隣接する画素間の画素値の差分を求め (検出し) 、 MaxMin取得部 7 2 2より入力されたダイナミックレンジを乗じた 値を足し込む。 すなわち、 差分足し込み部 7 2 1は、 上述の式 (7 5 ) の分子と なる項の和を生成し、 記憶する。 ここで、 図 1 4 9のフローチャートの説明に戻る。
ステップ S 7 0 4において、 差分足し込み部 7 2 1は、 抽出ブロックの全ての 画素の画素間の画素値の差分 (水平 ·垂直判定部 7 1 1の判定結果に対応する方 向に隣接する画素間の画素値の差分) を足し込んだか否かを判定し、 例えば、 抽 出ブロックの全ての画素の画素間の差分を足し込んでいないと判定した場合、 そ の処理は、 ステップ S 7 0 2に戻り、 それ以降の処理が繰り返される。 すなわち、 抽出プロックの全ての画素の画素間の画素値の差分が足し込まれたと判定される まで、 ステップ S 7 0 2乃至 S 7 0 4の処理が繰り返される。
ステップ S 7 0 4において、 抽出プロックの全ての画素の画素間の画素値の差 分が足し込まれたと判定された場合、 ステップ S 7 0 5にいて、 差分足し込み部 7 2 1 , 7 2 3は、 自らで記憶している足し込み結果を定常方向導出部 7 0 3に 出力する。
ステップ S 7 0 6において、 定常方向演算部 7 3 1は、 データ足し込み部 7 0 2の差分足し込み部 7 2 1より入力された、 取得プロックの各画素間のうち、 水 平,垂直判定部 7 1 1により判定された方向に隣接する画素間の画素値の差分の 自乗和、 差分足し込み部 7 2 3より入力された、 取得プロックの各画素間のうち、 水平■垂直判定部 7 1 1により判定された方向に隣接する画素間の画素値の差分、 および、 取得プロックの各画素に対応するダイナミックレンジとの積の和に基づ いて、 上述の式 (7 5 ) で示した正規方程式を解くことにより、 最小自乗法を用 いて統計的に注目画素のデータ定常性情報である、 定常性の方向を示す角度 (細 線、 または、 2値エッジの傾きを示す角度) を演算し、 出力する。
ステップ S 7 0 7において、 データ取得部 7 1 2は、 入力画像の全ての画素に ついて処理が行われたか否かを判定し、 例えば、 入力画像の全ての画素について 処理が行われていない、 すなわち、 入力画像の全ての画素について、 細線、 また は、 2値エッジの角度の情報を出力していないと判定した場合、 ステップ S 7 0 8において、 カウンタ Tを 1インクリメントして、 その処理は、 ステップ S 7 0 2に戻る。 すなわち、 入力画像のうちの処理しょうとする画素が変更されて、 入 力画像の全ての画素について処理がなされるまで、 ステップ S 7 0 2乃至 S 7 0 8の処理が繰り返されることになる。 このカウンタ Tによる画素の変化は、 例え ば、 ラスタスキャンなどであってもよいし、 それ以外の規則により順次変化して いくものであってもよい。
ステップ S 7 0 7において、 入力画像の全ての画素について処理がなされたと 判定された場合、 ステップ S 7 0 9において、 データ取得部 7 1 2は、 次の入力 画像があるか否かを判定し、 次の入力画像があると判定された場合、 その処理は、 ステップ S 7 0 1に戻り、 それ以降の処理が繰り返される。
ステップ S 7 0 9において、 次の入力画像はないと判定された場合、 その処理 は、 終了する。
以上の処理により、 細線、 または、 2値エッジの角度が、 定常性情報として検 出されて、 出力される。
このように統計的処理により得られる細線、 または、 エッジの傾きの角度は、 相関を用いて得られる細線、 または、 2値エッジの角度とほぼ一致する。 すなわ ち、 図 1 5 2 Aで示すような画像の白線で囲まれる範囲の画像について、 細線上 の所定の水平方向の座標上の空間方向 Yへの傾きの変化は、 図 1 5 2 Bで示され るように、 相関を用いた方法により得られる細線の傾きを示す角度 (図中の黒丸 印) と、 図 1 2 4で示されたデータ定常性検出部 1 0 1により統計処理により得 られる細線の角度 (図中の黒三角印) は、 細線近傍の空間方向 Yの座標上で、 そ れぞれがほぼ一致している。 尚、 図 1 5 2 Bにおいては、 図中の黒実線で挟まれ た空間方向 Y = 6 8 0乃至 7 3 0が細線上の座標である。
同様にして、 図 1 5 3 Αで示すような画像の白線で囲まれる範囲の画像につい て、 2値エッジ上の所定の水平方向の座標上の空間方向 Yへの傾きの変化は、 図 1 5 3 Bで示されるように、 相関を用いた方法により得られる 2値エッジの傾き を示す角度 (図中の黒丸印) と、 図 1 2 4で示されたデータ定常性検出部 1 0 1 により統計処理により得られる 2値エッジの角度 (図中の黒三角印) は、 細線近 傍の空間方向 Yの座標上で、 それぞれがほぼ一致している。 尚、 図 1 5 3 Bにお いては、 空間方向 Y == 3 7 6 (付近) 乃至 3 8 8 (付近) が細線上の座標である である。
結果として、 図 1 2 4に示されるデータ定常性検出部 1 0 1は、 データの定常 性として細線、 または、 2値エッジの角度を求める際、 所定の画素からなるプロ ックによる相関を用いる方法と異なり、 各画素の周辺の情報を用いて、 統計的に 細線、 または、 2値エッジの傾きを示す角度 (ここでは、 水平方向を基準軸とし た角度) を求めることができるので、 相関を用いた方法に見られるように、 所定 の角度の範囲に応じて切り替わることが無いので、 全ての細線、 または、 2値ェ ッジの傾きの角度を同一の処理により求めることが可能となるため、 処理を簡単 なものとすることが可能となる。
また、 以上においては、 データ定常性検出部 1 0 1は、 細線、 または、 2値ェ ッジの所定の基準軸とのなす角度を定常性情報として出力する例について説明し てきたが、 後段の処理によっては、 傾きをそのまま出力する方が、 処理効率が向 上することも考えられる。 そのような場合、 データ定常性検出部 1 0 1の定常方 向導出部 7 0 3の定常方向演算部 7 3 1は、 最小自乗法により求められた細線、 または、 2値エッジの傾き Gf を、 そのまま定常性情報として出力するようにし てもよい。
さらに、 以上においては、 式 (7 5 ) において、 ダイナミックレンジ Dri一 r は、 抽出プロックの各画素について求められるものとして演算してきたが、 この ダイナミックレンジは、 ダイナミックレンジブロックを十分に大きく設定するこ とにより、 すなわち、 多くの注目画素について、 その周辺の多くの画素を用いて 設定することにより、 画像中の画素の画素値の最大値と最小値が、 常に選択され ることになるはずである。 従って、 ダイナミックレンジ Dri—rは、 抽出プロッ クの各画素について演算することなく、 抽出ブロック中、 または、 画像データ中 の画素の最大値と最小値から得られるダイナミックレンジを固定値として演算す るようにしてもよい。
すなわち、 以下の式 (7 6 ) のように、 画素間の画素値の差分のみを足し込む ことにより細線の角度 6 (傾き G f ) を求めるようにしてもよい。 このように、 ダイナミックレンジを固定することにより、 演算処理をより簡素化することがで き、 高速で処理を行うことが可能となる。
Figure imgf000175_0001
· · · ( 7 6 ) 次に、 図 1 5 4を参照して、 データ定常性情報として、 各画素の混合比を検出 するデータ定常性検出部 1 0 1について説明する。
尚、 図 1 5 4のデータ定常性検出部 1 0 1においては、 図 1 2 4のデータ定常 性検出部 1 0 1における場合と対応する部分については、 同一の符号を付してあ り、 以下では、 その説明は、 適宜省略する。
図 1 5 4のデータ定常性検出部 1 0 1において、 図 1 2 4のデータ定常性検出 部 1 0 1と異なるのは、 データ足し込み部 7 0 2、 および、 定常性方向導出部 7 0 3に代えて、 データ足し込み部 7 5 1、 および、 混合比導出部 7 6 1が設けら れている点である。
データ足し込み部 7 5 1の MaxMin取得部 7 5 2は、 図 1 2 4における
MaxMin取得部 7 2 2と同様の処理を行うものであるが、 ダイナミックレンジブ ロックの各画素の画素値の最大値と最小値を取得し、 最大値と最小値の差分 (ダ イナミックレンジ) を求め、 足し込み部 7 5 3 , 7 5 5に出力すると共に、 最大 値を差分演算部 7 5 4に出力する。
足し込み部 7 5 3は、 MaxMin取得部より入力された値を自乗して、 抽出プロ ックの全ての画素について足し込み、 その和を求めて、 混合比導出部 7 6 1に出 力する。
差分演算部 7 5 4は、 データ取得部 7 1 2の取得プロックの各画素について、 対応するダイナミックレンジブ口ックの最大値との差分を求めて、 足し込み部 7 5 5に出力する。
足し込み部 7 5 5は、 取得ブロックの各画素について、 MaxMin取得部 7 5 2 より入力された最大値と最小値の差分 (ダイナミックレンジ) と、 差分演算部 7 5 4より入力された取得プロックの各画素の画素値と、 対応するダイナミックレ ンジブロックの最大値との差分と乗じて、 その和を求め、 混合比導出部 7 6 1に 出力する。
混合比導出部 7 6 1の混合比算出部 7 6 2は、 データ足し込み部の足し込み部 7 5 3, 7 5 5のそれぞれより入力された、 値に基づいて、 注目画素の混合比を 最小自乗法により統計的に求め、 データ定常性情報として出力する。
次に、 混合比の導出方法について説明する。
図 1 5 5 Aで示されるように、 画像上に細線が存在する場合、 センサ 2で撮像 された画像は、 図 1 5 5 Bで示されるような画像となる。 この画像について、 図 1 5 5 Bの空間方向 X = X 1上の黒の実線で囲まれた画素について注目する。 尚、 図 1 5 5 Bの白線ではさまれた範囲は、 現実世界における細線領域に対応する位 置を示す。 この画素の画素値 Mは、 背景領域のレベルに対応する画素値 Bと、 細 線領域のレベルに対応する画素値 Lの中間色となっているはずであり、 さらに詳 細には、 この画素値 P sは、 背景領域と細線領域の面積比で、 それぞれのレベル が混合されているはずである。 従って、 この画素値 P s は、 以下の式 (7 7 ) に より表現される。
P s = α Χ Β + ( 1 - a ) X L
• · · ( 7 7 ) ここで、 αは、 混合比であり、 より具体的には、 注目されている画素中の背景 領域の占める面積の割合を示すものである。 従って、 (1一 α ) は、 細線領域の 占める面積の割合を示しているともいえる。 尚、 背景領域の画素は、 背景に存在 するォブジ タ トの成分とも考えられるので、 背景オブジェク ト成分とも言える。 また、 細線領域の画素は、 背景ォブジェク トに対して前景ォブジェクトの成分で あると考えられるので、 前景ォブジュクト成分とも言える。 この結果、 混合比 αは、 式 (7 7) を展開することにより、 以下の式 (7 8) で表現できることになる。
a = (Ps -L) / (B-L)
• · · ( 7 8 ) さらに、 今の場合、 画素値は、 第 1の画素値 (画素値 B) の領域と第 2の画素 値 (画素値 L) の領域とをまたいだ位置に存在することが前提であるので、 画素 値 Lは、 画素値の最大値 Maxで置き換えることができ、 さらに、 画素値 Bは、 画素値の最小値と置き換えることができる。 従って、 混合比ひは、 以下の式 (7 9) でも表現することができる。
= (Ps—Max) / (Min— Max)
• · · ( 7 9) 以上の結果、 混合比 αは、 注目画素についてのダイナミックレンジブロックの ダイナミックレンジ ( (Min— Max) に相当する) と、 注目画素と、 ダイナミツ クレンジブ口ック内の画素の最大値との差分から求めることが可能となるが、 よ り精度を向上させるため、 ここでは、 最小自乗法により統計的に混合比 αを求め る。
すなわち、 上述の式 (7 9 ) は、 展開すると以下の式 (8 0) となる。
( Ps—Max) = a X (Min一 Max
• · · ( 8 0) この式 (8 0 ) は、 上述の式 (7 1 ) と同様の 1変数の最小自乗法の式となる c すなわち、 式 (7 1 ) においては、 最小自乗法により傾き Gf が求められていた 1 ここでは、 混合比 αが求められることになる。 従って、 以下の式 (8 1 ) で 示される正規方程式を解くことにより、 混合比 αは、 統計的に求められる。
Figure imgf000177_0001
• · - ( 8 1 ) ここで、 iは、 抽出ブロックの各画素を識別するものである。 従って、 式 (8 1 ) においては、 抽出ブロックの画素数は nである。
次に、 図 1 5 6のフローチャートを参照して、 混合比をデータ定常性としたと きのデータ定常性の検出の処理について説明する。
ステップ S 7 3 1において、 水平■垂直判定部 7 1 1は、 入力画像の各画素を 識別するカウンタ Uを初期化する。
ステップ S 7 3 2において、 水平■垂直判定部 7 1 1は、 後段の処理に必要な データの抽出処理を実行する。 尚、 ステップ S 7 3 2の処理は、 図 1 5 0のフロ 一チャートを参照して説明した処理と同様であるので、 その説明は省略する。 ステップ S 7 3 3において、 データ足し込み部 7 5 1は、 正規方程式 (ここで は、 式 (8 1 ) ) の演算の各項に必要な値の足し込み処理を実行する。
ここで、 図 1 5 7のフローチャートを参照して、 正規方程式への足し込み処理 について説明する。
ステップ S 7 5 1において、 MaxMin取得部 7 5 2は、 データ取得部 7 1 2に 記憶されたダイナミックレンジブ口ックに含まれる画素の画素値の最大値と最小 値を取得し、 そのうち、 最小値を差分演算部 7 5 4に出力する。
ステップ S 7 5 2において、 MaxMin取得部 7 5 2は、 その最大値と最小値と の差分からダイナミックレンジを求め、 差分足し込み部 7 5 3 , 7 5 5に出力す る。
ステップ S 7 5 3において、 足し込み部 7 5 3は、 MaxMin取得部 7 5 2より 入力されたダイナミックレンジ (Max— Min) を自乗して、 足し込む。 すなわち、 足し込み部 7 5 3は、 上述の式 (8 1 ) の分母に相当する値を足し込みにより生 成する。
ステップ S 7 5 4において、 差分演算部 7 5 4は、 MaxMin取得部 7 5 2より 入力されたダイナミックレンジプロックの最大値と、 抽出プロックにおける今現 在処理中の画素の画素値との差分を求めて、 足し込み部 7 5 5に出力する。 ステップ S 7 5 5において、 足し込み部 7 5 5は、 MaxMin取得部 7 5 2より 入力されたダイナミックレンジと、 差分演算部 7 5 4より入力された、 今現在処 理している画素の画素値と、 ダイナミックレンジプロックの画素のうち最大値と なる値との差分を乗じて、 足し込む。 すなわち、 足し込み部 7 5 5は、 上述の式 ( 8 1 ) の分子の項に相当する値を生成する。
以上のように、 データ足し込み部 7 5 1は、 足し込み処理により、 上述の式 ( 8 1 ) の各項の演算を実行する。
ここで、 図 1 5 6のフローチャートの説明に戻る。
ステップ S 7 3 4において、 差分足し込み部 7 2 1は、 抽出ブロックの全ての 画素について、 足し込みが終了したか否かを判定し、 例えば、 抽出ブロックの全 ての画素についての足し込み処理が終了していないと判定した場合、 その処理は、 ステップ S 7 3 2に戻り、 それ以降の処理が繰り返される。 すなわち、 抽出ブロ ックの全ての画素について、 足し込み処理が終了したと判定されるまで、 ステツ プ S 7 3 2乃至 S 7 3 4の処理が繰り返される。
ステップ S 7 3 4において、 抽出ブロックの全ての画素について足し込みが終 了したと判定された場合、 ステップ S 7 3 5にいて、 足し込み部 7 5 3, 7 5 5 は、 自らで記憶している足し込み結果を混合比導出部 7 6 1に出力する。
ステップ S 7 3 6において、 混合比導出部 7 6 1の混合比算出部 7 6 2は、 デ ータ足し込み部 7 5 1の足し込み部 7 5 3, 7 5 5より入力された、 ダイナミツ クレンジの自乗和、 および、 抽出ブロックの各画素の画素値とダイナミックレン ジブ口ックの最大値との差分と、 ダイナミックレンジとを乗じた和に基づいて、 上述の式 (8 1 ) で示した正規方程式を解くことにより、 最小自乗法を用いて統 計的に注目画素のデータ定常性情報である、 混合比を演算し、 出力する。
ステップ S 7 3 7において、 データ取得部 7 1 2は、 入力画像の全ての画素に ついて処理が行われたか否かを判定し、 例えば、 入力画像の全ての画素について 処理が行われていない、 すなわち、 入力画像の全ての画素について、 混合比を出 力していないと判定した場合、 ステップ S 7 3 8において、 カウンタ Uを 1イン クリメントして、 その処理は、 ステップ S 7 3 2に戻る。
すなわち、 入力画像のうちの処理しょうとする画素が変更されて、 入力画像の 全ての画素について混合比が演算されるまで、 ステップ S 7 3 2乃至 S 7 3 8の 処理が繰り返されることになる。 このカウンタ Uによる画素の変化は、 例えば、 ラスタスキャンなどであってもよいし、 それ以外の規則により順次変化していく ものであってもよい。
ステップ S 7 3 7において、 入力画像の全ての画素について処理がなされたと 判定された場合、 ステップ S 7 3 9において、 データ取得部 7 1 2は、 次の入力 画像があるか否かを判定し、 次の入力画像があると判定された場合、 その処理は、 ステップ S 7 3 1に戻り、 それ以降の処理が繰り返される。
ステップ S 7 3 9において、 次の入力画像はないと判定された場合、 その処理 は、 終了する。
以上の処理により、 各画素の混合比が、 定常性情報として検出されて、 出力さ れる。
以上の手法により、 例えば、 図 1 5 8 Aで示される画像中の白線内の細線の画 像について、 所定の空間方向 X ( = 5 6 1 , 5 6 2 , 5 6 3 ) 上の混合比の変化 力 図 1 5 8 Bに示されている。 図 1 5 8 Bで示されるように、 水平方向に連続 する空間方向 Yの混合比の変化は、 それぞれ、 空間方向 X = 5 6 3の場合、 混合 比は、 空間方向 Y = 6 6 0付近で立ち上がり、 Υ = 6 8 5付近でピークとなり、 Υ = 7 1 0まで減少する。 また、 空間方向 Χ = 5 6 2の場合、 混合比は、 空間方 向 Υ = 6 8 0付近で立ち上がり、 Υ = 7 0 5付近でピークとなり、 Υ = 7 3 5ま で減少する。 さらに、 空間方向 Χ = 5 6 1の場合、 混合比は、 空間方向 Υ = 7 0 5付近で立ち上がり、 Υ = 7 2 5付近でピークとなり、 Υ = 7 5 5まで減少する。 このように、 図 1 5 8 Βで示されるように、 連続する空間方向 Xのそれぞれの 混合比の変化は、 混合比により変化する画素値の変化 (図 1 3 3 Βで示した画素 値の変化) と同様の変化であり、 周期的に連続していることから、 細線近傍の画 素の混合比が正確に表現されていることが分かる。 また、 同様にして、 図 1 5 9 Aで示される画像中の白線内の 2値エッジの画像 について、 所定の空間方向 X (= 6 5 8, 6 5 9 , 6 6 0) 上の混合比の変化が、 図 1 5 9 Bに示されている。 図 1 5 9 Bで示されるように、 水平方向に連続する 空間方向 Yの混合比の変化は、 それぞれ、 空間方向 X= 6 6 0の場合、 混合比は、 空間方向 Y= 7 5 0付近で立ち上がり、 Υ= 7 6' 5付近でピークとなる。 また、 '空間方向 Χ= 6 5 9の場合、 混合比は、 空間方向 Υ= 7 6 0付近で立ち上がり、 Υ= 7 7 5付近でピークとなる。 さらに、 空間方向 Χ= 6 5 8の場合、 混合比は、 空間方向 Υ= 7 7 0付近で立ち上がり、 Υ== 7 8 5付近でピークとなる。
このように、 図 1 5 9 Βで示されるように、 2値エッジの混合比の変化は、 混 合比により変化する画素値の変化 (図 1 4 5 Βで示した画素値の変化) と同様の 変化とほぼ同様であり、 周期的に連続していることから、 2値エッジ近傍の画素 値の混合比が正確に表現されていることが分かる。
以上によれば、 最小自乗法により統計的にデータ定常性情報として、 各画素の 混合比を求めることが可能となる。 さらに、 この混合比に基づいて、 各画素の画 素値を直接生成することが可能となる。
また、 混合比の変化が、 定常性を有するものであり、 さらに、 この混合比の変 化が直線的なもので近似すると、 以下の式 (8 2) で示されるような関係が成立 する。
a =m X y + η
· · ■ (8 2) ここで、 mは、 混合比 が、 空間方向 Yに対して変化するときの傾きを示し、 また、 nは、 混合比 αが直線的に変化するときの切片に相当するものである。 すなわち、 図 1 6 0で示されるように、 混合比を示す直線は、 背景領域のレべ ルに相当する画素値 Βと、 細線のレベルに相当するレベル Lの境界を示す直線で あり、 この場合、 空間方向 Υについて単位距離進んだときの混合比の変化量が傾 き mとなる。 '
そこで、 式 (8 2) を、 式 (7 7) に代入すると以下の式 (8 3) が導出され る。
M= (mX y + n) X B+ (1— (mX y + n) ) X L
• · · (8 3) さらに、 この式 (8 3) を展開すると、 以下の式 (8 4) が導出される。
M— L= (y XB— y XL) Xm+ (B— L) X n
■ · · (8 4) 式 (84) においては、 第 1項の mが、 混合比の空間方向の傾きを示し、 第 2 項が混合比の切片を示す項である。 従って、 上述の式 (8 4) の m, nを 2変数 の最小自乗法を用いて、 正規方程式を生成し、 求めるようにすることもできる。 しかしながら、 混合比 の傾き mは、 上述した細線や 2値エッジの傾き (上述 の傾き Gf) そのものであるので、 予め、 上述の方法を用いて、 細線、 または、 2値エッジの傾き Gf を求めた後、 その傾きを用いて、 式 (8 4) に代入するこ とにより、 切片の項についての 1変数の関数とし、 上述した手法と同様に、 1変 数の最小自乗法により求めるようにしてもよレ、。
以上の例においては、 空間方向の細線、 または、 2値エッジの角度 (傾き) 、 または、 混合比をデータ定常性情報として検出するデータ定常性検出部 1 0 1に ついて説明してきたが、 例えば、 空間内の軸 (空間方向 X, Y) のいずれかを、 時間方向 (フレーム方向) τの軸に置き換えることにより得られる、 空間方向に おける角度に対応するものであってもよい。 すなわち、 空間内の軸 (空間方向 X, Y) のいずれかを、 時間方向 (フレーム方向) Tの軸に置き換えることにより得 られる角度に対応するものとは、 物体の動きべク トル (動きべクトルの方向) で ある。
より具体的には、 図 1 6 1 Aで示すように、 物体が、 時間が進むにつれて空間 方向 Yについて、 図中の上方向に移動している場合、 図中の細線に相当する部分 (図 1 3 1 Aとの比較) には、 物体の移動の軌跡が現れることになる。 従って、 時間方向 Tの細線における傾きは、 図 1 6 1 Aにおいては、 物体の動く方向 (物 体の動きを示す角度) を示すもの (動きベク トルの方向と同値のもの) である。 従って、 現実世界において、 図 1 6 1 A中の矢印で示される、 所定の時刻におけ るフレームでは、 図 1 6 1 Bで示すように物体の軌跡となる部分が、 物体の (色 の) レベルとなり、 それ以外の部分が、 背景のレベルとなったパルス状の波形と なる。
このように、 センサ 2により動きのある物体を撮像した場合、 図 1 6 2 Aで示 されるように、 時刻 T 1乃至 T 3におけるフレームの各画素の画素値の分布は、 図 1 6 2 Bで示されるように、 空間方向 Yに対して、 それぞれ山型の波形をとる。 この関係は、 図 1 3 2 A , 図 1 3 2 Bを参照して、 説明した空間方向 X, Yにお ける関係と同様であるものと考えることができる。 従って、 フレーム方向 Tに対 して、 物体に動きがある場合、 上述した細線の傾き、 または、 2値エッジの角度 (傾き) の情報と同様の手法により、 物体の動きベク トルの方向をデータ定常性 情報として求めることも可能である。 尚、 図 1 6 2 Bにおいては、 フレーム方向 T (時間方向 T ) について、 各マス目は、 1フレームの画像を構成するシャツタ 時間となる。
また、 同様にして、 図 1 6 3 Aで示されるように、 フレーム方向 T毎に、 空間 方向 Yについて物体に動きがある場合、 図 1 6 3 Bで示されるように、 所定の時 刻 T 1に相当するフレーム上で空間方向 Yに向けて、 物体の動きに対応して、 各 画素値が得られることになる。 このとき、 例えば、 図 1 6 3 Bにおける、 黒の実 線で囲まれた画素の画素値は、 図 1 6 3 Cで示されるように、 物体の動きに対応 して、 背景のレベルと物体のレベルがフレーム方向に混合比 /3で混合している画 素値である。
この関係は、 図 1 5 5 A, 図 1 5 5 B, 図 1 5 5 Cを参照して説明した関係と 同様である。
さらに、 図 1 6 4で示されるように、 物体のレベル Oと背景のレベル Bとは、 フレーム方向 (時間方向) の混合比 により直線近似することも可能である。 個 の関係は、 図 1 6 0を参照して説明した空間方向の混合比の直線近似と同様の関 係である。 従って、 空間方向の混合比 αと同様の手法により、 時間 (フレーム) 方向の混 合比 /3をデータ定常性情報として求めることも可能である。
また、 フレーム方向、 または、 空間方向のいずれか 1次元を選択して、 定常性 の角度、 または、 動きベク トルの方向を求めるようにしてもよいし、 同様にして 混合比 α, /3を選択的に求めるようにしてもよい。
以上によれば、 現実世界の光信号を射影し、 現実世界の光信号の定常性の一部 が欠落した画像データ内の注目画素に対応する領域を選択し、 選択した領域内の、 欠落した現実世界の光信号の定常性に対応する画像データの定常性の基準軸に対 する角度を検出するための特徴を検出し、 検出した特徴に基いて統計的に角度を 検出し、 検出した画像データの定常性の基準軸に対する角度に基いて、 欠落した 現実世界の光信号の定常性を推定することにより光信号を推定するようにしたの で、 定常性の角度 (動きべク トルの方向) 、 または、 (時空間の) 混合比を求め ることが可能となる。
次に、 図 1 6 5を参照して、 データ定常性情報としてデータ定常性情報を用い た処理を行うべき領域の情報を出力する、 データ定常性情報検出部 1 0 1につい て説明する。
角度検出部 8 0 1は、 入力された画像のうち、 定常性を有する領域、 すなわち、 画像上において定常性を有する細線や 2値ェッジを構成する、部分の空間方向の角 度を検出し、 検出した角度を実世界推定部 8 0 2に出力する。 尚、 この角度検出 部 8 0 1は、 図 3におけるデータ定常性検出部 1 0 1と同様のものである。
実世界推定部 8 0 2は、 角度検出部 8 0 1より入力されたデータ定常性の方向 を示す角度と、 入力画像の情報に基づいて実世界を推定する。 すなわち、 実世界 推定部 8 0 2は、 入力された角度と、 入力画像の各画素から実世界の光信号の強 度分布を近似的に記述する近似関数の係数を求めて、 求めた係数を実世界の推定 結果として誤差演算部 8 0 3に出力する。 尚、 この実世界推定部 8 0 2は、 図 3 における実世界推定部 1 0 2と同様のものである。
誤差演算部 8 0 3は、 実世界推定部 8 0 2より入力された係数に基づいて、 近 似的に記述された現実世界の光の強度分布を示す近似関数を構成し、 さらに、 こ の近似関数に基づいて各画素位置に相当する光の強度を積分して、 近似関数によ り推定された光の強度分布から各画素の画素値を生成し、 実際に入力された画素 値との差分を誤差として比較部 8 0 4に出力する。
比較部 8 0 4は、 各画素について誤差演算部 8 0 3より入力された誤差と、 予 め設定された閾値とを比較することにより、 定常性情報を用いた処理を施す画素 の存在する処理領域と、 非処理領域とを識別して、 この定常性情報を用いた処理 をする処理領域と非処理領域の識別がなされた領域情報を定常性情報として出力 する。
次に、 図 1 6 6のフローチャートを参照して、 図 1 6 5のデータ定常性検出部
1 0 1による、 定常性の検出の処理について説明する。
ステップ S 8 0 1において、 角度検出部 8 0 1は、 入力された画像を取得し、 ステップ S 8 0 2において、 定常性の方向を示す角度を検出する。 より詳細には、 角度検出部 8 0 1は、 例えば、 水平方向を基準軸としたときの細線、 または、 2 値エッジの有する定常性の方向を示す角度を検出して、 実世界推定部 8 0 2に出 力する。
ステップ S 8 0 3において、 実世界推定部 8 0 2は、 角度検出部 8 0 1より入 力される角度の情報と、 入力画像の情報に基づいて、 現実世界を表現する関数 F (x)を近似的に記述する、 多項式からなる近似関数 f (x)の係数を求めて、 誤差 演算部 8 0 3に出力する。 すなわち、 現実世界を表現する近似関数 f (x)は、 以 下の式 (8 5 ) のような 1次元多項式で示される。 f (x) = WQX^W-J X11-1 + · · '■ wn_1x+wn = ∑ Wi Xn
i=0
• · · ( 8 5 ) ここで、 w iは、'多項式の係数であり、 実世界推定部 8 0 2は、 この係数 w i を求めて、 誤差演算部 803に出力する。 さらに、 角度検出部 80 1より入力さ れる角度により、 定常性の方向から傾きを求めることができる (Gf =tan— Gf :傾き, Θ :角度) ので、 この傾き Gf の拘束条件を代入することにより、 上述の式 (8 5) の式は、 以下の式 (86) で示されるように、 2次元多項式で 記述することができる。 f (x, y) = w0(x-aiy)n +w1 (x-afy)n~1 十…
+wn一■) (x-ofy)+wn
n 一 .
= ∑ W: (x— oiy)n
i=o
• · · (8 6) すなわち、 上述の式 (86) は、 式 (8 5) で記述される 1次元の近似関数 f(x)が、 空間方向 Yに平行移動することにより生じるずれ幅をシフト量 α (= -d y/Gf : d yは、 空間方向 Yへの変化量) で表現することにより得られる 2次元の関数 f (x,y)を記述している。
したがって、 実世界推定部 80 2は、 入力画像と、 定常性方向の角度の情報を 用いて、 上述の式 (86) の各係数 w iを解いて、 求められた係数 w iを誤差演 算部 803に出力する。
ここで、 図 1 66のフローチャートの説明に戻る。
ステップ S 804において、 誤差演算部 803は、 実世界推定部 80 2より入 力された係数から、 各画素について再積分を実行する。 すなわち、 誤差演算部 8 03は、 実世界推定部 802より入力された係数から、 上述の式 (86) を、 以 下の式 (8 7) で示されるように、 各画素について積分する。
Figure imgf000187_0001
J,yraTD A„
n一 I
(∑ Wj ix-a ) )dxdy
i=0
Figure imgf000187_0002
[Kxm+A - of (ym+B))ni+2-(xm-af (ym+B))ni+2l
一 Kxm+A— ym)ni+2_(xm—aym)n-i+2}]
• · · (8 7) ここで、 Ssは、 図 1 6 7で示される空間方向の積分結果を示す。 また、 その 積分範囲は、 図 1 6 7で示すように、 空間方向 Xについては、 xm乃至 xm + Bで あり、 空間方向 Yについては、 yra乃至 ym + Aである。 また、 図 1 6 7において は、 各マス目 (正方形) は、 1画素を示すものとし、 空間方向 X, Yについて、 いずれも 1であるものとする。
従って、 誤差演算部 803は、 図 1 68で示されるように、 近似関数 f(x,y) で示される曲面の空間方向 Xについて xm乃至 xm + 1、 および、 空間方向 Yにつ いて ym乃至 yra + 1 (A = B= 1) で、 以下の式 (88) で示されるような積分 演算を各画素について実行し、 実世界を近似的に表現する近似関数を空間的に積 分することにより得られる各画素の画素値 Ps を演算する。 L86
一一
Figure imgf000188_0001
= ∑ i L L (x— y) dxdy
Figure imgf000188_0002
x[((xm+1-a (ym+1))n_i+2-(xm-oi (ym+1))ni+2l
一 {(xm+1iym)ni+2— (xmiym)ni+2}]
• - · (88) すなわち、 この処理により、 誤差演算部 803は、 言わば一種の画素値生成部 として機能し、 近似関数から画素値を生成する。
ステップ S 805において、 誤差演算部 803は、 上述の式 (8 8) で示した ような積分により得られた画素値と、 入力画像の画素値との差分を演算し、 これ を誤差として比較部 804に出力する。 すなわち、 誤差演算部 803は、 上述の 図 1 6 7, 図 1 68で示した積分範囲 (空間方向 Xについて xm乃至 xm + 1、 お よび、 空間方向 Yについて ym乃至 yra + 1) に対応する画素の画素値と、 画素に 対応する範囲の積分結果により得られた画素値との差分を、 誤差として求めて比 較部 804に出力する。
ステップ S 806において、 比較部 804は、 誤差演算部 803より入力され る積分により得られた画素値と入力画像の画素値との誤差の絶対値が、 所定の閾 値以下であるか否かを判定する。
ステップ S 806において、 誤差が所定の閾値以下であると判定された場合、 ステップ S 80 7において、 比較部 804は、 積分により得られた画素値が、 入 力画像の画素の画素値と近い値が得られているので、 その画素の画素値を演算す るにあたり設定した近似関数が、 現実世界の光信号の光の強度分布と十分に近似 しているとみなし、 今処理した画素の領域は、 定常性情報に基づいた近似関数に よる処理を行う処理領域として認識する。 より詳細には、 比較部 8 0 4は、 図示 せぬメモリに今処理した画素が、 以降の処理領域の画素であることを記憶させる。 一方、 ステップ S 8 0 6において、 誤差が所定の閾値以下ではないと判定され た場合、 ステップ S 8 0 8において、 比較部 8 0 4は、 積分により得られた画素 値が、 実際の画素値と離れた値となっているので、 その画素の画素値を演算する にあたり設定した近似関数が、 現実世界の光信号の光の強度分布と十分に近似し ていないとみなし、 今処理した画素の領域は、 後段において定常性情報に基づい た近似関数による処理を行わない非処理領域として認識する。 より詳細には、 比 較部 8 0 4は、 図示せぬメモリに今処理した画素の領域が、 以降の非処理領域で あることを記憶させる。
ステップ S 8 0 9において、 比較部 8 0 4は、 全ての画素で処理が実行された か否かを判定し、 全ての画素で処理が実行されていないと判定された場合、 その 処理は、 ステップ S 8 0 2に戻り、 それ以降の処理が繰り返される。 すなわち、 全ての画素について、 積分による画素値と、 入力された画素値との比較がなされ、 処理領域であるか否かの判定処理が完了するまで、 ステップ S 8 0 2乃至 S 8 0 9の処理が繰り返される。
ステップ S 8 0 9において、 全ての画素について、 再積分による画素値と、 入 力された画素値との比較がなされ、 処理領域であるか否かの判定処理が完了した と判定された場合、 ステップ S 8 1 0において、 比較部 8 0 4は、 図示せぬメモ リに記憶されている、 入力画像について、 後段の処理において空間方向の定常性 情報に基づいた処理がなされる処理領域と、 空間方向の定常性情報に基づいた処 理がなされない非処理領域が識別された領域情報を、 定常性情報として出力する。 以上の処理によれば、 定常性情報に基づいて演算された近似関数 f (x)を用い て各画素に対応する範囲の積分結果により得られた画素値と、 実際の入力画像中 の画素値との誤差に基づいて、 近似関数の表現の確からしさの評価が領域毎 (画 素毎に) にされることになり、 誤差の小さい領域、 すなわち、 近似関数に基づい た積分により得られる画素値が確からしい画素の存在する領域のみを処理領域と し、 それ以外の領域を非処理領域とすることになるので、 確からしい領域にのみ 空間方向の定常性情報に基づいた処理を施すことができ、 必要な処理だけを実行 させるようにすることができるため、 処理速度を向上させることができると共に、 確からしい領域にのみ処理を実行させることができるので、 この処理による画質 劣化を抑制することが可能となる。
次に、 図 1 6 9を参照して、 データ定常性情報としてデータ定常性情報を用い た処理を行う画素の存在する領域情報を出力する、 データ定常性情報検出部 1 0 1のその他の実施例について説明する。
動き検出部 8 2 1は、 入力された画像のうち、 定常性を有する領域、 すなわち、 画像上においてフレーム方向に定常性を有する動き (動きべク トルの方向: V f ) を検出し、 検出した動きを実世界推定部 8 2 2に出力する。 尚、 この動き検 出部 8 2 1は、 図 3におけるデータ定常性検出部 1 0 1と同様のものである。 実世界推定部 8 2 2は.、 動き検出部 8 2 1より入力されたデータ定常性の動き と、 入力画像の情報に基づいて実世界を推定する。 すなわち、 実世界推定部 8 2 2は、 入力された動きと、 入力画像の各画素からフレーム方向 (時間方向) の実 世界の光信号の強度分布を近似的に記述する近似関数の係数を求めて、 求めた係 数を実世界の推定結果として誤差演算部 8 2 3に出力する。 尚、 この実世界推定 部 8 2 2は、 図 3における実世界推定部 1 0 2と同様のものである。
誤差演算部 8 2 3は、 実世界推定部 8 2 2より入力された係数に基づいて、 近 似的に記述されたフレーム方向の現実世界の光の強度分布を示す近似関数を構成 し、 さらに、 この近似関数からフレーム毎に各画素位置に相当する光の強度を積 分して、 近似関数により推定された光の強度分布から各画素の画素値を生成し、 実際に入力された画素値との差分を誤差として比較部 8 2 4に出力する。
比較部 8 2 4は、 各画素について誤差演算部 8 2 3より入力された誤差と、 予 め設定された閾値とを比較することにより、 定常性情報を用いた処理を施す画素 の存在する処理領域と、 非処理領域とを識別して、 この定常性情報を用いた処理 PC蘭 004麵 488
189 をする処理領域と非処理領域の識別がなされた領域情報を定常性情報として出力 する。
次に、 図 1 w 70のフローチャートを参照して、 図 169のデータ定常性検出部
t
101による、 定常性の検出の処理について説明する。
ステップ S 821において、 動き検出部 801は、 入力された画像を取得し、 ステップ S 822において、 定常性を示す動きを検出する。 より詳細には、 動き 検出部 801は、 例えば、 入力画像中で動く物体の動き (動きべク トルの方向: Vf) を検出して、 実世界推定部 822に出力する。
ステップ S 823において、 実世界推定部 822は、 動き検出部 821より入 力される動きの情報と、 入力画像の情報に基づいて、 現実世界を表現するフレー ム方向の関数 F(t)を近似的に記述する、 多項式からなる関数 f(t)の係数を求め て、 誤差演算部 823に出力する。 すなわち、 現実世界を表現する関数 f(t)は、 以下の式 (89) のような 1次元多項式で示される。
•n一 1
f (t) -Wotn+W t'' +---+Wn_it+Wi n一 I
• · · (89) ここで、 w iは、 多項式の係数であり、 実世界推定部 822は、 この係数 w i を求めて、 誤差演算部 823に出力する。 さらに、 動き検出部 821より入力さ れる動きにより、 定常性の動きを求めることができる (Vf =tan— L ^ V, Vf : 動きべク トルのフレーム方向の傾き, Θ V :動きべク トルのフレーム方向の角 度) ので、 この傾きの拘束条件を代入することにより、 上述の式 (89) の式は、 以下の式 (90) で示されるように、 2次元多項式で記述することができる。 f (t, y) =w0(t-ofy)n+w1(t-ay)n" +
+wn—】 (t-Qfy)+wn
= ∑ Wi(t— y)n— i
i=0
• · · (90) すなわち、 上述の式 (90) は、 式 (8 9) で記述される 1次元の近似関数 f(t)が、 空間方向 Yに平行移動することにより生じるずれ幅を、 シフト量 a t
(=- d y/Vf : d yは、 空間方向 Yへの変化量) で表現することにより得ら れる 2次元の関数 f(t,y)を記述している。
したがって、 実世界推定部 822は、 入力画像と、 定常性の動きの情報を用い て、 上述の式 (90) の各係数 w iを解いて、 求められた係数 w iを誤差演算部 823に出力する。
ここで、 図 1 70のフローチャートの説明に戻る。
ステップ S 8 24において、 誤差演算部 823は、 実世界推定部 8 22より入 力された係数から、 各画素についてフレーム方向に積分を実行する。 すなわち、 誤差演算部 8 2 3は、 実世界推定部 8 22より入力された係数から、 上述の式 (90) を、 以下の式 (9 1) で示されるように、 各画素について積分する。
St =一一 Γ Jt f(t,y)dtdy x
Figure imgf000193_0001
n 广 ¾+Β rtm+A
dtdy i¾ 1 (n-i+2) (n-i+1)
x L { (tm+A- a (ym+B) )ni+2-(tm-Qf (ym+B) )n_i+2}
一 { ( tm+A- ym)nl+2-(tm-ofym) )]
• · · (9 1) ここで、 St は、 図 1 7 1で示されるフレーム方向の積分結果を示す。 また、 その積分範囲は、 図 1 7 1で示すように、 フレーム方向 Tについては、 Tm乃至 Tra + Bであり、 空間方向 Yについては、 yra乃至 yra + Aである。 また、 図 1 7 1 においては、 各マス目 (正方形) は、 1画素を示すものとし、 フレーム方向 T、 および、 空間方向 Υのいずれも 1であるものとする。 ここで、 フレーム方向丁に ついて 1であるとは、 1フレーム分のシャッタ時間を 1とすることである。
従って、 誤差演算部 823は、 図 1 72で示されるように、 近似関数 f(t, y) で示される曲面の空間方向 Tについて Tra乃至 Tm + 1、 および、 空間方向 Yにつ いて ym乃至 ym + 1 (A = B= 1) で、 以下の式 (9 2) で示されるような積分 演算を各画素について実行し、 実世界を近似的に表現する関数から得られる各画 素の画素ィ直 Pt を演算する。
一一
Figure imgf000194_0001
Wj x
(n-i+2) (n- n-i+2- x[((tm+1-iv(yni+1))n"i+2-(tm m-a "i (りy, m
n-i+2
— {(tm+1— ofym)n1+2—(tm— afyj Π
• · · (9 2) すなわち、 この処理により、 誤差演算部 823は、 言わば一種の画素値生成部 として機能し、 近似関数から画素値を生成する。
ステップ S 8 25において、 誤差演算部 803は、 上述の式 (9 2) で示した ような積分により得られた画素値と、 入力画像の画素値との差分を演算し、 これ を誤差として比較部 8 24に出力する。 すなわち、 誤差演算部 823は、 上述の 図 1 7 1, 図 1 72で示した積分範囲 (空間方向 Tについて Tm乃至 Tm + 1、 お よび、 空間方向 Yについて ym乃至 yra + 1) に対応する画素の画素値と、 画素に 対応する範囲の積分結果により得られた画素値との差分を、 誤差として求めて比 較部 8 24に出力する。
ステップ S 8 26において、 比較部 824は、 誤差演算部 8 23より入力され た積分により得られた画素値と入力画像の画素値との誤差の絶対値が、 所定の閾 値以下であるか否かを判定する。
ステップ S 8 26において、 誤差が所定の閾値以下であると判定された場合、 ステップ S 82 7において、 比較部 824は、 積分により得られた画素値が、 入 力画像の画素値と近い値が得られているので、 その画素の画素値を演算するにあ たり設定した近似関数が、 実世界の光信号の光の強度分布と十分に近似されてい るとみなし、 今処理した画素の領域は、 処理領域として認識する。 より詳細には、 比較部 8 2 4は、 図示せぬメモリに今処理した画素が、 以降の処理領域の画素で あることを記憶させる。
一方、 ステップ S 8 2 6において、 誤差が所定の閾値以下ではないと判定され た場合、 ステップ S 8 2 8において、 比較部 8 2 4は、 積分により得られた画素 値が、 実際の画素値と離れた値となっているので、 その画素の画素値を演算する にあたり設定した近似関数が、 現実世界の光の強度分布と十分に近似していない とみなし、 今処理した画素の領域は、 後段において定常性情報に基づいた近似関 数による処理を行わない非処理領域として認識する。 より詳細には、 比較部 8 2 4は、 図示せぬメモリに今処理した画素の領域が、 以降の非処理領域であること を記憶させる。
ステップ S 8 2 9において、 比較部 8 2 4は、 全ての画素で処理が実行された か否かを判定し、 全ての画素で処理が実行されていないと判定された場合、 その 処理は、 ステップ S 8 2 2に戻り、 それ以降の処理が繰り返される。 すなわち、 全ての画素について、 積分による画素値と、 入力された画素値との比較がなされ、 処理領域であるか否かの判定処理が完了するまで、 ステップ S 8 2 2乃至 S 8 2 9の処理が繰り返される。
ステップ S 8 2 9において、 全ての画素について、 再積分による画素値と、 入 力された画素値との比較がなされ、 処理領域であるか否かの判定処理が完了した と判定された場合、 ステップ S 8 3 0において、 比較部 8 2 4は、 図示せぬメモ リに記憶されている、 入力画像について、 後段の処理においてフレーム方向の定 常性情報に基づいた処理がなされる処理領域と、 フレーム方向の定常性情報に基 づいた処理がなされない非処理領域が識別された領域情報を、 定常性情報として 出力する。
以上の処理によれば、 定常性情報に基づいて演算された近似関数 f (t)を用い た各画素に対応する範囲の積分結果により得られた画素値と、 実際の入力画像中 の画素値との誤差に基づいて、 近似関数の表現の確からしさの評価が領域毎 (画 素毎に) にされることになり、 誤差の小さい領域、 すなわち、 近似関数に基づい て積分により得られる画素値が確からしい画素の存在する領域のみを処理領域と し、 それ以外の領域を非処理領域とすることになるので、 確からしい領域にのみ フレーム方向の定常性情報に基づいた処理を施すことができ、 必要な処理だけを 実行させるようにすることができるため、 処理速度を向上させることができると 共に、 確からしい領域にのみ処理を実行させることができるので、 この処理によ る画質劣化を抑制することが可能となる。
図 1 6 5およぴ図 1 6 9のデータ定常性情報検出部 1 0 1の構成を組み合わせ て、 時空間方向のうち、 いずれか 1次元を選択して、 選択的に領域情報を出力さ せるようにしてもよい。
以上によれば、 それぞれ時空間積分効果を有する、 センサの複数の検出素子に より現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した、 検出素子により射影された画素値を有する複数の画素からなる画像データにおけ るデータの定常性を検出し、 検出した定常性に対応して、 画像データの時空間方 向のうち少なくとも 1次元方向の位置に対応する各画素の画素値が少なくとも 1 次元方向の積分効果により取得された画素値であるとして現実世界の光信号に対 応する関数を近似することにより、 現実世界の光信号に対応する関数を推定し、 推定した関数を少なくとも 1次元方向の各画素に対応する単位で積分することに より取得される画素値と、 各画素の画素値との差分値を検出し、 差分値に応じて 関数を選択的に出力するようにしたので、 近似関数に基づいて積分により得られ る画素値が確からしい画素の存在する領域のみを処理領域とし、 それ以外の領域 を非処理領域とすることが可能となり、 確からしい領域にのみフレーム方向の定 常性情報に基づいた処理を施すことができ、 必要な処理だけを実行させるように することができるため、 処理速度を向上させることができると共に、 確からしい 領域にのみ処理を実行させることができるので、 この処理による画質劣化を抑制 することが可能となる。
次に、 実世界 1の信号の推定について説明する。 8
195
図 1 7 3は、 実世界推定部 1 0 2の構成を示すプロック図である。
図 1 7 3に構成を示す実世界推定部 1 0 2においては、 入力画像、 および定常 性検出部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号である 画像における、 細線の幅が検出され、 細線のレベル (実世界 1の信号の光の強 度) が推定される。
線幅検出部 2 1 0 1は、 定常性検出部 1 0 1から供給された、 細線の画像が射 影された画素からなる、 細線領域である定常領域を示すデータ定常性情報を基に、 細線の幅を検出する。 線幅検出部 2 1 0 1は、 データ定常性情報と共に、 検出さ れた細線の幅を示す細線幅情報を信号レベル推定部 2 1 0 2に供給する。
信号レベル推定部 2 1 0 2は、 入力画像、 線幅検出部 2 1 0 1から供給された 細線の幅を示す細線幅情報、 およびデータ定常性情報を基に、 実世界 1の信号で ある、 細線の画像のレベル、 すなわち光の強度のレベルを推定し、 細線の幅およ び細線の画像のレベルを示す実世界推定情報を出力する。
図 1 7 4およぴ図 1 7 5は、 実世界 1の信号における、 細線の幅を検出する処 理を説明する図である。
図 1 7 4およぴ図 1 7 5において、 太線で囲む領域 (,つの四角からなる領 域) は、 1つの画素を示し、 点線で囲む領域は、 細線の画像が射影された画素か らなる、 細線領域を示し、 丸は、 細線領域の重心を示す。 図 1 7 4および図 1 7 5において、 斜線は、 センサ 2に入射された細線の画像を示す。 斜線は、 センサ 2に、 実世界 1の細線の画像が射影された領域を示しているとも言える。
図 1 7 4および図 1 7 5において、 Sは、 細線領域の重心の位置から算出され る傾きを示し、 Dは、 細線領域の重複である。 ここで、 傾き Sは、 細線領域が隣 接しているので、 画素を単位とした、 重心と重心との距離である。 また、 細線領 域の重複 Dとは、 2つの細線領域において、 隣接している画素の数である。
図 1 7 4および図 1 7 5において、 Wは、 細線の幅を示す。
図 1 7 4において、 傾き Sは、 2であり、 重複 Dは、 2である。
図 1 7 5において、 傾き Sは、 3であり、 重複 Dは、 1である。 細線領域が隣接し、 細線領域が隣接する方向の重心と重心の距離は、 1画素で あるので、 W : D=1 : Sが成立し、 細線の幅 Wは、 重複 D/傾き Sで求めることがで きる。
例えば、 図 1 7 4で示されるように、 傾き Sは、 2であり、 重複 Dは、 2で あるとき、 2/2は、 1であるから、 細線の幅 Wは、 1である。 また、 例えば、 図 1 7 5で示されるように、 傾き Sは、 3であり、 重複 Dは、 1であるとき、 細 線の幅 Wは、 1/3である。
線幅検出部 2 1 0 1は、 このように、 細線領域の重心の位置から算出される傾 き、 および細線領域の重複から、 細線の幅を検出する。
図1 7 6は、 実世界 1の信号における、 細線の信号のレベルを推定する処理を 説明する図である。
図 1 7 6において、 太線で囲む領域 (4つの四角からなる領域) は、 1つの画 素を示し、 点線で囲む領域は、 細線の画像が射影された画素からなる、 細線領域 を示す。 図 1 7 6において、 Eは、 細線領域の画素を単位とした、 細線領域の長 さを示し、 Dは、 細線領域の重複 (他の細線領域に隣接している画素の数) であ る。
細線の信号のレベルは、 処理単位 (細線領域) 内で一定であると近似し、 細線 が射影された画素の画素値に射影された、 細線以外の画像のレベルは、 隣接して いる画素の画素値に対するレベルに等しいと近似する。
細線の信号のレベルを Cとしたとき、 細線領域に射影された信号 (画像) に おける、 図中の、 細線の信号が射影された部分の左側の部分のレベルを A とし、 図中の、 細線の信号が射影された部分の右側の部分のレベルを Bとする。
このとき、 式 (9 3 ) が成立する。
細線領域の画素値の総和 = (E-D) /2*A+ (E-D) /2*B+D*C · · · ( 9 3 ) 細線の幅が一定であり、 細線領域の幅は、 1画素なので、 細線領域の細線 (の 信号が射影された部分) の面積は、 細線領域の重複 Dに等しい。 細線領域の幅 は、 1画素なので、 細線領域の画素を単位とした、 細線領域の面積は、 細線領域 の長さ Eに等しい。
細線領域のうち、 細線の左側の面積は、 (E- D)/2である。 細線領域のうち、 細 線の右側の面積は、 (E- D)/2である。
式 (9 3) の右辺の第 1項は、 左側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が射影された画素値の部分.であり、 式 (9 4) で表すこ とができる。
Figure imgf000199_0001
• · · (9 4) 式 (9 4) において、 Ai は、 左側に隣接している画素の画素値を示す。
式 (9 4) において、 は、 左側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が、 細線領域の画素に射影される面積の割合を示す。 す なわち、 ひ i は、 細線領域の画素の画素値に含まれている、 左側に隣接している 画素の画素値と同じ画素値の割合を示す。
iは、 細線領域の左側に隣接している画素の位置を示す。
例えば、 図 1 7 6において、 細線領域の画素の画素値に含まれている、 細線領 域の左側に隣接している画素の画素値 A。 と同じ画素値の割合は、 α。である。 図 1 7 6において、 細線領域の画素の画素値に含まれている、 細線領域の左側に 隣接している画素の画素値 At と同じ画素値の割合は、 αιである。 図 1 7 6に おいて、 細線領域の画素の画素値に含まれている、 細線領域の左側に隣接してい る画素の画素値 Α2 と同じ画素値の割合は、 ひ 2である。
式 (9 3) の右辺の第 2項は、 右側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が射影された画素値の部分であり、 式 (9 5) で表すこ とができる。
Figure imgf000199_0002
- - - (9 5) 式 (9 5) において、 Β」は、 右側に瞵接している画素の画素値を示す。
式 (9 5) において、 j は、 右側に隣接している画素に射影された信号のレ η^ιτη^
PCT/JP2004/001488
198
ベルと同じレベルの信号が、 細線領域の画素に射影される面積の割合を示す。 す なわち、 jS j は、 細線領域の画素の画素値に含まれている、 右側に隣接している 画素の画素値と同じ画素値の割合を示す。
jは、 細線領域の右側に隣接している画素の位置を示す。
例えば、 図 1 7 6において、 細線領域の画素の画素値に含まれている、 細線領 域の右側に隣接している画素の画素値 B。 と同じ画素値の割合は、 。である。 図 1 7 6において、 細線領域の画素の画素値に含まれている、 細線領域の右側に 隣接している画素の画素値 と同じ画素値の割合は、 0 iである。 図 1 7 6に おいて、 細線領域の画素の画素値に含まれている、 細線領域の右側に隣接してい る画素の画素値 B2 と同じ画素値の割合は、 02である。
このように、 信号レべノレ推定部 2 1 0 2は、 式 (9 4 ) およぴ式 (9 5 ) を基 に、 細線領域に含まれる画素値のうちの、 細線以外の画像の画素値を算出し、 式 ( 9 3 ) を基に、 細線領域の画素値から細線以外の画像の画素値を除去すること により、 細線領域に含まれる画素値のうちの、 細線のみの画像の画素値を求める。 そして、 信号レベル推定部 2 1 0 2は、 細線のみの画像の画素値と細線の面積と から、 細線の信号のレベルを求める。 より具体的には、 信号レベル推定部 2 1 0 2は、 細線領域に含まれる画素値のうちの、 細線のみの画像の画素値を、 細線領 域の細線の面積、 すなわち細線領域の重複 Dで割り算することにより、 細線の 信号のレベルを算出する。
信号レベル推定部 2 1 0 2は、 実世界 1の信号における、 細線の幅、 および細 線の信号のレベルを示す実世界推定情報を出力する。
本発明の手法では、 細線の波形を画素ではなく幾何学的に記述しているので、 どのような解像度でも使用することができる。
次に、 ステップ S 1 0 2の処理に対応する、 実世界の推定の処理を図 1 7 7の フローチャートを参照して説明する。
ステップ S 2 1 0 1において、 線幅検出部 2 1 0 1は、 データ定常性情報を基 に、 細線の幅を検出する。 例えば、 線幅検出部 2 1 0 1は、 細線領域の重心の位 置から算出される傾き、 および細線領域の重複から、 重複を傾きで割り算するこ とにより、 実世界 1の信号における、 細線の幅を推定する。
ステップ S 2 1 0 2において、 信号レベル推定部 2 1 0 2は、 細線の幅、 およ び細線領域に隣接する画素の画素値を基に、 細線の信号のレベルを推定し、 推定 された細線の幅および細線の信号のレベルを示す実世界推定情報を出力して、 処 理は終了する。 例えば、 信号レベル推定部 2 1 0 2は、 細線領域に含まれる細線 以外の画像が射影された画素値を算出し、 細線領域から細線以外の画像が射影さ れた画素値を除去することにより、 細線のみの画像が射影された画素値を求めて、 求められた細線のみの画像が射影された画素値と細線の面積とから、 細線の信号 のレベルを算出することにより、 実世界 1の信号における、 細線のレベルを推定 する。
このように、 実世界推定部 1 0 2は、 実世界 1の信号の細線の幅おょぴレベル を推定することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した第 1の画像データの、 データの定常性を検出し、 データの定常性に 対応する現実世界の光信号の波形を表すモデルに基いて、 第 1の画像データの定 常性から現実世界の光信号の波形を推定し、 推定された光信号を第 2の画像デー タに変換するようにした場合、 現実世界の光信号に対して、 より正確で、 より精 度の高い処理結果を得ることができるようになる。
図 1 7 8は、 実世界推定部 1 0 2の他の構成を示すブロック図である。
図 1 7 8に構成を示す実世界推定部 1 0 2においては、 入力画像、 およびデー タ定常性検出部 1 0 1から供給されたデータ定常性情報を基に、 領域が再度検出 され、 再度検出された領域を基に、 実世界 1の信号である画像における、 細線の 幅が検出され、 実世界 1の信号の光の強度 (レベル) が推定される。 例えば、 図 1 7 8に構成を示す実世界推定部 1 0 2においては、 細線の画像が射影された画 素からなる定常性領域が再度検出され、 再度検出された領域を基に、 実世界 1の 信号である画像における、 細線の幅が検出され、 実世界 1の信号の光の強度が推 定される。
データ定常性検出部 1 0 1から供給され、 図 1 7 8に構成を示す実世界推定部 1 0 2に入力されるデータ定常性情報には、 データ 3である入力画像のうちの、 細線の画像が射影された定常成分以外の非定常成分を示す非定常成分情報、 定常 領域の中の単調増減領域を示す単調増減領域情報、 および定常領域を示す情報な どが含まれている。 例えば、 データ定常性情報に含まれる非定常成分情報は、 入 力画像における背景などの非定常成分を近似する平面の傾きおよび切片からなる。 実世界推定部 1 0 2に入力されたデータ定常性情報は、 境界検出部 2 1 2 1に 供給される。 実世界推定部 1 0 2に入力された入力画像は、 境界検出部 2 1 2 1 および信号レベル推定部 2 1 0 2に供給される。
境界検出部 2 1 2 1は、 データ定常性情報に含まれる非定常成分情報、 および 入力画像から、 細線の画像が射影された定常成分のみからなる画像を生成し、 定 常成分のみからなる画像を基に、 画素に射影された、 実世界 1の信号である細線 の画像が射影された割合を示す分配比を算出し、 算出された分配比から細線領域 の境界を示す回帰直線を算出することにより、 定常領域である細線領域を再ぴ検 出する。
図 1 7 9は、 境界検出部 2 1 2 1の構成を示すプロック図である。
分配比算出部 2 1 3 1は、 データ定常性情報、 データ定常性情報に含まれる非 定常成分情報、 および入力画像から、 細線の画像が射影された定常成分のみから なる画像を生成する。 より具体的には、 分配比算出部 2 1 3 1は、 データ定常性 情報に含まれる単調増減領域情報を基に、 入力画像から、 定常領域の中の隣り合 う単調増減領域を検出し、 検出された単調増減領域に属する画素の画素値から、 定常成分情報に含まれる傾きおよび切片で示される平面で近似される近似値を引 き算することにより、 細線の画像が射影された定常成分のみからなる画像を生成 する。
なお、 分配比算出部 2 1 3 1は、 入力画像の画素の画素値から、 定常成分情報 に含まれる傾きおよび切片で示される平面で近似される近似値を引き算すること により、 細線の画像が射影された定常成分のみからなる画像を生成するようにし てもよい。
分配比算出部 2 1 3 1は、 生成された定常成分のみからなる画像を基に、 実世 界 1の信号である細線の画像が、 定常領域の中の隣り合う単調増減領域に属する 2つの画素に分配された割合を示す分配比を算出する。 分配比算出部 2 1 3 1は、 算出した分配比を回帰直線算出部 2 1 3 2に供給する。
図 1 8 0乃至図 1 8 2を参照して、 分配比算出部 2 1 3 1における、 分配比の 算出の処理を説明する。
図 1 8 0の左側の 2列の数値は、 入力画像の画素値から、 定常成分情報に含ま れる傾きおよび切片で示される平面で近似される近似値を引き算することにより、 算出された画像のうち、 縦に 2列の画素の画素値を示す。 図 1 8 0の左側の四角 で囲む 2つの領域は、 隣り合う 2つの単調増減領域である、 単調増減領域 2 1 4 1一 1および単調増減領域 2 1 4 1— 2を示す。 すなわち、 単調増減領域 2 1 4 1 - 1および単調増減領域 2 1 4 1 - 2に示す数値は、 データ定常性検出部 1 0 1において検出された定常性領域である単調増減領域に属する画素の画素値を示 す。
図 1 8 0の右側の 1列の数値は、 図 1 8 0の左側の 2列の画素の画素値のうち、 横に並ぶ画素の画素値を加算した値を示す。 すなわち、 図 1 8 0の右側の 1列の 数値は、 縦に 1列の画素からなる単調増減領域であって、 2つの隣接するものに ついて、 横に隣接する画素毎に、 細線の画像が射影された画素値を加算した値を 示す。
例えば、 それぞれ、 縦に 1列の画素からなり、 隣接する単調増減領域 2 1 4 1 一 1および単調増減領域 2 1 4 1一 2のいずれかに属し、 横に隣接する画素の画 素値が、 2および 5 8であるとき、 加算した値は、 6 0である。 それぞれ、 縦に 1列の画素からなり、 隣接する単調増減領域 2 1 4 1— 1および単調增減領域 2 1 4 1一 2のいずれかに属し、 横に隣接する画素の画素値が、 1および 6 5であ るとき、 加算した値は、 6 6である。 図 1 8 0の右側の 1列の数値、 すなわち、 縦に 1列の画素からなり、 2つの隣 接する単調増減領域の横方向に隣接する画素について、 細線の画像が射影された 画素値を加算した値は、 ほぼ一定となることがわかる。
同様に、 横に 1列の画素からなり、 2つの隣接する単調増減領域の縦方向に隣 接する画素について、 細線の画像が射影された画素値を加算した値は、 ほぼ一定 となる。
分配比算出部 2 1 3 1は、 2つの隣接する単調増減領域の隣接する画素につい て、 細線の画像が射影された画素値を加算した値が、 ほぼ一定となる性質を利用 して、 細線の画像が 1列の画素の画素値にどのように分配されているかを算出す る。
分配比算出部 2 1 3 1は、 図 1 8 1に示すように、 縦に 1列の画素からなる単 調増減領域であって、 2つの隣接するものに属する画素の画素値を、 横に隣接す る画素毎に、 細線の画像が射影された画素値を加算した値で割り算することによ り、 2つの隣接する単調増減領域に属する各画素について、 分配比を算出する。 ただし、 算出された結果、 1 0 0を超える分配比には、 1 0 0が設定される。 例えば、 図 1 8 1に示すように、 縦に 1列の画素からなる単調増減領域であつ て、 2つの隣接するものに属する、 横に隣接する画素の画素値が、 それぞれ 2お よび 5 8であるとき、 加算した値が 6 0なので、 それぞれの画素に対して、 3 . 5および 9 6 . 5である分配比が算出される。 縦に 1列の画素からなる単調増減 領域であって、 2つの隣接するものに属する、 横に隣接する画素の画素値が、 そ れぞれ 1および 6 5であるとき、 加算した値が 6 5なので、 それぞれの画素に対 して、 1 . 5および 9 8 . 5である分配比が算出される。
この場合において、 3つの単調増減領域が隣接する場合、 どちらの列から計算 するかは、 図 1 8 2で示されるように、 横に隣接する画素毎に、 細線の画像が射 影された画素値を加算した、 2つの値のうち、 頂点 Pの画素値により近い値を基 に、 分配比が算出される。
例えば、 頂点 Pの画素値が 8 1であり、 注目している単調増減領域に属する画 素の画素値が 7 9であるとき、 左側に隣接する画素の画素値が 3であり、 右側に 隣接する画素の画素値が一 1である場合、 左側に隣接する画素の画素値を加算し た値が、 8 2であり、 右側に隣接する画素の画素値を加算した値が、 7 8なので、 頂点 Pの画素値 8 1により近い、 8 2が選択され、 左側に隣接する画素を基に、 分配比が算出される。 同様に、 頂点 Pの画素値が 8 1であり、 注目している単調 増減領域に属する画素の画素値が 7 5であるとき、 左側に隣接する画素の画素値 が 0であり、 右側に隣接する画素の画素値が 3である場合、 左側に隣接する画素 の画素値を加算した値が、 7 5であり、 右側に隣接する画素の画素値を加算した 値が、 7 8なので、 頂点 Pの画素値 8 1により近い、 7 8が選択され、 右側に隣 接する画素を基に、 分配比が算出される。
このように、 分配比算出部 2 1 3 1は、 縦に 1列の画素からなる単調増減領域 について、 分配比を算出する。
分配比算出部 2 1 3 1は、 同様の処理で、 横に 1列の画素からなる単調増減領 域について、 分配比を算出する。
回帰直線算出部 2 1 3 2は、 単調増減領域の境界が直線であると仮定して、 分 配比算出部 2 1 3 1において算出された分配比を基に、 単調増減領域の境界を示 す回帰直線を算出することにより、 定常領域の中の単調増減領域を再び検出する。 図 1 8 3および図 1 8 4を参照して、 回帰直線算出部 2 1 3 2における、 単調 増減領域の境界を示す回帰直線の算出の処理を説明する。
図 1 8 3において、 白丸は、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1 - 5の上側の境界に位置する画素を示す。 回帰直線算出部 2 1 3 2は、 回帰 の処理により、 単調増減領域 2 1 4 1一 1乃至単調増減領域 2 1 4 1一 5の上側 の境界について回帰直線を算出する。 例えば、 回帰直線算出部 2 1 3 2は、 単調 増減領域 2 1 4 1 - 1乃至単調増減領域 2 1 4 1 - 5の上側の境界に位置する画 素との距離の自乗の和が最小となる直線 Aを算出する。
また、 図 1 8 3において、 黒丸は、 単調増減領域 2 1 4 1— 1乃至単調增減領 域 2 1 4 1— 5の下側の境界に位置する画素を示す。 回帰直線算出部 2 1 3 2は、 PC蘭 004/001488
204
回帰の処理により、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の 下側の境界について回帰直線を算出する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の下側の境界に位置す る画素との距離の自乗の和が最小となる直線 Bを算出する。
回帰直線算出部 2 1 3 2は、 算出された回帰直線を基に、 単調增減領域の境界 を決定することにより、 定常領域の中の単調増減領域を再び検出する。
図 1 8 4に示すように、 回帰直線算出部 2 1 3 2は、 算出された直線 Aを基に、 単調増減領域 2 1 4 1 - 1乃至単調増減領域 2 1 4 1 - 5の上側の境界を決定す る。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1— 1乃至単調増 減領域 2 1 4 1— 5のそれぞれについて、 算出された直線 Aに最も近い画素から 上側の境界を決定する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1 - 1乃至単調増減領域 2 1 4 1一 5のそれぞれについて、 算出された直線 A に最も近い画素が領域に含まれるように上側の境界を決定する。
図 1 8 4に示すように、 回帰直線算出部 2 1 3 2は、 算出された直線 Bを基に、 単調増減領域 2 1 4 1 - 1乃至単調増減領域 2 1 4 1一 5の下側の境界を決定す る。 例えば、 回帰直罈算出部 2 1 3 2は、 単調増減領域 2 1 4 1 - 1乃至単調增 減領域 2 1 4 1一 5のそれぞれについて、 算出された直線 Bに最も近い画素から 下側の境界を決定する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1一 1乃至単調増減領域 2 1 4 1一 5のそれぞれについて、 算出された直線 B に最も近い画素が領域に含まれるように上側の境界を決定する。
このように、 回帰直線算出部 2 1 3 2は、 データ定常性検出部 1 0 1により検 出された定常領域の境界を回帰する回帰線に基づいて、 頂点から単調に画素値が 増加または減少している領域を再び検出する。 すなわち、 回帰直線算出部 2 1 3 2は、 算出された回帰直線を基に、 単調増減領域の境界を決定することにより、 定常領域の中の単調増減領域である領域を再び検出し、 検出した領域を示す領域 情報を線幅検出部 2 1 0 1に供給する。
以上のように、 境界検出部 2 1 2 1は、 画素に射影された、 実世界 1の信号で ある細線の画像が射影された割合を示す分配比を算出し、 算出された分配比から 単調増減領域の境界を示す回帰直線を算出することにより、 定常領域の中の単調 増減領域を再び検出する。 このようにすることで、 より正確な単調增減領域を検 出することができる。
図 1 7 8に示す線幅検出部 2 1 0 1は、 境界検出部 2 1 2 1から供給された、 再度検出された領域を示す領域情報を基に、 図 1 7 3に示す場合と同様の処理で、 細線の幅を検出する。 線幅検出部 2 1 0 1は、 データ定常性情報と共に、 検出さ ' れた細線の幅を示す細線幅情報を信号レベル推定部 2 1 0 2に供給する。
図 1 7 8に示す信号レベル推定部 2 1 0 2の処理は、 図 1 7 3に示す場合と同 様の処理なので、 その説明は省略する。
図 1 8 5は、 ステップ S 1 0 2の処理に対応する、 図 1 7 8に構成を示す実世 界推定部 1 0 2による、 実世界の推定の処理を説明するフローチャートである。 ステップ S 2 1 2 1において、 境界検出部 2 1 2 1は、 データ定常性検出部 1 0 1により検出された定常領域に属する画素の画素値に基づいて、 再び領域を検 出する、 境界検出の処理を実行する。 境界検出の処理の詳細は、 後述する。
ステップ S 2 1 2 2およびステップ S 2 1 2 3の処理は、 ステップ S 2 1 0 1 およびステップ S 2 1 0 2の処理と同様なので、 その説明は省略する。
図 1 8 6は、 ステップ S 2 1 2 1の処理に対応する、 境界検出の処理を説明す るフローチヤ一トである。
ステップ S 2 1 3 1において、 分配比算出部 2 1 3 1は、 単調増減領域を示す データ定常性情報および入力画像を基に、 細線の画像が射影された割合を示す分 配比を算出する。 例えば、 分配比算出部 2 1 3 1は、 データ定常性情報に含まれ る単調増減領域情報を基に、 入力画像から、 定常領域の中の隣り合う単調增減領 域を検出し、 検出された単調増減領域に属する画素の画素値から、 定常成分情報 に含まれる傾きおよび切片で示される平面で近似される近似値を引き算すること により、 細線の画像が射影された定常成分のみからなる画像を生成する。 そして、 分配比算出部 2 1 3 1は、 1列の画素からなる単調増減領域であって、 2つの隣 接するものに属する画素の画素値を、 隣接する画素の画素値の和で割り算するこ とにより、 2つの隣接する単調増減領域に属する各画素について、 分配比を算出 する。
分配比算出部 2 1 3 1は、 算出された分配比を回帰直線算出部 2 1 3 2に供給 する。
ステップ S 2 1 3 2において、 回帰直線算出部 2 1 3 2は、 細線の画像が射影 された割合を示す分配比を基に、 単調増減領域の境界を示す回帰直線を算出する ことにより、 定常領域の中の領域を再び検出する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域の境界が直線であると仮定して、 単調増減領域の一端の境 界を示す回帰直線を算出し、 単調増減領域の他の一端の境界を示す回帰直線を算 出することにより、 定常領域の中の単調増減領域を再び検出する。
回帰直線算出部 2 1 3 2は、 再び検出された、 定常領域の中の領域を示す領域 情報を線幅検出部 2 1 0 1に供給して、 処理は終了する。
このように、 図 1 7 8に構成を示す実世界推定部 1 0 2は、 細線の画像が射影 された画素からなる領域を再度検出し、 再度検出された領域を基に、 実世界 1の 信号である画像における、 細線の幅を検出し、 実世界 1の信号の光の強度 (レべ ル) を推定する。 このようにすることで、 実世界 1の信号に対して、 より正確に、 細線の幅を検出し、 より正確に、 光の強度を推定することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した第 1の画像データにおける、 複数の画素の画素値の不連続部を検出 し、 検出された不連続部から、 データの定常性を有する定常領域を検出し、 検出 された定常領域に属する画素の画素値に基づいて、 再び領域を検出し、 再び検出 された領域に基づいて実世界を推定するようにした場合、 現実世界の事象に対し て、 より正確で、 より精度の高い処理結果を得ることができるようになる。
次に、 図 1 8 7を参照して、 定常性を有する領域における、 画素毎の空間方向 の近似関数の微分値を実世界推定情報として出力する実世界推定部 1 0 2につい て説明する。 参照画素抽出部 2 2 0 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の角度、 または、 領域の情報) に基づいて、 入力画像の各画 素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像の画素 の画素値を近似する近似関数を求めるために必要な参照画素の情報 (演算に必要 な注目画素周辺の複数の画素の位置、 および、 画素値) を抽出して、 近似関数推 定部 2 2 0 2に出力する。
近似関数推定部 2 2 0 2は、 参照画素抽出部 2 2 0 1より入力された参照画素 の情報に基づいて注目画素周辺の画素の画素値を近似的に記述する近似関数を最 小自乗法に基づいて推定し、 推定した近似関数を微分処理部 2 2 0 3に出力する。 微分処理部 2 2 0 3は、 近似関数推定部 2 2 0 2より入力された近似関数に基 づいて、 データ定常性情報の角度 (例えば、 細線や 2値エッジの所定の軸に対す る角度:傾き) に応じて、 注目画素から生成しょうとする画素の位置のシフト量 を求め、 そのシフト量に応じた近似関数上の位置における微分値 (定常性に対応 する線からの 1次元方向に沿った距離に対応する各画素の画素値を近似する関数 の微分値) を演算し、 さらに、 注目画素の位置、 画素値、 および、 定常性の傾き の情報を付加して、 これを実世界推定情報として画像生成部 1 0 3に出力する。 次に、 図 1 8 8のフローチヤ一トを参照して、 図 1 8 7の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 0 1において、 参照画素抽出部 2 2 0 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての角度、 および、 領域の 情報を取得する。
ステップ S 2 2 0 2において、 参照画素抽出部 2 2 0 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 0 3において、 参照画像抽出部 2 2 0 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 1 0に進 み、 その注目画素については、 処理領域外であることを近似関数推定部 2 2 0 2 を介して、 微分処理部 2 2 0 3に伝え、 これに応じて、 微分処理部2 2 0 3力 対応する注目画素についての微分値を 0として、 さらに、 その注目画素の画素値 を付加して実世界推定情報として画像生成部 1 0 3に出力すると共に、 その処理 は、 ステップ S 2 2 1 1に進む。 また、 注目画素が処理領域のものであると判定 された場合、 その処理は、 ステップ S 2 2 04に進む。
ステップ S 2 2 0 4において、 参照画素抽出部 2 2 0 1は、 データ定常性情報 に含まれる角度の情報から、 データ定常性の有する方向が、 水平方向に近い角度 力 \ または、 垂直に近い角度であるか否かを判定する。 すなわち、 参照画素抽出 部 2 2 0 1は、 データ定常性の有する角度 Sが、 0度≤ 0 <45度、 または、 135 度 0く 180度となる場合、 注目画素の定常性の方向は、 水平方向に近いと判定 し、 データ定常性の有する角度 0が、 45度≤ 0く 135度となる場合、 注目画素 の定常性の方向は、 垂直方向に近いと判定する。
ステップ S 2 2 0 5において、 参照画素抽出部 2 2 0 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 近 似関数推定部 2 2 0 2に出力する。 すなわち、 参照画素は、 後述する近似関数を 演算する際に使用されるデータとなるので、 傾きに応じて抽出されることが望ま しい。 従って、 水平方向、 または、 垂直方向のいずれかの判定方向に対応して、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例えば、 図 1 8 9で示されるように、 傾き Gf が垂直方向に近いと、 垂直方向であると判定され る。 この場合、 参照画素抽出部 2 20 1は、 例えば、 図 1 8 9で示されるように、 図 1 8 9中の中央の画素 (0, 0) を注目画素とするとき、 画素 (一 1, 2) , (- 1 , 1) , (一 1, 0) , (一 1, 一 1) , (一 1, - 2) , (0 , 2) , (0, 1) , (0, 0) , (0, — 1 ) , (0, - 2) , (1, 2) , (1, 1) , (1, 0) , (1, - 1) , ( 1 , 一 2) のそれぞれの画素値を抽出する c 尚、 図 1 8 9においては、 各画素の水平方向、 および、 垂直方向の大きさが 1で あるものとする。
すなわち、 参照画素抽出部 22 0 1は、 注目画素を中心として垂直 (上下) 方 向にそれぞれ 2画素 X水平 (左右) 方向にそれぞれ 1画素の合計 1 5画素となる ように、 垂直方向に長い範囲の画素を参照画素として抽出する。
逆に、 水平方向であると判定された場合、 注目画素を中心として垂直 (上下) 方向にそれぞれ 1画素 X水平 (左右) 方向にそれぞれ 2画素の合計 1 5画素とな るように、 水平方向に長い範囲の画素を参照画素として抽出して、 近似関数推定 部 2202に出力する。 もちろん、 参照画素は、 上述のように 1 5画素に限定さ れるものではなく、 それ以外の個数であってもよい。
ステップ S 2 206において、 近似関数推定部 2202は、 参照画素抽出部 2 201より入力された参照画素の情報に基づいて、 最小自乗法により近似関数 f(x)を推定し、 微分処理部 2 203に出力する。
すなわち、 近似関数 f(x)は、 以下の式 (96) で示されるような多項式であ る。 f(x) =w1xn + w2xn_1 + -- -+wn+1
• · · (96) このように、 式 (96) の多項式の各係数 乃至 Wn + 1が求められれば、 各 参照画素の画素値 (参照画素値) を近似する近似関数 f(x)が求められることに なる。 しかしながら、 係数の数よりも多くの参照画素値が必要となるので、 例え ば、 参照画素が、 図 1 8 9で示されるような場合、 合計 1 5画素であるので、 多 項式の係数は、 1 5個までしか求められない。 そこで、 この場合、 多項式は、 1 4次までの多項式とし、 係数 乃至 W15 を求めることにより近似関数を推定す るものとする。 尚、 今の場合、 1 5次の多項式からなる近似関数 f(x)を設定し て、 連立方程式としてもよい。
従って、 図 1 89で示される 1 5個の参照画素値を用いるとき、 近似関数推定 部 2202は、 以下の式 (9 7) を、 最小自乗法を用いて解くことにより推定す る。
P (一 1, 一 2) =f (- 1 -Cx (一 2) ) P 一 1) =f (- 1-Cx (— 1) )
P 0) =f (一 1) (=f (- 1 -Cx (0) ) )
P 1) =f (一 1一 Cx (1) )
P 一 1 2) =f (- 1 -Cx (2) )
P 0 - 2) =f (0 -Cx (一 2) )
P 0 - 1 ) =f (O-Cx (一 1) )
P 0 0) =f (0) ( = f (0 -Cx (0) ) )
P 0 1 ) =f (0 -Cx ( 1 ) )
P 0 2) =f (0 -Cx (2) )
PP ( - 2) =f (1 -Cx (一 2) )
P 一 1) =ΐ (1 -Cx (一 1) )
P 0) =f (1) (=f (1 -Cx (0) ) )
P 1) =f (1 -Cx (1) )
P 2) =f ( 1 -Cx (2) )
• · · (9 7) 尚、 多項式の次数にあわせて、 参照画素の数を変えるようにしてもよい。 ここで、 Cx(ty)は、 シフト量であり、 定常性の傾きが Gf で示されるとき、
Figure imgf000212_0001
の位 置上で定義される近似関数 f(x)が、 傾き Gf に沿って、 連続している (定常性 を有している) ことを前提としたとき、 空間方向 Y=tyの位置における、 空間方 向 Xに対するずれ幅を示すものである。 従って、 例えば、 空間方向 Y = 0の位置 上で近似関数が f(x)として定義されている場合、 この近似関数 f(x)は、 空間方 向 Y=tyにおいては、 傾き Gf に沿って空間方向 Xについて Cx(ty)だけずれてい るはずなので、 関数は、 f(x— Cx(ty)) ( = f (x-ty/Gf)) で定義されることに なる。
ステップ S 220 7において、 微分処理部 2203は、 近似関数推定部 2 20 2より入力された近似関数 f(x)に基づいて、 生成しようとする画素の位置にお 1488
211
ける、 シフト量を求める。
すなわち、 水平方向、 および、 垂直方向にそれぞれ 2倍の密度 (合計 4倍の密 度) となるように画素を生成する場合、 微分処理部 2 2 0 3は、 例えば、 まず、 垂直方向に 2倍の密度となる画素 Pa, Pbに 2分割するために、 図 1 9 0で示さ れるように、 注目画素の中心位置が Pin (Xin, Yi n) での微分値を求めるため、 中心位置の Pin (Xin, Yin) のシフト量を求める。 このシフト量は、 Cx (0)とな るため、 実質的には 0となる。 尚、 図 1 9 0中において、 画素 Pinは、 (Xin, Yin) を略重心位置とする正方形であり、 画素 Pa, Pbは、 (Xin, Yin+O. 25) 、 (Xin, Yin— 0. 25) をそれぞれ略重心位置とする図中水平方向に長い長方形で ある。
ステップ S 2 2 0 8において、 微分処理部 2 2 0 3は、 近似関数 f (x)を微分 して、 近似関数の 1次微分関数 f (x) 'を求め、 求められたシフト量に応じた位置 での微分値を求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する c すなわち、 今の場合、 微分処理部 2 2 0 3は、 微分値 f (Xin) 'を求め、 その位置 (今の場合、 注目画素 (Xin, Yin) ) と、 その画素値、 および、 定常性の方向 の傾きの情報とを付加して出力する。
ステップ S 2 2 0 9において、 微分処理部 2 2 0 3は、 求められている密度の 画素を生成するのに必要なだけの微分値が求められているか否かを判定する。 例 えば、 今の場合、 2倍の密度となるための微分値のみしか求められていない (空 間方向 Y方向について 2倍の密度となるための微分値のみしか求められていな レ、) ので、 求められている密度の画素を生成するのに必要なだけの微分値が求め られていないと判定し、 その処理は、 ステップ S 2 2 0 7に戻る。
ステップ S 2 2 0 7において、 微分処理部 2 2 0 3は、 再度、 近似関数推定部 2 2 0 2より入力された近似関数 f (x)に基づいて、 生成しょうとする画素の位 置における、 シフト量を求める。 すなわち、 微分処理部 2 2 0 3は、 今の場合、 2分割された画素 Pa, Pbのそれぞれを 2分割するために必要な微分値をそれぞ れ求める。 画素 Pa, Pbの画素の位置は、 図 1 9 0における黒丸で示すそれぞれ の位置であるので、 微分処理部 2 2 0 3は、 それぞれの位置に対応するシフト量 を求める。 画素 Pa, Pbのシフ ト量は、 それぞれ Cx (0. 25) , Cx (— 0. 25)とな る。
ステップ S 2 2 0 8において、 微分処理部 2 2 0 3は、 近似関数 f (x)を 1次 微分して、 画素 Pa, Pbのそれぞれに対応したシフ ト量に応じた位置での微分値 を求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する。
すなわち、 図 1 8 9で示した参照画素を使用する場合、 微分処理部 2 2 0 3は、 図 1 9 1で示すように、 求められた近似関数 f (x)について微分関数 f (x) 'を求 め、 空間方向 Xについて、 シフト量 Cx (0. 25) , Cx (— 0. 25)だけずれた位置と なる (Xin— Cx (0. 25) ) と (Xin— Cx (— 0. 25) ) の位置での微分値をそれぞ れ f (Xin— Cx (0. 25) ) f (Xin - Cx (— 0. 25) ) ,として求め、 その微分値 に対応する位置情報を付加して、 これを実世界推定情報として出力する。 尚、 最 初の処理で画素値の情報が出力されているので画素値の情報は付加されない。 ステップ S 2 2 0 9において、 再ぴ、 微分処理部 2 2 0 3は、 求められている 密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定す る。 例えば、 今の場合、 4倍の密度となるための微分値が求められたことになる ので、 求められている密度の画素を生成するのに必要なだけの微分値が求められ たと判定し、 その処理は、 ステップ S 2 2 1 1に進む。
ステップ S 2 2 1 1において、 参照画素抽出部 2 2 0 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2 2 0 2に戻る。 また、 ステップ S 2 2 1 1において、 全ての画素を 処理したと判定した場合、 その処理は、 終了する。
上述のように、 入力画像について、 水平方向、 および、 垂直方向に 4倍の密度 となるように画素を生成する場合、 画素は、 分割される画素の中央の位置の近似 関数の微分値を用いて、 外揷捕間により分割されるので、 4倍密度の画素を生成 するには、 合計 3個の微分値の情報が必要となる。
すなわち、 図 1 9 0で示されるように、 1画素について最終的には、 画素 P O 2004/001488
213
1, P 0 2 , P 0 3 , P◦ 4の 4画素 (図 1 9 0において、 画素 P 0 1, P 0 2 , P 0 3 , P 0 4は、 図中の 4個のバッ印の位置を重心位置とする正方形であり、 各辺の長さは、 画素 Pinが、 それぞれ 1であるので、 画素 P 0 1, P 0 2 , P 0 3, P 0 4は、 それぞれ略 0 . 5となる) の生成に必要な微分値が必要となる ので、 4倍密度の画素を生成するには、 まず、 水平方向、 または、 垂直方向 (今 の場合、 垂直方向) に 2倍密度の画素を生成し (上述の最初のステップ S 2 2 0 7 , S 2 2 0 8の処理) 、 さらに、 分割された 2画素を、 それぞれ最初に分割し た方向と垂直の方向 (今の場合、 水平方向) に分割する (上述の 2回目のステツ プ S 2 2 0 7 , S 2 2 0 8の処理) ためである。
尚、 以上の例においては、 4倍密度の画素を演算する際の微分値を例として説 明してきたが、 それ以上の密度の画素を演算する場合、 ステップ S 2 2 0 7乃至 S 2 2 0 9の処理を繰り返すことにより、 画素値の演算に必要なさらに多くの微 分値を求めるようにしてもよい。 また、 以上の例については、 倍密度の画素値を 求める例について説明してきたが、 近似関数 f (x)は連続関数であるので、 倍密 度以外の画素値についても必要な微分値を求めることが可能となる。
以上によれば、 注目画素近傍の画素の画素値を近似する近似関数を求め、 空間 方向の画素位置に対応する位置の微分値を実世界推定情報として出力することが 可能となる。
以上の図 1 8 7において説明した実世界推定部 1 0 2においては、 画像を生成 するのに必要な微分値を実世界推定情報として出力していたが、 微分値とは、 必 要な位置での近似関数 f (X)の傾きと同値のものである。
そこで、 次は、 図 1 9 2を参照して、 近似関数 f (x)を求めることなく、 画素 生成に必要な近似関数 f (x)上の傾きのみを直接求めて、 実世界推定情報として 出力する実世界推定部 1 0 2について説明する。
参照画素抽出部 2 2 1 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の角度、 または、 領域の情報) に基づいて、 入力画像の各画 素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像から傾 2004/001488
214
きを求めるために必要な参照画素の情報 (演算に必要な注目画素を含む垂直方向 に並ぶ周辺の複数の画素、 または、 注目画素を含む水平方向に並ぶ周辺の複数の 画素の位置、 および、 それぞれの画素値の情報) を抽出して、 傾き推定部 2 2 1 2に出力する。
傾き推定部 2 2 1 2は、 参照画素抽出部 2 2 1 1より入力された参照画素の情 報に基づいて、 画素生成に必要な画素位置の傾きの情報を生成して、 実世界推定 情報として画像生成部 1 ◦ 3に出力する。 より詳細には、 傾き推定部 2 2 1 2は、 画素間の画素値の差分情報を用いて、 実世界を近似的に表現する近似関数 f (x) 上の注目画素の位置における傾きを求め、 これに、 注目画素の位置情報、 画素値、 および、 定常性の方向の傾きの情報を実世界推定情報として出力する。
次に、 図 1 9 3のフローチャートを参照して、 図 1 9 2の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 2 1において、 参照画素抽出部 2 2 1 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての角度、 および、 領域の 情報を取得する。
ステップ S 2 2 2 2において、 参照画素抽出部 2 2 1 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 2 3において、 参照画像抽出部 2 2 1 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 2 8に進 み、 その注目画素については、 処理領域外であることを傾き推定部 2 2 1 2に伝 え、 これに応じて、 傾き推定部 2 2 1 2が、 対応する注目画素についての傾きを 0として、 さらに、 その注目画素の画素値を付加して実世界推定情報として画像 生成部 1 0 3に出力すると共に、 その処理は、 ステップ S 2 2 2 9に進む。 また、 注目画素が処理領域のものであると判定された場合、 その処理は、 ステップ S 2 2 2 4に進む。
ステップ S 2 2 2 4において、 参照画素抽出部 2 2 1 1は、 データ定常性情報 04001488
215
に含まれる角度の情報から、 データ定常性の有する方向が、 水平方向に近い角度 カ または、 垂直に近い角度であるか否かを判定する。 すなわち、 参照画素抽出 部 2 2 1 1は、 データ定常性の有する角度 0が、 0度≤ 0 <45度、 または、 135 度≤ Θく 180度となる場合、 注目画素の定常性の方向は、 水平方向に近いと判定 し、 データ定常性の有する角度 0が、 45度≤ Θ <135度となる場合、 注目画素 の定常性の方向は、 垂直方向に近いと判定する。
ステップ S 2 2 2 5において、 参照画素抽出部 2 2 1 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 傾 き推定部 2 2 1 2に出力する。 すなわち、 参照画素は、 後述する傾きを演算する 際に使用されるデータとなるので、 定常性の方向を示す傾きに応じて抽出される ことが望ましい。 従って、 水平方向、 または、 垂直方向のいずれかの判定方向に 対応して、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例え ば、 傾きが垂直方向に近いと判定された場合、 参照画素抽出部 2 2 1 1は、 図 1 9 4で示されるように、 図 1 9 4中の中央の画素 (0 , 0) を注目画素とすると き、 画素 (0, 2) , (0, 1) , (0, 0) , (0, — 1) , (0, — 2) の それぞれの画素値を抽出する。 尚、 図 1 9 4においては、 各画素の大きさが水平 方向、 および、 垂直方向についてそれぞれ 1であるものとする。
すなわち、 参照画素抽出部 2 2 1 1は、 注目画素を中心として垂直 (上下) 方 向にそれぞれ 2画素の合計 5画素となるように、 垂直方向に長い範囲の画素を参 照画素として抽出する。
逆に、 水平方向であると判定された場合、 注目画素を中心として水平 (左右) 方向に 2画素の合計 5画素となるように、 水平方向に長い範囲の画素を参照画素 として抽出して、 近似関数推定部 2 2 0 2に出力する。 もちろん、 参照画素は、 上述のように 5画素に限定されるものではなく、 それ以外の個数であってもよい c ステップ S 2 2 2 6において、 傾き推定部 2 2 1 2は、 参照画素抽出部 2 2 1 1より入力された参照画素の情報と、 定常性方向の傾き Gf に基づいて、 それぞ れの画素値のシフト量を演算する。 すなわち、 空間方向 Y=0に対応する近似関 数 f(x)を基準とした場合、 空間方向 Y =— 2, 一1, 1, 2に対応する近似関 数は、 図 1 94で示されるように、 定常性の傾き Gf に沿って連続していること になるので、 各近似関数は、 f (x-Cx(2)), f (x-Cx(D), f (x-Cx(-l)), f (x —Cx (— 2))のように記述され、 空間方向 Y =— 2, — 1, 1 , 2毎に、 各シフ ト量分だけ空間方向 Xにずれた関数として表現される。
そこで、 傾き推定部 2 2 1 2は、 これらのシフト量 Cx (- 2) 乃至 Cx (2) を求める。 例えば、 参照画素が、 図 1 94で示されるように抽出された場合、 そ のシフト量は、 図中の参照画素 (0, 2) は、 Cx(2) = 2ZGf となり、 参照画 素 (0, 1 ) は、 Cx( l) = 1/Gf となり、 参照画素 (0, 0) は、 Cx(0) = 0 となり、 参照画素 (0, 一1) は、 Cx(_ l) =— 1/Gf となり、 参照画素 (0, - 2) は、 Cx(- 2) =- 2/Gf となる。
ステップ S 2 2 2 7において、 傾き推定部 2 2 1 2は、 注目画素の位置におけ る近似関数 f(x)上の傾きを演算する (推定する) 。 例えば、 図 1 9 4で示され るように、 注目画素について定常性の方向が、 垂直方向に近い角度の場合、 水平 方向に隣接する画素間では画素値が大きく異なり、 垂直方向の画素間では、 画素 間の変化が小さく、 変化が類似していることから、 傾き推定部 2 2 1 2は、 垂直 方向の画素間の変化をシフト量による空間方向 Xの変化と捕らえることにより、 垂直方向の画素間の差分を水平方向の画素間の差分に置き換えて、 注目画素の位 置における近似関数 f (X)上での傾きを求める。
すなわち、 現実世界を近似的に記述する近似関数 f(x)が存在すると仮定する と、 上述のシフト量と各参照画素の画素値との関係は、 図 1 9 5で示されるよう なものとなる。 ここで、 図 1 9 4の各画素の画素値は、 上から? (0, 2) ' P (0, 1) , P (0, 0) , P (0, 一1 ) , P (0, - 2) で表される。 結果と して、 注目画素 (0, 0) 近傍の画素値 Pとシフト量 Cxは、 (P, C x) = (P (0, 2) , -Cx (2) ) , (Ρ (0 , 1) , -Cx (1) ) , (P (0, 一 1) ) , -Cx (- 1) ) , (Ρ (0, - 2) , -Cx (一 2) ) , (P (0, 0) , 0) の 5組の関係が得られることになる。 ところで、 画素値 P、 シフト量 Cx、 および、 傾き Kx (近似関数 f(x)上の傾 き) は、 以下のような式 (98) のような関係が成立することになる。
Figure imgf000219_0001
c
• · · (98) 上述の式 (98) は、 変数 Kxについての 1変数の関数であるので、 傾き推定 部 22 1 2は、 この変数 Kx (傾き) について、 1変数の最小自乗法により傾き Kxを求める。
すなわち、 傾き推定部 22 1 2は、 以下に示すような式 (9 9) のような正規 方程式を解くことにより、 注目画素の傾きを求め、 注目画素の画素値、 および、 定常性の方向の傾きの情報を付加して、 実世界推定情報として画像生成部 1 03 に出力する。
Figure imgf000219_0002
Kv=
XI
• · · (99) ここで、 iは、 上述の参照画素の画素値 Pとシフト量 Cの組をそれぞれ識別す る番号であり、 1乃至 mである。 また、 mは、 注目画素を含む参照画素の個数と なる。
ステップ S 222 9において、 参照画素抽出部 22 1 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2222に戻る。 また、 ステップ S 2 22 9において、 全ての画素が 処理されたと判定された場合、 その処理は、 終了する。
尚、 上述の処理により実世界推定情報として出力される傾きは、 最終的に求め ようとする画素値を外揷補間して演算する際に使用される。 また、 以上の例にお いては、 2倍密度の画素を演算する際の傾きを例として説明してきたが、 それ以 上の密度の画素を演算する場合、 画素値の演算に必要な、 さらに多くの位置での 傾きを求めるようにしてもよい。
例えば、 図 1 9 0で示されるように、 水平方向に 2倍の密度で、 かつ、 垂直方 向に 2倍の密度の空間方向に合計 4倍の密度の画素を生成する場合、 上述したよ うに、 図 1 9 0中の Pin, Pa, Pbのそれぞれの位置に対応する近似関数 f (x)の 傾き K xを求めるようにすればよい。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 1 近似関数 f (x)は連続関数であるので、 倍密度以外の位置の画素の画素値に ついても必要な傾きを求めることが可能となる。
以上によれば、 注目画素近傍の画素の画素値を使用して、 実世界を近似的に表 現する近似関数を求めることなく、 空間方向の画素の生成必要な位置の近似関数 上の傾きを実世界推定情報として生成し、 さらに出力することが可能となる。 次に、 図 1 9 6を参照して、 定常性を有する領域における、 画素毎のフレーム 方向 (時間方向) の近似関数上の微分値を実世界推定情報として出力する実世界 推定部 1 0 2について説明する。
参照画素抽出部 2 2 3 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の動き (動きベクトル) 、 および、 領域の情報) に基づいて、 入力画像の各画素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像の画素の画素値を近似する近似関数を求めるために必要な参照画素の情 報 (演算に必要な注目画素周辺の複数の画素の位置、 および、 画素値) を抽出し て、 近似関数推定部 2 2 0 2に出力する。
近似関数推定部 2 2 3 2は、 参照画素抽出部 2 2 3 1より入力されたフレーム 方向の参照画素の情報に基づいて注目画素周辺の各画素の画素値を近似的に記述 する近似関数を最小自乗法に基づいて推定し、 推定した関数を微分処理部 2 2 3 3に出力する。
微分処理部 2 2 3 3は、 近似関数推定部 2 2 3 2より入力されたフレーム方向 の近似関数に基づいて、 データ定常性情報の動きに応じて、 注目画素から生成し ようとする画素の位置のフレーム方向のシフト量を求め、 そのシフト量に応じた フレーム方向の近似関数上の位置における微分値 (定常性に対応する線からの 1 次元方向に沿った距離に対応する各画素の画素値を近似する関数の微分値) を演 算し、 さらに、 注目画素の位置、 画素値、 および、 定常 の動きの情報を付加し て、 これを実世界推定情報として画像生成部 1 0 3に出力する。
次に、 図 1 9 7のフローチヤ一トを参照して、 図 1 9 6の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 4 1において、 参照画素抽出部 2 2 3 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての動き、 および、 領域の 情報を取得する。
ステップ S 2 2 4 2において、 参照画素抽出部 2 2 3 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 4 3において、 参照画像抽出部 2 2 3 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 5 0に進 み、 その注目画素については、 処理領域外であることを近似関数推定部 2 2 3 2 を介して、 微分処理部 2 2 3 3に伝え、 これに応じて、 微分処理部 2 2 3 3が、 対応する注目画素についての微分値を 0として、 さらに、 その注目画素の画素値 を付加して実世界推定情報として画像生成部 1 0 3に出力すると共に、 その処理 は、 ステップ S 2 2 5 1に進む。 また、 注目画素が処理領域のものであると判定 された場合、 その処理は、 ステップ S 2 2 4 4に進む。
ステップ S 2 2 4 4において、 参照画素抽出部 2 2 3 1は、 データ定常性情報 に含まれる動きの情報から、 データ定常性の有する方向が、 空間方向に近い動き 力 \ または、 フレーム方向に近い動きであるか否かを判定する。 すなわち、 図 1 9 8で示されるように、 フレーム方向 Tと空間方向 Yからなる面において、 フレ ーム方向を基準軸とした、 時間と空間の面内の方向を示す角度を θ Vとすれば、 参照画素抽出部 2 2 0 1は、 データ定常性の有する角度 θ Vが、 0度≤ 0 v < 45 度、 または、 135度≤ 0 Vく 180度となる場合、 注目画素の定常性の動きは、 フ レーム方向 (時間方向) に近いと判定し、 データ定常性の有する角度 0が、 45 度≤ 0 <135度となる場合、 注目画素の定常性の方向は、 空間方向に近'いと判定 する。
ステップ S 2 24 5において、 参照画素抽出部 2 2 0 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 近 似関数推定部 2 2 3 2に出力する。 すなわち、 参照画素は、 後述する近似関数を 演算する際に使用さ るデータとなるので、 角度に応じて抽出されることが望ま しい。 従って、 フレーム方向、 または、 空間方向のいずれかの判定方向に対応し て、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例えば、 図 1 9 8で示されるように、 動き方向 Vf が空間方向に近いと、 空間方向であると 判定され、 この場合、 参照画素抽出部 2 2 3 1は、 例えば、 図 1 9 8で示される ように、 図 1 9 8中の中央の画素 (t , y ) = (0, 0) を注目画素とするとき、 画素 (t, y) = (— 1, 2) , (- 1 , 1) , (— 1, 0) , (- 1 , - 1) , (- 1 , - 2) , (0, 2) , (0, 1) , (0, 0) , (0 , - 1) , (0, 一 2) , (1, 2) , (1, 1) , (1, 0) , (1, 一 1) , ( 1, 一 2) の それぞれの画素値を抽出する。 尚、 図 1 9 8においては、 各画素のフレーム方向、 および、 空間方向の大きさが 1であるものとする。
すなわち、 参照画素抽出部 2 2 3 1は、 注目画素を中心として空間 (図中の上 下) 方向にそれぞれ 2画素 Xフレーム (図中の左右) 方向にそれぞれ 1フレーム 分の合計 1 5画素となるように、 フレーム方向に対して空間方向が長い範囲の画 素を参照画素として抽出する。
逆に、 フレーム方向であると判定された場合、 注目画素を中心として空間 (図 中の上下) 方向にそれぞれ 1画素 Xフレーム (図中の左右) 方向にそれぞれ 2フ レーム分の合計 1 5画素となるように、 フレーム方向に長い範囲の画素を参照画 素として抽出して、 近似関数推定部 2 2 3 2に出力する。 もちろん、 参照画素は、 上述のように 1 5画素に限定されるものではなく、 それ以外の個数であってもよ い。 2246において、 近似関数推定部 22 32は、 参照画素抽出部 2 231より入力された参照画素の情報に基づいて、 最小自乗法により近似関数 f(t)を推定し、 微分処理部 223 3に出力する。
すなわち、 近似関数 f(t)は、 以下の式 (1 00) で示されるような多項式で ある。
Figure imgf000223_0001
- · · (1 00) このように、 式 (100) の多項式の各係数 乃至 wn + 1が求められれば、 各参照画素の画素値を近似するフレーム方向の近似関数 f (t)が求められること になる。 しかしながら、 係数の数よりも多くの参照画素値が必要となるので、 例 えば、 参照画素が、 図 1 98で示されるような場合、 合計 1 5画素であるので、 多項式の係数は、 1 5個までしか求められない。 そこで、 この場合、 多項式は、 14次までの多項式とし、 係数 乃至 W15 を求めることにより近似関数を推定 するものとする。 尚、 今の場合、 15次の多項式からなる近似関数 f(x)を設定 して、 連立方程式としてもよい。
従って、 図 1 98で示される 1 5個の参照画素値を用いるとき、 近似関数推定 部 2232は、 以下の式 (10 1) を、 最小自乗法を用いて解くことにより推定 する。
P (一 1, 一 2) =f (- 1 -Ct (一 2) )
P (— 1, 一 1) =f (一 1一 Ct (一 1) )
P (— 1, 0) =f (一 1) (=f (一 1一 Ct (0) ) )
P (— 1, 1) =f (- 1 -ct (1) )
P (— 1, 2) =f (- 1一 Ct (2) )
P (0, 一 2) =f (0 -Ct (― 2) ) .
P (0, - 1) =f (0 -Ct (- 1) )
P (0, 0) =f (0) ( = f (o -ct (0) ) ) P (0, 1) =f (0— Ct ( 1) )
P (0, 2) =f (0 -Ct (2) )
P ( 1 , - 2) =f ( 1 -Ct (一 2) )
P ( 1 , - 1 ) =f ( 1 -Ct (- 1) )
P (1, 0) =f (1 ) (=f ( 1一 Ct (0) ) )
P ( 1, 1) =f (1 -Ct ( 1) )
P ( 1 , 2) =f (1 -Ct (2) )
• ■ · ( 1 0 1) 尚、 多項式の次数にあわせて、 参照画素の数を変えるようにしてもよい。
ここで、 Ct(ty)は、 シフト量であり、 上述の Cx(ty)と同様のものであり、 定 常性の傾きが Vf で示されるとき、 Ct(ty)
Figure imgf000224_0001
で定義される。 このシフト 量 Ct(ty)は、 空間方向 Y = 0の位置上で定義される近似関数 f(t)が、 傾き Vf に沿って、 連続している (定常性を有している) ことを前提としたとき、 空間方 向 Y=tyの位置における、 フレーム方向 Tに対するずれ幅を示すものである。 従 つて、 例えば、 空間方向 Y = 0の位置上で近似関数が f(t)として定義されてい る場合、 この近似関数 f(t)は、 空間方向 Y=tyにおいては、 フレーム方向 (時 間方向) Tについて Ct(ty)だけずれているはずなので、 関数は、 f (t一 Ct(ty)) (=f (t-ty/Vf)) で定義されることになる。
ステップ S 2 24 7において、 微分処理部 2 2 3 3は、 近似関数推定部 2 2 3 2より入力された近似関数 f(t)に基づいて、 生成しょうとする画素の位置にお ける、 シフト量を求める。
すなわち、 フレーム方向、 および、 空間方向にそれぞれ 2倍の密度 (合計 4倍 の密度) となるように画素を生成する場合、 微分処理部 2 2'3 3は、 例えば、 ま ず、 空間方向に 2倍の密度となる画素 Pat, Pbtに 2分割するために、 図 1 9 9 で示されるように、 注目画素の中心位置が Pin (Tin, Yin) での微分値を求める ため、 中心位置の Pin (Tin, Yin) のシフト量を求める。 このシフト量は、 Ct(0)となるため、 実質的には◦となる。 尚、 図 1 9 9中において、 画素 Pinは、 W
223
(Tin, Yin) を略重心位置とする正方形であり、 画素 Pat, Pbtは、 (Tin, Yin+0. 25) 、 (Tin, Yin— 0. 25) をそれぞれ略重心位置とする図中水平方向に 長い長方形である。 また、 注目画素 Pinのフレーム方向 Tの長さが 1であると は、 1フレーム分のシャッタ時間に対応するものである。
ステップ S 2 2 4 8において、 微分処理部 2 2 3 3は、 近似関数 f (t)を微分 して、 近似関数の 1次微分関数 f (t) 'を求め、 求められたシフト量に応じた位置 での微分値を求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する。 すなわち、 今の場合、 微分処理部 2 2 3 3は、 微分値 f (Tin) 'を求め、 その位置 (今め場合、 注目画素 (Tin, Yin) ) と、 その画素値、 および、 定常性の方向 の動きの情報とを付加して出力する。
ステップ S 2 2 4 9において、 微分処理部 2 2 3 3は、 求められている密度の 画素を生成するのに必要なだけの微分値が求められているか否かを判定する。 例 えば、 今の場合、 空間方向に 2倍の密度となるための微分値のみしか求められて いない (フレーム方向に 2倍の密度となるための微分値が求められていない) の で、 求められている密度の画素を生成するのに必要なだけの微分値が求められて いないと判定し、 その処理は、 ステップ S 2 2 4 7に戻る。
ステップ S 2 2 4 7において、 微分処理部 2 2 0 3は、 再度、 近似関数推定部 2 2 0 2より入力された近似関数 f (t)に基づいて、 生成しょうとする画素の位 置における、 シフ ト量を求める。 すなわち、 微分処理部 2 2 0 3は、 今の場合、 2分割された画素 Pat , Pbtのそれぞれをさらに 2分割するために必要な微分値 をそれぞれ求める。 画素 Pat, Pbtの画素の位置は、 図 1 9 9における黒丸で示 すそれぞれの位置であるので、 微分処理部 2 2 3 3は、 それぞれの位置に対応す るシフト量を求める。 画素 Pat , Pbtのシフト量は、 それぞれ Ct (0. 25) , Ct ( - 0. 25)となる。
ステップ S 2 2 4 8において、 微分処理部 2 2 3 3は、 近似関数 f (t)を微分 して、 画素 Pat , Pbtのそれぞれに対応したシフ ト量に応じた位置での微分値を 求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する。 すなわち、 図 1 9 8で示した参照画素を使用する場合、 微分処理部 2 2 3 3は、 図 2 0 0で示すように、 求められた近似関数 f (t)について微分関数 f (t) 'を求 め、 空間方向 Tについて、 シフト量 Ct (0. 25) , Ct (— 0. 25)だけずれた位置と なる (Tin— Ct (0. 25) ) と (Tin— Ct (一 0. 25) ) の位置での微分値をそれぞ れ f (Tin-Ct (0. 25) ) ' , f (Tin— Ct (— 0. 25) ) 'として求め、 その微分値 に対応する位置情報を付加して、 これを実世界推定情報として出力する。 尚、 最 初の処理で画素値の情報が出力されているので画素値の情報は付加されない。 ステップ S 2 2 4 9において、 再ぴ、 微分処理部 2 2 3 3は、 求められている 密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定す る。 例えば、 今の場合、 空間方向 Yとフレーム方向 Tについてそれぞれ 2倍 (合 計 4倍) の密度となるための微分値が求められたことになるので、 求められてい る密度の画素を生成するのに必要なだけの微分値が求められたと判定し、 その処 理は、 ステップ S 2 2 5 1に進む。
ステップ S 2 2 5 1において、 参照画素抽出部 2 2 3 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2 2 4 2に戻る。 また、 ステップ S 2 2 5 1において、 全ての画素を 処理したと判定した場合、 その処理は、 終了する。
上述のように、 入力画像について、 フレーム方向 (時間方向) 、 および、 空間 方向に 4倍の密度となるように画素を生成する場合、 画素は、 分割される画素の 中央の位置の近似関数の微分値を用いて、 外揷補間により分割されるので、 4倍 密度の画素を生成するには、 合計 3個の微分値の情報が必要となる。
すなわち、 図 1 9 9で示されるように、 1画素について最終的には、 画素 P O l t, P 0 2 t , P 0 3 t , P 0 4 tの 4画素 (図 1 9 9において、 画素 P 0 1 t, P 0 2 t , P 0 3 t , P 0 4 tは、 図中の 4個のバッ印の位置を重心位置と する正方形であり、 各辺の長さは、 画素 Pinが、 それぞれ 1であるので、 画素 P 0 1 t , P 0 2 t, P 0 3 t , P 0 4 tは、 それぞれ略 0 . 5となる) の生成 に必要な微分値が必要となるので、 4倍密度の画素を生成するには、 まず、 フレ ーム方向、 または、 空間方向に 2倍密度の画素を生成し (上述の最初のステップ S 2 2 4 7 , S 2 2 4 8の処理) 、 さらに、 分割された 2画素を、 それぞれ最初 に分割した方向と垂直の方向 (今の場合、 フレーム方向) に分割する (上述の 2 回目のステップ S 2 2 4 7 , S 2 2 4 8の処理) ためである。
尚、 以上の例においては、 4倍密度の画素を演算する際の微分値を例として説 明してきたが、 それ以上の密度の画素を演算する場合、 ステップ S 2 2 4 7乃至 S 2 2 4 9の処理を繰り返すことにより、 画素値の演算に必要なさらに多くの微 分値を求めるようにしてもよい。 また、 以上の例については、 倍密度の画素値を 求める例について説明してきたが、 近似関数 f (t)は連続関数であるので、 倍密 度以外の画素値についても必要な微分値を求めることが可能となる。
以上によれば、 注目画素近傍の画素の画素値を使用して、 各画素の画素値を近 似的に表現する近似関数を求め、 画素の生成必要な位置の微分値を実世界推定情 報として出力することが可能となる。
以上の図 1 9 6において説明した実世界推定部 1 0 2においては、 画像を生成 するのに必要な微分値を実世界推定情報として出力していたが、 微分値とは、 必 要な位置での近似関数 f (t)の傾きと同値のものである。
そこで、 次は、 図 2 0 1を参照して、 近似関数を求めることなく、 画素生成に 必要な、 近似関数上のフレーム方向の傾きのみを直接求めて、 実世界推定情報と して出力する実世界推定部 1 0 2について説明する。
参照画素抽出部 2 2 5 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の動き、 および、 領域の情報) に基づいて、 入力画像の各画 素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像から傾 きを求めるために必要な参照画素の情報 (演算に必要な注目画素を含む空間方向 に並ぶ周辺の複数の画素、 または、 注目画素を含むフレーム方向に並ぶ周辺の複 数の画素の位置、 および、 それぞれの画素値の情報) を抽出して、 傾き推定部 2 2 5 2に出力する。
傾き推定部 2 2 5 2は、 参照画素抽出部 2 2 5 1より入力された参照画素の情 報に基づいて、 画素生成に必要な画素位置の傾きの情報を生成して、 実世界推定 情報として画像生成部 1 0 3に出力する。 より詳細には、 傾き推定部 2 2 5 2は、 画素間の画素値の差分情報を用いて、 各参照画素の画素値を近似的に表現する近 似関数上の注目画素の位置におけるフレーム方向の傾きを求め、 これに、 注目画 素の位置情報、 画素値、 および、 定常性の方向の動きの情報を実世界推定情報と して出力する。
次に、 図 2 0 2のフローチャートを参照して、 図 2 0 1の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 6 1において、 参照画素抽出部 2 2 5 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての動き、 および、 領域の 情報を取得する。
ステップ S 2 2 6 2において、 参照画素抽出部 2 2 5 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 6 3において、 参照画像抽出部 2 2 5 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 6 8に進 み、 その注目画素については、 処理領域外であることを傾き推定部 2 2 5 2に伝 え、 これに応じて、 傾き推定部 2 2 5 2が、 対応する注目画素についての傾きを 0として、 さらに、 その注目画素の画素値を付加して実世界推定情報として画像 生成部 1 0 3に出力すると共に、 その処理は、 ステップ S 2 2 6 9に進む。 また、 注目画素が処理領域のものであると判定された場合、 その処理は、 ステップ S 2 2 6 4に進む。
ステップ S 2 2 6 4において、 参照画素抽出部 2 2 1 1は、 データ定常性情報 に含まれる動きの情報から、 データ定常性の動きが、 フレーム方向に近い動き力、 または、 空間方向に近い動きであるか否かを判定する。 すなわち、 フレーム方向 Tと空間方向 Yからなる面において、 フレーム方向を基準軸とした、 時間と空間 の面内の方向を示す角度を 0 Vとすれば、 参照画素抽出部 2 2 5 1は、 データ定 常性の動きの角度 θ Vが、 0度 ^ θ ν < 45度、 または、 135度≤ θ Vく 180度と なる場合、 注目画素の定常性の動きは、 フレーム方向に近いと判定し、 データ定 常性の有する角度 0 νが、 4δ度≤ θ ν < 135度となる場合、 注目画素の定常性 の動きは、 空間方向に近いと判定する。
ステップ S 2 2 6 5において、 参照画素抽出部 2 2 5 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 傾 き推定部 2 2 5 2に出力する。 すなわち、 参照画素は、 後述する傾きを演算する 際に使用されるデータとなるので、 定常性の動きに応じて抽出されることが望ま しい。 従って、 フレーム方向、 または、 空間方向のいずれかの判定方向に対応し て、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例えば、 動 きが空間方向に近いと判定された場合、 参照画素抽出部 2 2 5 1は、 図 2 0 3で 示されるように、 図 2 0 3中の中央の画素 (t , y ) = ( 0, 0 ) を注目画素と するとき、 画素 (t, y ) = ( 0, 2 ) , ( 0 , 1 ) , ( 0, 0 ) , ( 0, - 1 ) , (0, _ 2 ) のそれぞれの画素値を抽出する。 尚、 図 2 0 3においては、 各画素の大きさがフレーム方向、 および、 空間方向についてそれぞれ 1であるも のとする。
すなわち、 参照画素抽出部 2 2 5 1は、 注目画素を中心として空間 (図中の上 下) 方向にそれぞれ 2画素の合計 5画素となるように、 空間方向に長い範囲の画 素を参照画素として抽出する。
逆に、 フレーム方向であると判定された場合、 注目画素を中心としてフレーム (図中の左右) 方向に 2画素の合計 5画素となるように、 水平方向に長い範囲の 画素を参照画素として抽出して、 近似関数推定部 2 2 5 2に出力する。 もちろん、 参照画素は、 上述のように 5画素に限定されるものではなく、 それ以外の個数で あってもよい。
ステップ S 2 2 6 6において、 傾き推定部 2 2 5 2は、 参照画素抽出部 2 2 5 1より入力された参照画素の情報と、 定常性方向の動き Vf の方向に基づいて、 それぞれの画素値のシフ ト量を演算する。 すなわち、 空間方向 Y=0に対応する 近似関数 f(t) ^基準とした場合、 空間方向 2, 一 1, 1, 2に対応する 近似関数は、 図 2 0 3で示されるように、 定常性の傾き Vf に沿って連続してい ることになるので、 各近似関数は、 f(t— Ct(2)), f (t-Ct(l)), f (t-Ct (- 1)), f (t— Ct (一 2))のように記述され、 空間方向 Y =— 2, 一 1, 1 , 2毎に、 各シフト量分だけフレーム方向 Τにずれた関数として表現される。
そこで、 傾き推定部 2 2 5 2は、 これらのシフト量 Ct (- 2) 乃至 Ct (2) を求める。 例えば、 参照画素が、 図 2 0 3で示されるように抽出された場合、 そ のシフ ト量は、 図中の参照画素 (0, 2) は、 Ct(2) = 2ZVf となり、 参照画 素 (0 , 1 ) は、 Ct( l) = l/Vf となり、 参照画素 (0, 0) は、 Ct(0) = 0 となり、 参照画素 (0, 一 1 ) は、 Ct(- 1) = - 1 /Vf となり、 参照画素 (0, 一 2) は、 Ct (一 2) =— 2/Vf となる。 傾き推定部 2 2 5 2ほ、 これらのシフ ト量 Ct (- 2) 乃至 Ct (2) を求める。
ステップ S 2 2 6 7において、 傾き推定部 2 2 5 2は、 注目画素のフレーム方 向の傾きを演算する (推定する) 。 例えば、 図 2 0 3で示されるように、 注目画 素について定常性の方向が、 空間方向に近い角度の場合、 フレーム方向に隣接す る画素間では画素値が大きく異なるので、 空間方向の画素間では、 画素間の変化 が小さく、 変化が類似していることから、 傾き推定部 2 2 5 2は、 空間方向の画 素間の変化をシフト量によるフレーム方向 Tの変化と捕らえることにより、 空間 方向の画素間の差分をフレーム方向の画素間の差分に置き換えて、 注目画素での 傾きを求める。
すなわち、 現実世界を近似的に記述する関数 f(t)が存在すると仮定すると、 上述のシフト量と各参照画素の画素値との関係は、 図 20 4で示されるようなも のとなる。 ここで、 図 2 0 4の各画素の画素値は、 上から P (0, 2) , P (0,
1) , P (0, 0) , P (0, 一 1) , P (0, 一 2) で表される。 結果として、 注目画素 (0, 0) 近傍の画素値 P とシフト量 Ct は、 (P, Ct) = (P (0,
2) , 一 Ct (2) ) , (P (0, 1) , -Ct ( 1) ) , (P (0, 一 1) ) , 一 Ct (一 1) ) , (P (0 , — 2) , 一 Ct (- 2) ) , (P (0, 0) , 0) の 5組の関係が得られることになる。
ところで、 画素値 P、 シフト量 C t、 および、 傾き K t (近似関数 f(t)上の 傾き) は、 以下のような式 (10 2) のような関係が成立することになる。
P = K t X c t
• · · (10 2) 上述の式 (1 02) は、 変数 K tについての 1変数の関数であるので、 傾き推 定部 22 1 2は、 この変数 K t (傾き) について、 1変数の最小自乗法により傾 き K tを求める。
すなわち、 傾き推定部 2252は、 以下に示すような式 (1 03) のような正 規方程式を解くことにより、 注目画素の傾きを求め、 注目画素の画素値、 および、 定常性の方向の傾きの情報を付加して、 実世界推定情報として画像生成部 103 に出力する。
Figure imgf000231_0001
• · · (103) ここで、 iは、 上述の参照画素の画素値 Pとシフト量 C tの組をそれぞれ識別 する番号であり、 1乃至 mである。 また、 mは、 注目画素を含む参照画素の個数 となる。
ステップ S 226 9において、 参照画素抽出部 225 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2262に戻る。 また、 ステップ S 226 9において、 全ての画素が 処理されたと判定された場合、 その処理は、 終了する。
尚、 上述の処理により実世界推定情報として出力されるフレーム方向の傾きは、 最終的に求めようとする画素値を外揷捕間して演算する際に使用される。 また、 以上の例においては、 2倍密度の画素を演算する際の傾きを例として説明してき たが、 それ以上の密度の画素を演算する場合、 画素値の演算に必要な、 さらに多 くの位置での傾きを求めるようにしてもよい。
例えば、 図 1 9 0で示されるように、 水平方向に 2倍の密度で、 かつ、 フレー ム方向に 2倍の密度の時空間方向に合計 4倍の密度の画素を生成する場合、 上述 したように、 図 1 9 0中の Pin, Pat , Pbtのそれぞれの位置に対応する近似関 数 f (t)の傾き K tを求めるようにすればよい。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 力 近似関数: f (t)は連続関数であるので、 倍密度以外の位置の画素の画素値に ついても必要な傾きを求めることが可能となる。
言うまでもなく、 フレーム方向、 または、 空間方向に対する近似関数上の傾き、 または、 微分値を求める処理の順序は問わない。 さらに、 空間方向において、 上 述の例においては、 空間方向 Yとフレーム方向 Tとの関係を用いて、 説明してき たが、 空間方向 Xとフレーム方向 τとの関係を用いたものであってもよい。 さら に、 時空間方向のいずれか 2次元の関係から (いずれから 1次元の方向の) 傾き、 または、 微分値を選択的に求めるようにしてもよい。
以上によれば、 注目画素近傍の画素の画素値を使用して、 実世界を近似的に表 現するフレーム方向の近似関数を求めることなく、 画素の生成必要な位置のフレ ーム方向 (時間方向) の近似関数上の傾きを実世界推定情報として生成し、 さら に出力することが可能となる。
次に、 図 2 0 5乃至図 2 3 5を参照して、 実世界推定部 1 0 2 (図 3 ) の実施 の形態の他の例について説明する。
図 2 0 5は、 この例の実施の形態の原理を説明する図である。
図 2 0 5で示されるように、 センサ 2に入射される画像である、 実世界 1の信 号 (光の強度の分布) は、 所定の関数 Fで表される。 なお、 以下、 この例の実施 の形態の説明においては、 画像である、 実世界 1の信号を、 特に光信号と称し、 関数 Fを、 特に光信号関数 Fと称する。
この例の実施の形態においては、 光信号関数 Fで表される実世界 1の光信号が 所定の定常性を有する場合、 実世界推定部 1 0 2が、 センサ 2からの入力画像 (定常性に対応するデータの定常性を含む画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画像のデータの定常性に対応するデータ定 常性情報) を使用して、 光信号関数 Fを所定の関数 ίで近似することによって、 光信号関数 Fを推定する。 なお、 以下、 この例の実施の形態の説明においては、 関数 ίを、 特に近似関数: f と称する。
換言すると、 この例の実施の形態においては、 実世界推定部 1 0 2が、 近似関 数 f で表されるモデル 1 6 1 (図 7 ) を用いて、 光信号関数 Fで表される画像 (実世界 1の光信号) を近似 (記述) する。 従って、 以下、 この例の実施の形態 を、 関数近似手法と称する。
ここで、 関数近似手法の具体的な説明に入る前に、 本願出願人が関数近似手法 を発明するに至った背景について説明する。
図 2 0 6は、 センサ 2が C C Dとされる場合の積分効果を説明する図である。 図 2 0 6で示されるように、 センサ 2の平面上には、 複数の検出素子 2— 1が 配置されている。
図 2 0 6の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向で ある Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t方向とされている。
また、 図 2 0 6の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時 間 (露光時間) が 1とされている。
さらに、 図 2 0 6の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x == 0、 および Y方向の位置 y = 0 ) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 (1方向の位置 == 0 ) とされている。
この場合、 空間方向の原点 (x = 0 , y = 0 ) にその中心が存在する検出素子 2— 1は、 X方向に- 0. 5乃至 0. 5の範囲、 Y方向に- 0. 5乃至 0. 5の範囲、 およ び t方向に- 0. 5乃至 0. 5の範囲で光信号関数 F (x,y,t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2 _ 1から出力される画 素値 Pは、 次の式 (1 0 4 ) で表される。
X ++00.. 55 广广 ++00.. 55 f Γ ++00.. 55 , 、
-0. 5 J -0. 5 J -0. 5
• · ■ ( 1 0 4 ) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (1 0 4 ) で示される画素値 Pを出力することになる。 図 2 0 7は、 センサ 2の積分効果の具体的な例を説明する図である。
図 2 0 7において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 2 0 6 ) を表している。
実世界 1の光信号のうちの 1部分 (以下、 このような部分を、 領域と称する) 2 3 0 1は、 所定の定常性を有する領域の一例を表している。
なお、 実際には、 領域 2 3 0 1は連続した光信号の 1部分 (連続した領域) で ある。 これに対して、 図 2 0 7においては、 領域 2 3 0 1は、 2 0個の小領域
(正方形の領域) に区分されているように示されている。 これは、 領域 2 3 0 1 の大きさが、 X方向に対して 4個分、 かつ Y方向に対して 5個分のセンサ 2の検 出素子 (画素) が並んだ大きさに相当することを表すためである。 即ち、 領域 2 3 0 1内の 2 0個の小領域 (仮想領域) のそれぞれは 1つの画素に相当する。 また、 領域 2 3 0 1のうちの図中白い部分は細線に対応する光信号を表してい る。 従って、 領域 2 3 0 1は、 細線が続く方向に定常性を有していることになる。 そこで、 以下、 領域 2 3 0 1を、 細線含有実世界領域 2 3 0 1と称する。
この場合、 細線含有実世界領域 2 3 0 1 (実世界 1の光信号の 1部分) がセン サ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画素 値) の領域 2 3 0 2 (以下、 細線含有データ領域 2 3 0 2と称する) が出力され る。
なお、 細線含有データ領域 2 3 0 2の各画素のそれぞれは、 図中、 画像として 示されているが、 実際には、 所定の 1つの値を表すデータである。 即ち、 細線含 有実世界領域 2 3 0 1は、 センサ2の積分効果により、 所定の 1つの画素値をそ れぞれ有する 2 0個の画素 (X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個の画素) に区分された細線含有データ領域 2 3 0 2に変化してしまう (歪ん でしまう) 。
図 2 0 8は、 センサ 2の積分効果の具体的な他の例 (図 2 0 7とは異なる例) を説明する図である。
図 2 0 8において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 2 0 6 ) を表している。
実世界 1の光信号の 1部分 (領域) 2 3 0 3は、 所定の定常性を有する領域の 他の例 (図 2 0 7の細線含有実世界領域 2 3 0 1とは異なる例) を表している。 なお、 領域 2 3 0 3は、 細線含有実世界領域 2 3 0 1と同じ大きさを有する領 域である。 即ち、 細線含有実世界領域 2 3 0 1と同様に、 領域 2 3 0 3も、 実際 には連続した実世界 1の光信号の 1部分 (連続した領域) であるが、 図 2 0 8に おいては、 センサ 2の 1画素に相当する 2 0個の小領域 (正方形の領域) に区分 されているように示されている。
また、 領域 2 3 0 3は、 所定の第 1の光の強度 (値) を有する第 1の部分と、 所定の第 2の光の強度 (値) を有する第 2の部分のエッジを含んでいる。 従って、 領域 2 3 0 3は、 エッジが続く方向に定常性を有していることになる。 そこで、 以下、 領域 2 3 0 3を、 2値エッジ含有実世界領域 2 3 0 3と称する。
この場合、 2値エッジ含有実世界領域 2 3 0 3 (実世界 1の光信号の 1部分) がセンサ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画素値) の領域 2 3 0 4 (以下、 2値エッジ含有データ領域 2 3 0 4と称す る) が出力される。
なお、 2値ェッジ含有データ領域 2 3 0 4の各画素値のそれぞれは、 細線含有 データ領域 2 3 0 2と同様に、 図中、 画像として表現されているが、 実際には、 所定の値を表すデータである。 即ち、 2値エッジ含有実世界領域 2 3 0 3は、 セ ンサ 2の積分効果により、 所定の 1つの画素値をそれぞれ有する 2 0個の画素 ( X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個の画素) に区分された 2値エッジ含有データ領域 2 3 0 4に変化してしまう (歪んでしまう) 。
従来の画像処理装置は、 このような細線含有データ領域 2 3 0 2や 2値エッジ 含有データ領域 2 3 0 4等、 センサ 2から出力された画像データを原点 (基準) とするとともに、 画像データを処理の対象として、 それ以降の画像処理を行って いた。 即ち、 センサ 2から出力された画像データは、 積分効果により実世界 1の 光信号とは異なるもの (歪んだもの) となっているにも関わらず、 従来の画像処 理装置は、 その実世界 1の光信号とは異なるデータを正として画像処理を行って いた。
その結果、 従来の画像処理装置では、 センサ 2から出力された段階で、 実世界 のディテールがつぶれてしまった波形 (画像データ) を基準として、 その波形か ら、 元のディテールを復元することは非常に困難であるという課題があった。 そこで、 関数近似手法においては、 この課題を解決するために、 上述したよう に (図 2 0 5で示されるように) 、 実世界推定部 1 0 2が、 細線含有データ領域 2 3 0 2や 2値エッジ含有データ領域 2 3 0 4のようなセンサ 2から出力された 画像データ (入力画像) から、 光信号関数 F (実世界 1の光信号) を近似関数 f で近似することによって、 光信号関数 Fを推定する。
これにより、 実世界推定部 1 0 2より後段において (いまの場合、 図 3の画像 生成部 1 0 3 ) 、 積分効果が考慮された画像データ、 即ち、 近似関数 f により 表現可能な画像データを原点として、 その処理を実行することが可能になる。 以下、 図面を参照して、 このような関数近似手法のうちの 3つの具体的な手法 (第 1乃至第 3の関数近似手法) のそれぞれについて個別に説明していく。 はじめに、 図 2 0 9乃至図 2 2 3を参照して、 第 1の関数近似手法について説 明する。 T/JP2004/001488
235
図 2 0 9は、 上述した図 2 0 7で示される細線含有実世界領域 2 3 0 1を再度 表した図である。
図 2 0 9において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 2 0 6) を表している。
第 1の関数近似手法は、 例えば、 図 20 9で示されるような細線含有実世界領 域 2 3 0 1に対応する光信号関数 F(x,y,t)を X方向 (図中矢印 2 3 1 1の方 向) に射影した 1次元の波形 (以下、 このような波形を、 X断面波形 F(x)と称 する) を、 n次 (nは、 任意の整数) の多項式である近似関数 f(x)で近似する手 法である。 従って、 以下、 第 1の関数近似手法を、 特に、 1次元多項式近似手法 と称する。
なお、 1次元多項式近似手法において、 近似の対象となる X断面波形 F(x)は、 勿論、 図 2 0 9の細線含有実世界領域 2 3 0 1に対応するものに限定されない。 即ち、 後述するように、 1次元多項式近似手法においては、 定常性を有する実世 界 1の光信号に対応する X断面波形 F(x)であれば、 いずれのものでも近似する ことが可能である。
また、 光信号関数 F(x,y, t)の射影の方向は X方向に限定されず、 Y方向また は t方向でもよい。 即ち、 1次元多項式近似手法においては、 光信号関数
F(x, y, t)を Y方向に射影した関数 F(y)を、 所定の近似関数 f (y)で近似すること も可能であるし、 光信号関数 F(x,y, t)を t方向に射影した関数 F(t)を、 所定の 近似関数 f (t)で近似することも可能である。
より詳細には、 1次元多項式近似手法は、 例えば、 X断面波形 F(x)を、 次の 式 (1 0 5) で示されるような、 n次の多項式である近似関数 f(x)で近似する 手法である。
π .
f (X) = W0+W1X+W2X+- " '+WnXn = ∑ jX1
i=0
· · · ( 1 0 5) 即ち、 1次元多項式近似手法においては、 実世界推定部 1 0 2が、 式 (1 0 5 ) の T i の係数 (特徴量) Wi を演算することで、 X断面波形 F (x)を推定する。 この特徴量 Wi の演算方法は、 特に限定されず、 例えば、 次の第 1乃至第 3の 方法が使用可能である。
即ち、 第 1の方法は、 従来から利用されている方法である。
これに対して、 第 2の方法は、 本願出願人が新たに発明した方法であって、 第 1の方法に対して、 さらに、 空間方向の定常性を考慮した方法である。
しかしながら、 後述するように、 第 1の方法と第 2の方法においては、 センサ 2の積分効果が考慮されていない。 従って、 第 1の方法または第 2の方法により 演算された特徴量^ を上述した式 (1 0 5 ) に代入して得られる近似関数 f (x) は、 入力画像の近似関数ではあるが、 厳密には、 X断面波形 F (x)の近似関数と は言えない。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに考 慮して特徴量 を演算する第 3の方法を発明した。 この第 3の方法により演算 された特徴量 Wi を、 上述した式 (1 0 5 ) に代入して得られる近似関数 f (x)は、 センサ 2の積分効果を考慮している点で、 X断面波形 F (X)の近似関数であると 言 る。
このように、 厳密には、 第 1の方法と第 2の方法は、 1次元多項式近似手法と は言えず、 第 3の方法のみが 1次元多項式近似手法であると言える。
換言すると、 図 2 1 0で示されるように、 第 2の方法は、 1次元多項式近似手 法とは異なる、 本発明の実世界推定部 1 0 2の実施の形態である。 即ち、 図 2 1 0は、 第 2の方法に対応する実施の形態の原理を説明する図である。
図 2 1 0で示されるように、 第 2の方法に対応する実施の形態においては、 光 信号関数 Fで表される実世界 1の光信号が所定の定常性を有する場合、 実世界推 定部 1 0 2が、 センサ 2からの入力画像 (定常性に対応するデータの定常性を含 む画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画 像のデータの定常性に対応するデータ定常性情報) を使用して、 X断面波形
F (x)を近似するのではなく、 センサ 2からの入力画像を所定の近似関数 f2 (x)で 近似する。
このように、 第 2の方法は、 センサ 2の積分効果を考慮せず、 入力画像の近似 に留まっている点で、 第 3の方法と同一レベルの手法であるとは言い難い。 しか しながら、 第 2の方法は、 空間方向の定常性を考慮している点で、 従来の第 1の 方法よりも優れた手法である。
以下、 第 1の方法、 第 2の方法、 および第 3の方法のそれぞれの詳細について、 その順番で個別に説明していく。
なお、 以下、 第 1の方法、 第 2の方法、 および第 3の方法により生成される近 似関数 f(x)のそれぞれを、 他の方法のものと区別する場合、 特に、 近似関数 f x (x) , 近似関数 f2 (x)、 および近似関数 f3 (x)とそれぞれ称する。
はじめに、 第 1の方法の詳細について説明する。
第 1の方法においては、 上述した式 (105) で示される近似関数 ^ (X)が、 図 21 1の細線含有実世界領域 2301内で成り立つとして、 次の予測方程式 (106) を定義する。
P(x, y = ) +e
• · · (106) 式 (106) において、 Xは、 注目画素からの X方向に対する相対的な画素位 置を表している。 yは、 注目画素からの Y方向に対する相対的な画素位置を表し ている。 eは、 誤差を表している。 具体的には、 例えば、 いま、 図 21 1で示さ れるように、 注目画素が、 細線含有データ領域 2302 (細線含有実世界領域 2 301 (図 209) がセンサ 2により検出されて、 出力されたデータ) のうちの、 図中、 左から X方向に 2画素目であって、 下から Y方向に 3画素目の画素である とする。 また、 注目画素の中心を原点(0,0)とし、 センサ 2の X方向と Y方向 (図 206) のそれぞれに平行な X軸と y軸を軸とする座標系 (以下、 注目画 素座標系と称する) が設定されているとする。 この場合、 注目画素座標系の座標 値(x,y)が、 相対画素位置を表すことになる。
また、 式 (106) において、 P(x,y)は、 相対画素位置(x,y)における画素値 を表している。 具体的には、 いまの場合、 細線含有データ領域 2302内の P(x,y)は、 図 2 1 2で示されるようになる。
図 2 1 2は、 この画素値 P(x,y)をグラフ化したものを表している。
図 2 1 2において、 各グラフのそれぞれの縦軸は、 画素値を表しており、 横軸 は、 注目画素からの X方向の相対位置 Xを表している。 また、 図中、 上から 1 番目のグラフの点線は入力画素値 P ( , -2)を、 上から 2番目のグラフの 3点鎖線 は入力画素値 P(x, -1)を、 上から 3番目のグラフの実線は入力画素値 P(x,0)を、 上から 4番目のグラフの 1点鎖線は入力画素値 P(x,l)を、 上から 5番目 (下か ら 1番目) のグラフの 2点鎖線は入力画素値 P(x,2)を、 それぞれ表している。 上述した式 (106) に対して、 図 21 2で示される 20個の入力画素値 P ( , -2) , P (x, -1) , P (x, 0) , P (x, 1) , P (x, 2) (ただし、 xは、 一 1乃至 2のうちの いずれかの整数値) のそれぞれを代入すると、 次の式 (1 07) で示される 20 個の方程式が生成される。 なお、 ek (kは、 1乃至 20のうちのいずれかの整数 値) のそれぞれは、 誤差を表している。
TJP2004/001488
239
P(-1,-2) = 一 D+e,
P(0,—2) = 0) +e2
P(1,-2) = 1) +e3
P(2, -2) = f 2) +e4
P(-1,-1) = 一 1)+e5
P(0,-1) = 0) +e6
P(1,-1) = f 1) +e7
P(2, -1) = f 2) +e8
P(-1,0) = -D+e9
P(0,0) = f 0) +e10
P(1,0) =
P(2,0) = 2) +e12
P(-1,1) = f -D+e13
P(0,1) = f 0) +e14
P(1,1) = f 1) +e15
P(2, 1) = f 2) +e16
P(-1,2) = -1)+e17
P(0,2) = 0) +e18
P(1,2) =f D+e19
P(2,2) 2) +e20
• · · (10 7) 式 (107) は、 20個の方程式より構成されているので、 近似関数 (X)の 特徴量 Wi の個数が 20個より少ない場合、 即ち、 近似関数 )が 1 9次より 少ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 ^ の算出 が可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 いま、 近似関数 )の次数が 5次とされた場合、 式 (107) を利 用して最小自乗法により演算された近似関数 (X) (演算された特徴量^ によ り生成される近似関数 (X) ) は、 図 21 3で示される曲線のようになる。 なお、 図 21 3において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。
即ち、 図 21 1の細線含有データ領域 2 302を構成する 20個の画素値 P(x, y)のそれぞれ (図 2 1 2で示される入力画素値 P(x,- 2),P(x,- l),P(x, 0),P(x, l),P(x,2)のそれぞれ) を、 例えば、 x軸に沿つ てそのまま足しこむ (Y方向の相対位置 yを一定とみなして、 図 2 1 2で示さ れる 5つのグラフを重ねる) と、 図 2 1 3で示されるような、 X軸に平行な複数 の線 (点線、 3点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。
ただし、 図 2 1 3においては、 点線は入力画素値 P(x,- 2)を、 3点鎖線は入力 画素値 P(x,- 1)を、 実線は入力画素値 P(x,0)を、 1点鎖線は入力画素値 P(x, 1) を、 2点鎖線は入力画素値 P(x, 2)を、 それぞれ表している。 また、 同一の画素 値の場合、 実際には 2本以上の線が重なることになるが、 図 2 1 3においては、 各線の区別がつくように、 各線のそれぞれが重ならないように描画されている。 そして、 このように分布した 2 0個の入力画素値
P (x, - 2), P (X, -1) , P (X, 0), P (X, 1) , P (x, 2)のそれぞれと、 値 (x)の誤差が最小 となるような回帰曲線 (最小自乗法により演算された特徴量 ^ を上述した式 (1 04) に代入して得られる近似関数 (X) ) 力 図 2 1 3で示される曲線 (近似関数 )) となる。
このように、 近似関数 (X)は、 Y方向の画素値 (注目画素からの X方向の相 対位置 Xが同一の画素値) Ρ(χ, -2),Ρ(χ, -1),Ρ(χ,0),Ρ(χ, l),P(x,2)の平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。 即ち、 光信号が有する空間方 向の定常性を考慮することなく、 近似関数 (X)が生成されている。
例えば、 いまの場合、 近似の対象は、 細線含有実世界領域 2 3 0 1 (図 2 0 9) とされている。 この細線含有実世界領域 2 3 0 1は、 図 2 1 4で示されるよ うに、 傾き GFで表される空間方向の定常性を有している。 なお、 図 2 1 4にお いて、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 20 6) を表している。 従って、 データ定常性検出部 1 0 1 (図 20 5) は、 空間方向の定常性の傾き GFに対応するデータ定常性情報として、 図 2 1 4で示されるような角度 0 (傾 き GPに対応する傾き Gf で表されるデータの定常性の方向と、 X方向のなす角度 Θ ) を出力することができる。
しかしながら、 第 1の方法においては、 データ定常性検出部 1 0 1より出力さ れるデータ定常性情報は一切用いられていない。
換言すると、 図 2 14で示されるように、 細線含有実世界領域 23◦ 1の空間 方向の定常性の方向は略角度 0方向である。 しかしながら、 第 1の方法は、 細線 含有実世界領域 230 1の空間方向の定常性の方向は Y方向であると仮定して (即ち、 角度 0が 90度であると仮定して) 、 近似関数 (X)の特徴量 Wi を演 算する方法である。
このため、 近似関数 (X)は、 その波形が鈍り、 元の画素値よりディテールが 減少する関数となってしまう。 換言すると、 図示はしないが、 第 1の方法により 生成される近似関数 (X)は、 実際の X断面波形 F(x)とは大きく異なる波形と なってしまう。
そこで、 本願出願人は、 第 1の方法に対して、 空間方向の定常性をさらに考慮 して (角度 0を利用して) 特徴量^ を演算する第 2の方法を発明した。
即ち、 第 2の方法は、 細線含有実世界領域 2301の定常性の方向は略角度 0 方向であるとして、 近似関数 (X) の特徴量 Wi を演算する方法である。
具体的には、 例えば、 空間方向の定常性に対応するデータの定常性を表す傾き Gf は、 次の式 (108) で表される。
6f = tan θ - • dx
• · · (1 08) なお、 式 (1 08) において、 dxは、 図 214で示されるような X方向の微 小移動量を表しており、 dyは、 図 2 14で示されるような dxに対する Y方向の 微小移動量を表している。
この場合、 シフト量 Cx (y)を、 次の式 (109) のように定義すると、 第 2の 方法においては、 第 1の方法で利用した式 (106) に相当する式は、 次の式 (1 1 0) のようになる。 cx(y = • · ■ ( 1 0 9)
P(x, y) = f2(x-Cx(y) ) +e
• · · (1 1 0) 即ち、 第 1の方法で利用した式 (1 0 6) は、 画素の中心の位置(x、y)のうち の X方向の位置 Xが、 同一の位置に位置する画素の画素値 P(x,y)はいずれも同 じ値であることを表している。 換言すると、 式 (1 0 6) は、 同じ画素値の画素 が Y方向に続いている (Y方向に定常性がある) ことを表している。
これに対して、 第 2の方法で利用する式 (1 1 0) は、 画素の中心の位置が ( , 7)でぁる画素の画素値?( ,7)は、 注目画素 (その中心の位置が原点(0,0)で ある画素) から X方向に Xだけ離れた場所に位置する画素の画素値 (^f2 (x)) とは一致せず、 その画素からさらに X方向にシフト量 Cx (y)だけ離れた場所に位 置する画素 (注目画素から X方向に x + Cx (y)だけ離れた場所に位置する画素) の画素値 (^f2 (x + Cx (y)) ) と同じ値であることを表している。 換言すると、 式 (1 1 0) は、 同じ画素値の画素が、 シフト量 Cx (y)に対応する角度 0方向に 続いている (略角度 0方向に定常性がある) ことを表している。
このように、 シフト量 Cx (y)が、 空間方向の定常性 (いまの場合、 図 2 1 4の 傾き GFで表される定常性 (厳密には、 傾き Gf で表されるデータの定常性) ) を 考慮した補正量であり、 シフト量 Cx (y)により式 (1 0 6) を補正したものが式 ( 1 1 0) となる。
この場合、 図 2 1 1で示される細線含有データ領域 2 3 0 2の 2 0個の画素値 P(x,y) (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 _ 2乃至 2のうちのいずれかの整数値) のそれぞれを、 上述した式 (1 1 0) に代入する と次の式 (1 1 1) で示される 2 0個の方程式が生成される。 P(-1,一 2) = f2( -1-Cx(-2))+ei
P(0,一 2) = f2( ;0-Cx(-2))+e2
P(1,-2) = f2( ;i-Cx(-2))+e3
P(2,一 2) = f2( :2 - Gx(—2))+e4
P(-1,-1) = f2( ;-1-Cx(-1))+e5
P(0,一 1) = f2( :0-Cx(-1))+e6
P(1,-1) =f2 :i-Cx(-1))+e7
P(2,一 1) = f2< :2-Cx(-1))+e8
P(-1,0) =f2
P(0,0) =f2 :0)+e10
P(1,0) =f2
P(2,0) =f2 (2)+e12
P(-1,1) =f2 (-1-Cx(1))+e13
P(0, 1) =f2 (0-Cx(1))+el4
P(1,1) =f2 (1-Cx(1))+e15
P(2, 1) =f2 (2-Cx(1))+e16
P(-1,2) =f2 (-1-Cx(2))+e17
P(0,2) =f2 (0-Cx(2))+e18
P(1,2) =f2 (1-Cx(2))+e19
P(2,2) =f2 (2-Cx(2))+e20
… (1 1 1) 式 (1 1 1) は、 上述した式 (107) と同様に、 20個の方程式より構成さ れている。 従って、 第 1の方法と同様に第 2の方法においても、 近似関数 f2 (x) の特徴量 Wi の個数が 20個より少ない場合、 即ち、 近似関数 f2 (x)が 1 9次よ り少ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 の算 出が可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 第 1の方法と同様に近似関数 f2 (x)の次数が 5次とされた場合、 第 2 の方法においては、 次のようにして特徴量 が演算される。
即ち、 図 2 1 5は、 式 (1 1 1) の左辺で示される画素値 P(x,y)をグラフ化 したものを表している。 図 2 1 5で示される 5つのグラフのそれぞれは、 基本的 に図 2 1 2で示されるものと同一である。
図 2 1 5で示されるように、 最大の画素値 (細線に対応する画素値) は、 傾き JP2004/001488
244
Gf で表されるデータの定常性の方向に続いている。
そこで、 第 2の方法においては、 図 2 1 5で示される
入力画素値 P (x, -2), P (x, -1) , P (X, 0), P (X, 1), P (X, 2)のそれぞれを、 例えば、 X軸に沿って足しこむ場合、 第 1の方法のようにそのまま足しこむ (yを一定と みなして、 図 2 1 5で示される状態のまま 5つのグラフを重ねる) のではなく、 図 2 1 6で示される状態に変化させてから足しこむ。
即ち、 図 2 1 6は、 図 2 1 5で示される
入力画素値 p(x, - 2),p(x,-l),P(x, 0),P(x, l),P(x, 2)のそれぞれを、 上述した 式 (1 0 9) で示されるシフト量 Cx (y)だけシフトさせた状態を表している。 換 言すると、 図 2 1 6は、 図 2 1 5で示される 5つのグラフを、 データの定常性の 実際の方向を表す傾き GFを、 あたかも傾き GF 'とするように (図中、 点線の直 線を実線の直線とするように) 移動させた状態を表している。
図 2 1 6の状態で、 入力画素値 P (x, -2), P (x, - 1), P (x, 0), P (x, 1), P (x, 2)の それぞれを、 例えば、 X軸に沿って足しこむと (図 2 1 6で示される状態で 5つ のグラフを重ねると) 、 図 2 1 7で示されるような、 X軸に平行な複数の線 (点 線、 3点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。
なお、 図 2 1 7において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。 また、 点線は入力画素値 P(x,- 2)を、 3点鎖線は入力 ,画素値 P(x,- 1)を、 実線は入力画素値 P(x, 0)を、 1点鎖線は入力画素値 P(x, 1) を、 2点鎖線は入力画素値 P(x, 2)を、 それぞれ表している。 さらに、 同一の画 素値の場合、 実際には 2本以上の線が重なることになるが、 図 2 1 7においては、 各線の区別がつくように、 各線のそれぞれが重ならないように描画されている。 そして、 このように分布した 2 0個の入力画素値 P(x,y)のそれぞれ (ただし、 Xは、 _ 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃至 2のうちのいずれ かの整数値) と、 値 f2 (x+Cx (y))の誤差が最小となるような回帰曲線 (最小自 乗法により演算された特徴量 Wi を上述した式 (1 04) に代入して得られる近 似関数 f2 (x)) は、 図 2 1 7の実線で示される曲線 f2 (X)となる。 このように、 第 2の方法により生成された近似関数 f2 (x)は、 データ定常性検 出部 1 0 1 (図 2 0 5 ) より出力される角度 Θ方向 (即ち、 ほぼ空間方向の定常 性の方向) の入力画素値 P (x, y)の平均値を X方向に結んだ曲線を表すことにな る。
これに対して、 上述したように、 第 1の方法により生成された近似関数 (X) は、 Y方向 (即ち、 空間方向の定常性とは異なる方向) の入力画素値 P (x,y)の 平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。
従って、 図 2 1 7で示されるように、 第 2の方法により生成された近似関数 f2 (x)は、 第 1の方法により生成された近似関数 (X)よりも、 その波形の鈍り 度合いが減少し、 かつ、 元の画素値に対するディテールの減り具合も減少する関 数となる。 換言すると、 図示はしないが、 第 2の方法により生成される近似関数 f2 (X)は、 第 1の方法により生成される近似関数 ^ (X)よりも実際の X断面波形 F (x)により近い波形となる。
しかしながら、 上述したように、 近似関数 f2 (x)は、 空間方向の定常性が考慮 されたものではあるが、 入力画像 (入力画素値) を原点 (基準) として生成され たものに他ならない。 即ち、 上述した図 2 1 0で示されるように、 近似関数 f2 (x)は、 X断面波形 F (x)とは異なる入力画像を近似したに過ぎず、 X断面波形 F (x)を近似したとは言い難い。 換言すると、 第 2の方法は、 上述した式 (1 1 0 ) が成立するとして特徴量 Wi を演算する方法であり、 上述した式 (1 0 4 ) の関係は考慮していない (センサ 2の積分効果を考慮していない) 。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに考 慮することで近似関数 f3 (X)の特徴量 ^ を演算する第 3の方法を発明した。 即ち、 第 3の方法は、 空間混合領域の概念を導入した方法である。
第 3の方法の説明の前に、 図 2 1 8を参照して、 空間混合領域について説明す る。
図 2 1 8において、 実世界 1の光信号の 1部分 2 3 2 1 (以下、 領域 2 3 2 1 と称する) は、 センサ 2の 1つの検出素子 (画素) と同じ面積を有する領域を表 している。
領域 2 3 2 1がセンサ 2に検出されると、 センサ 2からは、 領域 2 3 2 1が時 空間方向 (X方向,Υ方向,および t方向) に積分された値 (1つの画素値) 2 3 2 2が出力される。 なお、 画素値 2 3 2 2は、 図中、 画像として表現されている 力 実際には、 所定の値を表すデータである。
実世界 1の領域 2 3 2 1は、 前景 (例えば、 上述した細線) に対応する光信号 (図中白い領域) と、 背景に対応する光信号 (図中黒い領域) に明確に区分され る。
これに対して、 画素値 2 3 2 2は、 前景に対応する実世界 1の光信号と、 背景 に対応する実世界 1の光信号が積分された値である。 換言すると、 画素値 2 3 2 2は、 前景に対応する光のレベルと背景に対応する光のレベルが空間的に混合さ れたレベルに対応する値である。
このように、 実世界 1の光信号のうちの 1画素 (センサ 2の検出素子) に対応 する部分が、 同一レベルの光信号が空間的に一様に分布する部分ではなく、 前景 と背景のように異なるレベルの光信号のそれぞれが分布する部分ャある場合、 そ の領域は、 センサ 2により検出されると、 センサ 2の積分効果により、 異なる光 のレベルがあたかも空間的に混合されて (空間方向に積分されて) 1つの画素値 となってしまう。 このように、 前景に対する画像 (実世界 1の光信号) と、 背景 に対する画像 (実世界 1の光信号) が空間的に積分されている画素からなる領域 を、 ここでは、 空間混合領域と称している。
従って、 第 3の方法においては、 実世界推定部 1 0 2 (図 2 0 5 ) 力 実世界 1の元の領域 2 3 2 1 (実世界 1の光信号のうちの、 センサ 2の 1画素に対応す る部分 2 3 2 1 ) を表す X断面波形 F (x)を、 例えば、 図 2 1 9で示されるよう な、 1次の多項式である近似関数 f3 (X)で近似することによって、 X断面波形 F (x)を推定する。
即ち、 図 2 1 9は、 空間混合領域である画素値 2 3 2 2 (図 2 1 8 ) に対応す る近似関数 f3 (x)、 即ち、 実世界 1の領域 2 3 3 1内の実線 (図 2 1 8 ) に対応 する X断面波形 F (x) を近似する近似関数 f3 (x)の例を表している。 図 2 1 9 において、 図中水平方向の軸は、 画素値 2 3 2 2に対応する画素の左下端 xs か ら右下端 xe までの辺 (図 2 1 8) に平行な軸を表しており、 X 軸とされている。 図中垂直方向の軸は、 画素値を表す軸とされている。
図 2 1 9において、 近似関数 f3 (X)を xsから xeの範囲 (画素幅) で積分した ものが、 センサ 2から出力される画素値 P (x,y)とほぼ一致する (誤差 eだけ存 在する) として、 次の式 (1 1 2) を定義する。
Figure imgf000249_0001
= jv (w0+w1x+w2x^+- · -+wnxn)dx+e
e— xs) + · · · +wn_1 +e
Figure imgf000249_0002
• · · ( 1 1 2) いまの場合、 図 2 1 4で示される細線含有データ領域 2 3 0 2の20偁の画素 値 P (x, y) (ただし、 Xは、 一 1乃至2のうちのいずれかの整数値。 yは、 一 2 乃至 2のうちのいずれかの整数値) から、 近似関数 f3 )の特徴量^ が算出さ れるので、 式 (1 1 2) の画素値 Pは、 画素値 P(x,y)となる。
また、 第 2の方法と同様に、 空間方向の定常性も考慮する必要があるので、 式 ( 1 1 2) の積分範囲の開始位置 xs と終了位置 xe のそれぞれは、 シフト量 Cx (y)にも依存することになる。 即ち、 式 (1 1 2) の積分範囲の開始位置 xs と終了位置 xeのそれぞれは、 次の式 (1 1 3) のように表される。
xs = x-Cx(y) -0.5
xe = x-Cx (y) +0.5
• · · ( 1 1 3) この場合、 図 2 1 4で示される細線含有データ領域 2 3 0 2の各画素値それぞ れ、 即ち、 図 2 1 5で示される入力画素値 P(x,- 2),P(x, - 1),? ,0),? ,1),? ,2)のそれぞれ (ただし、 Xは、 一 1乃至 2のうちのい ずれかの整数値) を、 上述した式 (112) (積分範囲は、 上述した式 (11 3) ) に代入すると次の式 (114) で示される 20個の方程式が生成される。
■ -—1 I-—C uxy(-2) + +0υ..55
P(-1,-2 = J-1-Cx(-2)-0.5 f3(x) dx+e1'
r0-Cx(-2) +0.5
P(0, - 2 = Jo-Gx(-2)-0.5 f3(x) dX+e2'
f11--CCxx((--22))++00..55
P(1,-2 Ί— Cx(-2)-0.5 P(2, -2
Figure imgf000250_0001
f3(x) dx+e4-
P(-1, -1 = /-1-Cx(-1)-0.5 f3^x) dX+e5'
r0-Cx(-1)+0.5 , 、
P(0, -1 = Jo-cx(-i)-o.5 f3(x)dx+e6
r1-Cx(-1)+0.5
P(1, - 1 = Ji-cx(-i)-o.5 f3(x)dx+e7
2-Cx(-1)+0.5
P(2,一 1 「 ,
2-Cx(-1)-0.5 3(x)dx+e8
-1+0.5
P (- 1,0 =/二 0.5 F3(x)dx+e9,
J. o+o.5
P(0,0 0—0.5 f3(x)dx+e10
r1+0.5
P(1,0 = J1_o c; f3(x)dx+e",
r2+0.5
P(2,0 J _n f3(x)dx+e12
'2-0.5
-1-Cx(1)+0.5
P(-1,1 -i-cxd)-o.5 f3(x)dx+e13
Figure imgf000251_0001
1-Cx(1)+0.5
P(1,1 F3(x)dx+e15,
1-Cx(1)-0.5
r2-Cx{1)+0.5
P(2,1 J2-Gx(1)-0.5 f3(X)dx+e16
-1-CV(2) +0.5
P(-1,2 -LZ 1-CX(2) -0.5 F3(x)dx+e17,
J»■ 0 υ--Cυx„( w2) +十0 u..5 o
'0-Gx(2) -0.5
1-CY(2) +0.5
P(1,2 -J ¾(x)dx+e19,
- Cx(2) -0.5
Figure imgf000251_0002
• · · (1 14) 式 (1 1 4) は、 上述した式 (1 1 1) と同様に、 20個の方程式より構成さ れている。 従って、 第 2の方法と同様に第 3の方法においても、 近似関数 f3 (x) の特徴量 の個数が 20個より少ない場合、 即ち、 近似関数 f3 (x)が 1 9次よ り少ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 Wi の算 出が可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 近似関数 f3 (X)の次数が 5次とされた場合、 式 (1 14) を利用して 最小自乗法により演算された近似関数 f3 (X) (演算された特徴量 ^ により生成 される近似関数 f3 (X)) は、 図 220の実線で示される曲線のようになる。
なお、 図 220において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。 図 2 2 0で示されるように、 第 3の方法により生成された近似関数 f3 ) (図 中、 実線で示される曲線) は、 第 2の方法により生成された近似関数 f2 (X) (図 中、 点線で示される曲線) と比較すると、 x = 0における画素値が大きくなり、 また、 曲線の傾斜の度合いも急な波形となる。 これは、 入力画素よりディティル が増加して、 入力画素の解像度とは無関係となっているためである。 即ち、 近似 関数 f3 (x) は、 X断面波形 F (x)を近似していると言える。 従って、 図示はしな いが、 近似関数 f3 (x)は、 近似関数 f2 (x)よりも X断面波形 F (x)に近い波形と なる。
図 2 2 1は、 このような 1次多項式近似手法を利用する実世界推定部 1 0 2の 構成例を表している。
図 2 2 1において、 実世界推定部 1 0 2は、 例えば、 特徴量 を上述した第 3の方法 (最小自乗法) により演算し、 演算した特徴量 Wi を利用して上述した 式 (1 0 5 ) の近似関数 f (x)を生成することで、 X断面波形 F (x)を推定する。 図 2 2 1で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 3 3 1、 入力画像記憶部 2 3 3 2、 入力画素値取得部 2 3 3 3、 積分成分演算部 2 3 3 4、 正規方程式生成部 2 3 3 5、 および近似関数生成部 2 3 3 6が設けられている。 条件設定部 2 3 3 1は、 注目画素に対応する X断面波形 F (x)を推定するため に使用する画素の範囲 (以下、 タ プ範囲と称する) や、 近似関数 f (x)の次数 nを設定する。
入力画像記憶部 2 3 3 2は、 センサ 2からの入力画像 (画素値) を一次的に格 納する。
入力画素値取得部 2 3 3 3は、 入力画像記憶部 2 3 3 2に記憶された入力画像 のうちの、 条件設定部 2 2 3 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 2 3 3 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。 なお、 入力画素値テーブルの具体 例については後述する。 ところで、 ここでは、 実世界推定部 1 02は、 上述した式 (1 1 2) と式 (1 1 3) を利用して最小自乗法により近似関数 f(x)の特徴量 を演算するが、 上 述した式 (1 1 2) は、 次の式 (1 1 5) のように表現することができる。
P(x, y)
n (x-Cx(y) +0.5)i+1- (x-Cx (y) -0.5)i+1
=∑ Wj X—— j-ϊ—— +e
i=0 1 +1
n
=∑ Wj Sj (xs, xe) +e
i=0 ■ ■ · (1 1 5) 式 (1 1 5) において、 Si (xs , xe ) は、 i次項の積分成分を表している。 即 ち、 積分成分 Si (xs,xe)は、 次の式 (1 1 6) で示される。
i+1 i+1
, 、 X 入 f
ΰί (xs, Ae) 二
• · · · (1 1 6) 積分成分演算部 2 334は、 この積分成分 Si (xs、xe)を演算する。
具体的には、 式 (1 1 6) で示される積分成分 Si (xs,xe) (ただし、 値 と 値 xe は、 上述した式 (1 1 2) で示される値) は、 相対画素位置(x,y)、 シフ ト量 Cx (y)、 および、 i次項の iが既知であれば演算可能である。 また、 これら のうちの、 相対画素位置(x,y)は注目画素とタップ範囲により、 シフト量 Cx (y) は角度 0により (上述した式 (107) と式 (1 09) により) 、 iの範囲は次 数 nにより、 それぞれ決定される。
従って、 積分成分演算部 2 334は、 条件設定部 2 33 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデータ定 常性情報のうちの角度 0に基づいて積分成分 Si ( 6)を演算し、 その演算結果 を積分成分テーブルとして正規方程式生成部 23 35に供給する。
正規方程式生成部 23 35は、 入力画素値取得部 233 3より供給された入力 画素値テーブルと、 積分成分演算部 2334より供給された積分成分テーブルを 利用して、 上述した式 (1 1 2) 、 即ち、 式 (1 1 5) の右辺の特徴量 ^ を最 小自乗法で求める場合の正規方程式を生成し、 それを正規方程式テーブルとして 近似関数生成部 2 3 3 6に供給する。 なお、 正規方程式の具体例については後述 する。
近似関数生成部 2 3 3 6は、 正規方程式生成部 2 3 3 5より供給された正規方 程式テーブルに含まれる正規方程式を行列解放で解くことにより、 上述した式
(1 1 5) の特徴量 (即ち、 1次元多項式である近似関数 f(x)の係数^) の それぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 2 2 2のフローチャートを参照して、 1次元多項式近似手法を利用す る実世界推定部 1 0 2 (図 2 2 1) の実世界の推定処理 (図 4 0のステップ S 1 0 2の処理) について説明する。
例えば、 いま、 センサ 2から出力された 1フレームの入力画像であって、 上述 した図 20 7の細線含有データ領域 2 3 0 2を含む入力画像が、 既に入力画像記 憶部 2 3 3 2に記憶されているとする。 また、 データ定常性検出部 1 0 1が、 ス テツプ S 1 0 1 (図 4 0) の定常性の検出の処理において、 細線含有データ領域 2 3 0 2に対してその処理を施して、 データ定常性情報として角度 0を既に出力 しているとする。
この場合、 図 2 2 2のステップ S 2 3 0 1において、 条件設定部 2 3 3 1は、 条件 (タップ範囲と次数) を設定する。
例えば、 いま、 図 2 2 3で示されるタップ範囲 2 3 5 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 2 2 3は、 タップ範囲の一例を説明する図である。 図 2 2 3において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 2 0 6) を表している。 また、 タップ範囲 2 3 5 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個 の画素 (図中、 2 0個の正方形) からなる画素群を表している。
さらに、 図 2 2 3で示されるように、 注目画素が、 タップ範囲 2 3 5 1のうち の、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとする。 また、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x, y) (注目画 素の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 223で示 されるような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付される とする。
図 222に戻り、 ステップ S 2 30 2において、 条件設定部 23 3 1は、 注目 画素を設定する。
ステップ S 2 303において、 入力画素値取得部 2 33 3は、 条件設定部 23 3 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部23 33は、 細線含有データ領域2302 (図 2 1 1) を取得し、 入力画素値テーブルとして、 20個の入力画素値 P ( 1)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係は、 次の式 (1 1 7) で示される関係とされる。 ただし、 式 (1 1 7) において、 左 辺が入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。
P(0) = P(0,0)
P(1) = P(-1,2)
(2) = P(0,2)
Figure imgf000256_0001
P(18)
P(19) = P(2, -2)
• - · (1 1 7) ステップ S 2304において、 積分成分演算部 23 34は、 条件設定部 2 33 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 10 1より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し- 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 23 34は、 上述し た式 (1 1 6) の積分成分 Si (xs xe)を、 次の式 (1 1 8) の左辺で示される積 分成分 Si (1)といった 1の関数として演算する。
S l ) = Si (xs'xe) ' ■ · (1 1 8)
具体的には、 いまの場合、 次の式 (1 1 9) で示される積分成分 Si (1)が演算 される。 s (0) =S, (-0.5, 0.5)
s (1) (-1.5-Cx(2), -0.5-Cx(2))
s (2) =s (-0.5-Cx(2),0.5-Cx(2))
s (3) =s (0.5-Cx(2),1.5-Cx(2))
s (4) =s (1.5-CX(2),2.5-Cx(2))
s (5) =s (一 1.5 - Gx(1), -0.5-Cx(1))
s (6) =s (-0.5-Cx(1),0.5-Cx(1))
s (7) =s (0.5-Cx(1), 1.5-Cx(D)
s (8) =s (1.5 - Cx(1),2.5-Cx(D)
s (9) =s (-1.5, -0.5)
s (10) =s (0.5,1.5)
s 〔11) =s (1.5, 2.5)
s (12) =s (-1.5-CX(-1), -0.5-Cx(-D)
s (13) =s (-0.5-Cx(-1),0.5-Cx(-D)
s (14) =s (0.5-Cx(-1),1.5-Cx(-D)
s (15) =s (1.5-CX(-1),2.5-CX(-D)
s (16) =s (-1.5-Cx(-2), -0.5-Cx(-2))
s (17) =s (-0.5-Cx(-2),0.5-Cx(-2))
s (18) =s ,(0.5-Cx(-2), 1.5-Cx(-2))
s (19) =s (1.5-Cx(-2),2.5-Cx(-2))
• · · (1 1 9) なお、 式 (1 1 9) において、 左辺が積分成分 Si ( 1)を表し、 右辺が積分成 分 Si 3 8)を表している。 即ち、 いまの場合、 iは 0乃至 5であるので、 20 個の S。(1), 20個の Si (1), 20個の S2 (1), 20個の S3 (1), 20個の S4 (1), 2 0個の S5 (1)の総計 1 20個の Si (1)が演算されることになる。
より具体的には、 はじめに、 積分成分演算部 23 34は、 データ定常性検出部 1 0 1より供給された角度 0を使用して、
シフ ト量 Cx (- 2),CX (- 1),CX (1),CX (2)のそれぞれを演算する。 次に、 積分成分 演算部 23 34は、 演算したシフト量 Cx (- 2),CX (- 1),CX (1),CX (2)を使用して 式 (1 1 8) の右辺に示される 20個の積分成分 Si (xs,xe)のそれぞれを、 i= 0乃至 5のそれぞれについて演算する。 即ち、 1 20個の積分成分 S; (Xj!,xe)が P T/JP2004/001488
256
演算される。 なお、 この積分成分 Si (xs,xe)の演算においては、 上述した式 (1 1 6) が使用される。 そして、 積分成分演算部 23 34は、 式 (1 1 9) に従つ ∑ :
て、 演算した W 1 20個の積分成分 Si (xs,xe)のそれぞれを、 対応する積分成分 Si (1)に変換し、 変換した 1 20個の積分成分 Si (1)を含む積分成分テーブルを 生成する。
なお、 ステップ S 2303の処理とステップ S 2304の処理の順序は、 図 2 22の例に限定されず、 ステップ S 2 304の処理が先に実行されてもよいし、 ステップ S 2303の処理とステップ S 2 304の処理が同時に実行されてもよ い。
次に、 ステップ S 2305において、 正規方程式生成部 23 3 5は、 ステップ S 2303の処理で入力画素値取得部 23 3 3により生成された入力画素値テー ブルと、 ステップ S 2304の処理で積分成分演算部 23 34により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 (1 1 5) に対応す る次の式 (1 20) の特徴量 を演算する。 で、 それに対応する正規方程式は、 次の式 (1 2 1) のように表される。
(1 20)
Figure imgf000258_0001
· · ■ (1 2 1) なお、 式 (1 2 1) において、 Lは、 タップ範囲の画素の番号 1のうちの最大 値を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具体 的には、 いまの場合、 n=5となり、 L=19となる。
∑∑ L L
式 (12一 -o 1 s s s) で示される正規方程式の各行列のそれぞれを、 次の式 (122)
n
乃至 (124) のように定義すると、 正規方程式は、 次の式 (125) のよう 表される。
Figure imgf000259_0001
(1 22) w0
(1 23)
PMAT =
(1 24)
SMAT¾T = PMAT • - · (1 2 5) 式 (1 2 3) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 である。 従って、 式 (1 2 5) において、 左辺の行列 SMAT と右辺の行列 PMA T が決定されれば、 行列解法によって行列 WM A τ (即ち、 特徴量^) の算出が可能 である。
具体的には、 式 (1 2 2) で示されるように、 行列 SMAT の各成分は、 上述し た積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成分 演算部 2 3 34より供給された積分成分テーブルに含まれているので、 正規方程 式生成部 2 3 3 5は、 積分成分テーブルを利用して行列 SMAT の各成分を演算す ることができる。
また、 式 (1 24) で示されるように、 行列 PMAT の各成分は、 積分成分 Si (1)と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行 列 SMA Tの各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l) は、 入力画素値取得部 2 3 3 3より供給された入力画素値テーブルに含まれてい るので、 正規方程式生成部 2 3 3 5は、 積分成分テーブルと入力画素値テーブル を利用して行列 PMATの各成分を演算することができる。
このようにして、 正規方程式生成部 2 3 3 5は、 行列 SMAT と行列 PMArの各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMATの各成分) を正規方程式 テーブルとして近似関数生成部 2 3 3 6に出力する。
正規方程式生成部 2 3 3 5より正規方程式テーブルが出力されると、 ステップ S 2 3 0 6において、 近似関数生成部 2 3 3 6は、 正規方程式テーブルに基づい て、 上述した式 (1 2 5) の行列 WMAT の各成分である特徴量 ^ (即ち、 1次元 多項式である近似関数 f(x)の係数 ) を演算する。 .
具体的には、 上述した式 (1 2 5) の正規方程式は、 次の式 (1 2 6) のよう に変形できる。
¾T = S ATPMAT • - · (1 2 6) 式 (1 2 6) において、 左辺の行列 ATの各成分が、 求めたい特徴量 ^ で ある。 また、 行列 SMAT と行列 PMATのそれぞれの各成分は、 正規方程式生成部 2 3 3 5より供給された正規方程式テーブルに含まれている。 従って、 近似関数 生成部 2 3 3 6は、 正規方程式テーブルを利用して、 式 (1 2 6) の右辺の行列 演算を行うことで行列 WMAT を演算し、 その演算結果 (特徴量 Wi) を画像生成部 1 0 3に出力する。
ステップ S 2 3 0 7において、 近似関数生成部 2 3 3 6は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 3 0 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2 3 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 3 0 2乃至 S 2 3 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 3 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
なお、 以上のようにして演算された係数 (特徴量) ^ により生成される近似 関数 f(x)の波形は、 上述した図 2 2 0の近似関数 f3 (X)のような波形となる。 このように、 1次元多項式近似手法においては、 1次元の X断面波形 F(x)と 同一形状の波形が定常性の方向に連なっていると仮定して、 1次元の多項式であ る近似関数 f(x)の特徴量が演算される。 従って、 1次元多項式近似手法におい ては、 他の関数近似手法に比較して、 少ない演算処理量で近似関数 f(x)の特徴 量の算出が可能となる。
換言すると、 1次元多項式近似手法においては、 例えば、 図 20 5 (図 3) の データ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサの複数 の検出素子 (例えば、 図 20 6のセンサ 2の検出素子 2— 1) により実世界 1の 光信号 (例えば、 図 20 7の実世界 1の光信号の 1部分 2 3 0 1) が射影され、 実世界 1の光信号の定常性 (例えば、 図 2 1 4の傾き GFで表される定常性) の 一部が欠落した、 検出素子 2— 1により射影された画素値 (例えば、 図 2 1 2の 各グラフに示される入力画素値 P (x, y)) を有する複数の画素からなる画像デー タ (例えば、 図 20 7の画像データ (入力画像の領域) 2 3 0 2) におけるデー タの定常性 (例えば、 図 2 1,4の傾き Gf で表されるデータの定常性) を検出す る。
例えば、 図 2 0 5 (図 3) の実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向のうち 1次元方向 (例えば、 図 20 9の矢印 2 3 1 1、 即ち、 X方向) の位置に対応す る画素の画素値 (例えば、 上述した式 (1 1 2) の左辺である入力画素値 P) 力 1次元方向の積分効果により取得された画素値 (例えば、 式 (1 1 2) の右辺に 示されるように、 近似関数 f3 )が X方向に積分された値) であるとして、 実世 界 1の光信号を表す光信号関数 F (具体的には、 X断面波形 F (X ) ) を所定の 近似関数 f (具体的には、 例えば、 図 2 20の近似関数 f3 (X) ) で近似すること で、 光信号関数 Fを推定する。
詳細には、 例えば、 実世界推定部 1 0 2は、 定常性検出手部 1 0 1により検出 されたデータの定常性に対応する線 (例えば、 図 2 1 6の傾き Gf に対応する線 (点線) ) からの 1次元方向 (例えば、 X方向) に沿った距離 (例えば、 図 2 1 6のシフト量 Cx(y)) に対応する画素の画素値が、 1次元方向の積分効果により 取得された画素値 (例えば、 上述した式 (1 1 2) に示されるような積分範囲で、 式 (1 1 2) の右辺に示されるように、 近似関数: 3 (X)が X方向に積分された 値) であるとして、 光信号関数 Fを近似関数 f で近似することにより、 光信号 関数 Fを推定する。
従って、 1次元多項式近似手法においては、 他の関数近似手法に比較して、 少 ない演算処理量で近似関数 f (x)の特徴量の算出が可能となる。
次に、 図 2 24乃至図 2 3 0を参照して、 第 2の関数近似手法について説明す る。
即ち、 第 2の関数近似手法とは、 例えば、 図 2 24で示されるような、 傾き GPで表される空間方向の定常性を有する実世界 1の光信号を、 X— Y平面上
(空間方向の 1方向である X方向と、 X方向に垂直な Y方向に水平な平面上) の 波形 F (x, y)とみなし、 2次元の多項式である近似関数 f (x, y)で波形 F (x, y)を 近似することによって、 その波形 F (x, y)を推定する手法である。 従って、 以下、 第 2の関数近似手法を、 2次元多項式近似手法と称する。
なお、 図 2 2 4において、 図中、 水平方向は、 空間方向の 1方向である X方向 を、 右上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 それぞれ表している。 GFは、 空間方向の定常性の傾きを表している。
また、 2次元多項式近似手法の説明においても、 センサ 2は、 図 2 2 5で示さ れるような、 複数の検出素子 2— 1がその平面上に配置されて構成される C C D とされる。
図 2 2 5の例では、 検出素子 2 _ 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向で ある Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t方向とされている。
また、 図 2 2 5の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時 間 (露光時間) が 1とされている。
さらに、 図 2 2 5の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0 ) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 (1:方向の位置1 = 0 ) とされている。
この場合、 空間方向の原点 (x = 0, y = 0 ) にその中心が存在する検出素子 2— 1は、 X方向に- 0. 5乃至 0. 5の範囲、 Y方向に- 0. 5乃至 0. 5の範囲、 およ ぴ t方向に- 0. 5乃至 0. 5の範囲で光信号関数 F (x,y,t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (1 2 7) で表される。
/++00..55 ++00..55 f++00..55 t
- -00..55 J J --00..55 J J --00..55 F(X,y,t)dxdydt
• · · ( 1 2 7) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (1 2 7) で示される画素値 Pを出力することになる。 ところで、 上述したように、 2次元多項式近似手法は、 実世界 1の光信号を、 例えば、 図 2 24で示されるような波形 F(x,y)として扱い、 その 2次元の波形 F(x, y)を、 2次元の多項式である近似関数 f (x, y)に近似する手法である。
そこで、 はじめに、 このような近似関数 f (x,y)を 2次元の多項式で表現する 手法について説明する。
上述したように、 実世界 1の光信号は、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする光信号関数 F (X, y, t)で表される。 この光信号関数 F(x, y, t)を、 Y方向の任意の位置 yにおいて、 X方向に射影した 1次元の波形 を、 ここでは、 X断面波形 F(x)と称している。
この X断面波形 F ( X ) に注目すると、 実世界 1の信号が、 空間方向の所定の 方向に定常性を有している場合、 X断面波形 F ( X ) と同一形状の波形がその定 常性の方向に連なっていると考えることができる。 例えば、 図 2 2 4の例では、 X断面波形 F ( X ) と同一形状の波形が、 傾き GFの方向に連なっている。 換言 すると、 X断面波形 F ( X ) と同一形状の波形が傾き GPの方向に連なって、 波 形 F(x, y)が形成されているとも言える。
従って、 波形 F(x, y)を近似する近似関数 f (x,y)の波形は、 X断面波形 F(x) を近似する近似関数 f(x)と同一形状の波形が連なって形成されると考えること で、 近似関数 f (X, y)を 2次元の多項式で表現することが可能になる。
さらに詳細に、 近似関数 f(x,y)の表現方法について説明する。
例えば、 いま、 上述した図 2 24で示されるような、 実世界 1の光信号、 即ち、 傾き GFで表される空間方向の定常性を有する光信号が、 センサ 2 (図 2 2 5) により検出されて入力画像 (画素値) として出力されたとする。
さらに、 図 2 2 6で示されるように、 データ定常性検出部 1 0 1 (図 3) 1S この入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個 の画素 (図中、 点線で表される 2 0個の正方形) から構成される入力画像の領域 240 1に対してその処理を実行し、 データ定常性情報の 1つとして角度 0 (傾 き GP に対応する傾き Gf で表されるデータの定常性の方向と、 X方向とのなす角 度 0) を出力したとする。
なお、 入力画像の領域 240 1において、 図中水平方向は、 空間方向の 1方 向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y方向 を表している。
また、 図 2 2 6中、 左から 2画素目であって、 下から 3画素目の画素が注目画 素とされ、 その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定さ れている。 そして、 原点(0,0)を通る角度 Θの直線 (データの定常性の方向を表 す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離と称す る) が x'と記述されている。
さらに、 図 2 2 6中、 右側のグラフは、 X断面波形 F(x')が近似された関数で あって、 n次 (n は、 任意の整数) の多項式である近似関数 f(x')を表している 右側のグラフの軸のうち、 図中水平方向の軸は、 断面方向距離を表しており、 図 中垂直方向の軸は、 画素値を表している。
この場合、 図 2 2 6で示される近似関数 f(x')は、 n次の多項式であるので、 次の式 (1 2 8) のように表される。
n .
f (X,) = W0+WiX,+Wゥ Χ, + · ' '+WnX,n = ∑ WjX"
i=0
• - · ( 1 2 8) また、 角度 0が決定されていることから、 原点(0,0)を通る角度 Θの直線は一 意に決まり、 Y方向の任意の位置 yにおける、 直線の X方向の位置 力 次の 式 (1 2 9) のように表される。 ただし、 式 (1 2 9) において、 sは cot Θを 表している。
Xl = s X y · ■ ■ (1 2 9)
即ち、 図 2 2 6で示されるように、 傾き Gf で表されるデータの定常性に対応 する直線上の点は、 座標値(X, y)で表される。
式 (1 2 9) より、 断面方向距離 x,は、 次の式 (1 3 0) のように表される c = x— x1 = x— sX y ' · · ( 1 3 0)
従って、 入力画像の領域 240 1内の任意の位置(x,y)における近似関数 f(x,y)は、 式 (1 2 8) と式 (1 3 0) より、 次の式 (1 3 1) のように示さ れる。
n
f (x, y) = - Wj -sxy)1
i=o
• · · ( 1 3 1 ) なお、 式 (1 3 1 ) において、 Wi は、 近似関数 f (x,y)の係数を表している。 なお、 近似関数 f (x,y)を含む近似関数 f の係数 を、 近似関数 f の特徴量と位 置づけることもできる。 従って、 以下、 近似関数 ίの係数 を、 近似関数 f の 特徴量 ^ とも称する。
このようにして、 角度 0が既知であれば、 2次元波形の近似関数 f (x,y)を、 式 (1 3 1 ) の多項式として表現することができる。
従って、 実世界推定部 1 0 2は、 式 (1 3 1) の特徴量 wiを演算することが できれば、 図 2 24で示されるような波形 F(x,y)を推定することができる。
そこで、 以下、 式 (1 3 1 ) の特徴量 wiを演算する手法について説明する。 即ち、 式 (1 3 1 ) で表される近似関数 f(x,y)を、 画素 (センサ 2の検出素 子 2— 1 (図 2 2 5) ) に対応する積分範囲 (空間方向の積分範囲) で積分すれ ば、 その積分値が、 画素の画素値の推定値となる。 このことを、 式で表現したも のが、 次の式 (1 3 2) である。 なお、 2次元多項式近似手法においては、 時間 方向 tは一定値とみなされるので、 式 (1 3 2) は、 空間方向 (X方向と Y方 法) の位置 x,yを変数とする方程式とされている。 T/JP2004/001488
265 p(x'y) Wi (x~sxy)'+e
Figure imgf000267_0001
• · · (1 3 2) 式 (1 3 2) において、 P(x,y)は、 センサ 2からの入力画像のうちの、 その 中心位置が位置(x,y) (注目画素からの相対位置(x,y)) に存在する画素の画素 値を表している。 また、 eは、 誤差を表している。
このように、 2次元多項式近似手法においては、 入力画素値 P(x,y)と、 2次 元の多項式である近似関数 f(x,y)の関係を、 式 (1 3 2) で表現することが可 能であるので、 実世界推定部 1 0 2は、 式 (1 3 2) を利用して、 特徴量 wi を、 例えば、 最小自乗法等により演算することで (演算した特徴量 wiを式 (1 3 0) に代入して近似関数 f(x,y)を生成することで) 、 2次元の関数 F(x,y) (傾 き GF (図 2 24) で表される空間方向の定常性を有する実世界 1の光信号を、 空間方向に着目して表した波形 F (x, y) ) を推定することが可能となる。
図 2 2 7は、 このような 2次元多項式近似手法を利用する実世界推定部 1 0 2 の構成例を表している。
図 2 2 7で示されるように、 実世界推定部 1 0 2には、 条件設定部 24 2 1、 入力画像記憶部 24 2 2、 入力画素値取得部 24 2 3、 積分成分演算部 24 24、 正規方程式生成部 24 2 5、 および近似関数生成部 24 2 6が設けられている。 条件設定部 2 4 2 1は、 注目画素に対応する関数 F(x,y)を推定するために使 用する画素の範囲 (タップ範囲) や、 近似関数 f(x,y)の次数 nを設定する。
入力画像記憶部 24 2 2は、 センサ 2からの入力画像 (画素値) を一次格納す る。
入力画素値取得部 24 2 3は、 入力画像記憶部 24 2 2に記憶された入力画像 のうちの、 条件設定部 24 2 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 24 2 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。 なお、 入力画素値テーブルの具体 例については後述する。
ところで、 上述したように、 2次元多項式近似手法を利用する実世界推定部 1 02は、 上述した式 (1 32) を最小自乗法で解くことにより、 上述した式 (1 3 1) で示される近似関数 f (x,y)の特徴量 を演算する。
式 (1 3 2) は、 次の式 (1 3 3) 乃至式 (1 35) を用いることで得られる 次の式 (1 36) を使用することで、 次の式 (1 3 7) のように表現することが できる。
i+1
+1
(1 3 3) i+1
(x-sxy)
j (x-s y)'dx
(1 34)
Figure imgf000268_0001
(1 3 5)
J»y+0.5 广 x+0.5 r»y y-+0.5
n r I „「 (x— sxyVdxdy = I
y-0.5 Jx-0.5 v y—-o.5 dy
Figure imgf000268_0002
i+1
= y十+'o.5 (x+0.5-sxy)i+1 -(x-0.5-sxy)
J y-0 dy
y-0.5 +1
i+2 y+0.5 +2 y+0.5
(x+0.5-sxy) (x-0.5-sxy)
s(i+1) (i+2) y-0.5 s(i+1) (i+2) . y-0.5
Figure imgf000268_0003
(1 36) 2004/001488
267
P (X' y) = ο 3(.+1)'(.+2) ί(χ+0·5-3Χγ+α 53)
一 (x+0.5-sxy-0.5s)i+2-(x-0.5-s y+0.5s)i+2
+ (x-0.5-s y-0.5s)i+2]+e
n
= ∑ jSj (x— 0.5, x+0.5, y-0.5, y+0.5) +e
i=0
• · · (1 3 7) 式 (1 3 7) において、 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 i次項の積分成 分を表している。 即ち、 積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 次の式 (1 3 8) で示される通りである。
S; (x-0.5, x+0.5, y-0.5, y+0.5) =
(x+0i-sxy+0 s)i+2-(x+0.5-sxy-0.5s)i+2-(x-0.5-sxy+0.5s)i+2+(x-0,5-sxy-0.5s)i+2
" s(i+1)(i+2)
- - - (1 3 8) 積分成分演算部 2424は、 この積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) を演算する。
具体的には、 式 (1 3 8) で示される
積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 相対画素位置(x,y)、 上述した式 (1 3 1) における変数 s、 および、 i次項の iが既知であれば、 演算可能であ る。 これらのうちの、 相対画素位置(x,y)は注目画素とタップ範囲により、 変数 sは cot 0であるので角度 0により、 iの範囲は次数 nにより、 それぞれ決定さ れる。
従って、 積分成分演算部 2424は、 条件設定部 242 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 10 1より出力されたデータ定 常性情報のうちの角度 Θに基づいて積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) を演算し、 その演算結果を積分成分テーブルとして正規方程式生成部 2425に 供給する。 正規方程式生成部 2 4 2 5は、 入力画素値取得部 2 4 2 3より供給された入力 画素値テーブルと、 積分成分演算部 2 4 2 4より供給された積分成分テーブルを 利用して、 上述した式 (1 3 2 ) 、 即ち、 式 (1 3 7 ) を最小自乗法で求める場 合の正規方程式を生成し、 それを正規方程式テーブルとして近似関数生成部 2 4 2 6に出力する。 なお、 正規方程式の具体例については後述する。
近似関数生成部 2 4 2 6は、 正規方程式生成部 2 4 2 5より供給された正規方 程式テーブルに含まれる正規方程式を行列解放で解くことにより、 上述した式 ( 1 3 2 ) の特徴量 (即ち、 2次元多項式である近似関数: (x,y)の係数 ) のそれぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 2 2 8のフローチャートを参照して、 2次元多項式近似手法が適用さ れる実世界の推定処理 (図 4 0のステップ S 1 0 2の処理) について説明する。 例えば、 いま、 傾き GFで表される空間方向の定常性を有する実世界 1の光信 号が、 センサ 2 (図 2 2 5 ) により検出されて、 1フレームに対応する入力画像 として、 入力画像記憶部 2 4 2 2に既に記憶されているとする。 また、 データ定 常性検出部 1 0 1が、 ステップ S 1 0 1 (図 4 0 ) の定常性の検出の処理におい て、 入力画像のうちの、 上述した図 2 2 6で示される領域 2 4 0 1に対して処理 を施して、 データ定常性情報として角度 6を既に出力しているとする。
この場合、 ステップ S 2 4 0 1において、 条件設定部 2 4 2 1は、 条件 (タツ プ範囲と次数) を設定する。
例えば、 いま、 図 2 2 9で示されるタップ範囲 2 4 4 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 2 2 9は、 タップ範囲の一例を説明する図である。 図 2 2 9において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 2 2 5 ) を表している。 また、 タップ範囲 2 4 4 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個 の画素 (図中、 2 0個の正方形) からなる画素群を表している。
さらに、 図 2 2 9に示されるように、 注目画素が、 タップ範囲 2 4 4 1のうち の、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとする。 また、 各画素のそれぞれに対して、 注目画素からの相対画素位置(X, y) (注目画 素の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 2 29で示 されるような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付される とする。
図 228に戻り、 ステップ S 2402において、 条件設定部 242 1は、 注目 画素を設定する。
ステップ S 240 3において、 入力画素値取得部 242 3は、 条件設定部 24 2 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 2423は、 入力画像の領域 240 1 (図 226) を取得し、 入力画素値テーブルとして、 2 0個の入力画素値 P (1)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係は、 次の式 (1 39) で示される関係とされる。 ただし、 式 (1 3 9) において、 左 辺が入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。
P(0) = P(0,0)
P(1) = P(-1,2)
P(2) = P(0, 2)
P(3) = P(1,2)
Figure imgf000272_0001
P(18) = P(1, -2)
P(19) = P(2, -2)
• · · (1 3 9) ステップ S 2404において、 積分成分演算部 2424は、 条件設定部 242 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 101より供給されたデータ定常性情報 (角度 Θ ) に基づいて積分成分を演算し、 積分成分テ一ブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x,y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2424は、 上述し た式 (1 38) の積分成分 Si (x-0.5, x+0.5, y- 0.5, y+0.5)を、 次の式 ( 14 0) の左辺で示される積分成分 Si (1)といった 1の関数として演算する。
Sj ( 1 ) = S; (x-0.5, x+0.5, y-0.5, y+0.5) , ■ ■ (140)
具体的には、 いまの場合、 次の式 (14 1) で示される積分成分 Si (1)が演算 される。 s (0) =S (一 0.5,0.5, -0.5, 0.5)
s (1) =S (-1.5, -0.5,1.5, 2.5)
s (2) =S (一 0.5, 0.5,1.5, 2.5)
s (3) =S (0.5,1.5,1.5, 2.5)
s (4) =S (1.5, 2.5,1.5, 2.5)
s (5) =S (-1.5, -0.5, 0.5,1.5)
s (6) =S (-0.5,0.5, 0.5,1.5)
s (7) =S (0.5,1.5, 0.5,1.5)
s (8) =S (1.5, 2.5, 0.5,1.5)
s (9) =S (-1.5,一 0.5, -0.5, 0.5)
s (10) =S (0.5, 1.5, -0.5, 0.5)
s :11) =S (1.5, 2.5,一 0.5, 0.5)
s (12) =S (-1.5,一 0.5, -1.5, -0.5)
s (13) =S (-0.5,0.5, -1.5, -0.5)
s (14) =S ,(0.5,1.5, -1.5, -0.5)
s (15) =S i(1.5, 2.5, -1.5, -0.5)
s (16) =S i (一 1.5, -0.5, -2.5, -1.5)
s (17) =S i(-0.5,0.5, -2.5, -1.5)
s (18) =S i(0.5, 1.5,一 2.5, -1.5)
s (19) =S id.5, 2.5, -2.5, -1.5)
• · · ( 1 4 1 ) なお、 式 (1 4 1 ) において、 左辺が積分成分 Si ( 1 )を表し、 右辺が積分成 分 Si (X- 0.5, x+0.5, y- 0.5, y+0.5)を表している。 即ち、 いまの場合、 iは 0乃 至 5であるので、 2 0個の S。(1), 2 0個の Si (1), 2 0個の S2 (1), 2 0個の S3 (1), 2 0個の S4 (1), 2 0個の S5 (1)の総計 1 2 0個の Si (1)が演算されるこ とになる。
より具体的には、 はじめに、 積分成分演算部 2 4 2 4は、 データ定常性検出部 1 0 1より供給された角度 0に対する cot 0を演算し、 それを変数 sとする。 次 に、 積分成分演算部 24 24は、 演算した変数 sを使用して式 (1 40) の右辺 で示される 20個の積分成分 Si (X- 0.5,x+0.5,y-0.5, y+0.5) のそれぞれを、 i= 0乃至 5のそれぞれについて演算する。 即ち、 1 20個の
積分成分 Si (X- 0.5, x+0.5, y_0.5, y+0.5) が演算されることになる。 なお、 この 積分成分 Si (x- 0.5, x+0.5, y_0.5, y+0.5) の演算においては、 上述した式 (1 3 8) が使用される。 そして、 積分成分演算部 2424は、 式 (14 1) に従って、 演算した 1 20個の積分成分 Si (x-0.5, x+0.5, y- 0.5, y+0.5)のそれぞれを、 対 応する Si (1)のそれぞれに変換し、 変換した 1 20個の Si (1)を含む積分成分テ 一ブルを生成する。
なお、 ステップ S 2403の処理とステップ S 2404の処理の順序は、 図 2 28の例に限定されず、 ステップ S 2404の処理が先に実行されてもよいし、 ステップ S 2403の処理とステップ S 2404の処理が同時に実行されてもよ い。
次に、 ステップ S 2405において、 正規方程式生成部 24 25は、 ステップ S 2403の処理で入力画素値取得部 2423により生成された入力画素値テー プルと、 ステップ S 2404の処理で積分成分演算部 2424により生成された 積分成分テープルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 上述した式 (1 3 7) を利用して最小自乗法により 特徴量 が演算される (ただし、 式 (1 3 6) において、
積分成分 Si (X- 0.5, x+0.5, y- 0.5, y+0.5)は、 式 (140) により変換される Si(l)が使用される) ので、 それに対応する正規方程式は、 次の式 (142) の ように表される。
Figure imgf000274_0001
• ■ · (142) なお、 式 (142) において、 Lは、 タップ範囲の画素の番号 1のうちの最大 値を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具体 的には、 いまの場合、 n=5となり、 L-1 9となる。
式 (142) で示される正規方程式の各行列のそれぞれを、 次の式 (143) 乃至 (145) のように定義すると、 正規方程式は、 次の式 (146) のよう 表現される。 (l)
Figure imgf000275_0001
(143)
Wo、
(144)
Figure imgf000275_0002
(145)
S AT½T = PMAT
(146) 式 (1 44) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 である。 従って、 式 (1 4 6) において、 左辺の行列 SMAT と右辺の行列 PMAT が決定されれば、 行列解法によって行列 WM Α τ の演算が可能になる。
具体的には、 式 (1 4 3) で示されるように、 行列 SMAT の各成分は、 上述し た積分成分 Si (1)で演算可能である。 即ち、 積分成分 Si (1)は、 積分成分演算部 24 24より供給された積分成分テーブルに含まれているので、 正規方程式生成 部 24 2 5は、 積分成分テーブルを利用して行列 SMAT の各成分を演算すること ができる。
また、 式 (1 4 5) で示されるように、 行列 PMAT の各成分は、 積分成分
Si (1)と入力画素値 P(l)で演算可能である。 即ち、 積分成分 Si (1)は、 行列 SMATの各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素値取得部 24 2 3より供給された入力画素値テーブルに含ま れているので、 正規方程式生成部 24 2 5は、 積分成分テーブルと入力画素値テ 一ブルを利用して行列 PMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 24 2 5は、 行列 SMAT と行歹 (JPMAT の各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMAT の各成分) を正規方程式 テーブルとして近似関数生成部 2 4 2 6に出力する。
正規方程式生成部 24 2 5より正規方程式テーブルが出力されると、 ステップ S 24 0 6において、 近似関数生成部 24 2 6は、 正規方程式テーブルに基づい て、 上述した式 (1 46) の行列 AT の各成分である特徴量 Wi (即ち、 2次元 多項式である近似関数 f (x,y)の係数^) を演算する。
具体的には、 上述した式 (1 4 6) の正規方程式は、 次の式 (1 4 7) のよう に変形できる。
¾Γ = S ATP AT
· ■ ■ (1 4 7) 式 (1 4 7) において、 左辺の行列 WM ATの各成分が、 求めたい特徴量 ^ で ある。 また、 行列 SM A T と行列 PM A Tのそれぞれの各成分は、 正規方程式生成部 2 4 2 5より供給された正規方程式テーブルに含まれている。 従って、 近似関数 生成部 2 4 2 6は、 正規方程式テーブルを利用して、 式 (1 4 7 ) の右辺の行列 演算を行うことで行列 WM A T を演算し、 その演算結果 (特徴量^ ) を画像生成部 1 0 3に出力する。
ステップ S 2 4 0 7において、 近似関数生成部 2 4 2 6は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 4 0 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2 4 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 4 0 2乃至 S 2 4 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 4 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
以上、 2次元多項式近似手法の説明として、 空間方向 (X方向と Y方向) に対 する近似関数 f (x,y)の係数 (特徴量) Wi を演算する例を用いたが、 2次元多項 式近似手法は、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対し ても適用可能である。
即ち、 上述した例は、 実世界 1の光信号が、 例えば、 傾き GF (図 2 2 4 ) で 表される空間方向の定常性を有する場合の例であったので、 上述した式 (1 3 2 ) で示されるような、 空間方向 (X方向と Y方向) の二次元積分が含まれる式 が利用された。 しかしながら、 二次元積分の考え方は、 空間方向だけによるもの ではなく、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対して適 用することも可能である。
換言すると、 2次元多項式近似手法においては、 推定したい光信号関数 F (X,y, t)が、 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方 向、 または、 Y方向と t方向) の定。常性を有している場合であっても、 2次元の 多項式により近似することが可能である。 具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 その 物体の動きの方向は、 図 230で示されるような X - 1平面においては、 傾き VF のように表される。 · 換言すると、 傾き VFは、 X - 1平面における時空間方向の定 常性の方向を表しているとも言える。 従って、 データ定常性検出部 10 1は、 上 述した角度 θ (X-Y平面における、 傾き GFで表される空間方向の定常性に対応 するデータ定常性情報) と同様に、 X-t平面における時空間方向の定常性を表す 傾き VFに対応するデータ定常性情報として、 図 2 3◦で示されるような動き Θ
(厳密には、 図示はしないが、 傾き VF に対応する傾き Vf で表されるデータの定 常性の方向と、 空間方向の X方向とのなす角度である動き 0) を出力することが 可能である。
従って、 2次元多項式近似手法を利用する実世界推定部 10 2は、 動き 0を上 述した角度 Θの代わりとして使用すれば、 上述した方法と同様な方法で、 近似関 数 f(x,t)の係数 (特徴量) ^ を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (1 32) ではなく、 次の式 (148) である。
、 .tt++00..55 r ηxΧ++00..55 旦 ϋ -
P(x, t) = I Λ c I Λ — ∑ W: x-s t)'dxdt+e
― •'tし-— υ0..リ 5 • -'' Λx- u0..5 j :__on 1
• · · (148) なお、 式 (148) において、 sは cot0 (ただし、 0は動きである) である。 また、 空間方向 Xの変わりに、 空間方向 Yに注目した近似関数 f (y,t)も、 上 述した近似関数 f(x、t)と全く同様に取り扱うことが可能である。
このように、 2次元多項式近似手法においては、 例えば、 図 20 5 (図 3) の データ定常性検出部 10 1が、 それぞれ時空間積分効果を有する、 センサの複数 の検出素子 (例えば、 図 22 5のセンサ 2の検出素子 2— 1) により実世界 1 (図 205) の光信号が射影され、 実世界 1の光信号の定常性 (例えば、 図 22 4の傾き GFで表される定常性) の一部が欠落した、 検出素子 2— 1により射影 された画素値を有する複数の画素からなる画像データ (例えば、 図 205の入力 画像) におけるデータの定常性 (例えば、 図 226の傾き Gf で表されるデータ の定常性) を検出する。
そして、 例えば、 図 2 0 5 (図 3 )の実世界推定部 1 0 2 (構成は、 図 2 2 7 ) 1S データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向のうち少なくとも 2次元方向 (例えば、 図 2 2 4と図 2 2 5の空間方向 Xと、 空間方向 Y ) の位置に対応する画素の画素値 (例えば、 上 述した式 (1 3 1 ) の左辺である入力画素値 P (x、y) ) 、 少なくとも 2次元方 向の積分効果により取得された画素値 (例えば、 式 (1 3 2 ) の右辺に示される ように、 上述した式 (1 3 1 ) で示される近似関数 f (x,y)が X方向と Y方向に 積分された値) であるとして、 実世界 1の光信号を表す光信号関数 F (具体的に は、 図 2 2 4の関数 F (x,y) ) を、 多項式である近似関数 f (例えば、 式 (1 3 1 ) で示される近似関数 f (x, y) ) で近似することで、 光信号関数 F を推定する。 詳細には、 例えば、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により 検出されたデータの定常性に対応する線 (例えば、 図 2 2 6の傾き Gf に対応す る線 (矢印) ) からの少なくとも 2次元方向に沿った距離 (例えば、 図 2 2 6の 断面方向距離 X ') に対応する画素の画素値が、 少なくとも 2次元方向の積分効 果により取得された画素値であるとして、 現実世界の光信号を表す第 1の関数を、 多項式である第 2の関数で近似することで、 第 1の関数を推定する。
このように、 2次元多項式近似手法は、 1次元ではなく 2次元の積分効果を考 慮しているので、 1次元多項式近似手法に比較して、 より正確に実世界 1の光信 号を推定することが可能になる。
次に、 図 2 3 1乃至図 2 3 5を参照して、 第 3の関数近似手法について説明す る。
即ち、 第 3の関数近似手法とは、 例えば、 時空間方向のうちの所定の方向の定 常性を有する実世界 1の光信号が、 光信号関数 F (x, y, t)で表されることに注目 して、 近似関数 f (x,y, t)で光信号関数 F (X,y,t)を近似することによって、 光信 号関数 F (x,y,t)を推定する手法である。 従って、 以下、 第 3の関数近似手法を、 3次元関数近似手法と称する。 また、 3次元関数近似手法の説明においても、 センサ 2は、 図 2 3 1で示され るような、 複数の検出素子 2— 1がその平面上に配置されて構成される C C Dと される。
図 231の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向で ある Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t方向とされている。
また、 図 23 1の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時 間 (露光時間) が 1とされている。
さらに、 図 23 1の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 ( 方向の位置 =0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 およ び t方向に- 0.5乃至 0.5の範囲で光信号関数 F(x,y, t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (14 9) で表される。
/ ++00..55 +0.5 r++00..55 , 、
— -00.5丄 J -0.5丄 ^-0.55 F(x,y,
·.· ■ (149) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (149) で示される画素値 Pを出力することになる c ところで、 上述したように、 3次元関数近似手法においては、 光信号関数 F(x, y, t)は、 3次元の近似関数 f (x, y, t)に近似される。 具体的には、 例えば、 近似関数 f (x,y,t)を、 N個の変数 (特徴量) を有する 関数とし、 式 (1 4 9) に対応する入力画素値 P(x, y,t)と近似関数 f(x, y,t)の 関係式を定義する。 これにより、 Nより大きい M個の入力画素値 P(x,y,t)が取 得されていれば、 定義された関係式から N個の変数 (特徴量) の算出が可能で ある。 即ち、 実世界推定部 1 0 2は、 M個の入力画素値 P(x,y,t)を取得して N 個の変数 (特徴量) を演算することで、 光信号関数 F(x,y,t)を推定することが 可能である。
この場合、 実世界推定部 1 0 2は、 センサ 2からの入力画像 (入力画素値) に 含まれるデータの定常性を縛りとして (即ち、 データ定常性検出部 1 0 1より出 力される入力画像に対するデータ定常性情報を利用して) 、 入力画像全体のうち の、 M個の入力画像 P(x,y,t)を抽出 (取得) する。 結果的に、 予測関数
f (x, y, t)は、 データの定常性に拘束されることになる。
例えば、 図 2 3 2で示されるように、 入力画像に対応する光信号関数
F(x,y,t)が、 傾き GFで表される空間方向の定常性を有している場合、 データ定 常性検出部 1 0 1は、 入力画像に対するデータ定常性情報として、 角度 Θ (傾き GF に対応する傾き Gf (図示せず) で表されるデータの定常性の方向と、 X方向 のなす角度 0 ) を出力することになる。
この場合、 光信号関数 F(x,y,t)を X方向に射影した 1次元の波形 (ここでは、 このような波形を、 X断面波形と称している) は、 Y方向のいずれの位置で射影 した場合であっても同一の形状であるとする。
即ち、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 Θ方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元 波形が時間方向 tに連なった 3次元波形を、 近似関数 f (x, y, t)で近似する。
換言すると、 注目画素の中心から Y方向に位置 yだけずれた X断面波形は、 注目画素の中心を通る X断面波形が X方向に所定の量 (角度 Θに応じて変化す る量) だけ移動した (シフトした) 波形となる。 なお、 以下、 このような量を、 シフト量と称する。 4001488
280
このシフト量は、 次のようにして算出が可能である。
即ち、 傾き Vf (例えば、 図 2 3 2の傾き VF に対応する、 データの定常性の方 向を表す傾き Vf ) と角度 0は、 次の式 (1 5 0) のように表される。
6f = tan θ = · · · (1 5 0) なお、 式 (1 5 0) において、 dxは、 X方向の微小移動量を表しており、 dy は、 dxに対する Y方向の微小移動量を表している。
従って、 X方向に対するシフト量を Cx (y)と記述すると、 次の式 (1 5 1) の ように表される。 faf
• · · ( 1 5 1) このようにして、 シフト量 Cx (y)を定義すると、 式 (1 4 9) に対応する入力 画素値 P(x,y,t)と近似関数 f (x,y, t)の関係式は、 次の式 (1 5 2) のように表 される。
P(x, y,t) = L e I e Pfi . y,t)dxdydt+e
• · · ( 1 5 2) 式 (1 5 2) において、 eは、 誤差を表している。 tsは、 t方向の積分開始 位置を表しており、 は、 t方向の積分終了位置を表している。 同様に、 ys は、 Y方向の積分開始位置を表しており、 ye は、 Y方向の積分終了位置を表してい る。 また、 xs は、 X方向の積分開始位置を表しており、 xe は、 X方向の積分終 了位置を表している。 ただし、 具体的な各積分範囲のそれぞれは、 次の式 (1 5 3) で示される通りになる。 1488
281 ts - 1-0.5
te = t+0.5
ys = y-o.5
ye = y+o.5
xs = x-Cx(y)-0.5
xe = x-Cx(y)+0.5
• · · (1 5 3) 式 (1 5 3) で示されるように、 注目画素から空間方向に(x,y)だけ離れて位 置する画素に対する X方向の積分範囲を、 シフト量 Cx (y)だけ移動させることで、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 Θ方向) に連なつ ていることを表すことが可能になる。
このように、 3次元関数近似手法においては、 画素値 P(x,y、t)と、 3次元の 近似関数 f(x,y,t)の関係を式 (1 5 2) (積分範囲は、 式 (1 53) ) で表す ことができるので、 式 (1 5 2) と式 (1 53) を利用して、 近似関数
,7,1:)の 個の特徴量を、 例えば、 最小自乗法等により演算することで、 光 信号関数 F(x,y,t) (例えば、 図 23 2で示されるような傾き VF表される空間方 向の定常性を有する光信号) の推定が可能となる。
なお、 光信号関数 F(x,y,t)で表される光信号が、 例えば、 図 23 2で示され るような傾き VFで表される空間方向の定常性を有している場合、 次のようにし て光信号関数 F(x,y,t)を近似してもよい。
即ち、 光信号関数 F(x,y, t)を Y方向に射影した 1次元の波形 (以下、 このよ うな波形を、 Y断面波形と称する) は、 X方向のいずれの位置で射影した場合で あっても同一の形状であるとする。
換言すると、 同一形状の Y断面波形が、 定常性の方向 (X方向に対して角度 0 方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元波形が時間方向 tに連なった 3次元波形を、 近似関数 f (X, y, t)で近似す る。 従って、 注目画素の中心から X方向に xだけずれた Y断面波形は、 注目画素 0中心を通る Υ断面波形が Υ方向に所定のシフト量 (角度 0に応じて変化する シフト量) だけ移動した波形となる。
このシフ ト量は、 次のようにして算出が可能である。
即ち、 傾き GF力 S、 上述した式 ( 1 5 0) のように表されるので、 Y方向に対 するシフト量を Cy (x)と記述すると、 次の式 (1 54) のように表される。
Figure imgf000284_0001
• · · ( 1 5 4) このようにして、 シフト量 Cy (X)を定義すると、 式 (1 4 9) に対応する入力 画素値 P(x,y,t)と近似関数: f(x,y,t)の関係式は、 シフ ト量 Cx (y)を定義したと きと同様に、 上述した式 (1 5 2) で表される。
ただし、 今度は、 具体的な各積分範囲のそれぞれは、 次の式 (1 5 5) で示さ れる通りになる。 ts = t一 0.5
te = t+0.5
ys = y-Cy(x)-0.5
Figure imgf000284_0002
x„ = x - 0.5
xe = x+0.5 · · · ( 1 5 5) 式 (1 5 5) (および上述した式 (1 5 2) ) で示されるように、 注目画素か ら(x,y)だけ離れて位置する画素に対する Y方向の積分範囲を、 シフト量 Cy (x) だけ移動させることで、 同一形状の Y断面波形が、 定常性の方向 (X方向に対し て角度 0方向) に連なっていることを表すことが可能になる。
このように、 3次元関数近似手法においては、 上述した式 (1 5 2) の右辺の 積分範囲を式 (1 5 3) のみならず式 (1 5 5) とすることもできるので、 積分 範囲として式 (1 5 5) が採用された式 (1 5 2) を利用して、 近似関数 7," の11個の特徴量を、 例えば、 最小自乗法等により演算することで、 光 信号関数 F(x,y,t) (傾き GFで表される空間方向の定常性を有する実世界 1の光 信号) の推定が可能となる。
このように、 積分範囲を表す式 (1 5 3) と式 (1 5 5) は、 定常性の方向に あわせて周辺画素を X方向にシフトさせるか (式 (1 5 3) の場合) 、 或いは Y 方向にシフトさせるカゝ (式 (1 5 5) の場合) の違いがあるだけであり、 本質的 には同じことを表している。
しかしながら、 定常性の方向 (傾き GF) に応じて、 光信号関数 F(x,y,t)を、 X断面波形の集まりと捉える力 \ Y断面波形の集まりと捉えるかが異なる。 即ち、 定常性の方向が Y方向に近い場合、 光信号関数 F(x,y, t)を、 X断面波形の集ま りと捉えた方が好適である。 これに対して、 定常性の方向が X方向に近い場合、 光信号関数 F(x,y, t)を、 Y断面波形の集まりと捉えた方が好適である。
従って、 実世界推定部 1 0 2は、 積分範囲として式 (1 5 3) と式 (1 5 5) の両方を用意しておき、 定常性の方向に応じて、 適宜式 (1 5 2) の右辺の積分 範囲として、 式 (1 5 3) と式 (1 5 5) のうちのいずれか一方を選択するとよ い。
以上、 光信号関数 F(x,y, t)が空間方向 (X方向と Y方向) の定常性 (例えば、 図 2 3 2の傾き GPで表される空間方向の定常性) を有する場合についての 3次 π関数手法について説明したが、 3次元関数手法は、 図 2 3 3で示されるように、 光信号関数 F(x,y, t)が時空間方向 (X方向、 Y方向、 および t方向) の定常性 (傾き VPで表される定常性) を有する場合についても適用可能である。
即ち、 図 2 3 3において、 フレーム番号 のフレームに対応する光信号関 数が F(x、y、請 -1)とされ、 フレーム番号 #Nのフレームに対応する光信号関数が F(x、y、#N)とされ、 かつ、 フレーム番号 #N+1のフレームに対応する光信号関数 が F(x、y、 +1)とされている。
なお、 図 2 3 3において、 図中、 水平方向は、 空間方向の 1方向である X方 向とされており、 右斜め上方向は、 空間方向の他方向である Y方向とされており、 かつ、 垂直方向は、 時間方向である t方向とされている。
また、 フレーム #N- 1は、 フレーム #Nに対して時間的に前のフレームであり、 フレーム +1は、 フレーム湖に対して時間的に後のフレームである。 即ち、 フ レーム - 1、 フレーム #N、 およびフレーム #N+1 は、 フレーム #N-1、 フレーム #N、 およびフレーム +1の順で表示される。
図 233の例では、 傾き VFで示される方向 (図中左下手前から右上奥の方 向) に沿った断面の光のレベルがほぼ一定とされている。 従って、 図 23 3の例 では、 光信号関数 F(x,y,t)は、 傾き VFで表される時空間方向の定常性を有して いると言える。
この場合、 時空間方向の定常性を表す関数 C(x,y,1:)を定義し、 かつ、 定義さ れた関数 C(x,y,t)を利用して、 上述した式 (1 5 2) の積分範囲を定義すれば、 上述した式 (1 5 3) や式 (1 5 5) と同様に、 近似関数 f(x,y, t)の N個の特 徴量の算出が可能になる。 ·
関数 C(x,y,t)は、 定常性の方向を表す関数であれば特に限定されない。 ただ し、 以下においては、 直線的な定常性であるとして、 それに対応する関数
C(x,y,t)として、 上述した空間方向の定常性を表す関数であるシフト量 Cx (y) (式 (1 5 1) ) ゃシフト量 Cy ) (式 (1 53) ) に相当する、 Cx (t)と
Cy )を次のように定義するとする。
即ち、 上述した空間方向のデータの定常性を表す傾き Gf に対応する、 時空間 方向のデータの定常性の傾きを Vf とすると、 この傾き Vf を X方向の傾き (以 下、 Vfx と記述する) と Y方向の傾き (以下、 Vfy と記述する) に分割すると、 傾き Vfx は次の式 (1 5 6) で、 傾き Vf y は次の式 (1 5 7) で、 それぞれ表 される。
Figure imgf000286_0001
(1 5 6) vf -
Vfy dt
• · · (1 5 7) この場合、 関数 Cx (t)は、 式 (1 5 6) で示される傾き Vf x を利用して、 次の 式 (1 58) のように表される。
Cx(t) =VfxXt
• · · (1 58) 同様に、 関数 Cy (t)は、 式 (1 57) で示される傾き Vfy を利用して、 次の式 (1 5 9) のように表される。
Cy(t) =VfyXt
· · · (1 59) このようにして、 時空間方向の定常性 25 1 1を表す関数 Cx (t)と関数 Cy (t) を定義すると、 式 (1 5 2) の積分範囲は、 次の式 (1 60) のように表される c ts = t-0.5
te = t+0.5
ys = y-Cy(t)-0.5
ye = y-Cy(t)+0.5
xs = x-Cx(t)-0.5
xe = x-Cx(t)+0.5
• · · (1 60) このように、 3次元関数近似手法においては、 画素値 P(x,y、t)と、 3次元の 近似関数 f(x,y,t)の関係を式 (1 52) で表すことができるので、 その式 (1 52) の右辺の積分範囲として式 (1 60) を利用して、 近似関数 f(x,y,t)の n + 1個の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t) (時空間方向の所定の方向に定常性を有する実世界 1の光信号) を推 定することが可能となる。
図 2 34は、 このような 3次元関数近似手法を利用する実世界推定部 1 02の 2004/001488
286 構成例を表している。
なお、 3次元関数近似手法を利用する実世界推定部 1 0 2が演算する近似関数 f (x,y,t) (実際には、 その特徴量 (係数) を演算する) は、 特に限定されない 力 以下の説明においては、 n (n = N-l) 次の多項式とされる。
図 2 34で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 5 2 1、 入力画像記憶部 2 5 2 2、 入力画素値取得部 2 5 2 3、 積分成分演算部 2 5 24、 正規方程式生成部 2 5 2 5、 および近似関数生成部 2 5 2 6が設けられている。 条件設定部 2 5 2 1は、 注目画素に対応する光信号関数 F(x,y,t)を推定する ために使用する画素の範囲 (タップ範囲) や、 近似関数 f (x,y,t)の次数 nを設 定する。
入力画像記憶部 2 5 2 2は、 センサ 2からの入力画像 (画素値) を一次格納す る。
入力画素値取得部 2 5 2 3は、 入力画像記憶部 2 5 2 2に記憶された入力画像 のうちの、 条件設定部 2 5 2 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 2 5 2 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。
ところで、 上述したように、 3次元関数近似手法を利用する実世界推定部 1 0 2は、 上述した式 (1 5 2) (ただし積分範囲は、 式 (1 5 3) 、 式 (1 5 6) 、 または式 (1 6 0) ) を利用して最小自乗法により近似関数 f(x,y)の N個の特 徴量 (いまの場合、 各次の係数) を演算する。
式 (1 5 2) の右辺は、 その積分を演算することで、 次の式 (1 6 1 ) のよう に表現することができる。
n
P(x, y, t) = λ WjSj (xs, xe, ys, ye, ts, te) +e
i=0
· · · (1 6 1 ) 式 (1 6 1 ) において、 は、 i 次項の係数 (特徴量) を表しており、 また、 Si (xs,xe,ys,ye,ts,tj は、 i次項の積分成分を表している。 ただし、 xs は X 方向の積分範囲の開始位置を、 xe は X方向の積分範囲の終了位置を、 ys は Y方 向の積分範囲の開始位置を、 yeは Y方向の積分範囲の終了位置を、 ts は t方向 の積分範囲の開始位置を、 te は t方向の積分範囲の終了位置を、 それぞれ表し ている。
積分成分演算部 2 524は、 この積分成分 Si (xs,Xe,ys,ye,ts,te) を演算 する。
即ち、 積分成分演算部 25 24は、 条件設定部 252 1により設定されたタツ プ範囲おょぴ次数、 並びにデータ定常性検出部 1 0 1より出力されたデータ定常 性情報のうちの角度若しくは動き (積分範囲として、 上述した式 (1 5 3) 若し くは式 (1 56) が利用される場合には角度であり、 上述した式 (1 60) が利 用される場合には動きである) に基づいて積分成分 Si (xa,xe,ys,ye,ts,te) を演算し、 その演算結果を積分成分テーブルとして正規方程式生成部 2 52 5に 供給する。
正規方程式生成部 2525は、 入力画素値取得部 252 3より供給された入力 画素値テーブルと、 積分成分演算部 25 24より供給された積分成分テーブルを 利用して、 上述した式 (16 1) を最小自乗法で求める場合の正規方程式を生成 し、 それを正規方程式テーブルとして近似関数生成部 25 26に出力する。 正規 方程式の例については、 後述する。
近似関数生成部 2 526は、 正規方程式生成部 25 25より供給された正規方 程式テーブルに含まれる正規方程式を行列解放で解くことにより、 特徴量 ^
(いまの場合、 3次元多項式である画素値関数 f (x,y)の係数 のそれぞれを 演算し、 画像生成部 103に出力する。
次に、 図 23 5のフローチャートを参照して、 3次元関数近似手法が適用され る実世界の推定処理 (図 40のステップ S 1 02の処理) について説明する。 はじめに、 ステップ S 2501において、 条件設定部 252 1は、 条件 (タツ プ範囲と次数) を設定する。 4001488
288
例えば、 いま、 L個の画素からなるタップ範囲が設定されたとする。 また、 各 画素のそれぞれに対して、 所定の番号 1 (1は、 0乃至 L一 1のうちのいずれか の整数値) が付されるとする。
次に、 ステップ S 2 5 0 2において、 条件設定部 2 5 2 1は、 注目画素を設定 する。
ステップ S 2 5 0 3において、 入力画素値取得部 2 5 2 3は、 条件設定部 2 5 2 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 いまの場合、 L個の入力画素値 P(x,y, t)からなる テーブルが生成されることになる。 ここで、 L個の入力画素値 P(x,y,t)のそれ ぞれを、 その画素の番号 1の関数として P(l)と記述することにする。 即ち、 入 力画素値テーブルは、 L個の P(l)が含まれるテーブルとなる。
ステップ S 2 5 04において、 積分成分演算部 2 5 24は、 条件設定部 2 5 2 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度若しくは動き) に基づいて積分成 分を演算し、 積分成分テーブルを生成する。
ただし、 いまの場合、 上述したように、 入力画素値は、 P(x,y, t)でなく P(l) といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2 5 2 4 は、 上述した式 (1 6 1) の積分成分 Si (xs,xe,ys,ye,ts,te) を、 積分成分 Si d)といった 1 の関数として演算することになる。 即ち、 積分成分テーブルは、 L X i個の Si (1)が含まれるテーブルとなる。
なお、 ステップ S 2 5 0 3の処理とステップ S 2 5 04の処理の順序は、 図 2 3 5の例に限定されず、 ステップ S 2 5 0 4の処理が先に実行されてもよいし、 ステップ S 2 5 0 3の処理とステップ S 2 5 04の処理が同時に実行されてもよ い。
次に、 ステップ S 2 5 0 5において、 正規方程式生成部 2 5 2 5は、 ステップ S 2 5 0 3の処理で入力画素値取得部 2 5 2 3により生成された入力画素値テー プルと、 ステップ S 2 5 04の処理で積分成分演算部 2 5 24により生成された 積分成分テープルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 (1 6 1) に対応す る次の式 (1 6 2) の特徴量 Wi を演算する。 で、 それに対応する正規方程式は、 次の式 (1 63) のように表される。
= WjSj +e
ί=0
(16 2)
Figure imgf000291_0001
• · · (16 3) 式 (1 6 3) で示される正規方程式の各行列のそれぞれを、 次の式 (1 64) 乃至 (1 6 6) のように定義すると、 正規方程式は、 次の式 (16 7) のよう 表される。
Figure imgf000291_0002
(1 64) JP2004/001488
290
(1 6 5)
Figure imgf000292_0001
• · · (1 6 6) °MAT%T = PMAT
• · · (1 6 7) 式 (1 6 5) で示されるように、 行列 WMATの各成分は、 求めたい特徴量 ^ である。 従って、 式 (1 6 7) において、 左辺の行列 SMAT と右辺の行列 PMA T が決定されれば、 行列解法によって行列 WM AT (即ち、 特徴量 ) の算出が可能 である。
具体的には、 式 (1 6 4) で示されるように、 行列 SMATの各成分は、 上述し た積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成分 演算部 2 5 24より供給された積分成分テーブルに含まれているので、 正規方程 式生成部 2 5 2 5は、 積分成分テーブルを利用して行列 SMAT の各成分を演算す ることができる。
また、 式 (1 6 6) で示されるように、 行列 PMATの各成分は、 積分成分 Si (1)と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行 賺 01488
291
列 SMATの各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l) は、 入力画素値取得部 2 5 2 3より供給された入力画素値テーブルに含まれてい るので、 正規方程式生成部 2 5 2 5は、 積分成分テーブルと入力画素値テーブル を利用して行列 P M Α τの各成分を演算することができる。
このようにして、 正規方程式生成部 2 5 2 5は、 行列 SMAT と行列 PMAT の各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMATの各成分) を正規方程式 テーブルとして近似関数生成部 2 5 2 6に出力する。
正規方程式生成部 2 5 2 6より正規方程式テーブルが出力されると、 ステップ S 2 5 0 6において、 近似関数生成部 2 5 26は、 正規方程式テーブルに基づい て、 上述した式 (1 6 7) の行列 WMAT の各成分である特徴量 ^ (即ち、 近似関 数 f (x,y,t)の係数 Wi) を演算する。
具体的には、 上述した式 (1 6 7) の正規方程式は、 次の式 (1 6 8) のよう に変形できる。
^ΜΑΤ = ° ΑΤΡΜΑΤ
■ ■ · ( 1 6 8) 式 (1 6 8) において、 左辺の行列 WMATの各成分が、 求めたい特徴量 で ある。 また、 行列 SMAT と行列 PMATのそれぞれの各成分は、 正規方程式生成部 2 5 2 5より供給された正規方程式テーブルに含まれている。 従って、 近似関数 生成部 2 5 2 6は、 正規方程式テーブルを利用して、 式 (1 6 8) の右辺の行列 演算を行うことで行列 WM AT を演算し、 その演算結果 (特徴量 Wi) を画像生成部 1 0 3に出力する。
ステップ S 2 5 0 7において、 近似関数生成部 2 5 2 6は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 5 0 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2 5 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 5 T/JP2004/001488
292
0 2乃至 S 2 5 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 5 4 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
以上、 説明したように、 3次元関数近似手法は、 1次元や 2次元ではなく、 時 空間方向の 3次元の積分効果を考慮しているので、 1次元多項式近似手法や 2次 元多項式近似手法に比較して、 より正確に実世界 1の光信号を推定することが可 能になる。
換言すると、 3次元関数近似手法においては、 例えば、 図 2 0 5 (図 3 ) の実 世界推定部 1 0 2 (構成は、 例えば、 図 2 3 4 ) は、 それぞれ時空間積分効果を 有する、 センサの複数の検出素子 (例えば、 図 2 3 1のセンサ 2の検出素子 2— 1 ) により実世界 1の光信号が射影され、 実世界 1の光信号の定常性 (例えば、 図 2 3 2の傾き GF、 または、 図 2 3 3の傾き VF で表される定常性) の一部が欠 落した、 検出素子により射影された画素値を有する複数の画素からなる入力画像 の、 時空間方向のうち少なくとも 1次元方向 (例えば、 図 2 3 3の空間方向 X、 空間方向 Y、 および、 時間方向 tの 3次元方向) の位置に対応する前記画素の前 記画素値 (例えば、 式 (1 5 3 ) の左辺の入力画素値 P (x, y,z) ) ί 少なくと も 1次元方向の積分効果により取得された画素値 (例えば、 上述した式 (1 5 3 ) の右辺に示されるように、 近似関数 f (x, y, t)が X方向、 Y方向、 および t 方向の 3次元に積分された値) であるとして、 実世界の光信号を表す光信号関数 F (具体的には、 例えば、 図 2 3 2や図 2 3 3の光信号関数 F (x, y, t) ) を所定の 近似関数 ί (具体的には、 例えば、 式 (1 5 2 ) の右辺の近似関数 f (x, y, t) ) で近似することで、 光信号関数 Fを推定する。
さらに、 例えば、 図 2 0 5 (図 3 ) のデータ定常性検出部 1 0 1が、 入力画像 のデータの定常性を検出した場合、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向の うち少なくとも 1次元方向の位置に対応する画素の画素値が、 少なくとも 1次元 方向の積分効果により取得された画素値であるとして、 光信号関数 Fを近似関 数 f で近似することで、 光信号関数 Fを推定する。
詳細には、 例えば、 実世界推定部 1 0 2は、 定常性検出部 1 0 1により検出さ れたデータの定常性に対応する線からの少なくとも 1次元方向に沿った距離 (例 えば、 上述した式 (1 5 1 ) のシフト量 Cx (y) ) に対応する画素の画素値が、 '少 なくとも 1次元方向の積分効果により取得された画素値 (例えば、 上述した式
( 1 5 3 ) で示されるような積分範囲で、 式 (1 5 2 ) の右辺に示されるように、 近似関数 f (x, y,t)が X方向、 Y方向、 および t方向の 3次元に積分された値) であるとして、 光信号関数 Fを近似関数で近似することで、 光信号関数を推定 する。
従って、 3次元関数近似手法は、 より正確に実世界 1の光信号を推定すること が可能になる。
次に、 図 2 3 6乃至図 2 5 7を参照して、 画像生成部 1 0 3 (図 3 ) の実施の 形態の一例について説明する。
図 2 3 6は、 この例の実施の形態の原理を説明する図である。
図 2 3 6で示されるように、 この例の実施の形態においては、 実世界推定部 1 0 2力 関数近似手法を利用することが前提とされている。 即ち、 センサ 2に入 射される画像である、 実世界 1の信号 (光の強度の分布) ί 所定の関数 Fで表 されるとして、 実世界推定部 1 0 2が、 センサ 2から出力された入力画像 (画素 値 Ρ ) と、 データ定常性検出部 1 0 1から出力されたデータ定常性情報を使用し て、 関数 Fを所定の関数 f で近似することによって、 関数 Fを推定することが前 提とされている。 .
なお、 以下、 この例の実施の形態の説明においても、 画像である、 実世界 1の 信号を、 特に光信号と称し、 関数 Fを、 特に光信号関数 Fと称する。 また、 関数 f を、 特に近似関数 f と称する。
そこで、 この例の実施の形態においては、 このような前提に基づいて、 画像生 成部 1 0 3が、 データ定常性検出部 1 0 1から出力されたデータ定常性情報と、 実世界推定部 1 0 2から出力された実世界推定情報 (図 2 3 6の例では、 近似関 数 f の特徴量) を使用して、 近似関数 f を所定の時空間範囲で積分し、 その積 分値を出力画素値 M (出力画像) として出力する。 なお、 この例の実施の形態に おいては、 入力画像の画素と出力画像の画素を区別するために、 入力画素値を P と記述し、 出力画素値を Mと記述する。
換言すると、 光信号関数 Fが 1度積分されて入力画素値 Pとなり、 その入力画 素値 Pから光信号関数 Fが推測され (近似関数 f で近似され) 、 推測された光 信号関数 F (即ち、 近似関数 f) が再度積分されて、 出力画素値 Mが生成される。 従って、 以下、 画像生成部 1 0 3が実行する近似関数 f の積分を、 再積分と称 する。 また、 この例の実施の形態を、 再積分手法と称する。
なお、 後述するように、 再積分手法において、 出力画素値 Mが生成される場合 の近似関数 f の積分範囲は、 入力画素値 Pが生成される場合の光信号関数 Fの 積分範囲 (即ち、 空間方向においては、 センサ 2の検出素子の縦幅と横幅であり、 時間方向においては、 センサ 2の露光時間である) に限定されず、 任意の積分範 囲が可能である。
例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲のうちの空 間方向の積分範囲を可変することで、 その積分範囲に応じて出力画像の画素ピッ チを可変することが可能になる。 即ち、 空間解像度の創造が可能になる。
同様に、 例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲の うちの時間方向の積分範囲を可変することで、 時間解像度の創造が可能になる。 以下、 図面を参照して、 このような再積分手法のうちの 3つの具体的な手法に ついてそれぞれ個別に説明していく。
即ち、 3つの具体的な手法とは、 関数近似手法の 3つの具体的な手法 (実世界 推定部 1 0 2の実施の形態の上述した 3つの具体的な例) のそれぞれに対応する 再積分手法である。
具体的には、 1つ目の手法は、 上述した 1次元多項式近似手法 (関数近似手法 の 1手法) に対応する再積分手法である。 従って、 1つ目の手法では 1次元の再 積分を行うことになるので、 以下、 このような再積分手法を、 1次元再積分手法 と称する。
2つ目の手法は、 上述した 2次元多項式近似手法 (関数近似手法の 1手法) に 対応する再積分手法である。 従って、 2つ目の手法では 2次元の再積分を行うこ とになるので、 以下、 このような再積分手法を、 2次元再積分手法と称する。
3つ目の手法は、 上述した 3次元関数近似手法 (関数近似手法の 1手法) に対 応する再積分手法である。 従って、 3つ目の手法では 3次元の再積分を行うこと になるので、 以下、 このような再積分手法を、 3次元再積分手法と称する。
以下、 1次元再積分手法、 2次元再積分手法、 および 3次元再積分手法のそれ ぞれの詳細について、 その順番で説明していく。
はじめに、 1次元再積分手法について説明する。
1次元再積分手法においては、 1次元多項式近似手法により近似関数 f (X)が 既に生成されていることが前提とされる。
即ち、 3次元の空間上の位置 x, y、 および z、 並びに時刻 tを変数とする光信 号関数 F (x, y, t)を、 空間方向である X方向、 Y方向、 および Z方向、 並びに時 間方向である t方向のうちの所定の 1方向 (例えば、 X方向) に射影した 1次元 の波形 (再積分手法の説明においても、 このような波形のうちの X方向に射影 した波形を、 X断面波形 F (x)と称することにする) 力 n次 (nは、 任意の整 数) の多項式である近似関数 f (x)で近似されていることが前提とされる。
この場合、 1次元再積分手法においては、 出力画素値 Mは、 次の式 (1 6 9 ) のように演算される。
Figure imgf000297_0001
• · · ( 1 6 9 ) なお、 式 (1 6 9 ) において、 xs は、 積分開始位置を表しており、 xe は、 積 分終了位置を表している。 また、 Geは、 所定のゲインを表している。
具体的には、 例えば、 いま、 実世界推測部 1 0 2が、 図 2 3 7で示されるよう な画素 3 1 0 1 (センサ 2の所定の 1つの検出素子に対応する画素 3 1 0 1 ) を 注目画素として、 図 23 7で示されるような近似関数 f(x) (X断面波形 F(x)の 近似関数 f(x)) を既に生成しているとする。
なお、 図 23 7の例では、 画素 3 1 0 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 1 0 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空 間方向のうちの、 画素 3 10 1の 1辺に平行な方向 (図中水平方向) が X方向と され、 X方向に垂直な方向 (図中垂直方向) が Y方向とされている。
また、 図 23 7の下側に、 画素 3 10 1の中心が原点とされる空間方向 (X方 向と Y方向) の座標系 (以下、 注目画素座標系と称する) と、 その座標系におけ る画素 3 1 01が示されている。
さらに、 図 237の上方に、 y=0 (yは、 図中下側で示される注目画素座標 系の Y方向の座標値) における近似関数 f (X)をグラフ化したものが示されてい る。 このグラフにおいて、 図中水平方向に平行な軸は、 図中下側で示される注目 画素座標系の X方向の X軸と同一の軸であり (原点も同一であり) 、 また、 図 中垂直方向に平行な軸は、 画素値を表す軸とされている。
この場合、 近似関数 f(x)と画素 3 1 0 1の画素値 Pの間には、 次の式 (1 7 0) の関係が成立する。
Γ0.5
P = J_0 5f(x)dx+e
• · · (1 70) また、 図 23 7で示されるように、 画素 3 10 1は、 傾き Gf で表される空間 方向のデータの定常性を有しているとする。 そして、 データ定常性検出部 1 0 1 (図 236) 力 傾き Gf で表されるデータの定常性に対応するデータ定常性情 報として、 図 237で示されるような角度 Θを既に出力しているとする。
この場合、 例えば、 1次元再積分方法においては、 図 2 38で示されるように、 X方向に一0. 5乃至 0. 5の範囲、 かつ Y方向に一◦. 5乃至 0. 5の範囲 (図 23 7の画素 3 10 1が位置する範囲) に、 4個の画素 3 1 1 1乃至画素 3 1 14を新たに創造することが可能である。 なお、 図 23 8の下側に、 図 237のものと同一の注目画素座標系と、 その注 目画素座標系における画素 3 1 1 1乃至画素 3 1 14が示されている。 また、 図 238の上側に、 図 23 7のものと同一のグラフ (y=0における近似関数 f ) をグラフ化したもの) が示されている。
具体的には、 図 2 38で示されるように、 1次元再積分方法においては、 次の 式 (1 71) により画素 3 1 1 1'の画素値 M (1) の算出が、 次の式 (1 72) により画素 3 1 1 2の画素値 M (2) の算出が、 次の式 (1 7 3) により画素 3 1 1 3の画素値 M (3) の算出が、 次の式 (1 74) により画素 3 1 14の画素 値 M (4) の算出が、 それぞれ可能である。
2x Γ e1f(x)dx
1
• · · (1 7 1) (2) f (x)dx
Figure imgf000299_0001
(1 72)
M(3) =2x I f (x)dx
• · · (1 73)
Figure imgf000299_0002
• ■ · (1 74) なお、 式 (1 7 1) の xs l、 式 (1 7 2) の xsい 式 (1 73) の xsい およ び式 (1 74) の xs4 のそれぞれは、 対応する式の積分開始位置を表している, また、 式 (1 7 1) の xel、 式 (1 72) の xeい 式 (1 73) の xe3、 および 式 (1 74) の xe4のそれぞれは、 対応する式の積分終了位置を表している。 式 (1 7 1) 乃至式 (1 74) のそれぞれの右辺の積分範囲は、 画素 3 1 1 1 乃至画素 3 1 14のそれぞれの画素幅 (X方向の長さ) となる。 即ち、 X - XS l , Xe2- Xs 2 , Xe3 - Xs3 , X"_X " のそれぞれはヽ 0· 5となる。
ただし、 いまの場合、 y=oにおける近似関数 f (X)と同一形状の 1次元の波形 力 Y方向ではなく、 傾き Gf で表されるデータの定常性の方向 (即ち、 角度 Θ 方向) に連なっていると考えられる (実際には、 y=0における X断面波形 F(x) と同一形状の波形が定常性の方向に連なっている) 。 即ち、 図 2 3 8の注目画素 座標系における原点(0,0) (図 2 3 7の画素 3 1 0 1の中心) における画素値 f(0)を画素値 とした場合、 画素値 flが続く方向は、 Y方向ではなく、 傾き Gf で表されるデータの定常性の方向 (角度 Θ方向) である。
換言すると、 Y方向の所定の位置 y (ただし、 yは 0以外の数値) における近 似関数 f(x)の波形を考えた場合、 画素値 flとなる位置は、 位置 (0,y) ではな く、 位置 (0,y) から X方向に所定の量 (ここでも、 このような量をシフト量と 称することにする。 また、 シフト量は、 Y方向の位置 yに依存する量であるので、 このシフト量を Cx (y)と記述することにする) だけ移動した位置 (Cx (y),y) で ある。
従って、 上述した式 (1 7 1) 乃至式 (1 74) のそれぞれの右辺の積分範囲 として、 求めたい画素値 M (1) (ただし、 1は、 1乃至 4のうちのいずれかの 整数値) の中心が存在する Y方向の位置 yを考慮した範囲、 即ち、 シフト量 Cx (y)を考慮した積分範囲の設定が必要である。
具体的には、 例えば、 画素 3 1 1 1と画素 3 1 1 2の中心が存在する Y方向 の位置 yは、 y=0ではなく、 y=0.25である。
従って、 y=0.25における近似関数 f (X)の波形は、 y=0における近似関数 f (X)の波形を X方向にシフト量 Cx (0.25)だけ移動させた波形に相当する。
換言すると、 上述した式 (1 7 1) において、 画素 3 1 1 1に対する画素値 M(l)は、 y=0における近似関数 f(X)を所定の積分範囲 (開始位置 xs lから終了 位置 xe l まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs l =- 0.5から終了位置 χβ 1 = 0までの範囲 (画素 3 1 1 1が X方向に占める範囲 そのもの) ではなく、 図 2 3 8で示される範囲、 即ち、 開始位置 xs l =- 0.5 + Cx (0.25)から終了位置 xe l = 0 +Cx (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 1を仮に移動させた場合における、 画素 3 1 1 1が X方向に占める範囲) とな る。
同様に、 上述した式 (1 7 2) において、 画素 3 1 1 2に対する画素値 M (2) は、 y=0における近似関数 f )を所定の積分範囲 (開始位置 xs 2から終了位置 xe2まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs 2 = 0 から終了位置 xe2 =0.5までの範囲 (画素 3 1 1 2の X方向に占める範囲そのも の) ではなく、 図 2 3 8で示される範囲、 即ち、 開始位置 xs 2 = 0+Cx (0.25) から終了位置 xe l =0.5 + Cx (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 2を仮 に移動させた場合における、 画素 3 1 1 2の X方向に占める範囲) となる。
また、 例えば、 画素 3 1 1 3と画素 3 1 1 4の中心が存在する Y方向の位置 y は、 y=0ではなく、 y=- 0.25である。
従って、 y=-0.25における近似関数 f )の波形は、 y=0における近似関数 f(x)の波形を X方向にシフト量 Cx (-0.25)だけ移動させた波形に相当する。 換言すると、 上述した式 (1 7 3) において、 画素 3 1 1 3に対する画素値 M(3)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs 3から終了 位置 xe3 まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs 3 = -0.5から終了位置 xe 3 = 0までの範囲 (画素 3 1 1 3の X方向に占める範囲 そのもの) ではなく、 図 2 3 8で示される範囲、 即ち、 開始位置 xs 3 =- 0.5 + Cx (-0.25)から終了位置 xe 3 = 0 +CX (- 0.25) (シフト量 Cx (-0.25)だけ画素 3 1 1 3を仮に移動させた場合における、 画素 3 1 1 3の X方向に占める範囲) となる。
同様に、 上述した式 (1 74) において、 画素 3 1 1 4に対する画素値 M(4) は、 y=0における近似関数 f (X)を所定の積分範囲 (開始位置 xs4から終了位置 xe4 まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs 4 = 0 から終了位置 xe4 =0.5までの範囲 (画素 3 1 1 4の X方向の占める範囲そのも の) ではなく、 図 2 3 8で示される範囲、 即ち、 開始位置 xs 4 = 0 +Cx (-0.25) から終了位置 xe l =0.5 + Cx (-0.25) (シフト量 Cx (-0.25)だけ画素 3 1 1 4を 仮に移動させた場合における、 画素 3 1 1 4の X方向に占める範囲) となる。 従って、 画像生成部 1 0 2 (図 2 3 6) は、 上述した式 (1 7 1) 乃至式 (1 74) のそれぞれに、 上述した積分範囲のうちの対応するものを代入してそれぞ れ演算し、 それらの演算結果を出力画素値 M(l)乃至 M (4) のそれぞれとして 出力することになる。
このように、 画像生成部 1 0 2は、 1次元再積分手法を利用することで、 セン サ 2 (図 2 3 6) からの出力画素 3 1 0 1 (図 2 3 7) における画素として、 出 力画素 3 1 0 1よりも空間解像度の高い 4つの画素、 即ち、 画素 3 1 1 1乃至画 素 3 1 1 4 (図 2 3 8) を創造することができる。 さらに、 図示はしないが、 上 述したように、 画像生成部 1 0 2は、 画素 3 1 1 1乃至画素 3 1 1 4のみならず、 積分範囲を適宜変えることで、 出力画素 3 1 0 1に対して任意の倍率の空間解像 度の画素を劣化することなく創造することができる。
図 2 3 9は、 このような 1次元再積分手法を利用する画像生成部 1 0 3の構成 例を表している。
図 2 3 9で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 1 2 1、 特徴量記憶部 3 1 2 2、 積分成分演算部 3 1 2 3、 および出力画素値演算 部 3 1 24が設けられている。
条件設定部 3 1 2 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 2 3 9の例では、 近似関数 f (X)の特徴量) に基づいて近似関数 f(x)の次数 nを設定する。
条件設定部 3 1 2 1はまた、 近似関数 f(x)を再積分する場合 (出力画素値を 演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 1 2 1が設定する積 分範囲は、 画素の幅である必要は無い。 例えば、 近似関数 f ) は空間方向 (X 方向) に積分されるので、 センサ 2 (図 2 3 6) からの入力画像の各画素の空間 的な大きさに対する、 出力画素 (画像生成部 1 0 3がこれから演算する画素) の 相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範囲の決定が可 1488
301 能である。 従って、 条件設定部 3 1 21は、 積分範囲として、 例えば、 空間解像 度倍率を設定することもできる。
特徴量記憶部 3 1 22は、 実世界推定部 1 02より順次供給されてくる近似関 数 f(x)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 1 22は、 近似 関数 (X ) の特徴量の全てを記憶すると、 近似関数 f(x)の特徴量を全て含む 特徴量テーブルを生成し、 出力画素値演算部 3 1 24に供給する。
ところで、 上述したように、 画像生成部 103は、 上述した式 (1 6 9) を利 用して出力画素値 Mを演算するが、 上述した式 (16 9) の右辺に含まれる近 似関数 f(x)は、 具体的には、 次の式 (1 7 5) のように表される。
n .
f (x) = ∑ Wj χχ dx
i=0
… (1 75) なお、 式 (1 75) において、 Wi は、 実世界推定部 10 2より供給される近 似関数 f(x)の特徴量を表している。
従って、 上述した式 (1 6 9) の右辺の近似関数 f(x)に、 式 (1 75) の近 似関数 f (X) を代入して、 式 (1 6 9) の右辺を展開 (演算) すると、 出力画 素値 Mは、 次の式 (1 76) のように表される。 o X
= Gex∑ Wj X e +1. - 1
i=0 け1
Figure imgf000303_0001
• · · (1 76) 式 (1 76) において、 (xs,xe) は、 i次項の積分成分を表している。 即 ち、 積分成分 Ki (xs,xe) は、 次の式 (1 77) で示される通りである。
i+1 i+1
ki (xR,x '、flβ)' = G 4 fiex ' "-es
+1
(1 77) 1488
302
積分成分演算部 3 1 2 3は、 この積分成分 Ki (xs,xe) を演算する。
具体的には、 式 (1 7 7) で示されるように、 積分成分 Ki (xs , xe ) は、 積分 範囲の開始位置 xs、 および終了位置 xe、 ゲイン Ge、 並びに i次項の iが既知で あれば演算可能である。
これらのうちの、 ゲイン Geは、 条件設定部 3 1 2 1により設定された空間解 像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 1 2 1により設定された次数 nにより決定される。 また、 積分範囲の開始位置 xs、 および終了位置 xeのそれぞれは、 これから生 成する出力画素の中心画素位置(x,y)および画素幅、 並びにデータの定常性の方 向を表すシフト量 Cx (y)により決定される。 なお、 (x,y)は、 実世界推定部 1 0
2が近似関数 f (x)を生成したときの注目画素の中心位置からの相対位置を表し ている。
さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそれ ぞれは、 条件設定部 3 1 2 1により設定された空間解像度倍率 (積分範囲) によ り決定される。
また、 シフト量 Cx (y)と、 データ定常性検出部 1 0 1より供給された角度 Θは、 次の式 (1 7 8) と式 (1 7 9) のような関係が成り立つので、 シフト量 Cx (y) は角度 0により決定される。
Gf = tan Θ
1 = d^x
· ■ · ( 1 7 8)
… ( 1 7 9) なお、 式 (1 7 8) において、 Gf は、 データの定常性の方向を表す傾きを表 しており、 Θは、 データ定常性検出部 1 0 1 (図 2 3 6) より出力されるデータ 定常性情報の 1つである角度 (空間方向の 1方向である X方向と、 傾き Gf で表 されるデータの定常性の方向とのなす角度) を表している。 また、 dxは、 X方 向の微小移動量を表しており、 dyは、 dxに対する Y方向 (X方向と垂直な空間 方向) の微小移動量を表している。
従って、 積分成分演算部 3 1 2 3は、 条件設定部 3 1 2 1により設定された次 数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1より出 力されたデータ定常性情報のうちの角度 0に基づいて積分成分 Ki (Xs , e ) を演 算し、 その演算結果を積分成分テーブルとして出力画素値演算部 3 1 2 4に供給 する。
出力画素値演算部 3 1 2 4は、 特徴量記憶部 3 1 2 2より供給された特徴量テ 一プルと、 積分成分演算部 3 1 2 3より供給された積分成分テーブルを利用して、 上述した式 (1 7 6 ) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 2 4 0のフローチャートを参照して、 1次元再積分手法を利用する画 像生成部 1 0 3 (図 2 3 9 ) の画像の生成の処理 (図 4 0のステップ S 1 0 3の 処理) について説明する。
例えば、 いま、 上述した図 4 0のステップ S 1 0 2の処理で、 実世界推測部 1 0 2が、 上述した図 2 3 7で示されるような画素 3 1 0 1を注目画素として、 図 2 3 7で示されるような近似関数 f (x)を既に生成しているとする。
また、 上述した図 4 0のステップ S 1 0 1の処理で、 データ定常性検出部 1 0 1力 データ定常性情報として、 図 2 3 7で示されるような角度 6を既に出力し ているとする。
この場合、 図 2 4 0のステップ S 3 1 0 1において、 条件設定部 3 1 2 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4倍 密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設定さ れたとする。
即ち、 この場合、 図 2 3 8で示されるように、 X方向に一 0 . 5乃至 0 . 5の 範囲、 かつ Y方向に一 0. 5乃至 0. 5の範囲 (図 2 3 7の画素 3 1 0 1の範 囲) に、 4個の画素 3 1 1 1乃至画素 3 1 1 4を新たに創造することが設定され たことになる。
ステップ S 3 1 0 2において、 特徴量記憶部 3 1 2 2は、 実世界推定部 1 0 2 より供給された近似関数 f(x)の特徴量を取得し、 特徴量テーブルを生成する。 いまの場合、 5次の多項式である近似関数 f(x)の係数 w。乃至 w5が実世界推定 部 1 0 2より供給されるので、 特徴量テーブルとして、 (Wo ' Wp W^ W ^ , ^ ) が生成される。
ステップ S 3 1 0 3において、 積分成分演算部 3 1 2 3は、 条件設定部 3 1 2 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1
0 1より供給されたデータ定常性情報 (角度 ø ) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成する画素 3 1 1 1乃至画素 3 1 1 4のそれ ぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃至 4 のそれぞれが付されているとすると、 積分成分演算部 3 1 2 3は、 上述した式 (1 7 7) の積分成分 (xs,xe) を、 次の式 (1 8 0) の左辺で示される積分 成分 Ki (l)といった 1 (ただし、 1はモード番号を表している) の関数として演 算する。
Ki ( 1 ) = Kt (xs J e) ■ · ■ ( 1 8 0)
具体的には、 いまの場合、 次の式 (1 8 1) で示される積分成分 ^ (1)が演算 さ る。
二 kj (-0.5-Cx (-0.25), 0-Cx (-0.25))
(2) =k (0-Cx(-0.25),0.5-Cx(-0.25))
(3) =k (- 0.5 - Gx(0.25),0-Cx(0.25))
(4) =k (0-Cx(0.25),0.5-Cx(0.25))
• · ■ ( 1 8 1) なお、 式 (1 8 1) において、 左辺が積分成分 (1)を表し、 右辺が積分成分 Ki (xs 5xe) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちのいずれ かであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個の Ki ( l), 6 個の (2), 6個の (3), 6個の (4)の総計 24個の (1)が演算されるこ とになる。
より具体的には、 はじめに、 積分成分演算部 3 1 2 3は、 データ定常性検出部 1 0 1より供給された角度 Θを使用して、 上述した式 (1 7 8) と式 (1 7 9) よりシフト量 Cx (-0.25)、 および Cx (0.25)のそれぞれを演算する。
次に、 積分成分演算部 3 1 2 3は、 演算したシフト量 Cx (-0.25)、 および Cx (0.25)を使用して、 式 (1 8 1) の 4つの式の各右辺の積分成分 ^
(x5 >xe) のそれぞれを、 i== 0乃至 5についてそれぞれ演算する。 なお、 この 積分成分 ^ (xs Jxe) の演算においては、 上述した式 (1 7 7) が使用される。 そして、 積分成分演算部 3 1 2 3は、 式 (1 8 1) に従って、 演算した 24個 の積分成分 ^ (xs, xe) のそれぞれを、 対応する積分成分 ^ (1)に変換し、 変換 した 24個の積分成分 (1) (即ち、 6個の (1)、 6個の (2)、 6個の (3)、 および 6個の (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3 1 0 2の処理とステップ S 3 1 0 3の処理の順序は、 図 2
40の例に限定されず、 ステップ S 3 1 0 3の処理が先に実行されてもよいし、 ステップ S 3 1 0 2の処理とステップ S 3 1 0 3の処理が同時に実行されてもよ い。
次に、 ステップ S 3 1 04において、 出力画素値演算部 3 1 24は、 ステップ
5 3 1 0 2の処理で特徴量記憶部 3 1 2 2により生成された特徴量テーブルと、 ステップ S 3 1 0 3の処理で積分成分演算部 3 1 2 3により生成された積分成分 テーブルに基づいて出力画素値 M(l)乃至 M (4)のそれぞれを演算する。
具体的には、 いまの場合、 出力画素値演算部 3 1 24は、 上述した式 (1 7 6) に対応する、 次の式 (1 8 2) 乃至式 (1 8 5) の右辺を演算することで、 画素 3 1 1 1 (モード番号 1の画素) の画素値 M(l)、 画素 3 1 1 2 (モード番 号 2の画素) の画素値 M (2)、 画素 3 1 1 3 (モード番号 3の画素) の画素値 1488
306
M(3)、 および画素 3 1 14 (モード番号 4の画素) の画素値 M (4)のそれぞれを 演算する。
∑ 5
w
(1) k
(1 82)
Figure imgf000308_0001
(1 83)
Figure imgf000308_0002
• ·■ · (184)
Figure imgf000308_0003
· · ■ (185) ステップ S 3105において、 出力画素値演算部 3 124は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3105において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3102に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 31 02乃至 S 3104の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3105において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 1 24は、 ステップ S 3 106において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 次に、 図 241乃至図 248を参照して、 所定の入力画像に対して、 1次元再 積分手法を適用して得られた出力画像と、 他の手法 (従来のクラス分類適応処 理) を適用して得られた出力画像の違いについて説明する。
図 241は、 入力画像の元の画像を示す図であり、 図 242は、 図 241の元 の画像に対応する画像データを示している。 図 2 4 2において、 図中垂直方向の 軸は、 画素値を示し、 図中右下方向の軸は、 画像の空間方向の一方向である X方 向を示し、 図中右上方向の軸は、 画像の空間方向の他の方向である Y方向を示す。 なお、 後述する図 2 4 4、 図 2 4 6、 および図 2 4 8の軸のそれぞれは、 図 2 4 2の軸と対応している。
図 2 4 3は、 入力画像の例を示す図である。 図 2 4 3で示される入力画像は、 図 2 4 1で示される画像の 2 X 2の画素からなるプロックに属する画素の画素値 の平均値を、 1つの画素の画素値として生成された画像である。 即ち、 入力画像 は、 図 2 4 1で示される画像に、 センサの積分特性を模した、 空間方向の積分を 適用することにより得られた画像である。 また、 図 2 4 4は、 図 2 4 3の入力画 像に対応する画像データを示している。
図 2 4 1で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾 いた細線の画像が含まれている。 同様に、 図 2 4 3で示される入力画像において、 上下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 2 4 5は、 図 2 4 3で示される入力画像に、 従来のクラス分類適応処理を適 用して得られた画像 (以下、 図 2 4 5で示される画像を、 従来の画像と称する) を示す図である。 また、 図 2 4 6は、 従来の画像に対応する画像データを示して いる。
なお、 クラス分類適応処理は、 クラス分類処理と適応処理とからなり、 クラス 分類処理によって、 データを、 その性質に基づいてクラス分けし、 各クラスごと に適応処理を施すものである。 適応処理では、 例えば、 低画質または標準画質の 画像が、 所定のタップ係数を用いてマッピング (写像) されることにより、 高画 質の画像に変換される。
図 2 4 7は、 図 2 4 3で示される入力画像に、 本発明が適用される 1次元再積 分手法を適用して得られた画像 (以下、 図 2 4 7で示される画像を、 本発明の画 像と称する) を示す図である。 また、 図 2 4 8は、 本発明の画像に対応する画像 データを示している。 図 2 4 5の従来の画像と、 図 2 4 7の本発明の画像を比較するに、 従来の画像 においては、 細線の画像が、 図 2 4 1の元の画像とは異なるものになっているの に対して、 本発明の画像においては、 細線の画像が、 図 2 4 1の元の画像とほぼ 同じものになっていることがわかる。
この違いは、 従来のクラス分類適応処理は、 あくまでも図 2 4 3の入力画像を 基準 (原点) として処理を行う手法であるのに対して、 本発明の 1次元再積分手 法は、 細線の定常性を考慮して、 図 2 4 1の元の画像を推定し (元の画像に対応 する近似関数 f (x)を生成し) 、 推定した元の画像を基準 (原点) として処理を 行う (再積分して画素値を演算する) 手法であるからである。
このように、 1次元再積分手法においては、 1次元多項式近似手法により生成 された 1次元の多項式である近似関数 f ) (実世界の X断面波形 F )の近似関 数 f (x) ) を基準 (原点) として、 近似関数 f (x)を任意の範囲に積分することで 出力画像 (画素値) が生成される。
従って、 1次元再積分手法においては、 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の光信号) により近い画像の出力が可能に なる。
換言すると、 1次元再積分手法においては、 図 2 3 6のデータ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサ 2の複数の検出素子により実 世界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠落した、 検出 素子により射影された画素値を有する複数の画素からなる入力画像におけるデー タの定常性を検出し、 実世界推定部 1 0 2が、 検出されたデータの定常性に対応 して、 入力画像の時空間方向のうち 1次元方向の位置に対応する画素の画素値が、 その 1次元方向の積分効果により取得された画素値であるとして、 実世界 1の光 信号を表す光信号関数 F (具体的には、 X断面波形 F (x) ) を、 所定の近似関数 f ( X ) で近似することで、 光信号関数 Fを推定していることが前提とされてい る。
詳細には、 例えば、 検出されたデータの定常性に対応する線からの 1次元方向 に沿った距離に対応する各画素の画素値が、 その 1次元方向の積分効果により取 得された画素値であるとして、 X断面波形 F (x)が近似関数 f (X)で近似されてい ることが前提とされている。
そして、 1次元再積分手法においては、 このような前提に基づいて、 例えば、 図 2 3 6 (図 3 ) の画像生成部 1 0 3が、 実世界推定部 1 0 2により推定された X断面波形 F ( x ) 、 即ち、 近似関数 f (X)を、 1次元方向の所望の単位で積分 することにより所望の大きさの画素に対応する画素値 Mを生成し、 それを出力 画像として出力する。
従って、 1次元再積分手法においては、 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の光信号) により近い画像の出力が可能に なる。
また、 1次元再積分手法においては、 上述したように、 積分範囲は任意なので、 積分範囲を可変することにより、 入力画像の解像度とは異なる解像度 (時間解像 度、 または空間解像度) を創造することも可能になる。 即ち、 入力画像の解像度 に対して、 整数値だけではなく任意の倍率の解像度の画像を生成することが可能 になる。
さらに、 1次元再積分手法においては、 他の再積分手法に比較して、 より少な い演算処理量で出力画像 (画素値) の算出が可能となる。
次に、 図 2 4 9乃至図 2 5 5を参照して、 2次元再積分手法について説明する。 2次元再積分手法においては、 2次元多項式近似手法により近似関数 f (x, y) が既に生成されていることが前提とされる。
即ち、 例えば、 図 2 4 9で示されるような、 傾き GPで表される空間方向の定 常性を有する実世界 1 (図 2 3 6 ) の光信号を表す画像関数 F (x, y, t)を、 空間 ' 方向 (X方向と Y方向) に射影した波形、 即ち、 X— Y平面上の波形 F (x,y)力 n次 (nは、 任意の整数) の多項式である近似関数 f (x, y)に近似されていること が前提とされる。
図 2 4 9において、 図中、 水平方向は、 空間方向の 1方向である X方向を、 右 上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 それ ぞれ表している。 GFは、 空間方向の定常性の傾きを表している。
なお、 図 24 9の例では、 定常性の方向は、 空間方向 (X方向と Y方向) とさ れているため、 近似の対象とされる光信号の射影関数は、 関数 F(x,y)とされて いるが、 後述するように、 定常性の方向に応じて、 関数 F(x,t)や関数 F(y,t)が 近似の対象とされてもよい。
図 24 9の例の場合、 2次元再積分手法においては、 出力画素値 Mは、 次の式 (1 8 6) のように演算される。
M = Ge j Jx f(x,y)dxdy · · · ( 1 8 6) なお、 式 (1 8 6) において、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開始 位置を表しており、 xeは、 X方向の積分終了位置を表している。 また、 Geは、 所定のゲインを表している。 ' 式 (1 8 6) において、 積分範囲は任意に設定可能であるので、 2次元再積分 手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 2 3 6) からの入力画像の画素) に対して任意の倍率の空間解像度の画素を劣化す ることなく創造することが可能になる。
図 2 5 0は、 2次元再積分手法を利用する画像生成部 1 0 3の構成例を表して いる。
図 2 5 0で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 2 0 1、 特徴量記憶部 3 2 0 2、 積分成分演算部 3 20 3、 および出力画素値演算 部 3 2 04が設けられている。
条件設定部 3 20 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 2 5 0の例では、 近似関数 f(x,y)の特徴量) に基づいて近似関数 f (x, y)の 次数 nを設定する。 条件設定部 3 2 0 1はまた、 近似関数 f (x, y)を再積分する場合 (出力画素値 を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 2 0 1が設定する 積分範囲は、 画素の縦幅や横幅である必要は無い。 例えば、 近似関数 f (x, y) は空間方向 (X方向と Y方向) に積分されるので、 センサ 2からの入力画像の各 画素の空間的な大きさに対する、 出力画素 (画像生成部 1 0 3がこれから生成す る画素) の相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範囲 の決定が可能である。 従って、 条件設定部 3 2 0 1は、 積分範囲として、 例えば、 空間解像度倍率を設定することもできる。
特徴量記憶部 3 2 0 2は、 実世界推定部 1 0 2より順次供給されてくる近似関 数 f (x, y)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 2 0 2は、 近 似関数 f (x, y)の特徴量の全てを記憶すると、 近似関数 f (x, y)の特徴量を全て含 む特徴量テーブルを生成し、 出力画素値演算部 3 2 0 4に供給する。
ここで、 近似関数 f (x, y)の詳細について説明する。
例えば、 いま、 上述した図 2 4 9で示されるような傾き GFで表される空間方 向の定常性を有する実世界 1 (図 2 3 6 ) の光信号 (波形 F (x,y) で表される光 信号)が、 センサ 2 (図 2 3 6 ) により検出されて入力画像 (画素値) として出 力されたとする。
さらに、 例えば、 図 2 5 1で示されるように、 データ定常性検出部 1 0 1 (図 3 ) 力 S、 この入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素分の総 計 2 0個の画素 (図中、 点線で表される 2 0個の正方形) から構成される入力画 像の領域 3 2 2 1に対してその処理を実行し、 データ定常性情報の 1つとして角 度 0 (傾き GFに対応する傾き Gf で表されるデータの定常性の方向と、 X方向と のなす角度 0 ) を出力したとする。
なお、 実世界推定部 1 0 2から見ると、 データ定常性検出部 1 0 1は、 注目画 素における角度 Θを単に出力すればよいので、 データ定常性検出部 1 0 1の処理 範囲は、 上述した入力画像の領域 3 2 2 1に限定されない。
また、 入力画像の領域 3 2 2 1において、 図中水平方向は、 空間方向の 1方 向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y方向 を表している。
さらに、 図 2 5 1中、 左から 2画素目であって、 下から 3画素目の画素が注目 画素とされ、 その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定 されている。 そして、 原点(0,0)を通る角度 0の直線 (データの定常性の方向を 表す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離と称 する) が x,とされている。
さらに、 図 25 1中、 右側のグラフは、 3次元の空間上の位置 X, y、 および z、 並びに時刻 tを変数とする画像関数 F(x,y,t)を、 Y方向の任意の位置 yにおい て、 X方向に射影した 1次元の波形 (以下、 このような波形を、 X断面波形
F(x')と称する) が近似された関数であって、 n次 (nは、 任意の整数) の多項 式である近似関数 f(x')を表している。 右側のグラフの軸のうち、 図中水平方向 の軸は、 断面方向距離を表しており、 図中垂直方向の軸は、 画素値を表している。 この場合、 図 25 1で示される近似関数 f(x,)は、 n次の多項式であるので、 次の式 (1 87) のように表される。
n
f (X,) = WQ+W^' +W2X' + ' * ' +Wnx'n = ∑ WjX,'
• · · (1 8 7) また、 角度 Θが決定されていることから、 原点(0,0)を通る角度 0の直線は一 意に決まり、 Y方向の任意の位置 yにおける、 直線の X方向の位置 力 次の 式 (1 88) のように表される。 ただし、 式 (1 88) において、 sは cot Θを 表している。
! = s X y · ■ ■ (1 88)
即ち、 図 25 1で示されるように、 傾き Gf で表されるデータの定常性に対応 する直線上の点は、 座標値(Xl,y)で表される。
式 (1 8 8) より、 断面方向距離 x'は、 次の式 (1 8 9) のように表される。
X = X— i : X— s X y ■ ■ ■ 1 89 j 従って、 入力画像の領域 3 22 1内の任意の位置(x,y)における近似関数 f (x,y)は、 式 (1 87) と式 (1 8 9) より、 次の式 (1 90) のように示さ れる。
π
f (x, y) = 2L W; (x-sxy)
i=0
• · · (1 90) なお、 式 (1 90) において、 Wi は、 近似関数 f (x,y)の特徴量を表している 図 2 50に戻り、 式 (1 90) に含まれる特徴量 ^ I 実世界推定部 1 02 より供給され、 特徴量記憶部 3202に記憶される。 特徴量記憶部 3202は、 式 (1 90) で表される特徴量 の全てを記憶すると、 特徴量 ^ を全て含む特 徴量テーブルを生成し、 出力画素値演算部 3204に供給する。
また、 上述した式 (1 86) の右辺の近似関数 f (X, y)に、 式 (1 90) の近 似関数 f (x,y) を代入して、 式 (1 86) の右辺を展開 (演算) すると、 出力 画素値 Mは、 次の式 (1 9 1) のように表される。
M p v v i(xe-sxye)i+2-(xe-sxys)i+2-(xs-sxye)i+2+(xs-sxys)i+2l
ΙΪΙ = Qe X . Wj x
i=0 S
n
= L j kj (xs, xe,ys, ye)
i=0
• · - (1 9 1) 式 (1 9 1) において、 (xs,xe,ys,ye) は、 i次項の積分成分を表してい る。 即ち、 積分成分 Ki (xs , xe , ys , ye ) は、 次の式 (1 9 2) で示される通り である。
ki(xs,xe,ys,yj
{(xe-sxye)i+2-(xe-sxys)i+2-(xs-sxye)i+2+(xs-sxys)i+2)
= G。x
s(i+1)(i+2)
• · · (1 9 2) 積分成分演算部 3 203は、 この積分成分 Ki (xs,xe,ys,ye) を演算する。 具体的には、 式 (1 9 1 ) と式 (1 9 2 ) で示されるように、 積分成分
(xs,xe,ys,ye ) は、 積分範囲の X方向の開始位置 xs、 および X方向の終了位 置 xe、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 ye、 変数 s、 ゲイン Ge、 並びに i次項の iが既知であれば演算可能である。
これらのうちの、 ゲイン Ge は、 条件設定部 3 2 0 1により設定された空間解 像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 2 0 1により設定された次数 nにより決定される。 変数 sは、 上述したように、 cot 0であるので、 データ定常性検出部 1 0 1よ り出力される角度 6により決定される。
また、 積分範囲の X方向の開始位置 xs、 および X方向の終了位置 xe、 並びに、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 yeのそれぞれは、 こ れから生成する出力画素の中心画素位置(x, y)および画素幅により決定される。 なお、 (x, y)は、 実世界推定部 1 0 2が近似関数 f (x)を生成したときの注目画素 の中心位置からの相対位置を表している。
さらに、 これから生成する出力画素の中心画素位置(x, y)および画素幅のそれ ぞれは、 条件設定部 3 2 0 1により設定された空間解像度倍率 (積分範囲) によ り決定される。
従って、 積分成分演算部 3 2 0 3は、 条件設定部 3 2 0 1により設定された次 数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1より出 力されたデータ定常性情報のうちの角度 0に基づいて
積分成分 Ki (xs , xe > ys , ye ) を演算し、 その演算結果を積分成分テーブルとし て出力画素値演算部 3 2 0 4に供給する。
出力画素値演算部 3 2 0 4は、 特徴量記憶部 3 2 0 2より供給された特徴量テ 一プルと、 積分成分演算部 3 2 0 3より供給された積分成分テーブルを利用して、 上述した式 (1 9 1 ) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 2 5 2のフローチャートを参照して、 2次元再積分手法を利用する画 像生成部 1 0 3 (図 2 5 1 ) の画像の生成の処理 (図 4 0のステップ S 1 0 3の 処理) について説明する。
例えば、 いま、 図 2 4 9で示される関数 F (x,y)で表される光信号がセンサ 2 に入射されて入力画像となり、 上述した図 4 0のステップ S 1 0 2の処理で、 実 世界推測部 1 0 2が、 その入力画像のうちの、 図 2 5 3で示されるような 1つの 画素 3 2 3 1を注目画素として、 関数 F (x,y)を近似する近似関数 f (x,y)を既に 生成しているとする。
なお、 図 2 5 3において、 画素 3 2 3 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 2 3 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空 間方向のうちの、 画素 3 2 3 1の 1辺に平行な方向が X方向とされ、 X方向に垂 直な方向が Y方向とされている。 さらに、 画素 3 2 3 1の中心が原点とされる空 間方向 (X方向と Y方向) の座標系 (以下、 注目画素座標系と称する) が設定さ れている。
また、 図 2 5 3において、 上述した図 4 0のステップ S 1 0 1の処理で、 デー タ定常性検出部 1 0 1力 画素 3 2 3 1を注目画素として、 傾き Gf で表される データの定常性に対応するデータ定常性情報として、 角度 Θを既に出力している とする。
図 2 5 2に戻り、 この場合、 ステップ S 3 2 0 1において、 条件設定部 3 2 0 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4倍 密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設定さ れたとする。
即ち、 この場合、 図 2 5 4で示されるように、 X方向に一 0 . 5乃至 0 . 5の 範囲、 かつ Y方向に一 0 . 5乃至 0 . 5の範囲 (図 2 5 3の画素 3 2 3 1の範 囲) に、 4個の画素 3 2 4 1乃至画素 3 2 4 4を新たに創造することが設定され たことになる。 なお、 図 2 5 4においても、 図 2 5 3のものと同一の注目画素座 標系が示されている。 また、 図 2 5 4において、 M(l)は、 これから生成される画素 3 24 1の画素 値を、 M(2)は、 これから生成される画素 3 24 2の画素値を、 M(3)は、 これか ら生成される画素 3 24 3の画素値を、 M(4)は、 これから生成される画素 3 2 4 1の画素値を、 それぞれ表している。
図 2 5 2に戻り、 ステップ S 3 2 0 2において、 特徴量記憶部 3 2 0 2は、 実 世界推定部 1 0 2より供給された近似関数 f(x,y)の特徴量を取得し、 特徴量テ 一ブルを生成する。 いまの場合、 5次の多項式である近似関数 f(x)の係数 乃 至 w5が実世界推定部 1 0 2より供給されるので、 特徴量テーブルとして、
(,W0 , wL , 2 , w3 , w4 , w5 ) 力生成される。
ステップ S 3 2 0 3において、 積分成分演算部 3 2 0 3は、 条件設定部 3 2 0 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成される画素 3 2 4 1乃至画素 3 2 44のそ れぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃至 4のそれぞれが付されているとすると、 積分成分演算部 3 2 0 3は、 上述した式
( 1 9 1) の積分成分 Ki (xs,xe,ys,ye) を、 次の式 (1 9 3) の左辺で示さ れる積分成分 Ki (1)といった 1 (ただし、 1はモード番号を表している) の関数 として演算する。
Ki ( 1 ) = Ki (xs, xe,ys,ye) ■ ■ · (1 9 3)
具体的には、 いまの場合、 次の式 (1 94) で示される積分成分 Ki (1)が演算 される。 )
Figure imgf000318_0001
(1 94) なお、 式 (1 94) において、 左辺が積分成分 Ki (1)を表し、 右辺が積分成分 (xs,xe Jys,ye) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちの いずれかであり、 かつ、 iは◦乃至 5のうちのいずれかであるので、 6個の
( 1 ) , 6個の (2), 6個の (3), 6個の I (4)の総計 24個の (1)が演 算されることになる。
より具体的には、 はじめに、 積分成分演算部 3 2 0 3は、 データ定常性検出部 1 0 1より供給された角度 0を使用して、 上述した式 (1 8 8) の変数 s ( s = cot 0 ) を演算する。
次に、 積分成分演算部 3 2 0 3は、 演算した変数 sを使用して、 式 (1 9 4) の 4つの式の各右辺の積分成分 Ki (xs , xe , ys , ye ) のそれぞれを、 i= 0乃至 5 についてそれぞれ演算する。 なお、 この積分成分 ^ (xs,xe,ys,ye) の演算に おいては、 上述した式 (1 9 1) が使用される。
そして、 積分成分演算部 3 20 3は、 式 (1 9 4) に従って、 演算した 2 4個 の積分成分 (xs,xe,ys,ye) のそれぞれを、 対応する積分成分 ^ (1)に変換し、 変換した 24個の積分成分 ^ (1) (即ち、 6個の Ki (l)、 6個の (2)、 6個の (3)、 および 6個の (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3 2 0 2の処理とステップ S 3 2 0 3の処理の順序は、 図 2 5 2の例に限定されず、 ステップ S 3 20 3の処理が先に実行されてもよいし、 ステップ S 3 20 2の処理とステップ S 3 20 3の処理が同時に実行されてもよ い。
次に、 ステップ S 3 2 04において、 出力画素値演算部 3 2 04は、 ステップ S 3 2 0 2の処理で特徴量記憶部 3 2 0 2により生成された特徴量テーブルと、 ステップ S 3 2 0 3の処理で積分成分演算部 3 2 0 3により生成された積分成分 テーブルに基づいて出力画素値 M(l)乃至 M (4)のそれぞれを演算する。
具体的には、 いまの場合、 出力画素値演算部 3 2 04は、 上述した式 (1 9
1) に対応する、 次の式 (1 9 5) 乃至式 (1 9 8) の右辺のそれぞれを演算す ることで、 図 2 54で示される、 画素 3 24 1 (モード番号 1の画素) の画素値 JP2004/001488
318
111(1)、 画素3 24 2 (モード番号 2の画素) の画素値 M (2)、 画素 3 24 3 (モ ード番号 3の画素) の画素値 M (3)、 および画素 3 244 (モード番号 4の画 素) の画素値 M(4)のそれぞれを演算する。
Figure imgf000320_0001
(1 9 5)
Figure imgf000320_0002
(1 96)
Figure imgf000320_0003
(1 9 7)
M(4) = ∑ Wj xk: (4)
i=o
- - - (1 98) ただし、 いまの場合、 式 (1 9 5) 乃至式 (1 9 8) の nは全て 5となる。 ステップ S 3 2 0 5において、 出力画素値演算部 3 2 0 4は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 2 0 5において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 2 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 2 0 2乃至 S 3 2 04の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 2 0 5において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 2 04は、 ステップ S 3 20 6において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 このように、 2次元再積分手法を利用することで、 センサ 2 (図 2 3 6) から の入力画像の画素 3 2 3 1 (図 2 5 3) における画素として、 入力画素 3 2 3 1 よりも空間解像度の高い 4つの画素、 即ち、 画素 3 2 4 1乃至画素 3 2 4 4 (図
2 5 4 ) を創造することができる。 さらに、 図示はしないが、 上述したように、 画像生成部 1 0 3は、 画素 3 2 4 1乃至画素 3 2 4 4のみならず、 積分範囲を適 宜変えることで、 入力画素 3 2 3 1に対して任意の倍率の空間解像度の画素を劣 化することなく創造することができる。
以上、 2次元再積分手法の説明として、 空間方向 (X方向と Y方向) に対する 近似関数 f (x, y)を 2次元積分する例を用いたが、 2次元再積分手法は、 時空間 方向 (X方向と t方向、 または、 Y方向と t方向) に対しても適用可能である。 即ち、 上述した例は、 実世界 1 (図 2 3 6 ) の光信号が、 例えば、 図 2 4 9で 示されるような傾き GFで表される空間方向の定常性を有する場合の例であった ので、 上述した式 (1 8 6 ) で示されるような、 空間方向 (X方向と Y方向) の 二次元積分が含まれる式が利用された。 しかしながら、 二次元積分の考え方は、 空間方向だけによるものではなく、 時空間方向 (X方向と t方向、 または、 Y方 向と t方向) に対して適用することも可能である。
換言すると、 2次元再積分手法の前提となる 2次元多項式近似手法においては、 光信号を表す画像関数 F (x,y,t)が、 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方向、 または、 Y方向と t方向) の定常性を有している場 合であっても、 2次元の多項式により近似することが可能である。
具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 その 物体の動きの方向は、 図 2 5 5で示されるような X_t平面においては、 傾き VF のように表される。 換言すると、 傾き vPは、 x_t平面における時空間方向の定 常性の方向を表しているとも言える。 従って、 データ定常性検出部 1 0 1 (図 2
3 6 ) は、 上述した角度 0 (X- Y平面における、 空間方向の定常性を表す傾き GFに対応するデータ定常性情報) と同様に、 X_t平面における時空間方向の定 常性を表す傾き VFに対応するデータ定常性情報として、 図 2 5 5で示されるよ うな動き Θ (厳密には、 図示はしないが、 傾き VFに対応する傾き Vf で表される データの定常性の方向と、 空間方向の X方向とのなす角度である動き Θ ) を出力 することが可能である。
また、 2次元多項式近似手法を利用する実世界推定部 1 02 (図 236) は、 動き 0を上述した角度 Θの代わりとして使用すれば、 上述した方法と同様な方法 で、 近似関数 f(x,t)の係数 (特徴量) wi を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (1 90) ではなく、 次の式 (1 9 9) である。
n
f (x, y) = 1 Wj (χ-sxt)
i=0
• · · (1 9 9) なお、 式 (1 9 9) において、 sは cot0 (ただし、 0は動きである) である。 従って、 2次元再積分手法を利用する画像生成部 1 03 (図 236) は、 次の 式 (200) の右辺に、 上述した式 (1 9 9) の f(x, t)を代入して、 演算する ことで、 画素値 Mを算出することが可能になる。
M = Gex ft e/Xef (x, t)dxdt
• · · (200) なお、 式 (200) において、 ts は、 t方向の積分開始位置を表しており、 teは、 t方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開始 位置を表しており、 xe は、 X方向の積分終了位置を表している。 Ge は、 所定の ゲインを表している。
また、 空間方向 Xの変わりに、 空間方向 Yに注目した近似関数 f (y,t)も、 上 述した近似関数 f (x、t)と全く同様に取り扱うことが可能である。
ところで、 式 (1 9 9) において、 t方向を一定とみなし、 即ち、 t方向の積 分を無視して積分することで、 時間方向には積分されないデータ、 即ち、 動きポ ケのないデータを得ることが可能になる。 換言すると、 この手法は、 2次元の多 項式のうちの所定の 1次元を一定として再積分する点で、 2次元再積分手法の 1 つとみなしてもよいし、 実際には、 X方向の 1次元の再積分をすることになると 8
321
いう点で、 1次元再積分手法の 1つとみなしてもよい。
また、 式 (2 0 0 ) において、 積分範囲は任意に設定可能であるので、 2次元 再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ2 (図 2 3 6 ) からの入力画像の画素) に対して任意の倍率の解像度の画素を劣化 することなく創造することが可能になる。
即ち、 2次元再積分手法においては、 時間方向 tの積分範囲を適宜変えること で、 時間解像度の創造が可能になる。 また、 空間方向 X (または、 空間方向 Y ) の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間 方向 tと空間方向 Xの積分範囲のそれぞれを適宜変えることで、 時間解像度と空 間解像度の両方の創造が可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創造 は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再積分 手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて可能に なる。 即ち、 2次元再積分手法と後述する 3次元再積分手法ではじめて、 両方の 解像度の創造が可能になる。
また、 2次元再積分手法は、 1次元ではなく 2次元の積分効果を考慮している ので、 より実世界 1 (図 2 3 6 ) の光信号に近い画像を生成することも可能にな る。
換言すると、 2次元再積分手法においては、 例えば、 図 2 3 6 (図 3 ) のデー タ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサ 2の複数の 検出素子により実世界 1の光信号が射影され、 実世界 1の光信号の定常性 (例え ば、 図 2 4 9の傾き GFで表される定常性) の一部が欠落した、 検出素子により 射影された画素値を有する複数の画素からなる入力画像におけるデータの定常性 (例えば、 図 2 5 1の傾き Gf で表されるデータの定常性) を検出する。
そして、 例えば、 図 2 3 6 (図 3 )の実世界推定部 1 0 2が、 データ定常性検 出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方 向のうち少なくとも 2次元方向 (例えば、 図 2 4 9の空間方向 Xと、 空間方向 P T/JP2004/001488
322
Y ) の位置に対応する画素の画素値が、 少なくとも 2次元方向の積分効果により 取得された画素値であるとして、 実世界 1の光信号を表す光信号関数 F (具体的 には、 図 2 4 9の関数 F (x, y) ) を、 多項式である近似関数 ί (x, y)で近似する ことで、 光信号関数 Fを推定することが前提とされている。
詳細には、 例えば、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により 検出されたデータの定常性に対応する線 (例えば、 図 2 5 1の傾き Gf に対応す る線 (矢印) ) からの少なくとも 2次元方向に沿った距離 (例えば、 図 2 5 1の 断面方向距離 X ') に対応する画素の画素値が、 少なくとも 2次元方向の積分効 果により取得された画素値であるとして、 現実世界の光信号を表す第 1の関数を、 多項式である第 2の関数で近似することで、 第 1の関数を推定することが前提と されている。
2次元再積分手法においては、 このような前提に基づいて、 例えば、 図 2 3 6 (図 3 ) の画像生成部 1 0 3 (構成は、 図 2 5 0 ) 力 実世界推定部 1 0 2によ り推定された関数 F (x, y)、 即ち、 近似関数 f (x, y)を、 少なくとも 2次元方向の 所望の単位で積分する (例えば、 上述した式 (1 8 6 ) の右辺を演算する) こと により所望の大きさの画素 (例えば、 図 2 3 6の出力画像 (画素値 M) 。 具体的 には、 例えば、 図 2 5 4の画素 3 2 4 1乃至画素 3 2 4 4 ) に対応する画素値を 生成する。
従って、 2次元再積分手法においては、 時間解像度と空間解像度のうちのいず れか一方の創造のみならず、 両方の解像度の創造が可能になる。 また、 2次元再 積分手法においては、 1次元再積分手法に比較して、 より実世界 1 (図 2 3 6 ) の光信号に近い画像を生成することも可能になる。
次に、 図 2 5 6と図 2 5 7を参照して、 3次元再積分手法について説明する。 3次元再積分手法においては、 3次元関数近似手法により近似関数 f , y, t) が既に生成されていることが前提とされる。
この場合、 3次元再積分手法においては、 出力画素値 Mは、 次の式 (2 0 1 ) のように演算される。 Wl = Ge x J, 丄 I f (x, y, t) dxdydt
• - · ( 2 0 1 ) なお、 式 (2 0 1 ) において、 ts は、 t方向の積分開始位置を表しており、 teは、 t方向の積分終了位置を表している。 同様に、 ysは、 Y方向の積分開始 位置を表しており、 yeは、 Y方向の積分終了位置を表している。 また、 xsは、 X方向の積分開始位置を表しており、 xeは、 X方向の積分終了位置を表してい る。 さらに、 Ge は、 所定のゲインを表している。
式 (2 0 1 ) において、 積分範囲は任意に設定可能であるので、 3次元再積分 手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 2 3 6 ) からの入力画像の画素) に対して任意の倍率の時空間解像度の画素を劣化 することなく創造することが可能になる。 即ち、 空間方向の積分範囲を小さくす れば、 画素ピッチを自由に細かくできる。 逆に、 空間方向の積分範囲を大きくす れば、 画素ピッチを自由に大きくすることができる。 また、 時間方向の積分範囲 を小さくすれば、 実世界波形に基づいて時間解像度を創造できる。
図 2 5 6は、 3次元再積分手法を利用する画像生成部 1 0 3の構成例を表して いる。
図 2 5 6で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 3 0 1、 特徴量記憶部 3 3 0 2、 積分成分演算部 3 3 0 3、 および出力画素値演算 部 3 3 0 4が設けられている。
条件設定部 3 3 0 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 2 5 6の例では、 近似関数 f (x,y,t)の特徴量) に基づいて近似関数 f (x, y,t)の次数 nを設定する。
条件設定部 3 3 0 1はまた、 近似関数 f (x,y,t)を再積分する場合 (出力画素 値を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 3 ◦ 1が設定す る積分範囲は、 画素の幅 (縦幅と横幅) やシャツタ時間そのものである必要は無 レ、。 例えば、 センサ 2 (図 2 3 6 ) からの入力画像の各画素の空間的な大きさに T/JP2004/001488
324 対する、 出力画素 (画像生成部 1 0 3がこれから生成する画素) の相対的な大き さ (空間解像度の倍率) がわかれば、 具体的な空間方向の積分範囲の決定が可能 である。 同様に、 センサ 2 (図 2 3 6) のシャツタ時間に対する出力画素値の相 対的な時間 (時間解像度の倍率) がわかれば、 具体的な時間方向の積分範囲の決 定が可能である。 従って、 条件設定部 3 3 0 1は、 積分範囲として、 例えば、 空 間解像度倍率や時間解像度倍率を設定することもできる。
特徴量記憶部 3 3 0 2は、 実世界推定部 1 0 2より順次供給されてくる近似関 数 f (x,y,t)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 3 0 2は、 近似関数 f (x, y, t)の特徴量の全てを記憶すると、 近似関数 f (X, y, t)の特徴量を 全て含む特徴量テーブルを生成し、 出力画素値演算部 3 3 04に供給する。
ところで、 上述した式 (2 0 1) の右辺の近似関数 f (x,y)の右辺を展開 (演 算) すると、 出力画素値 Mは、 次の式 (2 0 2) のように表される。
M=∑ Wi ki(xs, xe, ys, ye, ts, te)
i=0
- ■ · (20 2) 式 (20 2) において、 (xs,xe,ys,ye,ts,tj は、 i次項の積分成分を表 している。 ただし、 xsは X方向の積分範囲の開始位置を、 xe は X方向の積分範 囲の終了位置を、 ys は Y方向の積分範囲の開始位置を、 ye は Y方向の積分範囲 の終了位置を、 ts は t方向の積分範囲の開始位置を、 teは t方向の積分範囲の 終了位置を、 それぞれ表している。 - 積分成分演算部 3 3 0 3は、 この積分成分 Ki (xs,xe,ys,ye,ts, te) を演算 する。
具体的には、 積分成分演算部 3 3 0 3は、 条件設定部 3 3 0 1により設定され た次数、 および積分範囲 (空間解像度倍率や時間解像度倍率) 、 並びにデータ定 常性検出部 1 0 1より出力されたデータ定常性情報のうちの角度 0または動き Θ に基づいて積分成分 ^ (xs,xe )ys,ye,ts,te) を演算し、 その演算結果を積分 成分テーブルとして出力画素値演算部 3 3 04に供給する。 出力画素値演算部 3 3 04は、 特徴量記憶部 3 3 0 2より供給された特徴量テ 一プルと、 積分成分演算部 3 3 0 3より供給された積分成分テーブルを利用して、 上述した式 (2 0 2) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 2 5 7のフローチャートを参照して、 3次元再積分手法を利用する画 像生成部 1 0 3 (図 2 5 6) の画像の生成の処理 (図 40のステップ S 1 0 3の 処理) について説明する。
例えば、 いま、 上述した図 40のステップ S 1 0 2の処理で、 実世界推測部 1 0 2 (図 2 3 6) 力 入力画像のうちの、 所定の画素を注目画素として、 実世界 1 (図 2 3 6) の光信号を近似する近似関数 f(x,y,t)を既に生成しているとす る。
また、 上述した図 40のステップ S 1 0 1の処理で、 データ定常性検出部 1 0 1 (図 2 3 6) 力 実世界推定部 1 0 2と同じ画素を注目画素として、 データ定 常性情報として、 角度 6または動き 0を既に出力しているとする。
この場合、 図 2 5 7のステップ S 3 3 0 1において、 条件設定部 3 3 0 1は、 条件 (次数と積分範囲) を設定する。
ステップ S 3 3 0 2において、 特徴量記憶部 3 3 0 2は、 実世界推定部 1 0 2 より供給された近似関数 f(x,y,t)の特徴量 を取得し、 特徴量テーブルを生成 する。
ステップ S 3 3 0 3において、 積分成分演算部 3 3 0 3は、 条件設定部 3 3 0 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 0または動き 0) に基づいて積分成 分を演算し、 積分成分テーブルを生成する。
なお、 ステップ S 3 3 0 2の処理とステップ S 3 3 0 3の処理の順序は、 図 2 5 7の例に限定されず、 ステップ S 3 3 0 3の処理が先に実行されてもよいし、 ステップ S 3 3 0 2の処理とステップ S 3 3 0 3の処理が同時に実行されてもよ い。 次に、 ステップ S 3 3 0 4において、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 2の処理で特徴量記憶部 3 3 0 2により生成された特徴量テーブルと、 ステップ S 3 3 0 3の処理で積分成分演算部 3 3 0 3により生成された積分成分 テーブルに基づいて各出力画素値のそれぞれを演算する。
ステップ S 3 3 0 5において、 出力画素値演算部 3 3 0 4は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 3 0 5において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 3 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 3 0 2乃至 S 3 3 0 4の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 3 0 5において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 6において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 このように、 上述した式 (2 0 1 ) において、 その積分範囲は任意に設定可能 であるので、 3次元再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 2 3 6 ) からの入力画像の画素) に対して任意の倍率の 解像度の画素を劣化することなく創造することが可能になる。
即ち、 3次元再積分手法においては、 時間方向の積分範囲を適宜変えることで、 時間解像度の創造が可能になる。 また、 空間方向の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間方向と空間方向の積分範囲のそれ ぞれを適宜変えることで、 時間解像度と空間解像度の両方の創造が可能になる。 具体的には、 3次元再積分手法においては、 2次元や 1次元に落とすときの近 似がないので精度の高い処理が可能になる。 また、 斜め方向の動きも 2次元に縮 退することなく処理することが可能になる。 さらに、 2次元に縮退していないの で各次元の加工が可能になる。 例えば、 2次元再積分手法において、 空間方向
( X方向と Y方向) に縮退している場合には時間方向である t方向の加工ができ なくなってしまう。 これに対して、 3次元再積分手法においては、 時空間方向の いずれの加工も可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創造 は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再積分 手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて可能に なる。 即ち、 上述した 2次元再積分手法と 3次元再積分手法ではじめて、 両方の 解像度の創造が可能になる。
また、 3次元再積分手法は、 1次元や 2次元ではなく 3次元の積分効果を考慮 しているので、 より実世界 1 (図 2 3 6 ) の光信号に近い画像を生成することも 可能になる。
換言すると、 3次元再積分似手法においては、 例えば、 図 2 3 6 (図 3 ) の実 世界推定部 1 0 2は、 それぞれ時空間積分効果を有する、 センサ 2の複数の検出 素子により実世界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠 落した、 検出素子により射影された画素値を有する複数の画素からなる入力画像 の、 時空間方向のうち少なくとも 1次元方向の位置に対応する画素の画素値が、 少なくとも 1次元方向の積分効果により取得された画素値であるとして、 実世界 の光信号を表す光信号関数 Fを所定の近似関数 f で近似することで、 光信号関 数 Fを推定することが前提とされる。
さらに、 例えば、 図 2 3 6 (図 3 ) のデータ定常性検出部 1 0 1が、 入力画像 のデータの定常性を検出した場合、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向の うち少なくとも 1次元方向の位置に対応する画素の画素値が、 少なくとも 1次元 方向の積分効果により取得された画素値であるとして、 光信号関数 Fを近似関 数 f で近似することで、 光信号関数 Fを推定することが前提とされる。
詳細には、 例えば、 実世界推定部 1 0 2は、 定常性検出部 1 0 1により検出さ れたデータの定常性に対応する線からの少なくとも 1次元方向に沿った距離に対 応する画素の画素値が、 少なくとも 1次元方向の積分効果により取得された画素 値であるとして、 光信号関数 Fを近似関数で近似することで、 光信号関数を推 PC蘭 004/001488
328
定することが前提とされる。
3次元再積分手法においては、 例えば、 図 2 3 6 (図 3) の画像生成部 1 0 3 (構成は、 図 2 5 6) 力 実世界推定部 1 0 2により推定された光信号関数 F、 即ち、 近似関数 f を、 少なくとも 1次元方向の所望の単位で積分する (例えば、 上述した式 (2 0 1) の右辺を演算する) ことにより所望の大きさの画素に対応 する画素値を生成する。
従って、 3次元再積分手法は、 従来の画像生成手法や、 上述した 1次元または 2次元再積分手法に比較して、 より実世界 1 (図 2 3 6) の光信号に近い画像を 生成することも可能になる。
次に、 図 2 5 8を参照して、 実世界推定部 1 0 2より入力される実世界推定情 報が、 参照画素の各画素値を近似的に表現する近似関数 f(x)上の、 各画素の微 分値、 または、 傾きの情報である場合、 各画素の微分値、 または、 傾きに基づい て、 新たに画素を生成し、 画像を出力する画像生成部 1 0 3について説明する。 尚、 ここでいう微分値は、 参照画素の各画素値を近似的に表現する近似関数 f(x)を求めた後、 その近似関数 f (X)から得られる 1次微分式 f(x)' (近似関数 がフレーム方向の場合、 近似関数 f(t)から得られる 1次微分式 f(t)' ) を用い て、 所定の位置で得られる値のことである。 また、 ここでいう傾きは、 上述の近 似関数 f(x) (または、 f(t)) を求めることなく、 所定の位置における周辺画素 の画素値から直接得られる近似関数 f (X)上の所定の位置の傾きのことを示して いる。 しかしながら、 微分値は、 近似関数 f(x)の所定の位置での傾きなので、 いずれも、 上記近似関数 f(x)上の所定の位置における傾きである。 そこで、 実 世界推定部 1 0 2より入力される実世界推定情報としての微分値と傾きについて は、 図 2 5 8、 および、 図 2 6 2の画像生成部 1 0 3の説明においては、 統一し て近似関数 f(x) (または、 f(t)) 上の傾きと称する。
傾き取得部 3 40 1は、 実世界推定部 1 0 2より入力される参照画素の画素値 を近似的に表現する近似関数 f(x)についての、 各画素の傾きの情報と、 対応す る画素の画素値、 および、 定常性の方向の傾きを取得して、 外揷補間部 3 4 0 2 に出力する。
外揷補間部 3 4 0 2は、 傾き取得部 34 0 1より入力された各画素の近似関数 f(x)上の傾きと、 対応する画素の画素値、 および、 定常性の方向の傾きに基づ いて、 外挿補間により、 入力画像よりも所定の倍率の高密度の画素を生成し、 出 力画像として出力する。
次に、 図 2 5 9のフローチャートを参照して、 図 2 5 8の画像生成部 1 0 3に よる画像の生成の処理について説明する。
ステップ S 3 40 1において、 傾き取得部 34 0 1は、 実世界推定部 1 0 2よ り入力されてくる、 各画素の近似関数 f(x)上の傾き (微分値) 、 位置、 画素値、 および、 定常性の方向の傾きの情報を実世界推定情報として取得する。
このとき、 例えば、 入力画像に対して空間方向 X、 および、 空間方向 Yについ てそれぞれ 2倍 (合計 4倍) の密度の画素からなる画像を生成する場合、 実世界 推定部 1 0 2からは、 図 2 6 0で示されるような画素 Pinに対して、 傾き f(Xin)' (画素 Pinの中央位置における傾き) , f (Xin_Cx (— 0.25) ) ' (画素 Pinから Y方向に 2倍密度の画素が生成されるときの画素 Paの中央位置の傾 き) , f (Xin— Cx(0.25)), (画素 Pinから Y方向に 2倍密度の画素が生成され るときの画素 Pbの中央位置の傾き) 、 画素 Pinの位置、 画素値、 および、 定常 性の方向の傾き Gf の情報が入力される。
ステップ S 3 4 0 2において、 傾き取得部 34 0 1は、 入力された実世界推定 情報のうち、 対応する注目画素の情報を選択し、 外揷補間部 3 40 2に出力する。 ステップ S 3 40 3において、 外揷補間部 34 0 2は、 入力された画素の位置 情報と定常性の方向の傾き Gf からシフト量を求める。
ここで、 シフト量 Cx(ty)は、 定常性の傾きが Gf で示されるとき、 Cx(ty) = tyZGf で定義される。 このシフト量 Cx(ty)は、 空間方向 Y =0の位置上で定義 される近似関数 f (X)が、 空間方向 Y=tyの位置における、 空間方向 Xに対する ずれ幅を示すものである。 従って、 例えば、 空間方向 Y = 0の位置上で近似関数 が f(x)として定義されている場合、 この近似関数 f(x)は、 空間方向 Y=tyにお いては、 空間方向 Xについて Cx(ty)だけずれた関数となるので、 近似関数は、 f (x-Cx(ty)) ( = f (x— ty/Gf)) で定義されることになる。
例えば、 図 2 6 0で示されるような画素 Pinの場合、 図中の 1画素 (図中の 1画素の大きさは、 水平方向、 および、 垂直方向ともに 1であるものとする) を 垂直方向に 2分割するとき (垂直方向に倍密度の画素を生成するとき) 、 外揷補 間部 3 40 2は、 求めようとする画素 Pa, Pbのシフト量を求める。 すなわち、 今の場合、 画素 Pa, Pbは、 画素 Pinからみて、 空間方向 Yについて、 それぞれ 一 0.25, 0.25だけシフトしているので、 画素 Pa, Pbのシフト量は、 それぞれ Cx (一 0.25) , Cx (0.25) となる。 尚、 図 2 6 0中において、 画素 Pinは、
(Xin, Yin) を略重心位置とする正方形であり、 画素 Pa, Pbは、 (Xin,
Yin+0.25) 、 (Xin, Yin— 0.25) をそれぞれ略重心位置とする図中水平方向に 長い長方形である。
ステップ S 3 404において、 外揷補間部 34 0 2は、 ステップ S 3 40 3の 処理で求められたシフト量 Cx、 実世界推定情報として取得された画素 Pinの近 似関数 f(x)上の注目画素上での傾き f (Xin)'、 および、 画素 Pinの画素値に基 づいて、 以下の式 (2 0 3) , 式 (2 04) により外揷補間を用いて画素 Pa, Pbの画素値を求める。
Pa=Pin-f (Xin)' XCx(0.25)
• · · (20 3) Pb=Pin-f (Xin)' XCx(-0.25)
• · · (2 04) 以上の式 (2 0 3) , 式 (2 04) において、 Pa, Pb, Pinは、 画素 Pa, Pb, Pinの画素値を示す。
すなわち、 図 2 6 1で示されるように、 注目画素 Pinにおける傾き f (Xin)'に、 X方向の移動距離、 すなわち、 シフト量を乗じることにより画素値の変化量を設 定し、 注目画素の画素値を基準として、 新たに生成する画素の画素値を設定する。
3 40 5において、 外揷捕間部 3 40 2は、 所定の解像度の画素が 賺 01488
331
得られたか否かを判定する。 例えば、 所定の解像度が入力画像の画素に対して、 垂直方向に 2倍の密度の画素であれば、 以上の処理により、 外挿補間部 34 0 2 は、 所定の解像度の画像が得られたと判定することになるが、 例えば、 入力画像 の画素に対して、 4倍の密度 (水平方向に 2倍 X垂直方向に 2倍) の画素が所望 とされていた場合、 以上の処理では、 所定の解像度の画素が得られていないこと になる。 そこで、 4倍の密度の画像が所望とされていた画像である場合、 外揷補 間部 3 40 2は、 所定の解像度の画素が得られていないと判定し、 その処理は、 ステップ S 34 0 3に戻る。
ステップ S 3 40 3において、 外揷補間部 34 0 2は、 2回目の処理で、 求め ようとする画素 P 0 1, P 0 2 , P 0 3 , および P 04 (注目画素 Pinに対し て 4倍となる密度の画素) を生成しようとする画素の中心位置からのシフト量を それぞれ求める。 すなわち、 今の場合、 画素 P 0 1, P 0 2は、 画素 Paから得 られるものなので、 画素 Paからのシフト量がそれぞれ求められることになる。 ここで、 画素 P O l , P 0 2は、 画素 Paからみて空間方向 Xについて、 それぞ れ一0.25, 0.25だけシフトしているので、 その値そのものがシフト量となる
(空間方向 Xについてシフトしているため) 。 同様にして、 画素 P 0 3, P 04 は、 画素 Pbからみて空間方向 Xについて、 それぞれ一 0.25, 0.25だけシフトし ているので、 その値そのものがシフト量となる。 尚、 図 2 6 0において、 画素 P 0 1, P 0 2, P 0 3, P 04は、 図中の 4個のバッ印の位置を重心位置とする 正方形であり、 各辺の長さは、 画素 Pinが、 それぞれ 1であるので、 画素 P 0 1, P 0 2 , P 0 3 , P 04は、 それぞれ略 0. 5となる。
ステップ S 3 404において、 外揷補間部 34 0 2は、 ステップ S 3 40 3の 処理で求められたシフト量 Cx、 実世界推定情報として取得された画素 Pa, Pbの 近似関数 f(x)上の所定の位置での
傾き f (Xin— Cx(— 0.25))', f (Xin— Cx (0.25) ) '、 および、 上述の処理で求めら れた画素 Pa, Pbの画素値に基づいて、 外揷補間により以下の式 (20 5) 乃至 式 (2 08) により画素 P 0 1, P 0 2, P 0 3 , P 04の画素値を求め、 図示 せぬメモリに記憶させる。
P 0 1 =Pa + f (Xin-Cx(0.25))' X (一 0.25)
(2 0 5)
P 0 2 =Pa + f (Xin-Cx(0.25)), X (0.25)
(2 0 6)
P 0 3 =Pb + f (Xin-Cx(-0.25)), X (一 0.25)
(2 0 7)
P 04 =Pb + f (Xin-Cx(-0.25)), X (0.25)
• · · (20 8) 上述の式 (2 0 5) 乃至式 (2 0 8) において、 P 0 1乃至 P 0 4は、 画素 P 0 1乃至 P 04のそれぞれの画素値を示す。
ステップ S 3 40 5において、 外揷補間部 3 4 0 2は、 所定の解像度の画素が 得られたか否かを判定し、 今の場合、 所望とされていた 4倍の密度の画素が得ら れたことになるので、 外挿補間部 34 0 2は、 所定の解像度の画素が得られたと 判定し、 その処理は、 ステップ S 34 0 6に進む。
ステップ S 3 40 6において、 傾き取得部 340 1は、 全ての画素で処理がな されたか否かを判定し、 まだ、 全ての画素について処理がなされていないと判定 した場合、 その処理は、 ステップ S 3 40 2に戻り、 それ以降の処理が繰り返さ れる。
ステップ S 3 40 6において、 傾き取得部 34 0 1は、 全ての画素について処 理がなされたと判定した場合、 ステップ S 340 7において、 外揷補間部 3 4 0 2は、 図示せぬメモリに記憶されている、 生成された画素からなる画像を出力す る。
すなわち、 図 2 6 1で示されるように、 近似関数 f(x)上の傾き f(x)'を用い て、 その傾きを求めた注目画素から空間方向 Xに離れた距離に応じて、 新たな画 素の画素値が外揷補間により求められる。
尚、 以上の例においては、 4倍密度の画素を演算する際の傾き (微分値) を例 2004/001488
333
として説明してきたが、 さらに多くの位置における、 傾きの情報が、 実世界推定 情報として得られれば、 上述と同様の手法で、 それ以上の空間方向の密度の画素 を演算する事も可能である。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 力 近似関数 f (x)は連続関数であるので、 倍密度以外の画素値についても必要 な傾き (微分値) の情報が得られれば、 さらに高密度の画素からなる画像を生成 することが可能となる。
以上によれば、 実世界推定情報として供給される入力画像の各画素の画素値を 空間方向に近似する近似関数 f (x)の傾き (または、 微分値) f (x) 'の情報に基づ いて、 入力画像よりも高解像度の画像の画素を生成することが可能となる。
次に、 図 2 6 2を参照して、 実世界推定部 1 0 2より入力される実世界推定情 報が、 参照画素の画素値を近似的に表現するフレーム方向 (時間方向) の関数 f (t)上の、 各画素の微分値、 または、 傾きの情報である場合、 各画素の微分値、 または、 傾きに基づいて、 新たに画素を生成し、 画像を出力する画像生成部 1 0 3について説明する。
傾き取得部 3 4 1 1は、 実世界推定部 1 0 2より入力される参照画素の画素値 を近似的に表現する近似関数 f (t)上の、 各画素の位置における傾きの情報と、 対応する画素の画素値、 および、 定常性の動きを取得して、 外挿補間部 3 4 1 2 に出力する。
外揷捕間部 3 4 1 2は、 傾き取得部 3 4 1 1より入力された各画素の近似関数 f (t)上の傾きと、 対応する画素の画素値、 および、 定常性の動きに基づいて、 外揷補間により、 入力画像よりも所定の倍率の高密度の画素を生成し、 出力画像 として出力する。
次に、 図 2 6 3のフローチヤ一トを参照して、 図 2 6 2の画像生成部 1 0 3に よる画像の生成の処理について説明する。
ステップ S 3 4 2 1において、 傾き取得部 3 4 1 1は、 実世界推定部 1 0 2よ り入力されてくる、 各画素の近似関数 f (t)上の傾き (微分値) 、 位置、 画素値、 および、 定常性の動きの情報を実世界推定情報として取得する。
このとき、 例えば、 入力画像に対して空間方向、 および、 フレーム方向にそれ ぞれ 2倍 (合計 4倍) の密度の画素からなる画像を生成する場合、 実世界推定部 1 0 2からは、 図 2 64で示されるような画素 Pinに対して、 傾き f(Tin)' (画素 Pinの中央位置における傾き) , f (Tin— Ct(0.25))' (画素 Pinから Y方 向に 2倍密度の画素が生成されるときの画素 Patの中央位置の傾き) , f(Tin— Ct(-0.25))' (画素 Pinから Y方向に 2倍密度の画素が生成されるときの画素 Pbtの中央位置の傾き) 、 画素 Pinの位置、 画素値、 および、 定常性の動き
(動きべク トル) の情報が入力される。
ステップ S 3 4 2 2において、 傾き取得部 34 1 1は、 入力された実世界推定 情報のうち、 対応する注目画素の情報を選択し、 外揷補間部 3 4 1 2に出力する。 ステップ S 3 4 2 3において、 外揷補間部 3 4 1 2は、 入力された画素の位置 情報と定常性の方向の傾きからシフト量を求める。
ここで、 シフ ト量 Ct(ty)は、 定常性の動き (フレーム方向と空間方向からな る面に対する傾き) が Vf で示されるとき、 Ct(ty)==ty/Vf で定義される。 こ のシフト量 Ct(ty)は、 空間方向 Y=0の位置上で定義される近似関数 f(t)が、 空間方向 Y=tyの位置における、 フレーム方向 Tに対するずれ幅を示すものであ る。 従って、 例えば、 空間方向 Y==0の位置上で近似関数が f (t)として定義さ れている場合、 この近似関数 f(t)は、 空間方向 Y=tyにおいては、 空間方向 T について Ct(ty)だけずれた関数となるので、 近似関数は、 f(t— Ct(ty)) (= f(t-ty/Vf)) で定義されることになる。
例えば、 図 2 64で示されるような画素 Pinの場合、 図中の 1画素 (図中の 1画素の大きさは、 フレーム方向、 および、 空間方向ともに 1であるものとす る) を空間方向に 2分割するとき (空間方向に倍密度の画素を生成するとき) 、 外挿補間部 34 1 2は、 求めようとする画素 Pat, Pb tのシフト量を求める。 す なわち、 今の場合、 画素 Pat, Pbtは、 画素 Pinからみて、 空間方向 Yについて、 それぞれ 0.25, 一 0.25だけシフトしているので、 画素 Pat, Pbt のシフト量は、 それぞれ Ct (0.25) , Ct (一 0.25) となる。 尚、 図 2 6 4中において、 画素 Pinは、 (Xin, Yin) を略重心位置とする正方形であり、 画素 Pat, Pbtは、
(Xin, Yin+0.25) 、 (Xin, Yin— 0.25) をそれぞれ略重心位置とする図中水平 方向に長い長方形である。
ステップ S 3 4 24において、 外揷捕間部 34 1 2は、 ステップ S 3 4 2 3の 処理で求められたシフト量、 実世界推定情報として取得された画素 Pinの近似 関数 f(t)上の注目画素上での傾き f (Tin)'、 および、 画素 Pinの画素値に基づ いて、 外揷補間により以下の式 (20 9) , 式 (2 1 0) により画素 Pat, Pbt の画素値を求める。
Pat = Pin-f (Tin)' XCt(0.25)
■ · · (20 9)
Pbt = Pin-f (Xin)' XCt(— 0.25)
• · · (2 1 0) 以上の式 (2 0 9) , 式 (2 1 0) において、 Pat, Pbt, Pin は、 画素 Pat, Pbt, Pinの画素値を示す。
すなわち、 図 2 6 5で示されるように、 注目画素 Pinにおける傾き: (Xin)'に、 X方向の移動距離、 すなわち、 シフ ト量を乗じることにより画素値の変化量を設 定し、 注目画素の画素値を基準として、 新たに生成する画素の画素値を設定する。 ステップ S 3 4 2 5において、 外揷補間部 3 4 1 2は、 所定の解像度の画素が 得られたか否かを判定する。 例えば、 所定の解像度が入力画像の画素に対して、 空間方向に 2倍の密度の画素であれば、 以上の処理により、 外揷捕間部 3 4 0 2 は、 所定の解像度の画像が得られたと判定することになるが、 例えば、 入力画像 の画素に対して、 4倍の密度 (フレーム方向に 2倍 X空間方向に 2倍) の画素が 所望とされていた場合、 以上の処理では、 所定の解像度の画素が得られていない ことになる。 そこで、 4倍の密度の画像が所望とされていた画像である場合、 外 揷補間部 3 4 1 2は、 所定の解像度の画素が得られていないと判定し、 その処理 は、 ステップ S 34 2 3に戻る。 2004/001488
336
ステップ S 3 4 2 3において、 外揷補間部 3 4 1 2は、 2回目の処理で、 求め ようとする画素 P O I t , P 0 2 t , P 0 3 t , および P 04 t (注目画素 Pin に対して 4倍となる密度の画素) を生成しようとする画素の中心位置からのシフ ト量をそれぞれ求める。 すなわち、 今の場合、 画素 P 0 1 t, P 0 2 tは、 画素 Patから得られるものなので、 画素 Patからのシフト量がそれぞれ求められるこ とになる。 ここで、 画素 P O I t , 0 2 tは、 画素 Patからみてフレーム方向 Tについて、 それぞれ一 0.25, 0.25だけシフトしているので、 その値そのもの がシフト量となる (空間方向 Xについてシフトしているため) 。 同様にして、 画 素 P 0 3 t, P 04 tは、 画素 Pbtからみてフレーム方向 Tについて、 それぞ れー 0.25, 0.25だけシフトしているので、 その値そのものがシフト量となる。 尚、 図 26 4において、 画素 P 0 1 t , P 0 2 t , P 0 3 t , P 04 tは、 図中 の 4個のバッ印の位置を重心位置とする正方形であり、 各辺の長さは、 画素 Pin 力 それぞれ 1であるので、 画素 P 0 1 t , P 0 2 t , P 0 3 t, P 04 tは、 それぞれ略 0. 5となる。
ステップ S 3 4 24において、 外揷補間部 34 1 2は、 ステップ S 3 4 2 3の 処理で求められたシフト量 Ct、 実世界推定情報として取得された画素 Pa t , Pbtの近似関数 f(t)上の所定の位置での傾き f (Tin— Ct(0.25))' , f (Tin— Ct (一 0.25))'、 および、 上述の処理で求められた画素 Pat, Pbtの画素値に基づ いて、 外揷補間により以下の式 (2 1 1) 乃至式 (2 1 4) により画素 P O l t , P 0 2 t , P 0 3 t , P 04 tの画素値を求め、 図示せぬメモリに記憶させる。
P O l t =Pat + f (Tin— Ct(0.25))' X (— 0.25)
• · · (2 1 1)
P 0 2 t =Pat + f (Tin-Ct(0.25))' X (0.25)
• · · ( 2 1 2) P 0 3 t =Pbt + f (Tin-Ct(-0.25)), X (— 0.25)
• ■ · (2 1 3)
P 04 t =Pbt + f (Tin-Ct(-0.25)), X (0.25) … (2 1 4 ) 上述の式 (2 0 5 ) 乃至式 (2 0 8 ) において、 P 0 1 t乃至 P 0 4 tは、 画 素 P 0 1 t乃至 P 0 4 tのそれぞれの画素値を示す。
ステップ S 3 4 2 5において、 外揷補間部 3 4 1 2は、 所定の解像度の画素が 得られたか否かを判定し、 今の場合、 所望とされていた 4倍密度の画素が得られ たことになるので、 外揷補間部 3 4 1 2は、 所定の解像度の画素が得られたと判 定し、 その処理は、 ステップ S 3 4 2 6に進む。
ステップ S 3 4 2 6において、 傾き取得部 3 4 1 1は、 全ての画素で処理がな されたか否かを判定し、 まだ、 全ての画素について処理がなされていないと判定 した場合、 その処理は、 ステップ S 3 4 2 2に戻り、 それ以降の処理が繰り返さ れる。
ステップ S 3 4 2 6において、 傾き取得部 3 4 1 1は、 全ての画素について処 理がなされたと判定された場合、 ステップ S 3 4 2 7において、 外揷補間部 3 4 1 2は、 図示せぬメモリに記憶されている、 生成された画素からなる画像を出力 する。
すなわち、 図 2 6 5で示されるように、 近似関数 f (t)上の傾き f (t) 'を用い て、 その傾きを求めた注目画素からフレーム方向 Tに離れたフレーム数に応じて、 新たな画素の画素値が外揷補間により求められる。
尚、 以上の例においては、 4倍密度の画素を演算する際の傾き (微分値) を例 として説明してきたが、 さらに多くの位置における、 傾きの情報が、 実世界推定 情報として得られれば、 上述と同様の手法で、 それ以上のフレーム方向の密度の 画素を演算する事も可能である。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 力 S、 近似関数 f (t)は連続関数であるので、 倍密度以外の画素値についても必要 な傾き (微分値) の情報が得られれば、 さらに高密度の画素からなる画像を生成 することが可能となる。
以上の処理により、 実世界推定情報として供給される入力画像の各画素の画素 JP2004/001488
338
値をフレーム方向に近似する近似関数 f (t)の傾き (または、 微分値) f (t) 'の情 報に基づいて、 入力画像よりも高解像度の画像の画素をフレーム方向にも生成す ることが可能となる。
以上によれば、 それぞれ時空間積分効果を有する、 センサの複数の検出素子に より現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した、 検出素子により射影された画素値を有する複数の画素からなる画像データにおけ るデータの定常性を検出し、 検出された定常性に対応して、 画像データ内の注目 画素に対して時空間方向のうち 1次元方向にシフトした位置の複数画素の画素値 の傾きを、 現実世界の光信号に対応する関数として推定し、 注目画素の中心位置 から 1次元方向にシフトした位置を中心とする傾きを有する直線の前記注目画素 内に配される両端の値を注目画素よりも高解像度の画素の画素値として生成する ようにしたので、 入力画像よりも時空間方向に高解像度の画素を生成することが 可能となる。
次に、 図 2 6 6乃至図 2 9 1を参照して、 画像生成部 1 0 3 (図 3 ) の実施の 形態のさらに他の例について説明する。
図 2 6 6は、 この例の実施の形態が適用される画像生成部 1 0 3の構成例を表 している。
図 2 6 6で示される画像生成部 1 0 3には、 従来のクラス分類適応処理を実行 するクラス分類適応処理部 3 5 0 1、 クラス分類適応処理に対する補正の処理 (処理の詳細については後述する) を実行するクラス分類適応処理補正部 3 5 0 2、 および、 クラス分類適応処理部 3 5 0 1より出力された画像と、 クラス分類 適応処理捕正部 3 5 0 2より出力された画像を加算し、 加算した画像を出力画像 として外部に出力する加算部 3 5 0 3が設けられている。
なお、 以下、 クラス分類適応処理部 3 5 0 1より出力される画像を、 予測画像 と称し、 クラス分類適応処理補正部 3 5 0 2より出力される画像を、 補正画像、 または、 差分予測画像と称する。 ただし、 予測画像と差分予測画像の名称の由来 についてはそれぞれ後述する。 また、 この例の実施の形態においては、 クラス分類適応処理は、 例えば、 入力 画像の空間解像度を向上する処理であるとする。 即ち、 標準解像度の画像である 入力画像を、 高解像度の画像である予測画像に変換する処理であるとする。 なお、 以下、 標準解像度の画像を、 適宜、 SD (Standard Definition)画像と 称する。 また、 SD画像を構成する画素を、 適宜、 SD画素と称する。
これに対して、 以下、 高解像度の画像を、 適宜、 HD(High Definition)画像 と称する。 また、 HD画像を構成する画素を、 適宜、 HD画素と称する。
具体的には、 この例の実施の形態においては、 クラス分類適応処理とは、 次の ような処理である。
即ち、 はじめに、 入力画像 (SD画像) の注目画素 (SD画素) における、 予 測画像 (HD画像) の HD画素を求めるために、 注目画素を含めた、 その付近に 配置される SD画素 (以下、 このような SD画素を、 クラスタップと称する) の 特徴量のそれぞれを求めて、 その特徴量毎に予め分類されたクラスを特定する (クラスタップ群のクラスコードを特定する) 。
そして、 予め設定された複数の係数群 (各係数群のそれぞれは、 所定の 1つの クラスコードに対応している) のうちの、 特定されたクラスコードに対応する係 数群を構成する各係数と、 注目画素を含めた、 その付近の SD画素 (以下、 この ような入力画像の SD画素を、 予測タップと称する。 なお、 予測タップは、 クラ スタップと同じこともある) とを用いて積和演算を実行することで、 入力画像 (SD画像) の注目画素 (SD画素) における、 予測画像 (HD画像) の HD画 素を求めるものである。
従って、 この例の実施の形態においては、 入力画像 (SD画像) は、 クラス分 類適応処理部 3 50 1において、 従来のクラス分類適応処理が施されて予測画像 (HD画像) となり、 さらに、 加算部 3503において、 その予測画像が、 クラ ス分類適応処理補正部 3 502からの補正画像で補正されて (補正画像が加算さ れて) 出力画像 (HD画像) となる。
即ち、 この例の実施の形態は、 定常性の観点からは、 定常性を用いて処理を行 う画像処理装置 (図 3 ) のうちの画像生成部 1 0 3の 1つの実施の形態であると 言える。 これに対して、 クラス分類適応処理の観点からは、 センサ 2とクラス分 類適応処理部 3 5 0 1から構成される従来の画像処理装置に対して、 クラス分類 適応処理の補正を行うために、 データ定常性検出部 1 0 1、 実世界推定部 1 0 2、 クラス分類適応処理補正部 3 5 0 2、 およぴ加算部 3 5 0 3をさらに付加した画 像処理装置の実施の形態であるとも言える。
従って、 以下、 この例の実施の形態を、 上述した再積分手法に対して、 クラス 分類適応処理補正手法と称する。
クラス分類適応処理補正手法を利用する画像生成部 1 0 3についてさらに詳し く説明する。
図 2 6 6において、 画像である、 実世界 1の信号 (光の強度の分布) がセンサ 2に入射されると、 センサ 2からは入力画像が出力される。 この入力画像は、 デ ータ定常性検出部 1 0 1に入力されるとともに、 画像生成部 1 0 3のクラス分類 適応処理部 3 5 0 1に入力される。
クラス分類適応処理部 3 5 0 1は、 入力画像に対して、 従来のクラス分類適応 処理を施して予測画像を生成し、 加算部 3 5 0 3に出力する。
このように、 クラス分類適応処理部 3 5 0 1は、 センサ 2からの入力画像 (画 像データ) を基準とするとともに、 入力画像そのものを処理の対象としている。 即ち、 センサ 2からの入力画像は、 上述した積分効果により実世界 1の信号とは 異なるもの (歪んだもの) となっているにも関わらず、 クラス分類適応処理部 3 5 0 1は、 その実世界 1の信号とは異なる入力画像を正として処理を行っている。 その結果、 センサ 2から出力された段階で実世界 1のディテールが ぶれてし まった入力画像 (S D画像) は、 クラス分類適応処理によりたとえ H D画像とさ れても、 元のディテールが完全に復元されないことがあるという課題が発生して しまう。
そこで、 この課題を解決するために、 クラス分類適応処理補正手法においては、 画像生成部 1 0 3のクラス分類適応処理捕正部 3 5 0 2が、 センサ 2からの入力 画像ではなく、 センサ 2に入射される前の元の画像 (所定の定常性を有する実世 界 1の信号) を推定する情報 (実世界推定情報) を基準とするとともに、 その実 世界推定情報を処理の対象として、 クラス分類適応処理部 3 5 0 1より出力され た予測画像を補正するための補正画像を生成する。
この実世界推定情報は、 データ定常性検出部 1 0 1と実世界推定部 1 0 2によ り生成される。
即ち、 データ定常性検出部 1 0 1は、 センサ 2からの入力画像に含まれるデー タの定常性 (センサ 2に入射された実世界 1の信号が有する定常性に対応するデ ータの定常性) を検出し、 その検出結果をデータ定常性情報として実世界推定部 1 0 2に出力する。
なお、 データ定常性情報は、 図 2 6 6の例では角度とされているが、 角度に限 定されず、 上述した様々な情報が使用可能である。
実世界推定部 1 0 2は、 入力された角度 (データ定常性情報) に基づいて、 実 世界推定情報を生成し、 画像生成部 1 0 3のクラス分類適応処理補正部 3 5 0 2 に出力する。
なお、 実世界推定情報は、 図 2 6 6の例では特徴量画像 (その詳細は後述す る) とされているが、 特徴量画像に限定されず、 上述した様々な情報が使用可能 である。
クラス分類適応処理補正部 3 5 0 2は、 入力された特徴量画像 (実世界推定情 報) に基づいて補正画像を生成し、 加算部 3 5 0 3に出力する。
加算部 3 5 0 3は、 クラス分類適応処理部 3 5 0 1より出力された予測画像と、 クラス分類適応処理補正部 3 5 0 2より出力された捕正画像を加算し、 加算した 画像 (H D画像) を出力画像として外部に出力する。
このようにして出力された出力画像は、 予測画像よりもより実世界 1の信号 (画像) に近い画像となる。 即ち、 クラス分類適応処理補正手法は、 上述した課 題を解決することが可能な手法である。
さらに、 図 2 6 6のように信号処理装置 (画像処理装置) 4を構成することで、 1フレームの全体的に処理をアプライすることが可能になる。 即ち、 後述する併 用手法を利用する信号処理装置 (例えば、 後述する図 2 9 2 ) 等では、 画素の領 域特定をした上で出力画像を生成する必要があるが、 図 2 6 6の信号処理装置4 は、 この領域特定が不要になるという効果を奏することが可能になる。
次に、 画像生成部 1 0 3のうちのクラス分類適応処理部 3 5 0 1の詳細につい て説明する。
図 2 6 7は、 クラス分類適応処理部 3 5 0 1の構成例を表している。
図 2 6 7において、 センサ 2より入力された入力画像 (S D画像) は、 領域抽 出部 3 5 1 1と領域抽出部 3 5 1 5にそれぞれ供給される。 領域抽出部 3 5 1 1 は、 供給された入力画像から、 クラス分類を行うために必要なクラスタップ (注 目画素 (S D画素) を含む予め設定された位置に存在する S D画素) を抽出し、 パターン検出部 3 5 1 2に出力する。 パターン検出部 3 5 1 2は、 入力されたク ラスタップに基づいて入力画像のパターンを検出する。
クラスコード決定部 3 5 1 3は、 パターン検出部 3 5 1 2で検出されたパター ンに基づいてクラスコードを決定し、 係数メモリ 3 5 1 4、 および、 領域抽出部 3 5 1 5に出力する。 係数メモリ 3 5 1 4は、 学習により予め求められたクラス コード毎の係数を記憶しており、 クラスコード決定部 3 5 1 3より入力されたク ラスコードに対応する係数を読み出し、 予測演算部 3 5 1 6に出力する。
なお、 係数メモリ 3 5 1 4の係数の学習処理については、 図 2 6 9のクラス分 類適応処理用学習部のプロック図を参照して後述する。
また、 係数メモリ 3 5 1 4に記憶される係数は、 後述するように、 予測画像 (H D画像) を生成するときに使用される係数である。 従って、 以下、 係数メモ リ 3 5 1 4に記憶される係数を、 他の係数と区別するために、 予測係数と称する 領域抽出部 3 5 1 5は、 クラスコード決定部 3 5 1 3より入力されたクラスコ ードに基づいて、 センサ 2より入力された入力画像 (S D画像) から、 予測画像 (H D画像) を予測生成するのに必要な予測タップ (注目画素を含む予め設定さ れた位置に存在する S D画素) をクラスコードに対応して抽出し、 予測演算部 3 5 16に出力する。
予測演算部 3 5 1 6は、 領域抽出部 35 1 5より入力された予測タップと、 係 数メモリ 3 5 14より入力された予測係数とを用いて積和演算を実行し、 入力画 像 (SD画像) の注目画素 (SD画素) における、 予測画像 (HD画像) の HD 画素を生成し、 加算部 3 50 3に出力する。
より詳細には、 係数メモリ 3 5 14は、 クラス ード決定部 3 5 1 3より供給 されるクラスコードに対応する予測係数を、 予測演算部 3 5 1 6に出力する。 予 測演算部 3 5 1 6は、 領域抽出部 3 5 1 5より供給される入力画像の所定の画素 位置の画素値から抽出された予測タップと、 係数メモリ 3 5 14より供給された 予測係数とを用いて、 次の式 (2 1 5) で示される積和演算を実行することによ り、 予測画像 (HD画像) の HD画素を求める (予測推定する) 。
n
q, = ∑ dj xcj
i=0
• · · (2 1 5) 式 (2 1 5) において、 q は、 予測画像 (HD画像) の HD画素を表してい る。 Ci (iは、 1乃至 nの整数値) のそれぞれは、 予測タップ (SD画素) のそ れぞれを表している。 また、 d i のそれぞれは、 予測係数のそれぞれを表してい る。
このように、 クラス分類適応処理部 350 1は、 SD画像 (入力画像) から、 それに対する HD画像を予測推定するので、 ここでは、 クラス分類適応処理部 3 501から出力される HD画像を、 予測画像と称している。
図 268は、 このようなクラス分類適応処理部 350 1の係数メモリ 3 5 14 に記憶される予測係数 (式 (2 1 5) における d J を決定するための学習装置 (予測係数の算出装置) を表している。
なお、 クラス分類適応処理捕正手法においては、 係数メモリ 35 14の他に、 クラス分類適応処理補正部 3 5◦ 2の係数メモリ (後述する図 276で示される 補正係数メモリ 35 54) が設けられている。 従って、 図 268で示されるよう に、 クラス分類適応処理手法における学習装置 3 5 0 4には、 クラス分類適応処 理部 3 5 0 1の係数メモリ 3 5 1 4に記憶される予測係数 (式 (2 1 5 ) におけ る を決定するための学習部 3 5 2 1 (以下、 クラス分類適応処理用学習部 3 5 2 1と称する) の他に、 クラス分類適応処理補正部 3 5 0 2の補正係数メモ リ 3 5 5 4に記憶される係数を決定するための学習部 3 5 6 1 (以下、 クラス分 類適応処理補正用学習部 3 5 6 1と称する) が設けられている。
従って、 以下、 クラス分類適応処理用学習部 3 5 2 1における教師画像を第 1 の教師画像と称するのに対して、 クラス分類適応処理補正用学習部 3 5 6 1にお ける教師画像を第 2の教師画像と称する。 同様に、 以下、 クラス分類適応処理用 学習部 3 5 2 1における生徒画像を第 1の生徒画像と称するのに対して、 クラス 分類適応処理補正用学習部 3 5 6 1における生徒画像を第 2の生徒画像と称する。 なお、 クラス分類適応処理補正用学習部 3 5 6 1については後述する。
図 2 6 9は、 クラス分類適応処理用学習部 3 5 2 1の詳細な構成例を表してい る。
図 2 6 9において、 所定の画像が、 第 1の教師画像 (H D画像) としてダウン コンバート部 3 5 3 1と正規方程式生成部 3 5 3 6のそれぞれに入力されるとと もに、 クラス分類適応処理補正用学習部 3 5 6 1 (図 2 6 8 ) に入力される。 ダウンコンバート部 3 5 3 1は、 入力された第 1の教師画像 (H D画像) から、 第 1の教師画像よりも解像度の低い第 1の生徒画像 (S D画像) を生成し (第 1 の教師画像をダウンコンバートしたものを第 1の生徒画像とし) 、 領域抽出部 3 5 3 2、 領域抽出部 3 5 3 5、 およびクラス分類適応処理補正用学習部 3 5 6 1 (図 2 6 8 ) のそれぞれに出力する。
このように、 クラス分類適応処理用学習部 3 5 2 1には、 ダウンコンバート部 3 5 3 1が設けられているので、 第 1の教師画像 (H D画像) は、 上述したセン サ 2 (図 2 6 6 ) からの入力画像よりも高解像度の画像である必要は無い。 なぜ ならば、 第 1の教師画像がダウンコンバートされた (解像度が下げられた) 第 1 の生徒画像を S D画像とすれば、 第 1の生徒画像に対する第 1の教師画像が H D PC漏 00麵 488
345
画像になるからである。 従って、 第 1の教師画像は、 例えば、 センサ 2からの入 力画像そのものとされてもよい。
領域抽出部 3 5 3 2は、 供給された第 1の生徒画像 (S D画像) から、 クラス 分類を行うために必要なクラスタップ (S D画素) を抽出し、 パターン検出部 3 5 3 3に出力する。 パターン検出部 3 5 3 3は、 入力されたクラスタップのパタ ーンを検出し、 その検出結果をクラスコード決定部 3 5 3 4に出力する。 クラス コード決定部 3 5 3 4は、 入力されたパターンに対応するクラスコードを決定し、 そのクラスコードを領域抽出部 3 5 3 5、 および、 正規方程式生成部 3 5 3 6の それぞれに出力する。
領域抽出部 3 5 3 5は、 クラスコード決定部 3 5 3 4より入力されたクラスコ 一ドに基づいて、 ダウンコンパ一ト部 3 5 3 1より入力された第 1の生徒画像 ( S D画像) から予測タップ (S D画素) を抽出し、 正規方程式生成部 3 5 3 6 と予測演算部 3 5 5 8のそれぞれに出力する。
なお、 以上の領域抽出部 3 5 3 2、 パターン検出部 3 5 3 3、 クラスコード決 定部 3 5 3 4、 および領域抽出部 3 5 3 5のそれぞれは、 図 2 6 7のクラス分類 適応処理部 3 5 0 1の領域抽出部 3 5 1 1、 パターン検出部 3 5 1 2、 クラスコ ード決定部 3 5 1 3、 および、 領域抽出部 3 5 1 5のそれぞれと、 基本的に同様 の構成と機能を有するものである。
正規方程式生成部 3 5 3 6は、 クラスコード決定部 3 5 3 4より入力された全 てのクラスコードに対して、 クラスコード毎に、 領域抽出部 3 5 3 5より入力さ れる第 1の生徒画像 (S D画像) の予測タップ (S D画素) と、 第 1の教師画像 ( H D画像) の H D画素とから正規方程式を生成し、 係数決定部 3 5 3 7に供給 する。 係数決定部 3 5 3 7は、 正規方程式生成部 3 5 3 7より所定のクラスコー ドに対応する正規方程式が供給されてきたとき、 その正規方程式より予測係数の それぞれを演算し、 係数メモリ 3 5 1 4にクラスコードと関連付けて記憶させる とともに、 予測演算部 3 5 3 8に供給する。
正規方程式生成部 3 5 3 6と、 係数決定部 3 5 3 7についてさらに詳しく説明 する。
上述した式 (21 5) において、 学習前は予測係数 のそれぞれが未定係数 である。 学習は、 クラスコード毎に複数の教師画像 (HD画像) の HD画素を入 力することによって行う。 所定のクラスコードに対応する HD画素が m個存在し、 m個の HD画素のそれぞれを、 qk (kは、 1乃至 mの整数値) と記述する場合、 式 (2 1 5) から、 次の式 (21 6) が設定される。
¾ = dj Xcik+ek
i=0
• · · (21 6) 即ち、 式 (216) は、 右辺の演算をすることで、 所定の HD画素 ¾ を予測 推定することができることを表している。 なお、 式 (21 6) において、 ek は 誤差を表している。 即ち、 右辺の演算結果である予測画像 (HD画像) の HD画 素 qk'力 S、 実際の HD画素 qk と厳密には一致せず、 所定の誤差 ekを含む。
そこで、 式 (21 6) において、 例えば、 誤差 ekの自乗和を最小にするよう な予測係数 力 学習により求まればよい。
具体的には、 例えば、 m〉nとなるように、 HD画素 qkを学習により集める ことができれば、 最小自乗法によって予測係数 がー意に決定される。
即ち、 式 (2 1 6) の右辺の予測係数 を最小自乗法で求める場合の正規方 程式は、 次の式 (2 1 7) で表される。
Figure imgf000348_0001
Figure imgf000348_0002
· · ■ (2 1 7) 従って、 式 (21 7) で示される正規方程式が生成されれば、 その正規方程式 を解くことで予測係数 がー意に決定されることになる。
具体的には、 式 (217) で示される正規方程式の各行列のそれぞれを、 次の 式 (218) 乃至 (220) のように定義すると、 正規方程式は、 次の式 (22
1) のように表される。
Figure imgf000349_0001
di
d2
D AT -
4
(21 9)
∑ c1kxqk
k=1
m
∑ G2K
AT = k=1
∑ cnkxqk
k=1
(220)
CMAT¾AT = QMAT
(221) 式 (2 1 9) で示されるように、 行列 DMAT の各成分は、 求めたい予測係数 di である。 従って、 式 (2 2 1 ) において、 左辺の行列 CMAT と右辺の
行列 QMATが決定されれば、 行列解法によって行列 DMAT (即ち、 予測係数 ) の算出が可能である。
より具体的には、 式 (2 1 8) で示されるように、 行列 CMAT の各成分は、 予 測タップ ci kが既知であれば演算可能である。 予測タップ ci kは、 領域抽出部 3 5 3 5により抽出されるので、 正規方程式生成部 3 5 3 6は、 領域抽出部 3 5 3 5より供給されてくる予測タップ ci kのそれぞれを利用して行列 CMATの各成 分を演算することができる。
また、 式 (2 20) で示されるように、 行列 QMATの各成分は、 予測タップ ci k と HD画素 qkが既知であれば演算可能である。 予測タップ ci kは、
行列 CMAT の各成分に含まれるものと同一のものであり、 また、 HD画素 qk は、 予測タップ ci kに含まれる注目画素 (第 1の生徒画像の SD画素) に対する第 1の教師画像の HD画素である。 従って、 正規方程式生成部 3 5 3 6は、 領域抽 出部 3 5 3 5より供給された予測タップ ci k と、 第 1の教師画像を利用して行 列 QMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 3 5 3 6は、 クラスコード毎に、
行列 CMAT と行列 QMATの各成分を演算し、 その演算結果をクラスコードに対応 付けて係数決定部 3 5 3 7に供給する。
係数決定部 3 5 3 7は、 供給された所定のクラスコードに対応する正規方程式 に基づいて、 上述した式 (2 2 1) の行列 DMATの各成分である予測係数 を 演算する。
具体的には、 上述した式 (2 2 1) の正規方程式は、 次の式 (2 2 2) のよう に変形できる。 D T = ½TQ AT
• · · (2 2 2) 式 (2 2 2) において、 左辺の行列 DMA Tの各成分が、 求めたい予測係数 である。 また、 行列 CMAT と行列 QMATのそれぞれの各成分は、 正規方程式生成 部 3 5 3 6より供給されるものである。 従って、 係数決定部 3 5 3 7は、 正規方 程式生成部 3 5 3 6より所定のクラスコードに対応する行列 CMAT と行列 QMA T のそれぞれの各成分が供給されてきたとき、 式 (2 2 2) の右辺の行列演算を行 うことで行列 DMAT を演算し、 その演算結果 (予測係数 ) をクラスコードに 対応付けて係数メモリ 3 5 1 4に記憶させるとともに、 予測演算部 3 5 3 8に供 給する。
予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5より入力された予測タップと、 係 数決定部 3 5 3 7により決定された予測係数とを用いて積和演算を実行し、 第 1 の生徒画像 (SD画像) の注目画素 (SD画素) における、 予測画像 (第 1の教 師画像を予測する画像) の HD画素を生成し、 それを学習用予測画像としてクラ ス分類適応処理補正用学習部 3 5 6 1 (図 2 6 8) に出力する。
より詳細には、 予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5より供給される第 1の生徒画像の所定の画素位置の画素値から抽出された予測タップを、 (i は、 1乃至 nの整数値) とし、 係数決定部 3 5 3 7より供給された予測係数を、 d , として、 上述した式 (2 1 5) で示される積和演算を実行することにより、 学習 用予測画像 (HD画像) の HD画素 q'を求める (第 1の教師画像を予測推定す る) 。
ここで、 図 2 70乃至図 2 7 5を参照して、 上述した従来のクラス分類適応処 理 (^ ス分類適応処理部 3 5 0 1) が有する課題、 即ち、 図 2 6 6において、 センサ 2から出力された段階で実世界 1のディテールがつぶれてしまった入力画 像 (SD画像) は、 クラス分類適応処理部 3 5 0 1によりたとえ HD画像 (実世 界 1の信号を予測する予測画像) とされても、 元のディテールが完全に復元され ないことがあるという課題について説明する。
図 2 70は、 クラス分類適応処理部 3 5 0 1の処理結果の例を表している。 図 2 70において、 HD画像 3 54 1は、 図中上下方向から、 ほぼ 5度時計方 向に傾いた細線の画像が含まれる画像である。 また、 SD画像 3 5 4 2は、 HD 画像 3 54 1の 2 X 2の画素 (HD画素) からなるブロックに属する画素 (HD画 素) の画素値の平均値を、 1つの画素 (SD画素) の画素値として生成された画 像である。 即ち、 SD画像 3 54 2は、 HD画像 3 5 4 1がダウンコンバートさ れた (解像度が落とされた) 画像である。
換言すると、 HD画像 3 5 4 1は、 センサ 2 (図 2 6 6) に入射される前の画 像 (実世界 1 (図 2 6 6) の信号) を模した画像であるとする。 この場合、 SD 画像 3 54 2は、 HD画像 3 54 1に、 センサ 2の積分特性を模した、 空間方向 の積分を適用することにより得られた画像に相当することなる。 即ち、 SD画像 3 54 2は、 センサ 2からの入力画像を模した画像となる。
また、 SD画像 3 54 2をクラス分類適応処理部 3 5 0 1 (図 2 6 6 ) に入力 させ、 クラス分類適応処理部 3 5 0 1より出力された予測画像が、 予測画像 3 5 4 3である。 即ち、 予測画像 3 5 4 3は、 従来のクラス分類適応処理により生成 された HD画像 (元の HD画像 3 5 4 1と同一解像度の画像) である。 ただし、 クラス分類適応処理部 3 5 0 1が予測演算に使用した予測係数 (係数メモリ 3 5 1 4 (図 2 6 7) に記憶された予測係数) は、 HD画像 3 5 4 1を第 1の教師画 像とし、 かつ SD画像 3 54 2を第 1の生徒画像として、 クラス分類適応処理用 学習部 3 5 6 1 (図 2 6 9) に学習演算させたものである。
HD画像 3 5 4 1、 S D画像 3 54 2、 および予測画像 3 5 4 3のそれぞれを 比較するに、 予測画像 3 54 3は、 SD画像 3 5 4 2よりも、 HD画像 3 5 4 1 により近い画像となっていることがわかる。
この比較結果は、 クラス分類適応処理部 3 5 0 1が、 HD画像 3 54 1のディ テールがつぶれてしまった SD画像 3 5 4 2に対して、 従来のクラス分類適応処 理を施すことで、 元のディテールが復元された予測画像 3 54 3を生成すること ができるということを意味している。
しかしながら、 予測画像 3 54 3と HD画像 3 5 4 1を比較するに、 予測画像 3 5 4 3は、 HD画像 3 5 4 1を完全に復元した画像であるとは言い難い。 そこで、 本願出願人は、 予測画像 3 54 3が HD画像 3 5 4 1を完全に復元で きていない理由を調査するために、 所定の加算器 3 5 4 6により、 HD画像3 5 4 1と、 予測画像 3 54 3の反転入力との加算画像、 即ち、 HD画像 3 54 1と 予測画像 3 54 3の差分画像 (画素の差分が大の場合、 白に近い画素とし、 画素 の差分が小の場合、 黒に近い画素とした画像) 3 54 4を生成した。
同様に、 本願出願人は、 所定の加算器 3 5 4 7により、 HD画像 3 5 4 1と、 SD画像 3 54 2の反転入力との加算画像、 即ち、 HD画像 3 54 1と SD画像 3 5 4 2の差分画像 (画素の差分が大の場合、 白に近い画素とし、 画素の差分が 小の場合、 黒に近い画素とした画像) 3 5 4 5を生成した。
そして、 本願出願人は、 このようにして生成された差分画像 3 5 44と差分画 像 3 54 5を比較することによって、 次のような調査結果を得た。
即ち、 HD画像 3 5 4 1と SD画像 3 5 4 2の差分の大きい領域 (差分画像 3 54 5の白に近い領域) と、 HD画像 3 5 4 1と予測画像 3 5 4 3の差分の大き い領域 (差分画像 3 544の白に近い領域) はほぼ対応している。
換言すると、 予測画像 3 5 4 3が HD画像 3 5 4 1を完全に復元できていない 領域は、 予測画像 3 54 3のうちの、 HD画像 3 54 1と SD画像 3 5 4 2の差 分の大きい領域 (差分画像 3 5 4 5の白に近い領域) にほぼ一致する。
そこで、 本願出願人は、 この調査結果の要因を解明するために、 さらに次のよ うな調査を行った。
即ち、 本願出願人は、 まず、 HD画像 3 54 1と予測画像 3 54 3の差分の小 さい領域 (差分画像 3 5 44の黒に近い領域) において、 HD画像 3 5 4 1の具 体的な画素値、 S D画像 3 5 4 2の具体的な画素値、 および HD画像 3 54 1に 対応する実際の波形 (実世界 1の信号) を調査した。 その調査結果が、 図 2 7 1 と図 2 7 2に示されている。
図 2 7 1は、 調査した領域のうちの一例を示している。 なお、 図 2 7 1におい て、 図中、 水平方向は、 空間方向の 1方向である X方向とされており、 また、 垂 直方向は、 空間方向の他方向である Y方向とされている。 即ち、 本願出願人は、 HD画像 3 5 4 1と予測画像 3 5 4 3の差分の小さい領 域の一例として、 図 2 7 1で示される、 差分画像 3 5 44の領域 3 5 44— 1に ついて調査した。
図 2 7 2は、 図 2 7 1で示される領域 3 544 - 1に含まれる X方向に連続し た 6個の HD画素のうちの、 図中左から 4個分の HD画素に対応する、 HD画像 3 5 4 1の具体的な画素値、 SD画像 3 5 4 2の具体的な画素値、 および、 実際 の波形 (実世界 1の信号) のそれぞれをプロットしたものを表している。
図 2 7 2において、 縦軸は画素値を、 横軸は空間方向 Xに平行な X軸を、 そ れぞれ表している。 X軸において、 原点は、 差分画像 3 5 44の 6個の HD画素 のうちの図中左から 3番目の HD画素の左端の位置とされており、 その原点を基 準として座標値が付されている。 ただし、 X軸の座標値は、 差分画像 3 5 44の HD画素の画素幅を 0.5 として付されている。 即ち、 差分画像 3 5 44は HD 画像であるので、 HD画像 3 5 4 1の画素幅 Lt (以下、 HD画素幅 Lt と称す る) も 0.5になる。 従って、 いまの場合、 SD画像 3 5 4 2の画素幅 (以下、 SD画素幅 Ls と称する) は、 HD画素幅 Lt の 2倍になるので、 SD画素幅 Ls は 1になる。
また、 図 2 7 2において、 実線は、 HD画像 3 54 1の画素値を、 点線は、 S D画像 3 5 4 2の画素値を、 一点鎖線は、 実世界 1の信号の X断面波形を、 それ ぞれ表している。 ただし、 実世界 1の信号の波形を実際に描写することは困難で あるので、 図 2 7 2で示される一点鎖線は、 上述した 1次元多項式近似手法 (図 2 6 6の実世界推定部 1 0 2の 1実施形態) により X断面波形が近似された近似 関数 f(x)が示されている。
次に、 本願出願人は、 上述した差分の小さい領域の調査と同様に、 HD画像 3 54 1と予測画像 3 54 3の差分の大きい領域 (差分画像 3 5 44の白に近い領 域) においても、 HD画像 3 5 4 1の具体的な画素値、 SD画像 3 54 2の具体 的な画素値、 および HD画像 3 5 4 1に対応する実際の波形 (実世界 1の信号) を調査した。 その調査結果が、 図 2 7 3と図 2 7 4に示されている。 4001488
353
図 2 7 3は、 調査した領域のうちの一例を示している。 なお、 図 2 7 3におい て、 図中、 水平方向は、 空間方向の 1方向である X方向とされており、 また、 垂 直方向は、 空間方向の他方向である Y方向とされている。
即ち、 本願出願人は、 HD画像 3 5 4 1と予測画像 3 5 4 3の差分の大きい領 域の一例として、 図 2 7 3で示される、 差分画像 3 5 44の領域 3 544— 2に ついて調査した。
図 2 74は、 図 2 7 3で示される領域 3 5 44 - 2に含まれる X方向に連続し た 6個の HD画素のうちの、 図中左から 4個分の HD画素に対応する、 HD画像 3 5 4 1の具体的な画素値、 SD画像 3 5 4 2の具体的な画素値、 および実際の 波形 (実世界 1の信号) のそれぞれをプロットしたものを表している。
図 2 74において、 縦軸は画素値を、 横軸は空間方向 Xに平行な X軸を、 そ れぞれ表している。 X軸において、 原点は、 差分画像 3 5 44の 6個の HD画素 のうちの図中左から 3番目の HD画素の左端の位置とされており、 その原点を基 準として座標値が付されている。 ただし、 X軸の座標値は、 SD画素幅 Ls を 1 として付されている。
図 2 74において、 実線は、 HD画像 3 5 4 1の画素値を、 点線は、 SD画像 3 5 4 2の画素値を、 一点鎖線は、 実世界 1の信号の X断面波形を、 それぞれ表 している。 ただし、 図 2 74で示される一点鎖線は、 図 2 7 2で示される一点鎖 線と同様に、 X断面波形が近似された近似関数 f(x)が示されている。
図 2 7 2と図 2 74を比較するに、 両者の近似関数 f (x)の波形の形状より、 いずれの領域も細線の領域を含んでいることがわかる。
しかしながら、 図 2 7 2においては、 細線の領域は、 ほぼ x=0から x=lの範 囲に存在するのに対して、 図 2 74においては、 細線の領域は、 ほぼ x=- 0.5か ら x=0.5の範囲に存在する。 即ち、 図 2 7 2においては、 x=0から x=lの範囲 に存在する SD画像 3 5 4 2の 1つの SD画素内に細線の領域がほぼ含まれるこ とになる。 これに対して、 図 2 74においては、 x=0から x=lの範囲に存在する SD画像 3 5 4 2の 1つの SD画素内に、 細線の領域が一部だけ含まれる (細線 と背景の境目が含まれる) ことになる。
従って、 図 2 7 2で示される状態の場合、 x=0から x=l.0の範囲に存在する H D画像 3 5 4 1の 2つの HD画素の画素値 (図中、 実線) の差は小さくなる。 そ の結果、 当然ながら、 これら 2つの HD画素の画素値の平均値である、 S D画像 3 5 4 2の 1つの S D画素の画素値 (図中、 点線) と、 HD画像 3 5 4 1の 2つ の HD画素の画素値のそれぞれとの差分は小さいものになる。
このような状態で (図 2 7 2で示される状態で) 、 x=0から x=l.0の範囲に存 在する S D画像 3 5 4 2の 1つの SD画素が注目画素とされて、 従来のクラス分 類適応処理により x=0から x=1.0の範囲に 2つの HD画素 (予測画像 3 5 4 3 の画素) が生成された場合について考える。 この場合、 図 2 7 1で示されるよう に、 生成された予測画像 3 5 4 3の HD画素は、 HD画像 3 5 4 1の HD画素を ほぼ正確に予測したものになる。 即ち、 図 2 7 1で示されるように、 領域 3 5 4 4— 1においては、 予測画像 3 5 4 3の HD画素と、 HD画像 3 5 4 1の 10画 素の差分も小さくなるので、 黒に近い画像が表示される。
これに対して、 図 2 7 4で示される状態の場合、 x=0から x=l.0の範囲に存在 する HD画像 3 5 4 1の 2つの HD画素の画素値 (図中、 実線) の差は大きくな る。 その結果、 当然ながら、 これら 2つの HD画素の画素値の平均値である、 S D画像 3 5 4 2の 1つの SD画素の画素値 (図中、 点線) と、 HD画像 3 5 4 1 の 2つの HD画素の画素値のそれぞれとの差分は、 図 2 7 2の対応する差分に対 して大きなものになる。
このような状態で (図 2 7 4で示される状態で) 、 x=0から χ=1.0の範囲に存 在する S D画像 3 5 4 2の 1つの S D画素が注目画素とされて、 従来のクラス分 類適応処理により χ=0から χ=1.0の範囲に HD画素 (予測画像 3 5 4 3の画 素) が生成された場合について考える。 この場合、 図 2 7 3で示されるように、 生成された予測画像 3 5 4 3の HD画素は、 HD画像 3 5 4 1の HD画素を正確 に予測したものとはならない。 即ち、 図 2 7 3で示されるように、 領域 3 5 4 4 — 2においては、 予測画像 3 5 4 3の HD画素と、 HD画像 3 5 4 1の HD画素 04001488
355
の差分も大きなものになってしまうので、 白に近い画像が表示される。
ところで、 図 2 7 2と図 2 74の実世界 1の信号の近似関数 f(x) (図中、 一 点鎖線) のそれぞれを比較するに、 図 2 7 2においては、 x=0から x=lの範囲で の近似関数 f(x)の変化量は小さいのに対して、 図 2 7 4においては、 x=0力 ら x=lの範囲での近似関数 f(x)の変化量は大きいことがわかる。
従って、 図 2 7 2で示される x=0から x=l.0の範囲に存在する SD画像 3 5 4 2の 1っの30画素は、 SD画素内での近似関数 f(x)の変化量が小さい (即 ち、 実世界 1の信号の変化量が小さい) S D画素と言える。
このような観点から、 上述した調査結果を言いなおすと、 例えば、 図 2 7 2で 示される x=0力 ら x=1.0の範囲に存在する SD画素のような、 SD画素内での 近似関数 f(x)の変化が少ない (即ち、 実世界 1の信号の変化が少ない) SD画 素から、 従来のクラス分類適応処理により HD画素が生成されると、 生成された HD画素は、 実世界 1の信号 (いまの場合、 細線の画像) をほぼ正確に予測した ものとなる。
これに対して、 図 2 7 4で示される x=0から x=1.0の範囲に存在する SD画 像 3 5 4 2の 1つの SD画素は、 SD画素内での近似関数 f(x)の変化量が大き い (即ち、 実世界 1の信号の変化量が大きい) SD画素と言える。
このような観点から、 上述した調査結果を言いなおすと、 例えば、 図 2 7 4で 示される x=0から x=1.0の範囲に存在する SD画素のような、 SD画素内での 近似関数 f(x)の変化が大きい (即ち、 実世界 1の信号の変化が大きい) SD画 素から、 従来のクラス分類適応処理により HD画素が生成されると、 生成された HD画素は、 実世界 1の信号 (いまの場合、 細線の画像) を正確に予測したもの とはならない。
以上の調査結果をまとめると、 図 2 7 5で示されるような状態の場合、 従来の 画素間の信号処理 (例えば、 クラス分類適応処理) では、 画素内のディテールを 復元することは困難であるということである。
即ち、 図 2 7 5は、 本願出願人が上述したような調査を行った結果として、 得 られた知見を説明する図である。
図 2 7 5において、 図中水平方向は、 センサ 2 (図 2 6 6 ) の検出素子が並ん でいる方向 (空間方向) のうちの 1方向である X方向を表しており、 図中垂直方 向は、 光のレベルまたは画素値を表している。 点線は、 画像である、 実世界 1 (図 2 6 6 ) の信号の X断面波形 F (x)を表しており、 実線は、 X断面波形 F (x) で表される実世界 1の信号 (画像) がセンサ 2に入射された場合、 センサ 2から 出力される画素値 Pを表している。 また、 センサ 2の 1つの検出素子の幅 (X方 向の長さ) は、 Lc と記述されており、 Δ Ρは、 センサ 2の 1つの検出素子の幅 Lc、 即ち、 センサ 2の画素幅 Lc 内における X断面波形 F (x)の変化量を表してい る。
ところで、 上述した S D画像 3 5 4 2 (図 2 7 0 ) は、 センサ 2からの入力画 像 (図 2 6 6 ) を模したものであるので、 S D画像 3 5 4 2の S D画素幅 Ls
(図 2 7 2と図 2 7 4 ) は、 センサ 2の画素幅 (検出素子の幅) Lc として考え ることができる。
また、 上述した調査においては、 細線に対応する実世界 1の信号 (近似関数 f (x) ) に対する調査であったが、 細線に限らず、 実世界 1の信号のレベルの変 化は存在する。
従って、 上述した調査結果を、 図 2 7 5で示される状態に当てはめると、 次の 通りになる。
即ち、 図 2 7 5で示されるような、 画素内において実世界 1の信号の変化量 ( X断面波形 F (x)の変化量) 厶?が大きぃ3 0画素 (センサ 2からの出力画 素) が注目画素とされて、 従来のクラス分類適応処理により H D画素 (例えば、 図 2 6 6のクラス分類適応処理部 3 5 0 1から出力される予測画像の画素) が生 成された場合、 生成された H D画素は、 実世界 1の信号 (図 2 7 5の例では、 X 断面波形 F (x) ) を正確に予測したものとはならない。
具体的には、 クラス分類適応処理をはじめとする従来の手法においては、 セン サ 2の画素の画素間の画像処理が行われている。 PC蘭 004/001488
357
即ち、 図 2 7 5で示されるように、 実世界 1では、 1画素内の領域で X断面波 形 F (x)の変化量 Δ Ρが大きい状態であっても、 センサ 2からは、 X断面波形 F (x)が積分された (厳密には、 実世界 1の信号が、 時空間方向に積分された) 1つの画素値 P ( 1画素内で均一の値 P ) のみが出力される。
従来の手法においては、 その画素値 Pが基準とされるとともに、 画素値 Pが処 理の対象とされて画像処理が行われている。 換言すると、 従来の手法においては、 画素内における実世界 1の信号 (X断面波形 F (x) ) の変化、 即ち、 画素内のデ ィテールを無視して、 画像処理が行われている。
このように、 画素を最小の単位として処理する限り、 例えどのような画像処理 (クラス分類適応処理でも) を施したとしても、 画素内における実世界 1の信号 の変化を正確に再現することは困難である。 特に、 実世界 1の信号の変化量 Δ Ρ が大きい場合、 その困難さはより顕著なものとなる。
換言すると、 上述したクラス分類適応処理が有する課題、 即ち、 図 2 6 6にお いて、 センサ 2から出力された段階で実世界 1のディテールがつぶれてしまった 入力画像 (S D画像) は、 クラス分類適応処理によりたとえ H D画像とされても、 元のディテールが完全に復元されないことがあるという課題が発生する原因は、 画素内における実世界 1の信号の変化量 Δ Ρを考慮せずに、 画素 (1つの画素値 しか有しない画素) を最小の単位としてクラス分類適応処理が行われているから である。
この課題は、 クラス分類適応処理に限らず従来の画像処理手法の全てが有する 課題であり、 課題が発生する原因も全く同じである。
以上、 従来の画像処理手法が有する課題と、 その発生要因について説明した。 ところで、 上述したように、 本発明のデータ定常性検出部 1 0 1と実世界推定 部 1 0 2 (図 3 ) は、 実世界 1の信号が有する定常性を利用して、 センサ 2から の入力画像 (即ち、 画素内における、 実世界 1の信号の変化が無視された画像) から、 実世界 1の信号を推定することができる。 即ち、 実世界推定部 1 0 2は、 実世界 1の信号を推定することが可能な実世界推定情報を出力することができる。 2004/001488
358
従って、 この実世界推定情報から、 画素内における、 実世界 1の信号の変化量 の推定も可能である。
そこで、 本願出願人は、 従来のクラス分類適応処理により生成された予測画像 (画素内における、 実世界 1の信号の変化を考慮せずに、 実世界 1を予測した画 像) を、 実世界推定情報に基づいて生成される所定の補正画像 (画素内における、 実世界 1の信号の変化に起因する予測画像の誤差を推定した画像) で補正するこ とで、 上述した課題の解決が可能になるという思想に基づいて、 例えば、 図 2 6 6で示されるような、 クラス分類適応処理補正手法を発明した。
即ち、 図 2 6 6において、 データ定常性検出部 1 0 1と実世界推定部 1 0 2力 実世界推定情報を生成し、 クラス分類適応処理補正部 3 5 0 2が、 生成された実 世界推定情報に基づいて所定の補正画像を生成する。 そして、 加算部 3 5 0 3力 クラス分類適応処理部 3 5 0 1より出力された予測画像を、 クラス分類適応処理 補正部 3 5 0 2より出力された補正画像で補正する (具体的には、 予測画像に補 正画像を加算した画像を出力画像として出力する) 。
クラス分類適応処理補正手法を利用する画像生成部 1 0 3のうちの、 クラス分 類適応処理部 3 5 0 1の詳細については既に説明した。 また、 加算部 3 5 0 3は、 予測画像と補正画像を加算することができるものであれば、 その形態は特に限定 されず、 例えば、 従来より存在する、 様々な加算器やプログラム等を適用するこ とが可能である。
そこで、 以下、 残りのクラス分類適応処理捕正部 3 5 0 2の詳細について説明 する。
はじめに、 クラス分類適応処理補正部 3 5 0 2の原理について説明する。
上述したように、 図 2 7 0において、 H D画像 3 5 4 1を、 センサ 2 (図 2 6 6 ) に入射される前の元の画像 (実世界 1の信号) とみなし、 かつ、 S D画像 3 5 4 2を、 センサ 2からの入力画像とみなすと、 予測画像 3 5 4 3力 S、 クラス分 類適応処理部 3 5 ◦ 1より出力される予測画像 (元の画像 (H D画像 3 5 4 1 ) を予測した予測画像) となる。 また、 H D画像 3 5 4 1から、 その予測画像 3 5 4 3を減算した画像が、 差分 画像 3 5 4 4である。
従って、 クラス分類適応処理補正部 3 5 0 2が、 差分画像 3 5 4 4を生成し、 その差分画像 3 5 4 4を補正画像として出力することができれば、 加算部 3 5 0 3が、 クラス分類適応処理部 3 5 0 1より出力された予測画像 3 5 4 3と、 クラ ス分類適応処理補正部 3 5 0 2より出力された差分画像 3 5 4 4 (補正画像) を 加算することで、 H D画像 3 5 4 1を復元することができる。
即ち、 クラス分類適応処理補正部 3 5 0 2が、 画像である、 実世界 1の信号 (センサ 2に入射される前の元の画像) と、 クラス分類適応処理部 3 5 0 1から 出力される予測画像との差分画像 (ただし、 クラス分類適応処理部 3 5 0 1から 出力される予測画像と同一解像度の画像) を適切に予測し、 予測した差分画像
(以下、 差分予測画像と称する。 これが、 上述した差分予測画像の名称の由来で ある) を補正画像として出力することができれば、 実世界 1の信号 (元の画像) をほぼ復元することができる。
ところで、 上述したように、 実世界 1の信号 (センサ 2に入射される前の元の 画像) と、 クラス分類適応処理部 3 5 0 1から出力される予測画像との差分 (誤 差) の度合いと、 入力画像の 1画素内における、 実世界 1の信号の変化量の度合 いは対応している。 また、 実世界推定部 1 0 2は、 実世界 1の信号自身を推定す ることができるので、 当然ながら、 入力画像の 1画素内における、 実世界 1の信 号の変化量の度合いを表す所定の特徴量を画素毎に算出することも可能である。 従って、 クラス分類適応処理補正部 3 5 0 2は、 入力画像の各画素のそれぞれ に対する特徴量を取得することで、 差分予測画像を生成する (差分画像を予測す る) ことができる。
そこで、 例えば、 クラス分類適応処理捕正部 3 5 0 2は、 実世界推定部 1 0 2 より、 特徴量を画素値とする画像 (以下、 このような画像を、 特徴量画像と称す る) を実世界推定情報として実世界推定部 1 0 2より入力する。
このとき、 特徴量画像の解像度は、 センサ 2からの入力画像と同一の解像度で ある。 また、 補正画像 (差分予測画像) は、 クラス分類適応処理部 3 5 0 1より 出力される予測画像と同一の解像度である。
従って、 クラス分類適応処理補正部 3 5 0 2が、 特徴量画像を S D画像とし、 補正画像 (差分予測画像) を H D画像とし、 従来のクラス分類適応処理を利用し て、 特徴量画像から差分画像を予測演算すれば、 その予測演算の結果が、 適切な 差分予測画像となる。
以上、 クラス分類適応処理補正部 3 5 0 2の原理について説明した。
図 2 7 6は、 このような原理で動作するクラス分類適応処理補正部 3 5 0 2の 構成例を表している。
図 2 7 6において、 実世界推定部 1 0 2より入力された特徴量画像 (S D画 像) は、 領域抽出部 3 5 5 1と領域抽出部 3 5 5 5にそれぞれ供給される。 領域 抽出部 3 5 5 1は、 供給された特徴量画像から、 クラス分類を行うために必要な クラスタップ (注目画素を含む予め設定された位置に存在する S D画素) を抽出 し、 パターン検出部 3 5 5 2に出力する。 パターン検出部 3 5 5 2は、 入力され たクラスタップに基づいて特徴量画像のパターンを検出する。
クラスコード決定部 3 5 5 3は、 パターン検出部 3 5 5 2で検出されたパター ンに基づいてクラスコードを決定し、 補正係数メモリ 3 5 5 4、 および、 領域抽 出部 3 5 5 5に出力する。 補正係数メモリ 3 5 5 4は、 学習により予め求められ たクラスコード毎の係数を記憶しており、 クラスコード決定部 3 5 5 3より入力 されたクラスコードに対応する係数を読み出し、 補正演算部 3 5 5 6に出力する c なお、 捕正係数メモリ 3 5 5 4の係数の学習処理については、 図 2 7 7のクラ ス分類適応処理補正用学習部のプロック図を参照して後述する。
また、 補正係数メモリ 3 5 5 4に記憶される係数は、 後述するように、 差分画 像を予測する (H D画像である差分予測画像を生成する) ときに使用される予測 係数である。 しかしながら、 ここでは、 クラス分類適応処理部 3 5 0 1の係数メ モリ 3 5 1 4 (図 2 6 7 ) に記憶されている係数を、 予測係数と称している。 従 つて、 以下、 捕正係数メモリ 3 5 5 4に記憶される予測係数を、 係数メモリ 3 5 TJP2004/001488
361
1 4に記憶される予測係数と区別するために、 補正係数と称する。
領域抽出部 3 5 5 5は、 クラスコード決定部 3 5 5 3より入力されたクラスコ ードに基づいて、 実世界推定部 1 0 2より入力された特徴量画像 (SD画像) か ら、 差分画像 (HD画像) を予測する (HD画像である差分予測画像を生成す る) のに必要な予測タップ (注目画素を含む予め設定された位置に存在する SD 画素) をクラスコードに対応して抽出し、 補正演算部 3 5 5 6 出力する。 補正 演算部 3 5 5 6は、 領域抽出部 3 5 5 5より入力された予測タップと、 補正係数 メモリ 3 5 5 4より入力された補正係数とを用いて積和演算を実行し、 特徴量画 像 (SD画像) の注目画素 (SD画素) における、 差分予測画像 (HD画像) の HD画素を生成する。
より詳細には、 補正係数メモリ 3 5 54は、 クラスコード決定部 3 5 5 3より 供給されるクラスコードに対応する補正係数を、 補正演算部 3 5 5 6に出力する。 補正演算部 3 5 5 6は、 領域抽出部 3 5 5 5より供給される入力画像の所定の画 素位置の画素値から抽出された予測タップ (SD画素) と、 補正係数メモリ 3 5 54より供給された補正係数とを用いて、 次の式 (2 2 3) で示される積和演算 を実行することにより、 差分予測画像 (HD画像) の HD画素を求める (差分画 像を予測推定する) 。
Figure imgf000363_0001
- - - (2 2 3) 式 (2 2 3) において、 は、 差分予測画像.(HD画像) の HD画素を表し ている。 ai (iは、 1乃至 nの整数値) のそれぞれは、 予測タップ (SD画素) のそれぞれを表している。 また、 g i のそれぞれは、 補正係数のそれぞれを表し ている。
従って、 図 2 6 6において、 クラス分類適応処理部 3 5 0 1からは、 上述した 式 (2 1 5) で示される予測画像の HD画素 q'が出力されるのに対して、 クラ ス分類適応処理捕正部 3 5 0 2からは、 式 (2 2 3) で示される差分予測画像の H D画素 u'が出力される。 そして、 加算部 3 5 0 3が、 予測画像の H D画素 q と、 差分予測画像の H D画素 とを加算した画素 (以下、 0'と記述する) を、 出力画像の H D画素として外部に出力する。
即ち、 画像生成部 1 0 3より最終的に出力される出力画像の H D画素 0'は、 次の式 (2 2 4 ) で示されるようになる。
π n
0, = q' +u' = ∑ d j x c j +∑ gj aj
i =0 i =0
• · · ( 2 2 4 ) 図 2 7 7は、 このようなクラス分類適応処理補正部 3 5 0 2の捕正係数メモリ 3 5 5 4に記憶される補正係数 (上述した式 (2 2 2 ) における g , ) を決定す るための学習部、 即ち、 上述した図 2 6 8の学習装置 3 5 0 4のクラス分類適応 処理補正用学習部 3 5 6 1の詳細な構成例を表している。
図 2 6 8において、 上述したように、 クラス分類適応処理用学習部 3 5 2 1は、 その学習処理を終了すると、 クラス分類適応処理補正用学習部 3 5 6 1に対して、 学習に利用した第 1の教師画像 (H D画像) と第 1の生徒画像 (S D画像) のそ れぞれを出力するともに、 学習により求められた予測係数を用いて第 1の生徒画 像から第 1の教師画像を予測した画像である、 学習用予測画像を出力してくる。 図 2 7 7に戻り、 これらのうちの第 1の生徒画像は、 データ定常性検出部 3 5 7 2に入力される。
一方、 これらのうちの第 1の教師画像と学習用予測画像は、 加算部 3 5 7 1に 入力される。 ただし、 学習用予測画像は、 反転入力される。
加算部 3 5 7 1は、 入力された第 1の教師画像と、 反転入力された学習用予測 画像を加算し、 即ち、 第 1の教師画像と学習用予測画像の差分画像を生成し、 そ れをクラス分類適応処理補正用学習部 3 5 6 1における教師画像 (この教師画像 を、 上述したように、 第 1の教師画像と区別するために、 第 2の教師画像と称す る) として正規方程式生成部 3 5 7 8に出力する。
データ定常性検出部 3 5 7 2は、 入力された第 1の生徒画像に含まれるデータ の定常性を検出し、 その検出結果をデータ定常性情報として実世界推定部 3 5 7 3に出力する。
実世界推定部 3 5 7 3は、 入力されたデータ定常性情報に基づいて、 特徴量画 像を生成し、 それをクラス分類適応処理補正用学習部 3 5 6 1における生徒画像 (この生徒画像を、 上述したように、 第 1の生徒画像と区別するために、 第 2の 生徒画像と称する) として領域抽出部 3 5 7 4と領域抽出部 3 5 7 7のそれぞれ に出力する。
領域抽出部 3 5 7 4は、 供給された第 2の生徒画像 (S D画像) から、 クラス 分類を行うために必要な S .D画素 (クラスタップ) を抽出し、 パターン検出部 3 5 7 5に出力する。 パターン検出部 3 5 7 5は、 入力されたクラスタップのパタ ーンを検出し、 検出結果をクラスコード決定部 3 5 7 6に出力する。 クラスコー ド決定部 3 5 7 6は、 入力されたパターンに対応するクラスコードを決定し、 そ のクラスコードを領域抽出部 3 5 7 7、 および、 正規方程式生成部 3 5 7 8のそ れぞれに出力する。
領域抽出部 3 5 7 7は、 クラスコード決定部 3 5 7 6より入力されたクラスコ ードに基づいて、 実世界推定部 3 5 7 3より入力された第 2の生徒画像 (S D画 像) から予測タップ (S D画素) を抽出し、 正規方程式生成部 3 5 7 8に出力す る。
なお、 以上の領域抽出部 3 5 7 4、 パターン検出部 3 5 7 5、 クラスコード決 定部 3 5 7 6、 および領域抽出部 3 5 7 7のそれぞれは、 図 2 7 6のクラス分類 適応処理補正部 3 5 0 2の領域抽出部 3 5 5 1、 パターン検出部 3 5 5 2、 クラ スコード決定部 3 5 5 3、 および、 領域抽出部 3 5 5 5のそれぞれと、 基本的に 同 の構成と機能を有するものである。 また、 以上のデータ定常性検出部 3 5 7 2、 および実世界推定部 3 5 7 3のそれぞれは、 図 2 6 6のデータ定常性検出部 1 0 1、 および実世界推定部 1 0 2のそれぞれと、 基本的に同様の構成と機能を 有するものである。
正規方程式生成部 3 5 7 8は、 クラスコード決定部 3 5 7 6より入力された全 てのクラスコードに対して、 クラスコード毎に、 領域抽出部 3 57 7より入力さ れる第 2の生徒画像 (SD画像) の予測タップ (SD画素) と、 第 2の教師画像 (HD画像) の HD画素とから正規方程式を生成し、 補正係数決定部 3 5 79に 供給する。 補正係数決定部 3 5 7 9は、 正規方程式生成部 3 5 78より所定のク ラスコードに対応する正規方程式が供給されてきたとき、 その正規方程式より捕 正係数のそれぞれを演算し、 捕正係数メモリ 35 54にクラスコードと関連付け て記憶させる。
正規方程式生成部 35 78と、 補正係数決定部 35 79についてさらに詳しく 説明する。
上述した式 (223) において、 学習前は補正係数 gi のそれぞれが未定係数 である。 学習は、 クラスコード毎に複数の教師画像 (HD画像) の HD画素を入 力することによって行う。 所定のクラスコードに対応する HD画素が m個存在し、 m個の HD画素のそれぞれを、 uk (kは、 1乃至 mの整数値) と記述する場合、 式 (223) から、 次の式 (22 5) が設定される。
n
uk= I gj aik+ek
i=o
• · · (225) 即ち、 式 (225) は、 右辺の演算をすることで、 所定の HD画素を予測推定 することができることを表している。 なお、 式 (225) において、 ekは誤差 を表している。 即ち、 右辺の演算結果である差分予測画像 (HD画像) の HD画 素 uk'が、 実際の差分画像の HD画素 uk と厳密には一致せず、 所定の誤差 ek を 含む。
そこで、 式 (2225) において、 例えば、 誤差 ekの自乗和を最小にするよ うな捕正係数 &i ίΚ 学習により求まればよい。
例えば、 m>nとなるように、 差分画像の HD画素 uk を学習により集めるこ とができれば、 最小自乗法によって補正係数 がー意に決定される。
即ち、 式 (225) の右辺の補正係数 ai を最小自乗法で求める場合の正規方 程式は、 次の式 (2 26) で示される通りになる
Figure imgf000367_0002
Figure imgf000367_0001
式 (2 2 6) で示される正規方程式の各行列のそれぞれを、 次の式 ( 2 2 7) 乃至 (2 2 9) のように定義すると、 正規方程式は、 次の式 (2 3 0) のよう 表される。
m m J,
∑ a1k a1k ∑ a1k a2k ··· a1k ank
k=1 k=1 k=1
m m m
∑ a2kxalk 32kX a2k · " ,∑ a2kX ank
AMAT = k=1 k=1 k=1
∑ ankxa1k L ank x a2k
k=1 k=1 k=1
(2 2 7)
S1
S2
(2 2 8)
Figure imgf000368_0001
• · - ( 2 2 9)
½T¾AT = UMAT
• · · ( 2 3 0) 式 (2 2 8) で示されるように、 行列 GMAT の各成分は、 求めたい補正係数 giである。 従って、 式 (2 3 0) において、 左辺の行列 AMAT と右辺の 行列 UMATが決定されれば、 行列解法によって行列 GMA T (即ち、 補正係数 gi) の算出が可能である。
具体的には、 式 (2 2 7) で示されるように、 行列 AMAT の各成分は、 予測タ ップ ai kが既知であれば演算可能である。 予測タップ ai kは、 領域抽出部 3 5 7 7により抽出されるので、 正規方程式生成部 3 5 7 8は、 領域抽出部 3 5 7 7 より供給されてくる予測タップ ai kのそれぞれを利用して行列 AMAT の各成分を 演算することができる。
また、 式 (2 2 9 ) で示されるように、 行列 UMATの各成分は、 予測タップ ai k と差分画像の HD画素 ukが既知であれば演算可能である。 予測タップ ai k は、 行列 AMAT の各成分に含まれるものと同一のものであり、 また、 差分画像の HD画素 ukは、 加算部 3 5 7 1より出力される第 2の教師画像の HD画素であ る。 従って、 正規方程式生成部 3 5 7 8は、 領域抽出部 3 5 7 7より供給された 予測タップ ai k と、 第 2の教師画像 (第 1の教師画像と、 学習用予測画像の差 分画像) を利用して行列 UMATの各成分を演算することができる。
このようにして、 正規方程式生成部 3 5 7 8は、 クラスコード毎に、 行列 AMA T と行列 UMA T の各成分を演算し、 その演算結果をクラスコードに対応 付けて補正係数決定部 3 5 7 9に供給する。
補正係数決定部 3 5 7 9は、 供給された所定のクラスコードに対応する正規方 程式に基づいて、 上述した式 (2 3 0) の行列 GMATの各成分である捕正係数 gi を演算する。
具体的には、 上述した式 (2 3 0) の正規方程式は、 次の式 (2 3 1 ) のよう に変形できる。 一 1
« ΑΤ = ½TUMAT
• · · (2 3 1 ) 式 (2 3 1) において、 左辺の行列 GMATの各成分が、 求めたい補正係数 gi である。 また、 行列 AMAT と行列 UMATのそれぞれの各成分は、 正規方程式生成 部 3 5 7 8より供給されるものである。 従って、 補正係数決定部 3 5 7 9は、 正 規方程式生成部 3 5 7 8より所定のクラスコードに対応する行列 AM A τ と 行列 UMATのそれぞれの各成分が供給されてきたとき、 式 (2 3 1) の右辺の行 列演算を行うことで行列 GMAT を演算し、 その演算結果 (補正係数 gi) をクラ スコードに対応付けて補正係数メモリ 3 5 54に記憶させる。
以上、 クラス分類適応処理補正部 3 5 0 2と、 それに付随する学習部である、 クラス分類適応処理補正用学習部 3 5 6 1の詳細について説明した。
ところで、 上述した特徴量画像は、 クラス分類適応処理補正部 3 5 0 2がそれ に基づいて補正画像 (差分予測画像) を生成することが可能なものであれば、 そ の形態は特に限定されない。 換言すると、 特徴量画像の各画素の画素値、 即ち、 特徴量は、 上述したように、 画素 (センサ 2 (図 2 6 6) の画素) 内における実 世界 1 (図 2 6 6) の信号の変化量の度合いを表すことができるものであれば、 特に、 限定されない。
例えば、 特徴量として、 画素内傾斜を適用することが可能である。
画素内傾斜とは、 ここで新しく定義した言葉である。 そこで、 以下、 画素内傾 斜について説明する。 P T/JP2004/001488
368
上述したように、 図 266において、 画像である、 実世界 1の信号は、 3次元 の空間上の位置 x,y、 およぴ2、 並びに時刻 tを変数とする関数 F(x,y, t)で表 される。
また、 例えば、 画像である、 実世界 1の信号が、 空間方向の所定の方向に定常 性を有する場合、 関数 F(x,y,t)を、 空間方向である X方向、 Y方向、 および Z 方向のうちの所定の 1方向 (例えば、 X方向) に射影した 1次元の波形 (ここで も、 このような波形のうちの X方向に射影した波形を、 X断面波形 F(x)と称す ることにする) と同一形状の波形が、 定常性の方向に連なっていると考えること ができる。
従って、 実世界推定部 10 2は、 例えば、 データ定常性検出部 1 01より出力 される、 実世界 1の信号が有する定常性に対応するデータ定常性情報 (例えば、 角度) に基づいて、 X断面波形 F(x)を、 n次 (nは、 任意の整数) の多項式であ る近似関数 f )で近似することができる。
図 278は、 このような近似関数 f(x)の一例として、 次の式 (232) で示 される f4 (x) (5次の多項式である f4 (X)) と、 次の式 (23 3) で示される f5 (x) (1次の多項式である f5 (x)) をプロットしたものを表している。 f Λ (X) = w0+w1 x +w2x" + 3x3 +w4x +w5x
• · · (23 2) f5 (x) = WQ' + 1'X
· · ■ (23 3) なお、 式 (232) の w。乃至 w5、 並びに、 式 (23 3) の w。'およぴ ^,の それぞれは、 実世界推定部 1 02が演算した各次の係数を表している。
また、 図 278において、 図中水平方向の X軸は、 注目画素の左端を原点 (x=0) とした場合における、 注目画素からの空間方向 Xの相対位置を表してい る。 ただし、 X軸においては、 センサ 2の検出素子の幅 Lcが 1とされている。 また、 図中垂直方向の軸は、 画素値を表している。 図 2 7 8で示されるように、 1次の近似関数 f5 (x) (式 (2 3 2 ) で示される 近似関数 f5 (x) ) は、 注目画素における X断面波形 F (x)を直線近似したもので ある。 この近似直線の傾きを、 ここでは、 画素内傾斜と称している。 即ち、 画素 内傾斜とは、 式 (2 3 3 ) における Xの係数 'である。
画素内傾斜が急な場合、 それは、 注目画素における、 X断面波形 F (x)の変化 量が大きいことを表している。 これに対して、 画素内傾斜が緩やかな場合、 それ は、 注目画素における、 X断面波形 F (x)の変化量が小さいことを表している。 このように、 画素内傾斜は、 画素 (センサ 2の画素) 内における実世界 1の信 号の変化量の度合いを適切に表すことができる。 従って、 特徴量として、 画素内 傾斜を適用することができる。
例えば、 図 2 7 9には、 画素内傾斜を特徴量として実際に生成された特徴量画 像が示されている。
即ち、 図 2 7 9において、 図中左側の画像は、 上述した図 2 7 0で示される S D画像 3 5 4 2と同一の画像を表している。 また、 図中右側の画像は、 左側の S D画像 3 5 4 2を構成する各画素のそれぞれに対して画素内傾斜を求め、 画素内 傾斜に対応する値を画素値としてプロットした特徴量画像 3 5 9 1を表している。 ただし、 特徴量画像 3 5 9 1は、 画素内傾斜がない場合 (近似直線が、 X方向に 平行な場合) 、 黒となり、 これに対して、 画素内傾斜が直角の場合 (近似直線が、 Y方向に平行な場合) 、 白となるように生成されている。
S D画像 3 5 4 2の領域 3 5 4 2— 1は、 上述した図 2 7 1の差分画像 3 5 4 4の領域 3 5 4 4— 1 (上述した図 2 7 2を参照して、 画素内における実世界 1 の信号の変化量が小さい領域の一例として説明した領域) に対応する領域である。 この S D画像 3 5 4 2の領域 3 5 4 2 - 1に対応する特徴量画像 3 5 9 1の領域 力 領域 3 5 9 1— 1である。
また、 S D画像 3 5 4 2の領域 3 5 4 2— 2は、 上述した図 2 7 3の差分画像 3 5 4 4の領域 3 5 4 4— 2 (上述した図 2 7 4を参照して、 画素内における実 世界 1の信号の変化量が大きい領域の 1例として説明した領域) に対応する領 域である。 この S D画像 3 5 4 2の領域 3 5 4 2— 2に対応する特徴量画像 3 5 9 1の領域が、 領域 3 5 9 1— 2である。
S D画像 3 5 4 2の領域 3 5 4 2— 1と特徴量画像 3 5 9 1の領域 3 5 9 1— 1とを比較するに、 実世界 1の信号の変化量が小さい領域は、 特徴量画像 3 5 9 1においては、 黒に近い領域 (画素内傾斜が緩い領域) となっていることがわか る。
これに対して、 S D画像 3 5 4 2の領域 3 5 4 2 - 2と特徴量画像 3 5 9 1の 領域 3 5 9 1— 2とを比較するに、 実世界 1の信号の変化量が大きい領域は、 特 徴量画像 3 5 9 1においては、 白に近い領域 (画素内傾斜が急な領域) となって いることがわかる。
このように、 画素内傾斜に対応する値を画素として生成された特徴量画像は、 各画素内のそれぞれにおける実世界 1の信号の変化量の度合いを適切に表すこと ができる。
次に、 画素内傾斜の具体的な算出方法について説明する。
即ち、 注目画素における画素内傾斜を、 gradと記述すると、 画素内傾斜 grad は、 次の式 (2 3 4 ) で表される。
P
― ■ n一 p
grad =
X
■ ■ · ( 2 3 4 ) 式 (2 3 4 ) において、 Pnは、 注目画素の画素値を表している。 Pcは、 中心 画素の画素値を表している。
具体的には、 例えば、 図 2 8 0で示されるように、 センサ 2からの入力画像の うちの、 5 X 5の画素 (図中 5 X 5 = 2 5個の正方形) からなる領域であって、 所定のデータの定常性を有する領域 3 6 0 1 (以下、 定常領域 3 6 0 1と称す る) が存在した場合、 この定常領域 3 6 0 1の中心の画素 3 6 0 2が中心画素と される。 従って、 Pcは、 中心画素 3 6 0 2の画素値となる。 そして、 例えば、 画素 3 6 0 3が注目画素とされた場合、 Pnは、 注目画素 3 6 0 3の画素値とな る。
また、 式 (2 3 4 ) において、 X /は、 注目画素の中心点における断面方向距 離を表している。 なお、 ここでは、 中心画素 (図 2 8 0の例では、 画素 3 6 0 2 ) の中心を空間方向の原点(0,0)とし、 その原点を通るデータの定常性の方向 と平行な直線 (図 2 8 0の例では、 直線 3 6 0 4 ) を引いたとすると、 その直線 に対する X方向の相対的な距離を、 断面方向距離と称している。
図 2 8 1は、 図 2 8 0の定常領域 3 6 0 1内の各画素の断面方向距離を表した 図である。 即ち、 図 2 8 1において、 定常領域 3 6 0 1の各画素 (図中 5 X 5 = 2 5個の正方形) 内のそれぞれに記載されている値が、 対応する画素の断面方向 距離である。 例えば、 注目画素 3 6 0 3の断面距離 X /は、 一 2 である。
ただし、 各画素幅は、 X方向も Y方向も 1とされている。 X方向の正方向は、 図中右方向とされている。 また、 ;3は、 中心画素 3 6 0 2の Y方向に対して 1つ 隣 (図中 1つ下) の画素 3 6 0 5の断面方向距離を表している。 この ]3は、 図 2 8 1で示されるような角度 0 (直線 3 6 0 4の方向と、 X方向のなす角度 0 ) が、 データ定常性検出部 1 0 1よりデータ定常性情報として出力されている場合、 次 の式 (2 3 5 ) を利用して簡単に演算することが可能である。 β = tan 0
• · · ( 2 3 5 ) このように、 画素内傾斜は、 中心画素 (図 2 8 1の例では画素 3 6 0 2 ) と注 目画素 (図 2 8 1の例では画素 3 6 0 3 ) の 2つの入力画素値と、 角度 Θを利用 する簡単な演算で算出可能である。 従って、 実世界推定部 1 0 2は、 画素内傾斜 に対応する値を画素値とする画像を、 特徴量画像として生成すれば、 その処理量 を大幅に低減することが可能になる。
なお、 さらに精度のよい画素内傾斜を求めたい場合、 実世界推定部 1 0 2は、 注目画素の周辺画素を用いて最小自乗法により演算すればよい。 具体的には、 実 世界推定部 1 0 2は、 注目画素を含む m個 (mは 2以上の整数) の画素に対して T/JP2004/001488
372
番号 i (iは、 1乃至 m) を付与し、 番号 iの画素のそれぞれの入力画素値 Pi と断面方向距離 Xi 'を、 次の式 (2 3 6 ) の右辺に代入して注目画素における画 素内傾斜 gradを演算すればよい。 即ち、 式 (2 3 6 ) は、 上述した 1変数を最 小自乗法で求める式と同様の式である。
Figure imgf000374_0001
• · · ( 2 3 6 ) 次に、 図 2 8 2を参照して、 クラス分類適応処理補正手法を利用する画像生成 部 1 0 3 (図 2 6 6 ) の画像の生成の処理 (図 4 0のステップ S 1 0 3の処理) について説明する。
図 2 6 6において、 画像である、 実世界 1の信号がセンサ 2に入射されると、 センサ 2からは入力画像が出力される。 この入力画像は、 データ定常性検出部 1 0 1に入力されるとともに、 画像生成部 1 0 3のクラス分類適応処理部 3 5 0 1 に入力される。
そこで、 図 2 8 2のステップ S 3 5 0 1において、 クラス分類適応処理部 3 5 0 1は、 入力された入力画像 (S D画像) に対してクラス分類適応処理を施して、 予測画像 (H D画像) を生成し、 加算部 3 5 0 3に出力する。
なお、 以下、 このようなクラス分類適応処理部 3 5◦ 1が実行するステップ S 3 5 0 1の処理を、 「入力画像クラス分類適応処理」 と称する。 この例の 「入力 画像クラス分類適応処理」 の詳細については、 図 2 8 3のフローチャートを参照 して後述する。
ステップ S 3 5 0 1の処理とほぼ同時に、 データ定常性検出部 1 0 1は、 入力 画像に含まれるデータの定常性を検出し、 その検出結果 (いまの場合、 角度) を データ定常性情報として実世界推定部 1 0 2に出力する (図 4 0のステップ S 1 0 1の処理) 。 実世界推定部 1 0 2は、 入力した角度 (データ定常性情報) に基づいて、 実世 界推定情報 (いまの場合、 S D画像である特徴量画像) を生成し、 画像生成部 1 0 3のクラス分類適応処理補正部 3 5 0 2に供給する (図 4 0のステップ S 1 0 2の処理) 。
そこで、 ステップ S 3 5 0 2において、 クラス分類適応処理補正部 3 5 0 2は、 供給された特徴量画像 (S D画像) に対してクラス分類適応処理を施して、 差分 予測画像 (H D画像) を生成し (実際の画像 (実世界 1の信号) と、 クラス分類 適応処理部 3 5 0 1から出力された予測画像との差分画像 (ただし、 H D画像) を予測演算し) 、 それを補正画像として加算部 3 5 0 3に出力する。
なお、 以下、 このようなクラス分類適応処理捕正部 3 5 0 2が実行するステツ プ S 3 5 0 2の処理を、 「クラス分類適応処理の補正処理」 と称する。 この例の 「クラス分類適応処理の補正処理」 の詳細については、 図 2 8 4のフローチヤ一 トを参照して後述する。
そして、 ステップ S 3 5 0 3において、 加算部 3 5 0 3力 ステップ S 3 5 0 1の処理でクラス分類適応処理部 3 5 0 1により生成された予測画像 (H D画 像) の注目画素 (H D画素) と、 その注目画素に対応する、 ステップ S 3 5 0 2 の処理でクラス分類適応処理補正部 3 5 0 2により生成された補正画像 (H D画 像) の画素 (H D画素) を加算し、 出力画像 (H D画像) の画素 (H D画素) を 生成する。
ステップ S 3 5 0 4において、 加算部 3 5 0 3は、 全画素の処理を終了したか 否かを判定する。
ステップ S 3 5 0 4において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 5 0 1に戻り、 それ以降の処理が操り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 5 0 1乃至 S 3 5 0 3の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 5 ◦ 4において、 全画素の 処理が終了されたと判定すると) 、 加算部 3 5 0 4は、 ステップ S 3 5 0 5にお 04 001488
374
いて、 出力画像 (H D画像) を外部に出力する。 その後、 画像の生成の処理は終 了となる。
次に、 図面を参照して、 この例における 「入力画像クラス分類適応処理 (ステ ップ S 3 5 0 1の処理) 」 、 および、 「クラス分類適応処理の補正処理 (ステツ プ S 3 5 0 2の処理) 」 のそれぞれの詳細について、 その順番で個別に説明する。 はじめに、 図 2 8 3のフローチャートを参照して、 クラス分類適応処理部 3 5 0 1 (図 2 6 7 ) が実行する 「入力画像クラス分類適応処理」 の詳細について説 明する。
入力画像 (S D画像) がクラス分類適応処理部 3 5 0 1に入力されると、 ステ ップ S 3 5 2 1において、 領域抽出部 3 5 1 1と領域抽出部 3 5 1 5のそれぞれ は、 入力画像を入力する。
ステップ S 3 5 2 2において、 領域抽出部 3 5 1 1は、 入力画像の中から、 注 目画素 (S D画素) 、 および、 予め設定された注目画素からの相対位置 (1以上 の位置) のそれぞれに位置する画素 (S D画素) を、 クラスタップとして抽出し、 パターン検出部 3 5 1 2に供給する。
ステップ S 3 5 2 3において、 パターン検出部 3 5 1 2は、 供給されたクラス タップのパターンを検出し、 クラスコード決定部 3 5 1 3に供給する。
ステップ S 3 5 2 4において、 クラスコード決定部 3 5 1 3は、 予め設定され ている複数のクラスコードの中から、 供給されたクラスタップのパターンに適合 するクラスコードを決定し、 係数メモリ 3 5 1 4と領域抽出部 3 5 1 5のそれぞ れに供給する。
ステップ S 3 5 2 5において、 係数メモリ 3 5 1 4は、 予め学習処理により決 定された複数の予測係数 (群) の中から、 供給されたクラスコードに基づいてこ れから使用する予測係数 (群) を読み出し、 予測演算部 3 5 1 6に供給する。 なお、 学習処理については、 図 2 8 8のフローチャートを参照して後述する。 ステップ S 3 5 2 6において、 領域抽出部 3 5 1 5は、 供給されたクラスコー ドに対応して、 入力画像の中から、 注目画素 (S D画素) 、 および、 予め設定さ れた注目画素からの相対位置 (1以上の位置であって、 クラスタップの位置とは 独立して設定された位置。 ただし、 クラスタップの位置と同一の位置でもよい) のそれぞれに位置する画素 (S D画素) を、 予測タップとして抽出し、 予測演算 部 3 5 1 6に供給する。
ステップ S 3 5 2 7において、 予測演算部 3 5 1 6は、 領域抽出部 3 5 1 5よ り供給された予測タップを、 係数メモリ 3 5 1 4より供給された予測係数を用い て演算し、 予測画像 (H D画像) を生成して加算部 3 5 0 3に出力する。
具体的には、 予測演算部 3 5 1 6は、 領域抽出部 3 5 1 5より供給された予測 タップのそれぞれを ( i は、 1乃至 nのうちのいずれかの整数) とし、 かつ、 係数メモリ 3 5 1 4より供給された予測係数のそれぞれを として、 上述した 式 (2 1 5 ) の右辺を演算することにより、 注目画素 (S D画素) における H D 画素 q .を算出し、 それを予測画像 (H D画像) を構成する 1つの画素として加 算部 3 5 0 3に出力する。 これにより、 入力画像クラス分類適応処理が終了とな る。
次に、 図 2 8 4のフローチャートを参照して、 クラス分類適応処理補正部 3 5 0 2 (図 2 7 6 ) が実行する 「クラス分類適応処理の補正処理」 の詳細について 説明する。
実世界推定部 1 0 2より実世界推定情報として特徴量画像 (S D画像) がクラ ス分類適応処理補正部 3 5 0 2に入力されると、 ステップ S 3 5 4 1において、 領域抽出部 3 5 5 1と領域抽出部 3 5 5 5のそれぞれは、 特徴量画像を入力する。 ステップ S 3 5 4 2において、 領域抽出部 3 5 5 1は、 特徴量画像の中から、 注目画素 (S D画素) 、 および、 予め設定された注目画素からの相対位置 (1以 上の位置) のそれぞれに位置する画素 (S D画素) を、 クラスタップとして抽出 し、 パターン検出部 3 5 5 2に供給する。
具体的には、 この例においては、 例えば、 図 2 8 5で示されるようなクラスタ ップ (群) 3 6 2 1が抽出されるとする。 即ち、 図 2 8 5は、 クラスタップ配置 の一例を表している。 図 2 8 5において、 図中水平方向は、 空間方向の 1方向である X方向とされて おり、 図中垂直方向は、 空間方向の他方向である Y方向とされている。 また、 注 目画素は、 画素 3 6 2 1 - 2とされている。
この場合、 図 2 8 5の例では、 注目画素 3 6 2 1— 2、 Y方向に対して注目画 素 3 6 2 1— 2の隣の画素 3 6 2 1 _ 0および画素 3 6 2 1— 4、 並びに、 X方 向に対して注目画素 3 6 2 1— 2の隣の画素 3 6 2 1— 1および画素 3 6 2 1— 3の総計 5個の画素からなる画素群 3 6 2 1 クラスタップとして抽出される ことになる。
勿論、 クラスタツプ配置は、 注目画素 3 6 2 1— 2を含む配置であれば、 図 2 8 5の例に限定されず、 様々な配置が可能である。
図 2 84に戻り、 ステップ S 3 54 3において、 パターン検出部 3 5 5 2は、 供給されたクラスタップのパターンを検出し、 クラスコード決定部 3 5 5 3に供 給する。
具体的には、 この例においては、 例えば、 パターン検出部 3 5 5 2は、 図 2 8 5で示される 5個のクラスタップ 3 6 2 1— 0乃至 3 6 2 1一 4のそれぞれの画 素値、 即ち、 特徴量の値 (例えば、 画素内傾斜) のそれぞれが、 予め設定された 複数のクラスのうちのいずれのクラスに属するのかを検出し、 それらの検出結果 を 1つにまとめたものをパターンとして出力する。
例えば、 いま、 図 2 8 6で示されるようなパターンが検出されたとする。 即ち、 図 2 8 6は、 クラスタップのパターンの一例を表している。
図 2 8 6において、 図中水平方向の軸は、 クラスタップを表しており、 図中垂 直方向の軸は、 画素内傾斜を表している。 また、 画素内傾斜により、 クラス 3 6 3 1、 クラス 3 6 3 2、 およびクラス 3 6 3 3の 3つのクラスが予め設定されて いるとする。
この場合、 図 2 8 6で示されるパターンは、 クラスタップ 3 6 2 1— 0はクラ ス 3 6 3 1に、 クラスタップ 3 6 2 1— 1はクラス 3 6 3 1に、 クラスタップ 3 6 2 1— 2はクラス 3 6 3 3に、 クラスタップ 3 6 2 1— 3はクラス 3 6 3 1に、 クラスタップ 3 6 2 1— 4はクラス 3 6 3 2に、 それぞれ属するパターンを表し ている。
このように、 5個のクラスタップ 3 6 2 1一 0乃至 3 6 2 1—4のそれぞれは、 3つのクラス 3 6 3 1乃至 3 6 3 3のうちのいずれかに属することになる。 従つ て、 この例においては、 図 2 8 6で示されるパターンを含めて総計 2 7 3 ( = 3 " 5 ) 個のパターンが存在することになる。
図 2 8 4に戻り、 ステップ S 3 5 4 4において、 クラスコード決定部 3 5 5 3 は、 予め設定されている複数のクラスコードの中から、 供給されたクラスタップ のパターンに適合するクラスコードを決定し、 補正係数メモリ 3 5 5 4と領域抽 出部 3 5 5 5のそれぞれに供給する。 いまの場合、 2 7 3個のパターンが存在す るので、 予め設定されているクラスコードの数も 2 7 3個 (または、 それ以上) となる。
ステップ S 3 5 4 5において、 補正係数メモリ 3 5 5 4は、 予め学習処理によ り決定された複数の補正係数 (群) の中から、 供給されたクラスコードに基づい てこれから使用する補正係数 (群) を読み出し、 補正演算部 3 5 5 6に供給する。 補正係数メモリ 3 5 5 4に記憶されている補正係数 (群) のそれぞれは、 予め設 定されたクラスコードのうちのいずれかに対応付けられているので、 いまの場合、 補正係数 (群) の数は、 予め設定されているクラスコードの数と同数 (2 7 3個 以上) となる。
なお、 学習処理については、 図 2 8 8のフローチャートを参照して後述する。 ステップ S 3 5 4 6において、 領域抽出部 3 5 5 5は、 供給されたクラスコー ドに対応して、 入力画像の中から、 注目画素 (S D画素) 、 および、 予め設定さ れた注目画素からの相対位置 (1以上の位置であって、 クラスタップの位置とは 独立して設定された位置。 ただし、 クラスタップの位置と同一の位置でもよい) のそれぞれに位置する画素 (S D画素) を、 予測タップとして抽出し、 補正演算 部 3 5 5 6に供給する。
具体的には、 この例においては、 例えば、 図 2 8 7で示されるような予測タツ プ (群) 3 6 4 1が抽出されるとする。 即ち、 図 2 8 7は、 予測タップ配置の一 例を表している。
図 2 8 7において、 図中水平方向は、 空間方向の 1方向である X方向とされて おり、 図中垂直方向は、 空間方向の他方向である Y方向とされている。 また、 注 目画素は、 画素 3 6 4 1— 1とされている。 即ち、 画素 3 6 4 1— 1は、 クラス タップ 3 6 2 1— 2 (図 2 8 5 ) に対応する画素である。
この場合、 図 2 8 7の例では、 注目画素 3 6 4 1— 1を中心とする 5 X 5の画 素群 (総計 2 5個の画素からなる画素群) 3 6 4 1力 予測タップ (群) として 抽出されることになる。
勿論、 予測タップ配置は、 注目画素 3 6 4 1— 1を含む配置であれば、 図 2 8 7の例に限定されず、 様々な配置が可能である。
図 2 8 4に戻り、 ステップ S 3 5 4 7において、 補正演算部 3 5 5 6は、 領域 抽出部 3 5 5 5より供給された予測タップを、 補正係数メモリ 3 5 5 4より供給 された補正係数を用いて演算し、 差分予測画像 (H D画像) を生成し、 補正画像 として加算部 3 5 0 3に出力する。
より詳細には、 補正演算部 3 5 5 6は、 領域抽出部 3 5 5 5より供給された予 測タップのそれぞれを ai (iは、 1乃至 nのうちのいずれかの整数) とし、 力 つ、 補正係数メモリ 3 5 5 4より供給された補正係数のそれぞれを gi として、 上述した式 ( 2 2 3 ) の右辺を演算することにより、 注目画素 (S D画素) にお ける H D画素 u,を算出し、 それを補正画像 (H D画像) を構成する 1つの画素 として加算部 3 5 0 3に出力する。 これにより、 クラス分類適応処理の補正処理 は終了となる。
次に、 図 2 8 8のフローチャートを参照して、 学習装置 (図 2 6 8 ) の学習処 理、 即ち、 クラス分類適応処理部 3 5 0 1 (図 2 6 7 ) が使用する予測係数と、 クラス分類適応処理補正部 3 5 0 2 (図 2 7 6 ) が使用する補正係数のそれぞれ を学習により生成する学習処理について説明する。
ステップ S 3 5 6 1において、 クラス分類適応処理用学習部 3 5 2 1は、 クラ 1488
379
ス分類適応処理部 3 5 0 1が使用する予測係数を生成する。
即ち、 クラス分類適応処理用学習部 3 5 2 1は、 所定の画像を第 1の教師画像 (H D画像) として入力し、 その第 1の教師画像の解像度を下げて第 1の生徒画 像 (S D画像) を生成する。
そして、 クラス分類適応処理用学習部 3 5 2 1は、 クラス分類適応処理により 第 1の生徒画像 (S D画像) から第 1の教師画像 (H D画像) を適切に予測する ことが可能な予測係数を生成し、 クラス分類適応処理部 3 5 0 1の係数メモリ 3 5 1 4 (図 2 6 7 ) に記憶させる。
なお、 以下、 このようなクラス分類適応処理用学習部 3 5 2 1が実行するステ ップ S 3 5 6 1の処理を、 「クラス分類適応処理用学習処理」 と称する。 この例 の 「クラス分類適応処理用学習処理」 の詳細については、 図 2 8 9のフローチヤ ートを参照して後述する。
クラス分類適応処理部 3 5 0 1が使用する予測係数が生成されると、 ステップ S 3 5 6 2において、 クラス分類適応処理補正用学習部 3 5 6 1は、 クラス分類 適応処理補正部 3 5 0 2が使用する補正係数を生成する。
即ち、 クラス分類適応処理補正用学習部 3 5 6 1は、 クラス分類適応処理用学 習部 3 5 2 1より、 第 1の教師画像、 第 1の生徒画像、 および学習用予測画像 (クラス分類適応処理用学習部 3 5 2 1により生成された予測係数を用いて、 第 1の教師画像を予測した画像) のそれぞれを入力する。
次に、 クラス分類適応処理補正用学習部 3 5 6 1は、 第 2の教師画像として、 第 1の教師画像と学習用予測画像の差分画像を生成するとともに、 第 2の生徒画 像として、 第 1の生徒画像から特徴量画像を生成する。
そして、 クラス分類適応処理補正用学習部 3 5 6 1は、 クラス分類適応処理に より第 2の生徒画像 (S D画像) から第 2の教師画像 (H D画像) を適切に予測 することが可能な予測係数を生成し、 それを補正係数としてクラス分類適応処理 補正部 3 5 0 2の補正係数メモリ 3 5 5 4に記憶させる。 これにより、 学習処理 は終了となる。 なお、 以下、 このようなクラス分類適応処理補正用学習部 3 5 6 1が実行する ステップ S 3 5 6 2の処理を、 「クラス分類適応処理補正用学習処理」 と称する。 この例の 「クラス分類適応処理補正用学習処理」 の詳細については、 図 2 9 0の フローチャートを参照して後述する。
次に、 図面を参照して、 この例における 「クラス分類適応処理用学習処理 (ス テツプ S 3 5 6 1の処理) 」 、 および、 「クラス分類適応処理補正用学習処理
(ステップ S 3 5 6 2の処理) 」 のそれぞれの詳細について、 その順番で個別に 説明する。
はじめに、 図 2 8 9のフローチャートを参照して、 クラス分類適応処理用学習 部 3 5 2 1 (図 2 6 9 ) が実行する 「クラス分類適応処理用学習処理」 の詳細に ついて説明する。
ステップ S 3 5 8 1において、 ダウンコンバート部 3 5 3 1と正規方程式生成 部 3 5 3 6のそれぞれは、 供給された所定の画像を、 第 1の教師画像 (H D画 像) として入力する。 なお、 第 1の教師画像は、 上述したように、 クラス分類適 応処理補正用学習部 3 5 6 1にも入力される。
ステップ S 3 5 8 2において、 ダウンコンバート部 3 5 3 1は、 入力された第 1の教師画像をダウンコンバートして (解像度を落として) 第 1の生徒画像 (S D画像) を生成し、 領域抽出部 3 5 3 2と領域抽出部 3 5 3 5のそれぞれに供給 するとともに、 クラス分類適応処理補正用学習部 3 5 6 1にも出力する。
ステップ S 3 5 8 3において、 領域抽出部 3 5 3 2は、 供給された第 1の生徒 画像からクラスタップを抽出してパターン検出部 3 5 3 3に出力する。 なお、 ス テツプ S 3 5 8 3の処理は、 ブロックに入力される情報と、 ブロックから出力さ れる情報は厳密には違う情報であるが (以下、 このような違いを、 単に、 入出力 の違いと称する) 、 上述したステップ S 3 5 2 2 (図 2 8 3 ) の処理と基本的に 同様の処理である。
ステップ S 3 5 8 4において、 パターン検出部 3 5 3 3は、 供給されたクラス タップよりクラスコードを決定するためのパターンを検出し、 クラスコード決定 部 3 5 3 4に供給する。 なお、 ステップ S 3 5 84の処理は、 入出力の違いはあ るが、 上述したステップ S 3 5 2 3 (図 2 8 3) の処理と基本的に同様の処理で ある。
ステップ S 3 5 8 5において、 クラスコード決定部 3 5 34は、 供給されたク ラスタップのパターンに基づいてクラスコードを決定し、 領域抽出部 3 5 3 5と 正規方程式生成部 3 5 3 6のそれぞれに供給する。 なお、 ステップ S 3 5 8 5の 処理は、 入出力の違いはあるが、 上述したステップ S 3 5 24 (図 2 8 3) の処 理と基本的に同様の処理である。
ステップ S 3 5 8 6において、 領域抽出部 3 5 3 5は、 供給されたクラスコー ドに対応して、 第 1の生徒画像の中から予測タップを抽出し、 正規方程式生成部 3 5 3 6と予測演算部 3 5 3 8のそれぞれに供給する。 なお、 ステップ S 3 5 8 6の処理は、 入出力の違いはあるが、 上述したステップ S 3 5 2 6 (図 2 8 3) の処理と基本的に同様の処理である。
ステップ S 3 5 8 7において、 正規方程式生成部 3 5 3 6は、 領域抽出部 3 5 3 5より供給された予測タップ (SD画素) 、 および、 第 1の教師画像 (HD画 像) を構成する HD画素のうちの所定の HD画素から、 上述した式 (2 1 7) (即ち、 式 (2 2 1 ) ) で示される正規方程式を生成し、 クラスコード決定部 3 5 3 4より供給されたクラスコードとともに係数決定部 3 5 3 7に供給する。 ステップ S 3 5 8 8において、 係数決定部 3 5 3 7は、 供給された正規方程式 を解いて予測係数を決定し、 即ち、 上述した式 (2 2 2) の右辺を演算すること で予測係数を算出し、 供給されたクラスコードに対応付けて係数メモリ 3 5 1 4 に記憶させるとともに、 予測演算部 3 5 3 8に供給する。
ステップ S 3 5 8 9において、 予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5よ り供給された予測タップを、 係数決定部 3 5 3 7より供給された予測係数を用い て演算し、 学習用予測画像 (HD画素) を生成する。
具体的には、 予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5より供給された予測 タップのそれぞれを (i は、 1乃至 nのうちのいずれかの整数) とし、 かつ、 P T/JP2004/001488
382
係数決定部 3 5 3 7より供給された予測係数のそれぞれを として、 上述した 式 (2 1 5) の右辺を演算することにより、 第 1の教師画像の所定の HD画素 q を予測した HD画素 を算出し、 た HD画素 q'を学習用予測画像の 1つの画素 とする。
ステップ S 3 5 9 0において、 全ての画素について処理が施されたか否かが判 定され、 全ての画素について処理が施されていないと判定された場合、 その処理 は、 ステップ S 3 5 8 3に戻る。 即ち、 全ての画素の処理が終了されるまで、 ス テツプ S 3 5 8 3乃至 S 3 5 9 0の処理が繰り返される。
そして、 ステップ S 3 5 9 0において、 全ての画素について処理が施されたと 判定された場合、 ステップ S 3 5 9 1において、 予測演算部 3 5 3 8は、 学習予 測画像 (ステップ S 3 5 8 9の処理毎に生成された各 HD画素 q'から構成され る HD画像) を、 クラス分類適応処理補正用学習部 3 5 6 1に出力する。 これに より、 クラス分類適応処理用学習処理は終了となる。
このように、 この例においては、 全ての画素の処理が終了された後、 第 1の教 師画像を予測した H D画像である学習用予測画像がクラス分類適応処理補正用学 習部 3 5 6 1に出力される。 即ち、 全ての HD画素 (予測画素) がー括して出力 される。
しかしながら、 全ての画素が一括して出力されることは必須ではなく、 ステツ プ S 3 5 8 9の処理で HD画素 (予測画素) が生成される毎に、 クラス分類適応 処理捕正用学習部 3 5 6 1に出力されてもよい。 この場合、 ステップ S 3 5 9 1 の処理は省略される。
次に、 図 2 9 0のフローチャートを参照して、 クラス分類適応処理補正用学習 部 3 5 6 1 (図 2 7 7) が実行する 「クラス分類適応処理補正用学習処理」 の詳 細について説明する。
クラス分類適応処理用学習部 3 5 2 1より第 1の教師画像 (HD画像) と学習 用予測画像 (HD画像) が入力されると、 ステップ S 3 6 0 1において、 加算部 3 5 7 1は、 第 1の教師画像から学習用予測画像を減算し、 差分画像 (HD画 像) を生成し、 それを第 2の教師画像として正規方程式生成部 3 5 7 8に供給す る。
また、 クラス分類適応処理用学習部 3 5 2 1より第 1の生徒画像 (S D画像) が入力されると、 ステップ S 3 6 0 2において、 データ定常性検出部 3 5 7 2と 実世界推定部 3 5 7 3は、 入力された第 1の生徒画像 (S D画像) から特徴量画 像を生成し、 それを第 2の生徒画像として領域抽出部 3 5 7 4と領域抽出部 3 5 7 7のそれぞれに供給する。
即ち、 データ定常性検出部 3 5 7 2は、 第 1の生徒画像に含まれるデータの定 常性を検出し、 その検出結果 (いまの場合、 角度) をデータ定常性情報として実 世界推定部 3 5 7 3に出力する。 なお、 ステップ S 3 6 0 2のデータ定常性検出 部 3 5 7 2の処理は、 入出力の違いはあるが、 上述した図 4 0のステップ S 1 0 1の処理と基本的に同様の処理である。
実世界推定部 3 5 7 3は、 入力した角度 (データ定常性情報) に基づいて、 実 世界推定情報 (いまの場合、 S D画像である特徴量画像) を生成し、 それを第 2 の生徒画像として領域抽出部 3 5 7 4と領域抽出部 3 5 7 7のそれぞれに供給す る。 なお、 ステップ S 3 6 0 2の実世界推定部 3 5 7 3の処理は、 入出力の違い はあるが、 上述した図 4 0のステップ S 1 0 2の処理と基本的に同様の処理であ る。
また、 ステップ S 3 6 0 1と S 3 6 0 2の処理の順番は、 図 2 9 0の例に限定 されない。 即ち、 ステップ S 3 6 0 2の処理が先に実行されてもよいし、 ステツ プ S 3 6 0 1と S 3 6 0 2の処理が同時に実行されてもよい。
ステップ S 3 6 0 3において、 領域抽出部 3 5 7 4は、 供給された第 2の生徒 画像 (特徴量画像) からクラスタップを抽出してパターン検出部 3 5 7 5に出力 する。 なお、 ステップ S 3 6 0 3の処理は、 入出力の違いはあるが、 上述したス テツプ S 3 5 4 2 (図 2 8 4 ) の処理と基本的に同様の処理である。 即ち、 いま の場合、 図 2 8 5で示される配置の画素群 3 6 2 1がクラスタップとして抽出さ れる。 ステップ S 3 6 0 4において、 パターン検出部 3 5 7 5は、 供給されたクラス タップょりクラスコードを決定するためのパターンを検出し、 クラスコード決定 部 3 5 7 6に供給する。 なお、 ステップ S 3 6 0 4の処理は、 入出力の違いはあ るが、 上述したステップ S 3 5 4 3 (図 2 8 4 ) の処理と基本的に同様の処理で ある。 即ち、 いまの場合、 学習処理が終了されるときには、 少なくとも 2 7 3個 のパターンが検出されることになる。
ステップ S 3 6 0 5において、 クラスコード決定部 3 5 7 6は、 供給されたク ラスタップのパターンに基づいてクラスコードを決定し、 領域抽出部 3 5 7 7と 正規方程式生成部 3 5 7 8のそれぞれに供給する。 なお、 ステップ S 3 6 0 5の 処理は、 入出力の違いはあるが、 上述したステップ S 3 5 4 4 (図 2 8 4 ) の処 理と基本的に同様の処理である。 即ち、 いまの場合、 学習処理が終了されるとき には、 少なくとも 2 7 3個のクラスコードが決定されることになる。
ステップ S 3 6 0 6において、 領域抽出部 3 5 7 7は、 供給されたクラスコー ドに対応して、 第 2の生徒画像 (特徴量画像) の中から予測タップを抽出し、 正 規方程式生成部 3 5 7 8に供給する。 なお、 ステップ S 3 6 0 6の処理は、 入出 力の違いはあるが、 上述したステップ S 3 5 4 6 (図 2 8 4 ) の処理と基本的に 同様の処理である。 即ち、 いまの場合、 図 2 8 7で示される配置の画素群 3 6 4 1が予測タップとして抽出される。
ステップ S 3 6 0 7において、 正規方程式生成部 3 5 7 8は、 領域抽出部 3 5 7 7より供給された予測タップ (S D画素) 、 および、 第 2の教師画像 (H D画 像である、 第 1の教師画像と学習用予測画像の差分画像) を構成する H D画素の うちの所定の H D画素から、 上述した式 (2 2 6 ) (即ち、 式 (2 3 0 ) ) で示 される正規方程式を生成し、 クラスコード決定部 3 5 7 6より供給されたクラス コードとともに補正係数決定部 3 5 7 9に供給する。
ステップ S 3 6 0 8において、 補正係数決定部 3 5 7 9は、 供給された正規方 程式を解いて補正係数を決定し、 即ち、 上述した式 (2 3 1 ) の右辺を演算する ことで補正係数を算出し、 供給されたクラスコードに対応付けて補正係数メモリ 3 5 5 4に記憶させる。
ステップ S 3 6 0 9において、 全ての画素について処理が施されたか否かが判 定され、 全ての画素について処理が施されていないと判定された場合、 その処理 は、 ステップ S 3 6 0 3に戻る。 即ち、 全ての画素の処理が終了されるまで、 ス テツプ S 3 6 0 3乃至 S 3 6 0 9の処理が繰り返される。
そして、 ステップ S 3 6 0 9において、 全ての画素について処理が施されたと 判定された場合、 クラス分類適応処理補正用学習処理は終了となる。
以上、 説明したように、 クラス分類適応補正処理手法においては、 クラス分類 適応処理部 3 5 0 1より出力された予測画像に対して、 クラス分類適応処理補正 部 3 5 0 2より出力された補正画像 (差分予測画像) が加算されて出力される。 例えば、 上述した図 2 7 0で示される H D画像 3 5 4 1の解像度を落とした画 像である S D画像 3 5 4 2が入力画像とされた場合、 クラス分類適応処理部 3 5 0 1からは、 図 2 9 1で示される予測画像 3 5 4 3が出力される。 そして、 この 予測画像 3 5 4 3に、 クラス分類適応処理補正部 3 5 0 2より出力された補正画 像 (図示せず) が加算されると (補正画像により補正されると) 、 図 2 7 1で示 される出力画像 3 6 5 1となる。
出力画像 3 6 5 1、 予測画像 3 5 4 3、 および、 元の画像である H D画像 3 5 4 1 (図 2 7 0 ) のそれぞれを比較するに、 出力画像 3 6 5 1は、 予測画像 3 5
4 3よりも H D画像 3 5 4 1により近い画像になっていることがわかる。
このように、 クラス分類適応処理補正手法においては、 クラス分類適応処理を 含む従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1 の信号) により近い画像の出力が可能になる。
換言すると、 クラス分類適応処理補正手法においては、 例えば、 図 2 6 6のデ ータ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサ (例えば、 図 2 6 6のセンサ 2 ) の複数の検出素子により図 2 6 6の実世界 1の光信号が射 影され、 現実世界の光信号の定常性の一部が欠落した、 検出素子により射影され た画素値を有する複数の画素からなる入力画像 (図 2 6 6 ) におけるデータの定 常性を検出する。
例えば、 図 266の実世界推定部 1 02は、 検出されたデータの定常性に対応 して、 実世界 1の光信号を表す光信号関数 F ( X ) (図 27 5) が有する実世界 特徴 (例えば、 図 266の特徴量画像を構成する画素に対応する特徴量) を検出 することで、 実世界 1の光信号を推定する。
詳細には、 例えば、 実世界推定部 1 02は、 出されたデータの定常性に対応す る線 (例えば、 図 280の線 3604) からの少なくとも 1次元方向に沿った距 離 (例えば、 図 280の断面方向距離 Χη') に対応する画素の画素値が、 少なく とも 1次元方向の積分効果により取得された画素値であるとして、 光信号関数 F ( X ) を、 例えば、 図 278の近似関数 f5 ( X ) で近似し、 所定画素 (例えば、 図 280の画素 3603) 内における近似関数 f5 (x) の傾斜である画素内傾 斜 (例えば、 上述した式 (234) の gradであり、 式 (23 3) の xの係数 w 1 ') を、 実世界特徴として検出することで、 実世界 1の光信号を推定する。 そして、 例えば、 図 266の画像生成部 103が、 実世界推定手段により検出 された実世界特徴に基いて、 入力画像よりも高質な出力画像 (図 266) を予測 し生成する。
詳細には、 例えば、 画像生成部 10 3において、 例えば、 図 26 6のクラス分 類適応処理部 350 1が、 出力画像における注目画素の周辺に位置する、 実世界 1の光信号の定常性が欠落した入力画像内の複数の画素の画素値から注目画素の 画素値 (例えば、 図 266の予測画像の画素であり、 上述した式 (224) の q ) を予測する。
一方、 例えば、 図 26 6のクラス分類適応処理補正部 3 502は、 例えば、 図 266の実世界推定部 1 02より供給された特徴量画像 (実世界推定情報) から、 クラス分類適応処理部 3 50 1により予測された予測画像の注目画素の画素値を 補正する補正項 (例えば、 図 266の補正画像 (差分予測画像) の画素であり、 式 (224) の u ') を予測する。
そして、 例えば、 図 266の加算部 3 503は、 クラス分類適応処理部 3 50 1により予測された予測画像の注目画素の画素値を、 クラス分類適応処理部 3 5 0 1により予測された補正項で補正する (例えば、 式 (2 2 4 ) のように演算す る) 。
また、 クラス分類適応処理捕正手法においては、 例えば、 図 2 6 7の係数メモ リ 3 5 1 4に記憶される予測係数を学習により決定する図 2 6 8のクラス分類適 応処理学習部 3 5 2 1と、 例えば、 図 2 7 6の補正係数メモリ 3 5 5 4に記憶さ れる補正係数を学習により決定する図 2 6 8のクラス分類適応処理補正用学習部 3 5 6 1を有する図 2 6 8の学習装置 3 5 0 4が設けられている。
詳細には、 例えば、 図 2 6 9のクラス分類適応処理学習部 3 5 2 1には、 学習 用画像データをダウンコンバートするダウンコンバート部 3 5 3 1、 並びに、 学 習用画像データを第 1の教師画像とし、 ダウンコンバート部 3 5 3 1によりダウ ンコンバートされた学習用画像データを第 1の生徒画像とし、 第 1の教師画像と 第 1の生徒画像の関係を学習することにより、 予測係数を生成する係数決定部 3 5 3 7、 および、 領域抽出部 3 5 3 2乃至正規方程式生成部 3 5 3 6が設けられ ている。
クラス分類適応処理学習部 3 5 2 1にはさらに、 例えば、 係数決定部 3 5 3 7 により生成 (決定) された予測係数を使用して、 第 1の生徒画像から第 1の教師 画像を予測する画像データとして、 学習用予測画像を生成する予測演算部 3 5 3 8が設けられている。
また、 例えば、 図 2 7 7のクラス分類適応処理補正用学習部 3 5 6 1には、 第 1の生徒画像におけるデータの定常性を検出し、 検出したデータの定常性に基づ いて、 第 1の生徒画像を構成する各画素のそれぞれに対応する実世界特徴を検出 し、 検出した実世界特徴に対応する値を画素値とする特徴量画像 (具体的には、 例えば、 図 2 7 9の特徴量画像 3 5 9 1 ) を、 第 2の生徒画像 (例えば、 図 2 7 7の第 2の生徒画像) として生成するデータ定常性検出部 3 5 7 2および実世界 推定部 3 5 7 3、 第 1の教師画像と、 学習用予測画像の差分からなる画像データ (差分画像) を、 第 2教師画像として生成する加算部 3 5 7 1、 並びに、 第 2の 教師画像と、 第 2の生徒画像の関係を学習することにより、 補正係数を生成する 補正係数決定部 3 5 7 9、 および領域抽出部 3 5 7 4乃至正規方程式生成部 3 5 7 8が設けられている。
従って、 クラス分類適応処理捕正手法においては、 クラス分類適応処理を含む 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の信 号) により近い画像の出力が可能になる。
なお、 クラス分類適応処理は、 上述したように、 S D画像には含まれていない 力 H D画像に含まれる成分が再現される点で、 例えば、 単なる補間処理とは異 なる。 即ち、 上述した式 (2 1 5 ) や式 (2 2 3 ) だけを見る限りは、 いわゆる 補間フィルタを用いての補間処理と同一に見えるが、 クラス分類適応処理では、 その補間フィルタの係数に相当する予測係数 または補足係数 gi が、 教師デー タと生徒データ (第 1の教師画像と第 1の生徒画像、 または、 第 2の教師画像と 第 2の生徒画像) を用いての学習により求められるため、 H D画像に含まれる成 分を再現することができる。 このことから、 上述したようなクラス分類適応処理 は、 いわば画像の創造 (解像度創造) 作用がある処理と称することができる。 さらに、 上述した例では、 空間解像度を向上させる場合を例にして説明したが、 クラス分類適応処理によれば、 教師データおよび生徒データを変えて学習を行う ことにより得られる種々の係数を用いることで、 例えば、 S /N (Si gnal to Noise Rat io) の向上や、 ぼけの改善、 その他の各種の処理を行うことが可能で ある。
即ち、 例えば、 S ZNの向上やぼけの改善を、 クラス分類適応処理によって行 うには、 S ZNの高い画像データを教師データとするとともに、 その教師データ の S ZNを低下させた画像 (あるいは、 ぼかした画像) を生徒データとして、 係 数を求めればよい。
以上、 本発明の実施の形態として、 図 3の構成の信号処理装置について説明し たが、 本発明の実施の形態は、 図 3の例に限定されず、 様々な形態を取ることが 可能である。 即ち、 図 1の信号処理装置 4の実施の形態は、 図 3の例に限定され ず、 様々な形態を取ることが可能である。
例えば、 図 3の構成の信号処理装置は、 画像である、 実世界 1の信号が有する 定常性に基づいて信号処理を行う。 このため、 図 3の構成の信号処理装置は、 実 世界 1の信号のうちの定常性が存在する部分に対しては、 他の信号処理装置の信 号処理に比べて、 精度のよい信号処理を実行することができ、 その結果、 より実 世界 1の信号に近い画像データを出力することが可能になる。
しかしながら、 図 3の構成の信号処理装置は、 定常性に基づいて信号処理を実 行する以上、 実世界 1の信号のうちの明確な定常性が存在しない部分に対しては、 定常性が存在する部分に対する処理と同等の精度で、 信号処理を実行することが できず、 その結果、 実世界 1の信号に対して誤差を含む画像データを出力するこ とになる。
そこで、 図 3の構成の信号処理装置に対してさらに、 定常性を利用しない他の 信号処理を行う装置 (または、 プログラム等) を付加することができる。 この場 合、 実世界 1の信号のうちの定常性が存在する部分については、 図 3の構成の信 号処理装置が信号処理を実行し、 実世界 1の信号のうちの明確な定常性が存在し ない部分については、 付加した他の装置 (または、 プログラム等) が信号処理を 実行することになる。 なお、 以下、 このような実施形態を併用手法と称する。 以下、 図 2 9 2乃至図 3 0 5を参照して、 具体的な 5つの併用手法 (以下、 そ れぞれの併用手法を、 第 1乃至第 5の併用手法と称する) について説明する。 なお、 各併用手法が適用される信号処理装置の各機能をハードウェアで実現す る力 \ ソフトウェアで実現するかは問わない。 つまり、 後述する図 2 9 2乃至図 2 9 4、 図 2 9 8、 図 3 0 0、 図 3 0 2、 およぴ図 3 0 4のそれぞれのプロック 図は、 ハードウェアのブロック図と考えても、 ソフトウェアによる機能ブロック 図と考えても良い。
図 2 9 2は、 第 1の併用手法が適用される信号処理装置の構成例を表している。 図 2 9 2の信号処理装置においては、 データ 3 (図 1 ) の一例である画像デー タが入力され、 入力された画像データ (入力画像) に基づいて、 後述する画像処 理が施されて画像が生成され、 生成された画像 (出力画像) が出力される。 即ち、 図 2 9 2は、 画像処理装置である信号処理装置 4 (図 1 ) の構成を示す図である。 信号処理装置 4に入力された入力画像 (データ 3の一例である画像データ) は、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および画像生成部 4 1 0 4のそれぞれに供給される。
データ定常性検出部 4 1 0 1は、 入力画像からデータの定常性を検出して、 検 出した定常性を示すデータ定常性情報を実世界推定部 4 1 0 2および画像生成部 4 1 0 3に供給する。
このように、 データ定常性検出部 4 1 0 1は、 図 3のデータ定常性検出部 1 0 1と基本的に同様の構成と機能を有するものである。 従って、 データ定常性検出 部 4 1 0 1は、 上述した様々な実施の形態を取ることが可能である。
ただし、 データ定常性検出部 4 1 0 1はさらに、 注目画素の領域を特定するた めの情報 (以下、 領域特定情報と称する) を生成し、 領域検出部 4 1 1 1に供給 する。
この領域特定情報は、 特に限定されず、 データ定常性情報が生成された後に新 たに生成された情報でもよいし、 データ定常性情報が生成される場合に付帯して 生成される情報でもよい。
具体的には、 例えば、 領域特定情報として、 推定誤差が使用可能である。 即ち、 例えば、 データ定常性検出部 4 1 0 1が、 データ定常性情報として角度を算出し、 かつ、 その角度を最小自乗法により演算する場合、 最小自乗法の演算で推定誤差 が付帯的に算出される。 この推定誤差が、 領域特定情報として使用可能である。 実世界推定部 4 1 0 2は、 入力画像、 およびデータ定常性検出部 4 1 0 1から 供給されたデータ定常性情報に基づいて、 実世界 1 (図 1 ) の信号を推定する。 即ち、 実世界推定部 4 1 0 2は、 入力画像が取得されたときセンサ 2 (図 1 ) に 入射された、 実世界 1の信号である画像を推定する。 実世界推定部 4 1 0 2は、 実世界 1の信号の推定の結果を示す実世界推定情報を画像生成部 4 1 0 3に供給 する。 このように、 実世界推定部 4 1 0 2は、 図 3の実世界推定部 1 0 2と基本的に 同様の構成と機能を有するものである。 従って、 実世界推定部 4 1 0 2は、 上述 した様々な実施の形態を取ることが可能である。
画像生成部 4 1 0 3は、 実世界推定部 4 1 0 2から供給された、 推定された実 世界 1の信号を示す実世界推定情報に基づいて、 実世界 1の信号により近似した 信号を生成して、 生成した信号をセレクタ 4 1 1 2に供給する。 または、 画像生 成部 4 1 0 3は、 データ定常性検出部 4 1 0 1から供給されたデータ定常性情報、 および実世界推定部 4 1 0 2から供給された、 推定された実世界 1の信号を示す 実世界推定情報に基づいて、 実世界 1の信号により近似した信号を生成して、 生 成した信号をセレクタ 4 1 1 2に供給する。
即ち、 画像生成部 4 1 0 3は、 実世界推定情報に基づいて、 実世界 1の画像に より近似した画像を生成し、 セレクタ 4 1 1 2に供給する。 または、 画像生成部 4 1 0 3は、 データ定常性情報、 および実世界推定情報に基づいて、 実世界 1の 画像により近似した画像を生成し、 セレクタ 4 1 1 2に供給する。
このように、 画像生成部 4 1 0 3は、 図 3の画像生成部 1 0 3と基本的に同様 の構成と機能を有するものである。 従って、 画像生成部 4 1 0 3は、 上述した 様々な実施の形態を取ることが可能である。
画像生成部 4 1 0 4は、 入力画像に対して所定の画像処理を施して、 画像を生 成し、 セレクタ 4 1 1 2に供給する。
なお、 画像生成部 4 1 0 4が実行する画像処理は、 データ定常性検出部 4 1 0 1 , 実世界推定部 4 1 0 2、 および画像生成部 4 1 0 3が実行する画像処理とは 異なる画像処理であれば、 特に限定されない。
例えば、 画像生成部 4 1 0 4は、 従来のクラス分類適応処理を行うことができ る。 このクラス分類適応処理を実行する画像生成部 4 1 0 4の構成例が、 図 2 9 3に示されている。 なお、 図 2 9 3の説明、 即ち、 クラス分類適応処理を実行す る画像生成部 4 1 0 4の詳細の説明については後述する。 また、 クラス分類適応 処理についても、 図 2 9 3の説明をするときに併せて説明する。 定常領域検出部 4 1 0 5には、 領域検出部 4 1 1 1、 およびセレクタ 4 1 1 2 が設けられている。
領域検出部 4 1 1 1は、 データ定常性検出部 4 1 0 1より供給された領域特定 情報に基づいて、 セレクタ 4 1 1 2に供給された画像 (注目画素) 、 定常領域 である力 \ 或いは非定常領域であるかを検出し、 その検出結果をセレクタ 4 1 1 2に供給する。
なお、 領域検出部 4 1 1 1が実行する領域検出の処理は、 特に限定されず、 例 えば、 上述した推定誤差が領域特定情報として供給される場合、 領域検出部 4 1 1 1は、 供給された推定誤差が所定の閾値よりも小さいとき、 入力画像の注目画 素は定常領域であると検出し、 一方、 供給された推定誤差が所定の閾値以上であ るとき、 入力画像の注目画素は非定常領域であると検出する。
セレクタ 4 1 1 2は、 領域検出部 4 1 1 1より供給された検出結果に基づいて、 画像生成部 4 1 0 3より供給された画像、 または、 画像生成部 4 1 0 4より供給 された画像のうちのいずれか一方を選択し、 選択した画像を出力画像として外部 に出力する。
即ち、 領域検出部 4 1 1 1により注目画素が定常領域であると検出された場合、 セレクタ 4 1 1 2は、 画像生成部 4 1 0 3より供給された画像 (入力画像の注目 画素における、 画像生成部 4 1 0 3により生成された画素) を出力画像として選 択する。
これに対して、 領域検出部 4 1 1 1により注目画素が非定常領域であると検出 された場合、 セレクタ 4 1 1 2は、 画像生成部 4 1 0 4より供給された画像 (入 力画像の注目画素における、 画像生成部 4 1 0 4により生成された画素) を出力 画像として選択する。
なお、 外部の出力先に応じて、 セレクタ 4 1 1 2は、 画素単位で、 出力画像を 出力する (選択した画素毎に出力する) こともできるし、 全ての画素の処理が終 了するまで処理済みの画素を格納しておき、 全ての画素の処理が終了したとき、 全ての画素を一括して (出力画像全体を 1単位として) 出力することもできる。 次に、 図 2 9 3を参照して、 画像処理の一例であるクラス分類適応処理を実行 する画像生成部 4 1 0 4の詳細について説明する。
図 2 9 3において、 画像生成部 4 1 0 4が実行するクラス分類適応処理は、 例 えば、 入力画像の空間解像度を向上する処理であるとする。 即ち、 標準解像度の 画像である入力画像を、 高解像度の画像である予測画像に変換する処理であると する。
なお、 以下の説明においても、 標準解像度の画像を、 適宜、 S D (Standard Definition)画像と称するとともに、 S D画像を構成する画素を、 適宜、 S D画 素と称することにする。
また、 以下の説明においても、 高解像度の画像を、 適宜、 H D (High
Definition)画像と称するとともに、 H D画像を構成する画素を、 適宜、 H D画 素と称することにする。
具体的には、 画像生成部 4 1 0 4が実行するクラス分類適応処理とは、 次のよ うなものである。
即ち、 はじめに、 入力画像 (S D画像) の注目画素 (S D画素) における、 予 測画像 (H D画像) の H D画素を求めるために、 注目画素を含めた、 その付近に 配置される S D画素 (以下の説明においても、 このような S D画素を、 クラスタ ップと称することにする) の特徴量のそれぞれを求めて、 その特徴量毎に予め分 類されたクラスを特定する (クラスタップ群のクラスコードを特定する) 。
そして、 予め設定された複数の係数群 (各係数群のそれぞれは、 所定の 1つの クラスコードに対応している) のうちの、 特定されたクラスコードに対応する係 数群を構成する各係数と、 注目画素を含めた、 その付近の S D画素 (以下の説明 においても、 このような入力画像の S D画素を、 予測タップと称することにする。 なお、 予測タップは、 クラスタップと同じこともある) とを用いて積和演算を実 行することで、 入力画像 (S D画像) の注目画素 (S D画素) における、 予測画 像 (H D画像) の H D画素を求めるものである。
より詳細には、 図 1において、 画像である、 実世界 1の信号 (光の強度の分 JP2004/001488
394
布) がセンサ 2に入射されると、 センサ 2からは入力画像が出力される。
図 293において、 この入力画像 (SD画像) は、 画像生成部 4 104のうち の領域抽出部 4 1 2 1と領域抽出部 4 1 2 5にそれぞれ供給される。 領域抽出部 41 25は、 供給された入力画像から、 クラス分類を行うために必要なクラスタ ップ (注目画素 (SD画素) を含む予め設定された位置に存在する SD画素) を 抽出し、 パターン検出部 41 22に出力する。 パターン検出部 41 22は、 入力 されたクラスタップに基づいて入力画像のパターンを検出する。
クラスコード決定部 4 1 2 3は、 パターン検出部 4 1 22で検出されたパター ンに基づいてクラスコードを決定し、 係数メモリ 4 1 24、 および、 領域抽出部 412 5に出力する。 係数メモリ 41 24は、 学習により予め求められたクラス コード毎の係数を記憶しており、 クラスコード決定部 4 1 23より入力されたク ラスコードに対応する係数を読み出し、 予測演算部 4 1 26に出力する。
なお、 係数メモリ 41 24の係数の学習処理については、 図 294の学習装置 のプロック図を参照して後述する。
また、 係数メモリ 41 24に記憶される係数は、 後述するように、 予測画像
(HD画像) を生成するときに使用される係数である。 従って、 以下、 係数メモ リ 41 24に記憶される係数を予測係数と称する。
領域抽出部 4 1 2 5は、 クラスコード決定部 4 1 2 3よ.り入力されたクラスコ ードに基づいて、 センサ 2より入力された入力画像 (SD画像) から、 予測画像 (HD画像) を予測生成するのに必要な予測タップ (注目画素を含む予め設定さ れた位置に存在する SD画素) をクラスコードに対応して抽出し、 予測演算部 4 1 26に出力する。
予測演算部 4 1 26は、 領域抽出部 41 25より入力された予測タップと、 係 数メモリ 4 1 24より入力された予測係数とを用いて積和演算を実行し、 入力画 像 (SD画像) の注目画素 (SD画素) における、 予測画像 (HD画像) の HD 画素を生成し、 セレクタ 41 1 2に出力する。
より詳細には、 係数メモリ 41 24は、 クラスコード決定部 41 23より供給 されるクラスコードに対応する予測係数を、 予測演算部 4 1 26に出力する。 予 測演算部 4 1 26は、 領域抽出部 41 25より供給される入力画像の所定の画素 位置の画素値から抽出された予測タップと、 係数メモリ 4 1 24より供給された 予測係数とを用いて、 次の式 (2 3 7) で示される積和演算を実行することによ り、 予測画像 (HD画像) の HD画素を求める (予測推定する) 。
Figure imgf000397_0001
• · · (23 7) 式 (23 7) において、 q'は、 予測画像 (HD画像) の HD画素を表してい る。 Ci (iは、 1乃至 nの整数値) のそれぞれは、 予測タップ (SD画素) のそ れぞれを表している。 また、 d i のそれぞれは、 予測係数のそれぞれを表してい る。
このように、 画像生成部 4 104は、 SD画像 (入力画像) から、 それに対す る HD画像を予測推定するので、 ここでは、 画像生成部 4 1◦ 4から出力される
HD画像を、 予測画像と称している。
図 294は、 このような画像生成部 41 04の係数メモリ 4 1 24に記憶され る予測係数 (式 (237) における d J を決定するための学習装置 (予測係数 の算出装置) を表している。
図 294において、 所定の画像が、 教師画像 (HD画像) としてダウンコンパ ート部 4 141と正規方程式生成部 4 146のそれぞれに入力される。
ダウンコンバート部 4 146は、 入力された教師画像 (HD画像) から、 教師 画像よりも解像度の低い生徒画像 (SD画像) を生成し (教師画像をダウンコン バートしたものを生徒画.像とし) 、 領域抽出部 4 142と領域抽出部 4 145の それぞれに出力する。
このように、 学習装置 41 3 1には、 ダウンコンパ一ト部 4 14 1が設けられ ているので、 教師画像 (HD画像) は、 センサ 2 (図 1) からの入力画像よりも 高解像度の画像である必要は無い。 なぜならば、 教師画像がダウンコンバートさ れた (解像度が下げられた) 生徒画像を SD画像とすれば、 生徒画像に対する教 師画像が HD画像になるからである。 従って、 教師画像は、 例えば、 センサ 2か らの入力画像そのものとされてもよい。
領域抽出部 4 1 4 2は、 ダウンコンバート部 4 1 4 1より供給された生徒画像 (SD画像) から、 クラス分類を行うために必要なクラスタップ (SD画素) を 抽出し、 パターン検出部 4 1 4 3に出力する。 パターン検出部 4 1 4 3は、 入力 されたクラスタップのパターンを検出し、 その検出結果をクラスコード決定部 4 1 44に出力する。 クラスコード決定部 4 1 44は、 入力されたパターンに対応 するクラスコードを決定し、 そのクラスコードを領域抽出部 4 1 4 5、 および、 正規方程式生成部 4 1 4 6のそれぞれに出力する。
領域抽出部 4 1 4 5は、 クラスコード決定部 4 1 44より入力されたクラスコ ードに基づいて、 ダウンコンバート部 4 1 4 1より入力された生徒画像 (SD画 像) から予測タップ (SD画素) を抽出し、 正規方程式生成部 4 1 4 6に出力す る。
なお、 以上の領域抽出部 4 1 4 2、 パターン検出部 4 1 4 3、 クラスコード決 定部 4 1 44、 および領域抽出部 4 1 4 5のそれぞれは、 図 2 9 3の画像生成部 4 1 04の領域抽出部 4 1 2 1、 パターン検出部 4 1 2 2、 クラスコード決定部 4 1 2 3、 および、 領域抽出部 4 1 2 5のそれぞれと、 基本的に同様の構成と機 能を有するものである。
正規方程式生成部 4 1 4 6は、 クラスコード決定部 4 1 44より入力された全 てのクラスコードに対して、 クラスコード毎に、 領域抽出部 4 1 4 5より入力さ れる生徒画像 (SD画像) の予測タップ (SD画素) と、 教師画像 (HD画像) の HD画素とから正規方程式を生成し、 係数決定部 4 1 4 7に供給する。
係数決定部 4 1 4 7は、 正規方程式生成部 4 1 46より所定のクラスコードに 対応する正規方程式が供給されてきたとき、 その正規方程式より予測係数のそれ ぞれを演算し、 係数メモリ 4 1 2 4にクラスコードと関連付けて記憶させる。 正規方程式生成部 4 1 4 6と、 係数決定部 4 1 4 7についてさらに詳しく説明 する,
上述した式 (23 7) において、 学習前は予測係数 のそれぞれが未定係数 である。 学習は、 クラスコード毎に複数の教師画像 (HD画像) の HD画素を入 力することによって行う。 所定のクラスコードに対応する HD画素が m個存在し、 m個の HD画素のそれぞれを、 qk (kは、 1乃至 mの整数値) と記述する場合、 式 (2 3 7) から、 次の式 (23 8) が設定される。
¾ = Λ di cik+ek
i=0
o • · · (238) 即ち、 式 (238) は、 右辺の演算をすることで、 所定の HD画素 ¾ を予測
o
推定することができることを表している。 なお、 式 (23 8) において、 ek は、 誤差を表している。 即ち、 右辺の演算結果である予測画像 (HD画像) の HD画 素 qk'が、 実際の HD画素 ¾ と厳密には一致せず、 所定の誤差 ekを含む。
そこで、 式 (23 8) において、 誤差 の自乗和を最小にす O る予測係数 が 学習により求まれば、 その予測係数 は、 実際の HD画素 ¾ を予測するのに最 適な係数であると言える。
従って、 例えば、 学習により集められた m個 (ただし、 mは、 nより大きい整 数) の HD画素 ¾を用いて、 最小自乗法により最適な予測係数 を一意に決定 することができる。
即ち、 式 (2 38) の右辺の予測係数 を最小自乗法で求める場合の正規方 程式は、 次の式 (239) で表される。
m m
c1kxc1k ∑ c1kx c2k "
k=1 k=1 k=1 k=1
m m m m
c2kXc1k ∑ c2k X c2k . . L G2kXGnk d2c2k X
k=1 k=1 k=1 k=1
• * * * * *
• * ' « • *
• * • « * •
m m m
Gnkxc1k ∑ cnk x G2k . '. ∑ cnkxcnkcnk ¾
k=1 k=1 k=1 一 _k=1 • · · (2 3 9) 従って、 式 (2 3 9) で示される正規方程式が生成されれば、 その正規方程式 を解くことで予測係数 がー意に決定されることになる。
具体的には、 式 (2 3 9) で示される正規方程式の各行列のそれぞれを、 次の 式 (2 40) 乃至 (24 2) のように定義すると、 正規方程式は、 次の式 (24
3) のように表される。
m m m
∑ c1kxc1k ∑ c1k c2k ·'· ∑ c1k cnk
k=1 k=1 k=1
m m m
∑ c2kxc1k ∑ c2k c2k ··· ∑ c2kxcnk
C, MAT k=1 k=1 k=1
cnkx c1k ∑ cnkx c2k … ∑ cnk x cnk
k=1 k=1 k=l
(24 0) di d2
DMAT =
(24 1) c1kxqk
k=1
m
∑ c2k x qk
k=1
cnk x Clk
k=1
(24 2) CMAT¾AT = ¾AT
■ · · ( 2 4 3) 式 (24 1 ) で示されるように、 行列 DMATの各成分は、 求めたい予測係数 である。 従って、 式 (2 4 3) において、 左辺の行列 CMAT と右辺の 行列 QMATが決定されれば、 行列解法によって行列 DMA T (即ち、 予測係数 ) の算出が可能である。
より具体的には、 式 (2 4 0) で示されるように、 行列 CMATの各成分は、 予 測タップ ci kが既知であれば演算可能である。 予測タップ ci kは、 領域抽出部 4 1 4 5により抽出されるので、 正規方程式生成部 4 1 4 6は、 領域抽出部 4 1 4 5より供給されてくる予測タップ ci kのそれぞれを利用して行列 CMATの各成 分を演算することができる。
また、 式 (2 4 2 ) で示されるように、 行列 QMAT の各成分は、 予測タップ cl k と HD画素 qkが既知であれば演算可能である。 予測タップ ci kは、 行列 CMAT の各成分に含まれるものと同一のものであり、 また、 HD画素 qkは、 予 測タップ ci k に含まれる注目画素 (生徒画像の S D画素) に対する教師画像の HD画素である。 従って、 正規方程式生成部 4 1 4 6は、 領域抽出部 4 1 4 5よ り供給された予測タップ ci k と、 教師画像を利用して行列 QMATの各成分を演算 することができる。
このようにして、 正規方程式生成部 4 1 4 6は、 クラスコード毎に、 行列 CMAT と行列 QMA T の各成分を演算し、 その演算結果をクラスコードに対応付け て係数決定部 4 1 4 7に供給する。
係数決定部 4 1 4 7は、 供給された所定のクラスコードに対応する正規方程式 に基づいて、 上述した式 (2 4 3) の行列 DMAT の各成分である予測係数 を 演算する。
具体的には、 上述した式 (2 4 3) の正規方程式は、 次の式 (2 44) のよう に変形できる。 JP2004/001488
400
。MAT二 ¾ΑΤ¾ΑΤ
• · · (244) 式 (244) において、 左辺の行列 DMATの各成分が、 求めたい予測係数 である。 また、 行列 CMAT と行列 QMATのそれぞれの各成分は、 正規方程式生成 部 4 1 4 6より供給されるものである。 従って、 係数決定部 4 1 4 7は、 正規方 程式生成部 4 1 4 6より所定のクラスコードに対応する行列 CMAT と行列 QMAT のそれぞれの各成分が供給されてきたとき、 式 (24 4) の右辺の行列演算を行 うことで行列 DMAT を演算し、 その演算結果 (予測係数 ) をクラスコードに 対応付けて係数メモリ 4 1 24に記憶させる。
なお、 クラス分類適応処理は、 上述したように、 SD画像には含まれていない 力 HD画像に含まれる成分が再現される点で、 例えば、 単なる補間処理とは異 なる。 即ち、 適応処理では、 上述した式 (2 3 7) だけを見る限りは、 いわゆる 補間フィルタを用いての捕間処理と同一に見えるが、 その捕間フィルタの係数に 相当する予測係数 力 教師データと生徒データを用いての学習により求めら れるため、 HD画像に含まれる成分を再現することができる。 このことから、 上 述したようなクラス分類適応処理は、 いわば画像の創造 (解像度創造) 作用があ る処理と称することができる。
さらに、 上述した例では、 空間解像度を向上させる場合を例にして説明したが、 クラス分類適応処理によれば、 教師データおよび生徒データを変えて学習を行う ことにより得られる種々の係数を用いることで、 例えば、 S/N (Signal to
Noise Ratio) の向上や、 ぼけの改善、 その他の各種の処理を行うことが可能で め 。
即ち、 例えば、 SZNの向上やぼけの改善を、 クラス分類適応処理によって行 うには、 S/Nの高い画像データを教師データとするとともに、 その教師データ の SZNを低下させた画像 (あるいは、 ぼかした画像) を生徒データとして、 係 数を求めればよい。 以上、 クラス分類適応処理を実行する画像生成部 4 1 0 4と、 その学習装置 4 1 3 1のそれぞれの構成について説明した。
なお、 上述したように、 画像生成部 4 1 0 4は、 クラス分類適応処理以外の画 像処理を実行する構成とすることも可能であるが、 説明の簡略上、 以下の説明に おいては、 画像生成部 4 1 0 4の構成は、 上述した図 2 9 3の構成とされる。 即 ち、 以下、 画像生成部 4 1 0 4は、 クラス分類適応処理を実行することで、 入力 画像より空間解像度の高い画像を生成し、 セレクタ 4 1 1 2に供給するとする。 次に、 図 2 9 5を参照して、 第 1の併用手法が適用される信号処理装置 (図 2 9 2 ) の信号の処理について説明する。
なお、 ここでは、 データ定常性検出部 4 1 0 1は、 角度 (画像である、 実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向 の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定の一辺と平行な方 向) とのなす角度) を最小自乗法により演算し、 演算した角度をデータ定常性情 報として出力するとする。
データ定常性検出部 4 1 0 1はまた、 角度を演算するときに併せて算出される 推定誤差 (最小自乗法の誤差) を、 領域特定情報として出力するとする。
図 1において、 画像である、 実世界 1の信号がセンサ 2に入射されると、 セン サ 2からは入力画像が出力される。
図 2 9 2において、 この入力画像は、 データ定常性検出部 4 1 0 1、 および実 世界推定部 4 1 0 2に入力されるとともに、 画像生成部 4 1 0 4に入力される。 そこで、 図 2 9 5のステップ S 4 1 0 1において、 画像生成部 4 1 0 4は、 入 力画像 (S D画像) の所定の S D画素を注目画素として、 上述したクラス分類適 応処理を実行し、 予測画像 (H D画像) の H D画素 (注目画素における H D画 素) を生成し、 セレクタ 4 1 1 2に供給する。
なお、 以下、 画像生成部 4 1 0 4より出力される画素と、 画像生成部 4 1 0 3 より出力される画素のそれぞれを区別する場合、 画像生成部 4 1 0 4より出力さ れる画素を第 1の画素と称し、 画像生成部 4 1 0 3より出力される画素を第 2の 画素と称する。
また、 以下、 このような画像生成部 4 1 0 4が実行する処理 (いまの場合、 ス テツプ S 4 1 0 1の処理) を、 「クラス分類適応処理の実行処理」 と称する。 こ の例の 「クラス分類適応処理の実行処理」 の詳細については、 図 2 9 6のフロー チャートを参照して後述する。
一方、 ステップ S 4 1 0 2において、 データ定常性検出部 4 1 0 1は、 定常性 の方向に対応する角度を検出するとともに、 その推定誤差を演算する。 検出され た角度は、 データ定常性情報として実世界推定部 4 1 0 2と画像生成部 4 1 0 3 のそれぞれに供給される。 また、 演算された推定誤差は、 領域特定情報として領 域検出部 4 1 1 1に供給される。
ステップ S 4 1 0 3において、 実世界推定部 4 1 0 2は、 データ定常性検出部 4 1 0 1により検出された角度と、 入力画像に基づいて、 実世界 1の信号を推定 する。
なお、 上述したように、 実世界推定部 4 1 0 2が実行する推定の処理は、 特に 限定されず、 上述した様々な手法を利用することができる。 ここでは、 例えば、 実世界推定部 4 1 0 2は、 実世界 1の信号を表す関数 F (以下の説明においても、 関数 Fを光信号関数 Fと称することにする) を、 所定の関数 f (以下の説明にお いても、 関数 f を近似関数 f と称することにする) で近似することで、 実世界 1 の信号 (光信号関数 F ) を推定するとする。
また、 ここでは、 例えば、 実世界推定部 4 1 0 2は、 近似関数 f の特徴量 (係 数) を、 実世界推定情報として画像生成部 4 1 0 3に供給するとする。
ステップ S 4 1 0 4において、 画像生成部 4 1 0 3は、 実世界推定部 4 1 0 2 により推定された実世界 1の信号に基づいて、 画像生成部 4 1 0 4のクラス分類 適応処理により生成された第 1の画素 (H D画素) に対応する第 2の画素 (H D 画素) を生成し、 セレクタ 4 1 1 2に供給する。
いまの場合、 実世界推定部 4 1 0 2より近似関数 f の特徴量 (係数) が供給さ れてくるので、 画像生成部 4 1 0 3は、 例えば、 供給された近似関数 f の特徴量 P T/JP2004/001488
403
に基づいて、 近似関数 ίを所定の積分範囲で積分することで、 第 2の画素 (HD 画素) を生成する。
ただし、 積分範囲は、 画像生成部 4 1 04より出力される第 1の画素 (HD画 素) と同一の大きさ (同一の解像度) の第 2の画素が生成可能な範囲とされる。 即ち、 空間方向においては、 積分範囲は、 これから生成される第 2の画素の画素 幅となる。
なお、 ステップ S 4 1 0 1の 「クラス分類適応処理の実行処理」 と、 ステップ S 4 1 0 2乃至 S 4 1 04の一連の処理の順番は、 図 2 9 5の例に限定されず、 ステップ S 4 1 0 2乃至 S 4 1 04の一連の処理が先に実行されても構わないし、 ステップ S 4 1 ◦ 1の 「クラス分類適応処理の実行処理」 と、 ステップ S 4 1 0 2乃至 S 4 1 04の一連の処理が同時に実行されても構わない。
ステップ S 4 1 0 5において、 領域検出部 4 1 1 1は、 ステップ S 4 1 0 2の 処理でデータ定常性検出部 4 1 0 1により演算された推定誤差 (領域特定情報) に基づいて、 ステップ S 4 1 04の処理で画像生成部 4 1 0 3により生成された 第 2の画素 (HD画素) の領域を検出する。
即ち、 第 2の画素は、 データ定常性検出部 4 1 0 1が注目画素として使用した 入力画像の SD画素における HD画素である。 従って、 注目画素 (入力画像の S D画素) と第 2の画素 (HD画素) の領域の種類 (定常領域、 または非定常領 域) は同一である。
また、 データ定常性検出部 4 1 0 1が出力する領域特定情報は、 注目画素にお ける角度が最小自乗法により算出された場合の推定誤差である。
そこで、 領域検出部 4 1 1 1は、 データ定常性検出部 4 1 0 1より供給された 注目画素 (入力画像の SD画素) に対する推定誤差と、 予め設定された閾値を比 較し、 その比較の結果が、 推定誤差が閾値よりも小さい場合、 第 2の画素は定常 領域であると検出し、 一方、 推定誤差が閾値以上である場合、 第 2の画素は非定 常領域であると検出する。 そして、 検出結果は、 セレクタ 4 1 1 2に供給される。 この領域検出部 4 1 1 1の検出結果がセレクタ 4 1 1 2に供給されると、 ステ ップ S 4 1 0 6において、 セレクタ 4 1 1 2は、 検出された領域が、 定常領域で あるか否かを判定する。
ステップ S 4 1 0 6において、 検出された領域が、 定常領域であると判定した 場合、 セレクタ 4 1 1 2は、 ステップ S 4 1 0 7において、 画像生成部 4 1 0 3 より供給された第 2の画素を、 出力画像として外部に出力する。
これに対して、 ステップ S 4 1 0 6において、 検出された領域が、 定常領域で はない (非定常領域である) と判定した場合、 セレクタ 4 1 1 2は、 ステップ S 4 1 0 8において、 画像生成部 4 1 0 4より供給された第 1の画素を、 出力画像 として外部に出力する。
その後、 ステップ S 4 1 0 9において、 全画素の処理を終了したか否かが判定 され、 全画素の処理がまだ終了していないと判定された場合、 その処理は、 ステ ップ S 4 1 0 1に戻る。 即ち、 全ての画素の処理が終了されるまで、 ステップ S 4 1 0 1乃至 S 4 1 0 9の処理が繰り返される。
そして、 ステップ S 4 1 0 9において、 全画素の処理を終了したと判定された 場合、 その処理は終了となる。
このように、 図 2 9 5のフローチャートの例においては、 第 1の画素 (H D画 素) と第 2の画素 (H D画素) が生成される毎に、 出力画像として第 1の画素ま たは第 2の画素が画素単位で出力される。
しかしながら、 上述したように、 画素単位で出力されることは必須ではなく、 全ての画素の処理が終了された後、 出力画像として、 全ての画素が一括して出力 されてもよい。 この場合、 ステップ S 4 1 0 7とステップ S 4 1 0 8のそれぞれ の処理においては、 画素 (第 1の画素または第 2の画素) は出力されずに、 セレ クタ 4 1 1 2に一次格納され、 ステップ S 4 1 0 9の処理の後、 全ての画素を出 力する処理が追加される。
次に、 図 2 9 6のフローチャートを参照して、 図 2 9 3の構成の画像生成部 4 1 0 4が実行する 「クラス分類適応処理の実行処理」 (例えば、 上述した図 2 9 5のステップ S 4 1 0 1の処理) の詳細について説明する。 センサ 2からの入力画像 (S D画像) が画像生成部 4 1 0 4に入力されると、 ステップ S 4 1 2 1において、 領域抽出部 4 1 2 1と領域抽出部 4 1 2 5のそれ ぞれは、 入力画像を入力する。
ステップ S 4 1 2 2において、 領域抽出部 4 1 2 1は、 入力画像の中から、 注 目画素 (S D画素) 、 および、 予め設定された注目画素からの相対位置 (1以上 の位置) のそれぞれに位置する画素 (S D画素) を、 クラスタップとして抽出し、 パターン検出部 4 1 2 2に供給する。
ステップ S 4 1 2 3において、 パターン検出部 4 1 2 2は、 供給されたクラス タップのパターンを検出し、 クラスコード決定部 4 1 2 3に供給する。
ステップ S 4 1 2 4において、 クラスコード決定部 4 1 2 3は、 予め設定され ている複数のクラスコードの中から、 供給されたクラスタップのパターンに適合 するクラスコードを決定し、 係数メモリ 4 1 2 4と領域抽出部 4 1 2 5のそれぞ れに供給する。
ステップ S 4 1 2 5において、 係数メモリ 4 1 2 4は、 供給されたクラスコー ドに基づいて、 予め学習処理により決定された複数の予測係数 (群) の中から、 これから使用する予測係数 (群) を読み出し、 予測演算部 4 1 2 6に供給する。 なお、 学習処理については、 図 2 9 7のフローチャートを参照して後述する。 ステップ S 4 1 2 6において、 領域抽出部 4 1 2 5は、 供給されたクラスコー ドに対応して、 入力画像の中から、 注目画素 (S D画素) 、 および、 予め設定さ れた注目画素からの相対位置 (1以上の位置であって、 クラスタップの位置とは 独立して設定された位置。 ただし、 クラスタップの位置と同一の位置でもよい) のそれぞれに位置する画素 (S D画素) を、 予測タップとして抽出し、 予測演算 部 4 1 2 6に供給する。
ステップ S 4 1 2 7において、 予測演算部 4 1 2 6は、 領域抽出部 4 1 2 5よ り供給された予測タップを、 係数メモリ 4 1 2 4より供給された予測係数を用い て演算し、 予測画像 (第 1の画素) を生成して外部 (図 2 9 2の例では、 セレク タ 4 1 1 2 ) に出力する。 具体的には、 予測演算部 4 1 2 6は、 領域抽出部 4 1 2 5より供給された予測 タップのそれぞれを (i は、 1乃至 nのうちのいずれかの整数) とし、 かつ、 係数メモリ 4 1 24より供給された予測係数のそれぞれを として、 上述した 式 (2 3 7) の右辺を演算することにより、 注目画素 (SD画素) における HD 画素 を算出し、 それを予測画像 (HD画像) の所定の 1つの画素 (第 1の画 素) として外部に出力する。 その後、 処理は終了となる。
次に、 図 2 9 7のフローチャートを参照して、 画像生成部 4 1 04に対する学 習装置 4 1 3 1 (図 2 9 4) が実行する学習処理 (画像生成部 4 1 04が使用す る予測係数を学習により生成する処理) について説明する。
ステップ S 4 1 4 1において、 ダウンコンバート部 4 1 4 1と正規方程式生成 部 4 1 6のそれぞれは、 供給された所定の画像を、 教師画像 (HD画像) とし て入力する。
ステップ S 4 1 4 2において、 ダウンコンバート部 4 1 4 1は、 入力された教 師画像をダウンコンバートして (解像度を落として) 生徒画像 (SD画像) を生 成し、 領域抽出部 4 1 4 2と領域抽出部 4 1 4 5のそれぞれに供給する。
ステップ S 4 1 4 3において、 領域抽出部 4 1 4 2は、 供給された生徒画像か らクラスタップを抽出してパターン検出部 4 1 4 3に出力する。 なお、 ステップ S 4 1 4 3の処理は、 上述したステップ S 4 1 2 2 (図 2 9 6) の処理と基本的 に同様の処理である。
ステップ S 4 1 44において、 パターン検出部 4 1 4 3は、 供給されたクラス タップよりクラスコードを決定するためのパターンを検出し、 クラスコード決定 部 4 1 44に供給する。 なお、 ステップ S 4 1 44の処理は、 上述したステップ S 4 1 2 3 (図 2 9 6) の処理と基本的に同様の処理である。
ステップ S 4 1 4 5において、 クラスコード決定部 4 1 44は、 供給されたク ラスタップのパターンに基づいてクラスコードを決定し、 領域抽出部4 1 4 5と 正規方程式生成部 4 1 4 6のそれぞれに供給する。 なお、 ステップ S 4 1 4 5の 処理は、 上述したステップ S 4 1 24 (図 2 9 6) の処理と基本的に同様の処理 である。
ステップ S 4 1 4 6において、 領域抽出部 4 1 4 5は、 供給されたクラスコー ドに対応して、 生徒画像の中から予測タップを抽出し、 正規方程式生成部 4 1 4 6に供給する。 なお、 ステップ S 4 1 4 6の処理は、 上述したステップ S 4 1 2 6 (図 2 9 6 ) の処理と基本的に同様の処理である。
ステップ S 4 1 4 7において、 正規方程式生成部 4 1 4 6は、 領域抽出部 4 1 4 5より供給された予測タップ (S D画素) 、 および、 教師画像 (H D画像) の 所定の H D画素から、 上述した式 (2 3 9 ) (即ち、 式 (2 4 3 ) ) で示される 正規方程式を生成し、 生成した正規方程式と、 クラスコード決定部 4 1 4 4より 供給されたクラスコードを関連付けて係数決定部 4 1 4 7に供給する。
ステップ S 4 1 4 8において、 係数決定部 4 1 4 7は、 供給された正規方程式 を解いて予測係数を決定し、 即ち、 上述した式 (2 4 4 ) の右辺を演算すること で予測係数を算出し、 供給されたクラスコードに対応付けて係数メモリ 4 1 2 4 に記憶させる。
その後、 ステップ S 4 1 4 9において、 全ての画素について処理が施されたか 否かが判定され、 全ての画素について処理が施されていないと判定された場合、 その処理は、 ステップ S 4 1 4 3に戻る。 即ち、 全ての画素の処理が終了される まで、 ステップ S 4 1 4 3乃至 S 4 1 4 9の処理が繰り返される。
そして、 ステップ S 4 1 4 9において、 全ての画素について処理が施されたと 判定された場合、 処理は終了となる。
次に、 図 2 9 8と図 2 9 9を参照して、 第 2の併用手法について説明する。 図 2 9 8は、 第 2の併用手法が適用される信号処理装置の構成例を表している。 図 2 9 8において、 第 1の併用手法が適用される信号処理装置 (図 2 9 2 ) と 対応する部分には、 対応する符号が付してある。
図 2 9 2の構成例 (第 1の併用手法) においては、 領域特定情報は、 データ定 常性検出部 4 1 0 1より出力され、 領域検出部 4 1 1 1に入力されていたが、 図 2 9 8の構成例 (第 2の併用手法) においては、 領域特定情報は、 実世界推定部 4 1 0 2より出力され、 領域検出部 4 1 1 1に入力される。
この領域特定情報は、 特に限定されず、 実世界推定部 4 1 0 2が実世界 1 (図 1 ) の信号を推定した後に新たに生成された情報でもよいし、 実世界 1の信号が 推定される場合に付帯して生成される情報でもよい。
具体的には、 例えば、 領域特定情報として、 推定誤差が使用可能である。
ここで、 推定誤差について説明する。
上述したように、 データ定常性検出部 4 1 0 1より出力される推定誤差 (図 2 9 2の領域特定情報) は、 例えば、 データ定常性検出部 4 1 0 1より出力される データ定常性情報が角度であり、 かつ、 その角度が最小自乗法により演算される 場合、 その最小自乗法の演算で付帯的に算出される推定誤差である。
これに対して、 実世界推定部 4 1 ◦ 2より出力される推定誤差 (図 2 9 8の領 域特定情報) は、 例えば、 マッピング誤差である。
即ち、 実世界推定部 4 1 0 2により実世界 1の信号が推定されているので、 推 定された実世界 1の信号から任意の大きさの画素を生成する (画素値を演算す る) ことが可能である。 ここでは、 このように、 新たな画素を生成することを、 マッピングと称している。
従って、 実世界推定部 4 1 0 2は、 実世界 1の信号を推定した後、 その推定し た実世界 1の信号から、 入力画像の注目画素 (実世界 1が推定される場合に注目 画素として使用された画素) が配置されていた位置における新たな画素を生成す る (マッピングする) 。 即ち、 実世界推定部 4 1 0 2は、 推定した実世界 1の信 号から、 入力画像の注目画素の画素値を予測演算する。
そして、 実世界推定部 4 1 0 2は、 マッピングした新たな画素の画素値 (予測 した入力画像の注目画素の画素値) と、 実際の入力画像の注目画素の画素値との 差分を演算する。 この差分を、 ここでは、 マッピング誤差と称している。
このようにして実世界推定部 4 1 0 2は、 マッピング誤差 (推定誤差) を演算 することで、 演算したマッピング誤差 (推定誤差) を、 領域特定情報として領域 検出部 4 1 1 1に供給することができる。 4 001488
409
なお、 領域検出部 4 1 1 1が実行する領域検出の処理は、 上述したように、 特 に限定されないが、 例えば、 実世界推定部 4 1 0 2が、 上述したマッピング誤差 (推定誤差) を領域特定情報として領域検出部 4 1 1 1に供給する場合、 領域検 出部 4 1 1 1は、 供給されたマッピング誤差 (推定誤差) が所定の閾値よりも小 さいとき、 入力画像の注目画素は定常領域であると検出し、 一方、 供給されたマ ッビング誤差 (推定誤差) が所定の閾値以上であるとき、 入力画像の注目画素は 非定常領域であると検出する。
その他の構成は、 図 2 9 2のそれと基本的に同様である。 即ち、 第 2の併用手 法が適用される信号処理装置 (図 2 9 8 ) においても、 第 1の併用手法が適用さ れる信号処理装置 (図 2 9 2 ) と基本的に同様の構成と機能を有する、 データ定 常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 画像生成部 4 1 0 4、 並びに定常領域検出部 4 1 0 5 (領域検出部 4 1 1 1およびセレクタ 4 1 1 2 ) が設けられている。
図 2 9 9は、 図 2 9 8の構成の信号処理装置の信号の処理 (第 2の併用手法の 信号の処理) を説明するフローチャートである。
第 2の併用手法の信号の処理は、 第 1の併用手法の信号の処理 (図 2 9 5のフ ローチャートで示される処理) と類似している。 そこで、 ここでは、 第 1の併用 手法において説明した処理については、 その説明を適宜省略し、 以下、 図 2 9 9 のフローチャートを参照して、 第 1の併用手法とは異なる第 2の併用手法の信号 の処理を中心に説明する。
なお、 ここでは、 データ定常性検出部 4 1 0 1は、 第 1の併用手法と同様に、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定の一辺 と平行な方向) とのなす角度) を最小自乗法により演算し、 演算した角度をデー タ定常性情報として出力するとする。
ただし、 上述したように、 第 1の併用手法においては、 データ定常性検出部 4 1 0 1が領域特定情報 (例えば、 推定誤差) を領域検出部 4 1 1 1に供給してい たのに対して、 第 2の併用手法においては、 実世界推定部 4 1 0 2が領域特定情 報 (例えば、 推定誤差 (マッピング誤差) ) を領域検出部 4 1 1 1に供給する。 従って、 第 2の併用手法においては、 データ定常性検出部 4 1 0 1の処理とし て、 ステップ S 4 1 6 2の処理が実行される。 この処理は、 第 1の併用手法にお ける、 図 2 9 5のステップ S 4 1 0 2の処理に相当する。 即ち、 ステップ S 4 1 6 2において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の 方向に対応する角度を検出し、 検出した角度をデータ定常性情報として、 実世界 推定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給する。
また、 第 2の併用手法においては、 実世界推定部 4 1 0 2の処理として、 ステ ップ S 4 1 6 3の処理が実行される。 この処理は、 第 1の併用手法における、 図 2 9 5のステップ S 4 1 0 3の処理に相当する。 即ち、 ステップ S 4 1 6 3にお いて、 実世界推定部 4 1 0 2は、 ステップ S 4 1 6 2の処理でデータ定常性検出 部 4 1 0 1により検出された角度に基づいて、 実世界 1 (図 1 ) の信号を推定す るとともに、 推定された実世界 1の信号の推定誤差、 即ち、 マッピング誤差を演 算し、 それを領域特定情報として領域検出部 4 1 1 1に供給する。
その他の処理は、 第 1の併用手法の対応する処理 (図 2 9 5のフローチャート で示される処理のうちの対応する処理) と基本的に同様であるので、 その説明は 省略する。
次に、 図 3 0 0と図 3 0 1を参照して、 第 3の併用手法について説明する。 図 3 0 0は、 第 3の併用手法が適用される信号処理装置の構成例を表している。 図 3 0 0において、 第 1の併用手法が適用される信号処理装置 (図 2 9 2 ) と 対応する部分には、 対応する符号が付してある。
図 2 9 2の構成例 (第 1の併用手法) においては、 定常領域検出部 4 1 0 5は、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の後段に配設されていたが、 図 3 0 0 の構成例 (第 3の併用手法) においては、 それに対応する定常領域検出部 4 1 6 1が、 データ定常性検出部 4 1 0 1の後段であって、 実世界推定部 4 1 0 2と画 像生成部 4 1 0 4の前段に配設されている。 このような配設位置の違いにより、 第 1の併用手法における定常領域検出部 4 1 0 5と、 第 3の併用手法における定常領域検出部 4 1 6 1は若干差異がある。 そこで、 この差異を中心に、 定常領域検出部 4 1 6 1について説明する。
定常領域検出部 4 1 6 1には、 領域検出部 4 1 7 1と実行指令生成部 4 1 7 2 が設けられている。 このうちの領域検出部 4 1 7 1は、 定常領域検出部 4 1 0 5 の領域検出部 4 1 1 1 (図 2 9 2 ) と基本的に同様の構成と機能を有している。 一方、 実行指令生成部 4 1 7 2の機能は、 定常領域検出部 4 1 0 5のセレクタ 4 1 1 2 (図 2 9 2 ) のそれと若干差異がある。
即ち、 上述したように、 第 1の併用手法におけるセレクタ 4 1 1 2は、 領域検 出部 4 1 1 1の検出結果に基づいて、 画像生成部 4 1 0 3からの画像と、 画像生 成部 4 1 0 4からの画像のうちのいずれか一方を選択し、 選択した画像を出力画 像として出力する。 このように、 セレクタ 4 1 1 2は、 領域検出部 4 1 1 1の検 出結果の他に、 画像生成部 4 1 0 3からの画像と、 画像生成部 4 1 0 4からの画 像を入力し、 出力画像を出力する。
一方、 第 3の併用手法における実行指令生成部 4 1 7 2は、 領域検出部 4 1 7 1の検出結果に基づいて、 入力画像の注目画素 (データ定常性検出部 4 1 0 1が 注目画素とした画素) における新たな画素の生成の処理を実行するのは、 画像生 成部 4 1 0 3であるのか画像生成部 4 1 0 4であるのかを選択する。
即ち、 領域検出部 4 1 7 1が、 入力画像の注目画素は定常領域であるという検 出結果を実行指令生成部 4 1 7 2に供給した場合、 実行指令生成部 4 1 7 2は、 画像生成部 4 1 0 3を選択し、 実世界推定部 4 1 0 2に対して、 その処理の実行 を開始させる指令 (このような指令を、 以下、 実行指令と称する) を供給する。 すると、 実世界推定部 4 1 0 2が、 その処理を開始し、 実世界推定情報を生成し、 画像生成部 4 1 0 3に供給する。 画像生成部 4 1 0 3は、 供給された実世界推定 情報 (必要に応じて、 それに加えてデータ定常性検出部 4 1 0 1より供給された データ定常性情報) に基づいて新たな画像を生成し、 それを出力画像として外部 に出力する。 これに対して、 領域検出部 4 1 7 1力 入力画像の注目画素は非定常領域であ るという検出結果を実行指令生成部 4 1 7 2に供給した場合、 実行指令生成部 4 1 7 2は、 画像生成部 4 1 0 4を選択し、 画像生成部 4 1 0 4に対して実行指令 を供給する。 すると、 画像生成部 4 1 0 4が、 その処理を開始し、 入力画像に対 して所定の画像処理 (いまの場合、 クラス分類適応処理) を施して、 新たな画像 を生成し、 それを出力画像として外部に出力する。
このように、 第 3の併用手法における実行指令生成部 4 1 7 2は、 領域検出部 4 1 7 1の検出結果を入力し、 実行指令を出力する。 即ち、 実行指令生成部 4 1 7 2は、 画像を入出力しない。
なお、 定常領域検出部 4 1 6 1以外の構成は、 図 2 9 2のそれと基本的に同様 である。 即ち、 第 2の併用手法が適用される信号処理装置 (図 3 0 0の信号処理 装置) においても、 第 1の併用手法が適用される信号処理装置 (図 2 9 2 ) と基 本的に同様の構成と機能を有する、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 および、 画像生成部 4 1 0 4が設けられている。 ただし、 第 3の併用手法においては、 実世界推定部 4 1 0 2と画像生成部 4 1 0 4のそれぞれは、 実行指令生成部 4 1 7 2からの実行指令が入力されない限り、 その処理を実行しない。
ところで、 図 3 0 0の例では、 画像の出力単位は画素単位とされている。 そこ で、 図示はしないが、 出力単位を 1フレームの画像全体とするために (全ての画 素を一括して出力するために) 、 例えば、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の後段に、 画像合成部をさらに設けることもできる。
この画像合成部は、 画像生成部 4 1 0 3から出力された画素値と、 画像生成部 4 1 0 4より出力された画素値を加算し (合成し) 、 加算した値を対応する画素 の画素値とする。 この場合、 画像生成部 4 1 0 3と画像生成部 4 1 0 4のうちの、 実行指令が供給されていない方は、 その処理を実行せず、 所定の一定値 (例えば、 0 ) を画像合成部に常時供給する。
画像合成部は、 このような処理を全ての画素について繰り返し実行し、 全ての 画素の処理を終了すると、 全ての画素を一括して (1フレームの画像データとし て) 外部に出力する。
次に、 図 3 0 1のフローチャートを参照して、 第 3の併用手法が適用される信 号処理装置 (図 3 0 0 ) の信号の処理について説明する。
なお、 ここでは、 第 1の併用手法のときと同様に、 データ定常性検出部 4 1 0 1は、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間 方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定 の一辺と平行な方向) とのなす角度) を最小自乗法により演算し、 演算した角度 をデータ定常性情報として出力するとする。
データ定常性検出部 4 1 0 1はまた、 角度を演算するときに併せて算出される 推定誤差 (最小自乗法の誤差) を、 領域特定情報として出力するとする。 ' 図 1において、 実世界 1の信号がセンサ 2に入射されると、 センサ 2からは入 力画像が出力される。
図 3 0 0において、 この入力画像は、 画像生成部 4 1 0 4に入力されるととも に、 データ定常性検出部 4 1 0 1、 および実世界推定部 4 1 0 2にも入力される。 そこで、 図 3 0 1のステップ S 4 1 8 1において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の方向に対応する角度を検出するとともに、 その推定誤差を演算する。 検出された角度は、 データ定常性情報として実世界推 定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給される。 また、 演算された 推定誤差は、 領域特定情報として領域検出部 4 1 7 1に供給される。
なお、 ステップ S 4 1 8 1の処理は、 上述したステップ S 4 1 0 2 (図 2 9 5 ) の処理と基本的に同様の処理である。
また、 上述したように、 いまの時点においては (実行指令生成部 4 1 7 2から 実行指令が供給されない限り) 、 実世界推定部 4 1 0 2も画像生成部 4 1 0 4も その処理を実行しない。
ステップ S 4 1 8 2において、 領域検出部 4 1 7 1は、 データ定常性検出部 4 1 0 1により演算された推定誤差 (供給された領域特定情報) に基づいて、 入力 画像の注目画素 (データ定常性検出部 41 01が角度を検出する場合に注目画素 とした画素) の領域を検出し、 その検出結果を実行指令生成部 41 72に供給す る。 なお、 ステップ S 4 18 2の処理は、 上述したステップ S 41 05 (図 29 5) の処理と基本的に同様の処理である。
領域検出部 4 1 7 1の検出結果が実行指令生成部 4 1 72に供給されると、 ス テツプ S 4 1 8 3において、 実行指令生成部 41 72は、 検出された領域が、 定 常領域であるか否かを判定する。 なお、 ステップ S 4 1 8 3の処理は、 上述した ステップ S 41 06 (図 29 5) の処理と基本的に同様の処理である。
ステップ S 4 18 3において、 検出された領域が定常領域ではないと判定した 場合、 実行指令生成部 4 1 7 2は、 実行指令を画像生成部 41 04に供給する。 すると、 画像生成部 4104は、 ステップ S 41 84において、 「クラス分類適 応処理の実行処理」 を実行して、 第 1の画素 (注目画素 (入力画像の SD画素) における HD画素) を生成し、 ステップ S 41 8 5において、 クラス分類適応処 理により生成された第 1の画素を、 出力画像として外部に出力する。
なお、 ステップ S 41 84の処理は、 上述したステップ S 4 10 1 (図 2 9 5) の処理と基本的に同様の処理である。 即ち、 図 296のフローチャートは、 ステップ S 4 1 84の処理の詳細を説明するフローチヤ一トでもある。
これに対して、 ステップ S 41 8 3において、 検出された領域が定常領域であ ると判定した場合、 実行指令生成部 4 1 7 2は、 実行指令を実世界推定部 4 1 0 2に供給する。 すると、 ステップ S 41 8 6において、 実世界推定部 4 10 2は、 データ定常性検出部 41 0 1により検出された角度と、 入力画像に基づいて、 実 世界 1の信号を推定する。 なお、 ステップ S 41 86の処理は、 上述したステツ プ S 4 10 3 (図 2 95) の処理と基本的に同様の処理である。
そして、 画像生成部 410 3は、 ステップ S 41 8 7において、 実世界推定部 410 2により推定された実世界 1の信号に基づいて、 検出された領域 (即ち、 入力画像の注目画素 (SD画素) ) における第 2の画素 (HD画素) を生成し、 ステップ S 4 1 88において、 その第 2の画素を出力画像として出力する。 なお、 ステップ S 4 1 8 7の処理は、 上述したステップ S 4 1 0 4 (図 2 9 5 ) の処理 と基本的に同様の処理である。
第 1の画素または第 2の画素が出力画像として出力されると (ステップ S 4 1 8 5、 またはステップ S 4 1 8 8の処理の後) 、 ステップ S 4 1 8 9において、 全画素の処理を終了したか否かが判定され、 全画素の処理がまだ終了していない と判定された場合、 その処理は、 ステップ S 4 1 8 1に戻る。 即ち、 全ての画素 の処理が終了されるまで、 ステップ S 4 1 8 1乃至 S 4 1 8 9の処理が繰り返さ れる。
そして、 ステップ S 4 1 8 9において、 全画素の処理を終了したと判定された 場合、 その処理は終了となる。
このように、 図 3 0 1のフローチャートの例においては、 第 1の画素 (H D画 素) と第 2の画素 (H D画素) が生成される毎に、 出力画像として第 1の画素ま たは第 2の画素が画素単位で出力される。
しかしながら、 上述したように、 図 3 0 0の構成の信号処理装置の最終段 (画 像生成部 4 1 0 3と画像生成部 4 1 0 4の後段) に画像合成部 (図示せず) をさ らに設ければ、 全ての画素の処理が終了された後、 出力画像として、 全ての画素 を一括して出力することが可能になる。 この場合、 ステップ S 4 1 8 5とステツ プ S 4 1 8 8のそれぞれに処理においては、 画素 (第 1の画素または第 2の画 素) は外部ではなく画像合成部に出力される。 そして、 ステップ S 4 1 8 9の処 理の前に、 画像合成部が、 画像生成部 4 1 0 3から供給される画素の画素値と、 画像生成部 4 1 0 4から供給される画素の画素値を合成して、 出力画像の画素を 生成する処理と、 ステップ S 4 1 8 9の処理の後に、 画像合成部が、 全ての画素 を出力する処理が追加される。
次に、 図 3 0 2と図 3 0 3を参照して、 第 4の併用手法について説明する。 図 3 0 2は、 第 4の併用手法が適用される信号処理装置の構成例を表している。 図 3 0 2において、 第 3の併用手法が適用される信号処理装置 (図 3 0 0 ) と 対応する部分には、 対応する符号が付してある。 . 1488
416
図 3 0 0の構成例 (第 3の併用手法) においては、 領域特定情報は、 データ定 常性検出部 4 1 0 1より出力され領域検出部 4 1 7 1に入力されていたが、 図 3 0 2の構成例 (第 4の併用手法) においては、 領域特定情報は、 実世界推定部 4 1 0 2より出力され領域検出部 4 1 7 1に入力される。
その他の構成は、 図 3 0 0のそれと基本的に同様である。 即ち、 第 4の併用手 法が適用される信号処理装置 (図 3 0 2 ) においても、 第 3の併用手法が適用さ れる信号処理装置 (図 3 0 0 ) と基本的に同様の構成と機能を有する、 データ定 常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 画像生成部 4 1 0 4、 並びに定常領域検出部 4 1 6 1 (領域検出部 4 1 7 1および実行指令 生成部 4 1 7 2 ) が設けられている。
なお、 第 3の併用方法と同様に、 図示はしないが、 全ての画素を一括して出力 するために、 例えば、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の後段に、 画像 合成部をさらに設けることもできる。
図 3 0 3は、 図 3 0 2の構成の信号処理装置の信号の処理 (第 4の併用手法の 信号の処理) を説明するフローチャートである。
第 4の併用手法の信号の処理は、 第 3の併用手法の信号の処理 (図 3 0 1のフ ローチャートで示される処理) と類似している。 そこで、 ここでは、 第 3の併用 手法において説明した処理については、 その説明を適宜省略し、 以下、 図 3 0 3 のフローチャートを参照して、 第 3の併用手法とは異なる第 4の併用手法の信号 の処理を中心に説明する。
なお、 ここでは、 データ定常性検出部 4 1 0 1は、 第 3の併用手法と同様に、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定の一辺 と平行な方向) とのなす角度) を最小自乗法により演算し、 演算した角度をデー タ定常性情報として出力するとする。
ただし、 上述したように、 第 3の併用手法においては、 データ定常性検出部 4 1 0 1が領域特定情報 (例えば、 推定誤差) を領域検出部 4 1 7 1に供給してい たのに対して、 第 4の併用手法においては、 実世界推定部 4 1 0 2が領域特定情 報 (例えば、 推定誤差 (マッピング誤差) ) を領域検出部 4 1 7 1に供給する。 従って、 第 4の併用手法においては、 データ定常性検出部 4 1 0 1の処理とし て、 ステップ S 4 2 0 1の処理が実行される。 この処理は、 第 3の併用手法にお ける、 図 3 0 1のステップ S 4 1 8 1の処理に相当する。 即ち、 ステップ S 4 2 0 1において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の 方向に対応する角度を検出し、 検出した角度をデータ定常性情報として、 実世界 推定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給する。
また、 第 4の併用手法においては、 実世界推定部 4 1 0 2の処理として、 ステ ップ S 4 2 0 2の処理が実行される。 この処理は、 第 3 併用手法における、 図 2 9 5のステップ S 4 1 8 2の処理に相当する。 即ち、 実世界推定部 4 1 0 2は、 ステップ S 4 2 0 2の処理でデータ定常性検出部 4 1 0 1により検出された角度 に基づいて、 実世界 1 (図 1 ) の信号を推定するとともに、 推定された実世界 1 の信号の推定誤差、 即ち、 マッピング誤差を演算し、 それを領域特定情報として 領域検出部 4 1 7 1に供給する。
その他の処理は、 第 3の併用手法の対応する処理 (図 3 0 1のフローチャート で示される処理のうちの対応する処理) と基本的に同様であるので、 その説明は 省略する。
次に、 図 3 0 4と図 3 0 5を参照して、 第 5の併用手法について説明する。 図 3 0 4は、 第 5の併用手法が適用される信号処理装置の構成例を表している。 図 3 0 4において、 第 3と第 4の併用手法が適用される信号処理装置 (図 3 0 0と図 3 0 2 ) と対応する部分には、 対応する符号が付してある。
図 3 0 0の構成例 (第 3の併用手法) においては、 データ定常性検出部 4 1 0 1の後段であって、 実世界推定部 4 1 0 2と画像生成部 4 1 0 4の前段に、 1つ の定常領域検出部 4 1 6 1が配設されている。
また、 図 3 0 2の構成例 (第 4の併用手法) においては、 実世界推定部 4 1 0 2の後段であって、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の前段に、 1つの 定常領域検出部 4 1 6 1が配設されている。
これらに対して、 図 3 0 4の構成例 (第 5の併用手法) においては、 第 3の併 用方法と同様に、 データ定常性検出部 4 1 0 1の後段であって、 実世界推定部 4 1 0 2と画像生成部 4 1 0 4の前段に、 定常領域検出部 4 1 8 1が配設されてい る。 さらに、 第 4の併用方法と同様に、 実世界推定部 4 1 0 2の後段であって、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の前段に、 定常領域検出部 4 1 8 2が 配設されている。
定常領域検出部 4 1 8 1と定常領域検出部 4 1 8 2のそれぞれは、 定常領域検 出部 4 1 6 1 (図 3 0 0または図 3 0 2 ) と基本的に同様の構成と機能を有して いる。 即ち、 領域検出部 4 1 9 1と領域検出部 4 2 0 1はいずれも、 領域検出部 4 1 7 1と基本的に同様の構成と機能を有している。 また、 実行指令生成部 4 1 9 2と実行指令生成部 4 2 0 2はいずれも、 実行指令生成部 4 1 7 2と基本的に 同様の構成と機能を有している。
換言すると、 第 5の併用手法は、 第 3の併用手法と第 4の併用手法を組み合わ せたものである。
即ち、 第 3の併用手法や第 4の併用手法においては、 1つの領域特定情報 (第 3の併用手法においては、 データ定常性検出部 4 1 0 1からの領域特定情報であ り、 第 4の併用手法においては、 実世界推定部 4 1 0 2からの領域特定情報であ る) に基づいて、 入力画像の注目画素が定常領域であるか非定常領域であるかが 検出される。 従って、 第 3の併用手法や第 4の併用手法では、 本来、 非定常領域 であるにも関わらず、 定常領域であると検出される恐れもある。
そこで、 第 5の併用手法においては、 はじめにデータ定常性検出部 4 1 0 1か らの領域特定情報 (第 5の併用手法の説明においては、 第 1の領域特定情報と称 する) に基づいて、 入力画像の注目画素が定常領域であるか非定常領域であるか が検出された後、 さらに、 実世界推定部 4 1 0 2からの領域特定情報 (第 5の併 用手法の説明においては、 第 2の領域特定情報と称する) に基づいて、 入力画像 の注目画素が定常領域であるか非定常領域であるかが検出される。 このように、 第 5の併用手法においては、 領域の検出の処理が 2回行われるの で、 第 3の併用手法や第 4の併用手法に比較して、 定常領域の検出精度が上がる ことになる。 さらに、 第 1の併用手法や第 2の併用手法においても、 第 3の併用 手法や第 4の併用手法と同様に、 1つの定常領域検出部 4 1 0 5 (図 2 9 2また は図 2 9 8 ) しか設けられていない。 従って、 第 1の併用手法や第 2の併用手法 と比較しても、 定常領域の検出精度が上がることになる。 その結果、 第 1乃至第 4の併用手法のいずれよりも実世界 1 (図 1 ) の信号に近い画像データを出力す ることが可能になる。
ただし、 第 1乃至第 4の併用手法でも、 従来の画像処理を行う画像生成部 4 1 0 4と、 本発明が適用されるデータの定常性を利用して画像を生成する装置また はプログラム等 (即ち、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および、 画像生成部 4 1 0 3 ) を併用していることに変わりはない。
従って、 第 1乃至第 4の併用手法でも、 従来の信号処理装置や、 図 3の構成の 本発明の信号処理のいずれよりも実世界 1 (図 1 ) の信号に近い画像データを出 力することが可能になる。
一方、 処理速度の観点からは、 第 1乃至第 4の併用手法においては、 領域の検 出の処理が 1回だけで済むので、 領域の検出の処理を 2回行う第 5の併用手法よ りも優れていることになる。
従って、 ユーザ (または製造者) 等は、 必要とされる出力画像の品質と、 必要 とされる処理時間 (出力画像が出力されるまでの時間) に合致した併用手法を選 択的に利用することができる。
なお、 図 3 0 4におけるその他の構成は、 図 3 0 0、 または、 図 3 0 2のそれ と基本的に同様である。 即ち、 第 5の併用手法が適用される信号処理装置 (図 3
0 4 ) においても、 第 3または第 4の併用手法が適用される信号処理装置 (図 3 0 0、 または図 3 0 2 ) と基本的に同様の構成と機能を有する、 データ定常性検 出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 および画像生成部
4 1 0 4が設けられている。 ただし、 第 5の併用手法においては、 実世界推定部 4 1 0 2は、 実行指令生成 部 4 1 9 2からの実行指令が入力されない限り、 画像生成部 4 1 0 3は、 実行指 令生成部 4 2 0 2からの実行指令が入力されない限り、 画像生成部 4 1 0 4は、 実行指令生成部 4 1 9 2、 または実行指令生成部 4 2 0 2からの実行指令が入力 されない限り、 その処理を実行しない。
また、 第 5の併用手法においても、 第 3や第 4の併用方法と同様に、 図示はし ないが、 全ての画素を一括して出力するために、 例えば、 画像生成部 4 1 0 3と 画像生成部 4 1 0 4の後段に、 画像合成部をさらに設けることもできる。
次に、 図 3 0 5のフローチャートを参照して、 第 5の併用手法が適用される信 号処理装置 (図 3 0 4 ) の信号の処理について説明する。
なお、 ここでは、 第 3や第 4の併用手法のときと同様に、 データ定常性検出部 4 1 0 1は、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子 の所定の一辺と平行な方向) とのなす角度) を最小自乗法により演算し、 演算し た角度をデータ定常性情報として出力するとする。
また、 ここでは、 第 3の併用手法のときと同様に、 データ定常性検出部 4 1 0 1はまた、 角度を演算するときに併せて算出される推定誤差 (最小自乗法の誤 差) を、 第 1の領域特定情報として出力するとする。
さらに、 ここでは、 第 4の併用手法のときと同様に、 実世界推定部 4 1 0 2は、 マッピング誤差 (推定誤差) を、 第 2の領域特定情報として出力するとする。 図 1において、 実世界 1の信号がセンサ 2に入射されると、 センサ 2からは入 力画像が出力される。
図 3 0 4において、 この入力画像は、 データ定常性検出部 4 1 0 1、 実世界推 定部 4 1 0 2、 および、 画像生成部 4 1 0 4のそれぞれに入力される。
そこで、 図 3 0 5のステップ S 4 2 2 1において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の方向に対応する角度を検出するとともに、 その推定誤差を演算する。 検出された角度は、 データ定常性情報として実世界推 定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給される。 また、 演算された 推定誤差は、 第 1の領域特定情報として領域検出部 4 1 9 1に供給される。
なお、 ステップ S 4 2 2 1の処理は、 上述したステップ S 4 1 8 1 (図 3 0 1 ) の処理と基本的に同様の処理である。
また、 上述したように、 いまの時点においては (実行指令生成部 4 1 9 2から 実行指令が供給されない限り) 、 実世界推定部 4 1 0 2も画像生成部 4 1 0 4も その処理を実行しない。
ステップ S 4 2 2 2において、 領域検出部 4 1 9 1は、 データ定常性検出部 4 1 0 1により演算された推定誤差 (供給された第 1の領域特定情報) に基づいて、 入力画像の注目画素 (データ定常性検出部 4 1 0 1が角度を検出する場合に注目 画素とした画素) の領域を検出し、 その検出結果を実行指令生成部 4 1 9 2に供 給する。 なお、 ステップ S 4 2 2 2の処理は、 上述したステップ S 4 1 8 2 (図 3 0 1 ) の処理と基本的に同様の処理である。
領域検出部 4 1 8 1の検出結果が実行指令生成部 4 1 9 2に供給されると、 ス テツプ S 4 2 2 3において、 実行指令生成部 4 1 9 2は、 検出された領域が、 定 常領域であるか否かを判定する。 なお、 ステップ S 4 2 2 3の処理は、 上述した ステップ S 4 1 8 3 (図 3 0 1 ) の処理と基本的に同様の処理である。
ステップ S 4 2 2 3において、 検出された領域が定常領域ではない (非定常領 域である) と判定した場合、 実行指令生成部 4 1 9 2は、 実行指令を画像生成部 4 1 0 4に供給する。 すると、 画像生成部 4 1 0 4は、 ステップ S 4 2 2 4にお いて、 「クラス分類適応処理の実行処理」 を実行して、 第 1の画素 (注目画素
(入力画像の S D画素) における H D画素) を生成し、 ステップ S 4 2 2 5にお いて、 クラス分類適応処理により生成された第 1の画素を、 出力画像として外部 に出力する。
なお、 ステップ S 4 2 2 4の処理は、 上述したステップ S 4 1 8 4 (図 3 0 1 ) の処理と基本的に同様の処理である。 即ち、 図 2 9 6のフローチャートは、 ステップ S 4 1 8 6の処理の詳細を説明するフローチャートでもある。 また、 ス テツプ S 4 2 2 5の処理は、 上述したステップ S 4 1 8 5 (図 3 0 1 ) の処理と 基本的に同様の処理である。
これに対して、 ステップ S 4 2 2 3において、 検出された領域が定常領域であ ると判定した場合、 実行指令生成部 4 1 9 2は、 実行指令を実世界推定部 4 1 0 2に供給する。 すると、 ステップ S 4 2 2 6において、 実世界推定部 4 1 0 2は、 ステップ S 4 2 2 1の処理でデータ定常性検出部 4 1 0 1·により検出された角度 に基づいて、 実世界 1の信号を推定するとともに、 その推定誤差 (マッピング誤 差) を演算する。 推定された実世界 1の信号は、 実世界推定情報として画像生成 部 4 1 0 3に供給される。 また、 演算された推定誤差は、 第 2の領域特定情報と して領域検出部 4 2 0 1に供給される。
なお、 ステップ S 4 2 2 6の処理は、 上述したステップ S 4 2 0 2 (図 3 ◦ 3 ) の処理と基本的に同様の処理である。
また、 上述したように、 いまの時点においては (実行指令生成部 4 1 9 2、 ま たは実行指令生成部 4 2 0 2から実行指令が供給されない限り) 、 画像生成部 4 1 0 3も画像生成部 4 1 0 4もその処理を実行しない。
ステップ S 4 2 2 7において、 領域検出部 4 2 0 1は、 実世界推定部 4 1 0 2 により演算された推定誤差 (供給された第 2の領域特定情報) に基づいて、 入力 画像の注目画素 (データ定常性検出部 4 1 0 1が角度を検出する場合に注目画素 とした画素) の領域を検出し、 その検出結果を実行指令生成部 4 2 0 2に供給す る。 なお、 ステップ S 4 2 2 7の処理は、 上述したステップ S 4 2 0 3 (図 3 0 3 ) の処理と基本的に同様の処理である。
領域検出部 4 2 0 1の検出結果が実行指令生成部 4 2 0 2に供給されると、 ス テツプ S 4 2 2 8において、 実行指令生成部 4 2 0 2は、 検出された領域が、 定 常領域であるか否かを判定する。 なお、 ステップ S 4 2 2 8の処理は、 上述した ステップ S 4 2 0 4 (図 3 0 3 ) の処理と基本的に同様の処理である。
ステップ S 4 2 2 8において、 検出された領域が定常領域ではない (非定常領 域である) と判定した場合、 実行指令生成部 4 2 0 2は、 実行指令を画像生成部 4 1 0 4に供給する。 すると、 画像生成部 4 1 0 4は、 ステップ S 4 2 2 4にお いて、 「クラス分類適応処理の実行処理 j を実行して、 第 1の画素 (注目画素
(入力画像の S D画素) における H D画素) を生成し、 ステップ S 4 2 2 5にお いて、 クラス分類適応処理により生成された第 1の画素を、 出力画像として外部 に出力する。
なお、 いまの場合のステップ S 4 2 2 4の処理は、 上述したステップ S 4 2 0 5 (図 3 0 3 ) の処理と基本的に同様の処理である。 また、 いまの場合のステツ プ S 4 2 2 5の処理は、 上述したステップ S 4 2 0 6 (図 3 0 3 ) の処理と基本 的に同様の処理である。
これに対して、 ステップ S 4 2 2 8において、 検出された領域が定常領域であ ると判定した場合、 実行指令生成部 4 2 0 2は、 実行指令を画像生成部 4 1 0 3 に供給する。 すると、 ステップ S 4 2 2 9において、 画像生成部 4 1 0 3は、 実 世界推定部 4 1 0 2により推定された実世界 1の信号 (および、 必要に応じてデ ータ定常性検出部 4 1 0 1からのデータ定常性情報) に基づいて、 領域検出部 4 2 0 1により検出された領域 (即ち、 入力画像の注目画素 (S D画素) ) におけ る、 第 2の画素 (H D画素) を生成する。 そして、 ステップ S 4 2 3 0において、 画像生成部 4 1 0 3は、 生成された第 2の画素を、 出力画像として外部に出力す る。
なお、 ステップ S 4 2 2 9と S 4 2 3 0のそれぞれの処理は、 上述したステツ プ S 4 2 0 7と S 4 2 0 8 (図 3 0 3 ) のそれぞれの処理と基本的に同様の処理 である。
第 1の画素または第 2の画素が出力画像として出力されると (ステップ S 4 2 2 5、 またはステップ S 4 2 3 0の処理の後) 、 ステップ S 4 2 3 1において、 全画素の処理を終了したか否かが判定され、 全画素の処理がまだ終了していない と判定された場合、 その処理は、 ステップ S 4 2 2 1に戻る。 即ち、 全ての画素 の処理が終了されるまで、 ステップ S 4 2 2 1乃至 S 4 2 3 1の処理が繰り返さ れる。 そして、 ステップ S 4 2 3 1において、 全画素の処理を終了したと判定された 場合、 その処理は終了となる。
以上、 図 2 9 2乃至図 3 0 5を参照して、 本発明の信号処理装置 4 (図 1 ) の 実施の形態の一例として、 併用手法について説明した。
上述したように、 併用手法においては、 図 3の構成の本発明の信号処理装置に 対してさらに、 定常性を利用しない他の信号処理を行う装置 (または、 プログラ ム等) が付加されている。
換言すると、 併用手法においては、 従来の信号処理装置 (または、 プログラム 等) に対して、 図 3の構成の本発明の信号処理装置 (または、 プログラム等) が 付加されている。
即ち、 併用手法においては、 例えば、 図 2 9 2や図 2 9 8の定常領域検出部 4 1 0 5が、 実世界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠 落した画像データ (例えば、 図 2 9 2や図 2 9 8の入力画像) 内において、 画像 データのデータの定常性を有する領域 (例えば、 図 2 9 5のステップ S 4 1 0 6 や図 2 9 9のステップ S 4 1 6 6に記載の定常領域) を検出する。
また、 図 2 9 2や図 2 9 8の実世界推定部 4 1 0 2が、 実世界 1の光信号の定 常性の一部が欠落した画像データのデータの定常性に基づいて、 欠落した実世界 1の光信号の定常性を推定することにより光信号を推定する。
さらに、 例えば、 図 2 9 2や図 2 9 8のデータ定常性検出部 4 1 0 1力 実世 界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠落した画像デー タ内において、 画像データのデータの定常性の基準軸に対する角度 (例えば、 図 2 9 5のステップ S 4 1 0 2や図 2 9 9のステップ S 4 1 6 2に記載の角度) を 検出する。 この場合、 例えば、 図 2 9 2や図 2 9 8の定常領域検出部 4 1 0 5は、 角度に基いて画像データのデータの定常性を有する領域を検出し、 実世界推定部 4 1 0 2は、 その領域に対して、 欠落した実世界 1の光信号の定常性を推定する ことにより光信号を推定する。
ただし、 図 2 9 2においては、 定常領域検出部 4 1 0 5は、 角度に沿って定常 であるモデルと入力画像との誤差 (即ち、 例えば、 図中の領域特定情報であって、 図 2 9 5のステップ S 4 1 0 2の処理で演算される推定誤差) に基づいて入力画 像のデータの定常性を有する領域を検出する。
これに対して、 図 2 9 8においては、 定常領域検出部 4 1 0 5は、 実世界推定 部 4 1 0 2の後段に配され、 実世界推定部 4 1 0 2により演算される、 入力画像 に対応する実世界 1の光信号を表す実世界モデルと、 入力画像との誤差 (即ち、 例えば、 図中の領域特定情報であって、 図 2 9 5のステップ S 4 1 6 3の処理で 演算される実世界の信号の推定誤差 (マッピング誤差) ) に基いて、 実世界推定 部 4 1 0 2により推定された実世界モデル、 即ち、 画像生成部 4 1 0 3から出力 される画像を選択的に出力する (例えば、 図 2 9 8のセレクタ 4 1 1 2が、 図 2 9 9のステップ S 4 1 6 6乃至 S 4 1 6 8の処理を実行する) 。
以上、 図 2 9 2と図 2 9 8の例で説明したが、 以上のことは、 図 3 0 0、 図 3 0 2、 および図 3 0 4においても同様である。
従って、 併用手法においては、 実世界 1の信号のうちの定常性が存在する部分 (画像データのデータの定常性を有する領域)については、 図 3の構成の信号処 理装置に相当する装置 (またはプログラム等) が信号処理を実行し、 実世界 1の 信号のうちの明確な定常性が存在しない部分については、 従来の信号処理装置 (または、 プログラム等) が信号処理を実行することが可能になる。 その結果、 従来の信号処理装置や、 図 3の構成の本発明の信号処理のいずれよりも実世界 1 (図 1 ) の信号に近い画像データを出力することが可能になる。
次に、 図 3 0 6, 図 3 0 7を参照して、 データ定常性検出部 1 0 1より直接画 像を生成する例について説明する。
図 3 0 6のデータ定常性検出部 1 0 1は、 図 1 6 5のデータ定常性検出部 1 0 1に画像生成部 4 5 0 1を付加したものである。 画像生成部 4 5 0 1は、 実世界 推定部 8 0 2より出力される実世界の近似関数 f (x)の係数を実世界推定情報と して取得し、 この係数に基づいて、 各画素を再積分することにより画像を生成し て出力する。 次に、 図 3 0 7のフローチャートを参照して、 図 3 0 6のデータの定常性の検 出の処理について説明する。 尚、 図 3 0 7のフローチャートのステップ S 4 5 0 1乃至 S 4 5 0 4、 および、 ステップ S 4 5 0 6乃至 S 4 5 1 1の処理に付いて は、 図 1 6 6のフローチヤ一トのステップ S 8 0 1乃至 S 8 1 0の処理と同様で あるのでその説明は省略する。
ステップ S 4 5 0 4において、 画像生成部 4 5 0 1は、 実世界推定部 8 0 2よ り入力された係数に基づいて各画素を再積分して、 画像を生成し出力する。 以上の処理により、 データ定常性検出部 1 0 1は、 領域情報のみならず、 その 領域判定に用いた (実世界推定情報に基づいて生成された画素からなる) 画像を 出力することができる。
このように、 図 3 0 6のデータ定常性検出部 1 0 1においては、 画像生成部 4 5 0 1が設けられている。 即ち、 図 3 0 6のデータ定常性検出部 1 0 1は、 入力 画像のデータの定常性に基づいて出力画像を生成することができる。 従って、 図 3 0 6で示される構成を有する装置を、 データ定常性検出部 1 0 1の実施の形態 と捉えるのではなく、 図 1の信号処理装置 (画像処理装置) 4の他の実施の形態 と捉えることもできる。
さらに、 上述した併用手法が適用される信号処理装置において、 実世界 1の信 号のうちの定常性が存在する部分に対して信号処理を施す信号処理部として、 図 3 0 6で示される構成を有する装置 (即ち、 図 3 0 6のデータ定常性検出部 1 0 1と同様の機能と構成を有する信号処理装置) を適用することも可能である。 具体的には、 例えば、 第 1の併用手法が適用される図 2 9 2の信号処理装置に おいては、 実世界 1の信号のうちの定常性が存在する部分に対して信号処理を施 す信号処理部は、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および 画像生成部 4 1 0 3とされている。 図示はしないが、 これらのデータ定常性検出 部 4 1 0 1、 実世界推定部 4 1 0 2、 および画像生成部 4 1 0 3の代わりに、 図 3 0 6の構成の信号処理装置 (画像処理装置) を適用することも可能である。 こ の場合、 図 3 0 6の比較部 8 ◦ 4が、 その出力を領域特定情報をとして領域検出 部 4 1 1 1に供給し、 また、 画像生成部 4 5 0 1が、 出力画像 (第 2の画素) を セレクタ 4 1 1 2に供給することになる。
なお、 センサ 2は、 固体撮像素子である、 例えば、 BBD (Bucket Bri gade Device) 、 CID (Charge Inj ect ion Devi ce) 、 まには CPD (Charge Priming Device) などのセンサでもよレ、。
このように、 画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素 子に現実世界の光信号が射影されることにより取得された、 現実世界の光信号の 定常性の一部が欠落した複数の画素からなる画像データ内の注目している画素で ある注目画素に対応する領域を選択する領域選択手段と、 注目画素の画素値と、 領域選択手段により選択された領域に属する画素の画素値との相関値に応じて、 当該領域に属する画素に対応する度数を検出すると共に各画素にその度数を設定 する度数検出手段と、 度数検出手段により検出された度数に基いて回帰線を検出 することにより、 欠落した現実世界の光信号の定常性に対応する、 画像データの データの定常性を検出する定常性検出手段と、 定常性検出手段により検出された 画像データのデータの定常性に基いて、 欠落した現実世界の光信号の定常性を推 定することにより光信号を推定する実世界推定手段とを設けることができる。 定常性検出手段は、 度数検出手段により検出された度数に基いて回帰直線を検 出し、 回帰直線に基き、 欠落した現実世界の光信号の定常性に対応する画像デー タのデータの定常性の基準軸に対する角度を検出し、 実世界推定手段は、 画像デ ータのデータの定常性の基準軸に対する角度に基いて、 欠落した現実世界の光信 号の定常性を推定することにより光信号を推定するようにすることができる。 定常性検出手段は、 回帰線と度数とに対する推定誤差の標準偏差に基づき、 デ ータの定常性を有する領域を検出し、 実世界推定手段は、 定常性検出手段により 検出されたデータの定常性を有する領域に基づき、 現実世界の光信号を表す第 1 の関数を近似する第 2の関数を生成するようにすることができる。
画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素子に現実世界 の光信号が射影されることにより取得された、 現実世界の光信号の定常性の一部 が欠落した複数の画素からなる画像データにおけるデータの定常性の、 基準軸に 対する角度を検出する角度検出手段と、 角度検出手段により検出された角度に基 づいて、 欠落した現実世界の光信号の定常性を推定することにより光信号を推定 する実世界推定手段とを設けることができる。
角度検出手段は、 画像データ内の注目画素おょぴ基準軸を基準とした複数の角 度の角度毎に、 所定の数の画素からなる画素の組を、 複数抽出する画素抽出手段 と、 画素抽出手段により角度毎に抽出された、 複数の組における対応する位置の 画素間の画素値の相関を検出する相関検出手段とを備え、 相関検出手段により検 出された相関に基いて、 欠落した現実世界の光信号の定常性に対応する、 画像デ ータにおける、 基準軸を基準としたデータの定常性の角度を検出するようにする ことができる。
画素抽出手段は、 画像データの注目画素おょぴ基準軸を基準とした角度毎の直 線に近接する画素を中心に、 画像データに対して垂直方向または水平方向に位置 する複数の画素からなる画素の組を、 複数抽出し、 相関検出手段は、 画像データ の注目画素おょぴ基準軸に対して所定の角度の直線に近接する画素を中心として、 抽出された複数の組における対応する位置の画素間の画素値の相関を検出するよ うにすることができる。
画素抽出手段は、 画像データの注目画素および基準軸を基準とした角度毎の直 線に近接する画素を中心に、 画像データに対して垂直方向または水平方向に位置 する、 角度の範囲に対する数の画素からなる画素の組を、 当該角度の範囲に対す る数抽出するようにすることができる。
画素抽出手段は、 画像データから垂直:^向と水平方向のァクティビティとを検 出し、 検出されたァクティビティに応じて、 画像データの注目画素および基準軸 を基準とした角度毎の直線に近接する画素を中心に、 画像データに対して垂直方 向および水平方向のいずれか一方に位置する複数の画素からなる画素の組を、 複 数抽出するようにすることができる。
画像処理装置は、 相関検出手段により検出された相関の値に基いて、 角度検出 4 001488
429
手段または実世界推定手段の動作が制御されるようにすることができる。
画素抽出手段は、 画像データの注目画素および基準軸を基準とした所定の角度 の直線のそれぞれに近接する画素を中心とした画像ブロックを抽出し、 相関検出 手段は、 画像データの注目画素おょぴ基準軸を基準とした角度の直線のそれぞれ に近接する画素を中心とした、 画像ブロックの相関を検出するようにすることが できる
角度検出手段は、 画像データ内の注目画素に対応する領域を選択する領域選択 手段と、 領域選択手段により選択された領域内の、 欠落した現実世界の光信号の 定常性に対応する画像データにおけるデータの定常性の基準軸に対する角度を検 出するための特徴を検出する特徴検出手段とを備え、 特徴検出手段により検出さ れた特徴に基いて統計的に角度を検出し、 実世界推定手段は、 角度検出手段によ り検出された画像データにおけるデータの定常性の基準軸に対する角度に基いて、 欠落した現実世界の光信号の定常性を推定することにより光信号を推定するよう にすることができる。
領域選択手段は、 画像データ内の注目画素を基準として、 画像データに対して 垂直方向および水平方向のアクティビティを検出するァクティビティ検出手段を さらに備え、 アクティビティ検出手段による検出結果に応じて、 画像データ内の 処理領域を選択し、 特徴検出手段は、 領域選択手段により選択された領域内の画 素の画素値の最大値と最小値との差であるダイナミックレンジを検出するダイナ ミックレンジ検出手段と、 領域選択手段により選択された領域内の、 ァクテイビ ティ検出手段による検出結果に応じた方向に隣接する画素間の差分値を検出する 差分値検出手段とをさらに備え、 角度検出手段は、 ダイナミックレンジと差分値 に応じて、 欠落した現実世界の光信号の定常性に対応する画像データにおけるデ ータの定常性の基準軸に対する角度を統計的に検出するようにすることができる。 画像処理装置は、 ダイナミックレンジ検出手段により検出される領域内の画素 の画素値の最大値と最小値とに基いて、 領域内の前景オブジェク ト成分と背景ォ ブジェクト成分との混合比を推定する混合比推定手段をさらに設けることができ る。
画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素子に現実世界 の光信号が射影されることにより取得された、 現実世界の光信号の定常性の一部 が欠落した複数の画素からなる画像データ内において、 データの定常性を有する 領域を検出する定常領域検出手段と、 現実世界の光信号の定常性の一部が欠落し た複数の画素からなる画像データにおけるデータの定常性に基づいて、 欠落した 現実世界の光信号の定常性を推定することにより光信号を推定する実世界推定手 段とを設けることができる。
画像処理装置は、 画像データにおけるデータの定常性の基準軸に対する角度を 検出する角度検出手段をさらに備え、 定常領域検出手段は、 角度に基いて画像デ ータにおけるデータの定常性を有する領域を検出し、 実世界推定手段は、 領域に 対して、 欠落した現実世界の光信号の定常性を推定することにより光信号を推定 するようにすることができる。
定常領域検出手段は、 角度に沿って定常であるモデルと画像データとの誤差に 基づいて画像データにおけるデータの定常性を有する領域を検出するようにする ことができる。
定常領域検出手段は、 実世界推定手段の後段に配され、 実世界推定手段により 生成される現実世界の光信号を表す第 1の関数を近似する第 2の関数と、 画像デ ータとの誤差に基いて、 実世界推定手段により生成された第 2の関数を選択的に 出力するようにすることができる。
定常領域検出手段は、 現実世界の光信号の定常性の一部が欠落した画像データ における、 複数の画素の画素値の不連続部を検出し、 検出された不連続部から、 データの定常性を有する定常領域を検出し、 実世界推定手段は、 定常領域検出手 段により検出された定常領域に属する画素の画素値に基づいて、 再び領域を検出 し、 再び検出された領域に基づいて光信号を推定するようにすることができる。 定常領域検出手段は、 画像データの複数の画素の画素値の不連続部を検出する 不連続部検出手段と、 不連続部から画素値の変化の頂点を検出する頂点検出手段 と、 頂点から単調に画素値が増加または減少している単調増減領域を検出する単 調増減領域検出手段と、 単調増減領域検出手段により検出された単調増減領域の 中の、 他の単調増減領域が隣接する位置に存在する単調増減領域を、 第 1の画像 データにおけるデータの定常性を有する定常領域として検出する連続性検出手段 とを含み、 実世界推定手段は、 連続性検出手段により検出された定常領域に属す る画素の画素値に基づいて、 頂点から単調に画素値が増加または減少している領 域を再び検出し、 再び検出された領域に基づいて光信号を推定するようにするこ とができる。
実世界推定手段は、 連続性検出手段により検出された定常領域に属する複数画 素の画素値を回帰する回帰線に基づいて、 頂点から単調に画素値が増加または減 少している領域を再び検出し、 再び検出された領域に基づいて光信号に対応する 信号を生成するようにすることができる。
不連続検出手段は、 画像データの複数の画素の画素値に対応する回帰平面を求 めて、 回帰平面との距離が閾値以上である画素値を有する画素からなる領域を不 連続部として検出し、 実世界推定手段は、 定常領域内の隣り合う単調増減領域を 検出し、 隣り合う単調増減領域の画素の画素値から回帰平面で示される近似値を 減算して差分値を検出し、 隣り合う単調増減領域の対応する画素同士の差分値の 成分の分配比を検出し、 分配比に応じて頂点から単調に画素値が増減する領域を 再検出するようにすることができる。
実世界推定手段は、 現実世界の光信号を表す第 1の関数を近似する第 2の関数 を生成し、 画像処理装置は、 更に、 当該第 2の関数に基づき画像データを生成す る画像化手段を設けることができる。
画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素子に現実世界 の光信号が射影されることにより取得された、 現実世界の光信号の定常性の一部 が欠落した複数の画素からなる第 1の画像データの、 データの定常性を検出する 画像データ定常性検出手段と、 データの定常性に対応する現実世界の光信号の波 形を表すモデルに基いて、 第 1の画像データにおけるデータの定常性から現実世 界の光信号の波形を近似する信号を生成する実世界推定手段と、 実世界推定手段 により生成された信号を第 2の画像データに変換する画像化手段とを設けること ができる。
実世界推定手段は、 画像データ定常性検出手段により検出された、 現実世界の 細線の光信号が複数の検出素子に射影されることにより取得された、 複数の画素 が垂直方向に配されてなる第 1の領域と、 複数の他の画素が垂直方向に配されて なる第 2の領域とが水平方向に連続して隣接するもの、 または現実世界の細線の 光信号が複数の検出素子に射影されることにより取得された、 複数の画素が水平 方向に配されてなる第 3の領域と、 複数の他の画素が水平方向に配されてなる第 4の領域とが垂直方向に連続して隣接するものについての、 第 1の領域の重心お よび第 2の領域の重心、 または第 3の領域の重心および第 4の領域の重心を結ぶ 直線の傾きと、 第 1の領域および第 2の領域、 または第 3の領域および第 4の領 域の重なる重複部分とに基づき、 現実世界の細線の線幅を推定し、 現実世界の光 信号が射影された空間積分効果を有する各検出素子の受光面よりも空間的に小さ い細線の光信号のレベルを、 第 1の画像データ内の画素の画素値から推定するよ うにすることができる。
実世界推定手段は、 第 1の領域または第 3の領域の第 1の画素の画素値から、 第 1の画素に隣接する第 2の画素の画素値を減算した値と、 第 1の領域または第 3の領域の第 1の画素内の細線の面積とに基づいて、 細線の光信号のレベルを推 定するようにすることができる。
画像データ定常性検出手段は、 第 1の画像データ内の複数の画素の画素値に対 応する回帰平面を求めて、 回帰平面との距離が閾値以上である画素値を有する画 素からなる領域を検出し、 実世界推定手段は、 検出された領域の中の、 第 1の領 域または第 3の領域の第 1の画素の画素値から、 回帰平面で近似される値を減算 した値と、 第 1の領域または第 3の領域の第 1の画素内の細線の面積とに基づい て、 細線の光信号のレベルを推定するようにすることができる。
画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素子に現実世界 の光信号が射影されることにより取得された、 現実世界の光信号の定常性の一部 が欠落した複数の画素からなる第 1の画像データにおけるデータの定常性を検出 するデータ定常性検出手段と、 データ定常性検出手段により検出されたデ一タの 定常性に対応して、 現実世界の光信号を表す第 1の関数が有する実世界特徴を検 出する実世界推定手段と、 実世界推定手段により検出された実世界特徴に基いて、 第 1の画像データよりも高質な第 2の画像データを予測し生成する画像生成手段 とを設けることができる。
実世界推定手段は、 定常性検出手段により検出されたデータの定常性に対応す る基準点からの少なくとも 1次元方向に沿つた所定距離に対応する画素の画素値 、 少なくとも 1次元方向の積分効果により取得された画素値であるとして、 第 1の関数を所定の第 2の関数で近似し、 所定画素内における第 2の関数の傾斜で ある画素内傾斜を、 実世界特徴として検出するようにすることができる。
画像生成手段は、 第 2の画像データにおける注目画素の周辺に位置する、 現実 世界の光信号の定常性が欠落した第 1の画像データ内の複数の画素の画素値から 注目画素の画素値を予測する画像予測手段と、 実世界推定手段により検出された 実世界特徴から、 画像予測手段により予測された注目画素の画素値を補正する補 正項を予測する補正項予測手段と、 画像予測手段により予測された注目画素の画 素値を、 補正項予測手段により予測された補正項で補正する補正手段とを設ける ことができる。
画像処理装置は、 画像予測手段が注目画素の画素値を予測する際に使用される 第 1の係数を学習により決定する第 1の学習手段と、 補正項予測手段が画像予測 手段により予測された注目画素の画素値を補正する補正項を予測する際に使用さ れる第 2の係数を学習により決定する第 2の学習手段とを設けることができる。 第 1の学習手段は、 学習用画像データをダウンコンパ一トするダウンコンパ一 ト手段と、 学習用画像データを第 1の教師画像とし、 ダウンコンバート手段によ りダウンコンパ一トされた学習用画像データを第 1の生徒画像とし、 第 1の教師 画像と第 1の生徒画像の関係を学習することにより、 第 1の係数を生成する第 1 の係数生成手段とを設けることができる。
第ェの学習手段は、 第 1の係数生成手段により生成された第 1の係数を使用し て、 第 1の生徒画像から第 1の教師画像を予測する画像データを生成する学習用 画像予測手段をさらに設けることができる。
第 2の学習手段は、 第 1の係数生成手段が第 1の係数を生成する際に第 1の生 徒画像として使用した画像データにおけるデータの定常性を検出し、 検出したデ ータの定常性に基づいて、 第 1の生徒画像を構成する各画素のそれぞれに対応す る実世界特徴を検出し、 検出した実世界特徴に対応する値を画素値とする画像デ ータを、 第 2の生徒画像として生成する生徒画像生成手段と、 第 1の係数生成手 段が第 1の係数を生成する際に第 1の教師画像として使用した学習用画像データ と、 学習用画像予測手段により生成された第 1の教師画像を予測する画像データ の差分からなる画像データを、 第 2教師画像として生成する教師画像生成手段と、 教師画像生成手段により生成された第 2の教師画像と、 生徒画像生成手段により 生成された第 2の生徒画像の関係を学習することにより、 第 2の係数を生成する 第 2の係数生成手段とを設けることができる。
画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素子により現実 世界の光信号が射影されることにより取得された、 現実世界の光信号の定常性の 一部が欠落した、 複数の画素からなる画像データにおけるデータの定常性を検出 するデータ定常性検出手段と、 画像データ定常性検出手段により検出された定常 性に対応して、 画像データ内の注目画素に対して時空間方向のうち 1次元方向の 位置に対応する複数画素の画素値の傾きを生成する実世界推定手段とを設けるこ とができる。
実世界推定手段は、 注目画素に対して 1次元方向の位置に対応する複数画素の 画素値を近似する関数の微分値を生成するようにすることができる。
実世界推定手段は、 定常性検出手段により検出された定常性に対応する基準点 からの 1次元方向に沿った距離に対応する各画素の画素値を近似する関数の微分 値を生成するようにすることができる。 実世界推定手段は、 注目画素に対応する複数の画素の画素値より 1次元方向の 位置に対応する複数画素の画素値の傾きを検出するようにすることができる。 画像処理装置は、 更に、 データの定常性に対応して、 画像データ内の注目画素 の中心位置から 1次元方向にシフトした位置の画素値の傾きを求め、 注目画素の 中心位置から 1次元方向にシフトした位置を中心とする傾きを有する直線の注目 画素内に配される両端の値を注目画素よりも高解像度の画素の画素値として生成 する画素値生成手段を設けることができる。
本発明の信号処理を行うプログラムを記録した記録媒体は、 図 2で示されるよ うに、 コンピュータとは別に、 ユーザにプログラムを提供するために配布される、 プログラムが記録されている磁気ディスク 5 1 (フレキシブルディスクを含む) 、 光ディスク 5 2 (CD-ROM (Compact Di sk - Read Only Memory) , DVD (Digital Versati le Disk)を含む) 、 光磁気ディスク 5 3 (MD (Mini-Disk) (商標) を含む) 、 もし.くは半導体メモリ 5 4などよりなるパッケージメディアにより構 成されるだけでなく、 コンピュータに予め組み込まれた状態でユーザに提供され る、 プログラムが記録されている R0M 2 2や、 記憶部 2 8に含まれるハードディ スクなどで構成される。
なお、 上述した一連の処理を実行させるプログラムは、 必要に応じてルータ、 モデムなどのィンタフェースを介して、 ローカルエリアネットワーク、 インター ネット、 デジタル衛星放送といった、 有線または無線の通信媒体を介してコンビ ユータにィンストールされるようにしてもよい。
なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
本発明によれば、 第 1の次元を有する現実世界の信号である第 1の信号が射影 され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少ない第 2の 次元の第 2の信号の、 欠落した現実世界の信号の定常性に対応するデータの定常 性を検出し、 検出されたデータの定常性に基づいて、 欠落した現実世界の信号の 定常性を推定することにより第 1の信号を推定するようにしたので、 データが取 得された現実世界を考慮し、 現実世界の事象に対して、 より正確で、 より精度の 高い処理結果を得ることができるようになる。

Claims

請求の範囲
1 . 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 前記現 実世界の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次元 の第 2の信号の、 欠落した前記現実世界の信号の定常性に対応するデータの定常 性を検出するデータ定常性検出手段と、
前記データ定常性検出手段により検出された前記データの定常性に基づいて、 欠落した前記現実世界の信号の定常性を推定することにより前記第 1の信号を推 定する実世界推定手段と
を含むことを特徴とする信号処理装置。
2 . 前記データ定常性検出手段は、 それぞれ時空間積分効果を有する複数の検 出素子に、 前記第 1の信号である現実世界の光信号が射影されることにより取得 された、 前記第 2の信号である、 前記現実世界の光信号の定常性の一部が欠落し た複数の画素からなる画像データにおけるデータの定常性を検出し、
前記実世界推定手段は、 前記データ定常性検出手段により検出された前記デー タの定常性に基づき、 前記現実世界の光信号を表す第 1の関数を近似する第 2の 関数を生成する
ことを特徴とする請求の範囲第 1項に記載の信号処理装置。
3 . 前記実世界推定手段は、 前記データ定常性検出手段により検出された前記 データの定常性に基づき、 前記画像データの時空間方向のうち少なくとも 1次元 方向の位置に対応する前記画素の画素値が、 前記少なくとも 1次元方向の積分効 果により取得された画素値であるとして前記画像データを近似することにより、 前記現実世界の光信号を表す第 1の関数を近似する第 2の関数を生成する ことを特徴とする請求の範囲第 2項に記載の信号処理装置。
4 . 前記実世界推定手段は、 前記データ定常性検出手段により検出された前記 データの定常性に対応して、 前記画像データの時空間方向のうち 1次元方向の位 置に対応する前記画素の画素値が、 前記 1次元方向の積分効果により取得された 画素値であるとして前記画像データを近似することにより、 前記現実世界の光信 号を表す第 1の関数を近似する第 2の関数を生成する
ことを特徴とする請求の範囲第 3項に記載の信号処理装置。
5 . 前記実世界推定手段は、 前記定常性検出手段により検出された前記データ の定常性に対応する基準点からの前記少なくとも 1次元方向に沿った所定距離に 対応する各画素の画素値が、 前記少なくとも 1次元方向の積分効果により取得さ れた画素値であるとして前記画像データを近似することにより、 前記現実世界の 光信号を表す第 1の関数を近似する第 2の関数を生成する
ことを特徴とする請求の範囲第 3項に記載の信号処理装置。
6 . 前記実世界推定手段により生成された前記第 2の関数を、 前記少なくとも 1次元方向の所望の単位で積分することにより所望の大きさの画素に対応する画 素値を生成する画素値生成手段をさらに備える
ことを特徴とする請求の範囲第 3項に記載の信号処理装置。
7 . 前記画素値生成手段は、 前記第 2の関数を前記少なくとも 1次元方向の前 記各画素に対応する単位で積分することにより画素値を生成し、
前記画素値生成手段により生成された画素値と、 前記画像データを構成する複 数の画素の画素値との差分値を検出し、 前記差分値に応じて前記第 2の関数を選 択的に出力する出力手段を更に備える
ことを特徴とする請求の範囲第 6項に記載の信号処理装置。
8 . 前記実世界推定手段は、 前記データ定常性検出手段により検出された前記 データの定常性に対応して、 前記画像データの時空間方向のうち少なくとも 2次 元方向の位置に対応する前記画素の画素値が、 前記少なくとも 2次元方向の積分 効果により取得された画素値であるとして前記画像データを多項式で近似するこ とにより、 前記現実世界の光信号を表す第 1の関数を近似する第 2の関数を生成 する
ことを特徴とする請求の範囲第 3項に記載の信号処理装置。
9 . 前記実世界推定手段は、 前記定常性検出手段により検出された前記データ の定常性に対応する基準点からの前記少なくとも 2次元方向に沿った所定距離に 対応する前記画素の前記画素値が、 前記少なくとも 2次元方向の積分効果により 取得された前記画素値であるとして前記画像データを多項式で近似することによ り、 前記現実世界の光信号を表す第 1の関数を近似する第 2の関数を生成する ことを特徴とする請求の範囲第 8項に記載の信号処理装置。
1 0 . 前記実世界推定手段'により生成された前記第 2の関数を、 前記少なくと も 2次元方向の所望の単位で積分することにより所望の大きさの画素に対応する 画素値を生成する画素値生成手段をさらに備える
ことを特徴とする請求の範囲第 8項に記載の信号処理装置。
1 1 . 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 前記 現実世界の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次 元の第 2の信号の、 欠落した前記現実世界の信号の定常性に対応するデータの定 常性を検出するデータ定常性検出ステツプと、
前記データ定常性検出ステップにおいて検出された前記データの定常性に基づ いて、 欠落した前記現実世界の信号の定常性を推定することにより前記第 1の信 号を推定する実世界推定ステップと
を含むことを特徴とする信号処理方法。
1 2 . 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 前記 現実世界の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次 元の第 2の信号の、 欠落した前記現実世界の信号の定常性に対応するデータの定 常性を検出するデータ定常性検出ステップと、
前記データ定常性検出ステップにおいて検出された前記データの定常性に基づ いて、 欠落した前記現実世界の信号の定常性を推定することにより前記第 1の信 号を推定する実世界推定ステップと
をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2004/001488 2003-02-13 2004-02-12 信号処理装置および方法、並びにプログラム WO2004072898A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP04710482A EP1594084A4 (en) 2003-02-13 2004-02-12 SIGNAL PROCESSING DEVICE, METHOD AND PROGRAM
US10/543,839 US7668393B2 (en) 2003-02-13 2004-02-12 Signal processing device, method, and program
US11/670,785 US7576777B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,763 US7609292B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,732 US7590304B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,795 US7734113B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,754 US7595800B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,776 US7593594B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-034506 2003-02-13
JP2003034506A JP4214459B2 (ja) 2003-02-13 2003-02-13 信号処理装置および方法、記録媒体、並びにプログラム

Related Child Applications (7)

Application Number Title Priority Date Filing Date
US10543839 A-371-Of-International 2004-02-12
US11/670,776 Continuation US7593594B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,732 Continuation US7590304B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,754 Continuation US7595800B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,785 Continuation US7576777B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,795 Continuation US7734113B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program
US11/670,763 Continuation US7609292B2 (en) 2003-02-13 2007-02-02 Signal processing device, method, and program

Publications (1)

Publication Number Publication Date
WO2004072898A1 true WO2004072898A1 (ja) 2004-08-26

Family

ID=32866268

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/001488 WO2004072898A1 (ja) 2003-02-13 2004-02-12 信号処理装置および方法、並びにプログラム

Country Status (6)

Country Link
US (7) US7668393B2 (ja)
EP (1) EP1594084A4 (ja)
JP (1) JP4214459B2 (ja)
KR (1) KR101015521B1 (ja)
CN (7) CN101132488B (ja)
WO (1) WO2004072898A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2326366T3 (es) * 2001-12-06 2009-10-08 Jamak Fabrication-Tex Llc Limpiaparabrisas mejorado que tiene caracteristicas de friccion reducidas.
JP4214459B2 (ja) 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4144374B2 (ja) * 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4473779B2 (ja) * 2005-05-23 2010-06-02 株式会社東芝 超音波診断装置及びその画像処理方法
US8219940B2 (en) * 2005-07-06 2012-07-10 Semiconductor Insights Inc. Method and apparatus for removing dummy features from a data structure
JP4929740B2 (ja) * 2006-01-31 2012-05-09 ヤマハ株式会社 音声会議装置
US20080170767A1 (en) * 2007-01-12 2008-07-17 Yfantis Spyros A Method and system for gleason scale pattern recognition
JP5217250B2 (ja) * 2007-05-28 2013-06-19 ソニー株式会社 学習装置および学習方法、情報加工装置および情報加工方法、並びにプログラム
JP4915341B2 (ja) * 2007-12-20 2012-04-11 ソニー株式会社 学習装置および方法、画像処理装置および方法、並びにプログラム
JP4952627B2 (ja) * 2008-03-21 2012-06-13 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5390805B2 (ja) 2008-08-07 2014-01-15 キヤノン株式会社 出力装置およびその方法、プログラム、記録媒体
US20100166257A1 (en) * 2008-12-30 2010-07-01 Ati Technologies Ulc Method and apparatus for detecting semi-transparencies in video
WO2010103593A1 (ja) * 2009-03-13 2010-09-16 シャープ株式会社 画像表示方法及び画像表示装置
US8744665B2 (en) * 2009-07-28 2014-06-03 Yujin Robot Co., Ltd. Control method for localization and navigation of mobile robot and mobile robot using the same
WO2011030389A1 (ja) * 2009-09-14 2011-03-17 三菱電機株式会社 超音波検知装置
JP5495934B2 (ja) * 2010-05-18 2014-05-21 キヤノン株式会社 画像処理装置、その処理方法及びプログラム
US8407181B2 (en) 2010-05-26 2013-03-26 Research In Motion Limited Email system providing enhanced conversation and category search features and related methods
DE112012004053T5 (de) * 2011-09-28 2014-07-31 Canon K.K. Bildverarbeitungsgerät, Bildverarbeitungsverfahren und Programm
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US9709990B2 (en) * 2012-12-21 2017-07-18 Toyota Jidosha Kabushiki Kaisha Autonomous navigation through obstacles
CN104937916B (zh) * 2013-01-22 2017-11-28 日本电气株式会社 图像校正系统、图像校正方法和程序记录介质
JP6602867B2 (ja) * 2014-12-22 2019-11-06 サイバーオプティクス コーポレーション 三次元計測システムの校正を更新する方法
JP6107844B2 (ja) * 2015-01-28 2017-04-05 カシオ計算機株式会社 検出装置、検出制御方法、及びプログラム
CN106464811B (zh) * 2015-03-10 2021-03-26 深圳市大疆创新科技有限公司 用于自适应全景图像生成的系统及方法
US10451407B2 (en) * 2015-11-23 2019-10-22 The Boeing Company System and method of analyzing a curved surface
JP7106363B2 (ja) * 2018-06-18 2022-07-26 キヤノン株式会社 画像形成装置
EP3629240B1 (en) * 2018-09-07 2023-08-23 Panasonic Intellectual Property Corporation of America Generative adversarial networks for local noise removal from an image
CN113792185B (zh) * 2021-07-30 2023-07-14 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 估计缺失信号方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150568A (ja) * 1996-11-18 1998-06-02 Toshiba Corp 画像出力装置及び画像出力のための信号処理方法
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
WO2001097510A1 (en) * 2000-06-15 2001-12-20 Sony Corporation Image processing system, image processing method, program, and recording medium

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4648120A (en) * 1982-07-02 1987-03-03 Conoco Inc. Edge and line detection in multidimensional noisy, imagery data
US5052045A (en) * 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
EP0411911B1 (en) * 1989-08-02 1996-03-27 Canon Kabushiki Kaisha Image processing apparatus
WO1991003795A1 (en) * 1989-08-28 1991-03-21 Eastman Kodak Company Digital image noise reduction of luminance and chrominance based on overlapping planar approximation
JP3036047B2 (ja) 1990-10-25 2000-04-24 松下電器産業株式会社 一体型空気調和機
US5134495A (en) * 1990-11-07 1992-07-28 Dp-Tek, Inc. Resolution transforming raster-based imaging system
JP3073599B2 (ja) * 1992-04-22 2000-08-07 本田技研工業株式会社 画像のエッジ検出装置
FR2730571B1 (fr) * 1995-02-10 1997-04-04 Controle Dimensionnel Optique Procede et dispositif de mesure de la distribution de la mobilite d'elements particulaires dans un milieu
JPH08336115A (ja) 1995-06-08 1996-12-17 Nippon Telegr & Teleph Corp <Ntt> フレーム内挿方法
JPH1063824A (ja) 1996-08-16 1998-03-06 Fujitsu Ltd 画像データの補間平滑化装置
US6285801B1 (en) * 1998-05-29 2001-09-04 Stmicroelectronics, Inc. Non-linear adaptive image filter for filtering noise such as blocking artifacts
JP4016493B2 (ja) * 1998-08-05 2007-12-05 三菱電機株式会社 ディスプレイ装置及びその多階調化回路
JP4224882B2 (ja) 1999-02-09 2009-02-18 ソニー株式会社 データ処理装置およびデータ処理方法
US6621924B1 (en) * 1999-02-26 2003-09-16 Sony Corporation Contour extraction apparatus, a method thereof, and a program recording medium
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
US7583292B2 (en) * 1999-12-28 2009-09-01 Sony Corporation Signal processing device and method, and recording medium
JP2001236498A (ja) 2000-02-25 2001-08-31 Matsushita Electric Ind Co Ltd 画像処理方法および装置
US7085318B2 (en) * 2000-06-15 2006-08-01 Sony Corporation Image processing system, image processing method, program, and recording medium
JP4583573B2 (ja) * 2000-10-05 2010-11-17 ソニー株式会社 情報蓄積装置およびデータベースシステム
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP2002354242A (ja) * 2001-05-25 2002-12-06 Ricoh Co Ltd 画像処理装置、画像読み取り装置、画像形成装置およびカラー複写装置
US7224851B2 (en) * 2001-12-04 2007-05-29 Fujifilm Corporation Method and apparatus for registering modification pattern of transmission image and method and apparatus for reproducing the same
US7694326B2 (en) * 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program
JP2004161731A (ja) 2002-09-25 2004-06-10 Nof Corp 生体関連物質用固定化剤
EP1431349A1 (en) * 2002-12-20 2004-06-23 KRATON Polymers Research B.V. Bituminous compositions
JP4214459B2 (ja) 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4161731B2 (ja) 2003-02-13 2008-10-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4143916B2 (ja) * 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4144374B2 (ja) 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4265237B2 (ja) 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP4144378B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4144377B2 (ja) 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7218794B2 (en) * 2003-04-10 2007-05-15 Samsung Electronics Co., Ltd. Method for detecting grid in block-based compressed video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150568A (ja) * 1996-11-18 1998-06-02 Toshiba Corp 画像出力装置及び画像出力のための信号処理方法
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
WO2001097510A1 (en) * 2000-06-15 2001-12-20 Sony Corporation Image processing system, image processing method, program, and recording medium

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MEIHUA LI, SPARSE OBJECT RECONSTRUCTION FROM A LIMITED NUMBER OF PROJECTIONS USING THE LINEAR PROGRAMMING
RICHARD J. GARDNER; PEYMAN MILANFAR, SHAPE RECONSTRUCTION FROM BRIGHTNESS FUNCTIONS
See also references of EP1594084A4

Also Published As

Publication number Publication date
KR20050098925A (ko) 2005-10-12
US20070126882A1 (en) 2007-06-07
CN101175166A (zh) 2008-05-07
CN101232584A (zh) 2008-07-30
CN101146183A (zh) 2008-03-19
CN101330579B (zh) 2010-08-18
CN101132488A (zh) 2008-02-27
US20070120855A1 (en) 2007-05-31
US7668393B2 (en) 2010-02-23
US7576777B2 (en) 2009-08-18
US7734113B2 (en) 2010-06-08
EP1594084A1 (en) 2005-11-09
EP1594084A4 (en) 2011-10-19
CN101132488B (zh) 2011-02-09
US20070268372A1 (en) 2007-11-22
US7609292B2 (en) 2009-10-27
US7593594B2 (en) 2009-09-22
US7595800B2 (en) 2009-09-29
CN1751321A (zh) 2006-03-22
CN100350428C (zh) 2007-11-21
CN101330579A (zh) 2008-12-24
JP2004264904A (ja) 2004-09-24
CN101146183B (zh) 2010-06-02
US20070122051A1 (en) 2007-05-31
KR101015521B1 (ko) 2011-02-16
CN101141575B (zh) 2011-06-29
US20060098893A1 (en) 2006-05-11
JP4214459B2 (ja) 2009-01-28
US7590304B2 (en) 2009-09-15
CN101141575A (zh) 2008-03-12
CN101232584B (zh) 2010-12-29
CN100542227C (zh) 2009-09-16
US20070126881A1 (en) 2007-06-07
US20070120853A1 (en) 2007-05-31

Similar Documents

Publication Publication Date Title
WO2004072898A1 (ja) 信号処理装置および方法、並びにプログラム
JP4144378B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4144374B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2004077351A1 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2004077354A1 (ja) 画像処理装置および方法、並びにプログラム
JP4214460B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4214462B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161729B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161734B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161727B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161732B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161731B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161733B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161735B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4214461B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161730B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4175131B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4155046B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4178983B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161728B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161254B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4264632B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4182776B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4264631B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004246590A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006098893

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10543839

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004710482

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020057014906

Country of ref document: KR

Ref document number: 20048041190

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057014906

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004710482

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10543839

Country of ref document: US