WO2003003305A1 - Appareil et procede de traitement d'images et appareil de capture d'images - Google Patents

Appareil et procede de traitement d'images et appareil de capture d'images Download PDF

Info

Publication number
WO2003003305A1
WO2003003305A1 PCT/JP2002/006383 JP0206383W WO03003305A1 WO 2003003305 A1 WO2003003305 A1 WO 2003003305A1 JP 0206383 W JP0206383 W JP 0206383W WO 03003305 A1 WO03003305 A1 WO 03003305A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
area
foreground
background
region
Prior art date
Application number
PCT/JP2002/006383
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Seiji Wada
Junichi Ishibashi
Takashi Sawao
Naoki Fujiwara
Takahiro Nagano
Toru Miyake
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to DE60225285T priority Critical patent/DE60225285T2/de
Priority to CA2420025A priority patent/CA2420025C/en
Priority to KR1020037002920A priority patent/KR100843816B1/ko
Priority to US10/362,793 priority patent/US7477289B2/en
Priority to EP02741314A priority patent/EP1403819B1/en
Publication of WO2003003305A1 publication Critical patent/WO2003003305A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • Image processing apparatus and method and imaging apparatus
  • the present invention relates to an image processing apparatus and method, and an image capturing apparatus, and more particularly to an image processing apparatus and method that takes into account a difference between a signal detected by a sensor and the real world, and an image capturing apparatus.
  • motion blur occurs when the moving speed of the object is relatively high.
  • the present invention has been made in view of such a situation, and an object of the present invention is to make it possible to know a state of mixing in an image.
  • a first image processing apparatus includes a foreground object component corresponding to a foreground object component that forms a foreground object and a background object component that configures a background object.
  • Area specifying means for specifying a foreground area consisting only of object components and a non-mixed area consisting of a background area consisting only of background object components, and the movement of the foreground object specified by the area information
  • the foreground object component of the pixel of interest based on the ratio of the width of the mixed area in the predetermined direction based on the direction and the distance along the predetermined direction from the position of the pixel of interest to the edge of the mixed area.
  • a mixture ratio estimating means for estimating a mixture ratio indicating a mixture ratio between the image and the background object component.
  • the image processing apparatus further includes a motion vector detecting unit that detects a motion vector of the foreground object, and the mixture ratio estimating unit includes a width of the mixed region along a moving direction of the motion vector, and The distance from the position of the pixel of interest to the edge of the mixed area is detected, and the mixing ratio is estimated based on the ratio of the width of the mixed area to the distance from the position of the pixel of interest to the edge of the mixed area. Can be.
  • the image processing apparatus further includes a movement direction detecting means for detecting a movement direction of the foreground object, and the mixture ratio estimating means includes a mixture area width and a width of the mixture area along the movement direction from a position of a pixel of interest to an end of the mixture area. Is detected, and the mixing ratio can be estimated based on the ratio of the width of the mixed region to the distance from the position of the pixel of interest to the end of the mixed region.
  • the motion direction detection means generates a motion vector based on the region information, based on the position of the mixed region in the focused frame of interest and the position of the mixed region in a neighboring frame near the focused frame.
  • a motion vector generating means is provided, and the motion direction detecting means detects the motion direction based on the generated motion vector.
  • a foreground object component that forms a foreground object and a background region component that forms a background object are mixed in accordance with image data;
  • the foreground object component and the background object component of the pixel of interest based on the ratio of the width of the mixed region in the direction and the distance along the predetermined direction from the position of the pixel of interest to the edge of the mixed region.
  • the image processing method further includes a motion vector detection step of detecting a motion vector of the foreground object, and the mixture ratio estimation step includes a step of detecting a motion vector of the foreground object, a width of the mixed area, and The distance from the position of the pixel of interest to the edge of the mixed area is detected, and the mixing ratio is estimated based on the ratio of the width of the mixed area to the distance from the position of the pixel of interest to the edge of the mixed area. Can be.
  • the image processing method further includes a motion direction detection step for detecting a motion direction of the foreground object, and the mixture ratio estimation step includes: determining a mixture area width from the width of the mixture area and a position of the pixel of interest along the movement direction. The distance to the edge is detected, and the mixture ratio can be estimated based on the ratio of the width of the mixed region to the distance from the position of the pixel of interest to the end of the mixed region.
  • a motion vector is generated based on the position of the mixed region in the focused frame of interest and the position of the mixed region in a neighboring frame near the focused frame based on the region information.
  • a motion vector generation step may be provided, and the motion direction detection step may detect a motion direction based on the generated motion vector.
  • the program of the first recording medium according to the present invention includes a mixed area formed by mixing a foreground object component forming a foreground object and a background object component forming a background object, corresponding to image data.
  • An area specifying step for specifying a foreground area composed of only foreground object components and a non-mixed area composed of a background area composed of only background object components; and a foreground object movement specified by the area information.
  • the foreground object component and background of the pixel of interest are determined based on the ratio of the width of the mixed area in the predetermined direction based on the direction and the distance along the predetermined direction from the position of the pixel of interest to the edge of the mixed area.
  • a mixture ratio estimation step of estimating a mixture ratio indicating a mixture ratio with the object component.
  • the program further includes a motion vector detection step for detecting a motion vector of the foreground object, and the mixture ratio estimation step includes a step for detecting a motion ratio of the foreground object along the motion direction of the motion vector. Then, the width of the mixed area and the distance from the position of the pixel of interest to the edge of the mixed area are detected. Based on the ratio of the width of the mixed area to the distance from the position of the pixel of interest to the edge of the mixed area, The ratio can be estimated.
  • the program further includes a motion direction detection step for detecting a motion direction of the foreground object, and the mixture ratio estimation step includes, from the position of the pixel of interest and the position of the pixel of interest to the edge of the mixture area, along the motion direction. , And the mixture ratio can be estimated based on the ratio of the width of the mixture region to the distance from the position of the pixel of interest to the end of the mixture region.
  • a motion vector is generated based on the position of the mixed region in the focused frame of interest and the position of the mixed region in a neighboring frame near the focused frame based on the region information.
  • a motion vector generation step may be provided, and the motion direction detection step may detect a motion direction based on the generated motion vector.
  • a first program according to the present invention provides a computer with a mixed area in which a foreground object component constituting a foreground object and a background object component constituting a background object are mixed in accordance with image data; An area specifying step for specifying a foreground area consisting only of the foreground object component and an unmixed area consisting of a background area consisting only of the background object component; and a moving direction of the foreground object specified by the area information.
  • a mixture ratio estimation step of estimating a mixture ratio indicating a mixture ratio with the component.
  • the program further includes a motion vector detection step for detecting a motion vector of the foreground object, and the mixture ratio estimation step includes a step of detecting a motion vector of the foreground object along with a motion direction of the motion vector.
  • the distance from the position to the edge of the mixed area is detected, and the mixing ratio can be estimated based on the ratio of the width of the mixed area to the distance from the position of the pixel of interest to the edge of the mixed area.
  • the program further includes a motion direction detection step for detecting a motion direction of the foreground object, and the mixture ratio estimation step includes, from the position of the pixel of interest and the position of the pixel of interest to the edge of the mixture area, along the motion direction. The distance of ⁇ is detected, and the mixture ratio can be estimated based on the ratio of the width of the mixture region to the distance from the position of the pixel of interest to the end of the mixture region.
  • a motion vector is generated based on the position of the mixed region in the focused frame of interest and the position of the mixed region in a neighboring frame near the focused frame based on the region information.
  • a motion vector generation step may be provided, and the motion direction detection step may detect a motion direction based on the generated motion vector.
  • a first imaging apparatus includes: an imaging unit that outputs a subject image captured by an imaging device having a predetermined number of pixels having a time integration effect as image data including a predetermined number of pixel data; In accordance with the data, a mixed area in which the foreground object component constituting the foreground object and the background object component constituting the background object are mixed, a foreground area including only the foreground object component, and a background.
  • the foreground object composition of the pixel of interest is calculated based on the ratio between the position of the pixel of interest and the distance along the predetermined direction from the position of the pixel of interest to the edge of the mixed area. Characterized in that it comprises a mixture ratio estimation means to estimate a mixture ratio indicating the ratio of mixing of the background object components and.
  • the imaging device further includes a motion vector detecting means for detecting a motion vector of the foreground object, and the mixture ratio estimating means includes a width of the mixed region along the motion direction of the motion vector, The distance from the pixel position to the edge of the mixed area is detected, and the mixing ratio is estimated based on the ratio of the width of the mixed area to the distance from the position of the pixel of interest to the edge of the mixed area. it can.
  • the imaging device further includes a movement direction detecting means for detecting a movement direction of the foreground object.
  • the mixture ratio estimating means detects the width of the mixed region and the distance from the position of the pixel of interest to the edge of the mixed region along the movement direction, and calculates the width of the mixed region and the position of the mixed pixel from the position of the pixel of interest.
  • the mixture ratio can be estimated based on the ratio to the distance to the end of the circle.
  • the motion direction detection means generates a motion vector based on the region information, based on the position of the mixed region in the focused frame of interest and the position of the mixed region in a neighboring frame near the focused frame.
  • Motion vector generating means may be provided, and the motion direction detecting means may detect a motion direction based on the generated motion vector.
  • a second image processing apparatus specifies a mixed area in which a foreground object component forming a foreground object and a background object component forming a background object are mixed, corresponding to image data.
  • a region specifying means for outputting region information; and assuming that a change in a mixture ratio indicating a mixture ratio of the foreground object component and the background object component in the mixed region is substantially linear with respect to the position of the pixel, the region information and Mixing ratio estimating means for estimating the mixing ratio based on the direction of movement of the foreground object.
  • the mixture ratio estimating means is arranged such that one end is located in the foreground region consisting only of the foreground object component, and the other end is located in the background region consisting solely of the background object component, and on a line segment traversing the mixed region. Based on the position, the mixture ratio of the pixel corresponding to the position on the line segment can be estimated.
  • the mixture ratio estimating means can estimate the mixture ratio of the pixels corresponding to the position on the line segment based on the position on the line segment parallel to the movement direction of the foreground object.
  • the mixture ratio estimating means can estimate the mixture ratio of pixels corresponding to the position on the line segment based on the position on the line segment oblique to the direction of movement of the foreground object.
  • a second image processing method specifies a mixed area in which foreground object components forming a foreground object and background object components forming a background object are mixed, corresponding to image data.
  • Area identification step to output area information Assuming that the change in the mixing ratio, which indicates the mixing ratio between the foreground object component and the background object component in the mixed region, is substantially linear with respect to the pixel position, the region information and the movement of the foreground object And a mixture ratio estimation step of estimating the mixture ratio based on the direction.
  • one end is located in the foreground region consisting only of the foreground object component, and the other end is located in the background region consisting only of the background object component, and on the line segment traversing the mixture region. Based on the position, the mixture ratio of the pixel corresponding to the position on the line segment can be estimated.
  • the mixture ratio of the pixel corresponding to the position on the line segment can be estimated based on the position on the line segment parallel to the motion direction of the foreground object.
  • the mixture ratio of the pixel corresponding to the position on the line segment can be estimated based on the position on the line segment oblique to the movement direction of the foreground object.
  • the program of the second recording medium according to the present invention specifies a mixed area in which foreground object components constituting a foreground object and background object components constituting a background object are mixed, corresponding to image data. Assuming that the change of the mixture ratio indicating the mixture ratio of the foreground object component and the background object component in the mixed region is substantially linear with respect to the position of the pixel, A mixture ratio estimating step of estimating a mixture ratio based on the region information and the motion direction of the foreground object.
  • one end is located in the foreground region consisting only of the foreground object component, the other end is located in the background region consisting only of the background object component, and Based on the position, the mixture ratio of the pixel corresponding to the position on the line segment can be estimated.
  • the mixture ratio of the pixel corresponding to the position on the line segment can be estimated based on the position on the line segment parallel to the motion direction of the foreground object.
  • the mixture ratio of the pixel corresponding to the position on the line segment can be estimated based on the position on the line segment oblique to the movement direction of the foreground object.
  • a second program specifies, in a computer, a mixed area in which foreground object components constituting a foreground object and background object components constituting a background object are mixed in accordance with image data.
  • a region specifying step of outputting region information to be mixed, and a change in a mixture ratio indicating a mixture ratio of a foreground object component and a background object component in the mixed region is assumed to be substantially linear with respect to the pixel position.
  • a mixture ratio estimating step of estimating a mixture ratio based on the area information and the motion direction of the foreground object.
  • one end is located in the foreground region consisting only of the foreground object component, the other end is located in the background region consisting only of the background object component, and Based on the position, the mixture ratio of the pixel corresponding to the position on the line segment can be estimated.
  • the mixture ratio of the pixel corresponding to the position on the line segment can be estimated based on the position on the line segment parallel to the motion direction of the foreground object.
  • the mixture ratio of the pixel corresponding to the position on the line segment can be estimated based on the position on the line segment oblique to the movement direction of the foreground object.
  • a second imaging apparatus includes: an imaging unit configured to output a subject image captured by an imaging device having a predetermined number of pixels having a time integration effect as image data including a predetermined number of pixel data; Area specifying means for outputting area information for specifying a mixed area in which foreground object components constituting the foreground object and background object components constituting the background object are mixed in accordance with the data; Of the mixture of the foreground object component and the background object component in the It is characterized in that the change in the mixture ratio shown is substantially linear with respect to the position of the pixel, and a mixture ratio estimating means for estimating the mixture ratio based on the area information and the motion direction of the foreground object is included.
  • the mixture ratio estimating means is arranged such that one end is located in the foreground region consisting only of the foreground object component, and the other end is located in the background region consisting solely of the background object component, and on a line segment traversing the mixed region. Based on the position, the mixture ratio of the pixel corresponding to the position on the line segment can be estimated.
  • the mixture ratio estimating means can estimate the mixture ratio of the pixels corresponding to the position on the line segment based on the position on the line segment parallel to the movement direction of the foreground object.
  • the mixture ratio estimating means can estimate the mixture ratio of pixels corresponding to the position on the line segment based on the position on the line segment oblique to the direction of movement of the foreground object.
  • a mixture ratio indicating the ratio of the mixture of the foreground object component and the background object component of the pixel of interest is estimated.
  • area information for specifying a mixed area in which the foreground object component forming the foreground object and the background object component forming the background object are mixed is output, and the foreground in the mixed area is output.
  • the mixture ratio is determined based on the region information and the motion direction of the foreground object. Presumed.
  • FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.
  • FIG. 2 is a block diagram illustrating the image processing apparatus.
  • FIG. 3 is a diagram illustrating imaging by a sensor.
  • FIG. 4 is a diagram illustrating the arrangement of pixels.
  • FIG. 5 is a diagram illustrating the operation of the detection element.
  • FIG. 6A is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6B is a diagram illustrating a model of an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 7 is a diagram illustrating a background area, a foreground area, a mixed area, a covered background area, and an uncovered background area.
  • Fig. 8 shows the pixel values of adjacent pixels arranged in a row in the time direction, in the image of the object corresponding to the stationary foreground and the object corresponding to the stationary background. It is a model figure.
  • FIG. 9 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • FIG. 10 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 11 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 12 is a diagram illustrating an example in which pixels in a foreground area, a background area, and a mixed area are extracted.
  • Figure 1 4 is a diagram showing the correspondence between model obtained by expanding the pixel and the pixel value in the time direction, expand the pixel values in the time direction, by dividing the period corresponding to the shutter time model FIG.
  • Fig. 15 shows the pixel values developed in the time direction, and the period corresponding to the shirt time is divided.
  • FIG. 16 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 17 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 18 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 19 is a flowchart illustrating the process of adjusting the amount of motion blur.
  • FIG. 20 is a block diagram showing an example of the configuration of the area specifying unit 103. As shown in FIG.
  • FIG. 21 is a diagram illustrating an image when an object corresponding to the foreground is moving.
  • FIG. 22 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided. .
  • FIG. 23 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 24 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 25 is a diagram for explaining conditions for region determination.
  • FIG. 26A is a diagram showing an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 26B is a diagram showing an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 26C is a diagram illustrating an example of a result of specifying a region by the region specifying unit 103.
  • FIG. 26D is a diagram illustrating an example of a result of specifying a region by the region specifying unit 103.
  • FIG. 27 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103.
  • FIG. 28 is a flowchart for explaining the area specifying process.
  • FIG. 29 is a block diagram illustrating another example of the configuration of the area specifying unit 103.
  • FIG. 30 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 31 is a diagram illustrating an example of a background image.
  • FIG. 32 is a block diagram showing the configuration of the binary object image extracting unit 302. c
  • FIG. 33A is a diagram for explaining calculation of a correlation value.
  • FIG. 33B is a diagram illustrating calculation of a correlation value.
  • FIG. 34A is a diagram illustrating calculation of a correlation value.
  • FIG. 34B is a diagram illustrating calculation of a correlation value.
  • FIG. 35 is a diagram illustrating an example of a binary object image.
  • FIG. 36 is a block diagram showing the configuration of the time change detecting section 303. As shown in FIG.
  • FIG. 37 is a diagram for explaining the determination by the area determination unit 342.
  • FIG. 38 is a diagram illustrating an example of determination by the time change detection unit 303.
  • FIG. 39 is a flowchart for explaining the area identification processing of the area determination unit 103.
  • FIG. 40 is a flowchart illustrating details of the area determination process.
  • FIG. 41 is a block diagram showing still another configuration of the area specifying unit 1.3.
  • FIG. 42 is a block diagram illustrating a configuration of robust unit 361.
  • FIG. 43 is a diagram illustrating the motion compensation of the motion compensation unit 381.
  • FIG. 44 is a diagram illustrating the motion compensation of the motion compensation unit 381.
  • FIG. 45 is a flowchart for explaining the area specifying process.
  • FIG. 46 is a flowchart for explaining the details of the mouth bust process.
  • FIG. 47 is a block diagram illustrating a configuration of the mixture ratio calculation unit 104. As illustrated in FIG.
  • FIG. 48 is a diagram illustrating an example of an ideal mixture ratio.
  • FIG. 49 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 50 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 51 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 52 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 53 is a diagram illustrating a process of calculating the mixture ratio H.
  • FIG. 54 is a flowchart for explaining the process of calculating the mixture ratio H.
  • FIG. 55 is a flowchart for explaining the process of calculating the mixture ratio H of the pixels belonging to the mixed region.
  • FIG. 56 is a block diagram showing an example of the configuration of the foreground / background separation unit 105.
  • FIG. 57A is a diagram showing an input image, a foreground component image, and a background component image.
  • FIG. 57B is a diagram illustrating models of the input image, the foreground component image, and the background component image.
  • FIG. 58 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 59 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 60 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shirt time is divided.
  • FIG. 61 is a block diagram illustrating an example of the configuration of the separation unit 600. As illustrated in FIG.
  • FIG. 62A is a diagram illustrating an example of a separated foreground component image.
  • FIG. 62B is a diagram illustrating an example of the separated background component image.
  • FIG. 63 is a flowchart illustrating the process of separating the foreground and the background.
  • FIG. 64 is a block diagram illustrating another configuration of the image processing apparatus according to the present invention.
  • FIG. 65 is a block diagram illustrating a configuration of the motion direction estimating unit 71.
  • FIG. 66 is a diagram for describing block matching of the motion vector detection unit 721.
  • FIG. 67A illustrates the evaluation block.
  • FIG. 67B illustrates the evaluation block.
  • FIG. 67C illustrates the evaluation block.
  • FIG. 67D illustrates the evaluation block.
  • FIG. 68 is a block diagram showing the configuration of the mixture ratio calculation section 720. As shown in FIG.
  • FIG. 69 is a flowchart for explaining the foreground / background separation process.
  • FIG. 70 is a flowchart for explaining the process of obtaining the motion direction.
  • FIG. 71 is a flowchart illustrating a process of calculating the mixture ratio H.
  • FIG. 72 is a flowchart for explaining the process of calculating the mixture ratio a of the pixels belonging to the mixed region.
  • FIG. 73 is a block diagram showing still another configuration of the image processing apparatus according to the present invention.
  • FIG. 74 is a flowchart illustrating the foreground / background separation process.
  • FIG. 1 is a diagram showing an embodiment of an image processing apparatus according to the present invention.
  • the CPU (Central Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • a RAM (Random Access Memory) 23 stores programs and data executed by the CPU 21 as appropriate.
  • These CPU 21, ROM 22 and RAM 23 are interconnected by a node 24.
  • the CPU 21 is also connected with an input / output interface 25 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 including a keyboard, a mouse, and a microphone, and an output unit 27 including a display, a speaker, and the like.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, and the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and the c communication unit 29 for storing programs to be executed by the CPU 21 and various types of data. Communication with external devices via the network I believe.
  • the communication unit 29 functions as an acquisition unit that captures the output of the sensor c.
  • the program may be acquired via the communication unit 29 and stored in the storage unit 28 c.
  • Drive 30 connected to magnetic disk 5
  • FIG. 2 is a block diagram illustrating the image processing apparatus.
  • each function of the image processing apparatus is implemented by hardware or software. That is, each block diagram in this specification may be considered as a block diagram of hardware or a functional block diagram by software.
  • an image corresponding to an object in the real world to be imaged is referred to as an image object.
  • the input image supplied to the image processing device is supplied to an object extraction unit 101, a region identification unit 103, and a foreground / background separation unit 105.
  • the object extraction unit 101 roughly extracts an image object corresponding to the foreground object included in the input image, and extracts the extracted image object from the motion detection unit.
  • the object extracting unit 101 roughly extracts the image object corresponding to the foreground object, for example, by detecting the outline of the image object corresponding to the foreground object included in the input image.
  • the object extraction unit 101 roughly extracts an image object corresponding to a background object included in the input image, and converts the extracted image object into a motion detection unit.
  • the object extracting unit 101 roughly extracts, for example, an image object corresponding to the background object from a difference between the input image and the extracted image object corresponding to the extracted foreground object. .
  • the object extracting unit 101 generates a foreground object from a difference between a background image stored in a background memory provided therein and an input image.
  • the corresponding image object and the image object corresponding to the background object may be roughly extracted.
  • the motion detection unit 102 calculates the motion vector of the image object corresponding to the coarsely extracted foreground object, for example, by using a method such as a block matching method, a gradient method, a phase correlation method, or a pel recursive method. Then, the calculated motion vector and the position information of the motion vector (information for specifying the position of the pixel corresponding to the motion vector) are supplied to the region specifying unit 103 and the mixture ratio calculating unit 104. .
  • a method such as a block matching method, a gradient method, a phase correlation method, or a pel recursive method.
  • the motion vector output by the motion detection unit 102 includes information corresponding to the motion amount V.
  • the motion detection unit 102 sends the motion vector for each image object to the region identification unit 103 and the mixture ratio calculation unit 104 together with the pixel position information for identifying the pixel in the image object. You may output it.
  • the motion amount V is a value representing a change in the position of the image corresponding to the moving object in units of pixel intervals. For example, when the image of an object corresponding to the foreground is moving so that it is displayed at a position separated by 4 pixels in the next frame with respect to a certain frame, the amount of motion of the image of the object corresponding to the foreground V is
  • the area specifying unit 103 specifies each of the pixels of the input image as one of a foreground area, a background area, and a mixed area, and for each pixel, any one of a foreground area, a background area, and a mixed area. Is supplied to the mixture ratio calculation unit 104 and the foreground / background separation unit 105.
  • the mixture ratio calculation unit 104 is included in the mixture region based on the motion vector and its position information supplied from the motion detection unit 102 and the region information supplied from the region identification unit 103.
  • a mixture ratio corresponding to the pixel (hereinafter, referred to as a mixture ratio) is calculated, and the calculated mixture ratio is supplied to the foreground / background separation unit 105.
  • the mixing ratio H indicates the proportion of the image component corresponding to the background object (hereinafter also referred to as the background component) in the pixel value. Value.
  • the foreground / background separation unit 105 extracts the image corresponding to the foreground object based on the region information supplied from the region identification unit 103 and the mixture ratio supplied from the mixture ratio calculation unit 104.
  • An input image is separated into a foreground component image composed of only components (hereinafter, also referred to as foreground components) and a background component image composed of only background components, and a foreground component image and a background component image are output.
  • FIG. 3 is a diagram illustrating imaging by a sensor.
  • the sensor is composed of, for example, a CCD video camera equipped with a CCD (Charge-Coupled Device) area sensor that is a solid-state imaging device.
  • the object 111 corresponding to the foreground in the real world moves horizontally between the sensor 112 corresponding to the background in the real world and the sensor, for example, from left to right in the figure.
  • CCD Charge-Coupled Device
  • the sensor captures the object 111 corresponding to the foreground together with the object 111 corresponding to the background.
  • the sensor outputs the captured image in units of one frame.
  • C For example, the sensor outputs an image composed of 30 frames per second.
  • the exposure time of the sensor can be 1 Z 30 seconds.
  • the exposure time is the period from when the sensor starts converting the input light into electric charge until the sensor finishes converting the input light into electric charge.
  • the exposure time is also referred to as shirt time.
  • FIG. 4 is a diagram illustrating the arrangement of pixels.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image.
  • One detection element corresponding to one pixel is arranged on the sensor.
  • one detection element outputs a pixel value corresponding to one pixel forming the image.
  • the position of the detection element in the X direction corresponds to the position in the horizontal direction on the image
  • the position of the detection element in the Y direction corresponds to the position in the vertical direction on the image.
  • a detection element such as a CCD converts input light into electric charges and accumulates the converted electric charges for a period corresponding to the shutter time.
  • the amount of charge is almost proportional to the intensity of the input light and the time the light is input.
  • the detection element adds the electric charge converted from the input light to the electric charge already stored during a period corresponding to the shutter time. That is, the detection element integrates the input light for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect with respect to time.
  • the electric charge accumulated in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output. Therefore, the individual pixel values output from the sensor are the values projected onto a one-dimensional space, which is the result of integrating the spatially extended part of the object corresponding to the foreground or background over the shirt time. Having.
  • the image processing apparatus extracts significant information buried in the output signal, for example, the mixture ratio ⁇ by the accumulation operation of the sensor.
  • the image processing device adjusts the amount of distortion caused by mixing of the foreground image objects themselves, for example, the amount of motion blur. Further, the image processing device adjusts the amount of distortion caused by mixing of the foreground image object and the background image object.
  • FIG. 6D is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 6D is a diagram illustrating a model of an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • Figure 6 6 shows an image obtained by capturing an object corresponding to a foreground with motion and an object corresponding to a stationary background.
  • the object corresponding to the foreground moves horizontally from left to right with respect to the screen.
  • FIG. 6B is a model diagram in which pixel values corresponding to one line of the image shown in FIG. 6A are expanded in the time direction.
  • the horizontal direction in Fig. 6B corresponds to the spatial direction X in Fig. 6Ac
  • the pixels in the background area have their pixel values composed only of the background components, ie, the image components corresponding to the background objects.
  • the pixel values of the pixels in the foreground area are composed of only the components of the foreground, that is, the components of the image corresponding to the foreground object.
  • the pixel value of a pixel in the mixed area is composed of a background component and a foreground component. Since the pixel value is composed of the background component and the foreground component, the mixed region can be said to be a distorted region. The mixed region is further classified into a covered background region and an anchored background region.
  • the covered background area is a mixed area at a position corresponding to the front end of the foreground object in the traveling direction with respect to the foreground area, and is an area where the background component is covered by the foreground with the passage of time. .
  • the uncovered background area is a mixed area at the position corresponding to the rear end of the foreground object in the traveling direction with respect to the foreground area. The area that appears.
  • FIG. 7 is a diagram illustrating the background area, foreground area, mixed area, covered background area, and uncovered background area as described above.
  • the background area is a stationary part
  • the foreground area is a moving part
  • the covered background area of the mixed area is a part that changes from the background to the foreground.
  • the uncovered background area of the mixed area is the part that changes from the foreground to the background.
  • Figure 8 shows the time-wise expansion of the pixel values of the pixels that are adjacent to each other in a row in the image of the object corresponding to the stationary foreground and the object corresponding to the stationary background. It is a model figure. For example, you can select pixels that are aligned on one line of the screen as pixels that are adjacently arranged in one column. You.
  • the pixel values of F01 to F04 shown in FIG. 8 are the pixel values of the pixels corresponding to the stationary foreground object.
  • the pixel values B01 to B04 shown in FIG. 8 are the pixel values of the pixels corresponding to the stationary background object.
  • the vertical direction in FIG. 8 corresponds to time, and time elapses from top to bottom in the figure.
  • the position on the upper side of the rectangle in FIG. 8 corresponds to the time when the sensor starts converting the input light into electric charge, and the position on the lower side of the rectangle in FIG. 8 indicates the electric power of the light input to the sensor.
  • the horizontal direction in FIG. 8 corresponds to the spatial direction X described in FIG. 6A. More specifically, in the example shown in FIG. 8, the distance from the left side of the rectangle indicated by “F01” in FIG. 8 to the right side of the rectangle indicated by “B04” is eight times the pixel pitch. That is, it corresponds to the interval between eight consecutive pixels.
  • the light input to the sensor does not change during the period corresponding to the shutter time.
  • the period corresponding to the shutter time is divided into two or more periods of the same length.
  • the model diagram shown in FIG. 8 can be represented as a model shown in FIG.
  • the number of virtual divisions is set in accordance with the amount of movement V of the object corresponding to the foreground within the shirt time.
  • the number of virtual divisions is set to 4 corresponding to the motion amount V of 4, and the period corresponding to the shutter time is divided into four.
  • the top row in the figure corresponds to the first, divided period since the shirt opened.
  • the second row from the top in the figure corresponds to the second, divided period when the shirt is open.
  • the third row from the top in the figure corresponds to the third, divided period since the shirt opened.
  • the fourth line from the top in the figure is the fourth, divided Corresponding to the period.
  • the shirt time divided according to the movement amount V is also referred to as shirt time / v.
  • the foreground component FO l / v is equal to the value obtained by dividing the pixel value F01 by the number of virtual divisions.
  • the foreground component F02 / v is equal to the value obtained by dividing the pixel value F02 by the number of virtual divisions
  • the foreground component F03 / v is obtained by dividing the pixel value F03 by the pixel value F03.
  • the foreground component F04 / v is equal to the value obtained by dividing the pixel value F04 by the number of virtual divisions.
  • the background component BO l / v is equal to the value obtained by dividing the pixel value B01 by the number of virtual divisions.
  • the background component B02 / v is equal to the value obtained by dividing the pixel value B02 by the virtual division number
  • B03 / v is the pixel value B03 obtained by dividing the pixel value B03 by the virtual division number.
  • B04 / v is equal to the pixel value B04 divided by the number of virtual divisions.
  • Foreground component FO l / v corresponding to / V, and foreground component FO l / v corresponding to Sachta time / V, and foreground component FO l / v corresponding to Sachta time / V Has the same value as the foreground component FO l / v corresponding to the foreground, and the foreground component FO l / v corresponding to the foreground time / V, which is the fourth when the shutter is opened.
  • F02 / v to F04 / v also have the same relationship as FO l / v.
  • B02 / v to B04 / v also have the same relationship.
  • Figure 10 is a model diagram in which the pixel values of the pixels on one line, including the covered background area, are expanded in the time direction when the object corresponding to the foreground moves toward the right in the figure. is there.
  • the foreground motion amount V is 4. Since one frame is short, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with respect to a certain frame.
  • the leftmost pixel to the fourth pixel from the left belong to the foreground area.
  • the fifth through seventh pixels from the left belong to the mixed area that is the covered background area.
  • the rightmost pixel belongs to the background area.
  • the components included in the pixel values of the pixels belonging to the covered background area correspond to the shutter time.
  • the background component changes to the foreground component.
  • a pixel value M indicated by a thick line frame in FIG. 10 is represented by Expression (1).
  • the fifth pixel from the left contains the background component corresponding to one shirt time / V and the foreground component corresponding to three shirt times / V, so the fifth pixel from the left is mixed The ratio is 1/4.
  • the sixth pixel from the left contains the background component corresponding to the two shutter times / v and the foreground component corresponding to the two shutter times / v, so the mixture ratio of the sixth pixel from the left Is 1/2. 7 from left
  • the seventh pixel contains the background component corresponding to the three shutter times / V and the foreground component corresponding to one shutter time / V, so the mixture ratio a of the seventh pixel from the left is 3 / 4.
  • the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, from the left in Fig. 10
  • the foreground component F07 / v is the foreground component of the sixth pixel from the left in Fig. 10 corresponding to the third shirt time / V when the shirt is opened, and the left in Fig. 10 From the seventh pixel, the shutter is opened and the foreground component corresponding to the fourth shutter time / V, respectively.
  • the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, from the left in Fig. 10
  • the foreground component F06 / v of the first pixel in the first pixel, when the shirt is open, corresponds to the second pixel in the fourth pixel from the left in Figure 10 Equal to the foreground component.
  • the foreground component F06 / v is the fifth pixel from the left in FIG. 10, the foreground component corresponding to the third shirt time / V when the shirt is open, and the left in FIG.
  • the sixth pixel is equal to the foreground component corresponding to the fourth shirt time / V when the shirt opens.
  • the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, from the left in Fig. 10
  • the foreground component F05 / v is the third pixel of the fourth pixel from the left in Fig. 10
  • the foreground component corresponding to the shutter time / v is equal to the foreground component corresponding to the fifth pixel from the left in Fig. 10, which corresponds to the fourth shutter time / v when the shirt is opened. .
  • the object corresponding to the foreground is rigid and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, the leftmost object in Fig. 10
  • Foreground component F04 / v of the pixel which is the time when the shirt is open and the foreground of the first shirt, is the foreground corresponding to the second pixel from the left where the shirt is open, the time / v Is equal to the component of
  • the foreground component F04 / V is the foreground component of the third pixel from the left in Fig. 10 corresponding to the third shutter time / v when the shutter is opened, and the left pixel in Fig. 10
  • the fourth pixel is equal to the foreground component corresponding to the fourth shirt time / V when the shirt is open.
  • the foreground area corresponding to the moving object includes the motion blur as described above, it can be said that the area is a distortion area.
  • FIG. 11 is a model diagram in which pixel values of pixels on one line, including the uncovered background area, are developed in the time direction when the foreground moves toward the right side in the figure.
  • the motion amount V of the foreground is 4. Since one frame is short, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves to the right by four pixels in the next frame with respect to a certain frame.c
  • the leftmost pixel to the fourth pixel from the left are Belongs to the background area.
  • the fifth to seventh pixels from the left belong to the mixed area that is the uncovered background.
  • the rightmost pixel belongs to the foreground area.
  • the object corresponding to the foreground which covered the object corresponding to the background, has been moved so as to be removed from the front of the object corresponding to the background over time, the pixels belonging to the uncovered background area At some point during the period corresponding to the shirt time, the component included in the value is changed from the foreground component to the background component. Replace with minutes.
  • a pixel value M ′ with a thick frame in FIG. 11 is represented by Expression (2).
  • the fifth pixel from the left contains the background component corresponding to three shirt times / V and the foreground component corresponding to one shirt time / V, so the fifth pixel from the left is mixed The ratio is 3/4.
  • the sixth pixel from the left contains the background component corresponding to the two shutter times / v and the foreground component corresponding to the two shutter times / v, so the mixture ratio of the sixth pixel from the left Is 1/2. Since the seventh pixel from the left contains a background component corresponding to one shutter time / V and a foreground component corresponding to three shutter times / V, the mixture ratio of the seventh pixel from the left is , 1/4.
  • B is the pixel value of the background
  • Fi / v is the component of the foreground.
  • the shirt of the fifth pixel from the left in Fig. 11 opens.
  • the foreground component FO l / v of the first shirt time / V is equal to the foreground component of the sixth pixel from the left in Fig. 11 corresponding to the second shirt time / V when the shirt opens.
  • FO l / v is the foreground component of the seventh pixel from the left in Fig. 11 corresponding to the third shutter time / V when the shutter is open
  • the eighth pixel from the left in Fig. 11 Pixel is equal to the foreground component corresponding to the fourth shutter time / V after the shutter is opened.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the number of virtual divisions is 4, for example, when the shirt at the sixth pixel from the left in Fig. 11 opens.
  • the first, the foreground component F02 / v of Zachta time / V, is 7 from the left in Figure 11 It is equal to the foreground component of the second pixel, which corresponds to the second shutter time / v after the shutter opens.
  • the foreground component F02 / v is equal to the foreground component of the eighth pixel from the left in Fig. 11 corresponding to the third shirt time / v when the shirt is opened.
  • the first foreground component F03 / v of the shirt time / V is equal to the foreground component of the eighth pixel from the left in FIG. 11 corresponding to the second shutter time / V when the shutter is opened.
  • the number of virtual divisions has been described as four, but the number of virtual divisions corresponds to the amount of motion V.
  • the motion amount V generally corresponds to the moving speed of the object corresponding to the foreground. For example, when the object corresponding to the foreground is moving so as to be displayed four pixels to the right in the next frame with respect to a certain frame, the motion amount V is set to 4.
  • the number of virtual divisions is four.
  • the motion amount V is set to 6, and the virtual division is performed. The number is six.
  • Figures 12 and 13 show the mixed area consisting of the foreground area, background area, covered background area or uncovered background area described above, and the foreground component and background corresponding to the divided shirt time. This shows the relationship with the components.
  • Figure 12 shows an example of extracting pixels in the foreground, background, and mixed regions from an image containing the foreground corresponding to an object moving in front of a stationary background.
  • the object indicated by A and corresponding to the foreground is moving horizontally with respect to the screen.
  • Frame # n + 1 is the next frame after frame #n
  • frame # n + 2 is the next frame after frame # 11 + 1.
  • Figure 13 shows a model in which the pixels in the mixed area are extracted and the amount of motion V is set to 4, and the pixel values of the extracted pixels are expanded in the time direction.
  • the pixel value in the foreground area is composed of four different foreground components corresponding to the time / V period, since the object corresponding to the foreground moves.
  • the leftmost pixel of the pixels in the foreground area shown in FIG. 13 is
  • the pixels in the foreground area include motion blur.
  • the pixel value in the background area does not include motion blur.
  • the pixel value of a pixel belonging to a mixed area composed of a covered background area or an uncovered background area is composed of a foreground component and a background component.
  • FIG. 4 is a model diagram developed in the time direction.
  • Frame #n is the next frame after frame ttn-1 and frame # n + l is the next frame after frame #n.
  • Other frames are similarly referred to.
  • the pixel values B01 to B12 shown in FIG. 14 are the pixel values of the pixels corresponding to the stationary background object. Since object corresponding to the background is stationary, the frame # n _ l to frame n + 1, the pixel value of the corresponding pixel is altered such les. For example, the position corresponding to the pixel having the pixel value of B05 in frame # n-l The pixel in frame #n and the pixel in frame # n + l each have a pixel value of B05.
  • Figure 15 shows three images of an image corresponding to the foreground moving to the right in the figure together with the object corresponding to the stationary background.
  • FIG. 6 is a model diagram in which pixel values of pixels at the same position on a frame are expanded in the time direction.
  • the model shown in FIG. 15 includes a covered background region.
  • Fig. 15 it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed, and the foreground image moves so that it is displayed four pixels to the right in the next frame.
  • the motion amount V is 4, and the number of virtual divisions is 4.
  • the foreground component of the leftmost pixel of frame #nl in Fig. 15 when the shutter is open and the first shutter time / V is F12 / v is the second pixel from the left in Fig. 15
  • the foreground component of the second shirt time / V when the shirt is opened is also F12 / v.
  • the fourth pixel from the left in Figure 15 is the fourth pixel from the left pixel
  • the foreground component of the shirt time / V is F12 / v.
  • the foreground component of the leftmost pixel of frame #nl in Fig. 15 at the second shutter time / V from when the shutter is opened is Fll / v
  • that of the second pixel from the left in Fig. 15 foreground component of the shutter has opened is the third shutter time / V also the third pixel from the left in c Figure 1 5 which is a Fll / v
  • the foreground shutter has opened the fourth shutter time / V Is Fll / v.
  • the foreground component of the leftmost pixel in frame t n-1 in Fig. 15 at the third shutter time / V from when the shutter is opened is FlO / v
  • the foreground component of the pixel, which is the fourth shirt when the shirt is open, is also FlO / v.
  • the leftmost pixel of frame #nl in Fig. 15 in Figure 15 is the fourth shutter when the shirt is open.
  • the component of the foreground in time / V is F09 / v.
  • the leftmost pixel belongs to the foreground area, and the second to fourth pixels from the left side belong to the mixed area which is the covered background area.
  • the fifth through 12th pixels from the left of frame # n-l in FIG. 15 belong to the background area, and their pixel values are B04 through B11, respectively.
  • the first to fifth pixels from the left of frame ⁇ ! ⁇ in FIG. 15 belong to the foreground area.
  • the foreground component of the shirt time / V in the foreground area of frame # ⁇ is one of F05 / v to F12 / v.
  • the foreground component of the first shutter time / V of the fifth pixel from the left of the left is F12 / v
  • the shutter in the sixth pixel from the left in Fig. 15 of Fig. 15 is open.
  • the foreground component of the second shirt time / V is also F 12 / v.
  • the foreground component of the shirt time / V is F12 / v.
  • the foreground component of the fifth pixel from the left of frame # ⁇ in Fig. 15 in which the shirt is open and the second shutter is opened is Fl l / v
  • the sixth pixel from the left in Fig. 15 is The foreground component of the pixel at the third shutter time / v after the shutter is opened is also Fl l / v.
  • the foreground component of the seventh pixel from the left in Fig. 15 at the fourth shutter time / v when the shutter is open is Fl l / v.
  • Fig. 15 The fifth pixel from the left of frame #n in 5
  • the foreground component of the shirt time / v is F lO / v
  • the foreground component of the fifth pixel from the left of frame #n in Fig. 15 at the fourth shutter time / V after the shutter is opened is F09 / v.
  • the background component of the sixth pixel from the left of frame ttn in Figure 15 at the first shutter time / V after the shutter has opened is B05 / v. .
  • the background component of the 7th pixel from the left of frame #n in Fig. 15 at the first and second shirt time / v when the shirt is open is B06 / v.
  • the background component of the first to third shirt time / V after the shirt is opened is B07 / v.
  • the ninth to 12th pixels from the left of frame ttn in FIG. 15 belong to the background area, and the pixel values are B08 to B11, respectively.
  • the first to ninth pixels from the left of frame # n + l in Fig. 15 belong to the foreground area.
  • the foreground component of the shirt time / V in the foreground area of frame ttn + 1 is any of FO l / v to F 12 / v.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame.
  • the foreground component of the first shutter time / V at the ninth pixel from the left of l is F12 / v
  • the shirt at the 10th pixel from the left in Figure 15 is open.
  • the foreground component of the second shirt time / V is also F 12 / v.
  • the fourth foreground component of the shirt time / V is F12 eight.
  • the foreground component of the ninth pixel from the left of frame # ⁇ + 1 in Fig. 15 at the time when the shutter is open and the second shutter time / V is Fl l / v, as shown in the left of Fig. 15 From 1
  • the foreground component of the 0th pixel at the third shutter time / V after the shutter is opened is also Fl l / v.
  • the foreground component of the shirt, which is the fourth one after the shirt is opened is Fll / v.
  • the foreground component of the ninth pixel from the left of frame # n + l in Fig. 15 from the left, and the third for the foreground of the shirt time / V, which is FLO / v, is 1 from the left in Fig. 15
  • the foreground component of the 0th pixel, at the fourth shutter time / V after the shutter is opened, is also FlO / v.
  • the foreground component of the ninth pixel from the left of frame # n + l in Fig. 15 from the left, the fourth shirt time / V when the shirt is opened, is F09 / v.
  • the background component of the 10th pixel from the left of frame # n + l in Fig. 15 from the left, and the first shirt time / V background component is B09 / It becomes v.
  • the background components of the 11th pixel from the left of frame # n + l in Fig. 15 corresponding to the first and second shutter time / V from when the shutter has opened are BIO / v.
  • the background components of the first through third pixels from the left, the first through the third pixels of the shirt ttn + 1, and the background of the shirt time / V are Bl l / v.
  • FIG. 16 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • Figure 17 shows the pixels that are adjacent to each other and are arranged in a single row in the three frames of the image that captures the foreground corresponding to the object that moves to the right in the figure together with the stationary background.
  • FIG. 5 is a model diagram in which pixel values of pixels at the same position are developed in the time direction. In FIG. 17, an uncovered background area is included.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the object corresponding to the foreground has been moved so that it is displayed four pixels to the right in the next frame, the motion amount V is 4.c
  • the foreground component of the first pixel when the leftmost pixel of the shirt is open is the F13 / v, which is the second from the left in Figure 17
  • the foreground component of the second pixel of the eye pixel at the time when the shutter is opened is also F13 / v.
  • the fourth pixel from the left in Fig. 17 is the fourth pixel from the open pixel.
  • the foreground component of the shirt time / V is F13 / v.
  • the background component of the second pixel from the left of frame # n-l in Fig. 17 and the third and fourth shutter shirt / V after the shutter is opened is B26 / v.
  • the background component of the third pixel from the left of frame # n-l in Fig. 17 at the fourth shutter time / V after the shutter is opened is B27 / v.
  • the leftmost pixel to the third pixel belong to the mixed area which is the covered background area.
  • the fourth to 12th pixels from the left of frame # n-1 in FIG. 17 belong to the foreground area.
  • the foreground component of the frame is one of F13 / v to F24 / v.
  • the leftmost pixel to the fourth pixel from the left of frame #n in FIG. 17 belong to the background area, and the pixel values are B25 to B28, respectively.
  • the foreground component of the 6th pixel from the left of frame #n in Fig. 17 and the first shutter time / V when the shutter is open is F14 / V
  • the 7th pixel from the left in Fig. 17 is also F 14 / v
  • the foreground component of the eighth pixel from the left in Fig. 17 corresponding to the first shutter time / V from when the shutter has opened is F15 / v.
  • the background component of the fifth pixel from the left of the frame in Fig. 17 corresponding to the second to fourth shutter time / V from when the shutter has opened is B29 / It becomes v.
  • the background components of the sixth pixel from the left of frame #n in Fig. 17 corresponding to the third and fourth portions of the shutter time / V from when the shutter has opened are B30 / v.
  • the background component of the seventh pixel from the left of frame #n in Fig. 17 at the fourth shutter-opening time / V after shutter opening is B31 / v.
  • the fifth through seventh pixels from the left belong to the mixed area that is the uncovered background area.
  • the eighth to 12th pixels from the left of frame #n in FIG. 17 belong to the foreground area.
  • the value corresponding to the period of the shirt time / V in the foreground area of frame #n is one of F13 / v to F20 / v.
  • the leftmost pixel to the eighth pixel from the left of frame ⁇ + 1 in FIG. 17 belong to the background area, and their pixel values are ⁇ 25 to ⁇ 32, respectively.
  • the foreground component of the ninth pixel from the left at the first shutter time / V after the shutter is opened is F13 / v
  • the shirt at the tenth pixel from the left in Figure 17 is open.
  • the foreground component of the second shirt time / V is also F13 / v.
  • the foreground component of the fourth shirt time / v is F13 / v.
  • the foreground component of the 10th pixel from the left of frame # n + l in Fig. 17 at the first shutter release time / V after shutter opening is F14 / v
  • the 11th pixel from the left in Fig. 17 The foreground component of the pixel at the second shutter time / V when the shutter opens is also F14 / v.
  • the foreground component of the second pixel from the left in Fig. 17 at the first shutter button time / V when the shutter button opens is F15 / v.
  • the background component of the 10th pixel from the left of the frame ⁇ + l in FIG. 17 at the third and fourth shirt time / V when the shirt is opened is ⁇ 34 / ⁇ .
  • the background component of the 11th pixel from the left of frame # ⁇ + 1 in Fig. 17 at the fourth shutter time / ⁇ after shutter opening is ⁇ 35 / ⁇ .
  • the 12th pixel from the left of frame # ⁇ + 1 in Fig. 17 belongs to the foreground area.
  • the foreground component of the shirt time / V in the foreground area of frame # ⁇ + 1 is one of F13 / v to F16 / v.
  • FIG. 18 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • the area specifying unit 103 uses the pixel values of a plurality of frames to set a flag indicating that the area belongs to the foreground area, background area, covered background area, or uncovered back-drop area.
  • the information is supplied to the mixture ratio calculation unit 104 as area information in association with each other.
  • the mixture ratio calculation unit 104 calculates the mixture ratio for each pixel of the pixels included in the mixed region based on the pixel values of the plurality of frames and the region information, and separates the calculated mixture ratio into the foreground / background separation. Supply to part 105.
  • the foreground / background separation unit 105 calculates pixel values, area information, and mixture ratios of multiple frames. Based on a, a foreground component image consisting of only foreground components and a background component image consisting of only background components are extracted, and a foreground component image and a background component image are output. With reference to the flowchart of FIG. 19, the process of separating the foreground and background by the image processing device will be described.
  • the motion detection unit 102 determines the motion of the image object corresponding to the foreground object by using a method such as a block matching method, a gradient method, a phase correlation method, or a perrecursive method. A vector is calculated, and the calculated motion vector and position information of the motion vector are supplied to the area specifying unit 103 and the mixture ratio calculating unit 104.
  • step S12 based on the input image, the area specifying unit 103 determines whether each pixel of the input image belongs to any of the foreground area, background area, covered background area, or anchored background area. Performs a specific process to generate the area information shown. The details of the area specifying process will be described later.
  • the region specifying unit 103 supplies the generated region information to the mixture ratio calculating unit 104.
  • the region specifying unit 103 determines whether each pixel of the input image has a foreground region, a background region, or a mixed region (covered background region or uncovered background region). Region information indicating whether the region belongs to or may be generated.
  • the foreground / background separation unit 105 determines whether the mixed area is a covered background area or an uncovered background area based on the direction of the motion vector. For example, when the foreground area, the mixed area, and the background area are arranged in order corresponding to the direction of the motion vector, the mixed area is determined as a covered background area, and the direction of the motion vector is determined. When the background region, the mixed region, and the foreground region are arranged in this order, the mixed region is determined to be an uncovered background region.
  • step S13 the mixture ratio calculation unit 104 calculates a mixture ratio H for each pixel included in the mixed region based on the motion vector and the region information. The details of the mixture ratio calculation process will be described later.
  • the mixture ratio calculation unit 104 calculates the calculated mixture ratio in the foreground It is supplied to the background separation unit 105.
  • the foreground / background separation unit 105 extracts foreground components and background components from the input image based on the region information and the mixture ratio H, and based on the extracted foreground components.
  • the foreground component image is synthesized, and the background component image is synthesized based on the extracted background component.
  • the foreground / background separation unit 105 outputs the foreground component image and the background component image, and the process ends. The details of the foreground / background separation process will be described later.
  • the image processing apparatus can calculate the mixture ratio and separate the foreground and the background based on the calculated mixture ratio 01.
  • FIG. 20 is a block diagram showing an example of the configuration of the area specifying unit 103. As shown in FIG. The region specifying unit 103 whose configuration is shown in FIG. 20 does not use a motion vector.
  • the frame memory 201 stores the input image in frame units. When the processing target is a frame ⁇ , the frame memory 201 stores a frame # ⁇ -2 which is a frame immediately before the frame ⁇ ! ⁇ , and a frame # ⁇ _ which is a frame immediately before the frame # ⁇ . 1, Frame # ⁇ , Frame # ⁇ + 1 which is the frame after frame # ⁇ , and Frame # ⁇ + 2 which is the frame after frame # ⁇ are stored.
  • the static / motion judging unit 202-1 comprises a pixel value of a pixel of frame ⁇ + 2 located at the same position as a pixel on the image which is a target of region identification of the frame, and a region identification target of frame # ⁇ .
  • the pixel value of the pixel of frame Hn + 1 at the same position as the pixel on the image is read from the frame memory 201, and the absolute value of the difference between the read pixel values is calculated.
  • the static / movement determining unit 202--1 determines whether the absolute value of the difference between the pixel value of frame # n + 2 and the pixel value of frame ⁇ ⁇ ⁇ + 1 is greater than a preset threshold Th.
  • the static / movement determination indicating the movement is supplied to the area determination unit 203-3-1.
  • the static / movement determination unit 202-2 ⁇ 1 The still / moving judgment indicating the stationary state is supplied to the area judging section 203-3-1.
  • the static / movement determination unit 202-2-2 calculates the pixel value of the pixel of frame ttn + 1 at the same position as the pixel on the image that is the target of the area identification of frame ⁇ , and the pixel of frame #n Is read from the frame memory 201, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determining unit 202-2-2 determines whether or not the absolute value of the difference between the pixel value of frame # n + l and the pixel value of frame ttn is greater than a preset threshold Th.
  • a still / moving determination indicating a motion is supplied to the region determination unit 203-3 and the region determination unit 203-3-2. If it is determined that the absolute value of the difference between the pixel value of the pixel of frame # n + l and the pixel value of the pixel of frame #n is equal to or smaller than the threshold Th, the static / movement determination unit 20 22 The static determination shown is supplied to the area determination section 203-3-1 and the area determination section 203-3-2.
  • the static / movement determining unit 202-2-3 calculates the pixel value of the pixel that is the target of specifying the area of the frame th and the frame ltn-1 at the same position as the position of the pixel that is the target of specifying the area of the frame on the image.
  • the pixel value of the pixel is read from the frame memory 201, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determining unit 202-3 determines whether or not the absolute value of the difference between the pixel value of frame ttn and the pixel value of frame # n -1 is larger than a preset threshold Th.
  • a still / moving determination indicating a motion is supplied to the region determination unit 203 and the region determination unit 203-3.
  • the static / movement determination unit 202--3 The static / movement determination indicating stop is supplied to the region determination unit 203-3-2 and the region determination unit 203-3-3.
  • the static / movement determining unit 202_4 calculates the pixel value of the pixel of frame # n-l located at the same position as the pixel on the image, which is the target of frame area identification, and the area of frame #n
  • the pixel value of the pixel of frame # n-2 at the same position as the position of the specific target pixel on the image is read from the frame memory 201, and the absolute value of the pixel value difference is calculated.
  • the static / movement determination unit 202-2-4 calculates the pixel value of frame ⁇ -l and the image of frame ttn-2. It is determined whether or not the absolute value of the difference from the elementary value is greater than a preset threshold Th.
  • a static motion indicating motion is determined.
  • the judgment is supplied to the area judgment unit 203-3.
  • the static / movement determination unit 202- 4 supplies a static / movement determination indicating stationary to the area determination unit 203-3-3.
  • the area determination unit 203--1 is configured such that the static / movement determination supplied from the static / movement determination unit 202-1 indicates stationary, and the static / dynamic determination supplied from the static / movement determination unit 202-2-2.
  • the region determination unit 203-3 is configured to determine whether the static / dynamic determination supplied from the static / dynamic determination unit 202-1 indicates movement, or to determine whether or not the static / dynamic determination is supplied from the static / dynamic determination unit 202-2-2. When the determination indicates stillness, it is determined that the pixel for which the area is specified in frame # ⁇ does not belong to the uncovered background area, and the uncovered background area corresponding to the pixel whose area is determined is determined. Set the flag to "0" to indicate that it does not belong to the uncovered background area.
  • the area determination unit 203-3-1 supplies the anchored background area determination flag set to "1" or "0" to the determination flag storage frame memory 204.
  • the area determination unit 203-3-2 is configured such that the static / dynamic determination supplied from the static / dynamic determination unit 202-2 indicates stationary, and the static / dynamic determination supplied from the static / dynamic determination unit 202-3. Indicates that the pixel in the frame t, which is the target of the region identification, belongs to the still region, and the still region determination flag corresponding to the pixel whose region is determined indicates that the pixel belongs to the still region. " Set 1 ".
  • the area determination unit 203-3-2 operates according to the static motion determination supplied from the static motion determination unit 2022-2. Or the static / movement determination supplied from the static / movement determination unit 202-3 indicates a motion, it is determined that the pixel for which the area is specified in the frame does not belong to the static area. In the still area determination flag corresponding to the pixel whose area is to be determined, "0" indicating that the pixel does not belong to the still area is set.
  • the area determination unit 203-3-2 supplies the stationary area determination flag in which "1" or "0 '" is set to the determination flag storage frame memory 204.
  • the area determination unit 203-3-2 indicates that the static / movement determination supplied from the static / movement determination unit 202-2 indicates motion, and the static / dynamic determination supplied from the static / movement determination unit 202-3. Indicates that the pixel in the frame ⁇ , which is the target of the area identification, belongs to the motion area, and the motion area determination flag corresponding to the pixel whose area is determined indicates that the pixel belongs to the motion area. Set 1 ".
  • the area determination unit 203-3-2 is configured to determine whether the static / movement determination supplied from the static / movement determination unit 202-2 is stationary, or the static / dynamic determination supplied from the static / movement determination unit 202-3. When the determination indicates stillness, it is determined that the pixel for which the region is specified in frame # ⁇ does not belong to the moving region, and the pixel belonging to the moving region is determined by the moving region determination flag corresponding to the pixel whose region is determined. Set to "0" to indicate not.
  • the area determination unit 203-3-2 supplies the motion area determination flag to which "1" or "0" has been set to the determination flag storage frame memory 204.
  • the area determination section 203-3 indicates that the static / movement determination supplied from the static / movement determination section 202-3 indicates movement, and the static / dynamic determination provided from the static / movement determination section 202_4. Indicates that the pixel of the frame in which the area is to be specified belongs to the covered background area, and the covered background area determination flag corresponding to the pixel whose area is determined is included in the covered background area. Set to "1" to indicate that it belongs to.
  • the area determination unit 203-3 is configured to determine whether the static / dynamic determination supplied from the static / dynamic determination unit 202-3 indicates stationary or the static / dynamic determination supplied from the static / dynamic determination unit 202-4. When the judgment indicates motion, the pixel that is the target of region identification in frame ⁇ is covered It is determined that the pixel does not belong to the background area, and “0” is set to the covered background area determination flag corresponding to the pixel whose area is determined, indicating that the pixel does not belong to the power bird background area.
  • the area determination unit 203-3-3 supplies the covered background area determination flag in which "1" or "0" has been set to the determination flag storage frame memory 204.
  • the determination flag storage frame memory 204 includes an uncovered background area determination flag supplied from the area determination section 203-3, an area determination section 203-3-2 a static area determination flag supplied from the power source, The moving area determination flag supplied from the area determination section 203-3-2 and the covered background area determination flag supplied from the area determination section 203-3-3 are stored.
  • the determination flag storage frame memory 204 supplies the stored uncovered background area determination flag, stationary area determination flag, moving area determination flag, and force bird background area determination flag to the synthesis unit 205.
  • the synthesis unit 205 determines the uncovered background area determination flag, the still area determination flag, the motion area determination flag, and the covered background area determination flag supplied from the determination flag storage frame memory 204. Then, area information indicating that each pixel belongs to any of the uncovered background area, the still area, the moving area, and the covered background area is generated and supplied to the determination flag storage frame memory 206.
  • the determination flag storage frame memory 206 stores the area information supplied from the synthesizing unit 205 and outputs the stored area information.
  • Figure 22 shows a model diagram in which the pixel values of pixels arranged in a row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction. For example, when the motion direction of the image corresponding to the foreground object is horizontal to the screen, the model diagram in Fig. 22 shows a model in which the pixel values of adjacent pixels on one line are expanded in the time direction. Is shown.
  • the line in frame #n is the same as the line in frame # n + 1.
  • the foreground components corresponding to the objects included in the second through 13th pixels from the left are the sixth through 17th pixels from the left in frame # n + l. included.
  • the pixels belonging to the covered background area are the 11th to 13th pixels from the left, and the pixels belonging to the uncovered background area are the 2nd to 4th pixels from the left .
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left, and the pixels belonging to the uncovered background area are the 6th to 8th pixels from the left .
  • the foreground component included in frame # ⁇ moves by four pixels in frame ⁇ + 1, so the motion amount V is 4.
  • the virtual division number is 4 corresponding to the motion amount V.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left. Since the motion amount V is 4, in the previous frame # ⁇ -1, the 15th to 17th pixels from the left include only the background component and belong to the background area. Further, in the immediately preceding frame ⁇ -2, the fifteenth through seventeenth pixels from the left include only background components and belong to the background region.
  • the pixel value of the 15th pixel from the left of frame tin-1 is the pixel value of the 15th pixel from the left of frame ⁇ -2. Does not change from.
  • the pixel value of the 16th pixel from the left of frame ⁇ -l does not change from the pixel value of the 16th pixel from the left of frame ttn-2, and the 17th pixel from the left of frame -1 does not change.
  • the pixel value of the pixel does not change from the pixel value of the 17th pixel from the left of frame # n-2.
  • the pixels of frames # ⁇ -1 and -2 which correspond to the pixels belonging to the covered background area in frame ⁇ ⁇ ⁇ , consist only of the background components and the pixel values do not change, so the absolute value of the difference is It is almost 0. Therefore, the still / moving judgment of the pixels of frame-1 and frame # ⁇ -2 corresponding to the pixels belonging to the mixed area in frame # ⁇ is judged to be still by the still / moving judgment section 202_4.
  • the still / movement determination for the pixels belonging to the mixed area in frame # ⁇ and the corresponding pixels in frame ttn-1 is determined to be movement by the still / movement determination section 202-3.
  • the area determining unit 203-3-3 is supplied with the result of the static motion determination indicating the motion from the static motion determining unit 202-3, and the static determining unit 202-3-4 indicates the static motion indicating the static.
  • the result of the motion determination is supplied, it is determined that the corresponding pixel belongs to the covered background area.
  • the pixels included in the uncovered background area are the second to fourth pixels from the left. Since the motion amount V is 4, in the next frame # ⁇ + 1, the second to fourth pixels from the left include only the background component and belong to the background area. In the next frame ⁇ + 2, the second to fourth pixels from the left include only the background component and belong to the background region.
  • the pixel value of the second pixel from the left of frame # n + 2 does not change from the pixel value of the second pixel from the left of frame # n + l .
  • the pixel value of the third pixel from the left of frame # n + 2 does not change from the pixel value of the third pixel from the left of frame # ⁇ + 1
  • the pixel value of the fourth pixel does not change from the pixel value of the fourth pixel from the left of frame # ⁇ + 1.
  • the pixels of frame # ⁇ + 1 and frame ⁇ + 2 corresponding to the pixels belonging to the anchored background area in the frame are composed of only the background component, and the pixel values do not change. , Which is almost zero. Accordingly, the still / moving judgment for the pixels of frame + 1 and frame # ⁇ + 2 corresponding to the pixels belonging to the mixed area in frame # ⁇ is determined to be still by the static / moving judging section 202_1. .
  • the still / movement determination for the pixels belonging to the mixed area in the frame and the corresponding pixels in frame # ⁇ + 1 is determined to be a motion by the still / movement determination unit 202-2-2.
  • the area determination unit 203-1 is supplied with the result of the static motion determination indicating the motion from the static motion determination unit 220-2, and the static determination unit 202-1 indicates the static motion indicating the static.
  • the result of the motion determination is supplied, it is determined that the corresponding pixel belongs to the uncovered background area.
  • FIG. 25 is a diagram showing the determination conditions of the region identification unit 103 in the frame # ⁇ .
  • the frame # ⁇ ⁇ at the same position on the image as the pixel to be determined in the c frame # ⁇ Pixel 2 and the pixel of frame # ⁇ -1 at the same position as the position of the pixel to be determined for the frame on the image are determined to be stationary, and the pixel for the frame ⁇ is determined on the image of the pixel to be determined.
  • the region specifying unit 103 determines the frame #n. It is determined that the target pixel belongs to the covered background area.
  • the pixel of frame - ⁇ -1 and the pixel of frame itn at the same position on the image of the pixel to be determined for frame #n are determined to be stationary, and the pixel of frame #n and the frame
  • the region identification unit 103 determines the target of the frame #n Is determined to belong to the still area.
  • the pixel of frame ⁇ ! ⁇ -1 and the pixel of frame # ⁇ at the same position as the position of the pixel to be determined for frame ⁇ on the image are determined to be moving.
  • the region identifying unit 103 determines that the frame #n is to be determined. Is determined to belong to the motion area.
  • the pixel of frame #n and the pixel of frame ⁇ + l at the same position as the position of the pixel to be determined for frame #n on the image are determined to be motion, and are determined for frame # ⁇ .
  • the area specifying unit 103 determines that the pixel to be determined in the frame ttn belongs to the uncovered background area.
  • the pixels which are determined to belong to the covered background area are indicated in white.
  • FIG. 26B the pixels determined to belong to the uncovered background area are displayed in white.
  • FIG. 26C the pixels determined to belong to the motion area are displayed in white.
  • FIG. 26D the pixels determined to belong to the still area are displayed in white.
  • FIG. 27 is a diagram showing, as an image, area information indicating a mixed area among the area information output from the frame memory 206 for storing the determination flag.
  • Fig. 27 it is determined that the pixel belongs to the covered background area or the uncovered background area.
  • the pixels which are determined to belong to the mixed area that is, the pixels determined to belong to the mixed area, are displayed in white.
  • the area information indicating the mixed area output from the c determination flag storage frame memory 206 includes the mixed area and the foreground area. The part with the texture surrounded by the part without the texture is shown.
  • step S201 the frame memory 201 acquires the images of the frame ⁇ 2 to the frame ⁇ + 2 including the frame #n to be determined.
  • step S202 the still / movement determination unit 202-3 determines whether or not the pixel of the frame Hn-1 and the pixel at the same position of the frame #n are stationary, and determines that the pixel is stationary. Then, the process proceeds to step S203, and the still / movement determination unit 202-2-2 determines whether or not the pixel of frame #n and the pixel at the same position of frame + 1 are stationary.
  • step S203 if it is determined that the pixel of frame ⁇ and the pixel at the same position of frame ttn + 1 are still, the process proceeds to step S204, and the region determination unit 203-3 determines the region. Set “1” indicating that the pixel belongs to the still area in the still area determination flag corresponding to the pixel to be determined.
  • the area determination unit 203-3-2 supplies the still area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S205.
  • step S202 If it is determined in step S202 that the pixel of frame # n-1 and the pixel at the same position in frame #n are moving, or in step S203, the pixel of frame ttn and the frame # If the pixel at the same position of ⁇ + 1 is determined to be in motion, the pixel of frame # ⁇ does not belong to the stationary area, and therefore the process of step S204 is skipped, and the procedure proceeds to step S204. Proceed to S205.
  • step S205 the static / movement determining unit 202-3 determines whether or not the pixel of frame # ⁇ -1 and the pixel at the same position of frame ⁇ ⁇ are moving, and is determined to be moving. In this case, the process proceeds to step S206, and the static / movement determining unit 202-2-2 determines whether or not the pixel of the frame and the pixel at the same position of the frame ⁇ + 1 are moving.
  • step S206 the pixel of frame tin and the same position of frame ⁇ + l If it is determined that the pixel is a motion, the process proceeds to step S207, and the region determination unit 203-3 determines that the pixel belongs to the motion region in the motion region determination flag corresponding to the pixel whose region is determined.
  • the area determination unit 203-3-2 supplies the motion area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S208.
  • step S205 If it is determined in step S205 that the pixel of frame # n-1 and the pixel at the same position in frame #n are stationary, or in step S206, the pixel of frame itn and the frame + If it is determined that the pixel at the same position as 1 is still, the pixel at frame #n does not belong to the motion area, so the processing of step S207 is skipped, and the procedure proceeds to step S2 Go to 08.
  • step S208 the still / movement determining unit 202-4 determines whether the pixel of frame ⁇ -2 and the pixel at the same position of frame # n -1 are stationary or not, and is determined to be stationary. In this case, the process proceeds to step S209, and the still / movement determining unit 202-3 determines whether or not the pixel of frame #nl and the pixel at the same position of frame #n are moving.
  • step S209 when it is determined that the motion is between the pixel of frame # n-l and the pixel at the same position of frame #n, the process proceeds to step S210, and the area determination unit 203 Set “1” to the covered background area judgment flag corresponding to the pixel whose area is judged, indicating that the pixel belongs to the covered background area.
  • the area determination unit 203_3 supplies the covered background area determination flag to the determination flag storage frame memory 204, and the procedure proceeds to step S211.
  • step S208 If it is determined in step S208 that the pixel of frame # n-2 and the pixel at the same position in frame # n-1 are moving, or in step S209, frame #n_l If the pixel of frame #n and the pixel at the same position in frame n are determined to be still, the pixel in frame #n does not belong to the covered background area, so the processing in step S210 is skipped and the procedure is Proceed to step S211.
  • step S211 the static / movement determining unit 202-2-2 determines whether or not the pixel of the frame ⁇ and the pixel of the same position of the frame # ⁇ + 1 are moving, and determines that the pixel is a motion. In this case, the process proceeds to step S212, and the still / movement determining unit 202-2-1 determines whether or not the pixel of frame # n + 1 and the pixel at the same position of frame # n + 2 are stationary.
  • step S212 If it is determined in step S212 that the pixel of the frame ⁇ + l and the pixel at the same position in frame # ⁇ + 2 are stationary, the process proceeds to step S213, and the area determination unit 20 In 3-1, the uncovered background area determination flag corresponding to the pixel whose area is determined is set to "1" indicating that the area belongs to the uncovered background area. Then, the uncovered background area determination flag is supplied to the determination flag storage frame memory 204, and the procedure proceeds to step S214.
  • step S211 If it is determined in step S211 that the pixel of frame # ⁇ and the pixel at the same position in frame # ⁇ + 1 are stationary, or in step S212, the pixel of frame # ⁇ + 1 If it is determined that the motion is between the pixel at the same position in frame # ⁇ + 2, the pixel in frame ⁇ does not belong to the uncovered background area, and the processing in step S213 is skipped, and the procedure Goes to step S 2 14.
  • step S2114 the region specifying unit 103 determines whether or not the region has been specified for all the pixels of the frame ⁇ , and determines that the region has not been specified for all the pixels of the frame # ⁇ . If so, the procedure returns to step S202, and repeats the area specifying process for another pixel.
  • step S214 If it is determined in step S214 that the area has been specified for all the pixels of the frame, the process proceeds to step S215, where the synthesis unit 205 stores the determination flag in the determination flag storage frame memory 204. Based on the uncovered background area determination flag and the covered background area determination flag, area information indicating a mixed area is generated.Furthermore, each pixel includes an uncovered background area, a still area, a motion area, Then, area information indicating that the area belongs to one of the covered background areas is generated, and the generated area information is set in the determination flag storage frame memory 206, and the process ends.
  • the region identifying unit 103 assigns each of the pixels included in the frame Then, area information indicating that the area belongs to a moving area, a still area, an uncovered background area, or a covered background area can be generated.
  • the area specifying unit 103 generates area information corresponding to the mixed area by applying a logical sum to the area information corresponding to the uncovered background area and the covered background area, and includes the information in the frame. For each of the pixels that have been set, area information including a flag indicating that the pixel belongs to a moving area, a still area, or a mixed area may be generated.
  • the region specifying unit 103 can more accurately specify the moving region.
  • the area specifying unit 103 can output the area information indicating the moving area as the area information indicating the foreground area, and output the area information indicating the stationary area as the area information indicating the background area.
  • the above-described processing for specifying the area can be applied even when the image corresponding to the background area includes motion.
  • the area specifying unit 103 shifts the entire image in response to this movement, and the object corresponding to the background is stationary.
  • the processing is performed in the same manner as in the case.
  • the area specifying unit 103 selects a pixel corresponding to the motion and executes the above-described processing.
  • FIG. 29 is a block diagram illustrating another example of the configuration of the area specifying unit 103.
  • the area specifying unit 103 shown in FIG. 29 does not use a motion vector.
  • the background image generation unit 301 generates a background image corresponding to the input image, and supplies the generated background image to the binary object image extraction unit 302.
  • the background image generation unit 301 extracts, for example, an image object corresponding to a background object included in the input image, and generates a background image.
  • FIG. 30 shows an example of a model diagram in which pixel values of pixels arranged in one row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction.
  • the model diagram in Fig. 30 shows a model in which the pixel values of adjacent pixels on one line are expanded in the time direction. .
  • the line in frame itn is the same as the line in frame # n-l and frame ⁇ + 1.
  • the foreground components corresponding to the objects included in the sixth to 17th pixels from the left are the second to 13th pixels from the left in frame itn-1. Included in the 10th to 21st pixels from the left in frame ⁇ + 1.
  • the pixels belonging to the covered background area are the 11th to 13th pixels from the left, and the pixels belonging to the uncovered background area are the 2nd to 4th pixels from the left. is there.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left, and the pixels belonging to the uncovered background area are the 6th to 8th pixels from the left.
  • frame ttn + 1 the pixels belonging to the covered background area are the 19th to 21st pixels from the left, and the pixels belonging to the uncovered background area are the 10th to 12th pixels from the left. is there.
  • the pixels belonging to the background area are the first pixel from the left and the 14th to 21st pixels from the left.
  • the pixels belonging to the background area are the first through fifth pixels from the left and the 18th through 21st pixels from the left.
  • the pixels belonging to the background area are the first through ninth pixels from the left.
  • FIG. 31 shows an example of a background image generated by the background image generation unit 301 and corresponding to the example of FIG.
  • the background image is composed of pixels corresponding to the background object and does not include the components of the image corresponding to the foreground object.
  • the binary object image extraction unit 302 based on the correlation between the background image and the input image, A binary object image is generated, and the generated binary object image is supplied to the time change detecting unit 303.
  • Fig. 32 is a block diagram showing the configuration of the binary object image extraction unit 302.
  • the c- correlation value calculation unit 321 supplied from the background image generation unit 301, receives the background image and the input. The correlation of the image is calculated, a correlation value is generated, and the generated correlation value is supplied to the threshold value processing unit 3222.
  • Correlation value calculating section 3 2 for example, as shown in FIG. 3 3 A, and the block in the 3 X 3 of the background image around the X 4, as shown in FIG. 3 3 B, the background image the block in the in the input image of the 3 X 3 around the Y 4 corresponding to the block, by applying equation (4) to calculate a correlation value corresponding to Upsilon 4.
  • Correlation value-(4) i 0
  • the correlation value calculation unit 3221 supplies the correlation value calculated for each pixel as described above to the threshold value processing unit 3222.
  • the correlation value calculation unit 3 21 includes a block in a 3 ⁇ 3 background image centered on X 4 and a background image as shown in FIG. 34B.
  • the block in the 3 X 3 of the input image around the Y 4 corresponding to the block in the image by applying the equation (7), and calculate the difference absolute values corresponding to Upsilon 4 Good.
  • Sum of absolute differences
  • the correlation value calculator 3221 supplies the difference absolute value calculated in this way as a correlation value to the threshold value processor 3222.
  • the threshold value processing unit 3 2 2 compares the pixel value of the correlation image with the threshold value thO, and sets 1 to the pixel value of the binary object image when the correlation value is equal to or smaller than the threshold value thO. If the correlation value is larger than the threshold thO, the pixel value of the binary object image is set to 0, and a binary object image in which 0 or 1 is set to the pixel value is output.
  • Thresholding unit 3 2 2 may be configured to store the threshold thO advance, or, c Figure 35 may be used a threshold thO input from the outside,
  • FIG. 30 is a diagram illustrating an example of a binary object image corresponding to the input image model illustrated in 30. FIG. In the binary object image, a pixel value of 0 is set to a pixel having a high correlation with the background image.
  • FIG. 36 is a block diagram showing a configuration of the time change detection unit 303.
  • the frame memory 341 determines whether the frame # n-l, frame #n, and frame #n supplied from the binary object image extraction unit 302 Stores n + l binary object images.
  • the region determination unit 3442 determines a region for each pixel of the frame based on the binary object images of frame-1, frame ⁇ , and frame # n + l stored in the frame memory 3441. Generates area information and outputs the generated area information.
  • FIG. 37 is a diagram for explaining the determination by the area determination unit 342.
  • the area determination unit 342 determines that the pixel of interest in the frame ttn belongs to the background area.
  • the designated pixel of the binary Obujeku preparative image of frame # n is 1, the corresponding pixel of the binary Obujeku preparative image frame Ttn- 1 is 1, 2 value object image in frame ⁇ + l
  • the region determination unit 342 determines that the pixel of interest in the frame ttn belongs to the foreground region.
  • the area determination section 3 4 2 The pixel of interest in frame #n belongs to the covered background area It is determined.
  • the area determination unit 3 4 2 It is determined that the pixel of interest n belongs to the uncovered background area.
  • FIG. 38 is a diagram illustrating an example in which the time change detection unit 303 determines a binary object image corresponding to the model of the input image illustrated in FIG.
  • the time change detection unit 303 determines that the first to fifth pixels from the left of the frame belong to the background area since the corresponding pixel of the frame ttn of the binary object image is 0.
  • the temporal change detection unit 303 detects the sixth to ninth pixels from the left as the uncovered background since the pixel of frame ⁇ of the binary object image is 1 and the corresponding pixel of frame +1 is 0. It is determined that it belongs to the area.
  • the time change detection unit 303 detects that the pixel of frame ttn of the binary object image is 1, the corresponding pixel of frame ttn-1 is 1, and the corresponding pixel power of frame # n + l is S1. It is determined that the 10th to 13th pixels from the left belong to the foreground area.
  • the temporal change detection unit 303 covers the 14th to 17th pixels from the left since the pixel of frame #n of the binary object image is 1 and the corresponding pixel of frame ⁇ -l is 0. It is determined that it belongs to the background area.
  • the time change detection unit 303 determines that the 18th to 21st pixels from the left belong to the background area since the corresponding pixel of the frame # ⁇ of the binary object image is 0.
  • step S301 the background image generation unit 301 of the area determination unit 103 extracts, for example, an image object corresponding to a background object included in the input image based on the input image.
  • a background image is generated, and the generated background image is supplied to the binary object image extraction unit 302.
  • step S302 the binary object image extraction unit 302 executes, for example, the input image and the background image generation unit 301 by the operation described with reference to FIGS. 33A and 33B.
  • the correlation value with the background image supplied from is calculated.
  • step S303 the binary object image extraction unit 302, for example, compares the correlation value with the threshold value thO to obtain a binary object image from the correlation value and the threshold value thO. Is calculated.
  • step S304 the time change detection unit 303 executes the area determination processing, and the processing ends.
  • step S321 the area determination unit 342 of the time change detection unit 303 determines whether or not the pixel of interest is 0 in the frame #n stored in the frame memory 341. If the pixel of interest is determined to be 0 in the frame ttn, the flow advances to step S322 to set the pixel of interest in the frame ⁇ to belong to the background area, and the process ends. .
  • step S 3 21 If it is determined in step S 3 21 that the pixel of interest is 1 in frame # ⁇ , the process proceeds to step S 3 23, and the area determination section 3 42 of the time change detection section 303 In the frame stored in the memory 341, it is determined whether the pixel of interest is 1 and the corresponding pixel is 0 in frame ttn-1, and the frame ⁇ ⁇ is focused. When it is determined that the pixel is 1 and the corresponding pixel is 0 in frame ⁇ 1, the process proceeds to step S 3 24, and the pixel of interest in frame # ⁇ belongs to the covered background area And the process ends.
  • step S3232 If it is determined in step S3232 that the pixel of interest is 0 in frame ttn or that the corresponding pixel is 1 in frame # n-1, the process proceeds to step S325.
  • the area determination unit 3422 of the time change detection unit 303 detects that the pixel of interest is 1 in the frame #n stored in the frame memory 341, and that the frame # n + l Determines whether the corresponding pixel is 0 Then, in frame #n, if it is determined that the pixel of interest is 1 and the corresponding pixel is 0 in frame # n + l, the process proceeds to step S3226, where frame #n The process ends, setting that the pixel of interest belongs to the uncovered background area.
  • step S325 If it is determined in step S325 that the pixel of interest is 0 in the frame ttn or that the corresponding pixel is 1 in the frame ttn + 1, the process proceeds to step S327, The area determination section 3422 of the change detection section 303 sets the pixel of interest in the frame ⁇ as the foreground area, and the process ends.
  • the region specifying unit 103 determines whether the pixels of the input image are the foreground region, the background region, the covered background region, and the uncovered back region based on the correlation value between the input image and the corresponding background image. By specifying which of the ground areas it belongs to, it is possible to generate area information corresponding to the specified result.
  • FIG. 41 is a block diagram illustrating another configuration of the area specifying unit 103.
  • the area specifying unit 103 shown in FIG. 41 uses the motion vector and the position information supplied from the motion detecting unit 102.
  • the same parts as those shown in FIG. 29 are denoted by the same reference numerals, and description thereof will be omitted.
  • the mouth bust converter 361 is a mouth bust binary object image based on ⁇ frames of binary object images supplied from the binary object image extractor 302. Is generated and output to the time change detection unit 303.
  • FIG. 42 is a block diagram illustrating the configuration of the robust unit 361.
  • the motion compensator 381 compensates for the motion of the binary object image of ⁇ ⁇ ⁇ ⁇ frames based on the motion vector supplied from the motion detector 102 and its position information, and the motion is compensated.
  • the obtained binary object image is output to the switch 382.
  • motion compensation unit 381 when judging the area of frame # ⁇ , when the binary object images of frame # ⁇ -1, frame # ⁇ , and frame # ⁇ + 1 shown in Fig. 43 are input, motion compensation The unit 38 1 converts the motion vector supplied from the motion detection unit 102 Based on this, as shown in Fig. 44, the motion-compensated binary object image is motion-compensated for the binary object image of frame ⁇ -l and the binary object image of frame + 1. The image is supplied to the switch 382.
  • the switch 382 outputs the motion-compensated binary object image of the first frame to the frame memory 3803-1, and outputs the motion-compensated binary object image of the second frame to the frame memory 3. 8 Output to 3-2.
  • the switch 382 stores the motion-compensated binary object images of the third through ⁇ — 1st frames, respectively, in the frame memories 383-3 through 383-3 ( ⁇ -1 ), And outputs the motion-compensated binary object image of the ⁇ th frame to the frame memory 3 8 3— ⁇ .
  • the frame memory 3843_1 stores the motion-compensated binary object image of the first frame, and outputs the stored binary object image to the weighting unit 38.4_1.
  • the frame memory 3 8 3-2 stores the motion-compensated binary object image of the second frame and outputs the stored binary object image to the weighting unit 3 8 4 _ 2 .
  • each of the frame memories 3 8 3 _ 3 to 3 8 3-(1 -1) is one of the motion-compensated binary object images of the third to ⁇ 1 first frames.
  • the c- frame memory 3 8 3-N which stores the binary object image and outputs the stored binary object image to any one of the weighting sections 3 8 4 _ 3 to 3 8 4-( ⁇ -1)
  • the motion-compensated binary object image of the third frame is stored, and the stored binary object image is output to the weighting unit 384-N.
  • the weighting unit 3 84 _ 1 multiplies the pixel value of the motion-compensated binary object image of the first frame supplied from the frame memory 3 8 3-1 by a predetermined weight wl, and Supply 8 5
  • the weighting unit 384-2 multiplies the pixel value of the motion-compensated binary object image of the second frame supplied from the frame memory 383-2 by a predetermined weight w2, and Supply 8 5
  • each of the weighting units 3 8 4-3 to 3 8 4-(N- 1) is supplied from any of the frame memories 3 8 3-3 to 3 8 3-(N- 1).
  • the weighting unit 384_N multiplies the pixel value of the motion-compensated binary object image of the N-th frame supplied from the frame memory 383-N by a predetermined weight wN, and Supply 8 5
  • the accumulator 385 accumulates the corresponding pixel values of the binary object image, which are motion-compensated for the 1st to Nth frames and multiplied by one of the weights wl to wN , respectively.
  • a binary object image is generated by comparing the pixel value with a predetermined threshold thO.
  • the robustization unit 361 generates a binary object image that is mouth-busted from the N binary object images and supplies it to the time change detection unit 303.
  • the area specifying unit 103 shown in FIG. 41 can specify the area more accurately than the case shown in FIG. 29, even if the input image contains noise.
  • the area specifying process of the area specifying unit 103 shown in FIG. 41 will be described with reference to the flowchart of FIG.
  • the processing of steps S3401 to S3343 is the same as that of steps S301 to S303 described in the flowchart of FIG. 39, and a description thereof will be omitted.
  • step S3444 the robust unit 361 executes robust processing.
  • step S345 the time change detection unit 303 executes the area determination processing, and the processing ends.
  • the details of the processing in step S345 are the same as the processing described with reference to the flowchart in FIG. 40, and a description thereof will be omitted.
  • step S3661 the motion compensating unit 3811 determines the motion vector supplied from the motion detecting unit 102 and the motion vector. -
  • step S3652 one of the frame memories 383-1 to 383-N stores the motion-compensated binary object image supplied via the switch 3832.
  • step S3663 the robust conversion unit 3651 determines whether or not N binary object images have been stored, and determines that N binary object images have not been stored. In this case, the flow returns to step S361, and the motion compensation processing of the binary object image and the storage processing of the binary object image are repeated.
  • step S3663 If it is determined in step S3663 that N binary object images have been stored, the process proceeds to step S364, where each of the weighting units 384-1-1 to 3884_N is N Weighting is performed by multiplying each of the binary object images by a weight of wl to wN.
  • step S365 the integrating section 385 integrates the weighted N binary object images.
  • step S366 the integrator 385 generates a binary object image from the integrated image by, for example, comparing with a predetermined threshold value thl, and the process ends. .
  • the area specifying unit 103 shown in FIG. 41 can generate area information based on a robust binary object image.
  • the region specifying unit 103 calculates, for each of the pixels included in the frame, region information indicating that the pixel belongs to the moving region, the still region, the uncovered background region, or the force bird background region. Can be generated.
  • FIG. 47 is a block diagram illustrating a configuration of the mixture ratio calculation unit 104.
  • the mixed area width detection unit 401 detects the pixel interval based on the area information supplied from the area identification unit 103 and the motion vector and its position information supplied from the motion detection unit 102. As a unit, the width of the mixed area to which the pixel of interest belongs is detected.
  • the mixed area width detector 4 0 1 The detected width is supplied to the straight line fitting unit 402 as mixed area width information.
  • the straight-line fitting section 402 calculates the mixed area based on the mixed area width information supplied from the mixed area width detection section 401 and the motion vector and its position information supplied from the motion detection section 102. The ratio of the width of the pixel to the distance from the pixel of interest to the pixel located at the end of the mixed area is calculated. The straight-line fitting section 402 calculates the mixture ratio H of the pixel of interest based on the ratio of the width of the mixture region to the distance from the pixel of interest to the pixel located at the end of the mixture region. I do.
  • the mixing ratio H of the pixels belonging to the mixed region has the following properties. That is, the mixture ratio changes linearly in accordance with the change in the pixel position. If the change in pixel position is one-dimensional, the change in the mixture ratio H can be represented by a straight line, and if the change in the pixel position is two-dimensional, the change in the mixture ratio H can be represented by a plane It is a thing.
  • the slope of the mixture ratio H is the inverse ratio of the amount of motion V in the foreground within the shutter time.
  • Figure 48 shows an example of the ideal mixing ratio.
  • the slope 1 in the mixing region with the ideal mixing ratio can be expressed as the reciprocal of the motion amount V.
  • the ideal mixture ratio H has a value of 1 in the background region, a value of 0 in the foreground region, and a value exceeding 0 and less than 1 in the mixture region.
  • FIG. 49 is a model diagram in which pixel values corresponding to an image including a covered background area having a motion amount V of 4 are developed in the time direction, and a period corresponding to the shirt time is divided.
  • Equation (8) The image of the pixel of interest belonging to the covered back
  • the relationship between the prime value Mx, the pixel value Bx of the pixel belonging to the background area of the frame # n-l before the frame #n at the corresponding position, and the mixture ratio of the pixel of interest Hi X is given by Equation (8).
  • X indicates the position on the coordinate axis X along the movement direction.
  • fx indicates the sum of the foreground components included in the pixel value of the pixel of interest.
  • FIG. 50 is a model diagram in which pixel values corresponding to an image including an uncovered background area in which the motion amount V is 4 are developed in the time direction, and a period corresponding to the shirt time is divided.
  • the pixel value Mx of the pixel of interest belonging to the uncovered background area of frame #n the pixel value ⁇ of the pixel belonging to the background area of frame # ⁇ + 1 after frame ttn at the corresponding position, and
  • the relationship between the pixel of interest and the mixing ratio X can be expressed by equation (8).
  • the width of the mixed area along the direction of motion of the foreground object is obtained by subtracting 1 from the amount of motion V. be able to.
  • the pixels belonging to the covered background area of the frame ⁇ are the sixth through eighth pixels from the left, and the width of the covered backdrop area is 3 pixels in units of pixel interval. It is.
  • the motion amount V is 4, and the width of the covered background area is equal to the result of subtracting 1 from the motion amount V.
  • the pixels belonging to the uncovered background area of frame # ⁇ are the fifth to seventh pixels from the left, and the width of the uncovered background area is expressed as 3 It is.
  • the motion amount V is 4, and the width of the uncovered background area is equal to the result obtained by subtracting 1 from the motion amount V.
  • the mixing ratio of the fourth pixel from the left of frame #n shown in FIG. 51 is 3/4 when the movement amount V is 4.
  • Pixels on a straight line along the direction of the motion vector when the amount of motion is V belongs to the covered background area of frame ffn, and is the mixture ratio of the second pixel from the pixel belonging to the background area. Is a pixel on a straight line along the direction of the motion vector, belongs to the covered background area of frame #n, and subtracts 1 / v from the mixture ratio of pixels belonging to the background area and adjacent pixels. It can be obtained by:
  • the mixing ratio of the third pixel from the left of frame #n is 1/2 when the movement amount V is 4, and the fourth pixel from the left of frame #n is It is equal to 1/4 minus the mixture ratio of.
  • pixels on a straight line along the direction of the motion vector belong to the covered background area of frame ⁇ , and are mixed with the third pixel from the pixels belonging to the background area.
  • Ratio is a pixel on a straight line along the direction of the motion vector, belongs to the covered background area of the frame, and subtracts 2 / v from the mixture ratio of pixels belonging to the background area and adjacent pixels. Can be obtained by doing so.
  • the mixing ratio of the second pixel from the left of frame ttn is 1/4 when the movement amount V is 4, and the mixing ratio of the fourth pixel from the left of frame #n is It is equal to the value obtained by subtracting 1/2 from the mixture ratio.
  • the mixing ratio X corresponding to the pixels belonging to the covered background area, in which the distance between the pixels belonging to the background area and the adjacent pixels is X is based on the distance X as shown in Equation (10). Then, it can be calculated. ⁇ x ⁇ (v- l) / v- x ⁇ (1 / v) (10)
  • the mixing ratio of the second pixel from the left of the frame shown in FIG. 52 is 3/4 when the movement amount V is 4.
  • Pixels on a straight line along the direction of the motion vector when the motion amount is V belongs to the uncovered background area of frame # ⁇ , and is a mixture of the second pixel from the pixels belonging to the background area.
  • the ratio is a pixel on a straight line along the direction of the motion vector, which belongs to the uncovered background area of frame # ⁇ , and is 1 / v based on the mixture ratio of pixels belonging to the background area and adjacent pixels. It can be obtained by subtraction.
  • the mixing ratio of the third pixel from the left of frame ⁇ shown in Fig. 52 is 1/2 when the movement amount V is 4, and the mixing ratio of the second pixel from the left of frame ⁇ is Equivalent to 1/4 subtracted.
  • the mixing ratio of the fourth pixel from the left of frame Hn shown in FIG. 52 is 1/4 when the movement amount V is 4, and the mixing ratio of the second pixel from the left of frame #n is Equal to the ratio minus half.
  • the Zachta time is sufficiently short that it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed within the Zachta time, so on a straight line along the direction of movement, The assumption holds that the mixing ratio in the mixing region changes linearly.
  • FIG. 53 is a diagram illustrating a process of calculating a mixture ratio in an image.
  • the mixture ratio of the original pixel in the motion direction on the straight line along the motion direction is 1 / ⁇ .
  • the mixture ratio of the pixel ahead in the motion direction on the straight line along the motion direction is ( ⁇ -1) / ⁇ .
  • the mixture ratio of the pixel between the previous pixel in the motion direction and the original pixel in the motion direction on a straight line along the motion direction is calculated by a linear equation using 1 / ⁇ as a slope (calculated by proportional calculation) ).
  • the mixture ratio of the pixel ahead of the motion direction on the straight line along the motion direction is 5
  • the mixture ratio 1 of the original pixels in the moving direction on a straight line along the moving direction is 1/6.
  • the mixture ratio of pixels between the previous pixel in the motion direction and the original pixel in the motion direction is calculated linearly according to the pixel position using 1 / ⁇ as the slope. They are 2/6, 3/6 and 4/6 respectively.
  • the mixture ratio a of the pixel ahead of the movement direction on the straight line along the movement direction is l / v
  • the mixture ratio of the original pixel in the movement direction on the straight line along the movement direction is (V-l) / v
  • the mixture ratio of the movement direction on the straight line along the movement direction is calculated linearly (calculated by proportional calculation).
  • step S401 the mixing ratio width detection unit 401 acquires the region information supplied from the region identification unit 103.
  • step S402 the mixture ratio width detecting unit 401 and the straight-line fitting unit 402 acquire the motion vector supplied from the motion detecting unit 102 and the positional information thereof.
  • step S403 the straight-line fitting unit 402 selects a target pixel.
  • step S404 the straight-line fitting unit 402 determines whether or not the target pixel belongs to the foreground region based on the region information, and if it is determined that the target pixel belongs to the foreground region, Proceed to S405, set the mixing ratio to 0, and proceed to step S409.
  • step S404 If it is determined in step S404 that the pixel of interest does not belong to the foreground area, the process proceeds to step S406, where the straight-line fitting unit 402 determines that the pixel of interest belongs to the background area based on the area information. It is determined whether or not the pixel of interest belongs to the background area. If the determination is made that the pixel of interest belongs to the background area, the process proceeds to step S407, where the mixture ratio is set to 1, and the process proceeds to step S409.
  • step S 406 If it is determined in step S 406 that the pixel of interest does not belong to the background region, the process proceeds to step S 408, where the straight-line fitting unit 402 calculates the mixture ratio ⁇ of the pixels belonging to the mixture region. The process is executed, and the process proceeds to step S409. The details of the process of calculating the mixture ratio H of the pixels belonging to the mixed region will be described later.
  • step S409 the straight-line fitting unit 402 stores the calculated mixture ratio a in association with the target pixel.
  • step S410 the straight-line fitting unit 402 determines whether or not the mixture ratio H has been calculated for the entire frame. If it is determined that the mixture ratio H has not been calculated for the entire frame, Return to 04, select another pixel of interest, The process of calculating the mixture ratio ⁇ is repeated.
  • step S410 If it is determined in step S410 that the mixture ratio H has been calculated for the entire frame, the process proceeds to step S411, where the straight-line fitting unit 402 outputs the mixture ratio H, and the process ends. I do.
  • step S 421 the mixed area width detecting section 401 detects the motion vector supplied from the motion detecting section 102 and its position information, and the area supplied from the area identifying section 103. Based on the information, the width of the mixed area is determined along the direction of motion of the motion vector.
  • the mixed area width detection unit 401 supplies the width of the mixed area to the straight line fitting unit 402 as mixed area width information.
  • the mixed area width detection unit 401 may calculate the width of the mixed area based on the size of the motion vector.
  • step S422 the straight-line fitting unit 402 finds the distance from the pixel of interest to the edge of the mixed area along the direction of motion of the motion vector.
  • step S4243 the straight-line fitting unit 402 obtains the distance from the target pixel to the end of the mixed area along the direction opposite to the direction of motion of the motion vector.
  • step S424 the straight-line fitting unit 402 calculates the mixture ratio H based on the region information and the ratio of the width of the mixture region to the distance from the target pixel to the end of the mixture region. The process ends.
  • the straight line fitting section 402 calculates the ratio of the width of the mixed area to the distance to the edge of the mixed area along the direction of motion of the motion vector when the pixel of interest belongs to the covered background area. Based on this, the mixing ratio H is calculated by the calculation shown in the equation (10).
  • the straight-line fitting unit 402 determines the width of the mixed area and the distance to the edge of the mixed area along the direction opposite to the direction of motion of the motion vector. Based on the ratio to the distance, the calculation shown in equation (1 2) Calculate the mixture ratio.
  • the mixture ratio calculation unit 102 calculates the mixture information based on the region information supplied from the region identification unit 103 and the motion vector and the position information supplied from the motion detection unit 102. It is possible to calculate a mixture ratio which is a feature amount corresponding to each pixel.
  • images are synthesized based on the mixture ratio, it is possible to create an image that contains the correct motion blur that matches the speed of a moving object, as if the real world were actually shot again.
  • FIG. 56 is a block diagram showing an example of the configuration of the foreground / background separation unit 105.
  • the input image supplied to the foreground / background separator 105 is supplied to the separator 601, switch 602, and switch 604.
  • Information indicating the covered background area and the area information indicating the uncovered background area supplied from the area specifying unit 103 are supplied to the separating unit 601.
  • the area information indicating the foreground area is supplied to the switch 602.
  • Area information indicating the background area is supplied to the switch 604.
  • the mixture ratio supplied from the mixture ratio calculation unit 104 is: c separation unit 601 supplied to the separation unit 601, region information indicating the covered background region, region information indicating the uncovered background region,
  • the foreground components are separated from the input image based on the input image and the mixture ratio, and the separated foreground components are supplied to the combining unit 603, and the background components are separated from the input image and separated.
  • the background component is supplied to the synthesis unit 605.
  • the switch 602 is closed when a pixel corresponding to the foreground is input based on the area information indicating the foreground area, and supplies only the pixel corresponding to the foreground included in the input image to the synthesizing unit 603. I do.
  • a pixel corresponding to the background is input based on the area information indicating the background area.
  • the synthesizing unit 603 synthesizes a foreground component image based on the foreground component supplied from the separation unit 6000 and the pixel corresponding to the foreground supplied from the switch 602, and synthesizes the foreground component. Output an image. Since the foreground area and the mixed area do not overlap, the synthesis unit 603 synthesizes the foreground component image, for example, by applying a logical OR operation to the component corresponding to the foreground and the pixel corresponding to the foreground. .
  • the synthesizing unit 603 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the process of synthesizing the foreground component image, and In the synthesis process, the foreground component image is stored (overwritten). Therefore, in the foreground component image output from the combining unit 603, 0 is stored as a pixel value in a pixel corresponding to the background region.
  • the synthesis unit 605 synthesizes a background component image based on the component corresponding to the background supplied from the separation unit 601 and the pixel corresponding to the background supplied from the switch 604, and synthesizes them. Outputs a background component image. Since the background area and the mixed area do not overlap, the synthesis unit 605 synthesizes the background component image by, for example, applying a logical OR operation to the component corresponding to the background and the pixel corresponding to the background.
  • the synthesizing unit 605 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the background component image synthesizing process.
  • the background component image is stored (overwritten) in the composition process. Accordingly, in the background component image output from the combining unit 605, 0 is stored as a pixel value in a pixel corresponding to the foreground area.
  • FIG. 57A is a diagram illustrating an input image input to the foreground / background separation unit 105, and a foreground component image and a background component image output from the foreground / background separation unit 105.
  • Figure 5 7 B is, c Figure 5 7 illustrates the input image input into the foreground background separator 1 0 5, and the model of the foreground component image and the background component image output from the foreground background separator 1 0 5 A is a schematic diagram of the displayed image, and FIG. 57B corresponds to FIG. 57A.
  • FIG. 2 is a model diagram in which pixels in one line including pixels belonging to a foreground area, pixels belonging to a background area, and pixels belonging to a mixed area are developed in the time direction. .
  • the background component image output from the foreground / background separator 105 is composed of pixels belonging to the background region and background components included in the pixels of the mixed region. You.
  • the foreground component image output from the foreground / background separation unit 105 is composed of the pixels belonging to the foreground area and the foreground components included in the pixels of the mixed area. You.
  • the pixel values of the pixels in the mixed area are separated into a background component and a foreground component by the foreground / background separation unit 105.
  • the separated background component forms a background component image together with the pixels belonging to the background region.
  • the separated foreground component forms a foreground component image together with the pixels belonging to the foreground area.
  • the pixel value of the pixel corresponding to the background region is set to 0, and meaningful pixel values are set to the pixel corresponding to the foreground region and the pixel corresponding to the mixed region.
  • the pixel value of the pixel corresponding to the foreground area is set to 0, and a significant pixel value is set to the pixel corresponding to the background area and the pixel corresponding to the mixed area.
  • FIG. 58 is a model of an image showing foreground components and background components of two frames including a foreground corresponding to an object moving from left to right in the figure.
  • the motion amount V of the foreground is 4, and the number of virtual divisions is 4.
  • the leftmost pixel and the 14th to 18th pixels from the left consist only of background components and belong to the background area.
  • the second to fourth pixels from the left include the background component and the foreground component, and belong to the anchor bird background area.
  • the thirteenth to thirteenth pixels include a background component and a foreground component, and belong to the covered background region.
  • the fifth through tenth pixels from the left consist only of foreground components and belong to the foreground area.
  • the first through fifth pixels from the left and the eighteenth pixel from the left consist only of background components and belong to the background area.
  • the sixth through eighth pixels from the left include the background component and the foreground component, and belong to the uncovered background area.
  • the fifteenth through seventeenth pixels from the left include the background component and the foreground component, and belong to the covered background area.
  • the ninth to 14th pixels from the left consist only of foreground components and belong to the foreground area.
  • FIG. 59 is a diagram illustrating a process of separating a foreground component from pixels belonging to a covered background area.
  • hi 1 to 18 are the mixing ratios corresponding to the respective pixels in frame # ⁇ .
  • the 15th to 17th pixels from the left belong to the covered background area.
  • 15 is the mixture ratio of the 15th pixel from the left of frame #n.
  • P15 is the pixel value of the 15th pixel from the left of frame # n-1.
  • the foreground component fc included in the pixel value C of the pixel belonging to the covered background area is calculated by Expression (17).
  • is the pixel value of the corresponding pixel in the previous frame.
  • FIG. 60 is a diagram illustrating a process of separating a foreground component from pixels belonging to an uncovered background area.
  • hi 1 through hi 18 are mixing ratios corresponding to each of the pixels in the frame ⁇ .
  • the second to fourth pixels from the left belong to the uncovered background area.
  • the pixel value C02 of the second pixel from the left of frame # ⁇ is represented by Expression (18).
  • N02 is the pixel of the second pixel from the left of frame ⁇ + 1.
  • Equation (19) the sum f02 of the foreground components of the second pixel from the left of frame Hn is expressed by equation (19).
  • N is the pixel value of the corresponding pixel in the next frame.
  • the separation unit 6001 performs mixing based on the information indicating the covered background area and the information indicating the uncovered background area included in the area information and the mixing ratio for each pixel. Foreground components and background components can be separated from the pixels belonging to the area.
  • FIG. 61 is a block diagram illustrating an example of a configuration of the separation unit 6001 that performs the above-described processing.
  • the image input to the separation unit 601 is supplied to the frame memory 621, and the area information indicating the covered background area and the uncovered background area supplied from the mixture ratio calculation unit 104,
  • the mixing ratio H is input to the separation processing block 622.
  • the frame memory 6 21 stores the input image in frame units.
  • frame memory 6 21 is a frame immediately before frame ⁇ , which is frame # ⁇ -1, a frame # ⁇ , and a frame after frame ⁇ .
  • the frame memory 621 supplies the frame # ⁇ -1, the frame th, and the corresponding pixel of the frame to the separation processing block 622.
  • the separation processing block 622 based on the area information indicating the covered background area and the uncovered background area, and the mixing ratio, the frames # ⁇ -1 and # ⁇ supplied from the frame memory 621, By applying the operations described with reference to Figs. 59 and 60 to the pixel values of the corresponding pixels in frame # ⁇ + 1, the foreground and background components are separated from the pixels belonging to the mixed region of the frame. Then, the data is supplied to the frame memory 623.
  • the separation processing block 6 22 includes an uncovered area processing section 6 31, a covered area processing section 6 32, a combining section 6 33, and a combining section 6 3 4.
  • the multiplier 6 4 1 of the uncovered area processing unit 6 3 1 multiplies the mixture ratio by the pixel value of the pixel of the frame ttn + 1 supplied from the frame memory 6 2 4 Output to 2.
  • the switch 642 is closed when the pixel of the frame ⁇ ⁇ (corresponding to the pixel of the frame ttn + 1) supplied from the frame memory 6221 is in the uncovered background area, and the switch 642 is closed.
  • the pixel value multiplied by the mixture ratio H supplied from is supplied to the computing unit 643 and the synthesizing unit 6334.
  • the value obtained by multiplying the pixel value of the pixel of frame # n + 1 output from the switch 642 by the mixture ratio H is equal to the background component of the pixel value of the corresponding pixel of frame ⁇ .
  • Arithmetic unit 643 subtracts the background component supplied from switch 642 from the pixel value of the pixel of frame # ⁇ supplied from frame memory 621, and obtains the foreground component.
  • the arithmetic unit 634 supplies the foreground component of the pixel of the frame tin, which belongs to the uncovered background area, to the synthesizing unit 633.
  • Multiplier 6 5 1 of the covered area processor 6 3 2 mixing ratio monument multiplies the pixel value of the pixel of the supplied frame # n-l from the frame memory 6 2 1, and outputs the Suitsuchi 6 5 2 .
  • the switch 652 is closed when the pixel of the frame ttn (corresponding to the pixel of the frame - ⁇ -1) supplied from the frame memory 6 21 is a covered background area, and is supplied from the multiplier 651.
  • the pixel value multiplied by the mixing ratio H is supplied to the computing unit 653 and the combining unit 6334.
  • the value obtained by multiplying the pixel value of the pixel of frame # ⁇ -1 output from switch 652 by the mixture ratio H is equal to the background component of the pixel value of the corresponding pixel of frame ⁇ .
  • the computing unit 653 obtains a foreground component by subtracting the background component supplied from the switch 652 from the pixel value of the pixel of the frame supplied from the frame memory 621.
  • the computing unit 653 supplies the foreground component of the pixel of frame # ⁇ belonging to the covered background area to the combining unit 633.
  • the synthesizing unit 633 includes, in the frame, the foreground components of the pixels belonging to the uncovered background area supplied from the computing unit 643, and the covered background area supplied from the computing unit 653. The foreground components of the pixels belonging to are combined and supplied to the frame memory 623.
  • the synthesizing unit 6 3 4 is provided with the anchor # 4 supplied from the switch 6 4 2 of the frame # ⁇ .
  • the background component of the pixel belonging to the covered background area and the background component of the pixel belonging to the covered background area supplied from the switch 652 are combined and supplied to the frame memory 623.
  • the frame memory 623 stores the foreground component and the background component of the pixel in the mixed area of the frame #n supplied from the separation processing block 622, respectively.
  • the frame memory 623 outputs the stored foreground components of the pixels in the mixed area of frame #n and the stored background components of the pixels in the mixed area of frame #n.
  • the mixture ratio H which is a feature quantity, it is possible to completely separate the foreground component and the background component included in the pixel value.
  • Combining unit 6 0 3 outputted from demultiplexing section 6 0 1, the foreground component of the picture element in the mixed area of the frame tin, c combining unit for generating a foreground component image and the pixels belonging to the foreground area
  • the reference numeral 605 generates a background component image by combining the background component of the pixel in the mixed area of the frame #n and the pixel belonging to the background area, which is output from the separation unit 601.
  • FIG. 62A is a diagram illustrating an example of the foreground component image corresponding to the frame ⁇ in FIG.
  • FIG. 62D is a diagram illustrating an example of a background component image corresponding to frame # ⁇ in FIG.
  • FIG. 62 shows an example of a foreground component image corresponding to frame #n in FIG. Since the leftmost pixel and the 14th pixel from the left consisted of only the background component before the foreground and background were separated, the pixel value was set to 0.
  • the second to fourth pixels from the left belong to the covered background area before the foreground and background are separated, the background component is set to 0, and the foreground component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area, the background component is set to 0, and the foreground component is left as it is.
  • the fifth to tenth pixels from the left are left as they are because they consist only of foreground components.
  • FIG. 62B shows an example of the background component image corresponding to frame #n in FIG. Most The left pixel and the 14th pixel from the left are left alone because they consisted only of the background component before the foreground and background were separated.
  • the second to fourth pixels from the left belong to the expanded background area before the foreground and the background are separated, the foreground component is set to 0, and the background component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area before the foreground and background are separated, the foreground component is set to 0, and the background component is left as it is. Since the fifth through tenth pixels from the left consist only of the foreground components before the foreground and background are separated, the pixel value is set to 0.
  • step S601 the frame memory 621 of the separation unit 601 acquires the input image, and sets the frame #n to be separated from the foreground and the background into the frame #n before that and the subsequent frame tin-1. ⁇ ⁇ ⁇ ⁇ ' ⁇ ⁇ with the frame # n + l.
  • step S602 the separation processing block 622 of the separation unit 601 acquires the area information supplied from the mixture ratio calculation unit 104.
  • step S603 the separation block 622 of the separation unit 601 acquires the mixture ratio H supplied from the mixture ratio calculation unit 104.
  • step S604 the uncovered area processing unit 631 determines the pixel of the pixel belonging to the uncovered background area supplied from the frame memory 621, based on the area information and the mixing ratio. Extract the background components from the values.
  • step S605 the uncovered area processing unit 631 determines the pixels of the pixels belonging to the uncovered background area supplied from the frame memory 621, based on the area information and the mixture ratio. Extract the foreground component from the value.
  • step S606 the covered area processing unit 632 calculates the pixel value of the pixel belonging to the covered background area supplied from the frame memory 621, based on the area information and the mixture ratio. Extract background components.
  • step S607 the covered area processing unit 632 calculates the pixel value of the pixel belonging to the covered background area supplied from the frame memory 621, based on the area information and the mixing ratio. Extract foreground components.
  • step S 608 the synthesizing section 633 3 extracts the foreground components of the pixels belonging to the uncovered background area extracted in the processing in step S 605 and the components in the processing in step S 607.
  • the pixels belonging to the covered background area are combined with the foreground components.
  • the synthesized foreground component is supplied to the synthesis unit 603. Further, the synthesizing unit 603 synthesizes the pixels belonging to the foreground area supplied via the switch 602 with the foreground components supplied from the separating unit 601 to generate a foreground component image. To achieve.
  • step S609 the synthesizing unit 634 extracts the background components of the pixels belonging to the uncovered background area extracted in the processing of step S604 and the background components of the pixels in the processing of step S606. And the background components of the pixels belonging to the covered background area.
  • the synthesized background component is supplied to the synthesis unit 605. Further, the synthesizing unit 605 synthesizes the pixels belonging to the background area supplied via the switch 604 and the background component supplied from the separating unit 601 to generate a background component image. To achieve.
  • step S610 the synthesizing unit 603 outputs a foreground component image.
  • step S611 the synthesizing unit 605 outputs the background component image, and the process ends.
  • the foreground / background separation unit 105 separates the foreground component and the background component from the input image based on the region information and the mixture ratio H, and outputs the foreground component image including only the foreground component, Also, a background component image consisting of only background components can be output.
  • FIG. 64 is a diagram showing another configuration of the image processing apparatus according to the present invention. The same portions as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted.
  • the motion direction estimating unit 701 generates a motion vector corresponding to the foreground object based on the area information supplied from the area identifying unit 103 and the input image. Then, the motion direction is extracted from the motion vector, and the extracted motion direction is supplied to the mixture ratio calculation unit 720. The motion direction estimator 701 can output the generated motion vector.
  • the mixture ratio calculation unit 702 calculates the mixture ratio H for each pixel based on the region information supplied from the region identification unit 103 and the motion direction supplied from the motion direction estimation unit 701. Then, the calculated mixture ratio H is supplied to the foreground / background separation unit 105.
  • FIG. 65 is a block diagram illustrating a configuration of the motion direction estimating unit 71.
  • the motion vector detecting unit 7221 generates a motion vector based on the area information supplied from the area specifying unit 103 and the input image.
  • the motion vector detection unit 721 outputs the frame #n and the frame #n supplied from the area identification unit 103. Extract an evaluation block corresponding to the target pixel from frame #n based on the n + l area information.
  • a pixel of interest belonging to a covered background area is arranged at the center, and an evaluation block including a background area and a foreground area is extracted.
  • A indicates a target pixel
  • B indicates an evaluation block
  • C indicates a search area.
  • D indicates a foreground area
  • E indicates a background area
  • F indicates a covered background area
  • G indicates an uncovered background area.
  • the motion vector detection unit 721 detects the covered background area of the frame ⁇ + l whose shape matches the shape of the covered background area included in the extracted evaluation block.
  • the motion vector detection unit 721 searches the search area of the frame + 1 corresponding to the evaluation block of the frame, and detects the covered background area included in the extracted evaluation block. Detects the covered background area of frame itn + 1 whose shape matches the shape of.
  • the motion vector detection unit 7 2 1 determines the position of the frame evaluation block on the screen.
  • the motion vector corresponding to the pixel of interest is calculated based on the position of the detected background ⁇ + 1 in the covered background area on the screen.
  • the motion vector detecting section 721 outputs the calculated motion vector and supplies it to the motion direction selecting section 722. As shown in FIGS. 67 7 and 67B, the motion vector detector 721 sets the length of one side of the evaluation block to twice the length of the motion amount V (the width of the mixed area).
  • the evaluation block when the target pixel is located at the end of the mixed area, if the length of one side of the evaluation block is twice as long as the motion amount V, the evaluation block has Therefore, the background region and the mixed region are included, and the contour of the mixed region to be detected becomes clear.
  • the evaluation block when the target pixel is located at the center of the mixed area, if the length of one side of the evaluation block is twice as long as the motion amount V, the evaluation block The lock includes the background area and the mixed area, and the outline of the mixed area to be detected becomes clear.
  • Fig. 67C when the target pixel is located at the end of the mixed area, if the length of one side of the evaluation block is the same as the motion amount V, the evaluation block Since the pattern does not include either the background area or the mixed area, the outline of the mixed area to be detected becomes unclear.
  • FIG. 67D when the target pixel is located at the center of the mixed area, if the length of one side of the evaluation block is the same as the motion amount V, the evaluation block has the background Either the region or the mixed region is not included, and the outline of the mixed region to be detected becomes unclear.
  • the motion vector detection unit 7 2 1 ensures that the shape of the evaluation block matches the shape of the evaluation block by setting the length of one side of the evaluation block to twice the length of the movement amount V.
  • the covered background area of the frame ⁇ + l can be detected.
  • the motion vector detecting section 7 2 1 When the pixel of interest of frame # ⁇ belongs to the uncovered knockout ground area, the motion vector detecting section 7 2 1 outputs the area information of frame ⁇ and frame # ⁇ + 1 supplied from the area specifying section 103. Based on, the evaluation block corresponding to the target pixel is extracted from frame t. The motion vector detection unit 7221 detects an uncovered background area of frame # n + l whose shape matches the shape of the uncovered background area included in the extracted evaluation block.
  • the motion vector detector 7 2 1 determines the pixel of interest based on the position of the evaluation block of frame #n on the screen and the position of the detected frame #n + l on the screen in the uncovered background area. Calculate the corresponding motion vector.
  • the motion vector detecting section 721 outputs the calculated motion vector and supplies it to the motion direction selecting section 722.
  • the motion vector detection unit 721 extracts an evaluation block corresponding to the pixel of interest from the input image of frame ⁇ .
  • the motion vector detector 7 21 1 matches the evaluation block of the input image of frame # ⁇ with the input image of frame ttn + 1, and determines the position of the evaluation block of the input image of frame #n, and Generate a motion vector based on the position of the matched image in frame # n + l.
  • the motion vector detection unit 721 may detect the motion vector based on the area information of the foreground area or the background area. In this case, the motion vector detection unit 7 21 does not need an input image.
  • the motion vector detection unit 721 may detect the motion vector of the covered background area, the anchored background area, the foreground area, or the background area by full-screen matching. In this case, the motion vector detection unit 7 21 does not need an input image.
  • the motion direction selection unit 722 extracts the motion direction of the motion vector supplied from the motion vector detection unit 721, and outputs the extracted motion direction.
  • the motion direction selection unit 722 extracts the horizontal vector component and the vertical vector component from the motion vector, and calculates the absolute value of the horizontal vector component and the absolute value of the vertical vector component I do.
  • the motion direction selection unit 722 selects a vector component having a large absolute value from the horizontal vector component and the vertical vector component.
  • Movement direction selection section 7 22 outputs the direction corresponding to the selected vector component as the movement direction.
  • the movement direction takes, for example, one of 0 indicating left, 1 indicating right, 2 indicating upper, and 3 indicating lower.
  • the motion direction estimating unit 701 can detect the motion vector and output the motion direction.
  • FIG. 68 is a block diagram showing a configuration of the mixture ratio calculating section 720.
  • the mixed area width detection unit 741 based on the area information supplied from the area identification unit 103 and the motion direction supplied from the motion direction estimation unit 701, focuses on the pixel interval as a unit.
  • the width of the mixed region to which the pixel belongs is detected, and the detected width is supplied to the straight-line fitting unit 7242 as mixed region width information.
  • the straight-line fitting section 742 determines the width of the mixed area, The ratio of the distance from the pixel of interest to the pixel in the background area adjacent to the mixed area is calculated.
  • the straight-line fitting unit 742 calculates the mixture ratio of the pixel of interest based on the ratio of the width of the mixed region to the distance from the pixel of interest to the pixel of the background region adjacent to the mixed region. .
  • step S701 the area specifying unit 103 determines whether each pixel of the input image belongs to any of the foreground area, the background area, the covered background area, or the anchored background area based on the input image. A region specific process for generating region information indicating is performed. The region specifying unit 103 supplies the generated region information to the mixture ratio calculating unit 72.
  • the details of the processing in step S701 are the same as the details of the processing in step S12, and thus description thereof will be omitted.
  • step S702 the motion direction estimating unit 701 detects the motion direction based on the area information supplied from the area specifying unit 103. Details of the process of detecting the movement direction will be described later.
  • the motion direction estimator 701 supplies the motion direction to the mixture ratio calculator 702 I do.
  • step S703 the mixture ratio calculation unit 702 determines the mixed area based on the motion direction supplied from the motion direction estimation unit 701 and the region information supplied from the region identification unit 103. Calculate the mixture ratio H for each pixel included in. Details of the mixture ratio calculation process will be described later.
  • the mixture ratio calculation unit 104 supplies the calculated mixture ratio H to the foreground / background separation unit 105.
  • the details of the processing in step S703 are the same as the details of the processing in step S13, and thus description thereof will be omitted.
  • step S704 the foreground / background separation unit 105 extracts foreground components and background components from the input image based on the region information and the mixture ratio, and based on the extracted foreground components. Then, the foreground component image is synthesized, and the background component image is synthesized based on the extracted background component.
  • the foreground / background separation unit 105 outputs the foreground component image and the background component image, and the process ends.
  • the details of the processing in step S704 are the same as the details of the processing in step S14, and thus description thereof will be omitted.
  • the image processing device having the configuration shown in FIG. 64 can separate the foreground and the background.
  • step S 721 the motion vector detector 721 acquires the target frame and the input image of the frame next to the target frame.
  • step S722 the motion vector detection unit 721 acquires the frame of interest and the area information of the frame next to the frame of interest.
  • step S 723 the motion vector detector 721 selects a target pixel.
  • step S 724 the motion vector detection unit 721 determines whether or not the target pixel belongs to the still region based on the region information of the target frame, and determines that the target pixel belongs to the still region. If so, the process proceeds to step S725, the motion vector is set to 0, and the procedure proceeds to step S737.
  • step S 724 If it is determined in step S 724 that the pixel of interest does not belong to the still area, The process proceeds to step S 7 2 6, Ugokibeku Torr detector 7 2 1, attention based on the area information of the frame, the target pixel is a covered background determines whether belonging to the region c Step S 7 2 6 In, when it is determined that the target pixel belongs to the covered background area, the process proceeds to step S 727, and the motion vector detection unit 721 includes the power bird background area, the foreground area, and the background area. Generate an evaluation block. In step S 728, the motion vector detection unit 721 matches the evaluation block with the area information indicating the covered back-drop area of the frame next to the frame of interest.
  • the motion vector detection unit 721 calculates the sum of squares of the error with the evaluation block in the area of the same size as the evaluation block in the search area of the area information of the frame next to the target frame. Then, select an area in the search area where the sum of squares of the error is minimized. ⁇
  • step S 729 the motion vector detector 721 detects the motion based on the position of the evaluation block of the frame of interest and the position of the matched background area of the frame next to the frame of interest. A vector is generated, and the procedure proceeds to step S737.
  • step S 726 When it is determined in step S 726 that the pixel of interest does not belong to the covered background area, the process proceeds to step S 730, and the motion vector detection unit 7 2 1 1, based on the area information of the frame of interest, It is determined whether or not the target pixel belongs to the uncovered background area.
  • step S730 If it is determined in step S730 that the pixel of interest belongs to the uncovered background area, the process proceeds to step S731, where the motion vector detection unit 7221 selects the uncovered background area, foreground area, Generate an evaluation block that includes a background area. In step S732, the motion vector detector 721 matches the evaluation block with the area information indicating the uncovered background area of the frame next to the frame of interest.
  • the motion vector detection unit 721 detects the area information of the frame next to the frame of interest. For the area of the same size as the evaluation block in the search area of the report, calculate the sum of squares of the error with the evaluation block, and select the area in the search area that minimizes the sum of the squares of the error.
  • step S733 the motion vector detection unit 7221 determines a motion based on the position of the evaluation block of the frame of interest and the position of the matched uncovered background area of the frame following the frame of interest. A vector is generated, and the procedure proceeds to step S737.
  • step S730 If it is determined in step S730 that the target pixel does not belong to the uncovered background region, the target pixel belongs to the foreground region, so the process proceeds to step S734, and the motion vector detector 7 21 generates an evaluation block in the target frame of the input image.
  • step S735 the motion vector detection unit 721 matches the evaluation block of the attention frame with the input image of the frame next to the attention frame.
  • the motion vector detection unit 721 calculates the sum of squares of the error with the evaluation block for an image of the same size as the evaluation block in the search area of the input image of the frame following the frame of interest. Then, select the image in the search area that minimizes the sum of squares of the error.
  • step S 736 the motion vector detection unit 721 detects the motion vector based on the evaluation block position of the frame of interest and the position of the image matched with the frame next to the frame of interest. Is generated, and the process proceeds to step S 7 37.
  • step S7337 the motion vector detection unit 7221 determines whether or not a motion vector has been generated for all the pixels of the frame of interest, and the motion vector for all the pixels of the frame of interest. If it is determined that no motion vector has been generated, the process returns to step S 723, selects the next target pixel, and repeats the motion vector generation process. If it is determined in step S 737 that the motion vector has been generated for all the pixels of the frame of interest, the process proceeds to step S 738, where the motion vector detection unit 7 2 1 detects the motion vector. The motion vector is supplied to the motion direction selection section 7 2 2 and the motion vector Is output.
  • step S739 the movement direction selection unit 722 generates a movement direction based on the movement vector supplied from the movement vector detection unit 721.
  • step S740 the motion direction selection unit 722 outputs the generated motion direction, and the process ends.
  • the motion direction estimating unit 701 can generate the motion vector and the motion direction based on the input image and the area information.
  • the motion direction estimating unit 7001 has been described to generate the motion vector and the motion direction using the image of interest and the image and area information of the frame next to the frame of interest.
  • the motion vector and the motion direction may be generated using the image and area information of the frame before the motion vector.
  • step S761 the mixing ratio width detecting section 741 acquires the area information supplied from the area specifying section 103.
  • step S762 the mixture ratio width detecting section 741 and the straight-line fitting section 742 obtain the motion direction supplied from the motion direction estimating section 701.
  • step S763 the straight-line fitting unit 742 selects a pixel of interest.
  • step S764 the straight-line fitting unit 7422 determines whether or not the pixel of interest belongs to the foreground area based on the area information. If it is determined that the pixel of interest belongs to the foreground area, Proceed to S765, set the mixing ratio to 0, and proceed to step S756.
  • step S 764 If it is determined in step S 764 that the pixel of interest does not belong to the foreground area, the process proceeds to step S 766, where the straight-line fitting unit 7242 determines that the pixel of interest belongs to the background area based on the area information. It is determined whether or not the pixel of interest belongs to the background area. If the determination is made that the pixel of interest belongs to the background area, the process proceeds to step S767, the mixture ratio is set to 1, and the process proceeds to step S769. If it is determined in step S766 that the pixel of interest does not belong to the background area, the process proceeds to step S768, where the straight-line fitting unit 742 calculates the mixture ratio of pixels belonging to the mixed area. The process is executed, and the process proceeds to step S769. The details of the process of calculating the mixture ratio H of the pixels belonging to the mixed region will be described later.
  • step S769 the straight-line fitting unit 742 stores the calculated mixture ratio H corresponding to the target pixel.
  • step S770 the straight-line fitting unit 7422 determines whether or not the mixture ratio H has been calculated for the entire frame, and if it is determined that the mixture ratio H has not been calculated for the entire frame, Returning to 736, another target pixel is selected, and the process of calculating the mixture ratio is repeated.
  • step S770 If it is determined in step S770 that the mixture ratio H has been calculated for the entire frame, the process proceeds to step S771, where the straight-line fitting unit 742 outputs the mixture ratio H, and the process ends. I do.
  • the pixels belonging to the mixed area corresponding to the processing in step S768 performed by the mixed area width detection unit 741 and the straight line fitting unit 742 are executed.
  • the process of calculating the mixture ratio H will be described.
  • step S781 the mixed area width detection section 741 detects the motion direction based on the motion direction supplied from the motion direction estimation section 701, and the area information supplied from the area identification section 103. Determine the width of the mixing area along the direction of the vector movement.
  • the mixed area width detection unit 741 supplies the width of the mixed area to the straight line fitting unit 742 as mixed area width information.
  • step S782 the straight-line fitting section 742 determines the distance from the pixel of interest to the edge of the mixed area along the movement direction.
  • step S783 the straight-line fitting section 742 finds the distance from the target pixel to the edge of the mixed area along the direction opposite to the movement direction.
  • step S 784 the straight-line fitting section 742 determines the mixing ratio based on the area information and the ratio of the width of the mixed area to the distance from the pixel of interest to the edge of the mixed area. Is calculated, and the process ends.
  • the mixture ratio calculation unit 702 corresponds to each pixel based on the region information supplied from the region identification unit 103 and the motion direction supplied from the motion direction estimation unit 701. It is possible to calculate a mixture ratio H which is a feature amount.
  • FIG. 73 is a block diagram showing still another configuration of the image processing apparatus according to the present invention. Portions similar to those shown in FIG. 64 are denoted by the same reference numerals, and description thereof is omitted.
  • the movement direction is input from outside.
  • the area specifying unit 103 specifies each of the pixels of the input image as one of a foreground area, a background area, and a mixed area, and for each pixel, any one of a foreground area, a background area, and a mixed area. Are supplied to the mixture ratio calculation unit 720 and the foreground / background separation unit 105.
  • the mixture ratio calculation unit 702 calculates the mixture ratio H for each pixel based on the region information supplied from the region identification unit 103 and the motion direction supplied from outside, and calculates the calculated mixture ratio. The ratio is supplied to the foreground / background separation unit 105.
  • the foreground / background separation unit 105 is based on the area information supplied from the area identification unit 103 and the mixture ratio ⁇ ⁇ supplied from the mixture ratio calculation unit 702, and the foreground component image is composed of only the foreground components. Then, the input image is separated into a background component image consisting of only the background component, and a foreground component image and a background component image are output.
  • step S801 the region identification unit 103 determines whether each pixel of the input image belongs to any of the foreground region, the background region, the covered background region, or the anchored background region based on the input image. A region specific process for generating region information indicating is performed. The region specifying unit 103 supplies the generated region information to the mixture ratio calculating unit 72.
  • step S 802 the mixture ratio calculation section 702 performs the motion input from the outside. Based on the direction and the area information supplied from the area specifying unit 103, a mixing ratio H is calculated for each pixel included in the mixed area.
  • the mixture ratio calculation unit 104 supplies the calculated mixture ratio a to the foreground / background separation unit 105.
  • step S803 the foreground / background separation unit 105 extracts foreground components and background components from the input image based on the region information and the mixture ratio H, and then extracts the foreground components based on the extracted foreground components. Then, the foreground component image is synthesized, and the background component image is synthesized based on the extracted background component.
  • the foreground / background separation unit 105 outputs the foreground component image and the background component image, and the process ends.
  • the image processing apparatus shown in FIG. 73 can separate the foreground and the background.
  • the width of the mixed area is determined in the direction along the motion vector, and the distance to the end of the mixed area is determined.
  • the width of the mixed area is determined in the direction along the movement direction.
  • the mixing ratio can be calculated by Further, by obtaining the width of the mixed region in the direction oblique to the motion vector or the moving direction and obtaining the distance to the end of the mixed region, the processing described with reference to FIG. 55 or FIG. 72 can be performed. The mixing ratio can be calculated.
  • a mixed area formed by mixing the foreground object component constituting the foreground object and the background object component constituting the background object is specified, the area information is output, and the mixed area is output.
  • the change in the mixture ratio which indicates the ratio of the mixture of the foreground object component and the background object component, is substantially linear with respect to the pixel position.
  • the ratio it is possible to know the state of mixing in the image. In this case, one end is located in the foreground area consisting only of the foreground object component, the other end is located in the background area consisting only of the background object component, and the position on the line segment that intersects the mixed area. Based on this, it is possible to estimate the mixture ratio of pixels corresponding to positions on the line segment.
  • the mixture ratio of pixels corresponding to the position on the line segment can be estimated.
  • the mixture ratio of pixels corresponding to the position on the line segment can be estimated.
  • mixture ratio ⁇ has been described as the ratio of the background component included in the pixel value, but may be the ratio of the foreground component included in the pixel value.
  • an example is given in which an image of the real space having the three-dimensional space and the time axis information is projected onto the two-dimensional space and the time and space having the time axis information using the video camera. Is not limited to this example, and corrects the distortion caused by the projection when more first information of the first dimension is projected onto the second information of the second dimension that is less. It can be applied when extracting significant information or synthesizing images more naturally.
  • the sensor is not limited to a CCD, but may be a solid-state image sensor, for example, a BBD (Bucket Brigade Device), a CID (Shoulder Injection Device), a CPD (Charge Priming Device), or a CMO (Complementary Mental Oxide Semiconductor) sensor.
  • the sensor is not limited to a sensor in which the detection elements are arranged in a matrix, but may be a sensor in which the detection elements are arranged in one line.
  • the recording medium on which the program for performing the signal processing of the present invention is recorded is a magnetic disk 51 on which the program is recorded, which is distributed in order to provide the program to the user separately from the computer.
  • a magnetic disk 51 on which the program is recorded which is distributed in order to provide the program to the user separately from the computer.
  • optical disk 52 CD-ROM (Compact Disc-Read Only Memory), DVD (including Digital Versati le Disc), magneto-optical disk 53 (including MD (Mini-Disc) (trademark)
  • semiconductor memory 54 It is provided with a ROM 22 in which a program is recorded, which is provided to the user in a state in which the program is previously installed in the computer, and a hard disk included in the storage unit 28.
  • steps for describing a program to be recorded on a recording medium are not limited to processing performed in chronological order according to the described order, but are not necessarily performed in chronological order. Alternatively, it also includes processes that are individually executed.
  • the first aspect of the present invention it is possible to know the state of mixing in an image.

Description

明細書
画像処理装置および方法、 並びに撮像装置 技術分野
本発明は、 画像処理装置および方法、 並びに撮像装置に関し、 特に、 センサに より検出した信号と現実世界との違いを考慮した画像処理装置および方法、 並び に撮像装置に関する。 背景技術
現実世界における事象をセンサで検出し、 画像センサが出力するサンプリング データを処理する技術が広く利用されている。
例えば、 静止している所定の背景の前で移動する物体をビデオカメラで撮像し て得られる画像には、 物体の移動速度が比較的速い場合、 動きボケが生じること になる。
しかしながら、 静止している背景の前で物体が移動するとき、 移動する物体の 画像自身の混ざり合いによる動きボケのみならず、 背景の画像と移動する物体の 画像との混ざり合いが生じる。 従来は、 背景の画像と移動する物体の画像との混 ざり合いの状態に対応する処理は、 考えられていなかった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 画像における混ざり合 いの状態を知ることができるようにすることを目的とする。
本発明の第 1の画像処理装置は、 画像データに対応して、 前景オブジェク トを 構成する前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェ ク ト成分が混合されてなる混合領域と、 前景オブジェク ト成分のみからなる前景 領域と、 背景オブジェク ト成分のみからなる背景領域とからなる非混合領域とを 特定する領域特定手段と、 領域情報により特定される、 前景ォブジェク トの動き 方向に基づく所定方向の混合領域の幅と、 注目している注目画素の位置から混合 領域の端までの所定方向に沿った距離との比率を基に、 注目画素の、 前景ォブジ ェク ト成分と背景オブジェク ト成分との混合の比率を示す混合比を推定する混合 比推定手段とを含むことを特徴とする。
画像処理装置は、 前景ォブジェク トの動きべク トルを検出する動きべク トル検 出手段をさらに設け、 混合比推定手段は、 動きベク トルの動き方向に沿って、 混 合領域の幅、 および注目画素の位置から混合領域の端までの距離を検出し、 混合 領域の幅と、 注目画素の位置から混合領域の端までの距離との比率を基に、 混合 比を推定するようにすることができる。
画像処理装置は、 前景オブジェク トの動き方向を検出する動き方向検出手段を さらに設け、 混合比推定手段は、 動き方向に沿って、 混合領域の幅、 および注目 画素の位置から混合領域の端までの距離を検出し、 混合領域の幅と、 注目画素の 位置から混合領域の端までの距離との比率を基に、 混合比を推定するようにする ことができる。
動き方向検出手段に、 領域情報を基に、 注目している注目フレームにおける混 合領域の位置、 および注目フレームの近傍の近傍フレームにおける混合領域の位 置を基に、 動きべク トルを生成する動きべク トル生成手段を設け、 動き方向検出 手段は、 生成した動きベク トルを基に、 動き方向を検出するようにすることがで さる。
本発明の第 1の画像処理方法は、 画像データに対応して、 前景オブジェク トを 構成する前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェ ク ト成分が混合されてなる混合領域と、 前景オブジェク ト成分のみからなる前景 領域と、 背景ォブジェク ト成分のみからなる背景領域とからなる非混合領域とを 特定する領域特定ステップと、 領域情報により特定される、 前景オブジェク 卜の 動き方向に基づく所定方向の混合領域の幅と、 注目している注目画素の位置から 混合領域の端までの所定方向に沿った距離との比率を基に、 注目画素の、 前景ォ ブジェク ト成分と背景オブジェク ト成分との混合の比率を示す混合比を推定する 混合比推定ステップとを含むことを特徴とする。
画像処理方法は、 前景ォブジェク トの動きべク トルを検出する動きべク トル検 出ステップをさらに設け、 混合比推定ステップは、 動きべク トルの動き方向に沿 つて、 混合領域の幅、 および注目画素の位置から混合領域の端までの距離を検出 し、 混合領域の幅と、 注目画素の位置から混合領域の端までの距離との比率を基 に、 混合比を推定するようにすることができる。
画像処理方法は、 前景オブジェク トの動き方向を検出する動き方向検出ステツ プをさらに設け、 混合比推定ステップは、 動き方向に沿って、 混合領域の幅、 お よび注目画素の位置から混合領域の端までの距離を検出し、 混合領域の幅と、 注 目画素の位置から混合領域の端までの距離との比率を基に、 混合比を推定するよ うにすることができる。
動き方向検出ステップに、 領域情報を基に、 注目している注目フレームにおけ る混合領域の位置、 および注目フレームの近傍の近傍フレームにおける混合領域 の位置を基に、 動きべク トルを生成する動きべク トル生成ステップを設け、 動き 方向検出ステップは、 生成した動きベク トルを基に、 動き方向を検出するように することができる。
本発明の第 1の記録媒体のプログラムは、 画像データに対応して、 前景ォブジ ェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景 オブジェク ト成分が混合されてなる混合領域と、 前景オブジェク ト成分のみから なる前景領域と、 背景オブジェク ト成分のみからなる背景領域とからなる非混合 領域とを特定する領域特定ステップと、 領域情報により特定される、 前景ォブジ ュク トの動き方向に基づく所定方向の混合領域の幅と、 注目している注目画素の 位置から混合領域の端までの所定方向に沿った距離との比率を基に、 注目画素の、 前景オブジェク ト成分と背景オブジェク ト成分との混合の比率を示す混合比を推 定する混合比推定ステップとを含むことを特徴とする。 '
プログラムは、 前景オブジェク トの動きべク トルを検出する動きべク トル検出 ステップをさらに設け、 混合比推定ステップは、 動きべク トルの動き方向に沿つ て、 混合領域の幅、 および注目画素の位置から混合領域の端までの距離を検出し、 混合領域の幅と、 注目画素の位置から混合領域の端までの距離との比率を基に、 混合比を推定するようにすることができる。
プログラムは、 前景オブジェク トの動き方向を検出する動き方向検出ステップ をさらに設け、 混合比推定ステップは、 動き方向に沿って、 混合領域の幅、 およ び注目画素の位置から混合領域の端までの距離を検出し、 混合領域の幅と、 注目 画素の位置から混合領域の端までの距離との比率を基に、 混合比を推定するよう にすることができる。
動き方向検出ステップに、 領域情報を基に、 注目している注目フレームにおけ る混合領域の位置、 および注目フレームの近傍の近傍フレームにおける混合領域 の位置を基に、 動きべク トルを生成する動きべク トル生成ステップを設け、 動き 方向検出ステップは、 生成した動きベク トルを基に、 動き方向を検出するように することができる。
本発明の第 1のプログラムは、 コンピュータに、 画像データに対応して、 前景 オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成す る背景オブジェク ト成分が混合されてなる混合領域と、 前景オブジェク ト成分の みからなる前景領域と、 背景オブジェク ト成分のみからなる背景領域とからなる 非混合領域とを特定する領域特定ステップと、 領域情報により特定される、 前景 オブジェク トの動き方向に基づく所定方向の混合領域の幅と、 注目している注目 画素の位置から混合領域の端までの所定方向に沿った距離との比率を基に、 注目 画素の、 前景オブジェク ト成分と背景オブジェク ト成分との混合の比率を示す混 合比を推定する混合比推定ステップとを実行させることを特徴とする。
プログラムは、 前景オブジェク トの動きべク トルを検出する動きべク トル検出 ステップをさらに設け、 混合比推定ステップは、 動きベク トルの動き方向に沿つ て、 混合領域の幅、 および注目画素の位置から混合領域の端までの距離を検出し、 混合領域の幅と、 注目画素の位置から混合領域の端までの距離との比率を基に、 混合比を推定するようにすることができる。 プログラムは、 前景オブジェク トの動き方向を検出する動き方向検出ステップ をさらに設け、 混合比推定ステップは、 動き方向に沿って、 混合領域の幅、 およ び注目画素の位置から混合領域の端まで ^の距離を検出し、 混合領域の幅と、 注目 画素の位置から混合領域の端までの距離との比率を基に、 混合比を推定するよう にすることができる。
動き方向検出ステップに、 領域情報を基に、 注目している注目フレームにおけ る混合領域の位置、 および注目フレームの近傍の近傍フレームにおける混合領域 の位置を基に、 動きべク トルを生成する動きべク トル生成ステップを設け、 動き 方向検出ステップは、 生成した動きベク トルを基に、 動き方向を検出するように することができる。
本発明の第 1の撮像装置は、 時間積分効果を有する所定数の画素を有する撮像 素子によつて撮像された被写体画像を、 所定数の画素データからなる画像データ として出力する撮像手段と、 画像データに対応して、 前景オブジェク トを構成す る前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェク ト成 分が混合されてなる混合領域と、 前景ォブジュク ト成分のみからなる前景領域と、 背景オブジェク ト成分のみからなる背景領域とからなる非混合領域とを特定する 領域特定手段と、 領域情報により特定される、 前景オブジェク トの動き方向に基 づく所定方向の混合領域の幅と、 注目している注目画素の位置から混合領域の端 までの所定方向に沿った距離との比率を基に、 注目画素の、 前景オブジェク ト成 分と背景オブジェク ト成分との混合の比率を示す混合比を推定する混合比推定手 段とを含むことを特徴とする。
撮像装置は、 前景オブジェク トの動きべク トルを検出する動きべク トル検出手 段をさらに設け、 混合比推定手段は、 動きベク トルの動き方向に沿って、 混合領 域の幅、 および注目画素の位置から混合領域の端までの距離を検出し、 混合領域 の幅と、 注目画素の位置から混合領域の端までの距離との比率を基に、 混合比を 推定するようにすることができる。
撮像装置は、 前景オブジェク トの動き方向を検出する動き方向検出手段をさら に含み、 混合比推定手段は、 動き方向に沿って、 混合領域の幅、 および注目画素 の位置から混合領域の端までの距離を検出し、 混合領域の幅と、 注目画素の位置 から混合領域の端までの距離との比率を基に、 混合比を推定するようにすること ができる。
動き方向検出手段に、 領域情報を基に、 注目している注目フレームにおける混 合領域の位置、 および注目フレームの近傍の近傍フレームにおける混合領域の位 置を基に、 動きべク トルを生成する動きべク トル生成手段を設け、 動き方向検出 手段は、 生成した動きベク トルを基に、 動き方向を検出するようにすることがで きる。
本発明の第 2の画像処理装置は、 画像データに対応して、 前景オブジェク トを 構成する前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェ ク ト成分が混合されてなる混合領域を特定する領域情報を出力する領域特定手段 と、 混合領域における前景オブジェク ト成分と背景オブジェク ト成分との混合の 比率を示す混合比の変化が画素の位置に対して略直線的であるとして、 領域情報 および前景オブジェク トの動き方向に基づき、 混合比を推定する混合比推定手段 とを含むことを特徴とする。
混合比推定手段は、 1端が前景ォブジェク ト成分のみからなる前景領域に位置 し、 他の 1端が背景オブジェク ト成分のみからなる背景領域に位置し、 かつ混合 領域を横断する線分上の位置を基に、 線分上の位置に対応する画素の混合比を推 定するようにすることができる。
混合比推定手段は、 前景ォブジェク トの動き方向と平行する線分上の位置を基 に、 線分上の位置に対応する画素の混合比を推定するようにすることができる。 混合比推定手段は、 前景オブジェク トの動き方向に斜交する線分上の位置を基 に、 線分上の位置に対応する画素の混合比を推定するようにすることができる。 本発明の第 2の画像処理方法は、 画像データに対応して、 前景オブジェク トを 構成する前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェ ク ト成分が混合されてなる混合領域を特定する領域情報を出力する領域特定ステ ップと、 混合領域における前景オブジェク ト成分と背景オブジェク ト成分との混 合の比率を示す混合比の変化が画素の位置に対して略直線的であるとして、 領域 情報および前景ォブジユタ トの動き方向に基づき、 混合比を推定する混合比推定 ステップとを含むことを特徴とする。
混合比推定ステップは、 1端が前景オブジェク ト成分のみからなる前景領域に 位置し、 他の 1端が背景ォブジェク ト成分のみからなる背景領域に位置し、 かつ 混合領域を横断する線分上の位置を基に、 線分上の位置に対応する画素の混合比 を推定するようにすることができる。
混合比推定ステップは、 前景ォブジェク トの動き方向と平行する線分上の位置 を基に、 線分上の位置に対応する画素の混合比を推定するようにすることができ る。
混合比推定ステップは、 前景オブジェク トの動き方向に斜交する線分上の位置 を基に、 線分上の位置に対応する画素の混合比を推定するようにすることができ る。
本発明の第 2の記録媒体のプログラムは、 画像データに対応して、 前景ォブジ エタ トを構成する前景オブジェク ト成分および背景オブジェク トを構成する背景 オブジェク ト成分が混合されてなる混合領域を特定する領域情報を出力する領域 特定ステップと、 混合領域における前景ォブジェク ト成分と背景オブジェク ト成 分との混合の比率を示す混合比の変化が画素の位置に対して略直線的であるとし て、 領域情報および前景ォブジ-ク トの動き方向に基づき、 混合比を推定する混 合比推定ステップとを含むことを特徴とする。
混合比推定ステップは、 1端が前景オブジェク ト成分のみからなる前景領域に 位置し、 他の 1端が背景オブジェク ト成分のみからなる背景領域に位置し、 かつ 混合領域を横断する線分上の位置を基に、 線分上の位置に対応する画素の混合比 を推定するようにすることができる。
混合比推定ステップは、 前景オブジェク トの動き方向と平行する線分上の位置 を基に、 線分上の位置に対応する画素の混合比を推定するようにすることができ る。
混合比推定ステップは、 前景オブジェク トの動き方向に斜交する線分上の位置 を基に、 線分上の位置に対応する画素の混合比を推定するようにすることができ る。
本発明の第 2のプログラムは、 コンピュータに、 画像データに対応して、 前景 オブジェク トを構成する前景オブジェク ト成分および背景オブジェク トを構成す る背景オブジェク ト成分が混合されてなる混合領域を特定する領域情報を出力す る領域特定ステップと、 混合領域における前景ォブジェク ト成分と背景オブジェ ク ト成分との混合の比率を示す混合比の変化が画素の位置に対して略直線的であ るとして、 領域情報および前景オブジェク トの動き方向に基づき、 混合比を推定 する混合比推定ステップとを実行させることを特徴とする。
混合比推定ステップは、 1端が前景オブジェク ト成分のみからなる前景領域に 位置し、 他の 1端が背景オブジェク ト成分のみからなる背景領域に位置し、 かつ 混合領域を横断する線分上の位置を基に、 線分上の位置に対応する画素の混合比 を推定するようにすることができる。
混合比推定ステップは、 前景オブジェク トの動き方向と平行する線分上の位置 を基に、 線分上の位置に対応する画素の混合比を推定するようにすることができ る。
混合比推定ステップは、 前景オブジェク トの動き方向に斜交する線分上の位置 を基に、 線分上の位置に対応する画素の混合比を推定するようにすることができ る。
本発明の第 2の撮像装置は、 時間積分効果を有する所定数の画素を有する撮像 素子によつて撮像された被写体画像を、 所定数の画素データからなる画像データ として出力する撮像手段と、 画像データに対応して、 前景オブジェク トを構成す る前景オブジェク ト成分および背景オブジェク トを構成する背景オブジェク ト成 分が混合されてなる混合領域を特定する領域情報を出力する領域特定手段と、 混 合領域における前景オブジェク ト成分と背景オブジェク ト成分との混合の比率を 示す混合比の変化が画素の位置に対して略直線的であるとして、 領域情報および 前景オブジェク トの動き方向に基づき、 混合比を推定する混合比推定手段とを含 むことを特徴とする。
混合比推定手段は、 1端が前景ォブジェク ト成分のみからなる前景領域に位置 し、 他の 1端が背景オブジェク ト成分のみからなる背景領域に位置し、 かつ混合 領域を横断する線分上の位置を基に、 線分上の位置に対応する画素の混合比を推 定するようにすることができる。
混合比推定手段は、 前景オブジェク トの動き方向と平行する線分上の位置を基 に、 線分上の位置に対応する画素の混合比を推定するようにすることができる。 混合比推定手段は、 前景オブジェク トの動き方向に斜交する線分上の位置を基 に、 線分上の位置に対応する画素の混合比を推定するようにすることができる。 画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成分お よび背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領 域と、 前景オブジェク ト成分のみからなる前景領域と、 背景オブジェク ド成分の みからなる背景領域とからなる非混合領域とが特定され、 領域情報により特定さ れる、 前景ォブジ ク トの動き方向に基づく所定方向の混合領域の幅と、 注目し ている注目画素の位置から混合領域の端までの所定方向に沿つた距離との比率を 基に、 注目画素の、 前景ォブジェク ト成分と背景オブジェク ト成分との混合の比 率を示す混合比が推定される。
画像データに対応して、 前景ォブジェク トを構成する前景オブジェク ト成分お よび背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混合領 域を特定する領域情報が出力され、 混合領域における前景オブジェク ト成分と背 景ォブジェク ト成分との混合の比率を示す混合比の変化が画素の位置に対して略 直線的であるとして、 領域情報および前景オブジェク トの動き方向に基づき、 混 合比が推定される。
これにより、 画像における混ざり合いの状態を知ることができるようになる。 図面の簡単な説明
図 1は、 本発明に係る画像処理装置の一実施の形態を示す図である。
図 2は、 画像処理装置を示すブロック図である。
図 3は、 センサによる撮像を説明する図である。
図 4は、 画素の配置を説明する図である。
図 5は、 検出素子の動作を説明する図である。
図 6 Aは、 動いている前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像を説明する図である。
図 6 Bは、 動いている前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク 卜とを撮像して得られる画像のモデルを説明する図である。 図 7は、 背景領域、 前景領域、 混合領域、 カバードバックグラウンド領域、 お よびアンカバードバックグラウンド領域を説明する図である。
図 8は、 静止している前景に対応するオブジェク トおよび静止している背景に 対応するオブジェク トを撮像した画像における、 隣接して 1列に並んでいる画素 の画素値を時間方向に展開したモデル図である。
図 9は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割した モデル図である。
図 1 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 1は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 2は、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示す図 である。
図 1 3は、 画素と画素値を時間方向に展開したモデルとの対応を示す図である c 図 1 4は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 5は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 6は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 7は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 8は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 1 9は、 動きボケの量の調整の処理を説明するフローチャートである。 図 2 0は、 領域特定部 1 0 3の構成の一例を示すブロック図である。
図 2 1は、 前景に対応するオブジェク トが移動しているときの画像を説明する 図である。
図 2 2は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。 .
図 2 3は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 2 4は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 2 5は、 領域判定の条件を説明する図である。
図 2 6 Aは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 2 6 Bは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 2 6 Cは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 2 6 Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 2 7は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。
図 2 8は、 領域特定の処理を説明するフローチヤ一トである。
図 2 9は、 領域特定部 1 0 3の構成の他の一例を示すブロック図である。 図 3 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。 図 3 1は、 背景画像の例を示す図である。
図 3 2は、 2値オブジェク ト画像抽出部 3 0 2の構成を示すプロック図である c 図 3 3 Aは、 相関値の算出を説明する図である。
図 3 3 Bは、 相関値の算出を説明する図である。
図 3 4 Aは、 相関値の算出を説明する図である。
図 3 4 Bは、 相関値の算出を説明する図である。
図 3 5は、 2値ォブジェク ト画像の例を示す図である。
図 3 6は、 時間変化検出部 3 0 3の構成を示すプロック図である。
図 3 7は、 領域判定部 3 4 2の判定を説明する図である。
図 3 8は、 時間変化検出部 3 0 3の判定の例を示す図である。
図 3 9は、 領域判定部 1 0 3の領域特定の処理を説明するフローチヤ一トであ る。
図 4 0は、 領域判定の処理の詳細を説明するフローチヤ一トである。
図 4 1は、 領域特定部 1 ◦ 3のさらに他の構成を示すブロック図である。
図 4 2は、 ロバスト化部 3 6 1の構成を説明するブロック図である。
図 4 3は、 動き補償部 3 8 1の動き補償を説明する図である。
図 4 4は、 動き補償部 3 8 1の動き補償を説明する図である。
図 4 5は、 領域特定の処理を説明するフローチヤ一トである。
図 4 6は、 口バスト化の処理の詳細を説明するフローチヤ一トである。
図 4 7は、 混合比算出部 1 0 4の構成を示すブロック図である。
図 4 8は、 理想的な混合比 ひ の例を示す図である。
図 4 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 1は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。 図 5 2は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 3は、 混合比 ひ の算出の処理を説明する図である。
図 5 4は、 混合比 ひ の算出の処理を説明するフローチヤ一トである。
図 5 5は、 混合領域に属する画素の混合比 ひ の算出の処理を説明するフロー チヤ一トである。
図 5 6は、 前景背景分離部 1 0 5の構成の一例を示すブロック図である。 図 5 7 Aは、 入力画像、 前景成分画像、 および背景成分画像を示す図である。 図 5 7 Bは、 入力画像、 前景成分画像、 および背景成分画像のモデルを示す図 である。
図 5 8は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 5 9は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 6 0は、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
図 6 1は、 分離部 6 0 1の構成の一例を示すブロック図である。
図 6 2 Aは、 分離された前景成分画像の例を示す図である。
図 6 2 Bは、 分離された背景成分画像の例を示す図である。
図 6 3は、 前景と背景との分離の処理を説明するフローチャートである。 図 6 4は、 本発明に係る画像処理装置の他の構成を示すプロック図である。 図 6 5は、 動き方向推定部 7 0 1の構成を示すブロック図である。
図 6 6は、 動きべク トル検出部 7 2 1のブロックマッチングを説明する図であ る。
図 6 7 Aは、 評価ブロックを説明する図である。
図 6 7 Bは、 評価ブロックを説明する図である。
図 6 7 Cは、 評価ブロックを説明する図である。 図 6 7 Dは、 評価ブロックを説明する図である。
図 6 8は、 混合比算出部 7 0 2の構成を示すプロック図である。
図 6 9は、 前景背景分離の処理を説明するフローチヤ一トである。
図 7 0は、 動き方向取得の処理を説明するフローチヤ一トである。
図 7 1は、 混合比 ひ の算出の処理を説明するフローチャートである。
図 7 2は、 混合領域に属する画素の混合比 a の算出の処理を説明するフロー チヤ一トである。
図 7 3は、 本発明に係る画像処理装置のさらに他の構成を示すブロック図であ る。
図 7 4は、 前景背景の分離の処理を説明するフローチャートである。 発明を実施するための最良の形態
図 1は、 本発明に係る画像処理装置の一実施の形態を示す図である。 CPU (Central Proces s ing Uni t) 2 1は、 ROM (Read On ly Memory) 2 2、 または 記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Acces s Memory) 2 3には、 CPU 2 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 2 1、 ROM 2 2 および RAM 2 3は、 ノ ス 2 4により相互に接続されている。
CPU 2 1にはまた、 バス 2 4を介して入出力ィンタフェース 2 5が接続されて いる。 入出力インタフェース 2 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 2 6、 ディスプレイ、 スピーカなどよりなる出力部 2 7が接続さ れている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を出力部 2 7 に出力する。
入出力インタフェース 2 5に接続されている記憶部 2 8は、 例えばハードディ スクなどで構成され、 CPU 2 1が実行するプログラムや各種のデータを記憶する c 通信部 2 9は、 インターネッ ト、 その他のネッ トワークを介して外部の装置と通 信する。 この例の場合、 通信部 2 9はセンサの出力を取り込む取得部として働く c また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよい c 入出力インタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5
1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8に転送さ れ、 記憶される。
図 2は、 画像処理装置を示すブロック図である。
なお、 画像処理装置の各機能をハードウェアで実現するか、 ソフトウェアで実 現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェアのブロ ック図と考えても、 ソフトウエアによる機能プロック図と考えても良い。
この明細書では、 撮像の対象となる、 現実世界におけるオブジェク 卜に対応す る画像を、 画像オブジェク 卜と称する。
画像処理装置に供給された入力画像は、 ォブジェク ト抽出部 1 0 1、 領域特定 部 1 0 3、 および前景背景分離部 1 0 5に供給される。
オブジェク ト抽出部 1 0 1は、 入力画像に含まれる前景のオブジェク トに対応 する画像オブジェク トを粗く抽出して、 抽出した画像オブジェク トを動き検出部
1 0 2に供給する。 オブジェク ト抽出部 1 0 1は、 例えば、 入力画像に含まれる 前景のオブジェク トに対応する画像オブジェク トの輪郭を検出することで、 前景 のォブジェク トに対応する画像オブジェク トを粗く抽出する。
オブジェク ト抽出部 1 0 1は、 入力画像に含まれる背景のオブジェク トに対応 する画像オブジェク トを粗く抽出して、 抽出した画像オブジェク トを動き検出部
1 0 2に供給する。 オブジェク ト抽出部 1 0 1は、 例えば、 入力画像と、 抽出さ れた前景のオブジェク トに対応する画像オブジェク トとの差から、 背景のォブジ ェタ トに対応する画像オブジェク トを粗く抽出する。
また、 例えば、 オブジェク ト抽出部 1 0 1は、 内部に設けられている背景メモ リに記憶されている背景の画像と、 入力画像との差から、 前景のオブジェク 卜に 対応する画像オブジェク ト、 および背景のオブジェク トに対応する画像オブジェ ク トを粗く抽出するようにしてもよい。
動き検出部 1 0 2は、 例えば、 ブロックマッチング法、 勾配法、 位相相関法、 およびペルリカーシブ法などの手法により、 粗く抽出された前景のォブジェク ト に対応する画像オブジェク トの動きベク トルを算出して、 算出した動きベク トル および動きべク トルの位置情報 (動きべク トルに対応する画素の位置を特定する 情報) を領域特定部 1 0 3および混合比算出部 1 0 4に供給する。
動き検出部 1 0 2が出力する動きべク トルには、 動き量 Vに対応する情報が 含まれている。
また、 例えば、 動き検出部 1 0 2は、 画像オブジェク トに画素を特定する画素 位置情報と共に、 画像オブジェク ト毎の動きべク トルを領域特定部 1 0 3および 混合比算出部 1 0 4に出力するようにしてもよレ、。
動き量 Vは、 動いているオブジェク トに対応する画像の位置の変化を画素間 隔を単位として表す値である。 例えば、 前景に対応するオブジェク トの画像が、 あるフレームを基準として次のフレームにおいて 4画素分離れた位置に表示され るように移動しているとき、 前景に対応するォブジェク トの画像の動き量 V は、
4とされる。
領域特定部 1 0 3は、 入力された画像の画素のそれぞれを、 前景領域、 背景領 域、 または混合領域のいずれかに特定し、 画素毎に前景領域、 背景領域、 または 混合領域のいずれかに属するかを示す情報 (以下、 領域情報と称する) を混合比 算出部 1 0 4および前景背景分離部 1 0 5に供給する。
混合比算出部 1 0 4は、 動き検出部 1 0 2から供給された動きべク トルとその 位置情報、 および領域特定部 1 0 3から供給された領域情報を基に、 混合領域に 含まれる画素に対応する混合比 (以下、 混合比 と称する) を算出して、 算出 した混合比を前景背景分離部 1 0 5に供給する。
混合比 ひ は、 後述する式 (3 ) に示されるように、 画素値における、 背景の オブジェク トに対応する画像の成分 (以下、 背景の成分とも称する) の割合を示 す値である。
前景背景分離部 1 0 5は、 領域特定部 1 0 3から供給された領域情報、 および 混合比算出部 1 0 4から供給された混合比 を基に、 前景のオブジェク トに対 応する画像の成分 (以下、 前景の成分とも称する) のみから成る前景成分画像と、 背景の成分のみから成る背景成分画像とに入力画像を分離して、 前景成分画像お よび背景成分画像を出力する。
従来の混合領域を考慮しないで前景と背景だけを特定し、 分離していた方式に 比べ正確な前景と背景を得ることが出来る。
次に、 図 3乃至図 1 8を参照して、 画像処理装置に供給される入力画像につい て説明する。
図 3は、 センサによる撮像を説明する図である。 センサは、 例えば、 固体撮像 素子である CCD (Charge-Coupl ed Dev ice) エリアセンサを備えた CCD ビデオ力 メラなどで構成される。 現実世界における、 前景に対応するォブジェク ト 1 1 1 は、 現実世界における、 背景に対応するオブジェク ト 1 1 2と、 センサとの間を、 例えば、 図中の左側から右側に水平に移動する。
センサは、 前景に対応するォブジェク ト 1 1 1を、 背景に対応するォブジェク ト 1 1 2と共に撮像する。 センサは、 撮像した画像を 1フレーム単位で出力する c 例えば、 センサは、 1秒間に 3 0フレームから成る画像を出力する。 センサの露 光時間は、 1 Z 3 0秒とすることができる。 露光時間は、 センサが入力された光 の電荷への変換を開始してから、 入力された光の電荷への変換を終了するまでの 期間である。 以下、 露光時間をシャツタ時間とも称する。
図 4は、 画素の配置を説明する図である。 図 4中において、 A乃至 Iは、 個々 の画素を示す。 画素は、 画像に対応する平面上に配置されている。 1つの画素に 対応する 1つの検出素子は、 センサ上に配置されている。 センサが画像を撮像す るとき、 1つの検出素子は、 画像を構成する 1つの画素に対応する画素値を出力 する。 例えば、 検出素子の X方向の位置は、 画像上の横方向の位置に対応し、 検 出素子の Y方向の位置は、 画像上の縦方向の位置に対応する。 図 5に示すように、 例えば、 CCDである検出素子は、 シャツタ時間に対応する 期間、 入力された光を電荷に変換して、 変換された電荷を蓄積する。 電荷の量は、 入力された光の強さと、 光が入力されている時間にほぼ比例する。 検出素子は、 シャツタ時間に対応する期間において、 入力された光から変換された電荷を、 既 に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対 応する期間、 入力される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 時間に対して、 積分効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値は更にデジタルデータなどの画素値に変換されて出力される。 従って、 センサ から出力される個々の画素値は、 前景または背景に対応するオブジェク トの空間 的に広がりを有するある部分を、 シャツタ時間について積分した結果である、 1 次元の空間に射影された値を有する。
画像処理装置は、 このようなセンサの蓄積の動作により、 出力信号に埋もれて しまった有意な情報、 例えば、 混合比 α を抽出する。 画像処理装置は、 前景の 画像オブジェク ト自身が混ざり合うことによる生ずる歪みの量、 例えば、 動きボ ケの量などを調整する。 また、 画像処理装置は、 前景の画像オブジェク トと背景 の画像オブジェク トとが混ざり合うことにより生ずる歪みの量を調整する。
図 6 Αは、 動いている前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像を説明する図である。 図 6 Βは、 動いている前景に対応するオブジェク トと、 静止している背景に対応するォブジ ヱク トとを撮像して得られる画像のモデルを説明する図である。
図 6 Αは、 動きを伴う前景に対応するオブジェク トと、 静止している背景に対 応するオブジェク トとを撮像して得られる画像を示している。 図 6 Αに示す例に おいて、 前景に対応するォブジェク トは、 画面に対して水平に左から右に動いて いる。
図 6 Bは、 図 6 Aに示す画像の 1つのラインに対応する画素値を時間方向に展 開したモデル図である。 図 6 Bの横方向は、 図 6 Aの空間方向 Xに対応している c 背景領域の画素は、 背景の成分、 すなわち、 背景のオブジェク トに対応する画 像の成分のみから、 その画素値が構成されている。 前景領域の画素は、 前景の成 分、 すなわち、 前景のオブジェク トに対応する画像の成分のみから、 その画素値 が構成されている。
混合領域の画素は、 背景の成分、 および前景の成分から、 その画素値が構成さ れている。 混合領域は、 背景の成分、 および前景の成分から、 その画素値が構成 されているので、 歪み領域ともいえる。 混合領域は、 更に、 カバードバックダラ ゥンド領域およびアンカバ一ドバックグラウンド領域に分類される。
カバードバックグラウンド領域は、 前景領域に対して、 前景のオブジェク トの 進行方向の前端部に対応する位置の混合領域であり、 時間の経過に対応して背景 成分が前景に覆い隠される領域をいう。
これに対して、 アンカバードバックグラウンド領域は、 前景領域に対して、 前 景のォブジェク トの進行方向の後端部に対応する位置の混合領域であり、 時間の 経過に対応して背景成分が現れる領域をいう。
このように、 前景領域、 背景領域、 またはカバードバックグラウンド領域若し くはアンカバードバックグラウンド領域を含む画像が、 領域特定部 1 0 3、 混合 比算出部 1 0 4、 および前景背景分離部 1 0 5に入力画像として入力される。 図 7は、 以上のような、 背景領域、 前景領域、 混合領域、 カバードバックグラ ゥンド領域、 およびアンカバードバックグラウンド領域を説明する図である。 図 6 Aに示す画像に対応する場合、 背景領域は、 静止部分であり、 前景領域は、 動 き部分であり、 混合領域のカバ一ドバックグラウンド領域は、 背景から前景に変 化する部分であり、 混合領域のアンカバードバックグラウンド領域は、 前景から 背景に変化する部分である。
図 8は、 静止している前景に対応するォブジェク トおよび静止している背景に 対応するオブジェク トを撮像した画像における、 隣接して 1列に並んでいる画素 の画素値を時間方向に展開したモデル図である。 例えば、 隣接して 1列に並んで いる画素として、 画面の 1つのライン上に並んでいる画素を選択することができ る。
図 8に示す F01乃至 F04の画素値は、 静止している前景のオブジェク トに対 応する画素の画素値である。 図 8に示す B01乃至 B04の画素値は、 静止してい る背景のオブジェク トに対応する画素の画素値である。
図 8における縦方向は、 時間に対応し、 図中の上から下に向かって時間が経過 する。 図 8中の矩形の上辺の位置は、 センサが入力された光の電荷への変換を開 始する時刻に対応し、 図 8中の矩形の下辺の位置は、 センサが入力された光の電 荷への変換を終了する時刻に対応する。 すなわち、 図 8中の矩形の上辺から下辺 までの距離は、 シャツタ時間に対応する。
以下において、 シャツタ時間とフレーム間隔とが同一である場合を例に説明す る。
図 8における横方向は、 図 6 Aで説明した空間方向 Xに対応する。 より具体 的には、 図 8に示す例において、 図 8中の" F01 " と記載された矩形の左辺か ら" B04" と記載された矩形の右辺までの距離は、 画素のピッチの 8倍、 すなわ ち、 連続している 8つの画素の間隔に対応する。
前景のオブジェク トおよび背景のオブジェク トが静止している場合、 シャツタ 時間に対応する期間において、 センサに入力される光は変化しない。
ここで、 シャッタ時間に対応する期間を 2つ以上の同じ長さの期間に分割する。 例えば、 仮想分割数を 4とすると、 図 8に示すモデル図は、 図 9に示すモデルと して表すことができる。 仮想分割数は、 前景に対応するオブジェク トのシャツタ 時間内での動き量 Vなどに対応して設定される。 例えば、 4である動き量 Vに 対応して、 仮想分割数は、 4とされ、 シャツタ時間に対応する期間は 4つに分割 される。
図中の最も上の行は、 シャツタが開いて最初の、 分割された期間に対応する。 図中の上から 2番目の行は、 シャツタが開いて 2番目の、 分割された期間に対応 する。 図中の上から 3番目の行は、 シャツタが開いて 3番目の、 分割された期間 に対応する。 図中の上から 4番目の行は、 シャツタが開いて 4番目の、 分割され た期間に対応する。
以下、 動き量 Vに対応して分割されたシャツタ時間をシャツタ時間 /vとも称 する。
前景に対応するオブジェク 卜が静止しているとき、 センサに入力される光は変 化しないので、 前景の成分 FO l / vは、 画素値 F01を仮想分割数で除した値に等 しい。 同様に、 前景に対応するオブジェク トが静止しているとき、 前景の成分 F02/v は、 画素値 F02 を仮想分割数で除した値に等しく、 前景の成分 F03/v は, 画素値 F03を仮想分割数で除した値に等しく、 前景の成分 F04/vは、 画素値 F04を仮想分割数で除した値に等しい。
背景に対応するオブジェク トが静止しているとき、 センサに入力される光は変 化しないので、 背景の成分 BO l /vは、 画素値 B01を仮想分割数で除した値に等 しい。 同様に、 背景に対応するォブジェク 卜が静止しているとき、 背景の成分 B02/vは、 画素値 B02を仮想分割数で除した値に等しく、 B03/vは、 画素値 B03 を仮想分割数で除した値に等しく、 B04/vは、 画素値 B04を仮想分割数で除した 値に等しい。
すなわち、 前景に対応するオブジェク トが静止している場合、 シャツタ時間に 対応する期間において、 センサに入力される前景のオブジェク トに対応する光が 変化しないので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vと、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l /vと、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する前景の 成分 FO l/vとは、 同じ値となる。 F02/v乃至 F04/vも、 FO l/v と同様の関係を有 する。
背景に対応するォブジェク トが静止している場合、 シャツタ時間に対応する期 間において、 センサに入力される背景のオブジェク トに対応する光は変化しない ので、 シャツタが開いて最初の、 シャツタ時間/ Vに対応する背景の成分 BO l /v と、 シャツタが開いて 2番目の、 シャツタ時間/ Vに対応する背景の成分 BO l /v と、 シャツタが開いて 3番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v と、 シャツタが開いて 4番目の、 シャツタ時間/ Vに対応する背景の成分 BO l/v とは、 同じ値となる。 B02/v乃至 B04/vも、 同様の関係を有する。
次に、 前景に対応するォブジェク トが移動し、 背景に対応するォブジェク 卜が 静止している場合について説明する。
図 1 0は、 前景に対応するオブジェク トが図中の右側に向かって移動する場合 の、 カバードバックグラウンド領域を含む、 1つのライン上の画素の画素値を時 間方向に展開したモデル図である。 図 1 0において、 前景の動き量 Vは、 4で ある。 1フレームは短い時間なので、 前景に対応するオブジェク トが剛体であり、 等速で移動していると仮定することができる。 図 1 0において、 前景に対応する オブジェク トの画像は、 あるフレームを基準として次のフレームにおいて 4画素 分右側に表示されるように移動する。
図 1 0において、 最も左側の画素乃至左から 4番目の画素は、 前景領域に属す る。 図 1 0において、 左から 5番目乃至左から 7番目の画素は、 カバードバック グラウンド領域である混合領域に属する。 図 1 0において、 最も右側の画素は、 背景領域に属する。
前景に対応するォブジェク トが時間の経過と共に背景に対応するォブジェク 卜 を覆い隠すように移動しているので、 カバードバックグラウンド領域に属する画 素の画素値に含まれる成分は、 シャツタ時間に対応する期間のある時点で、 背景 の成分から、 前景の成分に替わる。
例えば、 図 1 0中に太線枠を付した画素値 Mは、 式 (1 ) で表される。
M=B02/v+B02/v+F07/v+F06/v ( 1 )
例えば、 左から 5番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成 分を含み、 3つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比ひ は、 1/4である。 左から 6番目の画素は、 2つのシャツ タ時間 /vに対応する背景の成分を含み、 2つのシャッタ時間 /vに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 ひ は、 1/2である。 左から 7 番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成分を含み、 1つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 a は、 3/4である。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 4番目の画素の、 シャツタが開いて最初の、 シャツタ時間/ V の前景の成分 F07/vは、 図 1 0中の左から 5番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F07/vは、 図 1 0中の左から 6番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 1 0中の左から 7番目の画素の、 シャツ タが開いて 4番目のシャッタ時間/ Vに対応する前景の成分とに、 それぞれ等し レ、。
前景に対応するォブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 3番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの 前景の成分 F06/vは、 図 1 0中の左から 4番目の画素の、 シャツタが開いて 2 番目のシャツタ時間/ Vに対応する前景の成分に等しい。 同様に、 前景の成分 F06/vは、 図 1 0中の左から 5番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ Vに対応する前景の成分と、 図 1 0中の左から 6番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等し い。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の左から 2番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの 前景の成分 F05/vは、 図 1 0中の左から 3番目の画素の、 シャツタが開いて 2 番目のシャツタ時間 /vのに対応する前景の成分に等しい。 同様に、 前景の成分 F05/vは、 図 1 0中の左から 4番目の画素の、 シャツタが開いて 3番目のシャツ タ時間/ vに対応する前景の成分と、 図 1 0中の左から 5番目の画素の、 シャツ タが開いて 4番目のシャッタ時間 /vに対応する前景の成分とに、 それぞれ等し い。
前景に対応するォブジェク 卜が、 剛体であり、 前景の画像が次のフレームにお いて 4画素右側に表示されるように等速で移動すると仮定できるので、 例えば、 図 1 0中の最も左側の画素の、 シャツタが開いて最初のシャツタ時間/ Vの前景 の成分 F04/vは、 図 1 0中の左から 2番目の画素の、 シャツタが開いて 2番目 のシャツタ時間 /vに対応する前景の成分に等しい。 同様に、 前景の成分 F04/V は、 図 1 0中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ時間 /vに対応する前景の成分と、 図 1 0中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vに対応する前景の成分とに、 それぞれ等しい。
動いているオブジェク トに対応する前景の領域は、 このように動きボケを含む ので、 歪み領域とも言える。
図 1 1は、 前景が図中の右側に向かって移動する場合の、 アンカバードバック グラウンド領域を含む、 1つのライン上の画素の画素値を時間方向に展開したモ デル図である。 図 1 1において、 前景の動き量 Vは、 4である。 1フレ ムは 短い時間なので、 前景に対応するオブジェク トが剛体であり、 等速で移動してい ると仮定することができる。 図 1 1において、 前景に対応するオブジェク トの画 像は、 あるフレームを基準として次のフレームにおいて 4画素分右側に移動する c 図 1 1において、 最も左側の画素乃至左から 4番目の画素は、 背景領域に属す る。 図 1 1において、 左から 5番目乃至左から 7番目の画素は、 アンカバードバ ックグラウンドである混合領域に属する。 図 1 1において、 最も右側の画素は、 前景領域に属する。
背景に対応するォブジェク トを覆っていた前景に対応するォブジェク トが時間 の経過と共に背景に対応するオブジェク トの前から取り除かれるように移動して いるので、 アンカバードバックグラウンド領域に属する画素の画素値に含まれる 成分は、 シャツタ時間に対応する期間のある時点で、 前景の成分から、 背景の成 分に替わる。
例えば、 図 1 1中に太線枠を付した画素値 M'は、 式 (2 ) で表される。
M' =F02/v+F01/v+B26/v+B26/v ( 2 )
例えば、 左から 5番目の画素は、 3つのシャツタ時間/ Vに対応する背景の成 分を含み、 1つのシャツタ時間/ Vに対応する前景の成分を含むので、 左から 5 番目の画素の混合比ひ は、 3/4である。 左から 6番目の画素は、 2つのシャツ タ時間 /vに対応する背景の成分を含み、 2つのシャッタ時間 /vに対応する前景 の成分を含むので、 左から 6番目の画素の混合比 ひ は、 1/2である。 左から 7 番目の画素は、 1つのシャツタ時間/ Vに対応する背景の成分を含み、 3つのシ ャッタ時間/ Vに対応する前景の成分を含むので、 左から 7番目の画素の混合比 は、 1 /4である。
式 ( 1 ) および式 (2 ) をより一般化すると、 画素値 Mは、 式 (3 ) で表さ れる。
M= - B +∑Fi/v (3)
ここで、 は、 混合比である。 Bは、 背景の画素値であり、 Fi/vは、 前景の成 分である。
前景に対応するォブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 1 1中の左から 5番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 FO l/vは、 図 1 1中の左から 6 番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vに対応する前景の成 分に等しい。 同様に、 FO l /vは、 図 1 1中の左から 7番目の画素の、 シャツタが 開いて 3番目のシャツタ時間/ Vに対応する前景の成分と、 図 1 1中の左から 8 番目の画素の、 シャッタが開いて 4番目のシャッタ時間/ Vに対応する前景の成 分とに、 それぞれ等しい。
前景に対応するオブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 仮 想分割数が 4であるので、 例えば、 図 1 1中の左から 6番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F02/vは、 図 1 1中の左から 7 番目の画素の、 シャッタが開いて 2番目のシャッタ時間 /vに対応する前景の成 分に等しい。 同様に、 前景の成分 F02/v は、 図 1 1中の左から 8番目の画素の、 シャツタが開いて 3番目のシャツタ時間 /vに対応する前景の成分に等しい。
前景に対応するォブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動 き量 Vが 4であるので、 例えば、 図 1 1中の左から 7番目の画素の、 シャツタ が開いて最初の、 シャツタ時間/ Vの前景の成分 F03/vは、 図 1 1中の左から 8 番目の画素の、 シャッタが開いて 2番目のシャッタ時間/ Vに対応する前景の成 分に等しい。
図 9乃至図 1 1の説明において、 仮想分割数は、 4であるとして説明したが、 仮想分割数は、 動き量 Vに対応する。 動き量 Vは、 一般に、 前景に対応するォ ブジエタ トの移動速度に対応する。 例えば、 前景に対応するオブジェク トが、 あ るフレームを基準として次のフレームにおいて 4画素分右側に表示されるように 移動しているとき、 動き量 Vは、 4とされる。 動き量 Vに対応し、 仮想分割数 は、 4とされる。 同様に、 例えば、 前景に対応するオブジェク トが、 あるフレー ムを基準として次のフレームにおいて 6画素分左側に表示されるように移動して いるとき、 動き量 Vは、 6とされ、 仮想分割数は、 6とされる。
図 1 2および図 1 3に、 以上で説明した、 前景領域、 背景領域、 カバードバッ クグラウンド領域若しくはアンカバードバックグラウンド領域から成る混合領域 と、 分割されたシャツタ時間に対応する前景の成分および背景の成分との関係を 示す。
図 1 2は、 静止している背景の前を移動しているオブジェク トに対応する前景 を含む画像から、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示 す。 図 1 2に示す例において、 Aで示す、 前景に対応するォブジェク 卜は、 画面 に対して水平に移動している。
フレーム #n+ lは、 フレーム #nの次のフレームであり、 フレーム #n+2は、 フレ 一ム#11+ 1 の次のフレームである。
フレーム #n 乃至フレーム #η+2 のいずれかから抽出した、 前景領域、 背景領域、 および混合領域の画素を抽出して、 動き量 Vを 4として、 抽出された画素の画 素値を時間方向に展開したモデルを図 1 3に示す。
前景領域の画素値は、 前景に対応するオブジェク トが移動するので、 シャツタ 時間/ Vの期間に対応する、 4つの異なる前景の成分から構成される。 例えば、 図 1 3に示す前景領域の画素のうち最も左側に位置する画素は、
(^^^(^ ^(^ 、ぉょび!^^/^から構成される。 すなわち、 前景領域の画素 は、 動きボケを含んでいる。
背景に対応するォブジェク トが静止しているので、 シャツタ時間に対応する期 間において、 センサに入力される背景に対応する光は変化しない。 この場合、 背 景領域の画素値は、 動きボケを含まない。
カバードバックグラウンド領域若しくはアンカバードバックグラウンド領域か ら成る混合領域に属する画素の画素値は、 前景の成分と、 背景の成分とから構成 される。
次に、 オブジェク トに対応する画像が動いているとき、 複数のフレームにおけ る、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の 画素値を時間方向に展開したモデルについて説明する。 例えば、 オブジェク トに 対応する画像が画面に対して水平に動いているとき、 隣接して 1列に並んでいる 画素として、 画面の 1つのライン上に並んでいる画素を選択することができる。 図 1 4は、 静止している背景に対応するォブジェク トを撮像した画像の 3つの フレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置 の画素の画素値を時間方向に展開したモデル図である。 フレーム #nは、 フレー ム ttn- 1の次のフレームであり、 フレーム #n+ l は、 フレーム #nの次のフレームで ある。 他のフレームも同様に称する。
図 1 4に示す B01乃至 B12の画素値は、 静止している背景のオブジェク トに 対応する画素の画素値である。 背景に対応するオブジェク トが静止しているので、 フレーム #n_ l乃至フレーム n+ 1において、 対応する画素の画素値は、 変化しな レ、。 例えば、 フレーム #n- lにおける B05の画素値を有する画素の位置に対応す る、 フレーム #n における画素、 およびフレーム #n+l における画素は、 それぞれ、 B05の画素値を有する。
図 1 5は、 静止している背景に対応するオブジェク トと共に図中の右側に移動 する前景に対応するォブジェク トを撮像した画像の 3つのフ I ^一ムの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画素の画素値を時間 方向に展開したモデル図である。 図 1 5に示すモデルは、 カバードバックグラウ ンド領域を含む。
図 1 5において、 前景に対応するオブジェク トが、 剛体であり、 等速で移動す ると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるよう に移動するので、 前景の動き量 Vは、 4であり、 仮想分割数は、 4である。
例えば、 図 1 5中のフレーム #n-lの最も左側の画素の、 シャツタが開いて最 初のシャツタ時間/ Vの前景の成分は、 F12/vとなり、 図 1 5中の左から 2番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F12/v となる。 図 1 5中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 1 5中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F12/v となる。
図 1 5中のフレーム #n-lの最も左側の画素の、 シャッタが開いて 2番目のシ ャッタ時間/ Vの前景の成分は、 Fll/vとなり、 図 1 5中の左から 2番目の画素 の、 シャツタが開いて 3番目のシャツタ時間/ V の前景の成分も、 Fll/v となる c 図 1 5中の左から 3番目の画素の、 シャツタが開いて 4番目のシャツタ時間/ V の前景の成分は、 Fll/vとなる。
図 1 5中のフレーム t n-1の最も左側の画素の、 シャッタが開いて 3番目のシ ャッタ時間/ Vの前景の成分は、 FlO/vとなり、 図 1 5中の左から 2番目の画素 の、 シャツタが開いて 4番目のシャツタ時間/ V の前景の成分も、 FlO/v となる c 図 1 5中のフレーム #n-lの最も左側の画素の、 シャツタが開いて 4番目のシャ ッタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 5中のフレーム ttn - 1 の左から 2番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の成 分は、 BO l/v となる。 図 1 5中のフレーム #n- lの左から 3番目の画素の、 シャ ッタが開いて最初および 2番目のシャツタ時間 /vの背景の成分は、 B02/vとな る。 図 1 5中のフレーム itn- 1の左から 4番目の画素の、 シャツタが開いて最初 乃至 3番目のシャツタ時間/ Vの背景の成分は、 B03/vとなる。
図 1 5中のフレーム ttn- 1において、 最も左側の画素は、 前景領域に属し、 左 側から 2番目乃至 4番目の画素は、 カバードバックグラウンド領域である混合領 域に属する。
図 1 5中のフレーム #n- lの左から 5番目の画素乃至 1 2番目の画素は、 背景 領域に属し、 その画素値は、 それぞれ、 B04乃至 B 1 1 となる。
図 1 5中のフレーム ί!ηの左から 1番目の画素乃至 5番目の画素は、 前景領域 に属する。 フレーム #ηの前景領域における、 シャツタ時間/ Vの前景の成分は、 F05/v乃至 F 12/vのいずれかである。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 5中のフレーム #ηの左から 5番目の画素の、 シャッタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F 12/v となり、 図 1 5中の左から 6番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 12/v となる。 図 1 5中の左から 7番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの 前景の成分、 および図 1 5中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F12/v となる。
図 1 5中のフレーム #ηの左から 5番目の画素の、 シャツタが開いて 2番目の シャツタ時間/ Vの前景の成分は、 Fl l /v となり、 図 1 5中の左から 6番目の画 素の、 シャツタが開いて 3番目のシャツタ時間 /vの前景の成分も、 Fl l /vとな る。 図 1 5中の左から 7番目の画素の、 シャツタが開いて 4番目のシャツタ時間 /vの前景の成分は、 Fl l/vとなる。
図 1 5中のフレーム #nの左から 5番目の画素の、 シャツタが開いて 3番目の シャツタ時間/ vの前景の成分は、 F lO/v となり、 図 1 5中の左から 6番目の画 素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 F lO/vとな る。 図 1 5中のフレーム #nの左から 5番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するオブジェク トが静止しているので、 図 1 5中のフレーム ttnの 左から 6番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの背景の成分 は、 B05/vとなる。 図 1 5中のフレーム #nの左から 7番目の画素の、 シャツタ が開いて最初および 2番目のシャツタ時間 /vの背景の成分は、 B06/v となる。 図 1 5中のフレーム #nの左から 8番目の画素の、 シャツタが開いて最初乃至 3 番目の、 シャツタ時間/ Vの背景の成分は、 B07/vとなる。
図 1 5中のフレーム #nにおいて、 左側から 6番目乃至 8番目の画素は、 カバ 一ドバックグラウンド領域である混合領域に属する。
図 1 5中のフレーム ttnの左から 9番目の画素乃至 1 2番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 B08乃至 B 1 1 となる。
図 1 5中のフレーム #n+ lの左から 1番目の画素乃至 9番目の画素は、 前景領 域に属する。 フレーム ttn+ 1の前景領域における、 シャツタ時間/ Vの前景の成分 は、 FO l/v乃至 F 12/vのいずれかである。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 5中のフレーム ίίη+ lの左から 9番目の画素の、 シャツタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F12/vとなり、 図 1 5中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 12/v とな る。 図 1 5中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 1 5中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F12八 となる。
図 1 5中のフレーム #η+ 1の左から 9番目の画素の、 シャツタが開いて 2番目 のシャツタ時間/ Vの期間の前景の成分は、 Fl l /vとなり、 図 1 5中の左から 1 0番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの前景の成分も、 Fl l /v となる。 図 1 5中の左から 1 1番目の画素の、 シャツタが開いて 4番目の、 シャツタ時間/ Vの前景の成分は、 F l l/v となる。
図 1 5中のフレーム #n+ lの左から 9番目の画素の、 シャツタが開いて 3番目 の、 シャツタ時間/ Vの前景の成分は、 F lO/vとなり、 図 1 5中の左から 1 0番 目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分も、 FlO/v となる。 図 1 5中のフレーム #n+ l の左から 9番目の画素の、 シャツタが開いて 4番目のシャツタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 5中のフレーム #n+ l の左から 1 0番目の画素の、 シャツタが開いて最初のシャツタ時間/ Vの背景の 成分は、 B09/vとなる。 図 1 5中のフレーム #n+ lの左から 1 1番目の画素の、 シャッタが開いて最初および 2番目のシャッタ時間/ Vの背景の成分は、 B lO/v となる。 図 1 5中のフレーム ttn+ 1の左から 1 2番目の画素の、 シャツタが開い て最初乃至 3番目の、 シャツタ時間/ Vの背景の成分は、 B l l /v となる。
図 1 5中のフレーム #n+l において、 左側から 1 0番目乃至 1 2番目の画素は、 カバードバックグラウンド領域である混合領域に対応する。
図 1 6は、 図 1 5に示す画素値から前景の成分を抽出した画像のモデル図であ る。
図 1 7は、 静止している背景と共に図中の右側に移動するォブジェク トに対応 する前景を撮像した画像の 3つのフレームの、 隣接して 1列に並んでいる画素で あって、 フレーム上で同一の位置の画素の画素値を時間方向に展開したモデル図 である。 図 1 7において、 アンカバードバックグラウンド領域が含まれている。 図 1 7において、 前景に対応するォブジェク トは、 剛体であり、 かつ等速で移 動していると仮定できる。 前景に対応するオブジェク トが、 次のフレームにおい て 4画素分右側に表示されるように移動しているので、 動き量 V は、 4である c 例えば、 図 1 7中のフレーム #n- lの最も左側の画素の、 シャツタが開いて最 初の、 シャツタ時間/ Vの前景の成分は、 F13/vとなり、 図 1 7中の左から 2番 目の画素の、 シャツタが開いて 2番目のシャツタ時間/ vの前景の成分も、 F13/v となる。 図 1 7中の左から 3番目の画素の、 シャツタが開いて 3番目のシャツタ 時間/ Vの前景の成分、 および図 1 7中の左から 4番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの前景の成分は、 F 13/vとなる。
図 1. 7中のフレーム #n- lの左から' 2番目の画素の、 シャツタが開いて最初の シャツタ時間/ Vの前景の成分は、 F14/v となり、 図 1 7中の左から 3番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 14/v とな る。 図 1 7中の左から 3番目の画素の、 シャツタが開いて最初の、 シャツタ時間 /vの前景の成分は、 F 15/vとなる。
背景に対応するオブジェク トが静止しているので、 図 1 7中のフレーム ttn- 1 の最も左側の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間/ V の背景の成分は、 B25/vとなる。 図 1 7中のフレーム #n- lの左から 2番目の画 素の、 シャツタが開いて 3番目および 4番目の、 シャツタ時間/ Vの背景の成分 は、 B26/vとなる。 図 1 7中のフレーム #n- lの左から 3番目の画素の、 シャツ タが開いて 4番目のシャツタ時間/ Vの背景の成分は、 B27/vとなる。
図 1 7中のフレーム #n- 1において、 最も左側の画素乃至 3番目の画素は、 ァ ンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #n- 1の左から 4番目の画素乃至 1 2番目の画素は、 前景 領域に属する。 フレームの前景の成分は、 F13/v乃至 F24/vのいずれかである。 図 1 7中のフレーム #nの最も左側の画素乃至左から 4番目の画素は、 背景領 域に属し、 画素値は、 それぞれ、 B25乃至 B28となる。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 7中のフレーム #nの左から 5番目の画素の、 シャッタが開いて最初のシャ ッタ時間/ V の前景の成分は、 F 13/v となり、 図 1 7中の左から 6番目の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 13/v となる。 図 1 7中の左から 7番目の画素の、 シャッタが開いて 3番目のシャッタ時間/ Vの 前景の成分、 および図 1 7中の左から 8番目の画素の、 シャツタが開いて 4番目 のシャツタ時間/ Vの前景の成分は、 F13/v となる。
図 1 7中のフレーム #nの左から 6番目の画素の、 シャツタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F14/Vとなり、 図 1 7中の左から 7番目の画素 の、 シャツタが開いて 2番目のシャツタ時間/ V の前景の成分も、 F 14/v となる。 図 1 7中の左から 8番目の画素の、 シャッタが開いて最初のシャッタ時間/ Vの 前景の成分は、 F15/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 7中のフレーム の 左から 5番目の画素の、 シャッタが開いて 2番目乃至 4番目のシャッタ時間/ V の背景の成分は、 B29/vとなる。 図 1 7中のフレーム #nの左から 6番目の画素 の、 シャッタが開いて 3番目および 4番目のシャッタ時間/ Vの背景の成分は、 B30/vとなる。 図 1 7中のフレーム #nの左から 7番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ Vの背景の成分は、 B31/vとなる。
図 1 7中のフレーム において、 左から 5番目の画素乃至 7番目の画素は、 アンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #nの左から 8番目の画素乃至 1 2番目の画素は、 前景領 域に属する。 フレーム #nの前景領域における、 シャツタ時間/ Vの期間に対応す る値は、 F 13/v乃至 F20/vのいずれかである。
図 1 7中のフレーム ί η+ lの最も左側の画素乃至左から 8番目の画素は、 背景 領域に属し、 画素値は、 それぞれ、 Β25乃至 Β32 となる。
前景に対応するォブジュク トが、 剛体であり、 等速で移動すると仮定でき、 前 景の画像が次のフレームにおいて 4画素右側に表示されるように移動するので、 図 1 7中のフレーム ttn+1の左から 9番目の画素の、 シャッタが開いて最初のシ ャッタ時間/ Vの前景の成分は、 F13/vとなり、 図 1 7中の左から 1 0番目の画 素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 13/vとな る。 図 1 7中の左から 1 1番目の画素の、 シャツタが開いて 3番目のシャツタ時 間/ Vの前景の成分、 および図 1 7中の左から 1 2番目の画素の、 シャツタが開 いて 4番目のシャツタ時間/ vの前景の成分は、 F 13/vとなる。
図 1 7中のフレーム #n+ lの左から 1 0番目の画素の、 シャッタが開いて最初 のシャツタ時間/ Vの前景の成分は、 F14/vとなり、 図 1 7中の左から 1 1番目 の画素の、 シャツタが開いて 2番目のシャツタ時間/ Vの前景の成分も、 F 14/v となる。 図 1 7中の左から 1 2番目の画素の、 シャツタが開いて最初のシャツタ 時間/ Vの前景の成分は、 F 15/vとなる。
背景に対応するォブジェク トが静止しているので、 図 1 7中のフレーム ttn+ 1 の左から 9番目の画素の、 シャツタが開いて 2番目乃至 4番目の、 シャツタ時間 /vの背景の成分は、 B33/vとなる。 図 1 7中のフレーム ίίη+ lの左から 1 0番目 の画素の、 シャツタが開いて 3番目および 4番目のシャツタ時間/ Vの背景の成 分は、 Β34/ν となる。 図 1 7中のフレーム #η+ 1の左から 1 1番目の画素の、 シ ャッタが開いて 4番目のシャツタ時間 /νの背景の成分は、 Β35/νとなる。
図 1 7中のフレーム #η+ 1において、 左から 9番目の画素乃至 1 1番目の画素 は、 アンカバードバックグラウンド領域である混合領域に属する。
図 1 7中のフレーム #η+ 1の左から 1 2番目の画素は、 前景領域に属する。 フ レーム #η + 1の前景領域における、 シャツタ時間/ Vの前景の成分は、 F13/v乃至 F16/vのいずれかである。
図 1 8は、 図 1 7に示す画素値から前景の成分を抽出した画像のモデル図であ る。
図 2に戻り、 領域特定部 1 0 3は、 複数のフレームの画素値を用いて、 前景領 域、 背景領域、 カバードバックグラウンド領域、 またはアンカバードバックダラ ゥンド領域に属することを示すフラグを画素毎に対応付けて、 領域情報として、 混合比算出部 1 0 4に供給する。
混合比算出部 1 0 4は、 複数のフレームの画素値、 および領域情報を基に、 混 合領域に含まれる画素について画素毎に混合比 ひ を算出し、 算出した混合比ひ を前景背景分離部 1 0 5に供給する。
前景背景分離部 1 0 5は、 複数のフレームの画素値、 領域情報、 および混合比 a を基に、 前景の成分のみからなる前景成分画像、 および背景の成分のみから なる背景成分画像を抽出して、 前景成分画像および背景成分画像を出力する。 図 1 9のフローチヤ一トを参照して、 画像処理装置による前景背景の分離の処 理を説明する。 ステップ S I 1において、 動き検出部 1 0 2は、 例えば、 ブロッ クマッチング法、 勾配法、 位相相関法、 およびペルリカーシブ法などの手法によ り、 前景のオブジェク トに対応する画像オブジェク トの動きべク トルを算出して、 算出した動きベク トルおよび動きべク トルの位置情報を領域特定部 1 0 3および 混合比算出部 1 0 4に供給する。
ステップ S 1 2において、 領域特定部 1 0 3は、 入力画像を基に、 入力画像の 画素毎に前景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバ 一ドバックグラウンド領域のいずれかに属するかを示す領域情報を生成する領域 特定の処理を実行する。 領域特定の処理の詳細は、 後述する。 領域特定部 1 0 3 は、 生成した領域情報を混合比算出部 1 0 4に供給する。
なお、 ステップ S 1 2において、 領域特定部 1 0 3は、 入力画像を基に、 入力 画像の画素毎に前景領域、 背景領域、 または混合領域 (カバードバックグラウン ド領域、 またはアンカバードバックグラウンド領域の区別をしない) のいずれか に属するかを示す領域情報を生成するようにしてもよい。 この場合において、 前 景背景分離部 1 0 5は、 動きべク トルの方向を基に、 混合領域がカバードバック グラウンド領域であるか、 またはアンカバードバックグラウンド領域であるかを 判定する。 例えば、 動きべク トルの方向に対応して、 前景領域、 混合領域、 およ び背景領域と順に並んでいるとき、 その混合領域は、 カバードバックグラウンド 領域と判定され、 動きべク トルの方向に対応して、 背景領域、 混合領域、 および 前景領域と順に並んでいるとき、 その混合領域は、 アンカバードバックグラウン ド領域と判定される。
ステップ S 1 3において、 混合比算出部 1 0 4は、 動きベク トル、 および領域 情報を基に、 混合領域に含まれる画素毎に、 混合比 ひ を算出する。 混合比算出 の処理の詳細は、 後述する。 混合比算出部 1 0 4は、 算出した混合比 を前景 背景分離部 1 0 5に供給する。
ステップ S 1 4において、 前景背景分離部 1 0 5は、 領域情報、 および混合比 ひ を基に、 入力画像から前景の成分および背景の成分を抽出して、 抽出した前 景の成分を基に、 前景成分画像を合成し、 抽出した背景の成分を基に、 背景成分 画像を合成する。 前景背景分離部 1 0 5は、 前景成分画像および背景成分画像を 出力し、 処理は終了する。 前景背景の分離の処理の詳細については、 後述する。 このように、 画像処理装置は、 混合比 を算出して、 算出した混合比 01 を基 に、 前景と背景とを分離することができる。
以下、 領域特定部 1 0 3、 混合比算出部 1 0 4、 および前景背景分離部 1 0 5 のそれぞれの構成について説明する。
図 2 0は、 領域特定部 1 0 3の構成の一例を示すブロック図である。 図 2 0に 構成を示す領域特定部 1 0 3は、 動きベク トルを利用しない。 フレームメモリ 2 0 1は、 入力された画像をフレーム単位で記憶する。 フレームメモリ 2 0 1は、 処理の対象がフレーム ίίηであるとき、 フレーム ί!ηの 2つ前のフレームであるフ レーム #η-2、 フレーム #η の 1つ前のフレームであるフレーム #η_ 1、 フレーム #η、 フレーム #ηの 1つ後のフレームであるフレーム #η+ 1、 およびフレーム #ηの 2つ 後のフレームであるフレーム #η+2を記憶する。
静動判定部 2 0 2— 1は、 フレーム の領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム ίίη+2の画素の画素値、 およびフレーム #ηの 領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム Hn+ 1の 画素の画素値をフレームメモリ 2 0 1から読み出して、 読み出した画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 1は、 フレーム #n+2の画素値とフレー ム ίίη+ 1の画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否か を判定し、 差の絶対値が閾値 Thより大きいと判定された場合、 動きを示す静動 判定を領域判定部 2 0 3— 1に供給する。 フレーム ίίη+2の画素の画素値とフレ ーム ίίη+ lの画素の画素値との差の絶対値が閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 1は、 静止を示す静動判定を領域判定部 2 0 3— 1に供給す る。
静動判定部 2 0 2— 2は、 フレーム^の領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム ttn+ 1の画素の画素値、 およびフレーム #nの 対象となる画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の 絶対値を算出する。 静動判定部 2 0 2— 2は、 フレーム #n+ lの画素値とフレー ム ttnの画素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを 判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを 示す静動判定を領域判定部 2 0 3— 1および領域判定部 2 0 3— 2に供給する。 フレーム #n+ lの画素の画素値とフレーム #nの画素の画素値との差の絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 2は、 静止を示す静 動判定を領域判定部 2 0 3— 1および領域判定部 2 0 3— 2に供給する。
静動判定部 2 0 2— 3は、 フレーム th の領域特定の対象である画素の画素値、 およびフレーム の領域特定の対象である画素の画像上の位置と同一の位置に あるフレーム ltn- 1の画素の画素値をフレームメモリ 2 0 1から読み出して、 画 素値の差の絶対値を算出する。 静動判定部 2 0 2— 3は、 フレーム ttnの画素値 とフレーム #n- 1の画素値との差の絶対値が、 予め設定している閾値 Thより大き いか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場 合、 動きを示す静動判定を領域判定部 2 0 3一 2および領域判定部 2 0 3— 3に 供給する。 フレーム #nの画素の画素値とフレーム #n - 1の画素の画素値との差の 絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 2 0 2— 3は、 静 止を示す静動判定を領域判定部 2 0 3— 2および領域判定部 2 0 3— 3に供給す る。
静動判定部 2 0 2 _ 4は、 フレーム の領域特定の対象である画素の画像上 の位置と同一の位置にあるフレーム #n- lの画素の画素値、 およぴフレーム #nの 領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム #n- 2の 画素の画素値をフレームメモリ 2 0 1から読み出して、 画素値の差の絶対値を算 出する。 静動判定部 2 0 2— 4は、 フレーム ίίη- lの画素値とフレーム ttn- 2の画 素値との差の絶対値が、 予め設定している閾値 Thより大きいか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定された場合、 動きを示す静動 判定を領域判定部 2 0 3 - 3に供給する。 フレーム #n- lの画素の画素値とフレ ーム t -2の画素の画素値との差の絶対値が、 閾値 Th以下であると判定された場 合、 静動判定部 2 0 2— 4は、 静止を示す静動判定を領域判定部 2 0 3— 3に供 給する。
領域判定部 2 0 3— 1は、 静動判定部 2 0 2 - 1から供給された静動判定が静 止を示し、 かつ、 静動判定部 2 0 2— 2から供給された静動判定が動きを示して いるとき、 フレーム #ηにおける領域特定の対象である画素がアンカバードバッ クグラウンド領域に属すると判定し、 領域の判定される画素に対応するアンカバ 一ドバックグラウンド領域判定フラグに、 アンカバードバックグラウンド領域に 属することを示す" 1 " を設定する。
領域判定部 2 0 3— 1は、 静動判定部 2 0 2 - 1から供給された静動判定が動 きを示すか、 または、 静動判定部 2 0 2— 2から供給された静動判定が静止を示 しているとき、 フレーム #ηにおける領域特定の対象である画素がアンカバード バックグラウンド領域に属しないと判定し、 領域の判定される画素に対応するァ ンカバードバックグラウンド領域判定フラグに、 アンカバードバックグラウンド 領域に属しないことを示す" 0 " を設定する。
領域判定部 2 0 3— 1は、 このように" 1 " または" 0 " が設定されたアンカ バードバックグラウンド領域判定フラグを判定フラグ格納フレームメモリ 2 0 4 に供給する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が静 止を示し、 かつ、 静動判定部 2 0 2— 3から供給された静動判定が静止を示して いるとき、 フレーム t における領域特定の対象である画素が静止領域に属する と判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静止領域に 属することを示す" 1 " を設定する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が動 きを示すか、 または、 静動判定部 2 0 2— 3から供給された静動判定が動きを示 しているとき、 フレーム における領域特定の対象である画素が静止領域に属 しないと判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静止 領域に属しないことを示す" 0 " を設定する。
領域判定部 2 0 3— 2は、 このように" 1 " または" 0 ' ' が設定された静止領 域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供給する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が動 きを示し、 かつ、 静動判定部 2 0 2— 3から供給された静動判定が動きを示して いるとき、 フレーム ίίηにおける領域特定の対象である画素が動き領域に属する と判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動き領域に 属することを示す" 1 " を設定する。
領域判定部 2 0 3— 2は、 静動判定部 2 0 2— 2から供給された静動判定が静 止を示すか、 または、 静動判定部 2 0 2— 3から供給された静動判定が静止を示 しているとき、 フレーム #ηにおける領域特定の対象である画素が動き領域に属 しないと判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動き 領域に属しないことを示す" 0 " を設定する。
領域判定部 2 0 3— 2は、 このように'' 1 " または" 0 " が設定された動き領 域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供給する。
領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から供給された静動判定が動 きを示し、 かつ、 静動判定部 2 0 2 _ 4から供給された静動判定が静止を示して いるとき、 フレーム における領域特定の対象である画素がカバードバックグ ラウンド領域に属すると判定し、 領域の判定される画素に対応するカバードバッ クグラウンド領域判定フラグに、 カバードバックグラウンド領域に属することを 示す" 1 " を設定する。
領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から供給された静動判定が静 止を示すか、 または、 静動判定部 2 0 2— 4から供給された静動判定が動きを示 しているとき、 フレーム ίίηにおける領域特定の対象である画素がカバードバッ クグラウンド領域に属しないと判定し、 領域の判定される画素に対応するカバー ドバックグラウンド領域判定フラグに、 力バードバックグラウンド領域に属しな いことを示す" 0 " を設定する。
領域判定部 2 0 3— 3は、 このように" 1 " または" 0 " が設定されたカバー ドバックグラウンド領域判定フラグを判定フラグ格納フレームメモリ 2 0 4に供 給する。
判定フラグ格納フレームメモリ 2 0 4は、 領域判定部 2 0 3 - 1から供給され たアンカバードバックグラウンド領域判定フラグ、 領域判定部 2 0 3— 2力ゝら供 給された静止領域判定フラグ、 領域判定部 2 0 3— 2から供給された動き領域判 定フラグ、 および領域判定部 2 0 3— 3から供給されたカバードバックグラウン ド領域判定フラグをそれぞれ記憶する。
判定フラグ格納フレームメモリ 2 0 4は、 記憶しているアンカバードバックグ ラウンド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 および力 バードバックグラウンド領域判定フラグを合成部 2 0 5に供給する。 合成部 2 0 5は、 判定フラグ格納フレームメモリ 2 0 4から供給された、 アンカバードバッ クグラウンド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 およ びカバードバックグラウンド領域判定フラグを基に、 各画素が、 アンカバードバ ックグラウンド領域、 静止領域、 動き領域、 およびカバードバックグラウンド領 域のいずれかに属することを示す領域情報を生成し、 判定フラグ格納フレームメ モリ 2 0 6に供給する。
判定フラグ格納フレームメモリ 2 0 6は、 合成部 2 0 5から供給された領域情 報を記憶すると共に、 記憶している領域情報を出力する。
次に、 領域特定部 1 0 3の処理の例を図 2 1乃至図 2 5を参照して説明する。 前景に対応するォブジェク トが移動しているとき、 オブジェク トに対応する画 像の画面上の位置は、 フレーム毎に変化する。 図 2 1に示すように、 フレーム
#nにおいて、 Yn (x, y)で示される位置に位置するオブジェク トに対応する画像は、 次のフレームであるフレーム #n+lにおいて、 Yn+1 ( X , y )に位置する。 前景のオブジェク トに対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図を図 2 2に示す。 例えば、 前景のオブジェク トに対応する画像の動き方向が画面に対して水平であるとき、 図 2 2におけるモ デル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモデル を示す。
図 2 2において、 フレーム #nにおけるラインは、 フレーム #n+ lにおけるライ ンと同一である。
フレーム #nにおいて、 左から 2番目の画素乃至 1 3番目の画素に含まれてい るオブジェク トに対応する前景の成分は、 フレーム #n+ lにおいて、 左から 6番 目乃至 1 7番目の画素に含まれる。
フレーム ttnにおいて、 カバードバックグラウンド領域に属する画素は、 左か ら 1 1番目乃至 1 3番目の画素であり、 アンカバードバックグラウンド領域に属 する画素は、 左から 2番目乃至 4番目の画素である。 フレーム ίίη+ lにおいて、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。
図 2 2に示す例において、 フレーム #ηに含まれる前景の成分が、 フレーム ί η+ l において 4画素移動しているので、 動き量 V は、 4である。 仮想分割数は、 動き量 Vに対応し、 4である。
次に、 注目しているフレームの前後における混合領域に属する画素の画素値の 変化について説明する。
図 2 3に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム ίίηにおい て、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番 目の画素である。 動き量 Vが 4であるので、 1つ前のフレーム #η-1において、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分のみを含み、 背景領域に属す る。 また、 更に 1つ前のフレーム ί η-2において、 左から 1 5番目乃至 1 7番目 の画素は、 背景の成分のみを含み、 背景領域に属する。 ここで、 背景に対応するオブジェク トが静止しているので、 フレーム tin- 1 の 左から 1 5番目の画素の画素ィ直は、 フレーム ίίη-2の左から 1 5番目の画素の画 素値から変化しない。 同様に、 フレーム ίίη-lの左から 1 6番目の画素の画素値 は、 フレーム ttn-2の左から 1 6番目の画素の画素値から変化せず、 フレーム - 1の左から 1 7番目の画素の画素値は、 フレーム #n-2の左から 1 7番目の画素 の画素値から変化しない。
すなわち、 フレーム ίίηにおけるカバードバックグラウンド領域に属する画素 に対応する、 フレーム #η- 1およびフレーム -2の画素は、 背景の成分のみから 成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従って、 フレーム #ηにおける混合領域に属する画素に対応する、 フレーム - 1およびフ レーム #η- 2の画素に対する静動判定は、 静動判定部 2 0 2 _ 4により、 静止と 判定される。
フレーム ίίηにおけるカバードバックグラウンド領域に属する画素は、 前景の 成分を含むので、 フレーム #η- 1における背景の成分のみから成る場合と、 画素 値が異なる。 従って、 フレーム #ηにおける混合領域に属する画素、 および対応 するフレーム ttn- 1の画素に対する静動判定は、 静動判定部 2 0 2— 3により、 動きと判定される。
このように、 領域判定部 2 0 3— 3は、 静動判定部 2 0 2— 3から動きを示す 静動判定の結果が供給され、 静動判定部 2 0 2— 4から静止を示す静動判定の結 果が供給されたとき、 対応する画素がカバードバックグラウンド領域に属すると 判定する。
図 2 4に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム におい て、 アンカバードバックグラウンド領域に含まれる画素は、 左から 2番目乃至 4 番目の画素である。 動き量 V が 4であるので、 1つ後のフレーム #η+ 1 において, 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域に属する。 また、 更に 1つ後のフレーム ί η+2 において、 左から 2番目乃至 4番目の画素は, 背景の成分のみを含み、 背景領域に属する。 ここで、 背景に対応するオブジェク トが静止しているので、 フレーム #n+2の 左から 2番目の画素の画素値は、 フレーム #n+ lの左から 2番目の画素の画素値 から変化しない。 同様に、 フレーム #n+2の左から 3番目の画素の画素値は、 フ レーム #η+ 1の左から 3番目の画素の画素値から変化せず、 フ I ^一 の左力 ら 4番目の画素の画素値は、 フレーム #η+1の左から 4番目の画素の画素値から 変化しない。
すなわち、 フレーム におけるアンカバ一ドバックグラウンド領域に属する 画素に対応する、 フレーム #η+ 1およびフレーム ϋη+2の画素は、 背景の成分のみ から成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従 つて、 フレーム #ηにおける混合領域に属する画素に対応する、 フレーム + 1お よびフレーム #η+2の画素に対する静動判定は、 静動判定部 2 0 2 _ 1により、 静止と判定される。
■ フレーム におけるアンカバードバックグラウンド領域に属する画素は、 前 景の成分を含むので、 フレーム #η+ 1における背景の成分のみから成る場合と、 画素値が異なる。 従って、 フレーム における混合領域に属する画素、 および 対応するフレーム #η+ 1の画素に対する静動判定は、 静動判定部 2 0 2— 2によ り、 動きと判定される。
このように、 領域判定部 2 0 3— 1は、 静動判定部 2 0 2— 2から動きを示す 静動判定の結果が供給され、 静動判定部 2 0 2— 1から静止を示す静動判定の結 果が供給されたとき、 対応する画素がアンカバードバックグラウンド領域に属す ると判定する。
図 2 5は、 フレーム #η における領域特定部 1 0 3の判定条件を示す図である c フレーム #ηの判定の対象となる画素の画像上の位置と同一の位置にあるフレー ム #η - 2の画素と、 フレーム の判定の対象となる画素の画像上の位置と同一の 位置にあるフレーム #η-1の画素とが静止と判定され、 フレーム ίίηの判定の対象 となる画素の画像上の位置と同一の位置にあるフレーム ίΐη- lの画素と、 フレー ム tinの画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判 定の対象となる画素がカバ一ドバックグラウンド領域に属すると判定する。
フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム ίίη- 1の画素と、 フレーム itnの画素とが静止と判定され、 フレーム #nの画素 と、 フレーム #nの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム + 1の画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が静止領域に属すると判定する。
フレーム ίίηの判定の対象となる画素の画像上の位置と同一の位置にあるフレ ーム ί!η - 1 の画素と、 フレーム #ηの画素とが動きと判定され、 フレーム の画素 と、 フレーム ίίηの判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム +1の画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #nの判定の対象となる画素が動き領域に属すると判定する。
フレーム #nの画素と、 フレーム #nの判定の対象となる画素の画像上の位置と 同一の位置にあるフレーム ίίη+ lの画素とが動きと判定され、 フレーム #ηの判定 の対象となる画素の画像上の位置と同一の位置にあるフレーム Hn+1の画素と、 フレーム tinの判定の対象となる画素の画像上の位置と同一の位置にあるフレー ム #n+2の画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フレーム ttnの 判定の対象となる画素がアンカバードバックグラウンド領域に属すると判定する 図 2 6 A乃至 Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す図である c 図 2 6 Aにおいて、 カバードバックグラウンド領域に属すると判定された画素は、 白で表示されている。 図 2 6 Bにおいて、 アンカバードバックグラウンド領域に 属すると判定された画素は、 白で表示されている。
図 2 6 Cにおいて、 動き領域に属すると判定された画素は、 白で表示されてい る。 図 2 6 Dにおいて、 静止領域に属すると判定された画素は、 白で表示されて いる。
図 2 7は、 判定フラグ格納フレームメモリ 2 0 6が出力する領域情報の内、 混 合領域を示す領域情報を画像として示す図である。 図 2 7において、 カバードバ ックグラウンド領域またはアンカバードバックグラウンド領域に属すると判定さ れた画素、 すなわち混合領域に属すると判定された画素は、 白で表示されている c 判定フラグ格納フレームメモリ 2 0 6が出力する混合領域を示す領域情報は、 混 合領域、 および前景領域内のテクスチャの無い部分に囲まれたテクスチャの有る 部分を示す。
次に、 図 2 8のフローチャートを参照して、 領域特定部 1 0 3の領域特定の処 理を説明する。 ステップ S 2 0 1において、 フレームメモリ 2 0 1は、 判定の対 象となるフレーム #nを含むフレーム - 2乃至フレーム ίίη+2の画像を取得する。 ステップ S 2 0 2において、 静動判定部 2 0 2— 3は、 フレーム Hn-1の画素 とフレーム #nの同一位置の画素とで、 静止か否かを判定し、 静止と判定された 場合、 ステップ S 2 0 3に進み、 静動判定部 2 0 2— 2は、 フレーム #nの画素 とフレーム + 1の同一位置の画素とで、 静止か否かを判定する。
ステップ S 2 0 3において、 フレーム ίίηの画素とフレーム ttn+ 1の同一位置の 画素とで、 静止と判定された場合、 ステップ S 2 0 4に進み、 領域判定部 2 0 3 一 2は、 領域の判定される画素に対応する静止領域判定フラグに、 静止領域に属 することを示す" 1 " を設定する。 領域判定部 2 0 3— 2は、 静止領域判定フラ グを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 0 5に進む。
ステップ S 2 0 2において、 フレーム #n- 1の画素とフレーム #nの同一位置の 画素とで、 動きと判定された場合、 または、 ステップ S 2 0 3において、 フレー ム ttnの画素とフレーム #η+ 1の同一位置の画素とで、 動きと判定された場合、 フ レーム #ηの画素が静止領域には属さないので、 ステップ S 2 0 4の処理はスキ ップされ、 手続きは、 ステップ S 2 0 5に進む。
ステップ S 2 0 5において、 静動判定部 2 0 2— 3は、 フレーム #η- 1 の画素 とフレーム } ηの同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 0 6に進み、 静動判定部 2 0 2— 2は、 フレーム の画素 とフレーム ίίη+ lの同一位置の画素とで、 動きか否かを判定する。
ステップ S 2 0 6において、 フレーム tinの画素とフレーム ίίη+ lの同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 0 7に進み、 領域判定部 2 0 3 一 2は、 領域の判定される画素に対応する動き領域判定フラグに、 動き領域に属 することを示す'' 1 " を設定する。 領域判定部 2 0 3— 2は、 動き領域判定フラ グを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 0 8に進む。
ステップ S 2 0 5において、 フレーム #n- 1の画素とフレーム #nの同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 0 6において、 フレー ム itnの画素とフレーム + 1の同一位置の画素とで、 静止と判定された場合、 フ レーム #nの画素が動き領域には属さないので、 ステップ S 2 0 7の処理はスキ ップされ、 手続きは、 ステップ S 2 0 8に進む。
ステップ S 2 0 8において、 静動判定部 2 0 2— 4は、 フレーム ίίη- 2の画素 とフレーム #n - 1の同一位置の画素とで、 静止か否かを判定し、 静止と判定され た場合、 ステップ S 2 0 9に進み、 静動判定部 2 0 2— 3は、 フレーム #n-l の 画素とフレーム #nの同一位置の画素とで、 動きか否かを判定する。
ステップ S 2 0 9において、 フレーム #n- lの画素とフレーム #nの同一位置の 画素とで、 動きと判定された場合、 ステップ S 2 1 0に進み、 領域判定部 2 0 3 一 3は、 領域の判定される画素に対応するカバードバックグラウンド領域判定フ ラグに、 カバードバックグラウンド領域に属することを示す" 1 " を設定する。 領域判定部 2 0 3 _ 3は、 カバードバックグラウンド領域判定フラグを判定フラ グ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 1 1に進む。 ステップ S 2 0 8において、 フレーム #n- 2の画素とフレーム #n- 1の同一位置 の画素とで、 動きと判定された場合、 または、 ステップ S 2 0 9において、 フレ ーム #n_ lの画素とフレーム nの同一位置の画素とで、 静止と判定された場合、 フレーム #nの画素がカバードバックグラウンド領域には属さないので、 ステツ プ S 2 1 0の処理はスキップされ、 手続きは、 ステップ S 2 1 1に進む。
ステップ S 2 1 1において、 静動判定部 2 0 2— 2は、 フレーム ίίηの画素と フレーム #η+ 1の同一位置の画素とで、 動きか否かを判定し、 動きと判定された 場合、 ステップ S 2 1 2に進み、 静動判定部 2 0 2— 1は、 フレーム #n+ lの画 素とフレーム #n+2の同一位置の画素とで、 静止か否かを判定する。
ステップ S 2 1 2において、 フ ^一ム ίίη+ lの画素とフレーム #η+2の同一位置 の画素とで、 静止と判定された場合、 ステップ S 2 1 3に進み、 領域判定部 2 0 3— 1は、 領域の判定される画素に対応するアンカバードバックグラウンド領域 判定フラグに、 アンカバードバックグラウンド領域に属することを示す'' 1 " を 設定する。 領域判定部 2 0 3— 1は、 アンカバードバックグラウンド領域判定フ ラグを判定フラグ格納フレームメモリ 2 0 4に供給し、 手続きは、 ステップ S 2 1 4に進む。
ステップ S 2 1 1において、 フレーム #ηの画素とフレーム #η+ 1の同一位置の 画素とで、 静止と判定された場合、 または、 ステップ S 2 1 2において、 フレー ム #η+ 1の画素とフレーム #η+2の同一位置の画素とで、 動きと判定された場合、 フレーム ίίηの画素がアンカバードバックグラウンド領域には属さないので、 ス テツプ S 2 1 3の処理はスキップされ、 手続きは、 ステップ S 2 1 4に進む。 ステップ S 2 1 4において、 領域特定部 1 0 3は、 フレーム ίίηの全ての画素 について領域を特定したか否かを判定し、 フレーム #ηの全ての画素について領 域を特定していないと判定された場合、 手続きは、 ステップ S 2 0 2に戻り、 他 の画素について、 領域特定の処理を繰り返す。
ステップ S 2 1 4において、 フレーム の全ての画素について領域を特定し たと判定された場合、 ステップ S 2 1 5に進み、 合成部 2 0 5は、 判定フラグ格 納フレームメモリ 2 0 4に記憶されているアンカバードバックグラウンド領域判 定フラグ、 およびカバードバックグラウンド領域判定フラグを基に、 混合領域を 示す領域情報を生成し、 更に、 各画素が、 アンカバードバックグラウンド領域、 静止領域、 動き領域、 およびカバードバックグラウンド領域のいずれかに属する ことを示す領域情報を生成し、 生成した領域情報を判定フラグ格納フレームメモ リ 2 0 6に設定し、 処理は終了する。
このように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれに ついて、 動き領域、 静止領域、 アンカバードバックグラウンド領域、 またはカバ 一ドバックグラウンド領域に属することを示す領域情報を生成することができる。 なお、 領域特定部 1 0 3は、 アンカバードバックグラウンド領域およびカバー ドバックグラウンド領域に対応する領域情報に論理和を適用することにより、 混 合領域に対応する領域情報を生成して、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 または混合領域に属することを示すフラグから 成る領域情報を生成するようにしてもよい。
前景に対応するオブジェク トがテクスチャを有す場合、 領域特定部 1 0 3は、 より正確に動き領域を特定することができる。
領域特定部 1 0 3は、 動き領域を示す領域情報を前景領域を示す領域情報とし て、 また、 静止領域を示す領域情報を背景領域を示す領域情報として出力するこ とができる。
なお、 背景に対応するオブジェク トが静止しているとして説明したが、 背景領 域に対応する画像が動きを含んでいても上述した領域を特定する処理を適用する ことができる。 例えば、 背景領域に対応する画像が一様に動いているとき、 領域 特定部 1 0 3は、 この動きに対応して画像全体をシフ トさせ、 背景に対応するォ ブジエタ トが静止している場合と同様に処理する。 また、 背景領域に対応する画 像が局所毎に異なる動きを含んでいるとき、 領域特定部 1 0 3は、 動きに対応し た画素を選択して、 上述の処理を実行する。
図 2 9は、 領域特定部 1 0 3の構成の他の一例を示すブロック図である。 図 2 9に示す領域特定部 1 0 3は、 動きべク トルを使用しない。 背景画像生成部 3 0 1は、 入力画像に対応する背景画像を生成し、 生成した背景画像を 2値オブジェ ク ト画像抽出部 3 0 2に供給する。 背景画像生成部 3 0 1は、 例えば、 入力画像 に含まれる背景のオブジェク トに対応する画像オブジェク トを抽出して、 背景画 像を生成する。
前景のオブジェク 卜に対応する画像の動き方向に隣接して 1列に並ぶ画素の画 素値を時間方向に展開したモデル図の例を図 3 0に示す。 例えば、 前景のォブジ エタ 卜に対応する画像の動き方向が画面に対して水平であるとき、 図 3 0におけ るモデル図は、 1つのライン上の隣接する画素の画素値を時間方向に展開したモ デルを示す。
図 3 0において、 フレーム itnにおけるラインは、 フレーム #n- lおよびフレー ム ίίη+ lにおけるラインと同一である。
フレーム #ηにおいて、 左から 6番目の画素乃至 1 7番目の画素に含まれてい るオブジェク トに対応する前景の成分は、 フレーム itn- 1において、 左から 2番 目乃至 1 3番目の画素に含まれ、 フレーム ίίη+ lにおいて、 左から 1 0番目乃至 2 1番目の画素に含まれる。
フレーム #n- lにおいて、 カバードバックグラウンド領域に属する画素は、 左 から 1 1番目乃至 1 3番目の画素であり、 アンカバードバックグラウンド領域に 属する画素は、 左から 2番目乃至 4番目の画素である。 フレーム #nにおいて、 カバードバックグラウンド領域に属する画素は、 左から 1 5番目乃至 1 7番目の 画素であり、 アンカバードバックグラウンド領域に属する画素は、 左から 6番目 乃至 8番目の画素である。 フレーム ttn+ 1において、 カバードバックグラウンド 領域に属する画素は、 左から 1 9番目乃至 2 1番目の画素であり、 アンカバード バックグラウンド領域に属する画素は、 左から 1 0番目乃至 1 2番目の画素であ る。
フレーム #n- lにおいて、 背景領域に属する画素は、 左から 1番目の画素、 お よび左から 1 4番目乃至 2 1番目の画素である。 フレーム #nにおいて、 背景領 域に属する画素は、 左から 1番目乃至 5番目の画素、 および左から 1 8番目乃至 2 1番目の画素である。 フレーム #n+lにおいて、 背景領域に属する画素は、 左 から 1番目乃至 9番目の画素である。
背景画像生成部 3 0 1が生成する、 図 3 0の例に対応する背景画像の例を図 3 1に示す。 背景画像は、 背景のオブジェク 卜に対応する画素から構成され、 前景 のオブジェク 卜に対応する画像の成分を含まない。
2値オブジェク ト画像抽出部 3 0 2は、 背景画像および入力画像の相関を基に、 2値ォブジェク ト画像を生成し、 生成した 2値オブジェク ト画像を時間変化検出 部 3 0 3に供給する。
図 3 2は、 2値オブジェク ト画像抽出部 3 0 2の構成を示すブロック図である c 相関値演算部 3 2 1は、 背景画像生成部 3 0 1から供給.された背景画像および入 力画像の相関を演算し、 相関値を生成して、 生成した相関値をしきい値処理部 3 2 2に供給する。
相関値演算部 3 2 1は、 例えば、 図 3 3 Aに示すように、 X4を中心とした 3 X 3の背景画像の中のブロックと、 図 3 3 Bに示すように、 背景画像の中のブロ ックに対応する Y4を中心とした 3 X 3の入力画像の中のブロックに、 式 (4 ) を適用して、 Υ4に対応する相関値を算出する。 相関値- (4)
Figure imgf000052_0001
i=0
x = (5)
9
8
∑Yi
Y = (6)
9
相関値演算部 3 2 1は、 このように各画素に対応して算出された相関値をしき い値処理部 3 2 2に供給する。
また、 相関値演算部 3 2 1は、 例えば、 図 3 4 Aに示すように、 X4を中心と した 3 X 3の背景画像の中のブロックと、 図 3 4 Bに示すように、 背景画像の中 のブロックに対応する Y4を中心とした 3 X 3の入力画像の中のブロックに、 式 ( 7 ) を適用して、 Υ4に対応する差分絶対値を算出するようにしてもよい。 差分絶対値和 =∑| ( - (7)
i=0 相関値演算部 3 2 1は、 このように算出された差分絶対値を相関値として、 し きい値処理部 3 2 2に供給する。 しきい値処理部 3 2 2は、 相関画像の画素値としきい値 thO とを比較して、 相関値がしきい値 thO以下である場合、 2値オブジェク ト画像の画素値に 1を 設定し、 相関値がしきい値 thOより大きい場合、 2値オブジェク ト画像の画素 値に 0を設定して、 0または 1が画素値に設定された 2値ォブジェク ト画像を出 力する。 しきい値処理部 3 2 2は、 しきい値 thOを予め記憶するようにしても よく、 または、 外部から入力されたしきい値 thO を使用するようにしてもよい c 図 3 5は、 図 3 0に示す入力画像のモデルに対応する 2値オブジェク ト画像の 例を示す図である。 2値ォブジェク ト画像において、 背景画像と相関の高い画素 には、 画素値に 0が設定される。
図 3 6は、 時間変化検出部 3 0 3の構成を示すブロック図である。 フレームメ モリ 3 4 1は、 フレーム #nの画素について領域を判定するとき、 2値オブジェ タ ト画像抽出部 3 0 2から供給された、 フレーム #n- l、 フレーム #n、 およびフ レーム #n+ lの 2値オブジェク ト画像を記憶する。
領域判定部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム - 1 , フレーム^、 およびフレーム #n+ lの 2値オブジェク ト画像を基に、 フレーム の各画素について領域を判定して、 領域情報を生成し、 生成した領域情報を出力 する。
図 3 7は、 領域判定部 3 4 2の判定を説明する図である。 フレーム の 2値 オブジェク ト画像の注目している画素が 0であるとき、 領域判定部 3 4 2は、 フレーム ttnの注目している画素が背景領域に属すると判定する。
フレーム #nの 2値ォブジェク ト画像の注目している画素が 1であり、 フレー ム ttn- 1の 2値ォブジェク ト画像の対応する画素が 1であり、 フレーム ίίη+ lの 2 値オブジェク ト画像の対応する画素が 1であるとき、 領域判定部 3 4 2は、 フ レーム ttnの注目している画素が前景領域に属すると判定する。
フレーム #nの 2値オブジェク ト画像の注目している画素が 1であり、 フレー ム #n- 1の 2値オブジェク ト画像の対応する画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素がカバードバックグラウンド領域に属 すると判定する。
フレーム #nの 2 直オブジェク ト画像の注目している画素が 1であり、 フレー ム ttn+ 1の 2値オブジェク ト画像の対応する画素が 0であるとき、 領域判定部 3 4 2は、 フレーム #nの注目している画素がアンカバードバックダラゥンド領域 に属すると判定する。
図 3 8は、 図 3 0に示す入力画像のモデルに対応する 2値オブジェク ト画像に ついて、 時間変化検出部 3 0 3の判定した例を示す図である。 時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttnの対応する画素が 0なので、 フレ ーム の左から 1番目乃至 5番目の画素を背景領域に属すると判定する。
時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ίίηの画素が 1で あり、 フレーム + 1の対応する画素が 0なので、 左から 6番目乃至 9番目の画 素をアンカバードバックグラウンド領域に属すると判定する。
時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム ttnの画素が 1で あり、 フレーム ttn- 1の対応する画素が 1であり、 フレーム #n+lの対応する画素 力 S 1なので、 左から 1 0番目乃至 1 3番目の画素を前景領域に属すると判定す る。
時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム #nの画素が 1で あり、 フレーム ίίη- lの対応する画素が 0なので、 左から 1 4番目乃至 1 7番目 の画素をカバードバックグラウンド領域に属すると判定する。
時間変化検出部 3 0 3は、 2値オブジェク ト画像のフレーム #ηの対応する画 素が 0なので、 左から 1 8番目乃至 2 1番目の画素を背景領域に属すると判定 する。
次に、 図 3 9のフローチャートを参照して、 領域判定部 1 0 3の領域特定の処 理を説明する。 ステップ S 3 0 1において、 領域判定部 1 0 3の背景画像生成部 3 0 1は、 入力画像を基に、 例えば、 入力画像に含まれる背景のオブジェク トに 対応する画像オブジェク トを抽出して背景画像を生成し、 生成した背景画像を 2 値ォブジェク ト画像抽出部 3 0 2に供給する。 ステップ S 3 0 2において、 2値ォブジェク ト画像抽出部 3 0 2は、 例えば、 図 3 3 Aおよび図 3 3 Bを参照して説明した演算により、 入力画像と背景画像生 成部 3 0 1から供給された背景画像との相関値を演算する。 ステップ S 3 0 3に おいて、 2値オブジェク ト画像抽出部 3 0 2は、 例えば、 相関値としきい値 thO とを比較することにより、 相関値およびしきい値 thOから 2値オブジェク ト画 像を演算する。
ステップ S 3 0 4において、 時間変化検出部 3 0 3は、 領域判定の処理を実行 して、 処理は終了する。
図 4 0のフローチヤ一トを参照して、 ステップ S 3 0 4に対応する領域判定の 処理の詳細を説明する。 ステップ S 3 2 1において、 時間変化検出部 3 0 3の領 域判定部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム #nにおい て、 注目する画素が 0であるか否かを判定し、 フレーム ttnにおいて、 注目する 画素が 0であると判定された場合、 ステップ S 3 2 2に進み、 フレーム ίίηの注 目する画素が背景領域に属すると設定して、 処理は終了する。
ステップ S 3 2 1において、 フレーム #ηにおいて、 注目する画素が 1である と判定された場合、 ステップ S 3 2 3に進み、 時間変化検出部 3 0 3の領域判定 部 3 4 2は、 フレームメモリ 3 4 1に記憶されているフレーム において、 注 目する画素が 1であり、 かつ、 フレーム ttn-1において、 対応する画素が 0であ るか否かを判定し、 フレーム ίίηにおいて、 注目する画素が 1であり、 かつ、 フ レーム ίίη - 1において、 対応する画素が 0であると判定された場合、 ステップ S 3 2 4に進み、 フレーム #ηの注目する画素がカバードバックグラウンド領域に 属すると設定して、 処理は終了する。
ステップ S 3 2 3において、 フレーム ttnにおいて、 注目する画素が 0である 力 \ または、 フレーム #n - 1において、 対応する画素が 1であると判定された場 合、 ステップ S 3 2 5に進み、 時間変化検出部 3 0 3の領域判定部 3 4 2は、 フ レームメモリ 3 4 1に記憶されているフレーム #nにおいて、 注目する画素が 1 であり、 かつ、 フレーム #n+lにおいて、 対応する画素が 0であるか否かを判定 し、 フレーム #nにおいて、 注目する画素が 1であり、 かつ、 フレーム #n+ lにお いて、 対応する画素が 0であると判定された場合、 ステップ S 3 2 6に進み、 フレーム #nの注目する画素がアンカバードバックグラウンド領域に属すると設 定して、 処理は終了する。
ステップ S 3 2 5において、 フレーム ttnにおいて、 注目する画素が 0である か、 または、 フレーム ttn+ 1において、 対応する画素が 1であると判定された場 合、 ステップ S 3 2 7に進み、 時間変化検出部 3 0 3の領域判定部 3 4 2は、 フ レーム ίίηの注目する画素を前景領域と設定して、 処理は終了する。
このように、 領域特定部 1 0 3は、 入力された画像と対応する背景画像との相 関値を基に、 入力画像の画素が前景領域、 背景領域、 カバードバックグラウンド 領域、 およびアンカバードバックグラウンド領域のいずれかに属するかを特定し て、 特定した結果に対応する領域情報を生成することができる。
図 4 1は、 領域特定部 1 0 3の他の構成を示すブロック図である。 図 4 1に示 す領域特定部 1 0 3は、 動き検出部 1 0 2から供給される動きべク トノレとその位 置情報を使用する。 図 2 9に示す場合と同様の部分には、 同一の番号を付してあ り、 その説明は省略する。
口バスト化部 3 6 1は、 2値ォブジェク ト画像抽出部 3 0 2から供給された、 Ν個のフレームの 2値ォブジェク ト画像を基に、 口バス ト化された 2値オブジェ ク ト画像を生成して、 時間変化検出部 3 0 3に出力する。
図 4 2は、 ロバス ト化部 3 6 1の構成を説明するブロック図である。 動き補償 部 3 8 1は、 動き検出部 1 0 2から供給された動きべク トルとその位置情報を基 に、 Ν個のフレームの 2値オブジェク ト画像の動きを補償して、 動きが補償され た 2値ォブジェク ト画像をスィツチ 3 8 2に出力する。
図 4 3および図 4 4の例を参照して、 動き補償部 3 8 1の動き補償について説 明する。 例えば、 フレーム #ηの領域を判定するとき、 図 4 3に例を示すフレー ム #η- 1、 フレーム #η、 およびフレーム #η+ 1の 2値オブジェク ト画像が入力され た場合、 動き補償部 3 8 1は、 動き検出部 1 0 2から供給された動きべク トルを 基に、 図 4 4に例を示すように、 フレーム ίίη- l の 2値オブジェク ト画像、 およ びフレーム + 1の 2値ォブジェク ト画像を動き補償して、 動き補償された 2値 オブジェク ト画像をスィツチ 3 8 2に供給する。
スィッチ 3 8 2は、 1番目のフレームの動き補償された 2値オブジェク ト画像 をフレームメモリ 3 8 3— 1に出力し、 2番目のフレームの動き補償された 2値 オブジェク ト画像をフレームメモリ 3 8 3— 2に出力する。 同様に、 スィッチ 3 8 2は、 3番目乃至 Ν _ 1番目のフレームの動き補償された 2値ォブジェク ト画 像のそれぞれをフレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3— ( Ν— 1 ) のいずれかに出力し、 Ν番目のフレームの動き補償された 2値オブジェク ト 画像をフレームメモリ 3 8 3—Νに出力する。
フレームメモリ 3 8 3 _ 1は、 1番目のフレームの動き補償された 2値ォブジ ェク ト画像を記憶し、 記憶されている 2値オブジェク ト画像を重み付け部 3 8 4 _ 1に出力する。 フレームメモリ 3 8 3— 2は、 2番目のフレームの動き補償さ れた 2値オブジェク ト画像を記憶し、 記憶されている 2値オブジェク ト画像を重 み付け部 3 8 4 _ 2に出力する。
同様に、 フレームメモリ 3 8 3 _ 3乃至フレームメモリ 3 8 3— ( Ν - 1 ) の それぞれは、 3番目のフレーム乃至 Ν— 1番目のフレームの動き補償された 2値 オブジェク ト画像のいずれかを記憶し、 記憶されている 2値ォブジェク ト画像を 重み付け部 3 8 4 _ 3乃至重み付け部 3 8 4— ( Ν— 1 ) のいずれかに出力する c フレームメモリ 3 8 3—Nは、 N番目のフレームの動き補償された 2値オブジェ ク ト画像を記憶し、 記憶されている 2値ォブジェク ト画像を重み付け部 3 8 4 - Nに出力する。
重み付け部 3 8 4 _ 1は、 フレームメモリ 3 8 3— 1から供給された 1番目の フレームの動き補償された 2値ォブジェク ト画像の画素値に予め定めた重み wl を乗じて、 積算部 3 8 5に供給する。 重み付け部 3 8 4— 2は、 フレームメモリ 3 8 3 - 2から供給された 2番目のフレームの動き補償された 2値オブジェク ト 画像の画素値に予め定めた重み w2を乗じて、 積算部 3 8 5に供給する。 同様に、 重み付け部 3 8 4— 3乃至重み付け部 3 8 4— (N— 1 ) のそれぞれ は、 フレームメモリ 3 8 3— 3乃至フレームメモリ 3 8 3— ( N— 1 ) のいずれ かから供給された 3番目乃至 N— 1番目のいずれかのフレームの動き補償された 2値オブジェク ト画像の画素値に予め定めた重み w3乃至重み w (N- 1 )のいずれか を乗じて、 積算部 3 8 5に供給する。 重み付け部 3 8 4 _ Nは、 フレームメモリ 3 8 3—Nから供給された N番目のフレームの動き補償された 2値オブジェク ト 画像の画素値に予め定めた重み wNを乗じて、 積算部 3 8 5に供給する。
積算部 3 8 5は、 1乃至 N番目のフレームの動き補償され、 それぞれ重み wl 乃至 wNのいずれかが乗じられた、 2値オブジェク ト画像の対応する画素値を積 算して、 積算された画素値を予め定めたしきい値 thO と比較することにより 2 値オブジェク ト画像を生成する。
このように、 ロバスト化部 3 6 1は、 N個の 2値オブジェク ト画像から口バス ト化された 2値オブジェト画像を生成して、 時間変化検出部 3 0 3に供給するの で、 図 4 1に構成を示す領域特定部 1 0 3は、 入力画像にノイズが含まれていて も、 図 2 9に示す場合に比較して、 より正確に領域を特定することができる。 次に、 図 4 1に構成を示す領域特定部 1 0 3の領域特定の処理について、 図 4 5のフローチヤ一トを参照して説明する。 ステップ S 3 4 1乃至ステップ S 3 4 3の処理は、 図 3 9のフローチヤ一トで説明したステップ S 3 0 1乃至ステップ S 3 0 3とそれぞれ同様なのでその説明は省略する。
ステップ S 3 4 4において、 ロバス ト化部 3 6 1は、 ロバス ト化の処理を実行 する。
ステップ S 3 4 5において、 時間変化検出部 3 0 3は、 領域判定の処理を実行 して、 処理は終了する。 ステップ S 3 4 5の処理の詳細は、 図 4 0のフローチヤ ートを参照して説明した処理と同様なのでその説明は省略する。
次に、 図 4 6のフローチャートを参照して、 図 4 5のステップ S 3 4 4の処理 に対応する、 口バス ト化の処理の詳細について説明する。 ステップ S 3 6 1にお いて、 動き補償部 3 8 1は、 動き検出部 1 0 2から供給される動きべク トルとそ -
57 の位置情報を基に、 入力された 2値ォブジェク ト画像の動き補償の処理を実行す る。 ステップ S 3 6 2において、 フレームメモリ 3 8 3— 1乃至 3 8 3—Nのい ずれかは、 スィツチ 3 8 2を介して供給された動き補償された 2値オブジェク ト 画像を記憶する。
ステップ S 3 6 3において、 ロバス ト化部 3 6 1は、 N個の 2値オブジェク ト 画像が記憶されたか否かを判定し、 N個の 2値オブジェク ト画像が記憶されてい ないと判定された場合、 ステップ S 3 6 1に戻り、 2値オブジェク ト画像の動き 補償の処理および 2値オブジェク ト画像の記憶の処理を繰り返す。
ステップ S 3 6 3において、 N個の 2値ォブジェク ト画像が記憶されたと判定 された場合、 ステップ S 3 6 4に進み、 重み付け部 3 8 4— 1乃至 3 8 4 _ Nの それぞれは、 N個の 2値オブジェク ト画像のそれぞれに wl乃至 wNのいずれか の重みを乗じて、 重み付けする。
ステップ S 3 6 5において、 積算部 3 8 5は、 重み付けされた N個の 2値ォブ ジェク ト画像を積算する。
ステップ S 3 6 6において、 積算部 3 8 5は、 例えば、 予め定められたしきい 値 th l との比較などにより、 積算された画像から 2値ォブジェク ト画像を生成 して、 処理は終了する。
このように、 図 4 1に構成を示す領域特定部 1 0 3は、 ロバスト化された 2値 ォブジェク ト画像を基に、 領域情報を生成することができる。
以上のように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれぞれ について、 動き領域、 静止領域、 アンカバードバックグラウンド領域、 または力 バードバックグラウンド領域に属することを示す領域情報を生成することができ る。
図 4 7は、 混合比算出部 1 0 4の構成を示すブロック図である。 混合領域幅検 出部 4 0 1は、 領域特定部 1 0 3から供給された領域情報、 および動き検出部 1 0 2から供給された動きべク トルとその位置情報を基に、 画素間隔を単位として、 注目している画素が属する混合領域の幅を検出する。 混合領域幅検出部 4 0 1は、 検出した幅を混合領域幅情報として、 直線当てはめ部 4 0 2に供給する。
直線当てはめ部 4 0 2は、 混合領域幅検出部 4 0 1から供給された混合領域幅 情報、 および動き検出部 1 0 2から供給された動きべク トルとその位置情報を基 に、 混合領域の幅と、 注目している画素から混合領域の端部に位置する画素まで の距離との比を算出する。 直線当てはめ部 4 0 2は、 混合領域の幅と、 注目して いる画素から混合領域の端部に位置する画素までの距離との比を基に、 注目して いる画素の混合比 ひ を算出する。
前景に対応するオブジェク トがシャッタ時間内に等速で動いていると仮定でき るので、 混合領域に属する画素の混合比 ひ は、 以下の性質を有する。 すなわち、 混合比ひ は、 画素の位置の変化に対応して、 直線的に変化する。 画素の位置の 変化を 1次元とすれば、 混合比 ひ の変化は、 直線で表現することができ、 画素 の位置の変化を 2次元とすれば、 混合比 ひ の変化は、 平面で表現することがで さる。
なお、 1フレームの期間は短いので、 前景に対応するォブジュタ トが剛体であ り、 等速で移動していると仮定が成り立つ。
この場合、 混合比 ひ の傾きは、 前景のシャツタ時間内での動き量 Vの逆比と なる。
理想的な混合比 ひ の例を図 4 8に示す。 理想的な混合比 の混合領域におけ る傾き 1は、 動き量 Vの逆数として表すことができる。
図 4 8に示すように、 理想的な混合比 ひ は、 背景領域において、 1の値を有 し、 前景領域において、 0の値を有し、 混合領域において、 0を越え 1未満の値 を有する。
図 4 9乃至図 5 3を参照して、 混合比算出部 1 0 4の処理を説明する。
図 4 9は、 動き量 Vが 4である、 カバードバックグラウンド領域を含む画像 に対応する、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分割し たモデル図である。
フレーム ί!ηのカバードバックダラゥンド領域に属する注目している画素の画 素値 Mx、 対応する位置のフレーム #n より前のフレーム #n- lの背景領域に属する 画素の画素値 Bx、 および注目している画素の混合比 ひ X との関係は、 式 (8 ) で表すことができる。
Mx=ひ X - Bx+fx ( 8 )
Xは、 動き方向に沿った座標軸 Xにおける位置を示す。 f xは、 注目している画 素の画素値に含まれる前景の成分の和を示す。
図 5 0は、 動き量 Vが 4である、 アンカバードバックグラウンド領域を含む 画像に対応する、 画素値を時間方向に展開し、 シャツタ時間に対応する期間を分 割したモデル図である。
同様に、 フレーム #nのアンカバードバックグラウンド領域に属する注目して いる画素の画素値 Mx、 対応する位置のフレーム ttnより後のフレーム #η+ 1の背景 領域に属する画素の画素値 Βχ、 および注目している画素の混合比ひ Xとの関係 は、 式 (8 ) で表すことができる。
図 4 9および図 5 0に示すように、 動き量を Vとしたとき、 前景のオブジェ タ トの動きの方向に沿った混合領域の幅は、 動き量 Vから 1を減算して、 求め ることができる。
例えば、 図 4 9において、 フレーム ίίηのカバードバックグラウンド領域に属 する画素は、 左から 6番目の画素乃至 8番目の画素であり、 カバードバックダラ ゥンド領域の幅は、 画素間隔を単位として、 3である。 図 4 9において、 動き量 Vは 4であり、 カバードバックグラウンド領域の幅は、 動き量 Vから 1を減算し た結果に等しい。
図 5 0において、 フレーム #ηのアンカバードバックグラウンド領域に属する 画素は、 左から 5番目の画素乃至 7番目の画素であり、 アンカバードバックダラ ゥンド領域の幅は、 画素間隔を単位として、 3である。 図 5 0において、 動き量 Vは 4であり、 アンカバードバックグラウンド領域の幅は、 動き量 Vから 1を減 算した結果に等しい。
動き量を V としたとき、 動きベク トルの方向に沿った直線上の画素であって、 フレーム ttnのカバードバックグラウンド領域に属し、 背景領域に属する画素と 隣接する画素 (動きべク トルの先側の画素) の混合比 ひ は、 式 (9 ) で求めら れる。
ひ = (v- l ) /v ( 9 )
例えば、 図 5 1に示す、 フレーム #nの左から 4番目の画素の混合比 は、 動 き量 Vが 4であるとき、 3/4である。
動き量を V としたとき、 動きべク トルの方向に沿った直線上の画素であって. フレーム ffnのカバードバックグラウンド領域に属し、 背景領域に属する画素か ら 2番目の画素の混合比 ひ は、 動きべク トルの方向に沿った直線上の画素であ つて、 フレーム #nのカバードバックグラウンド領域に属し、 背景領域に属する 画素と隣接する画素の混合比 から 1/vを減算することにより求めることがで さる。
例えば、 図 5 1に示す、 フレーム #nの左から 3番目の画素の混合比 ひ は、 動 き量 Vが 4であるとき、 1 /2であり、 フレーム #nの左から 4番目の画素の混合 比 から 1/4を減算した値に等しい。
同様に、 動き量を V としたとき、 動きベク トルの方向に沿った直線上の画素 であって、 フレーム ίίηのカバードバックグラウンド領域に属し、 背景領域に属 する画素から 3番目の画素の混合比ひ は、 動きべク トルの方向に沿った直線上 の画素であって、 フレーム のカバードバックグラウンド領域に属し、 背景領 域に属する画素と隣接する画素の混合比 ひ から 2/vを減算することにより求め ることができる。
例えば、 図 5 1に示す、 フレーム ttnの左から 2番目の画素の混合比 ひ は、 動 き量 Vが 4であるとき、 1 /4であり、 フレーム # nの左から 4番目の画素の混合 比ひ から 1 /2を減算した値に等しい。
従って、 背景領域に属する画素と隣接する画素からの距離が Xである、 カバ ードバックグラウンド領域に属する画素に対応する混合比ひ Xは、 式 (1 0 ) に示すように、 距離 Xを基に、 算出できる。 ひ x二(v- l)/v- x · (1/v) ( 1 0 )
同様に、 動き量を v としたとき、 動きベク トルの方向に沿った直線上の画素 であって、 フレーム #nのアンカバードバックグラウンド領域に属し、 背景領域 に属する画素と隣接する画素 (動きべク トルの元側の画素) の混合比 ひ は、 式 ( 1 1 ) で求められる。
α = (ν-ΐ)/ν ( 1 1 )
例えば、 図 5 2に示す、 フレーム の左から 2番目の画素の混合比 ひ は、 動 き量 Vが 4であるとき、 3/4である。
動き量を V としたとき、 動きべク トルの方向に沿った直線上の画素であって. フレーム #ηのアンカバードバックグラウンド領域に属し、 背景領域に属する画 素から 2番目の画素の混合比 ひ は、 動きべク トルの方向に沿った直線上の画素 であって、 フレーム #ηのアンカバードバックグラウンド領域に属し、 背景領域 に属する画素と隣接する画素の混合比 から 1/vを減算することにより求める ことができる。
例えば、 図 5 2に示す、 フレーム ίίηの左から 3番目の画素の混合比 は、 動 き量 Vが 4であるとき、 1/2であり、 フレーム ίίηの左から 2番目の画素の混合 比 ひ から 1/4を減算した値に等しい。
同様に、 動き量を V としたとき、 動きベク トルの方向に沿った直線上の画素 であって、 フレーム ttnのアンカバードバックグラウンド領域に属し、 背景領域 に属する画素から 3番目の画素の混合比 ひ は、 動きべク トルの方向に沿った直 線上の画素であって、 フレーム のアンカバードバックグラウンド領域に属し. 背景領域に属する画素と隣接する画素の混合比 ひ から 2/vを減算することによ り求めることができる。
例えば、 図 5 2に示す、 フレーム Hnの左から 4番目の画素の混合比 は、 動 き量 Vが 4であるとき、 1/4であり、 フレーム #nの左から 2番目の画素の混合 比 から 1/2を減算した値に等しい。
従って、 背景領域に属する画素と隣接する画素からの距離が Xである、 アン カバードバックグラウンド領域に属する画素に対応する混合比 ひ xは、 式 (1
2 ) に示すように、 距離 Xを基に、 算出できる。
Figure imgf000064_0001
一般に、 シャツタ時間は、 十分に短いので、 シャツタ時間内に前景に対応する オブジェク トが剛体であり、 等速で移動していると仮定することができるので、 動き方向に沿つた直線上で、 混合領域における混合比が直線的に変化するという 仮定が成立する。
従って、 以上で説明した混合比 ひ の算出方法により、 十分精度の高い混合比 を算出することができる。
図 5 3は、 画像における、 混合比 の算出の処理を説明する図である。
動き量が Vであって、 注目している画素がカバードバックグラウンド領域に 属する画素であるとき、 動き方向に沿った直線上の、 動き方向の元の画素の混合 比 は、 1 /νとされ、 動き方向に沿った直線上の、 動き方向の先の画素の混合 比 は、 (ν- 1 ) /νとされる。 動き方向に沿った直線上の、 動き方向の先の画素 および動き方向の元の画素の間の画素の混合比 は、 1 /νを傾きとして、 線形 式により算出される (比例計算による算出される) 。
例えば、 動き量 Vが 6であって、 注目している画素がカバードバックグラウ ンド領域に属する画素であるとき、 動き方向に沿った直線上の、 動き方向の先の 画素の混合比 ひ 5は、 5/6とされ、 動き方向に沿った直線上の、 動ぎ方向の元 の画素の混合比 1は、 1 /6とされる。
動き方向の先の画素および動き方向の元の画素の間の画素の混合比 ひ 2、 ひ 3、 および 4は、 1 /νを傾きとし、 画素位置に対応して線形に算出され、 そ れぞれ、 2/6、 3/6、 4/6 とされる。
一方、 動き量が Vであって、 注目している画素がアンカバードバックグラウ ンド領域に属する画素であるとき、 動き方向に沿った直線上の、 動き方向の先の 画素の混合比 a は、 l /v とされ、 動き方向に沿った直線上の、 動き方向の元の 画素の混合比 ひ は、 (V- l ) /v とされ、 動き方向に沿った直線上の、 動き方向の 先の画素および動き方向の元の画素の間の画素の混合比 ひ は、 線形式により算 出される (比例計算による算出される) 。
次に、 混合比算出部 1 0 4による、 混合比 ひ の算出の処理を図 5 4のフロー チヤ一トを参照して説明する。
ステップ S 4 0 1において、 混合比幅検出部 4 0 1は、 領域特定部 1 0 3から 供給された領域情報を取得する。 ステップ S 4 0 2において、 混合比幅検出部 4 0 1および直線当てはめ部 4 0 2は、 動き検出部 1 0 2から供給された動きべク トルとその位置情報を取得する。
ステップ S 4 0 3において、 直線当てはめ部 4 0 2は、 注目画素を選択する。 ステップ S 4 0 4において、 直線当てはめ部 4 0 2は、 領域情報を基に、 注目画 素が前景領域に属するか否かを判定し、 注目画素が前景領域に属すると判定され た場合、 ステップ S 4 0 5に進み、 混合比 ひ に 0を設定し、 ステップ S 4 0 9 に進む。
ステップ S 4 0 4において、 注目画素が前景領域に属しないと判定された場合、 ステップ S 4 0 6に進み、 直線当てはめ部 4 0 2は、 領域情報を基に、 注目画素 が背景領域に属するか否かを判定し、 注目画素が背景領域に属すると判定された 場合、 ステップ S 4 0 7に進み、 混合比ひ に 1を設定し、 ステップ S 4 0 9に 進む。
ステップ S 4 0 6において、 注目画素が背景領域に属しないと判定された場合、 ステップ S 4 0 8に進み、 直線当てはめ部 4 0 2は、 混合領域に属する画素の混 合比 αの算出の処理を実行し、 処理は、 ステップ S 4 0 9に進む。 混合領域に 属する画素の混合比 ひ の算出の処理の詳細は、 後述する。
ステップ S 4 0 9において、 直線当てはめ部 4 0 2は、 注目画素に対応させて、 算出された混合比 a を記憶する。
ステップ S 4 1 0において、 直線当てはめ部 4 0 2は、 フレーム全体について 混合比ひ を算出したか否かを判定し、 フレーム全体について混合比 ひ を算出し ていないと判定された場合、 ステップ S 4 0 3に戻り、 他の注目画素を選択し、 混合比 Οί の算出の処理を繰り返す。
ステップ S 4 1 0において、 フレーム全体について混合比 ひ を算出したと判 定された場合、 ステップ S 4 1 1に進み、 直線当てはめ部 4 0 2は、 混合比 ひ を出力して、 処理は終了する。
図 5 5のフ口一チャートを参照して、 混合領域幅検出部 4 0 1および直線当て はめ部 4 0 2が実行する、 ステップ S 4 0 8の処理に対応する、 混合領域に属す る画素の混合比ひ の算出の処理を説明する。
ステップ S 4 2 1において、 混合領域幅検出部 4 0 1は、 動き検出部 1 0 2か ら供給された動きべク トルとその位置情報、 および領域特定部 1 0 3から供給さ れた領域情報を基に、 動きベク トルの動きの方向に沿って、 混合領域の幅を求め る。 混合領域幅検出部 4 0 1は、 混合領域の幅を混合領域幅情報として、 直線当 てはめ部 4 0 2に供給する。 混合領域幅検出部 4 0 1は、 動きベク トルの大きさ を基に、 混合領域の幅を算出するようにしてもよい。
ステップ S 4 2 2において、 直線当てはめ部 4 0 2は、 動きべク トルの動き方 向に沿って、 注目画素から、 混合領域の端までの距離を求める。
ステップ S 4 2 3において、 直線当てはめ部 4 0 2は、 動きベク トルの動き方 向とは反対の方向に沿って、 注目画素から、 混合領域の端までの距離を求める。 ステップ S 4 2 4において、 直線当てはめ部 4 0 2は、 領域情報、 および混合 領域の幅と、 注目画素から、 混合領域の端までの距離との比を基に、 混合比 ひ を算出して、 処理は終了する。
例えば、 直線当てはめ部 4 0 2は、 注目画素がカバードバックグラウンド領域 に属するとき、 混合領域の幅と、 動きべク トルの動きの方向に沿った、 混合領域 の端までの距離との比を基に、 式 (1 0 ) に示す演算により、 混合比 ひ を算出 する。
例えば、 直線当てはめ部 4 0 2は、 注目画素がアンカバードバックグラウンド 領域に属するとき、 混合領域の幅と、 動きべク トルの動き方向とは反対の方向に 沿った、 混合領域の端までの距離との比を基に、 式 ( 1 2 ) に示す演算により、 混合比ひ を算出する。
このように、 混合比算出部 1 0 2は、 領域特定部 1 0 3から供給された領域情 報、 および動き検出部 1 0 2から供給された動きべク トルとその位置情報を基に、 各画素に対応する特徴量である混合比 を算出することができる。
混合比 ひ を利用することにより、 動いているオブジェク トに対応する画像に 含まれる動きボケの情報を残したままで、 画素値に含まれる前景の成分と背景の 成分とを分離することが可能になる。
また、 混合比ひ に基づいて画像を合成すれば、 実世界を実際に撮影し直した ような動いているォブジェク トのスピードに合わせた正しい動きボケを含む画像 を作ることが可能になる。
次に、 前景背景分離部 1 0 5について説明する。 図 5 6は、 前景背景分離部 1 0 5の構成の一例を示すブロック図である。 前景背景分離部 1 0 5に供給された 入力画像は、 分離部 6 0 1、 スィ ッチ 6 0 2、 およびスィッチ 6 0 4に供給され る。 カバードバックグラウンド領域を示す情報、 およびアンカバードバックダラ ゥンド領域を示す、 領域特定部 1 0 3から供給された領域情報は、 分離部 6 0 1 に供給される。 前景領域を示す領域情報は、 スィッチ 6 0 2に供給される。 背景 領域を示す領域情報は、 スィッチ 6 0 4に供給される。
混合比算出部 1 0 4から供給された混合比 は、 分離部 6 0 1に供給される c 分離部 6 0 1は、 カバードバックグラウンド領域を示す領域情報、 ァンカバー ドバックグラウンド領域を示す領域情報、 および混合比 ひ を基に、 入力画像か ら前景の成分を分離して、 分離した前景の成分を合成部 6 0 3に供給するととも に、 入力画像から背景の成分を分離して、 分離した背景の成分を合成部 6 0 5に 供給する。
スィツチ 6 0 2は、 前景領域を示す領域情報を基に、 前景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる前景に対応する画素のみを合成部 6 0 3に供給する。
スィッチ 6 0 4は、 背景領域を示す領域情報を基に、 背景に対応する画素が入 力されたとき、 閉じられ、 入力画像に含まれる背景に対応する画素のみを合成部 6 0 5に供給する。
合成部 6 0 3は、 分離部 6 ◦ 1から供給された前景に対応する成分、 スィッチ 6 0 2から供給された前景に対応する画素を基に、 前景成分画像を合成し、 合成 した前景成分画像を出力する。 前景領域と混合領域とは重複しないので、 合成部 6 0 3は、 例えば、 前景に対応する成分と、 前景に対応する画素とに論理和の演 算を適用して、 前景成分画像を合成する。
合成部 6 0 3は、 前景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し、 前景成分画像の合成の処理において、 前景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 3が出力する前景成分画像の内、 背景領域に対応する画素には、 画素値として 0が格納されている。
合成部 6 0 5は、 分離部 6 0 1から供給された背景に対応する成分、 スィッチ 6 0 4から供給された背景に対応する画素を基に、 背景成分画像を合成して、 合 成した背景成分画像を出力する。 背景領域と混合領域とは重複しないので、 合成 部 6 0 5は、 例えば、 背景に対応する成分と、 背景に対応する画素とに論理和の 演算を適用して、 背景成分画像を合成する。
合成部 6 0 5は、 背景成分画像の合成の処理の最初に実行される初期化の処理 において、 内蔵しているフレームメモリに全ての画素値が 0である画像を格納し、 背景成分画像の合成の処理において、 背景成分画像を格納 (上書き) する。 従つ て、 合成部 6 0 5が出力する背景成分画像の内、 前景領域に対応する画素には、 画素値として 0が格納されている。
図 5 7 Aは、 前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分 離部 1 0 5から出力される前景成分画像および背景成分画像を示す図である。 図 5 7 Bは、 前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分離部 1 0 5から出力される前景成分画像および背景成分画像のモデルを示す図である c 図 5 7 Aは、 表示される画像の模式図であり、 図 5 7 Bは、 図 5 7 Aに対応す る前景領域に属する画素、 背景領域に属する画素、 および混合領域に属する画素 を含む 1ラインの画素を時間方向に展開したモデル図を示す。.
図 5 7 Aおよび図 5 7 Bに示すように、 前景背景分離部 1 0 5から出力される 背景成分画像は、 背景領域に属する画素、 および混合領域の画素に含まれる背景 の成分から構成される。
図 5 7 Aおよび図 5 7 Bに示すように、 前景背景分離部 1 0 5から出力される 前景成分画像は、 前景領域に属する画素、 および混合領域の画素に含まれる前景 の成分から構成される。
混合領域の画素の画素値は、 前景背景分離部 1 0 5により、 背景の成分と、 前 景の成分とに分離される。 分離された背景の成分は、 背景領域に属する画素と共 に、 背景成分画像を構成する。 分離された前景の成分は、 前景領域に属する画素 と共に、 前景成分画像を構成する。
このように、 前景成分画像は、 背景領域に対応する画素の画素値が 0とされ、 前景領域に対応する画素および混合領域に対応する画素に意味のある画素値が設 定される。 同様に、 背景成分画像は、 前景領域に対応する画素の画素値が 0とさ れ、 背景領域に対応する画素および混合領域に対応する画素に意味のある画素値 が設定される。
次に、 分離部 6 0 1が実行する、 混合領域に属する画素から前景の成分、 およ び背景の成分を分離する処理について説明する。
図 5 8は、 図中の左から右に移動するオブジェク トに対応する前景を含む、 2 つのフレームの前景の成分および背景の成分を示す画像のモデルである。 図 5 8 に示す画像のモデルにおいて、 前景の動き量 Vは 4であり、 仮想分割数は、 4 とされている。
フレーム #nにおいて、 最も左の画素、 および左から 1 4番目乃至 1 8番目の 画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム において、 左から 2番目乃至 4番目の画素は、 背景の成分および前景の成分を含み、 アンカ バードバックグラウンド領域に属する。 フレーム #nにおいて、 左から 1 1番目 乃至 1 3番目の画素は、 背景の成分および前景の成分を含み、 カバードバックグ ラウンド領域に属する。 フレーム #nにおいて、 左から 5番目乃至 1 0番目の画 素は、 前景の成分のみから成り、 前景領域に属する。
フレーム ίίη+lにおいて、 左から 1番目乃至 5番目の画素、 および左から 1 8 番目の画素は、 背景の成分のみから成り、 背景領域に属する。 フレーム #η+1に おいて、 左から 6番目乃至 8番目の画素は、 背景の成分および前景の成分を含み、 アンカバードバックグラウンド領域に属する。 フレーム #η+1において、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分および前景の成分を含み、 カバード バックグラウンド領域に属する。 フレーム +1において、 左から 9番目乃至 1 4番目の画素は、 前景の成分のみから成り、 前景領域に属する。
図 5 9は、 カバードバックグラウンド領域に属する画素から前景の成分を分離 する処理を説明する図である。 図 5 9において、 ひ 1乃至 1 8は、 フレーム #ηにおける画素のそれぞれに対応する混合比である。 図 5 9において、 左から 1 5番目乃至 1 7番目の画素は、 カバードバックグラウンド領域に属する。
フレーム #η の左から 1 5番目の画素の画素値 C15 は、 式 (1 3) で表される c C15=B15/v+F09/v+F08/v+F07/v
= a 15 · B15+F09/v+F08/v+F07/v
=α 15-P15+F09/v+F08/v+F07/v (1 3) ここで、 15 は、 フレーム #n の左から 1 5番目の画素の混合比である。 P15 は、 フレーム #n- 1の左から 1 5番目の画素の画素値である。
式 (1 3) を基に、 フレーム #nの左から 1 5番目の画素の前景の成分の和 fl5は、 式 (1 4) で表される。
fl5=F09/v+F08/v+F07/v
=C15-£Y 15-P15 ( 1 4)
同様に、 フレーム #nの左から 1 6番目の画素の前景の成分の和 fl6は、 式 ( 1 5) で表され、 フレーム #nの左から 1 7番目の画素の前景の成分の和 f 17 は、 式 (1 6) で表される。 fl6=C16-ひ 16·Ρ16 ( 1 5 )
fl7=C17 -ひ 17·Ρ17 ( 1 6 )
このように、 カバードバックグラウンド領域に属する画素の画素値 Cに含ま れる前景の成分 fcは、 式 (1 7) で計算される。
fc=C—ひ ·Ρ ( 1 7 )
Ρは、 1つ前のフレームの、 対応する画素の画素値である。
図 6 0は、 アンカバードバックグラウンド領域に属する画素から前景の成分を 分離する処理を説明する図である。 図 6 0において、 ひ 1乃至 ひ 1 8は、 フレ 一ム^における画素のぞれぞれに対応する混合比である。 図 6 0において、 左 から 2番目乃至 4番目の画素は、 アンカバードバックグラウンド領域に属する。 フレーム #ηの左から 2番目の画素の画素値 C02は、 式 (1 8 ) で表される。
C02=B02/v+B02/v+B02/v+F01/v
二ひ 2*B02+F01/v
= a2-N02+F01/v ( 1 8 )
ここで、 2は、 フレーム #nの左から 2番目の画素の混合比である。 N02は、 フ レーム ίίη+lの左から 2番目の画素の画素ィ直である。
式 (1 8 ) を基に、 フレーム Hnの左から 2番目の画素の前景の成分の和 f02 は、 式 (1 9) で表される。
f02=F01/v
=C02-ひ 2-N02 ( 1 9 )
同様に、 フレーム #nの左から 3番目の画素の前景の成分の和 f03は、 式 (2 0) で表され、 フレーム ίίηの左から 4番目の画素の前景の成分の和 f04は、 式 ( 2 1 ) で表される。
f03=C03-a3-N03 ( 2 0)
f04=C04 -ひ 4·謝 ( 2 1 )
このように、 アンカバードバックグラウンド領域に属する画素の画素値 Cに 含まれる前景の成分 fuは、 式 (2 2 ) で計算される。 fu=C- a · Ν ( 2 2 )
Nは、 1つ後のフレームの、 対応する画素の画素値である。
このように、 分離部 6 0 1は、 領域情報に含まれる、 カバードバックグラウン ド領域を示す情報、 およびァンカバードバックグラウンド領域を示す情報、 並び に画素毎の混合比 ひ を基に、 混合領域に属する画素から前景の成分、 および背 景の成分を分離することができる。
図 6 1は、 以上で説明した処理を実行する分離部 6 0 1の構成の一例を示すブ ロック図である。 分離部 6 0 1に入力された画像は、 フレームメモリ 6 2 1に供 給され、 混合比算出部 1 0 4から供給されたカバードバックグラウンド領域およ びアンカバードバックグラウンド領域を示す領域情報、 並びに混合比 ひ は、 分 離処理プロック 6 2 2に入力される。
フレームメモリ 6 2 1は、 入力された画像をフレーム単位で記憶する。 フレー ムメモリ 6 2 1は、 処理の対象がフレーム #nであるとき、 フレーム ίίηの 1つ前 のフレームであるフレーム #η- 1、 フレーム #η、 およびフレーム ίίηの 1つ後のフ レームであるフレーム ίίη+ lを記憶する。
フレームメモリ 6 2 1は、 フレーム #η- 1、 フレーム th、 およびフレーム の対応する画素を分離処理ブロック 6 2 2に供給する。
分離処理ブロック 6 2 2は、 カバードバックグラウンド領域およびアンカバー ドバックグラウンド領域を示す領域情報、 並びに混合比 を基に、 フレームメ モリ 6 2 1から供給されたフレーム #η- 1、 フレーム #η、 およびフレーム #η+ 1の 対応する画素の画素値に図 5 9および図 6 0を参照して説明した演算を適用して、 フレーム の混合領域に属する画素から前景の成分および背景の成分を分離し て、 フレームメモリ 6 2 3に供給する。
分離処理ブロック 6 2 2は、 アンカバード領域処理部 6 3 1、 カバード領域処 理部 6 3 2、 合成部 6 3 3、 および合成部 6 3 4で構成されている。
アンカバード領域処理部 6 3 1の乗算器 6 4 1は、 混合比 を、 フレームメ モリ 6 2 1から供給されたフレーム ttn+ 1の画素の画素値に乗じて、 スィツチ 6 4 2に出力する。 スィッチ 6 4 2は、 フレームメモリ 6 2 1から供給されたフレ ーム ίίηの画素 (フレーム ttn+ 1の画素に対応する) がアンカバードバックグラウ ンド領域であるとき、 閉じられ、 乗算器 6 4 1から供給された混合比 ひ を乗じ た画素値を演算器 6 4 3および合成部 6 3 4に供給する。 スィッチ 6 4 2から出 力されるフレーム #n+ lの画素の画素値に混合比 ひ を乗じた値は、 フレーム ίίη の対応する画素の画素値の背景の成分に等しい。
演算器 6 4 3は、 フレームメモリ 6 2 1から供給されたフレーム #ηの画素の 画素値から、 スィッチ 6 4 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 4 3は、 アンカバードバックグラウンド領域に属する、 フレー ム tinの画素の前景の成分を合成部 6 3 3に供給する。
カバード領域処理部 6 3 2の乗算器 6 5 1は、 混合比 ひ を、 フレームメモリ 6 2 1から供給されたフレーム #n- lの画素の画素値に乗じて、 スィツチ 6 5 2 に出力する。 スィッチ 6 5 2は、 フレームメモリ 6 2 1から供給されたフレーム ttnの画素 (フレーム ίίη- 1 の画素に対応する) がカバードバックグラウンド領域 であるとき、 閉じられ、 乗算器 6 5 1から供給された混合比 ひ を乗じた画素値 を演算器 6 5 3および合成部 6 3 4に供給する。 スィッチ 6 5 2から出力される フレーム #η- 1の画素の画素値に混合比 ひ を乗じた値は、 フレーム ίίηの対応す る画素の画素値の背景の成分に等しい。
演算器 6 5 3は、 フレームメモリ 6 2 1から供給されたフレーム の画素の 画素値から、 スィッチ 6 5 2から供給された背景の成分を減じて、 前景の成分を 求める。 演算器 6 5 3は、 カバードバックグラウンド領域に属する、 フレーム #ηの画素の前景の成分を合成部 6 3 3に供給する。
合成部 6 3 3は、 フレームでの、 演算器 6 4 3から供給された、 アンカバー ドバックグラウンド領域に属する画素の前景の成分、 および演算器 6 5 3から供 給された、 カバードバックグラウンド領域に属する画素の前景の成分を合成して、 フレームメモリ 6 2 3に供給する。
合成部 6 3 4は、 フレーム #ηの、 スィッチ 6 4 2から供給された、 アンカバ ードバックグラウンド領域に属する画素の背景の成分、 およびスィッチ 6 5 2か ら供給された、 カバードバックグラウンド領域に属する画素の背景の成分を合成 して、 フレームメモリ 6 2 3に供給する。
フレームメモリ 6 2 3は、 分離処理プロック 6 2 2から供給された、 フレーム #nの混合領域の画素の前景の成分と、 背景の成分とをそれぞれに記憶する。
フレームメモリ 6 2 3は、 記憶しているフレーム #nの混合領域の画素の前景 の成分、 および記憶しているフレーム #nの混合領域の画素の背景の成分を出力 する。
特徴量である混合比 ひ を利用することにより、 画素値に含まれる前景の成分 と背景の成分とを完全に分離することが可能になる。
合成部 6 0 3は、 分離部 6 0 1から出力された、 フレーム tinの混合領域の画 素の前景の成分と、 前景領域に属する画素とを合成して前景成分画像を生成する c 合成部 6 0 5は、 分離部 6 0 1から出力された、 フレーム #nの混合領域の画素 の背景の成分と、 背景領域に属する画素とを合成して背景成分画像を生成する。 図 6 2 Aは、 図 5 8のフレーム ίίηに対応する、 前景成分画像の例を示す図で ある。 図 6 2 Βは、 図 5 8のフレーム #ηに対応する、 背景成分画像の例を示す 図である。
図 6 2 Αは、 図 5 8のフレーム #nに対応する、 前景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景が分離される前におい て、 背景の成分のみから成っていたので、 画素値が 0とされる。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバードバックグラウンド領域に属し、 背景の成分が 0とされ、 前景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 背景の成分が 0 とされ、 前景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景の成分のみから成るので、 そのまま残される。
図 6 2 Bは、 図 5 8のフレーム #nに対応する、 背景成分画像の例を示す。 最 も左の画素、 および左から 1 4番目の画素は、 前景と背景とが分離される前にお いて、 背景の成分のみから成っていたので、 そのまま残される。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 ァ ンカバ一ドバックグラウンド領域に属し、 前景の成分が 0とされ、 背景の成分が そのまま残されている。 左から 1 1番目乃至 1 3番目の画素は、 前景と背景とが 分離される前において、 カバードバックグラウンド領域に属し、 前景の成分が 0 とされ、 背景の成分がそのまま残されている。 左から 5番目乃至 1 0番目の画素 は、 前景と背景とが分離される前において、 前景の成分のみから成っていたので、 画素値が 0とされる。
次に、 図 6 3に示すフローチャートを参照して、 前景背景分離部 1 0 5による 前景と背景との分離の処理を説明する。 ステップ S 6 0 1において、 分離部 6 0 1のフレームメモリ 6 2 1は、 入力画像を取得し、 前景と背景との分離の対象と なるフレーム #nを、 その前のフレーム tin- 1およびその後のフレーム #n+ l と共に ΗΞ'ι© る。
ステップ S 6 0 2において、 分離部 6 0 1の分離処理ブロック 6 2 2は、 混合 比算出部 1 0 4から供給された領域情報を取得する。 ステップ S 6 0 3において、 分離部 6 0 1の分離処理プロック 6 2 2は、 混合比算出部 1 0 4から供給された 混合比 ひ を取得する。
ステップ S 6 0 4において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 背景の成分を抽出する。
ステップ S 6 0 5において、 アンカバード領域処理部 6 3 1は、 領域情報およ び混合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 アンカバードバッ クグラウンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 6 0 6において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 カバードバックグラウ ンド領域に属する画素の画素値から、 背景の成分を抽出する。 ステップ S 6 0 7において、 カバード領域処理部 6 3 2は、 領域情報および混 合比 ひ を基に、 フレームメモリ 6 2 1から供給された、 カバードバックグラウ ンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 6 0 8において、 合成部 6 3 3は、 ステップ S 6 0 5の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の前景の成分と、 ステツ プ S 6 0 7の処理で抽出されたカバードバックグラウンド領域に属する画素の前 景の成分とを合成する。 合成された前景の成分は、 合成部 6 0 3に供給される。 更に、 合成部 6 0 3は、 スィッチ 6 0 2を介して供給された前景領域に属する画 素と、 分離部 6 0 1から供給された前景の成分とを合成して、 前景成分画像を生 成する。
ステップ S 6 0 9において、 合成部 6 3 4は、 ステップ S 6 0 4の処理で抽出 されたアンカバードバックグラウンド領域に属する画素の背景の成分と、 ステツ プ S 6 0 6の処理で抽出されたカバードバックグラウンド領域に属する画素の背 景の成分とを合成する。 合成された背景の成分は、 合成部 6 0 5に供給される。 更に、 合成部 6 0 5は、 スィッチ 6 0 4を介して供給された背景領域に属する画 素と、 分離部 6 0 1から供給された背景の成分とを合成して、 背景成分画像を生 成する。
ステップ S 6 1 0において、 合成部 6 0 3は、 前景成分画像を出力する。 ステ ップ S 6 1 1において、 合成部 6 0 5は、 背景成分画像を出力し、 処理は終了す る。
このように、 前景背景分離部 1 0 5は、 領域情報および混合比 ひ を基に、 入 力画像から前景の成分と、 背景の成分とを分離し、 前景の成分のみから成る前景 成分画像、 および背景の成分のみから成る背景成分画像を出力することができる。 図 6 4は、 本発明に係る画像処理装置の他の構成を示す図である。 図 2に示す 場合と同様の部分には、 同一の番号を付してあり、 その説明は省略する。
動き方向推定部 7 0 1は、 領域特定部 1 0 3から供給された領域情報、 および 入力画像を基に、 前景のォブジェク トに対応する動きべク トルを生成するととも に、 動きべク トルから動き方向を抽出して、 抽出した動き方向を混合比算出部 7 0 2に供給する。 動き方向推定部 7 0 1は、 生成した動きベク トルを出力するこ とができる。
混合比算出部 7 0 2は、 領域特定部 1 0 3から供給された領域情報、 および動 き方向推定部 7 0 1から供給された動き方向を基に、 画素毎に混合比 ひ を算出 して、 算出した混合比 ひ を前景背景分離部 1 0 5に供給する。
図 6 5は、 動き方向推定部 7 0 1の構成を示すブロック図である。 動きべタ ト ル検出部 7 2 1は、 領域特定部 1 0 3から供給された領域情報および入力画像を 基に、 動きべク トルを生成する。
より詳細に説明すると、 動きベク トル検出部 7 2 1は、 フレーム #nの注目画 素がカバードバックグラウンド領域に属するとき、 領域特定部 1 0 3から供給さ れた、 フレーム #nおよびフレーム #n+ lの領域情報を基に、 フレーム #nから注目 画素に対応する評価プロックを抽出する。
例えば、 図 6 6に示すように、 カバードバックグラウンド領域に属する注目画 素が中心に配置され、 背景領域および前景領域を含む評価ブロックが抽出される。 図 6 6において、 Aは、 注目画素を示し、 Bは、 評価ブロックを示し、 Cは、 サーチエリアを示す。 図 6 6において、 Dは、 前景領域を示し、 Eは、 背景領域 を示し、 Fは、 カバードバックグラウンド領域を示し、 Gは、 アンカバードバッ クグラウンド領域を示す。
動きベク トル検出部 7 2 1は、 抽出した評価ブロックに含まれるカバードバッ クグラウンド領域の形状と、 形状が一致するフレーム ίίη+ lのカバードバックグ ラウンド領域を検出する。
例えば、 図 6 6に示すように、 動きベク トル検出部 7 2 1は、 フレーム の 評価ブロックに対応する、 フレーム + 1のサーチエリアを検索して、 抽出した 評価ブロックに含まれるカバードバックグラウンド領域の形状と、 形状が一致す るフレーム itn+ 1のカバードバックグラウンド領域を検出する。
動きベク トル検出部 7 2 1は、 フレーム の評価ブロックの画面上の位置と- 検出されたフレーム ίίη+lのカバードバックグラウンド領域の画面上の位置を基 に、 注目画素に対応する動きベク トルを算出する。 動きベク トル検出部 7 2 1は、 算出した動きべク トルを出力すると共に、 動き方向選択部 7 2 2に供給する。 図 6 7 Αおよび図 6 7 Bに示すように、 動きべク トル検出部 7 2 1は、 評価ブ ロックの 1辺の長さを、 動き量 V (混合領域の幅) の 2倍の長さとする。
例えば、 図 6 7 Aに示すように、 注目画素が混合領域の端側に位置するとき、 評価ブロックの 1辺の長さを、 動き量 Vの 2倍の長さとすれば、 評価ブロック には、 背景領域および混合領域が含まれることとなり、 検出すべき混合領域の輪 郭が明らかになる。
また、 同様に、 図 6 7 Bに示すように、 注目画素が混合領域の中心に位置する とき、 評価ブロックの 1辺の長さを、 動き量 Vの 2倍の長さとすれば、 評価ブ ロックには、 背景領域および混合領域が含まれることとなり、 検出すべき混合領 域の輪郭が明らかになる。
これに対して、 図 6 7 Cに示すように、 注目画素が混合領域の端側に位置する とき、 評価ブロックの 1辺の長さを、 動き量 V と同じ長さとすれば、 評価ブロ ックには、 背景領域または混合領域のいずれかが含まれず、 検出すべき混合領域 の輪郭が不明確になる。 同様に、 図 6 7 Dに示すように、 注目画素が混合領域の 中心に位置するとき、 評価ブロックの 1辺の長さを、 動き量 Vと同じ長さとす れば、 評価ブロックには、 背景領域または混合領域のいずれかが含まれず、 検出 すべき混合領域の輪郭が不明確になる。
このように、 動きべク トル検出部 7 2 1は、 評価ブロックの 1辺の長さを、 動 き量 Vの 2倍の長さとすることにより、 確実に、 評価ブロックと形状が一致す るフレーム ίίη+ lのカバードバックグラウンド領域を検出することができる。
動きべク トル検出部 7 2 1は、 フレーム #ηの注目画素がアンカバードノくック グラウンド領域に属するとき、 領域特定部 1 0 3から供給された、 フレーム ίίη およびフレーム #η + 1の領域情報を基に、 フレーム t から注目画素に対応する評 価ブロックを抽出する。 動きべク トル検出部 7 2 1は、 抽出した評価プロックに含まれるアンカバード バックグラウンド領域の形状と、 形状が一致するフレーム #n + lのアンカバード バックグラウンド領域を検出する。
動きべク トル検出部 7 2 1は、 フレーム #n の評価プロックの画面上の位置と、 検出されたフレーム #n + lのアンカバードバックグラウンド領域の画面上の位置 を基に、 注目画素に対応する動きべク トルを算出する。 動きべク トル検出部 7 2 1は、 算出した動きべク トルを出力すると共に、 動き方向選択部 7 2 2に供給す る。
動きべク トル検出部 7 2 1は、 フレーム #nの注目画素が前景領域に属すると き、 フレーム ίίηの入力画像から注目画素に対応する評価ブロックを抽出する。 動きベク トル検出部 7 2 1は、 フレーム #ηの入力画像の評価ブロックと、 フレ ーム ttn+ 1の入力画像とのマッチングをとり、 フレーム #nの入力画像の評価ブロ ックの位置、 およびフレーム #n+ lのマッチングされた画像の位置を基に、 動き ベタ トルを生成する。
なお、 動きべク トル検出部 7 2 1は、 前景領域または背景領域の領域情報を基 に、 動きべク トルを検出するようにしてもよい。 この場合、 動きべク トル検出部 7 2 1は、 入力画像を必要としなレ、。
また、 動きベク トル検出部 7 2 1は、 カバードバックグラウンド領域、 アンカ バードバックグラウンド領域、 前景領域、 または背景領域について、 全画面マツ チングにより、 動きベク トルを検出するようにしてもよい。 この場合、 動きべク トル検出部 7 2 1は、 入力画像を必要としない。
図 6 5に戻り、 動き方向選択部 7 2 2は、 動きべク トル検出部 7 2 1から供給 された動きべク トルの動き方向を抽出して、 抽出した動き方向を出力する。
例えば、 動き方向選択部 7 2 2は、 動きべク トルから水平べク トル成分および 垂直べク トル成分を抽出し、 水平べク トル成分の絶対値および垂直べク トル成分 の絶対値を算出する。 動き方向選択部 7 2 2は、 水平べク トル成分および垂直べ ク トル成分のうち、 絶対値の大きいベタ トル成分を選択する。 動き方向選択部 7 2 2は、 選択したべク トル成分に対応する向きを動き方向として出力する。
動き方向は、 例えば、 左を示す 0、 右を示す 1、 上を示す 2、 または下を示す 3の何れかの値をとる。
このように、 動き方向推定部 7 0 1は、 動きベク トルを検出すると共に、 動き 方向を出力することができる。
図 6 8は、 混合比算出部 7 0 2の構成を示すブロック図である。 混合領域幅検 出部 7 4 1は、 領域特定部 1 0 3から供給された領域情報、 および動き方向推定 部 7 0 1から供給された動き方向を基に、 画素間隔を単位として、 注目している 画素が属する混合領域の幅を検出し、 検出した幅を混合領域幅情報として、 直線 当てはめ部 7 4 2に供給する。
直線当てはめ部 7 4 2は、 混合領域幅検出部 7 4 1から供給された混合領域幅 情報、 およびおよび動き方向推定部 7 0 1から供給された動き方向を基に、 混合 領域の幅と、 注目している画素から混合領域に隣接する背景領域の画素までの距 離との比を算出する。 直線当てはめ部 7 4 2は、 混合領域の幅と、 注目している 画素から混合領域に隣接する背景領域の画素までの距離との比を基に、 注目して いる画素の混合比を算出する。
図 6 9のフローチヤ一トを参照して、 図 6 4に構成を示す画像処理装置による、 前景背景分離の処理を説明する。
ステップ S 7 0 1において、 領域特定部 1 0 3は、 入力画像を基に、 入力画像 の画素毎に前景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカ バードバックグラウンド領域のいずれかに属するかを示す領域情報を生成する領 域特定の処理を実行する。 領域特定部 1 0 3は、 生成した領域情報を混合比算出 部 7 0 2に供給する。 ステップ S 7 0 1の処理の詳細は、 ステップ S 1 2の処理 の詳細と同様なので、 その説明は省略する。
ステップ S 7 0 2において、 動き方向推定部 7 0 1は、 領域特定部 1 0 3から 供給された領域情報を基に、 動き方向を検出する。 動き方向の検出の処理の詳細 は、 後述する。 動き方向推定部 7 0 1は、 動き方向を混合比算出部 7 0 2に供給 する。
ステップ S 7 0 3において、 混合比算出部 7 0 2は、 動き方向推定部 7 0 1か ら供給された動き方向、 および領域特定部 1 0 3から供給された領域情報を基に、 混合領域に含まれる画素毎に、 混合比 ひ を算出する。 混合比算出の処理の詳細 は、 後述する。 混合比算出部 1 0 4は、 算出した混合比 ひ を前景背景分離部 1 0 5に供給する。 ステップ S 7 0 3の処理の詳細は、 ステップ S 1 3の処理の詳 細と同様なので、 その説明は省略する。
ステップ S 7 0 4において、 前景背景分離部 1 0 5は、 領域情報、 および混合 比ひ を基に、 入力画像から前景の成分および背景の成分を抽出して、 抽出した 前景の成分を基に、 前景成分画像を合成し、 抽出した背景の成分を基に、 背景成 分画像を合成する。 前景背景分離部 1 0 5は、 前景成分画像および背景成分画像 を出力し、 処理は終了する。 ステップ S 7 0 4の処理の詳細は、 ステップ S 1 4 の処理の詳細と同様なので、 その説明は省略する。
このように、 図 6 4に構成を示す画像処理装置は、 前景と背景を分離すること ができる。
図 7 0のフローチャートを参照して、 動き方向推定部 7 0 1による、 動き方向 取得の処理を説明する。
ステップ S 7 2 1において、 動きべク トル検出部 7 2 1は、 注目フレームおよ び注目フレームの次のフレームの入力画像を取得する。
ステップ S 7 2 2において、 動きべク トル検出部 7 2 1は、 注目フレームおよ び注目フレームの次のフレームの領域情報を取得する。
ステップ S 7 2 3において、 動きべク トル検出部 7 2 1は、 注目画素を選択す る。 ステップ S 7 2 4において、 動きべク トル検出部 7 2 1は、 注目フレームの 領域情報を基に、 注目画素が静止領域に属するか否かを判定し、 注目画素が静止 領域に属すると判定された場合、 ステップ S 7 2 5に進み、 動きベク トルを 0に 設定し、 手続きは、 ステップ S 7 3 7に進む。
ステップ S 7 2 4において、 注目画素が静止領域に属しないと判定された場合、 ステップ S 7 2 6に進み、 動きべク トル検出部 7 2 1は、 注目フレームの領域情 報を基に、 注目画素がカバードバックグラウンド領域に属するか否かを判定する c ステップ S 7 2 6において、 注目画素がカバードバックグラウンド領域に属する と判定された場合、 ステップ S 7 2 7に進み、 動きべク トル検出部 7 2 1は、 力 バードバックグラウンド領域、 前景領域、 および背景領域を含む評価ブロックを 生成する。 ステップ S 7 2 8において、 動きべク トル検出部 7 2 1は、 評価ブロ ックと、 注目フレームの次のフレームのカバードバックダラゥンド領域を示す領 域情報とマッチングをとる。
例えば、 動きべク トル検出部 7 2 1は、 注目フレームの次のフレームの領域情 報のサーチエリア内の、 評価ブロックと同じ大きさの領域について、 評価ブロッ クとの誤差の自乗和を算出し、 誤差の自乗和が最小となるサーチエリア内の領域 を選択する。 ■
ステップ S 7 2 9において、 動きべク トル検出部 7 2 1は、 注目フレームの評 価ブロックの位置、 および注目フレームの次のフレームのマッチングされたカバ ードバックグラウンド領域の位置を基に、 動きベク トルを生成し、 手続きは、 ス テツプ S 7 3 7に進む。
ステップ S 7 2 6において、 注目画素がカバードバックグラウンド領域に属し ないと判定された場合、 ステップ S 7 3 0に進み、 動きベク トル検出部 7 2 1は、 注目フレームの領域情報を基に、 注目画素がアンカバードバックグラウンド領域 に属するか否かを判定する。
ステップ S 7 3 0において、 注目画素がアンカバードバックグラウンド領域に 属すると判定された場合、 ステップ S 7 3 1に進み、 動きベク トル検出部 7 2 1 は、 アンカバードバックグラウンド領域、 前景領域、 および背景領域を含む評価 ブロックを生成する。 ステップ S 7 3 2において、 動きべク トル検出部 7 2 1は、 評価ブロックと、 注目フレームの次のフレームのアンカバードバックグラウンド 領域を示す領域情報とマッチングをとる。
例えば、 動きべク トル検出部 7 2 1は、 注目フレームの次のフレームの領域情 報のサーチエリア内の、 評価ブロックと同じ大きさの領域について、 評価ブロッ クとの誤差の自乗和を算出し、 誤差の自乗和が最小となるサーチエリア内の領域 を選択する。
ステップ S 7 3 3において、 動きべク トル検出部 7 2 1は、 注目フレームの評 価ブロックの位置、 および注目フレームの次のフレームのマッチングされたアン カバードバックグラウンド領域の位置を基に、 動きベク トルを生成し、 手続きは、 ステップ S 7 3 7に進む。
ステップ S 7 3 0において、 注目画素がアンカバードバックダラゥンド領域に 属しないと判定された場合、 注目画素が前景領域に属するので、 ステップ S 7 3 4に進み、 動きべク トル検出部 7 2 1は、 入力画像の注目フレームに、 評価ブロ ックを生成する。 ステップ S 7 3 5において、 動きべク トル検出部 7 2 1は、 注 目フレームの評価ブロックと、 注目フレームの次のフレームの入力画像とのマツ チングをとる。
例えば、 動きべク トル検出部 7 2 1は、 注目フレームの次のフレームの入力画 像のサーチエリア内の、 評価ブロックと同じ大きさの画像について、 評価ブロッ クとの誤差の自乗和を算出し、 誤差の自乗和が最小となるサーチエリア内の画像 を選択する。
ステップ S 7 3 6において、 動きべク トル検出部 7 2 1は、 注目フレームの評 価プロックの位置と、 注目フレームの次のフレームとのマッチングされた画像の 位置とを基に、 動きベク トルを生成し、 ステップ S 7 3 7に進む。
ステップ S 7 3 7において、 動きべク トル検出部 7 2 1は、 注目フレームの全 ての画素について動きべク トルを生成したか否かを判定し、 注目フレームの全て の画素について動きべク トルを生成していないと判定された場合、 ステップ S 7 2 3に戻り、 次の注目画素を選択して、 動きベク トルの生成の処理を繰り返す。 ステップ S 7 3 7において、 注目フレームの全ての画素について動きべク トル を生成したと判定された場合、 ステップ S 7 3 8に進み、 動きベク トル検出部 7 2 1は、 動きべク トルを動き方向選択部 7 2 2に供給すると共に、 動きべク トル を出力する。
ステップ S 7 3 9において、 動き方向選択部 7 2 2は、 動きべク トル検出部 7 2 1から供給された動きベク トルを基に、 動き方向を生成する。 ステップ S 7 4 0において、 動き方向選択部 7 2 2は、 生成した動き方向を出力して、 処理は終 了する。
このように、 動き方向推定部 7 0 1は、 入力画像および領域情報を基に、 動き ベタ トルおよび動き方向を生成することができる。
なお、 動き方向推定部 7 0 1は、 注目フレームと注目フレームの次のフレーム の画像および領域情報を使用して、 動きべク トルおよび動き方向を生成すると説 明したが、 注目フレームと注目フレームの前のフレームの画像および領域情報を 使用して、 動きべク トルおよび動き方向を生成するようにしてもよい。
次に、 混合比算出部 7 0 2による、 混合比の算出の処理を図 7 1のフローチヤ ートを参照して説明する。
ステップ S 7 6 1において、 混合比幅検出部 7 4 1は、 領域特定部 1 0 3から 供給された領域情報を取得する。 ステップ S 7 6 2において、 混合比幅検出部 7 4 1および直線当てはめ部 7 4 2は、 動き方向推定部 7 0 1から供給された動き 方向を取得する。
ステップ S 7 6 3において、 直線当てはめ部 7 4 2は、 注目画素を選択する。 ステップ S 7 6 4において、 直線当てはめ部 7 4 2は、 領域情報を基に、 注目画 素が前景領域に属するか否かを判定し、 注目画素が前景領域に属すると判定され た場合、 ステップ S 7 6 5に進み、 混合比 ひ に 0を設定し、 ステップ S 7 6 9 に進む。
ステップ S 7 6 4において、 注目画素が前景領域に属しないと判定された場合、 ステップ S 7 6 6に進み、 直線当てはめ部 7 4 2は、 領域情報を基に、 注目画素 が背景領域に属するか否かを判定し、 注目画素が背景領域に属すると判定された 場合、 ステップ S 7 6 7に進み、 混合比 に 1を設定し、 ステップ S 7 6 9に 進む。 ステップ S 7 6 6において、 注目画素が背景領域に属しないと判定された場合、 ステップ S 7 6 8に進み、 直線当てはめ部 7 4 2は、 混合領域に属する画素の混 合比 ひ の算出の処理を実行し、 処理は、 ステップ S 7 6 9に進む。 混合領域に 属する画素の混合比 ひ の算出の処理の詳細は、 後述する。
ステップ S 7 6 9において、 直線当てはめ部 7 4 2は、 注目画素に対応させて、 算出された混合比 ひ を記憶する。
ステップ S 7 7 0において、 直線当てはめ部 7 4 2は、 フレーム全体について 混合比ひ を算出したか否かを判定し、 フレーム全体について混合比 ひ を算出し ていないと判定された場合、 ステップ S 7 6 3に戻り、 他の注目画素を選択し、 混合比 の算出の処理を繰り返す。
ステップ S 7 7 0において、 フレーム全体について混合比 ひ を算出したと判 定された場合、 ステップ S 7 7 1に進み、 直線当てはめ部 7 4 2は、 混合比 ひ を出力して、 処理は終了する。
図 7 2のフローチヤ一トを参照して、 混合領域幅検出部 7 4 1および直線当て はめ部 7 4 2が実行する、 ステップ S 7 6 8の処理に対応する、 混合領域に属す る画素の混合比 ひ の算出の処理を説明する。
ステップ S 7 8 1において、 混合領域幅検出部 7 4 1は、 動き方向推定部 7 0 1から供給された動き方向、 および領域特定部 1 0 3から供給された領域情報を 基に、 動きべク トルの動きの方向に沿って、 混合領域の幅を求める。 混合領域幅 検出部 7 4 1は、 混合領域の幅を混合領域幅情報として、 直線当てはめ部 7 4 2 に供給する。
ステップ S 7 8 2において、 直線当てはめ部 7 4 2は、 動き方向に沿って、 注 目画素から、 混合領域の端までの距離を求める。
ステップ S 7 8 3において、 直線当てはめ部 7 4 2は、 動き方向とは反対の方 向に沿って、 注目画素から、 混合領域の端までの距離を求める。
ステップ S 7 8 4において、 直線当てはめ部 7 4 2は、 領域情報、 および混合 領域の幅と、 注目画素から、 混合領域の端までの距離との比を基に、 混合比 ひ を算出して、 処理は終了する。
このように、 混合比算出部 7 0 2は、 領域特定部 1 0 3から供給された領域情 報、 および動き方向推定部 7 0 1から供給された動き方向を基に、 各画素に対応 する特徴量である混合比 ひ を算出することができる。
図 7 3は、 本発明に係る画像処理装置のさらに他の構成を示すブロック図であ る。 図 6 4に示す場合と同様の部分には、 同一の番号を付してあり、 その説明は 省略する。
図 7 3に構成を示す画像処理装置において、 動き方向は、 外部から入力される。 領域特定部 1 0 3は、 入力された画像の画素のそれぞれを、 前景領域、 背景領 域、 または混合領域のいずれかに特定し、 画素毎に前景領域、 背景領域、 または 混合領域のいずれかに属するかを示す領域情報を混合比算出部 7 0 2および前景 背景分離部 1 0 5に供給する。
混合比算出部 7 0 2は、 領域特定部 1 0 3から供給された領域情報、 および外 部から供給された動き方向を基に、 画素毎に混合比 ひ を算出して、 算出した混 合比 ひ を前景背景分離部 1 0 5に供給する。
前景背景分離部 1 0 5は、 領域特定部 1 0 3から供給された領域情報、 および 混合比算出部 7 0 2から供給された混合比 ひ を基に、 前景の成分のみからなる 前景成分画像と、 背景の成分のみから成る背景成分画像とに入力画像を分離して、 前景成分画像および背景成分画像を出力する。
図 7 4のフローチャートを参照して、 図 7 3に構成を示す画像処理装置による、 前景背景の分離の処理を説明する。
ステップ S 8 0 1において、 領域特定部 1 0 3は、 入力画像を基に、 入力画像 の画素毎に前景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカ バードバックグラウンド領域のいずれかに属するかを示す領域情報を生成する領 域特定の処理を実行する。 領域特定部 1 0 3は、 生成した領域情報を混合比算出 部 7 0 2に供給する。
ステップ S 8 0 2において、 混合比算出部 7 0 2は、 外部から入力された動き 方向、 および領域特定部 1 0 3から供給された領域情報を基に、 混合領域に含ま れる画素毎に、 混合比 ひ を算出する。 混合比算出部 1 0 4は、 算出した混合比 a を前景背景分離部 1 0 5に供給する。
ステップ S 8 0 3において、 前景背景分離部 1 0 5は、 領域情報、 および混合 比 ひ を基に、 入力画像から前景の成分および背景の成分を抽出して、 抽出した 前景の成分を基に、 前景成分画像を合成し、 抽出した背景の成分を基に、 背景成 分画像を合成する。 前景背景分離部 1 0 5は、 前景成分画像および背景成分画像 を出力し、 処理は終了する。
このように、 図 7 3に構成を示す画像処理装置は、 前景と背景とを分離するこ とができる。
なお、 動きべク トルに沿った方向で、 混合領域の幅を求めて、 混合領域の端ま での距離を求めるか、 または、 動き方向に沿った方向で、 混合領域の幅を求めて、 混合領域の端までの距離を求めると説明したが、 動きべク トルまたは動き方向に 直交する方向を除く、 所望の方向であれば、 図 5 5または図 7 2を参照して説明 した処理で混合比を算出することができる。 例えば、 動きベク トルまたは動き方 向に平行の方向で、 混合領域の幅を求めて、 混合領域の端までの距離を求めるこ とにより、 図 5 5または図 7 2を参照して説明した処理で混合比を算出すること ができる。 さらに、 動きベク トルまたは動き方向に斜交する方向で、 混合領域の 幅を求めて、 混合領域の端までの距離を求めることにより、 図 5 5または図 7 2 を参照して説明した処理で混合比を算出することができる。
すなわち、 画像データに対応して、 前景オブジェク トを構成する前景オブジェ ク ト成分および背景ォブジェク トを構成する背景オブジェク ト成分が混合されて なる混合領域が特定され、 領域情報が出力され、 混合領域における前景オブジェ ク ト成分と背景ォブジェク ト成分との混合の比率を示す混合比の変化が画素の位 置に対して略直線的であるとして、 領域情報および前景オブジェク トの動き方向 に基づき、 混合比が推定されるようにした場合、 画像における混ざり合いの状態 を知ることが可能となる。 この場合、 1端が前景オブジェク ト成分のみからなる前景領域に位置し、 他の 1端が背景オブジェク ト成分のみからなる背景領域に位置し、 かつ混合領域を横 断する線分上の位置を基に、 線分上の位置に対応する画素の混合比を推定するこ とができる。
また、 前景オブジェク トの動き方向と平行する線分上の位置を基に、 線分上の 位置に対応する画素の混合比を推定することができる。
さらに、 前景オブジェク トの動き方向に斜交する線分上の位置を基に、 線分上 の位置に対応する画素の混合比を推定することができる。
なお、 混合比 Οί は、 画素値に含まれる背景の成分の割合として説明したが、 画素値に含まれる前景の成分の割合としてもよい。
また、 前景となるオブジェク トの動きの方向は左から右として説明したが、 そ の方向に限定されないことは勿論である。
以上においては、 3次元空間と時間軸情報を有する現実空間の画像をビデオ力 メラを用いて 2次元空間と時間軸情報を有する時空間への射影を行った場合を例 としたが、 本発明は、 この例に限らず、 より多くの第 1の次元の第 1の情報を、 より少ない第 2の次元の第 2の情報に射影した場合に、 その射影によって発生す る歪みを補正したり、 有意情報を抽出したり、 またはより自然に画像を合成する 場合に適応することが可能である。
なお、 センサは、 CCDに限らず、 固体撮像素子である、 例えば、 BBD (Bucket Brigade Device) 、 CID (し narge Injection Device) 、 CPD (Charge Priming Device) 、 または CMO (Complementary Mental Oxide Semiconductor) セン サでもよく、 また、 検出素子がマトリ ックス状に配置されているセンサに限らず、 検出素子が 1列に並んでいるセンサでもよい。
本発明の信号処理を行うプログラムを記録した記録媒体は、 図 1に示すように、 コンピュータとは別に、 ユーザにプログラムを提供するために配布される、 プロ グラムが記録されている磁気ディスク 5 1 (フロッピ (登録商標) ディスクを含 む) 、 光ディスク 5 2 (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versati le Di sc)を含む) 、 光磁気ディスク 5 3 (MD (Mi ni- Disc) (商標) を含む) 、 もしくは半導体メモリ 5 4などよりなるパッケージ メディアにより構成されるだけでなく、 コンピュータに予め組み込まれた状態で ユーザに提供される、 プログラムが記録されている ROM 2 2や、 記憶部 2 8に含 まれるハードディスクなどで構成される。
なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなく とも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
第 1の本発明によれば、 画像における混ざり合いの状態を知ることが可能とな る。
第 2の発明によれば、 画像における混ざり合いの状態を知ることが可能となる c

Claims

請求の範囲
1 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理する画像処理装置において、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域と、 前記前景オブジェク ト成分のみからなる前景領域と、 前記背景ォブジ ェク ト成分のみからなる背景領域とからなる非混合領域とを特定する領域特定手 段と、
前記領域情報により特定される、 前記前景オブジェク トの動き方向に基づく所 定方向の前記混合領域の幅と、 注目している注目画素の位置から前記混合領域の 端までの前記所定方向に沿った距離との比率を基に、 前記注目画素の、 前記前景 オブジェク 卜成分と前記背景ォブジ-ク ト成分との混合の比率を示す混合比を推 定する混合比推定手段と
を含むことを特徴とする画像処理装置。
2 . 前記前景オブジェク トの動きベク トルを検出する動きベク トル検出手段を さらに含み、
前記混合比推定手段は、 前記動きべク トルの動き方向に沿って、 前記混合領域 の幅、 および前記注目画素の位置から前記混合領域の端までの距離を検出し、 前 記混合領域の幅と、 前記注目画素の位置から前記混合領域の端までの距離との比 率を基に、 前記混合比を推定する
ことを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 前記前景オブジェク 卜の動き方向を検出する動き方向検出手段をさらに含 み、
前記混合比推定手段は、 前記動き方向に沿って、 前記混合領域の幅、 および前 記注目画素の位置から前記混合領域の端までの距離を検出し、 前記混合領域の幅 と、 前記注目画素の位置から前記混合領域の端までの距離との比率を基に、 前記 混合比を推定する ことを特徴とする請求の範囲第 1項に記載の画像処理装置。
4 . 前記動き方向検出手段は、 領域情報を基に、 前記注目している注目フレー ムにおける混合領域の位置、 および前記注目フレームの近傍の近傍フレームにお ける混合領域の位置を基に、 動きべク トルを生成する動きべク トル生成手段を含 み、
生成した前記動きべク トルを基に、 前記動き方向を検出する
ことを特徴とする請求の範囲第 3項に記載の画像処理装置。
5 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理する画像処理装置の画像処理方法 において、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景ォブジェク ト成分が混合されてなる混 合領域と、 前記前景オブジェク ト成分のみからなる前景領域と、 前記背景ォブジ ェク ト成分のみからなる背景領域とからなる非混合領域とを特定する領域特定ス テツプと、
前記領域情報により特定される、 前記前景ォブジユタ トの動き方向に基づく所 定方向の前記混合領域の幅と、 注目している注目画素の位置から前記混合領域の 端までの前記所定方向に沿った距離との比率を基に、 前記注目画素の、 前記前景 オブジェク ト成分と前記背景オブジェク ト成分との混合の比率を示す混合比を推 定する混合比推定ステップと
を含むことを特徴とする画像処理方法。
6 . 前記前景ォブジェク トの動きべク トルを検出する動きべク トル検出ステツ プをさらに含み、
前記混合比推定ステップにおいて、 前記動きベク トルの動き方向に沿って、 前 記混合領域の幅、 および前記注目画素の位置から前記混合領域の端までの距離が 検出され、 前記混合領域の幅と、 前記注目画素の位置から前記混合領域の端まで の距離との比率を基に、 前記混合比が推定される ことを特徴とする請求の範囲第 5項に記載の画像処理方法。
7 . 前記前景オブジェク トの動き方向を検出する動き方向検出ステップをさら に含み、
前記混合比推定ステップにおいて、 前記動き方向に沿って、 前記混合領域の幅、 および前記注目画素の位置から前記混合領域の端までの距離が検出され、 前記混 合領域の幅と、 前記注目画素の位置から前記混合領域の端までの距離との比率を 基に、 前記混合比が推定される
ことを特徴とする請求の範囲第 5項に記載の画像処理方法。
8 . 前記動き方向検出ステップは、 領域情報を基に、 前記注目している注目フ レームにおける混合領域の位置、 および前記注目フレームの近傍の近傍フレーム における混合領域の位置を基に、 動きべク トルを生成する動きべク トル生成ステ ップを含み、
生成した前記動きベク トルを基に、 前記動き方向を検出する
ことを特徴とする請求の範囲第 7項に記載の画像処理方法。
9 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得された 所定数の画素データからなる画像データを処理する画像処理用のプログラムであ つて、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域と、 前記前景オブジェク ト成分のみからなる前景領域と、 前記背景ォブジ ェク ト成分のみからなる背景領域とからなる非混合領域とを特定する領域特定ス テツプと、
前記領域情報により特定される、 前記前景オブジェク トの動き方向に基づく所 定方向の前記混合領域の幅と、 注目している注目画素の位置から前記混合領域の 端までの前記所定方向に沿った距離との比率を基に、 前記注目画素の、 前記前景 オブジェク ト成分と前記背景オブジェク ト成分との混合の比率を示す混合比を推 定する混合比推定ステップと を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
1 0 . 前記プログラムは、 前記前景オブジェク トの動きべク トルを検出する動 きべク トル検出ステップをさらに含み、
前記混合比推定ステップにおいて、 前記動きベク トルの動き方向に沿って、 前 記混合領域の幅、 および前記注目画素の位置から前記混合領域の端までの距離が 検出され、 前記混合領域の幅と、 前記注目画素の位置から前記混合領域の端まで の距離との比率を基に、 前記混合比が推定される
ことを特徴とする請求の範囲第 9項に記載の記録媒体。
1 1 . 前記プログラムは、 前記前景オブジェク トの動き方向を検出する動き方 向検出ステップをさらに含み、
前記混合比推定ステップにおいて、 前記動き方向に沿って、 前記混合領域の幅、 および前記注目画素の位置から前記混合領域の端までの距離が検出され、 前記混 合領域の幅と、 前記注目画素の位置から前記混合領域の端までの距離との比率を 基に、 前記混合比が推定される
ことを特徴とする請求の範囲第 9項に記載の記録媒体。
1 2 . 前記動き方向検出ステップは、 領域情報を基に、 前記注目している注目 フレームにおける混合領域の位置、 および前記注目フレームの近傍の近傍フレー ムにおける混合領域の位置を基に、 動きべク トルを生成する動きべク トル生成ス テツプを含み、
生成した前記動きべク トルを基に、 前記動き方向を検出する
ことを特徴とする請求の範囲第 1 1項に記載の記録媒体。
1 3 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データからなる画像データを処理するコンピュータに、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域と、 前記前景オブジェク ト成分のみからなる前景領域と、 前記背景ォブジ ク ト成分のみからなる背景領域とからなる非混合領域とを特定する領域特定ス テツプと、
前記領域情報により特定される、 前記前景オブジェク トの動き方向に基づく所 定方向の前記混合領域の幅と、 注目している注目画素の位置から前記混合領域の 端までの前記所定方向に沿った距離との比率を基に、 前記注目画素の、 前記前景 オブジェク ト成分と前記背景オブジェク ト成分との混合の比率を示す混合比を推 定する混合比推定ステップと
を実行させるプログラム。
1 4 . 前記前景オブジェク トの動きべク トルを検出する動きべク トル検出ステ ップをさらに含み、
前記混合比推定ステップにおいて、 前記動きベク トルの動き方向に沿って、 前 記混合領域の幅、 および前記注目画素の位置から前記混合領域の端までの距離が 検出され、 前記混合領域の幅と、 前記注目画素の位置から前記混合領域の端まで の距離との比率を基に、 前記混合比が推定される
ことを特徴とする請求の範囲第 1 3項に記載のプログラム。
1 5 . 前記前景ォブジェク トの動き方向を検出する動き方向検出ステップをさ らに含み、
前記混合比推定ステップにおいて、 前記動き方向に沿って、 前記混合領域の幅、 および前記注目画素の位置から前記混合領域の端までの距離が検出され、 前記混 合領域の幅と、 前記注目画素の位置から前記混合領域の端までの距離との比率を 基に、 前記混合比が推定される
ことを特徴とする請求の範囲第 1 3項に記載のプログラム。
1 6 . 前記動き方向検出ステップは、 領域情報を基に、 前記注目している注目 フレームにおける混合領域の位置、 および前記注目フレームの近傍の近傍フレー ムにおける混合領域の位置を基に、 動きべク トルを生成する動きべク トル生成ス テツプを含み、
生成した前記動きべク トルを基に、 前記動き方向を検出する ことを特徴とする請求の範囲第 1 5項に記載のプログラム。
1 7 . 時間積分効果を有する所定数の画素を有する撮像素子によって撮像され た被写体画像を、 所定数の画素データからなる画像データとして出力する撮像手 段と、
前記画像データに対応して、 前景ォブジェク トを構成する前景ォブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域と、 前記前景オブジェク ト成分のみからなる前景領域と、 前記背景ォブジ エタ ト成分のみからなる背景領域とからなる非混合領域とを特定する領域特定手 段と、
前記領域情報により特定される、 前記前景オブジェク トの動き方向に基づく所 定方向の前記混合領域の幅と、 注目している注目画素の位置から前記混合領域の 端までの前記所定方向に沿った距離との比率を基に、 前記注目画素の、 前記前景 オブジェク ト成分と前記背景オブジェク ト成分との混合の比率を示す混合比を推 定する混合比推定手段と
を含むことを特徴とする撮像装置。
1 8 . 前記前景オブジェク トの動きべク トルを検出する動きべク トル検出手段 をさらに含み、
前記混合比推定手段は、 前記動きベク トルの動き方向に沿って、 前記混合領域 の幅、 および前記注目画素の位置から前記混合領域の端までの距離を検出し、 前 記混合領域の幅と、 前記注目画素の位置から前記混合領域の端までの距離との比 率を基に、 前記混合比を推定する
ことを特徴とする請求の範囲第 1 7項に記載の撮像装置。
1 9 . 前記前景ォブジ ク トの動き方向を検出する動き方向検出手段をさらに 含み、
前記混合比推定手段は、 前記動き方向に沿って、 前記混合領域の幅、 および前 記注目画素の位置から前記混合領域の端までの距離を検出し、 前記混合領域の幅 と、 前記注目画素の位置から前記混合領域の端までの距離との比率を基に、 前記 混合比を推定する
ことを特徴とする請求の範囲第 1 7項に記載の撮像装置。
2 0 . 前記動き方向検出手段は、 領域情報を基に、 前記注目している注目フレ ームにおける混合領域の位置、 および前記注目フレームの近傍の近傍フレームに おける混合領域の位置を基に、 動きべク トルを生成する動きべク トル生成手段を 含み、
生成した前記動きべク トルを基に、 前記動き方向を検出する
ことを特徴とする請求の範囲第 1 9項に記載の撮像装置。
2 1 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データからなる画像データを処理する画像処理装置において、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域情報を出力する領域特定手段と、
前記混合領域における前記前景オブジェク ト成分と前記背景オブジェク ト成分 との混合の比率を示す混合比の変化が前記画素の位匱に対して略直線的であると して、 前記領域情報および前記前景オブジェク トの動き方向に基づき、 前記混合 比を推定する混合比推定手段と
を含むことを特徴とする画像処理装置。
2 2 . 前記混合比推定手段は、 1端が前記前景オブジェク ト成分のみからなる 前景領域に位置し、 他の 1端が前記背景オブジェク ト成分のみからなる背景領域 に位置し、 かつ前記混合領域を横断する線分上の位置を基に、 前記線分上の位置 に対応する前記画素の前記混合比を推定する
ことを特徴とする請求の範囲第 2 1項に記載の画像処理装置。
2 3 . 前記混合比推定手段は、 前記前景オブジェク トの動き方向と平行する前 記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記混合比を推 定する
ことを特徴とする請求の範囲第 2 2項に記載の画像処理装置。
2 4 . 前記混合比推定手段は、 前記前景オブジェク トの動き方向に斜交する前 記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記混合比を推 定する
ことを特徴とする請求の範囲第 2 2項に記載の画像処理装置。
2 5 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データからなる画像データを処理する画像処理方法において、 前記画像データに対応して、 前景オブジェク 卜を構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域情報を出力する領域特定ステツプと、
前記混合領域における前記前景オブジェク ト成分と前記背景オブジェク ト成分 との混合の比率を示す混合比の変化が前記画素の位置に対して略直線的であると して、 前記領域情報および前記前景オブジェク トの動き方向に基づき、 前記混合 比を推定する混合比推定ステップと
を含むことを特徴とする画像処理方法。
2 6 . 前記混合比推定ステップにおいて、 1端が前記前景オブジェク ト成分の みからなる前景領域に位置し、 他の 1端が前記背景オブジェク ト成分のみからな る背景領域に位置し、 かつ前記混合領域を横断する線分上の位置を基に、 前記線 分上の位置に対応する前記画素の前記混合比が推定される
ことを特徴とする請求の範囲第 2 5項に記載の画像処理方法。
2 7 . 前記混合比推定ステップにおいて、 前記前景オブジェク トの動き方向と 平行する前記線分上の位置を基に、 前記線分上の位置に対応する前記 素の前記 混合比が推定される
ことを特徴とする請求の範囲第 2 6項に記載の画像処理方法。
2 8 . 前記混合比推定ステップにおいて、 前記前景オブジェク トの動き方向に 斜交する前記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記 混合比が推定される
ことを特徴とする請求の範囲第 2 6項に記載の画像処理方法。
2 9 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データからなる画像データを処理する画像処理用のプログラムで あって、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域情報を出力する領域特定ステップと、
前記混合領域における前記前景オブジェク ト成分と前記背景オブジェク ト成分 との混合の比率を示す混合比の変化が前記画素の位置に対して略直線的であると して、 前記領域情報および前記前景オブジェク トの動き方向に基づき、 前記混合 比を推定する混合比推定ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
3 0 . 前記混合比推定ステップにおいて、 1端が前記前景オブジェク ト成分の みからなる前景領域に位置し、 他の 1端が前記背景オブジェク ト成分のみからな る背景領域に位置し、 かつ前記混合領域を横断する線分上の位置を基に、 前記線 分上の位置に対応する前記画素の前記混合比が推定される
ことを特徴とする請求の範囲第 2 9項に記載の記録媒体。
3 1 . 前記混合比推定ステップにおいて、 前記前景オブジェク トの動き方向と 平行する前記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記 混合比が推定される
ことを特徴とする請求の範囲第 3 0項に記載の記録媒体。
3 2 . 前記混合比推定ステップにおいて、 前記前景オブジェク トの動き方向に 斜交する前記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記 混合比が推定される
ことを特徴とする請求の範囲第 3 0項に記載の記録媒体。
3 3 . 時間積分効果を有する所定数の画素を有する撮像素子によって取得され た所定数の画素データからなる画像データを処理するコンピュータに、 前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域情報を出力する領域特定ステップと、
前記混合領域における前記前景ォブジェク ト成分と前記背景オブジェク ト成分 との混合の比率を示す混合比の変化が前記画素の位置に対して略直線的であると して、 前記領域情報および前記前景オブジェク トの動き方向に基づき、 前記混合 比を推定する混合比推定ステップと
を実行させるプログラム。
3 4 . 前記混合比推定ステップにおいて、 1端が前記前景オブジェク ト成分の みからなる前景領域に位置し、 他の 1端が前記背景ォブジェク ト成分のみからな る背景領域に位置し、 かつ前記混合領域を横断する線分上の位置を基に、 前記線 分上の位置に対応する前記画素の前記混合比が推定される
ことを特徴とする請求の範囲第 3 3項に記載のプログラム。
3 5 . 前記混合比推定ステップにおいて、 前記前景オブジェク トの動き方向と 平行する前記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記 混合比が推定される
ことを特徴とする請求の範囲第 3 4項に記載のプログラム。
3 6 . 前記混合比推定ステップにおいて、 前記前景オブジェク トの動き方向に 斜交する前記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記 混合比が推定される
ことを特徴とする請求の範囲第 3 4項に記載のプログラム。
3 7 . 時間積分効果を有する所定数の画素を有する撮像素子によって撮像され た被写体画像を、 所定数の画素データからなる画像データとして出力する撮像手 段と、
前記画像データに対応して、 前景オブジェク トを構成する前景オブジェク ト成 分および背景オブジェク トを構成する背景オブジェク ト成分が混合されてなる混 合領域を特定する領域情報を出力する領域特定手段と、 前記混合領域における前記前景ォブジェク ト成分と前記背景オブジェク ト成分 との混合の比率を示す混合比の変化が前記画素の位置に対して略直線的であると して、 前記領域情報および前記前景オブジェク トの動き方向に基づき、 前記混合 比を推定する混合比推定手段と
を含むことを特徴とする撮像装置。
3 8 . 前記混合比推定手段は、 1端が前記前景オブジェク ト成分のみからなる 前景領域に位置し、 他の 1端が前記背景オブジェク ト成分のみからなる背景領域 に位置し、 かつ前記混合領域を横断する線分上の位置を基に、 前記線分上の位置 に対応する前記画素の前記混合比を推定する
ことを特徴とする請求の範囲第 3 7項に記載の撮像装置。
3 9 . 前記混合比推定手段は、 前記前景オブジェク トの動き方向と平行する前 記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記混合比を推 定する
ことを特徴とする請求の範囲第 3 8項に記載の撮像装置。
4 0 . 前記混合比推定手段は、 前記前景オブジェク トの動き方向に斜交する前 記線分上の位置を基に、 前記線分上の位置に対応する前記画素の前記混合比を推 定する
ことを特徴とする請求の範囲第 3 8項に記載の撮像装置。
PCT/JP2002/006383 2001-06-27 2002-06-26 Appareil et procede de traitement d'images et appareil de capture d'images WO2003003305A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE60225285T DE60225285T2 (de) 2001-06-27 2002-06-26 Bildverarbeitungsvorrichtung und -verfahren und bilderfassungsvorrichtung
CA2420025A CA2420025C (en) 2001-06-27 2002-06-26 Image processing apparatus and method, and image pickup apparatus
KR1020037002920A KR100843816B1 (ko) 2001-06-27 2002-06-26 화상 처리 장치 및 방법과 촬상 장치
US10/362,793 US7477289B2 (en) 2001-06-27 2002-06-26 Image processing apparatus and method, and image pickup apparatus
EP02741314A EP1403819B1 (en) 2001-06-27 2002-06-26 Image processing apparatus and method, and image pickup apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001-194608 2001-06-27
JP2001194608A JP4596224B2 (ja) 2001-06-27 2001-06-27 画像処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2003003305A1 true WO2003003305A1 (fr) 2003-01-09

Family

ID=19032712

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/006383 WO2003003305A1 (fr) 2001-06-27 2002-06-26 Appareil et procede de traitement d'images et appareil de capture d'images

Country Status (8)

Country Link
US (1) US7477289B2 (ja)
EP (2) EP1796045B1 (ja)
JP (1) JP4596224B2 (ja)
KR (1) KR100843816B1 (ja)
CN (1) CN1241147C (ja)
CA (1) CA2420025C (ja)
DE (2) DE60233178D1 (ja)
WO (1) WO2003003305A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100966129B1 (ko) * 2002-10-15 2010-06-25 소니 주식회사 메모리 장치
EP1629435A1 (en) * 2003-05-20 2006-03-01 Koninklijke Philips Electronics N.V. Estimating an edge orientation
US20060257029A1 (en) * 2003-05-20 2006-11-16 Gerard De Haan Estimating an edge orientation
US20050283062A1 (en) * 2004-06-22 2005-12-22 Cerner Innovation, Inc. Computerized method and system for associating a portion of a diagnostic image with an electronic record
JP4488804B2 (ja) * 2004-06-23 2010-06-23 株式会社トプコン ステレオ画像の関連付け方法及び3次元データ作成装置
US7430339B2 (en) * 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
WO2006068292A1 (ja) * 2004-12-21 2006-06-29 Sony Corporation 画像処理装置と画像処理方法および画像処理プログラム
KR101211074B1 (ko) * 2004-12-21 2012-12-12 소니 가부시끼가이샤 학습 장치와 학습 방법 및 학습 프로그램
US7702131B2 (en) * 2005-10-13 2010-04-20 Fujifilm Corporation Segmenting images and simulating motion blur using an image sequence
WO2008091207A1 (en) 2007-01-26 2008-07-31 Telefonaktiebolaget Lm Ericsson (Publ) Border region processing in images
JP4991360B2 (ja) * 2007-03-27 2012-08-01 三洋電機株式会社 フレームレート変換装置および映像表示装置
CN101617535B (zh) * 2007-03-28 2011-07-06 富士通株式会社 图像处理装置、图像处理方法
JP2009027446A (ja) * 2007-07-19 2009-02-05 Olympus Corp 画像処理方法および画像処理装置
KR101552475B1 (ko) 2007-11-22 2015-09-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 화상 처리 방법, 화상 표시 시스템, 및 컴퓨터 프로그램
US8687918B2 (en) * 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
US20100245610A1 (en) * 2009-03-31 2010-09-30 Electronics And Telecommunications Research Institute Method and apparatus for processing digital image
JP2011003985A (ja) * 2009-06-16 2011-01-06 Hoya Corp 撮像装置
CN102598646B (zh) * 2009-11-13 2014-05-07 皇家飞利浦电子股份有限公司 3d视频中深度过渡的有效编码
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
JP5771096B2 (ja) * 2011-08-31 2015-08-26 株式会社半導体エネルギー研究所 画像処理方法
JP5787695B2 (ja) 2011-09-28 2015-09-30 株式会社トプコン 画像取得装置
US9014543B1 (en) * 2012-10-23 2015-04-21 Google Inc. Methods and systems configured for processing video frames into animation
US9049403B2 (en) * 2013-01-29 2015-06-02 Electronics For Imaging, Inc. Method and apparatus for high quality printing of non-saturated colored text and lines
CN106027893A (zh) * 2016-05-30 2016-10-12 广东欧珀移动通信有限公司 控制Live Photo生成的方法、装置及电子设备
JP2019207635A (ja) * 2018-05-30 2019-12-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、画像生成方法、プログラム、及び記録媒体
CN111325673B (zh) * 2018-12-14 2023-06-30 瑞昱半导体股份有限公司 影像处理方法与影像处理电路

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) * 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
WO1996036168A1 (fr) * 1995-05-12 1996-11-14 Sony Corporation Dispositif generateur de signaux codes, dispositif de formation d'images, procede de generation de signaux codes et procede de formation d'images
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
JP2001507552A (ja) * 1997-10-29 2001-06-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 隠れた/露出した像部分の動きベクトル予測及び検知
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596203B2 (ja) * 2001-02-19 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2003001456A1 (fr) 2001-06-26 2003-01-03 Sony Corporation Appareil et procede de traitement de l'image, et appareil de prise de vue
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596222B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) * 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
EP0933727A2 (en) * 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190016A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190028A (ja) * 2000-12-21 2002-07-05 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) * 2000-12-21 2002-07-05 Sony Corp 画像処理装置および方法、並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1403819A4 *

Also Published As

Publication number Publication date
EP1403819A4 (en) 2006-11-02
US20040105493A1 (en) 2004-06-03
EP1403819B1 (en) 2008-02-27
DE60225285T2 (de) 2009-03-05
DE60225285D1 (de) 2008-04-10
CN1241147C (zh) 2006-02-08
CA2420025C (en) 2010-10-05
JP4596224B2 (ja) 2010-12-08
EP1403819A1 (en) 2004-03-31
EP1796045B1 (en) 2009-07-29
JP2003016453A (ja) 2003-01-17
EP1796045A2 (en) 2007-06-13
US7477289B2 (en) 2009-01-13
KR20040014974A (ko) 2004-02-18
DE60233178D1 (de) 2009-09-10
CN1473313A (zh) 2004-02-04
CA2420025A1 (en) 2003-02-18
KR100843816B1 (ko) 2008-07-04
EP1796045A3 (en) 2007-09-05

Similar Documents

Publication Publication Date Title
WO2003003305A1 (fr) Appareil et procede de traitement d&#39;images et appareil de capture d&#39;images
JP4596202B2 (ja) 画像処理装置および方法、並びに記録媒体
KR100924401B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 기록 매체 및 촬상 장치
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
JP4596203B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4106874B2 (ja) 画像処理装置および方法、並びに記録媒体
KR20030028817A (ko) 화상 처리 장치 및 방법, 및 촬상 장치
JP2003016452A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596215B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596217B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596209B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4150949B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596218B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4304578B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004302823A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004302822A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2002741314

Country of ref document: EP

Ref document number: 2420025

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1020037002920

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 028027833

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 10362793

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020037002920

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2002741314

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2002741314

Country of ref document: EP