WO2006082967A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2006082967A1
WO2006082967A1 PCT/JP2006/301998 JP2006301998W WO2006082967A1 WO 2006082967 A1 WO2006082967 A1 WO 2006082967A1 JP 2006301998 W JP2006301998 W JP 2006301998W WO 2006082967 A1 WO2006082967 A1 WO 2006082967A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
unit
feature point
information
subject
Prior art date
Application number
PCT/JP2006/301998
Other languages
English (en)
French (fr)
Inventor
Kenichi Honjo
Kyoichi Miyazaki
Mitsuyoshi Okamoto
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2007501666A priority Critical patent/JP4245185B2/ja
Publication of WO2006082967A1 publication Critical patent/WO2006082967A1/ja
Priority to US12/832,617 priority patent/US20100277636A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur

Definitions

  • the present invention relates to an imaging apparatus such as a digital still camera and a digital video camera, and more particularly to an imaging apparatus such as a digital still camera and a digital video camera having an autofocus function.
  • imaging devices such as digital still cameras and digital video cameras equipped with an imaging device such as a CCD or a CMOS are explosively widespread.
  • these imaging devices detect an in-focus state based on an image signal of a subject, and move a focus lens group included in a photographing optical system in the optical axis direction based on a detection result, thereby performing autofocus control.
  • Those that do are the mainstream.
  • Patent Document 1 describes an autofocus device that is applied to an imaging device and performs force adjustment.
  • the autofocus device divides an image signal of a subject into a plurality of focus areas, counts the number of skin color pixels included in each focus area, and specifies a focus area for focus adjustment.
  • the conventional autofocus device described in Patent Document 1 assumes a person as a main subject.
  • the autofocus device performs force control based on the skin color pixels, so that the focus area follows the person and can always accurately focus on the person.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-37733
  • the conventional autofocus device described in Patent Document 1 assumes that force tracking is performed following a person, and the area following the focus is displayed with a marker or the like. Or select and display the medium power of multiple focus areas.
  • the position of the marker displayed on the monitor screen before shooting or the position of the selected focus area changes little by little due to the shake of the autofocus device itself. There is a problem that it is difficult to see. In particular, this effect becomes significant when imaging at high magnification.
  • an object of the present invention is to provide an imaging apparatus that can perform focus adjustment on a moving subject and can prevent unnecessary fluctuation of a focus area to be displayed. .
  • An imaging apparatus that outputs an electrical image signal of a subject, and includes an imaging optical system that includes a focus lens group for performing focus adjustment and forms an optical image of the subject, and an optical image of the subject In the first area group including at least one area out of a plurality of areas, an image sensor that captures images and converts them into electrical image signals, an image dividing unit that divides the image signals into a plurality of areas, and a plurality of areas.
  • a focus information calculation unit that calculates focus information of the imaging optical system, a lens drive control unit that drives and controls the focus lens group in the optical axis direction based on the focus information, and at least one of a plurality of areas.
  • a feature point extraction unit that extracts feature points of a subject within a second area group including one area and outputs the feature point position information indicating the position of the feature point, and a temporal vibration frequency of the feature point position information Extract low-frequency components of Comprising a low-pass filter which outputs the position information, based on the extracted position information, it calculates the position of the second area group to be displayed, and an area selection unit for outputting as display position information.
  • the present invention it is possible to provide an imaging apparatus capable of performing focus adjustment on a moving subject and preventing unnecessary fluctuations in the focus area to be displayed.
  • FIG. 1 is a block diagram of an imaging apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing display positions of area frames displayed on the display unit 17.
  • FIG. 3 is a schematic view of the back surface of the imaging device main body according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing the operation of the imaging apparatus in the reference color information setting process.
  • FIG. 5 is an overview of the display unit 17 in which a subject is projected.
  • Fig. 6 is an overview of the display unit 17 in which the subject and the area frame are projected in the first embodiment of the present invention.
  • FIG. 7 is a calculation formula for hue and saturation information in the first embodiment.
  • FIG. 8 is a chart of hue and saturation information in the first embodiment.
  • FIG. 9 is a chart of hue and saturation information showing reference color information and reference vicinity region 1 in the first embodiment.
  • FIG. 10 is a flowchart showing the operation of the imaging apparatus in the focus follow-up imaging process.
  • FIG. 11A is an overview diagram of display unit 17 in which the subject and the AF area frame in Embodiment 1 are projected.
  • FIG. 11B is an overview of the display unit 17 in which the subject and the AF area frame in Embodiment 1 are projected.
  • FIG. 11C is an overview diagram of display unit 17 in which the subject and the AF area frame in Embodiment 1 are projected.
  • FIG. 11D is an overview of the display unit 17 in which the subject and the AF area frame in Embodiment 1 are projected.
  • FIG. 12 schematically shows the movement of the unit areas Bla to Bld in FIGS. FIG. 12
  • FIG. 13 is a diagram showing the coordinates of feature points calculated by a feature point position calculation unit.
  • FIG. 14A is a diagram showing the coordinate relationship between the display area frame displayed on the display unit 17 and the feature points.
  • FIG. 14B is a diagram showing the coordinate relationship between the display area frame displayed on the display unit 17 and the feature points.
  • FIG. 15 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 2 of the present invention.
  • FIG. 16 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 4 of the present invention.
  • FIG. 17 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 5 of the present invention.
  • FIG. 18 is a flowchart showing an operation in focus follow-up imaging processing of the imaging apparatus according to the fifth embodiment.
  • FIG. 19 is a block diagram showing a configuration of an imaging apparatus according to Embodiment 6 of the present invention.
  • FIG. 20 is a flowchart showing operations in focus follow-up imaging processing of the imaging apparatus according to Embodiment 6.
  • FIG. 21 is a diagram showing the coordinates of feature points calculated by a feature point position calculation unit.
  • FIG. 22 is an overview of the display unit 17 on which an AF area frame is displayed in the sixth embodiment.
  • FIG. 23A is an overview of the display unit 17 in which the subject and the area frame according to the seventh embodiment are projected.
  • FIG. 23B is an overview of the display unit 17 in which the subject and the area frame according to the seventh embodiment are projected.
  • FIG. 23C shows a display unit 17 in which a subject and an area frame according to Embodiment 7 are projected.
  • FIG. 23C shows a display unit 17 in which a subject and an area frame according to Embodiment 7 are projected.
  • FIG. 23D is an overview of the display unit 17 in which the subject and the area frame according to the seventh embodiment are projected.
  • FIG. 24 is a block diagram showing details of a low-pass filter 36 according to Embodiment 7.
  • FIG. 25A is an input signal waveform of low-pass filter 36 according to Embodiment 7.
  • FIG. 25B is an output signal waveform of low-pass filter 36 according to Embodiment 7.
  • FIG. 26 is a graph showing the relationship between the cut-off frequency fc and the image blur evaluation point of the low-pass filter 36 according to the seventh embodiment.
  • FIG. 1 is a block diagram of the imaging apparatus according to the first embodiment of the present invention.
  • the imaging apparatus according to the first embodiment includes a lens barrel 11, a zoom lens system 12 and a focus lens 13 that are imaging optical systems, a CCD 14 that is an imaging element, an image processing unit 15, an image memory 16, and a display.
  • a unit 17, an operation unit 19, a lens driving unit 21, and a system controller 30 are included.
  • the lens barrel 11 holds a zoom lens system 12 inside.
  • the zoom lens system 12 and the focus lens 13 are imaging optical systems that form an optical image of a subject so that the magnification can be changed.
  • the imaging optical system includes, in order from the subject side, a zoom lens group 12a and a zoom lens group 12b that move along the optical axis at the time of zooming, and a focus lens that moves along the optical axis to adjust the focus state 13 It consists of.
  • the CCD 14 is an image sensor that captures an optical image formed by the zoom lens system 12 at a predetermined timing, converts it into an electrical image signal, and outputs it.
  • the image processing unit 15 is a processing unit that performs predetermined image processing such as white balance correction and ⁇ correction on the image signal output from the CCD 14.
  • the image memory 16 temporarily stores the image signal output from the image processing unit 15.
  • the display unit 17 is typically a liquid crystal display, and will be described later with a system controller 30. Based on the powerful command, the image signal output from the CCD 14 or the image signal stored in the image memory 16 is input via the image processing unit 15, and this image signal is displayed to the user as a visible image.
  • the image processing unit 15 can bidirectionally access a memory force 18 that can be attached and detached by a user.
  • the memory card 18 stores an image signal output from the CCD 14 or an image signal stored in the image memory 16 via the image processing unit 15 based on a command from the system controller 30 described later, The stored image signal is output to the image memory 16 via the image processing unit 15 and temporarily stored.
  • the operation unit 19 is provided on the outside of the imaging apparatus main body, and is a button used by the user to set or operate the imaging apparatus main body. Although the operation unit 19 includes a plurality of operation buttons, details will be described later with reference to FIG.
  • the lens driving unit 21 outputs a driving signal for driving the focus lens 13 in the optical axis direction (A direction or B direction) based on a command from a lens position control unit 33 of the system controller 30 described later.
  • the lens driving unit 21 also has a function of driving the zoom lens 12 in the optical axis direction by a user operating a zoom lever (not shown).
  • the system controller 30 includes an image division unit 31, a focusing information calculation unit 32, a lens position control unit 33, a feature point extraction unit 34, a feature point position calculation unit 35, and a low-pass filter 36. And an AF area selection unit 37 and a unit area selection unit 40.
  • the image dividing unit 31 performs a process of dividing the image signal output from the image memory 16 into a plurality of unit areas.
  • the focus information calculation unit 32 calculates the defocus amount from the image signal divided into a plurality of unit areas by the image division unit 31 based on the contrast information of each unit area and the position information of the focus lens 13. Calculate.
  • the focusing information calculation unit 32 calculates the defocus amount in the first area group including at least one unit area.
  • the first area group is composed of a minimum unit area group that performs a process of extracting a feature point of a subject to be described later and a process of calculating a defocus amount.
  • the lens position control unit 33 generates a control signal for controlling the position of the focus lens 13 based on the defocus amount output from the focusing information calculation unit 32, and the lens driving unit Output to 21. Further, the lens position control unit 33 outputs position information when the lens driving unit 21 drives the focus lens 13 to the in-focus state calculation unit 32. At this time, the focus state calculation unit 32 can calculate the defocus amount from the position information of the focus lens 13 and the contrast information.
  • the feature point extraction unit 34 also extracts the feature points of each unit area from the image signal power divided into a plurality of unit areas by the image division unit 31.
  • the feature point extraction unit 34 calculates color information as the feature points of each unit area, and outputs the calculated color information to the feature point position calculation unit 35.
  • the feature points are extracted from the second area group including at least one unit area.
  • the area from which the feature points are extracted is output from an AF area selection unit 37 described later. In the following description, it is determined by display position information indicating the range of the AF area.
  • the feature point extraction unit 34 Based on the display position information indicating the range of the feature point setting area output from the AF area selection unit 37 described later, the feature point extraction unit 34 includes the range of the feature point setting area among the image signals divided into unit areas. Color information is calculated as a feature point of each unit area included in the image and output to the feature point information setting unit 41.
  • the feature point information setting unit 41 calculates and stores the color information of the unit area selected by the user from the color information of each unit area output from the feature point extraction unit 34, and stores the feature point information. Perform the setting process.
  • the feature point information setting unit 41 includes a non-volatile memory, and can store the reference color information once stored even when the power of the imaging apparatus main body is turned off.
  • the feature point information setting unit 41 reads out the stored color information and outputs the stored color information to the feature point position calculation unit 35 when performing the focus following imaging process.
  • the feature point position calculation unit 35 compares the feature points of each unit area output from the feature point extraction unit 34 with the feature points output from the feature point information setting unit 41 and finds a position that substantially matches. Calculate. In the present embodiment, the feature point position calculation unit 35 compares the color information of each unit area with the color information output from the feature point information setting unit 41, and calculates a substantially matching position. The feature point position calculation unit 35 outputs the feature point position information obtained by the calculation to the low-pass filter 36 and the unit area selection unit 40.
  • the feature point position information is information indicating coordinates, for example.
  • the low-pass filter 36 is the feature point position information output from the feature point position calculation unit 35. By removing the high-frequency components, the low-frequency components of the temporal vibration frequency of the feature point position information are extracted and output. For example, a low-pass filter adds feature point position information and outputs an average value thereof, or a moving average that outputs an average value of feature point position information obtained within a certain period of time. Extracts low frequency components of position information. The low-pass filter 36 outputs the extracted low-frequency component value to the AF area selection unit 37 as extraction position information.
  • the AF area selection unit 37 generates display position information indicating the position of the AF area to be displayed on the display unit 17 based on the extraction position information output from the low-pass filter 36, and the feature point extraction unit 34 and display unit 17.
  • the AF area selection unit 37 reads the default display position information stored in advance in a memory (not shown) and outputs it to the feature point extraction unit 34 and the display unit 17 when the AF area is displayed for the first time in the focus tracking imaging process. To do.
  • the AF area selection unit 37 reads out default display position information stored in advance in a memory, not shown. Output to the feature point extraction unit 34 and the display unit 17.
  • the unit area selection unit 40 selects a unit area existing at the position indicated by the feature point position information based on the feature point position information output from the feature point position calculation unit 35. For example, when the feature point position information is information indicating coordinates, the unit area selection unit 40 selects a unit area including the coordinates output from the feature point position calculation unit 35. Then, the unit area selection unit 40 causes the display unit 17 to display a unit area frame surrounding the selected unit area.
  • FIG. 2 is a diagram showing an area frame displayed on the display unit 17.
  • FIG. 2 shows an example in which an image signal to be displayed on the display unit 17 is divided into 18 parts in the horizontal direction (X direction) and 13 parts in the vertical direction (y direction).
  • the image signal is divided into 18 ⁇ 13 unit areas, and the display unit 17 displays unit area frames that respectively surround the 18 ⁇ 13 unit areas.
  • a unit area BO represents one of unit areas for performing a subject feature point extraction process and a focus information calculation process, which will be described later, and is represented by coordinates (10, 7) in this example.
  • the unit area selector 40 does not necessarily display 18 X 13 unit area frames. Only the unit area frame surrounding the selected unit area may be displayed. For example, if you want to display all the area frames, you can make the unit area frame lines thinner or lighter, and use color lines to make the display 17 easier to see.
  • an AF area frame surrounding an AF area AO formed of at least one unit area is displayed on the display unit 17.
  • the AF area AO is an area where feature points are extracted in the focus tracking imaging process of the subject.
  • FIG. 3 is a schematic view of the back surface of the imaging device main body according to Embodiment 1 of the present invention.
  • the imaging apparatus according to the first embodiment includes an imaging apparatus main body 10, a display unit 17, an operation unit 19, and a finder 10a.
  • the viewfinder 10a is an optical system that optically guides an image of a subject to the user's pupil.
  • the display unit 17 is the liquid crystal display described above, and displays the captured image signal as a visible image to the user.
  • the operation unit 19 includes a shutter button 19a, a cursor key 19b, an enter button 19c, and a menu button 19d.
  • the shutter button 19a starts the focus follow-up imaging process when pressed halfway by the user, and performs an operation of storing an image captured when fully pressed by the user in the memory card.
  • the cursor key 19b is operated to select menu force items and contents of various operation modes displayed on the display unit 17.
  • the determination button 19c is operated to determine the content selected by the cursor key 19b.
  • the menu button 19d is operated to display a menu of various general operation modes of the imaging apparatus main body.
  • the items of the various operation mode menus include whether or not to start the feature point information (setting feature point information) of the captured image signal on the display unit 17 described later.
  • the menu button 19d When the user operates the menu button 19d to display a menu related to the start of the feature point information setting process on the display unit 17, the cursor key 19b accepts selection of the content by the operation by the user.
  • the feature point information setting process is started by the feature point information setting unit 41.
  • FIG. 4 is a flowchart showing the operation of the imaging apparatus in the feature point information setting process. The flowchart shown in FIG. 4 shows the operation flow of a program operating on the system controller 30.
  • FIG. 5 is an overview of the display unit 17 in which the subject is projected.
  • FIG. 5 shows an example in which the subject P2 is projected on the display unit 17.
  • FIG. 6 is an overview of the display unit 17 in which the subject and the area frame are shown in the first embodiment of the present invention.
  • FIG. 6 shows an example in which 18 ⁇ 13 unit area frames are displayed on the subject P2.
  • step S 101 the image signal captured by the CCD 14 is output from the image processing unit 15 and a visible image is displayed on the display unit 17.
  • the unit area selection unit 40 displays the unit area frame on the display unit 17. At this time, the image displayed on the display unit 17 is in a display state in which the visible image and the unit area frame are superimposed as shown in FIG.
  • An image signal input from the image memory 16 to the image dividing unit 31 of the system controller 30 is divided for each unit area.
  • step S102 the process waits for an input as to whether or not the feature point setting area C1 has been selected.
  • the feature point setting area C1 is used for setting feature points.
  • the AF area selection unit 37 outputs display position information indicating the range of the feature point setting area C 1 to the display unit 17 and causes the display unit 17 to display a feature point setting area frame.
  • a specific area (feature point setting area C1) is displayed with a thick frame to indicate that it can be selected.
  • the user can move the bold frame area with the cursor keys 19b. For example, when the user moves the thick frame area and presses the enter button 19c, the feature point setting area C1 shown in FIG. 6 is selected, and the process proceeds to step S103.
  • step S103 the feature point extraction unit 34 calculates the color information of the divided image displayed in the selected feature point setting area C1, and proceeds to the process of step S104.
  • step S104 the feature point information setting unit 41 stores the calculated color information, and ends the feature point information setting process.
  • FIG. 7 is a calculation formula for hue and saturation information in the first embodiment. The following steps The calculation principle of the hue and saturation information of the feature point extraction unit 34 described in S103 will be described.
  • the image signal is divided into red (hereinafter referred to as “R”), green (hereinafter referred to as “G”), and blue (hereinafter referred to as “B”). .
  • the calculation of hue and saturation information is executed by the feature point extraction unit 34.
  • the feature point extraction unit 34 calculates the maximum values of R, G, and B for the divided image signal output from the image division unit 31 (hereinafter referred to as the divided image signal).
  • the maximum value is V (Equation 1).
  • the feature point extraction unit 34 obtains a minimum value for the divided image signal output from the image division unit 31, and subtracts the obtained minimum value from V to obtain d (Equation 2).
  • the feature point extraction unit 34 obtains the saturation S from V and d (Equation 3).
  • the predetermined processing means that the hue H is obtained from Equation 5 when equal to the maximum value force 3 ⁇ 4 of R, G, B, and the hue H is obtained according to Equation 6 when equal to G, and equal to B. In this case, the hue H is obtained by Equation 7.
  • the feature point extraction unit 34 adds 360 to convert it to a positive value (Equation 8). As described above, the feature point extraction unit 34 calculates the hue and saturation information of the divided image signal by calculation.
  • FIG. 8 is a chart of hue and saturation information in the first embodiment.
  • hue H corresponds to the rotation direction and is represented by a value of 0 to 359 along the rotation direction.
  • the feature point extraction unit 34 calculates the saturation and hue of the divided image signal.
  • the reference color information including the calculated saturation and hue is output and stored as feature point information to the feature point information setting unit 41. Next, the reference neighborhood area set adjacent to the reference color information is displayed. And explain.
  • the reference color information calculated by the feature point extraction unit 34 is stored in the feature point information setting unit 41, and used as a reference to determine color information of a subject to be referred to and imaged at any time.
  • the captured color information may slightly change depending on factors such as illumination light and exposure time. Therefore, when comparing the reference color information with the color information of the subject to be imaged, it is desirable to determine the identity by giving the reference color information a certain tolerance. This certain allowable range of reference color information is called the reference neighborhood area.
  • FIG. 9 is a chart of hue and saturation information showing the reference color information and the reference neighboring area 1 in the first embodiment.
  • points plotted as reference color information correspond to the color information stored in the feature point information setting unit 41.
  • the force in which the allowable range of hue is uniformly set is not limited to this.
  • the reference range can be accurately defined even when the imaging device is used in a dark place by correcting the color information range that is referenced based on the hue information of the light source. It becomes possible. For example, in the case of a red auxiliary light source using LEDs or the like, correction can be made by shifting HI in the direction of 0.
  • FIG. 10 is a flowchart showing the operation of the imaging apparatus in the focus tracking imaging process.
  • the flowchart shown in FIG. 10 shows an operation flow of a program operating on the system controller 30.
  • FIG. 11 is an overview of the display unit 17 in which the subject and the AF area frame in the first embodiment are projected.
  • Figures 11A to 11D show 18 x 13 unit area frames and AF area frame (area A1) on subject P1. ) Is displayed.
  • 11A to 11D show how the subject P1 moves on the display unit 17 each time lZ30 [s] elapses.
  • the unit area frame in which the feature points of the subject extracted by the feature point extraction unit 34 are moved in the order of area Bla, area Blb, area Blc, and area Bid.
  • the shutter button 19a is half-pressed by the user, the focus follow-up imaging process is started.
  • step S201 the display unit 17 displays a visible image and an AF area frame. Specifically, the display unit 17 displays an image signal captured by the CCD 14 and subjected to predetermined image processing by the image processing unit 15 as a visible image. The image signal is divided into 18 ⁇ 13 unit areas by the image dividing unit 31, and an AF area A1 is formed with 7 ⁇ 5 unit areas. The AF area frame surrounding the AF area A1 is displayed over the image signal. At this time, as shown in FIG. 11A, the display unit 17 is in a display state in which the visible image and the AF area frame are superimposed. In Fig. 11A, the force unit area frame that also displays the unit area frame should not be displayed.
  • step S202 it is determined whether or not the center coordinates of the AF area A1 are outside the predetermined range of the display unit 17. If the center coordinates of the AF area A1 are outside the predetermined range, the AF area frame will be displayed outside the screen.
  • the predetermined range is, for example, a range including coordinates near the center of the display unit 17. For example, in FIGS. 11A to 11D, the coordinates (3, 2), (14, 2), (14, 10), ( 3, 10).
  • step S203 the center coordinate of the AF area A1 is reset to default in step S203.
  • the center coordinates of the AF area A1 are moved to the coordinates (8, 6) which are the center coordinates of the display unit 17 shown in FIG.
  • step S201 the display unit 17 displays the visible image and the AF area frame.
  • the process proceeds to step S204.
  • step S204 the unit area selection unit 40 determines whether or not there is a feature point in the AF area A1. Specifically, based on the reference color information stored in the feature point information setting unit 41, the reference neighborhood region is calculated by the method described in FIG. 9, and each area output from the feature point extraction unit 34 is calculated. Whether the color information is within the reference neighborhood It is. If there is a feature point, that is, if there is an area having color information close to the reference color information that is the feature point information, the process proceeds to step S205. On the other hand, if the feature point is strong, that is, if an area having color information close to the reference color information is strong, the process proceeds to step S208.
  • the image dividing unit 31 outputs the image signal divided into 18 ⁇ 13 unit areas to the feature point extracting unit 34 and the focus information calculating unit 32. Based on the display position information information output from the AF area selection unit 37, the feature point extraction unit 34 is used as a feature point of each unit area included in the range of the AF area A1 in the image signal divided into unit areas. Color information is calculated.
  • the area Bla extracted as a feature point is represented by coordinates (5, 6).
  • the area Bib extracted as a feature point is represented by coordinates (10, 5).
  • the area Blc extracted as a feature point is represented by coordinates (8, 4).
  • the area Bid extracted as a feature point is represented by coordinates (11, 8).
  • FIG. 12 is a diagram schematically showing the movement of the unit areas Bla to Bld in FIGS. 11A to 11D. 11A, FIG. 11B, FIG. 11C, and FIG. 1
  • the unit area frame from which the feature points are extracted moves in the order shown in FIG.
  • the display unit 17 is in the state illustrated in FIG. 11D will be described as an example.
  • a low frequency component is also extracted from the feature point position information force.
  • the low-pass filter 36 calculates the average of the coordinates of the current feature point (area Bid) and the previous feature point (area Blc) of the selected unit areas (areas Bla to Bld). And output as extracted position information.
  • step S206 the display position of AF area A1 is selected based on the extracted position information.
  • the AF area selection unit 37 selects the display position of the AF area A1, outputs the display position information, and causes the display unit 17 to display the AF area frame A1.
  • the defocus amount is calculated in the unit area (area Bid) selected by the unit area selection unit 40.
  • the focusing information calculation unit 32 calculates the contrast of the image signal power of each unit area selected by the unit area selection unit 40 and calculates the defocus amount to the position where the contrast reaches a peak. More specifically, the defocus amount is calculated from the focus information calculation unit 32 to the lens position control unit 33.
  • the lens position control unit 33 causes the lens driving unit 21 to drive the focus lens 13 in the A direction or the B direction, and sends the position information of the focus lens 13 to the focusing information calculation unit 32.
  • the defocus amount is calculated from the position of the focus lens and the current position where the contrast information power for which the position information of the focus lens 13 and the image signal power are also calculated has the highest contrast value.
  • step S207 focusing is performed in the unit area (for example, area Bid) selected in step S207. Specifically, the defocus amount calculated by the focus information calculation unit 32 is sent to the lens position control unit 33, and the lens position control unit 33 determines the focus lens based on this defocus amount! Drive 13 to focus on the subject. Then, the process proceeds to step S209.
  • the unit area for example, area Bid
  • step S204 if it is determined in step S204 that there is no feature point in the AF area (area A1), the focus information calculation unit 32, lens position control unit 33, and lens driving unit 21 perform focusing in step S208.
  • the focus information calculation unit 32 calculates the focus lens position information and the contrast signal that also generates the image signal force for all areas in the AF area.
  • the position of the focus lens 13 where the contrast value is the highest is calculated.
  • the defocus amount is calculated from the position of the focus lens 13 having the highest contrast value and the current position.
  • step S209 the focus lens 13 is moved by the lens position control unit 33 and the lens drive unit 21 based on the defocus amount obtained by the focus information calculation unit 32 in the process of step S207 or step S208.
  • the operation of focusing in the selected area is performed, and the process proceeds to the next step S210.
  • step S208 the defocus amount of the closest area is selected from the defocus amounts obtained in all areas in area A1, and the closest area is focused in step S209.
  • the defocus amount may be selected with priority given to the area near the center, and the area near the center may be focused in step S209.
  • step S210 it is determined whether or not the shutter button 19a has been fully pressed. If the shutter button 19a has been fully pressed, the process proceeds to the next step S211. When the shutter button 19a is released, all the above processes are performed again.
  • step S211 the shutter button 19 At the timing when a is fully pressed, based on the command from the system controller 30, the image processing that stores the image signal output from the image memory 16 or the image processing unit 15 in the memory card is performed, and the focus follow-up imaging processing is performed. Terminate.
  • FIG. 13 is a diagram showing the coordinates of feature points calculated by the feature point position calculation unit 35.
  • the graph shown in the upper part of FIG. 13 is a graph showing the change over time in the X direction of the unit area where the feature points exist.
  • the vertical axis represents the X coordinate of the unit area where the feature point exists in the display unit 17, and the horizontal axis represents time t.
  • the waveform Wxl is a waveform showing the temporal change of the position in the X direction among the feature point position information output from the feature point position calculation unit 35.
  • Waveform Wx2 is a waveform showing the temporal change in position in the X direction in the extracted position information output from low-pass filter 36. In this way, by extracting the low frequency component of Wxl, it is possible to generate a waveform with less variation than Wxl.
  • the graph shown in the lower part of FIG. 13 is a graph showing the temporal change in the y direction of the unit area where the feature points exist.
  • the vertical axis represents the y coordinate of the unit area where the feature point exists in the display unit 17, and the horizontal axis represents time t.
  • the waveform Wyl is a waveform indicating the temporal change in the position in the y direction in the feature point position information output from the feature point position calculation unit 35.
  • Waveform Wy2 is a waveform showing the temporal change in position in the y direction in the extracted position information output from low-pass filter 36. In this way, by extracting the low-frequency component of Wy 1, it is possible to generate a waveform with less fluctuation compared to Wyl.
  • the feature point position information of the unit area is plotted at intervals of Ts for performing the focus information calculation process or the feature point extraction process.
  • FIG. 14 is a diagram showing an overview of the display unit 17 on which the AF area frame and the unit area frame are displayed. is there.
  • the coordinates of the subject feature points described with reference to FIGS. 11 and 13 change greatly in the order of area Bla, area Blb, area Blc, and area Bid.
  • the image displayed on the display unit is updated. Since the position of the displayed unit area changes every lZ30 [s], the screen becomes very difficult to see.
  • the imaging apparatus covers one or more unit areas that do not display only the unit areas (areas Bla to Bld) from which the feature points of these subjects are extracted.
  • the size of the area A1 that is determined according to the low-frequency components of the X-coordinate and y-coordinate of the area where the feature points exist output from the low-pass filter 36 here, 7 x 5 size (including unit area) is set and displayed on display unit 17. Therefore, as shown in Fig. 14A, the AF area (area A1) is kept in a stable position even when the position of the feature point of the subject changes in small increments in the order of areas Bla, Blb, Blc, and Bid. It can be displayed.
  • the unit area (area B2a to B2d) from which the feature point of the subject is extracted may be lost.
  • Area A2 is set and displayed so as to include this area as a range. Therefore, when the image pickup device body is moved in the lower left direction while the AF area is displayed at the center of the display unit 17 (the state shown in FIG. 14A), the AF area displayed on the display unit 17 is slowly moved upward to the right. And move from FIG. 14A to the state of FIG. 14B. This makes it possible to follow the subject and clearly indicate that it is displayed, and to display it as an AF area for easy viewing.
  • the position of the displayed AF area does not change in small increments, so that the range in which the subject is captured can be easily displayed on the screen.
  • An imaging device with high operability can be provided.
  • the control information is calculated within the minimum necessary AF area, the load on the calculation process is reduced. Therefore, the function of the imaging device can be improved. Also special Since the color information of the subject used as the point can be arbitrarily set by the user, the function of the imaging apparatus can be further improved.
  • the center coordinate of the AF area when the center coordinate of the AF area is outside the predetermined range, the center coordinate of the AF area is reset to the default, and the AF area frame is moved near the center of the screen.
  • the imaging device is a digital still camera or digital video camera, in general, when the subject moves to the edge of the screen, the user positions the imaging device so that the subject is projected near the center of the screen. Change. Therefore, when the center coordinate of the AF area is outside the predetermined range, the AF area display position can be quickly moved to the vicinity of the center of the screen by resetting the center coordinates of the AF area to the default.
  • the image dividing unit divides the image signal into 18 ⁇ 13 unit areas and the display unit displays 18 ⁇ 13 unit area frames as an example.
  • the setting of the unit area is arbitrary and may be set as appropriate.
  • some unit areas may be combined into a unit area. In that case, a plurality of unit areas may overlap each other.
  • the example in which the feature point information is calculated and stored in 2 ⁇ 2 area frames has been described, but the setting of the size and position of the area frame is arbitrary.
  • the image pickup apparatus main body may make it possible to store some reference color information as feature point information, such as skin color.
  • feature point information is stored in advance in a storage device such as a memory provided in the imaging device.
  • the feature point extraction unit 34 extracts feature points based on the feature point information stored in advance in the memory when extracting the feature points.
  • the image pickup apparatus may or may not include the feature point information setting unit 41.
  • the force used for focus tracking imaging processing described with respect to the example in which the frame surrounding the AF area used for focus tracking is displayed as an AF area frame is not necessarily the same as the area to be displayed. There is no need to do it.
  • focus information calculation processing and feature point extraction processing may be performed in all areas other than the AF area.
  • the area of the AF area frame to be displayed is preferably larger than the area of the area where the focus information is calculated.
  • the display position of the AF area that is displayed first at the start of the focus follow-up process and the display position of the AF area when the center coordinate is outside the predetermined range The default display position of the force AF area described in the example near the center of the screen is not limited to this. For example, in a surveillance camera, the subject often appears at the edge of the screen. Therefore, in such a case, use the default display position of the AF area as the edge of the screen.
  • the imaging device uses color information when extracting feature points.
  • the imaging device according to the present embodiment relates to luminance when extracting feature points. It is characterized by using information.
  • FIG. 15 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 2 of the present invention.
  • the imaging apparatus according to Embodiment 2 has the same schematic configuration as that of the imaging apparatus according to Embodiment 1, and therefore, the same reference numerals are assigned to components that function in the same manner as in FIG. 1, and detailed description thereof is omitted. To do.
  • the system controller 30a shown in FIG. 15 has the feature point extraction unit 34 and the feature point information setting unit 41 omitted as compared with the system controller 30 provided in the imaging apparatus according to Embodiment 1 shown in FIG. Is different. Further, in the system controller 30a shown in FIG. 15, since the operations of the image dividing unit and the feature point position calculating unit are different from those in the first embodiment, the image dividing unit and the feature point position calculating unit in the present embodiment are different from those in the embodiment. In order to distinguish from the image dividing unit 31 and the feature point position calculating unit 35 in FIG. 1, they are referred to as an image dividing unit 31a and a feature point position calculating unit 35a, respectively.
  • the image dividing unit 31a outputs the image signal divided for each unit area to the focusing information calculating unit 32 and the feature point position calculating unit 35a.
  • the feature point position calculation unit 35a includes feature points based on information on luminance of each unit area (hereinafter referred to as luminance information) from the image signal divided into a plurality of unit areas by the image dividing unit 31a.
  • luminance information information on luminance of each unit area
  • the position to be calculated is calculated.
  • the feature point position calculation unit 35a It is determined whether there is a luminance value indicated by the information that changes with the passage of time.
  • the feature point position calculation unit 35a compares the luminance value of the image signal at a predetermined timing with the luminance value of the image signal at a timing when a certain time has elapsed from the predetermined timing cover, and the difference between the luminance values is calculated. If it is greater than the predetermined threshold, it is determined that the luminance value has changed.
  • the feature point position calculation unit 35a determines that the position where the luminance value has changed is the position where the feature point exists, and uses the low-pass filter 36 and the unit area selection unit for the feature point position information obtained by the
  • the operation of the imaging apparatus in the focus follow-up imaging process is the operation of the imaging apparatus according to Embodiment 1 except that luminance information is used when extracting the feature points. Since FIG. 10 is the same as FIG.
  • the position where the luminance value has changed is extracted as the feature point.
  • the feature point extraction method using the luminance value is not limited to this, and for example, a certain luminance value or A luminance value greater than a certain value may be set as a feature point in advance. In that case, a specific luminance value or a luminance value equal to or higher than a certain value is stored in the memory in advance.
  • the feature point position calculation unit reads the luminance value stored in the memory and performs feature point extraction processing. This is particularly effective when the imaging device is a built-in camera such as a surveillance camera and the background to be projected is substantially fixed.
  • the imaging device uses color information when extracting feature points.
  • the imaging device according to the present embodiment uses a motion vector when extracting feature points. It is characterized by using.
  • FIG. 15 Since the configuration of the imaging apparatus according to the present embodiment is the same as the configuration of the imaging apparatus according to Embodiment 2, FIG. 15 is cited.
  • the feature point position calculation unit 35a based on the luminance value indicated by the luminance information of each unit area from the image signal divided into a plurality of unit areas by the image dividing unit 31a, the subject per predetermined time Detect motion vectors of (feature points) in the X and y directions respectively.
  • the feature point position calculation unit 35a uses the detected motion vector as feature point information and the low-pass filter 36. Output to the unit area selector 40.
  • the operation of the imaging apparatus in the focus follow-up imaging process is the same as the operation of the imaging apparatus according to the first embodiment except that a motion vector is extracted as a feature point. 10 is used and description is omitted.
  • focus tracking can be performed using a motion vector.
  • the imaging device uses color information when extracting feature points.
  • the imaging device according to the present embodiment uses edge information when extracting feature points. It is characterized by using.
  • FIG. 16 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 4 of the present invention.
  • the imaging apparatus according to the present embodiment has the same schematic configuration as that of the imaging apparatus according to the first embodiment, and therefore, the same reference numerals are assigned to components that function in the same manner as in FIG. Omitted.
  • the system controller 30b shown in FIG. 16 has the feature point extraction unit 34 and the feature point information setting unit 41 omitted as compared with the system controller 30 provided in the imaging apparatus according to Embodiment 1 shown in FIG. Is different. Further, in the system controller 30b shown in FIG. 16, since the operation of the feature point position calculation unit and the focus information calculation unit is different from that of the first embodiment, the feature point position calculation unit and the focus information calculation unit in the present embodiment are changed. In order to distinguish from the feature point position calculation unit 35 and the focus information calculation unit 32 in Embodiment 1, they are referred to as the feature point position calculation unit 35b and the focus information calculation unit 32b, respectively.
  • the focus information calculation unit 32b outputs the contrast information of each unit area to the feature point position calculation unit 35b.
  • the feature point position calculation unit 35b calculates the position where the feature point exists based on the contrast information output from the focus information calculation unit 32b. Specifically, the feature point position calculation unit 35b also generates a contrast difference between the background and the subject based on the contrast information, and generates edge information indicating the contour of the subject.
  • a method for generating edge information for example, there are a method of binarizing by comparing luminance values, and a method of detecting edges using a differential filter. Any other method that can generate edge information may be used to generate the edge information.
  • the feature point position calculation unit 35b compares the edge information at a predetermined timing with the edge information at a timing after a predetermined time has elapsed from the predetermined timing, and extracts the changed edge position as a feature point. Then, the feature point position information of the feature points obtained by the calculation is output to the low-pass filter 36 and the unit area selection unit 40.
  • the operation of the imaging apparatus in the focus tracking imaging process is the same as the operation of the imaging apparatus according to the first embodiment except that edge information is extracted as a feature point. Therefore, FIG. 10 is used and the description is omitted.
  • focus tracking is performed using edge information.
  • the imaging apparatus starts the focus tracking imaging process when the user presses the shutter button 19a halfway.
  • the imaging apparatus according to the present embodiment is characterized in that the focus follow-up imaging process is started when the shutter button is half-pressed and exceeds a predetermined focal length.
  • FIG. 17 is a block diagram showing the configuration of the imaging apparatus according to Embodiment 5 of the present invention.
  • the imaging apparatus according to Embodiment 2 has the same schematic configuration as that of the imaging apparatus according to Embodiment 1, and therefore, the same reference numerals are assigned to components that function in the same manner as in FIG. 1, and detailed description thereof is omitted. To do.
  • the system controller 30c in Fig. 17 is different from the system controller provided in the imaging apparatus according to Embodiment 1 shown in Fig. 1 in that it further includes a focal length calculation unit 42. Further, in the system controller 30c shown in FIG. 17, since the operations of the feature point position calculation unit and the lens position control unit are different from those in the first embodiment, the feature point position calculation unit and the lens position control unit in the present embodiment are implemented. In order to distinguish from the feature point position calculation unit 35 and the lens position control unit 33 in Embodiment 1, they are referred to as a feature point position calculation unit 35c and a lens position control unit 33c, respectively.
  • the lens position control unit 33c is based on the defocus amount output from the focus information calculation unit 32. Then, a control signal for controlling the position of the focus lens 13 is generated and output to the lens driving unit 21 and the focal length calculation unit 42.
  • the focal length calculation unit 42 calculates the focal length based on the control signal output from the lens position control unit 33c. When the focal length becomes equal to or greater than the predetermined value, the focal length calculation unit 42 instructs the feature point position calculation unit 35c to start the focus follow-up imaging process. When the feature point position calculation unit 35c receives an instruction for starting the focus follow-up imaging process from the focal length calculation unit 42, the feature point position calculation unit 35c starts the focus follow-up imaging process.
  • FIG. 18 is a flowchart showing an operation in the focus follow-up imaging process of the imaging apparatus according to the fifth embodiment.
  • the flowchart shown in FIG. 18 shows an operation flow of a program operating on the system controller 30c.
  • FIG. 18 when the user presses the shirt turn button 19a halfway, the focus follow-up imaging process is started.
  • step S301 the focal length calculation unit 42 calculates the focal length based on the control signal output from the lens position control unit 33c.
  • step S302 the focal length calculation unit 42 determines whether or not the calculated focal length is greater than or equal to a predetermined value. When the focal length is less than the predetermined value, the focal length calculation unit 42 ends the focus tracking imaging process.
  • step S 201 the focal length calculation unit 42 proceeds to the process of step S 201 in FIG. Since the processing after step S201 is the same as that of the first embodiment, FIG. 10 is used and the description thereof is omitted.
  • the focus follow-up imaging process can be started when the user presses the shutter button halfway and the focal length becomes a certain value or more. This makes it possible to capture the subject and display the AF area on the screen in an easy-to-see manner even when the subject moves a lot when taking a picture at a high magnification.
  • the imaging apparatus according to the present embodiment is characterized by changing the size of the AF area according to the amount of movement of the subject. It is a sign.
  • FIG. 19 is a block diagram showing a configuration of the imaging apparatus according to Embodiment 6 of the present invention.
  • the imaging apparatus according to Embodiment 6 has the same schematic configuration as that of the imaging apparatus according to Embodiment 1, and therefore, components that function in the same manner as in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. To do.
  • the system controller 30d shown in FIG. 19 is different from the system controller 30 provided in the imaging apparatus according to Embodiment 1 shown in FIG. 1 in that it further includes an area area changing unit 43. Further, in the system controller 30d shown in FIG. 19, since the operations of the feature point position calculation unit 35d and the AF area selection unit 37d are different from those in the first embodiment, the feature point position calculation unit and the AF area selection unit in the present embodiment are In order to distinguish from the feature point position calculation unit 35 and the AF area selection unit 37 in the first embodiment, they are referred to as a feature point position calculation unit 35d and an AF area selection unit 37d, respectively.
  • the feature point position calculation unit 35d calculates and outputs the X-direction and y-direction coordinates of the feature points of the subject extracted by the feature point extraction unit 34.
  • the feature point position calculation unit 35d outputs the coordinate information to the low-pass filter 36 and the unit area selection unit 40.
  • the feature point position calculation unit 35d outputs the coordinate information to the low-pass filter 36, the unit area selection unit, and the area area change unit 43.
  • the area area changing unit 43 calculates the area of the AF area based on the feature point position information output from the feature point position calculating unit 35d. Specifically, the area area changing unit 43 calculates the amplitude by performing envelope detection or root mean square on the waveform of the feature point position information. Then, the area area changing unit 43 notifies the AF area selecting unit 37d of the area of the AF area according to the change in amplitude. In the following, an example will be described in which the envelope detection is performed and the amplitude is calculated based on the X coordinate and y coordinate information as the feature point position information.
  • the AF area selection unit 37d calculates the display position and area of the AF area based on the area notified to the area area changing unit 43 and the extracted position information output from the regular passage filter 36. . Then, the AF area selection unit 37d outputs the calculated display position and area of the AF area to the display unit 17 as display position information, and displays the AF area frame.
  • the operation of the imaging apparatus in the focus follow-up imaging process is different from the process in step S206 in the flowchart shown in FIG.
  • FIG. 20 is a flowchart showing an operation in focus follow-up imaging processing of the imaging apparatus according to the sixth embodiment.
  • the operation of the imaging apparatus according to the present embodiment will be described with reference to FIG. 10 and FIG.
  • step S206 shown in FIG. 10 the AF area selection unit 37d selects the display position of the AF area.
  • step S401 shown in FIG. 20 the area area changing unit 43 determines whether or not to change the area of the AF area. Specifically, the area area changing unit 43 performs envelope detection based on the waveform of the feature point position information, and determines whether or not the change in amplitude is a predetermined value or more.
  • the area area changing unit 43 When there is a change in the area of the AF area, that is, when the change in amplitude is greater than or equal to a predetermined value, the area area changing unit 43 notifies the AF area selecting unit 37d of the area of the AF area.
  • the AF area selection unit 37d calculates the display position and area of the AF area based on the notified area and the extracted position information, and outputs the calculated display position information and display area information to the display unit 17.
  • the display unit 17 displays the AF area frame based on the display position information.
  • the process proceeds to step S207 in FIG.
  • the area area changing unit 43 does not notify the size of the AF area frame and does not notify the size of the AF area frame. Proceed to processing.
  • FIG. 21 is a diagram showing the coordinates of feature points calculated by the feature point position calculation unit 35d.
  • the graph shown in the upper part of FIG. 21 is a graph showing the change over time in the X direction of the unit area where the feature points exist.
  • the vertical axis represents the X coordinate of the unit area where the feature point exists on the display unit 17, and the horizontal axis represents time t.
  • the waveform Wx3 is a waveform indicating the temporal change of the position in the X direction in the feature point position information output from the feature point position calculation unit 35d.
  • Waveform Wx4 is a waveform showing the temporal change in position in the X direction in the extraction output from low-pass filter.
  • the graph shown in the lower part of FIG. 21 is a graph showing the temporal change in the y direction of the unit area where the feature points exist.
  • the vertical axis represents the y coordinate of the unit area where the feature point exists in the display unit 17, and the horizontal axis represents time t.
  • the waveform Wy3 is Of the feature point position information output from the feature point position calculation unit 35d, this is a waveform showing the temporal change of the position in the y direction.
  • Waveform Wy4 is a waveform showing the temporal change in position in the X direction among the extractions output from low-pass filter.
  • Wx3, Wx4, Wy3, and Wy4 described here are the same as Wxl, Wx2, Wyl, and Wy 2 shown in FIG. 13 described in the first embodiment, respectively.
  • a predetermined threshold is set in advance, and envelope detection is performed for each of a value greater than the predetermined threshold and a value less than the predetermined threshold.
  • a waveform Wx5 represents a waveform obtained by performing envelope detection based on coordinates of the waveform Wx3 that are equal to or greater than a predetermined threshold.
  • Waveform Wx6 is based on coordinates below a predetermined threshold among the coordinates of waveform Wx3! This shows the waveform that has been subjected to envelope detection. This is the amplitude in the differential direction between waveform Wx5 and waveform Wx6.
  • the waveform Wy5 represents a waveform obtained by performing envelope detection based on coordinates of the waveform Wy3 that are equal to or greater than a predetermined threshold.
  • Waveform Wy6 represents a waveform obtained by performing envelope detection based on coordinates below a predetermined threshold among the coordinates of waveform Wy3. The difference between this waveform Wy5 and waveform Wy6 is the amplitude in the ⁇ direction.
  • the area area changing unit 43 calculates the position change of the feature point of the subject in the X direction and the y direction as the amplitude, and calculates the area (number of unit areas) of the AF area to be displayed.
  • FIG. 22 is an overview of the display unit 17 on which the AF area frame in the sixth embodiment is displayed.
  • a method for controlling the size of the AF area frame displayed on the display unit 17 will be described with reference to FIG. 21 and FIG.
  • AF area A3a is formed from 7 X 5 unit areas !
  • AF area A3b, 10 X 8 units formed from 9 X 7 unit areas
  • the AF area frame size displayed on the display unit 17 is enlarged in the order of the AF area A3c formed from the unit areas.
  • Embodiments 1 to 5 the effects described in Embodiments 1 to 5 are achieved. Because it has a structure that controls the size of the AF area according to the movement of the subject, the amount of camera shake when the image pickup device body shake varies from person to person or when the magnification is increased is increased. At the same time, the AF area size is controlled, and the display area of the AF area frame does not fluctuate in small increments according to the movement of the subject on the screen. In addition, the calculation processing for tracking the focus can be performed with a minimum load.
  • envelope detection processing is performed based on the coordinates of feature points that are equal to or greater than a predetermined threshold as shown in FIG.
  • a predetermined threshold As shown in FIG.
  • the current coordinate is obtained as the output of envelope detection, or the coordinate of the feature point is less than the predetermined threshold
  • a so-called peak hold process may be performed in which the current coordinate is obtained as an output of envelope detection.
  • the peak hold processing may be reset and the peak hold processing may be performed from the beginning!
  • the operating principle of the low-pass filter 36 described in the first embodiment will be described in more detail.
  • the feature point position information output from the feature point position calculation unit 35 is extracted, and the low frequency component of the temporal vibration frequency of the feature point position information is extracted and output.
  • the extracted low-frequency component values are output to the AF area selection unit 37 as AF area display position information.
  • the imaging apparatus according to the present embodiment has the same schematic configuration as that of the imaging apparatus according to the first embodiment.
  • the same reference numerals are assigned and detailed description is omitted.
  • FIGS. 23A to 23D are overview diagrams of the display unit 17 in which the subject and the area frame are projected.
  • FIG. 23 shows an example in which the image signal to be displayed on the display unit 17 is divided into 16 parts in the horizontal direction (X direction) and 12 parts in the y direction.
  • the image signal is divided into 16 ⁇ 12 unit areas, and the display unit 17 displays unit area frames that respectively surround the 16 ⁇ 12 unit areas.
  • the coordinates of each unit area shown in FIGS. 23A to 23D are expressed in units of 0 to 15 in the X direction and 0 to 11 in the y direction.
  • each of the unit areas B4a to d has 20 [pixels]. Defined as an area represented by X 20 [pixel].
  • FIGS. 23A to 23D show a state in which the position of the subject P 1 displayed on the display unit 17 changes due to camera shake or movement of the subject in the order of FIGS. 23A, 23B, 23C, and 23D. is doing. Accordingly, the unit area frame in which the feature points of the subject extracted by the feature point extraction unit 34 exist is the area B4a of coordinates (7, 5), the area B4b of coordinates (8, 6), and the coordinates (8, 5). ) Area B4c and coordinates (7, 6) area B4d.
  • a dotted line frame indicates an AF area frame that moves by focus tracking of a conventional imaging apparatus.
  • feature point position information in the X direction is output in the order of 7, 8, 8, and 7, and feature point position information in the y direction is output in the order of 5, 6, 5, 6.
  • the unit area B4 is composed of 20 [pixels] X 20 [pixels], so if the X-direction coordinate changes from 7 to 8 or from 8 to 7, the image blur of the subject will be If 20 [pixels] are generated in the X direction and the y-direction coordinate is changed from 5 to 6 or 6 to 5, the image blur of the object will be generated 20 [pixels] in the y direction.
  • the AF area frame is 1Z 30 seconds with conventional imaging devices. Move 20 [pixels] in the X or y direction every time. Therefore, the position of the displayed AF area frame changes little by little, and the display on the screen becomes very difficult to see.
  • solid line frames surrounding the areas A4a to d indicate AF area frames that move by the focus tracking of the imaging apparatus according to the present embodiment.
  • the imaging apparatus according to the present embodiment is a low-frequency component that extracts low-frequency components from fluctuation components of the temporal vibration frequency of coordinates. With the pass-through filter 36, it is possible to prevent the position of the AF area frame from changing little by little.
  • FIG. 24 is a block diagram showing details of the low-pass filter 36 according to the present embodiment.
  • FIG. 24 shows a configuration example in the case of an IIR (Infinite Impulse Response) configured with a low-pass filter 36-force digital circuit.
  • IIR Infinite Impulse Response
  • the low-pass filter 36 includes a position information processing unit 360x and a position information processing unit 360y.
  • the position information processing unit 360x includes coefficient blocks 361 and 363, a delay block 362, and an addition block 364, and extracts and outputs a low-frequency component of temporal vibration frequency force of feature point position information in the x direction.
  • the position information processing unit 360y includes coefficient blocks 365 and 367, a delay block 366, and an addition block 367, and extracts and outputs a low-frequency component of temporal vibration frequency force of feature point position information in the y direction.
  • the position information processing unit 360x and the position information processing unit 360y are different in the feature point position information to be processed, but the basic operation is the same, so the position information processing unit 360x will be described as a representative example.
  • the feature point position information in the X direction output from the feature point position calculation unit 35 is input to the addition block 364 of the low-pass filter 36.
  • the feature point position calculation unit 35 outputs the coordinates in the X direction of the unit area B4 shown in FIGS. 23A to 23D as the feature point position information in the X direction, and displays the coordinates as the feature point positions in the y direction.
  • the coordinates in the y direction of unit area B4 shown in 23A to D are output.
  • the feature point position information is updated and output every 1Z30 seconds, for example.
  • the addition block 364 adds the value output from the feature point position calculation unit 35 and the value from which the coefficient block 363 force is also output.
  • the coefficient block 361 processes the value added by the addition block 364 with a predetermined coefficient K1, and outputs it to the area A selection unit 37.
  • Delay block 362 delays the value added by addition block 364 by a predetermined time and outputs the result to coefficient block 363.
  • the coefficient block 363 processes the value output from the delay block 362 with a predetermined coefficient K2, and outputs the result to the addition block 364. [0142]
  • K1 expressed by the following formula (1) and K2 expressed by the formula (2) are set as coefficients.
  • a low-pass filter can be configured.
  • ⁇ 1 1 / ⁇ 1 + 1 / (30 ⁇ 2 ⁇ ⁇ X fc) ⁇ ---(1)
  • ⁇ 2 1 / ⁇ 1 + (30 ⁇ 2 ⁇ ⁇ X fc) ⁇ ⁇ ⁇ ⁇ (2)
  • FIGS. 25A and 25B show input / output signal waveforms of the low-pass filter 36.
  • FIG. 25A is a diagram illustrating a waveform of an input signal input to the low-pass filter 36
  • FIG. 25B is a diagram illustrating a waveform of an output signal output from the low-pass filter 36.
  • the vertical axis represents the number of pixels corresponding to the amount of displacement of the subject
  • the horizontal axis represents the frame number.
  • FIG. 25A and 25B There are two signals in the X direction and y direction as signals that are input to the low-pass filter 36.
  • Figs. 25A and 25B the waveforms and output signals of only one of these signals are shown.
  • the waveform of the number is shown.
  • FIG. 25A shows an example in which the position of the subject represented by the input signal is changed within a range of ⁇ 20 [pixels].
  • the frame update period is 1Z30 seconds
  • the time spent on frame numbers 0 to 300 is 10 seconds.
  • the cut-off frequency fc of the low-pass filter 36 according to the present embodiment was changed, and the degree of image blur of the subject imaged on the display unit 17 was evaluated. Specifically, 10 subjects each evaluated the image blur of the subject displayed on the 2.5-inch monitor screen of QVGA, and the degree of image blur was “no image blur problem: 1 point” I can't say: 0.5 points "," The image blurring problem: 0 points ”was judged whether it corresponds to the deviation.
  • the cutoff frequency fc of the low-pass filter is 5 [Hz], 4 [Hz], 3 [Hz], 2 [Hz], l [Hz], 0.5 [Hz], 0.2 “Hz”, 0.1 [Hz] Then, the image blurring by the subjects was evaluated.
  • FIG. 26 is a graph showing the relationship between the cutoff frequency fc of the low-pass filter 36 and the image blur evaluation point by the subject.
  • the vertical axis represents the average value of image blur evaluation scores by the subject, and the horizontal axis represents the cutoff frequency fc.
  • the frequency at which the input signal exists can be defined as 1Z2 with sampling frequency fs.
  • the average power of the input signal existing in the range of fsZ2 is statistically expressed as fc X ⁇ 2. Therefore, the power of the output signal that has passed through the low-pass filter 36 is attenuated to (fc X ⁇ 2) ⁇ ( ⁇ 2).
  • Equations (3) and (4) for example, when the cut-off frequency fc is used as a parameter, fluctuations in the display position of the AF area frame can be reduced as follows.
  • the low-pass filter 36 is constituted by a digital filter.
  • the display condition of the AF area frame can be easily set and changed by changing the cutoff frequency fc of the low-pass filter and the block coefficient. Therefore, it is possible to easily set the AF area frame display and conditions according to the difference in image blur due to the size of the monitor screen, the size of the imaging apparatus main body, and the type.
  • the AF area frame is displayed based on the position information output via the low-pass filter that suppresses temporal fluctuation in the position information of the subject.
  • the cut-off frequency fc is such that the user does not feel the small vibration of the AF area frame. For example, it may be determined appropriately according to the number of pixels on the screen, the contrast, and the size of the subject.
  • the monitor image is displayed as a 2.5 inch Q
  • the force monitor screen described as an example that the display on the screen can be made relatively easy to see if the image blurring is suppressed to the extent that 4 [pixels] to 13 [pixels] remain.
  • an inch 640 [pixel] X 480 [pixel] VGA if the image blurring is suppressed to 8 [pixel] to 26 [pixel] in proportion to the resolution increase rate in one direction, The display on the screen can be made relatively easy to see.
  • the image display will be reduced if the image blur is suppressed to the extent that it remains in inverse proportion to the increase in the number of inches 6.7 [pixel] to 10.8 [pixel]. Can be made relatively easy to see.
  • the low-pass filter is not limited to the IIR filter, and may be composed of a FIR (Finite Impulse Response) filter, a second-order digital filter, and other higher-order digital filters.
  • the low-pass filter may be an analog filter. In that case, the feature point position information of the subject may be extracted as an analog signal.
  • the digital filter may be configured by programming a microcomputer or the like, or it may be configured by hardware.
  • the imaging device that works in each embodiment is not limited to a specific correspondence and can be changed as appropriate.
  • the imaging apparatus according to each embodiment is a digital still camera in which the shutter button is operated by the user to acquire a still image as an example. It can also be applied as a digital video camera where images continue to be acquired. In this case, focus tracking can be performed even if the subject moves.
  • the imaging device that works in each embodiment may be applied to a surveillance camera, an in-vehicle camera, and a web camera. In this case, a force that may be difficult for the user to operate the shutter button.
  • the shutter button may be automatically operated at a predetermined timing, or may be remotely operated.
  • the imaging apparatus is an example in which a system controller is individually provided. However, this may be applied to an imaging system in which a control CPU of a personal computer or a mobile phone terminal is substituted. Is possible.
  • the respective constituent elements can be arbitrarily joined with each other.
  • the photographing optical system and the image sensor and other structures are provided. Various combinations such as an example of a physically separated system, an imaging optical system, an image sensor, an image processing unit, and an example of a system in which other configurations are physically separated may be considered.
  • the present invention is suitable for an imaging apparatus such as a digital still camera and a digital video camera.

Description

明 細 書
撮像装置
技術分野
[0001] 本発明は、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置に関し、特定 的には、オートフォーカス機能を備えるデジタルスチルカメラ、デジタルビデオカメラ 等の撮像装置に関する。
背景技術
[0002] 現在、 CCDや CMOSなどの撮像素子を備えるデジタルスチルカメラ、デジタルビ デォカメラ等の撮像装置が爆発的に普及している。これらの撮像装置は、一般的に 被写体の画像信号に基づき合焦状態を検出し、検出結果に基づいて撮影光学系に 含まれるフォーカスレンズ群を光軸方向に移動させることにより、オートフォーカス制 御を行うものが主流である。
[0003] 撮像装置の多機能化に伴って、オートフォーカス制御に対しても高機能化が求めら れるようになってきている。例えば、特許文献 1には、撮像装置に適用され、フォー力 ス調整を行うオートフォーカス装置が記載されて 、る。当該オートフォーカス装置は、 被写体の画像信号を複数のフォーカスエリアに分割し、それぞれフォーカスエリアに 含まれる肌色画素の数をカウントして、フォーカス調整を行うためのフォーカスエリア を特定する。
[0004] 特許文献 1に記載された従来のオートフォーカス装置は、主被写体として人物を想 定している。すなわち、当該オートフォーカス装置は、肌色画素に基づいてフォー力 ス制御を行うことにより、フォーカスエリアが人物に追従し、常に人物に的確に合焦で きるとしている。
特許文献 1:特開 2004— 37733号公報
発明の開示
発明が解決しょうとする課題
[0005] 特許文献 1に記載された従来のオートフォーカス装置は、人物に追従してフォー力 ス追従を行うことを想定し、フォーカス追従して 、るエリアをマーカーなどで表示させ る、あるいは複数のフォーカスエリアの中力も選択して表示させる。し力しながら、この 場合、オートフォーカス装置本体の振れなどによって、撮影前のモニタ画面に表示さ れているマーカーまたは選択されたフォーカスエリアの位置が小刻みに変化し、モ- タ画面が非常に見づらくなるという問題がある。特に、高倍率で撮像する場合、この 影響が顕著になってしまう。
[0006] また、特許文献 1に記載の従来のオートフォーカス装置では、モニタ画面の広 ヽ範 囲でフォーカス追従のための特徴点抽出を行う必要があるため、演算処理の負荷が 重くなつてしまう。さらに、主被写体として人物のみを想定しているため、他の被写体 の場合にフォーカス追従を行うことができな 、。デジタルスチルカメラやデジタルビデ ォカメラ等の撮像装置は、主被写体が人物である場合ばカゝりではないため、特許文 献 1に記載の従来のオートフォーカス装置は、ユーザの要求に十分に応えることがで きない。
[0007] それゆえに、本発明の目的は、移動する被写体に対してフォーカス調整を行うこと ができ、かつ表示すべきフォーカスエリアの不要な変動を防止することができる撮像 装置を提供することである。
課題を解決するための手段
[0008] 本発明の目的の 1つは、以下の構成を備えた撮像装置によって達成される。被写 体の電気的な画像信号を出力する撮像装置であって、焦点調節を行うためのフォー カスレンズ群を含み、被写体の光学的な像を形成する撮像光学系と、被写体の光学 的な像を撮像して、電気的な画像信号に変換する撮像素子と、画像信号を複数のェ リアに分割する画像分割部と、複数のエリアのうち、少なくとも 1つのエリアを含む第 1 のエリア群内で撮像光学系の合焦情報を算出する合焦情報算出部と、合焦情報に 基づいて、フォーカスレンズ群を光軸方向に駆動制御するレンズ駆動制御部と、複 数のエリアのうち、少なくとも 1つのエリアを含む第 2のエリア群内で被写体の特徴点 を抽出し、当該特徴点の位置を示す特徴点位置情報として出力する特徴点抽出部 と、特徴点位置情報の時間的な振動周波数の低域成分を抽出し、抽出位置情報とし て出力する低域通過フィルタと、抽出位置情報に基づいて、表示すべき第 2のエリア 群の位置を演算し、表示位置情報として出力するエリア選択部とを備える。 発明の効果
[0009] 本発明によれば、移動する被写体に対してフォーカス調整を行うことができ、かつ 表示すべきフォーカスエリアの不要な変動を防止することができる撮像装置を提供す ることがでさる。
図面の簡単な説明
[0010] [図 1]図 1は、本発明の実施の形態 1における撮像装置のブロック図である。
[図 2]図 2は、表示部 17に表示されるエリア枠の表示位置を示す図である。
[図 3]図 3は、本発明の実施の形態 1における撮像装置本体背面の概略図である。
[図 4]図 4は、参照色情報設定処理における撮像装置の動作を示すフローチャートで ある。
[図 5]図 5は、被写体が写し出された表示部 17の概観図である。
[図 6]図 6は、本発明の実施の形態 1における被写体とエリア枠が写し出された表示 部 17の概観図である。
[図 7]図 7は、実施の形態 1における色相及び彩度情報の演算式である。
[図 8]図 8は、実施の形態 1における色相及び彩度情報のチャート図である。
[図 9]図 9は、実施の形態 1における参照色情報と参照近傍領域 1を示した色相及び 彩度情報のチャート図である。
[図 10]図 10は、フォーカス追従撮像処理における撮像装置の動作を示すフローチヤ ートである。
[図 11A]図 11Aは、実施の形態 1における被写体と AFエリア枠とが写し出された表示 部 17の概観図である。
[図 11B]図 11Bは、実施の形態 1における被写体と AFエリア枠とが写し出された表示 部 17の概観図である。
[図 11C]図 11Cは、実施の形態 1における被写体と AFエリア枠とが写し出された表示 部 17の概観図である。
[図 11D]図 11Dは、実施の形態 1における被写体と AFエリア枠とが写し出された表 示部 17の概観図である。
[図 12]図 12は、図 11A〜Dにおいて、単位エリア Bla〜Bldが移動する様子を模式 的に示す図である。
[図 13]図 13は、特徴点位置演算部によって演算される特徴点の座標を示す図であ る。
[図 14A]図 14Aは、表示部 17に表示される表示エリア枠と特徴点との座標関係を示 す図である。
[図 14B]図 14Bは、表示部 17に表示される表示エリア枠と特徴点との座標関係を示 す図である。
[図 15]図 15は、本発明の実施の形態 2に係る撮像装置の構成を示すブロック図であ る。
[図 16]図 16は、本発明の実施の形態 4に係る撮像装置の構成を示すブロック図であ る。
[図 17]図 17は、本発明の実施の形態 5に係る撮像装置の構成を示すブロック図であ る。
[図 18]図 18は、実施の形態 5に係る撮像装置のフォーカス追従撮像処理における動 作を示すフローチャートである。
[図 19]図 19は、本発明の実施の形態 6に係る撮像装置の構成を示すブロック図であ る。
[図 20]図 20は、実施の形態 6に係る撮像装置のフォーカス追従撮像処理における動 作を示すフローチャートである。
[図 21]図 21は、特徴点位置演算部によって演算される特徴点の座標を示す図であ る。
[図 22]図 22は、実施の形態 6における AFエリア枠が表示された表示部 17の概観図 である。
[図 23A]図 23Aは、実施の形態 7に係る被写体とエリア枠が写し出された表示部 17 の概観図である。
[図 23B]図 23Bは、実施の形態 7に係る被写体とエリア枠が写し出された表示部 17の 概観図である。
[図 23C]図 23Cは、実施の形態 7に係る被写体とエリア枠が写し出された表示部 17 の概観図である。
[図 23D]図 23Dは、実施の形態 7に係る被写体とエリア枠が写し出された表示部 17 の概観図である。
[図 24]図 24は、実施の形態 7に係る低域通過フィルタ 36の詳細を示すブロック図で ある。
[図 25A]図 25Aは、実施の形態 7に係る低域通過フィルタ 36の入力信号波形である
[図 25B]図 25Bは、実施の形態 7に係る低域通過フィルタ 36の出力信号波形である。
[図 26]図 26は、実施の形態 7に係る低域通過フィルタ 36のカットオフ周波数 fcと像ぶ れ評価点との関係を示すグラフである。
符号の説明
10 撮像装置本体
10a ファインダ
11 レンズ鏡筒
12 ズームレンズ
13 フォーカスレンズ
14 CCD
15 画像処理部
16 画像メモリ
17、 67 表示部
18 メモリーカード
19 操作部
19a シャッター釦
19b カーソルキー
19c 決定釦
19d メニュー釦
21 レンズ駆動部
30 システムコントローラ 31 画像分割部
32 合焦情報算出部
33 レンズ位置制御部
34 特徴点抽出部
35 特徴点位置演算部
36 低域通過フィルタ
37 AFエリア選択部
40 単位エリア選択部
41 特徴点情報設定部
42 焦点距離演算部
43 エリア面積変更部
発明を実施するための最良の形態
[0012] (実施の形態 1)
図 1は、本発明の実施の形態 1にかかる撮像装置のブロック図である。実施の形態 1にかかる撮像装置は、レンズ鏡筒 11と、撮像光学系であるズームレンズ系 12及び フォーカスレンズ 13と、撮像素子である CCD14と、画像処理部 15と、画像メモリ 16と 、表示部 17と、操作部 19と、レンズ駆動部 21と、システムコントローラ 30とを含む。
[0013] レンズ鏡筒 11は、内部にズームレンズ系 12を保持する。ズームレンズ系 12及びフ オーカスレンズ 13は、被写体の光学的な像を変倍可能に形成する撮像光学系であ る。撮像光学系は、被写体側から順に、変倍時に光軸に沿って移動するズームレン ズ群 12a及びズームレンズ群 12bと、合焦状態に調節のために光軸に沿って移動す るフォーカスレンズ 13とからなる。
[0014] CCD14は、ズームレンズ系 12が形成した光学的な像を所定のタイミングで撮像し 、電気的な画像信号に変換して出力する撮像素子である。画像処理部 15は、 CCD 14から出力された画像信号にホワイトバランス補正や γ補正などの所定の画像処理 を施す処理部である。画像メモリ 16は、画像処理部 15から出力された画像信号を一 次的に格納する。
[0015] 表示部 17は、典型的には液晶ディスプレイであり、後述するシステムコントローラ 30 力もの指令に基づき、 CCD14から出力された画像信号あるいは画像メモリ 16に格 納された画像信号を、画像処理部 15を介して入力させ、この画像信号を可視画像と してユーザに表示する。また、画像処理部 15は、ユーザにより着脱可能なメモリー力 ード 18と双方向にアクセス可能である。メモリーカード 18は、後述するシステムコント ローラ 30からの指令に基づき、 CCD14から出力された画像信号あるいは画像メモリ 16に格納された画像信号を、画像処理部 15を介して入力させて格納したり、格納さ れた画像信号を、画像処理部 15を介して画像メモリ 16へ出力させ一時的に格納さ せたりする。
[0016] 操作部 19は、撮像装置本体の外側に設けられ、ユーザが撮像装置本体の設定を 行うため、あるいは操作するために用いる釦類である。なお、操作部 19は、複数の操 作釦を含むが詳細は図 3を用いて後述する。
[0017] レンズ駆動部 21は、後述するシステムコントローラ 30のレンズ位置制御部 33からの 指令に基づき、フォーカスレンズ 13を光軸方向(A方向あるいは B方向)に駆動する 駆動信号を出力する。また、レンズ駆動部 21は、ズームレバー(図示せず)をユーザ が操作することによりズームレンズ 12を光軸方向に駆動させる機能も有する。
[0018] システムコントローラ 30は、画像分割部 31と、合焦情報算出部 32と、レンズ位置制 御部 33と、特徴点抽出部 34と、特徴点位置演算部 35と、低域通過フィルタ 36と、 A Fエリア選択部 37と、単位エリア選択部 40とを含む。
[0019] 画像分割部 31は、画像メモリ 16から出力される画像信号を複数の単位エリアに分 割する処理を行う。
[0020] 合焦情報算出部 32は、画像分割部 31により複数の単位エリアに分割された画像 信号から、各単位エリアのコントラスト情報とフォーカスレンズ 13の位置情報とに基づ いてデフォーカス量を演算する。合焦情報算出部 32は、少なくとも 1以上の単位エリ ァを含む第 1のエリア群内において、デフォーカス量を演算する。本実施の形態では 、第 1のエリア群は、後述する被写体の特徴点を抽出する処理およびデフォーカス量 を演算する処理を行う最小の単位エリア群で構成される。
[0021] レンズ位置制御部 33は、合焦情報算出部 32から出力されるデフォーカス量に基づ Vヽてフォーカスレンズ 13の位置を制御するための制御信号を生成し、レンズ駆動部 21へ出力する。また、レンズ位置制御部 33は、レンズ駆動部 21によりフォーカスレン ズ 13を駆動させたときの位置情報を合焦状態算出部 32に出力する。このとき、合焦 状態算出部 32は、フォーカスレンズ 13の位置情報とコントラスト情報とからデフォー カス量を算出することができる。
[0022] 特徴点抽出部 34は、画像分割部 31によって複数の単位エリアに分割された画像 信号力も各単位エリアの特徴点を抽出する。本実施の形態において、特徴点抽出部 34は、各単位エリアの特徴点として色情報を算出し、算出した色情報を特徴点位置 演算部 35へ出力する。特徴点は、少なくとも 1以上の単位エリアを含む第 2のエリア 群内から抽出されるが、本実施の形態において、特徴点が抽出されるエリアは、後述 する AFエリア選択部 37から出力された AFエリアの範囲を示す表示位置情報により 決定されるものとして説明する。特徴点抽出部 34は、後述する AFエリア選択部 37か ら出力された特徴点設定エリアの範囲を示す表示位置情報に基づき、単位エリアに 分割された画像信号のうち、特徴点設定エリアの範囲に含まれる各単位エリアの特 徴点として色情報を算出し、特徴点情報設定部 41へ出力する。
[0023] 特徴点情報設定部 41は、特徴点抽出部 34から出力される各単位エリアの色情報 のうち、ユーザにより選択された単位エリアの色情報を算出して格納させ、特徴点情 報設定処理を行う。なお、特徴点情報設定部 41は、不揮発性メモリを含み、一旦格 納させた参照色情報を撮像装置本体の電源を切った場合でも保持することが可能で ある。特徴点情報設定部 41は、フォーカス追従撮像処理を行う場合、格納している 色情報を読み出して特徴点位置演算部 35へ出力する。
[0024] 特徴点位置演算部 35は、特徴点抽出部 34から出力される各単位エリアの特徴点 と、特徴点情報設定部 41から出力される特徴点とを比較してほぼ一致する位置を演 算する。本実施の形態において、特徴点位置演算部 35は、各単位エリアの色情報と 、特徴点情報設定部 41から出力される色情報とを比較してほぼ一致する位置を演算 する。特徴点位置演算部 35は、演算により得られた特徴点位置情報を低域通過フィ ルタ 36及び単位エリア選択部 40へ出力する。特徴点位置情報は、例えば座標を示 す情報である。
[0025] 低域通過フィルタ 36は、特徴点位置演算部 35から出力される特徴点位置情報か ら高域成分を除去することにより、特徴点位置情報の時間的な振動周波数の低域成 分を抽出して出力する。例えば、低域通過フィルタは、特徴点位置情報を加算してそ の平均値を出力する加算平均や、一定期間内に得られた特徴点位置情報の平均値 を出力する移動平均により、特徴点位置情報の低域成分を抜き取る。低域通過フィ ルタ 36は、抽出した低域成分の値を抽出位置情報として AFエリア選択部 37へ出力 する。
[0026] AFエリア選択部 37は、低域通過フィルタ 36から出力される抽出位置情報に基づ き、表示部 17に表示させる AFエリアの位置を示す表示位置情報を生成し、特徴点 抽出部 34及び表示部 17に出力する。 AFエリア選択部 37は、フォーカス追従撮像 処理において、最初に AFエリアを表示させる際、図示しないメモリに予め格納されて いるデフォルトの表示位置情報を読み出し、特徴点抽出部 34及び表示部 17に出力 する。
[0027] また、 AFエリア選択部 37は、特徴点情報設定処理において、最初に特徴点設定 エリアを表示させる際、図示しな 、メモリに予め格納されて 、るデフォルトの表示位置 情報を読み出し、特徴点抽出部 34及び表示部 17に出力する。
[0028] 単位エリア選択部 40は、特徴点位置演算部 35から出力される特徴点位置情報に 基づき、特徴点位置情報が示す位置に存在する単位エリアを選択する。例えば、特 徴点位置情報が座標を示す情報である場合、単位エリア選択部 40は、特徴点位置 演算部 35から出力される座標を含む単位エリアを選択する。そして、単位エリア選択 部 40は、選択した単位エリアを囲む単位エリア枠を表示部 17に表示させる。
[0029] 次に、 AFエリア及び単位エリアについて説明する。図 2は、表示部 17に表示される エリア枠を示す図である。図 2では、表示部 17に表示すべき画像信号を横方向(X方 向)に 18分割、縦方向(y方向)に 13分割させた例を示している。この場合、画像信 号は 18 X 13個の単位エリアに分割され、表示部 17には、 18 X 13個の単位エリアを それぞれ囲む単位エリア枠が表示される。
[0030] 図 2において、単位エリア BOは、後述する被写体の特徴点抽出処理及び合焦情報 算出処理を行う単位エリアの一つを表し、この例では座標(10, 7)で表される。なお 、 18 X 13個の単位エリア枠を必ずしも表示させなくともよぐ単位エリア選択部 40に より選択された単位エリアを囲む単位エリア枠のみを表示させてもよい。例えば、す ベてのエリア枠を表示させる場合、表示部 17の表示を見やすくするために、単位エリ ァ枠の線を細くするか薄 、色の線を用いて表示させてもょ 、。
[0031] また、後述するフォーカス追従撮像処理の動作中は、表示部 17には少なくとも 1つ 以上の単位エリアから形成される AFエリア AOを囲む AFエリア枠が表示される。 AF エリア AOは、被写体のフォーカス追従撮像処理において特徴点が抽出されるエリア である。
[0032] 図 3は、本発明の実施の形態 1における撮像装置本体背面の概略図である。実施 の形態 1にかかる撮像装置は、撮像装置本体 10と、表示部 17と、操作部 19と、ファ インダー 10aとを含む。
[0033] ファインダー 10aは、光学的に被写体の像をユーザの瞳に導く光学系である。表示 部 17は、先に説明した液晶ディスプレイであり、撮像された画像信号を可視画像とし てユーザに表示する。操作部 19は、シャッター釦 19aと、カーソルキー 19bと、決定 釦 19cと、メニュー釦 19dとからなる。
[0034] シャッター釦 19aは、ユーザにより半押しされることによってフォーカス追従撮像処 理を開始させ、ユーザにより全押しされることによって撮像した画像をメモリーカード に格納させる操作を行う。カーソルキー 19bは、表示部 17に表示された各種動作モ ードのメニュー力 項目及びその内容を選択するために操作される。決定釦 19cは、 カーソルキー 19bによって選択された内容を決定するために操作される。メニュー釦 19dは、撮像装置本体の一般的な各種動作モードのメニュー表示を行うために操作 される。
[0035] 各種動作モードのメニューの項目には、後述する表示部 17に撮像した画像信号の 特徴点情報を格納させる (特徴点情報設定)処理を開始するかどうかが含まれる。ュ 一ザが、メニュー釦 19dを操作して、表示部 17に特徴点情報設定処理の開始に関 するメニューを表示させると、カーソルキー 19bは、ユーザによる操作でその内容の 選択を受け付ける。この状態において、ユーザがカーソルキー 19bを操作し特徴点 情報設定処理の開始を選択し、決定釦 19cを操作すると、特徴点情報設定部 41〖こ より特徴点情報設定処理が開始される。 [0036] 図 4は、特徴点情報設定処理における撮像装置の動作を示すフローチャートであ る。図 4に示すフローチャートは、システムコントローラ 30上で動作するプログラムの 動作フローを示す。また、図 5は、被写体が写し出された表示部 17の概観図である。 図 5では、表示部 17に被写体 P2が写し出されている例を示している。また、図 6は、 本発明の実施の形態 1における被写体とエリア枠が写し出された表示部 17の概観図 である。図 6は、被写体 P2に 18 X 13個の単位エリア枠を表示させた例を示している 。メニュー釦 19dと決定釦 19cにより色情報を参照するモードが設定された場合、参 照色情報設定処理開始から処理が開始される。
[0037] ステップ S101において、 CCD 14で撮像された画像信号が画像処理部 15から出 力され、表示部 17に可視画像を表示する。単位エリア選択部 40は、単位エリア枠を 表示部 17に表示させる。このとき、表示部 17に表示されている画像は、図 6に示すよ うに、可視画像と単位エリア枠とが重畳された表示状態となる。また、画像メモリ 16か らシステムコントローラ 30の画像分割部 31に入力された画像信号は、単位エリアごと に分割される。
[0038] ステップ S102において、特徴点設定エリア C1が選択されたかどうかの入力待ちに なる。特徴点設定エリア C1は、特徴点を設定するために用いられる。 AFエリア選択 部 37は、特徴点設定エリア C 1の範囲を示す表示位置情報を表示部 17に出力し、 表示部 17に特徴点設定エリア枠を表示させる。このとき特定のエリア (特徴点設定ェ リア C1)が太枠で囲まれて表示され、選択可能であることが示される。ユーザは、太 枠のエリアをカーソルキー 19bで移動させることができる。例えば、ユーザが太枠のェ リアを移動させて決定釦 19cを押すと、図 6に示す特徴点設定エリア C1が選択され たことになり、ステップ S 103の処理に進む。
[0039] ステップ S103において、特徴点抽出部 34は、選択された特徴点設定エリア C1内 に表示されている分割された画像の色情報を算出して、ステップ S 104の処理に進 む。
[0040] ステップ S104において、特徴点情報設定部 41は算出された色情報を格納し、特 徴点情報設定処理を終了する。
[0041] 図 7は、実施の形態 1における色相及び彩度情報の演算式である。以下、ステップ S103において説明した、特徴点抽出部 34の色相及び彩度情報の演算原理を説明 する。なお、画像信号を赤 (以降では Rと称す),緑 (以降では Gと称す),青 (以降で は Bと称す)で分けて表し、 R, G, Bをそれぞれ 256階調として説明する。
[0042] 色相及び彩度情報の演算は、特徴点抽出部 34にお 、て実行される。はじめに、特 徴点抽出部 34は、画像分割部 31から出力された分割された画像信号 (以下、分割 画像信号と呼ぶ)に対して、 R, G, Bの最大値を求め、求められた最大値を Vとする( 式 1)。次に、特徴点抽出部 34は、画像分割部 31から出力された分割画像信号に対 して、最小値を求め、求められた最小値を Vから引き算して dとする(式 2)。さらに、特 徴点抽出部 34は、 Vと dから彩度 Sを求める(式 3)。
[0043] 特徴点抽出部 34は、彩度 S = 0であれば色相 H = 0とする(式 4)。また、特徴点抽 出部 34は、彩度 Sが 0以外の値である場合、所定の処理を行って色相を演算する( 式 5〜式 7)。ここで、所定の処理とは、 R, G, Bの最大値力 ¾と等しい場合には式 5に より色相 Hを求め、 Gと等しい場合には式 6により色相 Hを求め、 Bと等しい場合には 式 7により色相 Hを求める処理である。
[0044] 最後に、特徴点抽出部 34は、求められた色相 Hが負の値に成っている場合、 360 を加算して、正の値に変換する(式 8)。以上のようにして、特徴点抽出部 34は、分割 画像信号の色相及び彩度情報を演算により算出する。
[0045] 図 8は、実施の形態 1における色相及び彩度情報のチャート図である。図 8におい て、彩度 Sはチャートの半径方向に相当し、中心を S = 0とし、周辺へ向けて 0〜255 の範囲で増加するようにプロットされる。また、図 8において、色相 Hは、回転方向に 相当し、回転方向に沿って 0〜359の値で表す。
[0046] 例えば、分割画像信号の色情報が R= 250, G= 180, B= 120であったとすると、 特徴点抽出部 34は、前述した各式を用いて、各式力も V= 250、 d= 250— 120 = 1 30、 ^ tS = 130 X 255/250= 133,色相 H= (180— 120) X 60/133 = 27¾- 得ることができる。
[0047] 以上の通り、特徴点抽出部 34は、分割画像信号の彩度と色相とを算出する。算出 された彩度と色相とを含む参照色情報は、特徴点情報として特徴点情報設定部 41 へ出力され保存される。次に、参照色情報に隣接して設定される参照近傍領域につ いて説明する。
[0048] 特徴点抽出部 34により算出された参照色情報は、特徴点情報設定部 41に格納さ れ、随時参照されて撮像されるべき被写体の色情報を判断するリファレンスとして用 いられる。ところで、一般に、同一被写体であっても照明光や露光時間などの要因に よって、撮像した色情報が微妙に変化する場合がある。したがって、参照色情報と撮 像されるべき被写体の色情報とを比較する場合、参照色情報に一定の許容幅を持た せて、同一性判断をすることが望ましい。この参照色情報の一定の許容幅を参照近 傍領域と呼ぶ。
[0049] 以下、参照近傍領域を算出する例を示す。図 9は、実施の形態 1における参照色 情報と参照近傍領域 1を示した色相及び彩度情報のチャート図である。図 9において 、参照色情報 (HI, SI)としてプロットされた点は、特徴点情報設定部 41で格納され た色情報に相当する。なお、参照色情報は、一例として先に算出した R= 250, G = 180, B= 120とした場合に求められる色相 H = 27 (=H1)、彩度 S = 130 ( = S1)を 表している。
[0050] 参照近傍領域 1は、格納されて 、る参照色情報 HIに対して許容幅を規定した領域 である。色相の許容幅 Δ Η= 10とすると、参照近傍領域 1は、色相は Hl ± 10の領 域に相当し、図 9において、 1本の円弧と 2本の半径方向の線分で囲まれる領域とな る。
[0051] 以上説明した例では、いずも色相の許容幅を一律に設定した力 これに限られな い。補助光源を使用する場合などでは、光源の色相情報に基づいて参照される色情 報の範囲を補正することで、暗所で撮像装置を使用している場合においても参照範 囲を正確に規定することが可能になる。例えば、 LED等を用いた赤系色の補助光源 の場合には HIを 0の方向にシフトさせるで補正が可能である。
[0052] 次に、フォーカス追従動作について説明する。図 10は、フォーカス追従撮像処理 における撮像装置の動作を示すフローチャートである。図 10に示すフローチャートは 、システムコントローラ 30上で動作するプログラムの動作フローを示す。また、図 11は 、実施の形態 1における被写体と AFエリア枠とが写し出された表示部 17の概観図で ある。図 11A〜Dは、被写体 P1に 18 X 13個の単位エリア枠と AFエリア枠(エリア A1 )を表示させた例を示している。図 11A〜Dは、それぞれ lZ30[s]の時間が経過す る毎に被写体 P1が表示部 17上を移動する様子を示している。これに伴い、特徴点 抽出部 34において抽出される被写体の特徴点が存在する単位エリア枠は、エリア B la、エリア Blb、エリア Blc、エリア Bidの順で移動する。図 10において、ユーザによ りシャッター釦 19aが半押しされた場合、フォーカス追従撮像処理が開始される。
[0053] ステップ S201において、表示部 17は、可視画像及び AFエリア枠を表示する。具 体的には、表示部 17は、 CCD 14で撮像され画像処理部 15で所定の画像処理が施 された画像信号を可視画像として表示する。また、画像信号は画像分割部 31により 1 8 X 13個の単位エリアで分割され、そのうちの 7 X 5個の単位エリアで AFエリア A1が 形成される。 AFエリア A1を囲む AFエリア枠は、画像信号に重ねて表示される。この とき、表示部 17には、図 11Aに示すように、可視画像と AFエリア枠とが重畳された表 示状態となる。なお、図 11Aには、単位エリア枠も表示している力 単位エリア枠は表 示しなくてちょい。
[0054] 次に、ステップ S202において、 AFエリア A1の中心座標は表示部 17の所定範囲 外にあるかどうかを判定する。 AFエリア A1の中心座標が所定範囲外にある場合、 A Fエリア枠が画面の外寄りに表示されてしまう。所定範囲とは、例えば、表示部 17の 中央部付近の座標を含む範囲であり、例えば、図 11A〜Dにおいて、座標(3, 2)、 ( 14, 2)、 (14, 10)、 (3, 10)を結ぶエリアで形成される。
[0055] AFエリア A1の中心座標が所定範囲外にある場合、ステップ S203において、 AF エリア A1の中心座標をデフォルトにリセットする。ここでは、 AFエリア A1の中心座標 を図 4に示す表示部 17の中心座標である座標(8, 6)に移動して表示部 17に表示さ せる。そして、再びステップ S201において、表示部 17は、可視画像及び AFエリア枠 を表示する。一方、 AFエリア A1の中心座標が所定範囲内にある場合、ステップ S20 4の処理に進む。
[0056] ステップ S204において、単位エリア選択部 40は、 AFエリア A1内に特徴点がある 力どうかを判定する。具体的には、特徴点情報設定部 41に格納されている参照色情 報に基づき、先の図 9において説明した方法で参照近傍領域が算出され、特徴点抽 出部 34から出力される各エリアの色情報が参照近傍領域内であるかどうかが判定さ れる。特徴点があった場合、つまり、特徴点情報である参照色情報に近い色情報を 有するエリアがあった場合、ステップ S205の処理に進む。一方、特徴点がな力つた 場合、つまり参照色情報に近い色情報を有するエリアがな力つた場合、ステップ S20 8の処理に進む。
[0057] 画像分割部 31は、 18 X 13個の単位エリアに分割した画像信号を特徴点抽出部 3 4及び合焦情報算出部 32へ出力する。特徴点抽出部 34は、 AFエリア選択部 37か ら出力された表示位置情報情報に基づき、単位エリアに分割された画像信号のうち 、AFエリア A1の範囲に含まれる各単位エリアの特徴点として色情報を算出する。
[0058] 図 11Aでは、特徴点として抽出されたエリア Blaは、座標(5, 6)で表される。次の 図 11Bでは、特徴点として抽出されたエリア Bibは、座標(10, 5)で表される。次の 図 11Cでは、特徴点として抽出されたエリア Blcは、座標(8, 4)で表される。次の図 11Dでは、特徴点として抽出されたエリア Bidは、座標(11, 8)で表される。
[0059] 、図 12は、図 11A〜Dにおいて、単位エリア Bla〜Bldが移動する様子を模式的に 示す図である。図 11A、図 11B、図 11C、図 1 IDの順に被写体が移動すると、特徴 点が抽出された単位エリア枠は、図 12に示す順で移動する。以下、表示部 17が図 1 1Dに示す状態である場合を例に説明する。
[0060] 次に、ステップ S205において、特徴点位置情報力も低域成分が抽出される。低域 通過フィルタ 36は、選択された単位エリア(エリア Bla〜Bld)のうち現在の特徴点の 座標(エリア Bidの座標)と前回の特徴点の座標(エリア Blcの座標)との加算平均を 行い、抽出位置情報として出力する。
[0061] 続くステップ S206において、抽出位置情報に基づき、 AFエリア A1の表示位置を 選択する。 AFエリア選択部 37は、 AFエリア A1の表示位置を選択して表示位置情 報を出力し、表示部 17に AFエリア枠 A1を表示させる。
[0062] 次に、ステップ S 207において、単位エリア選択部 40により選択された単位エリア( エリア Bid)でデフォーカス量を演算する。具体的には、合焦情報算出部 32では単 位エリア選択部 40において選択された各単位エリアの画像信号力もコントラストを算 出してコントラストがピークになる位置までのデフォーカス量を演算する。さらに具体 的には、合焦情報算出部 32からレンズ位置制御部 33へデフォーカス量を演算する という指令を送り、レンズ位置制御部 33ではレンズ駆動部 21によってフォーカスレン ズ 13を A方向あるいは B方向に駆動させ、フォーカスレンズ 13の位置情報を合焦情 報算出部 32に送る。このフォーカスレンズ 13の位置情報と画像信号力も算出された コントラスト情報力もコントラスト値が最も高くなるフォーカスレンズの位置と現在位置と からデフォーカス量を演算する。
[0063] 次に、ステップ S 207において選択された単位エリア (例えば、エリア Bid)で合焦さ せる。具体的には、合焦情報算出部 32で演算したデフォーカス量をレンズ位置制御 部 33へ送り、レンズ位置制御部 33ではこのデフォーカス量に基づ!/、てレンズ駆動部 21にフォーカスレンズ 13を駆動させ、被写体に合焦する。そして、ステップ S209の 処理に進む。
[0064] 一方、ステップ S204において AFエリア(エリア A1)内に特徴点がないと判定され た場合、ステップ S208において、合焦情報算出部 32、レンズ位置制御部 33、レン ズ駆動部 21によりフォーカスレンズ 13を図 1の A方向あるいは B方向に駆動すること により合焦情報算出部 32は、フォーカスレンズの位置情報と画像信号力も生成され るコントラスト信号とから、 AFエリア内のすべてのエリアに対してコントラスト値が最も 高くなるフォーカスレンズ 13の位置を演算する。このコントラスト値が最も高いフォー カスレンズ 13の位置と現在位置とからデフォーカス量を演算する。
[0065] ステップ S209においては、ステップ S207あるいはステップ S208の処理にて合焦 情報算出部 32で求めたデフォーカス量に基づ 、てレンズ位置制御部 33、レンズ駆 動部 21によりフォーカスレンズ 13を選択エリアで合焦させる動作を行い、次のステツ プ S210の処理に進む。ここで、ステップ S208においてはエリア A1内すベてのエリ ァで求めたデフォーカス量のうち最至近エリアのデフォーカス量を選択してステップ S 209で最至近エリアに合焦させるようにしてもよいし、中央付近のエリアを優先してデ フォーカス量を選択してステップ S209で中央付近のエリアに合焦させるようにしても よい。
[0066] 次に、ステップ S210において、シャッター釦 19aが全押しされたかどうかを判定し、 全押しされた場合には次のステップ S211の処理に進む。シャッター釦 19aが離され た場合には以上の処理はすべてやり直しとなる。ステップ S211ではシャッター釦 19 aが全押しされたタイミングで、システムコントローラ 30からの指令に基づき、画像メモ リ 16または画像処理部 15から出力される画像信号をメモリーカードに格納させる撮 像処理を行い、フォーカス追従撮像処理を終了させる。
[0067] 次に、本発明の特徴である AFエリアの表示位置制御方法について説明する。
[0068] 図 13は、特徴点位置演算部 35によって演算される特徴点の座標を示す図である。
図 13の上段に示すグラフは、特徴点が存在する単位エリアの X方向への経時変化を 示すグラフである。当該グラフにおいて、縦軸は、表示部 17における特徴点の存在 する単位エリアの X座標を表し、横軸は時間 tを表す。また、波形 Wxlは、特徴点位 置演算部 35から出力される特徴点位置情報のうち、 X方向における位置の経時変化 を示す波形である。波形 Wx2は、低域通過フィルタ 36から出力される抽出位置情報 のうち、 X方向における位置の経時変化を示す波形である。このように、 Wxlの低域 成分を抽出することにより、 Wxlに比べて変動が小さな波形を生成することができる
[0069] 一方、図 13の下段に示すグラフは、特徴点が存在する単位エリアの y方向への経 時変化を示すグラフである。当該グラフにおいて、縦軸は、表示部 17における特徴 点の存在する単位エリアの y座標を表し、横軸は時間 tを表す。また、波形 Wylは、 特徴点位置演算部 35から出力される特徴点位置情報のうち、 y方向における位置の 経時変化を示す波形である。波形 Wy2は、低域通過フィルタ 36から出力される抽出 位置情報のうち、 y方向における位置の経時変化を示す波形である。このように、 Wy 1の低域成分を抽出することにより、 Wylに比べて変動が小さな波形を生成すること ができる。
[0070] 図 13に示す 2つのグラフには、合焦情報算出処理あるいは特徴点抽出処理を行う 周期 Ts間隔で単位エリアの特徴点位置情報がプロットされる。例えば、図 11に示す 被写体の特徴点の動きを座標で表す場合、特徴点は、図 11A、図 11B、図 11C、図 11Dの順に移動する。このとき、 X座標は、図 13に示す Xa ( = 5)、 Xb ( = 10)、 Xc ( =8)、 (1 (= 11)と表され、 座標は、丫& ( = 6)、丫1) (= 5)、丫。(=4)、丫(1 (=8)と 表される。
[0071] 図 14は、 AFエリア枠及び単位エリア枠が表示された表示部 17の概観を示す図で ある。図 11及び図 13を用いて説明した被写体の特徴点は、図 14Aに示すように、ェ リア Bla、エリア Blb、エリア Blc、エリア Bidの順に座標が大きく変化している。特徴 点が抽出された単位エリアのみを表示する場合、例えば、合焦情報算出処理あるい は特徴点抽出処理を行う周期 Tsが lZ30 [s]として表示部に表示する画像を更新す ると、表示される単位エリアの位置が lZ30[s]ごとに変化するため、非常に見づらい 画面になってしまう。
[0072] これに対し、本発明に係る撮像装置は、これらの被写体の特徴点が抽出された単 位エリア(エリア Bla〜Bld)のみを表示するのではなぐ 1以上の単位エリアを範囲と して含むように AFエリア(エリア A1)を設定して表示させるようにする。具体的には、 低域通過フィルタ 36から出力される特徴点の存在するエリアの X座標と y座標それぞ れの低域成分にしたがつてあら力じめ決めたエリア A1のサイズ (ここでは 7 X 5個の 単位エリアを含むサイズ)の中心位置を設定し、表示部 17に表示させる。これ〖こより、 図 14Aに示すように、被写体の特徴点の位置がエリア Bla、 Blb、 Blc、 Bidの順で 小刻みに変化した場合であっても、 AFエリア(エリア A1)を安定した位置に表示させ ることがでさる。
[0073] また、図 14Bに示すように、被写体の特徴点が表示部 17の右上に存在する場合に は、被写体の特徴点を抽出した単位エリア(エリア B2a〜B2d)そのものではなぐこ れらのエリアを範囲として含むようにエリア A2が設定され表示される。したがって、 A Fエリアが表示部 17の中央に表示されている状態(図 14Aの状態)で撮像装置本体 を左下の方向にパーユングすると、表示部 17に表示されている AFエリアは右上方 向へゆっくりと移動していき、図 14Aから図 14Bの状態へと変化する。これにより、被 写体に追従して 、ることを明示するとともに見やす 、AFエリアとして表示させることが 可會 になる。
[0074] 以上のように、本実施の形態によれば、表示された AFエリアの位置が小刻みに変 動することがないため、被写体を捉えている範囲を見やすく画面上に表示させること ができる高操作性の撮像装置を提供することが可能である。また、必要最小限の最 適な大きさの AFエリア内で制御情報を演算するため、演算処理における負荷が軽 減されることとなる。したがって、撮像装置の機能を向上させることができる。また、特 徴点として用いる被写体の色情報はユーザによって任意に設定することができるた め、撮像装置の機能をさらに向上させることができる。
[0075] また、本実施の形態によれば、 AFエリアの中心座標が所定範囲外にある場合、 A Fエリアの中心座標をデフォルトにリセットし、 AFエリア枠を画面の中央部付近に移 動させる。撮像装置がデジタルスチルカメラやデジタルビデオカメラである場合、一 般的には、ユーザは、被写体が画面の端部に移動すると、被写体が画面の中央部 付近に写し出されるように撮像装置の向きを変える。したがって、 AFエリアの中心座 標が所定範囲外にある場合に、 AFエリアの中心座標をデフォルトにリセットすること により、 AFエリアの表示位置を画面の中央部付近に素早く移動させることができる。
[0076] なお、実施の形態 1において、画像分割部は画像信号を 18 X 13個の単位エリアに 分割し、表示部には 18 X 13個の単位エリア枠が表示される場合を例に説明したが、 単位エリアの設定は任意であり、適宜設定すればよい。また、単位エリアをいくつか 合わせて単位エリアとしてもよい。また、その場合、複数の単位エリアが互いに重なり 合ってもよい。
[0077] また、実施の形態 1では、 2 X 2個のエリア枠で特徴点情報を演算し記憶する例で 説明したが、エリア枠のサイズ及び位置の設定は任意である。
[0078] また、実施の形態 1では、特徴点情報設定部 41に撮像した被写体の色情報を格納 させる例について説明したが、これに限られない。例えば、撮像装置本体に、肌色な どあら力じめ 、くつかの参照色情報を特徴点情報として格納させてぉ 、てもよ 、。そ の場合、撮像装置が備えるメモリ等の記憶装置に予め特徴点情報を格納させておく 。そして、特徴点抽出部 34は、特徴点を抽出する際に、予めメモリに格納されている 特徴点情報に基づいて特徴点を抽出する。この場合、撮像装置に特徴点情報設定 部 41を備えて 、なくてもょ 、。
[0079] また、実施の形態 1では、フォーカス追従に用いられる AFエリアを囲む枠を AFエリ ァ枠として表示させる例について説明した力 フォーカス追従撮像処理に用いるエリ ァと表示させるエリアとは必ずしも一致している必要はない。例えば、 AFエリア内だ けでなぐ全てのエリアにおいて、合焦情報算出処理及び特徴点抽出処理を行って もよい。なお、 AFエリア枠の小刻みな位置変動を防止し、画面を見やすくするために 、表示する AFエリア枠の面積は、合焦情報が算出されるエリアの面積よりも大きくす ることが好ましい。
[0080] また、実施の形態 1では、フォーカス追従処理の開始時に最初に表示される AFェ リアの表示位置と、その中心座標が所定範囲外になつた場合の AFエリアの表示位 置とは、画面の中央部付近である例について説明した力 AFエリアのデフォルトの 表示位置はこれに限られない。例えば、監視カメラ等において、被写体は画面の端 部に現れることが多い。したがって、このような場合、 AFエリアのデフォルトの表示位 置を画面の端部としてもょ 、。
[0081] (実施の形態 2)
実施の形態 1において、撮像装置は、特徴点を抽出する際に色情報を利用してい たが、これに対し、本実施の形態に係る撮像装置は、特徴点を抽出する際に輝度に 関する情報を利用することを特徴とする。
[0082] 図 15は、本発明の実施の形態 2に係る撮像装置の構成を示すブロック図である。
実施の形態 2に係る撮像装置は、実施の形態 1に係る撮像装置と概略構成が等しい ので、図 1と同様に機能する構成要素については同一の参照符号を付し、詳細な説 明は省略する。
[0083] 図 15に示すシステムコントローラ 30aは、図 1に示す実施の形態 1に係る撮像装置 が備えるシステムコントローラ 30と比較すると、特徴点抽出部 34及び特徴点情報設 定部 41が省略されている点で相違する。また、図 15に示すシステムコントローラ 30a において、画像分割部及び特徴点位置演算部の動作が実施の形態 1と異なるため、 本実施の形態における画像分割部及び特徴点位置演算部を、実施の形態 1におけ る画像分割部 31及び特徴点位置演算部 35と区別するために、それぞれ画像分割 部 31a及び特徴点位置演算部 35aと呼ぶ。
[0084] 画像分割部 31aは、画像分割部 31aは、単位エリア毎に分割した画像信号を合焦 情報算出部 32及び特徴点位置演算部 35aへ出力する。
[0085] 特徴点位置演算部 35aは、画像分割部 31aにより複数の単位エリアに分割された 画像信号から、各単位エリアの輝度に関する情報 (以下、輝度情報と呼ぶ)に基づい て特徴点が存在する位置を演算する。具体的には、特徴点位置演算部 35aは、輝度 情報が示す輝度値のうち、時間の経過と共に変化するものがあるカゝ否かを判断する 。特徴点位置演算部 35aは、所定のタイミングにおける画像信号の輝度値と、当該所 定のタイミングカゝら一定時間が経過したタイミングにおける画像信号の輝度値とを比 較し、輝度値の差分が所定の閾値よりも大きい場合に、輝度値が変化したと判断する 。そして、特徴点位置演算部 35aは、輝度値が変化した位置を特徴点が存在する位 置であると判断し、演算により得られた特徴点位置情報を低域通過フィルタ 36及び 単位エリア選択部 40へ出力する。
[0086] 本実施の形態にぉ 、て、フォーカス追従撮像処理における撮像装置の動作は、特 徴点を抽出する際に輝度情報を用いることの他は実施の形態 1に係る撮像装置の動 作と同様であるため、図 10を援用し、説明を省略する。
[0087] 以上のように、本実施の形態によれば、輝度情報を利用して被写体にフォーカス追 従させることができる。なお、本実施の形態では、輝度値が変化した位置を特徴点と して抽出していたが、輝度値を用いた特徴点の抽出方法はこれに限られず、例えば 、ある特定の輝度値または一定値以上の輝度値を特徴点として予め設定してぉ 、て もよい。その場合、ある特定の輝度値または一定値以上の輝度値を予めメモリに格納 させておく。特徴点位置演算部はメモリに格納されている輝度値を読み出し、特徴点 抽出処理を行う。これは、撮像装置が例えば監視カメラ等の備え付けカメラであって 、写し出される背景がほぼ固定されている場合に特に有効である。
[0088] (実施の形態 3)
実施の形態 1において、撮像装置は、特徴点を抽出する際に色情報を利用してい たが、これに対し、本実施の形態に係る撮像装置は、特徴点を抽出する際に動きべ タトルを利用することを特徴とする。
[0089] 本実施の形態に係る撮像装置の構成は、実施の形態 2に係る撮像装置の構成と同 様であるため、図 15を援用する。
[0090] 特徴点位置演算部 35aは、画像分割部 31aにより複数の単位エリアに分割された 画像信号から、各単位エリアの輝度情報が示す輝度値に基づいて、所定の時間あた りの被写体 (特徴点)の動きベクトルを X方向及び y方向それぞれに検出する。特徴点 位置演算部 35aは、検出した動きベクトルを特徴点情報として低域通過フィルタ 36及 び単位エリア選択部 40へ出力する。
[0091] 本実施の形態において、フォーカス追従撮像処理における撮像装置の動作は、特 徴点として動きベクトルを抽出することの他は実施の形態 1に係る撮像装置の動作と 同様であるため、図 10を援用し、説明を省略する。
[0092] 以上のように、本実施の形態によれば、動きベクトルを利用してフォーカス追従する ことができる。
[0093] (実施の形態 4)
実施の形態 1において、撮像装置は、特徴点を抽出する際に色情報を利用してい たが、これに対し、本実施の形態に係る撮像装置は、特徴点を抽出する際にエッジ 情報を利用することを特徴とする。
[0094] 図 16は、本発明の実施の形態 4に係る撮像装置の構成を示すブロック図である。
本実施の形態に係る撮像装置は、実施の形態 1に係る撮像装置と概略構成が等し いので、図 1と同様に機能する構成要素については同一の参照符号を付し、詳細な 説明は省略する。
[0095] 図 16に示すシステムコントローラ 30bは、図 1に示す実施の形態 1に係る撮像装置 が備えるシステムコントローラ 30と比較すると、特徴点抽出部 34及び特徴点情報設 定部 41が省略されている点で相違する。また、図 16に示すシステムコントローラ 30b において、特徴点位置演算部及び合焦情報算出部の動作が実施の形態 1と異なる ため、本実施の形態における特徴点位置演算部及び合焦情報算出部を、実施の形 態 1における特徴点位置演算部 35及び合焦情報算出部 32と区別するために、それ ぞれ特徴点位置演算部 35b及び合焦情報算出部 32bと呼ぶ。
[0096] 本実施の形態において、合焦情報算出部 32bは、各単位エリアのコントラスト情報 を特徴点位置演算部 35bへ出力する。
[0097] 特徴点位置演算部 35bは、合焦情報算出部 32bから出力されるコントラスト情報に 基づいて、特徴点が存在する位置を演算する。具体的には、特徴点位置演算部 35 bは、コントラスト情報に基づき、背景と被写体とのコントラスト差力も生じ、被写体の輪 郭を示すエッジ情報を生成する。エッジ情報を生成する方法として、例えば、輝度値 の比較により 2値化する方法や、微分フィルタを用 、てエッジ検出する方法があるが 、エッジ情報を生成することができる方法であればよぐこれら以外の方法を用いてェ ッジ情報を生成してもよい。
[0098] 特徴点位置演算部 35bは、所定のタイミングにおけるエッジ情報と、当該所定のタ イミングから一定時間が経過したタイミングにおけるエッジ情報とを比較し、変化した エッジの位置を特徴点として抽出し、演算により得られた特徴点の特徴点位置情報 を低域通過フィルタ 36及び単位エリア選択部 40へ出力する。
[0099] 本実施の形態にぉ 、て、フォーカス追従撮像処理における撮像装置の動作は、特 徴点としてエッジ情報を抽出することの他は実施の形態 1に係る撮像装置の動作と同 様であるため、図 10を援用し、説明を省略する。
[0100] 以上のように、本実施の形態によれば、エッジ情報を利用してフォーカス追従する こと
[0101] (実施の形態 5)
実施の形態 1〜4において、撮像装置は、ユーザによりシャッター釦 19aが半押しさ れた場合にフォーカス追従撮像処理を開始していた。これに対し、本実施の形態に 係る撮像装置は、シャッター釦が半押しされ、かつ所定の焦点距離以上になるとフォ 一カス追従撮像処理を開始することを特徴とする。
[0102] 図 17は、本発明の実施の形態 5に係る撮像装置の構成を示すブロック図である。
実施の形態 2に係る撮像装置は、実施の形態 1に係る撮像装置と概略構成が等しい ので、図 1と同様に機能する構成要素については同一の参照符号を付し、詳細な説 明は省略する。
[0103] 図 17におけるシステムコントローラ 30cは、図 1に示す実施の形態 1に係る撮像装 置が備えるシステムコントローラと比較すると、焦点距離演算部 42をさらに含む点で 相違する。また、図 17に示すシステムコントローラ 30cにおいて、特徴点位置演算部 及びレンズ位置制御部の動作が実施の形態 1と異なるため、本実施の形態における 特徴点位置演算部及びレンズ位置制御部を、実施の形態 1における特徴点位置演 算部 35及びレンズ位置制御部 33と区別するために、それぞれ特徴点位置演算部 3 5c及びレンズ位置制御部 33cと呼ぶ。
[0104] レンズ位置制御部 33cは、合焦情報算出部 32から出力されるデフォーカス量に基 づ 、てフォーカスレンズ 13の位置を制御するための制御信号を生成し、レンズ駆動 部 21及び焦点距離演算部 42へ出力する。
[0105] 焦点距離演算部 42は、レンズ位置制御部 33cから出力される制御信号に基づき、 焦点距離を演算する。そして、焦点距離が所定値以上になると、焦点距離演算部 42 は、フォーカス追従撮像処理を開始するよう特徴点位置演算部 35cに指示する。特 徴点位置演算部 35cは、焦点距離演算部 42からフォーカス追従撮像処理を開始す るための指示を受け取ると、フォーカス追従撮像処理を開始する。
[0106] 図 18は、実施の形態 5に係る撮像装置のフォーカス追従撮像処理における動作を 示すフローチャートである。図 18に示すフローチャートは、システムコントローラ 30c 上で動作するプログラムの動作フローを示す。図 18において、ユーザによりシャツタ ー釦 19aが半押しされた場合、フォーカス追従撮像処理が開始される。
[0107] ステップ S301において、焦点距離演算部 42は、レンズ位置制御部 33cから出力さ れる制御信号に基づいて焦点距離を演算する。続くステップ S302において、焦点距 離演算部 42は、演算した焦点距離が所定値以上である力否かを判断する。焦点距 離が所定値未満である場合、焦点距離演算部 42はフォーカス追従撮像処理を終え る。
[0108] 一方、焦点距離が所定値以上である場合、焦点距離演算部 42は、図 10のステツ プ S 201の処理へ進む。ステップ S 201以降の処理は実施の形態 1と同様であるため 、図 10を援用し、説明を省略する。
[0109] 以上のように、本実施の形態によれば、ユーザによりシャッター釦が半押しされ、力 つ焦点距離が一定値以上となった場合にフォーカス追従撮像処理を開始することが できる。これにより、高倍率で撮像する際に被写体の移動量が大きくなつた場合にお Vヽても、被写体を捉えて 、る AFエリアの表示を見やすく画面に表示させることができ る。
[0110] (実施の形態 6)
実施の形態 1〜5に係る撮像装置は、特徴点の移動に伴い AFエリア枠の位置のみ を変更しており、 AFエリアの大きさは常に一定であった。これに対し、本実施の形態 に係る撮像装置は、被写体の移動量に応じて AFエリアの大きさを変更することを特 徴とする。
[0111] 図 19は、本発明の実施の形態 6に係る撮像装置の構成を示すブロック図である。
実施の形態 6に係る撮像装置は、実施の形態 1に係る撮像装置と概略構成が等しい ので、図 1と同様に機能する構成要素については同一の参照符号を付し、詳細な説 明は省略する。
[0112] 図 19に示すシステムコントローラ 30dは、図 1に示す実施の形態 1に係る撮像装置 が備えるシステムコントローラ 30と比較すると、エリア面積変更部 43とをさらに含む点 で相違する。また、図 19に示すシステムコントローラ 30dにおいて、特徴点位置演算 部 35d及び AFエリア選択部 37dの動作が実施の形態 1と異なるため、本実施の形態 における特徴点位置演算部及び AFエリア選択部を実施の形態 1における特徴点位 置演算部 35及び AFエリア選択部 37と区別するために、それぞれ特徴点位置演算 部 35d及び AFエリア選択部 37dと呼ぶ。
[0113] 特徴点位置演算部 35dは、実施の形態 1と同様に、特徴点抽出部 34により抽出さ れた被写体の特徴点の X方向及び y方向の座標を演算して出力する。実施の形態 1 において、特徴点位置演算部 35dは、座標情報を低域通過フィルタ 36及び単位エリ ァ選択部 40へ出力していた。これに対し、本実施の形態において、特徴点位置演算 部 35dは、座標情報を低域通過フィルタ 36、単位エリア選択部及びエリア面積変更 部 43へ出力する。
[0114] エリア面積変更部 43は、特徴点位置演算部 35dから出力された特徴点位置情報 に基づき、 AFエリアの面積を算出する。具体的には、エリア面積変更部 43は、特徴 点位置情報の波形に対して包絡線検波や 2乗平均を行うなどして振幅を演算する。 そして、エリア面積変更部 43は、振幅の変化に応じて、 AFエリアの面積を AFエリア 選択部 37dに通知する。以下、特徴点位置情報として、 X座標及び y座標の情報に 基づ ヽて包絡線検波を行 ヽ、振幅を演算する場合を例に説明する。
[0115] AFエリア選択部 37dは、エリア面積変更部 43に通知された面積と、定期通過フィ ルタ 36から出力された抽出位置情報とに基づいて、 AFエリアの表示位置および面 積を算出する。そして、 AFエリア選択部 37dは、算出した AFエリアの表示位置およ び面積を表示位置情報として表示部 17へ出力し、 AFエリア枠を表示させる。 [0116] 本実施の形態において、フォーカス追従撮像処理における撮像装置の動作は、実 施の形態 1と比較すると、図 10に示すフローチャートのステップ S206以降の処理が 異なる。図 20は、実施の形態 6に係る撮像装置のフォーカス追従撮像処理における 動作を示すフローチャートである。以下、図 10及び図 20を参照し、本実施の形態に 係る撮像装置の動作につ!、て説明する。
[0117] 図 10に示すステップ S206において、 AFエリア選択部 37dは、 AFエリアの表示位 置を選択する。次に、図 20に示すステップ S401において、エリア面積変更部 43は、 AFエリアの面積を変更するカゝ否かを判断する。具体的には、エリア面積変更部 43は 、特徴点位置情報の波形に基づいて包絡線検波を行い、振幅の変化が所定値以上 であるか否かを判断する。
[0118] AFエリアの面積に変更がある場合、つまり、振幅の変化が所定値以上である場合 、エリア面積変更部 43は、 AFエリアの面積を AFエリア選択部 37dに通知する。
[0119] 続くステップ S402において、 AFエリア選択部 37dは、通知された面積と抽出位置 情報とに基づいて、 AFエリアの表示位置および面積を算出し、表示位置情報として 表示部 17へ出力する。表示部 17は、表示位置情報に基づき AFエリア枠を表示する 。そして、処理は図 10のステップ S207へ進む。一方、 AFエリアの面積に変更がな い場合、つまり、振幅の変化が所定値以下である場合、エリア面積変更部 43は、 AF エリア枠の大きさを通知せずに図 10のステップ S207の処理へ進む。
[0120] 図 21は、特徴点位置演算部 35dによって演算される特徴点の座標を示す図である 。図 21の上段に示すグラフは、特徴点が存在する単位エリアの X方向への経時変化 を示すグラフである。当該グラフにおいて、縦軸は、表示部 17における特徴点の存 在する単位エリアの X座標を表し、横軸は時間 tを表す。また、波形 Wx3は、特徴点 位置演算部 35dから出力される特徴点位置情報のうち、 X方向における位置の経時 変化を示す波形である。波形 Wx4は、低域通過フィルタ 36から出力される抽出のう ち、 X方向における位置の経時変化を示す波形である。
[0121] 一方、図 21の下段に示すグラフは、特徴点が存在する単位エリアの y方向への経 時変化を示すグラフである。当該グラフにおいて、縦軸は、表示部 17における特徴 点の存在する単位エリアの y座標を表し、横軸は時間 tを表す。また、波形 Wy3は、 特徴点位置演算部 35dから出力される特徴点位置情報のうち、 y方向における位置 の経時変化を示す波形である。波形 Wy4は、低域通過フィルタ 36から出力される抽 出のうち、 X方向における位置の経時変化を示す波形である。ここで説明した Wx3, Wx4, Wy3, Wy4は、それぞれ実施の形態 1で説明した図 13に示す Wxl, Wx2, Wyl, Wy 2と同様である。
[0122] 包絡線検波を行う際には、予め所定の閾値が定められており、当該所定の閾値以 上の値、及び所定の閾値未満の値のそれぞれについて包絡線検波が行われる。図 21において、波形 Wx5は、波形 Wx3の座標のうち、所定の閾値以上の座標に基づ いて包絡線検波を行った波形を表す。また、波形 Wx6は、波形 Wx3の座標のうち、 所定の閾値未満の座標に基づ!ヽて包絡線検波を行った波形を表す。この波形 Wx5 と波形 Wx6との差力 方向の振幅となる。
[0123] 一方、波形 Wy5は、波形 Wy3の座標のうち、所定の閾値以上の座標に基づいて 包絡線検波を行った波形を表す。また、波形 Wy6は、波形 Wy3の座標のうち、所定 の閾値未満の座標に基づ!ヽて包絡線検波を行った波形を表す。この波形 Wy5と波 形 Wy6との差力 ^方向の振幅となる。
[0124] このように、エリア面積変更部 43は、 X方向及び y方向について被写体の特徴点の 位置変化を振幅として求め、表示すべき AFエリアの面積 (単位エリアの数)を算出す る。
[0125] 図 22は、実施の形態 6における AFエリア枠が表示された表示部 17の概観図であ る。以下、図 21及び図 22を参照して、表示部 17に表示される AFエリア枠のサイズ の制御方法にっ 、て説明する。
[0126] 図 21において、時間 tlに近づくにつれて被写体の移動量が大きくなり、 X方向及び y方向における特徴点の位置変動の振幅が大きくなつている。時間 0において、 AF エリア A3aが 7 X 5個の単位エリアから形成されて!、る場合、時間 tlに近づくにつれ 、 9 X 7個の単位エリアから形成される AFエリア A3b, 10 X 8個の単位エリアから形 成される AFエリア A3cの順に、表示部 17に表示される AFエリア枠のサイズが拡大さ れる。
[0127] 以上のように、本実施の形態によれば、実施の形態 1〜5において説明した効果に カロえて、被写体の動きに合わせて AFエリアのサイズを制御するような構成を有して ヽ るため、撮像装置本体の手振れ量の個人差や高倍率にした場合における手振れ量 が大きくなる状態に合わせて AFエリアの大きさが制御され、画面上での被写体の動 きに合わせて小刻みに AFエリア枠の表示位置が変動することなく被写体を捉える範 囲をさらに安定に見やすく表示させることができ、かつフォーカス追従するための演 算処理も最小限の負荷で行うことができる。
[0128] また、手振れ等の像ぶれによる画面上での被写体の動きの変動はズーム倍率にほ ぼ比例して大きくなるため、ズーム倍率にほぼ比例して AFエリアのサイズを変更する ように構成することで、特徴点の位置変動の包絡線検波を用いたサイズ変更の機能 に加えて応答性を向上させることが可能になる。
[0129] なお、本実施の形態では、包絡線検波の処理について、図 21に示すように、所定 の閾値以上ある!/、は所定の閾値未満の特徴点の座標に基づ!、て行う場合を例に説 明した。ここで、特徴点の座標が所定の閾値以上であり、かつ前回の座標を上回る 値であった場合に、今回の座標を包絡線検波の出力として求める、あるいは特徴点 の座標が所定の閾値未満であり、かつ前回の座標を下回る値であった場合に、今回 の座標を包絡線検波の出力として求める、いわゆるピークホールドの処理を施しても よい。また、所定の時間経過後は、ピークホールドの処理をリセットし、最初からピーク ホールドの処理を行うようにしてもよ!、。
[0130] (実施の形態 7)
本発明に係る実施の形態 7では、実施の形態 1にお ヽて説明した低域通過フィルタ 36の動作原理について、さらに詳細に説明する。実施の形態 1では、特徴点位置演 算部 35から出力される特徴点位置情報力 高域成分を除去することにより、特徴点 位置情報の時間的な振動周波数の低域成分を抽出して出力し、抽出した低域成分 の値を AFエリアの表示位置情報として AFエリア選択部 37へ出力するものとして説 明した。
[0131] 本実施の形態では、低域通過フィルタ 36の具体的な構成およびカットオフ周波数 f cの設定方法について説明する。なお、本実施の形態に係る撮像装置は、実施の形 態 1に係る撮像装置と概略構成が等しいので、図 1と同様に機能する構成要素につ いては同一の参照符号を付し、詳細な説明は省略する。
[0132] 図 23A〜Dは、被写体とエリア枠が写し出された表示部 17の概観図である。図 23 では、表示部 17に表示すべき画像信号を横方向(X方向)に 16分割、 y方向に 12分 割した例を示している。この場合、画像信号は 16 X 12個の単位エリアに分割され、 表示部 17には、 16 X 12個の単位エリアをそれぞれ囲む単位エリア枠が表示される 。なお、図 23A〜Dに示す各単位エリアの座標は、 X方向が 0〜15、 y方向が 0〜11 の単位で表される。例えば、表示部 17を Q VGA (Quarter VGA)とした場合、 x方 向の画素数は 320、 y方向の画素数は 240であるため、単位エリア B4a〜dは、それ ぞれ 20 [画素] X 20 [画素]で表されるエリアとして定義される。
[0133] 図 23A〜Dは、図 23A、図 23B、図 23C、図 23Dの順に、手振れあるいは被写体 の移動により、表示部 17に写し出されて 、る被写体 P 1の位置が変化する様子を示 している。これに伴い、特徴点抽出部 34において抽出される被写体の特徴点が存在 する単位エリア枠は、座標(7, 5)のエリア B4a、座標(8, 6)のエリア B4b、座標(8, 5)のエリア B4c、座標(7, 6)のエリア B4dの順に移動する。
[0134] 図 23A〜Dにおいて、点線枠は、従来の撮像装置のフォーカス追従により移動す る AFエリア枠を示す。図 23A〜Dに示す例では、 X方向の特徴点位置情報は、 7、 8 、 8、 7の順に出力され、 y方向の特徴点位置情報は、 5、 6、 5、 6の順に出力される。 先に述べたように、単位エリア B4は 20 [画素] X 20 [画素]で構成されるので、 X方向 の座標が 7から 8へ、あるいは 8から 7へ変化した場合、被写体の像ぶれが X方向に 2 0 [画素]分生じ、 y方向の座標が 5から 6へ、あるいは 6から 5へ変化した場合、被写 体の像ぶれが y方向に 20 [画素]分生じることとなる。例えば、特徴点位置情報が 1Z 30秒毎に出力され、被写体が AFエリアの中心に位置するように AFエリア枠の表示 位置を移動させた場合、従来の撮像装置では、 AFエリア枠が 1Z30秒毎に 20 [画 素]分ずつ X方向または y方向に移動する。したがって、表示される AFエリア枠の位 置が小刻みに変動することとなるため、画面の表示が非常に見づらくなつてしまう。
[0135] 一方、図 23A〜Dにおいて、エリア A4a〜dを囲む実線枠は、本実施形態に係る撮 像装置のフォーカス追従により移動する AFエリア枠を示す。本実施の形態に係る撮 像装置は、座標の時間的な振動周波数の変動成分のうち、低域成分を抜き取る低 域通過フィルタ 36を備えているため、 AFエリア枠の小刻みな位置変動を防止するこ とがでさる。
[0136] 図 24は、本実施の形態に係る低域通過フィルタ 36の詳細を示すブロック図である 。図 24は、低域通過フィルタ 36力 ディジタル回路で構成された IIR (Infinite Imp ulse Response)である場合の構成例である。
[0137] 低域通過フィルタ 36は、位置情報処理部 360xと、位置情報処理部 360yとを有す る。位置情報処理部 360xは、係数ブロック 361、 363と、遅延ブロック 362と、加算ブ ロック 364とからなり、x方向の特徴点位置情報の時間的な振動周波数力も低域成分 を抜き取って出力する。位置情報処理部 360yは、係数ブロック 365、 367と、遅延ブ ロック 366と、加算ブロック 367とからなり、 y方向の特徴点位置情報の時間的な振動 周波数力も低域成分を抜き取って出力する。位置情報処理部 360xおよび位置情報 処理部 360yは処理する特徴点位置情報が相違するが、基本的な動作は同じである ため、位置情報処理部 360xを代表例として説明する。
[0138] まず、特徴点位置演算部 35から出力された X方向の特徴点位置情報が低域通過 フィルタ 36の加算ブロック 364に入力される。ここで、例えば、特徴点位置演算部 35 は、 X方向の特徴点位置情報として図 23 A〜Dに示す単位エリア B4の X方向の座標 を出力し、 y方向の特徴点位置の座標として図 23A〜Dに示す単位エリア B4の y方 向の座標を出力する。特徴点位置情報は、例えば、 1Z30秒毎に更新して出力され る。
[0139] 加算ブロック 364は、特徴点位置演算部 35から出力される値と、係数ブロック 363 力も出力される値とを加算する。係数ブロック 361は、加算ブロック 364によって加算 された値を所定の係数 K1で処理し、エリア A選択部 37へ出力する。
[0140] 遅延ブロック 362は、加算ブロック 364によって加算された値を所定の時間だけ遅 延させて係数ブロック 363へ出力する。本実施の形態において、遅延ブロック 362は 、入力された信号を lZfs= lZ30 [s]だけ遅延させて出力するものとする(fs :サン プリング周波数)。
[0141] 係数ブロック 363は、遅延ブロック 362から出力される値を所定の係数 K2で処理し 、加算ブロック 364へ出力する。 [0142] ここで、カットオフ周波数を fcとして、 fc< <fsが成り立つとすると、以下に示す数式 (1)で表される K1および数式(2)で表される K2を係数として設定することで、低域通 過フィルタを構成することができる。
[0143] Κ1 = 1/{ 1 + 1/ (30 Χ 2 Χ π X fc) } - - - (1)
Κ2= 1/{ 1 + (30 Χ 2 Χ π X fc) } · · · (2)
[0144] 上記の数式(1)および(2)に示すように、カットオフ周波数 fcを小さくすると、 AFエリ ァ枠の変動量を減少させることができる。したがって、係数 K1および K2に含まれる力 ットオフ周波数 fcを適切に設定することにより、 AFエリア枠の変動量を調整すること ができるため、ユーザが AFエリア枠の振動を感じないようにカットオフ周波数 fcを設 定すればよいことが分かる。
[0145] 図 25A、 Bは、低域通過フィルタ 36の入出力信号波形である。図 25Aは、低域通 過フィルタ 36に入力する入力信号の波形を示す図であり、図 25Bは、低域通過フィ ルタ 36から出力される出力信号の波形を示す図である。図 25A、 Bにおいて、縦軸 は被写体の変位量に相当する画素数を表し、横軸はフレーム番号を表す。
[0146] 低域通過フィルタ 36へ入力される信号としては、 X方向および y方向の 2系統が存 在するが、図 25Aおよび Bには、そのうちの一系統のみの入力信号の波形と出力信 号の波形とを示している。また、図 25Bは、カットオフ周波数 fc = 0. 2[Hz]として係 数 K1および K2を設定した場合に、図 25Aに示す入力信号が入力した低域通過フィ ルタ 36から出力される出力信号をモニタしたグラフである。
[0147] 図 25Aでは、入力信号によって表される被写体の位置が ± 20 [画素]の範囲で変 動している例を示す。図 25Bに示す出力信号は、カットオフ周波数 fc = 0. 2[Hz]の 低域通過フィルタ 36における位置情報処理部 360xまたは 360yに入力した入力信 号が減衰して出力されている様子を示す。フレームの更新周期が 1Z30秒である場 合、フレーム番号 0〜300までに力かる時間は 10秒である。
[0148] 次に、本実施形態に係る低域通過フィルタ 36のカットオフ周波数 fcを変化させ、表 示部 17に写し出される被写体の像ぶれの程度を評価した。具体的には、 10名の被 験者が、それぞれ QVGAの 2. 5インチのモニタ画面に写し出される被写体の像ぶれ を評価し、像ぶれの程度が「像ぶれ問題なし: 1点」、「どちらとも言えない: 0. 5点」、「 像ぶれ問題あり: 0点」の 、ずれに該当するかを判断した。
[0149] そして、低域通過フィルタのカットオフ周波数 fcを 5 [Hz]、 4 [Hz]、 3 [Hz]、 2 [Hz] 、 l [Hz]、0. 5 [Hz]、0. 2「Hz」、0. 1 [Hz] · · ·と段階的に変化させた場合のそれ 、て、被験者による像ぶれの評価を行った。
[0150] 図 26は、低域通過フィルタ 36のカットオフ周波数 fcと、被験者による像ぶれ評価点 との関係を示すグラフである。図 26において、縦軸は被験者による像ぶれの評価点 の平均値を表し、横軸はカットオフ周波数 fcを表す。
[0151] 図 26に示すように、評価の結果、低域通過フィルタ 36のカットオフ周波数 fcを 1 [H z]よりも大きく設定した場合、「像ぶれ問題あり」と評価される割合が多力つた。一方、 カットオフ周波数 fcを 1 [Hz]以下に設定した場合、「像ぶれ問題あり」から「像ぶれ問 題なし」に評価される割合が多くなつた。さらに、カットオフ周波数 fcを 0. l [Hz]以下 に設定すると、ほぼ全員が「像ぶれ問題なし」と評価した。
[0152] 以上より、低域通過フィルタのカットオフ周波数 fcを 0. 1 [Hz]〜1 [Hz]の範囲で設 定することで、 AFエリア枠が小刻みに変動することやぎくしゃくすることを低減するこ とができ、比較的見やすい AFエリア枠をモニタ画面上に表示させることができる。図 23A〜Dに示すように、被写体 P1が lZ30[s]毎に小刻みに移動している場合であ つても、本実施形態によれば、被写体 P1の移動範囲がほぼ中心となるように、実線 枠で示された AFエリア枠の表示位置を安定させることができる。
[0153] 次に、ユーザにとって見やすい表示となる AFエリア枠の変動範囲について具体的 に説明する。低域通過フィルタへ入力する入力信号において、 X方向および y方向の 被写体の位置がそれぞれ 40 [画素]の範囲で lZfs[s]毎にランダムに変位すると仮 定した場合、入力信号が存在する周波数の範囲は、サンプリング周波数 fsの 1Z2と 定義することができる。また、 fsZ2の範囲に存在する入力信号の平均電力は、統計 的に fc X π Ζ2と表される。したがって、低域通過フィルタ 36を通過した出力信号の 電力は、(fc X π Ζ2)Ζ(ίβΖ2)に減衰する。ここで、電圧 ^電力 の関係にあ ることから、カットオフ周波数 fc [Hz]の 1次の低域通過フィルタから出力される X方向 の変位量 Ρχと、 y方向の変位量 Pyとは、以下に示す数式(3)および (4)で表すこと ができる。 [0154] Ρχ= { (ίο Χ π /2) / (fs/2) } (1/2) X 40 · · · (3)
Ργ= { (ίο Χ π /2) / (fs/2) } (1/2) X 40… (4)
[0155] 数式(3)および (4)において、例えば、カットオフ周波数 fcをパラメータとした場合、 下記のように AFエリア枠の表示位置の変動を低減することができる。
[0156] fc = 5 [Hz]のとき Px = Py^ 29 [画素]
fc = 4 [Hz]のとき Px = Py 26 [画素]
fc = 3 [Hz]のとき Px = Py 22 [画素]
fc = 2 [Hz]のとき Px = Py 18 [画素]
fc = l [Hz]のとき Px = Py^ l3 [画素]
fc = 0. 5 [1¾]のとき1½ = ? 9 [画素]
fc = 0. 2 [Hz]のとき Px = Py 6 [画素]
fc = 0. l [Hz]のとき Px = Py 4 [画素]
[0157] 以上より、モニタ画面の更新周期が lZ30[s]である場合、 fc = 0. l [Hz]〜l [Hz ]の範囲では、像ぶれが 4 [画素]〜 13 [画素]残留する。し力しながら、 320 [画素] X 240 [画素]の QVGAの画面サイズに対して、おおよそ 1〜5%以内で AFエリア枠の 表示位置の変動を低減することにより、被写体の動きに合わせて AFエリア枠が小刻 みに変動することなぐ画面の表示を見やすくすることができる。
[0158] また、本実施の形態では、低域通過フィルタ 36はディジタルフィルタで構成されて いる。これにより、低域通過フィルタのカットオフ周波数 fcやブロックの係数を変更す ることで、 AFエリア枠の表示条件を容易に設定 Z変更することができる。したがって 、モニタ画面のサイズや撮像装置本体の大きさ、種類の違いによる像ぶれ量の差に 応じて、容易に AFエリア枠の表示を見やす 、条件に設定することが可能になる。
[0159] また、本実施の形態では、被写体の位置情報に時間的な変動を抑制する低域通 過フィルタを介して出力した位置情報に基づ 、て AFエリア枠を表示させる際に、当 該低域通過フィルタのカットオフ周波数 fcを 0. 1 [Hz]〜1 [Hz]の範囲に設定する例 について説明した力 カットオフ周波数 fcはユーザが AFエリア枠の小刻みな振動を 感じない程度であればよぐ例えば、画面の画素数やコントラスト、被写体の大きさに 応じて適宜決定するとよい。また、本実施の形態では、モニタ画像を 2. 5インチの Q VGAとした場合に、像ぶれを 4 [画素]〜 13 [画素]残留する程度に抑えれば、画面 の表示を比較的見やすくすることができるという一例について説明した力 モニタ画 面を 2. 5インチの 640 [画素] X 480 [画素]の VGAとした場合には、一方向の解像 度アップ率に比例して像ぶれを 8 [画素]〜26 [画素]残留する程度に抑えれば、画 面の表示を比較的見やすくすることができる。さらに、モニタ画面を 3インチの VGAと した場合には、インチ数アップ率に反比例して像ぶれを 6. 7 [画素]〜 10. 8 [画素] 残留する程度に抑えれば、画面の表示を比較的見やすくすることができる。
[0160] また、ここでは IIRのディジタルフィルタとして、係数 K1が数式(1)で表され、係数 K 2が数式 (2)で表される場合を例に説明したが、この係数の選び方は自由であり、力 ットオフ周波数が上述の範囲になるように選べばよい。また、低域通過フィルタは、 II Rフィルタに限らず、 FIR (Finite Impulse Response)フィルタや 2次のディジタル フィルタ、その他高次のディジタルフィルタで構成されていてもよい。また、低域通過 フィルタはアナログのフィルタであってもよぐその場合、被写体の特徴点位置情報を ー且アナログ信号として取り出すとよい。また、ディジタルフィルタはマイコンなどにプ ログラミングすることで構成してもよ 、し、ハードウェアで構成してもよ 、。
[0161] 各実施の形態に力かる撮像装置は、具体的な対応に限られず適宜変更可能であ る。例えば、各実施の形態にかかる撮像装置は、いずれもユーザによりシャッター釦 が操作されて静止画を取得するデジタルスチルカメラである場合を例に説明した力 撮像釦が操作されている間所定のタイミングで画像が取得されつづけるデジタルビ デォカメラとしても適用可能である。この場合、被写体が移動してもフォーカス追従を 行うことができる。また、各実施の形態に力かる撮像装置は、監視カメラ、車載カメラ、 ウェブカメラに適用してもよい。この場合、ユーザによりシャッター釦を操作することが 難しい場合があり得る力 シャッター釦を所定のタイミングで自動的に操作したり、遠 隔操作する等してもよい。
[0162] また、各実施の形態にかかる撮像装置は、システムコントローラを個別に備える例 であったが、これをパーソナルコンピュータや携帯電話端末の制御 CPUに代用させ てなる撮像システムに適用することも可能である。その他、各構成要素同士は、任意 の糸且み合わせが可能であり、例えば、撮影光学系及び撮像素子とその他の構成が 物理的に分離されたシステム例、撮影光学系、撮像素子、画像処理部と、その他の 構成が物理的に分離されたシステム例などさまざまな組み合わせを考えて良い。 産業上の利用可能性
本発明は、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置に好適であ る。

Claims

請求の範囲
[1] 被写体の電気的な画像信号を出力する撮像装置であって、
焦点調節を行うためのフォーカスレンズ群を含み、前記被写体の光学的な像を形 成する撮像光学系と、
前記被写体の光学的な像を撮像して、前記電気的な画像信号に変換する撮像素 子と、
前記画像信号を複数のエリアに分割する画像分割部と、
前記複数のエリアのうち、少なくとも 1つのエリアを含む第 1のエリア群内で前記撮 像光学系の合焦情報を算出する合焦情報算出部と、
前記合焦情報に基づ 、て、前記フォーカスレンズ群を光軸方向に駆動制御するレ ンズ駆動制御部と、
前記複数のエリアのうち、少なくとも 1つのエリアを含む第 2のエリア群内で前記被 写体の特徴点を抽出し、当該特徴点の位置を示す特徴点位置情報として出力する 特徴点抽出部と、
前記特徴点位置情報の時間的な振動周波数の低域成分を抽出し、抽出位置情報 として出力する低域通過フィルタと、
前記抽出位置情報に基づいて、表示すべき前記第 2のエリア群の位置を演算し、 表示位置情報として出力するエリア選択部とを備える、撮像装置。
[2] さらに、前記画像信号に基づく画像を表示する表示部を備え、
前記表示部は、前記エリア選択部から出力される前記表示位置情報に基づき前記 エリア群の範囲を表示可能である、請求項 1に記載の撮像装置。
[3] 表示すべき前記第 2のエリア群の面積は、前記第 1のエリア群の面積よりも大きいこ とを特徴とする、請求項 1に記載の撮像装置。
[4] さらに、予め特徴点に関する情報を設定する特徴点設定部を備え、
前記特徴点抽出部は、各前記エリア毎に前記画像信号から特徴点をそれぞれ抽 出し、抽出した特徴点と、前記特徴点設定部により設定された前記特徴点に関する 情報とを比較した結果に基づいて、前記被写体の特徴点を抽出する、請求項 1に記 載の撮像装置。
[5] 前記特徴点設定部は、前記特徴点に関する情報として参照色情報を設定し、 前記特徴点抽出部は、各前記エリア毎に前記画像信号から色情報をそれぞれ算 出し、算出した色情報と、前記参照色情報設定部により設定された前記参照色情報 とを比較した結果に基づいて、前記被写体の特徴点を抽出する、請求項 4に記載の 撮像装置。
[6] 前記参照色情報は、予め撮像された画像信号から、前記画像分割部によって分割 された所望のエリアに対して、前記特徴点抽出部が算出した色情報である、請求項 5 に記載の撮像装置。
[7] 前記色情報及び前記参照色情報の内の少なくとも一方は、色相に関する情報及び 彩度に関する情報の内の少なくとも一方を含む、請求項 6に記載の撮像装置。
[8] 前記特徴点抽出部は、前記被写体のエッジ情報を抽出することを特徴とする、請求 項 1に記載の撮像装置。
[9] 前記特徴点抽出部は、前記被写体の輝度情報を抽出することを特徴とする、請求 項 1に記載の撮像装置。
[10] 前記特徴点抽出部は、前記被写体の動きベクトルを抽出することを特徴とする、請 求項 1に記載の撮像装置。
[11] さらに、前記被写体の移動量に応じて表示すべき前記第 2のエリア群の面積を変 更する表示エリア変更部を備える、請求項 1に記載の撮像装置。
[12] 前記撮像光学系は、前記被写体の光学的な像を変倍するズームレンズ群を含み、 前記レンズ駆動制御部は、前記ズームレンズ群を光軸方向に駆動させるズームレ ンズ駆動部を含み、
前記表示エリア変更部は、前記ズーム駆動部が制御するズーム倍率に応じて表示 すべき前記第 2のエリア群の面積を変更することを特徴とする、請求項 11に記載の 撮像装置。
[13] 前記エリア選択部は、表示すべき前記第 2のエリア群の位置が所定範囲外である 場合、表示すべき前記第 2のエリア群の位置として所定の表示位置情報を出力する ことを特徴とする、請求項 1に記載の撮像装置。
[14] 前記所定の表示位置情報は、画面の中央部付近を示す情報であることを特徴とす る、請求項 13に記載の撮像装置。
[15] さらに、前記撮像光学系により形成される焦点距離を演算する焦点距離演算部を 備え、
前記特徴点抽出部は、前記焦点距離演算部によって演算された焦点距離が所定 値以上となった場合に前記特徴点を抽出することを特徴とする、請求項 1に記載の撮 像装置。
[16] 前記低域通過フィルタは、ディジタルフィルタで構成されることを特徴とする、請求 項 1に記載の撮像装置。
[17] 前記低域通過フィルタのカットオフ周波数は、ユーザが前記 AFエリア枠の振動を 感じない範囲で設定されることを特徴とする、請求項 1に記載に撮像装置。
[18] 前記低域通過フィルタのカットオフ周波数は、 0. 1Ηζ〜1Ηζの範囲で設定されるこ とを特徴とする、請求項 17に記載の撮像装置。
PCT/JP2006/301998 2005-02-07 2006-02-06 撮像装置 WO2006082967A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007501666A JP4245185B2 (ja) 2005-02-07 2006-02-06 撮像装置
US12/832,617 US20100277636A1 (en) 2005-02-07 2010-07-08 Imaging device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-030264 2005-02-07
JP2005030264 2005-02-07
JP2005-114992 2005-04-12
JP2005114992 2005-04-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/832,617 Division US20100277636A1 (en) 2005-02-07 2010-07-08 Imaging device

Publications (1)

Publication Number Publication Date
WO2006082967A1 true WO2006082967A1 (ja) 2006-08-10

Family

ID=36777344

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/301998 WO2006082967A1 (ja) 2005-02-07 2006-02-06 撮像装置

Country Status (3)

Country Link
US (2) US7769285B2 (ja)
JP (2) JP4245185B2 (ja)
WO (1) WO2006082967A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080002028A1 (en) * 2006-06-30 2008-01-03 Casio Computer Co., Ltd. Imaging apparatus and computer readable recording medium
JP2008288868A (ja) * 2007-05-17 2008-11-27 Casio Comput Co Ltd 撮像装置及びプログラム
JP2009037152A (ja) * 2007-08-03 2009-02-19 Canon Inc 合焦制御装置及び方法
JP2010021597A (ja) * 2008-07-08 2010-01-28 Victor Co Of Japan Ltd 撮像装置および撮像方法
EP2232331A2 (en) * 2007-12-20 2010-09-29 Thomson Licensing Device for helping the capture of images
JP2012093775A (ja) * 2011-12-14 2012-05-17 Nikon Corp 焦点検出装置および撮像装置
US8200081B2 (en) 2007-08-02 2012-06-12 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling same
CN101753834B (zh) * 2008-11-28 2013-06-26 日立民用电子株式会社 信号处理装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010908A (ja) * 2005-06-29 2007-01-18 Canon Inc 焦点調節方法及び装置
JP5045125B2 (ja) * 2006-03-15 2012-10-10 株式会社ニコン 被写体追尾装置および光学機器
JP5016909B2 (ja) * 2006-12-15 2012-09-05 キヤノン株式会社 撮像装置
WO2009050841A1 (ja) * 2007-10-17 2009-04-23 Nikon Corporation 合焦測定装置、合焦測定方法およびプログラム
JP5176483B2 (ja) 2007-10-30 2013-04-03 株式会社ニコン 画像認識装置、画像追尾装置および撮像装置
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP2010097167A (ja) * 2008-09-22 2010-04-30 Fujinon Corp オートフォーカス装置
JP5206494B2 (ja) * 2009-02-27 2013-06-12 株式会社リコー 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
JP2011029905A (ja) * 2009-07-24 2011-02-10 Fujifilm Corp 撮像装置、方法およびプログラム
JP5810505B2 (ja) * 2010-11-01 2015-11-11 株式会社ソシオネクスト 撮像制御装置、撮像装置、及び撮像制御方法
US9077890B2 (en) * 2011-02-24 2015-07-07 Qualcomm Incorporated Auto-focus tracking
CN103733607B (zh) * 2011-08-10 2015-08-26 富士胶片株式会社 用于检测运动物体的装置和方法
US9766701B2 (en) * 2011-12-28 2017-09-19 Intel Corporation Display dimming in response to user
CN103999145B (zh) * 2011-12-28 2017-05-17 英特尔公司 响应于用户的显示器调光
US9870752B2 (en) 2011-12-28 2018-01-16 Intel Corporation Display dimming in response to user
US20130258167A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Method and apparatus for autofocusing an imaging device
JP5949306B2 (ja) * 2012-08-13 2016-07-06 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
JP5900273B2 (ja) * 2012-10-03 2016-04-06 株式会社ソシオネクスト 合焦評価値生成装置、合焦評価値生成方法、及び、合焦評価値生成プログラム
JP6128928B2 (ja) * 2013-04-17 2017-05-17 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
JP5842884B2 (ja) * 2013-09-04 2016-01-13 株式会社ニコン 追尾装置およびカメラ
CN105446056B (zh) * 2014-12-25 2018-08-10 北京展讯高科通信技术有限公司 自动对焦装置及方法
JP6544936B2 (ja) * 2015-01-30 2019-07-17 キヤノン株式会社 撮像装置の制御装置、撮像装置及びその制御方法
KR102493746B1 (ko) * 2016-08-18 2023-02-02 삼성전자주식회사 이미지 신호 처리 방법, 이미지 신호 프로세서, 및 전자 장치
JP7249748B2 (ja) * 2018-08-30 2023-03-31 株式会社ミツトヨ 焦点距離可変レンズ装置および焦点距離可変レンズ制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60254108A (ja) * 1984-05-31 1985-12-14 Canon Inc カメラにおける自動追尾装置
JPH01175373A (ja) * 1987-12-28 1989-07-11 Sony Corp フォーカス制御回路
JPH03149512A (ja) * 1989-11-07 1991-06-26 Sony Corp フォーカス制御回路
JPH04158322A (ja) * 1990-10-23 1992-06-01 Ricoh Co Ltd 自動焦点調整装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2535845B2 (ja) * 1986-10-08 1996-09-18 キヤノン株式会社 自動合焦装置
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US6476868B1 (en) * 1994-04-11 2002-11-05 Canon Kabushiki Kaisha Image pickup apparatus provided with enlargement process means for enlarging image signals output from an image pickup device
JP3450449B2 (ja) 1994-07-18 2003-09-22 キヤノン株式会社 撮像装置およびその撮像方法
EP1107166A3 (en) * 1999-12-01 2008-08-06 Matsushita Electric Industrial Co., Ltd. Device and method for face image extraction, and recording medium having recorded program for the method
JP4122865B2 (ja) 2002-07-02 2008-07-23 コニカミノルタオプト株式会社 オートフォーカス装置
US20040234134A1 (en) * 2003-05-19 2004-11-25 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP4181923B2 (ja) 2003-05-29 2008-11-19 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP4525089B2 (ja) * 2004-01-27 2010-08-18 フジノン株式会社 オートフォーカスシステム
KR100542365B1 (ko) * 2004-05-07 2006-01-10 삼성전자주식회사 영상 화질 개선 장치 및 그 방법
EP1601189A2 (en) * 2004-05-26 2005-11-30 Fujinon Corporation Autofocus system
US7561790B2 (en) * 2004-12-28 2009-07-14 Fujinon Corporation Auto focus system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60254108A (ja) * 1984-05-31 1985-12-14 Canon Inc カメラにおける自動追尾装置
JPH01175373A (ja) * 1987-12-28 1989-07-11 Sony Corp フォーカス制御回路
JPH03149512A (ja) * 1989-11-07 1991-06-26 Sony Corp フォーカス制御回路
JPH04158322A (ja) * 1990-10-23 1992-06-01 Ricoh Co Ltd 自動焦点調整装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080002028A1 (en) * 2006-06-30 2008-01-03 Casio Computer Co., Ltd. Imaging apparatus and computer readable recording medium
US8284256B2 (en) * 2006-06-30 2012-10-09 Casio Computer Co., Ltd. Imaging apparatus and computer readable recording medium
JP2008288868A (ja) * 2007-05-17 2008-11-27 Casio Comput Co Ltd 撮像装置及びプログラム
US8363122B2 (en) 2007-05-17 2013-01-29 Casio Computer Co., Ltd. Image taking apparatus execute shooting control depending on face location
US8200081B2 (en) 2007-08-02 2012-06-12 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling same
JP2009037152A (ja) * 2007-08-03 2009-02-19 Canon Inc 合焦制御装置及び方法
EP2232331A2 (en) * 2007-12-20 2010-09-29 Thomson Licensing Device for helping the capture of images
EP2232331B1 (en) * 2007-12-20 2022-02-09 InterDigital CE Patent Holdings Device for helping the capture of images
JP2010021597A (ja) * 2008-07-08 2010-01-28 Victor Co Of Japan Ltd 撮像装置および撮像方法
CN101753834B (zh) * 2008-11-28 2013-06-26 日立民用电子株式会社 信号处理装置
JP2012093775A (ja) * 2011-12-14 2012-05-17 Nikon Corp 焦点検出装置および撮像装置

Also Published As

Publication number Publication date
US20100277636A1 (en) 2010-11-04
JP2008312242A (ja) 2008-12-25
US20080131109A1 (en) 2008-06-05
JP4245185B2 (ja) 2009-03-25
US7769285B2 (en) 2010-08-03
JPWO2006082967A1 (ja) 2008-06-26

Similar Documents

Publication Publication Date Title
JP4245185B2 (ja) 撮像装置
US9830947B2 (en) Image-capturing device
US9992421B2 (en) Image pickup apparatus having FA zoom function, method for controlling the apparatus, and recording medium
JP4929630B2 (ja) 撮像装置、制御方法、およびプログラム
JP5381486B2 (ja) 撮像装置および方法
JP6494202B2 (ja) 像振れ補正装置、その制御方法、および撮像装置
JP4916513B2 (ja) 撮像装置
US10873696B2 (en) Image capture apparatus and control method for the same
JP2005284155A (ja) マニュアルフォーカス調整装置及び合焦アシスト・プログラム
JP5906427B2 (ja) 撮像装置、画像処理装置
JP6598028B2 (ja) 撮像装置
JP6932531B2 (ja) 像ブレ補正装置、撮像装置および撮像装置の制御方法
JP6824710B2 (ja) ズーム制御装置およびズーム制御方法、撮像装置
JP5903658B2 (ja) 撮像装置
JP2016050973A (ja) 撮像装置及びその制御方法
US20110032390A1 (en) Digital photographing apparatus and moving picture capturing method performed by the same
US11743576B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2014062926A (ja) オートフォーカスシステム
KR101373018B1 (ko) 디지털 영상 처리기에서 저광량 시의 손떨림 방지 장치 및방법
JP2008178031A (ja) 撮像装置
JP2008249941A (ja) 画像振れ補正装置および撮像装置
JP2008064847A (ja) 像振れ補正制御装置、制御方法、撮像装置、および撮像方法
JP2014215550A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6104022B2 (ja) 撮像装置、その制御方法及びプログラム
JP2018056650A (ja) 光学装置、撮像装置および制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11795561

Country of ref document: US

Ref document number: 2007501666

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 200680004204.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06713141

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 6713141

Country of ref document: EP