WO2001080187A1 - Processeur d'images, procede de traitement d'images et support d'enregistrement - Google Patents

Processeur d'images, procede de traitement d'images et support d'enregistrement Download PDF

Info

Publication number
WO2001080187A1
WO2001080187A1 PCT/JP2001/003202 JP0103202W WO0180187A1 WO 2001080187 A1 WO2001080187 A1 WO 2001080187A1 JP 0103202 W JP0103202 W JP 0103202W WO 0180187 A1 WO0180187 A1 WO 0180187A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
hair
image
coordinate system
hairstyle
Prior art date
Application number
PCT/JP2001/003202
Other languages
English (en)
French (fr)
Inventor
Seiji Kobayashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CA002376647A priority Critical patent/CA2376647A1/en
Priority to US10/018,033 priority patent/US6842172B2/en
Priority to EP01921836A priority patent/EP1246132A4/en
Publication of WO2001080187A1 publication Critical patent/WO2001080187A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • TECHNICAL FIELD The present invention relates to an image processing apparatus, an image processing method, and a $ medium. More specifically, the present invention relates to an image processing apparatus, an image processing method, and a recording medium. TECHNICAL FIELD The present invention relates to an image processing apparatus, an image processing method, and a recording medium that are suitable for use in synthesizing a hair image represented by a hair.
  • CG computer graphics
  • FIG. 1A As a method of expressing human hair by computer graphics (hereinafter abbreviated as CG), as shown in FIG. 1A, an entire hairstyle is approximated using a polygon model, and the surface of the hairstyle is approximated. A method of pasting the texture of the hair and a method of rendering using an anisotropic reflection model showing a different reflection intensity depending on a light source position or a viewpoint position are used.
  • a method of expressing hair by a particle system has been proposed.
  • a particle system can easily represent a large number of particulate objects by giving characteristics such as the mass of the particles as parameters and generating particles according to a certain rule when handling a large number of particulate objects. How to
  • the applicant of the present invention has proposed a method of approximating each individual hair as a curve as shown in FIG. 1B, for example, as Japanese Patent Application No. 10-164545.
  • the method has succeeded in expressing natural hairstyle images. Kishi, Saegusa, Morishima, "Development of Hair Design System Based on Tuft Model”, Method of Designing Hairstyle by Editing Multiple Curves of Curved Approximate Hairs pp. 67-74, 1 998 ”.
  • the method of expressing the head by a particle system or the method of approximating each hair by a geometrical shape can express the hairstyle of ,, and express the movement of the hair be able to.
  • it is necessary to control the parameters of the particles that express the hair in order to control the hairstyle, and it is difficult to intuitively control the hairstyle. was difficult.
  • the present invention has been proposed in view of the above-mentioned situation, and it is possible to change the hairstyle of each hair expressed individually by CG according to a plurality of different head shapes. The purpose is to be able to do it.
  • the present invention proposed to achieve the above object is to store hairstyle data in an image processing apparatus for generating a hairstyle matching image by combining a hair image with a three-dimensional shape image of a head.
  • Storage means readout means for reading hairstyle data stored in the storage means, and hair data corresponding to one hair included in the hairstyle data read out by the readout means, at a predetermined position in the three-dimensional shape image of the head
  • Generating a hairstyle matching image based on the mapping result of the mapping method and the mapping result of the mapping means.
  • three-dimensional curve data consisting of a plurality of control points can be used as the hair data.
  • Polygon data consisting of a plurality of polygons can be used for the hair data.
  • the storage means stores hairstyle data composed of a plurality of two-dimensionally arranged hair data.
  • the storage means stores the hairstyle data composed of a plurality of the hair data stored in a two-dimensional array corresponding to a mapping of a three-dimensional hairstyle expressed by a cylindrical seat system to a two-dimensional coordinate system.
  • the apparatus according to the present invention further includes interpolation means for interpolating the hair data at a predetermined position using the hair data in the vicinity thereof.
  • the interpolation means interpolates the hair data based on the group information included in the hair data near the predetermined position.
  • the mapping means includes a coordinate conversion means for converting the hair data expressed in the first coordinate system into data in a second coordinate system in which a three-dimensional shape image of the head is expressed.
  • the coordinate transformation means converts the hair data expressed in the first coordinate system into data in a local coordinate system having an origin on the surface of the head, and then a three-dimensional shape image of the head is expressed. Convert to data in the second coordinate system.
  • the coordinate conversion means converts the hair data expressed in the first coordinate system into data in the second coordinate system in which a three-dimensional shape image of the head is expressed, based on a random number. Execute at least one of coordinate axis rotation and origin movement.
  • the present invention is an image processing method of an image processing apparatus for generating a hairstyle matching image by combining a hair image with a three-dimensional shape image of a head, and a storage step of storing hairstyle data, and a processing of a storage step
  • a readout step for reading out the hairstyle data stored in step 3 and the hair data corresponding to one hair included in the hairstyle data read out in the processing of the readout step are converted into a predetermined three-dimensional shape image of the head.
  • the method includes a mapping step of mapping to a position, and a generation step of generating a hairstyle matching image based on a mapping result in the processing of the matsupinda step.
  • hairstyle data composed of a plurality of hair data stored in a two-dimensional array corresponding to a mapping of a three-dimensional hairstyle expressed in a cylindrical coordinate system onto a two-dimensional coordinate system is stored. Is done.
  • the method of the present invention includes an interpolation step of interpolating the hair data at a predetermined position using hair data in the vicinity thereof.
  • the hair data is interpolated based on the drop information included in the hair data near a predetermined position.
  • the processing of the mapping step includes a coordinate conversion step of converting the hair data expressed in the first coordinate system into data in the second coordinate system in which a three-dimensional shape image of the head is expressed.
  • the hair data represented in the first coordinate system is transformed into data in the local coordinate system having the origin on the surface of the head, and then a three-dimensional shape image of the head is represented. Is converted to the data of the second coordinate system.
  • the present invention is a recording medium recording an image processing program for generating a hairstyle matching image by combining a hair image with a three-dimensional shape image of a head
  • the program recorded on the recording medium is a hairstyle
  • hairstyle data composed of a plurality of hair data arranged two-dimensionally is stored.
  • the second order of the three-dimensional hairstyle expressed in the cylindrical coordinate system Hairstyle data composed of a plurality of the hair data stored in a two-dimensional array corresponding to the mapping to the original coordinate system is stored.
  • the method of the present invention further includes an interpolation step of interpolating hair data at a predetermined position using hair data in the vicinity thereof.
  • the hair data is interpolated based on the group information included in the hair data near the predetermined position.
  • the mapping step includes a coordinate transformation step of transforming the hair data expressed in the first coordinate system into data in the second coordinate system in which a three-dimensional shape image of the head is represented. Including.
  • the hair data represented in the first coordinate system is transformed into data in the local coordinate system having the origin on the surface of the head, and then the three-dimensional shape of the head is obtained. It is converted to data in the second coordinate system where the image is represented.
  • the hair data represented in the first coordinate system is transformed into data in the second coordinate system representing a three-dimensional shape image of the head. Based on the random number, at least one of the coordinate axis rotation and the origin movement is executed.
  • the hairstyle data is stored, the stored hairstyle data is read, and the hair data corresponding to one hair included in the read hairstyle data is stored in the head.
  • the part is mapped to a predetermined position in the three-dimensional shape image, and a hairstyle matching image is generated based on the mapping result.
  • the stored hairstyle data is composed of a plurality of two-dimensionally arranged hair data.
  • FIG. 2 is a block diagram showing a configuration example of a hair synthesis system to which the present invention is applied.
  • FIG. 3 is a flowchart illustrating the operation of the hair synthesis system.
  • FIG. 4 is a diagram for explaining the operation of the hair synthesis system.
  • FIG. 5 is a block diagram showing a configuration example of the hairstyle mapping section shown in FIG.
  • FIG. 6 is a flowchart illustrating the processing of the hairstyle mapping processing unit.
  • FIGS. 7A and 7B are diagrams for explaining hairstyle data in which hair data is two-dimensionally arranged.
  • FIG. 8 is a diagram for explaining the calculation of the mating position in step S13 in FIG.
  • FIG. 9 is a diagram for explaining the hair data interpolation process in step S15 shown in FIG.
  • FIGS. 10A and 10B are diagrams for explaining the coordinate conversion in step S16 shown in FIG.
  • FIG. 11 is a diagram showing a data structure of the hairstyle database shown in FIG.
  • FIG. 12 is a diagram for explaining an interpolation process using group information included in hair data.
  • FIGS. 13A and 13B are diagrams for explaining coordinate axis rotation in coordinate conversion.
  • FIGS. 14A and 14B are diagrams for explaining coordinate axis movement in coordinate conversion.
  • FIGS. 15A and 15B are diagrams for explaining the mapping of the arbitrarily deformed three-dimensional head model.
  • FIG. 16 is a diagram showing a cylindrical coordinate system when hairstyle data is generated.
  • FIG. 17 is a diagram illustrating a configuration example of a personal computer that realizes the image processing apparatus.
  • BEST MODE FOR CARRYING OUT THE INVENTION A hair synthesis system to which the present invention is applied will be described with reference to FIG.
  • This hair synthesis system consists of an image capture device 1 that captures the neck (upper part from the neck) of a person, generates a three-dimensional shape model of the neck based on the captured image of the neck, and creates an arbitrary hairstyle It comprises an image processing device 2 for generating a hairstyle matching image by synthesizing CG, and a display device 9 for displaying the generated hairstyle matching image.
  • this hair synthesis system is installed in, for example, a hair salon or a barber shop, it can be used for purposes such as assisting customers in selecting a hairstyle.
  • the imaging device 1 of the hair synthesis system is a combination of a three-dimensional shape measuring device such as a stereo camera and a range finder, and a two-dimensional image input device such as a CCD (Charge Couple Device).
  • a stereo camera the three-dimensional shape measuring device of the photographing device 1 performs a predetermined image processing by photographing the neck of a person (a customer such as a beauty salon) a plurality of times from different directions. Obtain the 3D shape of the part (the neck part from which the hair part has been removed).
  • the distance is measured by laser scanning the neck of the person to be the subject, and the three-dimensional shape of the face is obtained.
  • the two-dimensional image input device of the imaging device 1 captures the neck of a person as a subject and obtains a texture corresponding to the three-dimensional shape of the face.
  • the three-dimensional shape measuring device of the imaging device 1 acquires three-dimensional shape data of a dark portion that absorbs light of the subject, for example, a black hair head and a portion that reflects light such as metal. Can not do it. Therefore, from the imaging device 1, the three-dimensional shape data of the part of the subject's neck, such as the face excluding the hair (hereinafter referred to as the face), and the three-dimensional shape data of the face portion are associated with each other. Texture image data is output.
  • the three-dimensional shape measuring device and the two-dimensional image input device constituting the photographing device 1 may be plural in order to measure the neck of a person (hereinafter, referred to as a customer) as a subject from multiple directions.
  • the image processing device 2 combines the 3D shape data of the face input from the imaging device 1 with the 3D shape data of the head read from the head database 6 to construct a 3D model of the neck.
  • 3D head reconstruction processing unit 3 hairstyle mapping processing unit that maps hairstyle data read from hairstyle database 5 to 3D shape model of neck4, rendering of 3D shape model of neck with hairstyle data mapped Rendering section 5, which generates hairstyle-matched image data, a head database 6 in which three-dimensional shape data of a plurality of heads are recorded in advance, and a plurality of hairstyle data in advance.
  • the hairstyle data stored in the hairstyle database 7 is edited and generated using a three-dimensional graphics modeler or the like. Therefore, it is possible to generate and store hairstyle data for a hairstyle that is actually difficult to style.
  • the data structure of the hairstyle database 7 will be described later with reference to FIG.
  • the display device 9 is composed of an LCD (LCD), a CCD (Cathode Ray Tube), or the like, and displays a hairstyle matching image input from the image processing device 2.
  • LCD LCD
  • CCD Cathode Ray Tube
  • step S1 the imaging apparatus 1 measures the three-dimensional shape by photographing or laser-scanning the customer's neck, which is the subject, and performs image processing on the three-dimensional shape data and texture image data of the customer's neck. Output to device 2.
  • any method such as a method using a stereo camera and a method using a range finder may be used.
  • the three-dimensional shape measuring device of the photographing device 1 cannot acquire the three-dimensional shape data of the hair portion.
  • Shape data and texture image data (in Fig. 4, shown as measurement data in which a texture image is attached to the 3D shape data of the face) are output.
  • the imaging device 1 is provided with a plurality of three-dimensional shape measurement devices and two-dimensional image input devices, a plurality of sets of three-dimensional shape data and texture image data of the face are output.
  • step S2 the three-dimensional head reconstruction processing unit 2 of the image processing device 2 uses the measurement data of the face input from the imaging device 1, that is, the three-dimensional shape data and the texture image data of the customer. Construct a 3D model of the head.
  • the head data selected and read from the head database 6 is combined with the measurement data of the customer's face to create a complete 3D model of the customer's head.
  • the head database 6 is a tertiary of multiple heads of any shape only It is composed of the original model.
  • the head data is scaled and aligned based on the size and orientation of the measurement data of the customer's face, and is combined with the customer's measurement data.
  • head data and customer measurement data may cause a new polygon to be created between the release edges of both data, or the release edge part of one data will match the release edge of the other. It may be deformed as follows.
  • the three-dimensional shape of the constructed customer's head is represented, for example, by a triangular polygon model.
  • the constructed 3D model of the customer's head is obtained by removing the hair from the customer's real image as shown in Fig. 4.
  • step S3 the operation of the user (customer or the like) for selecting the hairstyle data stored in the hairstyle database 7 is received by the controller 8, and the selected hairstyle data is read out from the hairstyle database 7 and the hairstyle is read. Supplied to the matting unit 4.
  • an icon indicating the hairstyle ⁇ thumbnail or the like is displayed on the display device 9 to urge the user to make a selection.
  • the selection may be made by moving a cursor or the like on the screen of the display device 9, or may be made by inputting a number or the like indicating a hairstyle.
  • step S4 the hairstyle mapping processing section 4 of the image processing apparatus 2 maps the supplied hairstyle data to the customer's head 3D model supplied from the 3D head reconstruction processing section 3, Output to rendering unit 5.
  • the hair data corresponding to each individual hair included in the hairstyle data is mapped on the surface of the head 3D model according to the shape of the head 3D model by the same method as the texture matting. Things. The details of the mapping process will be described later with reference to FIGS.
  • step S5 the rendering unit 5 renders the three-dimensional model of the customer's head to which the hairstyle data is mapped, generates hairstyle matched image data as shown in FIG.
  • Output to The rendering method is a texturing process of a polygon model for the face of the three-dimensional model of the head, and a curved model rendering process for the hair.
  • Render curve model Ring processing is described in, for example, “Kobayashi, Morishima, and Harashima,“ Simulation of Filamentary Objects: Motion Model and CG ”, IEICE Technical Report, PRU90-127, pp. 15-20, 1991 The details are disclosed;
  • the display device 9 displays an image corresponding to the input hairstyle matching image data.
  • the controller 8 prompts the user (customer or the like) to input whether or not the hairstyle matching image displayed on the display device 9 is satisfied.
  • the user can operate the controller 8 to view the hairstyle matching image while changing the viewpoint position and the illumination position.
  • the rendering unit 5 executes the rendering processing of the head 3D model and the hair-shaped data again so as to correspond to the changed condition (the viewpoint position and the lighting position). And outputs it to the display device 9.
  • step S5 If an input indicating that the user is not satisfied is received in step S5, the process returns to step S3, and the subsequent processing is repeated. If it is determined in step S5 that the input of the user indicating the satisfaction has been received, the process is terminated.
  • the hairstyle data reading section 21 of the hairstyle mapping section 4 reads the hairstyle data selected using the controller 8 from the hairstyle database 7 and outputs the data to the mapping position calculation section 22.
  • the mapping position calculation unit 22 calculates a position on the head 3D model for mapping the hair data (corresponding to one hair) constituting the hairstyle data.
  • the hair data interpolation processing unit 23 obtains the hair data to be mapped by interpolating the hair data around the hairstyle data. Coordinate converter 2
  • the hairstyle data reading section 2 has already been stored in the mapping position calculation section 22 of the hairstyle mapping section 4 by the processing of step S3. It is assumed that hairstyle data is supplied from 1.
  • the hairstyle data supplied to the mapping position calculation unit 22 is a two-dimensional array of hair data approximated by an object having a three-dimensional shape as shown in FIG.
  • one hair is approximated by a space curve such as a cubic B-spline curve.
  • one hair is approximated by the polygon model.
  • the addresses of the two-dimensional array correspond to the mapping coordinate values given to the head three-dimensional model whose hairstyle is mapped, as in the texture mapping process.
  • mapping coordinates (u 1 ) u
  • V) (0.1, 0. If 1) is given, the address in the hairstyle data array of the hair data mapped to the vertex (0.1 0.1 V ma J and ing.
  • umai is the number of data in the u-direction of the hairstyle data array
  • V is the number of data in the V-direction of the hairstyle data array.
  • the hairstyle data is a two-dimensional array of hair data having an arbitrary three-dimensional shape, it is possible to express an arbitrary hairstyle, and it is practically difficult to cut the hairstyle. Even data can be generated. The method of generating hairstyle data will be described later with reference to FIG.
  • step SI1 the mapping position calculation unit 22 initializes the vertical count value V of the hairstyle data array to 0.0, and in step S12, the horizontal force ⁇ of the hairstyle data array is initialized. Initialize the count value u to 0.0.
  • step S13 the mapping position calculation unit 22 calculates a position on the head 3D model for mapping the hair data represented by the address (u, V) of the hairstyle data array.
  • Figure 8 shows an arbitrary triangular polygon on the 3D head model.
  • the vertices AB and C of the triangular polygon have attribute vectors A attr , B attr , and C at , respectively, which represent the attributes of the three-dimensional head model.
  • the attributes consist of the object coordinate values of the 3D model of the head, the local coordinate axes at the vertices, and the mapping coordinates of the hair. If vectors forming any two sides of the triangular polygon ABC C are vector V 1 V 2, the vector V 1 V 2 belongs to each vertex. For example, it can be expressed by the following equation (1) using the sex vector.
  • V l B a , tr -A a ,. R
  • the coefficients a and b are the points that intersect when a line parallel to the other axis is drawn from one point P h to one axis, and an arbitrary point P h Is normalized by the length of each axis vector.
  • Vertices A, B respectively a mapping coordinate values of C (u a, VJ, ( u b, v b), as the (uc, vc), equation (point P h mapping coordinate values represented by 2) Looking at the elements of, the following equation (3) holds.
  • V h V a + a (V b -Va) + b (V c-V a) (3)
  • Equation (3) holds for any point in the (U, V) space.
  • step S14 the mapping position calculation unit 22 determines whether or not the triangular polygon of the three-dimensional model of the head to be mapped is a hair generation region. This determination is made based on a flag (positive or negative) indicating whether or not to map the hair data assigned to each triangular polygon of the three-dimensional head model. If the triangular polygon including the mapping position obtained in the processing of step S13 has a positive flag, the triangular polygon is determined to be a hair generation area, and the process proceeds to step S ⁇ 5.
  • step S 1 5 hair data interpolation processing unit 2 3, using the hair data stored (u P, v P) the hair de one data to be Matsubingu represented by the hairstyle data sequence complement Ask.
  • the interpolation method an average value of four neighboring points may be used, a weighted average of four neighboring points may be used, or the nearest neighbor point may be used as it is without performing interpolation.
  • FIG. 9 shows a method using a weighted average value from four neighboring points.
  • counter value u u P
  • the hair data in each of 4 is H1 to H4.
  • the hair data Hp to be mapped is interpolated from the data of the four neighboring points using the following equation (5).
  • the hair data is a spatial curve such as a cubic B-spline curve as shown in Fig. 7A. If and, the hair data interpolation process can be obtained by interpolating the data of each control point. On the other hand, when the hair data is a polygon model as shown in FIG. 7B, the interpolating process of the hair data is obtained by interpolating each polygon term data.
  • dm is a decimal part of m P
  • dn is a decimal part of n P.
  • step S16 the coordinate conversion unit 24 performs coordinate conversion of the interpolated hair data from the object coordinate system of the hair data to the object coordinate system of the three-dimensional head model.
  • H be any hair data in the hairstyle data array.
  • the hair data H is represented by the object coordinate system (1, J, K) of the hair data.
  • the object coordinate system of the hair data (1, J, K) is arbitrary as long as it is a three-dimensional coordinate system whose origin is the starting point of the hair data H.
  • the horizontal direction of the hairstyle data array is I
  • the vertical direction is J
  • the direction orthogonal to them is K.
  • the head 3D model is represented by the object coordinate system (X, ⁇ , Z).
  • the object coordinate system of the three-dimensional head model is generally a three-dimensional orthogonal coordinate system.For example, with the center of gravity of the head as the origin, the right ear direction is X, the parietal direction is Y, and the nose direction is This is a rectangular coordinate system such that
  • the hair data ⁇ ⁇ expressed in the object coordinate system (1, J, ⁇ ) of the hair data is converted to the mapping position P h of the head 3D model obtained in step S13. Convert to the local coordinate system (T, S, N).
  • P h (T, S, N) is arbitrary as long as a three-dimensional coordinate system to a point P h as the origin, if example embodiment, the normal direction base-vector at point P h and N, tangent obtained by the cross product of the longitudinal inside mandrel (1 0 in the Y-axis) toward the point P h from the radiation direction vector and the normal direction base-vector N of 3D head model
  • An orthogonal coordinate system in which the directional vector is T and the vector orthogonal to the normal direction N and the tangential direction T is S.
  • each unit vector of the local coordinate system (T, S, N) has the value of the object coordinate system (X, Y, Z) of the 3D model of the head.
  • control point C i expressed by the equation (6) is expressed by the object coordinate system (X, Y, Z) of the three-dimensional head model.
  • step S17 the mapping position calculation unit 22 It is determined whether the data value u has exceeded 1.0. If it is determined that the counter value u does not exceed 1.0, the process proceeds to step S18. In step S18, the mapping position calculation unit 22 increments the counter value u by the step value du: the step value du is the degree to which the hair data stored in the hair-type data array is Is a value indicating whether to perform mapping at intervals of.
  • step S17 if it is determined that the counter value u has exceeded 1.0, the horizontal matching process is performed in the hairstyle data array. Means that the end of one line has been reached, so go to step S19.
  • step S19 the mapping position calculation unit 22 determines whether or not the counter value V has exceeded 1.0. If it is determined that the counter value V does not exceed 1.0, the process proceeds to step S20. In step S20, the mapping position calculation unit 22 increments the counter value V by the step value dV.
  • the step value d v is a value indicating at what interval the hair data stored in the hairstyle data array is vertically mapped.
  • step S19 If it is determined in step S19 that the counter value V has exceeded 1.0, the mapping process for all rows has been completed. This means that the hair mapping process is completed, and the process proceeds to step S5 in FIG.
  • step S14 if the mapping flag of the triangular polygon including the mapping position obtained in the process of step S13 is negative, it is determined that the triangular polygon is not a hair generation area, Steps S15 and S16 are skipped.
  • the hair generation area By specifying the hair generation area using the mating flag in this manner, all the hair data constituting the hairstyle data read out from the hairstyle database 7 are not subjected to the mating, and the arbitrary area of the head 3D model can be specified. It is possible to make a mapping only to a person. Therefore, for example, a hairstyle such as a so-called mohawk haircut or a haircut cut into a star shape can be easily generated.
  • the hairstyle database 7 Each hairstyle data is represented in the object coordinate system of the head hair, and it is possible to match the shape of the head of the person without any form of the human head, and to create a three-dimensional model of the head.
  • the hairstyle database 7 is composed of a plurality of hairstyle data.
  • the hairstyle data is a two-dimensional array, as described above, with the number of data u max in the horizontal direction and the number of data v mai in the vertical direction described at the top, and (u max x v ma x ) Hair data for the actual hair is described.
  • Group information may be described at the beginning of the hair data.
  • the hair data is approximated by a cubic parametric curve or the like, a plurality of control point data are described.
  • the control point data is expressed in the hair object coordinate system (I, J, K).
  • the hair data may be three-dimensional polygon data.
  • a plurality of polygon vertex data is described as hair data.
  • the group information described in the hair data will be described.
  • the group information can be used in the hair data capturing process in step S15 of the hair style mapping process (FIG. 6) described above.
  • each of the hair data of the point P 1 to P 4 and HI to H 4 I do. Furthermore, it is assumed that 1 is described as group information in the hair data HI, and 2 is described as group information in the hair data H2 to H4. That is, in this example, only the hair data H1 belongs to the group 1, and the other hair data H2 to H4 belong to the group 2.
  • group information is given, in the hair data interpolation processing, interpolation is performed using only hair data belonging to the same group.
  • the nearest neighbor is found among the four neighboring points of the point P a to be mapped first. And the group information is obtained.
  • the nearest point is point P3 ; next, the number of neighboring points belonging to the same group as the nearest point among the four neighboring points P1 to P4 is obtained.
  • the linear interpolation value between the two points is used for interpolation:
  • H 3 2 d n-H 2-(1 — d n) H 3
  • H 3 4 d n-H 4 + (1 — d n) H 3
  • r (m P -m 3 2) / (m 3 4 -m 3 2) (7) where dn is the fractional part of np, and m 3 2 is the m address at point P 3 2 And m 3 4 is the m address at point P 3 4.
  • Fig. 13B shows the state in which the hairstyle variation is represented by rotating the local coordinate system using random numbers in coordinate transformation. An example is shown.
  • the local coordinate system (T, S, N) of the head is rotated around the axis N in accordance with the generated random number, and then the object coordinate system (X , Y, Z) I do.
  • the direction in which each hair grows can be delicately changed without changing the position where the hair data is mapped.
  • Figure 14B shows the state in which the hairstyle variation is expressed by changing the mapping position using random numbers in coordinate transformation, while the hairstyle variation shown in Figure 14A is not expressed. -An example is shown.
  • the local coordinate system (T, S, ⁇ ) of the position of P h is the origin, then shifted to the P corresponding to the random numbers generated, the object of the head model ⁇ coordinate system (X, Y, Z).
  • the position where the hair grows can be slightly changed without changing the hairstyle.
  • the three-dimensional head reconstruction processing unit 3 deforms the three-dimensional head model into an arbitrary shape, and then can perform hairstyle data matching.
  • FIG. 15B shows a state where the three-dimensional head model shown in FIG. 15A is not deformed, and is enlarged by 1.5 times in the Y-axis direction. Enlargement / reduction processing of the head 3D model is performed by affinity conversion processing. At this time, the same affinity transformation is performed for the local coordinate system (T, S, N) given to any polygon vertex of the 3D head model.
  • FIG. Figure 16 shows a cylindrical coordinate system surrounding the head.
  • the axis passing through the center of the cylinder is the ⁇ axis
  • the distance from the ⁇ axis on a plane perpendicular to the ⁇ axis is r. It is a coordinate system where the angle from the direction is ⁇ .
  • the hairstyle data was created using the system disclosed in “Kishi, Saegusa, Morishima,“ Development of Hair Design System Using Tuft Model ”, IEICE Technical Report, MVE97-102, pp.67-74, 1998”. By using it, it can be performed relatively easily.
  • hairstyle data is created by editing the hair data generated on a given head model.
  • the hair data output from this system is expressed in the object coordinate system of a given head model.
  • the hair database 7 of the present invention records hair type data stored in a two-dimensional array by mapping this hair data into a space represented by (y, ⁇ ) in a cylindrical coordinate system.
  • the following equation (8) is used to convert the (y, ⁇ ) space into a (u, V) space of a two-dimensional array as shown in FIG.
  • y m is the minimum value of the Y axis of the cylindrical coordinate system on the head surface, and is the maximum value of the Y axis of the cylindrical coordinate system on the head surface.
  • the transformation from the (y, ⁇ ) space to the (u, v) space may be non-linear. For example, if the transformation is made such that the step in the V direction becomes smaller as it approaches the top of the head, It is better to avoid coarse sampling. Hairstyle data composed of the hair data converted into the (u, v) space as described above is recorded in the hairstyle database 7.
  • the present invention can also be applied to a case where a thread-like object other than hair is represented by CG.
  • FIG. 17 illustrates a configuration example of a personal computer that realizes the image processing device 2.
  • This personal computer has a built-in CPU (Central Procedure Unit) 41.
  • An input / output interface 45 is connected to the CPU 41 via a bus 44.
  • CPU Central Procedure Unit
  • the input / output interface 45 includes an input unit 46 composed of an input device such as a keyboard and a mouse corresponding to the controller 8, an image output unit 47 that outputs a hairstyle matching image as a processing result to the display device 9, A storage unit 48 such as a hard disk drive for storing programs and various data, a communication unit 49 for communicating data via the Internet, and a recording medium such as a magnetic disk 51 to a semiconductor memory 54.
  • Drive 50 is connected to read and write data.
  • Knob 4 4 ⁇ (ROM (Read Only Memory) 4 2 3 ⁇ 4 1 RAM (Random Access Memory) 4 3 is connected.
  • An image processing program for causing this personal computer to execute the operation as the image processing device 2 is supplied to the personal computer in a state where it is stored in the magnetic disks 51 to the semiconductor memory 54, and is read out by the drive 50. Installed on the hard disk drive built into the storage unit.
  • the image processing program installed in the storage unit 48 is transferred from the storage unit 48 to the RAM 43 by a command from the CPU 41 corresponding to a command from the user input to the input unit 46. And executed.
  • the processing includes, in addition to the processing performed in chronological order according to the described order, not only the processing performed in chronological order but also processing performed in parallel or individually.
  • a system refers to an entire device including a plurality of devices.
  • INDUSTRIAL APPLICABILITY stores hairstyle data, reads out the stored hairstyle data, and converts the hair data corresponding to one hair included in the hairstyle data into the three-dimensional shape of the head. Since the image is mapped to a predetermined position in the image, it is possible to change the hairstyle of the hair expressed by the CG one by one according to a plurality of different head shapes.
  • the present invention reads out the stored hairstyle data, maps the hair data corresponding to one hair included in the read hairstyle data to a predetermined position of the three-dimensional shape image of the head, and obtains a mapping result. Since the hairstyle matching image is generated based on the CG, it is possible to change the hairstyle of the hair expressed for each hair by CG in accordance with a plurality of different head shapes.

Description

明細書 画像処理装 E及び画像処理方法並びに記録媒体 技術分野 本発明は、 画像処理装置及び画像処理方法並びに $ 媒体に関し、 さらに詳し く は、 頭髪を除く頭部の 3次元形状画像に、 コンピュータグラフィ ックスによ り 表現する頭髪画像を合成する場合に用いて好適な画像処理装置及び画像処理方法 並びに記録媒体に関する。 背景技術 従来、 コンピュータグラフィ ックス (以下、 C Gと略記する) によって人の頭 髪を表現する方法と して、 図 1 Aに示すように、 髪型全体をポリ ゴンモデルを用 いて近似し、 その表面に髪の毛のテクスチャを貼り付ける方法や、 光源位置又は 視点位置により異なる反射強度を示す異方性反射モデルを用いてレンダリ ングす る方法が用いられている。
これらの方法については、 「山名、 末永、 " 異方性反射モデルを用いた頭髪表 現" 、 信学技報、 PRU87 - 3, pp. 1 1 5- 120, 1989」 に記述されている。 このよ うな方法 においては、 髪型の表現はポリ ゴンモデルの形状そのものであり、 髪型の変更は ポリ ゴンモデルの形状を変形することによって実現している。
頭髪をパーティクルシステムによって表現する方法が提案されている。 パーテ ィ クルシステムは、 多量の粒子状の物体を扱う時に、 粒子の質量などの特性をバ ラメータと して与え、 ある法則に従って粒子を発生させることによって、 容易に 多量の粒子状の物体を表現する方法である。
また、 図 1 Bに示すよ うな髪の毛の一本ずつを曲線近似する方法を、 本願出願 人は、 例えば、 特願平 1 0— 1 6 4 5 4 5号と して提案しており、 この方法によ つて自然な髪型画像の表現に成功している。 曲線近似された複数の髪の毛をまとめて編集することにより、 髪型をデザィン する方法が 「岸、 三枝、 森島、 " 房モデルによるへアデザインシステムの開発" 、 信学技報、 MVE97- 1 02, pp . 67- 74, 1 998」 に記述されている。
ポリ ゴンモデルによって髪型全体を近似する方法では、 複雑な髪型を表現する ことが困難であり、 また、 髪の毛の動き (流れ) を表現することができなかった。 一方、 パーティクルシステムによって頭 ¾を表現する方法や、 髪の毛の一本ず つを幾何学的形状で近似する方法では、 任, :の髪型を表現することができ、 且つ、 髪の毛の動きを表現することができる。 しかしながら、 パーティクルシステムに よって頭髪を表現する方法では、 髪型を制御するためには、 頭髪を表現する粒子 のパラメータを制御する必要があり、 直感的な制御が難しいので、 意図する髪型 を生成することが困難であった。
上述した 「岸、 三枝、 森島、 " 房モデルによるへアデザインシステムの開発" 、 信学技報、 MVE97- 1 02, pp. 67- 74, 1998」 に記述されている方法では、 意図する髪型 を比較的容易に生成することが可能であるが、 この方法では、 固定された頭部形 状に対応した頭髪を意図する髪型に変化させることができるだけであり、 複数の 異なる頭部形状に対応して、 頭髪を意図する髪型に変化させることができない課 題があった。 発明の開示 本発明は、 上述したような実情に鑑みて提案されるものであり、 C Gによって 1本毎に表現する頭髪の髪型を、 複数の異なる頭部形状に対応して変化させるこ とができるよ うにすることを目的とする。
上述のよ うな目的を達成するために提案される本発明は、 頭部の 3次元形状画 像に頭髪画像を合成して髪型整合画像を生成する画像処理装置において、 髪型デ ータを記憶する記憶手段と、 記憶手段が記憶した髪型データを読み出す読み出し 手段と、 読み出し手段が読み出した髪型データに含まれる 1本の髪の毛に対応す る頭髪データを、 頭部の 3次元形状画像の所定の位置にマッビングするマツピン グ手段と、 マッピング手段のマッピング結果に基づいて、 髪型整合画像を生成す る生成手段とを含む。
ここで、 頭髪データには、 複数の制御点からなる 3次元曲線データが用いるこ とができる。
また、 頭髪デ一タには、 複数のポリ ゴンからなるポリ ゴンデータを用いること ができる。
記億手段は、 2次元配列された複数の頭髮データから構成される髪型データを 記憶する。 特に、 記記憶手段は、 円柱座^系で表現される立体的な髪型の 2次元 座標系への写像に対応する 2次元配列に格納された複数の前記頭髪データから構 成される髪型データを記憶する。
本発明に係る装置は、 さらに、 所定の位置の前記頭髪データを、 その近傍の前 記頭髪データを用いて補間する補間手段を含む。 補間手段は、 所定の位置の近傍 の頭髪データに含まれるグループ情報に基づいて、 頭髪データを補間する。 また、 マッピング手段は、 第 1の座標系で表現されている頭髪データを、 頭部 の 3次元形状画像が表現されている第 2の座標系のデータに変換する座標変換手 段を含む。
座標変換手段は、 第 1の座標系で表現されている頭髪データを、 頭部の表面に 原点を有する局所座標系のデータに変換した後、 頭部の 3次元形状画像が表現さ れている第 2の座標系のデータに変換する。
さらに、 座標変換手段は、 第 1の座標系で表現されている頭髪データを、 頭部 の 3次元形状画像が表現されている第 2の座標系のデータに変換するとき、 乱数 に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方を実行する。
また、 本発明は、 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像を 生成する画像処理装置の画像処理方法であり、 髪型データを記憶する記憶ステツ プと、 記憶ステップの処理で記億された髪型デ一タを読み出す読み出しステツプ と、 読み出しステップの処理で読み出された髪型データに含まれる 1本の髪の毛 に対応する頭髪データを、 頭部の 3次元形状画像の所定の位置にマッビングする マッピンダステップと、 マツピンダステップの処理でのマッビング結果に基づい て、 髪型整合画像を生成する生成ステップとを含む。
本発明における記憶ステップの処理では、 2次元配列された複数の頭髪データ から構成される髪型データが記憶される。
また、 記憶ステップの処理では、 円柱座標系で表現される立体的な髪型の 2次 元座標系への写像に対応する 2次元配列に格納された複数の頭髪データから構成 される髪型データが記憶される。
本発明方法は、 所定の位置の前記頭髪データを、 その近傍の頭髪データを用い て補問する補間ステップを含む。
この補間ステツプの処理では、 所定の位置の近傍の頭髪データに含まれるダル ープ情報に基づいて、 頭髪データが補間される。
マッビングステップの処理は、 第 1の座標系で表現されている頭髪データを、 頭部の 3次元形状画像が表現されている第 2の座標系のデータに変換する座標変 換ステップを含む。
座標変換ステップの処理では、 第 1 の座標系で表現されている頭髪データが、 頭部の表面に原点を有する局所座標系のデータに変換された後、 頭部の 3次元形 状画像が表現されている第 2の座標系のデータに変換される。
また、 座標変換ステップの処理では、 第 1 の座標系で表現されている頭髪デー タが、 頭部の 3次元形状画像が表現されている第 2の座標系のデータに変換され るとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方が実 行される。
さらに、 本発明は、 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像 を生成する画像処理用のプログラムを記録した記録媒体であり、 この記録媒体に 記録されるプログラムは、 髪型データを記憶する記憶ステップと、 記憶ステップ の処理で記憶された髪型データを読み出す読み出しステップと、 読み出しステツ プの処理で読み出された髪型データに含まれる 1本の髪の毛に対応する頭髪デー タを、 頭部の 3次元形状画像の所定の位置にマッビングするマツビングステップ と、 マッピングステップの処理でのマッピング結果に基づいて、 髪型整合画像を 生成する生成ステップとを含む。
記憶ステップの処理では、 2次元配列された複数の頭髪データから構成される 髪型データが記億される。
また、 記憶ステップの処理では、 円柱座標系で表現される立体的な髪型の 2次 元座標系への写像に対応する 2次元配列に格納された複数の前記頭髪データから 構成される髪型データが記憶される。
本発明方法は、 さらに、 所定の位置の頭髪データを、 その近傍の頭髪データを 用いて補間する補間ステップをさらに含む。
補間ステップの処理では、 所定の位置の近傍の頭髪データに含まれるグループ 情報に基づいて、 頭髪データが補間される。
また、 マッピングステップの処理は、 第 1の座標系で^現されている頭髪デー タを、 頭部の 3次元形状画像が表現されている第 2の座標系のデータに変換する 座標変換ステップを含む。
さらに、 座標変換ステップの処理では、 第 1 の座標系で表現されている頭髪デ ータが、 頭部の表面に原点を有する局所座標系のデータに変換された後、 頭部の 3次元形状画像が表現されている第 2の座標系のデータに変換される。
さらにまた、 座標変換ステップの処理では、 第 1 の座標系で表現されている頭 髪データが、 頭部の 3次元形状画像が表現されている第 2の座標系のデータに変 換されるとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一 方が実行される。
上述した本発明に係る画像処理装置及び処理方法において、 髪型データが記憶 され、 記憶された髪型データが読み出され、 読み出された髪型データに含まれる 1本の髪の毛に対応する頭髪データが頭部の 3次元形状画像の所定の位置にマッ ビングされ、 マッピング結果に基づいて、 髪型整合画像が生成される。 なお、 記 憶される髪型データは、 2次元配列された複数の頭髪データから構成される。 本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1 A及び図 1 Bは、 従来の頭髪表現の一例を示す図である。
図 2は、 本発明を適用した頭髪合成システムの構成例を示すプロ ック図である。 図 3は、 頭髪合成システムの動作を説明するフローチヤ一トである。 図 4は、 頭髪合成システムの動作を説明するための図である。
図 5は、 図 2に示す髪型マッビング処理部の構成例を示すプロ ック図である。 図 6は、 髪型マッピング処理部の処理を説明するフローチャー トである。 図 7 A及び図 7 Bは、 頭髪データが 2次元配列された髪型データを説明するた めの図である。
図 8は、 図 6に すステップ S 1 3のマツビング位置計算を説明するための図 である。
図 9は、 図 6に示すステップ S 1 5の頭髪データ補間処理を説明するための図 である。
図 1 0 A及び図 1 0 Bは、 図 6に示すステップ S 1 6の座標変換を説明するた めの図である。
図 1 1は、 図 1 に示す髪型データベースのデータ構造を示す図である。
図 1 2は、 頭髪データに含まれるグループ情報を用いた補間処理を説明するた めの図である。
図 1 3 A及び図 1 3 Bは、 座標変換における座標軸回転を説明するための図で ある。
図 1 4 A及び図 1 4 Bは、 座標変換における座標軸移動を説明するための図で ある。
図 1 5 A及び図 1 5 Bは、 任意に変形された頭部 3次元モデルに対するマツピ ングを説明するために図である。
図 1 6は、 髪型データが生成される際の円柱座標系を図である。
図 1 7は、 画像処理装置を実現するパーソナルコンピュータの構成例を示す図 である。 発明を実施するための最良の形態 本発明を適用した頭髪合成システムについて、 図 2を参照して説明する。 この 頭髪合成システムは、 人物の首部 (首から上の部分) を撮影する撮影装置 1、 撮 影した首部の画像に基づいて、 首部の 3次元形状モデルを生成し、 任意の髪型の C Gを合成して髪型整合画像を生成する画像処理装置 2、 及び、 生成された髪型 整合画像を表示する表示装置 9から構成される。 この頭髪合成システムを、 例え ば、 美容院、 理髪店等に設置すれば、 客の髪型の選択を支援する用途などに用い ることができる。
頭髪合成システムの撮影装置 1 は、 ステレオカメラゃレンジフアインダなどの 3次元形状計測装置、 及び CCD (Charge Coup l o d De v i e e)等の 2次元画像入力装置 を組み合わせたものである。 撮影装置 1 の 3次元形状計測装置は、 ステレオカメ ラの場合には、 被写体となる人物 (美容院等の顧客) の首部を異なる方向から複 数回撮影して所定の画像処理を施し、 顔部 (首部のうち、 頭髪部が除去されたも の) の 3次元形状を得る。 レンジファインダの場合には、 被写体となる人物の首 部をレーザスキャンすることによって距離を計測し、 顔部の 3次元形状を得る。 撮像装置 1の 2次元画像入力装置は、 被写体となる人物の首部を撮影して、 顔部 の 3次元形状に対応したテクスチャを得る。
一般に、 撮影装置 1の 3次元形状計測装置は、 被写体の光を吸収する色の濃い 部分、 例えば、 黒髪の頭部等及び金属のように光を反射する部分の 3次元形状デ ータを取得することができない。 したがって、 撮影装置 1からは、 被写体の首部 のうち、 頭髪を除く顔等の部分 (以下、 顔部と記述する) の 3次元形状データ、 及び、 顔部分の 3次元形状データと対応付けられたテクスチャ画像データが出力 される。
なお、 撮影装置 1 を構成する 3次元形状計測装置及び 2次元画像入力装置は、 被写体となる人物 (以下、 顧客と記述する) の首部を多方向から計測するために 複数あってもよい。
画像処理装置 2は、 撮影装置 1から入力される顔部の 3次元形状データに、 頭 部データベース 6から読み出す頭部の 3次元形状データを合成して、 首部の 3次 元形状モデルを構築する 3次元頭部再構築処理部 3、 首部の 3次元形状モデルに 髪型データベース 5から読み出す髪型データをマツビングする髪型マッピング処 理部 4、 髪型データがマッビングされた首部の 3次元形状モデルにレンダリ ング を施して髪型整合画像データを生成するレンダリ ング部 5、 複数の頭部の 3次元 形状データが予め記録されている頭部データベース 6、 複数の髪型データが予め 記録されている髪型データベース 7、 及び、 頭部データベース 6に記憶されてい る頭部の 3次元形状データの選択、 髪型データベース 7に記憶されている髪型デ ータの選択等を指示するとき、 ユーザが操作するコン トローラ 8から構成される: 髪型データベース 7に記憶されている髪型データは、 3次元グラフィ ックスモ デラ等を使って編集、 生成されたものである。 したがって、 実際には整髪するこ とが困難であるような髪型であっても、 その髪型データを生成し、 記憶させてお く ことが可能である。 なお、 髪型データベース 7のデータ構造については、 図 1 1 を参照して後述する。
表示装置 9は、 L C D (し i qu i d Crys ta l Di spl ay)又は C R T (Ca thode Ray Tub e)などよりなり、 画像処理装置 2から入力される髪型整合画像を表示する。
次に、 頭髪合成システムの動作について、 図 3のフローチャー ト及び図 4を参 照して説明する。 ステップ S 1 において、 撮影装置 1 は、 被写体となる顧客の首 部を撮影、 又はレーザスキャンして 3次元形状を計測し、 顧客の首部の 3次元形 状デ一タ及びテクスチャ画像データを画像処理装置 2に出力する。
3次元形状の計測方法は、 ステレオカメ ラを用いる方法、 レンジファインダを 用いる方法など、 いずれの方法でも構わない。 しかしながら、 上述したように、 撮影装置 1の 3次元形状計測装置は、 頭髪部分の 3次元形状データを取得するこ とができないので、 ステップ S 1の処理では、 撮影した顧客の顔部の 3次元形状 データ及びテクスチャ画像データ (図 4においては、 顔部の 3次元形状データに テクスチャ画像を貼付した計測データと して図示している) が出力される。 なお、 撮影装置 1 に複数の 3次元形状計測装置及び 2次元画像入力装置が備えられてい る場合には、 顔部の 3次元形状データ及びテクスチャ画像データの組が複数出力 されることになる。
ステップ S 2において、 画像処理装置 2の 3次元頭部再構築処理部 2は、 撮影 装置 1から入力された顔部の計測データ、 すなわち、 3次元形状データ及びテク スチヤ画像データを用いて顧客の頭部の 3次元形状モデルを構築する。
具体的には、 図 4に示すように、 頭部データベース 6から選択して読み出した 頭部データを、 顧客の顔部の計測データと結合して、 完全な顧客の頭部の 3次元 モデルを再構築する。 頭部データベース 6は、 複数の任意形状の頭部のみの 3次 元モデルで構成されている。 頭部データには、 顧客の顔部の計測データの大きさ, 向き等からスケーリ ング、 位置合わせが施されて、 顧客の計測データに結合され る。
頭部データと顧客の計測データとの結合は、 両データの解放ェッジ間に新たな ポリ ゴンを発生させるよ うにしてもよいし、 一方のデータの解放ェッジ部を他方 の解放ェッジに合致するように変形させてもよい。
構築された顧客の頭部 3次元形状は、 例えば、 三角形ポリ ゴンモデルで表現さ れている。 構築された顧客の頭部 3次元モデルは、 図 4に示すよ うな顧客の実像 から頭髪が取り除かれたものとなる。
ステップ S 3において、 髪型データベース 7に記憶されている髪型データを選 択するユーザ (顧客等) の操作が、 コン トローラ 8により受け付け、 選択された 髪型データが髪型データベース 7から読み出されて、 髪型マツビング処理部 4に 供給される。
この髪型選択の際、 髪型を示すアイコンゃサムネイル等を表示装置 9に表示さ せて、 ユーザに選択を促す。 表示装置 9の画面上のカーソル等を移動させること により選択するよ うにしてもよいし、 髪型を示す番号等を入力することにより選 択するようにしてもよい。
ステップ S 4において、 画像処理装置 2の髪型マッピング処理部 4は、 供給さ れた髪型データを、 3次元頭部再構築処理部 3から供給された顧客の頭部 3次元 モデルにマッピングして、 レンダリ ング部 5に出力する。 髪型データのマツピン グ処理は、 髪型データに含まれる 1本毎の髪の毛に対応する頭髪データを、 テク スチヤマツビングと同様の手法によって、 頭部 3次元モデルの形状に従って頭部 3次元モデル表面にマッピングするものである。 なお、 マッピング処理の詳細に ついては、 図 5及び図 6を参照して後述する。
ステップ S 5において、 レンダリ ング部 5は、 髪型データがマッピングされた 顧客の頭部 3次元モデルをレンダリ ングして、 図 4に示すような髪型整合画像デ ータを生成して、 表示装置 9に出力する。 レンダリ ングの方法は、 頭部 3次元モ デルの顔部に対しては、 ポリ ゴンモデルのテクスチヤマツビング処理などであり、 頭髪部に対しては、 曲線モデルのレンダリ ング処理である。 曲線モデルのレンダ リ ング処理は、 例えば、 「小林、 森島、 原島、 " 糸状物 ί本の運動モデルと C Gに よるシミ ュ レーショ ン" 、 信学技報、 PRU90- 1 27 , pp. 1 5 - 20, 1991」 に、 その詳細力; 開示されている。
表示装置 9は、 入力された髪型整合画像データに対応する画像を表示する。 コ ン トローラ 8は、 表示装置 9に表示された髪型整合画像を満足したか否かを入力 するようにユーザ (顧客等) に促す。
このとき、 ユーザは、 コン トローラ 8を操作して、 視点位置や照明位置を変化 させながら髪型整合画像を見ることができる。 視点位置や照明位置が変化した場 合、 レンダリ ング部 5は、 変化された条忭 (視点位置や照明位置) に対応するよ うに、 頭部 3次元モデルと髮型データのレンダリ ング処理を再度実行して表示装 置 9に出力する。
ステップ S 5において、 ユーザが満足していなことを示す入力を受け付けた場 合、 ステップ S 3に戻り、 以降の処理が繰り返される。 ステップ S 5において、 満足したことを示すユーザの入力を受け付けたと判定された場合、 この処理は終 了される。
次に、 ステップ S 4における髪型マッビング処理部 4による髪型マッピング処 理の詳細について説明するが、 その前に、 髪型マッピング処理部 4の構成例につ いて、 図 5を参照して説明する。
髪型マッビング処理部 4の髪型データ読み出し部 2 1 は、 コン トローラ 8を用 いて選択された髪型データを、 髪型データベース 7から読み出してマッビング位 置計算部 2 2に出力する。 マッピング位置計算部 2 2は、 髪型データを構成する 頭髪データ ( 1本の髪の毛に相当する) をマッピングする頭部 3次元モデル上の 位置を計算する。 頭髪データ補間処理部 2 3は、 マッピングされる頭髪データを、 髪型データの周囲の頭髪データから補間することによって求める。 座標変換部 2
4は、 捕間された頭髪データを、 頭髪データの物体座標系から頭部 3次元モデル の物体座標系に座標変換することによってマツビングする。
次に、 髪型マッピング処理部 4の髪型マッピング処理の詳細について、 図 6の フローチヤ一トを参照して説明する。 髪型マッビング処理部 4のマッビング位置 計算部 2 2には、 既に、 ステップ S 3の処理によって、 髪型データ読み出し部 2 1 から髪型データが供給されているものとする。
マッビング位置計算部 2 2に ί共給されている髪型データは、 図 7に示すよ うに 3次元形状を持つォブジェク トで近似された頭髪デ一タが 2次元配列されたもの である。
図 7 Αの例では、 3次 B-spline曲線などの空間曲線で 1本の頭髪が近似されて いる。 図 7 Bの例では、 ポリ ゴンモデルによって 1本の頭髪が近似されている。 2次元配列のア ドレスは、 テクスチャマッピング処理と同様に、 髪型がマツピン グされる頭部 3次元モデルに与えられているマッピング座標値と対応する。
例えば、 頭部 3次元モデルの所定のポリ ゴンの項点にマッピング座標 (u
V ) = (0. 1 , 0. 1 ) が与えられている場合、 その頂点にマッピングされる 頭髪データの髪型データ配列でのア ドレスは (0. 1 0. 1 V m a J とな る。 ここで、 uma iは髪型データ配列の u方向のデータ数であり、 V は髪型デ ータ配列の V方向のデータ数である。
髪型データは、 任意の 3次元形状を有した頭髪データを 2次元配列したもので あるため、 任意の髪型を表現することが可能であり、 現実的にカッ トすることが 困難である髪型の髪型データであっても生成することができる。 なお、 髪型デー タを生成する方法については、 図 1 6を参照して後述する。
始めに、 ステップ S I 1 において、 マッピング位置計算部 2 2は、 髪型データ 配列の縦方向のカウント値 Vを 0. 0に初期化し、 ステップ S 1 2において、 髪 型データ配列の横方向の力ゥン ト値 uを 0. 0に初期化する。
ステップ S 1 3において、 マッピング位置計算部 2 2は、 髪型データ配列のァ ドレス (u , V ) で表される頭髪データをマッピングする頭部 3次元モデル上の 位置を計算する。
具体的に説明する。 図 8は、 頭部 3次元モデル上の任意の三角形ポリ ゴンを示 している。 三角形ポリ ゴンの頂点 A B, Cは、 それぞれ頭部 3次元モデルの属 性を表す属性べク トル Aa t t r, Ba t t r, Ca t を有している。
ここで、 属性とは、 頭部 3次元モデルの物体座標値、 頂点における局所座標軸、 頭髪のマッビング座標値から構成される。 三角形ポリ ゴン AB Cの任意の 2辺を 成すベク トルをベク トル V 1 V 2 とすれば、 ベク トル V 1 V 2を各頂点の属 性ベク トルを用いて、 例えば次式 ( 1 ) で示すことができる。
V l = B a, t r- Aa , .r
Figure imgf000014_0001
ベク トル V 1 , V 2を三角形ポリ ゴン A B Cの座標軸と して考えれば、 三角形 ポリ ゴン AB C上の任意の点 Phは次式 ( 2 ) で表すことができる。
Ph = Aa , , r+ a V l + b V 2 · · · ( 2 )
このとき、 係数 a, bは、 図 8に示すよ うに、 i 意の点 Phから一方の軸に対し て、 他方の軸に平行な線を下ろしたときに交わる点と任意の点 Phの長さを、 各軸 べク トルの長さで正規化したものである。
頂点 A, B , Cのマッピング座標値をそれぞれ (u a, V J , ( u b, v b) , ( u c, v c) と して、 式 ( 2) で表される点 P hをマッピング座標値の要素に関 して注目すると、 次式 ( 3 ) が成立する。
Uh = Ua+ a (Ub + Ua) + b (U c - U a)
V h = V a + a (Vb- Va) + b ( V c - V a) · · · ( 3 )
式 ( 3) は、 (U, V) 空間における任意の点に対して成立している。
いま、 カウンタ値 u = u P、 カウンタ値 V = V Pである場合、 頭髪データがマツ ビングされるべき頭部 3次元モデル上の点 P hが三角形ポリ ゴンの内部にあるた めの条件は次式 (4) で表される。
a + b≤ 1 · · · (4)
つまり、 頭部 3次元モデルの任意の三角形ポリ ゴンにおいて、 式 ( 3 ) に、 u h = u P、 V h = V Pを代入して求めた係数 a , bが、 式 (4) を満たす場合、 点!3 hは、 当該三角形ポリ ゴンの内部に存在するので、 髪型データ配列の (U P, V P) で表される頭髪データは、 当該三角形ポリ ゴン上にマッピングされることになる。 したがって、 このときの頭髪データの頭部 3次元モデルへのマッビング位置は、 マッピングされる三角形ポリ ゴンにおいて式 ( 2 ) を用いて計算される。
図 6に戻り、 ステップ S 1 4において、 マツピング位置計算部 2 2は、 マツピ ングされる頭部 3次元モデルの三角形ポリ ゴンが、 頭髪生成領域か否かを判定す る。 この判定は、 頭部 3次元モデルの各三角形ポリ ゴンに付与されている頭髪デ —タをマッピングするか否かを示すフラグ (正、 又は負) に基づいて行われる。 ステップ S 1 3の処理で求められたマッピング位置を含む三角形ポリ ゴンのマ ッビングフラグが正である場合、 当該三角形ポリ ゴンは頭髪生成領域であると判 定し、 ステップ S ΐ 5に進む。
ステップ S 1 5において、 頭髪データ補間処理部 2 3は、 ( u P, v P) で表さ れるマツビングされるべき頭髪デ一タを、 髪型データ配列に格納されている頭髪 データを用いて補問する。 補間方法は、 4近傍点の平均値を用いてもよいし、 4 近傍点の加重平均 ίを用いてもよいし、 補間をせずに最近傍点をそのまま用いて もよい。
図 9は、 4近傍点からの加重平均値を用いる方法を示している。 いま、 カウン タ値 u = u P、 カウンタ値 V = V pであるとき、 マッピングされる頭髪データの髪 型データ配列ア ドレスは Pa= (mP, n p ) = ( u p - u„, a , , v p · v ma J である ; 点 Paにおける頭髪データを H p と して、 近傍 4点を、 図 9に示すように点 P 1乃 至 P 4と して、 点 P 1乃至 P 4のそれぞれにおける頭髪データを H 1乃至 H 4 と する。
4近傍点からの加重平均方法では、 マッピングされる頭髪データ H pは、 次式 ( 5 ) を用いて 4近傍点のデータから捕間する。
H p = d m ( d n · H 2 + ( 1 一 d n) H I )
+ ( 1 - d m) (d n - H4 + ( l - d n) H 3) ) · · · ( 5 ) ここで、 頭髪データが図 7 Aに示したような 3次 B-spline曲線等の空間曲線で である場合には、 頭髪データの補間処理は、 各制御点のデータの補間で求められ る。 一方、 頭髪データが図 7 Bに示したようなポリ ゴンモデルである場合には、 頭髪データの捕間処理は、 各ポリ ゴン項点データの補間で求められる。 なお、 式 (4) における d mは mPの小数部であり、 d nは nPの小数部である。
図 6に戻り、 ステップ S 1 6において、 座標変換部 2 4は、 捕間処理された頭 髪データを、 頭髪データの物体座標系から頭部 3次元モデルの物体座標系に座標 変換する。
座標変換の概念について、 図 1 0 A及び図 1 0 Bを参照して説明する。 髪型デ ータ配列における任意の頭髪データを Hとする。 頭髪データ Hは、 頭髪データの 物体座標系 ( 1 , J, K) で表されている。 頭髪データの物体座標系 ( 1 , J , K) は、 頭髪データ Hの始点を原点とする 3次元座標系であれば任意であり、 例 えば、 髪型データ配列の横方向を I 、 縦方向を J と し、 それらに直交する方向を Kとするような直交座標系である。 このよ うにして、 頭髪データ Hの始点は ( 1 , J , K) = (0, 0 , 0) で表され、 その他の制御点は頭髪データの始点からの 相対位置で表されている。
一方、 頭部 3次元モデルは物体座標系 (X, Υ, Z ) で表されている。 頭部 3 次元モデルの物体座標系は、 一般的には 3次元直交座標系であり、 例えば、 頭部 の重心位置を原点と して、 右耳方向を X、 頭頂方向を Y、 鼻方向を Ζ とするよう な直交座標系である。
座標変換部 2 4では、 頭髪データの物体座標系 ( 1 , J , Κ) で表されている 頭髪データ Ηを、 ステップ S 1 3で求められた頭部 3次元モデルのマッビング位 置 Phにおける局所座標系 (T, S, N) に変換する。 この点 Phにおける局所座 標系 (T, S, N) は、 点 Phを原点とする 3次元座標系であれば任意であり、 例 えば、 点 Phにおける法線方向べク トルを Nと し、 頭部 3次元モデルの縦方向の中 心軸 (図 1 0における Y軸) から点 Phに向かう放射線方向ベク トルと法線方向べ ク トル Nの外積と して求められる接線方向べク トルを Tと し、 法線方向 Nと接線 方向 Tと直交するべク トルを Sとするような直交座標系である。
ここで、 頭部 3次元モデルの各頂点における局所座標系は、 頭部データベース に予め与えられているものとする。 従って、 点 Phにおける局所座標系 (T, S , N) は、 マッピング位置の計算と同様に、 マッピングされる三角形ポリ ゴンにお いて式 ( 2) を用いて計算される。 いま、 頭髪データ Hの任意の制御点 C ,の物体 座標系 ( I , J , K) におけるデータを ( i , j , k ) とすると、 制御点 C ,は、 点 Phにおける局所座標系 (T, S , ) において、 次式 (6 ) で表される。
C ,= i - T+ j - S + k - N · · · ( 6 )
ここで、 局所座標系 (T, S, N)の各単位ベク トルは、 頭部 3次元モデルの物 体座標系 (X, Y, Z)の値を持っている。
従って、 式 ( 6) で表される制御点 C iは、 頭部 3次元モデルの物体座標系 (X, Y, Z ) で表されることになる。
図 6に戻り、 ステップ S 1 7において、 マッピング位置計算部 2 2は、 カウン タ値 uが 1 . 0を超過したか否か、を判定する。 カウンタ値 uが 1 . 0を超過して いないと判定された場合、 ステップ S 1 8に進む。 ステップ S 1 8において、 マ ッピング位置計算部 2 2は、 カウンタ値 uを刻み値 d uだけインク リ メン トする: 刻み値 d uは、 髮型データ配列に格納されている頭髪データを横方向にどの程度 の間隔でマッビングするかを示す値である。
その後、 ステップ S 1 3に戻り、 以降の処理が繰り返され、 ステップ S 1 7に おいて、 カウンタ値 uが 1 . 0を超過したと判定された場合、 横方向のマツピン グ処理が髪型データ配列の 1行の終わりに到達したことを意味するので、 ステツ プ S 1 9に進む。
ステップ S 1 9において、 マッピング位置計算部 2 2は、 カウンタ値 Vが 1 . 0を超過したか否かを判定する。 カウンタ値 Vが 1 . 0を超過していないと判定 された場合、 ステップ S 2 0に進む。 ステップ S 2 0において、 マッピング位置 計算部 2 2は、 カウンタ値 Vを刻み値 d Vだけインク リ メ ン トする。 刻み値 d v は、 髪型データ配列に格納されている頭髪データを縦方向にどの程度の間隔でマ ッビングするかを示す値である。
その後、 ステップ S 1 2に戻り、 以降の処理が繰り返され、 ステップ S 1 9に おいて、 カウンタ値 Vが 1 . 0を超過したと判定された場合、 全ての行のマツピ ング処理が終了したことを意味するので、 当該頭髪マッビング処理は終了され、 図 3のステップ S 5に進むことになる。
なお、 ステップ S 1 4において、 ステップ S 1 3の処理で求められたマツピン グ位置を含む三角形ポリ ゴンのマッピングフラグが負である場合、 当該三角形ポ リ ゴンは頭髪生成領域ではないと判定され、 ステップ S 1 5及びステップ S 1 6 の処理はスキップされる。
このようにマツビングフラグを用いて頭髪生成領域を指定することにより、 髪 型データベース 7から読み出した髪型データを構成する全ての頭髪データをマツ ビングせずに、 頭部 3次元モデルの任意の領域だけにマッビングさせることが可 能である。 したがって、 例えば、 いわゆるモヒカン刈りのような髪型や、 星型に 刈り込んだ髪型などを簡単に生成することができる。
また、 この髪型マッピング処理によれば、 髪型データベース 7に記憶されてい る各髪型データは、 頭髪の物体座標系で表現されており、 人物頭部の形状には依 存せず、 任意の形状の頭部 3次元モデルにマツビングが可能である。
次に、 髪型データベース 7のデータ構造について、 図 1 1 を参照して説明する。 髪型データベース 7は、 複数の髪型データから構成される。 髪型データは、 上述 したよ うに 2次元配列であり、 先頭に配列の横方向のデータ数 u ma x、 縦方向のデ ータ数 vma iが記述され、 以降に (uma x X vma x) 本分の頭髪データが記述されて いる。
頭髪データには、 先頭にグループ情報 (後述) が記述されることがある。 以降 には、 頭髪データが頭髪データが 3次パラメ ト リ ック曲線等で近似される場合、 複数の制御点データが記述される。 制御点データは、 頭髪物体座標系 ( I , J , K) で表現される。
なお、 頭髪データは、 3次元ポリ ゴンデータであってもよい。 この場合、 頭髪 データと して、 複数のポリ ゴン頂点データが記述される。
頭髪データに記述されたグループ情報について説明する。 グループ情報は、 上 述した髪型マッピング処理 (図 6 ) のステップ S 1 5の頭髪データ捕間処理にお いて用いることが可能である。
グループ情報が与えられている場合における頭髪データ補間処理について、 図 1 2を参照にして説明する。 いま、 カウンタ値 = U p、 カウンタ値 v = v Pであ るとき、 マッピングされる頭髪データの髪型データ配列でのア ドレスは Pa= (m
» ) である。
点 P aにおける頭髪データを H p と し、 近傍 4点を、 図 1 2に示すよ うに点 P 1 乃至 P 4 と し、 点 P 1乃至 P 4のそれぞれの頭髪データを H I乃至 H 4とする。 さらに、 頭髪データ H Iには、 グループ情報と して 1が記述され、 頭髪データ H 2乃至 H 4には、 グループ情報と して 2が記述されているとする。 すなわち、 こ の例においては、 頭髪データ H 1だけがグループ 1 に属し、 その他の頭髪データ H 2乃至H4は、 グループ 2に属している。 グループ情報が与えられている場合、 頭髪データ補間処理では、 同じグループに属する頭髪データだけを用いて補間が 行われる。
具体的には、 始めにマッピングされる点 P aの 4近傍点のうち、 最近傍点が求め られ、 そのグループ情報が取得される。 図 1 2の場合、 最近傍点は点 P 3である ; 次に、 4近傍点 P 1 乃至 P 4のうち、 最近傍点と同じグループに属する近傍点の 数が求められる。
4近傍点 P 1 乃至 P 4のうち、 最近傍点と同じグループに属する近傍点が他に ない場合、 最近傍点の頭髪データがそのまま点 P aにも用いられる。
4近傍点 P 1 乃至 P 4のう ち、 最近傍点と同じグループに属する近傍点の数が -近傍点を含めて 2である場 、 補間には当該 2点間の線形補間値が用いられる:
4近傍点 P 1乃至 P 4のうち、 最近傍点と同じグループに属する近傍点の数が 最近傍点を含めて 3である場合、 すなわち、 図 1 2に示すような場合、 次式 ( 7 ) によって補間値が計算される。
H p = ( 1 - r ) H 3 2 + r · Η 3 4
H 3 2 = d n - H 2 - ( 1 — d n ) H 3
H 3 4 = d n - H 4 + ( 1 — d n ) H 3
r = (mP -m 3 2 ) / (m 3 4 -m 3 2 ) · · . ( 7 ) ただし、 d nは n pの小数部であり、 m 3 2は点 P 3 2での mア ドレスであり、 m 3 4は点 P 3 4での mァ ドレスである。
このよ うにして、 頭髪データにグループ情報を記述しておく ことにより、 例え ば、 髪の毛の分け目のよ うな補間によって不都合が生じるような髪形も表現でき るよ うになる。 つまり、 分け目を境にしてダル一プ分けをしておけば、 4近傍点 が分け目をまたがるような場合においても、 分け目の両側の頭髪データを用いて 不自然な頭髪が生成されてしまうようなことを抑止することができる。
次に、 上述した髪型マッピング処理 (図 6 ) のステップ S 1 6の処理における 座標変換の応用例について、 図 1 2及び図 1 3を参照して説明する。
ステップ S 1 6の座標変換処理において、 乱数を用いて髪型のばらつきを表現 することが可能である。 図 1 3 Aに示す髪型のばらつきを表現していない状態に 対して、 図 1 3 Bは、 座標変換において、 乱数を用いて局所座標系を回転させる ことによって、 髪型のばらつきを表現した状態の一例を示している。
具体的には、 頭部の局所座標系 (T, S, N) を、 Nを軸にして、 発生した乱 数に対応して軸回転を行った後、 頭部モデルの物体座標系 (X, Y, Z ) に変換 する。 このような処理により、 頭髪データがマッピングされる位置を変えること なく、 一本一本の頭髪の生える方向を微妙に変化させることができる。
図 1 4 Aに示す髪型のばらつきを表現していない状態に対して、 図 1 4 Bは、 座標変換において、 乱数を用いてマッピング位置を変化させることによって、 髪 型のばらつきを表現した状態の-一例を示している。
具体的には、 局所座標系 (T, S , Ν ) の原点である P hの位置を、 発生した乱 数に対応して P にずらした後、 頭部モデルの物 ^座標系 (X , Y , Z ) に変換す る。 このよ うな処理により、 髪型を変えることなく、 頭髪の生える位置を微妙に 変化させることができる。
なお、 乱数を用いて、 変換する座標系の軸を回転させたり、 原点を移動するこ とにより、 合成した画像に自然なばらつきを表現させることは、 頭髪の画像を合 成するとき以外にも適用することが可能である。
ところで、 この頭髪合成システムでは、 3次元頭部再構築処理部 3により頭部 3次元モデルを任意の形状に変形させた後、 髪型データをマツビングすることが できる。 図 1 5 Aに示す頭部 3次元モデルを変形させていない状態に対して、 図 1 5 Bは、 頭部 3次元モデルを Y軸方向に 1 . 5倍に拡大した状態を示している。 頭部 3次元モデルの拡大縮小処理は、 ァフィ ン変換処理によって行う。 このと き、 頭部 3次元モデルの任意のポリ ゴン頂点に与えられている局所座標系 (T , S, N ) についても同様のァフィ ン変換処理を行う。
図 1 5 Bに示すように、 頭部 3次元モデルを Y軸方向に 1 . 5倍に拡大する場 合には、 Y軸方向に 1 . 5倍する変換行列が、 T , S , Nのそれぞれのベク トル にかけられて、 縦方向に引き伸ばされた局所座標系 (丁' , S ' , N ' )が得られ る。 このよ うに変形された局所座標系 (Τ ' , S ' , N ' )に頭髪データ Ηをマツ ビングすることによって、 髪型は頭部に合わせて Υ軸方向に 1 . 5倍に拡大され たような形状になる。 このような処理により、 同じ髪型データを、 任意の形状に 変形させた頭部 3次元モデルにマッビングすることができる。
次に、 髪型データの生成について、 図 1 6を参照して説明する。 図 1 6は、 頭 部を取卷く円柱座標系を示している。 円柱座標系は、 円柱の中心を通る軸を Υ軸 と し、 Υ軸に垂直な平面上の Υ軸からの距離を r と し、 この平面上において基準 方向からの角度を Θ とする座標系である。
頭部表面の任意の点 Phは、 円柱座標系を用いて P»= ( y r Ρ, θ と表す ことができる。 さらに、 円柱座標系の Y= y P、 Θ = 0 で定まる直線と頭部表面 の接点が必ず 1点だけである場合、 頭部表面の任意の点 Phは ( y θ で表現 することができる。
つまり、 頭部表面の形状が円周方向に向かって常に凸であれば、 上記条件 (円 柱座標系の Y= y ,,、 θ = θ Ρで定まる直線と頭部表面の接点が必ず 1点だけであ る) を満たすことになる。
顔を除いた頭皮部分を考えてみると、 一般的には円周方向に向かって常に凸で あると考えられるため、 頭部モデルの頭皮部分の任意の点 Phを P h== y θ で表現することが可能である。
髪型データの作成は、 「岸、 三枝、 森島、 " 房モデルによるへアデザインシス テムの開発" 、 信学技報、 MVE97- 102, pp.67- 74, 1998」 に開示されているシステム を用いることによって、 比較的容易に行うことができる。 そのシステムでは、 与 えられた頭部モデル上に生成した頭髪データを編集することによって髪型データ を作成する。 このシステムから出力される頭髪データは、 与えられた頭部モデル の物体座標系で表現されている。
本発明の頭髪データベース 7には、 この頭髪データを円柱座標系の (y , Θ ) で表される空間にマッピングすることによって 2次元配列に格納した髮型デ一タ が記録されている。 (y, Θ ) 空間から、 図 7に示すような 2次元配列の (u , V ) 空間への変換は、 例えば、 次式 ( 8 ) が用いられる。
u = θ 2 π
ν = ( — ( 8 )
ここで、 ym,„は、 頭部表面の円柱座標系の Y軸の最小値であり、 は、 頭 部表面の円柱座標系の Y軸の最大値である。
(y , Θ ) 空間から (u, v) 空間への変換は非線形でもよく、 例えば、 頭頂 部に近くなるほど、 V方向の刻みを小さくするよ うな変換をするよ うにすれば、 頭頂部近辺のサンプリ ングが粗くなってしまうことを避けるようにすることがで さる。 以上のよ うに ( u , v ) 空間に変換された頭髪データから成る髪型データが髪 型データべ—ス 7には記録されている。
なお、 本発明は、 C Gにより髪の毛以外の糸状物体を表現する場合にも適用す ることが可能である。
ところで、 画像処理装置 2の上述した一連の処理は、 ハ一ドウエアにより実行 させることもできるが、 ソフ ト ウェアによ り実行させることもできる。 一連の処 理をソフ トウェアによ り実行させる場合には、 そのソフ トウェアを構成するプロ グラムが、 専用のハードウェアに組み込まれているコンピュータ、 又は、 各種の プログラムをインス トールすることで、 各種の機能を実行することが可能な、 例 えば汎用のパ一ソナルコンピュータなどに、 記録媒体からィンス トールされる。 図 1 7は、 画像処理装置 2を実現するパーソナルコンピュータの構成例を示し ている。 このノ ーソナルコンピュータは、 C P U (Centra l Proc e s s i ng Uni t ) 4 1 を内蔵している。 C P U 4 1にはバス 4 4を介して、 入出力インタフェース 4 5 が接続されている。 入出力インタフェース 4 5には、 コン トローラ 8に相当する キーボード、 マウスなどの入力デバイスよりなる入力部 4 6、 処理結果と しての 髪型整合画像を表示装置 9に出力する画像出力部 4 7、 プログラムや各種データ を格納するハードディスク ドライブなどよ りなる記憶部 4 8、 インタネッ ト等を 介してデータを通信する通信部 4 9、 及び、 磁気ディスク 5 1乃至半導体メモリ 5 4などの記録媒体に対してデ一タを読み書きする ドライブ 5 0が接続されてい る。 ノくス 4 4 ίこ(ま、 R O M (Read Onl y Memory) 4 2 ¾ 1 R A M (Random Acc es s emory) 4 3が接続されている。
このパーソナルコンピュータに画像処理装置 2と しての動作を実行させる画像 処理用プログラムは、 磁気ディスク 5 1乃至半導体メモリ 5 4に格納された状態 でパーソナルコンピュータに供給され、 ドライブ 5 0によって読み出されて、 記 億部 4 8に内蔵されるハードディスク ドライブにインス トールされている。 記億 部 4 8にインス トールされている画像処理用プログラムは、 入力部 4 6に入力さ れるユーザからのコマンドに対応する C P U 4 1の指令によって、 記憶部 4 8力 ら R A M 4 3に口 一 ドされて実行される。
なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に従って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなく とも、 並列的あるいは個別に実行される処理をも含むもの である。
また、 本明細書において、 システムとは、 複数の装置により構成される装置全 体を表すものである。 産業上の利用可能性 上述したように、 本発明は、 髪型データを記憶し、 記憶した髪型データを読み 出し、 髪型データに含まれる 1本の髪の毛に対応する頭髪データを頭部の 3次元 形状画像の所定の位置にマッビングするようにしたので、 C Gによって 1本毎に 表現する頭髪の髪型を、 複数の異なる頭部形状に対応して変化させることが可能 となる。
また、 本発明は、 記憶した髪型データを読み出し、 読み出した髪型データに含 まれる 1本の髪の毛に対応する頭髪データを、 頭部の 3次元形状画像の所定の位 置にマッピングし、 マッピング結果に基づいて、 髪型整合画像を生成するように したので、 C Gによって 1本毎に表現する頭髪の髪型を、 複数の異なる頭部形状 に対応して変化させることが可能となる。

Claims

請求の範囲
1 . 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像を生成する画像処 理装置において、
髪型データを記憶する記憶手段と、
前記記憶手段が記憶した前記髪型データを読み出す読み出し手段と、
前記読み出し手段が読み出した前記髪型データに含まれる 1本の髪の毛に対応 する頭髪データを、 前記頭部の 3次元形状画像の所定の位置にマツビングするマ ッビング手段と、
前記マツビング手段のマッビング結果に基づいて、 前記髪型整合画像を生成す る生成手段とを含む画像処理装置。
2 . 前記頭髪デ一夕は、 複数の制御点からなる 3次元曲線デ一夕であることを特 徴とする請求の範囲第 1項記載の画像処理装置。
3 . 前記頭髪データは、 複数のポリゴンからなるポリゴンデ一夕である請求の範 囲第 1項記載の画像処理装置。
4 . 前記記憶手段は、 2次元配列された複数の前記頭髪データから構成される前 記髪型デ一夕を記億することを特徴とする請求の範囲第 1項記載の画像処理装置。
5 . 前記記憶手段は、 円梓座標系で表現される立体的な髪型の 2次元座標系への 写像に対応する 2次元配列に格納された前記複数の前記頭髪データから構成され る前記髪型データを記憶することを特徴とする請求の範囲第 1項記載の画像処理 装置。
6 . 前記装置は、 さらに、 所定の位置の前記頭髪データを、 その近傍の前記頭髪 データを用いて補間する補間手段を含むことを特徴とする請求の範囲第 1項記載 の画像処理装置。
7 . 前記補間手段は、 前記所定の位置の近傍の前記頭髪データに含まれるグルー ブ情報に基づいて、 前記頭髪データを補間することを特徴とする請求の範囲第 6 項記載の画像処理装置。
8 . 前記マツビング手段は、 第 1の座標系で表現されている前記頭髪データを、 前記頭部の 3次元形状画像が表現されている第 2の座標系のデータに変換する座 標変換手段を含むことを特徴とする請求の範囲第 1項記載の画像処理装置。
9 . 前記座標変換手段は、 前記第 1の座標系で表現されている前記頭髪データを. 前記頭部の表面に原点を有する局所座標系のデータに変換した後、 前記頭部の 3 次元形状画像が表現されている前記第 2の座標系のデータに変換することを特徴 とする請求の範囲第 8項記載の画像処理装置。
1 0 . 前記座標変換手段は、 前記第 1 の座標系で表現されている前記頭髪データ を、 前記頭部の 3次元形状画像が表¾されている前記第 2の座標系のデータに変 換するとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方 を実行することを特徴とする請求の範囲第 8項記載の画像処理装置。
1 1 . 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像を生成する画像 処理装置の画像処理方法において、
髪型データを記憶する記憶ステップと、 前記記憶ステップの処理で記憶された前記髪型データを読み出す読み出しステ ップと、
前記読み出しステップの処理で読み出された前記髪型データに含まれる 1本の 髪の毛に対応する頭髪データを、 前記頭部の 3次元形状画像の所定の位置にマッ ピングするマッピングステップと、
前記マッピンダステップの処理でのマッピング結果に基づいて、 前記髪型整合 画像を生成する生成ステップとを含む画像処理方法。
1 2 . 前記頭髪データは、 複数の制御点からなる 3次元曲線データであることを 特徴とする請求の範囲第 1 1項記載の画像処理方法。
1 3 . 前記頭髪データは、 複数のポリ ゴンからなるポリ ゴンデータであることを 特徴とする請求の範囲第 1 1項記載の画像処理方法。
1 4 . 前記記憶ステップの処理では、 2次元配列された複数の前記頭髪データか ら構成される前記髪型データが記憶されることを特徴とする請求の範囲第 1 1項 記載の画像処理方法。
1 5 . 前記記憶ステップの処理では、 円柱座標系で表現される立体的な髪型の 2 次元座標系への写像に対応する 2次元配列に格納された前記複数の前記頭髪デー タから構成される前記髪型データが記憶されることを特徴とする請求の範囲第 1 1項記載の画像処理方法。
1 6 . さらに、 所定の位置の前記頭髪データを、 その近傍の前記頭髪データを用 いて補間する補間ステップを含むことを特徴とする請求の範囲第 1 1項記載の画 像処理方法。
1 7 . 前記補間ステップの処理では、 前記所定の位置の近傍の前記頭髪データに 含まれるグループ情報に基づいて、 前記頭髪データが補間されることを特徴とす る請求の範囲第 1 6項記載の画像処理方法。
1 8 . 前記マッピングステップの処理は、 第 1 の座標系で表現されている前記頭 髪データを、 前記頭部の 3次元形状画像が表現されている第 2の座標系のデータ に変換する座標変換ステツプを含むことを特徴とする請求の範囲第 1 1項記載の 画像処理方法。
1 9 . 前記座標変換ステップの処理では、 前記第 1の座標系で表現されている前 記頭髪データが、 前記頭部の表面に原点を有する局所座標系のデータに変換され た後、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系のデータに 変換されることを特徴とする請求の範囲第 1 8項記載の画像処理方法。
2 0 . 前記座標変換ステップの処理では、 前記第 1 の座標系で表現されている前 記頭髪データが、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系 のデータに変換されるとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方が実行されることを特徴とする請求の範囲第 1 8項記載の画像処 理方法。
2 1 . 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像を生成する画像 処理用のプログラムを記録した記録媒体であって、
髪型データを記憶する記憶ステップと、
前記記憶ステップの処理で記憶された前記髪型データを読み出す読み出しステ ップと、
前記読み出しステップの処理で読み出された前記髪型データに含まれる 1本の 髪の毛に対応する頭髪データを、 前記頭部の 3次元形状画像の所定の位置にマッ ビングするマッピングステップと、
前記マツビングステップの処理でのマツビング結果に基づいて、 前記髪型整合 画像を生成する生成ステップとを含むこ とを特徴とするコンピュータが読み取り 可能なプログラムが記録されている記録媒体。
2 2 . 前記頭髪データは、 複数の制御点からなる 3次元曲線データであることを 特徴とする請求の範囲第 2 1項記載の記録媒体。
2 3 . 前記頭髪データは、 複数のポリ ゴンからなるポリ ゴンデータであることを 特徴とする請求の範囲第 2 1項記載の記録媒体。
2 4 . 前記記憶ステップの処理では、 2次元配列された複数の前記頭髪データか ら構成される前記髪型データが記憶されることを特徴とする請求の範囲第 2 1項 記載の記録媒体。
2 5 . 前記記憶ステップの処理では、 円柱座標系で表現される立体的な髪型の 2 次元座標系への写像に対応する 2次元配列に格納された前記複数の前記頭髪デー タから構成される前記髪型データが記憶されることを特徴とする請求の範囲第 2 1項記載の記録媒体。
2 6 . 所定の位置の前記頭髪データを、 その近傍の前記頭髪データを用いて補間 する補間ステップをさらに含むことを特徴とする請求の範囲第 2 1項記載の記録 媒体。
2 7 . 前記捕間ステップの処理では、 前記所定の位置の近傍の前記頭髪データに 含まれるグループ情報に基づいて、 前記頭髪データが補間されることを特徴とす る請求の範囲第 2 6項記載の記録媒体。
2 8 . 前記マッピングステップの処理は、 第 1 の座標系で表現されている前記頭 髪データを、 前記頭部の 3次元形状画像が表現されている第 2の座標系のデータ に変換する座標変換ステップを含むこ とを特徴とする請求の範囲第 2 1項記載の 記録媒体。
2 9 . 前記座標変換ステップの処理では、 前記第 1 の座標系で表現されている前 記頭髪データが、 前記頭部の表面に原点を有する局所座標系のデータに変換され た後、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系のデータに 変換されることを特徴とする請求の範囲第 2 8項記載の記録媒体。
3 0 . 前記座標変換ステップの処理では、 前記第 1 の座標系で表現されている前 記頭髪デ一タが、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系 のデータに変換されるとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方が実行されることを特徴とする請求の範囲第 2 8項記載の記録媒 体。
補正書の請求の範囲
[ 2 0 0 1年 9月 1 7日 (1 7 . 0 9 . 0 1 ) 国際事務局受理:出願当初の請求の範囲 1 ,1 1及び 2 1は補正された;出願当初の請求の範囲 4 , 1 4及び 2 4は取り下げられた; 他の請求の範囲は変更なし。 (4頁) ]
1 . (補正後) 頭部の 3次元形状画像に頭 ¾ m像を合成して 51型整合画像を ΐ成 する画像処理装匿において、
2次元配列された俊数の頭髪データから構成される データを記憶する記憶 手段と、
前記記憶 段が ^f した前記 ¾型データを^み出す^み出し手段と、 前記読み出し乎段が %み出した 記 SI型データに含まれる 1本の髪の毛に対応 する前記頭髪データを、 前記頭部の 3次元形状画像の所定の位 Sにマツビングす るマツビング手段と、
前記マツビング手段のマツビング結果に Sづいて、 前記髮型整合画像を生成す る生成手段とを含む画像処理装置。
2 . 前記頭髪データは、 複数の制御点からなる 3次元曲線データであることを特 徴とする請求の範囲第 1項記載の画像処理装置。
3 . 前記頭髪データは、 複数のポリゴンからなるポリゴンデータである請求の範 囲第 1項記載の画像処理装置。
4 . (削除)
5 . 前記記憶手段は、 円柱座標系で表現される立体的な髪型の 2次元座標系への 写像に対応する 2次元配列に格納された前記複数の前記頭髪データから構成され る前記髪型データを記憶することを特徴とする請求の範囲第 1項記載の画像処理 装置。
6 . 前記装置は、 さらに、 所定の位置の前記頭髪データを、 その近傍の前記頭髪 データを用いて補間する補間手段を含むことを特徴とする請求の範囲第 1項記載 の画像処理装置。
7 . 前記補間手段は、 前記所定の位置の近傍の前記頭髪データに含まれるグルー プ情報に基づいて、 前記頭髪データを補間することを特徴とする請求の範囲第 6 項記載の画像処理装置。
8 . 前記マッピング手段は、 第 1の座標系で表現されている前記頭髪データを、 前記頭部の 3次元形状画像が表現されている第 2の座標系のデータに変換する座
補正された用紙 (条約第 19条) 標変換手段を含むことを特徴とする請求の範囲第 1项記 '瞬の画像処理装置。
9 . 前記座標変換手段は、 前記第 1の座標系で ¾現されている前記頭髪データを、 前記頭部の表面に原点をおする 所座標系のデータに変換した後、 前記頭部の 3 次元形状画像が表現されている前記第 2の座標系のデータに変換することを特徴 とする請求の範囲第 8項記載の画像処理装置。
1 0 . 前記座標変換手段は、 前記第 1の^標系で表現されている前記頭髪データ を、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系のデータに変 換するとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方 を実行することを特徴とする請求の範囲第 8項記載の画像処理装置。
1 1 . (補正後) 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像を生 成する画像処理装置の画像処理方法において、
2次元配列された複数の頭髪データから構成される髪型データを記憶する記憶 ステップと、
前記記憶ステツプの処理で記憶された前記髪型データを読み出す読み出しステ ップと、
前記読み出しステツプの処理で読み出された前記髪型データに含まれる 1本の 髪の毛に対応する前記頭髪データを、 前記頭部の 3次元形状画像の所定の位置に マッピングするマ ヅピングステップと、
前記マヅピングステツプの処理でのマ ヅビング結果に基づいて、 前記髪型整合 画像を生成する生成ステツプとを含む画像処理方法。
1 2 . 前記頭髪データは、 複数の制御点からなる 3次元曲線データであることを 特徴とする請求の範囲第 1 1項記載の画像処理方法。
1 3 . 前記頭髪データは、 複数のポリゴンからなるポリゴンデータであることを 特徴とする請求の範囲第 1 1項記載の画像処理方法。
1 4 . (削除)
1 5 . 前記記憶ステップの処理では、 円柱座標系で表現される立体的な髪型の 2 次元座標系への写像に対応する 2次元配列に格納された前記複数の前記頭髪デー 夕から構成される前記髪型デ一夕が記憶されることを特徴とする請求の範囲第 1 1項記載の画像処理方法。
補正された用紙 (条約第 19条)
1 6 . さらに、 所定の位;!の前記頭髮デ一夕を、 その近傍の前記頭髪データを用 いて補間する補閊ステップを含むことを特徴とする請求の範囲第 1 1項記載の画 像処理方法。
1 7 . 前記補間ステップの処理では、 前記所定の位置の近傍の前記頭髪データに 含まれるグループ情報に基づいて、 前記頭髪データが補間されることを特徴とす る請求の範囲第 1 6項記載の画像処理方法。
1 8 . 前記マッピングステップの処理は、 第 1の座標系で表現されている前記頭 髪データを、 前記頭部の 3次元形状画像が表現されている第 2の座標系のデータ に変換する座標変換ステツプを含むことを特徴とする請求の範囲第 1 1項記載の 画像処理方法。
1 9 . 前記座標変換ステップの処理では、 前記第 1の座標系で表現されている前 記頭髪データが、 前記頭部の表面に原点を有する局所座標系のデータに変換され た後、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系のデ一夕に 変換されることを特徴とする請求の範囲第 1 8項記載の画像処理方法。
2 0 . 前記座標変換ステップの処理では、 前記第 1の座標系で表現されている前 記頭髪データが、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系 のデータに変換されるとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方が実行されることを特徴とする請求の範囲第 1 8項記載の画像処 理方法。
2 1 . (補正後) 頭部の 3次元形状画像に頭髪画像を合成して髪型整合画像を生 成する画像処理用のプログラムを記録した記録媒体であって、
2次元配列された複数の頭髪データから構成される髪型データを記憶する記憶 ステップと、
前記記憶ステツプの処理で記憶された前記髪型データを読み出す読み出しステ ヅプと、
前記読み出しステップの処理で読み出された前記髪型データに含まれる 1本の 髪の毛に対応する前記頭髪データを、 前記頭部の 3次元形状画像の所定の位置に マツビングするマッピングステップと、
前記マッビングステツプの処理でのマツビング結果に基づいて、 前記髪型整合
補正された用紙 (条約第 19条) 画像を生成する生成ステツプとを含むことを特徴とするコンピュー夕が読み取り 可能なプログラムが記録されている記録媒体。
2 2 . 前記頭髮データは、 浚数の制御点からなる 3次元曲線データであることを 特徴とする請求の範囲第 2 1項記載の記録媒体。
2 3 . 前記頭髮データは、 複数のポリゴンからなるポリゴンデータであることを 特徴とする請求の範囲^ 2 1項記載の記録媒体。
2 4 . (削除)
2 5 . 前記記憶ステップの処理では、 円柱座標系で表現される立体的な髪型の 2 次元座標系への写像に対応する 2次元配列に格納された前記複数の前記頭髪デー 夕から構成される前記髪型データが記憶されることを特徴とする請求の範囲第 2 1項記載の記録媒体。
2 6 , 所定の位置の前,记頭髪データを、 その近傍の前記頭髪データを用いて補間 する補間ステップをさらに含むことを特徴とする請求の範囲第 2 1項記載の記録 媒体。
2 7 . 前記補間ステップの処理では、 前記所定の位置の近傍の前記頭髪デ一夕に 含まれるグループ情報に基づいて、 前記頭髪データが補間されることを特徴とす る請求の範囲第 2 6項記載の記録媒体。
2 8 . 前記マッピングステップの処理は、 第 1の座標系で表現されている前記頭 髪データを、 前記頭部の 3次元形状画像が表現されている第 2の座標系のデータ に変換する座標変換ステツプを含むことを特徴とする請求の範囲第 2 1項記載の 記録媒体。
2 9 . 前記座標変換ステップの処理では、 前記第 1の座標系で表現されている前 記頭髪データが、 前記頭部の表面に原点を有する局所座標系のデータに変換され た後、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系のデータに 変換されることを特徴とする請求の範囲第 2 8項記載の記録媒体。
3 0 . 前記座標変換ステップの処理では、 前記第 1の座標系で表現されている前 記頭髪データが、 前記頭部の 3次元形状画像が表現されている前記第 2の座標系 のデータに変換されるとき、 乱数に基づいて、 座標軸回転及び原点移動のうち、 少なく とも一方が実行されることを特徴とする請求の範囲第 2 8項記載の記録媒
捕正された用紙 (条約第 19条)
PCT/JP2001/003202 2000-04-13 2001-04-13 Processeur d'images, procede de traitement d'images et support d'enregistrement WO2001080187A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CA002376647A CA2376647A1 (en) 2000-04-13 2001-04-13 Image processor and image processing method, and recorded medium
US10/018,033 US6842172B2 (en) 2000-04-13 2001-04-13 Image processor and image processing method, and recorded medium
EP01921836A EP1246132A4 (en) 2000-04-13 2001-04-13 IMAGE PROCESSOR, IMAGE PROCESSING METHOD AND DATA CARRIER

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2000112074 2000-04-13
JP2000112072 2000-04-13
JP2000-112072 2000-04-13
JP2001-77564 2000-04-13
JP2000-112074 2000-04-13
JP2001077564A JP2001357415A (ja) 2000-04-13 2001-03-19 画像処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2001080187A1 true WO2001080187A1 (fr) 2001-10-25

Family

ID=27343081

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/003202 WO2001080187A1 (fr) 2000-04-13 2001-04-13 Processeur d'images, procede de traitement d'images et support d'enregistrement

Country Status (5)

Country Link
US (1) US6842172B2 (ja)
EP (1) EP1246132A4 (ja)
JP (1) JP2001357415A (ja)
CA (1) CA2376647A1 (ja)
WO (1) WO2001080187A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3542958B2 (ja) * 2000-07-03 2004-07-14 ファイルド株式会社 ヘアーデザインシステム及びその利用
FR2848660B1 (fr) * 2002-12-13 2005-02-18 Thales Sa Procede de determination de la comptabilite biomecanique d'un equipement de tete
US7330195B2 (en) * 2002-12-18 2008-02-12 Hewlett-Packard Development Company, L.P. Graphic pieces for a border image
NZ530738A (en) * 2004-01-21 2006-11-30 Stellure Ltd Methods and systems for compositing images
JP2005274928A (ja) * 2004-03-24 2005-10-06 Wella Ag ヘアカラーリング用カラーシミュレーションシステム
JP2005321986A (ja) * 2004-05-07 2005-11-17 Pioneer Electronic Corp ヘアスタイル提案システム、ヘアスタイル提案方法、及びコンピュータプログラム
US20110028212A1 (en) * 2004-07-01 2011-02-03 David Krien Computerized Imaging of Sporting Trophies and Method of Providing a Replica
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20060177122A1 (en) * 2005-02-07 2006-08-10 Sony Computer Entertainment Inc. Method and apparatus for particle manipulation using graphics processing
US7418371B2 (en) * 2005-03-30 2008-08-26 Seoul National University Industry Foundation Method and system for graphical hairstyle generation using statistical wisp model and pseudophysical approaches
US7483763B2 (en) * 2005-11-17 2009-01-27 Centertrak, Llc System and method for the digital specification of head shape data for use in developing custom hair pieces
JP2007286669A (ja) 2006-04-12 2007-11-01 Sony Corp 画像処理装置および方法、並びにプログラム
WO2007148306A2 (en) 2006-06-22 2007-12-27 Centre National De La Recherche Scientifique A method and a system for generating a synthesized image of at least a portion of a head of hair
JP4986279B2 (ja) * 2006-09-08 2012-07-25 任天堂株式会社 ゲームプログラムおよびゲーム装置
EP2102785B1 (en) * 2006-09-19 2016-01-27 Sicpa Holding Sa Apparatus and method for secure detection of an item and a method of securing access to information associated with the item
US20080136811A1 (en) * 2006-12-06 2008-06-12 Oluwaseun Adedayo Image displaying system
US7714912B2 (en) * 2007-01-24 2010-05-11 International Business Machines Corporation Intelligent mirror
JP2009129337A (ja) * 2007-11-27 2009-06-11 Hitachi Ltd 三次元類似形状検索装置
JP5808171B2 (ja) * 2010-07-16 2015-11-10 株式会社 資生堂 目元画像シミュレーション装置、目元画像生成方法、及び目元画像生成プログラム
TW201212852A (en) * 2010-09-21 2012-04-01 Zong Jing Investment Inc Facial cosmetic machine
TWI462030B (zh) * 2011-06-16 2014-11-21 jian wen Peng 智慧型臉形分析與髮型搭配之系統及方法
JP5578186B2 (ja) * 2012-02-16 2014-08-27 カシオ計算機株式会社 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム
TWI463955B (zh) * 2012-02-20 2014-12-11 Zong Jing Investment Inc Eye makeup device
EP2665032A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Methods and devices for 3d object protection using surface subdivision
KR101521358B1 (ko) * 2013-12-26 2015-05-19 세종대학교산학협력단 다중 모델 정합 방법 및 그 장치
JP6622421B2 (ja) * 2016-03-01 2019-12-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自動化されたヘアスタイル処理のためのシステム及び方法並びに毛切断デバイス
CN106096128A (zh) * 2016-06-08 2016-11-09 吴雨欢 一种发型匹配的方法及系统
MX2019005576A (es) 2017-05-12 2019-07-04 Procter & Gamble Composiciones con agentes para la salud del cuero cabelludo con deposito incrementado.
CN108389077B (zh) * 2018-02-11 2022-04-05 Oppo广东移动通信有限公司 电子装置、信息推荐方法及相关产品
MX2020012226A (es) 2018-05-15 2021-01-29 Procter & Gamble Composiciones antioxidantes sinergicas.
WO2019222340A1 (en) 2018-05-17 2019-11-21 The Procter & Gamble Company Systems and methods for hair coverage analysis
US11172873B2 (en) 2018-05-17 2021-11-16 The Procter & Gamble Company Systems and methods for hair analysis
US11384357B2 (en) 2018-06-29 2022-07-12 The Procter And Gamble Company Aptamers for personal care applications
JP2022511961A (ja) 2018-12-20 2022-02-01 ザ プロクター アンド ギャンブル カンパニー 改善された安定性を有する頭皮ケア組成物
EP3956451A1 (en) 2019-04-16 2022-02-23 The Procter & Gamble Company Aptamers for odor control applications
CN111510769B (zh) * 2020-05-21 2022-07-26 广州方硅信息技术有限公司 视频图像处理方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267154A (en) * 1990-11-28 1993-11-30 Hitachi, Ltd. Biological image formation aiding system and biological image forming method
US5404426A (en) * 1991-05-21 1995-04-04 Hitachi, Ltd. Method of displaying hair style and apparatus for the same
JP2000003455A (ja) * 1998-06-12 2000-01-07 Sony Corp 情報処理装置および方法、並びに提供媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4823285A (en) * 1985-11-12 1989-04-18 Blancato Vito L Method for displaying hairstyles
US5060171A (en) * 1989-07-27 1991-10-22 Clearpoint Research Corporation A system and method for superimposing images
JP2774627B2 (ja) * 1989-12-28 1998-07-09 株式会社日立製作所 画像表示方法及びその装置
JP3084098B2 (ja) 1991-08-30 2000-09-04 株式会社日立製作所 コンピュータアニメーションの対話処理方式及び装置
JP2603445B2 (ja) * 1994-11-10 1997-04-23 インターナショナル・ビジネス・マシーンズ・コーポレイション 髪画像適合方法及びコンピュータ・システム
JPH0998834A (ja) * 1995-08-03 1997-04-15 Yasuda Seiko Kk 髪形の選択システム
US5777619A (en) * 1996-01-02 1998-07-07 Silicon Graphics, Inc. Method for simulating hair using particle emissions
JP3838282B2 (ja) * 1996-06-20 2006-10-25 ブラザー工業株式会社 絵作成装置
NL1007397C2 (nl) * 1997-10-30 1999-05-12 V O F Headscanning Werkwijze en inrichting voor het met een gewijzigd uiterlijk weergeven van tenminste een deel van het menselijk lichaam.

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267154A (en) * 1990-11-28 1993-11-30 Hitachi, Ltd. Biological image formation aiding system and biological image forming method
US5404426A (en) * 1991-05-21 1995-04-04 Hitachi, Ltd. Method of displaying hair style and apparatus for the same
JP2000003455A (ja) * 1998-06-12 2000-01-07 Sony Corp 情報処理装置および方法、並びに提供媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIEU-HEN CHEN ET AL.: "A system of 3D hair style synthesis based on the wisp model", THE VISUAL COMPUTER, SPRINGER-VERLAG, vol. 15, no. 4, 1999, pages 159 - 170, XP001035250 *
See also references of EP1246132A4 *

Also Published As

Publication number Publication date
EP1246132A1 (en) 2002-10-02
EP1246132A4 (en) 2007-02-07
JP2001357415A (ja) 2001-12-26
US6842172B2 (en) 2005-01-11
CA2376647A1 (en) 2001-10-25
US20020150287A1 (en) 2002-10-17

Similar Documents

Publication Publication Date Title
WO2001080187A1 (fr) Processeur d'images, procede de traitement d'images et support d'enregistrement
US6256038B1 (en) Parameterized surface fitting technique having independent control of fitting and parameterization
US6271856B1 (en) Creating and modifying parameterizations of surfaces
US8787698B2 (en) Methods and apparatus for directional texture generation using image warping
Chai et al. Dynamic hair manipulation in images and videos
TWI298147B (en) System and method for representing a general two dimensional spatial transformation
TWI387936B (zh) A video conversion device, a recorded recording medium, a semiconductor integrated circuit, a fish-eye monitoring system, and an image conversion method
JP2013038775A (ja) 高速反射屈折式ライトフィールドレンダリングのための光線画像モデル化
JP4886645B2 (ja) 仮想顔モデル変形装置及び仮想顔モデル変形プログラム
CN109801380A (zh) 一种虚拟试衣的方法、装置、存储介质及计算机设备
JPH0771936A (ja) 画像処理装置及びその方法
JP2018503470A (ja) 統計的技術を用いて形成されたデジタル歯冠モデルに表面詳細を追加するシステム及び方法
US6724383B1 (en) System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object
JP2002083318A (ja) 画像処理装置および方法、並びに記録媒体
JP2002324249A (ja) 画像表示システム及び方法
Baxter et al. N‐way morphing for 2D animation
JP4229398B2 (ja) 3次元モデリング・プログラム、3次元モデリング制御プログラム、3次元モデリング・データ伝送プログラム、記録媒体および3次元モデリング方法
Laffont et al. Interactive content-aware zooming
Xiao et al. A unified method for appearance and geometry completion of point set surfaces
JP2009009296A (ja) 顔画像変形方法とこの方法を実施する顔画像変形装置
JPH06176107A (ja) 距離画像処理方法及び装置
CN115082640A (zh) 基于单张图像的3d人脸模型纹理重建方法及设备
JP3341549B2 (ja) 3次元形状データ処理装置
JP2001297333A (ja) 画像処理装置および方法、並びに記録媒体
Shen et al. Completion-based texture design using deformation

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

ENP Entry into the national phase

Ref document number: 2376647

Country of ref document: CA

Ref country code: CA

Ref document number: 2376647

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 2001921836

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10018033

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001921836

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2001921836

Country of ref document: EP