WO2003007240A1 - Procede et systeme pour modifier la qualite d'image - Google Patents

Procede et systeme pour modifier la qualite d'image Download PDF

Info

Publication number
WO2003007240A1
WO2003007240A1 PCT/FR2002/001911 FR0201911W WO03007240A1 WO 2003007240 A1 WO2003007240 A1 WO 2003007240A1 FR 0201911 W FR0201911 W FR 0201911W WO 03007240 A1 WO03007240 A1 WO 03007240A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
formatted information
chain
devices
faults
Prior art date
Application number
PCT/FR2002/001911
Other languages
English (en)
Inventor
Bruno Liege
Frédéric Guichard
Jean-Marc Lavest
Original Assignee
Do Labs
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0109291A external-priority patent/FR2827459B1/fr
Priority claimed from FR0109292A external-priority patent/FR2827460B1/fr
Application filed by Do Labs filed Critical Do Labs
Priority to US10/483,494 priority Critical patent/US7792378B2/en
Priority to JP2003512928A priority patent/JP4020262B2/ja
Priority to DE60239061T priority patent/DE60239061D1/de
Priority to KR1020047000414A priority patent/KR100940147B1/ko
Priority to EP02743349A priority patent/EP1410326B1/fr
Priority to AT02743349T priority patent/ATE497224T1/de
Publication of WO2003007240A1 publication Critical patent/WO2003007240A1/fr
Priority to US12/838,198 priority patent/US8559743B2/en
Priority to US14/021,235 priority patent/US9536284B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • G06T3/10
    • G06T5/70
    • G06T5/73
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00007Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00045Methods therefor using a reference pattern designed for the purpose, e.g. a test chart
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00071Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40093Modification of content of picture, e.g. retouching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction

Definitions

  • the present invention relates to a method and a system for modifying the quality of at least one image originating from or intended for a chain of devices.
  • the invention relates to a method for modifying the quality of at least one image originating from or intended for a given chain of devices.
  • the determined device chain comprises at least one image capturing device and / or at least one image rendering device, the image capturing devices and / or the image rendering devices, progressively put on the market by distinct economic players, belong to an indeterminate set of devices, the devices of the set of devices have faults which can be characterized by formatted information, the process comprises, for the image concerned, the steps following: - the step of listing formatted sources of information relating to the devices of the set of devices,
  • the method is such that the automatic search is carried out by means of indexes obtained directly or indirectly from an analysis:
  • the apparatuses. the chain of devices are identified by identifiers, in particular a bar code
  • the analysis with a view to searching for specific formatted information includes the step of determining the identifiers.
  • the method is such that the image, the index and / or the identifier are contained in the same file. It results from the combination of technical features that it is possible to implement a posteriori the method according to the invention in the case where certain apparatuses of the chain have been put on the market before the formatted information concerning them has been established.
  • the method is such that the image and at least part of the specific formatted information are contained in the same image file. he results from the combination of technical features that it is possible to automatically search for the information formatted in the image file.
  • the method further comprises the step of previously storing at least part of the information formatted in a database, the method further comprises the step of updating the database.
  • the method is such that one of the devices in the device chain has at least one variable characteristic depending on the image, in particular the focal length, a fraction of the specific formatted information is linked to the defects of the apparatus having the variable characteristic, the method further comprising the following steps:
  • the step of determining the value of the variable characteristics, for said image the step of determining the fraction of said specific formatted information taking into account the values of the variable characteristics thus obtained.
  • the image is contained in a file
  • the method is such that to determine the value of the variable characteristic, data present in the file are used, in particular data, for example the focal length, according to a format such as the Exif standard. It results from the combination of technical features that it is possible to implement a posteriori the method according to the invention in the case where the device having the variable characteristic has been put on the market before the formatted information concerning it n 'have been established.
  • the method is such that to modify the quality of at least one image originating from or intended for a chain of devices: - a virtual device with defects equivalent to at least part of the faults of at least one device in the chain of devices, hereinafter referred to as the original faults, is determined, - the virtual formatted information linked to the faults is determined the virtual device, we substitute to determine the specific formatted information linked to all the devices in the chain of devices, the virtual formatted information, to the specific formatted information relating to the original faults.
  • the method is intended to modify the quality of at least one color plane of a color image
  • the color plane is characterized by a determined color
  • the specific formatted information furthermore includes data relating to the determined color
  • a color plane is calculated using the data relating to the determined color and to the image.
  • the method further comprises, in the case where the process of searching for specific formatted information does not succeed for one of the devices in the chain of devices, the step of calculating the unknown formatted information .
  • the method further comprises the step of calculating the unknown formatted information linked to an appliance of the appliance chain:
  • the method further comprises, for an apparatus for capturing images of the chain. devices, the step of calculating unknown formatted information:
  • the unknown formatted information is at least partly composed of the parameters of the chosen configurable transformation models.
  • the method further comprises: the step of calculating the differences between the transformed image and the class of synthetic images,
  • the method is such that one of the devices in the device chain has at least one variable characteristic depending on the image, in particular the focal length and / or the aperture. a fraction of the specific formatted information is linked to faults in the device having the variable characteristic (s). each variable characteristic is likely to be associated with a value to form a combination made up of all the variable characteristics and values, the method further comprises the step of determining the fraction of the unknown formatted information: - by selecting predetermined combinations,
  • the method further comprises, for a means of restoring images of the chain of devices, the step of producing data characterizing faults in the means of restoring the images, in particular the characteristics of distortion.
  • the unknown formatted information is at least partly composed of the data characterizing defects in the restitution means.
  • the method is such that the specific formatted information, linked to an appliance or to several appliances of the appliance chain, is determined so that it can be applied to similar appliances. It results from the combination of technical features that the implementation of the process involves only a limited number of formatted information.
  • the method is such that the image includes associated information, in particular a digital signature, the steps of the method are implemented so that they conserve or modify the associated information.
  • the method further comprises the step of associating information with the modified image, in particular the information indicating that it has been modified.
  • the method is more particularly intended for modifying the visual quality of the image for an observer
  • the formatted information linked to the faults of the apparatuses of the apparatus chain further comprises formatted information linked to the characteristics observer's vision, including abnormalities in the eyes and / or brain of the observer.
  • the invention also relates to an application of the method described above.
  • the purpose of the application is to improve the quality of the images processed by image processing software or image processing components, by correcting the effects of at least one of the defects in the devices in the device chain. . It results from the combination of technical features that the quality of the processed images is improved if not perfect, without resorting to expensive devices.
  • the object of the application is that the quality of the images processed by the image processing software or the image processing components is comparable to that of images produced with a chain of reference devices.
  • the application is such that, in order for the quality of the images processed to be comparable to those of images produced with a reference appliance chain, formatted information relating to the appliance chain is produced taking into account the faults in the reference device chain.
  • the invention relates to a system for modifying the quality of at least one image originating from or intended for a given chain of devices.
  • the determined device chain includes at least one image capturing device and / or at least one image rendering device, the image capturing devices and / or the image rendering devices, progressively placed on the market by economic players separate, belong to an indeterminate set of devices, the devices of the set of devices have faults which can be characterized by formatted information.
  • the system comprises computer processing means making it possible, for the image concerned, to: - list sources of formatted information relating to the devices of the set of devices, automatically search among the formatted information thus listed, information specific formatting relating to the determined device chain,
  • the system is such that the computer processing means carry out the search automatically by means of an index, the index is obtained directly or indirectly by means of analysis from an analysis : - of the image, and / or
  • the devices in the device chain are identified by identifiers, in particular a bar code
  • the analysis means include identification means for determining the identifiers.
  • the system is such that the image, the index and / or the identifier are contained in the same file.
  • the system is such that the image and at least part of the specific formatted information are contained in the same image file.
  • the system further comprises storage means for previously storing at least part of the information formatted in a database, the system further comprises updating means for updating the database.
  • the system is such that one of the devices in the device chain has at least one variable characteristic depending on the image, in particular the focal length, a fraction of the specific formatted information is linked to the defects of the device having the variable characteristic, the system further comprises calculation means for determining: the value of the variable characteristics, for the image concerned,
  • the image is contained in a file
  • the system is such that, to determine the value of the variable characteristic, the system comprises computer processing means for processing data present in the file, in particular data, for example the focal length, in a format such as the Exif standard.
  • the system is such that, to modify the quality of at least one image coming from or intended for a chain of devices, the system comprises computer processing means for determining: a virtual device having faults equivalent to at least some of the faults of at least one device in the device chain, hereinafter referred to as the original faults,
  • the system is such that, in order to determine the specific formatted information linked to all of the apparatuses in the chain of apparatuses, the computer processing means comprise substitution means for substituting the virtual formatted information for the specific formatted information relating to faults d 'origin.
  • the system is intended to modify the quality of at least one color plane of a color image
  • the color plane is characterized by a determined color
  • the specific formatted information also comprises data relating to the determined color
  • the system comprises calculation means for calculating a color plane using the data relating to the determined color and to the image.
  • the system further comprises, in the case where the process of searching for specific formatted information does not succeed for one of the apparatuses in the chain of apparatuses, calculation means for calculating the formatted information unknown.
  • the system is such that the calculation means for calculating the unknown formatted information, linked to an appliance in the appliance chain, include processing means for measuring faults in the appliance, and / or to simulate the device.
  • the system further comprises, for an apparatus for capturing images of the chain of apparatuses, calculation means calculating the unknown formatted information by producing a class of synthetic images by mathematical projections.
  • the image capturing apparatus capturing at least one reference image of each reference scene
  • the calculation means calculating the unknown formatted information by choosing from a set of configurable transformation models that making it possible to transform the reference image into a transformed image close to class d 'synthetic images of the reference scene, the transformed image having a deviation from the class of synthetic images, the unknown formatted information is at least partly composed of the parameters of the chosen configurable transformation models.
  • system further comprises computer processing means for:
  • the system is such that one of the devices in the device chain has at least one variable characteristic depending on the image, in particular the focal length and / or the aperture. a fraction of the specific formatted information is linked to faults in the device having the variable characteristic (s). each variable characteristic is likely to be associated with a value to form a combination consisting of all the variable characteristics and the values, the system furthermore comprises computer processing means for determining the fraction of the unknown formatted information:
  • the system further comprises, for a means of restoring images of the chain of devices, computer processing means for producing data characterizing faults in the means of restoring the images, in particular the distortion characteristics, the unknown formatted information is at least partly composed of the data characterizing faults in the restitution means.
  • the system is such that the specific formatted information, linked to an appliance or to several appliances in the appliance chain, is determined so that it can be applied to similar appliances.
  • the system is such that the image includes associated information, in particular a digital signature.
  • the system is implemented in such a way that it retains or modifies the associated information.
  • the system further comprises computer processing means for associating information with the modified image, in particular information indicating that it has been modified.
  • the system is more particularly intended to modify the visual quality of the image for an observer.
  • the formatted information linked to the faults of the apparatuses of said chain of apparatuses further comprises formatted information linked to the vision characteristics of said observer, in particular anomalies of functioning of the eyes and / or brain of said observer.
  • FIG. 1 a schematic view of an image capture
  • FIG. 2 a schematic view of an image restitution
  • FIG. 3 a schematic view of the pixels of an image
  • FIG. 5 the flow diagram of the method making it possible to calculate the difference between the mathematical image and the corrected image
  • FIG. 6 the flow diagram of the method making it possible to obtain the best rendering transformation for an image rendering means
  • FIG. 7 a schematic view of the elements making up the system to which the invention applies
  • FIG. 9d a schematic profile view of a real point of an image
  • FIG. 12 the flow diagram of the method making it possible to obtain the best transformation for an image capture device
  • FIGS. 13a to 13c connection diagrams of example of embodiment of systems making it possible to correct an image
  • FIGS. 14a to 14c flow diagrams of example embodiments of methods making it possible to implement an automatic image correction
  • FIG. 15 a flow diagram of a method for substituting a virtual device for a chain of devices.
  • FIG. 16.2 a diagram showing an apparatus having variable characteristics; figure 16.3, a diagram involving one or more vision defects of an observer; - Figure 16.4, a processing diagram of the characteristics of a virtual device; FIG. 16.5, a diagram showing the addition of information associated with a corrected image;
  • FIG. 16 a diagram illustrating the fact that formatted information can relate to one or more batches of devices
  • FIG. 17 a description of an example of implementation of the method and system according to the invention.
  • the devices in the P3 device chain in particular image capture devices and / or image rendering devices, are gradually being put on the market by distinct economic players and belong to an indefinite set of devices, also called the P75 device set.
  • a device can be in particular: - an image capture device, such as for example a disposable camera, a digital camera, a reflex camera, a scanner, a fax, an endoscope, a camcorder , a surveillance camera, a toy, a camera integrated or connected to a telephone, a personal assistant or a computer, a thermal camera, an ultrasound machine,
  • an image capture device such as for example a disposable camera, a digital camera, a reflex camera, a scanner, a fax, an endoscope, a camcorder , a surveillance camera, a toy, a camera integrated or connected to a telephone, a personal assistant or a computer, a thermal camera, an ultrasound machine,
  • an image reproduction apparatus or image reproduction means 19 such as for example a screen, a projector, a television set, virtual reality glasses or a printer, an apparatus including its installation, for example a projector, a screen and the way they are positioned,
  • an apparatus which one wishes to resemble for producing images having for example an aspect similar to those produced by a Leica brand apparatus
  • an image processing device for example a zoom software which has as edge effect a 'add blur
  • a more complex device such as a scanner / fax / printer, a Minilab for photo printing, a video conference device can be considered as one device or several devices.
  • the device chain P3 is called a set of devices.
  • the notion of chain of apparatuses P3 can also include a notion of order.
  • a camera a scanner, a printer for example in a Minilab of photo printing,
  • a digital camera for example in a photo printing Minilab
  • a scanner for example in a photo printing Minilab
  • a screen or a printer for example in a computer
  • a fault P5 of a device of the set of devices P75 is called a fault linked to the characteristics of the optics and / or the sensor and / or the electronics and / or the software integrated into a device; examples of P5 faults are for example distortion, blurring, vignetting, chromatic aberrations, color rendering, uniformity of the flash, sensor noise, grain, astigmatism, spherical aberration.
  • P2 image is a digital image captured or modified or rendered by a device.
  • the P2 image can come from a device in the P3 device chain.
  • the P2 image can be intended for a device in the P3 device chain. More generally, the image P2 can come from and / or be intended for the chain of apparatuses P3.
  • image P2 is called: a still image of the sequence of images.
  • Formatted information 15 is called data linked to the faults P5 of one or more apparatuses of the apparatus chain P3 and allowing means image processing to modify the quality of P2 images taking into account P5 faults in the device.
  • various methods and systems can be used based on measurements, and / or captures or restitution of references, and / or simulations.
  • the formatted information 15 is intended for means of image processing, in particular software, in order to modify the quality of the images processed by the image processing means, the chain of apparatuses P3 notably comprises at least one image capturing apparatus and / or at least one restitution means and / or at least one observer, the method comprises the step of producing data characterizing faults P5 of the devices of the device chain P3. the data is formatted information 15.
  • the formatted information 15 it is possible, for example, to use the method and the system described in the international patent application filed on the same day as the present application on behalf of the company Vision IQ and under the title: "Method and system for producing formatted information related to geometric distortions. "In this application, there is described a method for producing formatted information related to the devices of an appliance chain P3.
  • the chain of apparatuses P3 notably comprises at least one image capture apparatus and / or at least one image restitution apparatus.
  • the method includes the step of producing formatted information 15 linked to the geometric distortions of at least one device in the chain.
  • the device making it possible to capture or restore an image on a support
  • the device comprises at least one fixed characteristic and / or one variable characteristic depending on the image
  • the fixed characteristic and / or variable characteristic is likely to be associated with one or more characteristic values, in particular the focal length and / or the focus and their associated characteristic values
  • the method comprises the step of producing measured formatted information linked to the geometric distortions of the camera from a measured field
  • the formatted information 15 may include the measured formatted information.
  • the formatted information 15 it is possible, for example, to use the method and the system described in the international patent application filed on the same day as the presents request on behalf of the company Vision IQ and under the title: "Method and system for producing formatted information linked to faults in at least one device in a chain, in particular blurring."
  • a method is described for producing formatted information linked to the devices of a chain of devices P3.
  • the chain of apparatuses P3 notably comprises at least one image capture apparatus and / or at least one image restitution apparatus, the method comprises the step of producing formatted information linked to the defects P5 of at least a chain device.
  • the apparatus making it possible to capture or restore an image comprises at least one fixed characteristic and / or one variable characteristic depending on the image (I).
  • the fixed and / or variable characteristics are likely to be associated with one or more characteristic values, in particular the focal length and / or the focusing and their associated characteristic values.
  • the method comprises the step of producing measured formatted information linked to the faults P5 of the apparatus from a measured field, the formatted information can include the measured formatted information.
  • the formatted information 15 one can for example use the method and the system described in the international patent application filed on the same day as the present application in the name of the company Vision IQ and under the title: "Method and system for providing , in a standard format, formatted information to image processing means. " In this application, a method is described for supplying, in a standard format, formatted information 15 to image processing means, in particular software and / or components, the formatted information 15 is linked to the defects P5 of a chain of P3 devices.
  • the chain of apparatuses P3 notably comprises at least one image capturing apparatus and / or an image restitution apparatus, the image processing means use the formatted information 15 to modify the quality of at least one image P2 from or intended for the P3 appliance chain.
  • the formatted information 15 includes data characterizing faults P5 of the image capturing apparatus, in particular the distortion characteristics, and / or data characterizing faults of the image restitution apparatus, in particular the distortion characteristics.
  • the method comprises the step of filling in at least one field of the standard format with the formatted information 15.
  • the field is designated by a field name, the field containing at least one field value.
  • the formatted information 15 it is possible, for example, to use the method and the system described in the international patent application filed on the same day as the present application in the name of the company Vision IQ and under the title: "Method and system for reducing the frequency of updates to image processing means. "
  • a method is described for reducing the frequency of updates to image processing means, in particular software and / or a component, the image processing means making it possible to modify the quality of the digital images originating or intended for a chain of P3 devices.
  • the apparatus chain P3 comprises at least one image capturing apparatus and / or at least one image restitution apparatus, the image processing means implement formatted information linked to the defects P5 of at least minus one device in the P3 device chain.
  • the formatted information P3 depends on at least one variable.
  • the formatted information making it possible to establish a correspondence between a part of the variables and identifiers
  • the identifiers make it possible to determine the value of the variable corresponding to the identifier taking account of the identifier and the image. It results from the combination of technical features that it is possible to determine the value of a variable, in particular in the case where the physical meaning and / or the content of the variable are known only after the dissemination of the processing means. image. It also results from combination of technical features that the time between two updates of the correction software can be spaced.
  • a method for calculating a transformed image from a digital image and formatted information 15 relating to defects P5 of a chain of apparatuses P3.
  • the device chain P3 includes image capture devices and / or image rendering devices.
  • the appliance chain P3 comprises at least one appliance.
  • the method comprises the step of automatically determining characteristic data from the formatted information and / or from the digital image. It results from the combination of technical features that the transformed image does not present any visible or annoying defect, in particular defects linked to noise, for its subsequent use.
  • the following example illustrates one way to produce formatted information.
  • FIG. 1 there is shown: a scene 3 comprising an object 107, a sensor 101 and the surface of the sensor 110, an optical center 111, an observation point 105 on a surface of the sensor 110, a direction of observation 106 passing through the observation point 105, the optical center 111, the scene 3, a surface 10 geometrically associated with the surface of the sensor 110.
  • FIG. 2 shows an image 103, an image rendering means 19 and a restored image 191 obtained on the rendering support 190.
  • FIG. 3 shows a scene 3, an image capture device 1 and an image 103 made up of pixels 104.
  • FIGS. 4a and 4b two variants of a reference scene 9 have been shown.
  • Figure 5 there is shown a flowchart implementing a scene 3, a mathematical projection 8 giving a mathematical image 70 of scene 3, a real projection 72 giving an image 103 of scene 3 for the characteristics used 74, a configurable transformation model 12 giving a corrected image 71 of the image 103, the corrected image 71 having a difference 73 with the mathematical image 70.
  • FIG. 6 is represented a flowchart implementing an image 103, an actual projection projection 90 giving a restored image 191 of the image 103 for the reproduction characteristics used 95, a configurable transformation transformation model 97 giving a corrected image of restitution 94 of image 103, a mathematical projection of restitution 96 giving a mathematical image of restitution 92 of the corrected image of restitution 94 and having a difference in restitution 93 with the restored image 191.
  • FIG. 7 a system comprising an image capture device 1 consisting of an optic 100, a sensor 101 and an electronics 102.
  • a memory area 16 is also shown containing an image 103, a database 22 containing formatted information 15, means 18 for transmitting the completed image 120 consisting of image 103 and formatted information 15 to calculation means 17 containing software for processing picture 4.
  • FIG. 8 shows formatted information 15 consisting of fields 90.
  • FIGS. 9a to 9d represent a mathematical image 70, an image 103, the mathematical position 40 of a point, the mathematical form 41 of a point, compared to the real position 50 and to the real form 51 of the point correspondent of the image.
  • FIG. 10 shows a grid 80 of characteristic points.
  • FIG. 11 shows a flow chart implementing an image 103, of the characteristics used 74, a database of characteristics 22.
  • the formatted information 15 is obtained from the characteristics used 74 and stored in the database 22.
  • the completed image 120 is obtained from image 103 and formatted information 15.
  • FIG. 12 shows a flow diagram implementing a reference scene 9, a mathematical projection 8 giving a synthetic image class 7 of the reference scene 9, a real projection 72 giving a reference image 11 of the reference scene 9 for the characteristics used 74.
  • This flowchart also implements a configurable transformation model 12 giving a transformed image 13 of the reference image 11.
  • the transformed image 13 has a difference 14 with the image class synthesis 7.
  • Scene 3 is a place in three-dimensional space, which includes objects 107 lit by light sources.
  • Image capture device Image, Image capture We will now describe with reference to FIGS. 3 and 7, what is meant by image capture device 1 and image 103.
  • An image device 100 called an image capture device 1, of one or more sensors 101, of electronics 102, of a memory area 16.
  • Said image capture apparatus 1 makes it possible, from a scene 3, to obtain fixed or animated digital images 103 recorded in memory area 16 or transmitted to an external device.
  • Animated images consist of a succession over time of still images 103.
  • Said image capturing device 1 can take the form in particular of a camera, a camcorder, a connected or integrated camera. to a PC, a camera connected or integrated to a personal assistant, a camera connected or integrated to a telephone, a videoconferencing device or a camera or measuring device sensitive to other lengths of wave as those of visible light such as for example a thermal camera.
  • the method consisting in calculating the image 103 by the image capture apparatus 1 is called image capture.
  • image capture a particular configuration of the device.
  • Image restitution means, Restored image, Image restitution
  • image restitution means 19 can take the form in particular of a display screen, a television, flat screen, projector, virtual reality glasses, printer.
  • Such an image restitution means 19 comprises: an electronics, - one or more sources of light, electrons or ink,
  • one or more modulators devices for modulating light, electrons or ink, - a focusing device, in particular in the form of optics in the case of a light projector, or in the form of electron beam focusing coils in the case of a cathode ray tube screen, or in the form of filters in the case of a flat screen,
  • a restitution medium 190 in particular in the form of a screen in the case of a cathode-ray tube screen, a flat screen or a projector, in the form of a printing medium on which printing is performed in the case of a printer, or in the form of a virtual surface in space in the case of a virtual image projector.
  • Said image restitution means 19 makes it possible, from an image 103, to obtain a restored image 191 on the restitution support 190.
  • Animated images consist of a succession over time of still images.
  • the method consisting in displaying or printing the image by the image rendering means 19 is called image restitution.
  • a restitution means 19 comprises several interchangeable sub-assemblies or which can move relatively with respect to one another, in particular the restitution support 190, a particular configuration is called image restitution means 19 .
  • the surface in the sensor 110 is defined as the shape in the space drawn by the sensitive surface of the sensor 101 of the image capture apparatus 1 at the time of image capture. This surface is generally flat.
  • An optical center 111 is a point in the space associated with image 103 at the time of image capture. The distance between this point 111 and the plane 110 is called the focal distance, in the case where the surface of the sensor 110 is plane.
  • Pixel 104 is called an elementary area of the surface of sensor 110 obtained by creating a generally regular tiling of said surface of sensor 110. Pixel value is called a number associated with this pixel 104.
  • An image capture consists in determining the value of each pixel 104. The set of these values constitutes the image 103.
  • the pixel value is obtained by the integration on the surface of pixel 104, for a period of time called exposure time, of part of the light flux coming from scene 3 through optics 100 and by converting the result of this integration into a numerical value.
  • the integration of the luminous flux and / or the conversion of the result of this integration into a numerical value are carried out by means of the electronics 102.
  • the part of the light flux concerned is obtained in various ways: a) In the case of a color image 103, the surface of the sensor 110 generally comprises several types of pixels 104, respectively associated with light fluxes of different wavelengths, such as for example red, green and blue pixels. b) In the case of a color image 103, there may also be several juxtaposed sensors 101 which each receive part of the light flux. c) In the case of a color image 103, the colors used can be different from red, green and blue, as for example for American NTSC television, and can be in number greater than three. d) Finally, in the case of a so-called interlaced scanning television camera, the animated images produced consist of alternating images 103 comprising the even lines, and images 103 comprising the odd lines.
  • the configuration used is called the list of removable sub-assemblies of the image capture device 1, for example the optics 100 actually mounted on the image capture device 1 if it is interchangeable.
  • the configuration used is characterized in particular by:
  • These adjustments can be made by the user, in particular using buttons, or calculated by the image capture device 1.
  • These settings can be stored in the device, in particular on a medium removable, or on any device connected to the device. These settings may include, but are not limited to, focus, iris, and focal length settings for optics 100, exposure time settings, white balance settings, built-in image processing settings such as digital zoom, compression, contrast,
  • the characteristics used 74 or the set of characteristics used 74 are called: a) Parameters linked to the intrinsic technical characteristics of the image capture device 1, determined at the time of the design of the image capture device 1.
  • these parameters can include the formula of the optics 100 of the configuration used impacting the geometric defects and the sharpness of the captured images; the optics 100 formula of the configuration used notably includes the shape, arrangement and material of the optics 100 lenses.
  • These parameters may further include:
  • the geometry of the sensor 101 namely the surface of the sensor 110 as well as the shape and the relative arrangement of the pixels 104 on this surface
  • observation point 105 and observation direction 106.
  • Mathematical surface 10 is called a surface geometrically associated with the surface of the sensor 110. For example, if the surface of the sensor is planar, the mathematical surface 10 could be confused with that of the sensor.
  • the direction of observation 106 is called a straight line passing through at least one point of the scene 3 and through the optical center 111.
  • the point of observation 105 is called the intersection of the direction of observation 106 and the surface 10.
  • observed color and observed intensity The color of the light emitted, transmitted or reflected by said scene 3 in said direction of observation 106 at a given instant is called observed color and observed from said observation point 105.
  • the intensity of light is called observed intensity emitted by said scene 3 in said observation direction 106 at the same time, and observed from said observation point 105.
  • the color can be characterized in particular by a light intensity as a function of a wavelength, or also by two values as measured by a colorimeter.
  • the intensity can be characterized by a value as measured with a photometer.
  • Said observed color and said observed intensity depend in particular on the relative position of the objects 107 in scene 3 and on the lighting sources present as well as on the transparency and reflection characteristics of the objects 107 at the time of the observation.
  • Mathematical color of a point Mathematical intensity of a point, Mathematical form of a point, Mathematical position of a point.
  • a determined mathematical projection 8 associates: - with a scene 3 when an image is captured
  • a determined mathematical projection 8 is a transformation which makes it possible to determine the characteristics of each point of the mathematical image 70 from scene 3 at the time of the image capture and of the characteristics used 74.
  • the mathematical projection 8 is defined in the manner which will be described below.
  • the position of the observation point 105 on the mathematical surface 10 is called the mathematical position 40 of the point.
  • the geometric shape 41 of the point is called the punctual geometric shape of the observation point 105.
  • the observed color is called the mathematical color of the point.
  • Mathematical point is called the association of the mathematical position 40, the mathematical form 41, the mathematical color and the mathematical intensity for the observation point 105 considered.
  • the mathematical image 70 consists of all of said mathematical points.
  • the mathematical projection 8 of scene 3 is the mathematical image 70.
  • the image capture apparatus 1 associated with the characteristics used 74 produces an image 103 of the scene 3.
  • the light coming from the scene 3 in an observation direction 106 passes through the optics 100 and arrives on the surface of the sensor 110.
  • the actual shape 51 associated with said direction of observation 106 is not a point on the surface of the sensor, but has a shape of a cloud in three-dimensional space, which has an intersection with one or more pixels 104.
  • These differences originate in particular from coma, spherical aberration, astigmatism, grouping in 104 pixels, chromatic aberration, depth of field, diffraction, stray reflections, the field curvature of the camera image capture 1. They give an impression of blur, lack of sharpness in image 103.
  • the actual position 50 associated with said observation direction 106 has a difference with respect to the mathematical position 40 of a point.
  • This difference is due in particular to the geometric distortion, which gives an impression of distortion: for example, the vertical walls appear curved. It is also due to the fact that the number of pixels 104 is limited and that consequently the real position 50 can only take a finite number of values.
  • the actual intensity associated with said observation direction 106 differs from the mathematical intensity of a point. These differences are due in particular to gamma and vignetting: for example, the edges of image 103 appear darker. In addition noise may be added to the signal.
  • the actual color associated with said direction of observation 106 presents differences compared to the mathematical color of a point. These differences have particularly for the gamma and the dominant color. In addition noise may be added to the signal.
  • the real point 50 is called the association of the real position, the real shape 51, the real color and the real intensity for the direction of observation 106 considered.
  • the real projection 72 of scene 3 is made up of all the real points.
  • a parameterizable transformation model 12 (or in a condensed fashion, parameterizable transformation 12) is called a mathematical transformation making it possible to obtain from an image 103, and from the value of parameters, a corrected image 71. Said parameters can in particular be calculated from the characteristics used 74 as indicated below.
  • Said transformation makes it possible in particular to determine for each real point of the image 103, the corrected position of said real point, the corrected color of said real point, the corrected intensity of said real point, the corrected shape of said real point, from the value of the parameters, of the real position of said real point and of the values of the pixels of the image 103.
  • the corrected position can for example be calculated using polynomials of degree fixed as a function of the real position, the coefficients of the polynomials depending on the value of the parameters.
  • the corrected color and the corrected intensity can for example be weighted sums of the values of the pixels, the coefficients depending on the value of the parameters and the actual position, or else on non-linear functions of the values of the pixels of the image 103.
  • the parameters can include in particular: the focal length of the optics 100 of the configuration used or a linked value such as the position of a group of lenses, the focusing of the optics 100 of the configuration used or a linked value such as the position of a group of lenses, the opening of the optics 100 of the configuration used or a linked value such as the position of the diaphragm.
  • the difference 73 is called between the mathematical image 70 and the corrected image 71 for a given scene 3 and for the characteristics used 74, one or more values determined from the numbers characterizing the position, the color, intensity, shape of all or part of the corrected points and all or part of the mathematical points.
  • the difference 73 between the mathematical image 70 and the corrected image 71 for a given scene 3 and for the characteristics used 74 can be determined as follows:
  • characteristic points which can be for example the points of an orthogonal grid 80 of points arranged regularly as presented in FIG. 10.
  • the difference 73 for example by performing the sum for each characteristic point of the absolute values of the differences between each number characterizing the position, the color, the intensity, the shape respectively for the corrected point and for the mathematical point.
  • the function sum of the absolute values of the differences can be replaced by another function such as the mean, the sum of the squares or any other function allowing the numbers to be combined.
  • FIG. 4a presents a reference scene 9 made up of a sheet of paper with circles filled with black and arranged regularly.
  • Figure 4b shows another sheet of paper with the same circles to which are added lines and colored areas. The circles are used to measure the actual position 50 of a point, the lines the actual shape 51 of a point, the colored areas the actual color of a point and the actual intensity of a point.
  • This reference scene 9 can be made of a material other than paper.
  • reference image 11 Called reference image 11, an image of the reference scene 9 obtained with the image capture device 1.
  • a class of synthetic images 7 is a set of mathematical images 70 obtained by mathematical projection 8 of one or more reference scenes 9, this for one or more sets of characteristics used 74.
  • the class of computer-generated images 7 comprises only one computer-generated image.
  • transformed image 13 the corrected image obtained by applying a configurable transformation model 12 to a reference image 11.
  • the configurable transformation 12 (and its parameters) is chosen which makes it possible to transform the reference image 11 into the transformed image 13 which has the smallest difference with the class of computer-generated images 7.
  • the class of computer-generated image 7 and the transformed image 13 are then said to be close.
  • Deviation 14 is called said difference.
  • the configurable transformation 12 (and its parameters) is chosen as a function of the differences between the transformed image 13 of each reference scene 9 and the synthetic image class 7 of each reference scene 9 considered.
  • the sum function can be replaced by another function such as the product.
  • the synthetic image class 7 and the transformed images 13 are then said to be close.
  • Deviation 14 is called a value obtained from said differences, for example by calculating the average.
  • the best transformation is the transformation which, among the configurable transformation models 12, makes it possible to transform each reference image 11 into a transformed image 13 close to the class of synthetic images 7 of the reference scene 9 corresponding to said image of reference 11.
  • Calibration We call calibration a process which makes it possible to obtain data relating to the intrinsic characteristics of the image capture apparatus 1, this for one or more configurations used, each consisting of an optic 100 associated with an image capture apparatus. 1.
  • Case 1 in the case where there is only one configuration, said method comprises the following steps:
  • Case 3 in the case where all the configurations corresponding to a given lens 100 and to all the image capture devices 1 of the same type are considered, said method comprises the following steps: - the step of mounting said lens 100 on an image capture device 1 of the type in question,
  • the calibration can be carried out, preferably, by the manufacturer of the image capture device 1, for each device and configuration in case 1. This method is more precise but more restrictive and well suited in the case where optics 100 is not interchangeable.
  • the calibration can alternatively be carried out by the manufacturer of the image capture device 1, for each type and configuration of device in case 2. This method is less precise but simpler.
  • the calibration can alternatively be carried out by the manufacturer of the image capture device 1, for each lens 100 and type of device in case 3. This method is a compromise allowing the use of a lens 100 on all image capture devices 1 of a type without redoing the calibration for each combination of image capture device 1 and optics 100.
  • the calibration can alternatively be carried out by the dealer or installer of the camera, for each image capture device 1 and configuration in case 1.
  • the calibration can alternatively be carried out by the dealer or installer of the device, for each optic 100 and type of device in case 3.
  • the calibration can alternatively be carried out by the user of the device, for each device and configuration in case 1.
  • the calibration can alternatively be carried out by the user of the device, for each lens 100 and type of device in case 3.
  • Said method comprises the following steps:
  • Said method further comprises the iteration of the following steps:
  • the step of calculating images 103 from the characteristics used 74 and in particular from the formulas of the optics 100 of the configuration used by implementing, for example, optical calculation software by ray tracing, or by performing measurements on a prototype
  • Formatted information 15 associated with image 103 or formatted information 15 is called all or part of the following data: data relating to the intrinsic technical characteristics of the image capture apparatus 1, in particular the distortion characteristics, and / or data relating to the technical characteristics of the image capture device 1 at the time of image capture, in particular the exposure time, and / or - data relating to the preferences of said user, in particular the color temperature, and / or - data relating to deviations 14.
  • Called database of characteristics 22 or database 22 a database comprising, for one or more image capture devices 1 and for one or more images 103, formatted information 15.
  • Said database of characteristics 22 can be stored centrally or distributed, and can in particular be:
  • the formatted information 15 associated with image 103 can be recorded in several forms and structured in one or more tables but they logically correspond to all or part of the fields 90, including: (a) focal length, (b) depth of field,
  • Said geometric faults include the geometry faults of the image 103 characterized by the parameters associated with the characteristics of the shooting 74 and a configurable transformation representing the characteristics of the image capturing apparatus 1 at the time of the shooting .
  • Said parameters and said configurable transformation make it possible to calculate the corrected position of a point of the image 103.
  • Said geometric defects further include vignetting characterized by the parameters associated with the characteristics of the shot 74 and a configurable transformation representing the characteristics from the image capture device 1 at the time of shooting. said parameters and said configurable transformation make it possible to calculate the corrected intensity of a point in image 103.
  • Said geometric defects further include the dominant color characterized by the parameters associated with the characteristics of the shot 74 and a configurable transformation representing the characteristics of the image capture device 1 at the time of the shot. Said parameters and said configurable transformation make it possible to calculate the corrected color of a point in image 103. Said fields 90 further include (d) the sharpness of image 103.
  • Said sharpness includes the image resolution blur 103 characterized by the parameters associated with the characteristics of the shooting 74 and a configurable transformation representing the characteristics of the image capturing apparatus 1 at the time of the shooting. Said parameters and said configurable transformation make it possible to calculate the corrected shape of a point of the image 103.
  • the blur covers in particular coma, spherical aberration, astigmatism, grouping in pixels 104, chromatic aberration, depth of field, diffraction, stray reflections, field curvature.
  • Said sharpness further includes the blurring of depth of field, in particular spherical aberrations, coma, astigmatism.
  • Said blur depends on the distance of the points of the scene 3 relative to the image capture device 1 and is characterized by the parameters associated with the characteristics of the shot 74 and a configurable transformation representing the characteristics of the camera image capture 1 at the time of shooting. Said parameters and said configurable transformation make it possible to calculate the corrected shape of a point of the image 103.
  • Said fields 90 further comprise (e) parameters of the quantification method. Said parameters depend on the geometry and the physics of the sensor 101, the architecture of the electronics 102 and of possible processing software.
  • Said parameters include a function representing the variations in the intensity of a pixel 104 as a function of the wavelength and of the light flux coming from said scene 3.
  • Said function notably comprises the gamma information.
  • Said parameters also include:
  • Said fields 90 further comprise (f) parameters of the digital processing operations carried out by the image capture apparatus 1, in particular the digital zoom, the compression. These parameters depend on the processing software of the image capturing apparatus 1 and the settings of the user.
  • Said fields 90 further comprise: (g) parameters representing the preferences of the user, in particular as regards the degree of blurring, the resolution of the image 103. (h) the deviations 14.
  • the formatted information 15 can be calculated and saved in the database 22 in several steps. a) A step at the end of the design of the image capture device 1. This step makes it possible to obtain intrinsic technical characteristics of the image capture device 1, and in particular:
  • This step makes it possible to obtain other intrinsic technical characteristics of the image capture apparatus 1, and in particular, for a certain number of characteristic values used, the best associated transformation and the associated deviation 14.
  • c) A step of choosing the user's preferences using buttons, menus or removable media or connection to another device.
  • Step (d) also makes it possible to obtain the focal distance.
  • the focal length is calculated from:
  • focal length can finally be determined by analyzing the content of image 103.
  • Step (d) also makes it possible to obtain the depth of field.
  • the depth of field is calculated from: a measurement of the position of the group of focusing lenses of the optics 100 of the configuration used, or
  • Step (d) also makes it possible to obtain the geometry and sharpness faults.
  • the geometry and sharpness faults correspond to a transformation calculated using a combination of the transformations of the characteristics database 22 obtained at the end of step (b). This combination is chosen to represent the parameter values corresponding to the characteristics used 74, in particular the focal distance.
  • Step (d) also makes it possible to obtain the digital processing parameters carried out by the image capture apparatus 1. These parameters are determined by the manual or automatic adjustments carried out.
  • the calculation of the formatted information 15 according to steps (a) to (d) can be carried out by:
  • step (b) and in step (d) can be stored in the form: - of a general mathematical formula
  • the mathematical formulas can be described by: - a list of coefficients, - a list of coefficients and coordinates.
  • identifiers associated with the data are recorded in the database 22. These identifiers include in particular:
  • the completed image 120 is called the image 103 associated with the formatted information.
  • This completed image 120 can take the form, preferably, of a file.
  • the completed image 120 can also be distributed in several files.
  • the completed image 120 can be calculated by the image capturing apparatus 1. It can also be calculated by an external computing device, for example a computer.
  • Image processing software 4 is called software that takes one or more completed images as input. 120 and which performs processing on these images. These treatments may include, in particular:
  • Said image processing software can be:
  • digital optics is used to mean the combination of an image capture device 1, a database of characteristics 22 and a calculation means 17 allowing:
  • the user directly obtains the corrected image 71. If desired, the user can request the deletion of the automatic correction.
  • the characteristics database 22 can be: - integrated in the image capture device 1,
  • the calculation means 17 can be:
  • the reproduction characteristics used 95 denote the intrinsic characteristics of the image reproduction means 19, the characteristics of the image reproduction means 19 at the time of image reproduction, and the preferences of the user at the time of restitution of images. Particularly in the case of a projector, the rendering features used 95 include the shape and position of the screen used.
  • the corrected restitution image 94 denotes the image obtained by applying the configurable restitution transformation 97 to the image 103.
  • 96 a mathematical projection which associates with a corrected restitution image 94, a mathematical restitution image 92 on the mathematical restitution surface geometrically associated with the surface of the restitution support 190.
  • the mathematical restitution points of the mathematical restitution surface have a shape, position, color and intensity calculated from the corrected restitution image 94.
  • the actual restitution projection 90 designates a projection associating with an image 103 a restored image 191.
  • the pixel values of the image 103 are converted by the electronics of the rendering means 19 into a signal which controls the modulator of the means of restitution 19.
  • Real restitution points are obtained on the restitution support 190. Said real restitution points have a shape, color, intensity and position.
  • the phenomenon of grouping into pixels 104 previously described in the case of an image capturing apparatus 1 does not occur in the case of an image restitution means. On the other hand, an opposite phenomenon occurs which notably shows straight lines like stair steps.
  • the difference in restitution 93 denotes the difference between the restored image 191 and the mathematical restitution image 92. This difference in restitution 93 is obtained mutatis mutandis as the difference 73.
  • the image reference 103 the values of the pixels 104 of which are known, is used to designate the restitution reference.
  • best restitution transformation for a restitution reference and used restitution characteristics 95 denotes that which makes it possible to transform the image 103 into a corrected restitution image 94 such that its mathematical projection projection 92 has the smallest difference. 93 with the restored image 191.
  • the restitution calibration and digital optical design design methods are comparable to the calibration and digital optical design methods in the case of an image capture device 1. However, certain steps have differences, and in particular the following stages: - the stage of choosing a restitution reference; the step of restoring said restitution reference;
  • the formatted information 15 linked to an image capturing apparatus 1 and that linked to an image restitution means 19 can be put end to end for the same image.
  • the system according to the invention comprises computer processing means P76 to carry out, for the image P2, the following steps of the method according to the invention: the step of listing sources P50 of formatted information 15 relating to the devices of the set of devices P75, these sources P50 can be in particular where appropriate, the image file P58 containing the image P2, the devices, a local and / or remote database 22, means for loading P53 of the image P2 or of the modified image, for example software according to the Twain standard used for a scanner; the sources thus listed are called database 22,
  • the method and system according to the invention will be described in application of the reproduction of an image from an image capture apparatus, whether it be a photographic camera, a video camera, a ultrasound machine, etc.
  • the reproduction of an image of such a device may involve the characteristics of the camera (notably optical), the sensor or photosensitive surface (CCD, film photosensitive, etc.), the scanner, the processing software, the information transmission chain between the different devices, the printer.
  • the image chain may involve other elements having their particular characteristics.
  • Each device is characterized by an identifier 60 which makes it possible to identify the type of device and therefore to access known characteristics linked to this type of device and indirectly to obtain indexes P52 whose use will be described later.
  • variable characteristics P55 which can be implemented in the context of the invention.
  • variable characteristics P55 may have an influence on the fixed characteristics (or original characteristics) of the apparatus or of the chain of apparatuses P3.
  • FIG. 13a represents a diagram of an exemplary embodiment of the system of the invention.
  • variable characteristics 66 The variable characteristics can also be contained in the image itself or be calculated from the image.
  • an image capture device APP1 which has its own characteristics and which may contain variable characteristics 66. The specific characteristics are linked to the type of device or to each device and can be known by knowing the device and its characteristics. origin.
  • identifier 60 can be, for example, a bar code on the device or on a film, and to which the system will match these specific characteristics.
  • the identifier 60 can be obtained in various ways from the image, from the data 62, and / or by interrogating the management software of the device, or the device itself, or the user, which are symbolized by LOG / MAT / IMPR in Figure 13a.
  • variable characteristics 66 are generally linked to the image capture conditions and can be those mentioned previously and which can be contained in the image, or in the image capture apparatus or in both: APP2 to APPn devices including in particular an APP2 device such as a printer or a scanner having characteristics linked to the type of device and in particular reflecting their faults, as well as variable characteristics 66 linked to the mode of use, for example, the report magnification for a printer.
  • a device such as APPn can also be a pseudo-device and be in the form of a file representing devices or functionalities and containing the characteristics corresponding to these apparatuses or these functionalities: -image capture device,
  • variable characteristics 66 for example a recoding or a zoom
  • variable characteristics 66 that should be taken into account, let us quote for example:
  • - non-linear luminance correction for example gamma correction
  • - contour enhancement for example the leveling level applied by the device
  • an operating mode another setting applied by the user of the device, for example an operating mode
  • the system has reception interfaces C.VAR1, C.VAR2, ... C.VARn intended to receive the variable characteristics 66 explained above.
  • the characteristics coming from the image can be transmitted by the image itself or, as mentioned previously, by data associated with the image. It will be recalled that the variable characteristics 66 of the image can also be transmitted by the capture device.
  • Interfaces IDl, ID2, ... IDn are intended to receive the identifiers 60 of the various peripherals APPl to APPn.
  • peripheral can, as the case may be, correspond to one or more devices of the same type or not.
  • the following examples correspond to several of these cases, with for each example, a possible implementation of the identifier 60 in the form of coding and of content:
  • a given peripheral for example, coding IA1: name of the manufacturer, type of peripheral, serial number of the peripheral
  • IA2 coding name of the manufacturer, type of device
  • IA3 coding name of the manufacturer, type of peripheral, type of interchangeable lens mounted
  • a device category for example IA4 coding suitable for disposable cameras: name of the manufacturer, type of camera, view number
  • a manufacturer for example IA5 coding for a manufacturer
  • IA8 coding name of the person or number, country
  • IA9 name of the manufacturer, type of device
  • a given device version for example, IA10 coding: name of the manufacturer, type of device, software version of the device
  • -to a protocol for example IA11 coding: data from the Twain protocol
  • a generic peripheral for example LAI2 coding: list of data sources, field identifier; value of fields
  • the system can then analyze the peripherals or apparatuses of the apparatus chain P3, and determine the identifiers 60, in various ways depending on the case, in order to be able to interrogate the database.
  • a database contains for each type of device at least one formatted information representing the faults and characteristics of this device.
  • the formatted information 15 can be linked to the faults P5 of the apparatus in various ways. They can represent device faults. They can represent the reverse of device faults. They may represent only an approximation of the defects. They can represent the difference in faults between two devices.
  • Each identifier 60 supplied by an interface such as the interface ID1 makes it possible to obtain formatted information such as 15.1 which is temporarily received in a circuit 20.1. Circuits 20.1, 20.2, ... 20.n make it possible to receive formatted information relating to the apparatuses APPl, APP2, ... APPn.
  • the database can be integrated into the system or at least partially remote remotely.
  • FIG. 16.1 shows an apparatus having characteristics showing faults 704 which give rise to formatted information 15 as we have seen previously.
  • Variable characteristics 66 representing for example a variable focal length 705 also give rise to formatted information (see FIG. 16.2).
  • Image processing operators 23.1, 23.2, ... 23.n are each intended to each receive modified formatted information.
  • the first operator 23.1 receives an image to be processed, processes it using the modified formatted information 15.1 'and provides a modified image. This is received by the following operator 23.2 which processes it using the modified formatted information 15.2 'and provides a new modified image, and so on until the last operator 23. n which provides a final modified image .
  • an image processing operator does not receive modified formatted information
  • the image received by this operator is not modified and is retransmitted as such to the next operator or to the output, or we can by example use information formatted by default.
  • a central control unit 25 makes it possible to manage the entire operation of the system and in particular the exchange of information and data between the various elements of the system.
  • the central control unit 25 will be responsible for automatically searching, in the database 22, for formatted information including the addresses are given by the interfaces ID1, ID2, ... IDn.
  • the central unit 25 manages the search for this information and triggers the operation of the operators 21.1 to 21.n for processing formatted information then the image processing operators 23.1 to 23.n. Operators can possibly locate on different remote systems linked together.
  • FIG. 13b represents a variant of the system according to the invention.
  • the modified formatted information is combined into a single formatted information and modifies the quality of the image to be processed.
  • an operator 23. t replaces operators 23.1 to 23.n.
  • This operator receives the various modified formatted information, combines them and makes it possible to modify the quality of the image to be processed in order to provide a modified image.
  • it is planned, as indicated in FIG. 13c, to combine the variable characteristics 66 of an apparatus and its identifier 60 to access directly in the database. data 22, to modified formatted information.
  • variable characteristics 66 provided by C.VARl are combined with an identifier ID1 to form modified formatted information 15.1 transmitted to 22.1. It is obvious that in FIG. 13c, this provision has only been provided for the modified formatted information 15.1 'but that it could be applied to all or part of the other formatted information.
  • the system supplies the operator 23.n for FIG. 13a and 23 and for FIGS. 13b and 13c with a modified image.
  • FIG. 16.5 illustrates the case where a modified image 61c is associated with associated information 62c which can be:
  • correction data i.e. modified formatted information or their equivalents or simply an indicator, thus indicating that the image has been corrected or modified
  • data 62 or information associated P63 with the original image 1 possibly modified or updated to reflect the processing brought to the image, for example data in Exif or PIM format, - or both types of data .
  • FIGS. 13a to 13c can be applied to all of the faults or to each defect.
  • FIG. 14a we will now describe a simplified embodiment of the methods of the invention.
  • This exemplary embodiment is applied to an image capture device. It is assumed that the method should only modify the faults due to a single device, for example to the image capture device and to the settings of this device.
  • the image is made available for processing in digitized form by a digitizing device 400.1, a digital capture device 400.2 (digital photo camera, or scanner, or other), a compact disc 400.3 for example.
  • a digitized image is available.
  • the characteristics of the image capture device are known, or even the type of this device by any means of identification, for example a bar code.
  • step 402 of the method the identifier 60 of the device is entered or calculated.
  • the identifier 60 makes it possible to access, using indexes P52 for example, in the database 22, characteristics of the image capture apparatus. Indeed, as mentioned previously, there is a database in which, in principle, for each known device, the characteristics of the devices have been recorded. In the context of one invention, these characteristics represent defects to be modified.
  • the database 22 is therefore called.
  • the call to the database can also take into account certain variable characteristics 66 obtained during step 405, in order to directly obtain formatted information relevant to the values of variable characteristics 66 thus obtained.
  • step 404 at an address obtained from the identifier 60, formatted information 15 is read from the database 22 which represents the characteristics (faults) of the corresponding device.
  • the system may have variable characteristics. 66 (the shooting conditions in particular).
  • step 405 these characteristics are therefore available. Then (step 406), the formatted information
  • variable characteristics 66 and in particular their values for the image to be processed, being determined, they serve to determine in the formatted information a fraction of these formatted information which takes account of these variable characteristics 66.
  • step 407 this modified formatted information is applied to the image to process it and correct or modify it. This processing will be done using operators assisted by image processing software.
  • step 408 a modified image is thus obtained. It is obvious that the above method can operate using only the characteristics inherent in the device without using the variable characteristics 66. In this case the formatted information read from the database is used directly to process the image.
  • the method provides for the capture by the system of the digitized image, identifiers 60 of the devices and variable characteristics 66.
  • the identifier 60 of a device is taken into account and makes it possible to address the database 22 (step 502) to obtain one or more formatted information corresponding to this identifier 60.
  • variable characteristics 66 linked to this device are sought (step 504).
  • step 505 the formatted information or certain formatted information is modified according to the variable characteristics 66. As in the method described in relation with FIG. 14b, after having determined the variable characteristics 66, these make it possible to determine among the formatted information those that are useful and which take variable characteristics into account 66. The formatted information thus determined is kept in memory.
  • step 506 it is tested to find out whether another device must be taken into account for the modification of the quality of the image.
  • the image is then processed during step 507 by the formatted information relating to the first device and gives rise to a first processed image.
  • the system then takes into account the formatted information relating to the next device and processes the previous processed image until it has processed all the formatted information, that is to say in principle when all the information relating to the different devices in the chain have been taken into account.
  • step 507 it is planned, when all the formatted information of all the devices has been obtained, that is to say at the end of step 506, to combine, during a step 510, the different formatted information.
  • the image is processed at once.
  • an image may require a plurality devices that may include the image capture device, scanner, printer, transmission systems, etc. Each device is capable of inducing faults in the processing chain.
  • pseudo-peripherals which have the mission of making modifications to the image according to a style or in application of defects which correspond to these pseudo-peripherals.
  • a variant of the method of the invention is to consider that all of the apparatuses of a chain of apparatuses P3 necessary for processing an image constitutes a single apparatus which will be called virtual apparatus 708 and whose defects correspond to the 'equivalent of all or part of the faults of the various devices in the chain.
  • devices such as an image capture device 706 (FIG. 16.4) and a printer 707 can be represented by a virtual device 708 to which correspond virtual formatted information 709.
  • information formatted can be a mathematical expression of physical characteristics
  • information formatted from a virtual device 708 corresponding to two devices can be the sum of two vectors corresponding to the characteristics of these two devices and / or the convolution of two mathematical functions.
  • a virtual device 708 is therefore determined in FIG.
  • the virtual formatted information 709 corresponding to this virtual appliance is determined. And the virtual formatted information obtained is recorded or else, this virtual formatted information is substituted for the formatted information relating to the original faults.
  • the virtual formatted information is accessible in the database directly using an identifier 60 corresponding to the appliance chain P3 represented by the virtual appliance. The execution of the process can then be simpler and faster to implement.
  • An example of organization of the method making it possible to obtain virtual formatted information can be implemented according to the flow diagram of FIG. 15. The characteristics of two devices are taken into account (steps 510 and 511). In step 512, these characteristics are combined. In step 513, the corresponding virtual formatted information is calculated.
  • step 514 it is checked whether another device must enter the virtual device chain. If so, we start the process again. If not the process is finished.
  • the P3 device chain includes a scanner, a camera and a printer.
  • the equivalent virtual device has the faults of the three devices and the time to modify the image quality can be divided substantially by three.
  • the corresponding formatted information is determined according to the method described above.
  • formatted information is deduced by interpolation, a function of the focal length and of the aperture so that the database contains the formatted information necessary in step 404.
  • the image to be processed is an image coming from an image capturing apparatus which it was desired to view or print.
  • the invention is also applicable to any image processing chain and therefore also to a chain making it possible to project an image.
  • the characteristics of the various devices of the image restitution chain must be obtained. These characteristics make it possible to obtain information formatted for applying the method of the invention.
  • the characteristics provided making it possible to obtain formatted information could be characteristics intended to correct vision defects (astigmatism for example) of a observer 701 or to induce special effects.
  • the resulting formatted information 702 makes it possible to modify the visual, graphic, colorimetric, etc. quality. of the image as illustrated in FIG. 16.3, the formatted information 702 linked to the vision defects of the observer 701, for example, is treated as formatted information of the appliance chain P3, or even is associated with this formatted information .
  • the processing of an image has been considered; we can also consider that the image is in a P57 file, as well as the identifier 60 or an index P52, and possibly the variable characteristics 66 of the capture device and of any device which may have intervened in the processing of the image saved in the file; we can also consider that the image is in a P58 image file, as well as some of the formatted information.
  • the invention is therefore also applicable to the case where the image and the formatted information are in the database 22.
  • the value of the variable characteristics 66 can be determined using information contained in the file P57 or the image file P58. Preferably, this information will be recorded in the file in a standardized format such as that of the EXIF standard known in the art. In this way the system and the method of the invention are applicable to the processing of images taken and / or already processed using devices placed on the market before the formatted information corresponding to these devices has been established. .
  • the modification of the image quality can be simplified by taking into account only the defects of a limited number of devices in the chain, or even only one, and by correcting only these defects .
  • the method of the invention can be applied by simulating other devices than those forming part of the chain of devices P3 in use.
  • formatted information relating to a device, or to a type of device may be applicable to another device or to another type of device and in particular similar devices. For example, as shown in Figure 16.6, several batches of devices 710.0, 710.1, 710.2 have been shown. Formatted information relates to a type of device 711, but this formatted information can also be applicable to a similar device 712, which makes it possible, for example, to produce only formatted information relating to a single device of each type.
  • the invention is applicable to the modification, in particular the improvement, of images processed or provided by a P3 device or device chain.
  • An interesting application will be to modify only faults or part of the faults of certain devices only.
  • An application may be to modify a defect only in part, for example, in order to establish a compromise between image quality and calculation time.
  • the invention is applicable to the design of integrated photo development laboratories. It can be implemented on a computer.
  • a camera or a camera can be used to capture a target projected on the screen.
  • device chains can include: - computer camera (WEBCAM),
  • a camera a scanner, a printer for example in a Minilab of photo printing,
  • a digital camera for example in a photo printing Minilab
  • a scanner for example in a photo printing Minilab
  • a screen or a printer for example in a computer
  • color image P21 of color plane P20, of determined color P22, of data relating to a determined color P23.
  • the variant embodiment described below applies to the case where the image P2 is a color image P21.
  • the P21 color image can be broken down into P20 color planes in various ways: number of planes (1, 3 or more), precision (8 bit unsigned, 16 bit signed, floating, etc.) and meaning of the plans (relative to to a standard color space).
  • the P21 color image can be broken down into P20 color planes in various ways: red, green, blue (RGB) or luminance, saturation, hue ...; on the other hand, there are color spaces such as PIM, or negative pixel values are possible in order to allow the representation of subtractive colors which it is not possible to represent in positive RGB; finally it is possible to code a pixel value on 8bits, 16bits, or by using floating values.
  • RGB red, green, blue
  • PIM negative pixel values
  • the formatted information 15 includes data making it possible to decompose the image P2 into color planes P20, compatible with the various defects P5 to be processed; each color plane P20 being characterized by a determined color P22; said formatted information comprising data relating to said determined color P23, for example coordinates in a standard CIE or XYZ or LAB or sRGB color space; said data relating to said determined color P23 making it possible to calculate the color plane P20 of image 1 and to determine the fraction of said formatted information 15 which should be used to modify the quality of said color plane P20.
  • the formatted information 15 or a fraction of the formatted information 15 can comprise measured formatted information P101, to represent a raw measurement, for example a mathematical field linked to the geometric distortion defects at a certain number of characteristic points of a grid 80.
  • formatted information 15 or a fraction of the formatted information 15 can include extended formatted information P102, which can be calculated from the measured formatted information PI01, for example by interpolation for the other real points than the characteristic points of the grid 80.
  • extended formatted information P102 which can be calculated from the measured formatted information PI01, for example by interpolation for the other real points than the characteristic points of the grid 80.
  • combination P120 is called a combination consisting of variable characteristics 66 and values of variable characteristics such as for example a combination P120 consisting of the focal, of focusing, aperture, aperture speed, aperture, etc. and associated values. It is difficult to calculate the formatted information 15 relating to the different combinations P120, especially since certain characteristics of the combination P120 can vary continuously such as in particular the focal length and the distance.
  • the invention provides for calculating the formatted information 15 in the form of extended formatted information P102 by interpolation from measured formatted information PI01 relating to a predetermined selection of the combinations P120 of known variable characteristics 66.
  • the measured formatted information P101 and the extended formatted information P102 may have an interpolation difference P121.
  • the invention may include the step of selecting zero, one or more of the variable characteristics 66, such that the interpolation difference P121, for the extended formatted information Pi02 obtained for the variable characteristics 66 thus selected, is less at a predetermined interpolation threshold.
  • certain variable characteristics 66 can have a weaker influence on the defect P5 than others and making the approximation that they are constant can introduce only a minimal error; for example, the focus adjustment may have only a slight influence on the vignetting defect and for this reason not be part of the variable characteristics 66 selected.
  • the variable characteristics 66 can be selected at the time of the production of the formatted information 15.
  • Cost reduction is a method and system for reducing the cost of a device or chain of devices P3, in particular the cost of the optics of a device or a chain of devices; the process consisting in:
  • the method and system according to the invention can be used to reduce the cost of an apparatus or a chain of apparatuses: it is possible to design digital optics, to produce formatted information relating to the P5 faults of the apparatus or to the device chain, use this formatted information to allow image processing means, integrated or not, to modify the quality of the images coming from or intended for the device or the device chain, so that the combination of the device or the device chain and image processing means make it possible to capture, modify or restore images of the desired quality with reduced cost.

Abstract

L'invention concerne un procédé et un système permettant de modifier la qualité d'une image (1) provenant ou destinée à une chaîne d'appareils (APP1 à n). Elle met en oeuvre des informations formatées (15.1 à 15.n) liées aux défauts des appareils de la chaîne d'appareils. L'invention prévoit de: répertorier des sources d'informations formatées relatives auxdits appareils; rechercher de manière automatique ces informations formatées (15.1 à 15.n) liées aux appareils de ladite chaîne d'appareils, modifier de manière automatique ladite image (1) au moyen de logiciels de traitement d'images et/ou de composants de traitement d'images (23.1 à 23.n) en tenant compte desdites informations formatées (15.1à 15.n) ainsi obtenues. L'invention prévoit en outre différentes variantes telles que celle de modifier les informations formatées en fonction de caractéristiques variables de l'image à traiter et/ou de la chaîne d'appareils. L'invention permet de traiter les images provenant d'appareils qui peuvent être d'origines diverses et avoir été mis sur le marché progressivement dans le temps. L'invention est applicable au traitement des images photographiques ou vidéo, dans l'instrumentation optique, les contrôles industriels, la robotique, la métrologie, etc.

Description

PROCEDE ET SYSTEME POUR MODIFIER LA QUALITE D'IMAGE
Préambule de la description Domaine concerné, problème posé
La présente invention concerne un procédé et un système pour modifier la qualité d'au moins une image provenant ou destinée à une chaîne d'appareils
Solution Procédé
L' invention concerne un procédé pour modifier la qualité d' au moins une image provenant ou destinée à une chaîne d' appareils déterminée. la chaîne d' appareils déterminée comprend au moins un appareil de capture d'image et/ou au moins un appareil de restitution d'image, les appareils de capture d'image et/ou les appareils de restitution d'image, progressivement mis sur le marché par des acteurs économiques distincts, appartiennent à un ensemble indéterminé d'appareils, les appareils de l'ensemble d'appareils présentent des défauts qui peuvent être caractérisés par des informations formatées, le procédé comprend, pour l'image concernée, les étapes suivantes : - l'étape de répertorier des sources d'informations formatées relatives aux appareils de l'ensemble d'appareils,
- l'étape de rechercher de manière automatique, parmi les informations formatées ainsi répertoriées, des informations formatées spécifiques relatives à la chaîne d'appareils déterminée,
- l'étape de modifier de manière automatique l'image au moyen de logiciels de traitement d' images et/ou de composants de traitement d' images en tenant compte des in ormations formatées spécifiques ainsi obtenues.
De préférence, selon l'invention, le procédé est tel que la recherche automatique est réalisée au moyen d'index obtenus directement ou indirectement à partir d'une analyse :
- de l'image, et/ou - des appareils de la chaîne d'appareils, et/ou des moyens de chargement de l'image dans les logiciels ou composants de traitement d' image, et/ou
- des moyens de chargement de l'image modifiée par les logiciels ou composants de traitement d' image vers des moyens de restitution.
De préférence, selon l'invention, les appareils de. la chaîne d'appareils sont identifiés par des identifiants, notamment un code barre, l'analyse en vue de rechercher les informations formatées spécifiques comporte l'étape de déterminer les identifiants.
De préférence, selon l'invention, le procédé est tel que l'image, l'index et/ou l'identifiant sont contenus dans un même fichier. Il résulte de la combinaison des traits techniques qu' il est possible de mettre en œuvre a posteriori le procédé selon l'invention dans le cas où certains appareils de la chaîne ont été mis sur le marché avant que les informations formatées les concernant n'aient été établies.
De préférence, selon l'invention, le procédé est tel que l' image et au moins une partie des informations formatées spécifiques sont contenues dans un même fichier image. Il résulte de la combinaison des traits techniques qu' il est possible de rechercher de manière automatique les informations formatées dans le fichier image.
De préférence, selon l'invention, le procédé comprend en outre l'étape de stocker au préalable au moins une partie des informations formatées dans une base de données, le procédé comprend en outre l'étape de mettre à jour la base de données.
De préférence, selon l'invention le procédé est tel que l'un des appareils de la chaîne d'appareils présente au moins une caractéristique variable selon l'image, notamment la focale, une fraction des informations formatées spécifiques est liée aux défauts de l'appareil présentant la caractéristique variable, le procédé comprenant en outre les étapes suivantes :
- l'étape de déterminer la valeur des caractéristiques variables, pour ladite image ; l'étape de déterminer la fraction desdites informations formatées spécifiques en tenant compte des valeurs des caractéristiques variables ainsi obtenues.
Ainsi, la mise en œuvre du procédé pour un appareil présentant une caractéristique variable est ramenée à la mise en œuvre du procédé pour un appareil ne présentant aucune caractéristique variable.
De préférence, selon l'invention, l'image est contenue dans un fichier, le procédé est tel que pour déterminer la valeur de la caractéristique variable, on utilise des données présentes dans le fichier, notamment des données, par exemple la focale, selon un format tel que le standard Exif. Il résulte de la combinaison des traits techniques qu'il est possible de mettre en œuvre a posteriori le procédé selon l'invention dans le cas où l'appareil présentant la caractéristique variable a été mis sur le marché avant que les informations formatées le concernant n' aient été établies .
De préférence, selon l'invention, le procédé est tel que pour modifier la qualité d'au moins une image provenant ou destinée à une chaîne d'appareils : - on détermine un appareil virtuel présentant des défauts équivalents à au moins une partie des défauts d'au moins un appareil de la chaîne d'appareils, ci après dénommés les défauts d'origine, - on détermine les informations formatées virtuelles liées aux défauts de l'appareil virtuel, on substitue pour déterminer les informations formatées spécifiques liées à l'ensemble des appareils de la chaîne d'appareils, les informations formatées virtuelles, aux informations formatées spécifiques relatives aux défauts d' origine.
Il résulte de la combinaison des traits techniques que l'on obtient ainsi des informations formatées plus simples à mettre en œuvre et permettant de calculer les modifications devant être apportées à l'image, plus rapidement et/ou en utilisant moins de mémoire et/ou avec plus de précision.
De préférence, selon l'invention, le procédé est destiné à modifier la qualité d'au moins un plan couleur d'une image couleur, le plan couleur est caractérisé par une couleur déterminée, les informations formatées spécifiques comprennent en outre des données relatives à la couleur déterminée, pour modifier l'image, on calcule un plan couleur en utilisant les données relatives à la couleur déterminée et à l'image.
De préférence, selon l'invention, le procédé comprend en outre, dans le cas où le processus de recherche des informations formatées spécifiques n'aboutit pas pour un des appareils de la chaîne d'appareils, l'étape de calculer les informations formatées inconnues .
De préférence, selon l'invention, le procédé comprend en outre l'étape de calculer les informations formatées inconnues, liées à un appareil de la chaîne d'appareils :
- en mesurant des défauts de l'appareil, et/ou
- en simulant l'appareil.
De préférence, selon l'invention, le procédé comprend en outre, pour un appareil de capture d'images de la chaîne d'appareils, l'étape de calculer les informations formatées inconnues :
- en réalisant une classe d' images de synthèse par projections mathématiques déterminées, d'au moins une scène de référence, sur une surface,
- en capturant au moins une image de référence de chaque scène de référence au moyen de l'appareil de capture d'images,
- en choisissant dans un ensemble de modèles de transformation paramétrables celui permettant de transformer l'image de référence en une image transformée proche de la classe d'images de synthèse de la scène de référence. l' image transformée présentant un écart avec la classe d'images de synthèse, les informations formatées inconnues sont au moins en partie composées des paramètres des modèles de transformation paramétrables choisis.
De préférence, selon l'invention, le procédé comprend en outre : l'étape de calculer les écarts entre l'image transformée et la classe d'images de synthèse,
- l'étape d'associer les écarts auxdites informations formatées inconnues.
Il résulte de la combinaison des traits techniques qu'il est possible de déduire des informations étalonnées sur les scènes en trois dimensions. Il résulte de la combinaison des traits techniques qu' il est possible de combiner plusieurs images obtenues à partir de plusieurs appareils de capture d'images ayant fait l'objet d'un même processus de formatage.
De préférence, selon l'invention, le procédé est tel que l'un des appareils de la chaîne d'appareils présente au moins une caractéristique variable selon l'image, notamment la focale et/ou l'ouverture. une fraction des informations formatées spécifiques est liée aux défauts de l'appareil présentant la ou les caractéristiques variables. chaque caractéristique variable est susceptible d'être associée à une valeur pour former une combinaison constituée de l'ensemble des caractéristiques variables et des valeurs, le procédé comprend en outre l'étape de déterminer la fraction des informations formatées inconnues: - en sélectionnant des combinaisons prédéterminées,
- en mettant en œuvre un processus d' itération des précédentes étapes du procédé, pour chacune des combinaisons prédéterminées,
- en mettant en œuvre un processus d' interpolation des informations formatées inconnues relatives à une combinaison quelconque, à partir des informations formatées inconnues obtenues au terme du processus d'itération.
De préférence, selon l'invention, le procédé comprend en outre, pour un moyen de restitution d'images de la chaîne d'appareils, l'étape de produire des données caractérisant des défauts des moyens de restitution des images, notamment les caractéristiques de distorsion. les informations formatées inconnues sont au moins en partie composées des données caractérisant des défauts des moyens de restitution. De préférence, selon l'invention, le procédé est tel que les informations formatées spécifiques, liées à un appareil ou à plusieurs appareils de la chaîne d'appareils, sont déterminées de manière à pouvoir être appliquées à des appareils similaires. Il résulte de la combinaison des traits techniques que la mise en œuvre du procédé n'implique qu'un nombre limité d' informations formatées .
De préférence, selon l'invention, le procédé est tel que l'image comporte des informations associées, notamment une signature numérique, les étapes du procédé sont mises en œuvre de telle sorte qu'elles conservent ou modifient les informations associées .
De préférence, selon l'invention le procédé comporte en outre l'étape d'associer des informations à l'image modifiée, notamment l'information indiquant qu'elle a été modifiée. De préférence, selon l'invention, le procédé est plus particulièrement destiné à modifier la qualité visuelle de l'image pour un observateur, les informations formatées liées aux défauts des appareils de la chaîne d'appareils comporte en outre des informations formatées liées aux caractéristiques de vision du observateur, notamment des anomalies de fonctionnement des yeux et/ou du cerveau du observateur.
Application
L'invention concerne également une application du procédé précédemment décrit. L'application a pour objet d'améliorer la qualité des images traitées par les logiciels de traitement d'image ou les composants de traitement d'image, en corrigeant les effets d'au moins un des défauts des appareils de la chaîne d' appareils . Il résulte de la combinaison des traits techniques que la qualité des images traitées est améliorée sinon parfaite, sans pour autant faire appel à des appareils coûteux. De préférence, l'application a pour objet que la qualité des images traitées par les logiciels de traitement d' image ou les composants de traitement d' image soit comparable à celles d' images produites avec une chaîne d' appareils de référence. De préférence, l'application est telle que, pour que la qualité des images traitées soit comparable à celles d'images produites avec une chaîne d'appareils de référence, on produit des informations formatées relatives à la chaîne d' appareils en tenant compte des défauts de la chaîne d'appareils de référence.
Système
L'invention concerne un système pour modifier la qualité d'au moins une image provenant ou destinée à une chaîne d'appareils déterminée. la chaîne d'appareils déterminée comprend au moins un appareil de capture d' image et/ou au moins un appareil de restitution d'image, les appareils de capture d'image et/ou les appareils de restitution d'image, progressivement mis sur le marché par des acteurs économiques distincts, appartiennent à un ensemble indéterminé d'appareils, les appareils de l'ensemble d'appareils présentent des défauts pouvant être caractérisés par des informations formatées. le système comprend des moyens de traitement informatique permettant, pour l'image concernée, de : - répertorier des sources d'informations formatées relatives aux appareils de l'ensemble d'appareils, rechercher de manière automatique parmi les informations formatées ainsi répertoriées, des informations formatées spécifiques relatives à la chaîne d' appareils déterminée,
- modifier de manière automatique l'image au moyen de logiciels de traitement d'images et/ou de composants de traitement d'images en tenant compte des informations formatées spécifiques ainsi obtenues. De préférence, selon l'invention, le système est tel que les moyens de traitement informatique effectuent la recherche de manière automatique au moyen d'index, l'index est obtenu directement ou indirectement par des moyens d'analyse à partir d'une analyse : - de l'image, et/ou
- des appareils de la chaîne d'appareils, et/ou des moyens de chargement de l'image dans les logiciels ou composants de traitement d'image, et/ou
- des moyens de chargement de l'image modifiée par les logiciels ou composants de traitement d' image vers des moyens de restitution.
De préférence, selon l'invention, les appareils de la chaîne d'appareils sont identifiés par des identifiants, notamment un code barre, les moyens d'analyse comportent des moyens d'identification pour déterminer les identifiants. De préférence, selon l'invention, le système est tel que l'image, l'index et/ou l'identifiant sont contenus dans un même fichier.
De préférence, selon l'invention, le système est tel que l' image et au moins une partie des informations formatées spécifiques sont contenus dans un même fichier image.
De préférence, selon l'invention, le système comprend en outre des moyens de stockage pour stocker au préalable au moins une partie des informations formatées dans une base de données, le système comprend en outre des moyens de mise à jour pour mettre à jour la base de données.
De préférence, selon l'invention, le système est tel que l'un des appareils de la chaîne d'appareils présente au moins une caractéristique variable selon l'image, notamment la focale, une fraction des informations formatées spécifiques est liée aux défauts de l'appareil présentant la caractéristique variable, le système comprend en outre des moyens de calcul pour déterminer : la valeur des caractéristiques variables, pour l'image concernée,
- la fraction des informations formatées spécifiques en tenant compte des valeurs des caractéristiques variables ainsi obtenues.
De préférence, selon l'invention, l'image est contenue dans un fichier, le système est tel que, pour déterminer la valeur de la caractéristique variable, le système comprend des moyens de traitement informatique pour traiter des données présentes dans le fichier, notamment des données, par exemple la focale, selon un format tel que le standard Exif. De préférence, selon l'invention, le système est tel que, pour modifier la qualité d'au moins une image provenant ou destinée à une chaîne d'appareils, le système comprend des moyens de traitement informatique pour déterminer : un appareil virtuel présentant des défauts équivalents à au moins une partie des défauts d'au moins un appareil de la chaîne d'appareils, ci-après dénommés les défauts d'origine,
- les informations formatées virtuelles liées aux défauts du appareil virtuel. le système est tel que, pour déterminer les informations formatées spécifiques liées à l'ensemble des appareils de la chaîne d'appareils, les moyens de traitement informatique comprennent des moyens de substitution pour substituer les informations formatées virtuelles aux informations formatées spécifiques relatives aux défauts d' origine.
De préférence, selon l'invention, le système est destiné à modifier la qualité d' au moins un plan couleur d'une image couleur, le plan couleur est caractérisé par une couleur déterminée, les informations formatées spécifiques comprend en outre des données relatives à la couleur déterminée, le système comprend des moyens de calcul pour calculer un plan couleur en utilisant les données relatives à la couleur déterminée et à 1' image. De préférence, selon l'invention, le système comprend en outre, dans le cas où le processus de recherche des informations formatées spécifiques n'aboutit pas pour un des appareils de la chaîne d'appareils, des moyens de calcul pour calculer les informations formatées inconnues. De préférence, selon l'invention, le système est tel que les moyens de calcul pour calculer les informations formatées inconnues, liées à un appareil de la chaîne d'appareils, comprennent des moyens de traitement pour mesurer des défauts de l'appareil, et/ou pour simuler l'appareil. De préférence, selon l'invention, le système comprend en outre, pour un appareil de capture d'images de la chaîne d'appareils, des moyens de calcul calculant les informations formatées inconnues en réalisant une classe d' images de synthèse par projections mathématiques déterminées, d'au moins une scène de référence, sur une surface, l'appareil de capture d'images capturant au moins une image de référence de chaque scène de référence, les moyens de calcul calculant les informations formatées inconnues en choisissant dans un ensemble de modèles de transformation paramétrables celui permettant de transformer l'image de référence en une image transformée proche de la classe d'images de synthèse de la scène de référence, l'image transformée présentant un écart avec la classe d'images de synthèse, les informations formatées inconnues sont au moins en partie composées des paramètres des modèles de transformation paramétrables choisis.
De préférence, selon l'invention, le système comprend en outre des moyens de traitement informatiques pour :
- calculer les écarts entre l'image transformée et la classe d' images de synthèse, - associer les écarts aux informations formatées inconnues .
De préférence, selon l'invention, le système est tel que l'un des appareils de la chaîne d'appareils présente au moins une caractéristique variable selon l'image, notamment la focale et/ou l'ouverture. une fraction des informations formatées spécifiques est liée aux défauts de l'appareil présentant la ou les caractéristiques variables. chaque caractéristique variable est susceptible d'être associée à une valeur pour former une combinaison constituée de l'ensemble des caractéristiques variables et des valeurs, le système comprend en outre des moyens de traitement informatique pour déterminer la fraction des informations formatées inconnues :
- en sélectionnant des combinaisons prédéterminées,
- en mettant en œuvre, pour chacune des combinaisons prédéterminées, un processus d'itération des moyens de calcul et des moyens de traitement informatique précédemment décrits,
- en mettant en œuvre un processus d'interpolation des informations formatées inconnues relatives à une combinaison quelconque, à partir des informations formatées inconnues obtenues au terme du processus d'itération. De préférence, selon l'invention, le système comprend en outre, pour un moyen de restitution d' images de la chaîne d'appareils, des moyens de traitement informatique pour produire des données caractérisant des défauts des moyens de restitution des images, notamment les caractéristiques de distorsion, les informations formatées inconnues sont au moins en partie composées des données caractérisant des défauts des moyens de restitution.
De préférence, selon l'invention, le système est tel que les informations formatées spécifiques, liées à un appareil ou à plusieurs appareils de la chaîne d'appareils, sont déterminées de manière à pouvoir être appliquées à des appareils similaires .
De préférence, selon l'invention, le système est tel que l'image comporte des informations associées, notamment une signature numérique. Le système est mise en œuvre de telle sorte qu'il conserve ou modifie les informations associées.
De préférence, selon l'invention, le système comporte en outre des moyens de traitement informatique pour associer des informations à l'image modifiée, notamment l'information indiquant qu'elle a été modifiée.
De préférence, selon une variante de réalisation de l'invention, le système est plus particulièrement destiné à modifier la qualité visuelle de l'image pour un observateur. Les informations formatées liées aux défauts des appareils de ladite chaîne d' appareils comportent en outre des informations formatées liées aux caractéristiques de vision dudit observateur, notamment des anomalies de fonctionnement des yeux et/ou du cerveau dudit observateur.
Description détaillée
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description d'exemples de réalisation de l'invention donnée à titre non limitatif, et des figures qui représentent: figure 1 : une vue schématique d'une capture d'image, - figure 2 : une vue schématique d'une restitution d' image,
- figure 3 : une vue schématique des pixels d'une image,
- figures 4a et 4b : deux vues schématiques d'une scène de référence,
- figure 5 : l'organigramme de la méthode permettant de calculer la différence entre l'image mathématique et l'image corrigée,
- figure 6 : l'organigramme de la méthode permettant d'obtenir la meilleure transformation de restitution pour un moyen de restitution d'image, figure 7 : une vue schématique des éléments composant le système auquel s'applique l'invention,
- figure 8 : une vue schématique des champs des informations formatées,
- figure 9a : une vue schématique de face d'un point mathématique,
- figure 9b : une vue schématique de face d'un point réel d'une image, - figure 9c : une vue schématique de profil d'un point mathématique,
- figure 9d : une vue schématique de profil d'un point réel d'une image,
- figure 10 : une vue schématique d'une grille de points caractéristiques,
- figure 11 : l'organigramme de la méthode permettant d'obtenir les informations formatées,
- figure 12 : l'organigramme de la méthode permettant d'obtenir la meilleure transformation pour un appareil de capture d'image, figures 13a à 13c: des diagrammes de liaison d' exemple de réalisation de systèmes permettant de corriger une image,
- figures 14a à 14c, des organigrammes d'exemple de réalisation de procédés permettant de mettre en œuvre une correction automatique d'image,
- figure 15, un organigramme d'un procédé permettant de substituer un appareil virtuel à une chaîne d'appareils.
- figure 16.1, un diagramme faisant apparaître un appareil possédant des défauts ;
- figure 16.2, un diagramme faisant apparaître un appareil possédant des caractéristiques variables ; figure 16.3, un diagramme faisant intervenir un ou des défauts de vision d'un observateur ; - figure 16.4, un diagramme de traitement des caractéristiques d'un appareil virtuel ; figure 16.5, un diagramme faisant apparaître l'adjonction d'informations associées à une image corrigée ;
- figure 16.6, un diagramme illustrant le fait que des informations formatées peuvent concerner un ou plusieurs lots d'appareils,
- figure 17, une description d'un exemple de mise en oeuvre du procédé et système selon l'invention,
- figure 18, une description d'un exemple de mise en oeuvre du procédé et système selon l'invention dans le cas d'une image couleur.
Chaîne d'appareils
En se référant notamment à la figure 17, on va décrire la notion de chaîne d' appareils P3. Les appareils de la chaîne d'appareils P3, notamment des appareils de capture d'image et/ou des appareils de restitution d'image, sont progressivement mis sur le marché par des acteurs économiques distinct et appartiennent à un ensemble indéterminé d'appareils, appelé également ensemble d'appareils P75.
Au sens de l'invention, un appareil peut être notamment: - un appareil de capture d' image, comme par exemple un appareil photo jetable, un appareil photo numérique, un appareil reflex, un scanner, un fax, un endoscope, un caméscope, une caméra de surveillance, un jouet, une caméra intégrée ou reliée à un téléphone, à un assistant personnel ou à un ordinateur, une caméra thermique, un appareil d'échographie,
- un appareil de restitution d' image ou moyen de restitution d'image 19 comme par exemple un écran, un projecteur, un téléviseur, des lunettes de réalité virtuelle ou une imprimante, - un appareil y compris son installation, par exemple un projecteur, un écran et la façon dont ils sont positionnés,
- le positionnement d'un observateur par rapport à un appareil de restitution, qui introduit notamment des erreurs de parallaxe, - un être humain ayant des défauts de vision, par exemple l'astigmatisme,
- un appareil auquel on veut ressembler, pour produire des images ayant par exemple un aspect similaire à celles produites par un appareil de marque Leica, - un dispositif de traitement d'images, par exemple un logiciel de zoom qui a comme effet de bord d'ajouter du flou,
- un appareil virtuel équivalent à plusieurs appareils
I
Un appareil plus complexe comme un scanner/fax/imprimante, un Minilab d'impression photo, un appareil de vidéo-conférence peut être considéré comme un appareil ou plusieurs appareils .
On appelle chaîne d'appareils P3 un ensemble d'appareils. La notion de chaîne d'appareils P3 peut en outre inclure une notion d'ordre. Les exemples suivants constituent des chaînes d'appareils P3:
- un seul appareil ,
- un appareil de capture d'image et un appareil de restitution d'image,
- un appareil photo, un scanner, une imprimante par exemple dans un Minilab de tirage photo,
- un appareil photo numérique, une imprimante par exemple dans un Minilab de tirage photo, - un scanner, un écran ou une imprimante, par exemple dans un ordinateur,
- un écran ou projecteur et l'œil d'un être humain,
- un appareil et un autre appareil auquel on veut ressembler, - un appareil photo et un scanner,
- un appareil de capture d'image, un logiciel de traitement d'images,
- un logiciel de traitement d'images, un appareil de restitution d'image, - une combinaison des exemples précédents,
- un autre ensemble d'appareils .
Défaut
En se référant notamment à la figure 17, on va maintenant décrire la notion de défaut P5. On appelle défaut P5 d'un appareil de l'ensemble d'appareils P75, un défaut lié aux caractéristiques de l'optique et/ou du capteur et/ou de l'électronique et/ou du logiciel intégré à un appareil ; des exemples de défauts P5 sont par exemple la distorsion, le flou, le vignetage, les aberrations chromatiques, le rendu des couleurs, l'uniformité du flash, le bruit du capteur, le grain, l'astigmatisme, l'aberration sphérique.
Image En se référant notamment à la figure 17, on va maintenant décrire la notion d'image P2. On appelle image P2 une image numérique capturée ou modifiée ou restituée par un appareil. L'image P2 peut provenir d'un appareil de la chaîne d' appareils P3. L' image P2 peut être destinée à un appareil de la chaîne d'appareils P3. De manière plus générale l'image P2 peut provenir et/ou être destinée à la chaîne d'appareils P3. Dans le cas d'images animées, par exemple vidéo, constituées d'une séquence dans le temps d'images fixes, on appelle image P2 : une image fixe de la séquence d' images .
Informations formatées
En se référant notamment à la figure 17, on va maintenant décrire la notion d' informations formatées 15. On appelle informations formatées 15 des données liées aux défauts P5 d'un ou plusieurs appareils de la chaîne d'appareils P3 et permettant à des moyens de traitement d'images de modifier la qualité des images P2 en tenant compte des défauts P5 de l'appareil. Pour produire les informations formatées 15, on peut utiliser divers procédés et systèmes basés sur des mesures, et/ou des captures ou restitution de références, et/ou des simulations . Pour produire les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour produire des informations formatées liées aux défauts des appareils d'une chaîne d'appareils et d'informations formatées destinées à des moyens de traitement d'image." Dans cette demande, il est décrit un procédé pour produire des informations formatées 15 liées aux défauts P5 des appareils d'une chaîne d'appareils P3. Les informations formatées 15 sont destinées à des moyens de traitement d'image, notamment des logiciels, en vue de modifier la qualité des images traitées par les moyens de traitement d'image, la chaîne d'appareils P3 comprend notamment au moins un appareil de capture d' image et/ou au moins un moyen de restitution et/ou au moins un observateur, le procédé comprend l'étape de produire des données caractérisant des défauts P5 des appareils de la chaîne d'appareils P3. les données sont des informations formatées 15.
Pour produire les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour produire des informations formatées liées aux distorsions géométriques . " Dans cette demande, il est décrit un procédé pour produire des informations formatées 15 liées aux appareils d'une chaîne d'appareils P3. la chaîne d' appareils P3 comprend notamment au moins un appareil de capture d'image et/ou au moins un appareil de restitution d' image . le procédé comprend l' étape de produire des informations formatées 15 liées aux distorsions géométriques d' au moins un appareil de la chaîne.
De préférence, l'appareil permettant de capturer ou restituer une image sur un support, l'appareil comporte au moins une caractéristique fixe et/ou une caractéristique variable selon l'image, la caractéristique fixe et/ou caractéristique variable est susceptible d'être associée à une ou plusieurs valeurs de caractéristiques, notamment la focale et/ou la mise au point et leurs valeurs de caractéristiques associées, le procédé comprend l'étape de produire des informations formatées mesurées liées aux distorsions géométriques de l'appareil à partir d'un champ mesuré, les informations formatées 15 peuvent comprendre les informations formatées mesurées.
Pour produire les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour produire des informations formatées liées aux défauts d'au moins un appareil d'une chaîne, notamment au flou." Dans cette demande, il est décrit un procédé pour produire des informations formatées 15 liées aux appareils d' une chaîne d' appareils P3. la chaîne d' appareils P3 comprend notamment au moins un appareil de capture d'image et/ou au moins un appareil de restitution d'image, le procédé comprend l'étape de produire des informations formatées 15 liées aux défauts P5 d'au moins un appareil de la chaîne. De préférence, l'appareil permettant de capturer ou restituer une image comporte au moins une caractéristique fixe et/ou une caractéristique variable selon l'image (I) . les caractéristiques fixe et/ou variables sont susceptibles d'être associées à une ou plusieurs valeurs de caractéristiques, notamment la focale et/ou la mise au point et leurs valeurs de caractéristiques associées . le procédé comprend l'étape de produire des informations formatées mesurées liées aux défauts P5 de l'appareil à partir d'un champ mesuré, les informations formatées 15 peuvent comprendre les informations formatées mesurées.
Pour fournir les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour fournir, selon un format standard, des informations formatées à des moyens de traitement d'images." Dans cette demande, il est décrit un procédé pour fournir, selon un format standard, des informations formatées 15 à des moyens de traitement d'images, notamment des logiciels et/ou des composants, les informations formatées 15 sont liées aux défauts P5 d'une chaîne d'appareils P3. la chaîne d'appareils P3 comprend notamment au moins un appareil de capture d'image et/ou un appareil de restitution d'image, les moyens de traitement d'images utilisent les informations formatées 15 pour modifier la qualité d'au moins une image P2 provenant ou destinée à la chaîne d'appareils P3. les informations formatées 15 comportent des données caractérisant des défauts P5 de l'appareil de capture d'image, notamment les caractéristiques de distorsion, et/ou des données caractérisant des défauts de l'appareil de restitution des images, notamment les caractéristiques de distorsion. le procédé comprend l'étape de renseigner au moins un champ du format standard avec les informations formatées 15. le champ est désigné par un nom de champ, le champ contenant au moins une valeur de champ.
Pour produire les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour réduire la fréquence des mises à jour de moyens de traitement d'images." Dans cette demande, il est décrit un procédé pour réduire la fréquence des mises à jour de moyens de traitement d'images, notamment un logiciel et/ou un composant, les moyens de traitement d'images permettant de modifier la qualité des images numériques provenant ou destinées à une chaîne d'appareils P3. la chaîne d'appareil P3 comporte au moins un appareil de capture d'image et/ou au moins un appareil de restitution d'image, les moyens de traitement d'image mettent en œuvre des informations formatées 15 liées aux défauts P5 d'au moins un appareil de la chaîne d'appareils P3. les informations formatées P3 dépendent d' au moins une variable . les informations formatées permettant d'établir une correspondance entre une partie des variables et des identifiants, les identifiants permettent de déterminer la valeur de la variable correspondante à l'identifiant en tenant compte de l'identifiant et de l'image. Il résulte de la combinaison des traits techniques qu' il est possible de déterminer la valeur d'une variable, notamment dans le cas où la signification physique et/ou le contenu de la variable ne sont connus que postérieurement à la diffusion des moyens de traitement d'image. Il résulte également de la combinaison des traits techniques que le temps entre deux mises à jour du logiciel de correction peut être espacé. Il résulte également de la combinaison des traits techniques que les divers acteurs économiques qui produisent des appareils et/ou des moyens de traitement d'image peuvent mettre à jour leurs produits indépendamment des autres acteurs économiques, même si ces derniers changent radicalement les caractéristiques de leurs produit ou ne peuvent forcer leur client à mettre à jour leur produits. Il résulte également de la combinaison des traits techniques qu'une nouvelle fonctionnalité peut être déployée progressivement en commençant par un nombre limité d'acteurs économiques et d'utilisateurs pionniers.
Pour exploiter les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour calculer une image transformée à partir d' une image numérique et d' informations formatées relatives à une transformation géométrique." Dans cette demande, il est décrit un procédé pour calculer une image transformée à partir d'une image numérique et d'informations formatées 15 relatives à une transformation géométrique, notamment des informations formatées 15 relatives aux distorsions et/ou aberrations chromatiques d'une chaîne d'appareils P3. le procédé comprend l'étape de calculer l'image transformée à partir d'une approximation de la transformation géométrique. Il en résulte que le calcul est économe en ressource mémoire, en bande passante mémoire, en puissance de calcul et donc en consommation électrique. Il en résulte également que l'image transformée ne présente pas de défaut visible ou gênant pour son utilisation ultérieure .
Pour exploiter les informations formatées 15, on peut par exemple utiliser le procédé et le système décrits dans la demande de brevet international déposée le même jour que la présente demande au nom de la société Vision IQ et sous le titre : "Procédé et système pour modifier une image numérique en prenant en compte son bruit." Dans cette demande, il est décrit un procédé pour calculer une image transformée à partir d'une image numérique et d' informations formatées 15 relatives à des défauts P5 d'une chaîne d'appareils P3. la chaîne d'appareils P3 comporte des appareils de capture d' image et/ou des appareils de restitution d' image . la chaîne d' appareils P3 comporte au moins un appareil. le procédé comprend l'étape de déterminer automatiquement des données caractéristiques à partir des informations formatées 15 et/ou de l'image numérique. Il résulte de la combinaison des traits techniques que l' image transformée ne présente pas de défaut visible ou gênant, notamment de défauts liés au bruit, pour son utilisation ultérieure.
Produi re des informati ons formatées
L'exemple suivant illustre une façon de produire les informations formatées .
Sur la figure 1, on a représenté : une scène 3 comportant un objet 107, un capteur 101 et la surface du capteur 110, un centre optique 111, un point d'observation 105 sur une surface du capteur 110, une direction d'observation 106 passant par le point d'observation 105, le centre optique 111, la scène 3, une surface 10 géométriquement associée à la surface du capteur 110.
Sur la figure 2, on a représenté une image 103, un moyen de restitution d'image 19 et une image restituée 191 obtenue sur le support de restitution 190.
Sur la figure 3 on a représenté une scène 3, un appareil de capture d'image 1 et une image 103 constituée de pixels 104.
Sur les figures 4a et 4b, on a représenté deux variantes d'une scène de référence 9.
Sur la figure 5 on a représenté un organigramme mettant en œuvre une scène 3, une projection mathématique 8 donnant une image mathématique 70 de la scène 3, une projection réelle 72 donnant une image 103 de la scène 3 pour les caractéristiques utilisées 74, un modèle de transformation paramétrable 12 donnant une image corrigée 71 de l'image 103, l'image corrigée 71 présentant une différence 73 avec l'image mathématique 70.
Sur la figure 6 on a représenté un organigramme mettant en œuvre une image 103, une projection réelle de restitution 90 donnant une image restituée 191 de l'image 103 pour les caractéristiques de restitution utilisées 95, un modèle de transformation paramétrable de restitution 97 donnant une image corrigée de restitution 94 de l'image 103, une projection mathématique de restitution 96 donnant une image mathématique de restitution 92 de l'image corrigée de restitution 94 et présentant une différence de restitution 93 avec l'image restituée 191.
Sur la figure 7 on a représenté un système comprenant un appareil de capture d'image 1 constitué d'une optique 100, d'un capteur 101 et d'une électronique 102. Sur la figure 7 on a également représenté une zone mémoire 16 contenant une image 103, une base de données 22 contenant des informations formatées 15, des moyens de transmission 18 de l'image complétée 120 constituée de l'image 103 et des informations formatées 15 vers des moyens de calcul 17 contenant des logiciels de traitement d' image 4.
Sur la figure 8 on a représenté des informations formatées 15 constituées de champs 90.
Sur les figures 9a à 9d on a représenté une image mathématique 70, une image 103, la position mathématique 40 d'un point, la forme mathématique 41 d'un point, comparés à la position réelle 50 et à la forme réelle 51 du point correspondant de l'image.
Sur la figure 10 on a représenté une grille 80 de points caractéristiques . Sur la figure 11 on a représenté un organigramme mettant en œuvre une image 103, des caractéristiques utilisées 74, une base de données de caractéristiques 22. Les informations formatées 15 sont obtenues à partir des caractéristiques utilisées 74 et stockées dans la base de données 22. L'image complétée 120 est obtenue à partie de l'image 103 et des informations formatées 15.
Sur la figure 12 on a représenté un organigramme mettant en œuvre une scène de référence 9, une projection mathématique 8 donnant une classe d'image de synthèse 7 de la scène de référence 9, une projection réelle 72 donnant une image de référence 11 de la scène de référence 9 pour les caractéristiques utilisées 74. Cet organigramme met également en œuvre un modèle de transformation paramétrable 12 donnant une image transformée 13 de l'image de référence 11. L'image transformée 13 présente un écart 14 avec la classe d'image de synthèse 7.
Définitions et description détaillée
D' autres caractéristiques et avantages de l' invention apparaîtront à la lecture :
- des définitions, ci-après explicitées, des termes techniques employés illustrées en se référant aux exemples indicatifs et non limitatifs des figures 1 à 12,
- de la description des figures 1 à 12.
Scène
On appelle scène 3 un lieu dans l'espace à trois dimensions, qui comprend des objets 107 éclairés par des sources lumineuses .
Appareil de capture d'image, Image, Capture d'image On va maintenant décrire en se référant aux figures 3 et 7, ce que l'on entend par appareil de capture d'image 1 et image 103. On appelle appareil de capture d'image 1, un appareil constitué d'une optique 100, d'un ou de plusieurs capteurs 101, d'une électronique 102, d'une zone mémoire 16. Ledit appareil de capture d' image 1 permet à partir d' une scène 3 d' obtenir des images numériques fixes 103 ou animées enregistrées dans la zone mémoire 16 ou transmises à un dispositif externe. Des images animées sont constituées d'une succession dans le temps, d'images fixes 103. Ledit appareil de capture d'image 1 peut prendre la forme notamment d'un appareil photo, d'un caméscope, d'une caméra reliée ou intégrée à un PC, d'une caméra reliée ou intégrée à un assistant personnel, d'une caméra reliée ou intégrée à un téléphone, d'un appareil de visioconférence ou d'une caméra ou appareil de mesure sensible à d'autres longueurs d'onde que celles de la lumière visible comme par exemple une caméra thermique.
On appelle capture d' image le procédé consistant en le calcul de l'image 103 par l'appareil de capture d'image 1. Dans le cas où un appareil comporte plusieurs sous- ensembles interchangeables, en particulier une optique 100, on appelle appareil de capture d'image 1, une configuration particulière de l'appareil.
Moyen de restitution d'image, Image restituée, Restitution d'image
On va maintenant décrire en se référant à la figure 2 ce que l'on entend par moyen de restitution d'image 19. Un tel moyen de restitution d'image 19 peut prendre la forme notamment d'un écran de visualisation, d'un téléviseur, d'un écran plat, d'un projecteur, de lunettes de réalité virtuelle, d'une imprimant.
Un tel moyen de restitution d'image 19 comprend : - une électronique, - une ou plusieurs sources de lumière, d'électrons ou d'encre,
- un ou plusieurs modulateurs : dispositifs de modulation de lumière, d'électrons ou d'encre, - un dispositif de focalisation, se présentant notamment sous la forme d'une optique dans le cas d'un projecteur lumineux, ou sous la forme de bobines de focalisation de faisceau électronique dans le cas d'un écran à tube cathodique, ou sous la forme de filtres dans le cas d'un écran plat,
- d'un support de restitution 190 se présentant notamment sous la forme d'un écran dans le cas d'un écran à tube cathodique, d'un écran plat ou d'un projecteur, sous la forme d'un support d'impression sur lequel l'impression est effectuée dans le cas d'une imprimante, ou sous la forme d'une surface virtuelle dans l'espace dans le cas d'un projecteur à image virtuelle .
Ledit moyen de restitution d'image 19 permet à partir d'une image 103 d'obtenir une image restituée 191 sur le support de restitution 190.
Des images animées sont constituées d'une succession dans le temps, d'images fixes.
On appelle restitution d'image le procédé consistant en l'affichage ou l'impression de l'image par le moyen de restitution d'image 19.
Dans le cas où un moyen de restitution 19 comporte plusieurs sous-ensembles interchangeables ou pouvant se déplacer relativement l'un par rapport à l'autre, en particulier le support de restitution 190, on appelle moyen de restitution d'image 19 une configuration particulière.
Surface du capteur, Centre optique, Distance focale
On va maintenant décrire en se référant à la figure 1 ce que l'on appelle surface du capteur 110. On appelle surface du capteur 110, la forme dans l'espace dessinée par la surface sensible du capteur 101 de l'appareil de capture d'image 1 au moment de la capture d'image. Cette surface est généralement plane. On appelle centre optique 111 un point dans l'espace associé à l'image 103 au moment de la capture d'image. On appelle distance focale la distance entre ce point 111 et le plan 110, dans le cas où la surface du capteur 110 est plane.
Pixel, Valeur de pixel, Temps de pose.
On va maintenant décrire, en se référant à la figure 3, ce que l'on entend par pixel 104 et valeur de pixel.
On appelle pixel 104, une zone élémentaire de la surface du capteur 110 obtenue en créant un pavage généralement régulier, de ladite surface du capteur 110. On appelle valeur de pixel, un nombre associé à ce pixel 104.
Une capture d'image consiste à déterminer la valeur de chaque pixel 104. L'ensemble de ces valeurs constitue l'image 103.
Lors d'une capture d'image, la valeur de pixel est obtenue par l'intégration sur la surface du pixel 104, pendant une période de temps appelée temps de pose, d'une partie du flux lumineux provenant de la scène 3 à travers l'optique 100 et par conversion du résultat de cette intégration en valeur numérique. L' intégration du flux lumineux et/ou la conversion du résultat de cette intégration en valeur numérique sont effectuées au moyen de l'électronique 102.
Cette définition de la notion de valeur de pixel s'applique au cas des images 103 en noir et blanc ou en couleur, qu'elles soient fixes ou animées.
Cependant, selon les cas, la partie du flux lumineux concernée est obtenue de diverses façons : a) Dans le cas d'une image 103 en couleurs, la surface du capteur 110 comporte généralement plusieurs types de pixels 104, respectivement associés à des flux lumineux de longueurs d'onde différentes, tels que par exemple des pixels rouges, verts et bleus. b) Dans le cas d'une image 103 en couleurs, il peut également y avoir plusieurs capteurs 101 juxtaposés qui reçoivent chacun une partie du flux lumineux. c) Dans le cas d'une image 103 en couleurs, les couleurs utilisées peuvent être différentes de rouge, vert et bleu, comme par exemple pour la télévision NTSC américaine, et peuvent être en nombre supérieur à trois. d) Enfin, dans le cas d'une caméra de télévision à balayage dit entrelacé, les images animées produites sont constituées d'une alternance d'images 103 comportant les lignes paires, et d'images 103 comportant les lignes impaires.
Configuration utilisée, Réglages utilisés, Caractéristiques uti 1 i sées .
On appelle configuration utilisée la liste des sous- ensembles amovibles de l'appareil de capture d'image 1, par exemple l'optique 100 effectivement montée sur l'appareil de capture d'image 1 si elle est interchangeable. La configuration utilisée est caractérisée notamment par :
- le type de l'optique 100, - le numéro de série de l'optique 100 ou toute autre désignation.
On appelle réglages utilisés :
- la configuration utilisée telle que définie ci- dessus, ainsi que - la valeur des réglages manuels ou automatiques disponibles dans la configuration utilisée et ayant un impact sur le contenu de l'image 103. Ces réglages peuvent être effectués par l'utilisateur, notamment à l'aide de boutons, ou calculés par l'appareil de capture d'image 1. Ces réglages peuvent être stockés dans l'appareil, notamment sur un support amovible, ou sur tout dispositif connecté à l'appareil. Ces réglages peuvent inclure notamment les réglages de focalisation, de diaphragme, et de focale de l'optique 100, les réglages de temps de pose, les réglages de balance des blancs, les réglages de traitement d' image intégrés comme le zoom numérique, la compression, le contraste,
On appelle caractéristiques utilisées 74 ou jeu de caractéristiques utilisées 74 : a) Des paramètres liés aux caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, déterminées au moment de la conception de l'appareil de capture d'image 1. Par exemple, ces paramètres peuvent comprendre la formule de l'optique 100 de la configuration utilisée impactant les défauts géométriques et le piqué des images capturées ; la formule de l'optique 100 de la configuration utilisée inclut notamment la forme, la disposition et le matériau des lentilles de l'optique 100.
Ces paramètres peuvent en outre comprendre :
- la géométrie du capteur 101, à savoir la surface du capteur 110 ainsi que la forme et la disposition relative des pixels 104 sur cette surface,
- le bruit généré par l'électronique 102,
- la loi de conversion flux lumineux en valeur de pixel . b) Des paramètres liés aux caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, déterminées au moment de la fabrication de l'appareil de capture d'image 1, et notamment :
- le positionnement exact des lentilles dans l'optique 100 de la configuration utilisée,
- le positionnement exact de l'optique 100 par rapport au capteur 101. c) Des paramètres liés aux caractéristiques techniques de l'appareil de capture d'image 1, déterminées au moment de la capture de l'image 103 et notamment : - la position et l'orientation de la surface du capteur 110 par rapport à la scène 3,
- les réglages utilisés,
- les facteurs extérieurs, tels que la température, s'ils ont une influence. d) Les préférences de l'utilisateur, notamment la température de couleur à utiliser pour la restitution d'images. Ces préférences sont par exemple sélectionnées par l'utilisateur à l'aide de boutons.
Point d ' observati on , di recti on d 'observati on
On va maintenant décrire en se référant à la figure 1 ce que l'on entend par point d'observation 105 et direction d'observation 106.
On appelle surface mathématique 10 une surface géométriquement associée à la surface du capteur 110. Par exemple, si la surface du capteur est plane, la surface mathématique 10 pourra être confondue avec celle du capteur. On appelle direction d'observation 106 une droite passant par au moins un point de la scène 3 et par le centre optique 111. On appelle point d'observation 105 l'intersection de la direction d'observation 106 et de la surface 10.
Couleur observée, Intensité observée
On va maintenant décrire en se référant à la figure 1 ce que l'on entend par couleur observée et intensité observée. On appelle couleur observée la couleur de la lumière émise, transmise ou réfléchie par ladite scène 3 dans ladite direction d'observation 106 à un instant donné, et observée depuis ledit point d'observation 105. On appelle intensité observée l'intensité de la lumière émise par ladite scène 3 dans ladite direction d'observation 106 au même instant, et observée depuis ledit point d'observation 105. La couleur peut être notamment caractérisée par une intensité lumineuse fonction d'une longueur d'onde, ou encore par deux valeurs telles que mesurées par un colorimètre.
L' intensité peut être caractérisée par une valeur telle que mesurée avec un photomètre.
Ladite couleur observée et ladite intensité observée dépendent notamment de la position relative des objets 107 dans la scène 3 et des sources d'éclairage présentes ainsi que des caractéristiques de transparence et de réflexion des objets 107 au moment de l'observation.
Projection mathématique, Image mathématique, Point mathématique,
Couleur mathématique d'un point, Intensité mathématique d'un point, Forme mathématique d'un point, Position mathématique d'un point.
On va ci-après décrire en se référant notamment aux figures 1, 5, 9a, 9b, 9c et 9d les notions de projection mathématique 8, image mathématique 70, point mathématique, couleur mathématique d'un point, intensité mathématique d'un point, forme mathématique 41 d'un point, position mathématique 40 d'un point.
On va maintenant décrire en se référant à la figure 5 comment on réalise une image mathématique 70 par projection mathématique déterminée 8 d'au moins une scène 3 sur la surface mathématique 10.
Préalablement, on va décrire ce que l'on entend par projection mathématique déterminée 8.
Une projection mathématique déterminée 8 associe : - à une scène 3 au moment de la capture d'une image
103,
- et aux caractéristiques utilisées 74, une image mathématique 70.
Une projection mathématique déterminée 8 est une transformation qui permet de déterminer les caractéristiques de chaque point de l'image mathématique 70 à partir de la scène 3 au moment de la capture d'image et des caractéristiques utilisées 74.
De manière préférentielle, la projection mathématique 8 est définie de la façon qui sera ci-après décrite.
On appelle position mathématique 40 du point la position du point d'observation 105 sur la surface mathématique 10.
On appelle forme mathématique 41 du point la forme géométrique, ponctuelle, du point d'observation 105.
On appelle couleur mathématique du point la couleur observée .
On appelle intensité mathématique du point l'intensité observée . On appelle point mathématique l'association de la position mathématique 40, de la forme mathématique 41, de la couleur mathématique et de l'intensité mathématique pour le point d'observation 105 considéré. L'image mathématique 70 est constituée de l'ensemble desdits point mathématiques. La projection mathématique 8 de la scène 3 est l'image mathématique 70.
Projecti on réel l e, Poi nt réel , coul eur réel l e d' un poi nt, intensité réel l e d 'un poi nt, forme réel l e d'un poi nt, posi tion réel l e d'un point
On va ci-après décrire en se référant notamment aux figures 3, 5, 9a, 9b, 9c et 9d les notions de projection réelle
72, point réel, couleur réelle d'un point, intensité réelle d'un point, forme réelle 51 d'un point, position réelle 50 d'un point .
Lors d'une capture d'image, l'appareil de capture d'image 1 associé aux caractéristiques utilisées 74 produit une image 103 de la scène 3. La lumière provenant de la scène 3 selon une direction d'observation 106, traverse l'optique 100 et arrive sur la surface du capteur 110.
On obtient alors pour ladite direction d'observation ce que l'on appelle un point réel qui présente des différences par rapport au point mathématique.
En se référant aux figures 9a à 9d, on va maintenant décrire les différences entre le point réel et le point mathématique .
La forme réelle 51 associée à ladite direction d'observation 106 n'est pas un point sur la surface du capteur, mais a une forme de nuage dans l'espace à trois dimensions, qui a une intersection avec un ou plusieurs pixels 104. Ces différences ont en particulier pour origine le coma, l'aberration sphérique, l'astigmatisme, le regroupement en pixels 104, l'aberration chromatique, la profondeur de champ, la diffraction, les réflexions parasites , la courbure de champ de l'appareil de capture d'image 1. Elles donnent une impression de flou, de manque de piqué de l'image 103.
En outre, la position réelle 50 associée à ladite direction d'observation 106 présente une différence par rapport à la position mathématique 40 d'un point. Cette différence a en particulier pour origine la distorsion géométrique, qui donne une impression de déformation : par exemple, les murs verticaux paraissent courbes. Elle tient aussi au fait que le nombre de pixels 104 est limité et que par conséquent la position réelle 50 ne peut prendre qu'un nombre fini de valeurs.
En outre, l' intensité réelle associée à ladite direction d'observation 106 présente des différences par rapport à l'intensité mathématique d'un point. Ces différences ont en particulier pour origine le gamma et le vignettage : par exemple les bords de l'image 103 paraissent plus sombres. En outre du bruit peut s'ajouter au signal.
Enfin, la couleur réelle associée à ladite direction d'observation 106 présente des différences par rapport à la couleur mathématique d'un point. Ces différences ont en particulier pour origine le gamma et la dominante colorée. En outre du bruit peut s'ajouter au signal.
On appelle point réel l'association de la position réelle 50, de la forme réelle 51, de la couleur réelle et de l'intensité réelle pour la direction d'observation 106 considérée.
La projection réelle 72 de la scène 3 est constituée par l'ensemble des points réels.
Modèle de transformation paramétrable, Paramètres, Image corrigée
On appelle modèle de transformation paramétrable 12 (ou de manière condensée, transformation paramétrable 12) , une transformation mathématique permettant d'obtenir à partir d'une image 103, et de la valeur de paramètres une image corrigée 71. Lesdits paramètres pouvant notamment être calculés à partir des caractéristiques utilisées 74 comme il est indiqué ci-après.
Ladite transformation permet en particulier de déterminer pour chaque point réel de l'image 103, la position corrigée dudit point réel, la couleur corrigée dudit point réel, l'intensité corrigée dudit point réel, la forme corrigée dudit point réel, à partir de la valeur des paramètres, de la position réelle dudit point réel et des valeurs des pixels de l' image 103. La position corrigée peut être par exemple calculée à l'aide de polynômes de degré fixé en fonction de la position réelle, les coefficients des polynômes dépendant de la valeur des paramètres. La couleur corrigée et l'intensité corrigée peuvent être par exemple des sommes pondérées des valeurs des pixels, les coefficients dépendant de la valeur des paramètres et de la position réelle, ou encore des fonctions non linéaires des valeurs des pixels de l'image 103.
Les paramètres peuvent inclure notamment : la focale de l'optique 100 de la configuration utilisée ou une valeur liée telle que la position d'un groupe de lentilles, la focalisation de l'optique 100 de la configuration utilisée ou une valeur liée telle que la position d'un groupe de lentilles, l'ouverture de l'optique 100 de la configuration utilisée ou une valeur liée telle que la position du diaphragme.
Di fférence entre l 'image mathématique et l ' image corri gée
En se référant à la figure 5, on appelle différence 73 entre l'image mathématique 70 et l'image corrigée 71 pour une scène 3 donnée et des caractéristiques utilisées 74 données, une ou plusieurs valeurs déterminées à partir des nombres caractérisant la position, la couleur, l'intensité, la forme de tout ou partie des points corrigés et de tout ou partie des points mathématiques. Par exemple, la différence 73 entre l'image mathématique 70 et l'image corrigée 71 pour une scène 3 donnée et des caractéristiques utilisées 74 données peut être déterminée de la façon suivante :
-On choisit des points caractéristiques qui peuvent être par exemple les points d'une grille orthogonale 80 de points disposés régulièrement comme présenté sur la figure 10.
-On calcule la différence 73 par exemple en effectuant la somme pour chaque point caractéristique des valeurs absolues des différences entre chaque nombre caractérisant la position, la couleur, l'intensité, la forme respectivement pour le point corrigé et pour le point mathématique. La fonction somme des valeurs absolues des différences peut être remplacée par une autre fonction comme la moyenne, la somme des carrés ou toute autre fonction permettant de combiner les nombres .
Scène de référence
On appelle scène de référence 9 une scène 3 dont certaines caractéristiques sont connues. A titre d'exemple, la figure 4a présente une scène de référence 9 constituée d'une feuille de papier comportant des cercles remplis de noir et disposés régulièrement. La figure 4b présente une autre feuille de papier comportant les mêmes cercles auxquels s'ajoutent des traits et des surfaces colorées. Les cercles servent à mesurer la position réelle 50 d'un point, les traits la forme réelle 51 d'un point, les surfaces colorées la couleur réelle d'un point et l'intensité réelle d'un point. Cette scène de référence 9 peut être constituée d'un autre matériau que le papier.
Image de référence
En se référant à la figure 12, on va maintenant définir la notion d'image de référence 11. On appelle image de référence 11, une image de la scène de référence 9 obtenue avec l'appareil de capture d'image 1.
Image de synthèse, Classe d'images de synthèse
En se référant à la figure 12, on va maintenant définir la notion d'image de synthèse et de classe d'images de synthèse 7. On appelle image de synthèse, une image mathématique 70 obtenue par projection mathématique 8 d'une scène de référence 9. On appelle classe d'images de synthèse 7, un ensemble d'images mathématiques 70 obtenues par projection mathématique 8 d'une ou plusieurs scènes de référence 9, ce pour un ou plusieurs jeux de caractéristiques utilisées 74. Dans le cas où il n'y a qu'une scène de référence 9 et qu'un jeu de caractéristiques utilisées 74, la classe d'images de synthèse 7 ne comprend qu'une image de synthèse.
Image transformée
En se référant à la figure 12, on va maintenant définir la notion d' image transformée 13. On appelle image transformée 13, l'image corrigée obtenue par application d'un modèle de transformation paramétrable 12 à une image de référence 11.
Image transformée proche d 'une cl asse d ' images de synthèse, Ecart.
On va maintenant décrire, en se référant à la figure 12, la notion d'image transformée 13 proche d'une classe d'images de synthèse 7 et la notion d'écart 14. On définit la différence entre une image transformée
13 et une classe d'images de synthèse 7 comme la plus faible différence entre ladite image transformée 13 et l'une quelconque des images de synthèse de ladite classe d'images de synthèse.
Ensuite, on va décrire comment on choisit parmi les modèles de transformation paramétrables 12 celui permettant de transformer chaque image de référence 11 en une image transformée 13 proche de la classe d'images de synthèse 7 de la scène de référence 9 correspondant à ladite image de référence 11, et ce dans différents cas de scènes de référence 9 et caractéristiques utilisées 74.
- Dans le cas d'une scène de référence 9 donnée associée à un jeu de caractéristiques utilisées 74 données, on choisit la transformation paramétrable 12 (et ses paramètres) qui permet de transformer l'image de référence 11 en l'image transformée 13 qui présente la plus faible différence avec la classe d' images de synthèse 7. La classe d' image de synthèse 7 et l'image transformée 13 sont alors dites proches. On appelle écart 14 ladite différence.
- Dans le cas d'un groupe de scènes de référence données associées à des jeux de caractéristiques utilisées 74 donnés, on choisit la transformation paramétrable 12 (et ses paramètres) en fonction des différences entre l'image transformée 13 de chaque scène de référence 9 et la classe d' images de synthèse 7 de chaque scène de référence 9 considérée. On choisit la transformation paramétrable 12 (et ses paramètres) qui permet de transformer les images de référence 11 en des images transformées 13 telle que la somme desdites différences soit la plus faible. La fonction somme peut être remplacée par une autre fonction comme le produit. La classe d' image de synthèse 7 et les images transformées 13 sont alors dites proches. On appelle écart 14 une valeur obtenue à partir desdites différences, par exemple en en calculant la moyenne.
- Dans le cas où certaines caractéristiques utilisées 74 sont inconnues, il est possible de les déterminer à partir de la capture de plusieurs images de référence 11 d'au moins une scène de référence 9. Dans ce cas, on détermine simultanément les caractéristiques inconnues et la transformation paramétrable 12 (et ses paramètres) qui permet de transformer les images de référence 11 en des images transformées 13 telles que la somme desdites différences soit la plus faible, notamment par calcul itératif ou par résolution d'équations concernant la somme desdites différences et/ou leur produit et/ou toute autre combinaison appropriée desdites différences . La classe d' image de synthèse 7 et les images transformées 13 sont alors dites proches . Les caractéristiques inconnues peuvent par exemple être les positions et les orientation relatives de la surface du capteur 110 et de chaque scène de référence 9 considérée. On appelle écart 14 une valeur obtenue à partir desdites différences, par exemple en en calculant la moyenne.
Meilleure transformation
On appelle meilleure transformation la transformation qui, parmi les modèles de transformation paramétrables 12, permet de transformer chaque image de référence 11 en une image transformée 13 proche de la classe d'images de synthèse 7 de la scène de référence 9 correspondant à ladite image de référence 11.
Calibrage On appelle calibrage un procédé qui permet d' obtenir des données relatives aux caractéristiques intrinsèques de l'appareil de capture d'image 1, ce pour une ou plusieurs configurations utilisées constituées chacune d'une optique 100 associée à un appareil de capture d' image 1.
Cas 1 : dans le cas où il n'y a qu'une configuration, ledit procédé comprend les étapes suivantes :
- l'étape de monter ladite optique 100 sur ledit appareil de capture d'image 1, l'étape de choisir une ou plusieurs scènes de référence 9, l'étape de choisir plusieurs caractéristiques utilisées 74, - l'étape de capturer des image desdites scènes de référence 9 pour lesdites caractéristiques utilisées,
- l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées 74. Cas 2 : dans le cas où on considère toutes les configurations correspondant à un appareil de capture d' image 1 donné et à toutes les optiques 100 d'un même type, ledit procédé comprend les étapes suivantes : l'étape de choisir une ou plusieurs scènes de référence 9, l'étape de choisir plusieurs caractéristiques utilisées 74,
- l'étape de calculer des images 103 à partir des caractéristiques utilisées 74 et notamment des formules de l'optique 100 de la configuration utilisée et des valeurs de paramètres, ce par exemple à l'aide d'un logiciel de calcul d'optique par tracé de rayons,
- l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées. Cas 3 : dans le cas où on considère toutes les configurations correspondant à une optique 100 donnée et à tous les appareils de capture d'image 1 d'un même type, ledit procédé comprend les étapes suivantes : - l'étape de monter ladite optique 100 sur un appareil de capture d'image 1 du type considéré,
- l'étape de choisir une ou plusieurs scènes de référence 9, l'étape de choisir plusieurs caractéristiques utilisées 74,
- l'étape de capturer des images desdites scènes de référence 9 pour lesdites caractéristiques utilisées,
- l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées.
Le calibrage peut être effectué, de manière préférentielle, par le constructeur de l'appareil de capture d'image 1, ce pour chaque appareil et configuration dans le cas 1. Cette méthode est plus précise mais plus contraignante et bien adaptée dans le cas ou l'optique 100 n'est pas interchangeable .
Le calibrage peut alternativement être effectué par le constructeur de l'appareil de capture d'image 1, ce pour chaque type et configuration d'appareil dans le cas 2. Cette méthode est moins précise mais plus simple.
Le calibrage peut alternativement être effectué par le constructeur de l'appareil de capture d'image 1, ce pour chaque optique 100 et type d'appareil dans la cas 3. Cette méthode est un compromis permettant d'utiliser une optique 100 sur tous les appareils de capture d'image 1 d'un type sans refaire le calibrage pour chaque combinaison d'appareil de capture d'image 1 et d'optique 100.
Le calibrage peut alternativement être effectué par le revendeur ou installateur de l'appareil, ce pour chaque appareil de capture d' image 1 et configuration dans le cas 1. Le calibrage peut alternativement être effectué par le revendeur ou installateur de l'appareil, ce pour chaque optique 100 et type d'appareil dans le cas 3.
Le calibrage peut alternativement être effectué par l'utilisateur de l'appareil, ce pour chaque appareil et configuration dans le cas 1.
Le calibrage peut alternativement être effectué par l'utilisateur de l'appareil, ce pour chaque optique 100 et type d'appareil dans le cas 3.
Conception d'optique numérique
On appelle conception d'optique numérique, un procédé pour diminuer le coût de l'optique 100, consistant à : - concevoir ou choisir dans un catalogue une optique
100 ayant des défauts, notamment de positionnement des points réels,
- diminuer le nombre de lentilles, et/ou
- simplifier la forme des lentilles, et/ou - utiliser des matériaux, traitements ou procédés de fabrication moins coûteux.
Ledit procédé comprend les étapes suivantes :
- l'étape de choisir une différence (au sens ci-dessus défini) acceptable, - l'étape de choisir une ou plusieurs scènes de référence 9, l'étape de choisir plusieurs caractéristiques utilisées 74.
Ledit procédé comprend en outre l'itération des étapes suivantes :
- l'étape de choisir une formule optique comprenant notamment la forme, le matériau et la disposition des lentilles,
- l'étape de calculer des images 103 à partir des caractéristiques utilisées 74 et notamment des formules de l'optique 100 de la configuration utilisée, en mettant en œuvre, par exemple, un logiciel de calcul d'optique par tracé de rayons, ou en effectuant des mesures sur un prototype,
- l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées 74,
- l'étape de vérifier si la différence est acceptable, jusqu'à ce que la différence soit acceptable.
Informations formatées
On appelle informations formatées 15 associées à l'image 103 ou informations formatées 15, tout ou partie des données suivantes : des données relatives aux caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, notamment les caractéristiques de distorsion, et/ou des données relatives aux caractéristiques techniques de l'appareil de capture d'image 1 au moment de la capture d'image, notamment le temps de pose, et/ou - des données relatives aux préférences dudit utilisateur, notamment la température de couleurs, et/ou - des données relatives aux écarts 14.
Base de données de caractéristiques
On appelle base de données de caractéristiques 22 ou base de données 22, une base de données comprenant, pour un ou plusieurs appareils de capture d' image 1 et pour une ou plusieurs images 103, des informations formatées 15. Ladite base de donnée de caractéristiques 22 peut être stockée de manière centralisée ou répartie, et peut être notamment :
- intégrée dans l'appareil de capture d'image 1,
- intégrée dans l'optique 100, - intégrée sur un dispositif de stockage amovible, - intégrée dans un PC ou autre ordinateur relié aux autres éléments pendant la capture d'image,
- intégrée dans un PC ou autre ordinateur relié aux autres éléments après la capture d'image, - intégrée dans un PC ou autre ordinateur capable de lire un support de stockage commun avec l'appareil de capture d' image 1,
- intégrée dans un serveur distant relié à un PC ou autre ordinateur lui même relié aux autre éléments de la capture d' image .
Champs
On va maintenant définir la notion de champs 90 en se référant à la figure 8. Les informations formatées 15 associées à l'image 103 peuvent être enregistrées sous plusieurs formes et structurées en une ou plusieurs tables mais elles correspondent logiquement à tout ou partie des champs 90, comprenant : (a) la distance focale, (b) la profondeur de champ,
(c) les défauts géométriques.
Lesdits défauts géométriques comprennent les défauts de géométrie de l'image 103 caractérisés par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer la position corrigée d'un point de l'image 103. Lesdits défauts géométriques comprennent en outre le vignetage caractérisé par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer l'intensité corrigée d'un point de l'image 103.
Lesdits défauts géométriques comprennent en outre la dominante colorée caractérisée par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d' image 1 au moment de la prise de vue . Lesdits paramètres et ladite transformation paramétrable permettent de calculer la couleur corrigée d'un point de l'image 103. Lesdits champs 90 comprennent en outre (d) le piqué de l'image 103.
Ledit piqué comprend le flou de résolution de l'image 103 caractérisé par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer la forme corrigée d'un point de l'image 103. Le flou couvre en particulier le coma, l'aberration sphérique, l'astigmatisme, le regroupement en pixels 104, l'aberration chromatique, la profondeur de champ, la diffraction, les réflexions parasites, la courbure de champ.
Ledit piqué comprend en outre le flou de profondeur de champ, notamment les aberrations sphériques, le coma, l'astigmatisme. Ledit flou dépend de la distance des points de la scène 3 par rapport à l'appareil de capture d'image 1 et est caractérisé par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer la forme corrigée d'un point de l'image 103.
Lesdits champs 90 comprennent en outre (e) des paramètres de la méthode de quantification. Lesdits paramètres dépendent de la géométrie et la physique du capteur 101, de l'architecture de l'électronique 102 et d'éventuels logiciels de traitement.
Lesdits paramètres comprennent une fonction représentant les variations de l'intensité d'un pixel 104 en fonction de la longueur d' onde et du flux lumineux provenant de ladite scène 3. Ladite fonction comprend notamment les information de gamma.
Lesdits paramètres comprennent en outre :
- la géométrie dudit capteur 101, notamment la forme, la position relative et le nombre des éléments sensibles dudit capteur 101,
- une fonction représentant la distribution spatiale et temporelle du bruit de l'appareil de capture d'image 1,
- une valeur représentant le temps de pose de la capture d'image.
Lesdits champs 90 comprennent en outre (f) des paramètres des traitements numériques effectués par l'appareil de capture d'image 1, notamment le zoom numérique, la compression. Ces paramètres dépendent du logiciel de traitement de l'appareil de capture d'image 1 et des réglages de 1'utilisateur.
Lesdits champs 90 comprennent en outre : (g) des paramètres représentant les préférences de l'utilisateur, notamment en ce qui concerne le degré de flou, la résolution de l'image 103. (h) les écarts 14.
Calcul des informations formatées
Les informations formatées 15 peuvent être calculées et enregistrées dans la base de données 22 en plusieurs étapes. a) Une étape à l'issue de la conception de l'appareil de capture d'image 1. Cette étape permet d' obtenir des caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, et notamment :
- la distribution spatiale et temporelle du bruit généré par l'électronique 102,
- la loi de conversion flux lumineux en valeur de pixel,
- la géométrie du capteur 101. b) Une étape à l'issue du calibrage ou conception d'optique numérique.
Cette étape permet d'obtenir d'autres caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, et notamment, pour un certain nombre de valeurs de caractéristiques utilisées, la meilleure transformation associée et l'écart 14 associé. c) Une étape de choix des préférences de l'utilisateur à l'aide de boutons, menus ou support amovible ou connexion à un autre dispositif. d) Une étape de capture d' image. Cette étape (d) permet d'obtenir des caractéristiques techniques de l'appareil de capture d'image 1 au moment de la capture d'image, et notamment le temps de pose, déterminé par les réglages manuels ou automatiques effectués.
L' étape (d) permet en outre d' obtenir la distance focale. La distance focale est calculée à partir :
- d'une mesure de la position du groupe de lentilles de focale variable de l'optique 100 de la configuration utilisée, ou
- d'une consigne donnée au moteur de positionnement, ou
- d'une donnée constructeur si la focale est fixe. Ladite distance focale peut enfin être déterminée par l'analyse du contenu de l'image 103.
L'étape (d) permet en outre d'obtenir la profondeur de champ. La profondeur de champ est calculée à partir : - d'une mesure de la position du groupe de lentilles de focalisation de l'optique 100 de la configuration utilisée, ou
- d'une consigne donnée au moteur de positionnement, ou
- d'une donnée constructeur si la profondeur de champ est fixe.
L'étape (d) permet en outre d'obtenir les défauts de géométrie et de piqué. Les défauts de géométrie et de piqué correspondent à une transformation calculée à l'aide d'une combinaison des transformations de la base de données de caractéristiques 22 obtenues à l'issue de l'étape (b) . Cette combinaison est choisie pour représenter les valeurs de paramètres correspondant aux caractéristiques utilisées 74, notamment la distance focale.
L'étape (d) permet en outre d'obtenir les paramètres de traitement numériques effectués par l'appareil de capture d' image 1. Ces paramètres sont déterminés par les réglages manuels ou automatiques effectués . Le calcul des informations formatées 15 selon les étapes (a) à (d) peut être réalisé par :
- un dispositif ou logiciel intégré à l'appareil de capture d'image 1, et/ou
- un logiciel pilote dans un PC ou autre ordinateur, et/ou
- un logiciel dans un PC ou autre ordinateur, et/ou
- une combinaison des trois.
Les transformations ci-dessus mentionnées à l'étape (b) et à l'étape (d) peuvent être stockées sous la forme : - d'une formule mathématique générale,
- d'une formule mathématique pour chaque point,
- d'une formule mathématique pour certains points caractéristiques .
Les formules mathématiques peuvent être décrites par : - une liste de coefficients, - une liste de coefficients et de coordonnées.
Ces différentes méthodes permettent de faire un compromis entre la taille de la mémoire disponible pour stocker les formules et la puissance de calcul disponible pour calculer les images corrigées 71.
En outre, afin de retrouver les données, des identifiants associés aux données sont enregistrés dans la base de données 22. Ces identifiants comprennent notamment :
- un identifiant du type et de la référence de l'appareil de capture d'image 1,
- un identifiant du type et de la référence de l'optique 100 si elle est amovible,
- un identifiant du type et de la référence de tout autre élément amovible ayant un lien avec les informations stockées,
- un identifiant de l'image 103,
- un identifiant de l'information formatée 15.
Image complétée
Comme décrit par la figure 11, on appelle image complétée 120, l'image 103 associée aux informations formatées
15. Cette image complétée 120 peut prendre la forme, de manière préférentielle, d'un fichier. L'image complétée 120 peut également être répartie dans plusieurs fichiers.
L'image complétée 120 peut être calculée par l'appareil de capture d'image 1. Elle peut être également calculée par un dispositif de calcul externe, par exemple un ordinateur.
Logi ci el de traitement d ' image
On appelle logiciel de traitement d' image 4, un logiciel qui prend en entrée une ou plusieurs images complétées 120 et qui effectue des traitements sur ces images. Ces traitements peuvent comprendre, notamment :
- de calculer d'une image corrigée 71,
- d'effectuer des mesures dans le monde réel,
- de combiner plusieurs images,
- d'améliorer la fidélité des images par rapport au monde réel,
- d'améliorer la qualité subjective des images,
- de détecter des objets ou personnes 107 dans une scène 3, d'ajouter des objets ou personnes 107 dans une scène
3,
- de remplacer ou modifier des objets ou personnes 107 dans une scène 3, - de retirer les ombres d'une scène 3,
- d'ajouter des ombres dans une scène 3,
- de rechercher des objets dans une base d'images. Ledit logiciel de traitement d' image peut être :
- intégré à l'appareil de capture d'image 1, - exécuté sur des moyens de calcul 17 reliés à l'appareil de capture d'image 1 par des moyens de transmission 18.
Optique numérique
On appelle optique numérique, la combinaison d'un appareil de capture d'image 1, d'une base de données de caractéristiques 22 et d'un moyen de calcul 17 permettant :
- la capture d'image d'une image 103, - le calcul de l' image complétée,
- le calcul de l' image corrigée 71.
De manière préférentielle, l'utilisateur obtient directement l'image corrigée 71. S'il le souhaite, l'utilisateur peut demander la suppression de la correction automatique. La base de données de caractéristiques 22 peut être : - intégrée dans l'appareil de capture d'image 1,
- intégrée dans un PC ou autre ordinateur relié aux autres éléments pendant la capture d' image,
- intégrée dans un PC ou autre ordinateur relié aux autres éléments après la capture d'image,
- intégrée dans un PC ou autre ordinateur capable de lire un support de stockage commun avec l'appareil de capture d' image 1,
- intégrée dans un serveur distant relié à un PC ou autre ordinateur lui même relié aux autre éléments de la capture d' image.
Le moyen de calcul 17 peut être :
- intégré sur un composant avec le capteur 101,
- intégré sur un composant avec une partie de l'électronique 102,
- intégré dans l'appareil de capture d'image 1,
- intégré dans un PC ou autre ordinateur relié aux autres éléments pendant la capture d'image,
- intégré dans un PC ou autre ordinateur relié aux autres éléments après la capture d'image,
- intégré dans un PC ou autre ordinateur capable de lire un support de stockage commun avec l'appareil de capture d'image 1,
- intégré dans un serveur distant relié à un PC ou autre ordinateur lui même relié aux autres éléments de la capture d' image .
Traitement de la chaîne complète
Dans les précédents paragraphes, on a essentiellement précisé les concepts et la description du procédé et du système selon l' invention pour fournir à des logiciels de traitement d'images 4 des informations formatées 15 liées aux caractéristiques des appareils de capture d' image 1. Dans les paragraphes qui suivent, on va élargir la définition des concepts et compléter la description du procédé et du système selon l'invention pour fournir à des logiciels de traitement d' images 4 des informations formatées 15 liées aux caractéristiques des moyens de restitution d'image 19. On aura ainsi exposé le traitement d'une chaîne complète.
Le traitement de la chaîne complète permet :
- d'améliorer la qualité de l'image 103 d'un bout à l'autre de la chaîne, pour obtenir une image restituée 191 corrigeant les défauts de l'appareil de capture d'image 1 et du moyen de restitution d'image 19, et/ou
- d'utiliser des optiques de moindre qualité et de moindre coût dans un projecteur vidéo en combinaison avec un logiciel d' amélioration de la qualité des images .
Définitions liées aux moyens de restitution d'image.
En s' appuyant sur les figures 2 et 6, on va maintenant décrire la prise en compte dans les informations formatées 15 des caractéristiques d'un moyen de restitution d'images 19 tel qu'une imprimante, un écran de visualisation ou un projecteur.
Les compléments ou modifications à apporter aux définitions dans le cas d'un moyen de restitution d'image 19 peuvent être extrapolées mutatis mutandis par un homme de métier à partir des définitions fournies dans le cas d'un appareil de capture d'image 1. Toutefois, afin d'illustrer cette méthode, on va maintenant décrire en se référant notamment à la figure 6 les principaux compléments ou modifications.
On désigne par caractéristiques de restitution utilisées 95 les caractéristiques intrinsèques des moyens de restitution d'image 19, les caractéristiques du moyen de restitution d'image 19 au moment de la restitution d'image, et les préférences de l'utilisateur au moment de la restitution des images. Notamment dans le cas d'un projecteur, les caractéristiques de restitution utilisées 95 comprennent la forme et la position de l'écran utilisé.
On désigne par modèle de transformation paramétrable de restitution 97 (ou de manière condensée, transformation paramétrable de restitution 97) une transformation mathématique similaire au modèle de transformation paramétrable 12.
On désigne par image corrigée de restitution 94 l'image obtenue par application de la transformation paramétrable de restitution 97 à l'image 103. On désigne par projection mathématique de restitution
96 une projection mathématique qui associe à une image corrigée de restitution 94, une image mathématique de restitution 92 sur la surface mathématique de restitution géométriquement associée à la surface du support de restitution 190. Les points mathématiques de restitution de la surface mathématique de restitution ont une forme, position, couleur et intensité calculées à partir de l'image corrigée de restitution 94.
On désigne par projection réelle de restitution 90 une projection associant à une image 103 une image restituée 191. Les valeurs de pixels de l'image 103 sont converties par l'électronique des moyens de restitution 19 en un signal qui pilote le modulateur des moyens de restitution 19. On obtient des points réels de restitution sur le support de restitution 190. Lesdits points réels de restitution sont dotés d'une forme, couleur, intensité et position. Le phénomène de regroupement en pixels 104 précédemment décrit dans le cas d'un appareil de capture d' image 1 ne se produit pas dans le cas d' un moyen de restitution d'image. En revanche, un phénomène inverse se produit qui fait notamment apparaître des droites comme des marches d'escalier.
On désigne par différence de restitution 93 la différence entre l'image restituée 191 et l'image mathématique de restitution 92. Cette différence de restitution 93 est obtenue mutatis mutandis comme la différence 73. On désigne par référence de restitution une image 103 dont les valeurs des pixels 104 sont connues.
On désigne par meilleure transformation de restitution pour une référence de restitution et des caractéristiques utilisées de restitution 95, celle qui permet de transformer l'image 103 en une image corrigée de restitution 94 telle que sa projection mathématique de restitution 92, présente la plus faible différence de restitution 93 avec l'image restituée 191.
Les procédés de calibrage de restitution et de conception d'optique numérique de restitution sont comparables aux procédés de calibrage et de conception d'optique numérique dans le cas d'un appareil de capture d'image 1. Certaines étapes comportent cependant des différences, et notamment les étapes suivantes : - l'étape de choisir une référence de restitution ; l'étape d'effectuer la restitution de ladite référence de restitution ;
- l'étape de calculer la meilleure transformation de restitution. Les informations formatées 15 liées à un appareil de capture d'image 1 et celles liées à un moyen de restitution d'image 19 peuvent être mises bout à bout pour une même image.
On a précédemment décrit la notion de champ dans le cas d'un appareil de capture d'image 1. Cette notion s'applique également mutatis mutandis dans le cas de moyens de restitution d'image 19. Toutefois, aux paramètres de la méthode de quantification on substitue les paramètres de la méthode de reconstitution du signal, à savoir : la géométrie du support de restitution 190 et sa position, une fonction représentant la distribution spatiale et temporelle du bruit du moyen de restitution d'images 19.
Généralisation des concepts Les traits techniques composant l'invention et figurant dans les revendications ont été définis, décrits, illustrés en se référant essentiellement à des appareils de capture d'image de type numérique, c'est-à-dire produisant des images numériques. On conçoit aisément que les mêmes traits techniques s'appliquent dans le cas d'appareils de capture d'image qui seraient la combinaison d'un appareil argentique (un appareil photographique ou cinématographique utilisant des pellicules sensibles argentiques, négatives ou inversibles) et d'un scanner produisant une image numérique à partir des pellicules sensibles développées. Certes, il y a lieu dans ce cas d' adapter au moins certaines des définitions utilisées . Ces adaptations sont à la portée de l'homme de métier. Afin de mettre en évidence le caractère évident de telles adaptations, on se bornera à mentionner que les notions de pixel et de valeur de pixel illustrées en se référant à la figure 3 doivent, dans le cas de la combinaison d'un appareil argentique et d'un scanner, s'appliquer à une zone élémentaire de la surface de la pellicule après que celle-ci ait été numérisée au moyen du scanner. De telles transpositions des définitions vont de soi et peuvent être étendues à la notion de configuration utilisée. A la liste des sous-ensembles amovibles de l'appareil de capture d'image 1 composant la configuration utilisée, on peut par exemple ajouter le type de pellicule photographique effectivement utilisée dans l'appareil argentique.
Modi fi cati on automati que de l a qual i té d' une image
En se reportant aux figures 17, 13a, 13b et 13c, on va décrire un exemple de réalisation du procédé et système de modification automatique de la qualité d'une image P2 provenant ou destinée à une chaîne d'appareils P3, appelée également chaîne d'appareils déterminée, selon l'invention.
Dans l'exemple de réalisation, le système selon l'invention comprend des moyens de traitement informatiques P76 pour réaliser, pour l'image P2, les étapes suivantes du procédé selon l'invention: l'étape de répertorier des sources P50 d'informations formatées 15 relatives aux appareils de l'ensemble d'appareils P75, ces sources P50 peuvent être notamment le cas échéant le fichier image P58 contenant l'image P2, les appareils, une base de donnée 22 locale et/ou distante, des moyens de chargement P53 de l'image P2 ou de l'image modifiée, par exemple un logiciel selon le standard Twain utilisé pour un scanner ; les sources ainsi répertoriées sont appelées base de donnée 22,
- l'étape de rechercher de manière automatique parmi lesdites informations formatées 15 ainsi répertoriées, des informations formatées spécifiques P51 relatives à ladite chaîne d'appareils P3 déterminée ; une source pouvant être utilisée pour mettre à jour la base de donnée 22, par exemple via Internet, dans le cas où la recherche des informations formatées spécifiques P51 n'aboutit pas pour un des appareils, l'étape de calculer les informations formatées inconnues, par exemple en mesurant les défauts de l'appareil-, ou en simulant l'appareil ou en calibrant l'appareil selon le procédé décrit plus haut,
- l'étape de modifier de manière automatique ladite image P2 au moyen de logiciels de traitement d'images P64 et/ou de composants de traitement d' images P65 en tenant compte desdites informations formatées spécifiques P51 ainsi obtenues.
A titre d'exemple, le procédé et système selon l'invention sera décrit en application de la restitution d'une image d'un appareil de capture d'image que ce soit un appareil photographique, un appareil de prise de vues vidéos, un appareil d' échographie, etc. Dans ces conditions, la restitution d'une image d'un tel appareil pourra faire intervenir les caractéristiques de l'appareil de prise de vue (optique notamment) , le capteur ou surface photosensible (CCD, film photosensible, etc.), le scanner, le logiciel de traitement, la chaîne de transmission de l'information entre les différents appareils, l'imprimante. Comme on le verra ultérieurement, la chaîne de l'image pourra faire intervenir d'autres éléments ayant leurs caractéristiques particulières.
Chaque appareil est caractérisé par un identifiant 60 qui permet d'identifier le type d'appareil et donc d'accéder à des caractéristiques connues liées à ce type d'appareil et indirectement d'obtenir des index P52 dont l'utilisation sera décrite ultérieurement.
Certains appareils peuvent faire l'objet de réglages de fonctionnement particuliers, c'est ainsi qu'un appareil de capture peut être réglé en fonction des conditions de prise de vue ou une imprimante faire l'objet d'un agrandissement, etc. Ces fonctionnements particuliers donnent lieu à des caractéristiques variables P55 qui pourront être mises en œuvre dans le cadre de l'invention. De plus, il peut s'agir de caractéristiques variables P55 qui peuvent avoir une influence sur les caractéristiques fixes (ou caractéristiques d'origine) de l'appareil ou de la chaîne d'appareils P3.
La figure 13a, représente un diagramme d'un exemple de réalisation du système de l'invention.
Dans la partie supérieure de ce diagramme, on a représenté des appareils ou des dispositions, qu'on appellera appareils périphériques, qui fournissent des informations, images et données au système. Il s'agit de : une image 1 à traiter qui contient évidemment des informations d'image 61 mais qui peut comporter aussi des données 62 concernant des caractéristiques du support de prise de vue et des caractéristiques informant des conditions de capture d'image ou de manipulations ultérieures de l'image (la focale utilisée par exemple, ou le redimensionnement de l'image) . Ces caractéristiques seront considérées dans la suite de la description comme des caractéristiques variables 66. Les caractéristiques variables peuvent aussi être contenues dans l'image elle-même ou être calculées à partir de l'image. un appareil de capture d' image APP1 qui possède ses caractéristiques propres et qui peut contenir des caractéristiques variables 66. Les caractéristiques propres sont liées au type d'appareil ou à chaque appareil et peuvent être connues en connaissant l'appareil et ses caractéristiques d'origine. Notamment, elles peuvent être connues à partir de son identifiant 60 qui peut être, par exemple, un code à barres sur l'appareil ou sur un film, et auquel le système va faire correspondre ces caractéristiques propres. L'identifiant 60 peut être obtenu de diverses manières à partir de l'image, des données 62, et/ou en interrogeant le logiciel de gestion de l'appareil, ou l'appareil lui-même, ou l'utilisateur, qui sont symbolisés par LOG/MAT/IMPR sur la figure 13a. Les caractéristiques variables 66 sont généralement liées aux conditions de capture d' image et peuvent être celles mentionnées précédemment et qui peuvent être contenues dans l'image, ou dans l'appareil de capture d'image ou dans les deux à la fois : - des périphériques APP2 à APPn comportant notamment un périphérique APP2 tel qu'une imprimante ou un scanner ayant des caractéristiques liées au type d'appareil et traduisant notamment leurs défauts, ainsi que des caractéristiques variables 66 liées au mode d'utilisation, par exemple, le rapport de grandissement pour une imprimante. Un périphérique tel que APPn peut être également un pseudo-périphérique et se présenter sous la forme d'un fichier représentant des appareils ou des fonctionnalités et contenant les caractéristiques correspondant à ces appareils ou ces fonctionnalités : -appareil de capture d'image,
-appareil de restitution d'image,
-appareil de capture d'images différent de l'appareil APP1 en vue de simuler des photos prises par cet appareil que l'on peut désigner sous le terme de « look like » en terminologie anglo-saxonne, -simulation d'un appareil de capture d'images différent de l'appareil APP1 pour tenir lieu de l'appareil ci- dessus et qui par analogie avec le cas précédent peut être désigné sous l'appellation « look like » virtuel, -caractéristiques permettant de modifier la qualité d'une image en tenant compte de défauts de vision de l'œil de l'utilisateur, ou induire des effets spéciaux,
-caractéristiques permettant de corriger ou modifier des défauts de logiciel, par exemple un flou induit par un zoom numérique,
-un logiciel effectuant un traitement sur l'image et introduisant des défauts ou présentant des caractéristiques variables 66, par exemple un recodage ou un zoom,
-caractéristiques d'installation, notamment pour un projecteur liées à l'erreur d' orthofrontalité ou de planéité de l'écran, pouvant être mesurées par exemple par une caméra,
- une combinaison de plusieurs appareils tels que décrits ci-dessus .
Ces différents dispositifs APPl à APPn ainsi que l'image 1 constituent une chaîne d'appareils P3. Le traitement d'une image, outre ses propres défauts, fera intervenir les défauts des différents appareils qui auront tous une action sur l'image. L'ensemble de ces dispositifs sera appelé chaîne d' appareils P3. Le rôle du système est de corriger ou modifier les défauts insérés par chaque dispositif de la chaîne dans le traitement de l'image.
Parmi les caractéristiques variables 66 qu'il convient de prendre en compte, citons par exemple :
- la focale de l'optique, - le redimensionnement appliqué à l'image (facteur de zoom numérique : grossissement d'une partie de l'image ; et/ou le sous-échantillonnage : diminution du nombre de pixels de l'image) ,
- la correction non linéaire de luminance, par exemple la correction de gamma, - le rehaussement de contour, par exemple le niveau de déflouage appliqué par l'appareil,
- le bruit du capteur et de l'électronique,
- l'ouverture de l'optique, - la distance de mise au point,
- le numéro de la vue sur un film,
- la sur ou sous exposition,
- la sensibilité du film ou du capteur,
- le type de papier utilisé dans une imprimante, - la position du centre du capteur dans l'image,
- la rotation de l'image par rapport au capteur,
- la position d'un projecteur par rapport à l'écran,
- la balance des blancs utilisée,
- l'activation du flash et/ou sa puissance, - le temps de pose,
- le gain du capteur,
- la compression,
- le contraste,
- un autre réglage appliqué par l'utilisateur de l'appareil, par exemple un mode de fonctionnement,
- un autre réglage automatique de l'appareil,
- une autre mesure réalisée par l'appareil.
Le système possède des interfaces de réception C.VAR1, C.VAR2, ... C.VARn destinées à recevoir les caractéristiques variables 66 expliquées précédemment. Les caractéristiques provenant de l'image peuvent être transmises par l'image elle-même ou, comme cela a été mentionné précédemment, par des données associées à l'image. On rappelle que les caractéristiques variables 66 de l'image peuvent également être transmises par l'appareil de capture.
Des interfaces IDl, ID2, ... IDn sont destinées à recevoir les identifiants 60 des différents périphériques APPl à APPn.
La notion de périphérique peut selon le cas correspondre à un ou plusieurs appareils du même type ou non. Les exemples suivants correspondent à plusieurs de ces cas, avec pour chaque exemple, une implémentation possible de l'identifiant 60 sous la forme d'un codage et d'un contenu :
-à un périphérique donné (par exemple, codage IA1 : nom du fabricant, type de périphérique, numéro de série du périphérique) ,
- à un type de périphérique donné (par exemple, codage IA2 : nom du fabricant, type de périphérique) ,
-à une configuration donnée (par exemple, codage IA3 : nom du fabricant, type de périphérique, type d'objectif interchangeable monté) ,
-à une catégorie de périphérique (par exemple codage IA4 adapté aux appareils photo jetables: nom du fabricant, type d'appareil, numéro de vue), -à un fabricant (par exemple codage IA5 pour un fabricant) ,
-à plusieurs périphériques d'une chaîne (par exemple codage IA6 dans un équipement d'impression photographique, on importe des informations formatées relatives à un appareil jetable, on les combine avec celles du scanner et de l'imprimante pour les stocker dans une base locale relative à la chaîne, il faut des identifiant 60 adaptés) ,
-à un algorithme par exemple de zoom (par exemple codage IA7 : nom de l'algorithme, implémentation, champ disant si l'on se réfère à une modification de la qualité de l'image avant ou après l'algorithme),
-à un être humain dont on veut corriger ou modifier les défauts de vision (par exemple codage IA8 : nom de la personne ou numéro, pays) , -à un périphérique auquel on veut ressembler et dont il faut ajouter et non pas supprimer les défauts (par exemple codage IA9 : nom du fabricant, type d'appareil),
-à une version de périphérique donnée (par exemple, codage IA10 : nom du fabricant, type de périphérique, version du logiciel du périphérique) , -à un protocole (par exemple codage IA11 : données issues du protocole Twain) , à un périphérique générique (par exemple codage LAI2 : liste de source de données, identifiant de champ; valeur des champs ) .
Le système peut alors analyser les périphériques ou appareils de la chaîne d'appareils P3, et déterminer les identifiant 60, de diverses manières selon le cas, afin de pouvoir interroger la base de données. Une base données contient pour chaque type d'appareil au moins une information formatée représentant les défauts et les caractéristiques de cet appareil. Les informations formatées 15 peuvent être liées aux défauts P5 de l'appareil de diverses façons. Elles peuvent représenter les défauts de l'appareil. Elles peuvent représenter l'inverse des défauts de l'appareil. Elles peuvent ne représenter qu'une approximation des défauts. Elles peuvent représenter l'écart de défauts entre deux appareils. Chaque identifiant 60 fourni par une interface telle que l'interface ID1 permet d'obtenir une information formatée telle que 15.1 qui est reçue temporairement dans un circuit 20.1. Des circuits 20.1, 20.2, ... 20.n permettent de recevoir des informations formatées relatives aux appareils APPl, APP2, ... APPn.
La base de données peut être intégrée au système ou déportée au moins en partie à distance.
Elle peut dans ce cas être gérée par un tiers au moins partiellement.
Dans le cas, par exemple, d'un appareil photo numérique qui corrige ou modifie ses propres défauts, elle peut être réduite à un enregistrement.
Des opérateurs de traitement d'informations formatées
21.1, 21.2, ... 21.n sont destinés à recevoir d'une part des valeurs de caractéristiques variables 66 fournies par les interfaces C.VAR1 à C.VARn et les informations formatées fournies par les circuits 20.1 à 20.N de façon que chaque opérateur traite une fraction des informations formatées à l'aide d'une ou plusieurs caractéristiques variables 66 et fournisse une information formatée modifiée à un circuit intermédiaire 22.1 à 22.n. Par exemple, l'opérateur 21.1 reçoit l'information formatée 15.1 dépendant de la focale, la traite à l'aide de la valeur de la caractéristique variable 66 (la valeur de la focale) fournie par l'interface C.VAR1 et fournit une information formatée modifiée 15.1' ne dépendant pas de la focale. C'est ainsi que la figure 16.1 représente un appareil possédant des caractéristiques faisant apparaître des défauts 704 qui donnent lieu à des informations formatées 15 comme on l'a vu précédemment. Des caractéristiques variables 66 représentant par exemple une focale variable 705 donnent lieu également à des informations formatées (voir figure 16.2) . Des opérateurs de traitement d'image 23.1, 23.2, ...23.n sont destinés chacun à recevoir chacun une information formatée modifiée. Le premier opérateur 23.1 reçoit une image à traiter, la traite à l'aide de l'information formatée modifiée 15.1' et fournit une image modifiée. Celle-ci est reçue par l'opérateur suivant 23.2 qui la traite à l'aide de l'information formatée modifiée 15.2' et fournit une nouvelle image modifiée, et ainsi de suite jusqu au dernier opérateur 23. n qui fournit une image modifiée finale.
Eventuellement, si un opérateur de traitement d'image ne reçoit pas d'information formatée modifiée, l'image reçue par cet opérateur n'est pas modifiée et est retransmise telle quelle à l'opérateur suivant ou vers la sortie, ou on peut par exemple utiliser des informations formatées par défaut.
Enfin, une unité centrale de commande 25 permet de gérer l'ensemble du fonctionnement du système et notamment l'échange des informations et données entre les différents éléments du système.
Dans ces conditions, l'unité centrale de commande 25 aura la charge de rechercher de manière automatique, dans la base de données 22, des informations formatées dont les adresses sont données par les interfaces ID1, ID2, ... IDn. L'unité centrale 25 gère la recherche de ces informations et déclenche le fonctionnement des opérateurs 21.1 à 21.n de traitement des informations formatées puis des opérateurs de traitement d' image 23.1 à 23.n. Les opérateurs peuvent éventuellement sur situer sur différents systèmes distants reliés entre eux.
La figure 13b représente une variante du système selon l'invention. Dans cette variante, les informations formatées modifiées sont combinées en une seule information formatée et modifient la qualité de l'image à traiter. Pour cela, un opérateur 23. t remplace les opérateurs 23.1 à 23.n. Cet opérateur reçoit les différentes informations formatées modifiées, les combine et permet de modifier la qualité de l'image à traiter pour fournir une image modifiée. Par ailleurs selon une variante de réalisation applicable également au système de la figure 13a, il est prévu, comme cela est indiqué dans la figure 13c, de combiner les caractéristiques variables 66 d'un appareil et son identifiant 60 pour accéder directement dans la base de données 22, à une information formatée modifiée. Par exemple, les caractéristiques variables 66 fournies par C.VARl sont combinées à un identifiant ID1 pour former une information formatée modifiée 15.1 transmise à 22.1. Il est bien évident que sur la figure 13c, cette disposition n'a été prévue que pour l'information formatée modifiée 15.1' mais qu'elle pourrait être appliquée à tout ou partie des autres informations formatées. Le système fournit en sortie de l'opérateur 23.n pour la figure 13a et 23. et pour les figures 13b et 13c, une image modifiée. La figure 16.5 illustre le cas où à une image modifiée 61c on adjoint des informations associées 62c qui peuvent être :
- une signature numérique de l'image,
- des données de correction, c'est-à-dire les informations formatées modifiées ou leurs équivalents ou simplement un indicateur, indiquant ainsi que l'image a été corrigée ou modifiée, - les données 62 ou informations associées P63 à l'image 1 d'origine, éventuellement modifiées ou mises à jour pour refléter les traitement apportés à l'image, par exemple des données au format Exif ou PIM, - ou les deux types de données.
Les exemples de réalisation des figures 13a à 13c peuvent être appliqués à l'ensemble des défauts ou à chaque défaut.
Par exemple, on peut corriger la distorsion et le flou de l'appareil APPl, puis la distorsion et le flou de APP2, etc
Selon un autre exemple, on peut également corriger distorsion de APPl, puis distorsion de APP2 etc...., puis flou de APPl, puis flou de APP etc En généralisant dans le cas de plusieurs défauts et plusieurs appareils, on peut combiner les deux approches de réalisations .
En se reportant à la figure 14a, on va maintenant décrire un exemple de réalisation simplifiée des procédés de l'invention. Cet exemple de réalisation est appliqué à un appareil de capture d'image. On suppose que le procédé ne doit modifier que les défauts dus à un seul appareil, par exemple à l'appareil de capture d'image et aux réglages de cet appareil . L'image est mise à disposition pour être traitée sous forme numérisée par un dispositif de numérisation 400.1, un appareil de capture numérique 400.2 (appareil de photos numériques, ou scanner, ou autre), un compact disque 400.3 par exemple . A l'étape 401 du procédé, on dispose d'une image numérisée. Par ailleurs, on connaît les caractéristiques de l'appareil de capture d'image, voire le type de cet appareil par tout moyen d'identification, par exemple un code à barres.
A l'étape 402 du procédé on procède à la saisie ou au calcul de l'identifiant 60 de l'appareil. A l'étape 403, l'identifiant 60 permet d'accéder, à l'aide d'index P52 par exemple, dans la base de données 22 à des caractéristiques de l'appareil de capture d'image. En effet, comme mentionné précédemment, on dispose d'une base de données dans laquelle, en principe, pour chaque appareil connu ont été enregistrées les caractéristiques des appareils. Dans le cadre de 1 ' invention, ces caractéristiques représentent des défauts à modifier. A l'étape 403, la base de données 22 est donc appelée. Dans une variante de réalisation, l'appel à la base de donnée peut en outre tenir compte de certaines caractéristiques variables 66 obtenues lors de l'étape 405, pour obtenir directement des informations formatées pertinentes pour les valeurs de caractéristiques variables 66 ainsi obtenues.
A l'étape 404, à une adresse obtenue à partir de l'identifiant 60, on lit dans la base de données 22 une information formatée 15 qui représente les caractéristiques (défauts) de l'appareil correspondant.
Par ailleurs, avec l'image à traiter, à partir d'une mémoire de l'appareil, d'un logiciel lié à l'appareil, ou à partir d'informations associées à l'image, le système dispose éventuellement des caractéristiques variables 66 (les conditions de prise de vue notamment) .
A l'étape 405, ces caractéristiques sont donc disponibles . Ensuite (étape 406) , les informations formatées
15.1 à 15.n sont combinées avec les caractéristiques variables 66 pour fournir des informations formatées modifiées 15.1' à 15.n'. Ces informations formatées modifiées contiennent maintenant toutes les informations permettant de modifier la qualité de l'image.
Selon une variante de cette étape 406, les caractéristiques variables 66, et notamment leurs valeurs pour l'image à traiter, étant déterminées, elles servent à déterminer dans les informations formatées une fraction de ces informations formatées qui tiennent compte de ces caractéristiques variables 66.
A l'étape 407, ces informations formatées modifiées sont appliquées à l'image pour la traiter et la corriger ou modifier. Ce traitement se fera à l'aide d'opérateurs assistés par un logiciel de traitement d'image.
On obtient ainsi à l'étape 408, une image modifiée. Il est bien évident que le procédé qui précède peut fonctionner en utilisant uniquement les caractéristiques inhérentes à l'appareil sans utiliser les caractéristiques variables 66. Dans ce cas les informations formatées lues en base de données sont utilisées directement pour traiter l'image.
En ce reportant à la figure 14b, on va maintenant décrire un autre exemple de réalisation de l'invention. Dans ce procédé et système, on considère qu'il convient de prendre en compte les divers défauts de plusieurs appareils, voire de tous les appareils, qui interviennent dans le traitement d'une image . Comme dans l'exemple de la figure 14a, le procédé prévoit la saisie par le système de l'image numérisée, des identifiants 60 des appareils et des caractéristiques variables 66.
Au cours de l'étape 501, l'identifiant 60 d'un appareil est pris en compte et permet d'adresser la base de données 22 (étape 502) pour obtenir une ou plusieurs informations formatées correspondant à cet identifiant 60.
Egalement, les caractéristiques variables 66 liées à cet appareil sont recherchées (étape 504) . Au cours de l'étape 505, les informations formatées ou certaines informations formatées sont modifiées en fonction des caractéristiques variables 66. Comme dans le procédé décrit en relation avec la figure 14b, après avoir déterminé les caractéristiques variables 66, celles-ci permettent de déterminer parmi les informations formatées celles qui sont utiles et qui prennent en compte les caractéristiques variables 66. Les informations formatées ainsi déterminées sont gardées en mémoire.
Puis (étape 506) , on teste pour savoir si un autre appareil doit être pris en compte pour la modification de la qualité de 1 ' image . Sur le diagramme de la figure 4b, ce test est représenté sous la forme de la question "APP = APPn ?" qui signifie "l'appareil pris en compte est-il le dernier des appareils de la chaîne ?". Si la réponse est négative le processus reprend à l'étape 501 avec l'appareil suivant. Si la réponse est positive, on a alors, à l'issue de l'étape 505, en mémoire, toutes les informations formatées relatives aux différents appareils.
L'image est alors traitée au cours de l'étape 507 par les informations formatées relatives au premier appareil et donne lieu à une première image traitée. Le système prend ensuite en compte les informations formatées relatives à l'appareil suivant et traite l'image traitée précédente et cela jusqu'à avoir traité toutes les informations formatées, c'est-à- dire en principe lorsque toutes les informations relatives aux différents appareils de la chaîne ont été prises en compte. Le test "APP = APPn ?" répond alors positivement. On obtient et délivre une image modifiée.
On notera que le procédé de l'invention peut être réalisé en ne faisant qu'un seul test "APP = APPn ?". On pourrait ne faire que le test de l'étape 508 ce qui reviendrait quasiment au même.
Selon une variante du procédé selon l'invention, représentée en figure 14c on prévoit, lorsque toutes les informations formatées de tous les appareils ont été obtenues, c'est-à-dire à l'issue de l'étape 506, de combiner, au cours d'une étape 510, les différentes informations formatées. De cette façon, lors de l'étape 507 on effectue en une seule fois le traitement de l'image. Comme on l'a vu précédemment, pour être traitée, une image peut nécessiter une pluralité d'appareils qui peuvent comprendre l'appareil de capture d'image, un scanner, une imprimante, des systèmes de transmission, etc. Chaque appareil est susceptible d'induire des défauts dans la chaîne de traitement. Il y a également les dispositions supplémentaires qu'on a appelées précédemment "pseudo-périphériques" et qui ont pour mission d'apporter des modifications à l'image selon un style ou en application de défauts qui correspondent à ces pseudo-périphériques .
Une variante du procédé de l'invention est de considérer que l'ensemble des appareils d'une chaîne d'appareils P3 nécessaires au traitement d'une image constitue un seul appareil qu'on appellera appareil virtuel 708 et dont les défauts correspondent à l'équivalent de tout ou partie des défauts des différents appareils de la chaîne. C'est ainsi que des appareils, tels qu'un appareil de capture d'image 706 (figure 16.4) et une imprimante 707 peuvent être représentés par un appareil virtuel 708 auquel correspondent des informations formatées virtuelles 709. Si on considère qu'une information formatée peut être une expression mathématique de caractéristiques physiques, une information formatée d'un appareil virtuel 708 correspondant à deux appareils peut être la somme de deux vecteurs correspondant aux caractéristiques de ces deux appareils et/ou la convolution de deux fonctions mathématiques. On détermine donc un appareil virtuel 708 sur la figure 16.4 présentant des défauts équivalents à une partie au moins des défauts d'origine de la chaîne. On détermine les informations formatées virtuelles 709 correspondant à cet appareil virtuel. Et on enregistre les informations formatées virtuelles obtenues ou bien, on substitue ces informations formatées virtuelles aux informations formatées relatives aux défauts d'origine. Les informations formatées virtuelles sont accessibles en base de données directement à l'aide d'un identifiant 60 correspondant à la chaîne d'appareils P3 représentée par l'appareil virtuel. L'exécution du procédé peut alors être plus simple et plus rapide à mettre en œuvre. Un exemple d'organisation du procédé permettant d'obtenir des informations formatées virtuelles peut être mis en œuvre selon l'organigramme de la figure 15. Les caractéristiques de deux appareils sont prises en compte (étapes 510 et 511) . A l'étape 512, ces caractéristiques sont combinées. A l'étape 513, on calcule les informations formatées virtuelles correspondantes. A l'étape 514, on regarde si un autre appareil doit entrer dans la chaîne d'appareils virtuelle. Si oui, on recommence le processus. Si non le processus est terminé. Dans l'exemple d'un laboratoire de développement intégré, la chaîne d'appareils P3 comprend un scanner, un appareil photos et une imprimante. L'appareil virtuel équivalent présente les défauts des trois appareils et le temps de modification de la qualité de l'image peut être divisé sensiblement par trois.
Dans le cas d'un appareil à caractéristiques variables 66, il est possible de déterminer les informations formatées liées aux défauts présentant ladite caractéristique variable 66 de la façon suivante. Dans l'exemple où les caractéristiques variables 66 sont la focale et l'ouverture sélectionne des combinaisons : -focale = 35 mm, ouverture = f/2, -focale = 35 mm, ouverture = f/8, -focale = 100 mm, ouverture = f/8, -etc....
Pour chaque combinaison, on détermine, selon le procédé décrit précédemment, les informations formatées correspondantes .
On déduit par exemple par interpolations des informations formatées, fonction de la focale et de l'ouverture de telle sorte que la base de données contienne les informations formatées nécessaires à l'étape 404.
On voit donc, comme on l'a vu précédemment lors de la description de la figure 13a, qu'on dispose d'une information formatée dépendant d'une caractéristique variable 66 telle que la focale. Cette information formatée est traitée à l'aide de la caractéristique variable 66 pour obtenir une information formatée modifiée.
Dans la description qui précède, on a considéré que l'image à traiter était une image provenant d'un appareil de capture d'image qu'on voulait visualiser ou imprimer. L'invention est également applicable à toute chaîne de traitement d' image et donc également à une chaîne permettant de projeter une image. On va donc considérer une chaîne de restitution d'image. Comme dans les exemples précédents de réalisation du procédé de l'invention on doit obtenir les caractéristiques des différents appareils de la chaîne de restitution d'image. Ces caractéristiques permettent d'obtenir des informations formatées pour appliquer le procédé de 1 ' invention.
On va maintenant décrire des éléments de détails ou des variantes de l'invention.
Tout d'abord, à l'occasion de la description de la figure 13a, on a mentionné que des caractéristiques fournies permettant d'obtenir des informations formatées pouvaient être des caractéristiques destinées à corriger des défauts de vision (astigmatisme par exemple) d'un observateur 701 ou à induire des effets spéciaux. Dans ces conditions les informations formatées 702 qui en résultent permettent de modifier la qualité visuelle, graphique, colorimétrique, etc. de l'image comme illustré par la figure 16.3, les informations formatées 702 liées aux défauts de vision de l'observateur 701, par exemple, sont traitées comme des informations formatées de la chaîne d'appareils P3, voire sont associées à ces informations formatées. Dans ce qui précède on a considéré le traitement d'une image ; on peut également considérer que l'image se trouve dans un fichier P57, ainsi que l'identifiant 60 ou un index P52, et éventuellement les caractéristiques variable 66 de l'appareil de capture et de tout appareil qui a pu intervenir dans le traitement de l'image enregistrée dans le fichier; on peut également considérer que l'image se trouve dans un fichier image P58, ainsi qu'une partie des informations formatées. Par extension, l'invention est donc également applicable au cas où l'image ainsi que l'information formatée sont dans la base de données 22.
La détermination de la valeur des caractéristiques variables 66 peut se faire à l'aide d'informations contenues dans le fichier P57 ou le fichier image P58. De préférence ces informations seront enregistrées dans le fichier selon un format normalisé tel que celui de la norme EXIF connue dans la technique. De cette façon le système et le procédé de l'invention sont applicables au traitement d'images prises et/ou déjà traitées à l'aide d'appareils mis sur le marché avant que les informations formatées correspondant à ces appareils n'aient été établies.
Il est bien évident que la modification de la qualité de 1 ' image peut être simplifiée en ne prenant en compte que les défauts d'un nombre limité d'appareils de la chaîne, voire d'un seul, et en ne corrigeant que ces défauts. Par ailleurs, comme cela a été envisagé dans la description de la figure 13a, le procédé de l'invention peut s'appliquer en simulant d'autres appareils que ceux faisant partie de la chaîne d'appareils P3 en cours d'utilisation. Egalement, des informations formatées relatives à un appareil, ou à un type d'appareils, peuvent être applicables à un autre appareil ou à un autre type d'appareil et notamment des appareils similaires. Par exemple, comme cela est représenté en figure 16.6, on a représenté plusieurs lots d'appareils 710.0, 710.1, 710.2. Des informations formatées concernent un type d'appareil 711 mais ces informations formatées peuvent également être applicables à un appareil similaire 712, ce qui permet par exemple de ne produire que les informations formatées relatives à un seul appareil de chaque type.
L'invention est applicable à la modification, notamment l'amélioration, d'images traitées ou fournies par un appareil ou une chaîne d'appareils P3. Une application intéressante sera de ne modifier que des défauts ou une partie des défauts de certains appareils seulement. Une application peut être de modifier un défaut en partie seulement, par exemple, afin d'établir un compromis qualité d'image/temps de calcul .
On prévoit également l'application de l'invention à des machines permettant de traiter des images de façon soit à induire des défauts, soit à donner un style particulier à l'image, soit à simuler la présentation d'un autre appareil, appelé appareil de référence, ou chaîne d'appareils P3 appelée chaîne d'appareils de référence, que ceux utilisés dans le cadre de l'application.
L'invention est applicable à la conception de laboratoires de développement photos intégrés, Elle peut être mise en œuvre sur ordinateur.
Enfin elle peut être mise en œuvre dans des projecteurs et permettre dans ce cas d'effectuer différentes corrections dont la correction de parallaxe courante dans le domaine de la projection. Pour cela une caméra ou un appareil photo peuvent être utilisés pour capturer une mire projetée sur l'écran.
D'autres exemples de chaînes d'appareils peuvent inclure : -caméra informatique (WEBCAM en anglais) ,
-scanner,
-appareil photo numérique, -caméscope, -imprimante, -écran,
-projecteur, -jouets,
-logiciels de traitement d'images, -système de téléconférence, -caméra de surveillance. Les exemples suivants constituent des chaînes d' appareils :
- un seul appareil,
- un appareil de capture d' image et un appareil de restitution d'image,
- un appareil photo, un scanner, une imprimante par exemple dans un Minilab de tirage photo,
- un appareil photo numérique, une imprimante par exemple dans un Minilab de tirage photo, - un scanner, un écran ou une imprimante, par exemple dans un ordinateur,
- un écran ou projecteur et l'œil d'un être humain,
- un appareil et un autre appareil auquel on veut ressembler, - un appareil photo et un scanner,
- un appareil de capture d'image, un logiciel de traitement d' images,
- un logiciel de traitement d'images, un appareil de restitution d'image, - une combinaison des exemples précédents,
- un autre ensemble d'appareils.
Ledit procédé peut être mis en œuvre sous différentes formes :
-système d'exploitation, -extension d'un logiciel de traitement tel que celui connu sous la marque "PHOTO SHOP" par exemple, -logiciels embarqués, -composants électroniques intégrés, -services sur Internet, -ou toute combinaison de ces formes de mise en œuvre etc
Image Couleur On va maintenant décrire, en se référant notamment à la figure 18, la notion d'image couleur P21, de plan couleur P20, de couleur déterminée P22, de donnée relative à une couleur déterminée P23. La variante de réalisation décrite ci-après s'applique au cas où l'image P2 est une image couleur P21. L'image couleur P21 peut être décomposée en plans couleur P20 de diverses façons : nombre de plans (1, 3 ou plus) , précision (8 bits non signé, 16 bit signés, flottant...) et signification des plans (par rapport à un espace de couleur standard) . L' image couleur P21 peut être décomposée de diverses façons en plans couleur P20: rouge, vert, bleu (RVB) ou luminance, saturation, teinte ... ; d' autre part il existe des espaces de couleur tels PIM, ou des valeurs de pixels négatives sont possibles afin de permettre la représentation de couleurs soustractives qu' il n'est pas possible de représenter en RVB positif ; enfin il est possible de coder une valeur de pixel sur 8bits, 16bits, ou en utilisant des valeurs flottantes . Les informations formatées 15 comprennent des données permettant de décomposer l' image P2 en plans couleur P20, compatibles des différents défauts P5 à traiter ; chaque plan couleur P20 étant caractérisé par une couleur déterminée P22 ; lesdites informations formatées 15 comprenant des données relatives à ladite couleur déterminée P23, par exemple des coordonnées dans un espace de couleur standard CIE ou XYZ ou LAB ou sRGB ; lesdites données relatives à ladite couleur déterminée P23 permettant de calculer le plan couleur P20 de l'image 1 et de déterminer la fraction desdites informations formatées 15 qu'il convient de mettre en œuvre pour modifier la qualité dudit plan couleur P20.
Dans le cas d'un appareil compatible du standard PIM, il est possible de choisir par exemple de travailler en couleur positive sur 8 bits en espace X, Y,Z ou de travailler en 16 bits signés en espace RVB.
Informations formatées mesurées, informations formatées étendues Les informations formatées 15 ou une fraction des informations formatées 15 peuvent comprendre des informations formatées mesurées P101, pour représenter une mesure brute, par exemple un champ mathématique lié aux défauts géométriques de distorsion en un certain nombre de points caractéristiques d'une grille 80. Les informations formatées 15 ou une fraction des informations formatées 15 peuvent comprendre des informations formatées étendues P102, qui peuvent être calculées à partir des informations formatées mesurées PI01, par exemple par interpolation pour les autres points réels que les points caractéristiques de la grille 80. Dans ce qui précède, on a vu qu'une information formatée 15 pouvait dépendre de caractéristiques variables 66. On appelle selon l'invention combinaison P120, une combinaison constituée de caractéristiques variables 66 et de valeurs de caractéristiques variables telle que par exemple une combinaison P120 constituée de la focale, de la mise au point, de l'ouverture de diaphragme, de la vitesse de capture, de l'ouverture, etc. et de valeurs associées. Il est difficilement pensable de calculer les informations formatées 15 relatives aux différentes combinaisons P120 d'autant que certaines caractéristiques de la combinaison P120 peuvent varier de façon continue telles que notamment la focale et la distance.
L' invention prévoit de calculer les informations formatées 15 sous la forme d'informations formatées étendues P102 par interpolation à partir d'informations formatées mesurées PI01 relatives à une sélection prédéterminée des combinaisons P120 de caractéristiques variables 66 connues.
Par exemple, on utilise des informations formatées mesurées P101 relatives aux combinaisons P120 « focale=2, distance=7, vitesse de capture=l/100 », la combinaison « focale=10, distance=7, vitesse de capture=l/100 », la combinaison « focale=50, distance=7, vitesse de capture=l/100 » pour calculer des informations formatées étendues P102 dépendantes de la caractéristique variable 66 focale. Ces informations formatées étendues P102 permettent notamment de déterminer des informations formatées relatives à la combinaison « focale=25, distance=7 et vitesse de capture=l/100 ».
Les informations formatées mesurées P101 et les informations formatées étendues P102 peuvent présenter un écart d'interpolation P121. L' 'invention peut comprendre l'étape de sélectionner zéro, une ou plusieurs des caractéristiques variables 66, de telle sorte que l'écart d'interpolation P121, pour les informations formatées étendues Pi02 obtenues pour les caractéristiques variables 66 ainsi sélectionnées, soit inférieur à un seuil d'interpolation prédéterminé. En effet certaines caractéristiques variables 66 peuvent avoir une influence sur le défaut P5 plus faible que d'autres et faire l'approximation qu'elles sont constantes peut n'introduire qu'une erreur minime ; par exemple le réglage de mise au point peut n'avoir qu'une influence faible sur le défaut vignetage et pour cette raison ne pas faire partie des caractéristiques variables 66 sélectionnées. Les caractéristiques variables 66 peuvent être sélectionnées au moment de la production des informations formatées 15. Il résulte de la combinaison des traits techniques que la modification de la qualité des images met en œuvre des calculs simples . Il résulte également de la combinaison des traits techniques que les informations formatées étendues P102 sont compactes. Il résulte également de la combinaison des traits techniques que les caractéristiques variables 66 éliminées sont les moins influentes sur le défaut P5. Il résulte de la combinaison des traits techniques que les informations formatées 15 permettent de modifier la qualité des images avec une précision déterminée.
Appl i cati on de l ' i nventi on à la réducti on de coût
On appelle réduction de coût, un procédé et système pour diminuer le coût d'un appareil ou d'une chaîne d'appareils P3, notamment le coût de l'optique d'un appareil ou d'une chaîne d'appareils; le procédé consistant à :
- diminuer le nombre de lentilles, et/ou
- simplifier la forme des lentilles, et/ou - concevoir ou choisir dans un catalogue une optique ayant des défauts P5 plus importants que ceux souhaités pour l'appareil ou la chaîne d'appareils, et/ou
- utiliser des matériaux, composants, traitements ou procédés de fabrication moins coûteux pour l'appareil ou la chaîne d'appareils, ajoutant des défauts P5.
Le procédé et système selon l'invention peut être utilisé pour diminuer le coût d'un appareil ou d'une chaîne d'appareils : on peut concevoir une optique numérique, produire des informations formatées 15 relatives aux défauts P5 de l'appareil ou à la chaîne d'appareils, utiliser ces informations formatées pour permettre à des moyens de traitement d'image, intégrés ou non, de modifier la qualité des images provenant ou destinées à l'appareil ou à la chaîne d'appareils, de sorte que la combinaison de l'appareil ou la chaîne d'appareil et des moyens de traitement d'image permettent de capturer, modifier ou restituer des images de la qualité souhaitée avec un coût réduit .

Claims

RevendicationsProcédé
1. Procédé pour modifier la qualité d' au moins une image (P2) provenant ou destinée à une chaîne d'appareils (P3) déterminée ; ladite chaîne d'appareils (P3) déterminée comprenant au moins un appareil de capture d'image (1) et/ou au moins un appareil de restitution d'image (19); lesdits appareils de capture d'image (1) et/ou lesdits appareils de restitution d'image (19), progressivement mis sur le marché par des acteurs économiques distincts, appartenant à un ensemble indéterminé d'appareils (P75) ; lesdits appareils dudit ensemble d'appareils (P75) présentant des défauts (P5) pouvant être caractérisés par des informations formatées (15) ; ledit procédé comprenant pour ladite image (P2) , les étapes suivantes :
-l'étape de répertorier des sources (P50) d'informations formatées (15) relatives audits appareils dudit ensemble d'appareils (P75) ,
-l'étape de rechercher de manière automatique parmi lesdites informations formatées (15) ainsi répertoriées, des informations formatées spécifiques relatives à ladite chaîne d'appareils (P3) déterminée,
-l'étape de modifier de manière automatique ladite image (P2) au moyen de logiciels de traitement d'images (P64) et/ou de composants de traitement d'images (P65) en tenant compte desdites informations formatées spécifiques ainsi obtenues .
2. Procédé selon la revendication 1; ledit procédé étant tel que ladite recherche automatique est réalisée au moyen d'index (P52) obtenus directement ou indirectement à partir d'une analyse : -de ladite image (P2) , et/ou
-desdits appareils de ladite chaîne d'appareils (P3) et/ou
-des moyens de chargement de ladite image (P2) dans lesdits logiciels ou composants de traitement d'image (P64,P65), et/ou
-des moyens de chargement de l'image modifiée par lesdits logiciels ou composants de traitement d'image vers des moyens de restitution d'image (19).
3. Procédé selon la revendication 2; lesdits appareils de ladite chaîne d'appareils (P3) étant identifiés par des identifiants (60) , notamment un code barre ; ladite analyse en vue de rechercher lesdites informations formatées spécifiques comportant l'étape de déterminer lesdits identifiants (60) .
4. Procédé selon l'une quelconque des revendications 1 à 3 ; ledit procédé étant tel que ladite image (P2) , ledit index (P52) et/ou ledit identifiant (60) sont contenus dans un même fichier (P57) ; de sorte qu' il est possible de mettre en œuvre a posteriori le procédé selon l'invention dans le cas où certains appareils de la chaîne ont été mis sur le marché avant que les informations formatées (15) les concernant n'aient été établies.
5. Procédé selon l'une quelconque des revendications 1 à 4 ; ledit procédé étant tel que ladite image (P2) et au moins une partie des informations formatées (15) spécifiques sont contenus dans un même fichier image (P58) ; de sorte qu' il est possible de rechercher de manière automatique lesdites informations formatées (15) dans ledit fichier image (P58) .
6. Procédé selon l'une quelconque des revendications 1 à 5 ; ledit procédé comprenant en outre l'étape de stocker au préalable au moins une partie des informations formatées (15) dans une base de données (22) ; ledit procédé comprenant en outre l'étape de mettre à jour ladite base de données (22) .
7. Procédé selon l'une quelconque des revendications 1 à 6 ; ledit procédé étant tel que l'un des appareils de ladite chaîne d'appareils (P3) présente au moins une caractéristique variable (66) selon l'image (P2) , notamment la focale ; une fraction desdites informations formatées (15) spécifiques étant liée aux défauts (P5) de l'appareil présentant ladite caractéristique variable (66) ; ledit procédé comprenant en outre les étapes suivantes :
-l'étape de déterminer la valeur desdites caractéristiques variables (66), pour ladite image ;
-l'étape de déterminer ladite fraction desdites informations formatées (15) spécifiques en tenant compte des valeurs desdites caractéristiques variables (66) ainsi obtenues ; de sorte que la mise en œuvre du procédé pour un appareil présentant une caractéristique variable (66) est ramenée à la mise en œuvre du procédé pour un appareil ne présentant aucune caractéristique variable (66) .
8. Procédé selon la revendication 7 ; ladite image étant contenue dans un fichier (P57) ; ledit procédé étant tel que pour déterminer la valeur de ladite caractéristique variable (66), on utilise des données présentes dans ledit fichier (P57), notamment des données, par exemple la focale, selon un format tel que le standard Exif ; de sorte qu'il est possible de mettre en œuvre a posteriori le procédé selon l'invention dans le cas où l'appareil présentant la caractéristique variable (66), a été mis sur le marché avant que les informations formatées (15) le concernant n'aient été établies.
9. Procédé selon l'une quelconque des revendications 1 à 8 ; ledit procédé étant tel que pour modifier la qualité d' au moins une image (P2) provenant ou destinée à une chaîne d'appareils (P3) :
-on détermine un appareil virtuel (708) présentant des défauts (P5) équivalents à au moins une partie des défauts (P5) d'au moins un appareil de ladite chaîne d'appareils (P3) , ci après dénommés les défauts (P5) d'origine,
-on détermine les informations formatées virtuelles (709) liées aux défauts (P5) dudit appareil virtuel (708), -on substitue pour déterminer les informations formatées spécifiques liées à l'ensemble des appareils de ladite chaîne d'appareils (P3) , lesdites informations formatées virtuelles (709) , aux informations formatées spécifiques relatives aux défauts (P5) d'origine ; de sorte que l'on obtient ainsi des informations formatées (15) plus simples à mettre en œuvre et permettant de calculer les modifications devant être apportées à ladite image (P2) , plus rapidement et/ou en utilisant moins de mémoire et/ou avec plus de précision.
10. Procédé selon l'une quelconque des revendications
1 à 9 ; ledit procédé étant destiné à modifier la qualité d' au moins un plan couleur (P20) d'une image couleur (P21) ; ledit plan couleur (P20) étant caractérisé par une couleur déterminée (P22); lesdites informations formatées (15) spécifiques comprenant en outre des données relatives à ladite couleur déterminée (P22) ; pour modifier ladite image, on calcule un plan couleur (P20) en utilisant lesdites données relatives à ladite couleur déterminée (P22) et ladite image (P2) .
11. Procédé selon l'une quelconque des revendications 1 à 10 ; ledit procédé comprenant en outre, dans le cas où le processus de recherche desdites informations formatées spécifiques n' aboutit pas pour un des appareils de ladite chaîne d'appareils (P3) , l'étape de calculer lesdites informations formatées (15) inconnues.
12. Procédé selon la revendication 11 ; ledit procédé comprenant en outre l'étape de calculer lesdites informations formatées inconnues, liées à un appareil de ladite chaîne d'appareils (P3) :
- en mesurant des défauts (P5) dudit appareil, et/ou - en simulant ledit appareil.
13. Procédé selon l'une quelconque des revendications 11 ou 12; ledit procédé comprenant en outre, pour un appareil de capture d'images (1) de ladite chaîne d'appareils (P3) , l'étape de calculer lesdites informations formatées (15) inconnues: - en réalisant une classe d'images de synthèse (7) par projections mathématiques (8) déterminées, d'au moins une scène de référence (9) , sur une surface (10) ,
- en capturant au moins une image de référence (11) de chaque scène de référence (9) au moyen dudit appareil de capture d'images (1) ,
- en choisissant dans un ensemble de modèles de transformation paramétrables (12) celui permettant de transformer ladite image de référence (11) en une image transformée (13) proche de ladite classe d'images de synthèse (7) de ladite scène de référence (9) ; ladite image transformée (13) présentant un écart (14) avec ladite classe d'images de synthèse (7) ; lesdites informations formatées (15) inconnues étant au moins en partie composées des paramètres desdits modèles de transformation paramétrables (12) choisis.
14. Procédé selon la revendication 13 ; ledit procédé comprenant en outre :
-l'étape de calculer lesdits écarts (14) entre ladite image transformée (13) et ladite classe d'images de synthèse (7),
-l'étape d'associer lesdits écarts (14) auxdites informations formatées (15) inconnues; de sorte qu'il est possible de déduire des informations étalonnées sur lesdites scènes en trois dimensions; de sorte qu'il est possible de combiner plusieurs images obtenues à partir de plusieurs appareils de capture d'images (1) ayant fait l'objet d'un même processus de formatage.
15. Procédé selon l'une quelconque des revendications 13 ou 14 ; ledit procédé étant tel que l'un des appareils de ladite chaîne d'appareils (P3) présente au moins une caractéristique variable (66) selon l'image (P2), notamment la focale et/ou l'ouverture; une fraction desdites informations formatées (15) spécifiques étant liée aux défauts (P5) de l'appareil présentant ladite ou lesdites caractéristiques variables (66) ; chaque caractéristique variable (66) étant susceptible d' être associée à une valeur pour former une combinaison (P120) constituée de l'ensemble desdites caractéristiques variables (66) et desdites valeurs ; ledit procédé comprenant en outre l'étape de déterminer ladite fraction desdites informations formatées (15) inconnues :
-en sélectionnant des combinaisons (P120) prédéterminées, -en mettant en œuvre un processus d'itération des étapes du procédé faisant l'objet des revendications 13 ou 14, pour chacune desdites combinaisons (120) prédéterminées,
-en mettant en œuvre un processus d'interpolation desdites informations formatées inconnues relatives à une combinaison (P120) quelconque, à partir des informations formatées inconnues obtenues au terme du processus d'itération.
16. Procédé selon l'une quelconque des revendications 11 à 15, ledit procédé comprenant en outre, pour un moyen de restitution d'images (19) de ladite chaîne d'appareils, l'étape de produire des données caractérisant des défauts (P5) des moyens de restitution d'image (19), notamment les caractéristiques de distorsion ; lesdites informations formatées
(15) inconnues étant au moins en partie composées desdites données caractérisant des défauts (P5) des moyens de restitution d'image (19) .
17. Procédé selon l'une quelconque des revendications 1 à 10 ; ledit procédé étant tel que lesdites informations formatées (15) spécifiques, liées à un appareil ou à plusieurs appareils de ladite chaîne d'appareils (P3) , sont déterminées de manière à pouvoir être appliquées à des appareils similaires
(712); de sorte que la mise en œuvre du procédé n' implique qu'un nombre limité d'informations formatées (15) .
18. Procédé selon l'une quelconque des revendications 1 à 17; ledit procédé étant tel que ladite image (P2) comporte des informations associées (P63) , notamment une signature numérique; lesdites étapes du procédé étant mises en œuvre de telle sorte qu'elles conservent ou modifient lesdites informations associées (P63) .
19. Procédé selon l'une quelconque des revendications
1 à 18; ledit procédé comportant en outre l'étape d'associer des informations à ladite image modifiée, notamment l'information indiquant qu'elle a été modifiée.
20. Procédé selon l'une quelconque des revendications 1 à
19 ; ledit procédé étant plus particulièrement destiné à modifier la qualité visuelle de ladite image pour un observateur; lesdites informations formatées (15) liées aux défauts (P5) des appareils de ladite chaîne d'appareils (P3) comportant en outre des informations formatées liées aux caractéristiques de vision dudit observateur, notamment des anomalies de fonctionnement des yeux et/ou du cerveau dudit observateur.
21. Application du procédé selon l'une quelconque des revendications 1 à 20 ; ladite application ayant pour objet d'améliorer la qualité des images (P2) traitées par lesdits logiciels de traitement d'image (P64) ou lesdits composants de traitement d'image (P65) , en corrigeant les effets d'au moins un des défauts (P5) des appareils de ladite chaîne d'appareils (P3) ; de sorte que la qualité des images traitées est améliorée sinon parfaite, sans pour autant faire appel à des appareils coûteux.
22. Application du procédé selon l'une quelconque des revendications 1 à 20 ; ladite application ayant pour objet que la qualité des images (P2) traitées par lesdits logiciels de traitement d'image (P64) ou lesdits composants de traitement d'image (P65) soit comparable à celles d'images produites avec une chaîne d'appareils (P3) de référence.
23. Application selon la revendication 21 ; ladite application étant telle que, pour que la qualité des images traitées soit comparable à celles d' images produites avec une chaîne d'appareils de référence, on produit des informations formatées (15) relatives à ladite chaîne d'appareils (P3) en tenant compte des défauts (P5) de ladite chaîne d'appareils de référence.
Système
24. Système pour modifier la qualité d'au moins une image (P2) provenant ou destinée à une chaîne d'appareils (P3) déterminée ; ladite chaîne d'appareils (P3) déterminée comprenant au moins un appareil de capture d'image (1) et/ou au moins un appareil de restitution d'image (19); lesdits appareils de capture d'image (1) et/ou lesdits appareils de restitution d'image (19), progressivement mis sur le marché par des acteurs économiques distincts, appartenant à un ensemble indéterminé d'appareils (P75) ; lesdits appareils dudit ensemble d'appareils (P75) présentant des défauts (P5) pouvant être caractérisés par des informations formatées (15) ; ledit système comprenant des moyens de traitement informatique (P76) permettant, pour ladite image, de :
-répertorier des sources (P50) d'informations formatées (15) relatives audits appareils dudit ensemble d'appareils, -rechercher de manière automatique parmi lesdites informations formatées (15) ainsi répertoriées, des informations formatées spécifiques relatives à ladite chaîne d'appareils (P3) déterminée,
-modifier de manière automatique ladite image (P2) au moyen de logiciels de traitement d'images (P64) et/ou de composants de traitement d'images (P65) en tenant compte desdites informations formatées spécifiques ainsi obtenues.
25. Système selon la revendication 24 ; ledit système étant tel que lesdits moyens de traitement informatique effectuent ladite recherche de manière automatique au moyen d'index (P52) ; ledit index (P52) étant obtenu directement ou indirectement par des moyens d' analyse à partir d' une analyse : -de ladite image (P2) , et/ou
-desdits appareils de ladite chaîne d'appareils (P3) , et/ou
-des moyens de chargement de ladite image (P2) dans lesdits logiciels ou composants de traitement d'image (P64,P65), et/ou
-des moyens de chargement de l'image modifiée par lesdits logiciels ou composants de traitement d'image vers des moyens de restitution d'image (19) .
26. Système selon la revendication 25 ; lesdits appareils de ladite chaîne d'appareils (P3) étant identifiés par des identifiants (60), notamment un code barre ; lesdits moyens d' analyse comportant des moyens d' identification pour déterminer lesdits identifiants (60) .
27. Système selon l'une quelconque des revendications 24 à 26 ; ledit système étant tel que ladite image (P2) , ledit index (P52) et/ou ledit identifiant (60) sont contenus dans un même fichier (P57) .
28. Système selon l'une quelconque des revendications 24 à 27 ; ledit système étant tel que ladite image (P2) et au moins une partie des informations formatées (15) spécifiques sont contenus dans un même fichier image (P58) .
29. Système selon l'une quelconque des revendications
24 à 28 ; ledit système comprenant en outre des moyens de stockage pour stocker au préalable au moins une partie des informations formatées (15) dans une base de données (22); ledit système comprenant en outre des moyens de mise à jour pour mettre à jour ladite base de données (22) .
30. Système selon l'une quelconque des revendications 24 à 29 ; ledit système étant tel que l'un des appareils de ladite chaîne d'appareils (P3) présente au moins une caractéristique variable (66) selon l'image (P2) , notamment la focale ; une fraction desdites informations formatées (15) spécifiques étant liée aux défauts (P5) de l'appareil présentant ladite caractéristique variable (66); ledit système comprenant en outre des moyens de calcul pour déterminer :
-la valeur desdites caractéristiques variables (66) , pour ladite image,
-ladite fraction desdites informations formatées (15) spécifiques en tenant compte des valeurs desdites caractéristiques variables (66) ainsi obtenues.
31. Système selon la revendication 30 ; ladite image étant contenue dans un fichier (P57) ; ledit système étant tel que, pour déterminer la valeur de ladite caractéristique variable (66) , ledit système comprend des moyens de traitement informatique pour traiter des données présentes dans ledit fichier (P57) , notamment des données, par exemple la focale, selon un format tel que le standard Exif .
32. Système selon l'une quelconque des revendications 24 à 31 ; ledit système étant tel que, pour modifier la qualité d'au moins une image (P2) provenant ou destinée à une chaîne d'appareils (P3) , ledit système comprend des moyens de traitement informatique (P76) pour déterminer :
-un appareil virtuel (708) présentant des défauts (P5) équivalents à au moins une partie des défauts (P5) d'au moins un appareil de ladite chaîne d'appareils (P3) , ci-après dénommés les défauts (P5) d'origine, -les informations formatées virtuelles (709) liées aux défauts (P5) dudit appareil virtuel (708) ; ledit système étant tel que, pour déterminer les informations formatées (15) spécifiques liées à l'ensemble des appareils de ladite chaîne d'appareils (P3) , lesdits moyens de traitement informatique (P76) comprennent des moyens de substitution pour substituer, lesdites informations formatées virtuelles (709) , aux informations formatées spécifiques relatives aux défauts (P5) d'origine.
33. Système selon l'une quelconque des revendications 24 à 32 ; ledit système étant destiné à modifier la qualité d'au moins un plan couleur (P20) d'une image couleur (P21) ; ledit plan couleur (P20) étant caractérisé par une couleur déterminée (P22) ; lesdites informations formatées (15) spécifiques comprenant en outre des données relatives à ladite couleur déterminée (P22) ; ledit système comprenant des moyens de calcul pour calculer un plan couleur (P20) en utilisant lesdites données relatives à ladite couleur déterminée (P22) et à ladite image (P2) .
34. Système selon l'une quelconque des revendications 24 à 33 ; ledit système comprenant en outre, dans le cas où le processus de recherche desdites informations formatées spécifiques n'aboutit pas pour un des appareils de ladite chaîne d'appareils (P3) , des moyens de calcul pour calculer lesdites informations formatées (15) inconnues.
35. Système selon la revendication 34 ; ledit système étant tel que lesdits moyens de calcul pour calculer lesdites informations formatées inconnues, liées à un appareil de ladite chaîne d'appareils (P3) , comprennent des moyens de traitement pour mesurer des défauts (P5) dudit appareil, et/ou pour simuler ledit appareil.
36. Système selon l'une quelconque des revendications 34 ou 35 ; ledit système comprenant en outre, pour un appareil de capture d'images (1) de ladite chaîne d'appareils (P3) , des moyens de calcul calculant lesdites informations formatées (15) inconnues en réalisant une classe d'images de synthèse (7) par projections mathématiques (8) déterminées, d'au moins une scène de référence (9) , sur une surface (10) ; ledit appareil de capture d'images (1) capturant au moins une image de référence (11) de chaque scène de référence (9) ; lesdits moyens de calcul calculant lesdites informations formatées (15) inconnues en choisissant dans un ensemble de modèles de transformation paramétrables (12) celui permettant de transformer ladite image de référence (11) en une image transformée (13) proche de ladite classe d'images de synthèse (7) de ladite scène de référence (9) ; ladite image transformée (13) présentant un écart (14) avec ladite classe d'images de synthèse (7); lesdites informations formatées (15) inconnues étant au moins en partie composées des paramètres desdits modèles de transformation paramétrables (12) choisis .
37. Système selon la revendication 36 ; ledit système comprenant en outre des moyens de traitement informatiques (P76) pour :
- calculer lesdits écarts (14) entre ladite image transformée (13) et ladite classe d'images de synthèse (7), - associer lesdits écarts (7) auxdites informations formatées (15) inconnues.
38. Système selon l'une quelconque des revendications 36 ou 37 ; ledit système étant tel que l'un des appareils de ladite chaîne d'appareils (P3) présente au moins une caractéristique variable (66) selon l'image (P2) , notamment la focale et/ou l'ouverture; une fraction desdites informations formatées (15) spécifiques étant liée aux défauts (P5) de l'appareil présentant ladite ou lesdites caractéristiques variables (66) ; chaque caractéristique variable (66) étant susceptible d'être associée à une valeur pour former une combinaison (P120) constituée de l'ensemble desdites caractéristiques variables (66) et desdites valeurs ; ledit système comprenant en outre des moyens de traitement informatique (P76) pour déterminer ladite fraction desdites informations formatées (15) inconnues : en sélectionnant des combinaisons (P120) prédéterminées, en mettant en œuvre, pour chacune desdites combinaisons (P120) prédéterminées, un processus d'itération des moyens de calcul et des moyens de traitement informatique (P76) faisant l'objet des revendications 36 ou 37,
- en mettant en œuvre un processus d' interpolation desdites informations formatées (15) inconnues relatives à une combinaison (P120) quelconque, à partir des informations formatées inconnues obtenues au terme du processus d'itération.
39. Système selon l'une quelconque des revendications 34 à 38, ledit système comprenant en outre, pour un moyen de restitution d'images (19) de ladite chaîne d'appareils (P3) , des moyens de traitement informatique (P76) pour produire des données caractérisant des défauts (P5) des moyens de restitution d'image (19), notamment les caractéristiques de distorsion ; lesdites informations formatées (15) inconnues étant au moins en partie composées desdites données caractérisant des défauts (P5) des moyens de restitution d'image (19) .
40. Système selon l'une quelconque des revendications 24 à 33 ; ledit système étant tel que lesdites informations formatées (15) spécifiques, liées à un appareil ou à plusieurs appareils de ladite chaîne d'appareils (P3) , sont déterminées de manière à pouvoir être appliquées à des appareils similaires (712) .
41. Système selon l'une quelconque des revendications 24 à 40; ledit système étant tel que ladite image (P2) comporte des informations associées (P63) , notamment une signature numérique; ledit système étant mis en œuvre de telle sorte qu'il conserve ou modifie lesdites informations associées (P63) .
42. Système selon l'une quelconque des revendications 24 à 41; ledit système comportant en outre des moyens de traitement informatique pour associer des informations à ladite image modifiée, notamment l'information indiquant qu'elle a été modifiée.
43. Système selon l'une quelconque des revendications 24 à 42 ; ledit système étant plus particulièrement destiné à modifier la qualité visuelle de ladite image pour un observateur ; lesdites informations formatées (15) liées aux défauts (P5) des appareils de ladite chaîne d'appareils (P3) comportant en outre des informations formatées (15) liées aux caractéristiques de vision dudit observateur, notamment des anomalies de fonctionnement des yeux et/ou du cerveau dudit observateur.
PCT/FR2002/001911 2001-07-12 2002-06-05 Procede et systeme pour modifier la qualite d'image WO2003007240A1 (fr)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US10/483,494 US7792378B2 (en) 2001-07-12 2002-06-05 Method and system for modifying image quality
JP2003512928A JP4020262B2 (ja) 2001-07-12 2002-06-05 イメージの品質を修正する方法およびシステム
DE60239061T DE60239061D1 (de) 2001-07-12 2002-06-05 Verfahren und system zur qualitätsverbesserung von bildern
KR1020047000414A KR100940147B1 (ko) 2001-07-12 2002-06-05 화질 변경 방법 및 시스템
EP02743349A EP1410326B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier la qualite d'image
AT02743349T ATE497224T1 (de) 2001-07-12 2002-06-05 Verfahren und system zur qualitätsverbesserung von bildern
US12/838,198 US8559743B2 (en) 2001-07-12 2010-07-16 Method and system for modifying image quality
US14/021,235 US9536284B2 (en) 2001-07-12 2013-09-09 Method and system for modifying image quality of an image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0109291A FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
FR01/09291 2001-07-12
FR0109292A FR2827460B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti
FR01/09292 2001-07-12

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US10/483,494 A-371-Of-International US7792378B2 (en) 2001-07-12 2002-06-05 Method and system for modifying image quality
US10483494 A-371-Of-International 2002-06-05
US12/838,198 Division US8559743B2 (en) 2001-07-12 2010-07-16 Method and system for modifying image quality

Publications (1)

Publication Number Publication Date
WO2003007240A1 true WO2003007240A1 (fr) 2003-01-23

Family

ID=26213095

Family Applications (6)

Application Number Title Priority Date Filing Date
PCT/FR2002/001908 WO2003007243A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier une image numerique en prenant en compte son bruit
PCT/FR2002/001910 WO2003007236A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire la frequence des mises a jour de moyens
PCT/FR2002/001911 WO2003007240A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier la qualite d'image
PCT/FR2002/001914 WO2003007241A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts des appareils
PCT/FR2002/001915 WO2003007242A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts
PCT/FR2002/001909 WO2003007239A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour fournir des informations formatees a des moyens de traitement d'images

Family Applications Before (2)

Application Number Title Priority Date Filing Date
PCT/FR2002/001908 WO2003007243A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier une image numerique en prenant en compte son bruit
PCT/FR2002/001910 WO2003007236A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire la frequence des mises a jour de moyens

Family Applications After (3)

Application Number Title Priority Date Filing Date
PCT/FR2002/001914 WO2003007241A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts des appareils
PCT/FR2002/001915 WO2003007242A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts
PCT/FR2002/001909 WO2003007239A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour fournir des informations formatees a des moyens de traitement d'images

Country Status (11)

Country Link
US (10) US7724977B2 (fr)
EP (7) EP1410326B1 (fr)
JP (6) JP4452497B2 (fr)
KR (4) KR100879832B1 (fr)
CN (6) CN1305010C (fr)
AT (4) ATE310284T1 (fr)
AU (3) AU2002317219A1 (fr)
CA (1) CA2453423C (fr)
DE (4) DE60234207D1 (fr)
ES (2) ES2311061T3 (fr)
WO (6) WO2003007243A2 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533550A (ja) 2005-01-19 2008-08-21 ドゥ ラブズ イメージ記録および/または再現デバイスを製造するための方法、および前記方法によって得られるデバイス
US11379725B2 (en) 2018-06-29 2022-07-05 International Business Machines Corporation Projectile extrapolation and sequence synthesis from video using convolution

Families Citing this family (209)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950211B2 (en) * 2001-07-05 2005-09-27 Corel Corporation Fine moire correction in images
DE60234207D1 (de) * 2001-07-12 2009-12-10 Do Labs Verfahren und system zur verringerung der aktualisierungs-häufigkeit
DE60224035D1 (de) * 2002-08-23 2008-01-24 St Microelectronics Srl Verfahren zur Rauschfilterung einer numerischen Bildfolge
US8294999B2 (en) 2003-01-16 2012-10-23 DigitalOptics Corporation International Optics for an extended depth of field
US7773316B2 (en) * 2003-01-16 2010-08-10 Tessera International, Inc. Optics for an extended depth of field
JP4377404B2 (ja) * 2003-01-16 2009-12-02 ディ−ブルアー テクノロジス リミテッド 画像向上機能を備えたカメラ
US7609425B2 (en) * 2003-01-31 2009-10-27 Canon Kabushiki Kaisha Image data processing apparatus, method, storage medium and program
US8471852B1 (en) 2003-05-30 2013-06-25 Nvidia Corporation Method and system for tessellation of subdivision surfaces
JP4096828B2 (ja) * 2003-07-15 2008-06-04 セイコーエプソン株式会社 画像処理装置
US7369699B1 (en) * 2003-08-29 2008-05-06 Apple Inc. Methods and apparatuses for restoring color and enhancing electronic images
GB2406992A (en) * 2003-10-09 2005-04-13 Ta Vision Lab Ltd Deconvolution of a digital image using metadata
CN101373272B (zh) * 2003-12-01 2010-09-01 全视Cdm光学有限公司 用于优化光学和数字系统设计的系统和方法
US7944467B2 (en) * 2003-12-01 2011-05-17 Omnivision Technologies, Inc. Task-based imaging systems
US7317843B2 (en) * 2004-04-01 2008-01-08 Microsoft Corporation Luminance correction
US7463296B2 (en) 2004-04-01 2008-12-09 Microsoft Corporation Digital cameras with luminance correction
US8285041B2 (en) * 2004-09-14 2012-10-09 Olympus Corporation Image processing apparatus, image recording apparatus, and image processing method
US7461331B2 (en) * 2004-12-21 2008-12-02 Fotomedia Technologies, Llc Automated construction of print order for images capture during a session
EP1679907A1 (fr) * 2005-01-05 2006-07-12 Dialog Semiconductor GmbH Structure hexagonale de pixels couleur avec des pixels blanc
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US20060274209A1 (en) * 2005-06-03 2006-12-07 Coretronic Corporation Method and a control device using the same for controlling a display device
US9583141B2 (en) * 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US9092928B2 (en) * 2005-07-01 2015-07-28 The Invention Science Fund I, Llc Implementing group content substitution in media works
US20090150444A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for audio content alteration
US20070263865A1 (en) * 2005-07-01 2007-11-15 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization rights for substitute media content
US9230601B2 (en) 2005-07-01 2016-01-05 Invention Science Fund I, Llc Media markup system for content alteration in derivative works
US20070266049A1 (en) * 2005-07-01 2007-11-15 Searete Llc, A Limited Liability Corportion Of The State Of Delaware Implementation of media content alteration
US8126938B2 (en) * 2005-07-01 2012-02-28 The Invention Science Fund I, Llc Group content substitution in media works
US9426387B2 (en) 2005-07-01 2016-08-23 Invention Science Fund I, Llc Image anonymization
US20090037243A1 (en) * 2005-07-01 2009-02-05 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Audio substitution options in media works
US20090300480A1 (en) * 2005-07-01 2009-12-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media segment alteration with embedded markup identifier
US20080013859A1 (en) * 2005-07-01 2008-01-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US20090151004A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for visual content alteration
US20080052104A1 (en) * 2005-07-01 2008-02-28 Searete Llc Group content substitution in media works
US8203609B2 (en) * 2007-01-31 2012-06-19 The Invention Science Fund I, Llc Anonymization pursuant to a broadcasted policy
US20070005423A1 (en) * 2005-07-01 2007-01-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Providing promotional content
US20100154065A1 (en) * 2005-07-01 2010-06-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for user-activated content alteration
US20080052161A1 (en) * 2005-07-01 2008-02-28 Searete Llc Alteration of promotional content in media works
US20090235364A1 (en) * 2005-07-01 2009-09-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional content alteration
US20080086380A1 (en) * 2005-07-01 2008-04-10 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Alteration of promotional content in media works
US20070276757A1 (en) * 2005-07-01 2007-11-29 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Approval technique for media content alteration
US20090210946A1 (en) * 2005-07-01 2009-08-20 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional audio content
US20090204475A1 (en) * 2005-07-01 2009-08-13 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional visual content
US9065979B2 (en) * 2005-07-01 2015-06-23 The Invention Science Fund I, Llc Promotional placement in media works
US20080028422A1 (en) * 2005-07-01 2008-01-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US20070005651A1 (en) 2005-07-01 2007-01-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Restoring modified assets
US20090150199A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Visual substitution options in media works
US20070294720A1 (en) * 2005-07-01 2007-12-20 Searete Llc Promotional placement in media works
EP2328006B1 (fr) * 2005-09-19 2014-08-06 OmniVision CDM Optics, Inc. Systèmes d'imagerie basés sur des tâches
JP2007096405A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp ぶれ方向判定方法および装置ならびにプログラム
US8571346B2 (en) 2005-10-26 2013-10-29 Nvidia Corporation Methods and devices for defective pixel detection
US7750956B2 (en) 2005-11-09 2010-07-06 Nvidia Corporation Using a graphics processing unit to correct video and audio data
US8588542B1 (en) 2005-12-13 2013-11-19 Nvidia Corporation Configurable and compact pixel processing apparatus
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
US8295562B2 (en) * 2006-01-13 2012-10-23 Carl Zeiss Microimaging Ais, Inc. Medical image modification to simulate characteristics
US20070165961A1 (en) * 2006-01-13 2007-07-19 Juwei Lu Method And Apparatus For Reducing Motion Blur In An Image
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US8368749B2 (en) * 2006-03-27 2013-02-05 Ge Inspection Technologies Lp Article inspection apparatus
US20070239417A1 (en) * 2006-03-31 2007-10-11 D-Blur Technologies Ltd. Camera performance simulation
US20070269123A1 (en) * 2006-05-16 2007-11-22 Randall Don Briggs Method and apparatus for performing image enhancement in an image processing pipeline
JP4974586B2 (ja) * 2006-05-24 2012-07-11 オリンパス株式会社 顕微鏡用撮像装置
US7612805B2 (en) 2006-07-11 2009-11-03 Neal Solomon Digital imaging system and methods for selective image filtration
JP4839148B2 (ja) * 2006-07-12 2011-12-21 株式会社リコー ネットワーク装置,端末装置,プログラムおよび記録媒体
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
DE102006057190A1 (de) * 2006-12-05 2008-06-12 Carl Zeiss Meditec Ag Verfahren zur Erzeugung hochqualitativer Aufnahmen der vorderen und/oder hinteren Augenabschnitte
US20080180539A1 (en) * 2007-01-31 2008-07-31 Searete Llc, A Limited Liability Corporation Image anonymization
US8723969B2 (en) 2007-03-20 2014-05-13 Nvidia Corporation Compensating for undesirable camera shakes during video capture
US20080244755A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization for media content alteration
US20080270161A1 (en) * 2007-04-26 2008-10-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization rights for substitute media content
US9215512B2 (en) 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
US7936915B2 (en) * 2007-05-29 2011-05-03 Microsoft Corporation Focal length estimation for panoramic stitching
US8634103B2 (en) * 2007-06-12 2014-01-21 Qualcomm Incorporated Print image matching parameter extraction and rendering on display devices
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) * 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
US8373718B2 (en) 2008-12-10 2013-02-12 Nvidia Corporation Method and system for color enhancement with color volume adjustment and variable shift along luminance axis
US8290260B2 (en) * 2008-12-15 2012-10-16 Xerox Corporation Method and system for creating integrated remote custom rendering profile
US20100198876A1 (en) * 2009-02-02 2010-08-05 Honeywell International, Inc. Apparatus and method of embedding meta-data in a captured image
DE102009002393A1 (de) * 2009-04-15 2010-11-04 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Verfahren und Vorrichtung zur Bearbeitung von Aufnahmebildern einer digitalen Videokamera
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
CN101551661B (zh) * 2009-05-12 2013-04-24 广东工业大学 一种面向多机器人系统的控制方法
US9519814B2 (en) 2009-06-12 2016-12-13 Hand Held Products, Inc. Portable data terminal
FR2948521B1 (fr) 2009-07-21 2012-01-27 Dxo Labs Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes
US8698918B2 (en) 2009-10-27 2014-04-15 Nvidia Corporation Automatic white balancing for photography
KR20110065997A (ko) * 2009-12-10 2011-06-16 삼성전자주식회사 영상처리장치 및 영상처리방법
KR101451136B1 (ko) * 2010-03-19 2014-10-16 삼성테크윈 주식회사 비네팅 보정 방법 및 장치
US8335390B2 (en) * 2010-03-22 2012-12-18 Sony Corporation Blur function modeling for depth of field rendering
US8660372B2 (en) * 2010-05-10 2014-02-25 Board Of Regents Of The University Of Texas System Determining quality of an image or video using a distortion classifier
CN102338972A (zh) * 2010-07-21 2012-02-01 华晶科技股份有限公司 多人脸区块辅助对焦的方法
US20120019709A1 (en) * 2010-07-21 2012-01-26 Altek Corporation Assisting focusing method using multiple face blocks
CH703996A2 (de) 2010-10-24 2012-04-30 Airlight Energy Ip Sa Sonnenkollektor.
EP2447889A1 (fr) * 2010-10-29 2012-05-02 Siemens Aktiengesellschaft Procédé pour la modélisation d'une gestion de défauts dans un procédé de fabrication et pour traiter le défaut pendant le procédé de fabrication basé sur ladite gestion de défauts
CN102625043B (zh) 2011-01-25 2014-12-10 佳能株式会社 图像处理设备、成像设备和图像处理方法
US8842931B2 (en) * 2011-02-18 2014-09-23 Nvidia Corporation System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples
JP5367749B2 (ja) * 2011-03-25 2013-12-11 株式会社東芝 サーバ装置、通信方法およびプログラム
US10331658B2 (en) * 2011-06-03 2019-06-25 Gdial Inc. Systems and methods for atomizing and individuating data as data quanta
US8712181B2 (en) * 2011-06-14 2014-04-29 Apteryx, Inc. Real-time application of filters based on image attributes
EP2552099B1 (fr) 2011-07-27 2013-08-28 Axis AB Procédé et caméra pour fournir une estimation d'une valeur moyenne du rapport signal à bruit pour une image
EP2692280B1 (fr) * 2011-11-16 2019-01-09 Olympus Corporation Processeur de signal d'image pour endoscope
JP2013123812A (ja) * 2011-12-13 2013-06-24 Canon Inc 検査装置、検査方法、コンピュータプログラム
US20130329996A1 (en) * 2012-06-10 2013-12-12 Apple Inc. Method and system for auto-enhancing photographs with tonal response curves
JP5656926B2 (ja) 2012-06-22 2015-01-21 キヤノン株式会社 画像処理方法、画像処理装置および撮像装置
US8976271B2 (en) 2012-07-19 2015-03-10 Canon Kabushiki Kaisha Optical system and image pickup apparatus
CN104619237B (zh) 2012-07-26 2018-03-30 德普伊辛迪斯制品公司 光不足环境中的ycbcr脉冲调制的照明方案
MX356890B (es) 2012-07-26 2018-06-19 Depuy Synthes Products Inc Video continuo en un entorno deficiente de luz.
IN2015MN00020A (fr) 2012-07-26 2015-10-16 Olive Medical Corp
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US8867817B1 (en) * 2012-10-29 2014-10-21 Amazon Technologies, Inc. Display analysis using scanned images
GB2507576A (en) * 2012-11-05 2014-05-07 British Broadcasting Corp Focus detection
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
US9026553B2 (en) * 2012-11-29 2015-05-05 Unisys Corporation Data expanse viewer for database systems
CA2906821A1 (fr) 2013-03-15 2014-09-18 Olive Medical Corporation Detection d'un scope dans un environnement a lumiere controlee
WO2014144947A1 (fr) 2013-03-15 2014-09-18 Olive Medical Corporation Correction d'artéfacts de mouvements en couleurs et en super-résolution dans un système d'imagerie en couleurs à impulsions
CN105246395B (zh) 2013-03-15 2019-01-22 德普伊新特斯产品公司 综合固定模式噪声消除
BR112015022944A2 (pt) 2013-03-15 2017-07-18 Olive Medical Corp calibração com o uso de tampa distal
US9777913B2 (en) 2013-03-15 2017-10-03 DePuy Synthes Products, Inc. Controlling the integral light energy of a laser pulse
AU2014233518C1 (en) 2013-03-15 2019-04-04 DePuy Synthes Products, Inc. Noise aware edge enhancement
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
US9167706B2 (en) 2013-08-05 2015-10-20 Steven J. Holmstrom Electronic flight bag retention device
WO2015131045A1 (fr) 2014-02-28 2015-09-03 The Board Of Trustees Of The Leland Stanford Junior University Imagerie fournissant un rapport d'intensité de pixel
US10084944B2 (en) 2014-03-21 2018-09-25 DePuy Synthes Products, Inc. Card edge connector for an imaging sensor
US9396409B2 (en) 2014-09-29 2016-07-19 At&T Intellectual Property I, L.P. Object based image processing
CN104363986B (zh) * 2014-10-31 2017-06-13 华为技术有限公司 一种图像处理方法和设备
US10334216B2 (en) * 2014-11-06 2019-06-25 Sony Corporation Imaging system including lens with longitudinal chromatic aberration, endoscope and imaging method
JP6465752B2 (ja) * 2015-05-29 2019-02-06 キヤノン株式会社 制御装置、制御方法、及びプログラム
JP6113386B1 (ja) 2015-08-13 2017-04-12 Hoya株式会社 評価値計算装置及び電子内視鏡システム
CN106687023B (zh) 2015-08-13 2018-12-18 Hoya株式会社 评价值计算装置以及电子内窥镜系统
US9838646B2 (en) * 2015-09-24 2017-12-05 Cisco Technology, Inc. Attenuation of loudspeaker in microphone array
EP3516873A1 (fr) * 2016-09-19 2019-07-31 InterDigital VC Holdings, Inc. Procédé et dispositif de reconstruction d'un nuage de points représentatif d'une scène à l'aide de données de champ lumineux
WO2018070793A1 (fr) * 2016-10-12 2018-04-19 Samsung Electronics Co., Ltd. Procédé, appareil et support d'enregistrement de traitement d'image
CN110520691B (zh) * 2017-04-03 2021-09-10 三菱电机株式会社 映射图数据生成装置和方法
US10733262B2 (en) * 2017-10-05 2020-08-04 Adobe Inc. Attribute control for updating digital content in a digital medium environment
US10657118B2 (en) 2017-10-05 2020-05-19 Adobe Inc. Update basis for updating digital content in a digital medium environment
US11551257B2 (en) 2017-10-12 2023-01-10 Adobe Inc. Digital media environment for analysis of audience segments in a digital marketing campaign
US10685375B2 (en) 2017-10-12 2020-06-16 Adobe Inc. Digital media environment for analysis of components of content in a digital marketing campaign
US11544743B2 (en) 2017-10-16 2023-01-03 Adobe Inc. Digital content control based on shared machine learning properties
US10795647B2 (en) 2017-10-16 2020-10-06 Adobe, Inc. Application digital content control using an embedded machine learning module
GB2570278B (en) * 2017-10-31 2020-09-16 Cambium Networks Ltd Spectrum management for a point-to-multipoint wireless network
US10853766B2 (en) 2017-11-01 2020-12-01 Adobe Inc. Creative brief schema
US10991012B2 (en) 2017-11-01 2021-04-27 Adobe Inc. Creative brief-based content creation
EP3731726A4 (fr) * 2017-12-27 2021-10-27 Ethicon LLC Imagerie hyperspectrale dans un environnement peu éclairé
CN108074241B (zh) * 2018-01-16 2021-10-22 深圳大学 目标图像的质量评分方法、装置、终端及存储介质
JP7278096B2 (ja) * 2019-02-20 2023-05-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11237270B2 (en) 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11122968B2 (en) 2019-06-20 2021-09-21 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral imaging
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11134832B2 (en) 2019-06-20 2021-10-05 Cilag Gmbh International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US11457154B2 (en) 2019-06-20 2022-09-27 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US10841504B1 (en) 2019-06-20 2020-11-17 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11516388B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
US11291358B2 (en) 2019-06-20 2022-04-05 Cilag Gmbh International Fluorescence videostroboscopy of vocal cords
US11218645B2 (en) 2019-06-20 2022-01-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11172810B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Speckle removal in a pulsed laser mapping imaging system
US11288772B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11265491B2 (en) 2019-06-20 2022-03-01 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11221414B2 (en) 2019-06-20 2022-01-11 Cilag Gmbh International Laser mapping imaging with fixed pattern noise cancellation
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11012599B2 (en) 2019-06-20 2021-05-18 Ethicon Llc Hyperspectral imaging in a light deficient environment
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11147436B2 (en) 2019-06-20 2021-10-19 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US11294062B2 (en) 2019-06-20 2022-04-05 Cilag Gmbh International Dynamic range using a monochrome image sensor for hyperspectral and fluorescence imaging and topology laser mapping
US11172811B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11375886B2 (en) 2019-06-20 2022-07-05 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for laser mapping imaging
US11076747B2 (en) 2019-06-20 2021-08-03 Cilag Gmbh International Driving light emissions according to a jitter specification in a laser mapping imaging system
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US20200397246A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Minimizing image sensor input/output in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11360028B2 (en) 2019-06-20 2022-06-14 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US10979646B2 (en) 2019-06-20 2021-04-13 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11187657B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Hyperspectral imaging with fixed pattern noise cancellation
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US20200397239A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11233960B2 (en) 2019-06-20 2022-01-25 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US10952619B2 (en) 2019-06-20 2021-03-23 Ethicon Llc Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11213194B2 (en) 2019-06-20 2022-01-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral, fluorescence, and laser mapping imaging
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11276148B2 (en) 2019-06-20 2022-03-15 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11284785B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral, fluorescence, and laser mapping imaging system
US11631202B2 (en) * 2021-01-08 2023-04-18 Samsung Electronics Co., Ltd. System and method for obtaining and applying a vignette filter and grain layer
US11829239B2 (en) 2021-11-17 2023-11-28 Adobe Inc. Managing machine learning model reconstruction

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0647921A2 (fr) * 1993-10-08 1995-04-12 Xerox Corporation Format structure d'image pour la description d'images en trame complexes en couleur
EP0686945A2 (fr) * 1994-05-26 1995-12-13 Canon Kabushiki Kaisha Méthode et appareil de traitement d'images
JPH10319929A (ja) * 1997-05-19 1998-12-04 Matsushita Electric Ind Co Ltd 表示装置
WO1999027470A1 (fr) * 1997-11-26 1999-06-03 Flashpoint Technology, Inc. Procede et systeme d'extansion de formats de fichiers image disponibles dans un dispositif de capture d'image
EP0964353A2 (fr) * 1998-06-12 1999-12-15 Canon Kabushiki Kaisha Appareil de traitement d'images et mémoire adressable par ordinateur
WO2001035052A1 (fr) * 1999-11-12 2001-05-17 Armstrong Brian S Points de repere robustes pour vision artificielle et procede de detection desdits points de repere
EP1104175A2 (fr) * 1999-11-29 2001-05-30 Xerox Corporation Système de calibration d'un appareil de formation en couleur

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6080374A (ja) * 1983-10-11 1985-05-08 Hitachi Denshi Ltd テレビジヨンカメラ装置の撮像特性補正方法
FR2652695B1 (fr) * 1989-10-03 1993-04-16 Thomson Csf Procede et dispositif de visualisation d'images, a correction automatique de defauts par contre-reaction.
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
US5047861A (en) * 1990-07-31 1991-09-10 Eastman Kodak Company Method and apparatus for pixel non-uniformity correction
US5157497A (en) * 1991-02-25 1992-10-20 Matsushita Electric Industrial Co., Ltd. Method and apparatus for detecting and compensating for white shading errors in a digitized video signal
US5251271A (en) * 1991-10-21 1993-10-05 R. R. Donnelley & Sons Co. Method for automatic registration of digitized multi-plane images
JPH05176166A (ja) 1991-12-25 1993-07-13 Hitachi Ltd 色再現方法
DE69331719T2 (de) * 1992-06-19 2002-10-24 Agfa Gevaert Nv Verfahren und Vorrichtung zur Geräuschunterdrückung
US5905530A (en) * 1992-08-24 1999-05-18 Canon Kabushiki Kaisha Image pickup apparatus
US5323204A (en) * 1992-11-03 1994-06-21 Eastman Kodak Company Automatic optimization of photographic exposure parameters for non-standard display sizes and/or different focal length photographing modes through determination and utilization of extra system speed
US5461440A (en) * 1993-02-10 1995-10-24 Olympus Optical Co., Ltd. Photographing image correction system
US5353362A (en) * 1993-05-17 1994-10-04 Tucci Robert R Method of generation of two electromagnetic modes using squeezers
JPH0715631A (ja) * 1993-06-29 1995-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像信号雑音除去方法および装置
US5499057A (en) 1993-08-27 1996-03-12 Sony Corporation Apparatus for producing a noise-reducded image signal from an input image signal
US6334219B1 (en) * 1994-09-26 2001-12-25 Adc Telecommunications Inc. Channel selection for a hybrid fiber coax network
JPH08116490A (ja) * 1994-10-14 1996-05-07 Olympus Optical Co Ltd 画像処理装置
KR100203239B1 (ko) * 1995-02-16 1999-06-15 윤종용 화이트쉐이딩 보정방법 및 장치
US5606365A (en) * 1995-03-28 1997-02-25 Eastman Kodak Company Interactive camera for network processing of captured images
US5694484A (en) 1995-05-15 1997-12-02 Polaroid Corporation System and method for automatically processing image data to provide images of optimal perceptual quality
JPH0998299A (ja) 1995-10-02 1997-04-08 Canon Inc 画像処理装置及び方法
JP3409541B2 (ja) 1995-11-14 2003-05-26 三菱電機株式会社 色補正方法及び色補正装置並びに色補正応用装置及びカラー画像システム
EP0868690A1 (fr) * 1995-12-19 1998-10-07 TELEFONAKTIEBOLAGET L M ERICSSON (publ) Programmation de travaux destinee a une unite de traitement d'instructions
US5696850A (en) * 1995-12-21 1997-12-09 Eastman Kodak Company Automatic image sharpening in an electronic imaging system
JPH09214807A (ja) * 1996-01-31 1997-08-15 Canon Inc 画像処理装置および画像処理方法
JP3950188B2 (ja) * 1996-02-27 2007-07-25 株式会社リコー 画像歪み補正用パラメータ決定方法及び撮像装置
JPH1083024A (ja) 1996-09-09 1998-03-31 Fuji Photo Film Co Ltd カメラ及びプリンタ
JP3791635B2 (ja) * 1996-10-22 2006-06-28 富士写真フイルム株式会社 画像再生方法、画像再生装置、画像処理方法および画像処理装置
US6173087B1 (en) * 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
US6094221A (en) * 1997-01-02 2000-07-25 Andersion; Eric C. System and method for using a scripting language to set digital camera device features
JPH10226139A (ja) * 1997-02-14 1998-08-25 Canon Inc 画像形成システム及び画像形成装置及び媒体
US6249315B1 (en) * 1997-03-24 2001-06-19 Jack M. Holm Strategy for pictorial digital image processing
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
JP3225882B2 (ja) 1997-03-27 2001-11-05 日本電信電話株式会社 景観ラベリングシステム
US5990935A (en) * 1997-04-04 1999-11-23 Evans & Sutherland Computer Corporation Method for measuring camera and lens properties for camera tracking
JP3911354B2 (ja) * 1997-09-02 2007-05-09 大日本スクリーン製造株式会社 画像処理方法および装置、並びにその処理を実行するためのプログラムを記録した記録媒体
JPH11146308A (ja) 1997-11-13 1999-05-28 Fuji Photo Film Co Ltd 画像情報記録装置および画像プリントシステム
DE19855885A1 (de) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Bildverarbeitungsverfahren und -vorrichtung
US6069982A (en) * 1997-12-23 2000-05-30 Polaroid Corporation Estimation of frequency dependence and grey-level dependence of noise in an image
JPH11220687A (ja) * 1998-01-30 1999-08-10 Fuji Photo Film Co Ltd 画像処理方法および装置
US6381375B1 (en) * 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
DE19812028A1 (de) * 1998-03-19 1999-09-23 Heidelberger Druckmasch Ag Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte
JP3926918B2 (ja) 1998-03-20 2007-06-06 富士通株式会社 画像補正処理装置及びそのプログラム記録媒体
US6603885B1 (en) * 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP4187830B2 (ja) 1998-07-03 2008-11-26 東芝医用システムエンジニアリング株式会社 医用画像合成装置
EP1097431B1 (fr) * 1998-07-15 2003-12-10 Kodak Polychrome Graphics LLC Systeme et procede d'imagerie
JP4095184B2 (ja) * 1998-10-29 2008-06-04 キヤノン株式会社 画像処理装置及びその方法
JP2000165647A (ja) * 1998-11-26 2000-06-16 Seiko Epson Corp 画像データ処理方法および画像データ印刷装置並びに画像データ処理プログラムを記録した記録媒体
JP4154053B2 (ja) * 1998-12-25 2008-09-24 キヤノン株式会社 画像記録・再生システム、画像記録装置及び画像再生装置
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
JP4072302B2 (ja) * 1999-04-13 2008-04-09 キヤノン株式会社 データ処理方法及び装置及び記憶媒体
US6856427B1 (en) * 1999-05-20 2005-02-15 Eastman Kodak Company System for printing correct exposure in a rendered digital image
US6693668B1 (en) * 1999-06-04 2004-02-17 Canon Kabushiki Kaisha Self-diagnostic image sensor
US6707950B1 (en) * 1999-06-22 2004-03-16 Eastman Kodak Company Method for modification of non-image data in an image processing chain
US6470151B1 (en) * 1999-06-22 2002-10-22 Canon Kabushiki Kaisha Camera, image correcting apparatus, image correcting system, image correcting method, and computer program product providing the image correcting method
JP2001016449A (ja) 1999-06-25 2001-01-19 Ricoh Co Ltd 画像入力装置
US6633408B1 (en) 1999-06-29 2003-10-14 Kodak Polychrome Graphics, Llc Spectral modeling of photographic printing based on dye concentration
DE20080319U1 (de) 1999-06-30 2002-05-16 Logitech Inc Videokamera, bei der die Hauptfunktionen in der Hauptrechnersoftware implementiert werden
JP4822571B2 (ja) * 1999-08-03 2011-11-24 キヤノン株式会社 デジタルx線撮影システム及び方法
DE19943183A1 (de) * 1999-09-09 2001-03-15 Heimann Systems Gmbh & Co Verfahren zur Farbanpassung eines Bildes, insbesondere eines Röntgenbildes
JP2001094848A (ja) 1999-09-20 2001-04-06 Canon Inc モニター付カメラ
KR100414083B1 (ko) * 1999-12-18 2004-01-07 엘지전자 주식회사 영상왜곡 보정방법 및 이를 이용한 영상표시기기
US6816625B2 (en) * 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
JP3429280B2 (ja) * 2000-09-05 2003-07-22 理化学研究所 画像のレンズ歪みの補正方法
JP4399133B2 (ja) * 2000-09-08 2010-01-13 カシオ計算機株式会社 撮影条件提供装置、撮影条件設定システム、撮影条件提供方法
US6956966B2 (en) * 2001-04-03 2005-10-18 Electronics For Imaging, Inc. Method and apparatus for automated image correction for digital image acquisition
DE60234207D1 (de) * 2001-07-12 2009-12-10 Do Labs Verfahren und system zur verringerung der aktualisierungs-häufigkeit
CN100345158C (zh) * 2001-07-12 2007-10-24 杜莱布斯公司 用于产生涉及几何失真的格式化信息的方法和系统
FR2827459B1 (fr) * 2001-07-12 2004-10-29 Poseidon Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
US6873727B2 (en) * 2001-07-23 2005-03-29 Hewlett-Packard Development Company, L.P. System for setting image characteristics using embedded camera tag information
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0647921A2 (fr) * 1993-10-08 1995-04-12 Xerox Corporation Format structure d'image pour la description d'images en trame complexes en couleur
EP0686945A2 (fr) * 1994-05-26 1995-12-13 Canon Kabushiki Kaisha Méthode et appareil de traitement d'images
JPH10319929A (ja) * 1997-05-19 1998-12-04 Matsushita Electric Ind Co Ltd 表示装置
WO1999027470A1 (fr) * 1997-11-26 1999-06-03 Flashpoint Technology, Inc. Procede et systeme d'extansion de formats de fichiers image disponibles dans un dispositif de capture d'image
EP0964353A2 (fr) * 1998-06-12 1999-12-15 Canon Kabushiki Kaisha Appareil de traitement d'images et mémoire adressable par ordinateur
WO2001035052A1 (fr) * 1999-11-12 2001-05-17 Armstrong Brian S Points de repere robustes pour vision artificielle et procede de detection desdits points de repere
EP1104175A2 (fr) * 1999-11-29 2001-05-30 Xerox Corporation Système de calibration d'un appareil de formation en couleur

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHANG S-K ET AL: "SMART IMAGE DESIGN FOR LARGE IMAGE DATABASES", JOURNAL OF VISUAL LANGUAGES AND COMPUTING, LONDON, GB, vol. 3, no. 4, 1 December 1992 (1992-12-01), pages 323 - 342, XP000472773 *
CLUNIE, D.: "Medical image format FAQ - Part 3. Proprietary formats", NONAME, 3 June 2001 (2001-06-03), XP002178669, Retrieved from the Internet <URL:http://www.dclunie.com/medical-image-faq/html/part3.html> [retrieved on 20010927] *
PATENT ABSTRACTS OF JAPAN vol. 1999, no. 03 31 March 1999 (1999-03-31) *
WATANABE M ET AL: "AN IMAGE DATA FILE FORMAT FOR DIGITAL STILL CAMERA", FINAL PROGRAM AND ADVANCE PRINTING OF PAPERS. ANNUAL CONFERENCE. IMAGING ON THE INFORMATION SUPERHIGHWAY, XX, XX, 1995, pages 421 - 424, XP000618775 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533550A (ja) 2005-01-19 2008-08-21 ドゥ ラブズ イメージ記録および/または再現デバイスを製造するための方法、および前記方法によって得られるデバイス
US11379725B2 (en) 2018-06-29 2022-07-05 International Business Machines Corporation Projectile extrapolation and sequence synthesis from video using convolution

Also Published As

Publication number Publication date
EP1415275B1 (fr) 2008-07-02
KR20040043157A (ko) 2004-05-22
CN1526115A (zh) 2004-09-01
US20040234152A1 (en) 2004-11-25
EP1410326A1 (fr) 2004-04-21
AU2002317900A1 (en) 2003-01-29
WO2003007236A3 (fr) 2003-04-24
EP1442425B1 (fr) 2018-08-08
AU2002317902A1 (en) 2003-01-29
DE60227374D1 (de) 2008-08-14
US20040247196A1 (en) 2004-12-09
JP2004534491A (ja) 2004-11-11
DE60239061D1 (de) 2011-03-10
CN1526117A (zh) 2004-09-01
WO2003007242A3 (fr) 2003-04-10
KR100957878B1 (ko) 2010-05-13
EP2015247A3 (fr) 2009-03-18
US20050002586A1 (en) 2005-01-06
US20050008242A1 (en) 2005-01-13
JP4367757B2 (ja) 2009-11-18
ATE497224T1 (de) 2011-02-15
KR20040044187A (ko) 2004-05-27
AU2002317219A1 (en) 2003-01-29
DE60207417T2 (de) 2006-08-10
ATE447216T1 (de) 2009-11-15
US20120308160A1 (en) 2012-12-06
US20110085740A1 (en) 2011-04-14
US8559743B2 (en) 2013-10-15
WO2003007241A1 (fr) 2003-01-23
US7346221B2 (en) 2008-03-18
JP2004534342A (ja) 2004-11-11
ES2253542T3 (es) 2006-06-01
US20140099042A1 (en) 2014-04-10
EP1410327B1 (fr) 2005-11-16
KR20040043155A (ko) 2004-05-22
KR100879832B1 (ko) 2009-01-22
ATE400040T1 (de) 2008-07-15
CN1535448A (zh) 2004-10-06
US7792378B2 (en) 2010-09-07
US7724977B2 (en) 2010-05-25
US9536284B2 (en) 2017-01-03
CN100361153C (zh) 2008-01-09
US7343040B2 (en) 2008-03-11
CN1526116A (zh) 2004-09-01
CN1305006C (zh) 2007-03-14
WO2003007243A2 (fr) 2003-01-23
EP2015247B1 (fr) 2016-04-13
DE60234207D1 (de) 2009-12-10
CN1554074A (zh) 2004-12-08
WO2003007243A3 (fr) 2004-01-22
EP1410327A2 (fr) 2004-04-21
US20040218803A1 (en) 2004-11-04
WO2003007236A2 (fr) 2003-01-23
KR100940147B1 (ko) 2010-02-03
EP1442425A1 (fr) 2004-08-04
EP1410326B1 (fr) 2011-01-26
US8675980B2 (en) 2014-03-18
CN1273931C (zh) 2006-09-06
JP4295613B2 (ja) 2009-07-15
JP4614657B2 (ja) 2011-01-19
US20100278415A1 (en) 2010-11-04
CN1305010C (zh) 2007-03-14
JP4452497B2 (ja) 2010-04-21
EP1415275A1 (fr) 2004-05-06
JP2004535128A (ja) 2004-11-18
US7760955B2 (en) 2010-07-20
DE60207417D1 (de) 2005-12-22
JP4295612B2 (ja) 2009-07-15
US20040252906A1 (en) 2004-12-16
EP2015247A2 (fr) 2009-01-14
JP2005509333A (ja) 2005-04-07
JP2004537791A (ja) 2004-12-16
WO2003007242A2 (fr) 2003-01-23
KR20040043154A (ko) 2004-05-22
WO2003007239A1 (fr) 2003-01-23
EP1410331B1 (fr) 2015-08-12
ES2311061T3 (es) 2009-02-01
KR100940148B1 (ko) 2010-02-03
JP4020262B2 (ja) 2007-12-12
EP1410331A2 (fr) 2004-04-21
CA2453423A1 (fr) 2003-01-23
JP2004534341A (ja) 2004-11-11
ATE310284T1 (de) 2005-12-15
EP1444651B1 (fr) 2009-10-28
CN1316426C (zh) 2007-05-16
EP1444651A2 (fr) 2004-08-11
CN1316427C (zh) 2007-05-16
CN1527989A (zh) 2004-09-08
CA2453423C (fr) 2014-10-14

Similar Documents

Publication Publication Date Title
EP1410326B1 (fr) Procede et systeme pour modifier la qualite d&#39;image
EP1412918B1 (fr) Procede et systeme pour produire des informations formatees liees aux distorsions geometriques
FR2827459A1 (fr) Procede et systeme pour fournir a des logiciels de traitement d&#39;image des informations formatees liees aux caracteristiques des appareils de capture d&#39;image et/ou des moyens de restitution d&#39;image
FR2827460A1 (fr) Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d&#39;images des informations liees aux caracteristiques des appareils de capture d&#39;image et/ou des moyens de resti
WO2023187170A1 (fr) Procédé de correction d&#39;aberrations optiques introduites par un objectif optique dans une image, appareil et système mettant en œuvre un tel procédé

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2003512928

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020047000414

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20028139542

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2002743349

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002743349

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWE Wipo information: entry into national phase

Ref document number: 10483494

Country of ref document: US