WO2010020624A1 - Method of metric telemetry - Google Patents

Method of metric telemetry Download PDF

Info

Publication number
WO2010020624A1
WO2010020624A1 PCT/EP2009/060649 EP2009060649W WO2010020624A1 WO 2010020624 A1 WO2010020624 A1 WO 2010020624A1 EP 2009060649 W EP2009060649 W EP 2009060649W WO 2010020624 A1 WO2010020624 A1 WO 2010020624A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
transformation
camera
current
metric
Prior art date
Application number
PCT/EP2009/060649
Other languages
French (fr)
Inventor
Denis Marraud
Original Assignee
European Aeronautic Defence And Space Company - Eads France
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by European Aeronautic Defence And Space Company - Eads France filed Critical European Aeronautic Defence And Space Company - Eads France
Publication of WO2010020624A1 publication Critical patent/WO2010020624A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Definitions

  • the invention lies in the field of searching for information in a video archive and more specifically relates to a metric telemetry method and device on objects seen by cameras, video surveillance for example, in order to their identification.
  • the invention also relates to a computer program stored on a recording medium and adapted, when executed on a computer, to implement the method according to the invention.
  • An object of the invention is to allow an operator to automatically configure several cameras.
  • the object of the invention is achieved by means of a metric telemetry method based on a simple and fast procedure of geo-referencing images in a common reference.
  • the process according to the invention comprises the following steps:
  • first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points captured on a reference plane
  • the method according to the invention provides the operator with a visualization tool enabling him to judge the quality of the alignment between the reference image and the image of the camera transformed with the medium. of the estimated transformation by superposition of the aligned images or by visualization of the residues.
  • the image used for the calibration is stored as a reference and used continuously to update the current transformation in case of drift of the camera parameters or in case of changes of the extrinsic parameters (zoom, rotation line aiming, ).
  • the updating of said reference transformation comprises the following steps: estimating the current transformation between a current image captured by the camera and the memorized reference image,
  • the invention is applicable in all intelligent video surveillance systems whose function is to raise alarms on complex events requiring a low rate of false alarm and thus a fine characterization of detected objects, as well as on automatic annotation systems. CCTV streaming for indexing and investigation purposes.
  • the method provides geo-referenced measurements and trajectories that can be used for the recognition of detected objects.
  • the second image is an ortho-image of the observed area.
  • the second image is a CAD model of the area observed.
  • the method according to the invention further comprises a step of deriving from the estimated transformation a set of parameters intended to translate measurements made on the first image into metric dimensions (length, width, height), said set of parameters comprising, in particular and without limitation, the image roll, the shooting distance, the angle of incidence or the angular resolution of the camera.
  • a metric telemetry device comprising: means for defining a first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points captured on a reference plane,
  • the device according to the invention further comprises means for updating said reference transformation comprising:
  • the method according to the invention is implemented in said device by a computer program stored on a recording medium and adapted, when executed on a computer, for:
  • first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points captured on a reference plane
  • FIG. 1 is a diagram schematically illustrating the initialization phase of the method according to the invention
  • FIG. 2 is a diagram schematically illustrating the update phase of the reference transformation according to the invention
  • FIG. 3 is a diagram schematically illustrating an automatic telemetry phase using the current transformation estimated according to the method of the invention
  • FIGS. 4A and 4B schematically illustrate an iterative estimate of the image roll by application of the method according to the invention.
  • Figure 1 illustrates the initial use of peer points between the camera image and the reference image to estimate the reference transformation.
  • Step 2 consists of capturing points of a first image 4 captured by a camera, and these same points selected manually by an operator, or automatically by exploiting and matching descriptors that are invariant to the changes in shooting from a camera. reference plane 6 on an observed area.
  • Step 10 consists of calculating a reference transformation from the points entered by the camera and points selected from the reference plane 6.
  • the image captured by the camera and the image obtained at from the reference plane 6 are displayed and compared to define the reference transformation 14 and the reference image 16.
  • the reference image 16 and the reference transformation 14 are then stored.
  • FIG. 2 schematically illustrates the update phase of the transformation obtained in step 10. This phase is entirely automatic and is based on the pairings of descriptors invariant to the changes of scale extracted from a current image 20 and the reference image 16 obtained during this initialization phase.
  • Step 22 consists of a registration of the current image 20 and the reference image 16 to verify the parameters of the reference transformation 14.
  • step 10 If the parameters obtained do not correspond to those obtained in step 10, a new transformation is calculated, in step 24, between the current image 20 and the reference image 16.
  • the reference transformation 14 is updated by composition of the estimated transformation between the current image 20 and the image of the image. reference 16 and said reference transformation 14.
  • the reference image 20 is then updated in step 26 to take into account the extension of the field of view in the case of PTZ (for Pan Tilt Zoom) cameras, while keeping unchanged the initial field of view of the reference image 20.
  • FIG. 3 illustrates the automatic telemetry method using the estimated current transformation 28 and updated in step 24.
  • a mobile object detection step 30 provides a detection mask used to extract the measurements in the picture.
  • the shooting parameters can be calculated. These are then used in step 32 to transform measurements made from the current image in metric measurements.
  • step 34 an automatic estimation of the parameters of the current transformation is performed from the transformation between the current image 20 and the following metric reference data:
  • Figure 4A schematically illustrates an image captured by a camera and Figure 4B illustrates the same ground image viewed from above.
  • FIG. 4A correspond to two ground segments S'1 and S '2 of different lengths (FIG. 4B) due to the image roll and the perspective effect due to a non-vertical angle of incidence.
  • the same two segments S c I and S C 2 corrected image roll and transformed in the reference image project in two segments of the same length due to the elimination of the perspective effect since the two projected segments are then at the same distance from the point of view.
  • the shooting distance between the optical center and the ground point targeted by the center image is given by:
  • the angular resolution is given by:

Abstract

The invention relates to a method and a device for metric telemetry on objects viewed by cameras, video surveillance for example, with a view to their identification. The method according to the invention comprises the following steps: - defining a first list containing points of a first image taken on a zone observed by at least one camera and a second list containing a second image of the same points captured on a reference plane, - estimating a transformation between said lists of points, - translating by means of the estimated transformation measurements carried out on the first image into metric dimensions, - storing said first image as reference image and said transformation as reference transformation, deducing from the estimated transformation a set of parameters intended to translate metric height measurements, said set of parameters comprising, in particular, the image roll, the picture-taking distance, the angle of incidence or the angular resolution of said camera.

Description

PROCEDE DE TELEMESURE METRIQUE METRIC TELEMETRY METHOD
DOMAINE TECHNIQUETECHNICAL AREA
L' invention se situe dans de le domaine de la recherche d' informations dans une archive vidéo et se rapporte plus spécifiquement à un procédé et à un dispositif de télémesure métrique sur des objets vus par des caméras, de vidéosurveillance par exemple, en vue de leur identification.The invention lies in the field of searching for information in a video archive and more specifically relates to a metric telemetry method and device on objects seen by cameras, video surveillance for example, in order to their identification.
L' invention concerne également un programme d'ordinateur mémorisé sur un support d'enregistrement et adapté, lorsqu'il est exécuté sur un ordinateur, pour mettre en œuvre le procédé selon l'invention.The invention also relates to a computer program stored on a recording medium and adapted, when executed on a computer, to implement the method according to the invention.
ÉTAT DE LA TECHNIQUE ANTÉRIEURESTATE OF THE PRIOR ART
Le très grand nombre de caméras de certains réseaux de vidéosurveillance nécessite le recours à des traitements automatisés destinés à attirer l'attention de l'opérateur sur des événements d'intérêt. Pour limiter le nombre de fausses alarmes, il est essentiel de pouvoir caractériser finement les objets détectés notamment en termes de dimensions et de trajectoires dans un référentiel terrestre.The very large number of cameras in some CCTV networks require the use of automated processing to draw the operator's attention to events of interest. To limit the number of false alarms, it is essential to be able to characterize the detected objects in particular in terms of dimensions and trajectories in a terrestrial reference system.
Dans la plupart des systèmes actuels, les caméras ne sont ni calibrées précisément, ni géo- référencées. Seules leur position et l'empreinte au sol approximative sont parfois utilisées pour indiquer à un opérateur la caméra la plus proche de sa zone d'intérêt. Aussi, pour les systèmes les plus évolués, une calibration complète de la caméra est requise. Cette calibration fait appel à une procédure lourde à base de mires devant être déplacées devant la caméra, procédure qui doit par ailleurs être répétée régulièrement pour compenser les dérives de la calibration ou les variations de paramètres extrinsèques comme c'est le cas pour les caméras PTZIn most current systems, cameras are neither precisely calibrated nor georeferenced. Only their position and the approximate footprint are sometimes used to indicate to an operator the camera closest to their area of interest. Also, for the most advanced systems, a complete calibration of the camera is required. This calibration uses a cumbersome procedure to the base of the charts to be moved in front of the camera, a procedure that must also be repeated regularly to compensate for calibration drift or extrinsic parameter variations as is the case for PTZ cameras
(Pan Tilt Zoom) . Une telle procédure de configuration est difficilement envisageable dans un système de télésurveillance comportant pour plusieurs milliers de caméras réparties sur une grande zone telle qu'une ville ou un aéroport par exemple.(Pan Tilt Zoom). Such a configuration procedure is difficult to envisage in a remote monitoring system comprising for several thousand cameras spread over a large area such as a city or an airport for example.
Un but de l'invention est de permettre à un opérateur de réaliser automatiquement la configuration de plusieurs caméras.An object of the invention is to allow an operator to automatically configure several cameras.
EXPOSÉ DE L' INVENTION Le but de l'invention est atteint au moyen d'un procédé de télémesure métrique basé sur une procédure simple et rapide de géo-référencement des images dans une référence commune.DISCLOSURE OF THE INVENTION The object of the invention is achieved by means of a metric telemetry method based on a simple and fast procedure of geo-referencing images in a common reference.
Le procédé selon l'invention comporte les étapes suivantes :The process according to the invention comprises the following steps:
- définir une première liste contenant des points d'une première image prise sur une zone observée par au moins une caméra et une deuxième liste contenant une deuxième image de ces mêmes points saisis sur un plan de référence,define a first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points captured on a reference plane,
- estimer une transformation entre lesdites listes de points,- estimate a transformation between said lists of points,
- traduire au moyen de la transformation estimée des mesures réalisées sur la première image en dimensions métriques. mémoriser ladite première image comme image de référence et ladite transformation comme transformation de référence.translating the measurements made on the first image into metric dimensions by means of the estimated transformation. storing said first image as a reference image and said transformation as a reference transformation.
Afin d'affiner la transformation estimée, le procédé selon l'invention fournit à l'opérateur un outil de visualisation lui permettant de juger de la qualité de l'alignement entre l'image de référence et l'image de la caméra transformée au moyen de la transformation estimée par superposition des images alignées ou par visualisation des résidus.In order to refine the estimated transformation, the method according to the invention provides the operator with a visualization tool enabling him to judge the quality of the alignment between the reference image and the image of the camera transformed with the medium. of the estimated transformation by superposition of the aligned images or by visualization of the residues.
Une fois la transformation initiale validée, l'image utilisée pour la calibration est mémorisée comme référence et utilisée continuellement pour mettre à jour la transformation courante en cas de dérives des paramètres de la caméra ou en cas de changements des paramètres extrinsèques (zoom, rotation ligne de visée, ...) .Once the initial transformation has been validated, the image used for the calibration is stored as a reference and used continuously to update the current transformation in case of drift of the camera parameters or in case of changes of the extrinsic parameters (zoom, rotation line aiming, ...).
La mise à jour de ladite transformation de référence comporte les étapes suivantes: - estimer la transformation courante entre une image courante saisie par la caméra et l'image de référence mémorisée,The updating of said reference transformation comprises the following steps: estimating the current transformation between a current image captured by the camera and the memorized reference image,
- isoler des descripteurs invariants aux changements d'échelle de l'image caméra courante et de l'image caméra de référence, combiner la transformation courante estimée et la transformation de référence mémorisée en fonction desdits descripteurs en cas de dérives des paramètres de la caméra ou changements des paramètres extrinsèques tels que le zoom ou la rotation ligne de visée . Avantageusement, ladite mise à jour de la transformation courante est réalisée automatiquement.isolating descriptors that are invariant to the changes in scale of the current camera image and the reference camera image, combining the estimated current transformation and the reference transformation stored according to said descriptors in the event of drifting of the parameters of the camera or changes to extrinsic parameters such as zoom or line of sight rotation. Advantageously, said update of the current transformation is performed automatically.
L'invention s'applique dans tous les systèmes de vidéosurveillance intelligente dont la fonction est de lever des alarmes sur des événements complexes nécessitant un faible taux de fausse alarme et donc une caractérisation fine des objets détectés, ainsi que sur les systèmes d'annotation automatique de flux de vidéosurveillance à des fins d' indexation et d'investigation.The invention is applicable in all intelligent video surveillance systems whose function is to raise alarms on complex events requiring a low rate of false alarm and thus a fine characterization of detected objects, as well as on automatic annotation systems. CCTV streaming for indexing and investigation purposes.
Le procédé fournit en effet des mesures et des trajectoires géo-référencées pouvant être utilisées pour la reconnaissance des objets détectés.The method provides geo-referenced measurements and trajectories that can be used for the recognition of detected objects.
Dans une première variante de mise en œuvre du procédé selon l'invention, la deuxième image est une ortho-image de la zone observée.In a first embodiment of the method according to the invention, the second image is an ortho-image of the observed area.
Dans une deuxième variante de mise en œuvre du procédé selon l'invention, la deuxième image est un modèle CAO de la zone observée. Le procédé selon l'invention comporte en outre une étape consistant à déduire de la transformation estimée un ensemble de paramètres destinés à traduire des mesures réalisées sur la première image en dimensions métriques (longueur, largeur, hauteur) , ledit ensemble de paramètre comportant, notamment et de façon non limitative, le roulis image, la distance de prise de vue, l'angle d'incidence ou la résolution angulaire de la caméra.In a second alternative embodiment of the method according to the invention, the second image is a CAD model of the area observed. The method according to the invention further comprises a step of deriving from the estimated transformation a set of parameters intended to translate measurements made on the first image into metric dimensions (length, width, height), said set of parameters comprising, in particular and without limitation, the image roll, the shooting distance, the angle of incidence or the angular resolution of the camera.
Le procédé selon l'invention est mis en œuvre par un dispositif de télémesure métrique comportant : - des moyens pour définir une première liste contenant des points d'une première image prise sur une zone observée par au moins une caméra et une deuxième liste contenant une deuxième image de ces mêmes points saisis sur un plan de référence,The method according to the invention is implemented by a metric telemetry device comprising: means for defining a first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points captured on a reference plane,
- des moyens pour estimer une transformation entre lesdites listes de points,means for estimating a transformation between said lists of points,
- des moyens pour traduire au moyen de la transformation estimée des mesures réalisées sur la première image en dimensions métriques.means for translating the measurements made on the first image into metric dimensions by means of the estimated transformation.
- des moyens pour mémoriser ladite première image comme image de référence et ladite transformation comme transformation de référence.means for storing said first image as a reference image and said transformation as a reference transformation.
Préférentiellement , le dispositif selon l'invention comporte en outre des moyens pour mettre à jour ladite transformation de référence comprenant:Preferably, the device according to the invention further comprises means for updating said reference transformation comprising:
- des moyens pour estimer la transformation courante entre une image courante saisie par la caméra et l'image de référence mémorisée, - des moyens pour isoler des descripteurs invariants aux changements d'échelle de l'image caméra courante et de l'image caméra de référence,means for estimating the current transformation between a current image captured by the camera and the stored reference image; means for isolating descriptors that are invariant to the changes in scale of the current camera image and the camera image; reference,
- des moyens pour combiner la transformation courante estimée et la transformation de référence mémorisée en fonction desdits descripteurs en cas de dérives des paramètres de la caméra ou changements des paramètres extrinsèques tels que le zoom ou la rotation ligne de visée.means for combining the estimated current transformation and the stored reference transformation as a function of said descriptors in the event of drifts of the camera parameters or changes in the extrinsic parameters such as the zoom or the line of sight rotation.
Le procédé selon l'invention est implémenté dans ledit dispositif par un programme d'ordinateur mémorisé sur un support d'enregistrement et adapté, lorsqu' il est exécuté sur un ordinateur, pour :The method according to the invention is implemented in said device by a computer program stored on a recording medium and adapted, when executed on a computer, for:
- définir une première liste contenant des points d'une première image prise sur une zone observée par au moins une caméra et une deuxième liste contenant une deuxième image de ces mêmes points saisis sur un plan de référence,define a first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points captured on a reference plane,
- estimer une transformation entre lesdites listes de points, - traduire au moyen de la transformation estimée des mesures réalisées sur la première image en longueurs et en hauteurs métriques.estimating a transformation between said lists of points; translating, by means of the estimated transformation of the measurements made on the first image into lengths and metric heights.
- mémoriser ladite première image comme image de référence et ladite transformation comme transformation de référence.storing said first image as a reference image and said transformation as a reference transformation.
BRÈVE DESCRIPTION DES DESSINSBRIEF DESCRIPTION OF THE DRAWINGS
D'autres caractéristiques et avantages de l'invention ressortiront de la description qui va suivre, prise à titre d'exemple non limitatif, en référence aux figures annexées dans lesquelles :Other features and advantages of the invention will emerge from the description which follows, taken by way of non-limiting example, with reference to the appended figures in which:
- La figure 1 est un diagramme illustrant schématiquement la phase d' initialisation du procédé selon l'invention,FIG. 1 is a diagram schematically illustrating the initialization phase of the method according to the invention,
- La figure 2 est un diagramme illustrant schématiquement la phase de mise à jour de la transformation de référence selon l'invention,FIG. 2 is a diagram schematically illustrating the update phase of the reference transformation according to the invention,
- La figure 3 est un diagramme illustrant schématiquement une phase de télémesure automatique utilisant la transformation courante estimée selon le procédé de l'invention, - Les figures 4A et 4B illustrent schématiquement une estimation itérative du roulis image par application du procédé selon l'invention.FIG. 3 is a diagram schematically illustrating an automatic telemetry phase using the current transformation estimated according to the method of the invention, FIGS. 4A and 4B schematically illustrate an iterative estimate of the image roll by application of the method according to the invention.
EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERSDETAILED PRESENTATION OF PARTICULAR EMBODIMENTS
La figure 1 illustre l'utilisation initiale de points homologues entre l'image caméra et l'image de référence pour estimer la transformation de référence.Figure 1 illustrates the initial use of peer points between the camera image and the reference image to estimate the reference transformation.
L'étape 2 consiste à saisir des points d'une première image 4 captée par une caméra, et ces mêmes points sélectionnés manuellement par un opérateur, ou automatiquement par exploitation et appariement de descripteurs invariants aux changements de prise de vue à partir d'un plan de référence 6 sur une zone observée.Step 2 consists of capturing points of a first image 4 captured by a camera, and these same points selected manually by an operator, or automatically by exploiting and matching descriptors that are invariant to the changes in shooting from a camera. reference plane 6 on an observed area.
L'étape 10 consiste à calculer une transformation de référence à partir des points saisis par la caméra et des points sélectionnés à partir du plan de référence 6. A l'étape 12, l'image saisie par la caméra et l'image obtenue à partir du plan de référence 6 sont affichées et comparées pour définir la transformation de référence 14 et l'image de référence 16.Step 10 consists of calculating a reference transformation from the points entered by the camera and points selected from the reference plane 6. At step 12, the image captured by the camera and the image obtained at from the reference plane 6 are displayed and compared to define the reference transformation 14 and the reference image 16.
L'image de référence 16 ainsi que la transformation de référence 14 sont ensuite mémorisées.The reference image 16 and the reference transformation 14 are then stored.
La figure 2 illustre schématiquement la phase de mise à jour de la transformation obtenue à l'étape 10. Cette phase est entièrement automatique et s'appuie sur les appariements de descripteurs invariants aux changements d'échelle extraits d'une image courante 20 et de l'image de référence 16 obtenue au cours de cette phase d'initialisation.FIG. 2 schematically illustrates the update phase of the transformation obtained in step 10. This phase is entirely automatic and is based on the pairings of descriptors invariant to the changes of scale extracted from a current image 20 and the reference image 16 obtained during this initialization phase.
L'étape 22 consiste en un recalage de l'image courante 20 et l'image de référence 16 pour vérifier les paramètres de la transformation de référence 14.Step 22 consists of a registration of the current image 20 and the reference image 16 to verify the parameters of the reference transformation 14.
Si les paramètres obtenus ne correspondent pas à ceux obtenus à l'étape 10, une nouvelle transformation est calculée, à l'étape 24, entre l'image courante 20 et l'image de référence 16.If the parameters obtained do not correspond to those obtained in step 10, a new transformation is calculated, in step 24, between the current image 20 and the reference image 16.
Selon une caractéristique de l'invention, pour éviter une dérive de l'image de référence 20 au cours du temps, la transformation de référence 14 est mise à jour par composition de la transformation estimée entre l'image courante 20 et l'image de référence 16 et ladite transformation de référence 14. L'image de référence 20 est ensuite mise à jour à l'étape 26 pour prendre en compte l'extension du champ de vue dans le cas de caméras PTZ (pour Pan Tilt Zoom) , tout en conservant inchangé le champ de vue initial de l'image de référence 20.According to a characteristic of the invention, to avoid a drift of the reference image 20 over time, the reference transformation 14 is updated by composition of the estimated transformation between the current image 20 and the image of the image. reference 16 and said reference transformation 14. The reference image 20 is then updated in step 26 to take into account the extension of the field of view in the case of PTZ (for Pan Tilt Zoom) cameras, while keeping unchanged the initial field of view of the reference image 20.
La figure 3 illustre le procédé de télémesure automatique utilisant la transformation courante estimée 28 et mise à jour à l'étape 24. Dans cet exemple, une étape 30 de détection des objets mobiles fournit un masque de détection utilisé pour extraire les mesures dans l'image.FIG. 3 illustrates the automatic telemetry method using the estimated current transformation 28 and updated in step 24. In this example, a mobile object detection step 30 provides a detection mask used to extract the measurements in the picture.
A partir de la transformation courante, les paramètres de prise de vue peuvent être calculés. Ceux- ci sont alors utilisés à l'étape 32 pour transformer les mesures effectuées à partir de l'image courante en mesures métriques.From the current transformation, the shooting parameters can be calculated. These are then used in step 32 to transform measurements made from the current image in metric measurements.
A l'étape 34, une estimation automatique des paramètres de la transformation courante est réalisée à partir de la transformation entre l'image courante 20 et les données de référence métrique suivante :In step 34, an automatic estimation of the parameters of the current transformation is performed from the transformation between the current image 20 and the following metric reference data:
- le roulis image- the roll image
- l'angle d'incidence de la prise de vue - la résolution angulaire- the angle of incidence of the shooting - the angular resolution
- la distance de prise de vue- shooting distance
Ces paramètres sont estimés grâce à des considérations géométriques sur les longueurs de segments judicieusement choisis dans le plan image et transformés au sol par la transformation courante.These parameters are estimated thanks to geometric considerations on the lengths of segments judiciously chosen in the image plane and transformed on the ground by the current transformation.
Notons que la transformation de deux segments horizontaux Sl et S2 dans l'image courante, de même longueur de part et d'autre du centre de l'image, permet d'estimer itérativement le roulis en exploitant le fait que pour un roulis nul, les longueurs au sol de ces deux segments projetés devraient être identiques. A l'inverse, en présence de roulis image, et si la ligne de visée n'est pas verticale, les longueurs projetées seront différentes. Dans ce cas, il suffit de corriger itérativement le roulis jusqu'à ce que le critère d'égalité des longueurs projetées soit effectivement vérifié .Note that the transformation of two horizontal segments S1 and S2 in the current image, of the same length on either side of the center of the image, makes it possible to estimate the roll iteratively by exploiting the fact that for a zero roll, the ground lengths of these two projected segments should be identical. Conversely, in the presence of image roll, and if the line of sight is not vertical, the projected lengths will be different. In this case, it is sufficient to iteratively correct the roll until the equality criterion of the projected lengths is actually verified.
La figure 4A illustre schématiquement une image captée par une caméra et la figure 4B illustre la même image au sol vue de dessus. A deux segments Sl et S2 horizontaux de même longueur Sur la figure 4A correspondent deux segments S'1 et S' 2 au sol de longueurs différentes (figure 4B) du fait du roulis image et de l'effet de perspective dû à un angle d'incidence non vertical. Les deux mêmes segments Scl et SC2 corrigés du roulis image et transformés dans l'image de référence se projettent selon deux segments de même longueur du fait de l'élimination de l'effet de perspective puisque les deux segments projetés sont alors à la même distance du point de vue.Figure 4A schematically illustrates an image captured by a camera and Figure 4B illustrates the same ground image viewed from above. Has two horizontal segments S1 and S2 of the same length In FIG. 4A correspond to two ground segments S'1 and S '2 of different lengths (FIG. 4B) due to the image roll and the perspective effect due to a non-vertical angle of incidence. The same two segments S c I and S C 2 corrected image roll and transformed in the reference image project in two segments of the same length due to the elimination of the perspective effect since the two projected segments are then at the same distance from the point of view.
Avec l'hypothèse que les pixels de l'image captée par la caméra présente une forme carré, le calcul des transformations, à roulis nul, de trois segments de même longueur dans l'image, soit un premier segment horizontal et deux segments verticaux, ayant tous les trois pour origine le centre image, permet de retrouver, notamment, l'angle d'incidence, la résolution angulaire et la distance de prise de vue.With the assumption that the pixels of the image captured by the camera has a square shape, calculating the transformations, with zero roll, of three segments of the same length in the image, ie a first horizontal segment and two vertical segments, having all three for origin the center image, allows to find, in particular, the angle of incidence, the angular resolution and the shooting distance.
En effet, si L| désigne la longueur projetée du segment vertical dans l'image sous le centre image le plus proche du capteur, Ls la longueur projetée du segment vertical au dessus du centre image le plus éloigné du capteur de sorte que Ls > Li, et LH la longueur projetée du segment horizontal, alors : L'angle d'incidence θ0 est donné par :
Figure imgf000012_0001
Indeed, if L | designates the projected length of the vertical segment in the image below the nearest image center of the sensor, Ls the projected length of the vertical segment above the image center farthest from the sensor so that Ls> Li, and L H the length projected horizontal segment, then: The angle of incidence θ 0 is given by:
Figure imgf000012_0001
La distance de prise de vue entre le centre optique et le point au sol visé par le centre image est donnée par :
Figure imgf000013_0001
The shooting distance between the optical center and the ground point targeted by the center image is given by:
Figure imgf000013_0001
La résolution angulaire est donnée par :The angular resolution is given by:
p
Figure imgf000013_0002
où 1 désigne la longueur des trois segments dans le plan image.
p
Figure imgf000013_0002
where 1 denotes the length of the three segments in the image plane.

Claims

REVENDICATIONS
1. Procédé de télémesure métrique caractérisé en ce qu' il comporte les étapes suivantes : - définir une première liste contenant des points d'une première image prise sur une zone observée par au moins une caméra et une deuxième liste contenant une deuxième image de ces mêmes points saisis sur un plan de référence, - estimer une transformation entre lesdites listes de points,1. Metric telemetry method characterized in that it comprises the following steps: - define a first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points entered on a reference plane, - estimate a transformation between the said points lists,
- traduire au moyen de la transformation estimée des mesures réalisées sur la première image en dimensions métriques, - mémoriser ladite première image comme image de référence et ladite transformation comme transformation de référence,translating, by means of the estimated transformation of the measurements made on the first image into metric dimensions, storing said first image as a reference image and said transformation as a reference transformation,
- déduire de la transformation estimée un ensemble de paramètres destinés à traduire des mesures réalisées sur la première image en longueurs et en hauteurs métriques, ledit ensemble de paramètre comportant, notamment, le roulis image, la distance de prise de vue, l'angle d'incidence ou la résolution angulaire de ladite caméra.deriving from the estimated transformation a set of parameters intended to translate measurements made on the first image into lengths and metric heights, said parameter set comprising, in particular, the image roll, the shooting distance, the angle of incidence or angular resolution of said camera.
2. Procédé selon la revendication 1 dans comportant en outre une étape de mise à jour de ladite transformation de référence consistant à :The method of claim 1 further comprising a step of updating said reference transformation consisting of:
- estimer la transformation courante entre une image courante saisie par la caméra et l'image de référence mémorisée, isoler des descripteurs invariants aux changements d'échelle de l'image caméra courante et de l'image caméra de référence,estimating the current transformation between a current image captured by the camera and the memorized reference image, isolating descriptors that are invariant to the changes in scale of the current camera image and the reference camera image,
- combiner la transformation courante estimée et la transformation de référence mémorisée en fonction desdits descripteurs en cas de dérives des paramètres de la caméra ou changements des paramètres extrinsèques tels que le zoom ou la rotation ligne de visée .- Combining the estimated current transformation and the stored reference transformation according to said descriptors in case of drifting camera parameters or changes in extrinsic parameters such as zoom or line of sight rotation.
3. Procédé selon la revendication 1 dans lequel ladite deuxième image est une ortho-image de la zone observée.3. The method of claim 1 wherein said second image is an ortho-image of the observed area.
4. Procédé selon la revendication 2 dans lequel ladite deuxième image est un modèle CAO de la zone observée.4. The method of claim 2 wherein said second image is a CAD model of the observed area.
5. Procédé selon la revendication 1 dans lequel la mise à jour de la transformation courante est réalisée automatiquement.5. The method of claim 1 wherein the update of the current transformation is performed automatically.
6. Dispositif de télémesure métrique caractérisé en ce qu' il comporte : - des moyens pour définir une première liste contenant des points d'une première image prise sur une zone observée par au moins une caméra et une deuxième liste contenant une deuxième image de ces mêmes points saisis sur un plan de référence, - des moyens pour estimer une transformation entre lesdites listes de points, - des moyens pour traduire au moyen de la transformation estimée des mesures réalisées sur la première image en longueurs et en hauteurs métriques,6. Metric telemetry device characterized in that it comprises: - means for defining a first list containing points of a first image taken on an area observed by at least one camera and a second list containing a second image of these same points entered on a reference plane, - means for estimating a transformation between said lists of points, means for translating, by means of the estimated transformation, measurements made on the first image into lengths and metric heights,
- des moyens pour mémoriser ladite première image comme image de référence et ladite transformation comme transformation de référence, des moyens pour déduire de la transformation estimée un ensemble de paramètres destinés à traduire des mesures réalisées sur la première image en longueurs et en hauteurs métriques, ledit ensemble de paramètre comportant, notamment, le roulis image, la distance de prise de vue, l'angle d'incidence ou la résolution angulaire de la caméra.means for storing said first image as a reference image and said transformation as a reference transformation, means for deriving from the estimated transformation a set of parameters intended to translate measurements made on the first image into lengths and metric heights, said a parameter set including, in particular, the image roll, the shooting distance, the angle of incidence or the angular resolution of the camera.
7. Dispositif selon la revendication 6 comportant en outre des moyens pour mettre à jour ladite transformation de référence comprenant :The device of claim 6 further comprising means for updating said reference transformation comprising:
- des moyens pour estimer la transformation courante entre une image courante saisie par la caméra et l'image de référence mémorisée,means for estimating the current transformation between a current image captured by the camera and the memorized reference image,
- des moyens pour isoler des descripteurs invariants aux changements d'échelle de l'image caméra courante et de l'image caméra de référence, des moyens pour combiner la transformation courante estimée et la transformation de référence mémorisée en fonction desdits descripteurs en cas de dérives des paramètres de la caméra ou changements des paramètres extrinsèques tels que le zoom ou la rotation ligne de visée. means for isolating descriptors that are invariant to the changes in scale of the current camera image and the reference camera image, means for combining the estimated current transformation and the stored reference transformation according to said descriptors in case of drifts camera settings or extrinsic parameter changes such as zoom or line of sight rotation.
8. Programme d'ordinateur mémorisé sur un support d'enregistrement et destiné, lorsqu'il est exécuté sur un ordinateur à mettre en œuvre le procédé selon l'une des revendications 1 à 6. 8. Computer program stored on a recording medium and intended, when executed on a computer to implement the method according to one of claims 1 to 6.
PCT/EP2009/060649 2008-08-20 2009-08-18 Method of metric telemetry WO2010020624A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0855642 2008-08-20
FR0855642A FR2935188B1 (en) 2008-08-20 2008-08-20 METRIC TELEMETRY METHOD

Publications (1)

Publication Number Publication Date
WO2010020624A1 true WO2010020624A1 (en) 2010-02-25

Family

ID=40561867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/060649 WO2010020624A1 (en) 2008-08-20 2009-08-18 Method of metric telemetry

Country Status (2)

Country Link
FR (1) FR2935188B1 (en)
WO (1) WO2010020624A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529607A (en) * 2016-12-09 2017-03-22 国家测绘地理信息局四川测绘产品质量监督检验站 Method and device for acquiring homonymy points of images
CN107071357A (en) * 2017-04-17 2017-08-18 四川九洲电器集团有限责任公司 A kind of data processing method, airborne end, ground terminal and UAS

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010038718A1 (en) * 1997-05-09 2001-11-08 Rakesh Kumar Method and apparatus for performing geo-spatial registration of imagery

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010038718A1 (en) * 1997-05-09 2001-11-08 Rakesh Kumar Method and apparatus for performing geo-spatial registration of imagery

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
APPEL M ET AL: "3D reconstruction from co-registered orthographic and perspective images: theoretical framework and applications", PATTERN RECOGNITION, 2002. PROCEEDINGS. 16TH INTERNATIONAL CONFERENCE ON QUEBEC CITY, QUE., CANADA 11-15 AUG. 2002, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 4, 11 August 2002 (2002-08-11), pages 21 - 26, XP010613462, ISBN: 978-0-7695-1695-0 *
HIRVONEN D ET AL: "Video to reference image alignment in the presence of sparse features and appearance change", PROCEEDINGS 2001 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. CVPR 2001. KAUAI, HAWAII, DEC. 8 - 14, 2001; [PROCEEDINGS OF THE IEEE COMPUTER CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION], LOS ALAMITOS, CA, IEEE COMP. SOC, US, vol. 2, 8 December 2001 (2001-12-08), pages 366 - 373, XP010584145, ISBN: 978-0-7695-1272-3 *
WILDES R P ET AL: "Video georegistration: algorithm and quantitative evaluation", PROCEEDINGS OF THE EIGHT IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION. (ICCV). VANCOUVER, BRITISH COLUMBIA, CANADA, JULY 7 - 14, 2001; [INTERNATIONAL CONFERENCE ON COMPUTER VISION], LOS ALAMITOS, CA : IEEE COMP. SOC, US, vol. 2, 7 July 2001 (2001-07-07), pages 343 - 350, XP010554109, ISBN: 978-0-7695-1143-6 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529607A (en) * 2016-12-09 2017-03-22 国家测绘地理信息局四川测绘产品质量监督检验站 Method and device for acquiring homonymy points of images
CN106529607B (en) * 2016-12-09 2019-06-18 国家测绘地理信息局四川测绘产品质量监督检验站 The same place acquisition methods and device of image
CN107071357A (en) * 2017-04-17 2017-08-18 四川九洲电器集团有限责任公司 A kind of data processing method, airborne end, ground terminal and UAS

Also Published As

Publication number Publication date
FR2935188A1 (en) 2010-02-26
FR2935188B1 (en) 2011-04-29

Similar Documents

Publication Publication Date Title
EP2208355B1 (en) Method for synchronising video streams
US8368752B2 (en) Document camera with size-estimating function and size estimation method
Dirik et al. Digital single lens reflex camera identification from traces of sensor dust
EP1779322B1 (en) A digital image acquisition system having means for determining a camera motion blur function
EP3008677A1 (en) Method and system for identifying damage caused to a vehicle
FR2899332A1 (en) VISIBILITY FIELD MEASUREMENT DEVICE FOR VEHICLE AND DRIVING ASSISTANCE SYSTEM FOR VEHICLE
FR2989198A1 (en) METHOD AND DEVICE FOR DETECTING AN OBJECT IN AN IMAGE
US9473745B2 (en) System and method for providing live imagery associated with map locations
EP3326150B1 (en) Method for displaying a laser spot
EP2441048A1 (en) Methods and devices for identifying real objects, for following up the representation of said objects and for augmented reality in an image sequence in a client-server mode
WO2010020624A1 (en) Method of metric telemetry
EP2611169A1 (en) Device for the acquisition of stereoscopic images
FR2958767A1 (en) METHOD OF DETECTING TARGETS IN STEREOSCOPIC IMAGES
EP1995693A1 (en) Method for detecting a moving object in a stream of images
FR2977968A1 (en) METHOD FOR REPRESENTING THE POSSIBLE MOVEMENTS OF A STRUCTURE FOR AN ORDINARY TYPE APPARATUS
WO2021078523A1 (en) Method for drone surveillance of an area to be monitored having at least one part bordered externally by an area in which surveillance is prohibited
EP3367353B1 (en) Control method of a ptz camera, associated computer program product and control device
FR3004835A1 (en) METHOD FOR TRACKING OBJECTS BY HYPERSPECTRAL IMAGING
CA3003931A1 (en) Method for decamouflaging an object
EP2678825B1 (en) Method for calibrating a stereoscopic photography device
FR2892822A1 (en) DEVICE AND METHOD FOR MEASURING THE SPEED OF A MOBILE ELEMENT IN A TERMINAL ENVIRONMENT
KR20190100844A (en) Computer program for preventing information spill displayed on display device and security service using the same
EP3072110B1 (en) Method for estimating the movement of an object
EP4177839A1 (en) Method for determining calibration parameters of an image capturing device and associated computer program product
WO2017187059A1 (en) Method for adjusting a stereoscopic imaging device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09807936

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09807936

Country of ref document: EP

Kind code of ref document: A1