Images annotées extraites du flux vidéo des caméras de circulation (archives)
Published by
Ville de MontréalImages extraites des captations des caméras d'observation routière accompagnées d’annotations pour la segmentation sémantique et pour la détection d’objets.
Pour la segmentation sémantique, chaque image de circulation source est accompagnée d’une image contenant la segmentation sémantique. La segmentation comporte 13 classes: poteaux, panneaux de signalisation, véhicules, végétation, terre-pleins, bâtiments, espaces privés, trottoirs, voies, piétons, structures, construction, néant.
Pour la détection d’objets, un fichier .xml contenant la localisation des objets (i.e. cadre englobant) est fourni avec chaque image de circulation. L’annotation comporte 5 classes : véhicules, piétons, objets de construction, cyclistes et autobus.
Data
Name | Format | Size | Last Changed | Download/ Preview |
---|---|---|---|---|
Images annotées pour la segmentation sémantique | JPEG | 674.4 MB |
2 years ago
2023-03-15 15:10
|
|
Images annotées pour la détection d'objets | JPEG | 621 MB |
2 years ago
2023-03-15 15:09
|
Methodology
Les images sources sont tirées des flux d’images publics des caméras d'observation routière. Ces caméras sont installées dans le but premier d’aider les opérateurs du CGMU dans leur gestion de la circulation. Pour assurer le respect de la vie privée de nos citoyens, elles sont ajustées pour ne pas pouvoir capter les visages ni les plaques d’immatriculations des véhicules. Les images sont aussi publiées à des intervalles de 5 minutes. Si on arrivait malgré ces précautions à identifier un véhicule ou une personne par sa couleur ou les vêtements portés, il ne serait pas possible de suivre ses déplacements. Les images ont été captées entre mai et juillet 2019. La date (UTC) ainsi que l’identifiant de la caméra sont indiqués à même l’image de circulation. Les mêmes images sources sont incluses dans les deux ensembles de données publiés afin d’avoir 2 archives complètes pouvant être exploitées, sans interdépendance, pour l'entraînement de modèles de segmentation sémantique ou de détection d’objets.
Images annotées pour la segmentation sémantique
Chaque pixel des images sources est classifié selon 13 classes : voie, trottoir, terre-plein, végétation, panneaux de signalisation (incluant les feux), les poteaux, les objets de construction (ex. : les cônes), les bâtiments, les structures (ex.: un pont), les terrains privés, les piétons et les véhicules (incluant les vélos) et le néant (classe fourre-tout pour tout ce qui ne fait pas partie des 12 autres classes, comme le cie). La classe des terrains privés a préséance sur les autres classes, par exemple une voiture dans un stationnement privé ne sera pas identifiée comme faisant partie de la classe véhicule, mais bien de celle des terrains privés. Voir le dictionnaire de données (fichier classes.json) pour la correspondance au code de couleur. Les données sont fournies sous la forme de 2 répertoires et un dictionnaire compressés dans une archive: * JPEGImages: images de circulation source (.jpeg) * Semantic: images annotées (.png). * classes.json: dictionnaire des classes de segmentation .(json)
Images annotées pour la détection d’objets
Liste d’objets d’intérêt contenus dans une image, classifiés et accompagnés de leur cadre englobant. Les 5 classes d’objets considérées dans ce jeu de données sont : véhicules, piétons, objets de construction, cyclistes et autobus. La classe cycliste inclut uniquement une personne sur un vélo (ou une trottinette/monocycle/vélo électrique), elle exclut donc les vélos seuls et les personnes marchant à côté de leur vélo. Tous les autres modes de transports motorisés sont classés comme véhicules ou autobus. Cet ensemble de données est une archive, organisée selon le format standardisé d’annotation Pascal VOC, qui comprend 3 répertoires: - JPEGImages: images de circulation source (.jpeg) - Annotations: annotations (.xml), incluant les attributs suivants: - filename: nom de l’image annotée - size: la hauteur et la largeur de l’image en nombre de pixels, ainsi que la profondeur (i.e. 3 puisque l’image est de type RGB) - Il y a ensuite autant d’étiquettes object qu’il y a d’objets d’intérêt dans l’image, avec les étiquettes suivantes: - name: la classe de l’objet (vehicle, pedestrian, construction, cyclist, bus) - bnbox: la localisation du cadre autour de l’objet, sous la forme de deux coordonnées (le coin supérieur gauche - xmin, ymin, et le coin inférieur droit - xmax, ymax) - ImageSets: contient différents fichiers .txt contenant la liste des images composant les ensembles d’entraînement, de validation et de test.
Processus d’annotation
Chacune des annotations (segmentation sémantique et pour détection) est associée à l’une des images sources. Le libellé de l’image est le même que celui de sa source.
L’annotation d’images est un processus long et laborieux qui a nécessité un effort collectif et un logiciel spécialisé.
Pour la segmentation sémantique, la Ville a fait appel à une firme externe spécialisée pour réaliser l’exercice en limitant le nombre d’images au strict minimum jugé nécessaire (presque 10 000). Pour l’annotation de type détection d’objets, la Ville a procédé à l’annotation à l’interne avec un petit groupe de candidats volontaires.
Pour la détection d’objets, la Ville a procédé à l’annotation à l’interne avec un petit groupe de candidats volontaires. Le processus d’annotation a été initié par une extraction automatique des cadres englobants (bounding boxes) à partir des annotations de segmentation sémantique. Le code permettant cette extraction est publié sur la forge GitHub de la Ville.
Un processus de vérification a été mis en place à l’interne afin de valider la qualité et de rectifier l’information au besoin. Malgré ce processus, étant donné la quantité d’images et les ressources restreintes, il est possible que certaines imperfections soient encore présentes dans les annotations.
Territories
Keywords
Additional Information
Publisher
Service des technologies de l'information
Temporal coverage
--
Source (URL)
--
Update frequency
notPlanned
Descriptive Information Last Updated
3 months ago 2024-09-25 09:10Date the dataset was first added
2020-10-26 18:37Ville de Montréal
Montréal estime que les données ouvertes sont un élément central dans l’atteinte des objectifs en matière de transparence et de développement économique, mais aussi dans la résolution des défis urbains. Plus ces données sont rendues publiques et partagées avec la communauté, plus elles seront exploitées à leur plein potentiel dans un écosystème montréalais en pleine effervescence.