Nous avons rendu public l'ensemble de données ouvertes Waymo pour aider la communauté des chercheurs à faire des progrès dans la perception des machines et la technologie de conduite autonome.
L'ensemble de données ouvert Waymo est composé de deux ensembles de données : l'ensemble de données Perception avec des données de capteurs haute résolution et des étiquettes pour 2 030 scènes, et l'ensemble de données Motion avec trajectoires d'objets et cartes 3D correspondantes pour 103 354 scènes.
Ce référentiel de code (à l'exclusion du dossier src/waymo_open_dataset/wdl_limited
) est sous licence Apache, version 2.0. Le code apparaissant dans src/waymo_open_dataset/wdl_limited
est sous licence selon les termes qui y figurent. Le Waymo Open Dataset lui-même est concédé sous licence selon des conditions distinctes. Veuillez visiter https://waymo.com/open/terms/ pour plus de détails. Le code situé dans chacun des sous-dossiers situés dans src/waymo_open_dataset/wdl_limited
est sous licence (a) une licence de droit d'auteur BSD à 3 clauses et (b) une licence de brevet limitée supplémentaire. Chaque licence de brevet limitée s'applique uniquement au code du sous-dossier wdl_limited
respectif et est concédée sous licence pour une utilisation uniquement avec le cas d'utilisation décrit dans cette licence en relation avec l'ensemble de données ouvert Waymo, tel qu'autorisé et conformément au contrat de licence de l'ensemble de données Waymo. pour un usage non commercial. Voir wdl_limited/camera/, wdl_limited/camera_segmentation/, wdl_limited/sim_agents_metrics/, respectivement, pour plus de détails.
Les règles ont été mises à jour pour permettre la formation (y compris les modèles de pré-formation, de co-formation ou de réglage fin) à l'aide de poids gelés et pré-entraînés à partir de modèles open source accessibles au public pour les soumissions aux défis. Nous avons également ajouté de nouveaux ensembles de champs (qui sont désormais obligatoires, sinon le serveur renverra une erreur) dans les métadonnées de soumission pour suivre la manière dont les participants ont généré leurs soumissions. Nous avons mis à jour les didacticiels pour refléter ce changement. Consultez les nouveaux champs dans les fichiers prototypes de soumission pour les mouvements, les agents de simulation et le flux d'occupation.
Cette mise à jour contient plusieurs modifications/ajouts aux ensembles de données :
Ensemble de données de perception (v1.4.3 et v2.0.1) :
Ensemble de données de mouvement (v1.2.1) :
Nous apportons également les modifications suivantes au code prenant en charge les défis.
Prédiction de mouvement :
Agents Sim :
Nous avons publié la version v1.6.1 du package pip avec des correctifs pour les métriques WOSAC :
Nous avons publié un ensemble de données d'actifs centrés sur les objets à grande échelle contenant plus de 1,2 million d'images et d'observations lidar de deux catégories principales (véhicules et piétons) à partir de l'ensemble de données de perception (v2.0.0).
most_visible_camera
, des retours lidar projetés sur la caméra correspondante, des informations sur les rayons de caméra par pixel et une segmentation panoptique 2D auto-étiquetée qui prend en charge la reconstruction NeRF d'objet.Cette mise à jour majeure comprend la prise en charge du code pour quatre défis sur waymo.com/open, ainsi que des mises à jour des ensembles de données des ensembles de données de perception et de mouvement.
v2.0.0 de l'ensemble de données de perception
v1.4.2 de l'ensemble de données de perception
v1.2.0 de l'ensemble de données de mouvement
Ajout du code de support pour les quatre Waymo Open Dataset Challenges 2023
Nous avons publié la version 1.4.1 de l'ensemble de données Perception.
Nous avons publié la version 1.4.0 de l'ensemble de données Perception.
Compute Metrics
dans le didacticiel.Nous avons publié la version 1.3.2 de l'ensemble de données Perception pour améliorer la qualité et la précision des étiquettes.
num_top_lidar_points_in_box
dans dataset.proto pour le défi de détection de caméra 3D uniquement. Nous avons publié la version 1.3.1 de l'ensemble de données Perception pour prendre en charge les défis 2022 et avons mis à jour ce référentiel en conséquence.
projected_lidar_labels
dans dataset.proto.Nous avons publié la version 1.3.0 de l'ensemble de données Perception et les défis 2022. Nous avons mis à jour ce référentiel pour ajouter la prise en charge des nouveaux labels et des défis.
Nous avons publié la version 1.1 de l'ensemble de données Motion pour inclure des informations sur la connectivité des voies. Pour en savoir plus sur les détails techniques, veuillez lire lane_neighbors_and_boundaries.md.
Nous avons élargi l'ensemble de données ouvert Waymo pour inclure également un ensemble de données de mouvement comprenant les trajectoires d'objets et les cartes 3D correspondantes pour plus de 100 000 segments. Nous avons mis à jour ce référentiel pour ajouter la prise en charge de ce nouvel ensemble de données.
De plus, nous avons ajouté des instructions et des exemples pour les défis de détection en temps réel. Veuillez suivre ces instructions.
Pour en savoir plus sur l'ensemble de données et y accéder, veuillez visiter https://www.waymo.com/open.
Ce référentiel de code contient :
@InProceedings{Sun_2020_CVPR, author = {Sun, Pei et Kretzschmar, Henrik et Dotiwalla, Xerxès et Chouard, Aurélien et Patnaik, Vijaysai et Tsui, Paul et Guo, James et Zhou, Yin et Chai, Yuning et Caine, Benjamin et Vasudevan, Vijay et Han, Wei et Ngiam, Jiquan et Zhao, Hang et Timofeev, Aleksei et Ettinger, Scott et Krivokon, Maxim et Gao, Amy et Joshi, Aditya et Zhang, Yu et Shlens, Jonathon et Chen, Zhifeng et Anguelov, Dragomir} , titre = {Évolutivité de la perception pour la conduite autonome : ensemble de données ouvertes Waymo}, titre du livre = {Actes de la conférence IEEE/CVF sur la vision par ordinateur et la reconnaissance de formes (CVPR)}, mois = {juin}, année = {2020} }
@InProceedings{Ettinger_2021_ICCV, author={Ettinger, Scott et Cheng, Shuyang et Caine, Benjamin et Liu, Chenxi et Zhao, Hang et Pradhan, Sabeek et Chai, Yuning et Sapp, Ben et Qi, Charles R. et Zhou, Yin et Yang, Zoey et Chouard, Aur'elien et Sun, Pei et Ngiam, Jiquan et Vasudevan, Vijay et McCauley, Alexander et Shlens, Jonathon et Anguelov, Dragomir}, title={Prévision de mouvement interactive à grande échelle pour la conduite autonome : The Waymo Open Motion Dataset}, booktitle= Actes de la Conférence internationale IEEE/CVF sur la vision par ordinateur (ICCV)}, mois={octobre}, année={2021}, pages={9710-9719} }
@InProceedings{Kan_2024_icra, author={Chen, Kan et Ge, Runzhou et Qiu, Hang et Ai-Rfou, Rami et Qi, Charles R. et Zhou, Xuanyu et Yang, Zoey et Ettinger, Scott et Sun, Pei et Leng, Zhaoqi et Mustafa, Mustafa et Bogun, Ivan et Wang, Weiyue et Tan, Mingxing et Anguelov, Dragomir}, title={WOMD-LiDAR : analyse comparative des ensembles de données de capteurs bruts pour la prévision de mouvement}, mois={mai}, booktitle= Actes du Conférence internationale de l'IEEE sur la robotique et l'automatisation (ICRA)}, année ={2024} }
Le tableau suivant est nécessaire pour que cet ensemble de données soit indexé par les moteurs de recherche tels que Google Dataset Search.
propriété | valeur | ||||||
---|---|---|---|---|---|---|---|
nom | Waymo Open Dataset: An autonomous driving dataset | ||||||
nom alternatif | Waymo Open Dataset | ||||||
URL | https://github.com/waymo-research/waymo-open-dataset | ||||||
pareil | https://github.com/waymo-research/waymo-open-dataset | ||||||
pareil | https://www.waymo.com/open | ||||||
description | The Waymo Open Dataset is comprised of high-resolution sensor data collected by autonomous vehicles operated by the Waymo Driver in a wide variety of conditions. We're releasing this dataset publicly to aid the research community in making advancements in machine perception and self-driving technology. | ||||||
fournisseur |
| ||||||
licence |
|