Repères d'apprentissage des robots
Évaluation standardisée pour la manipulation de robots : RLBench, LIBERO, CALVIN et plus encore. Taux de réussite, achèvement des tâches, mesures d'évaluation.
Piste de référence de simulation
Suites de tâches pour une évaluation reproductible basée sur la simulation.
CollectionÉvaluation de robots réels
Des benchmarks axés sur le déploiement intégré et la robustesse.
CollectionTâches conditionnées par la langue
Des repères qui mettent l’accent sur les bases de l’instruction et la composition des tâches.
Catégories populaires
Balises populaires
Repères pour la manipulation
RLBanc
Plus de 100 tâches de manipulation dans PyRep. Largement utilisé pour l'évaluation VLA. BridgeVLA 88,2 %, InternVLA 95 %+ sur les sous-ensembles.
Voir le benchmark → SimulationLIBERO
Référence en matière d'apprentissage tout au long de la vie. 130 tâches, suites spatiales/objets/objectifs. RoboSuite. 95,9% SOTA (InternVLA).
Voir le benchmark → SimulationCALVIN
Composer des actions à partir du langage et de la vision. À long horizon, conditionné par le langage. Base de référence solide de RoboFlamingo.
Voir le benchmark → Vrai robotÉvaluation des robots Google
Manipulation du monde réel. Plus de 700 tâches. WidowX, divers modes de réalisation. Taux de réussite, évaluation multi-tâches.
Voir le benchmark → Vrai robotCOLOSSEUM
Benchmark de robots réels à grande échelle. Diverses tâches, environnements. PontVLA 64%.
Voir le benchmark →Modèles et ensembles de données suggérés
Mesures comparables
Les références sont regroupées pour des contrôles de performances pommes par pommes.
Couverture réelle contre simulation
Évaluez les paramètres contrôlés et orientés déploiement.
Cartographie du modèle
Chaque chemin de référence renvoie à des familles de modèles compatibles.
Prise en charge de l'exécution
Prise en charge des opérations de saisie et d’évaluation des données en cas de besoin.