Benchmarks für Roboterlernen
Standardisierte Auswertung für Robotermanipulation – RLBench, LIBERO, CALVIN und mehr. Erfolgsquoten, Aufgabenerfüllung, Bewertungsmetriken.
Simulationen-Benchmark-Track
Aufgabensuiten für eine reproduzierbare Simulation-First-Bewertung.
SammlungEchte Roboterbewertung
Die Benchmarks konzentrierten sich auf die integrierte Bereitstellung und Robustheit.
SammlungSprachbedingte Aufgaben
Benchmarks, die die Unterrichtsgrundlage und die Aufgabenzusammensetzung betonen.
Beliebte Kategorien
Beliebte Tags
Benchmarks für Manipulation
RLBench
Über 100 Manipulationsaufgaben in PyRep. Wird häufig für die VLA-Bewertung verwendet. BridgeVLA 88,2 %, InternVLA 95 %+ für Teilmengen.
Benchmark ansehen → SimulationLIBERO
Maßstab für lebenslanges Lernen. 130 Aufgaben, Raum-/Objekt-/Ziel-Suiten. RoboSuite. 95,9 % SOTA (InternVLA).
Benchmark ansehen → SimulationCALVIN
Komponieren von Aktionen aus Sprache und Vision. Langfristig, sprachbedingt. RoboFlamingo starke Grundlinie.
Benchmark ansehen → Echter RoboterGoogle Robot Benchmark
Manipulation in der realen Welt. Über 700 Aufgaben. WidowX, verschiedene Ausführungsformen. Erfolgsquote, Multitasking-Bewertung.
Benchmark ansehen → Echter RoboterCOLOSSEUM
Groß angelegter Benchmark für echte Roboter. Vielfältige Aufgaben, Umgebungen. BridgeVLA 64 %.
Benchmark ansehen →Vorgeschlagene Modelle und Datensätze
Vergleichbare Kennzahlen
Benchmarks werden für Leistungsprüfungen von Apfel zu Apfel gruppiert.
Echte vs. Sim-Abdeckung
Bewerten Sie sowohl kontrollierte als auch einsatzorientierte Einstellungen.
Modellzuordnung
Jeder Benchmark-Pfad ist mit kompatiblen Modellfamilien verknüpft.
Ausführungsunterstützung
Unterstützung bei Datenerfassungs- und Auswertungsvorgängen bei Bedarf.