Verbinden Sie Ihren Roboter oder öffnen Sie die Simulation

Wenn Sie einen echten Roboter verwenden, schließen Sie ihn jetzt an und vergewissern Sie sich, dass er von Ihrem System erkannt wird, bevor Sie den Aufnahmebefehl ausführen. Wenn Sie in der Simulation arbeiten, kann der Befehl „Aufzeichnen“ einen virtuellen Roboter steuern gym_pusht oder gym_aloha Umgebungen, die eine Tastatur oder eine Skriptrichtlinie als Teleoperationsquelle verwenden.

# Real robot — verify connection (replace so100 with your robot type) python -m lerobot.scripts.control_robot \ --robot-path lerobot/configs/robot/so100.yaml \ --control-mode teleoperate \ --teleop-time-s 5 # Simulation — no hardware needed python -m lerobot.scripts.control_robot \ --robot-path lerobot/configs/robot/so100_sim.yaml \ --control-mode teleoperate \ --teleop-time-s 5

In der Terminalausgabe sollten Gelenkzustände gestreamt werden und (bei echten Robotern) der Arm auf Eingaben reagieren. Wenn nicht, beheben Sie das Verbindungsproblem, bevor Sie fortfahren – die Aufnahme mit einem nicht verbundenen Roboter führt stillschweigend zu beschädigten Daten.

Der Record-Befehl

Der zentrale Aufnahmebefehl. Passen Sie die Flags an Ihr Setup an:

python -m lerobot.scripts.control_robot \ --robot-path lerobot/configs/robot/so100.yaml \ --control-mode-Datensatz \ --dataset.repo-id $HF_USER/pick-place-v1 \ --dataset.num-episodes 50 \ --dataset.single-task „Nimm den roten Würfel auf und lege ihn in die Schüssel“ \ --dataset.fps 30 \ --dataset.push-to-hub 1 \ --display-cameras 1 # $HF_USER is your HuggingFace username (set via: export HF_USER=your_username) # --dataset.push-to-hub 1 uploads automatically after each episode # --display-cameras 1 shows live camera feeds during recording
Simulationsaufzeichnung: Ersetzen --robot-path mit deiner Sim-Konfiguration. Hinzufügen --env-name gym_pusht/PushT-v0 Und --policy-path lerobot/act_pusht_keypoints um geskriptete (nicht menschliche) Demonstrationen für einen Basisdatensatz aufzuzeichnen.

Wie viele Demonstrationen?

Die richtige Anzahl hängt von Ihrem Setup ab:

  • Simulation: 50 geskriptete Episoden reichen für eine Basisrichtlinie aus. Die Umgebung ist deterministisch, daher ist die Varianz gering und 50 reicht aus, damit ACT konvergiert.
  • Echter Roboter, einfache Aufgabe: 50–80 menschliche Demonstrationen. Ein Pick-and-Place mit einer festen Objektposition kann am unteren Ende dieses Bereichs gut trainieren, wenn Ihre Demos konsistent sind.
  • Echter Roboter, variable Aufgabe: 100–200 Demonstrationen. Wenn die Objektpositionen variieren oder die Aufgabe mehrere Teilschritte erfordert, benötigen Sie mehr Abdeckung.

Für diesen Pfad, Ziel Mindestens 50 Vorführungen. Qualität schlägt Quantität – 50 konsistente Demonstrationen übertreffen jedes Mal 150 schlampige.

Gute Demonstrationspraktiken

Konsistente Arbeitsplatzeinrichtung

Setzen Sie Objekte vor jeder Episode auf die gleiche Position zurück. Markieren Sie die Startpositionen mit Klebeband auf dem Tisch. Die Richtlinie lernt aus der Verteilung der Positionen in Ihren Demos – wenn sich alle an derselben Stelle befinden, wird die Richtlinie für diese Stelle kalibriert.

Vollständige Episoden

Jede Episode sollte mit der gleichen Ausgangsposition beginnen und mit der vollständigen Erledigung der Aufgabe enden. Hören Sie nicht mitten in der Aufgabe mit der Aufzeichnung auf. Eine unvollständige Episode, in der sich der Greifer in der Mitte eines Griffs befindet, lehrt das Modell ein gebrochenes Verhalten.

Bewusste, sanfte Bewegungen

Bewegen Sie sich mit 40–60 % der Höchstgeschwindigkeit. Langsam genug, um flüssig zu sein, schnell genug, um nicht nervös zu sein. Das Modell lernt das Timing aus Ihren Demonstrationen – unregelmäßige Geschwindigkeit führt zu unregelmäßigen Richtlinien.

Teilweise oder abgebrochene Demos

Wenn Sie das Objekt fallen lassen, mit dem Arbeitsbereich kollidieren oder einen Fehler auslösen, drücken Sie Ctrl+C um die Episode abzubrechen. Die Folge wird verworfen. Pushen Sie niemals eine abgebrochene Episode – das vergiftet den Datensatz.

Inkonsistente Strategie

Mischen Sie keine Strategien: Greifen Sie in einigen Demos nicht von links und in anderen nicht von rechts. Wählen Sie einen Ansatz und verwenden Sie ihn für jede Episode. Der CVAE von ACT lernt einen einzigen „Stil“ – Inkonsistenz zwingt ihn zur Mittelung, wodurch keine der beiden Strategien zuverlässig erzeugt wird.

Drücken Sie auf HuggingFace Hub

Wenn Sie es nicht eingestellt haben --dataset.push-to-hub 1 Während der Aufnahme manuell nach der Sitzung drücken:

# Push your completed dataset to HuggingFace Hub python -m lerobot.scripts.push_dataset_to_hub \ --dataset-dir ~/lerobot-datasets/pick-place-v1 \ --repo-id $HF_USER/pick-place-v1 # Verify it is live at: # https://huggingface.co/datasets/$HF_USER/pick-place-v1
Sichtbarkeit des Datensatzes: Neue Datensätze sind auf HuggingFace Hub standardmäßig öffentlich. Wenn Ihr Arbeitsbereich oder Ihre Aufgabe vertraulich ist, fügen Sie hinzu --private 1 zum Push-Befehl. Öffentliche Datensätze tragen zur Robotik-Community bei und können in der vorgestellt werden SVRC-Datensatzbibliothek.

Einheit 3 ​​abgeschlossen, wenn...

Sie haben mindestens 50 vollständige, nicht abgebrochene Demonstrationen in einem LeRobot-Datensatz auf HuggingFace Hub. Sie können Ihren Datensatz mit laden LeRobotDataset("your-username/pick-place-v1") und sehen Sie sich die erwartete Anzahl der Folgen an. Sie haben mindestens 5 Ihrer eigenen Episoden mit visualisiert lerobot.scripts.visualize_dataset und bestätigt, dass die Gelenkbahnen glatt aussehen und die Greiferzustandsänderungen sauber sind. Sie sind bereit, in Einheit 4 zu trainieren.