Connectez votre robot ou ouvrez la simulation

Si vous utilisez un vrai robot, connectez-le maintenant et confirmez qu'il est reconnu par votre système avant d'exécuter la commande d'enregistrement. Si vous travaillez en simulation, la commande record peut piloter un robot virtuel dans le gym_pusht ou gym_aloha environnements utilisant un clavier ou une stratégie scriptée comme source de téléopération.

# Real robot — verify connection (replace so100 with your robot type) python -m lerobot.scripts.control_robot \ --robot-path lerobot/configs/robot/so100.yaml \ --mode de contrôle téléopération \ --teleop-time-s 5 # Simulation — no hardware needed python -m lerobot.scripts.control_robot \ --robot-path lerobot/configs/robot/so100_sim.yaml \ --mode de contrôle téléopération \ --teleop-time-s 5

Vous devriez voir les états conjoints circuler dans la sortie du terminal et (pour les vrais robots) le bras répondant à l'entrée. Sinon, résolvez le problème de connexion avant de continuer : l'enregistrement avec un robot déconnecté produit silencieusement des données corrompues.

La commande d'enregistrement

La commande d'enregistrement de base. Adaptez les drapeaux à votre configuration :

python -m lerobot.scripts.control_robot \ --robot-path lerobot/configs/robot/so100.yaml \ --enregistrement en mode contrôle \ --dataset.repo-id $HF_USER/pick-place-v1 \ --dataset.num-épisodes 50 \ --dataset.single-task "Prenez le cube rouge et placez-le dans le bol" \ --dataset.fps 30 \ --dataset.push-to-hub 1 \ --affichage-caméras 1 # $HF_USER is your HuggingFace username (set via: export HF_USER=your_username) # --dataset.push-to-hub 1 uploads automatically after each episode # --display-cameras 1 shows live camera feeds during recording
Enregistrement de simulation : Remplacer --robot-path avec votre configuration SIM. Ajouter --env-name gym_pusht/PushT-v0 et --policy-path lerobot/act_pusht_keypoints pour enregistrer des démonstrations scriptées (et non humaines) pour un ensemble de données de référence.

Combien de manifestations ?

Le bon numéro dépend de votre configuration :

  • Simulation: 50 épisodes scénarisés suffisent pour une politique de base. L'environnement est déterministe, donc la variance est faible et 50 suffit pour que ACT converge.
  • Un vrai robot, une tâche simple : 50 à 80 démonstrations humaines. Un pick-and-place avec une position d'objet fixe peut bien s'entraîner au bas de cette plage si vos démos sont cohérentes.
  • Véritable robot, tâche variable : 100 à 200 démonstrations. Si les positions des objets varient ou si la tâche nécessite plusieurs sous-étapes, vous avez besoin d'une plus grande couverture.

Pour ce chemin, ciblez 50 démonstrations minimum. La qualité bat la quantité : 50 démonstrations cohérentes surpassent à chaque fois 150 démonstrations bâclées.

Bonnes pratiques de démonstration

Configuration cohérente de l'espace de travail

Réinitialisez les objets à la même position avant chaque épisode. Utilisez du ruban adhésif sur la table pour marquer les positions de départ. La politique apprendra de la répartition des positions dans vos démos : si elles se trouvent toutes au même endroit, la politique sera calibrée pour cet endroit.

Des épisodes complets et complets

Chaque épisode doit commencer à partir de la même pose à la maison et se terminer avec la tâche entièrement terminée. N'arrêtez pas l'enregistrement en cours de tâche. Un épisode incomplet où la pince est à mi-chemin de la préhension enseigne au modèle un comportement cassé.

Mouvements délibérés et fluides

Déplacez-vous à 40 à 60 % de la vitesse maximale. Assez lent pour être fluide, assez rapide pour ne pas être nerveux. Le modèle apprend le timing de vos démonstrations : une vitesse erratique produit des politiques erratiques.

Démos partielles ou abandonnées

Si vous déposez l'objet, entrez en collision avec l'espace de travail ou déclenchez une erreur, appuyez sur Ctrl+C pour abandonner l'épisode. L'épisode sera supprimé. Ne poussez jamais un épisode avorté – cela empoisonne l’ensemble de données.

Des stratégies incohérentes

Ne mélangez pas les stratégies : ne saisissez pas à gauche dans certaines démos et à droite dans d'autres. Choisissez une approche et utilisez-la pour chaque épisode. Le CVAE d'ACT apprend un seul « style » : l'incohérence le force à faire une moyenne, ne produisant aucune des deux stratégies de manière fiable.

Pousser vers HuggingFace Hub

Si vous n'avez pas défini --dataset.push-to-hub 1 pendant l'enregistrement, appuyez manuellement après la séance :

# Push your completed dataset to HuggingFace Hub python -m lerobot.scripts.push_dataset_to_hub \ --dataset-dir ~/lerobot-datasets/pick-place-v1 \ --repo-id $HF_USER/pick-place-v1 # Verify it is live at: # https://huggingface.co/datasets/$HF_USER/pick-place-v1
Visibilité de l'ensemble de données : Les nouveaux ensembles de données sont par défaut publics sur HuggingFace Hub. Si votre espace de travail ou votre tâche est sensible, ajoutez --private 1 à la commande push. Les ensembles de données publics contribuent à la communauté robotique et peuvent être présentés dans le Bibliothèque de jeux de données SVRC.

Unité 3 terminée quand...

Vous disposez d'au moins 50 démonstrations complètes et non interrompues dans un ensemble de données LeRobot sur HuggingFace Hub. Vous pouvez charger votre ensemble de données avec LeRobotDataset("your-username/pick-place-v1") et voir le nombre attendu d'épisodes. Vous avez visualisé au moins 5 de vos propres épisodes en utilisant lerobot.scripts.visualize_dataset et a confirmé que les trajectoires des articulations semblent fluides et que les changements d'état de la pince sont propres. Vous êtes prêt à vous entraîner dans l'unité 4.