[TRLC-DK1] Inadéquation des métadonnées entre la vidéo d'actions et les annotations pour les laboratoires de construction (avancé)

Comment capturer les ensembles de données DK1 dans lesquels les actions, les vidéos et les annotations existent mais ne concordent plus assez bien pour la relecture ou l'entraînement ?

Forum / Index des messages / TRLC-DK1

Poste

Un problème douloureux de données DK1 apparaît après la collecte, pas pendant celle-ci : les actions, la vidéo et les annotations existent toutes, mais leurs métadonnées ne concordent plus assez bien pour la relecture, l'indexation ou l'entraînement.

Comment détectez-vous et triez-vous les incohérences de métadonnées entre les journaux d'actions, les ressources vidéo et les annotations dans les ensembles de données DK1 ?

Veuillez indiquer les contrôles de cohérence que vous effectuez, les champs qui échouent le plus souvent et la manière dont vous décidez si un échantillon peut être réparé ou doit être rejeté.

Si vous répondez, incluez un symptôme exact d'incompatibilité des métadonnées et une étape d'audit exacte qui l'a détecté tôt ou l'a corrigé.

Module : TRLC-DK1 · Public : constructeurs-laboratoires · Type : question

Tags : dk1, métadonnées, annotations, audit de l'ensemble de données

Commentaire 1

Les meilleures réponses expliquent quels champs de métadonnées sont le plus souvent défectueux et comment le problème est devenu visible pour la première fois dans les outils en aval.

Commentaire 2

Si un script d'audit ou une vérification manuelle a enregistré une grande collection pour votre laboratoire, partagez-la. Les chercheurs ont souvent besoin d’un workflow de récupération.

Commentaire 3

Il est également utile de déterminer quand la réparation est sûre et quand l’échantillon doit être jeté honnêtement.