معجم الروبوتات

أكثر من 60 مصطلحًا تغطي التعلم بالتقليد، ونماذج VLA، والعمليات عن بعد، وعلم الحركة، والذكاء الاصطناعي المتجسد - مكتوبة للباحثين والمهندسين وفرق المؤسسات.

65 شروط من الألف إلى الياء منظمة تم التحديث 2026

A

ACT (تقطيع العمل مع المحولات)

ACT عبارة عن خوارزمية تعلم تقليد قدمها توني تشاو وآخرون. (2023) الذي يدرب السياسة القائمة على المحولات للتنبؤ بجزء ثابت الطول من الإجراءات المستقبلية بدلاً من إجراء واحد في كل خطوة زمنية. من خلال التنبؤ بتسلسلات الحركة في طلقة واحدة، يقلل ACT من الخطأ المركب النموذجي للاستنساخ السلوكي خطوة بخطوة وينتج حركة متسقة مؤقتًا. تقوم البنية بتشفير ملاحظات RGB وحالة التحسس من خلال جهاز تشفير على نمط CVAE وفك تشفير أجزاء الإجراء باستخدام محول. تم عرض ACT على ALOHA منصة ثنائية اليدين، تحقق أداءً قويًا في مهام مثل فتح الكيس ونقل البيض. أنظر أيضا: تقطيع الحركة (الغوص العميق).

سياسةمحولالتعلم بالتقليد

مساحة العمل

مساحة العمل هي المجموعة الكاملة من المخرجات التي يمكن أن تنتجها سياسة الروبوت في كل خطوة زمنية. بالنسبة لذراع الروبوت، فإنها تشتمل عادةً على أوضاع المفاصل، أو سرعات المفاصل، أو أوضاع المؤثر النهائي (الوضع الديكارتي + الكواترنيون)؛ بالنسبة للروبوت المتنقل، فهو يشمل سرعات العجلات أو أوامر التوجيه. يتم وصف مساحات العمل إما منفصلة (قائمة محدودة من الإجراءات) أو مستمرة (متجهات ذات قيمة حقيقية). تؤثر أبعاد وتمثيل مساحة العمل بقوة على مدى سهولة تدريب سياسة مستقرة: غالبًا ما تكون مساحات وضع دلتا المؤثر النهائي أسهل للتعلم بالتقليد، في حين أن مساحات عزم الدوران المشترك تعطي تحكمًا أدق في القوة ولكنها تتطلب تطبيعًا أكثر دقة.

سياسةيتحكم

ALOHA (نظام أجهزة مفتوح المصدر منخفض التكلفة للتشغيل عن بعد بكلتا اليدين)

ALOHA هو نظام تشغيل عن بعد ثنائي المصدر مفتوح المصدر تم تطويره في جامعة ستانفورد، ويتكون من ذراعين آليين ViperX 300 وذراعين رئيسيتين WidowX 250 مثبتتين على إطار مشترك مع كاميرا معصم مدمجة. لقد تم تصميمه لجمع بيانات توضيحية عالية الجودة بتكلفة منخفضة - تبلغ تكلفة البناء الأصلي أقل من 20 ألف دولار - ويدعم ACT تجارب السياسة. يعمل Mobile ALOHA على توسيع المنصة بقاعدة ذات عجلات، مما يتيح مهام التلاعب بالجسم بالكامل مثل الطهي والتنظيف. مجموعات بيانات ALOHA متاحة للجمهور وأصبحت معيارًا فعليًا لأبحاث التلاعب اليدوي. تعلم المزيد في خدمات بيانات SVRC.

الأجهزةالتشغيل عن بعدثنائي يدوي

AMR (روبوت متنقل مستقل)

يتنقل الروبوت المتحرك المستقل عبر بيئته دون مسارات ثابتة أو توجيه بشري، وذلك باستخدام أجهزة الاستشعار الموجودة على متنه (LiDAR، والكاميرات، وIMU) جنبًا إلى جنب مع SLAM، وتخطيط المسار، وخوارزميات تجنب العوائق. على عكس AGVs (المركبات الموجهة الآلية) التي تتبع الأشرطة المغناطيسية، تقوم AMRs ببناء وتحديث خريطة في الوقت الفعلي وإعادة توجيهها ديناميكيًا حول الأشخاص والأشياء. لقد أدت مستودعات AMR الحديثة من شركات مثل Boston Dynamics وLocus Robotics و6 River Systems إلى اعتماد واسع النطاق في مجال الخدمات اللوجستية. غالبًا ما يتم دمج AMRs مع أذرع مناورة لإنشاءها المتلاعبين المحمول قادرة على الانتقاء والمكان على نطاق واسع.

الروبوتات المتنقلةملاحةSLAM

B

الاستنساخ السلوكي (قبل الميلاد)

الاستنساخ السلوكي هو أبسط أشكاله التعلم بالتقليد: مشكلة انحدار خاضعة للإشراف حيث يتم تدريب السياسة لتقليد عروض الخبراء عن طريق تقليل خطأ التنبؤ بين مخرجات السياسة وإجراءات الخبير في كل حالة تمت ملاحظتها. من السهل تنفيذ BC وقياسها بشكل جيد مع البيانات، ولكنها تعاني من ذلك التحول التوزيعي - نظرًا لأنه لا يتلقى تعليقات تصحيحية أبدًا، فإن الأخطاء الصغيرة تتسبب في قيام الروبوت بزيارة حالات غير موجودة في بيانات التدريب، والتي يمكن أن تؤدي إلى فشل المهمة. تم تطوير تقنيات مثل DAgger (تجميع مجموعات البيانات) وGAIL خصيصًا لمعالجة مشكلة الأخطاء المركبة في كولومبيا البريطانية.

التعلم بالتقليدالتعلم تحت الإشراف

التلاعب باليدين

يشير التلاعب باليدين إلى المهام التي تتطلب ذراعين آليين يعملان بالتنسيق، على غرار كيفية استخدام البشر لكلتا اليدين في وقت واحد. ومن الأمثلة على ذلك طي الغسيل، وربط العقد، وفتح الجرار، وتجميع الأجزاء التي يجب تثبيتها بيد واحدة بينما تقوم الأخرى بعمليات دقيقة. تعد المهام اليدوية أصعب بكثير من المهام ذات الذراع الواحدة لأن السياسة يجب أن تنسق مسارين عمل عاليي الأبعاد مع احترام القيود المادية بين الذراعين. ال ALOHA تم تصميم المنصة خصيصًا لجمع العروض التوضيحية ثنائية اليد، و ACT من بين السياسات الرائدة للتحكم اليدوي.

تلاعبالأجهزة

BOM (فاتورة المواد)

في أجهزة الروبوتات، تسرد قائمة مكونات الصنف (BOM) كل مكون وتجميع فرعي ورقم الجزء والكمية وتكلفة الوحدة المطلوبة لبناء النظام. تعد قوائم مكونات الصنف الدقيقة أمرًا بالغ الأهمية لزيادة الإنتاج والمشتريات وإدارة مخاطر سلسلة التوريد ونمذجة التكلفة. بالنسبة لمنصات الروبوت مفتوحة المصدر مثل OpenArm أو ALOHA، تسمح قائمة مكونات الصنف المنشورة للفرق الخارجية بإعادة إنتاج الأجهزة دون تبعيات خاصة. غالبًا ما تطلب فرق المؤسسات التي تقوم بتقييم نشر الروبوتات من قائمة مكونات الصنف (BOM) لقياس التكلفة الإجمالية للملكية مقابل الإيجار أو بدائل الروبوت كخدمة - قارن خيارات التأجير SVRC.

الأجهزةتصنيع

C

الفضاء الديكارتي (مساحة المهمة)

يصف الفضاء الديكارتي (ويسمى أيضًا مساحة المهام أو الفضاء التشغيلي) تكوين الروبوت من حيث موضع واتجاه المؤثر النهائي بالنسبة إلى العالم أو الإطار الأساسي، ويتم التعبير عنه عادةً بـ (x، y، z، roll، pitch، yaw) أو (x، y، z، quaternion). غالبًا ما يكون التحكم في الروبوت في الفضاء الديكارتي أكثر سهولة للتعلم بالتقليد لأن العروض التوضيحية البشرية ترسم بشكل طبيعي مسارات المستجيب النهائي. التحول من مساحة مشتركة إلى الفضاء الديكارتي يسمى الكينماتيكا إلى الأمام; العكس هو الكينماتيكا العكسية.

الحركيةيتحكم

التدريب المشترك

يشير التدريب المشترك في مجال الروبوتات إلى تدريب سياسة واحدة على بيانات من تجسيدات أو مهام أو بيئات روبوتية متعددة في وقت واحد. الفرضية هي أن مصادر البيانات المتنوعة تعلم السياسة تمثيلات مرئية وسلوكية قوية تنتقل بشكل أفضل إلى الإعدادات الجديدة. ال افتح تجسيد X تم تجميع مجموعة البيانات خصيصًا لتمكين التدريب المشترك عبر أكثر من 22 نوعًا من الروبوتات. تعتمد النماذج الأساسية الكبيرة مثل RT-2 وOpenVLA على التدريب المشترك مع بيانات لغة الرؤية على نطاق الإنترنت جنبًا إلى جنب مع بيانات العرض التوضيحي للروبوت من أجل التعميم التمهيدي.

تمرينتعميمنموذج الأساس

التلاعب الغني بالاتصال

مهام المعالجة الغنية بالتلامس هي تلك التي يكون فيها الاتصال الهادف والمستدام بين الروبوت والبيئة أمرًا ضروريًا لنجاح المهمة - مثل إدخال الربط في الفتحة، أو ربط البراغي، أو طي القماش، أو عجن العجين. تمثل هذه المهام تحديًا لأن الأخطاء الموضعية الصغيرة تنتج طفرات كبيرة في القوة، ويمكن أن تؤدي وحدات التحكم في الموضع الصارمة إلى إتلاف أجزاء الروبوت أو زعزعة استقراره. تجمع الأساليب الناجحة بين التحكم المتوافق (التحكم في المعاوقة أو الدخول)، استشعار قوة عزم الدورانوتعلمت السياسات التي تتوقع الاتصال وتستغله.

تلاعبيتحكماستشعار القوة

التحكم المستمر

يشير التحكم المستمر إلى سياسات الروبوت التي تنتج متجهات عمل ذات قيمة حقيقية (على سبيل المثال، عزم الدوران المشترك، أو السرعات، أو الدلتا الديكارتية) بدلاً من الاختيار من مجموعة منفصلة من الإجراءات. تتطلب معظم مهام المعالجة الجسدية للروبوت التحكم المستمر لأنه لا يمكن تمثيل الحركة السلسة والدقيقة بشكل مناسب من خلال قائمة إجراءات محدودة. تتضمن خوارزميات RL العميقة القياسية للتحكم المستمر DDPG وTD3 وSAC؛ للتعلم بالتقليد والاستنساخ السلوكي و سياسة الانتشار تستخدم عادة في مساحات العمل المستمر.

يتحكمالتعلم المعزز

D

زيادة البيانات (للروبوتات)

تطبق زيادة البيانات في تعلم الروبوتات تحويلات عشوائية على ملاحظات التدريب لتحسين قوة السياسات دون جمع عروض توضيحية إضافية. تتضمن التعزيزات الشائعة للصور الاقتصاص العشوائي، وتشويش الألوان، والتمويه الغاوسي، والانقطاع. تعمل التعزيزات الأكثر تطورًا على تراكب الخلفيات المشتتة للانتباه، أو تغيير ظروف الإضاءة، أو إدخال ضوضاء المستشعر لمنع الإفراط في الملاءمة لميزات مرئية محددة في بيئة التدريب. تعمل بعض الأساليب على تعزيز الإجراءات أيضًا - على سبيل المثال، إضافة الضوضاء إلى المسارات المشتركة لتعليم السياسة كيفية التعافي من الاضطرابات. تعتبر عملية التعزيز مهمة بشكل خاص عندما تكون بيانات التدريب باهظة الثمن (يتطلب كل عرض توضيحي وقتًا للمشغل البشري).

تمرينالمتانةبيانات

درجات الحرية (شعبة الشؤون المالية)

تصف درجات الحرية عدد المعلمات المستقلة اللازمة لتحديد تكوين النظام الميكانيكي. تحتوي ذراع الروبوت ذات ستة مفاصل دائرية على 6 مناطق DOF - وهو ما يكفي لوضع وتوجيه المستجيب النهائي بشكل تعسفي داخل مساحة العمل التي يمكن الوصول إليها (باستثناء التفردات). يضيف ذراع 7-DOF مفصلًا زائدًا يسمح بتحسين المساحة الفارغة لتجنب العوائق أو أوضاع الراحة. تحتوي الأذرع البشرية على ما يقرب من 7 DOF في سلسلة الكتف والكوع والمعصم، مما يجعل الروبوتات 7-DOF اختيارات طبيعية للتلاعب المجسم. تضيف القواعد المتنقلة 2-3 DOF؛ Humanoids الكاملة تتجاوز 30 DOF.

الحركيةالأجهزة

توضيح

العرض التوضيحي (يُسمى أيضًا المسار أو الحلقة في سياقات التعلم المقلدة) هو تسلسل مسجل من الملاحظات والإجراءات التي يقدمها مراقب بشري أو خبير يوضح كيفية أداء المهمة. العروض التوضيحية هي مصدر البيانات الأساسي للاستنساخ السلوكي وخوارزميات التعلم المقلدة الأخرى. ويمكن جمعها عن طريق عملية عن بعد, التدريس الحركيأو التقاط الحركة. إن جودة البيانات - الحركة السلسة، والتنفيذ المتسق للمهام، والتغطية الكافية لمساحة حالة المهمة - لا تقل أهمية عن الكمية بالنسبة لأداء السياسات النهائية. يقوم SVRC بجمع العروض التوضيحية للروبوتات ذات جودة الإنتاج من خلال موقعنا خدمات البيانات.

بياناتالتعلم بالتقليد

سياسة الانتشار

سياسة الانتشار، التي قدمها تشي وآخرون. (2023)، يصوغ توليد عمل الروبوت كعملية نشر لتقليل الضوضاء - نفس فئة النماذج التوليدية المستخدمة في توليد الصور. في وقت الاستدلال، تقوم السياسة بشكل متكرر بتحسين عينة من الضوضاء الغوسية إلى سلسلة من الإجراءات المشروطة بالملاحظة الحالية باستخدام شبكة النتائج المكتسبة (عادةً CNN أو محول). بالمقارنة مع الاستنساخ السلوكي الحتمي، تمثل سياسة الانتشار بطبيعة الحال الوسائط المتعددة توزيعات الإجراء (طرق متعددة صالحة لأداء مهمة ما) وتحقيق أحدث النتائج على معايير المعالجة الغنية بالاتصال. انظر مقالة مفصلة.

سياسةالنموذج التوليديالتعلم بالتقليد

التلاعب الحاذق

يشير التلاعب الحاذق إلى مهام التلاعب الدقيقة والمتعددة الأصابع التي تستغل القدرات الحركية والحسية الكاملة لليد الروبوتية - إعادة الإمساك باليد، ودحرجة الأشياء عبر أطراف الأصابع، والتعامل مع البطاقات، والخياطة الجراحية، ومهام مماثلة. البراعة تتطلب مهارات عاليةDOF المؤثرات النهائية (5+ أصابع، لكل منها 3+ مفاصل)، والاستشعار اللمسي الكثيف، والسياسات القادرة على التفكير حول هندسة الاتصال المعقدة. وقد أدى التعلم المعزز الذي تم تدريبه على المحاكاة (على سبيل المثال، Dactyl من OpenAI) والسياسات الحديثة القائمة على الانتشار إلى دفع الحدود، ولكن التلاعب الماهر بالموثوقية على المستوى البشري يظل مشكلة بحثية مفتوحة.

تلاعبالأجهزةحدود البحث

E

الذكاء الاصطناعي المتجسد

يشير الذكاء الاصطناعي المتجسد إلى أنظمة الذكاء الاصطناعي التي تتصور وتتصرف من خلال جسم مادي موجود في العالم الحقيقي، بدلاً من العمل فقط على النصوص أو الصور بمعزل عن غيرها. تنص فرضية التجسيد على أن الذكاء الحقيقي يتطلب أسسًا حسية حركية، أي التعلم من خلال التفاعل، وليس فقط مطابقة الأنماط في مجموعات البيانات الثابتة. من الناحية العملية، تشمل أبحاث الذكاء الاصطناعي المجسدة تعلم الروبوتات، نماذج VLAوالنقل من sim إلى الحقيقي ونماذج الأساس المادي. تعد شركات مثل Google DeepMind (سلسلة RT)، وphysical Intelligence (pi0)، وNVIDIA (GR00T) هي المحركات الصناعية الأساسية. SVRC الخاصة منصة البيانات تم تصميمه لسير عمل بيانات الذكاء الاصطناعي المضمنة.

نموذج الأساسالذكاء الاصطناعي الجسدي

المؤثر النهائي

المؤثر النهائي هو الجهاز الموجود في الطرف البعيد من ذراع الروبوت الذي يتفاعل بشكل مباشر مع البيئة. يمكن أن يكون قابضًا متوازي الفك، أو كوب شفط، أو يدًا متعددة الأصابع، أو شعلة لحام، أو فوهة طلاء، أو أي أداة خاصة بمهمة محددة. إن وضع المؤثر النهائي – موضعه واتجاهه في الفضاء – هو مخرجات التحكم الأساسية لمعظم سياسات التلاعب. نقطة مركز الأداة (TCP) هي النقطة المرجعية على المؤثر النهائي المستخدم للتحكم الديكارتي. يعد اختيار المؤثر النهائي الصحيح قرارًا بالغ الأهمية للنشر: فقد تفشل أدوات القابض المُحسّنة لفئة كائن واحدة (على سبيل المثال، الصناديق الصلبة) في العناصر الناعمة أو غير المنتظمة. تصفح خيارات الأجهزة SVRC.

الأجهزةتلاعب

حلقة

الحلقة عبارة عن محاولة واحدة كاملة لمهمة ما - بدءًا من الحالة الأولية وحتى نجاح المهمة أو فشلها أو انتهاء المهلة. في التعلم المعزز، يتفاعل الوكيل مع البيئة في حلقة واحدة، ويجمع المكافآت، ثم تتم إعادة ضبط البيئة. في التعلم بالتقليد، تشكل كل مظاهرة مسجلة حلقة واحدة. الحلقات هي الوحدة الأساسية لمجموعات بيانات تعلم الروبوت: تحتوي مجموعة البيانات المكونة من 1000 حلقة على 1000 محاولة مهمة مع الملاحظات والإجراءات والنتائج المرتبطة بها. يجب تحديد طول الحلقة وشروط إعادة التعيين ومعايير النجاح بدقة لضمان جمع البيانات بشكل متسق.

بياناتالتعلم المعززالتعلم بالتقليد

الظواهر (آلة تصوير)

تحدد العناصر الخارجية للكاميرا موضع واتجاه (وضعية 6-DOF) للكاميرا بالنسبة إلى الإطار المرجعي - عادةً قاعدة الروبوت أو المؤثر النهائي. جنبًا إلى جنب مع المعلمات الجوهرية (البعد البؤري، النقطة الرئيسية، تشويه العدسة)، تسمح العناصر الخارجية بإسقاط نقاط العالم ثلاثية الأبعاد على مستوى الصورة، وعلى العكس من ذلك، رفع الاكتشافات ثنائية الأبعاد إلى مساحة ثلاثية الأبعاد. تعد المعايرة الخارجية الدقيقة أمرًا بالغ الأهمية للسياسات الحركية البصرية التي يجب أن تحدد الملاحظات المرئية لإجراءات الروبوت في إطار إحداثي ثابت. تتطلب كاميرات العين في اليد (المثبتة على المعصم) إعادة المعايرة عند استبدال المستجيب النهائي أو الكاميرا.

تصورمعايرة

F

مستشعر عزم الدوران (مستشعر FT)

يقوم مستشعر عزم الدوران بقياس مفتاح الربط سداسي المحاور (ثلاث قوى Fx وFy وFz وثلاثة عزم دوران Tx وTy وTz) المطبق على معصم الروبوت أو المؤثر النهائي. تعد مستشعرات FT ضرورية للمهام الغنية بالتلامس والتجميع حيث قد يؤدي التحكم النقي في الموضع إما إلى تفويت جهات الاتصال أو استخدام القوة المفرطة. إنها تتيح حلقات التحكم في المعاوقة والدخول، وتكتشف الانزلاق والاصطدام، وتوفر مدخلات حسية غنية للسياسات المستفادة. تعتبر مستشعرات FT عالية الدقة من ATI وRobotiq قياسية في مختبرات الأبحاث؛ أصبحت أجهزة الاستشعار منخفضة التكلفة المستندة إلى MEMS قابلة للاستخدام بشكل متزايد في عمليات نشر الإنتاج.

الأجهزةالاستشعاريتحكم

نموذج الأساس (الروبوتات)

النموذج الأساسي عبارة عن شبكة عصبية كبيرة تم تدريبها مسبقًا على بيانات واسعة ومتنوعة يمكن تكييفها مع العديد من المهام النهائية من خلال الضبط الدقيق أو المطالبة. في علم الروبوتات، عادةً ما تكون النماذج الأساسية عبارة عن نماذج لغة رؤية كبيرة (VLMs) ممتدة مع مخرجات العمل لتكوينها VLAs، أو سياسات حركية بصرية كبيرة تم تدريبها على مجموعات بيانات التجسيد المتقاطع. تشمل الأمثلة RT-2 (Google DeepMind)، وOpenVLA، وOcto، وpi0 (الذكاء الجسدي). تعد النماذج الأساسية للروبوتات جذابة لأنها يمكنها الاستفادة من التدريب المسبق على نطاق الإنترنت، ودعم تكييف اللغة، والتعميم عبر المهام دون إعادة التدريب من الصفر لكل مهمة. يرى كتالوج طراز SVRC.

VLAالتدريب المسبقتعميم

الحركية إلى الأمام (فك)

تحسب الحركية الأمامية وضعية المؤثر النهائي في الفضاء الديكارتي بالنظر إلى زوايا مفصل الروبوت (أو إزاحات المفاصل المنشورية). بالنسبة لروبوت السلسلة التسلسلية، يتم حساب FK عن طريق ضرب سلسلة من مصفوفات التحويل المتجانسة (واحدة لكل مفصل)، المستمدة عادةً من معلمات Denavit-Hartenberg (DH) أو وصف URDF. لدى FK دائمًا حل فريد - نظرًا للزوايا المشتركة، هناك وضعية مؤثر نهائي واحدة بالضبط - على عكس المشكلة العكسية (IK) والتي قد تحتوي على صفر أو حل واحد أو عدة حلول. يتم استخدام FK في المحاكاة وفحص الاصطدام والتصور ومراقبة حالة الروبوت في الوقت الفعلي.

الحركيةيتحكم

G

تعميم (سياسة الروبوت)

يقيس التعميم مدى جودة أداء سياسة الروبوت على الأشياء أو المشاهد أو المهام التي لم يراها أثناء التدريب. إنه التحدي الرئيسي الذي يواجه تعلم الروبوتات: فالسياسة التي تحفظ العروض التدريبية ولكنها تفشل في الحالات الجديدة ليس لها أي قيمة عملية. يميز الباحثون بين تعميم الكائنات (مثيلات جديدة للفئات المعروفة)، وتعميم الفئة (فئات كائنات جديدة تمامًا)، وتعميم المهام (صياغات تعليمات جديدة أو تكوينات أهداف). يتطلب تحسين التعميم عادةً بيانات تدريب أكبر وأكثر تنوعًا، وتدريبًا مشتركًا مع بيانات الإنترنت، وتوزيع عشوائي للمجال في المحاكاة، و نموذج الأساس برايور.

سياسةحدود البحث

فهم تشكل

تحدد وضعية الإمساك موضع 6-DOF واتجاه يد الروبوت أو القابض بالنسبة لجسم ما بحيث يمكن للقابض إغلاق الجسم وإمساكه بشكل آمن. عادةً ما يتم تقدير وضعية الإمساك من بيانات العمق أو بيانات السحابة النقطية باستخدام طرق تحليلية (على سبيل المثال، أخذ عينات الإمساك المضاد) أو أجهزة الكشف المستفادة مثل GraspNet-1Billion، أو GQ-CNN، أو AnyGrasp. يجب أن يكون الروبوت قادرًا على الوصول إلى وضع الإمساك الصحيح، وأن يكون خاليًا من الاصطدامات أثناء الاقتراب، ومستقرًا تحت أحمال المهام المتوقعة. تتضمن مقاييس جودة الإمساك قوة الإغلاق، وثبات التلامس، ومقاومة مفتاح الربط الخاص بالمهمة.

تلاعبتصور

القابض

القابض هو الفئة الأكثر شيوعًا من الروبوتات المؤثر النهائيمصممة للإمساك بالأشياء وإمساكها. تعتبر المقابض ذات الفك المتوازي هي الأبسط والأكثر استخدامًا، حيث يتم تشغيل إصبعين متقابلين بواسطة محرك أو بضغط الهواء. تستخدم مقابض الشفط الفراغ لاختيار الأسطح الملساء والمسطحة. تستخدم المقابض الناعمة مواد متوافقة (السيليكون والنسيج) لتتوافق مع الأجسام غير المنتظمة. تمكين الأيدي المتعددة الأصابع (3-5 أصابع). التلاعب الحاذق ولكن من الصعب السيطرة عليها وأكثر تكلفة. يعتمد اختيار القابض بشكل حاسم على هندسة الكائن، وخصائص السطح، والحمولة المطلوبة، وما إذا كانت هناك حاجة إلى إعادة التوجيه باليد.

الأجهزةالمؤثر النهائي

H

HDF5 (تنسيق البيانات الهرمية الإصدار 5)

HDF5 هو تنسيق ملف ثنائي ومكتبة لتخزين مجموعات البيانات العلمية المنظمة الكبيرة والوصول إليها بكفاءة. في مجال الروبوتات، يعد HDF5 الحاوية القياسية لمجموعات بيانات العرض التوضيحي للروبوت: حيث يقوم ملف واحد بتخزين صور الكاميرا المتزامنة، وزوايا المفاصل، وحالات القابض، وقراءات القوة، والبيانات الوصفية في مجموعات هرمية، مع عمليات الإدخال/الإخراج المقسمة التي تتيح الوصول العشوائي السريع أثناء التدريب. يستخدم كل من النظامين البيئيين LeRobot وALOHA HDF5 أصلاً. البديل زار يوفر التنسيق تخزينًا مقسمًا على السحابة الأصلية مع دعم أفضل للكتابة المتزامنة. SVRC خطوط أنابيب جمع البيانات إخراج HDF5 بشكل افتراضي.

بياناتتخزينهندسة

روبوت بشري

يتمتع الروبوت الآلي ببنية جسم مشابهة إلى حد كبير للإنسان - عادة جذع وساقان وذراعان ورأس - مما يمكنه من العمل في بيئات مصممة للأشخاص واستخدام الأدوات البشرية. تشمل الروبوتات البشرية البارزة أطلس بوسطن ديناميكس، وأجيليتي روبوتيكس ديجيت، وشكل 01، وتيسلا أوبتيموس. تمثل الكائنات البشرية تحديات هندسية شديدة: تتطلب الحركة ذات القدمين التحكم في التوازن في الوقت الفعلي، وتنسيق أكثر من 30 مجال عمل لمتطلبات مهام التلاعب الموضعي السيطرة على كامل الجسم. على الرغم من هذا التعقيد، تجتذب الروبوتات البشرية استثمارات هائلة لأن عامل شكلها يعمم عبر أماكن العمل المتنوعة دون تغييرات في البنية التحتية.

الأجهزةالحركةثنائي يدوي

التفاعل بين الإنسان والروبوت (HRI)

التفاعل بين الإنسان والروبوت هو مجال متعدد التخصصات يدرس كيفية تواصل الأشخاص والروبوتات وتعاونهم ومشاركة المساحة المادية بشكل فعال وآمن. تشمل أبحاث HRI معايير السلامة (ISO/TS 15066 للروبوتات التعاونية)، وتصميم واجهة المستخدم للتشغيل عن بعد، وتعليم اللغة الطبيعية، وحركة الروبوت المقروءة (جعل نية الروبوت قابلة للقراءة للمارة)، والروبوتات الاجتماعية (باستخدام النظرة والإيماءة والكلام للتواصل غير اللفظي). في عمليات نشر الروبوتات الصناعية، يحدد HRI بشكل مباشر ما إذا كان العمال يقبلون ويستخدمون الروبوتات بشكل فعال إلى جانبهم. يعمل التصميم الجيد لـ HRI على تقليل الحوادث وتحسين الإنتاجية وتقليل عبء التدريب على الجانب البشري.

أمانتعاون

I

التعلم بالتقليد (ايل)

التعلم بالتقليد هو مجموعة من أساليب التعلم الآلي التي تدرب سياسات الروبوت من العروض البشرية بدلاً من وظائف المكافأة الهندسية. أبسط شكل هو الاستنساخ السلوكي (الانحدار الخاضع للإشراف على أزواج عمل الدولة). المتغيرات الأكثر تقدمًا - DAgger (التصحيح التكراري)، وGAIL (التقليد العدائي)، وIRL (استعادة وظيفة المكافأة) - تعالج التحول التوزيعي ومشاكل مواصفات المكافأة التي ابتليت بها BC النقية. لقد أصبح التعلم الآلي هو النموذج المهيمن لتدريس التلاعب الحاذق لأن هندسة المكافأة للتلاعب المعقد أمر صعب للغاية، في حين أن جمع العروض التوضيحية البشرية يمكن تتبعه على نطاق واسع عبر عملية عن بعد. انظر مقالة عميقة كاملة.

المفهوم الأساسيسياسةبيانات

الكينماتيكا العكسية (أنا)

تحل الحركية العكسية زوايا المفاصل التي تضع المؤثر النهائي للروبوت في الوضع الديكارتي المرغوب. على عكس الكينماتيكا إلى الأمام، قد يكون لدى IK صفر أو واحد أو عدد لا نهائي من الحلول اعتمادًا على البنية الحركية للروبوت ووضعية الهدف. توجد أدوات حل IK التحليلية لتكوينات 6-DOF القياسية؛ تتعامل الأساليب العددية (المعكوس اليعقوبي الزائف، ونيوتن-رافسون، والقائمة على التحسين) مع الأشكال الهندسية العشوائية والروبوتات الزائدة عن الحاجة. يتم استخدام IK في تخطيط الحركة، ورسم خرائط العمليات عن بعد (تحويل وضعية يد المشغل إلى أوامر مشتركة)، وأي وحدة تحكم في الفضاء الديكارتي. تُستخدم المكتبات مثل KDL وIKFast وtrack-ik بشكل شائع في بيئات ROS.

الحركيةيتحكمتخطيط

إسحاق سيم

NVIDIA Isaac Sim عبارة عن منصة محاكاة للروبوتات مبنية على إطار عمل Omniverse USD، وتوفر فيزياء عالية الدقة (عبر PhysX 5)، وعرضًا واقعيًا للصور (عبر تتبع مسار RTX)، وتكامل ROS 2 خارج الصندوق. لقد تم تصميمه خصيصًا لتوليد بيانات التدريب الاصطناعية، واختبار سياسات الروبوت، وأبحاث النقل من محاكاة إلى حقيقية. يدعم Isaac Sim التوزيع العشوائي للأنسجة والإضاءة وأوضاع الكائنات على نطاق واسع، ويتكامل مع إطار التعلم المعزز Isaac Lab من NVIDIA. تسمح الفيزياء المتسارعة بواسطة GPU بتدريب سياسات RL مع الآلاف من مثيلات المحاكاة المتوازية. تعرف على المزيد على صفحة الموارد SVRC إسحاق سيم.

محاكاةالبيانات الاصطناعيةأداة

J

الفضاء المشترك (مساحة التكوين)

المساحة المشتركة (وتسمى أيضًا مساحة التكوين أو مساحة C) هي مساحة جميع متجهات الزاوية المشتركة الممكنة للروبوت. تحدد نقطة في الفضاء المشترك بشكل فريد التكوين الكامل للروبوت. تعمل خوارزميات تخطيط الحركة مثل RRT وPRM في مساحة مشتركة للعثور على مسارات خالية من التصادم بين التكوينات، نظرًا لأن التحقق من التصادم أكثر وضوحًا هناك منه في الفضاء الديكارتي. العديد من سياسات RL تنتج مواقف أو سرعات مشتركة مباشرة في الفضاء المشترك، في حين تعمل سياسات التعلم التقليد في كثير من الأحيان الفضاء الديكارتي لتسهيل المواءمة بين الإنسان والمتظاهر. انظر المادة الفضائية المشتركة.

الحركيةتخطيط

عزم الدوران المشترك

عزم الدوران المشترك هو القوة الدورانية التي يطبقها المحرك على مفصل الروبوت، ويتم قياسها بالنيوتن متر (نيوتن متر). يمكن للروبوتات التي يتم التحكم فيها في عزم الدوران (على عكس الروبوتات التي يتم التحكم في موضعها) تنظيم قوى الاتصال مباشرة، مما يتيح السلوكيات المتوافقة مثل الخضوع عند الدفع والتحكم بدقة في قوى التجميع. يعد استشعار عزم الدوران في كل مفصل سمة رئيسية للروبوتات التعاونية (الروبوتات التعاونية) مثل Franka Panda، وسلسلة Universal Robots UR، وKuka iiwa، مما يتيح التعاون الآمن بين الإنسان والروبوت والتحكم المتوافق مع الجسم بالكامل. تتطلب سياسات التعلم التي تنتج عزم الدوران المشترك بدلاً من المواضع تدريبًا دقيقًا لتجنب التذبذبات غير المستقرة.

يتحكمالأجهزةقوة

K

السلسلة الحركية

السلسلة الحركية عبارة عن سلسلة من روابط الجسم الصلبة المتصلة بواسطة مفاصل تشكل معًا الهيكل الميكانيكي للروبوت. تحتوي السلسلة المفتوحة (ذراع الروبوت التسلسلي) على نهاية حرة واحدة (المؤثر النهائي)، مما يجعل FK مباشرًا. تحتوي السلسلة المغلقة (الروبوت الموازي، سداسي الأرجل) على حلقات متعددة توفر صلابة وسرعة أعلى ولكنها تتطلب حركيات أكثر تعقيدًا. تحدد السلسلة الحركية مساحة عمل الروبوت وتفرداته والمصفوفة اليعقوبية المستخدمة للتحكم الديكارتي. تصف ملفات URDF السلاسل الحركية على أنها شجرة من الروابط والمفاصل لبرامج المحاكاة والتحكم.

الحركيةميكانيكا

التدريس الحركي

التدريس الحركي (يسمى أيضًا التوجيه بالأنف أو التوجيه المباشر) هو أسلوب لبرمجة الروبوت حيث يمسك الإنسان جسديًا ذراع الروبوت ويحركه عبر مسار الحركة المطلوب بينما يسجل الروبوت المسار. يتطلب أن يكون الروبوت قابلاً للقيادة الخلفية (انخفاض احتكاك المفاصل والامتثال) حتى يتمكن المشغل من تحريكه بأقل جهد. يعد التدريس الحركي أمرًا بديهيًا ولا يتطلب أي أجهزة خارجية، ولكنه يقتصر على المهام التي يمكن للمشغل إظهارها جسديًا، وينتج فقط بيانات التحسس (لا توجد ملاحظات بكاميرا المعصم) ما لم يتم تسجيل الكاميرات بشكل مشترك. وضع تعويض الجاذبية في الروبوتات التي يتم التحكم فيها بعزم الدوران مثل فرانكا باندا يجعل التدريس الحركي عمليًا.

جمع البياناتالتعلم بالتقليد

L

سياسة مشروطة باللغة

تأخذ السياسة المشروطة باللغة تعليمات اللغة الطبيعية (على سبيل المثال، "التقط الكوب الأحمر وضعه على الدرج") كمدخل إضافي إلى جانب الملاحظات المرئية، مما يتيح لشبكة سياسة واحدة أداء مهام متعددة محددة في وقت التشغيل دون إعادة التدريب. يتم تنفيذ تكييف اللغة عادةً عن طريق ترميز التعليمات باستخدام نموذج لغة مُدرب مسبقًا (CLIP، T5، PaLM) ودمج التضمين الناتج مع ميزات الصورة. نماذج VLA مثل RT-2، وOpenVLA، وpi0 تكون مكيفة باللغة حسب التصميم. يقلل هذا النهج من الحاجة إلى تدريب سياسات منفصلة لكل مهمة ويدعم التعميم الصفري لصيغ التعليمات الجديدة.

VLAنموذج الأساستعميم

الفضاء الكامن

الفضاء الكامن عبارة عن تمثيل مضغوط منخفض الأبعاد للبيانات التي تعلمتها الشبكة العصبية - وهو ناتج برنامج تشفير يلتقط معظم ميزات المراقبة ذات الصلة بالمهمة. في تعلم الروبوت، تُستخدم المساحات الكامنة في VAEs (أجهزة التشفير التلقائي المتغيرة) لتعلم التمثيلات المنظمة للمشاهد المرئية، وفي النماذج العالمية للتنبؤ بالحالات المستقبلية، وفي السياسات القائمة على CVAE (مثل ACT) لتشفير توزيعات الإجراءات متعددة الوسائط. تضع المساحة الكامنة جيدة التنظيم الملاحظات المتشابهة لغويًا بالقرب من بعضها البعض، مما يتيح الاستيفاء والتخطيط وزيادة البيانات في المجال الكامن بدلاً من مساحة البكسل الأولية.

تعلم التمثيلسياسة

ليروبوت

LeRobot هي مكتبة Hugging Face مفتوحة المصدر لتعلم الروبوت، وتوفر تطبيقات موحدة لخوارزميات التعلم المقلدة (ACT, سياسة الانتشار، TDMPC)، تنسيق مجموعة بيانات موحد، وأدوات تصور، وأوزان نموذجية مُدربة مسبقًا. ويهدف إلى خفض حاجز الدخول إلى أبحاث تعلم الروبوت من خلال توفير إطار عمل واحد متماسك مماثل لما فعلته شركة Transformers في البرمجة اللغوية العصبية. يتكامل LeRobot مع Hugging Face Hub لمشاركة مجموعة البيانات والنماذج، ويدعم كلاً من بيئات الروبوتات المحاكاة (gymnasium-robotics، MuJoCo) والروبوتات المادية. تم إصدار مجموعة الروبوت المصاحبة منخفضة التكلفة SO-100 بجانبها.

أداةمفتوح المصدرالتعلم بالتقليد

مجموعة بيانات LeRobot HF

يعد تنسيق مجموعة بيانات LeRobot مخططًا موحدًا لبيانات العرض التوضيحي للروبوت المستضافة على Hugging Face Hub. تتكون كل مجموعة بيانات من ملفات Parquet (للسلاسل الزمنية العددية: المواضع المشتركة، والإجراءات، والمكافآت، والأعلام المنجزة) بالإضافة إلى مقاطع فيديو مضغوطة بتنسيق MP4 لتدفقات الكاميرا، وكلها مفهرسة حسب الحلقة والإطار. أ meta/info.json يصف الملف أسماء الكاميرات ونوع الروبوت وعدد الإطارات في الثانية وإحصائيات البيانات المستخدمة للتطبيع. يسمح هذا التنسيق لأي خوارزمية متوافقة مع LeRobot بتحميل أي مجموعة بيانات منشورة بسطر واحد من التعليمات البرمجية، مما يتيح إجراء تجارب سريعة عبر مجموعات البيانات. تم بالفعل نشر العشرات من مجموعات بيانات المعالجة والتلاعب بالأجهزة المحمولة بهذا التنسيق.

بياناتمعيارمفتوح المصدر

M

تلاعب

يشير التلاعب إلى التفاعل الجسدي الهادف مع الأشياء - مثل الانتقاء، والوضع، والتجميع، والطي، والإدخال، والصب، والمهام المماثلة. يعد التلاعب بالروبوت أحد أكثر مجالات البحث نشاطًا في الذكاء الاصطناعي المتجسد، لأنه حتى المهام اليومية البسيطة (تحميل غسالة الأطباق، وفتح العبوة) تتطلب إدراكًا غنيًا، وتحكمًا دقيقًا في المحركات، وتخطيطًا قويًا للفهم. تتراوح صعوبة التلاعب من الالتقاط والمكان البسيط مع كائنات معروفة في إعدادات ثابتة، من خلال التجميع الغني بالاتصال، إلى إعادة التوجيه اليدوي الكامل مع كائنات جديدة في مشاهد غير منظمة. SVRC خدمات البيانات متخصصون في جمع مظاهرات التلاعب للتدريب والتقييم.

المفهوم الأساسيمهمة

MoveIt

يعد MoveIt إطار تخطيط الحركة مفتوح المصدر الأكثر استخدامًا على نطاق واسع لأذرع الروبوتات، وقد تم تطويره في الأصل في Willow Garage ويتم صيانته الآن بواسطة PickNik Robotics. يعمل MoveIt 2 على ROS 2 ويوفر المخططين (OMPL، CHOMP، PILZ)، تخطيط المسار الديكارتي، التحقق من التصادم مع مشهد التخطيط الخاص بـ MoveIt، المكونات الإضافية للحركيات (KDL، IKFast، TracIK)، وفهم تكامل التخطيط. إنها طبقة البرمجيات الوسيطة القياسية بين سياسة تعلم الروبوت (التي تنتج أوضاع المؤثر النهائي أو نقاط الطريق المرغوبة) ووحدة التحكم المشتركة ذات المستوى المنخفض التي تنفذ مسارات سلسة وخالية من الاصطدامات على الروبوت المادي.

أداةتخطيطROS

التعلم متعدد المهام

يقوم التعلم متعدد المهام بتدريب سياسة واحدة على العروض التوضيحية من مهام متعددة متميزة في وقت واحد، مع توقع أن التمثيلات المشتركة المستفادة عبر المهام تعمل على تحسين الأداء في كل مهمة على حدة وتمكين التعميم على مهام جديدة. في مجال الروبوتات، يعني هذا غالبًا التدريب على مئات المهام ذات الأشياء والأهداف والبيئات المتنوعة. يتمثل التحدي الرئيسي في تحقيق التوازن بين مساهمات التدرج للمهام المختلفة (تداخل التدرج) والتأكد من قدرة السياسة على التمييز بين المهام في وقت الاستدلال - عادةً عبر تكييف اللغة أو معرفات المهمة الواحدة الساخنة. تعد سياسات المهام المتعددة شرطًا أساسيًا للمساعدين الآليين للأغراض العامة.

سياسةتعميمتمرين

N

السياسة العصبية

السياسة العصبية هي سياسة تحكم في الروبوت يتم تحديد معلماتها بواسطة شبكة عصبية تقوم بتعيين الملاحظات (الصور، استقبال الحس العميق، اللغة) مباشرة إلى الإجراءات (المواضع المشتركة، الدلتا الديكارتية، أوامر القابض). وعلى النقيض من خطوط أنابيب تخطيط الحركة الكلاسيكية، تتعلم السياسات العصبية رسم الخرائط من البداية إلى النهاية من البيانات دون تمثيلات وسيطة مصممة يدويًا. تستخدم السياسات العصبية الحديثة التشفيرات التلافيفية للرؤية، والمحولات لنمذجة التسلسل، والمعماريات مثل ACT، أو سياسة الانتشار، أو العمود الفقري VLA لتوليد الفعل. من الخصائص الرئيسية للسياسات العصبية أنه يمكن تدريبها من خلال العروض التوضيحية أو إشارات المكافأة، مما يمكنها من التعامل مع المهام المعقدة للغاية بالنسبة لوحدات التحكم المرمزة يدويًا.

سياسةالتعلم العميق

التلاعب غير القابل للإمساك بشىء

يشير التلاعب غير القابل للإمساك بشىء إلى التعامل مع الأشياء دون الإمساك بها - بدلاً من استخدام الدفع أو التدحرج أو الدوران أو التقليب أو الإمالة أو استراتيجيات الاتصال الأخرى التي تستفيد من الجاذبية والاحتكاك السطحي. على سبيل المثال، دفع صندوق عبر طاولة لوضعه في موضعه، أو دفع وتد في وضع مستقيم قبل الإمساك به. يمكن للاستراتيجيات غير القابلة للإمساك بشىء نقل الأشياء إلى تكوينات يمكن فهمها، أو إعادة وضع العناصر الكبيرة جدًا بحيث لا يمكن فهمها، أو العمل في مشاهد مزدحمة حيث يكون نهج الإمساك غير ممكن. يتطلب التخطيط للإجراءات غير القابلة للإمساك بشىء نمذجة ميكانيكا الأجسام شبه الساكنة أو الديناميكية وفيزياء الاتصال، مما يجعلها موضوع بحث نشط عند تقاطع التلاعب وتخطيط الحركة.

تلاعبتخطيط

O

مساحة المراقبة

تحدد مساحة المراقبة جميع مدخلات أجهزة الاستشعار المتاحة لسياسة الروبوت في كل خطوة زمنية. تشمل الطرائق الشائعة صور RGB من كاميرات المعصم أو الكاميرات العلوية، وخرائط العمق من أجهزة استشعار الضوء أو الاستريو، وحالة التحسس (مواضع المفاصل، والسرعات، وعزم الدوران)، وحالة القابض، ووضعية المؤثر النهائي، والقراءات اللمسية، ومدخلات مواصفات المهمة مثل تضمينات اللغة أو صور الهدف. يؤثر تصميم مساحة المراقبة تأثيرًا عميقًا على أداء السياسات والتعميم: فالملاحظات الأكثر ثراءً تحمل المزيد من المعلومات ولكنها تزيد من تعقيد النموذج، ووقت التدريب، وخطر الإفراط في الملاءمة مع الميزات المرئية غير ذات الصلة.

تصورسياسة

التحكم في الحلقة المفتوحة

ينفذ التحكم في الحلقة المفتوحة مسارًا مخططًا مسبقًا دون استخدام ردود فعل المستشعر أثناء التنفيذ - حيث يتبع الروبوت ببساطة الأوضاع أو السرعات المطلوبة بغض النظر عما يحدث بالفعل. يعد هذا مناسبًا للمهام المتكررة للغاية في البيئات الخاضعة للرقابة، مثل التصنيع باستخدام الحاسب الآلي أو الانتقاء والمكان على ناقل ثابت. يعد التحكم في الحلقة المفتوحة سريعًا وبسيطًا ولكنه يفشل عند حدوث اضطرابات، لأنه لا يتم اتخاذ أي إجراء تصحيحي. في المقابل، يقوم التحكم في الحلقة المغلقة (التغذية الراجعة) بمقارنة الحالة الفعلية بالحالة المرغوبة بشكل مستمر ويطبق الأوامر التصحيحية، مما يجعله أكثر قوة لتعلم الروبوت في البيئات المتغيرة.

يتحكم

افتح تجسيد X

Open X-Embodiment (OXE) عبارة عن مجموعة بيانات توضيحية واسعة النطاق للروبوت تم تجميعها بواسطة Google DeepMind و33 مؤسسة بحثية، وتضم أكثر من مليون حلقة روبوت من 22 تجسيدًا مختلفًا للروبوت وأكثر من 527 مهارة. تم إنشاؤه لتمكين التدريب المشترك عبر النماذج - الفرضية هي أن تجربة الروبوت المتنوعة تعلم تمثيلات معالجة أكثر ثراءً من مجموعات البيانات الفردية للروبوت وحده. أظهر RT-X، النموذج الذي تم تدريبه على OXE، انتقالًا إيجابيًا عبر النماذج وأداء محسنًا في المهام المعلقة مقارنة بخطوط الأساس للنموذج الفردي. بيانات OXE متاحة للجمهور وقد حفزت موجة من أبحاث الروبوتات المتقاطعة.

مجموعة البياناتنموذج الأساستجسيد متعدد

P

الحمولة

الحمولة هي أقصى كتلة (بما في ذلك وزن أي مؤثر نهائي وأدوات) يمكن أن يحملها ذراع الروبوت مع الحفاظ على دقته الموضعية المقدرة وأدائه الديناميكي. تتراوح مواصفات الحمولة عادةً من أقل من 1 كجم لروبوتات البحث التعاونية (WidowX 250: 250 جم) إلى أكثر من 500 كجم للأذرع الصناعية الكبيرة. والأهم من ذلك، أن الحمولة المقدرة عادة ما تكون في متناول اليد بالكامل مع تمديد الذراع بالكامل؛ من مسافة أقرب وأوضاع أكثر ملاءمة، يمكن للروبوتات في كثير من الأحيان التعامل مع المزيد بشكل ملحوظ. يؤدي تجاوز حدود الحمولة الصافية إلى تقليل الدقة، وتسريع التآكل، ويمكن أن يؤدي إلى حدوث أخطاء تتعلق بالسلامة أو أضرار مادية. SVRC كتالوج الأجهزة يسرد الحمولة لكل روبوت.

الأجهزةالمواصفات

سياسة (روبوت)

في تعلم الروبوت، السياسة (يشار إليها بـ π) هي دالة تقوم بتعيين الملاحظات إلى الإجراءات: π(o) → a. السياسة هي "العقل" المتعلم للروبوت الذي يحدد ما يجب فعله في كل خطوة زمنية بالنظر إلى ما يدركه. يمكن تمثيل السياسات على أنها شبكات عصبية (سياسات عصبية)، أو أشجار قرار، أو عمليات غاوسية، أو جداول بحث. يمكن أن تكون حتمية (إجراء واحد لكل ملاحظة) أو عشوائية (توزيع على الإجراءات). يتم قياس جودة السياسة من خلال معدل نجاح المهمة عبر ظروف متنوعة، وليس فقط في العروض التدريبية. إن التحدي الأساسي الذي يواجه تعلم الروبوتات هو سياسات التدريب التي يمكن تعميمها بشكل موثوق يتجاوز توزيع التدريب.

المفهوم الأساسيالتعلم العميق

طرح السياسة

إن طرح السياسة عبارة عن حلقة واحدة من تنفيذ سياسة مدربة على الروبوت (أو في المحاكاة) بدءًا من الحالة الأولية وحتى إكمال المهمة أو انتهاء المهلة. يتم استخدام عمليات الطرح لتقييم أداء السياسة، وجمع بيانات جديدة لمزيد من التدريب (كما هو الحال في الضبط الدقيق لـ DAgger أو RL)، وتصحيح الأخطاء. يعتمد عدد عمليات الطرح اللازمة لتقدير الأداء الموثوق به على تنوع المهام - قد تتطلب المهام ذات التباين العالي أكثر من 50 عملية نشر للحصول على تقدير ثابت لمعدل النجاح. في البحث، غالبًا ما يتم تصنيف عمليات النشر حسب الحالة الأولية (داخل التوزيع مقابل كائنات/مشاهد خارج التوزيع) لوصف التعميم.

تقييمسياسة

التدريب المسبق

التدريب المسبق هو مرحلة تطوير النموذج التي يتم فيها تدريب الشبكة العصبية على مجموعة بيانات كبيرة ومتنوعة قبل الضبط الدقيق لمهمة محددة. بالنسبة للنماذج الأساسية للروبوتات، قد يتم التدريب المسبق على بيانات لغة الرؤية على نطاق الإنترنت (الصور والفيديو والنصوص)، أو مجموعات بيانات الروبوت المتقاطعة (Open X-Embodiment)، أو بيانات المحاكاة الاصطناعية، أو مجموعة. يتعلم النموذج المُدرب مسبقًا تمثيلات عامة غنية للأشياء والإجراءات والمفاهيم التي تنتقل إلى مهام الروبوت النهائية مع عروض توضيحية أقل بكثير من التدريب من الصفر. التدريب المسبق هو الآلية وراء نجاح نماذج VLA مثل RT-2، والتي تستفيد من التدريب المسبق على نطاق الروبوتات والإنترنت.

نموذج الأساستمريننقل التعلم

Q

وظيفة Q (وظيفة قيمة العمل)

تقوم وظيفة Q (Q(s, a) بتقدير المكافأة المخصومة التراكمية المتوقعة التي سيحصل عليها الوكيل من خلال اتخاذ إجراء في الحالة ثم اتباع سياسة معينة بعد ذلك. تعتبر وظائف Q أساسية لخوارزميات التعلم المعزز مثل DQN (الإجراءات المنفصلة) وSAC وTD3 وDDPG (الإجراءات المستمرة). في الروبوت RL، يعد تعلم وظائف Q الدقيقة لمهام التلاعب طويلة المدى أمرًا صعبًا لأن المكافآت متناثرة ومساحة عمل الحالة عالية الأبعاد. يستخدم العمل الأخير في RL (IQL، CQL) دون اتصال وظائف Q لاستخراج السياسات من مجموعات البيانات الثابتة دون التفاعل عبر الإنترنت، مما يسد الفجوة بين التعلم بالتقليد والتعلم عن بعد.

التعلم المعززوظيفة القيمة

التلاعب شبه الساكن

يفترض التلاعب شبه الساكن أن الحركة بطيئة بدرجة كافية بحيث تكون قوى القصور الذاتي والديناميكية ضئيلة، أي أن النظام يكون فعليًا في حالة توازن ثابت في كل لحظة. يتيح هذا التبسيط نمذجة ميكانيكا الاتصال القابلة للتتبع لتخطيط إجراءات الدفع والانزلاق والتدوير وإعادة الإمساك باليد. تعمل العديد من معايير معالجة الروبوتات (بما في ذلك معظم مهام الاختيار والمكان على الطاولة) في نظام شبه ثابت. عندما تتضمن المهام رميات سريعة، أو مسكات ديناميكية، أو تجميع عالي السرعة، تنهار الافتراضات شبه الساكنة وتكون هناك حاجة إلى ديناميكيات الجسم الصلبة الكاملة مع محاكاة الاتصال (على سبيل المثال، MuJoCo، Isaac Sim).

تلاعبميكانيكا

R

نقل حقيقي إلى سيم

النقل الحقيقي إلى sim (تكملة لـ سيم إلى حقيقي) يتضمن إنشاء أو معايرة محاكاة لتتناسب مع العالم الحقيقي قدر الإمكان - وهو في الأساس بناء توأم رقمي للظروف الحقيقية. يُستخدم هذا لإعادة تشغيل حالات الفشل الحقيقية في المحاكاة، وإنشاء بيانات تدريب تركيبية إضافية مطابقة لخصائص المستشعر الحقيقي، واختبار تحديثات السياسة بأمان قبل النشر. تشمل التقنيات إعادة بناء المشهد التصويري، وتحديد المعلمات الفيزيائية (تعريف النظام)، وطرق العرض العصبي (NeRF، 3D Gaussian Splatting) لمطابقة مظهر الكاميرا. تعمل خطوط الأنابيب الدقيقة من الواقع إلى المحاكاة على تقليل عدد التجارب الفيزيائية اللازمة لتكرار السياسة بشكل كبير.

محاكاةالتوأم الرقميبيانات

يصل

الوصول هو أقصى مسافة من قاعدة ذراع الروبوت إلى أي نقطة يمكن للفاعل النهائي الوصول إليها داخل مساحة العمل الخاصة به. بالنسبة للذراع التسلسلي، الحد الأقصى للوصول يساوي مجموع كل أطوال الارتباط. يكون الوصول الفعال في عملية النشر أصغر - مع مراعاة الحدود المشتركة، وتجنب الاصطدام الذاتي، والحاجة إلى الاقتراب من الكائنات من اتجاهات متعددة. يحدد الوصول تخطيطات محطة العمل ومواضع الكائنات الممكنة. عند اختيار الروبوتات لمهمة ما، يجب على المهندسين التأكد من أن مساحة العمل المطلوبة (بما في ذلك جميع اتجاهات الاقتراب للإمساك) تقع ضمن المظروف الذي يمكن للروبوت الوصول إليه وبدقة مقبولة.

الأجهزةالمواصفاتالحركية

إعادة تشغيل المخزن المؤقت

مخزن إعادة التشغيل المؤقت (أو ذاكرة إعادة تشغيل التجربة) عبارة عن مجموعة بيانات من التحولات السابقة (الحالة، الإجراء، المكافأة، الحالة التالية، التنفيذ) التي تم جمعها بواسطة وكيل RL أثناء تفاعل البيئة. في كل خطوة تدريب، يتم أخذ عينات عشوائية صغيرة من المخزن المؤقت لتدريب وظيفة القيمة أو السياسة، مما يؤدي إلى كسر الارتباطات الزمنية التي من شأنها زعزعة استقرار تحديثات التدرج. في التعلم الآلي والتعلم الآلي دون اتصال بالإنترنت، يتم استبدال المخزن المؤقت لإعادة التشغيل بمجموعة بيانات ثابتة من العروض التوضيحية البشرية أو عمليات النشر التي تم جمعها مسبقًا. تقوم الخبرة ذات الأولوية بإعادة عرض عينات الأوزان عن طريق خطأ الفرق الزمني لتركيز التدريب على التحولات الإعلامية.

التعلم المعززبيانات

وظيفة المكافأة

تحدد وظيفة المكافأة هدف التعلم لوكيل التعلم المعزز: فهي تقوم بتعيين إشارة مكافأة عددية r(s, a, s') لكل انتقال (حالة، إجراء، حالة تالية)، لإخبار الوكيل بمدى جودة أو سوء أفعاله. يعد تصميم وظيفة المكافأة أحد أصعب الأجزاء في تطبيق RL على الروبوتات: المكافآت المتفرقة (1 عند النجاح، 0 بخلاف ذلك) تكون نظيفة ولكنها تؤدي إلى التعلم البطيء؛ المكافآت الكثيفة (على سبيل المثال، المسافة السلبية إلى الهدف) توجه التعلم ولكن يمكن اللعب بها بطرق غير متوقعة (اختراق المكافآت). تشمل البدائل تعلم المكافأة من العروض التوضيحية (IRL، RLHF)، ومقاييس المحاكاة الخاصة بالمهمة، ونماذج التفضيلات المستفادة. يتجنب تعلم التقليد مشكلة تصميم المكافأة بالكامل من خلال التعلم مباشرة من العروض التوضيحية.

التعلم المعززالمفهوم الأساسي

S

نقل سيم إلى حقيقي

النقل من محاكاة إلى حقيقية هو عملية تدريب سياسة الروبوت بشكل كامل أو أساسي في المحاكاة ثم نشرها على روبوت مادي، بهدف أن تعمل السياسة بدون (أو مع الحد الأدنى) من بيانات العالم الحقيقي الإضافية. التحدي الأساسي هو فجوة الواقع - الاختلافات في الدقة الفيزيائية، والمظهر البصري، وضوضاء المستشعر، والديناميكيات غير النموذجية بين المحاكاة والعالم الحقيقي. تشمل تقنيات التخفيف الرئيسية التوزيع العشوائي للمجال (عشوائية معلمات المحاكاة أثناء التدريب)، وتحديد النظام (معايرة المحاكاة لتتناسب مع الأجهزة الحقيقية)، والضبط الدقيق التكيفي لكميات صغيرة من البيانات الحقيقية. انظر مقالة مفصلة.

نقل التعلممحاكاةالنشر

مساحة الدولة

مساحة الحالة هي مجموعة كاملة من التكوينات التي يمكن أن يكون فيها الروبوت وبيئته. في RL، تقوم حالة ماركوف بتشفير جميع المعلومات اللازمة للتنبؤ بالمكافآت المستقبلية وانتقالات الحالة - ومن الناحية المثالية وصف كامل للعالم. من الناحية العملية، لا يتمتع الوكيل إلا بإمكانية الوصول إلى الملاحظات الجزئية (الصور والزوايا المشتركة) التي قد لا تلتقط الحالة بشكل كامل (على سبيل المثال، الأجسام المحجوبة، والمعلمات الفيزيائية غير المعروفة). يعد تصميم مساحة مراقبة تقارب حالة ماركوف جيدًا مع الحفاظ على قابلية تتبعها حسابيًا تحديًا رئيسيًا في تصميم نظام تعلم الروبوت.

التعلم المعززيتحكم

الروبوتات الجراحية

تطبق الروبوتات الجراحية أنظمة الروبوت على الإجراءات الطبية، وأشهرها عبر منصة Da Vinci التابعة لشركة Intuitive Surgical لإجراء العمليات الجراحية بالمنظار بأقل تدخل جراحي. توفر الروبوتات الجراحية مقياسًا للحركة (ترجمة حركات المشغل الكبيرة إلى حركة أداة أقل من ملليمتر)، وترشيح الارتعاش، والتصور المعزز داخل المريض. تستكشف الأبحاث الناشئة المهام الفرعية الجراحية المستقلة (الخياطة، وسحب الأنسجة)، والتوجيه بمساعدة الذكاء الاصطناعي، والجراحة عن بعد عبر روابط 5G منخفضة الكمون. تضيف الموافقة التنظيمية (FDA 510(k) أو PMA للولايات المتحدة) عبئًا كبيرًا للتحقق. الروبوتات الجراحية تقع عند تقاطع عملية عن بعد, HRI، و التلاعب الغنية بالاتصال.

طبيالتشغيل عن بعدطلب

T

التعلم المحدد بالمهمة

يقوم التعلم القائم على معلمات المهام بتشفير العروض التوضيحية المتعلقة بإطارات إحداثيات متعددة أو معلمات مهمة (على سبيل المثال، وضع الكائن، والموقع المستهدف، وإطار العوائق) وليس في إطار عالمي ثابت. عند التنفيذ، تتكيف السياسة تلقائيًا مع تكوينات الكائن والهدف الجديدة دون إعادة التدريب، لأنها تعلمت الحركة بالنسبة للمراجع ذات الصلة بالمهمة. تعد نماذج الخليط الغاوسي ذات معلمات المهمة (TP-GMM) وبدائيات الحركة النواة تطبيقات كلاسيكية. يوفر هذا النهج تعميمًا هندسيًا قويًا لمهام الاختيار والمكان المنظمة، على الرغم من أنه يتطلب تحديد إطارات المهام وتتبعها في وقت التشغيل.

التعلم بالتقليدتعميمسياسة

التشغيل عن بعد

التشغيل عن بعد هو جهاز تحكم عن بعد للروبوت بواسطة مشغل بشري، يستخدم لتنفيذ المهام المباشرة (الروبوتات الجراحية، الروبوتات الفضائية، التخلص من القنابل) وكطريقة أساسية لجمع العروض التعليمية المقلدة عالية الجودة. في تعلم الروبوت، يستخدم الإعداد الشائع بنية القائد والتابع: يقوم المشغل بتحريك ذراع قائد خفيفة الوزن ويقوم الروبوت (التابع) بتتبع القائد في الوقت الفعلي. تحظى أنظمة التشغيل عن بعد القائمة على الواقع الافتراضي (باستخدام التتبع اليدوي أو وحدات التحكم) بشعبية متزايدة لأنها أكثر راحة وتسمح بإنتاجية أعلى للبيانات. يوفر SVRC التشغيل عن بعد الاحترافي خدمات جمع البيانات لفرق تعلم الروبوتات في المؤسسات.

جمع البياناتالتعلم بالتقليدالأجهزة

مسار

المسار عبارة عن تسلسل محدد زمنيًا لحالات الروبوت (الزوايا المشتركة أو الأوضاع الديكارتية) التي تصف كيفية تحرك الروبوت من تكوين البداية إلى الهدف. يمكن إنشاء المسارات عن طريق مخططي الحركة (التخطيط لمسار خالٍ من الاصطدامات ثم تحديد المعلمات الزمنية له من أجل التنفيذ السلس)، أو عن طريق تسجيل التشغيل عن بعد (التقاط حركة المشغل بتردد ثابت)، أو التنبؤ بها مباشرة من خلال السياسة العصبية. تعد سلاسة المسار واستمرارية السرعة أمرًا مهمًا للسلامة الجسدية للروبوت - حيث تسبب الانقطاعات المفاجئة إجهادًا ميكانيكيًا ويمكن أن تؤدي إلى توقفات السلامة. تتضمن تمثيلات المسار الخطوط، وأوليات الحركة الديناميكية (DMPs)، وتسلسلات نقاط الطريق المنفصلة.

تخطيطيتحكمبيانات

نقل التعلم

يتضمن نقل التعلم في الروبوتات أخذ نموذج تم تدريبه مسبقًا على مجال واحد (على سبيل المثال، بيانات لغة رؤية الإنترنت أو المحاكاة أو روبوت مختلف) وتكييفه مع مهمة مستهدفة أو روبوت ببيانات إضافية محدودة. يعد ضبط الطبقات النهائية للعمود الفقري المُدرب مسبقًا على بيانات العرض التوضيحي للروبوت هو النهج الأكثر شيوعًا؛ يتم استخدام الضبط الدقيق الكامل لجميع الأوزان عند توفر بيانات كافية للروبوت. نقل التعلم هو الآلية التي تجعل نماذج الأساس عملي بالنسبة للروبوتات - إن البديل المتمثل في التدريب من الصفر على بيانات الروبوت وحدها سيتطلب الملايين من العروض التوضيحية. انظر أيضا التدريب المسبق, نقل سيم إلى حقيقي.

نموذج الأساستمرين

U

URDF (تنسيق وصف الروبوت الموحد)

URDF هو تنسيق ملف يستند إلى XML يصف الخصائص الحركية والديناميكية للروبوت: الروابط (الأجسام الصلبة ذات الكتلة والقصور الذاتي والشبكات المرئية/الاصطدامية) والمفاصل (الاتصالات بين الروابط، مع النوع والمحور والحدود ومعلمات التخميد). URDF هو تنسيق وصف الروبوت القياسي في ROS وهو مدعوم من قبل جميع منصات المحاكاة الرئيسية (Isaac Sim، MuJoCo، Gazebo، PyBullet). فهو يتيح تحميل حركيات الروبوت في مخططات الحركة مثل MoveIt، وتصور الروبوت في RViz، وإنشاء نماذج محاكاة فيزيائية. يتم استخدام XACRO (لغة ماكرو XML) بشكل شائع لتحديد معلمات ملفات URDF وتعديلها للروبوتات المعقدة. تمتلك OpenArm ومعظم أجهزة SVRC نماذج URDF متاحة للعامة.

أداةمعيارمحاكاة

V

VLA (نموذج الرؤية - اللغة - العمل)

نموذج الرؤية واللغة والعمل عبارة عن شبكة عصبية تقوم بشكل مشترك بمعالجة الملاحظات المرئية (صور RGB)، وتعليمات اللغة الطبيعية، واستقبال الحس العميق الآلي لإنتاج مخرجات العمل. تعمل VLAs على توسيع نماذج لغة الرؤية الكبيرة (VLMs مثل PaLM-E أو LLaVA أو Gemini) عن طريق إضافة رأس إجراء - لتدريب النموذج على إخراج مواضع مفصل الروبوت أو دلتا المؤثر النهائي جنبًا إلى جنب مع تنبؤاته اللغوية. تشتمل VLAs البارزة على RT-2 (يرمز إلى الإجراءات كرموز نصية ويضبط VLM)، وOpenVLA (مفتوح المصدر، ومعلمة 7B، مدربة على Open X-Embodiment)، وpi0 (VLA المطابق للتدفق في الذكاء المادي). انظر المقالات VLA وVLM و كتالوج طراز SVRC.

نموذج الأساسلغةالمفهوم الأساسي

فايبر اكس

ViperX عبارة عن سلسلة من أذرع الروبوت 6-DOF المصنعة بواسطة Trossen Robotics، وتستخدم على نطاق واسع في أبحاث تعلم الروبوتات الأكاديمية نظرًا لتكلفتها المنخفضة ودعم ROS والتوافق مع النظام البيئي DYNAMIXEL المؤازر. يعد ViperX 300 (بمدى وصول 300 ملم) وViperX 300-S من بين أذرع البحث الأكثر شيوعًا الموجودة في إعدادات التعلم المقلدة وهي الأذرع التابعة في الأصل ALOHA نظام. تتمتع أذرع ViperX بحمولة متواضعة (حوالي 750 جم) ودقة مقارنة بالروبوتات الصناعية ولكنها توفر نقطة دخول يمكن الوصول إليها لأبحاث التلاعب. تصفح SVRC متجر الأجهزة للتوفر.

الأجهزةروبوت الأبحاث

خدمة مرئية

تستخدم الخدمة المرئية تعليقات الكاميرا في وحدة تحكم ذات حلقة مغلقة لتوجيه الروبوت نحو هدف محدد في مساحة الصورة (الخدمة المرئية المستندة إلى الصور، IBVS) أو المساحة ثلاثية الأبعاد المقدرة من الصور (الخدمة المرئية المستندة إلى الموضع، PBVS). في IBVS، تعمل وحدة التحكم على تقليل الخطأ بين ميزات الصورة المكتشفة (نقاط المفاتيح، المربعات المحيطة بالكائن) ومواضعها المطلوبة في مستوى الصورة، دون حساب الأوضاع ثلاثية الأبعاد بشكل صريح. تعتبر الخدمة المرئية جذابة لأنها تعوض بشكل مباشر عن أخطاء المعايرة واختلال محاذاة الكاميرا والروبوت. تقوم متغيرات التعلم العميق الحديثة بتدريب الشبكات العصبية على إخراج أوامر السرعة المؤازرة مباشرة من الصور الأولية، مما يتيح محاذاة قوية للكائنات الجديدة.

يتحكمتصورحلقة مغلقة

W

نقطة الطريق

نقطة الطريق هي تكوين وسيط (زوايا مشتركة أو وضعية ديكارتية) يجب أن يمر عبر مسار الروبوت في الطريق من البداية إلى الهدف. تسمح نقاط الطريق للمبرمجين والمخططين بتوجيه مسار الروبوت من خلال أوضاع محددة - على سبيل المثال، لتجنب عقبة، أو الاقتراب من كائن من اتجاه آمن، أو التسلسل من خلال إجراء تجميع متعدد الخطوات. في التعلم الآلي، تنتج السياسات عالية المستوى أحيانًا نقاط طريق يقوم مخطط الحركة ذو المستوى الأدنى بإقحامها في مسارات مشتركة سلسة، وتجمع بين فوائد التعميم للسياسات المستفادة مع ضمانات السلامة للتخطيط الكلاسيكي.

تخطيطمسار

السيطرة على كامل الجسم (WBC)

يقوم التحكم في الجسم بالكامل بتنسيق جميع مفاصل الروبوت ذو الأرجل أو الروبوت في وقت واحد لتحقيق أهداف متنافسة متعددة - الحفاظ على التوازن، وتتبع أهداف المؤثر النهائي، وتجنب حدود المفاصل، وإدارة قوى الاتصال - والتي يتم حلها كمشكلة تحسين مقيدة في الوقت الفعلي (عادةً QP). يعد WBC ضروريًا للبشر والمتلاعبين بالأرجل لأن القاعدة ليست ثابتة: تعمل حركة الذراع على تغيير مركز الكتلة ويجب تعويضها بتعديلات الساق والجذع. تُستخدم أطر عمل WBC مثل Drake وPinocchio وOCS2 بشكل شائع في الأبحاث المتعلقة بالبشر. تعتمد منصة Mobile ALOHA وBoston Dynamics Atlas على وحدات التحكم لكامل الجسم من أجل التلاعب الموضعي. يرى مقالة WBC.

يتحكمشبيه بالإنسانالحركة

مساحة العمل

مساحة عمل الروبوت هي مجموعة جميع المواضع (والاتجاهات) التي يمكن أن يصل إليها المؤثر النهائي بالنظر إلى البنية الحركية للروبوت وحدود المفاصل. ال مساحة عمل يمكن الوصول إليها هي جميع المواضع التي يمكن للمؤثر النهائي الوصول إليها في اتجاه واحد على الأقل؛ ال مساحة عمل بارعة هي المجموعة الفرعية الأصغر التي يمكن الوصول إليها في كل اتجاه - وهي المنطقة الأكثر فائدة لمهام المعالجة التي تتطلب زوايا اقتراب عشوائية. يُعلم تحليل مساحة العمل تخطيط الخلية (إلى أي مدى يجب أن تكون الروبوتات والأجزاء متباعدة)، واختيار الروبوت (مطابقة الوصول إلى تخطيط المهمة)، وتخطيط الحركة (تحديد المسارات الخالية من التفرد عبر مساحة العمل).

الحركيةالأجهزةتخطيط

Z

زار (تنسيق البيانات)

Zarr هو تنسيق مفتوح المصدر لتخزين المصفوفات ذات الأبعاد n في شكل مقسم ومضغوط، وهو مصمم لأحمال عمل الإدخال/الإخراج السحابية الأصلية والمتوازية. في علم الروبوتات، يتم استخدام Zarr لتخزين مجموعات بيانات العرض التوضيحي الكبيرة للروبوت (الصور والحالات المشتركة والإجراءات) بتنسيق يمكن قراءته بكفاءة من تخزين الكائنات (S3، GCS) دون تنزيل ملفات كاملة. على عكس HDF5يدعم Zarr عمليات الكتابة المتزامنة، مما يجعله مناسبًا لخطوط جمع البيانات الموزعة. قام Zarr v3 بتوحيد التنسيق وإضافة دعم للمشاركة (دمج العديد من القطع الصغيرة في عدد أقل من الملفات الكبيرة)، مما يحسن كفاءة التخزين السحابي. اعتمدت مشاريع مثل LeRobot والعديد من مجموعات بيانات المركبات المستقلة Zarr لاستضافة مجموعات البيانات واسعة النطاق.

بياناتتخزينهندسة

تعميم الصفر

التعميم الصفري هو قدرة السياسة المدربة على تنفيذ المهام أو الكائنات أو البيئات بنجاح لم يسبق لها مثيل بشكل واضح أثناء التدريب، دون أي ضبط إضافي أو عروض توضيحية. يعد النقل الصفري الحقيقي هدفًا رئيسيًا لنماذج الأساس الروبوتية - فالسياسة التي تعمم الطلقة الصفرية على الأشياء المنزلية الجديدة أو تعليمات اللغة الجديدة من شأنها أن تقلل بشكل كبير من عبء جمع البيانات. تُظهر نماذج VLA الحالية تعميمًا واعدًا للغة الصفرية (فهم العبارات الجديدة لأنواع المهام المعروفة) ولكنها لا تزال تعاني من فئات كائنات جديدة حقًا أو مهارات معالجة جديدة تمامًا. يعد تحسين الأداء الصفري هو الدافع الرئيسي لتوسيع نطاق مجموعات بيانات الروبوت وأحجام النماذج. انظر أيضا مقال نقل صفر طلقة.

تعميمنموذج الأساسحدود البحث

لا توجد مصطلحات تطابق بحثك

جرب مصطلحًا أقصر أو تحقق من الإملاء. يتم إدراج جميع المصطلحات الـ 65 أعلاه عند مسح البحث.

هل تحتاج إلى بيانات الروبوت لمشروع التعلم الخاص بك؟

نقوم بجمع عروض توضيحية عالية الجودة وجاهزة للتعلم للتعلم بالتقليد والبحث عن المعرفة - بدءًا من التلاعب على الطاولة وحتى المهام اليدوية المتنقلة.