تماشا کنید: روبات انساننما جهش کریستیانو رونالدو و راهرفتن معروف لبران جیمز را تقلید میکند

محققان چارچوبی مبتنی بر هوش مصنوعی توسعه دادهاند که امکان میدهد روباتهای انساننما مانورهای ورزشی پیشرفتهای را با چابکی بینظیر اجرا کنند.
دانشگاه کارنگی ملون و NVIDIA با همکاری یکدیگر چارچوب Aligning Simulation and Real Physics (ASAP) را ایجاد کردهاند که به انساننماها امکان میدهد حرکاتی مانند چرخش معروف کریستیانو رونالدو در هوا و پرش fadeaway کوبی برایانت را اجرا کنند.
این چارچوب دو مرحلهای با آموزش اولیه ردیابی حرکات در شبیهسازی و تعدیل سیاستها با دادههای دنیای واقعی، از یک مدل اقدام delta برای تطبیق مؤثر با دینامیک دنیای واقعی استفاده میکند.
تیم پژوهشی در مقاله تحقیقاتی اعلام کرد: "روباتهای انساننما پتانسیل انعطافپذیری بینظیری برای اجرای مهارتهای کامل بدنی انسانگونه دارند. با این حال، رسیدن به حرکات کامل بدنی چابک و هماهنگ به دلیل تطابق ضعیف بین شبیهسازی و دنیای واقعی همچنان چالش بزرگی است."
هوش مصنوعی حرکت را بهبود میبخشد
سالهاست که محققان در تلاشاند روباتهای انساننما با چابکی انسانگونه توسعه دهند، اما بیشتر تلاشها بر روی حرکت پایه متمرکز بوده و نه حرکات ورزشی کامل بدن.
مطالعات اخیر بیانگری بالاتنه را معرفی کردهاند، اما رسیدن به چابکی کامل بدن به دلیل محدودیتهای سختافزاری و تفاوتها بین شبیهسازی و فیزیک دنیای واقعی همچنان چالشبرانگیز است.
برای پر کردن این خلأ، سه رویکرد اصلی مطرح شده است: شناسایی سیستم (SysID)، تصادفیسازی دامنه (DR)، و روشهای دینامیک یادگیری. SysID پارامترهای فیزیکی کلیدی را تخمین میزند اما به فضاهای پیشتعریفشده و اندازهگیری گشتاور وابسته است و تطبیقپذیری آن محدود است.
DR سیاستها را در شبیهسازی با پارامترهای تصادفی آموزش میدهد اما میتواند منجر به حرکات بسیار محتاطانه شود. مدلهای دینامیک یادگیری از دادههای دنیای واقعی برای بهبود دقت استفاده میکنند اما برای روباتهای انساننما همچنان کاوشنشده باقی ماندهاند.
برای رفع این محدودیتها، تیم پژوهشی ASAP را بهعنوان یک چارچوب دو مرحلهای برای مهارتهای کامل بدن انساننما پیشنهاد میکند. ابتدا، سیاستها با استفاده از ویدیوهای حرکتی انسانی در شبیهسازی پیشآموزش میبینند. سپس این سیاستها به روباتهای انساننما بازنشانهگذاری شده و با یک سیاست ردیابی حرکت آموزش میبینند. از آنجا که استقرار مستقیم منجر به کاهش کارایی میشود، مرحله دوم دادههای دنیای واقعی را برای شناسایی اختلافها جمعآوری میکند.
به گفته محققان، سپس یک مدل اقدام delta آموزش داده میشود تا این اختلافها را جبران کند. در نهایت، سیاست با مدل delta بهینهسازی میشود و به روباتهای انساننما اجازه میدهد تا بهطور مؤثری با فیزیک دنیای واقعی سازگار شوند. این فرایند یادگیری باعث میشود روباتهای انساننما بتوانند اختلاف بین آموزش شبیهسازیشده و اجرای دنیای واقعی را پل بزنند و مرزهای چابکی ربوتیک را گسترش دهند.
روباتها چابکی کسب میکنند
روبات انساننمایی که با ASAP آموزش دیده است، اکنون میتواند حرکات معروف از اسطورههای ورزشی را تقلید کند، از جمله