تکنولوژی

چطور یک جامعه هوش مصنوعی در ماینکرافت به جامعه انسانی شبیه شد

هرکدام از عاملیت‌های هوش مصنوعی به تدریج مشخصه‌های خاص رفتاری به خود گرفتند و در این آزمایش حتی تاثیر مقررات اجتماعی و نحوه ترویج تفکرات مذهبی را نیز مشاهده می‌کنیم.

به گزارش پیوست، رابرت یانگ، بنیان‌گذار Altera در گزارشی از نشریه فناوری MIT می‌گوید این نمونه اولیه تنها آغاز راه است و گام کوچکی به سمت «تمدن‌های هوش مصنوعی» است که می‌توانند در کنار ما در فضاهای دیجیتالی به فعالیت بپردازند. این استارت‌آپ در نهایت به دنبال ساخت عاملیت‌های مجازی و شخصیت‌های هوش مصنوعی فراتر از بازی‌ها است، آنهم شخصیت‌هایی که عاشق انسان هستند و در حل مشکلات به ما کمک می‌کنند.

البته که بسیاری از متخصصان تحقق چنین هدفی را دور از واقعیت می‌دانند و از نگاه آنها عاملیت‌های هوش مصنوعی در بهترین حالت می‌توانند یک احساس مثل عشق را به شکل متقاعد کننده‌ای تقلید کنند.

یانگ معتقد است که «قدرت واقعی هوش مصنوعی زمانی شکوفا می‌شود که عاملیت‌های خودمختار هوش مصنوعی در ابعاد وسیع امکان تعامل پیدا کنند.»

تمدن مصنوعی: از روابط پیچیده اجتماعی تا مذهب و سیاست

این استارت‌آپ هوش مصنوعی در آزمایش جدیدی به نام پروژه سید (Project Sid) از عاملیت‌های شبیه‌سازی شده هوش مصنوعی با مغز‌هایی متشکل از چندین ماژول مختلف استفاده کرده است. اندرو اهن،‌ هم‌بنیان‌گذار Altera، می گوید: «نکته این است که LLMها مدلی به اندهز کافی پیچیده از رفتار‌های اجتماعی انسان دارند که بتوانند رفتار‌های انسانی را شبیه‌سازی کنند.»

به عبارت دیگر، داده‌های این مدل‌ها باعث می‌شود تا به خوبی بتوانند رفتار انسانی را تقلید کنند اما به هیچ عنوان نمی‌توان آنها را «زنده» قلمداد کرد.

آیا هوش مصنوعی می‌تواند عاشق انسان‌ها باشد؟

یانگ طرح بزرگتری را در برنامه خود دارد.

آزمایشی جدیدی از استارت‌آپ هوش مصنوعی Altera در بازی ماینکرافت نمای جالبی از نحوه عملکرد هوش مصنوعی و شباهت بسیار زیاد آن به انسان‌ها را به نمایش می‌گذارد. این شرکت در چندین آزمایش که با حداکثر ۱۰۰۰ عاملیت هوش مصنوعی انجام گرفت، نشان داد که چطور عاملیت‌های هوش مصنوعی به لطف مدل‌های بزرگ زبانی می‌توانند روابط اجتماعی تشکیل داده و شغل و حرفه خاص خود را در پیش بگیرند. هرکدام از عاملیت‌های هوش مصنوعی به تدریج مشخصه‌های خاص رفتاری به خود گرفتند و در این آزمایش حتی تاثیر مقررات اجتماعی و نحوه ترویج تفکرات مذهبی را نیز مشاهده می‌کنیم.

به گزارش پیوست، رابرت یانگ، بنیان‌گذار Altera در گزارشی از نشریه فناوری MIT می‌گوید این نمونه اولیه تنها آغاز راه است و گام کوچکی به سمت «تمدن‌های هوش مصنوعی» است که می‌توانند در کنار ما در فضاهای دیجیتالی به فعالیت بپردازند. این استارت‌آپ در نهایت به دنبال ساخت عاملیت‌های مجازی و شخصیت‌های هوش مصنوعی فراتر از بازی‌ها است، آنهم شخصیت‌هایی که عاشق انسان هستند و در حل مشکلات به ما کمک می‌کنند.

البته که بسیاری از متخصصان تحقق چنین هدفی را دور از واقعیت می‌دانند و از نگاه آنها عاملیت‌های هوش مصنوعی در بهترین حالت می‌توانند یک احساس مثل عشق را به شکل متقاعد کننده‌ای تقلید کنند.

یانگ معتقد است که «قدرت واقعی هوش مصنوعی زمانی شکوفا می‌شود که عاملیت‌های خودمختار هوش مصنوعی در ابعاد وسیع امکان تعامل پیدا کنند.»

تمدن مصنوعی: از روابط پیچیده اجتماعی تا مذهب و سیاست

این استارت‌آپ هوش مصنوعی در آزمایش جدیدی به نام پروژه سید (Project Sid) از عاملیت‌های شبیه‌سازی شده هوش مصنوعی با مغز‌هایی متشکل از چندین ماژول مختلف استفاده کرده است. برخی از این ماژول‌ها را مدل‌های بزرگ زبانی پشتیبانی می‌کنند که در زمینه‌های خاصی مثل ارتباط با دیگر عاملیت‌ها، صحبت یا برنامه‌ریزی حرکت بعدی تخصص دارند.

کار این گروه با نمونه کوچکی متشکل از ۵۰ عاملیت در ماینکرافت آغاز شد و این تیم روابط عاملیت‌ها را در این جهان زیر نظر گرفت. پس از گذشت ۱۲ روز داخل بازی (۴ ساعت در جهان واقعی)، عاملیت‌ها رفتار‌های جالبی را به نمایش گذاشتند. برای ماثل برخی از آنها بسیار اجتماعی شدند و روابط زیادی با دیگر عاملیت ها ساختند و دسته دیگری درون‌گرا بودند. امتیاز «محبوبیت» هر عاملیت (که توسط خود عاملیت‌های سنجیده می‌شد) در طول زمان و براساس روابط اجتماعی تغییر می‌کرد. این عاملیت‌ها توانستند نشانه‌های اجتماعی را زیر نظر گرفته و به آنها واکنش نشان دهند: برای مثال در یکی از موارد آشپزی که وظیفه توزیع غذا را داشت، به کسانی که از نظرش ارزش بیشتری داشتند بیشتر غذا می‌داد.

در یک سری از شبیه‌سازی‌ها با حضور ۳۰ عاملیت نیز رفتار‌های انسان‌گونه بیشتری گزارش شد. با وجود اینکه تمام عاملیت‌ها با یک شخصیت یکسان و هدف نهایی مشابه آغاز به کار می‌کردند (هدف تمام عاملیت ها ساخت یک روستای کارآمد و محافظت از جامعه در برابر حمالیت دیگر شخصیت‌های داخل بازی بود)، اما هرکدام از عاملیت‌ها به تدریج و بدون دریافت پرامپت نقش خاصی در داخل جامعه گرفتند. عاملیت‌ها به تدریج به نقش‌های مختلفی مثل ساختمان ساز، نیروی دفاعی، بازرگان و اکتشاف‌گر تقسیم شدند. هر عاملیت به تدریج با تخصصی‌تر شدن،‌ رفتارهایی مشابه نقش خاص خود را نیز به نمایش می‌گذاشت. برای مثال یک هنرمند زمان بیشتری را صرف چیدن گل می‌کرد، کشاورز دانه‌های بیشتری جمع‌آوری می‌کرد و محافظان هم حصار‌های بیشتری می‌کشیدند.

یانگ می‌گوید: «برایمان عجیب بود که اگر مغز درستی را برایشان در نظر بگیرید، آنها می‌توانند رفتار نوظهوری را به نمایش بگذارند. این چیزی است که از انسان‌ها انتظار داریم اما انتظار نداشتیم در ماشین‌ها مشاهده کنیم.»

این تیم پیروی از مقررات اجتماعی را نیز مورد بررسی قرار داد. آنها مقررات ساده مالیاتی معرفی کردند و به عاملیت‌ها اجازه دادند تا برای تغییر سیستم مالیاتی درون بازی رای دهند. عاملیت‌هایی که پرامپت حمایت یا ضدیت با مالیات را دریافت کرده بودند می‌توانستند بر رفتار دیگر عاملیت‌های اطراف خود تاثیر بگذارند، تا حدی که پس از آن با توجه به نحوه تعامل خود درمورد افزایش یا کاهش مالیات رای می‌دادند.

این تیم سپس تعداد عاملیت‌ها را بیشتر کرد و در برخی از موارد تعداد آنها به حداکثر ظرفیت سرور ماینکرافت یعنی ۱۰۰۰ نفر رسید. در یکی از شبیه‌سازی‌های ۵۰۰ عاملیتی Altera، این تیم مشاهده کرد که چطور عاملیت‌ها میم فرهنگی ساخته و منتشر می‌کنند. این تیم همچنین بذر یک مذهب ساختگی را در گروه کوچکی از عاملیت‌ها کاشت و سپس این گروه به ترویج و تبلیغ مذهب ساختگی Pastafarianism در شهر‌ها و نواحی مختلف پرداختند. کشیش‌های Pastafarian توانستند از طریق تعامل با دیگر عاملیت‌ها آنها را به مذهب خود وارد کنند. سپس آنهایی که به این مذهب روی آورده بودند نیز به تبلیغ آن پرداختند.

با اینکه رفتار این عاملیت‌ها شبیه به زندگی واقعی است اما این رفتار ترکیب از آموخته‌های مدل بزرگ زبانی از داده‌های انسانی است که به الگو‌هایی در عمل تبدیل می‌شود و آنها می‌توانند از ابزار استفاده کرده و با دیگر عاملیت‌ها ارتباط بگیرند. اندرو اهن،‌ هم‌بنیان‌گذار Altera، می گوید: «نکته این است که LLMها مدلی به اندهز کافی پیچیده از رفتار‌های اجتماعی انسان دارند که بتوانند رفتار‌های انسانی را شبیه‌سازی کنند.»

به عبارت دیگر، داده‌های این مدل‌ها باعث می‌شود تا به خوبی بتوانند رفتار انسانی را تقلید کنند اما به هیچ عنوان نمی‌توان آنها را «زنده» قلمداد کرد.

آیا هوش مصنوعی می‌تواند عاشق انسان‌ها باشد؟

یانگ طرح بزرگتری را در برنامه خود دارد. این شرکت در تلاش است تا در مرحله بعدی وارد بازی Roblox شود و یانگ امیدوار است که در نهایت از بازی‌ها فراتر برود. هدف او ساخت جهانی است که انسان‌ها نه تنها با شخصیت‌های هوش مصنوعی همراه شوند بلکه بتوانند در زندگی روزمره خود با آنها ارتباط بگیرند. رویای او ساخت تعداد زیادی «انسان دیجیتالی» است که به ما اهمیت می‌دهند و به جای سرگرمی، در حل مسائل با ما همراه می‌شوند. او می‌گوید: «ما به دنبال ساخت عاملیت‌هایی هستیم که واقعا عاشق انسان‌ها باشند (برای مثل شبیه به عشق سگ‌ها به انسان‌ها)»

البته که این دیدگاه در حوزه هوش مصنوعی بسیار بحث برانگیز است و بسیاری از متخصصان معتقدند نمی‌توان احساسات انسانی را با ترفند‌های امروز در ماشین‌ها شبیه سازی کرد. جولی توگلیوس، از کهنه‌کاران هوش مصنوعی، که رهبری شرکت آزمایش بازی Modl.ai را برعهده دارد، می‌گوید به فعالیت Altera علاقه‌مند است زیرا به ما اجازه می‌دهد تا رفتار انسانی را در شبیه‌سازی مطالعه کنیم.

اما آیا این عاملیت‌های شبیه‌سازی شده می‌توانند به ما امهیت دهند یا خودآگاه شوند؟ پاسخ توگلیوس منفی است. او می‌گوید: «هیچ دلیل وجود ندارد که فکر کنیم یک شبکه عصبی که روی یک پردازنده گرافیکی اجرا می شود چیزی را تجربه می‌کند.»

اما شاید برای مفید بودن هوش مصنوعی، اصلا لزومی برای عشق به انسان وجود نداشته باشد.

توگلیوس افزود: «اگر سوال این است که آیا این شبیه‌سازی‌ها می‌توانند آن طور به نظر برسند که به ماهیت می‌دهند و به حدی دقیق این کار را انجام دهند که به اندازه فردی که به ما اهمیت می‌دهد ارزشمند باشند، شاید این غیرممکن نباشد. شما می‌توانید شبیه سازی خوبی از اهمیت دادن را به شکل مفید خلق کنید. سوال اینجاست که آیا فردی که به او اهمیت داده می‌شود برایش مهم است که منبع آن واقعیت هیچ چیزی را تجربه نمی‌کند؟»

به عبارت دیگر، شاید همین برای ما کافی باشد که شخصیت‌های هوش مصنوعی بتوانند به خوبی اهمیت دادن به ما را شبیه‌سازی کنند.

توسط
پیوست
منبع
پیوست
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا