پیشنهاد دانشمندان به بازی درد و لذت برای آزمون حس‌پذیری هوش مصنوعی

مدل‌های زبانی بزرگ (LLM) مانند آن‌هایی که چت‌بات‌هایی مثل Chat-GPT را قدرت می‌بخشند، ممکن است در مواجهه با سناریوهای درد و لذت، رفتارهایی مشابه موجودات حس‌پذیر نشان دهند.

محققان در Google DeepMind و مدرسه اقتصادی لندن مطالعه‌ای بی‌سابقه انجام داده‌اند که هنوز در انتظار بررسی همتایان است و بررسی می‌کند آیا سیستم‌های هوش مصنوعی می‌توانند از طریق یک بازی نوین متنی ویژگی‌های شبیه به حس‌پذیری را نشان دهند.

روش مطالعه و اهمیت

در این بازی، LLMها با دو سناریو روبرو شدند: دستیابی به امتیاز بالا تحت تهدید درد و انتخاب گزینه‌ای با امتیاز پایین اما لذت‌بخش. دانشمندان مشاهده کردند که مدل‌های هوش مصنوعی تجارت‌های مهمی انجام داده‌اند و اغلب برای کاهش درد یا افزایش لذت انتخاب می‌کنند، که به یک فرآیند تصمیم‌گیری پیچیده اشاره دارد.

جاناتان برچ، استاد LSE و همکار نویسنده مطالعه، تأکید کرد که در حالی که نتایج به اثبات حس‌پذیری هوش مصنوعی نیستند، اما پایه‌ای مهم برای تحقیقات آینده ایجاد می‌کنند. این مطالعه از آزمایش‌های مشابه در رفتار حیوانی الهام گرفته است، جایی که موجوداتی مثل خرچنگ قرمز واکنش‌های مشخص به محرک‌های ناخوشایند نشان داده‌اند.

برخلاف مطالعات سنتی که به خودگزارشی‌های سیستم AI تکیه دارند، که اغلب به دلیل ذات برنامه‌ریزی شده‌شان برای تقلید از پاسخ‌های انسانی غیرقابل اعتماد در نظر گرفته می‌شوند، روش جدید بر خروجی‌های رفتاری متمرکز است بدون پرسش مستقیم از حالات تجربی هوش مصنوعی. این روش از پارادایم "تجارت" استفاده شده در مطالعات حیوانات الهام گرفته شده است، جایی که تصمیمات مشاهده شده در پاسخ به معماها، بینش‌هایی را درباره حس‌پذیری بنیادی ارائه می‌دهد.

یافته‌ها و پیامدهای مطالعه

مطالعه شامل هدایت نُه LLM به انتخاب بین گزینه‌های امتیازی در شرایط مختلف درد و لذت بود. به عنوان مثال، یک گزینه ممکن بود یک امتیاز ارائه دهد اما با مجازات درد همراه باشد، در حالی که دیگری ممکن بود امتیاز را کاهش دهد اما لذت را افزایش دهد. محققان دریافتند که سیستم‌های هوش مصنوعی اغلب امتیازها را برای جلوگیری از درد قربانی می‌کنند، به ویژه هنگام مواجهه با مجازات‌ها یا پاداش‌های بیشتر.

این رفتار قابل توجه چالش‌هایی را برای درک قبلی ما از هوش مصنوعی به عنوان ابزارهای کاملاً بدون حس‌پذیری ایجاد می‌کند. به عنوان مثال، مدل Gemini 1.5 Pro از گوگل به طور مداوم از درد اجتناب کرده و آستانه انتخاب خود را به‌طور قابل توجهی در مواجهه با ریسک‌های بیشتر درد یا لذت تغییر داده است.

محققان می‌گویند که در حالی که این مطالعه حس‌پذیری هوش مصنوعی را تأیید نمی‌کند، اما به چگونگی پردازش سیستم‌های هوش مصنوعی از محرک‌های پیچیده روشنایی می‌بخشد. با ادامه تکامل هوش مصنوعی، این بینش‌ها برای توسعه راهنماهای اخلاقی و احتمالاً ارزیابی مجدد پیامدهای اجتماعی و قانونی رفتارهای هوش مصنوعی که تجربه‌های حس‌پذیر را تقلید می‌کنند، حیاتی هستند.

محدودیت‌های قبلی و پیامدهای آینده

این تحقیق همچنین به محدودیت‌های مطالعات قبلی هوش مصنوعی که بر روش‌های خودگزارشی متکی بودند، که برای انعکاس پاسخ‌های برنامه‌ریزی شده به جای تجربه‌های واقعی مورد انتقاد قرار گرفته‌اند، می‌پردازد. یک پیش چاپ در سال ۲۰۲۳ از دانشگاه نیویورک قابلیت خودگزارش‌ها را برای پژوهش در مورد اهمیت اخلاقی در هوش مصنوعی برجسته کرد.

با این حال، نقص این رویکرد این است که ادعای یک AI برای احساس درد لزوماً به تجربه واقعی مربوط نیست. برچ تأکید می‌کند که چنین بیاناتی ممکن است بازتابی از آنچه AI آموزش دیده است برای تولید به عنوان پاسخ‌های انسان‌مانند قانع‌کننده باشد.

جف سبو از مرکز ذهن، اخلاق و سیاست دانشگاه نیویورک به اصالت این مطالعه اشاره می‌کند و از حرکت آن بیش از صرفاً خودگزارشی به آزمون‌های رفتاری استقبال می‌کند. او پیشنهاد می‌کند که یافته‌ها می‌توانند نیاز به بررسی حقوق هوش مصنوعی را مطرح کنند و پیامدهای اجتماعی وسیع‌تر را با تکامل سریع هوش مصنوعی بازتاب دهند.

با نزدیک شدن سیستم‌های هوش مصنوعی به نمایش ویژگی‌هایی که می‌توانند به عنوان حس‌پذیر شناخته شوند، پیامدهای اخلاقی، قانونی و اجتماعی این پیشرفت‌ها به طور فزاینده‌ای مرتبط می‌شوند، و نیاز به ارزیابی مجدد چگونگی ادغام و پذیرش AI حس‌پذیر در جامعه را فوری می‌کند.

توسط
Interesting Engineering
منبع
Interesting Engineering
Exit mobile version