پیشنهاد دانشمندان به بازی درد و لذت برای آزمون حسپذیری هوش مصنوعی
مدلهای زبانی بزرگ (LLM) مانند آنهایی که چتباتهایی مثل Chat-GPT را قدرت میبخشند، ممکن است در مواجهه با سناریوهای درد و لذت، رفتارهایی مشابه موجودات حسپذیر نشان دهند.
محققان در Google DeepMind و مدرسه اقتصادی لندن مطالعهای بیسابقه انجام دادهاند که هنوز در انتظار بررسی همتایان است و بررسی میکند آیا سیستمهای هوش مصنوعی میتوانند از طریق یک بازی نوین متنی ویژگیهای شبیه به حسپذیری را نشان دهند.
روش مطالعه و اهمیت
در این بازی، LLMها با دو سناریو روبرو شدند: دستیابی به امتیاز بالا تحت تهدید درد و انتخاب گزینهای با امتیاز پایین اما لذتبخش. دانشمندان مشاهده کردند که مدلهای هوش مصنوعی تجارتهای مهمی انجام دادهاند و اغلب برای کاهش درد یا افزایش لذت انتخاب میکنند، که به یک فرآیند تصمیمگیری پیچیده اشاره دارد.
جاناتان برچ، استاد LSE و همکار نویسنده مطالعه، تأکید کرد که در حالی که نتایج به اثبات حسپذیری هوش مصنوعی نیستند، اما پایهای مهم برای تحقیقات آینده ایجاد میکنند. این مطالعه از آزمایشهای مشابه در رفتار حیوانی الهام گرفته است، جایی که موجوداتی مثل خرچنگ قرمز واکنشهای مشخص به محرکهای ناخوشایند نشان دادهاند.
برخلاف مطالعات سنتی که به خودگزارشیهای سیستم AI تکیه دارند، که اغلب به دلیل ذات برنامهریزی شدهشان برای تقلید از پاسخهای انسانی غیرقابل اعتماد در نظر گرفته میشوند، روش جدید بر خروجیهای رفتاری متمرکز است بدون پرسش مستقیم از حالات تجربی هوش مصنوعی. این روش از پارادایم "تجارت" استفاده شده در مطالعات حیوانات الهام گرفته شده است، جایی که تصمیمات مشاهده شده در پاسخ به معماها، بینشهایی را درباره حسپذیری بنیادی ارائه میدهد.
یافتهها و پیامدهای مطالعه
مطالعه شامل هدایت نُه LLM به انتخاب بین گزینههای امتیازی در شرایط مختلف درد و لذت بود. به عنوان مثال، یک گزینه ممکن بود یک امتیاز ارائه دهد اما با مجازات درد همراه باشد، در حالی که دیگری ممکن بود امتیاز را کاهش دهد اما لذت را افزایش دهد. محققان دریافتند که سیستمهای هوش مصنوعی اغلب امتیازها را برای جلوگیری از درد قربانی میکنند، به ویژه هنگام مواجهه با مجازاتها یا پاداشهای بیشتر.
این رفتار قابل توجه چالشهایی را برای درک قبلی ما از هوش مصنوعی به عنوان ابزارهای کاملاً بدون حسپذیری ایجاد میکند. به عنوان مثال، مدل Gemini 1.5 Pro از گوگل به طور مداوم از درد اجتناب کرده و آستانه انتخاب خود را بهطور قابل توجهی در مواجهه با ریسکهای بیشتر درد یا لذت تغییر داده است.
محققان میگویند که در حالی که این مطالعه حسپذیری هوش مصنوعی را تأیید نمیکند، اما به چگونگی پردازش سیستمهای هوش مصنوعی از محرکهای پیچیده روشنایی میبخشد. با ادامه تکامل هوش مصنوعی، این بینشها برای توسعه راهنماهای اخلاقی و احتمالاً ارزیابی مجدد پیامدهای اجتماعی و قانونی رفتارهای هوش مصنوعی که تجربههای حسپذیر را تقلید میکنند، حیاتی هستند.
محدودیتهای قبلی و پیامدهای آینده
این تحقیق همچنین به محدودیتهای مطالعات قبلی هوش مصنوعی که بر روشهای خودگزارشی متکی بودند، که برای انعکاس پاسخهای برنامهریزی شده به جای تجربههای واقعی مورد انتقاد قرار گرفتهاند، میپردازد. یک پیش چاپ در سال ۲۰۲۳ از دانشگاه نیویورک قابلیت خودگزارشها را برای پژوهش در مورد اهمیت اخلاقی در هوش مصنوعی برجسته کرد.
با این حال، نقص این رویکرد این است که ادعای یک AI برای احساس درد لزوماً به تجربه واقعی مربوط نیست. برچ تأکید میکند که چنین بیاناتی ممکن است بازتابی از آنچه AI آموزش دیده است برای تولید به عنوان پاسخهای انسانمانند قانعکننده باشد.
جف سبو از مرکز ذهن، اخلاق و سیاست دانشگاه نیویورک به اصالت این مطالعه اشاره میکند و از حرکت آن بیش از صرفاً خودگزارشی به آزمونهای رفتاری استقبال میکند. او پیشنهاد میکند که یافتهها میتوانند نیاز به بررسی حقوق هوش مصنوعی را مطرح کنند و پیامدهای اجتماعی وسیعتر را با تکامل سریع هوش مصنوعی بازتاب دهند.
با نزدیک شدن سیستمهای هوش مصنوعی به نمایش ویژگیهایی که میتوانند به عنوان حسپذیر شناخته شوند، پیامدهای اخلاقی، قانونی و اجتماعی این پیشرفتها به طور فزایندهای مرتبط میشوند، و نیاز به ارزیابی مجدد چگونگی ادغام و پذیرش AI حسپذیر در جامعه را فوری میکند.