تحقیق نشان میدهد انسانها رفتار خود را هنگام آموزش هوش مصنوعی تغییر میدهند و باعث ایجاد سوگیری میشوند
در سالهای اخیر، مردم به طور فزایندهای به هوش مصنوعی برای کمک به تصمیمگیریهای خود متکی شدهاند.
این مدلها نه تنها به انسانها کمک میکنند، بلکه از رفتار آنها نیز یاد میگیرند. بنابراین، مهم است که بفهمیم تعاملات ما با مدلهای هوش مصنوعی چگونه بر آنها تاثیر میگذارد.
روال فعلی فرض میکند که رفتار انسانی مورد استفاده برای آموزش بدون سوگیری است.
با این حال، تحقیق دانشگاه واشنگتن این فرضیه را به چالش میکشد و نشان میدهد که مردم رفتار خود را در زمانی که میدانند برای آموزش هوش مصنوعی استفاده میشود، تغییر میدهند.
علاوه بر این، این رفتار روزها پس از پایان آموزش همچنان باقی میماند.
این یافتهها یک مشکل در توسعه هوش مصنوعی را مشخص میکنند: فرضیه بدون سوگیری بودن دادههای آموزشی میتواند به مدلهای ناهنجار منجر شود.
این هوش مصنوعی ممکن است این عادات را تقویت کند و در نتیجه انسانها و هوش مصنوعی از رفتار بهینه دور شوند.
پدیده روانشناختی غیرمنتظره
این مطالعه بینرشتهای جدید توسط محققان واشیو یک پدیده روانشناختی غیرمنتظره را در تقاطع رفتار انسانی و هوش مصنوعی کشف کرده است.
هنگامی که به انسانها گفته شد که در حال آموزش هوش مصنوعی برای بازی یک بازی چانهزنی هستند، شرکتکنندگان به طور فعال رفتار خود را تنظیم کردند تا عادلانهتر و منصفانهتر به نظر برسند، امپالسی که ممکن است پیامدهای مهمی برای توسعهدهندگان هوش مصنوعی در دنیای واقعی داشته باشد.
“شرکتکنندگان به نظر میرسید برای آموزش هوش مصنوعی به عادلانه بودن انگیزه داشتهاند، که باعث تشویق است، اما افراد دیگر ممکن است برنامههای متفاوتی داشته باشند،” گفت لورن تریمان، دانشجوی دکتری در بخش علوم داده و محاسبات و نویسنده اصلی مطالعه.
“توسعهدهندگان باید بدانند که مردم به طور عمدی رفتار خود را تغییر میدهند زمانی که میدانند برای آموزش هوش مصنوعی مورد استفاده قرار میگیرد.”
این مطالعه که در PNAS منتشر شده است، با کمک مالی اولیه از موسسه بینرشتهای علوم دادههای کاربردی (TRIADS)، یک ابتکار امضای برنامه استراتژیک هنر و علوم حمایت شده است.
بازی اولتیماتوم
این مطالعه شامل پنج آزمایش بود، هر یک با تقریباً 200 تا 300 شرکتکننده. به شرکتکنندگان گفته شد که بازی “بازی اولتیماتوم” را بازی کنند، چالشی که نیاز به مذاکره پرداختهای کوچک نقدی (فقط 1 تا 6 دلار) با سایر بازیکنان انسانی یا کامپیوتر دارد.
گاهی اوقات به آنها گفته شد که تصمیماتشان برای آموزش یک ربات هوش مصنوعی مورد استفاده قرار خواهد گرفت.
بازیکنانی که فکر میکردند در حال آموزش هوش مصنوعی هستند، به طور پیوسته بیشتر تمایل به گرفتن سهم عادلانهای از پرداختها داشتند، حتی اگر چنین عادلانهای به آنها چند دلار هزینه داشته باشد.
جالب اینجاست که این تغییر رفتار حتی پس از اینکه به آنها گفته شد که تصمیماتشان دیگر برای آموزش هوش مصنوعی استفاده نمیشود، ادامه داشت و نشاندهنده تأثیر ماندگار تجربه شکلدهی تکنولوژی بر تصمیمگیری بود.
“به عنوان دانشمند شناختی، ما به تشکیل عادتها علاقهمندیم،” گفت وتر کول، هم-نویسنده این مطالعه.
“این مثالی جالب است چون رفتار حتی زمانی که دیگر نیاز نبود ادامه یافت.”
با این حال، انگیزه پشت این رفتار کاملاً روشن نیست.
پیامدهای آینده
محققان در مورد انگیزهها و استراتژیهای خاص پرسش نکردند و کول توضیح داد که ممکن است شرکتکنندگان احساس نمیکردند وظیفهای قوی در اخلاق کردن هوش مصنوعی دارند.
او گفت که ممکن است این آزمایش گرایشهای طبیعی آنها برای رد کردن پیشنهادهای ناعادلانه را به نمایش گذاشته است.
“آنها ممکن است به پیامدهای آینده فکر نکنند،” او گفت. “ممکن است فقط راه آسان را انتخاب کنند.”
“این مطالعه عنصر انسانی مهم در آموزش هوش مصنوعی را برجسته میکند،” گفت چین-جو هو، دانشمند کامپیوتر که روابط بین رفتارهای انسانی و الگوریتمهای یادگیری ماشینی را مطالعه میکند.
“بسیاری از آموزشهای هوش مصنوعی بر اساس تصمیمات انسانی است،” او گفت. “اگر سوگیریهای انسانی در آموزش هوش مصنوعی مورد توجه قرار نگیرند، هوش مصنوعی حاصل نیز سوگیری خواهد داشت. در چند سال اخیر، ما شاهد مشکلات زیادی از این نوع ناسازگاری بین آموزش و استقرار هوش مصنوعی بودهایم.
برای مثال، برخی از نرمافزارهای تشخیص چهره نیاز به دقت بیشتر در شناسایی افراد رنگینپوست دارد، هو گفت. “این تا حدی به این دلیل است که دادههای مورد استفاده برای آموزش هوش مصنوعی سوگیری دارد و نماینده نیست.”