تکنولوژی

تحقیق نشان می‌دهد انسان‌ها رفتار خود را هنگام آموزش هوش مصنوعی تغییر می‌دهند و باعث ایجاد سوگیری می‌شوند

مطالعه‌ای از دانشگاه واشنگتن نشان می‌دهد که انسان‌ها هنگام آموزش هوش مصنوعی رفتارشان را تغییر می‌دهند و این تغییر رفتار حتی پس از پایان آموزش نیز ادامه دارد. این مسئله نشان‌دهنده وجود سوگیری در داده‌های آموزشی است که می‌تواند منجر به مدل‌های نادرست شود. همچنین این تحقیق پدیده روانشناختی غیرمنتظره‌ای را در تقاطع رفتار انسانی و هوش مصنوعی کشف کرده است.

در سال‌های اخیر، مردم به طور فزاینده‌ای به هوش مصنوعی برای کمک به تصمیم‌گیری‌های خود متکی شده‌اند.

این مدل‌ها نه تنها به انسان‌ها کمک می‌کنند، بلکه از رفتار آن‌ها نیز یاد می‌گیرند. بنابراین، مهم است که بفهمیم تعاملات ما با مدل‌های هوش مصنوعی چگونه بر آنها تاثیر می‌گذارد.

روال فعلی فرض می‌کند که رفتار انسانی مورد استفاده برای آموزش بدون سوگیری است.

با این حال، تحقیق دانشگاه واشنگتن این فرضیه را به چالش می‌کشد و نشان می‌دهد که مردم رفتار خود را در زمانی که می‌دانند برای آموزش هوش مصنوعی استفاده می‌شود، تغییر می‌دهند.

علاوه بر این، این رفتار روز‌ها پس از پایان آموزش همچنان باقی می‌ماند.

این یافته‌ها یک مشکل در توسعه هوش مصنوعی را مشخص می‌کنند: فرضیه بدون سوگیری بودن داده‌های آموزشی می‌تواند به مدل‌های ناهنجار منجر شود.

این هوش مصنوعی ممکن است این عادات را تقویت کند و در نتیجه انسان‌ها و هوش مصنوعی از رفتار بهینه دور شوند.

پدیده روانشناختی غیرمنتظره

این مطالعه بین‌رشته‌ای جدید توسط محققان واش‌یو یک پدیده روانشناختی غیرمنتظره را در تقاطع رفتار انسانی و هوش مصنوعی کشف کرده است.

هنگامی که به انسان‌ها گفته شد که در حال آموزش هوش مصنوعی برای بازی یک بازی چانه‌زنی هستند، شرکت‌کنندگان به طور فعال رفتار خود را تنظیم کردند تا عادلانه‌تر و منصفانه‌تر به نظر برسند، امپالسی که ممکن است پیامدهای مهمی برای توسعه‌دهندگان هوش مصنوعی در دنیای واقعی داشته باشد.

“شرکت‌کنندگان به نظر می‌رسید برای آموزش هوش مصنوعی به عادلانه بودن انگیزه داشته‌اند، که باعث تشویق است، اما افراد دیگر ممکن است برنامه‌های متفاوتی داشته باشند،” گفت لورن تریمان، دانشجوی دکتری در بخش علوم داده و محاسبات و نویسنده اصلی مطالعه.

“توسعه‌دهندگان باید بدانند که مردم به طور عمدی رفتار خود را تغییر می‌دهند زمانی که می‌دانند برای آموزش هوش مصنوعی مورد استفاده قرار می‌گیرد.”

این مطالعه که در PNAS منتشر شده است، با کمک مالی اولیه از موسسه بین‌رشته‌ای علوم داده‌های کاربردی (TRIADS)، یک ابتکار امضای برنامه استراتژیک هنر و علوم حمایت شده است.

بازی اولتیماتوم

این مطالعه شامل پنج آزمایش بود، هر یک با تقریباً 200 تا 300 شرکت‌کننده. به شرکت‌کنندگان گفته شد که بازی “بازی اولتیماتوم” را بازی کنند، چالشی که نیاز به مذاکره پرداخت‌های کوچک نقدی (فقط 1 تا 6 دلار) با سایر بازیکنان انسانی یا کامپیوتر دارد.

گاهی اوقات به آن‌ها گفته شد که تصمیماتشان برای آموزش یک ربات هوش مصنوعی مورد استفاده قرار خواهد گرفت.

بازیکنانی که فکر می‌کردند در حال آموزش هوش مصنوعی هستند، به طور پیوسته بیش‌تر تمایل به گرفتن سهم عادلانه‌ای از پرداخت‌ها داشتند، حتی اگر چنین عادلانه‌ای به آنها چند دلار هزینه داشته باشد.

جالب اینجاست که این تغییر رفتار حتی پس از اینکه به آن‌ها گفته شد که تصمیماتشان دیگر برای آموزش هوش مصنوعی استفاده نمی‌شود، ادامه داشت و نشان‌دهنده تأثیر ماندگار تجربه شکل‌دهی تکنولوژی بر تصمیم‌گیری بود.

“به عنوان دانشمند شناختی، ما به تشکیل عادت‌ها علاقه‌مندیم،” گفت وتر کول، هم-نویسنده این مطالعه.

“این مثالی جالب است چون رفتار حتی زمانی که دیگر نیاز نبود ادامه یافت.”

با این حال، انگیزه پشت این رفتار کاملاً روشن نیست.

پیامدهای آینده

محققان در مورد انگیزه‌ها و استراتژی‌های خاص پرسش نکردند و کول توضیح داد که ممکن است شرکت‌کنندگان احساس نمی‌کردند وظیفه‌ای قوی در اخلاق کردن هوش مصنوعی دارند.

او گفت که ممکن است این آزمایش گرایش‌های طبیعی آن‌ها برای رد کردن پیشنهادهای ناعادلانه را به نمایش گذاشته است.

“آن‌ها ممکن است به پیامدهای آینده فکر نکنند،” او گفت. “ممکن است فقط راه آسان را انتخاب کنند.”

“این مطالعه عنصر انسانی مهم در آموزش هوش مصنوعی را برجسته می‌کند،” گفت چین-جو هو، دانشمند کامپیوتر که روابط بین رفتارهای انسانی و الگوریتم‌های یادگیری ماشینی را مطالعه می‌کند.

“بسیاری از آموزش‌های هوش مصنوعی بر اساس تصمیمات انسانی است،” او گفت. “اگر سوگیری‌های انسانی در آموزش هوش مصنوعی مورد توجه قرار نگیرند، هوش مصنوعی حاصل نیز سوگیری خواهد داشت. در چند سال اخیر، ما شاهد مشکلات زیادی از این نوع ناسازگاری بین آموزش و استقرار هوش مصنوعی بوده‌ایم.

برای مثال، برخی از نرم‌افزارهای تشخیص چهره نیاز به دقت بیشتر در شناسایی افراد رنگین‌پوست دارد، هو گفت. “این تا حدی به این دلیل است که داده‌های مورد استفاده برای آموزش هوش مصنوعی سوگیری دارد و نماینده نیست.”

توسط
Interesting Engineering
منبع
Interesting Engineering
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا