حل مشکل تعصب در هوش مصنوعی؟ مطالعه جدید چارچوب عدالت رادیکال را پیشنهاد میکند
با گسترش هوش مصنوعی در زمینههای مختلف زندگی روزمره ما، استفاده از آن برای ارزیابی درخواستهای شغلی، مسکن، دانشگاه، بیمه و غیره افزایش یافته است.
در حالیکه هوش مصنوعی همه چیز، از سرگرمی تا پزشکی را دگرگون میکند، توانایی آن برای اثربخشی بر همه جنبههای زندگی ما نیز بیشتر شده است. چگونه میتوانیم اطمینان حاصل کنیم که این تاثیرات نابرابریهای موجود را تقویت نمیکنند و به بارهای جدیدی بر افراد منجر نمیشوند؟
یک مقاله جدید از محققان دانشگاه کارنگی ملون و موسسه فناوری استیونز رویکردی را پیشنهاد میکند که میتواند عدالت در تصمیمات هوش مصنوعی را تضمین کند.
بهینهسازی رفاه اجتماعی
برای مقاله خود، محققان استفاده از پارادایم بهینهسازی رفاه اجتماعی را بررسی کردند. این پارادایم هدف بهبود عدالت در تصمیمگیری با تأکید بر اثرات کلی مثبت و منفی بر افراد را دارد. این روش میتواند عدالت ابزارهای مختلف هوش مصنوعی که صنایع استفاده میکنند را با بررسی نرخ پذیرش آنها برای گروههای حفاظتشده ارزیابی کند.
به طور قابل توجه، مقاله با جایزه بهترین مقاله در کنفرانس بینالمللی ادغام برنامهریزی محدودیتها، هوش مصنوعی و پژوهش عملیات (CPAIOR) در اوپسالا، سوئد، مفتخر شد.
به گفته جان هوکر، یکی از نویسندگان مقاله و استاد پژوهش عملیات در مدرسه تجارت تپر دانشگاه کارنگی ملون، هدف جامعه هوش مصنوعی در کشف عدالت، «تضمین رفتار عادلانه برای گروههایی که در سطح اقتصادی، نژاد، پیشینه قومی، جنسیت و دیگر دستهها تفاوت دارند» است.
چگونه میدانیم که چه چیزی عادلانه است؟
اما دقیقا عدالت چیست و چگونه باید تعیین شود؟ این یکی از چالشهای اصلی در رفع تعصب هوش مصنوعی است. اگر عدالت به معنای تأیید تعداد مساوی از افراد از گروههای مختلف برای شغلها، فرصتهای تحصیلی یا وامهای بانکی باشد، چگونه میتوانیم در نظر بگیریم که رد کردن ممکن است تاثیر بیشتری بر گروههای محروم داشته باشد؟
روش بهینهسازی رفاه اجتماعی میتواند به تعادل معادله کمک کند، به ویژه برای افرادی که از جمعیتهای کمتر برخوردار هستند.
این روش شامل «عدالت آلفا» است که به دنبال توازن میان عدالت و سودمندی و کارایی برای همه معاندان است.
ویولت چن، استادیار در موسسه فناوری استیونز و یکی از نویسندگان مطالعه، اظهار داشت، «معیارهای معمول عدالت گروهی در هوش مصنوعی عمدتا به مقایسه متریکهای آماری تصمیمات پشتیبانیشده توسط هوش مصنوعی بین گروههای مختلف میپردازند و از تأثیرات واقعی برگزیده یا رد شدن نادیده میگیرند».
محققان راهی مبتنی بر رفاه برای ارزیابی تصمیمات گروهی پیشنهاد میکنند و دیدگاههای جدیدی در خصوص آنچه عدالت را تشکیل میدهد ارائه میدهند.
دانشمندان بر این باورند که مطالعه آنها برای توسعهدهندگان هوش مصنوعی و سازندگان سیاست اهمیت دارد و تکنولوژیای را ایجاد کند که به عدالت اجتماعی و تنوع کمک کند. همانطور که در چکیده مقاله ذکر شده است، معیارهای برابری که در جامعه هوش مصنوعی استفاده میشوند نیاز به بهبود دارند.
به ویژه، آنها «عواقب واقعی رفاه تصمیمات را نادیده میگیرند و بنابراین ممکن است به دست آوردن نوع عدالتی که برای گروههای محروم مطلوب است، ناکام باشند». این اندازهگیریها نیز اغلب با یکدیگر سازگار نیستند.
در مقاله جدید، محققان خواستار «مفهوم گستردهتری از عدالت اجتماعی، مبتنی بر بهینهسازی تابع رفاه اجتماعی (SWF) برای ارزیابی تعاریف مختلف برابری» شدهاند.
چگونه میتوانیم در برابر ناعدالتی در هوش مصنوعی محافظت کنیم
جدیدترین مهندسی با جان هوکر برای اطلاعات بیشتر درباره مطالعه تماس گرفت. او چند نمونه از ناعادلتیهایی که میتواند در تصمیمات هوش مصنوعی نفوذ کند ارائه کرد. از جمله آنها میتوان به تصمیمات پشتیبانیشده توسط هوش مصنوعی در مورد وامهای مسکن، تصمیمگیری درباره اینکه چه کسی برای مصاحبه شغلی فراخوانی شود، کسانی که به دانشگاه پذیرفته میشوند و تصمیمات مربوط به آزادی مشروط اشاره کرد.
او درباره یکی از وضعیتهای احتمالی «تعصب نهفته» توضیح داد که در آن، درخواستدهندگان وام از یک گروه اقلیت ممکن است رد شوند اگر یادگیری ماشینی ارتباطی بین آن گروه و نرخهای بالاتر پیشفرض پیدا کند. این ممکن است به دلیل زندگی اقلیتها در محلههای کمدرآمد باشد، جایی که ساکنان بیشتر پیشفرض دارند.
اما همچنین احتمال میرود که اقلیتها به دلیل تبعیض تاریخی به جای بیمسئولیتی مالی در این محلهها زندگی میکنند.
در مورد چگونگی محافظت در برابر ناعدالتی در هوش مصنوعی با راهحلهای فناورانه، او پیشنهاد کرد که مشکل «بیشتر مفهومی/اخلاقی است تا فنی». فرض کنیم میخواهیم برابری را در سراسر گروهها تضمین کنیم، خواه بر اساس نژاد، قومیت، جنسیت، سن، سطح اقتصادی یا عوامل دیگر؛ باید بفهمیم که معنی رفتار برابر با همه چیست.
«دهها معیار برابری متناقض از همدیگر پیشنهاد شدهاند و هیچ توافقی در مورد اینکه کدام یک درست است وجود ندارد».
یکی از موارد به طور گسترده منتشر شده تعصب هوش مصنوعی میتواند در نظر گرفتن آزادی مشروط باشد. نرمافزار COMPAS که توسط دادگاههای آمریکا برای ارزیابی احتمال مجرم شدن مجدد یا عودت مجرم استفاده میشود، به دنبال «برابری نرخهای پیشبینیشده» است. هنوز منتقدان معتقدند که باید به جای این، به دنبال «شانس متساوی» بوده باشد.
پرسشهای اساسی در آنجا بهگفته هوکر، «آیا باید برابری را با جبران تبعیضهای گذشته (برابری جمعیت شناختی یا عدالت متقابلهای) بهدستآوریم؟» یا باید «دادن رفتار برابر به آنهایی که امروز بهطور مساوی واجد شرایط هستند (شانسهای متساوی)»؟
مشکل دیگر این است که کدام گروهها باید در مواقع تصمیمگیری عدالت لحاظ شوند. «تقریبا همه در مورد نوعی از درمان ناعادلانه شکایت میکنند»، پیشنهاد میکند هوکر.
چگونه هوش مصنوعی میتواند به سیاستگذاران کمک کند
آیا هوش مصنوعی میتواند به افراد در حکومت کمک کند تا سیستمی ایجاد کنند که تصمیمات عادلانهای بگیرد؟ هوکر بر این باور است که وقتی سؤالات اخلاقی را کشف کنیم، میتوانیم مسیر فناورانه مناسبی را برای دستیابی به برابری پیدا کنیم و به سمت آن تلاش کنیم.
«شفافیت نیز به همان اندازه اهمیت دارد، زیرا مردم میخواهند سیستم هوش مصنوعی تصمیمات خود را توضیح دهد و توجیه کند»، هوکر افزود، «این یک چالش بزرگ است، زیرا موثرترین روشهای یادگیری ماشینی ذاتاً غیرشفاف هستند.»
او اشاره کرد که مهندسان قبل از هوش مصنوعی از معیارهای عدالت مانند شاخص جین ، عدالت آلفا و عدالت نسبی استفاده میکردند، عمدتاً در مخابرات اما همچنین در زمانبندی سیگنالهای ترافیک، طراحی شبکه برق و سایر زمینهها. آنها هدف داشتند «هزینهها یا منافع را به صورت مساوی در جمعیت مرتبط توزیع کنند».
مطالعه از «عدالت آلفا» برای ارزیابی رویکردها به دستیابی به مساوات گروهی استفاده میکند. «میپرسد چه نوع برابری در گروهها از دستیابی به عدالت برای کل جمعیت حاصل میشود»، هوکر به اشتراک گذاشته، افزود که «این ممکن است یک راه برای بهدستآوردن برابری برای همه گروهها باشد در حالی که رفاه آنها در نظر گرفته شده است».
با ادامه نقشهای هوش مصنوعی در فرآیندهای تصمیمگیری در بخشهای مختلف، تضمین عدالت و کاهش تعصب از اهمیت برخوردار میشود. این تحقیقات یک جهتگیری جدید امیدوارکننده در رفع این چالشهای پیچیده ارائه میدهد و احتمالاً راه را برای سیستمهای هوش مصنوعی بیشتر و عادلانه در آینده هموار میکند.