تکنولوژی

حل مشکل تعصب در هوش مصنوعی؟ مطالعه جدید چارچوب عدالت رادیکال را پیشنهاد می‌کند

با گسترش استفاده از هوش مصنوعی در ارزیابی‌های مختلف زندگی روزمره، از جمله درخواست‌های شغلی، مسکن و آموزشی، تأثیر آن بر زندگی ما افزایش یافته است. مطالعه‌ای جدید از محققان دانشگاه کارنگی ملون و موسسه فناوری استیونز، رویکردی برای تضمین عدالت در تصمیم‌گیری‌های هوش مصنوعی پیشنهاد می‌دهد. این رویکرد که بهینه‌سازی رفاه اجتماعی نام دارد، بر بررسی اثرات مثبت و منفی کلی بر افراد متمرکز است و می‌تواند به تعادل نابرابری‌های موجود کمک کند. این روش با استفاده از «عدالت آلفا» سعی در توازن میان عدالت و منافع افراد دارد. این تحقیق که برای توسعه‌دهندگان هوش مصنوعی و سیاست‌گذاران دارای اهمیت است، به دنبال ایجاد فناوری‌هایی است که عدالت اجتماعی و تنوع را بهبود بخشد.

با گسترش هوش مصنوعی در زمینه‌های مختلف زندگی روزمره ما، استفاده از آن برای ارزیابی درخواست‌های شغلی، مسکن، دانشگاه، بیمه و غیره افزایش یافته است.

در حالی‌که هوش مصنوعی همه چیز، از سرگرمی تا پزشکی را دگرگون می‌کند، توانایی آن برای اثربخشی بر همه جنبه‌های زندگی ما نیز بیشتر شده است. چگونه می‌توانیم اطمینان حاصل کنیم که این تاثیرات نابرابری‌های موجود را تقویت نمی‌کنند و به بارهای جدیدی بر افراد منجر نمی‌شوند؟

یک مقاله جدید از محققان دانشگاه کارنگی ملون و موسسه فناوری استیونز رویکردی را پیشنهاد می‌کند که می‌تواند عدالت در تصمیمات هوش مصنوعی را تضمین کند.

بهینه‌سازی رفاه اجتماعی

برای مقاله خود، محققان استفاده از پارادایم بهینه‌سازی رفاه اجتماعی را بررسی کردند. این پارادایم هدف بهبود عدالت در تصمیم‌گیری با تأکید بر اثرات کلی مثبت و منفی بر افراد را دارد. این روش می‌تواند عدالت ابزارهای مختلف هوش مصنوعی که صنایع استفاده می‌کنند را با بررسی نرخ پذیرش آنها برای گروه‌های حفاظت‌شده ارزیابی کند.

به طور قابل توجه، مقاله با جایزه بهترین مقاله در کنفرانس بین‌المللی ادغام برنامه‌ریزی محدودیت‌ها، هوش مصنوعی و پژوهش عملیات (CPAIOR) در اوپسالا، سوئد، مفتخر شد.

به گفته جان هوکر، یکی از نویسندگان مقاله و استاد پژوهش عملیات در مدرسه تجارت تپر دانشگاه کارنگی ملون، هدف جامعه هوش مصنوعی در کشف عدالت، «تضمین رفتار عادلانه برای گروه‌هایی که در سطح اقتصادی، نژاد، پیشینه قومی، جنسیت و دیگر دسته‌ها تفاوت دارند» است.

چگونه می‌دانیم که چه چیزی عادلانه است؟

اما دقیقا عدالت چیست و چگونه باید تعیین شود؟ این یکی از چالش‌های اصلی در رفع تعصب هوش مصنوعی است. اگر عدالت به معنای تأیید تعداد مساوی از افراد از گروه‌های مختلف برای شغل‌ها، فرصت‌های تحصیلی یا وام‌های بانکی باشد، چگونه می‌توانیم در نظر بگیریم که رد کردن ممکن است تاثیر بیشتری بر گروه‌های محروم داشته باشد؟

روش بهینه‌سازی رفاه اجتماعی می‌تواند به تعادل معادله کمک کند، به ویژه برای افرادی که از جمعیت‌های کمتر برخوردار هستند.

این روش شامل «عدالت آلفا» است که به دنبال توازن میان عدالت و سودمندی و کارایی برای همه معاندان است.

ویولت چن، استادیار در موسسه فناوری استیونز و یکی از نویسندگان مطالعه، اظهار داشت، «معیارهای معمول عدالت گروهی در هوش مصنوعی عمدتا به مقایسه متریک‌های آماری تصمیمات پشتیبانی‌شده توسط هوش مصنوعی بین گروه‌های مختلف می‌پردازند و از تأثیرات واقعی برگزیده یا رد شدن نادیده می‌گیرند».

محققان راهی مبتنی بر رفاه برای ارزیابی تصمیمات گروهی پیشنهاد می‌کنند و دیدگاه‌های جدیدی در خصوص آنچه عدالت را تشکیل می‌دهد ارائه می‌دهند.

دانشمندان بر این باورند که مطالعه آنها برای توسعه‌دهندگان هوش مصنوعی و سازندگان سیاست اهمیت دارد و تکنولوژی‌ای را ایجاد کند که به عدالت اجتماعی و تنوع کمک کند. همان‌طور که در چکیده مقاله ذکر شده است، معیارهای برابری که در جامعه هوش مصنوعی استفاده می‌شوند نیاز به بهبود دارند.

به ویژه، آنها «عواقب واقعی رفاه تصمیمات را نادیده می‌گیرند و بنابراین ممکن است به دست آوردن نوع عدالتی که برای گروه‌های محروم مطلوب است، ناکام باشند». این اندازه‌گیری‌ها نیز اغلب با یکدیگر سازگار نیستند.

در مقاله جدید، محققان خواستار «مفهوم گسترده‌تری از عدالت اجتماعی، مبتنی بر بهینه‌سازی تابع رفاه اجتماعی (SWF) برای ارزیابی تعاریف مختلف برابری» شده‌اند.

چگونه می‌توانیم در برابر ناعدالتی در هوش مصنوعی محافظت کنیم

جدیدترین مهندسی با جان هوکر برای اطلاعات بیشتر درباره مطالعه تماس گرفت. او چند نمونه از ناعادلتی‌هایی که می‌تواند در تصمیمات هوش مصنوعی نفوذ کند ارائه کرد. از جمله آنها می‌توان به تصمیمات پشتیبانی‌شده توسط هوش مصنوعی در مورد وام‌های مسکن، تصمیم‌گیری درباره اینکه چه کسی برای مصاحبه شغلی فراخوانی شود، کسانی که به دانشگاه پذیرفته می‌شوند و تصمیمات مربوط به آزادی مشروط اشاره کرد.

او درباره یکی از وضعیت‌های احتمالی «تعصب نهفته» توضیح داد که در آن، درخواست‌دهندگان وام از یک گروه اقلیت ممکن است رد شوند اگر یادگیری ماشینی ارتباطی بین آن گروه و نرخ‌های بالاتر پیش‌فرض پیدا کند. این ممکن است به دلیل زندگی اقلیت‌ها در محله‌های کم‌درآمد باشد، جایی که ساکنان بیشتر پیش‌فرض دارند.

اما همچنین احتمال می‌رود که اقلیت‌ها به دلیل تبعیض تاریخی به جای بی‌مسئولیتی مالی در این محله‌ها زندگی می‌کنند.

در مورد چگونگی محافظت در برابر ناعدالتی در هوش مصنوعی با راه‌حل‌های فناورانه، او پیشنهاد کرد که مشکل «بیشتر مفهومی/اخلاقی است تا فنی». فرض کنیم می‌خواهیم برابری را در سراسر گروه‌ها تضمین کنیم، خواه بر اساس نژاد، قومیت، جنسیت، سن، سطح اقتصادی یا عوامل دیگر؛ باید بفهمیم که معنی رفتار برابر با همه چیست.

«ده‌ها معیار برابری متناقض از همدیگر پیشنهاد شده‌اند و هیچ توافقی در مورد اینکه کدام یک درست است وجود ندارد».

یکی از موارد به طور گسترده منتشر شده تعصب هوش مصنوعی می‌تواند در نظر گرفتن آزادی مشروط باشد. نرم‌افزار COMPAS که توسط دادگاه‌های آمریکا برای ارزیابی احتمال مجرم شدن مجدد یا عودت مجرم استفاده می‌شود، به دنبال «برابری نرخ‌های پیش‌بینی‌شده» است. هنوز منتقدان معتقدند که باید به جای این، به دنبال «شانس متساوی» بوده باشد.

پرسش‌های اساسی در آنجا به‌گفته هوکر، «آیا باید برابری را با جبران تبعیض‌های گذشته (برابری جمعیت شناختی یا عدالت متقابله‌ای) به‌دست‌آوریم؟» یا باید «دادن رفتار برابر به آن‌هایی که امروز به‌طور مساوی واجد شرایط هستند (شانس‌های متساوی)»؟

مشکل دیگر این است که کدام گروه‌ها باید در مواقع تصمیم‌گیری عدالت لحاظ شوند. «تقریبا همه در مورد نوعی از درمان ناعادلانه شکایت می‌کنند»، پیشنهاد می‌کند هوکر.

چگونه هوش مصنوعی می‌تواند به سیاست‌گذاران کمک کند

آیا هوش مصنوعی می‌تواند به افراد در حکومت کمک کند تا سیستمی ایجاد کنند که تصمیمات عادلانه‌ای بگیرد؟ هوکر بر این باور است که وقتی سؤالات اخلاقی را کشف کنیم، می‌توانیم مسیر فناورانه مناسبی را برای دستیابی به برابری پیدا کنیم و به سمت آن تلاش کنیم.

«شفافیت نیز به همان اندازه اهمیت دارد، زیرا مردم می‌خواهند سیستم هوش مصنوعی تصمیمات خود را توضیح دهد و توجیه کند»، هوکر افزود، «این یک چالش بزرگ است، زیرا موثرترین روش‌های یادگیری ماشینی ذاتاً غیرشفاف هستند.»

او اشاره کرد که مهندسان قبل از هوش مصنوعی از معیارهای عدالت مانند شاخص جین ، عدالت آلفا و عدالت نسبی استفاده می‌کردند، عمدتاً در مخابرات اما همچنین در زمان‌بندی سیگنال‌های ترافیک، طراحی شبکه برق و سایر زمینه‌ها. آنها هدف داشتند «هزینه‌ها یا منافع را به صورت مساوی در جمعیت مرتبط توزیع کنند».

مطالعه از «عدالت آلفا» برای ارزیابی رویکردها به دستیابی به مساوات گروهی استفاده می‌کند. «می‌پرسد چه نوع برابری در گروه‌ها از دستیابی به عدالت برای کل جمعیت حاصل می‌شود»، هوکر به اشتراک گذاشته، افزود که «این ممکن است یک راه برای به‌دست‌آوردن برابری برای همه گروه‌ها باشد در حالی که رفاه آنها در نظر گرفته شده است».

با ادامه نقش‌های هوش مصنوعی در فرآیندهای تصمیم‌گیری در بخش‌های مختلف، تضمین عدالت و کاهش تعصب از اهمیت برخوردار می‌شود. این تحقیقات یک جهت‌گیری جدید امیدوارکننده در رفع این چالش‌های پیچیده ارائه می‌دهد و احتمالاً راه را برای سیستم‌های هوش مصنوعی بیشتر و عادلانه در آینده هموار می‌کند.

توسط
Interesting Engineering
منبع
Interesting Engineering
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا