تکنولوژی

کدهای ناعادلانه: چگونه الگوریتم‌ها، بازار مسکن را نابرابر می‌کنند؟ خانه‌های رویایی، کدهای تبعیض‌آمیز

در این نوشتار، بررسی می‌کنیم که چگونه الگوریتم‌های غیرشفاف و غیرمسئول می‌توانند دسترسی به یکی از ابتدایی‌ترین نیازهای بشر را محدود کنند: مسکن.

الگوریتم‌ها و مالکیت خانه

در سال ۲۰۱۹، زوجی از کارولینای شمالی خانه رویایی‌شان را پیدا کردند اما تنها دو روز قبل از موعد امضای اسناد اقساط خانه، از دریافت وام منع شدند. و این زوج سیاه‌پوست هستند.

این صرفاً یکی از داستان‌های زیادی است که در آنها مردم رنگین‌پوست نمی‌توانند صاحب خانه شوند زیرا وام‌دهنده‌ها به آنها وام نمی‌دهند. متقاضیان لاتین‌تبار، آسیایی‌تبار و اهل جزایر اقیانوس آرام ۵۰ درصد بیشتر از متقاضیان سفیدپوست با صلاحیت مشابه رد می‌شوند.

نابرابری نژادی در زمینه تقاضای وام خانه از این نظر نگران‌کننده‌تر می‌شود که مالکیت خانه یکی از روش‌های اصلی تولید ثروت خانوادگی است. بنابراین، تصمیم‌های تبعیض‌آمیز درباره متقاضیان وام خانه پیامدهای عمیقی دارند که فراتر از رد خود وام تاثیر می‌گذارند.

بسیاری از تصمیم‌های درخواست وام بر الگوریتم‌هایی استوارند که کاملاً پنهان‌اند. بنابراین، این سیستم‌ها تبعیض سنتی و نژادپرستی سیستمی در بخش مسکن را تا امروز ادامه می‌دهند.

وام‌گیرندگان بالقوه می‌توانند خطاهای موجود در الگوریتم‌های امتیازدهی به اعتبار و الگوریتم‌های اعطای وام را مورد به مورد به چالش بکشند اما نمی‌توانند شیوه سنجش داده‌ها یا اعتبار نتیجه‌گیری‌ها را به چالش بکشند زیرا الگوریتم‌های امتیازدهی به اعتبار و اعطای وامی که درباره وام مردم تصمیم می‌گیرند محرمانه‌اند. به گزارش مارکاپ، سازمان فدرال امور مالی مسکن به‌ عنوان رگولاتور FICO نیز دقیقاً نمی‌داند این الگوریتم‌ها چگونه به متقاضیان امتیاز می‌دهند.

زوج کارولینای شمالی بعد از آنکه بار اول به دلایلی که در مورد متقاضیان سفیدپوست صدق نمی‌کنند از دریافت وام منع شدند، مقاومت کردند. مشخص نیست چرا درخواست این زوج در وهله اول رد شد و بسیاری از افراد در مبارزه با الگوریتم تبعیض‌آمیز موفق نبوده‌اند.

الگوریتم‌ها و مسکن اجاره‌ای

درست مثل تصمیم‌های اعطای وام بانک‌ها، اینکه صاحب‌خانه‌ها از «گزارش‌های گزینش مستاجر» کامپیوتری برای پذیرش یا رد متقاضی استفاده می‌کنند نیز مبهم و ناعادلانه است. مردم نام خانوادگی‌شان را به اشتراک می‌گذارند و احتمال شناسایی خطا بالاست.

حتی وقتی فرد می‌تواند به‌ صورت فنی اطلاعات پشت پرده را بررسی کند و آن را به چالش بکشد، این حق در عمل کارگر نیست و کاربردی ندارد، چون تا وقتی اصلاح انجام می‌گیرد، آپارتمان از دست رفته و یک شرکت دیگر گزینش مستاجر ممکن است گزینش بعدی را انجام دهد و همان خطا را تکرار کند.

همچنین شرکت گزینش مستاجر ملزم نیست مطمئن شود رویداد نامطلوب واقعاً اتفاق افتاده یا توجیه دارد. به‌ همین ‌طریق، صرفاً تشکیل پرونده تخلیه خانه صرف ‌نظر از توجیه یا تخلیه واقعی خانه یک اقدام تخلیه محسوب و گزارش می‌شود.

راه‌حل این است که قوانینی درباره شفافیت، آزمون و مسئولیت‌پذیری وضع شوند: شفافیت برای اینکه مردم بدانند از چه اطلاعاتی چگونه استفاده می‌شود؛ آزمون برای تعیین و اصلاح سوگیری‌ها در محاسبه؛ و مسئولیت‌پذیری برای جبران معنادار و موثر خطاهایی که در حق مصرف‌کننده‌ها رخ می‌دهد.

منبع: ای‌سی‌ال‌یو

شرکت‌ها و دولت‌ها هر روز از الگوریتم‌ها یا فرمول‌های پیچیده و اغلب غیرشفاف استفاده می‌کنند تا درباره زندگی‌هایمان تصمیم بگیرند. بررسی این فرمول‌های تصمیم‌گیری که سیستم‌های تصمیم خودکار هم نامیده می‌شوند برای شناسایی نقص‌ها و سوگیری‌ها دشوار است زیرا این فرمول‌ها اسرار تجاری تلقی می‌شوند و قابل بررسی آزاد نیستند. موانع دیگری نیز بر سر راه است. با وجود این، الگوریتم‌ها تاثیر واضحی بر زندگی مردم می‌گذارد؛ به‌ویژه زندگی آسیب‌پذیرترین و محروم‌ترین قشرهای جامعه مانند افراد کم‌درآمد، سیاه‌پوست‌ها، افراد بومی، رنگین‌پوست‌ها یا ناتوان‌ها. نکته نگران‌کننده‌تر اینکه افرادی که از سیستم‌های تصمیم خودکار تاثیر می‌گیرند امکان به چالش کشیدن مسائل نادرست و سوگیری‌ها را ندارند یا حتی نحوه کار کردن سیستم‌ها را درک نمی‌کنند. در این نوشتار، بررسی می‌کنیم که چگونه الگوریتم‌های غیرشفاف و غیرمسئول می‌توانند دسترسی به یکی از ابتدایی‌ترین نیازهای بشر را محدود کنند: مسکن.

الگوریتم‌ها و مالکیت خانه

در سال ۲۰۱۹، زوجی از کارولینای شمالی خانه رویایی‌شان را پیدا کردند اما تنها دو روز قبل از موعد امضای اسناد اقساط خانه، از دریافت وام منع شدند. برای پرداخت اقساط پس‌انداز کافی داشتند. امتیاز اعتباری خوبی هم داشتند و هر کدام درآمد مناسبی داشتند. با وجود این مزیت‌ها، به آنها گفته شد صلاحیت دریافت وام را ندارند زیرا یکی از آنها پیمانکار بود و کارمند تمام‌وقت محسوب نمی‌شد. اما همکاران‌شان نیز پیمانکار بودند و همچنان خانه اقساطی می‌خریدند. تفاوت کلیدی؟ همکاران‌شان سفیدپوست‌اند. و این زوج سیاه‌پوست هستند.

این صرفاً یکی از داستان‌های زیادی است که در آنها مردم رنگین‌پوست نمی‌توانند صاحب خانه شوند زیرا وام‌دهنده‌ها به آنها وام نمی‌دهند. الگوریتم‌ها مقصر اصلی در این زمینه قلمداد می‌شوند. تحقیقی از مارکاپ نشان داد در سال ۲۰۱۹، وام‌دهنده‌ها به سفیدپوست‌ها بیشتر از رنگین‌پوست‌ها وام خانه دادند. متقاضیان روی کاغذ یکسان بودند اما نژادشان متفاوت بود. در واقع، سیستم متقاضیان سیاه‌پوست پردرآمد با بدهی کمتر را بیشتر از متقاضیان سفیدپوست پردرآمد با بدهی بیشتر رد کردند.

متقاضیان سیاه‌پوست، آسیایی‌تبار، اهل جزایر اقیانوس آرام و لاتین‌تبار در ناحیه سیاتل، بلویو و کنت بسیار بیشتر از متقاضیان سفیدپوست با صلاحیت مالی مشابه رد شدند. بر اساس داده‌های به‌دست‌آمده از مارکاپ، یک متقاضی سیاه‌پوست در این منطقه ۷۵ درصد بیشتر از متقاضی سفیدپوست با صلاحیت مشابه رد می‌شود. متقاضیان لاتین‌تبار، آسیایی‌تبار و اهل جزایر اقیانوس آرام ۵۰ درصد بیشتر از متقاضیان سفیدپوست با صلاحیت مشابه رد می‌شوند.

نابرابری نژادی در زمینه تقاضای وام خانه از این نظر نگران‌کننده‌تر می‌شود که مالکیت خانه یکی از روش‌های اصلی تولید ثروت خانوادگی است. سیاه‌پوست‌ها به‌ طور تاریخی از کاشت بذر ثروت برای آینده محروم شده‌اند. موانع مالکیت خانه در دنیای دیروز و امروز دلیل مهمی برای شکاف ثروت مزمن بین خانواده‌های سیاه‌پوست و سفیدپوست است. بنابراین، تصمیم‌های تبعیض‌آمیز درباره متقاضیان وام خانه پیامدهای عمیقی دارند که فراتر از رد خود وام تاثیر می‌گذارند.

بسیاری از تصمیم‌های درخواست وام بر الگوریتم‌هایی استوارند که کاملاً پنهان‌اند. بنابراین قرض‌گیرنده‌های بالقوه نمی‌دانند چرا تقاضایشان رد می‌شود. برنامه‌های نرم‌افزاری اسرارآمیز اعطای وام خودکار و همچنین الگوریتم‌های امتیازدهی به اعتبار به نام FICO تصمیم‌هایی می‌گیرند که هر روز بر ما تاثیر می‌گذارند. نگران‌کننده است که اطلاع کمی از الگوریتم‌های امتیازدهی و اعطای وام FICO داریم. تحریم کردن افرادی با نژادهای متفاوت به ‌طور تاریخی مانع از این شده که رنگین‌پوست‌ها صاحب خانه شوند اما FICO صرفاً بر اساس تاریخ پرداخت اقساط امتیاز می‌دهد نه تاریخ اجاره. بنابراین، این سیستم‌ها تبعیض سنتی و نژادپرستی سیستمی در بخش مسکن را تا امروز ادامه می‌دهند.

وام‌گیرندگان بالقوه می‌توانند خطاهای موجود در الگوریتم‌های امتیازدهی به اعتبار و الگوریتم‌های اعطای وام را مورد به مورد به چالش بکشند اما نمی‌توانند شیوه سنجش داده‌ها یا اعتبار نتیجه‌گیری‌ها را به چالش بکشند زیرا الگوریتم‌های امتیازدهی به اعتبار و اعطای وامی که درباره وام مردم تصمیم می‌گیرند محرمانه‌اند. به گزارش مارکاپ، سازمان فدرال امور مالی مسکن به‌ عنوان رگولاتور FICO نیز دقیقاً نمی‌داند این الگوریتم‌ها چگونه به متقاضیان امتیاز می‌دهند.

زوج کارولینای شمالی بعد از آنکه بار اول به دلایلی که در مورد متقاضیان سفیدپوست صدق نمی‌کنند از دریافت وام منع شدند، مقاومت کردند. تقاضایشان در نهایت پذیرفته شد اما فقط به کمک مشاور املاک‌شان و پس از آنکه کارفرمایشان ایمیل‌های متعددی به قرض‌دهنده فرستاد تا شاغل بودن قرض‌گیرنده را تایید کند. مشخص نیست چرا درخواست این زوج در وهله اول رد شد و بسیاری از افراد در مبارزه با الگوریتم تبعیض‌آمیز موفق نبوده‌اند.

الگوریتم‌ها و مسکن اجاره‌ای

درست مثل تصمیم‌های اعطای وام بانک‌ها، اینکه صاحب‌خانه‌ها از «گزارش‌های گزینش مستاجر» کامپیوتری برای پذیرش یا رد متقاضی استفاده می‌کنند نیز مبهم و ناعادلانه است. گزارش‌های گزینش مستاجر را صنعتی تولید می‌کند که دارای بیش از دو هزار شرکت است و مقررات مشخصی ندارد و نظارت چندانی بر آن صورت نمی‌گیرد. این گزارش‌ها اغلب حاوی امتیازهای FICO هستند با همه معایبی که برشمرده شد. اما مشکل اینجا تازه شروع می‌شود.

بسیاری از قسمت‌های گزارش‌های گزینش مستاجر، نژادپرستی سیستماتیک را تثبیت می‌کنند؛ درست مثل مالکیت خانه. رنگین‌پوست‌ها به‌ شکل نامتناسبی هدف پلیس قرار می‌گیرند و دستگیر می‌شوند. اما حتی سابقه دستگیری بدون محکومیت اغلب کافی است تا الگوریتم گزینش مستاجر فرد را از مسکن محروم کند. علاوه ‌بر این، مستاجرهای سیاه‌پوست بیشتر از مستاجرهای سفیدپوست پرونده ثبت‌شده دارند. صرفاً ثبت کردن پرونده دستگیری صرف ‌نظر از اعتبارش می‌تواند صلاحیت فرد برای اجاره مسکن را از بین ببرد.

گزارش‌های گزینش مستاجر خطاهای زیادی نیز دارد. این گزارش‌ها از الگوریتم‌ها برای استخراج اطلاعات از اسناد ایالتی و استانی استفاده می‌کنند تا واقعیت‌های گزارش‌شده مانند تخلیه خانه، دستگیری، محکومیت و بدهی را گزارش دهند. این الگوریتم‌ها به ‌گونه‌ای طراحی شده‌اند که «چیزی را از قلم نیندازند» و بنابراین ممکن است حاوی اطلاعات غلط باشند. برای مثال، تقریباً هیچ تلاشی انجام نمی‌گیرد تا اطمینان حاصل شود «جان دو» که خانه‌اش در وایومینگ را تخلیه کرد همان «جان دو» گزارش‌شده در واشینگتن است. بدتر اینکه بسیاری از الگوریتم‌ها علاوه بر جست‌وجوی نام فرد، نسخه‌های دیگر آن نام را نیز جست‌وجو می‌کنند. الگوریتم ممکن است «آنتونی جونز» را با عبارت «آنت* جونز» جست‌وجو کند. این کار باعث می‌شود فرد هم برچسب آنتونی جونز بخورد هم آنثونی جونز، آنتونیو جونز و آنتونیوت جونز. شرکت‌های گزینش مستاجر تلاش زیادی برای اعتبارسنجی این جست‌وجوها نمی‌کنند حتی وقتی تاریخ تولد و محل سکونت تطابق ندارند. مردم نام خانوادگی‌شان را به اشتراک می‌گذارند و احتمال شناسایی خطا بالاست.

حتی وقتی فرد می‌تواند به‌ صورت فنی اطلاعات پشت پرده را بررسی کند و آن را به چالش بکشد، این حق در عمل کارگر نیست و کاربردی ندارد، چون تا وقتی اصلاح انجام می‌گیرد، آپارتمان از دست رفته و یک شرکت دیگر گزینش مستاجر ممکن است گزینش بعدی را انجام دهد و همان خطا را تکرار کند.

همچنین شرکت گزینش مستاجر ملزم نیست مطمئن شود رویداد نامطلوب واقعاً اتفاق افتاده یا توجیه دارد. صاحب‌خانه ممکن است به‌غلط به سازمان‌های اعتبار گزارش دهد که مستاجر قبلی به او بدهکار است. فارغ از اعتبار این ادعا، این موضوع در گزارش گزینش تحت ‌عنوان بدهی به صاحب‌خانه درج خواهد شد. به‌ همین ‌طریق، صرفاً تشکیل پرونده تخلیه خانه صرف ‌نظر از توجیه یا تخلیه واقعی خانه یک اقدام تخلیه محسوب و گزارش می‌شود.

راه‌حل این است که قوانینی درباره شفافیت، آزمون و مسئولیت‌پذیری وضع شوند: شفافیت برای اینکه مردم بدانند از چه اطلاعاتی چگونه استفاده می‌شود؛ آزمون برای تعیین و اصلاح سوگیری‌ها در محاسبه؛ و مسئولیت‌پذیری برای جبران معنادار و موثر خطاهایی که در حق مصرف‌کننده‌ها رخ می‌دهد.

منبع: ای‌سی‌ال‌یو

توسط
پیوست
منبع
پیوست
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا