مواجهه ثالثین فرم بر علیه Scale AI در حدود یک ماه

شرکت Scale AI در حال تجربه سومین شکایت قانونی خود در کمتر از یک ماه است، این بار به دلیل ادعاهای کارگرانی که می‌گویند از طریق بررسی محتوای نگران‌کننده بدون حمایت‌های روانی مناسب دچار تروما شده‌اند.

شرکت Scale که سال گذشته به ارزش ۱۳.۸ میلیارد دلار ارزیابی شد، متکی بر کارگرانی است که به عنوان پیمانکار دسته‌بندی شده‌اند تا وظایفی مانند ارزیابی پاسخ‌های مدل‌های هوش مصنوعی را انجام دهند.

اوایل این ماه، یک کارگر سابق شکایت کرد که او به طور مؤثر به زیر حداقل دستمزد پرداخت شده و به عنوان پیمانکار طبقه‌بندی نادرست شده است. شکایتی با مسائل مشابه نیز در دسامبر ۲۰۲۴ ثبت شد.

این شکایت آخرین، که در ۱۷ ژانویه در منطقه شمالی کالیفرنیا ثبت شده است، یک شکایت دسته‌جمعی است که بر آسیب‌های روانی ادعایی متحمل شده توسط شش نفر که روی پلتفرم شرکت Scale با نام Outlier کار کرده‌اند، تمرکز دارد.

شاکیان ادعا می‌کنند که مجبور بوده‌اند محتواهای ناگوار درباره خشونت و سوءاستفاده، از جمله سوءاستفاده از کودکان، بدون حمایت‌های روانی مناسب بنویسند و هنگام درخواست مشاوره بهداشت روانی با واکنش مواجه شده‌اند. آنها می‌گویند که در هنگام استخدام به نادرستی درباره ماهیت شغل مطلع شده‌اند و در نهایت به مشکلات روانی مانند PTSD به دلیل کار خود دچار شده‌اند. آنها به دنبال ایجاد یک برنامه پایش پزشکی و استانداردهای ایمنی جدید هستند، به علاوه خسارات نامشخص و هزینه‌های وکیل.

یکی از شاکیان، استیو مک‌کینی، شاکی اصلی در شکایت جداگانه دسامبر ۲۰۲۴ علیه Scale است. همان شرکت حقوقی، شرکت حقوقی کلارکسون از مالیبو، کالیفرنیا، در هر دو شکایت نماینده شاکیان است.

شرکت حقوقی کلارکسون قبلاً یک شکایت دسته‌جمعی علیه OpenAI و مایکروسافت بر سر ادعای استفاده از داده‌های دزدیده شده ثبت کرده بود که بعد از انتقاد توسط یک قاضی منطقه‌ای به دلیل طول و محتوا رد شد. اشاره به آن پرونده، جو آسبورن، سخنگوی Scale AI، شرکت حقوقی کلارکسون را نقد کرده و گفته است که Scale قصد دارد "با قدرت از خود دفاع کند."

"شرکت حقوقی کلارکسون قبلاً - و بدون موفقیت - به دنبال شرکت‌های فناوری نوآور رفته با ادعاهای قانونی که در دادگاه به سرعت رد شده‌اند. یک قاضی دادگاه فدرال یکی از شکایت‌های قبلی آنها را 'به طول بیخود' یافته و حاوی اطلاعات 'تا حدود زیادی نامربوط، منحرف‌کننده یا تکراری' بود،" آسبورن به تک‌کرانچ گفت.

آسبورن گفته است که Scale با تمامی قوانین و مقررات مطابقت دارد و "تعداد زیادی تضمین در محل" برای محافظت از مشارکت‌کنندگان خود دارد مانند امکان ترک هر زمانی، اطلاعات پیشرفته درباره محتوای حساس، و دسترسی به برنامه‌های سلامت و تندرستی. آسبورن افزود که Scale پروژه‌هایی که ممکن است شامل محتوای سوءاستفاده جنسی از کودکان باشد را قبول نمی‌کند.

در پاسخ، گلن داناس، شریک حقوقی در شرکت کلارکسون، به تک‌کرانچ گفت که Scale AI "کارگران را مجبور به مشاهده محتوای ناخوشایند و خشونت‌آمیز کرده تا این مدل‌های هوش مصنوعی را آموزش دهد" و تضمین نکرده که یک محیط کار ایمن باشد.

"ما باید این شرکت‌های فناوری بزرگ مانند Scale AI را پاسخگو کنیم و گرنه کارگران همچنان برای آموزش این فناوری غیرمجاز برای سود به کار گرفته می‌شوند،" داناس گفت.

توسط
Tech Crunch
منبع
Tech Crunch
Exit mobile version