تکنولوژی

افشاگران: کارکنان OpenAI از افشای خطرات هوش مصنوعی منع شده‌اند

چندین افشاگر ادعا کرده‌اند که OpenAI به طور غیرقانونی کارکنانش را از افشای خطرات فناوری خود به انسانیت منع کرده است. شکایتی در این مورد به کمیسیون بورس و اوراق بهادار ایالات متحده ارائه شده است. طبق نامه‌ای هفت صفحه‌ای، OpenAI موافقت‌نامه‌هایی را صادر کرده که حقوق فدرالی کارکنان برای دریافت جبران خسارت افشاگری را نقض می‌کند. این مسئله باعث نگرانی‌های جدی در مورد ایمنی و حقوق کارکنان شده است.

سازنده ChatGPT با اتهامات جدیدی روبرو شده است؛ چندین افشاگر ادعا کرده‌اند که OpenAI به طور غیرقانونی کارکنانش را از افشای خطرات فناوری خود که برای انسانیت وجود دارد، منع کرده است، به گفته یک گزارش.

شکایتی مرتبط با این موضوع به نظارت مالی ایالات متحده، کمیسیون بورس و اوراق بهادار، ارائه شده است.

طبق نامه‌ای هفت صفحه‌ای، افشاگران ادعا کرده‌اند که شرکت هوش مصنوعی، موافقت‌نامه‌های استخدامی، جداسازی و محرمانگی بسیار محدود کننده‌ای را برای کارکنانش صادر کرده که می‌تواند به مجازات علیه کارگرانی که نگرانی‌های خود را در مورد OpenAI به مقامات فدرال گزارش می‌دهند، منجر شود.

توافق‌نامه‌ها کارکنان را از مراجعه به مقامات فدرال منع کرده‌اند

OpenAI به کارکنان خود موافقت‌نامه‌هایی را امضا کرده که از آنها می‌خواهد حقوق فدرال خود برای دریافت جبران خسارت افشاگری را از دست بدهند. این توافق‌نامه‌ها همچنین از کارکنان OpenAI می‌خواهند که قبل از افشای اطلاعات به مقامات فدرال، از شرکت مجوز بگیرند. طبق نامه‌ای که توسط The Post دریافت شده، بیان شده است که این توافق‌نامه از ابراز نگرانی‌های امنیتی به مقامات فدرال جلوگیری می‌کند.

شرکت‌هایی که در چنین عملیاتی مشارکت دارند، قانون را نقض می‌کنند

نهاد نظارتی پیشتر اعلام کرده است که شرکت‌های خصوصی که در چنین عملیاتی شرکت می‌کنند، قانون را نقض کرده و شامل جریمه‌ها و سایر اقدامات اجرایی می‌شوند.

نامه همچنین اشاره کرده است که به دلیل خطرات مرتبط با پیشرفت هوش مصنوعی، ضرورت دارد که افرادی که با این فناوری کار می‌کنند بتوانند به مقامات فدرال مراجعه کنند تا شکایات را مطرح کنند یا نگرانی‌ها را بیان کنند.

نامه بیان داشت، «به همان اندازه مهم است که شرکت‌هایی مانند OpenAI به اهمیت غیرقانونی بودن توافق‌نامه‌های محدود کننده خود پی ببرند و اطمینان حاصل کنند که فرهنگ کاری آنها کارکنان را تشویق می‌کند که نگرانی‌های خود را ابراز کنند، حتی اگر این نگرانی‌ها مطرح شدن با مقامات فدرال و تاثیر بر سودآوری شرکت داشته باشد.»

هانا وونگ، سخنگوی OpenAI، به این حادثه پاسخ داده و بیان داشته است که سیاست افشاگری ما، حقوق کارکنان را برای انجام افشاگری‌های محافظت شده، حفاظت می‌کند.

«سیاست افشاگری ما از حقوق کارکنان برای انجام افشاگری‌های محافظت شده حمایت می‌کند. علاوه بر این، ما باور داریم که بحث و مناظره جدی درباره این فناوری ضروری است و تغییراتی مهم در فرآیند خروج خود اعمال کرده‌ایم تا از عبارات محدود کننده صرف نظر کنیم.»

نامه از SEC خواستار اقدام فوری و تهاجمی شد

نامه همچنین از SEC خواستار اقدامات فوری و تهاجمی برای اجرای قانون ۲۱F-17(a) در بخش هوش مصنوعی و اطمینان از عدم وقوع تخلفات شد. «هر سازمان دولتی فدرال مسئولیت کاهش خطرات عمده‌ای را که هوش مصنوعی ایجاد می‌کند، دارد.»

«هوش مصنوعی به سرعت و به شدت در حال تغییر منظره فناوری است که ما آن را می‌شناسیم،» گفت سناتور گرسلی، که دفتر او گفته است نامه توسط افشاگران ارائه شده است، به گفته Reuters.

«سیاست‌ها و شیوه‌های OpenAI به نظر می‌رسد که تاثیری بر حقوق افشاگران برای صحبت کردن و دریافت جبران خسارت برای افشاگری‌های محافظت شده ایشان دارد.»

قابلیت‌های هوش مصنوعی مولد شامل چت‌بات‌ها که در مکالمات انسانی شرکت می‌کنند، نگرانی‌هایی را به وجود آورده است؛ چراکه مدل‌های هوش مصنوعی به طور روزافزون قدرتمند می‌شوند.

در ماه مه، شرکت کمیته ایمنی و امنیتی به سرپرستی اعضای هیئت مدیره خود تشکیل داد، زیرا شروع به آموزش مدل هوش مصنوعی بعدی خود کرد.

توسط
Interesting Engineering
منبع
Interesting Engineering
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا