افشاگر OpenAI سوچیر بالاجی در میان درگیری حق نسخهبرداری مرده پیدا شد
مرگ ناگهانی سوچیر بالاجی، منتقد برجسته OpenAI، دنیای فناوری را در میان بحثهای داغ پیرامون هوش مصنوعی و قوانین حق نسخهبرداری شوکه کرد. بالاجی ماهها پیش از مرگ خود چالشهای عمیق اخلاقی و قانونی را افشا کرده بود.
او به طور خاص شرکتهایی مانند OpenAI را به خاطر جمعآوری مقادیر زیادی از دادههای اینترنت برای آموزش مدلهای هوش مصنوعی خود، زیر سوال برده و بر قانونی و اخلاقی بودن این فعالیتها در چارچوب قوانین حق نسخهبرداری کنونی تاکید کرده بود.
سوچیر بالاجی که بود؟
سوچیر بالاجی در میان معماران کلیدی یکی از تحولآفرینترین فناوریهای قرن بیست و یکم، ChatGPT، بود. مرگ ناگوار این جوان ۲۶ ساله، که عضو قبلی تیم OpenAI و منتقد صریح فعالیتهای شرکت بود، دنیای فناوری را شوکه کرد.
بالاجی که نسبت به استفاده اخلاقی از دادهها توسط شرکتهای هوش مصنوعی نگرانیهای خود را ابراز کرده بود، در تاریخ ۲۶ نوامبر در آپارتمان خود در سان فرانسیسکو از طریق خودکشی درگذشت. مقامات طریقه مرگ را تایید کرده و در حال حاضر شواهدی از فعالیتهای خبیثانه وجود ندارد.
بالاجی که بیش از چهار سال با OpenAI کار کرده بود، این شرکت را به خاطر نگرانیهای خود درباره استفاده ادعایی این غول هوش مصنوعی از دادههای دارای حق نسخهبرداری بدون رضایت مناسب ترک کرد. او در مصاحبهای که در اکتبر با نیویورک تایمز داشت، درباره این موضوع صحبت کرد.
او در ماه آگوست به دلیل این نگرانیها OpenAI را ترک کرد. حتی پس از استعفا نیز بالاجی به خاطر این مسئله همچنان صدای خود را بلند نگه داشت. قابل توجه است که درست یک روز قبل از مرگ او، در یک پرونده حقوقی بالاجی به عنوان بخشی از یک دعوی حق نسخهبرداری که علیه این استارتاپ مطرح شده بود، نام برده شد. به عنوان بخشی از یک سازش خوشبینانه، OpenAI ظاهرا گفته است که به دنبال فایلهای سرپرستی بالاجی مربوط به نگرانیهای حق نسخهبرداری که او ابراز کرده بود، خواهد گشت.
سوچیر بالاجی چه چیزی را افشا کرد؟
در گفتوگو با نیویورک تایمز، او توضیح داد که چگونه سیستمهایی مانند GPT-4 از طریق ایجاد نسخههای کامل دادهها آموزش میبینند. نگرانیهای بالاجی در مقالهای که او در آن پیچیدگیهای فرآیند آموزش هوش مصنوعی را بیان کرده بود، به تفصیل آمده است.
او نوشت: «مدلهای تولیدی به ندرت خروجیهایی تولید میکنند که به طور قابل توجهی با هر یک از ورودیهای آموزشیشان مشابه هستند، اما فرآیند آموزش یک مدل تولیدی شامل ایجاد نسخههایی از دادههای دارای حق نسخهبرداری است.»
«اگر این نسخهها غیرمجاز باشند، ممکن است این اقدام به عنوان نقض حق نسخهبرداری تلقی شود، بسته به اینکه آیا استفاده خاص از مدل به عنوان ‘استفاده منصفانه’ واجد شرایط است یا نه. چون استفاده منصفانه به صورت موردی تصمیمگیری میشود، هیچ اظهارنظر کلی نمیتوان کرد که کدام مدل تولیدی به عنوان استفاده منصفانه واجد شرایط است.»
بالاجی گفت: «خروجیها نسخههای دقیق از ورودیها نیستند، اما همچنین به صورت بنیادی جدید نیستند.»
این جوان تکنولوژیست همچنین به مسئلهای بزرگتر اشاره کرد: با جایگزینی تدریجی خدمات اینترنتی موجود توسط فناوریهای هوش مصنوعی، آنها اغلب اطلاعات نادرست یا حتی اطلاعاتی که کاملا ساختهشدهاند، تولید میکنند، پدیدهای که محققان آن را «توهمات» مینامند. او گفت اینترنت در حال تغییر به سمت بدتر شدن است.
نبردهای قانونی و مفاهیم گستردهتر
OpenAI و مایکروسافت با شکایات مختلفی از طرف روزنامهها و ناشران رسانهای، از جمله نیویورک تایمز، که شرکت استارتاپی تولیدی هوش مصنوعی را به نقض قانون حق نسخهبرداری متهم کردهاند، روبرو هستند. بالاجی به دادههایی اشاره کرد که OpenAI برای آموزش مدلهای خود استفاده کرده بود و از آنها گلایه شد.
او در پست نهایی X خود در اکتبر و همچنین در یک پست وبلاگ در همان ماه نگرانیهای خود را بیان کرد. در مقاله ایکس اکتبر، بالاجی از محققان یادگیری ماشینی خواست که درباره مقررات حق نسخهبرداری بیشتر بیاموزند.
او به این موضوع اشاره کرد که نمونههای اغلب اشار شمرده شده، مانند پرونده کتابهای گوگل، نمیتواند به طور کامل ادعاهای “استفاده منصفانه” شرکتهای تولیدی هوش مصنوعی را توجیه کند.
با وجود انتقاداتش، او توضیح داد که نظراتش بیشتر به زمینه بزرگتر تولید هوش مصنوعی اشاره دارد تا فقط OpenAI. بالاجی همچنین اظهار داشت که نیویورک تایمز به او مراجعه نکرده بلکه او بوده که به آنها مراجعه کرده است زیرا فکر میکرد "دیدگاه جالبی" دارد.
بینشهای بالاجی نگرانیهای رو به رشد میان توسعهدهندگان هوش مصنوعی و صاحبان حقوق نسخهبرداری را نشان میدهد، بر این که نیاز به دادههای گسترده برای آموزش مدلهای پیچیده ممکن است با حقوق تولیدکنندگان محتوا در تناقض باشد.
مرگ تراژیک او، که به عنوان خودکشی توسط مقامات قضاوت شد، توجهات را به بحثهای شدید و فشارهایی جلب میکند که با ورود به حوزه پیچیده اخلاق و قانونی هوش مصنوعی همراه است.
تأملات نهایی بالاجی
آخرین ارتباطات بالاجی نگرانیهای او را در مورد کاربرد دفاع از «استفاده منصفانه» در فناوریهای تولیدی هوش مصنوعی نشان داد.
در آخرین پست X خود که پس از مرگش مجددا ظاهر شد، او تأمل کرد: «ابتدا چیزی از حق نسخهبرداری، استفاده منصفانه و غیره نمیدانستم، اما پس از دیدن همه شکایات مطرحشده علیه شرکتهای GenAI علاقهمند شدم. زمانی که سعی کردم مسئله را بهتر درک کنم، در نهایت به این نتیجه رسیدم که استفاده منصفانه برای بسیاری از محصولات تولیدی هوش مصنوعی احتمالاً دفاعی غیر عملی است، چرا که آنها میتوانند جایگزینهایی ایجاد کنند که با دادههایی که روی آنها آموزش میبینند رقابت کنند.»
بالاجی نتیجه گرفت: «من دلایل دقیقتری برای این باورم در پست خود نوشتهام. بدیهی است که من وکیل نیستم، اما هنوز احساس میکنم مهم است که حتی غیر وکلا هم قانون را درک کنند — هم به معنای حقوقی آن و هم به دلیل وجود آن در وهله اول.»
OpenAI در مورد مرگ بالاجی ابراز تاسف کرد و با سخنگویی به تککرانچ گفت: «ما از شنیدن این خبر بسیار ناراحتکنند&#۸۲۰۵ه امروز دلیتیم و قلبهایمان با عزیزان سوچیر در این زمان سخت است.»</p>