تکنولوژی

افشاگر OpenAI سوچیر بالاجی در میان درگیری حق نسخه‌برداری مرده پیدا شد

سوچیر بالاجی، منتقد برجسته OpenAI و از معماران کلیدی فناوری ChatGPT، در میان بحث‌های داغ پیرامون هوش مصنوعی و قوانین حق نسخه‌برداری در سن ۲۶ سالگی درگذشت. بالاجی به دلیل نگرانی‌های اخلاقی و قانونی از OpenAI جدا شد و به مبارزه با استفاده غیرقانونی از داده‌های دارای حق نسخه‌برداری پرداخت. او پیش از مرگ خود، در مصاحبه‌ای با نیویورک تایمز درباره پیامدها و چالش‌های پیچیده تکنولوژی هوش مصنوعی صحبت کرده بود. مرگ او که به عنوان خودکشی تایید شد، به بحث‌ و جدل‌ها و فشارهای موجود در حوزه اخلاق و قانونی هوش مصنوعی توجه دوباره جلب کرد.

مرگ ناگهانی سوچیر بالاجی، منتقد برجسته OpenAI، دنیای فناوری را در میان بحث‌های داغ پیرامون هوش مصنوعی و قوانین حق نسخه‌برداری شوکه کرد. بالاجی ماه‌ها پیش از مرگ خود چالش‌های عمیق اخلاقی و قانونی را افشا کرده بود.

او به طور خاص شرکت‌هایی مانند OpenAI را به خاطر جمع‌آوری مقادیر زیادی از داده‌های اینترنت برای آموزش مدل‌های هوش مصنوعی خود، زیر سوال برده و بر قانونی و اخلاقی بودن این فعالیت‌ها در چارچوب قوانین حق نسخه‌برداری کنونی تاکید کرده بود.

سوچیر بالاجی که بود؟

سوچیر بالاجی در میان معماران کلیدی یکی از تحول‌آفرین‌ترین فناوری‌های قرن بیست و یکم، ChatGPT، بود. مرگ ناگوار این جوان ۲۶ ساله، که عضو قبلی تیم OpenAI و منتقد صریح فعالیت‌های شرکت بود، دنیای فناوری را شوکه کرد.

بالاجی که نسبت به استفاده اخلاقی از داده‌ها توسط شرکت‌های هوش مصنوعی نگرانی‌های خود را ابراز کرده بود، در تاریخ ۲۶ نوامبر در آپارتمان خود در سان فرانسیسکو از طریق خودکشی درگذشت. مقامات طریقه مرگ را تایید کرده و در حال حاضر شواهدی از فعالیت‌های خبیثانه وجود ندارد.

بالاجی که بیش از چهار سال با OpenAI کار کرده بود، این شرکت را به خاطر نگرانی‌های خود درباره استفاده ادعایی این غول هوش مصنوعی از داده‌های دارای حق نسخه‌برداری بدون رضایت مناسب ترک کرد. او در مصاحبه‌ای که در اکتبر با نیویورک تایمز داشت، درباره این موضوع صحبت کرد.

او در ماه آگوست به دلیل این نگرانی‌ها OpenAI را ترک کرد. حتی پس از استعفا نیز بالاجی به خاطر این مسئله همچنان صدای خود را بلند نگه داشت. قابل توجه است که درست یک روز قبل از مرگ او، در یک پرونده حقوقی بالاجی به عنوان بخشی از یک دعوی حق نسخه‌برداری که علیه این استارتاپ مطرح شده بود، نام برده شد. به عنوان بخشی از یک سازش خوش‌بینانه، OpenAI ظاهرا گفته است که به دنبال فایل‌های سرپرستی بالاجی مربوط به نگرانی‌های حق نسخه‌برداری که او ابراز کرده بود، خواهد گشت.

سوچیر بالاجی چه چیزی را افشا کرد؟

در گفت‌وگو با نیویورک تایمز، او توضیح داد که چگونه سیستم‌هایی مانند GPT-4 از طریق ایجاد نسخه‌های کامل داده‌ها آموزش می‌بینند. نگرانی‌های بالاجی در مقاله‌ای که او در آن پیچیدگی‌های فرآیند آموزش هوش مصنوعی را بیان کرده بود، به تفصیل آمده است.

او نوشت: «مدل‌های تولیدی به ندرت خروجی‌هایی تولید می‌کنند که به طور قابل توجهی با هر یک از ورودی‌های آموزشی‌شان مشابه هستند، اما فرآیند آموزش یک مدل تولیدی شامل ایجاد نسخه‌هایی از داده‌های دارای حق نسخه‌برداری است.»

«اگر این نسخه‌ها غیرمجاز باشند، ممکن است این اقدام به عنوان نقض حق نسخه‌برداری تلقی شود، بسته به اینکه آیا استفاده خاص از مدل به عنوان ‘استفاده منصفانه’ واجد شرایط است یا نه. چون استفاده منصفانه به صورت موردی تصمیم‌گیری می‌شود، هیچ اظهارنظر کلی نمی‌توان کرد که کدام مدل تولیدی به عنوان استفاده منصفانه واجد شرایط است.»

بالاجی گفت: «خروجی‌ها نسخه‌های دقیق از ورودی‌ها نیستند، اما همچنین به صورت بنیادی جدید نیستند.»

این جوان تکنولوژیست همچنین به مسئله‌ای بزرگ‌تر اشاره کرد: با جایگزینی تدریجی خدمات اینترنتی موجود توسط فناوری‌های هوش مصنوعی، آن‌ها اغلب اطلاعات نادرست یا حتی اطلاعاتی که کاملا ساخته‌شده‌اند، تولید می‌کنند، پدیده‌ای که محققان آن را «توهمات» می‌نامند. او گفت اینترنت در حال تغییر به سمت بدتر شدن است.

OpenAI و مایکروسافت با شکایات مختلفی از طرف روزنامه‌ها و ناشران رسانه‌ای، از جمله نیویورک تایمز، که شرکت استارتاپی تولیدی هوش مصنوعی را به نقض قانون حق نسخه‌برداری متهم کرده‌اند، روبرو هستند. بالاجی به داده‌هایی اشاره کرد که OpenAI برای آموزش مدل‌های خود استفاده کرده بود و از آن‌ها گلایه شد.

او در پست نهایی X خود در اکتبر و همچنین در یک پست وبلاگ در همان ماه نگرانی‌های خود را بیان کرد. در مقاله ایکس اکتبر، بالاجی از محققان یادگیری ماشینی خواست که درباره مقررات حق نسخه‌برداری بیشتر بیاموزند.

او به این موضوع اشاره کرد که نمونه‌های اغلب اشار‌ شمرده شده، مانند پرونده کتاب‌های گوگل، نمی‌تواند به طور کامل ادعاهای “استفاده منصفانه” شرکت‌های تولیدی هوش مصنوعی را توجیه کند.

با وجود انتقاداتش، او توضیح داد که نظراتش بیشتر به زمینه بزرگ‌تر تولید هوش مصنوعی اشاره دارد تا فقط OpenAI. بالاجی همچنین اظهار داشت که نیویورک تایمز به او مراجعه نکرده بلکه او بوده که به آن‌ها مراجعه کرده است زیرا فکر می‌کرد "دیدگاه جالبی" دارد.

بینش‌های بالاجی نگرانی‌های رو به رشد میان توسعه‌دهندگان هوش مصنوعی و صاحبان حقوق نسخه‌برداری را نشان می‌دهد، بر این که نیاز به داده‌های گسترده برای آموزش مدل‌های پیچیده ممکن است با حقوق تولیدکنندگان محتوا در تناقض باشد.

مرگ تراژیک او، که به عنوان خودکشی توسط مقامات قضاوت شد، توجهات را به بحث‌های شدید و فشارهایی جلب می‌کند که با ورود به حوزه پیچیده اخلاق و قانونی هوش مصنوعی همراه است.

تأملات نهایی بالاجی

آخرین ارتباطات بالاجی نگرانی‌های او را در مورد کاربرد دفاع از «استفاده منصفانه» در فناوری‌های تولیدی هوش مصنوعی نشان داد.

در آخرین پست X خود که پس از مرگش مجددا ظاهر شد، او تأمل کرد: «ابتدا چیزی از حق نسخه‌برداری، استفاده منصفانه و غیره نمی‌دانستم، اما پس از دیدن همه شکایات مطرح‌شده علیه شرکت‌های GenAI علاقه‌مند شدم. زمانی که سعی کردم مسئله را بهتر درک کنم، در نهایت به این نتیجه رسیدم که استفاده منصفانه برای بسیاری از محصولات تولیدی هوش مصنوعی احتمالاً دفاعی غیر عملی است، چرا که آن‌ها می‌توانند جایگزین‌هایی ایجاد کنند که با داده‌هایی که روی آن‌ها آموزش می‌بینند رقابت کنند.»

بالاجی نتیجه گرفت: «من دلایل دقیق‌تری برای این باورم در پست خود نوشته‌ام. بدیهی است که من وکیل نیستم، اما هنوز احساس می‌کنم مهم است که حتی غیر وکلا هم قانون را درک کنند — هم به معنای حقوقی آن و هم به دلیل وجود آن در وهله اول.»

OpenAI در مورد مرگ بالاجی ابراز تاسف کرد و با سخنگویی به تک‌کرانچ گفت: «ما از شنیدن این خبر بسیار ناراحت‌کنند&#۸۲۰۵ه امروز دلیتیم و قلب‌هایمان با عزیزان سوچیر در این زمان سخت است.»</p>

توسط
Interesting Engineering
منبع
Interesting Engineering
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا