انسان‌انگاری هوش مصنوعی: پیامد‌های ناگوار انسان‌ تلقی کردن انسان‌مانند

ما در مسیر درک و ارتباط خود با هوش مصنوعی متاسفانه در دام بزرگی گرفتار شده‌ایم: فرض یک سری ویژگی‌های انسانی برای این سیستم‌های اساسا غیرانسانی. این سبک از انسان‌انگاری هوش مصنوعی از یک تغییر فکر بی‌ضرر درمورد ماهیت انسان فراتر رفته است و در حال تبدیل شدن به گرایش خطرناکی است که شاید به طرق اساسی بر قضاوت ما تاثیر بگذارد. رهبران انسان‌ی یادگیری هوش مصنوعی را با آموزش انسانی قیاس می‌کنند تا فعالیت‌های آموزشی را برای قانون‌گذاری توجیه کنند که در حال سیاست‌گذاری براساس قیاس‌های ناقص انسان-AI هستند. تمایل به انسان‌نمایی هوش مصنوعی شاید شکل نادرستی به تصمیمات اساسی در صنایع و چارچوب‌های‌ رگولاتوری بدهد.

به گزارش پیوست، نگاهی از لنز تجاری به هوش مصنوعی باعث شده است تا شرکت‌ها توانمندی‌های هوش مصنوعی را بیش از حد تصور کنند یا نیاز نظارت انسانی را حتی با وجود برخی از پیامد‌های پرهزینه، دست کم بگیرند. این موضوع به ویژه در بحث قوانین حق نشر یا کپی‌رایت اهمیت زیادی دارد، جایی که تفکر انسان‌انگاری به قیاس‌های مشکل‌سازی بین یادگیری انسان و آموزش هوش مصنوعی منتهی می‌شود.

آنچه مطالعه می‌کنید ترجمه‌ای از مقاله ونچربیت در بحث انسان‌انگاری هوش مصنوعی است که به تفاوت‌های اصلی کارکرد هوش مصنوعی با ذهن انسان و برداشت‌های اشتباه در این حوزه می‌پردازد.

تله زبانی

به نحوه صحبت کردنمان دقت کنید: ما می‌گویم هوش مصنوعی «یاد می‌گیرد»، «فکر می‌کند»، «می‌فهمد» و حتی «خلق می‌کند.» این‌ عبارت‌های انسانی شاید طبیعی به نظر برسند اما گمراه‌کننده هستند. وقتی می‌گوییم که یک مدل هوش مصنوعی «یاد می‌گیرد»، قرار نیست شبیه به یک دانش‌آموز انسانی درک بیشتری پیدا کند. در عوض این سیستم تجزیه‌تحلیل آماری پیچیده‌ای روی حجم عظیمی از داده‌ها انجام می‌دهد، وزن و پارامتر‌های آنها را در شبکه عصبی خود براساس اصول ریاضی تعیین می‌کند. هیچ خبری از درک، لحظه یورکا، جرقه خلاقیت یا فهمیدن به معنای واقعی آن نیست، تنها شاهد الگو‌های پیچیده‌تر هستیم.

این ساده‌انگاری زبانی را نمی‌توان تنها در معنا خلاصه کرد. همانطور که در مقاله استدلال گمراه‌کننده هوش مصنوعی مولد برای استفاده منصفانه گفته می‌شود: «استفاده از زبان انسان‌انگارانه برای توصیف توسعه و عملکرد مدل‌های هوش مصنوعی گمراه‌کننده است زیرا القا می‌شود که این مدل پس از آموزش مستقل از محتوای کارهایی که براساس آن آموزش دیده است، عمل می‌کند.» این اشتباه پیامد‌های واقعی را به دنبال دارد که عموما بر تصمیمات قانونی و سیاست‌گذاری تاثیر می‌گذارد.

انفصال ذهنی

شاید خطرناک‌ترین جنبه انسان‌انگاری هوش مصنوعی، پوشاندن تفاوت‌های بنیادین هوش انسانی و ماشینی است. با اینکه برخی از سیستم‌های هوش مصنوعی در یک سری از انواع استدلال و وظایف تجزیه‌تحلیلی عملکرد بهتری دارند، اما مدل های بزرگ زبانی (LLMها) که بخش اصلی گفتمان امروز پیرامون هوش مصنوعی هستند و ما نیز در اینجا روی آنها تمرکز داریم، براساس الگو‌های تشخیص پیچیده‌ای فعالیت می‌کنند.

این سیستم‌ها با پردازش حجم عظیمی از داده، روابط آماری بین کلمات، جملات، تصاویر و دیگر ورودی‌ها را شناسایی کرده و یاد می‌گیرند تا در هر زنجیره‌ای عضو بعدی (مثل کلمه بعدی در جمله) را پیش‌بینی کنند. وقتی می‌گوییم آنها «یاد می‌گیرند»، ما در واقع فرایند بهینه‌سازی ریاضیاتی را توصیف می‌کنیم که دقت این سیستم‌ها را با اتکا به داده‌های آموزشی افزایش می‌دهد.

این مثال از تحقیقات برگلوند و همکارانش را در نظر بگیرد: مدلی که براساس محتوای آموزشی مبنی بر «مساوی بودن A با B» آموزش دیده است، معمولا نمی‌تواند همانند یک انسان استدلال کرده و نتیجه بگیرد و که «B هم مساوی با A است.» اگر یک هوش مصنوعی بیاموزد والنتینا ترشکوا اولین زنی بود که به فضا رفت، شاید پاسخ سوال « والنتینا ترشکوا که بود؟» را به درستی ارائه کند اما در پاسخ به سوال «اولین زن در فضا چه کسی بود؟» به مشکل می‌خورد. این محدودیت یک تفاوت بنیادین را بین تشخیص الگو و استدلال واقعی به نامیش می‌گذارد؛ تفاوتی بین پیش‌بینی زنجیره کلمات و درک معنای آنها.

معمای پیچیده حق نشر

سو‌گیری به سمت انسان‌انگاری هوش مصنوعی تبعات مهمی برای بحث درمورد هوش مصنوعی و حق نشر دارد. ساتیا نادلا، مدیرعامل مایکروسافت، به تازگی آموزش هوش مصنوعی را با یادگیری انسانی مقایسه کرده و پیشنهاد می‌:ند که هوش مصنوعی باید بتواند همانند انسان‌ها از کتاب‌هایی که حق نشر دارند یاد بگیرد. این قیسا به خوبی خطر تفکر انسان‌انگارانه هوش مصنوعی را در بحث اخلاق و مسئولیت هوش مصنوعی به نمایش می‌گذارد.

برخی معتقدند که برای درک یادگیری انسان و آموزش هوش مصنوعی باید این مقایسه را تغییر داد. وقتی انسان‌ها کتاب می‌خوانند، ما نسخه‌ای از آنها را کپی نمی‌کنیم، ما آن کتاب را درک کرده و مفاهیم آن را درونی می‌کنیم. سیستم‌های هوش مصنوعی اما باید واقعا نسخه‌ای از آن اثر را کپی کنند (اثری که معمولا هم بدون اجازه یا پرداخت هزینه به‌دست آمده است) و آن را به معماری خود اضافه کرده و این نسخه را برای فعالیت درست نگهداری کنند. اثر مربوطه پس از «یادگیری» برخلاف ادعای شرکت‌های هوش مصنوعی، از بین نمی‌رود بلکه در شبکه‌های عصبی سیستم باقی می‌ماند.

نقطه کور تجاری

انسان‌انگاری هوش مصنوعی نقاط کور خطرناکی را در تصمیم‌گیری تجاری ایجاد می‌کند که فراتر از نقایص ساده عملیاتی است. وقتی مدیران و تصمیم‌گیرندگان هوش مصنوعی را «خلاق» یا «هوشمند» به لحاظ انسانی در نظر بگیرند، این مساله ممکن است به زنجیره‌ای از پیش‌فرض‌ها و مسئولیت‌های حقوقی احتمالی منجر شود.

بزرگ‌انگاری توانمندی‌های هوش مصنوعی

یکی حوزه‌هایی که انسان‌انگاری باعث خطر می‌شود، تولید محتوا و پیروی از حق نشر است. وقتی کسب‌وکارها هوش مصنوعی را قادر به «یادگیری» مشابه انسان قلمداد کنند، شاید به نادرست فرض را بر این بگذارند که محتوای ساخته هوش مصنوعی با نگرانی‌های حق نشر همراه نیست. چنین اشتباهی باعث می‌شود تا شرکت‌ها:

نقطه کور پیروی از قانون برون‌مرزی

سوگیری انسان‌انگارانه در مواردی که پیروی از قانون برون‌مرزی را در نظر می‌گیریم خطراتی را به دنبال دارد. همانطور که دانیل جرویس، هارالامبوس مارمانیس، نوام شمتوف و کاترین زالر رولند در «اصل موضوع: حق نشر، آموزش هوش مصنوعی و LLMها» توضیح می‌دهند، قانون حق نشر براساس اصول مشخص خاص هر قلمرو عمل می کند و هر حوزه قضایی قوانین خود را درمورد نقض حق نشر و استثنا‌ها دارد.

ماهیت قلمرو محور قوانین کپی‌رایت، یک شبکه پیچیده از مسئولیت‌پذیری‌های احتمالی را پدیدار می‌کند. شرکت‌ها شاید به اشتباه فرض را بر این بگذارند که سیستم‌های هوش مصنوعی می‌توانند آزادانه از محتوای دارای حق نشر در حوزه‌های مختلف به «یادگیری» بپردازند، و در نتیجه متوجه نشوند که یادگیری مجاز در یکی از کشور‌ها مممکن است در دیگری نقض قانون باشد. اتحادیه اروپا در قانون هوش مصنوعی و به ویژه در Recital 106 که براساس آن هر مدل هوش مصنوعی همه‌کاره در اتحادیه اروپا باید از قوانین حق نشر اتحادیه اروپا در داده‌های آموزشی پیروی کند، بدون توجه به اینکه آموزش در چه مکانی انجام گرفته است، به این خطر می‌پردازد.

این مساله از آنجایی اهمیت دارد که انسان‌انگاری هوش مصنوعی باعث می‌شود تا شرکت‌ها تعهدات قانونی برون‌مرزی را نادیده یا دست کم بگیرند. این برداشت اشتباه و مطلوب که هوش مصنوع همانند انسان‌ها «یاد می‌گیرد» با این واقعیت در تضاد است که هوش مصنوعی شامل عملیات‌های پیچیده نسخه‌برداری و ذخیره‌سازی است که با تعهدات قانونی در دیگر قلمرو‌ها همراه هستند. این برداشت نادرست از نحوه عملکرد هوش مصنوعی در کنار ماهیت قلمرو محور قوانین حق نشر با خطرات قابل توجهی برای کسب‌وکارهای بین‌المللی همراه می‌شود.

بهای انسانی

یکی از مهمترین هزینه‌های انسان‌انگاری هوش مصنوعی، بار احساسی آن است. امروز موارد متعددی را از وابستگی انسان به چت‌بات‌های هوش مصنوعی به عنوان یک دوست یا معتمد مشاهده می‌کنیم. این مساله به ویژه برای افراد آسیب‌پذیری که ممکن است اطلاعات شخصی را با این ابزارها به اشتراک‌بگذارند یا به دنبال حمایت احساسی از آن باشند، خطرناک است. با اینکه پاسخ‌های هوش مصنوعی به نظر دلگرم‌کننده می‌رسند، اما در واقع برآمده از الگوهای پیچیده‌ای براساس داده‌های آموزشی هستند و هیچ درک یا ارتباط احساسی واقعی در آن وجود ندارد.

این ضعف احساسی را ممکن است در تنظیمات حرفه‌ای نیز مشاهده کنیم. هرچه ابزارهای هوش مصنوعی بیشتر در کار روزمره ما ادغام می‌شوند، ممکن است سطح اعتماد نامناسبی بین کارکنان با این سیستم‌ها شکل گیرد و آنها را به جای ابزار، همانند همکار خود ببینند. درنتیجه کارکنان ممکن است اطلاعات محرمانه را خیلی راحت با این ابزارها به اشتراک بگذارند یا به خوبی اعتماد نابه‌جا را به خوبی گزارش ندهند. با اینکه در حال حاضر چنین شرایطی را به ندرت مشاهده می‌کنیم، اما همین موارد نادر اهمیت انسان‌انگاری هوش مصنوعی و تاثیر احتمالی آن بر قضاوت و وابستگی ناسالام به سیستم‌ها را نشان می‌دهند. این سیستم‌ها با وجود پاسخ‌های پیچیده قادر به درک واقعی یا اهمیت دادن نیستند.

رهایی از دام انسان‌انگاری

با این تفاسیر راه پیش رو کدام است؟ ما اول از همه باید بیان درست‌تری را در مورد هوش مصنوعی استفاده کنیم. به جای اینکه بگوییم هوش مصنوعی «یاد‌ می‌گیرد» یا «درک می‌کند»، بهتر است بگوییم «داده‌ها را پردازش می‌کند» یا «خروجی‌هایی را براساس الگو‌های موجود در داده‌های آموزشی تولید می‌کند.» مساله در اینجا تنها موشکافی و دقت نیست، بلکه چنین بیانی به درک بهتر نحوه کار این سیستم‌ها نیز کمک می‌کند.

در مرحله دوم باید سیستم‌های هوش مصنوعی را براساس آنچه هستند ارزیابی کنیم، نه تصوری که از آنها داریم. بنابراین باید در کنار تاکید بر توانمندی‌های خارق‌العاده‌ آنها، به محدودیت‌های بنیادین آنها نیز اشاره کنیم. هوش مصنوعی می‌تواند حجم عظیمی از داده را پردازش و الگو‌هایی که از چشم انسان پنهان هستند را شناسایی کند، اما توان دکر، استدلال یا خلق به طریقه انسانی را ندارد.

در آخر هم باید چارچوب و سیاست‌هایی را در نظر بگیریم که به جای تصورات ما از قابلیت‌های انسان‌مانند، مشخصه‌های واقعی هوش مصنوعی را هدف بگیرند. این مساله به ویژه در مورد قوانین حق نشر اهمیت دارد، جایی که تفکر انسان‌انگارانه ممکن است به تصورات نادرست و نتیجه‌گیری‌های قانونی نامناسب منجر شود.

مسیر پیش رو

همینطور که سیستم‌های هوش مصنوعی در تقلید از خروجی‌های انسانی پیشرفته‌تر می شود، میل به انسان‌انگاری‌ نیز افزایش می‌یابد. این سوگیری انسان‌انگارانه بر همه چیز از ارزیابی ما از توانمندی‌های هوش مصنوعی تا ارزیابی خطرات آن، تاثیر می‌گذارد. همانطور که دیدیم، این مساله چالش‌های متعددی را پیرامون قانون حق نشر و پیروی از قانون تجاری به دنبال دارد. وقتی ما قابلیت‌های یادیگری انسان را به سیستم‌های هوش مصنوعی نسبت می‌دهیم، باید بدانیم که ماهیت بنیادین آنها و واقعیت فنی آنها در نحوه پردازش و ذخیره اطلاعات را درک کنیم.

درک هوش مصنوعی و واقعیت آن (سیستم‌های پیچیده پردازش اطلاعات و نه سیستم‌های یادگیرنده انسان‌مانند) در تمام حوزه‌های حاکمیت و اجرای هوش مصنوعی اهمیت حیاتی دارد. با عبور از تفکر انسان‌انگارانه می‌توانیم چالش‌های سیستم‌های هوش مصنوعی را از بررسی اخلاقی و خطرات امنیتی گرفته تا پیروی از قوانین حق نشر برون‌مرزی و حاکمیت داده‌های آموزشی بهتر درک کنیم. چنین درک دقیقی به کسب‌کارها در تصمیم‌گیری صحیح کمک می‌کند و همچنین حامی سیاست‌گذاری بهتر و تنظیم گفتمان عمومی است.

هرچه زودتر از ماهیت واقعی هوش مصنوعی استقبال کنیم، با دست باز تری می‌توانیم به پیامد‌های جدی اجتماعی و چالش‌های عملی آن را در جهان اقتصادی‌مان بپردازیم.

توسط
پیوست
منبع
پیوست
Exit mobile version