تکنولوژی
فعالان ایمنی هوش مصنوعی به بنیانگذاران توصیه میکنند که سرعت خود را کاهش دهند
تعدادی از فعالان ایمنی هوش مصنوعی از بنیانگذاران استارتاپها خواستهاند که سرعت توسعه محصولات خود را کاهش دهند تا از مشکلات اخلاقی بلندمدت جلوگیری کنند. این گفتگو در زمانی صورت گرفته است که مسئله ایمنی هوش مصنوعی اهمیت بیشتری پیدا کرده است، به ویژه با توجه به حوادثی مانند شکایت علیه Character.AI در مورد مرگ یک کودک. این مقاله به چالشهایی مانند انتشار اطلاعات نادرست و نقض حق تکثیر نیز اشاره دارد.
«با احتیاط حرکت کنید و چیزها را آزمایش کنید» متأسفانه به جذابیت «سریع حرکت کنید و چیزها را بشکنید» نیست. اما سه نفر از فعالان ایمنی هوش مصنوعی به وضوح به بنیانگذاران استارتاپها تاکید کردند که حرکت با سرعت زیاد میتواند در بلندمدت به مسائل اخلاقی منجر شود. سارا مایرز وست، مدیر مشترک موسسه AI Now، در کنفرانس TechCrunch Disrupt 2024 گفت: «ما در نقطه عطفی هستیم که منابع بسیار زیادی به این فضا منتقل میشوند. نگرانم که در حال حاضر به طور سرسامآوری محصولاتی به بازار عرضه میشوند بدون آنکه به این سوال کلیدی توجه شود که چه دنیایی میخواهیم و فناوری تولید شده در خدمت آن قرار دارد یا به آن آسیب میزند.» این گفتگو در زمانی صورت گرفته است که مسئله ایمنی هوش مصنوعی بیش از هر زمان دیگری فشار آورده است. در اکتبر، خانواده یک کودک که بر اثر خودکشی جان باخته بود، از شرکت Chatbot، Character.AI، به خاطر نقش ادعایی آن در مرگ کودک شکایت کردند. مایرز وست گفت: «این داستان نشان میدهد که پیامدهای عمیق این گسترش سریع فناوریهای مبتنی بر هوش مصنوعی چیست.» برخی از این مسائل، مشکلاتی قدیمی و تقریباً حلنشده در زمینه کنترل محتوای سوءاستفادههای آنلاین هستند. اما فراتر از این مسائل حیاتی، پیامدهای هوش مصنوعی همچنان بالا است، از انتشار اطلاعات نادرست گرفته تا نقض حق تکثیر. جینگنا ژانگ، بنیانگذار پلتفرم اجتماعی برای هنرمندان Cara، گفت: «ما در حال ساختن چیزی هستیم که قدرت زیادی دارد و توانایی واقعی تأثیرگذاری عمیق بر زندگی افراد را دارد.» ژانگ همچنین اشاره کرد که پس از آنکه متا اعلام کرد که میتواند از پستهای عمومی کاربران در آموزش هوش مصنوعی خود استفاده کند، پلتفرم کَرا او افزایش سریعی در تعداد کاربران داشته است. برای هنرمندانی مثل خود ژانگ، این سیاست ضربهای به صورت است. هنرمندان باید آثار خود را آنلاین منتشر کنند تا خود را تبلیغ کنند و مشتریان احتمالی را جذب کنند، اما با انجام این کار، آثار آنها میتواند برای شکل دادن به مدلهای هوش مصنوعی که ممکن است روزی جای آنها را بگیرند، استفاده شود. ژانگ گفت: «حق تکثیر چیزی است که ما را محافظت میکند و به ما اجازه میدهد زندگی کنیم.» اگر اثر هنری به صورت آنلاین در دسترس باشد، به معنای رایگان بودن آن نیست، به عنوان مثال نشریات خبری دیجیتالی باید برای استفاده از تصاویر عکاسان، حق انتشار آنها را بخرند. ژانگ اضافه کرد: «وقتی هوش مصنوعی تولیدکننده به طور فزایندهای عام شده، میبینیم که با آنچیزی که معمولاً به آن عادت کردهایم و در قانون تثبیت شده، کار نمیکند. و اگر آنها خواستند آثار ما را استفاده کنند، باید به آنها مجوز بدهند.» «آلکساندرا پدراسفسکا» از ElevenLabs در نقش مسئول ایمنی تلاش میکند تا مطمئن شود که فناوری پیشرفته شرکتش برای تولید تصاویر تقلبی غیرمجاز مورد سوءاستفاده قرار نمیگیرد. او گفت: «من فکر میکنم مدلهای آزمایشی و درک رفتارهای نامطلوب و پیامدهای ناخواسته هر نوآوری جدید که یک شرکت هوش مصنوعی تولیدکننده انجام میدهد، دوباره به اولویت بالا تبدیل میشود.» پدراسفسکا همچنین گفت که یکی از راههای افراد در نقش او برای حفظ امنیت پلتفرمها، برقراری ارتباط نزدیکتر با جامعه کاربران است. او گفت: «ما نمیتوانیم بین دو افراط عمل کنیم، یکی به طور کلی ضد هوش مصنوعی و ضد GenAI باشد و دیگری، در حقیقت تلاش برای ترغیب به عدم مقرراتگذاری در این حوزه باشد. فکر میکنم که باید در مورد مقرراتگذاری به توافق میانی برسیم.»