تکنولوژی

فعالان ایمنی هوش مصنوعی به بنیان‌گذاران توصیه می‌کنند که سرعت خود را کاهش دهند

تعدادی از فعالان ایمنی هوش مصنوعی از بنیان‌گذاران استارتاپ‌ها خواسته‌اند که سرعت توسعه محصولات خود را کاهش دهند تا از مشکلات اخلاقی بلندمدت جلوگیری کنند. این گفتگو در زمانی صورت گرفته است که مسئله ایمنی هوش مصنوعی اهمیت بیشتری پیدا کرده است، به ویژه با توجه به حوادثی مانند شکایت علیه Character.AI در مورد مرگ یک کودک. این مقاله به چالش‌هایی مانند انتشار اطلاعات نادرست و نقض حق تکثیر نیز اشاره دارد. «با احتیاط حرکت کنید و چیزها را آزمایش کنید» متأسفانه به جذابیت «سریع حرکت کنید و چیزها را بشکنید» نیست. اما سه نفر از فعالان ایمنی هوش مصنوعی به وضوح به بنیان‌گذاران استارتاپ‌ها تاکید کردند که حرکت با سرعت زیاد می‌تواند در بلندمدت به مسائل اخلاقی منجر شود. سارا مایرز وست، مدیر مشترک موسسه AI Now، در کنفرانس TechCrunch Disrupt 2024 گفت: «ما در نقطه عطفی هستیم که منابع بسیار زیادی به این فضا منتقل می‌شوند. نگرانم که در حال حاضر به طور سرسام‌آوری محصولاتی به بازار عرضه می‌شوند بدون آنکه به این سوال کلیدی توجه شود که چه دنیایی می‌خواهیم و فناوری تولید شده در خدمت آن قرار دارد یا به آن آسیب می‌زند.» این گفتگو در زمانی صورت گرفته است که مسئله ایمنی هوش مصنوعی بیش از هر زمان دیگری فشار آورده است. در اکتبر، خانواده یک کودک که بر اثر خودکشی جان باخته بود، از شرکت Chatbot، Character.AI، به خاطر نقش ادعایی آن در مرگ کودک شکایت کردند. مایرز وست گفت: «این داستان نشان می‌دهد که پیامدهای عمیق این گسترش سریع فناوری‌های مبتنی بر هوش مصنوعی چیست.» برخی از این مسائل، مشکلاتی قدیمی و تقریباً حل‌نشده در زمینه کنترل محتوای سوءاستفاده‌های آنلاین هستند. اما فراتر از این مسائل حیاتی، پیامدهای هوش مصنوعی همچنان بالا است، از انتشار اطلاعات نادرست گرفته تا نقض حق تکثیر. جینگنا ژانگ، بنیان‌گذار پلتفرم اجتماعی برای هنرمندان Cara، گفت: «ما در حال ساختن چیزی هستیم که قدرت زیادی دارد و توانایی واقعی تأثیرگذاری عمیق بر زندگی افراد را دارد.» ژانگ همچنین اشاره کرد که پس از آنکه متا اعلام کرد که می‌تواند از پست‌های عمومی کاربران در آموزش هوش مصنوعی خود استفاده کند، پلتفرم کَرا او افزایش سریعی در تعداد کاربران داشته است. برای هنرمندانی مثل خود ژانگ، این سیاست ضربه‌ای به صورت است. هنرمندان باید آثار خود را آنلاین منتشر کنند تا خود را تبلیغ کنند و مشتریان احتمالی را جذب کنند، اما با انجام این کار، آثار آن‌ها می‌تواند برای شکل دادن به مدل‌های هوش مصنوعی که ممکن است روزی جای آن‌ها را بگیرند، استفاده شود. ژانگ گفت: «حق تکثیر چیزی است که ما را محافظت می‌کند و به ما اجازه می‌دهد زندگی کنیم.» اگر اثر هنری به صورت آنلاین در دسترس باشد، به معنای رایگان بودن آن نیست، به عنوان مثال نشریات خبری دیجیتالی باید برای استفاده از تصاویر عکاسان، حق انتشار آن‌ها را بخرند. ژانگ اضافه کرد: «وقتی هوش مصنوعی تولیدکننده به طور فزاینده‌ای عام شده، می‌بینیم که با آن‌چیزی که معمولاً به آن عادت کرده‌ایم و در قانون تثبیت شده، کار نمی‌کند. و اگر آن‌ها خواستند آثار ما را استفاده کنند، باید به آن‌ها مجوز بدهند.» «آلکساندرا پدراسفسکا» از ElevenLabs در نقش مسئول ایمنی تلاش می‌کند تا مطمئن شود که فناوری پیشرفته شرکتش برای تولید تصاویر تقلبی غیرمجاز مورد سوءاستفاده قرار نمی‌گیرد. او گفت: «من فکر می‌کنم مدل‌های آزمایشی و درک رفتارهای نامطلوب و پیامدهای ناخواسته هر نوآوری جدید که یک شرکت هوش مصنوعی تولیدکننده انجام می‌دهد، دوباره به اولویت بالا تبدیل می‌شود.» پدراسفسکا همچنین گفت که یکی از راه‌های افراد در نقش او برای حفظ امنیت پلتفرم‌ها، برقراری ارتباط نزدیک‌تر با جامعه کاربران است. او گفت: «ما نمی‌توانیم بین دو افراط عمل کنیم، یکی به طور کلی ضد هوش مصنوعی و ضد GenAI باشد و دیگری، در حقیقت تلاش برای ترغیب به عدم مقررات‌گذاری در این حوزه باشد. فکر می‌کنم که باید در مورد مقررات‌گذاری به توافق میانی برسیم.»
توسط
Tech Crunch
منبع
Tech Crunch
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا