تکنولوژی

افزایش نگرانی‌ها از هوش مصنوعی: ویدیوی جعلی کامالا هریس که توسط ایلان ماسک منتشر شد، ۱۲۳ میلیون بازدید گرفت

ویدیوی جعلی از صدای معاون رئیس‌جمهور، کامالا هریس، نگرانی‌های زیادی در مورد سوء‌استفاده از هوش مصنوعی با نزدیک شدن به انتخابات ریاست‌جمهوری آمریکا برانگیخته است. ایلان ماسک این ویدیو را به عنوان 'شگفت‌انگیز' منتشر کرد، که بازدیدهای زیادی داشت و نگرانی‌ها در مورد تقلب در انتخابات با استفاده از هوش مصنوعی را افزایش داد. در حالی که این ویدیو به عنوان یک تقلید معرفی شده بود، بحث در مورد سلامت اطلاعات انتخاباتی بالا گرفته و بسیاری از کارشناسان خواهان قوانین سخت‌تر برای کنترل محتوای تولید شده با هوش مصنوعی شده‌اند.

یک ویدیوی دستکاری شده که صدای معاون رئیس‌جمهور کامالا هریس را تقلید می‌کند، نگرانی‌های زیادی را در مورد سوء‌استفاده از هوش مصنوعی با نزدیک شدن به انتخابات ریاست‌جمهوری آمریکا برانگیخته است.

این ویدیو که هریس را در حال گفتن چیزهایی نشان می‌دهد که در واقع نگفته است، بحثی را درباره تأثیر هوش مصنوعی بر اطلاعات نادرست سیاسی و یکپارچگی انتخابات به راه انداخته است.

با نزدیک شدن به روز انتخابات در حدود سه ماه، انتشار و پخش سریع این ویدیو نیاز فوری به قوانین بهتر برای محتوای تولید شده با هوش مصنوعی را برجسته می‌کند.

بحث بر سر ویدیوی جاعلانه و پیامدهای آن

این ویدیو به طور گسترده مورد توجه قرار گرفت زمانی که میلیاردر تکنولوژی، ایلان ماسک آن را در پلتفرم اجتماعی خود، X، در جمعه شب به اشتراک گذاشت. پست ماسک، که بیش از ۱۲۳ میلیون بار دیده شده است، ویدیو را به عنوان 'شگفت‌انگیز' با یک ایموجی خندان معرفی کرد اما اشاره‌ای نکرد که این یک تقلید است. این امر نگرانی‌ها را درباره قابلیت هوش مصنوعی در گمراه کردن افراد افزایش داده است.

این ویدیوی دستکاری شده به شکلی بسیار نزدیک به بصری کمپین اخیر هریس که به احتمال زیاد کاندیدای ریاست‌جمهوری دموکرات‌ها است، ایجاد شده است. این ویدیو صدای واقعی را با صدای مصنوعی که به طور قانع‌کننده‌ای هریس را تقلید می‌کند، جایگزین می‌کند.

صدای جعلی در ویدیو ادعاهای نادرستی را مطرح می‌کند و می‌گوید که هریس یک 'استخدام تنوع' است و نمی‌داند چگونه کشور را اداره کند. حتی با این که ویدیو از برندینگ 'هریس برای رئیس‌جمهور' استفاده می‌کند و کلیپ‌های واقعی او را به نمایش می‌گذارد، هدفش آشکاراً گمراه کردن بینندگان است.

دکتر کیت تپر، سخنگوی کمپین هریس، ویدیو را در ایمیلی به آسوشیتد پرس محکوم کرد و اظهار داشت، 'ما باور داریم که مردم آمریکا آزادی واقعی، فرصت‌ها و امنیتی که معاون رئیس‌جمهور هریس ارائه می‌دهد را می‌خواهند؛ نه دروغ‌های جعلی و دستکاری شده ایلان ماسک و دونالد ترامپ.'

فناوری هوش مصنوعی و نقش آن در اطلاعات نادرست انتخاباتی

این حادثه نگرانی‌های فزاینده مربوط به رسانه‌های ساخته شده با هوش مصنوعی و پتانسیل آن در انتشار اطلاعات نادرست را برجسته می‌کند. با پیشرفت و دسترسی بیشتر فناوری هوش مصنوعی، قابلیت ساخت ویدیوهای واقعی‌نمای دستکاری شده بسیار افزایش یافته است.

سازنده اصلی ویدیو، یک یوتیوبر معروف به آقای ریگان ، توضیح داده که این ویدیو به عنوان تقلید ساخته شده است. با این حال، در پاسخ به یک نظر که پیشنهاد می‌کرد دستکاری صدا در یک 'تبلیغ' باید غیرقانونی باشد، ماسک اظهار داشت، 'من با مرجع جهانی مشهور، پروفسور سوگون دیزنوتز، چک کردم و او گفت که تقلید در آمریکا قانونی است.'

این نبود وضوح سوالاتی را درباره مسئولیت‌های پلتفرم‌های اجتماعی در مدیریت رسانه‌های مصنوعی مطرح می‌کند.

علی‌رغم این که برخی کاربران در X پیشنهاد دادند که پست باید دارای برچسب برای دورنمای باشد، تا بعدازظهر یکشنبه چنین برچسبی اضافه نشده بود. سیاست‌های X ممنوعیت به اشتراک گذاری رسانه‌های مصنوعی یا دستکاری شده که ممکن است مردم را فریب دهند یا گیج کنند، در عوض مکث قرار می‌دهد. اما استثنائاتی برای میم‌ها و طنز قائل است تا زمانی که باعث 'سردرگمی قابل ملاحظه‌ای درباره صحت پست' نگردد.

پست ماسک، که اوایل این ماه از رئیس‌جمهور سابق دونالد ترامپ حمایت کرده بود، ممکن است به این دستورالعمل‌ها پایبند نبوده باشد.

همانطور که گزارش شده توسط خبرگزاری آسوشیتد پرس ، کارشناسان رسانه‌های ساخته شده با هوش مصنوعی درباره پیامدهای این ویدیو اظهار نظر کرده‌اند. هانی فرید، کارشناس قوی دیجیتال در دانشگاه کالیفرنیا، برکلی، از کیفیت صدای تولید شده با هوش مصنوعی تحسین کرد اما به پتانسیل سوء‌استفاده از آن اشاره کرد.

'صدای تولید شده با هوش مصنوعی بسیار خوب است،' فرید گفت. 'حتی اگر بیشتر افراد باور نکنند که این صدای معاون رئیس‌جمهور هریس است، اما وقتی کلمات در صدای او است، ویدیو اینقدر قوی‌تر می‌شود.'

راب وایزمن، همکاری رئیس سازمان Public Citizen، نگرانی خود را ابراز کرد که بسیاری از افراد می‌توانند توسط این ویدیو فریب بخورند.

'من فکر نمی‌کنم این به وضوح یک شوخی باشد،' وایزمن گفت. 'من مطمئنم که بیشتر افرادی که آن را می‌بینند، فرض نمی‌کنند که این یک شوخی است. کیفیت آن خیلی خوب نیست، اما به اندازه کافی خوب است. و دقیقاً به این خاطر که به تم‌های موجود در اطراف او خوراک می‌دهد، بیشتر افراد آن را واقعی خواهند دانست.'

نظرات وایزمن نشان می‌دهد که چقدر ضروری است که قوانینی وضع شود. Public Citizen برای کنگره، سازمان‌های فدرال و ایالت‌ها برای اعمال قوانین بر روی هوش مصنوعی برای جلوگیری از چنین سوءاستفاده‌ای فشار آورده است. اگرچه برخی ایالت‌ها قوانین خود را درباره هوش مصنوعی در کمپین‌ها و انتخابات تصویب کرده‌اند، اما قوانین فدرالی هنوز در انتظار است.

نیاز به اقدام‌های قانونی

مسئله اطلاعات نادرست تولید شده با هوش مصنوعی محدود به آمریکا نیست. مثال‌های دیگری از ویدیوهای جعلی در سطح جهان ظاهر شده‌اند، مانند کلیپ‌های صدای جعلی در اسلواکی و تبلیغات طنز در لوئیزیانا. این مثال‌ها چالش وسیع‌تری را برای مدیریت تأثیر هوش مصنوعی بر فرآیندهای سیاسی نشان می‌دهند.

در پاسخ به این چالش‌ها، پلتفرم‌های اجتماعی مانند یوتیوب سیاست‌هایی را اجرا کرده‌اند که کاربران را ملزم به افشای استفاده از هوش مصنوعی تولیدکننده در محتوای خود می‌کند.

با این حال، اثر بخشی این اقدامات نامشخص باقی می‌ماند و اقدامات وسیع‌تر فدرالی برای مواجهه با چشم‌انداز به سرعت در حال تحول فناوری هوش مصنوعی و پیامدهای آن برای دموکراسی مورد نیاز است.

با نزدیک شدن آمریکا به روز انتخابات، سوءاستفاده از فناوری هوش مصنوعی برای منافع سیاسی یک مسئله مهم و فوری است.

توسط
Interesting Engineering
منبع
Interesting Engineering
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا