افزایش نگرانیها از هوش مصنوعی: ویدیوی جعلی کامالا هریس که توسط ایلان ماسک منتشر شد، ۱۲۳ میلیون بازدید گرفت
یک ویدیوی دستکاری شده که صدای معاون رئیسجمهور کامالا هریس را تقلید میکند، نگرانیهای زیادی را در مورد سوءاستفاده از هوش مصنوعی با نزدیک شدن به انتخابات ریاستجمهوری آمریکا برانگیخته است.
این ویدیو که هریس را در حال گفتن چیزهایی نشان میدهد که در واقع نگفته است، بحثی را درباره تأثیر هوش مصنوعی بر اطلاعات نادرست سیاسی و یکپارچگی انتخابات به راه انداخته است.
با نزدیک شدن به روز انتخابات در حدود سه ماه، انتشار و پخش سریع این ویدیو نیاز فوری به قوانین بهتر برای محتوای تولید شده با هوش مصنوعی را برجسته میکند.
بحث بر سر ویدیوی جاعلانه و پیامدهای آن
این ویدیو به طور گسترده مورد توجه قرار گرفت زمانی که میلیاردر تکنولوژی، ایلان ماسک آن را در پلتفرم اجتماعی خود، X، در جمعه شب به اشتراک گذاشت. پست ماسک، که بیش از ۱۲۳ میلیون بار دیده شده است، ویدیو را به عنوان 'شگفتانگیز' با یک ایموجی خندان معرفی کرد اما اشارهای نکرد که این یک تقلید است. این امر نگرانیها را درباره قابلیت هوش مصنوعی در گمراه کردن افراد افزایش داده است.
این ویدیوی دستکاری شده به شکلی بسیار نزدیک به بصری کمپین اخیر هریس که به احتمال زیاد کاندیدای ریاستجمهوری دموکراتها است، ایجاد شده است. این ویدیو صدای واقعی را با صدای مصنوعی که به طور قانعکنندهای هریس را تقلید میکند، جایگزین میکند.
صدای جعلی در ویدیو ادعاهای نادرستی را مطرح میکند و میگوید که هریس یک 'استخدام تنوع' است و نمیداند چگونه کشور را اداره کند. حتی با این که ویدیو از برندینگ 'هریس برای رئیسجمهور' استفاده میکند و کلیپهای واقعی او را به نمایش میگذارد، هدفش آشکاراً گمراه کردن بینندگان است.
دکتر کیت تپر، سخنگوی کمپین هریس، ویدیو را در ایمیلی به آسوشیتد پرس محکوم کرد و اظهار داشت، 'ما باور داریم که مردم آمریکا آزادی واقعی، فرصتها و امنیتی که معاون رئیسجمهور هریس ارائه میدهد را میخواهند؛ نه دروغهای جعلی و دستکاری شده ایلان ماسک و دونالد ترامپ.'
فناوری هوش مصنوعی و نقش آن در اطلاعات نادرست انتخاباتی
این حادثه نگرانیهای فزاینده مربوط به رسانههای ساخته شده با هوش مصنوعی و پتانسیل آن در انتشار اطلاعات نادرست را برجسته میکند. با پیشرفت و دسترسی بیشتر فناوری هوش مصنوعی، قابلیت ساخت ویدیوهای واقعینمای دستکاری شده بسیار افزایش یافته است.
سازنده اصلی ویدیو، یک یوتیوبر معروف به آقای ریگان ، توضیح داده که این ویدیو به عنوان تقلید ساخته شده است. با این حال، در پاسخ به یک نظر که پیشنهاد میکرد دستکاری صدا در یک 'تبلیغ' باید غیرقانونی باشد، ماسک اظهار داشت، 'من با مرجع جهانی مشهور، پروفسور سوگون دیزنوتز، چک کردم و او گفت که تقلید در آمریکا قانونی است.'
این نبود وضوح سوالاتی را درباره مسئولیتهای پلتفرمهای اجتماعی در مدیریت رسانههای مصنوعی مطرح میکند.
علیرغم این که برخی کاربران در X پیشنهاد دادند که پست باید دارای برچسب برای دورنمای باشد، تا بعدازظهر یکشنبه چنین برچسبی اضافه نشده بود. سیاستهای X ممنوعیت به اشتراک گذاری رسانههای مصنوعی یا دستکاری شده که ممکن است مردم را فریب دهند یا گیج کنند، در عوض مکث قرار میدهد. اما استثنائاتی برای میمها و طنز قائل است تا زمانی که باعث 'سردرگمی قابل ملاحظهای درباره صحت پست' نگردد.
پست ماسک، که اوایل این ماه از رئیسجمهور سابق دونالد ترامپ حمایت کرده بود، ممکن است به این دستورالعملها پایبند نبوده باشد.
همانطور که گزارش شده توسط خبرگزاری آسوشیتد پرس ، کارشناسان رسانههای ساخته شده با هوش مصنوعی درباره پیامدهای این ویدیو اظهار نظر کردهاند. هانی فرید، کارشناس قوی دیجیتال در دانشگاه کالیفرنیا، برکلی، از کیفیت صدای تولید شده با هوش مصنوعی تحسین کرد اما به پتانسیل سوءاستفاده از آن اشاره کرد.
'صدای تولید شده با هوش مصنوعی بسیار خوب است،' فرید گفت. 'حتی اگر بیشتر افراد باور نکنند که این صدای معاون رئیسجمهور هریس است، اما وقتی کلمات در صدای او است، ویدیو اینقدر قویتر میشود.'
راب وایزمن، همکاری رئیس سازمان Public Citizen، نگرانی خود را ابراز کرد که بسیاری از افراد میتوانند توسط این ویدیو فریب بخورند.
'من فکر نمیکنم این به وضوح یک شوخی باشد،' وایزمن گفت. 'من مطمئنم که بیشتر افرادی که آن را میبینند، فرض نمیکنند که این یک شوخی است. کیفیت آن خیلی خوب نیست، اما به اندازه کافی خوب است. و دقیقاً به این خاطر که به تمهای موجود در اطراف او خوراک میدهد، بیشتر افراد آن را واقعی خواهند دانست.'
نظرات وایزمن نشان میدهد که چقدر ضروری است که قوانینی وضع شود. Public Citizen برای کنگره، سازمانهای فدرال و ایالتها برای اعمال قوانین بر روی هوش مصنوعی برای جلوگیری از چنین سوءاستفادهای فشار آورده است. اگرچه برخی ایالتها قوانین خود را درباره هوش مصنوعی در کمپینها و انتخابات تصویب کردهاند، اما قوانین فدرالی هنوز در انتظار است.
نیاز به اقدامهای قانونی
مسئله اطلاعات نادرست تولید شده با هوش مصنوعی محدود به آمریکا نیست. مثالهای دیگری از ویدیوهای جعلی در سطح جهان ظاهر شدهاند، مانند کلیپهای صدای جعلی در اسلواکی و تبلیغات طنز در لوئیزیانا. این مثالها چالش وسیعتری را برای مدیریت تأثیر هوش مصنوعی بر فرآیندهای سیاسی نشان میدهند.
در پاسخ به این چالشها، پلتفرمهای اجتماعی مانند یوتیوب سیاستهایی را اجرا کردهاند که کاربران را ملزم به افشای استفاده از هوش مصنوعی تولیدکننده در محتوای خود میکند.
با این حال، اثر بخشی این اقدامات نامشخص باقی میماند و اقدامات وسیعتر فدرالی برای مواجهه با چشمانداز به سرعت در حال تحول فناوری هوش مصنوعی و پیامدهای آن برای دموکراسی مورد نیاز است.
با نزدیک شدن آمریکا به روز انتخابات، سوءاستفاده از فناوری هوش مصنوعی برای منافع سیاسی یک مسئله مهم و فوری است.