چین از هوش مصنوعی لاما متا برای تقویت عملیات نظامی، پلیس و توسعه تسلیحات استفاده میکند
در افشاگری شوکهکنندهای، چین از مدل زبان بزرگ ۱۳ بی لاما ۲ متای عمومی برای توسعه ابزار هوش مصنوعی بومی در کاربردهای مختلف دفاعی و پلیسی استفاده میکند.
بر اساس مقالات دانشگاهی و تحلیلگران، مؤسسات تحقیقاتی برجستهای که وابسته به ارتش آزادیبخش خلق هستند، از مدل لامای عمومی متا برای ایجاد ابزار هوش مصنوعی با کاربردهای نظامی احتمالی استفاده کردهاند.
در مقالهای که در ژوئن منتشر و توسط رویترز بررسی شد، شش پژوهشگر چینی از سه مؤسسه مختلف، از جمله دو مؤسسه وابسته به سازمان تحقیقاتی اصلی ارتش آزادیبخش خلق، دانشگاه علوم نظامی (AMS)، توضیح دادند که چگونه از نسخه قبلی لامای متا به عنوان پایه پروژهای که آن را «ChatBIT» نامیدهاند، استفاده کردهاند.
پژوهشگران از نسخه قبلی مدل زبان بزرگ ۱۳ بی لاما ۲ متا استفاده کردهاند.
آنها از پارامترهای خود برای توسعه ابزاری متمرکز بر نظامی برای جمعآوری و پردازش اطلاعات، ارائه اطلاعات دقیق و معتبر برای تصمیمگیری عملیاتی استفاده کردند.
تقویت نظامی
ChatBIT برای وظایف گفتگو و پرسش و پاسخ در بخش نظامی بهتر بهینهسازی و تنظیم شده است.
مقاله نشان داده که این مدل از چند مدل هوش مصنوعی دیگر بهتر عمل کرده و در حدود ۹۰٪ قابلیتهای ChatGPT-4 قدرتمند OpenAI را دارد.
پژوهشگران توضیح بیشتری درباره چگونگی تعریف عملکرد ارائه نداده یا مشخص نکردهاند که آیا مدل هوش مصنوعی به کار گرفته شده است یا خیر.
«این اولین باری است که شواهد معتبری از تلاشهای سازماندهیشده متخصصان نظامی PLA برای بهرهبرداری از قدرت مدلهای زبان باز، به خصوص از سوی متا، برای اهداف نظامی وجود دارد»، گفت سانی چئونگ، همکار پژوهشی بنیاد Jamestown که در تکنولوژیهای نوظهور چین و تکنولوژیهای کاربرد دوگانه از جمله هوش مصنوعی تخصص دارد.
پژوهشگران چینی شامل گنگ گوتونگ و لی ویوی از مرکز پژوهشی اطلاعات علوم نظامی AMS، مؤسسه نوآوری ملی فناوری دفاعی و پژوهشگرانی از مؤسسه فناوری پکن و دانشگاه مینزیو هستند.
«در آینده، از طریق تکمیل تکنولوژیکی، ChatBIT نه تنها در تحلیل اطلاعات بلکه ... برنامهریزی استراتژیک، آموزش شبیهسازی و تصمیمگیری فرماندهی نیز بررسی خواهد شد»، مقاله گفت.
پژوهشگران مشاهده کردند که مدل آنها شامل تنها ۱۰۰,۰۰۰ رکورد گفتگو نظامی بوده که نسبتاً کوچک در مقایسه با سایر LLM ها است.
پلیس، توسعه تسلیحات
برخی تحلیلگران معتقدند که پیشرفتهای چین در توسعه هوش مصنوعی بومی باعث شده جلوگیری از فاصله تکنولوژیکی با ایالات متحده دشوار شود.
در مقاله دیگری که توسط رویترز بررسی شد، دو پژوهشگر از شرکت هواپیمایی صنعت چین (AVIC) که ایالات متحده آن را به دلیل ارتباطات با ارتش آزادیبخش خلق (PLA) شناسایی کرده، توضیح دادهاند که چگونه از لاما ۲ برای آموزش استراتژیهای تداخل جنگ الکترونیک هوابرد استفاده کردهاند.
استفاده چین از هوش مصنوعی توسعهیافته غربی به امنیت داخلی نیز تعمیم یافته است.
در مقالهای که در ژوئن منتشر شد، بحث شد که چگونه از لاما برای «پلیس اطلاعاتی» استفاده شده تا دادههای زیادی را تحلیل کند و تصمیمگیری پلیس را بهبود بخشد.
در آوریل، روزنامه دولتی PLA Daily به چگونگی کمک هوش مصنوعی در «تسریع تحقیقات و توسعه تسلیحات و تجهیزات» کمک کند، توسعه شبیهسازی جنگ و بهبود کارآیی آموزش نظامی اشاره کرد.
پاسخ متا
متا از انتشار آزاد بسیاری از مدلهای هوش مصنوعی خود مدلها که شامل لاما است استقبال کرده است.
با این حال، محدودیتهایی در استفاده از آنها اعمال میکند، از جمله این که خدمات با بیش از ۷۰۰ میلیون کاربر باید از شرکت مجوز دریافت کنند.
شرایط آن همچنین استفاده از مدلها برای «نظامی، جنگ، صنایع هستهای یا برنامههای کاربردی، جاسوسی» و دیگر فعالیتهایی که تحت کنترل صادرات دفاعی ایالات متحده هستند و توسعه تسلیحات و محتوای هدفمند برای «تحریک و ترویج خشونت» را ممنوع میکند.
با این حال، به دلیل اینکه مدلهای متا عمومی هستند، شرکت راههای محدودی برای اجرای این مفاد دارد.
در پاسخ به سوالات رویترز، متا به سیاست استفاده قابل قبول خود اشاره کرد و گفت که اقداماتی برای جلوگیری از سوءاستفاده انجام داده است.
«هر استفاده از مدلهای ما توسط ارتش آزادیبخش خلق غیرمجاز و برخلاف سیاست استفاده قابل قبول ما است»، مالی مونتگومری، مدیر سیاست عمومی متا، به رویترز در یک مصاحبه تلفنی گفت.
متا اضافه کرد که ایالات متحده باید از نوآوری باز استقبال کند.
«در رقابت جهانی در هوش مصنوعی، نقش ادعایی یک نسخه قدیمی از یک مدل منبع باز آمریکایی بیارتباط است زمانی که میدانیم چین در حال حاضر بیش از یک تریلیون دلار سرمایهگذاری میکند تا آمریکا را در زمینه هوش مصنوعی پیشی بگیرد»، سخنگوی متا گفت.