الگوریتم جدید مصرف انرژی هوش مصنوعی را ۹۵٪ کاهش میدهد
برای اطمینان از پایداری پذیرش گسترده هوش مصنوعی، یک تیم تحقیقاتی در BitEnergy AI گامی بزرگ برداشته است. آنها تکنیکی امیدبخش برای کاهش شدید مصرف انرژی هوش مصنوعی توسعه دادهاند.
باید توجه داشت که استفاده از هوش مصنوعی به سرعت در حال گسترش است. اما کارشناسان صنعت نگران هستند چرا که ماشینهای هوش مصنوعی انرژیبر هستند.
بنابراین، بسیاری از شرکتهای بزرگ حتی به استفاده از انرژی همجوشی برای تأمین نیازهای هوش مصنوعی خود فکر میکنند. در جدیدترین رویداد، مایکروسافت جزیره سه مایل را دوباره برای برآوردن نیازهای قدرت هوش مصنوعی خود راهاندازی کرده است.
محققان در یک مطالعه ذکر کردند که «متوسط مصرف برق خدمات ChatGPT در اوایل سال ۲۰۲۳ برابر با ۵۶۴ مگاوات ساعت در روز بود که معادل با مصرف روزانه برق ۱۸،۰۰۰ خانواده در ایالات متحده است.»
آنها پیشنهادی برای یک الگوریتم جدید مطرح کردهاند که پتانسیل کاهش مقدار انرژی مورد نیاز یک ماشین هوش مصنوعی برای انجام محاسبات را دارد.
محققان BitEnergy AI بیان کردند که «کاهش مقدار محاسبات مورد نیاز شبکههای عصبی کلید کاهش هم مصرف انرژی و هم سرعت استنتاج برای مدلهای هوش مصنوعی در مقیاس بزرگ است.»
شکستن محاسبات
روش جدید، معروف به ضرب پیچیدگی خطی (L-Mul)، عملیاتی ریاضیاتی را که هوش مصنوعی بر اساس آنها کار میکند، بهینه میکند.
به عنوان زمینه، مدلهای هوش مصنوعی به شدت بر محاسبات پیچیده، به ویژه تکثیرهای نقطه شناور تکیه دارند که برای پردازش مقادیر عظیم دادهها ضروری هستند. این محاسبات، در حالی که دقیقاند، بسیار انرژیبر هستند.
مطابق با گفته محققان، استفاده از L-Mul در سختافزار پردازش تنسور میتواند به صورت قابل توجهی هزینههای انرژی مربوط به تکثیرهای نقطه شناور عنصر به عنصر تنسور و ضرب داخلی را کاهش دهد.
L-Mul تکثیرهای انرژیبر را با جمع اعداد صحیح سادهتر جایگزین میکند. با تجزیه تکثیرهای پیچیده به مراحل قابل کنترلتر، انرژی لازم برای محاسبات را به صورت قابل توجهی کاهش میدهد.
این مطالعه را برجسته میکند که «از آنجا که تکثیر اعداد نقطه شناور به مقدار قابل توجهی انرژی بیشتری نسبت به عملیات جمع اعداد صحیح نیاز دارد، استفاده از عملیات L-Mul در سختافزار پردازش تنسور میتواند بالقوه ۹۵٪ هزینه انرژی را از تکثیر نقطه شناور عنصر به عنصر و ۸۰٪ هزینه انرژی ضرب داخلی کاهش دهد.»
مزایای عملکردی بهبودی میدهد
L-Mul مزایای عملکردی ارائه میدهد. جمع اعداد صحیح به طور ذاتی سریعتر از تکثیرهای نقطه شناور است و منجر به محاسبات سریعتر میشود.
علاوه بر این، محققان پیشنهاد میکنند که L-Mul دقت مدلهای هوش مصنوعی را حفظ میکند.
L-Mul با مدلهای مبتنی بر ترانسفورمر کاملاً سازگار است، ساختار پشت سیستمهای محبوب هوش مصنوعی مانند ChatGPT. این مدلها بر مکانیزم تمرکز تکیه دارند تا روابط داخلی در دادهها را پردازش و درک کنند.
این مطالعه اظهار میدارد که «برای ارزیابی تاثیر عملی L-Mul، آن را بر روی معیارهای زبان طبیعی، دیداری و ریاضی با استفاده از مدلهای زبان محبوب ارزیابی کردیم.»
«آزمایشهای ما نشان میدهد که L-Mul با مصرف محاسبات کمتر از ترانسفورمرهای ۸ بیتی بهتر عمل میکند و عملکرد بدون افتی را هنگامی که به لایههای تمرکز محاسباتی فشرده اعمال میشود بدون آموزش اضافی، به دست میآورد.»
چالشهای پذیرش گسترده
پذیرش گسترده L-Mul با موانعی روبرو است. در حال حاضر این تکنیک به سختافزار ویژهای نیاز دارد که هنوز به طور گسترده در دسترس نیست.
BitEnergy AI به طور فعال در حال توسعه این سختافزار و ایجاد رابطهای برنامهنویسی به منظور تسهیل یکپارچهسازی آن در سیستمهای موجود هوش مصنوعی است.
این مطالعه به این نتیجه میرسد که «برای باز کردن پتانسیل کامل روش پیشنهادی ما، الگوریتمهای توابع هستهای L-Mul و L-Matmul را در سطح سختافزار پیادهسازی خواهیم کرد و APIهای برنامهنویسی برای طراحی مدلهای سطح بالا توسعه خواهیم داد.»