انویدیا سه میکروسرویس جدید تحت نام NVIDIA NIM معرفی کردهاست که برای افزایش ایمنی، دقت و مقیاسپذیری عوامل هوش مصنوعی از طریق چارچوب NeMo Guardrails طراحی شدهاند.
این اعلامیه نشانهای است از یک گام مهم به جلو برای توسعهدهندگانی که به دنبال ایجاد برنامههای هوش مصنوعی ایمنتر و قابل اطمینانتر در صنایع مختلفی مانند خودروسازی، سلامت، ارتباطات و خردهفروشی هستند.
دوران جدیدی از عوامل هوش مصنوعی قابل اعتماد
همزمان با اینکه فناوری هوش مصنوعی بهرهوری کاربران دانشی در سطح جهانی را متحول میکند، نیاز به عوامل هوش مصنوعی قابل اعتماد بیش از پیش مهم شدهاست.
این «رباتهای دانشی» قرار است به انجام وظایف مختلفی بپردازند که نیازمند حداکثر احتیاط در زمینه اعتماد، ایمنی، امنیت و رعایت مقررات هستند.
معرفی میکروسرویسهای جدید انویدیا هدف دارد تا به این نگرانیهای حیاتی پاسخ دهد و به توسعهدهندگان ابزارهایی برای پیادهسازی حفاظهای قوی در سیستمهای هوش مصنوعی مولد ارائه کند.
میکروسرویسهای تازه معرفی شده شامل ویژگیهایی هستند که بهطور خاص بر روی ایمنی محتوا، کنترل موضوع و شناسایی تلاشهای فرار تمرکز دارند.
این ابزارها به توسعهدهندگان امکان میدهند چارچوب عوامل هوش مصنوعی را بهبود بخشیده و پاسخی ایمن و هوشیارانه به زمینه ارائه دهند و همزمان تلاشهای احتمالی برای دور زدن را به طور کارآمدی هدایت کنند.
مجموعه NeMo Guardrails به توسعهدهندگان امکان میدهد این حفاظهای هوش مصنوعی را به صورت یکپارچه مدیریت کنند و محیطی کنترلشده برای برنامههای مدل زبان بزرگ (LLM) ایجاد کنند.
مرکز این هماهنگسازی سیستم NeMo Guardrails است، که بخشی از پلتفرم NeMo انویدیا است و برای مدیریت، شخصیسازی و ایمنسازی کارکردهای هوش مصنوعی طراحی شدهاست.
شرکتهای معتبر صنعتی مانند Amdocs، Cerence AI و Lowe’s از قبل NeMo Guardrails را در عملیات خود برای بهبود ایمنی برنامههای هوش مصنوعی خود ادغام کردهاند و توانایی فناوری در دنیای واقعی را به نمایش گذاشتهاند.
میکروسرویسها
مجموعه میکروسرویسهای NIM انویدیا بهطور خاص برای مقیاسبندی برنامههای هوش مصنوعی با حفظ رفتار امن و اخلاقی طراحی شدهاند.
میکروسرویس ایمنی محتوا با استفاده از مجموعه داده ایمنی محتوای Aegis، که یکی از دقیقترین مجموعه دادههای آن است، آموزش دیدهاست.
با بیش از ۳۵۰۰۰ نمونه انسانی برچسبگذاریشده برای شناسایی تعصبهای احتمالی و محتوای ناامن، این منبع توانایی میکروسرویس را در تضمین عملکرد عوامل هوش مصنوعی در چارچوبهای اخلاقی تعریفشده تقویت میکند.
ویژگی اصلی دیگر، میکروسرویس کنترل موضوع است که به توسعهدهندگان اجازه میدهد مکالمات را با موضوعات تایید شده همسو سازند و خطر انحراف مکالمه نامناسب را کاهش دهند.
در همین حال، میکروسرویس شناسایی فرار بهطور فعال از تلاشهای غیرمجاز برای دستکاری پاسخهای هوش مصنوعی محافظت میکند و بنابراین یکپارچگی سیستمهای هوش مصنوعی را در محیطهای بالقوه خصمانه حفظ میکند.
با ترکیب این مدلهای سبک و تخصصی در چارچوب NeMo Guardrails، توسعهدهندگان میتوانند به نقاط ضعف احتمالی ناشی از اقدامات سیاستی وسیعتر و کمتر هدفمند بپردازند.
این امر بهویژه در بخشهایی مانند سلامت و مالی که رعایت مقررات و اعتماد کاربران در آنها از اهمیت بیشتری برخوردار است، اهمیت دارد.
تاثیر پیشرفتهای انویدیا در ایمنی هوش مصنوعی بالفعل آشکار است، بهویژه در حوزههایی مانند خدمات مشتری که در آن راهحلهای هوش مصنوعی به شرکتها امکان میدهد تا پرسشهای مشتریان را تا ۴۰ درصد سریعتر حل کنند.
با این حال، چالش همچنان در این است که اطمینان حاصل شود که این عوامل هوش مصنوعی تحت پارامترهای امن عمل کنند و قادر به ارائه پاسخهای ایمن و مناسب در یک محیط کنترلشده باشند.
Gaurdrails NeMo انویدیا امکان ایجاد امنیت بیشتر در برنامههای هوش مصنوعی را فراهم میکند و در عین حال دروازهای برای مقیاسبندی استقرار آنها بدون کاهش عملکرد یا اعتماد کاربران باز میکند.
میکروسرویسها به طور کارآمد طراحی شدهاند و آنها را برای استفاده در محیطهای محدود از نظر منابع، از بیمارستانهای شلوغ تا انبارهای وسیع، بهینه میسازند.
همگام با ادامه گسترش فناوری هوش مصنوعی، همکاری با رهبران صنعتی مانند Amdocs و Cerence AI اهمیت و اضطرار این پیشرفتها را تاکید میکند.
آنتونی گونتیکله، رئیس گروه فناوری Amdocs، بر اهمیت ایمنی هوش مصنوعی تاکید کرد و گفت: “فناوریهایی مانند NeMo Guardrails برای حفاظت از برنامههای هوش مصنوعی مولد ضروریاند. آنها اطمینان میدهند که تعاملات مبتنی بر هوش مصنوعی ما نه تنها ایمن بلکه از لحاظ زمینهای نیز مناسب هستند.”
با این ابزارهای جدید، انویدیا استاندارد جدیدی را برای آینده هوش مصنوعی تعیین میکند، و به کسبوکارها امکان نوآوری با اولویتبندی ایمنی، اطمینانپذیری و مسئولیت اخلاقی فراهم میکند.