OpenAI ظاهراً مدل هوش مصنوعی GPT-4o را با عجله معرفی کرده است
نقض ایمنی هوش مصنوعی در OpenAI
ایمنی یکی از نکات مهم منشور OpenAI است، در این منشور بندی وجود دارد که میگوید OpenAI به سایر سازمانهای رقیب کمک میکند تا در صورت دستیابی به AGI (هوش جامع مصنوعی)، به جای ادامه رقابت، ایمنی آن را ارتقا دهند.
به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایشهای ایمنی GPT-4o را انجام داده و قبل از اطمینان کامل از ایمنی این مدل، آن را معرفی کرده است. به گفته این فرد ناشناس، آنها در اولین آزمایش ایمنی این مدل پیشرفته، شکست خورده بودند.
یکی از کارمندان ناشناس OpenAI به واشنگتن پست گفته است: «آنها قبل از آنکه بدانند این مدل [GPT-4o] ایمن است، برنامه رونمایی از آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.» او میگوید که OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرد.
بااینحال، سخنگوی OpenAI به واشنگتن پست میگوید عرضه GPT-4o باعث نشده که در پرداختن به نکات ایمنی کمکاری شود. بااینحال منبع ناشناس اذعان میکند که جدول زمانی بررسی ایمنی این مدل به یک هفته فشرده شده بود.
نقض ایمنی هوش مصنوعی در OpenAI
ایمنی یکی از نکات مهم منشور OpenAI است، در این منشور بندی وجود دارد که میگوید OpenAI به سایر سازمانهای رقیب کمک میکند تا در صورت دستیابی به AGI (هوش جامع مصنوعی)، به جای ادامه رقابت، ایمنی آن را ارتقا دهند. همچنین OpenAI ظاهراً مدعی است که مدلهای اختصاصی خود را به دلایل ایمنی متنباز نمیکند.
بااینحال در چند وقت اخیر نگرانیها پیرامون نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعهدهندگان مدلهای بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل اعلام کرد: «توسعه هوش مصنوعی پیشتاز فعلی خطرات فوری و فزایندهای برای امنیت ملی ایجاد میکند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به شیوههایی که یادآور معرفی سلاحهای هستهای است، بیثبات کند.»
پیشازاین نیز، « یان لیکه »، یکی از محققان امنیت هوش مصنوعی OpenAI ضمن استعفا گفته بود که طی سالهای گذشته، فرهنگ و فرایند ایمنیسازی هوش مصنوعی در این شرکت جای خود را به عرضه محصولات پرزرقوبرق داده است. همچنین کارمندان فعلی و سابق OpenAI اخیراً نامهای امضا کردند که در آن از این شرکت خواستند اقدامات ایمنی بهتری در پیش بگیرد.