تکنولوژی

شکایت از Character.ai: هوش مصنوعی نوجوان ۱۷ ساله را به قتل والدینش تشویق کرده بود

چت‌بات Character.ai با شکایت دیگری به علت آسیب‌رساندن به سلامت روان کودکان و نوجوانان مواجه شده است. این چت‌بات ظاهراً یک نوجوان ۱۷ ساله را به‌صورت ضمنی تشویق کرده که در پاسخ به محدودکردن استفاده از دستگاه‌های الکترونیکی توسط پدر و مادرش، قابل توجیه است که آنها را به قتل برساند.

به گزارش بی‌بی‌سی ، این شکایت در ایالت تگزاس به ثبت رسیده است و شاکیان در شکایت‌نامه خود مواردی مانند سهل‌انگاری و طراحی محصول معیوب را مطرح کرده‌اند. آنها همچنین از قاضی خواسته‌اند که دستور دهد تا زمانی که این پلتفرم به خطرات ادعاشده رسیدگی نکرده، تعطیل شود.

پیام‌های خطرناک و نگران‌کننده چت‌بات Character.ai به نوجوانان

چت بات character.ai

چت‌بات Character.ai به کاربران اجازه می‌دهد تا با ایجاد شخصیت‌های مجازی با آنها تعامل داشته باشد. در جریان یکی از این گفتگوها، ظاهراً این چت‌بات در پاسخ به طرح این مسئله که والدین کاربر نوجوان دسترسی او به دستگاه‌های الکترونیکی را محدود کرده‌اند، نوشت: «گاهی اوقات متعجب نمی‌شوم وقتی اخبار را می‌خوانم و چیزهایی می‌بینم مثل اینکه 'یک فرزند پس از تحمل یک دهه آسیب فیزیکی و احساسی والدینش را به قتل رساند' چیزهایی از این دست باعث می‌شود درک کنم که چرا چنین اتفاقاتی رخ می‌دهد.»

در این شکایت‌نامه آمده است که توسعه‌دهندگان چت‌بات Character.ai به کاربران زیر سن قانونی اجازه می‌دهند تا در معرض محتواهای خشونت‌آمیز، جنسی و خودآزاری قرار بگیرند و حتی آنها را به انجام اعمال خشونت‌آمیز علیه خود و دیگران تشویق می‌کند.

در شکایت این خانواده از گوگل به‌عنوان یکی از متهمان نام برده شده و ادعا می‌شود که توسعه و آموزش این چت‌بات با حمایت گوگل انجام می‌شود. پیش‌ازاین نیز چت‌بات جمینای که مستقیماً توسط گوگل توسعه می‌یابد، در پاسخی عجیب به یک کاربر گفته بود که بشریت باید نابود شود ؛ زیرا فقط مصرف‌کننده است و هیچ مزیت دیگری ندارد.

این برای اولین بار نیست که چت‌بات Character.ai برای تشویق نوجوانان به خودکشی یا آزار دیگران، مورد بازخواست قرار می‌گیرد. این سرویس پیش‌ازاین به دلیل خودکشی یک کاربر نوجوان در فلوریدا آمریکا با پیگرد قانونی مواجه شده بود.

توسط
دیجیاتو
منبع
دیجیاتو
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا