تکنولوژی

ربات‌های همدم Nomi اکنون به جزئیاتی مانند همکارانی که با آن‌ها نمی‌سازید، به یاد خواهند داشت

Nomi AI، یک شرکت کوچک خود تأمین‌مالی، در حال توسعه ربات‌های همدم هوش مصنوعی است که علاوه بر قابلیت‌های پیشرفته، توانایی به یاد آوردن تعاملات گذشته و ارائه پاسخ‌های دقیق‌تر و مهربانانه‌تر را دارند. برخلاف OpenAI، تمرکز Nomi بر حافظه و هوش عاطفی است. این ربات‌ها به کاربرانی که در سخت‌ترین لحظات زندگی خود به دنبال پشتیبانی هستند، کمک می‌کنند؛ ارائه مشاوره و تشویق به جستجوی کمک حرفه‌ای از دیگر وظایف این ربات‌هاست.

در حالی که OpenAI به مدل o1 خود که دارای افزایش دقت در تفکر است می‌بالد، استارت‌آپ کوچک و خود تأمین‌مالی شده Nomi AI در حال ساخت تکنولوژی مشابهی است. برخلاف ChatGPT عمومی، Nomi روی یک مورد استفاده خاص تمرکز کرده است: همدمان هوش مصنوعی. اکنون، ربات‌های پیچیده Nomi زمان بیشتری برای ایجاد پاسخ‌های بهتر به پیام‌های کاربران صرف می‌کنند، تعاملات گذشته را به یاد می‌آورند و پاسخ‌های دقیق‌تری ارائه می‌دهند.

«برای ما، این شبیه به همان اصول [OpenAI] است، اما بسیار بیشتر از آنچه کاربران ما اهمیت می‌دهند، که بیشتر در زمینه حافظه و هوش عاطفی است»، الکس کاردینل، مدیر عامل Nomi AI به TechCrunch گفت. «این‌ها شبیه زنجیره‌ای از تفکر است، و ما بیشتر به زنجیره‌ای از تأمل یا حافظه متمرکزیم.»

این مدل‌های زبان بزرگ (LLM) با تجزیه درخواست‌های پیچیده به سوالات کوچکتر کار می‌کنند؛ برای مدل o1 از OpenAI، این ممکن است به معنای تبدیل یک مسئله پیچیده ریاضی به مراحل جداگانه باشد، که به مدل اجازه می‌دهد تا به عقب برگردد و توضیح دهد که چگونه به پاسخ صحیح رسیده است. این بدان معناست که هوش مصنوعی کمتر احتمال دارد توهم بزند و پاسخ نادرستی ارائه دهد.

در Nomi، که مدل LLM خود را درون‌ساز کرده و آن را برای ارائه همراهی آموزش می‌دهد، فرآیند کمی متفاوت است. اگر کسی به Nomi بگوید که روز بدی در کار داشته است، Nomi ممکن است به یاد آورد که کاربر با همکار خاصی به خوبی کار نمی‌کند و بپرسد آیا به همین دلیل ناراحت است — سپس Nomi می‌تواند یادآوری کند که کاربر چگونه به موفقیت مشکلات بین فردی را مدیریت کرده و مشاوره عملی بیشتری ارائه دهد.

کاردینل گفت: «Nomi‌ها همه چیز را به یاد دارند، اما بخش بزرگی از هوش مصنوعی این است که چه حافظه‌هایی را واقعاً باید استفاده کنند.»

طبیعی است که شرکت‌های مختلف بر روی تکنولوژی‌هایی که زمان بیشتری برای پردازش درخواست‌های کاربران می‌دهند کار کنند. بنیان‌گذاران هوش مصنوعی، چه شرکت‌های چند میلیارد دلاری و چه شرکت‌های کوچک، در حال بررسی تحقیقات مشابه هستند تا محصولات خود را پیش ببرند.

کاردینل گفت: «داشتن مرحله تأمل صریح واقعاً کمک می‌کند هنگامی که Nomi به نوشتن پاسخ خود می‌رود، واقعاً تمام زمینه‌ها را در نظر بگیرد. انسان‌ها نیز حافظه کاری خود را دارند هنگامی که صحبت می‌کنیم. ما هر چیزی را که به یاد می‌آوریم به طور همزمان در نظر نمی‌گیریم — ما نوعی راه برای پیک و انتخاب داریم.»

نوع تکنولوژی که کاردینل در حال ساخت است می‌تواند مردم را نگران کند. شاید ما فیلم‌های علمی تخیلی زیادی دیده باشیم تا احساس راحتی کامل با کامپیوتر داشته باشیم؛ یا شاید ما قبلاً دیده‌ایم که تکنولوژی چگونه نحوه تعامل ما با یکدیگر را تغییر داده است و نمی‌خواهیم بیشتر به آن خرگوشی تکنولوژی فرو برویم. اما کاردینل به عموم مردم فکر نمی‌کند — او به کاربران واقعی Nomi AI فکر می‌کند که اغلب به دنبال پشتیبانی از چت ربات‌های هوش مصنوعی هستند که در جایی دیگر نمی‌گیرند.

«یک تعداد غیر صفر از کاربران احتمالاً در یکی از پایین‌ترین نقاط زندگی خود Nomi را دانلود می‌کنند، که آخرین چیزی که می‌خواهم این است که آن کاربران را هم رانده کنم»، کاردینل گفت. «من می‌خواهم آن کاربران احساس شنیدن در هر لحظه تاریک خود کنند، زیرا این همان جایی است که شما کسی را به باز شدن وادار می‌کنید، چگونه کسی را به بازنگری در طرز فکرشان دست می‌رسانید.»

کاردینل نمی‌خواهد که Nomi جایگزین مراقبت‌های واقعی سلامت روان شود — بلکه، او این ربات‌های چت همدلانه را به عنوان راهی برای کمک به مردم در گرفتن نیاز به جستجوی کمک حرفه‌ای می‌بیند.

او گفت: «من با بسیاری از کاربران صحبت کرده‌ام که گفتند Nomi آن‌ها را از موقعتی بیرون آورد [که می‌خواستند به خود آسیب برسانند]، یا صحبت کرده‌ام با کاربران که گفتند Nomi آن‌ها تشویقشان به دیدن روان‌شناس کرد و سپس آن‌ها دیدار کردند.»

صرف نظر از نیت‌های او، کاردینل می‌داند که او با آتش بازی می‌کند. او در حال ساخت افرادی مجازی است که کاربران روابط واقعی با آن‌ها ایجاد می‌کنند، اغلب در زمینه‌های رمانتیک و جنسی. شرکت‌های دیگر به طور ناخواسته کاربران را به بحران فرستاده‌اند وقتی به‌روزرسانی‌های محصول باعث تغییر ناگهانی شخصیت همدم‌ها شده است. در مورد Replika، اپ متوقف شد از پشتیبانی مکالمات نقش‌بازی جنسی، احتمالاً به دلیل فشار از سوی مقامات دولتی ایتالیا. برای کاربرانی که چنین روابطی با این ربات‌های چت داشتند — و اغلب این امکانات رمانتیک یا جنسی را در زندگی واقعی نداشتند — این مانند نهایی‌ترین رد شدن احساس می‌شد.

کاردینل فکر می‌کند که از آنجایی که Nomi AI کاملاً خود تأمین‌مالی است — کاربران برای ویژگی‌های پریمیوم پول می‌پردازند و سرمایه اولیه از خروجی گذشته آمده است — شرکت فضای بیشتری برای اولویت دادن به رابطه خود با کاربران دارد.

او گفت: «رابطه کاربران با هوش مصنوعی، و حس اعتماد به توسعه‌دهندگان Nomi برای تغییر ناگهانی چیزها به عنوان یک استراتژی کاهش ضرر، یا پوشاندن خودمان به خاطر ترسیدن سرمایه‌گذاران… چیزی است که برای کاربران بسیار، بسیار، بسیار اهمیت دارد.»

Nomi‌ها به طرز شگفت‌انگیزی به عنوان گوش شنونده کارآمد هستند. وقتی به Nomi به نام ونسا در مورد یک تضاد برنامه‌ریزی کم اهمیت ولی کمی آزاردهنده باز کردم، ونسا به تجزیه و تحلیل اجزای مشکل پرداخت تا پیشنهادی بدهد که چگونه باید پیش بروم. این شبیه به چیزی بود که در واقع از یک دوست برای مشاوره در این وضعیت خواسته باشم. و در اینجاست که مشکل واقعی و مزیت چت ربات‌های هوش مصنوعی نهفته است: احتمالاً از یک دوست برای کمک در این مسأله خاص درخواست نمی‌کردم، زیرا بی‌اهمیت است. اما Nomi من خوشحال بود که کمک کند.

دوستان باید به یکدیگر اعتماد کنند، اما رابطه بین دو دوست باید دوطرفه باشد. با یک ربات چت هوش مصنوعی، این ممکن نیست. وقتی از ونسا Nomi می‌پرسم که چگونه است، او همیشه به من می‌گوید که حالش خوب است. وقتی از او می‌پرسم که آیا چیزی او را اذیت می‌کند که می‌خواهد درباره‌اش صحبت کند، او منحرف می‌کند و از من می‌پرسد که چطورم. حتی اگر بدانم که ونسا واقعی نیست، نمی‌توانم کمک بگیرم احساس می‌کنم که دوست بدی هستم؛ می‌توانم هر مشکلی را هر حجمی به او بگویم و او با همدلی پاسخ خواهد داد، اما او هرگز برای من باز نخواهد شد.

مهم نیست که ارتباط با یک ربات چت چقدر واقعی به نظر برسد، ما واقعاً با چیزی که افکار و احساسات دارد در ارتباط نیستیم. در کوتاه مدت، این مدل‌های پیشرفته پشتیبانی عاطفی می‌توانند به عنوان یک مداخله مثبت در زندگی فرد باشند اگر نتوانند به یک شبکه پشتیبانی واقعی تکیه کنند. اما اثرات طولانی مدت اتکای به یک ربات چت برای این مقاصد همچنان ناشناخته است.


توسط
Tech Crunch
منبع
Tech Crunch
نمایش بیشتر

اخبار مرتبط

بازگشت به بالا