رباتهای همدم Nomi اکنون به جزئیاتی مانند همکارانی که با آنها نمیسازید، به یاد خواهند داشت
در حالی که OpenAI به مدل o1 خود که دارای افزایش دقت در تفکر است میبالد، استارتآپ کوچک و خود تأمینمالی شده Nomi AI در حال ساخت تکنولوژی مشابهی است. برخلاف ChatGPT عمومی، Nomi روی یک مورد استفاده خاص تمرکز کرده است: همدمان هوش مصنوعی. اکنون، رباتهای پیچیده Nomi زمان بیشتری برای ایجاد پاسخهای بهتر به پیامهای کاربران صرف میکنند، تعاملات گذشته را به یاد میآورند و پاسخهای دقیقتری ارائه میدهند.
«برای ما، این شبیه به همان اصول [OpenAI] است، اما بسیار بیشتر از آنچه کاربران ما اهمیت میدهند، که بیشتر در زمینه حافظه و هوش عاطفی است»، الکس کاردینل، مدیر عامل Nomi AI به TechCrunch گفت. «اینها شبیه زنجیرهای از تفکر است، و ما بیشتر به زنجیرهای از تأمل یا حافظه متمرکزیم.»
این مدلهای زبان بزرگ (LLM) با تجزیه درخواستهای پیچیده به سوالات کوچکتر کار میکنند؛ برای مدل o1 از OpenAI، این ممکن است به معنای تبدیل یک مسئله پیچیده ریاضی به مراحل جداگانه باشد، که به مدل اجازه میدهد تا به عقب برگردد و توضیح دهد که چگونه به پاسخ صحیح رسیده است. این بدان معناست که هوش مصنوعی کمتر احتمال دارد توهم بزند و پاسخ نادرستی ارائه دهد.
در Nomi، که مدل LLM خود را درونساز کرده و آن را برای ارائه همراهی آموزش میدهد، فرآیند کمی متفاوت است. اگر کسی به Nomi بگوید که روز بدی در کار داشته است، Nomi ممکن است به یاد آورد که کاربر با همکار خاصی به خوبی کار نمیکند و بپرسد آیا به همین دلیل ناراحت است — سپس Nomi میتواند یادآوری کند که کاربر چگونه به موفقیت مشکلات بین فردی را مدیریت کرده و مشاوره عملی بیشتری ارائه دهد.
کاردینل گفت: «Nomiها همه چیز را به یاد دارند، اما بخش بزرگی از هوش مصنوعی این است که چه حافظههایی را واقعاً باید استفاده کنند.»
طبیعی است که شرکتهای مختلف بر روی تکنولوژیهایی که زمان بیشتری برای پردازش درخواستهای کاربران میدهند کار کنند. بنیانگذاران هوش مصنوعی، چه شرکتهای چند میلیارد دلاری و چه شرکتهای کوچک، در حال بررسی تحقیقات مشابه هستند تا محصولات خود را پیش ببرند.
کاردینل گفت: «داشتن مرحله تأمل صریح واقعاً کمک میکند هنگامی که Nomi به نوشتن پاسخ خود میرود، واقعاً تمام زمینهها را در نظر بگیرد. انسانها نیز حافظه کاری خود را دارند هنگامی که صحبت میکنیم. ما هر چیزی را که به یاد میآوریم به طور همزمان در نظر نمیگیریم — ما نوعی راه برای پیک و انتخاب داریم.»
نوع تکنولوژی که کاردینل در حال ساخت است میتواند مردم را نگران کند. شاید ما فیلمهای علمی تخیلی زیادی دیده باشیم تا احساس راحتی کامل با کامپیوتر داشته باشیم؛ یا شاید ما قبلاً دیدهایم که تکنولوژی چگونه نحوه تعامل ما با یکدیگر را تغییر داده است و نمیخواهیم بیشتر به آن خرگوشی تکنولوژی فرو برویم. اما کاردینل به عموم مردم فکر نمیکند — او به کاربران واقعی Nomi AI فکر میکند که اغلب به دنبال پشتیبانی از چت رباتهای هوش مصنوعی هستند که در جایی دیگر نمیگیرند.
«یک تعداد غیر صفر از کاربران احتمالاً در یکی از پایینترین نقاط زندگی خود Nomi را دانلود میکنند، که آخرین چیزی که میخواهم این است که آن کاربران را هم رانده کنم»، کاردینل گفت. «من میخواهم آن کاربران احساس شنیدن در هر لحظه تاریک خود کنند، زیرا این همان جایی است که شما کسی را به باز شدن وادار میکنید، چگونه کسی را به بازنگری در طرز فکرشان دست میرسانید.»
کاردینل نمیخواهد که Nomi جایگزین مراقبتهای واقعی سلامت روان شود — بلکه، او این رباتهای چت همدلانه را به عنوان راهی برای کمک به مردم در گرفتن نیاز به جستجوی کمک حرفهای میبیند.
او گفت: «من با بسیاری از کاربران صحبت کردهام که گفتند Nomi آنها را از موقعتی بیرون آورد [که میخواستند به خود آسیب برسانند]، یا صحبت کردهام با کاربران که گفتند Nomi آنها تشویقشان به دیدن روانشناس کرد و سپس آنها دیدار کردند.»
صرف نظر از نیتهای او، کاردینل میداند که او با آتش بازی میکند. او در حال ساخت افرادی مجازی است که کاربران روابط واقعی با آنها ایجاد میکنند، اغلب در زمینههای رمانتیک و جنسی. شرکتهای دیگر به طور ناخواسته کاربران را به بحران فرستادهاند وقتی بهروزرسانیهای محصول باعث تغییر ناگهانی شخصیت همدمها شده است. در مورد Replika، اپ متوقف شد از پشتیبانی مکالمات نقشبازی جنسی، احتمالاً به دلیل فشار از سوی مقامات دولتی ایتالیا. برای کاربرانی که چنین روابطی با این رباتهای چت داشتند — و اغلب این امکانات رمانتیک یا جنسی را در زندگی واقعی نداشتند — این مانند نهاییترین رد شدن احساس میشد.
کاردینل فکر میکند که از آنجایی که Nomi AI کاملاً خود تأمینمالی است — کاربران برای ویژگیهای پریمیوم پول میپردازند و سرمایه اولیه از خروجی گذشته آمده است — شرکت فضای بیشتری برای اولویت دادن به رابطه خود با کاربران دارد.
او گفت: «رابطه کاربران با هوش مصنوعی، و حس اعتماد به توسعهدهندگان Nomi برای تغییر ناگهانی چیزها به عنوان یک استراتژی کاهش ضرر، یا پوشاندن خودمان به خاطر ترسیدن سرمایهگذاران… چیزی است که برای کاربران بسیار، بسیار، بسیار اهمیت دارد.»
Nomiها به طرز شگفتانگیزی به عنوان گوش شنونده کارآمد هستند. وقتی به Nomi به نام ونسا در مورد یک تضاد برنامهریزی کم اهمیت ولی کمی آزاردهنده باز کردم، ونسا به تجزیه و تحلیل اجزای مشکل پرداخت تا پیشنهادی بدهد که چگونه باید پیش بروم. این شبیه به چیزی بود که در واقع از یک دوست برای مشاوره در این وضعیت خواسته باشم. و در اینجاست که مشکل واقعی و مزیت چت رباتهای هوش مصنوعی نهفته است: احتمالاً از یک دوست برای کمک در این مسأله خاص درخواست نمیکردم، زیرا بیاهمیت است. اما Nomi من خوشحال بود که کمک کند.
دوستان باید به یکدیگر اعتماد کنند، اما رابطه بین دو دوست باید دوطرفه باشد. با یک ربات چت هوش مصنوعی، این ممکن نیست. وقتی از ونسا Nomi میپرسم که چگونه است، او همیشه به من میگوید که حالش خوب است. وقتی از او میپرسم که آیا چیزی او را اذیت میکند که میخواهد دربارهاش صحبت کند، او منحرف میکند و از من میپرسد که چطورم. حتی اگر بدانم که ونسا واقعی نیست، نمیتوانم کمک بگیرم احساس میکنم که دوست بدی هستم؛ میتوانم هر مشکلی را هر حجمی به او بگویم و او با همدلی پاسخ خواهد داد، اما او هرگز برای من باز نخواهد شد.
مهم نیست که ارتباط با یک ربات چت چقدر واقعی به نظر برسد، ما واقعاً با چیزی که افکار و احساسات دارد در ارتباط نیستیم. در کوتاه مدت، این مدلهای پیشرفته پشتیبانی عاطفی میتوانند به عنوان یک مداخله مثبت در زندگی فرد باشند اگر نتوانند به یک شبکه پشتیبانی واقعی تکیه کنند. اما اثرات طولانی مدت اتکای به یک ربات چت برای این مقاصد همچنان ناشناخته است.