اشتباه یک ربات پشتیبانی ، شرکت Cursor را با بحران اعتماد کاربران مواجه کرد

اشتباه یک ربات پشتیبانی ، شرکت Cursor را با بحران اعتماد کاربران مواجه کرد
ربات پشتیبانی هوش مصنوعی شرکت Cursor با ساختن یک سیاست خیالی، موجی از نارضایتی و لغو اشتراکها را به راه انداخت.
در یکی از تازهترین موارد اشتباهات مدلهای هوش مصنوعی، ربات پشتیبانی شرکت Cursor ــ که در زمینه ویرایش کد با کمک هوش مصنوعی فعالیت دارد ــ یک «سیاست جدید» را از خود اختراع کرد که اصلاً وجود نداشت. این خطا باعث واکنش شدید کاربران در پلتفرمهایی مانند Hacker News و Reddit شد و برخی حتی اشتراک خود را لغو کردند.
شروع ماجرا؛ خروج ناگهانی کاربران از حساب کاربری
ماجرا از جایی آغاز شد که یکی از کاربران Reddit با نام «BrokenToasterOven» متوجه شد هر بار که بین دستگاههای مختلف (مثل لپتاپ، دسکتاپ و سرور توسعه) جابهجا میشود، از حساب Cursor خارج میشود. او این اتفاق را «پسرفت جدی در تجربه کاربری» توصیف کرد.
کاربر برای پیگیری مشکل با پشتیبانی تماس گرفت و ایمیلی از نمایندهای به نام «Sam» دریافت کرد که گفت: «Cursor به عنوان بخشی از سیاست امنیتی، فقط برای استفاده در یک دستگاه طراحی شده است.» اما مشکل اینجا بود که چنین سیاستی اصلاً وجود نداشت و «Sam» در واقع یک ربات هوش مصنوعی بود.
انتشار اشتباه، بهعنوان قانون رسمی
پس از این پاسخ، کاربران Reddit این سیاست خیالی را جدی گرفتند و شروع به لغو اشتراک کردند. بسیاری نوشتند که استفاده همزمان از چند دستگاه برای توسعهدهندگان امری ضروری است. کاربری نوشت: «همین حالا اشتراکم رو لغو کردم. قراره کلاً از شرکت حذفش کنیم.»
چند ساعت بعد، یکی از نمایندگان واقعی Cursor در Reddit پاسخ داد:
«سلام! چنین سیاستی نداریم. استفاده از Cursor روی چند دستگاه آزاد است. متأسفانه پاسخ اشتباهی از سوی ربات هوش مصنوعی ما ارائه شده بود.»
وقتی هوش مصنوعی اعتماد میشکند
این اشتباه نمونهای از توهمات هوش مصنوعی (Confabulation) است؛ پدیدهای که در آن، مدلهای زبانی با اطمینان اطلاعاتی نادرست اما قابلباور تولید میکنند. در این مورد، نهتنها اطلاعات نادرست منتشر شد، بلکه کاربران تصور کردند پاسخدهنده انسان است.
همبنیانگذار Cursor، مایکل تروئل، در Hacker News بابت این اتفاق عذرخواهی کرد و اعلام کرد:
«از این پس، پاسخهای هوش مصنوعی در ایمیلها بهوضوح مشخص میشوند. همچنین هزینه اشتراک کاربر مربوطه بازگردانده شد.»
شباهت با ماجرای Air Canada
این اتفاق یادآور پرونده مشابهی است که در فوریه ۲۰۲۴ برای Air Canada رخ داد؛ جایی که ربات پشتیبانی به مسافری قول بازپرداختی داد که در سیاست واقعی شرکت وجود نداشت. شرکت مدعی شد که «چتبات یک موجودیت قانونی مستقل است»، اما دادگاه این ادعا را رد کرد و شرکت را مسئول دانست.
Cursor این مسیر را نرفت و مسئولیت را پذیرفت؛ اما اشتباهی که از سوی ربات آنها رخ داد، باعث شد کاربران وفادارشان احساس بیاعتمادی کنند.
یکی از کاربران در Hacker News نوشت:
«جالب اینجاست که بعضیها میگن مشکل توهمات مدلهای زبانی دیگه جدی نیست، ولی شرکتی که دقیقاً با همین ابزارها کار میکنه، خودش ازش ضربه میخوره.»
منبع : wired

