اشتباه یک ربات پشتیبانی ، شرکت Cursor را با بحران اعتماد کاربران مواجه کرد

اشتباه یک ربات پشتیبانی ، شرکت Cursor را با بحران اعتماد کاربران مواجه کرد

اشتباه یک ربات پشتیبانی ، شرکت Cursor را با بحران اعتماد کاربران مواجه کرد

ربات پشتیبانی هوش مصنوعی شرکت Cursor با ساختن یک سیاست خیالی، موجی از نارضایتی و لغو اشتراک‌ها را به راه انداخت.

در یکی از تازه‌ترین موارد اشتباهات مدل‌های هوش مصنوعی، ربات پشتیبانی شرکت Cursor ــ که در زمینه ویرایش کد با کمک هوش مصنوعی فعالیت دارد ــ یک «سیاست جدید» را از خود اختراع کرد که اصلاً وجود نداشت. این خطا باعث واکنش شدید کاربران در پلتفرم‌هایی مانند Hacker News و Reddit شد و برخی حتی اشتراک خود را لغو کردند.

شروع ماجرا؛ خروج ناگهانی کاربران از حساب کاربری

ماجرا از جایی آغاز شد که یکی از کاربران Reddit با نام «BrokenToasterOven» متوجه شد هر بار که بین دستگاه‌های مختلف (مثل لپ‌تاپ، دسکتاپ و سرور توسعه) جابه‌جا می‌شود، از حساب Cursor خارج می‌شود. او این اتفاق را «پسرفت جدی در تجربه کاربری» توصیف کرد.

کاربر برای پیگیری مشکل با پشتیبانی تماس گرفت و ایمیلی از نماینده‌ای به نام «Sam» دریافت کرد که گفت: «Cursor به عنوان بخشی از سیاست امنیتی، فقط برای استفاده در یک دستگاه طراحی شده است.» اما مشکل اینجا بود که چنین سیاستی اصلاً وجود نداشت و «Sam» در واقع یک ربات هوش مصنوعی بود.

انتشار اشتباه، به‌عنوان قانون رسمی

پس از این پاسخ، کاربران Reddit این سیاست خیالی را جدی گرفتند و شروع به لغو اشتراک کردند. بسیاری نوشتند که استفاده هم‌زمان از چند دستگاه برای توسعه‌دهندگان امری ضروری است. کاربری نوشت: «همین حالا اشتراکم رو لغو کردم. قراره کلاً از شرکت حذفش کنیم.»

چند ساعت بعد، یکی از نمایندگان واقعی Cursor در Reddit پاسخ داد:
«سلام! چنین سیاستی نداریم. استفاده از Cursor روی چند دستگاه آزاد است. متأسفانه پاسخ اشتباهی از سوی ربات هوش مصنوعی ما ارائه شده بود.»

وقتی هوش مصنوعی اعتماد می‌شکند

این اشتباه نمونه‌ای از توهمات هوش مصنوعی (Confabulation) است؛ پدیده‌ای که در آن، مدل‌های زبانی با اطمینان اطلاعاتی نادرست اما قابل‌باور تولید می‌کنند. در این مورد، نه‌تنها اطلاعات نادرست منتشر شد، بلکه کاربران تصور کردند پاسخ‌دهنده انسان است.

هم‌بنیان‌گذار Cursor، مایکل تروئل، در Hacker News بابت این اتفاق عذرخواهی کرد و اعلام کرد:
«از این پس، پاسخ‌های هوش مصنوعی در ایمیل‌ها به‌وضوح مشخص می‌شوند. همچنین هزینه اشتراک کاربر مربوطه بازگردانده شد.»

شباهت با ماجرای Air Canada

این اتفاق یادآور پرونده مشابهی است که در فوریه ۲۰۲۴ برای Air Canada رخ داد؛ جایی که ربات پشتیبانی به مسافری قول بازپرداختی داد که در سیاست واقعی شرکت وجود نداشت. شرکت مدعی شد که «چت‌بات یک موجودیت قانونی مستقل است»، اما دادگاه این ادعا را رد کرد و شرکت را مسئول دانست.

Cursor این مسیر را نرفت و مسئولیت را پذیرفت؛ اما اشتباهی که از سوی ربات آن‌ها رخ داد، باعث شد کاربران وفادارشان احساس بی‌اعتمادی کنند.

یکی از کاربران در Hacker News نوشت:
«جالب اینجاست که بعضی‌ها می‌گن مشکل توهمات مدل‌های زبانی دیگه جدی نیست، ولی شرکتی که دقیقاً با همین ابزارها کار می‌کنه، خودش ازش ضربه می‌خوره.»

منبع : wired

اخبار مرتبط در جیبی 724  :
تغییرات مهم در تیم رهبری گوگل Gemini
تصاویر به سبک استودیو جیبلی و قدرت خیره کننده GPT-4o
Raint

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *