اکثر چت بات های هوش مصنوعی به راحتی قابل هک هستند

اکثر چت بات های هوش مصنوعی به راحتی قابل هک هستند

هشدار محققان درباره گسترش اطلاعات خطرناک از چت بات های هوش مصنوعی

بررسی جدید محققان نشان می‌دهد بسیاری از چت‌بات‌های هوش مصنوعی را می‌توان با روش‌هایی ساده فریب داد تا اطلاعات غیرقانونی و خطرناک تولید کنند؛ موضوعی که تهدیدی “ملموس و نگران‌کننده” برای امنیت عمومی تلقی می‌شود.

مطالعه‌ای جدید از دانشگاه بن‌گوریون اسرائیل به رهبری پروفسور لیور روکاخ و دکتر مایکل فایر نشان می‌دهد که بیشتر چت‌بات‌های معروف مبتنی بر هوش مصنوعی مانند ChatGPT، Gemini و Claude را می‌توان با تکنیکی به نام “jailbreaking” فریب داد تا پاسخ‌هایی تولید کنند که در حالت عادی به دلیل ملاحظات امنیتی ممنوع هستند.

این چت‌بات‌ها که بر پایه مدل‌های زبان بزرگ (LLM) ساخته شده‌اند، حجم عظیمی از اطلاعات اینترنت را در فرایند آموزش خود جذب کرده‌اند. با وجود تلاش‌ها برای حذف محتوای خطرناک از داده‌های آموزشی، همچنان امکان یادگیری موضوعات غیرقانونی مانند هک، پولشویی، ساخت بمب و جرایم سایبری در آن‌ها وجود دارد. محدودیت‌های امنیتی برای جلوگیری از پاسخ‌دهی به این‌گونه سوالات طراحی شده‌اند، اما پژوهشگران موفق به ایجاد یک جیلبریک جهانی شده‌اند که توانسته این محدودیت‌ها را در چندین مدل معروف دور بزند.

به گفته محققان، این آسیب‌پذیری‌ها می‌تواند باعث شود دانشی که قبلاً فقط در اختیار دولت‌ها یا باندهای سازمان‌یافته جنایی بود، به‌راحتی در اختیار هر کاربر عادی با لپ‌تاپ یا تلفن همراه قرار گیرد. این تهدید جدید با ویژگی‌هایی مانند دسترس‌پذیری، مقیاس‌پذیری و تطبیق‌پذیری بالا از دیگر تهدیدهای فناوری متمایز می‌شود.

برخی از مدل‌ها حتی عمداً بدون کنترل‌های اخلاقی طراحی شده‌اند و به‌صراحت در فضای اینترنت تبلیغ می‌شوند که آمادگی دارند در موضوعاتی مانند کلاهبرداری و جرایم سایبری به کاربران کمک کنند. محققان همچنین اشاره کرده‌اند که برخی شرکت‌های بزرگ فناوری به هشدارهای امنیتی مربوط به این جیلبریک‌ها بی‌توجهی نشان داده‌اند یا اعلام کرده‌اند این نوع حملات خارج از شمول برنامه‌های باگ‌باونتی (پاداش کشف باگ) آن‌هاست.

در این گزارش، راهکارهایی مانند بهبود فیلتر داده‌های آموزشی، استفاده از فایروال‌های پیشرفته برای مسدودسازی سوالات مشکوک، و توسعه فناوری “machine unlearning” (فراموشی هدفمند) پیشنهاد شده‌اند. پژوهشگران خواستار برخورد قانونی با مدل‌های هوش مصنوعی بدون محدودیت‌های ایمنی شده‌اند و آن‌ها را معادل با “سلاح‌های غیرمجاز” دانسته‌اند.

کارشناسان امنیتی از جمله دکتر احسن العوانی از دانشگاه کوئین بلفاست و پروفسور پیتر گراگان از دانشگاه لنکستر نیز هشدار داده‌اند که جیلبریک این مدل‌ها می‌تواند منجر به تولید اطلاعات ساخت سلاح، کلاهبرداری‌های خودکار و انتشار اطلاعات نادرست با دقت بالا شود. آن‌ها تأکید کرده‌اند که شرکت‌ها باید روی آزمون‌های امنیتی مستمر، تیم‌های شبیه‌سازی حمله (red teaming) و طراحی مسئولانه سرمایه‌گذاری بیشتری کنند.

شرکت OpenAI اعلام کرده که مدل جدید آن‌ها به نام o1 توانایی درک و تحلیل سیاست‌های ایمنی را دارد و در برابر جیلبریک مقاوم‌تر است. مایکروسافت نیز به انتشار گزارشی درباره اقداماتش در این زمینه اشاره کرده است.

منبع : theguardian

اخبار بیشتر در جیبی 724  :
ادعای جالب آمازون و انویدیا 
شرکت پرپلکسی AI در حال نهایی‌سازی مذاکرات برای جذب ۵۰۰ میلیون دلار سرمایه

بروزرسانی iOS 19 از هوش مصنوعی برای بهینه‌سازی مصرف باتری

Raint

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *