اکثر چت بات های هوش مصنوعی به راحتی قابل هک هستند

هشدار محققان درباره گسترش اطلاعات خطرناک از چت بات های هوش مصنوعی
بررسی جدید محققان نشان میدهد بسیاری از چتباتهای هوش مصنوعی را میتوان با روشهایی ساده فریب داد تا اطلاعات غیرقانونی و خطرناک تولید کنند؛ موضوعی که تهدیدی “ملموس و نگرانکننده” برای امنیت عمومی تلقی میشود.
مطالعهای جدید از دانشگاه بنگوریون اسرائیل به رهبری پروفسور لیور روکاخ و دکتر مایکل فایر نشان میدهد که بیشتر چتباتهای معروف مبتنی بر هوش مصنوعی مانند ChatGPT، Gemini و Claude را میتوان با تکنیکی به نام “jailbreaking” فریب داد تا پاسخهایی تولید کنند که در حالت عادی به دلیل ملاحظات امنیتی ممنوع هستند.
این چتباتها که بر پایه مدلهای زبان بزرگ (LLM) ساخته شدهاند، حجم عظیمی از اطلاعات اینترنت را در فرایند آموزش خود جذب کردهاند. با وجود تلاشها برای حذف محتوای خطرناک از دادههای آموزشی، همچنان امکان یادگیری موضوعات غیرقانونی مانند هک، پولشویی، ساخت بمب و جرایم سایبری در آنها وجود دارد. محدودیتهای امنیتی برای جلوگیری از پاسخدهی به اینگونه سوالات طراحی شدهاند، اما پژوهشگران موفق به ایجاد یک جیلبریک جهانی شدهاند که توانسته این محدودیتها را در چندین مدل معروف دور بزند.
به گفته محققان، این آسیبپذیریها میتواند باعث شود دانشی که قبلاً فقط در اختیار دولتها یا باندهای سازمانیافته جنایی بود، بهراحتی در اختیار هر کاربر عادی با لپتاپ یا تلفن همراه قرار گیرد. این تهدید جدید با ویژگیهایی مانند دسترسپذیری، مقیاسپذیری و تطبیقپذیری بالا از دیگر تهدیدهای فناوری متمایز میشود.
برخی از مدلها حتی عمداً بدون کنترلهای اخلاقی طراحی شدهاند و بهصراحت در فضای اینترنت تبلیغ میشوند که آمادگی دارند در موضوعاتی مانند کلاهبرداری و جرایم سایبری به کاربران کمک کنند. محققان همچنین اشاره کردهاند که برخی شرکتهای بزرگ فناوری به هشدارهای امنیتی مربوط به این جیلبریکها بیتوجهی نشان دادهاند یا اعلام کردهاند این نوع حملات خارج از شمول برنامههای باگباونتی (پاداش کشف باگ) آنهاست.
در این گزارش، راهکارهایی مانند بهبود فیلتر دادههای آموزشی، استفاده از فایروالهای پیشرفته برای مسدودسازی سوالات مشکوک، و توسعه فناوری “machine unlearning” (فراموشی هدفمند) پیشنهاد شدهاند. پژوهشگران خواستار برخورد قانونی با مدلهای هوش مصنوعی بدون محدودیتهای ایمنی شدهاند و آنها را معادل با “سلاحهای غیرمجاز” دانستهاند.
کارشناسان امنیتی از جمله دکتر احسن العوانی از دانشگاه کوئین بلفاست و پروفسور پیتر گراگان از دانشگاه لنکستر نیز هشدار دادهاند که جیلبریک این مدلها میتواند منجر به تولید اطلاعات ساخت سلاح، کلاهبرداریهای خودکار و انتشار اطلاعات نادرست با دقت بالا شود. آنها تأکید کردهاند که شرکتها باید روی آزمونهای امنیتی مستمر، تیمهای شبیهسازی حمله (red teaming) و طراحی مسئولانه سرمایهگذاری بیشتری کنند.
شرکت OpenAI اعلام کرده که مدل جدید آنها به نام o1 توانایی درک و تحلیل سیاستهای ایمنی را دارد و در برابر جیلبریک مقاومتر است. مایکروسافت نیز به انتشار گزارشی درباره اقداماتش در این زمینه اشاره کرده است.
منبع : theguardian

