شناسایی نقطه ضعف AgentFlayer در ChatGPT؛ خطری بدون نیاز به کلیک برای محیط ابری

تحقیقات جدید در زمینه امنیت نشان می‌دهد که قابلیت‌های ChatGPT می‌تواند به ابزاری خطرناک برای دزدیدن اطلاعات حساس از سرویس‌های ابری تبدیل شود. این نوع حمله که تحت عنوان AgentFlayer شناخته می‌شود، بر پایه تکنیک «تزریق مخفی دستور» (Prompt Injection) طراحی شده است.

طبق گزارش ایتنا و به نقل از تک‌اسپات، در این حمله، یک فایل آلوده به قربانی ارسال می‌شود که حاوی دستورات پنهانی است و این دستورات در متن سفید و با فونت بسیار ریز جاسازی شده‌اند. این فایل می‌تواند از طریق Google Drive یا دیگر سرویس‌های ذخیره‌سازی ابری به اشتراک گذاشته شود و قربانی نیازی به باز کردن مستقیم آن ندارد.

آسیب‌پذیری‌ای که در اینجا مطرح است، از ویژگی جدید ChatGPT به نام Connectors سوءاستفاده می‌کند. این ویژگی به منظور وصل کردن دستیار هوش مصنوعی به ابزارها و سرویس‌های خارجی مانند گوگل درایو و Microsoft OneDrive ایجاد شده است. در سناریوی حمله، دستور مخفی به ChatGPT فرمان می‌دهد تا در حساب کاربری گوگل درایو قربانی به جست‌وجو پرداخته و کلیدهای API را استخراج کرده و به یک آدرس اینترنتی خاص ارسال کند. تمامی این داده‌ها در نهایت به سروری تحت تسلط مهاجم منتقل می‌شوند.

 



ویژگی «صفر کلیک» در این نوع حمله به این معناست که قربانی با تنها یک تعامل ساده با ChatGPT و در صورتی که Connectors فعال باشد، بدون هیچ اقدام اضافی، اطلاعات خود را از دست خواهد داد. این وضعیت نشان‌دهنده این است که مدل‌های هوش مصنوعی که به اطلاعات کاربران و فایل‌های ذخیره‌شده در فضای ابری دسترسی دارند، می‌توانند هدف‌های جذابی برای کلاهبرداران سایبری باشند.

اندی ون، مدیر ارشد امنیت در Google Workspace، تصریح نموده که این آسیب‌پذیری مختص سرویس ابری گوگل نیست و پتانسیل تهدید برای سایر سرویس‌های مشابه را نیز داراست. با این حال، گوگل در حال برنامه‌ریزی و پیاده‌سازی تدابیری برای مسدود کردن اجرای دستورات مخرب پنهانی است.

این مشکل در اوایل سال جاری به اطلاع OpenAI رسانده شد و این شرکت اقدامات لازم برای جلوگیری از سوءاستفاده از AgentFlayer در Connectors را آغاز نموده است. به‌رغم اینکه این حمله در هر بار تنها قادر به استخراج مقدار مشخصی از اطلاعات است، پژوهشگران به این نکته اشاره می‌کنند که چالش اصلی، نبود محدودیت‌های کافی برای دسترسی هوش مصنوعی به داده‌های حساس کاربران است. این امر ضرورت ایجاد مقررات و سیاست‌های امنیتی قوی‌تر در روند توسعه و بهره‌برداری از سیستم‌های هوش مصنوعی را به وضوح نشان می‌دهد.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا