شناسایی نقطه ضعف AgentFlayer در ChatGPT؛ خطری بدون نیاز به کلیک برای محیط ابری
طبق گزارش ایتنا و به نقل از تکاسپات، در این حمله، یک فایل آلوده به قربانی ارسال میشود که حاوی دستورات پنهانی است و این دستورات در متن سفید و با فونت بسیار ریز جاسازی شدهاند. این فایل میتواند از طریق Google Drive یا دیگر سرویسهای ذخیرهسازی ابری به اشتراک گذاشته شود و قربانی نیازی به باز کردن مستقیم آن ندارد.
آسیبپذیریای که در اینجا مطرح است، از ویژگی جدید ChatGPT به نام Connectors سوءاستفاده میکند. این ویژگی به منظور وصل کردن دستیار هوش مصنوعی به ابزارها و سرویسهای خارجی مانند گوگل درایو و Microsoft OneDrive ایجاد شده است. در سناریوی حمله، دستور مخفی به ChatGPT فرمان میدهد تا در حساب کاربری گوگل درایو قربانی به جستوجو پرداخته و کلیدهای API را استخراج کرده و به یک آدرس اینترنتی خاص ارسال کند. تمامی این دادهها در نهایت به سروری تحت تسلط مهاجم منتقل میشوند.
اندی ون، مدیر ارشد امنیت در Google Workspace، تصریح نموده که این آسیبپذیری مختص سرویس ابری گوگل نیست و پتانسیل تهدید برای سایر سرویسهای مشابه را نیز داراست. با این حال، گوگل در حال برنامهریزی و پیادهسازی تدابیری برای مسدود کردن اجرای دستورات مخرب پنهانی است.
این مشکل در اوایل سال جاری به اطلاع OpenAI رسانده شد و این شرکت اقدامات لازم برای جلوگیری از سوءاستفاده از AgentFlayer در Connectors را آغاز نموده است. بهرغم اینکه این حمله در هر بار تنها قادر به استخراج مقدار مشخصی از اطلاعات است، پژوهشگران به این نکته اشاره میکنند که چالش اصلی، نبود محدودیتهای کافی برای دسترسی هوش مصنوعی به دادههای حساس کاربران است. این امر ضرورت ایجاد مقررات و سیاستهای امنیتی قویتر در روند توسعه و بهرهبرداری از سیستمهای هوش مصنوعی را به وضوح نشان میدهد.