متا AI درخواست های chatbot و پاسخ به کاربران غیرمجاز

یک آسیب پذیری امنیتی که سال گذشته توسط یک متخصص امنیت سایبری کشف شد ، نشان داد که متا AI به کاربران Chatbot اجازه می دهد تا از طریق نقص به درخواست های ویژه خود و پاسخ به سایر کاربران پاسخ دهند.
همانطور که توسط CyberNews گزارش شده است ، متا از آن زمان این خطا را اصلاح کرده است ، اما برای مدت زمان نامشخص ، کاربران دسترسی غیرمجاز به درخواست ها و پاسخ های کاربر دیگری را در نتیجه نشت داشتند.
به گفته TechCrunch ، آسیب پذیری امنیتی اعلام شده توسط متخصص امنیت سایبری در 26 دسامبر 2024 و بنیانگذار AppSeure Sandeep Hodkasia ، با تصحیح توسط متا در 24 ژانویه 2025 اصلاح شد. هودکاسی در حال بررسی این بود که متا او اجازه داده شده است تا متون خود را تغییر دهد. هنگامی که یک کاربر درخواست AI را تنظیم می کند ، سرورهای متا تعداد منحصر به فردی از پاسخ ایجاد شده توسط او و هوش مصنوعی را تعیین می کنند.
Hodkasia ضمن سازماندهی درخواست هوش مصنوعی ، ترافیک شبکه مرورگر را مورد تجزیه و تحلیل قرار داد و دریافت که سرورها می توانند این شماره را تغییر دهند تا باعث ایجاد درخواست و پاسخ به کاربر دیگری شوند. این بدان معنی است که کاربر که سرورها را می خواهد و پاسخ مجاز به مشاهده آن نیست.
متا نقص تصحیح شده و سخنگوی این شرکت جایزه خطای 10،000 دلاری را به هودکاسیا پرداخت کرد ، که این مسئله را پذیرفت ، اما گفت هیچ مدرکی مبنی بر سوء استفاده از این شرکت در طبیعت وحشی وجود ندارد. این آسیب پذیری ماه گذشته را تماشا می کند ، جایی که سخنان متا AI در عمل برای عموم توضیح داده شده است ، عمداً نمایش داده های کاربران را فاش می کند و تأکید می کند که عبور از خطوط امنیتی تعامل AI چت چقدر آسان است.
هنگامی که شرکت های بیشتر و بیشتر شروع به استفاده از چکمه های چت می کنند ، باید با بررسی این مکالمات برای نقص ایمنی احتمالی ، به طور مرتب و محرمانه باقی بمانند ، به خصوص اگر سابقه چت بتواند دارای اطلاعات دقیق باشد.
دنبال کردن راهنمای تام در Google News در انتشارات خود برای به دست آوردن اخبار روزانه ما ، چگونه TOS و بررسی ها. حتماً روی دکمه ردیابی کلیک کنید.



