Slopsquatting: خطای توهم AI را نگران کنید که می تواند نرم افزار مخرب را گسترش دهد

خرابکاری نرم افزار با افزایش محبوبیت کدگذاری هوش مصنوعی به یک سلاح به سرعت قوی در زرادخانه جنایتکار سایبری تبدیل می شود.
مجرمان به جای اضافه کردن نرم افزار مخرب به کدهای سنتی ، از بسته های نرم افزاری Ai-Hallucine و نام کتابخانه برای فریب برنامه نویسان بی دقتی استفاده می کنند.
به شرح زیر است: مدل های هوش مصنوعی ، به ویژه مدل های کوچک ، توهم منظم (Make -up) به طور مرتب هنگام استفاده برای برنامه نویسی.
گونه های مالزی با مهارت های برنامه نویسی ، بازده توهم شده را از این مدل های هوش مصنوعی بررسی کرده و سپس نرم افزارهای مخرب را با همان نام ها ایجاد می کنند.
هنگامی که یک AI دفعه دیگر درخواست بسته جعلی می کند ، نرم افزار مخرب به جای پیام خطا ارائه می شود. در این مرحله ، بدافزار آسیب دیده است زیرا به بخشی یکپارچه از آخرین کد تبدیل می شود.
چرا Slopsquatting اینقدر نگران است؟
پایان گزارش تحقیقاتییک نام بسته منحصر به فرد 205،474 منحصر به فرد ، که 16 مدل بزرگ زبان محبوب مورد استفاده برای تولید کد را ارزیابی می کند.
این نام ها کاملاً داستانی هستند ، اما می توانند توسط مجرمان سایبری به عنوان راهی برای افزودن بدافزار به پروژه های نرم افزاری پایتون و جاوا اسکریپت استفاده شوند.
شاید جای تعجب آور نباشد که متداول ترین مجرمان هوش مصنوعی برای توهم ، به جای استفاده از ابرها ، مدل های منبع باز کوچکتر هستند که توسط متخصصان در رایانه های محلی خود و رمزگذار Vibe Homebrew (کدگذاری از طریق ادعاهای AI) استفاده می شود.
Codellama ، Mistral 7B و OpenChat 7B برخی از مدل های تولید توهم بودند. بدترین مدل Codellama 7B ضمن تولید کد از این طریق ، 25 ٪ توهم را ایجاد کرد.
البته با استفاده از آنچه به عنوان حملات زنجیره تأمین شناخته می شود ، اضافه کردن بدافزار به محصولات نرم افزاری روزانه دارای سابقه طولانی و طبقه ای است.
این آخرین عود از خط نوشتن قبلی ادامه دارد که در آن از نوشتن اشتباه اصطلاحات مشترک برای فریب رمزگذار برای فریب کد بد استفاده می شود.
برنامه نویسان ، که در تاریخ کاربرد هستند ، معمولاً می توانند از کتابخانه ها ، بسته ها و ابزارهایی استفاده کنند که اغلب به طور نادرست نوشته شده و حاوی یک بار مخرب هستند.
یک مشکل در حال توسعه
یکی از اولین نمونه ها استفاده از یک بسته نوشتاری اشتباه به نام “Electorn” ، خم شدن در محصول الکترونی بود که یک قاب کاربردی محبوب است.
این حملات کار می کنند زیرا درصد زیادی از برنامه نویسی برنامه های مدرن شامل بارگیری اجزای آماده شده برای استفاده در این پروژه است.
یک گزارش تحقیقاتی اخیر ، که 16 مدل بزرگ زبان محبوب مورد استفاده برای تولید کد را مورد استفاده قرار می دهد ، 205،474 نام بسته منحصر به فرد توهم یافته را نشان داد.
این مؤلفه ها ، که معمولاً به عنوان اعتیاد شناخته می شوند ، می توانند با یک دستور ساده واحد بارگیری و بارگیری شوند. این امر باعث می شود که از یک تغییر صفحه کلید که به طور تصادفی نام اشتباه را می نامد ، برای یک گناه سایبری ناچیز باشد.
از آنجا که نرم افزار مخرب یکپارچه بسیار نازک است ، ممکن است در محصول یا برنامه نهایی مورد توجه قرار نگیرد.
با این حال ، نتیجه یکسان است – کاربران نامناسب بدافزار را بدون درک و یا دانستن آنچه در زیر برنامه های کاربردی آنها وجود دارد ، ایجاد می کنند.

آنچه باعث می شود ورود AI در این زمینه مشکل ساز تر شود این است که ابزارهای کدگذاری هوش مصنوعی می توانند به طور خودکار به عنوان بخشی از فرآیند برنامه نویسی ، به طور خودکار تقاضا کنند و خواستار اعتیاد شوند.
همه ممکن است کمی تصادفی به نظر برسند ، زیرا اینگونه است ، اما اکنون با حجم برنامه نویسی که به عرصه AI تغییر می یابد ، چنین حملات فرصت طلبانه به میزان قابل توجهی افزایش می یابد.
محققان امنیتی اکنون در تلاش برای کاهش چنین حملات با بهبود توجه آنها ، تنظیم خوب مدل ها هستند.
قبل از ورود به عرصه عمومی ، ابزارهای تأیید بسته بندی جدید که می توانند این نوع توهم را ضبط کنند نیز منتشر می شوند. در ضمن ، رمزگذارهای پیام توجه می کنند.



