یک کلید ایمنی XAI می تواند داده های شما را در معرض خطر قرار دهد – چه اتفاقی افتاده است

بنا بر گزارش ها ، یک کارمند دولت فدرال یک کلید ظریف API از سکوی XAI Elon Musk را به بیرون درز کرده است و ممکن است تأثیرات جدی بر آینده امنیت ملی و توسعه هوش مصنوعی داشته باشد.
براساس گزارشی از TechRadar ، یک توسعه دهنده نرم افزار 25 ساله Marko Elez ، یک بخش بهره وری دولت (DOGE) ، به طور تصادفی اطلاعات هویت XAI را در هنگام کار روی سناریویی با عنوان Agent.py بارگذاری کرد.
این سوئیچ حداقل به 52 مدل بزرگ زبان از XAI دسترسی پیدا کرده است ، از جمله آخرین نسخه Grok (GOK-4-0709) ، یک مدل کلاس GPT-4 ، که برخی از پیشرفته ترین خدمات هوش مصنوعی MUSK را تقویت می کند.
اطلاعات هویت در معرض ، کنترل دسترسی ، ایمنی داده ها و افزایش استفاده در سیستم های دولتی ایالات متحده ، مدتی است که فعال بوده است.
چرا این مهم است
ELEZ ، وزارت دادگستری ، مدیریت امنیت داخلی و تأمین اجتماعی ، مانند آژانس هایی که توسط آژانس ها مورد استفاده قرار می گرفت ، دارای باز بودن سطح بالا و دسترسی به بانکهای اطلاعاتی حساس بودند.
اگر اطلاعات هویت XAI قبل از لغو مورد سوءاستفاده قرار گرفته است ، می تواند درهای سوءاستفاده از مدل های زبان قدرتمند را از خراش داده های ویژه گرفته تا تقلید از وسایل نقلیه داخلی باز کند.
این رویداد مجموعه ای از تورهای امنیتی در مورد Dogge را دنبال می کند و به یک گروه کر انتقاد در مورد چگونگی آژانس می افزاید. تحت تأثیر افزایش بهره وری دولت الون مسک ، ضمانت های داخلی را مدیریت می کند.
آنچه درز شد

سوئیچ نشت شده در یک انبار Github متعلق به Elez به خاک سپرده شد و به عموم مردم اعلام شد.
این دسترسی به عقب به بسته مدل XAI ، از جمله GOK-4 بدون محدودیت قابل توجهی در استفاده ، فراهم کرد.
محققانی که این نشت را کشف کردند ، قبل از برداشتن انبار ، قادر به تأیید اعتبار خود بودند ، اما نه قبل از حکاکی دیگران.
آخرین مدل های Grok نه تنها برای خدمات عمومی مانند X (که قبلاً توییتر) بلکه در قراردادهای فدرال Musk نیز استفاده می شود.
این بدان معنی است که نشت API ممکن است سطح بالقوه ای را در سیستم های تجاری و دولتی ایجاد کند.
بزرگتر از فقط یک سوئیچ

این یک نشانه هشدار دهنده است که حتی کسانی که توسط دولت از داخل دولت نگهداری می شوند به راحتی با قدرت فوق العاده ای اداره می شوند.
فیلیپ کاترلی ، CTO شرکت امنیت سایبری Selys ، به TechRadar گفت: “اگر یک توسعه دهنده نتواند یک کلید اصلی API را حفظ کند ، او سؤالاتی را در مورد چگونگی برخورد با اطلاعات بسیار حساس دولت در پشت درهای بسته نشان می دهد.”
Elez در بحث های قبلی Dogan ، از جمله رفتار نامناسب رسانه های اجتماعی و پروتکل های امنیت سایبری ، از جمله جهل قابل توجه شرکت کرد.
دور کردن
براساس گزارش ها ، XAI در طول نوشتن بیانیه ای بیان نکرد و سوئیچ API درز شده به طور رسمی لغو نشده است. از این پس ، XAI این کلید را غیرفعال نکرد ، که آن را به یک نگرانی ثابت امنیتی تبدیل کرد.
در همین حال ، مقامات و ناظران دولتی خواستار نظارت بهتر بر همکاری های فناوری ، از جمله سیاست های دقیق تر مدیریت اطلاعات هویت و زیرساخت های هوش مصنوعی بالا هستند.
اگرچه این تخلف بلافاصله روی کاربر متوسط تأثیر نمی گذارد ، اما بر یک مشکل گسترده تر تأکید می کند: خطوط به طور فزاینده ای بین توسعه هوش مصنوعی عمومی و خصوصی و شفافیت ، پاسخگویی و بهداشت داده بهتر در هر دو بخش.
در حال حاضر ، بسته اصلی این است: هرچه سیستم های هوش مصنوعی قوی تر می شوند ، افراد پشت سر آنها باید حتی بیشتر مراقب باشند. همانطور که قبلاً دیدیم ، بارگذاری بی دقتی می تواند دنیای خطر را باز کند.
دنبال کردن راهنمای تام در Google News در انتشارات خود برای به دست آوردن اخبار روزانه ما ، چگونه TOS و بررسی ها. حتماً روی دکمه ردیابی کلیک کنید.
بیشتر از راهنمای تام
بازگشت به لپ تاپ ها



