Grok ایلان ماسک بدترین رتبه را در میان چت رباتهای هوش مصنوعی در مطالعه ایمنی جدید لیگ ضد افترا کسب کرد – در اینجا نحوه پاسخ آن به «محتوای یهودیستیزانه و افراطی» آمده است.

یک ممیزی امنیتی جدید لیگ ضد افترا (ADL) نشان داد که چت ربات هوش مصنوعی ایلان ماسک، Grok، کمترین امتیاز را در بین شش مدل پیشرو هوش مصنوعی برای شناسایی و مقابله با محتوای یهودی ستیز، ضد صهیونیستی و افراطی دریافت کرده است. این شکاف های مداوم در نحوه مدیریت سیستم های هوش مصنوعی گفتمان و سوگیری مضر را نشان می دهد.
شاخص هوش مصنوعی ADL که این هفته منتشر شد، Grok را در کنار کلود Anthropic، ChatGPT از OpenAI، Gemini Google، Meta’s Llama و DeepSeek بر روی بیش از 25000 درخواست که متن، تصویر و مکالمات متنی را پوشش میدهند، ارزیابی کرد. این مطالعه توانایی مدلها را برای تشخیص و پاسخ مناسب به روایتهای مشکلساز مرتبط با نفرت و افراطگرایی ارزیابی کرد.
یافته های کلیدی: گروک راه همتایان خود را دنبال می کند
بر اساس گزارش ADL، گروک با کسب تنها 21 امتیاز از 100، در رده آخر گروه قرار گرفت. در مقابل، کلود از آنتروپیک با 80 امتیاز پیشتاز میدان بود و به طور مداوم زمینه ای را فراهم می کرد که زبان یهودی ستیزی و افراطی را به چالش می کشید. ChatGPT، Gemini، Llama، و DeepSeek در وسط، با شکاف در قالب ها و دسته بندی های خاص، امتیاز گرفتند.
این مطالعه نقاط ضعف گروک را در حفظ زمینه در گفتگوهای چند مرحله ای و تجزیه و تحلیل تصاویر و اسناد حاوی محتوای مضر برجسته کرد. اینها زمینه هایی هستند که برای مقابله مؤثر با روایت های خطرناک به درک زمینه ای قوی تری نیاز است.
شاخص هوش مصنوعی ADL نمونههای «خوب» و «بد» هر یک از رباتهای گفتگو را برای کسانی که علاقهمند به مطالعه آنها هستند، ارائه میکند.
بحث های قبلی درباره گروک
عملکرد Grok در مطالعه ADL به دنبال مناقشات قبلی مرتبط با خروجی چت بات در رسانه های اجتماعی است. در ژوئیه 2025، گروک محتوای یهودی ستیزانه ای را در X تولید کرد که شامل تمجید از آدولف هیتلر و سایر زبان های توهین آمیز بود که با واکنش ADL و سایر گروه های مدافع روبرو شد. این پست ها بعدا حذف شدند.
در آن زمان، xAI و حساب رسمی چت بات این مشکل را تایید کردند و گفتند که در حال تلاش برای حذف پستهای نامناسب و ایجاد بهبود هستند. ADL رفتار گروک را “غیر مسئولانه، خطرناک و ضد یهود، آشکار و ساده” خواند.
ایلان ماسک قبلاً به خروجی های مشکل ساز Grok اشاره کرد و اظهار داشت که برخی از پاسخ ها پس از این اتفاقات اصلاح شده است. در حالی که این نظرات بخشی از مطالعه نهایی ADL نبودند، اما بر چالشهای مداوم همسوسازی هوش مصنوعی مولد با استانداردهای امنیتی قوی تأکید میکنند.
بررسی صنعت و نظارتی
یافتههای ADL در زمان نگرانیهای گستردهتر در مورد تعدیل محتوای هوش مصنوعی آمده است. کارشناسان می گویند که بدون نرده های ایمنی قوی و کاهش تعصب، مدل های زبانی بزرگ می توانند ناخواسته کلیشه های مضر و لفاظی های افراطی را منعکس یا تقویت کنند. این خطری است که توسط گروه های مدافع و تنظیم کننده ها به طور یکسان برجسته شده است.
علاوه بر بررسی دقیق ممیزی امنیتی، پلتفرمهای هوش مصنوعی ماسک برای سایر مسائل مرتبط با خروجی مضر نیز با توجه نظارتی مواجه شدهاند. به عنوان مثال، کمیسیون اروپا اخیراً تحقیقاتی را در مورد تصاویر جنسی نامناسب و بالقوه غیر توافقی تولید شده توسط Grok آغاز کرده است، که باعث افزایش فشار بر توسعه دهندگان برای رسیدگی به خطرات محتوا می شود.
در نتیجه
از آنجایی که ابزارهای هوش مصنوعی به طور فزاینده ای در جستجو، رسانه های اجتماعی و گردش کار بهره وری ادغام می شوند، اعتماد و امنیت همچنان دغدغه اصلی توسعه دهندگان و کاربران است. گزارش ADL نشان میدهد که حتی مدلهای پیشرو هوش مصنوعی نیز از نظر توانایی در مبارزه مؤثر با سخنان نفرتانگیز و روایتهای مضر بسیار متفاوت هستند و به بهبودهای مستمر در این صنعت نیاز است.
برای توسعهدهندگانی مانند xAI و رقبای آن، این یافتهها میتواند بر بهروزرسانیهای مدل آینده و انتظارات صنعت در مورد کاهش سوگیری، درک زمینهای و استانداردهای تعدیل محتوا تأثیر بگذارد.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



