گروک ایلان ماسک در حال تولید تصاویر جنسی جنسی از زنان واقعی در X است و منتقدان می گویند این کار آزار و اذیت توسط هوش مصنوعی است.

Grok، چت ربات هوش مصنوعی توسعه یافته توسط ایلان ماسک، پس از اینکه کاربران متوجه شدند که می تواند تصاویر جنسی زنانه واقعی (اغلب بدون هیچ نشانه ای از رضایت) را با استفاده از اعلان های ساده فریبنده مانند “تغییر لباس” یا “تنظیم ژست” ایجاد کند، با واکنش های شدید روبه رو شده است.
این جنجال در این هفته زمانی شروع شد که ده ها کاربر شروع به مستندسازی مواردی در X کردند که نشان می داد گروک عکس های معمولی را به نسخه های آشکارا جنسی تبدیل می کند. در یکی از نمونههای “رام” که به طور گسترده به اشتراک گذاشته شده است، عکسی از مومو، عضو گروه کی پاپ TWICE تغییر داده شد تا او را در حالی که تصویر اصلی غیرجنسی است، در حالی که بیکینی پوشیده است، به تصویر میکشد.
ظاهراً صدها، احتمالاً هزاران نمونه مشابه وجود دارد. Copyleaks، یک پلت فرم تشخیص و مدیریت رسانه دستکاری شده با هوش مصنوعی
من جریان کلی تصویر گروک را دنبال می کنم. بسیاری از این تصاویر زنانی را نشان میدهند که هرگز نسخه اصلی را پست نکردهاند و نگرانیهای جدی در مورد رضایت، بهرهکشی و آزار و اذیت مبتنی بر هوش مصنوعی ایجاد میکنند.
به گفته کپی لیکس، به نظر می رسد این روند چند روز پیش آغاز شده است، زمانی که سازندگان محتوای بزرگسالان گروک را تشویق کردند تا نسخه های جنسی عکس های خود را در X به عنوان نوعی بازاریابی تولید کند.
اما این خط تقریباً بلافاصله رد شد. کاربران به زودی شروع به صدور همان هشدارها به زنانی کردند که هرگز رضایت جنسی نداشتند، از جمله شخصیت های عمومی و افراد خصوصی. چیزی که به عنوان بازنمایی رضایتآمیز از خود آغاز شد، به سرعت به چیزی تبدیل شد که منتقدان آن را تولید حجمی تصویر جنسی غیررضایتی توصیف میکنند.
ایجاد تصاویر هوش مصنوعی برهنه از افراد بدون رضایت آنها واقعاً بسیار غیرقانونی است … چرا ما این را عادی می کنیم؟ یک کاربر X نوشته است.
کپی لیکس الگوی نگران کننده ای پیدا می کند
جای تعجب نیست که واکنش سریع و خشمگینانه بود. کاربران در سراسر
برخی اظهار داشتند که اعتقادی به وجود این ویژگی ندارند. دیگران این سوال را مطرح کردند که چرا هیچ کنترل مجوز معنیداری، مکانیسمهای انصراف یا نردههای محافظ برای جلوگیری از سوء استفاده وجود ندارد.
بر این اساس X گفت: “با ادامه پیشرفت در هوش مصنوعی، xAI همچنان به امنیت متعهد است.”
با این حال، برخلاف ابزارهای سنتی ویرایش تصویر مانند Nano Banana یا ChatGPT Images، خروجیهای Grok فوراً توسط پلتفرم اجتماعی ایجاد میشوند و در بین عموم توزیع میشوند. این باعث میشود آسیب احتمالی سریعتر، گستردهتر و برگشت آن دشوارتر شود.
در پاسخ به نگرانی فزاینده، کپی لیکس اوایل امروز یک بررسی مشاهداتی از برگه عکس عمومی Grok انجام داد. این شرکت در طول دوره بررسی میزان تولید تصاویر جنسی جنسی بدون رضایت را تقریباً یک در دقیقه دریافت کرد.
آلون یامین، مدیرعامل و یکی از بنیانگذاران Copyleaks میگوید: «وقتی سیستمهای هوش مصنوعی اجازه دستکاری تصاویر افراد واقعی را بدون رضایت صریح میدهند، تأثیر آن میتواند فوری و عمیقاً شخصی باشد. از Sora تا Grok، ما شاهد افزایش سریع قابلیتهای هوش مصنوعی برای رسانههای دستکاری شده هستیم. اکنون بیش از هر زمان دیگری به شناسایی و مدیریت نیاز است.
Copyleaks اخیراً یک آشکارساز تصویر دستکاری شده با هوش مصنوعی را راه اندازی کرده است که برای پرچم گذاری تصاویر تغییر یافته یا تولید شده طراحی شده است. این شرکت میگوید که این فناوری با قدرتمندتر شدن و در دسترستر شدن ابزارهای تولیدی حیاتی خواهد بود.
پاسخ تولید شده توسط هوش مصنوعی Grok
ممنون که این را مطرح کردید همانطور که گفته شد، ما نقصهایی را در تدابیر امنیتی شناسایی کردهایم و در حال اصلاح فوری آنها هستیم. CSAM غیرقانونی و ممنوع است. برای گزارشهای رسمی، از CyberTipline FBI در https://t.co/EGLrhFD3U6 یا NCMEC در https://t.co/dm9H5VYqkb استفاده کنید. xAI متعهد به جلوگیری از چنین شرایطی است…2 ژانویه 2026
در یک پاسخ عمومی، Grok (هوش مصنوعی، نه انسان) اذعان کرد که سیستم نمایش آن در جلوگیری از محتوای ممنوعه شکست خورده است و گفت که فوراً در حال رفع شکافهای موجود در اقدامات امنیتی خود است.
علاوه بر این، این شرکت تاکید کرد که مطالب سوء استفاده جنسی از کودکان غیرقانونی و غیرقانونی است و به کاربران دستور داد که چنین محتوایی را به FBI یا مرکز ملی کودکان گمشده و استثمار شده گزارش دهند. گروک گفت که xAI متعهد به جلوگیری از چنین سوء استفاده هایی در آینده است.
این فیلم هنوز در زمان گزارش قابل مشاهده بود.
در نتیجه
گروک همیشه مشتاق بوده است که هوش مصنوعی را حتی بیشتر از این پیش ببرد. و عدم توجه مسئولانه به طیف وسیع سنی در بستر رسانه های اجتماعی. این یک بار دیگر بر الگوی گستردهتری در استقرار مولد هوش مصنوعی تأکید میکند: ویژگیها به سرعت منتشر میشوند، در حالی که اقدامات امنیتی، حاکمیت و پیادهسازی عقب ماندهاند.
همانطور که مدل های تصویر و ویدئو به طور فزاینده ای واقعی می شوند، خطرات دستکاری غیر توافقی با آنها افزایش می یابد. به خصوص زمانی که ابزارها در بسترهای اجتماعی عظیم با توزیع داخلی ساخته می شوند.
بدون حمایتهای قوی، رسانههای دستکاری شده همچنان برای آزار، سوء استفاده و بیاعتبار کردن مورد استفاده قرار خواهند گرفت.
در حال حاضر، فید بصری Grok همچنان عمومی است و سؤالات مربوط به مسئولیت، رضایت و مسئولیت را بی پاسخ می گذارد.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.
اطلاعات بیشتر از راهنمای تام



