هیئت نظارت از قوانین “ناکافی” دیپ جعلی متا انتقاد می کند و خواستار بازنگری کامل هوش مصنوعی است.

یک گروه ناظر قدرتمند هشدار می دهد که ویدیوهای تولید شده توسط هوش مصنوعی به قدری آسان در سراسر پلتفرم های متا پخش می شوند که تشخیص آنها برای کاربران به طور فزاینده ای دشوار می شود. در حالی که ویدیوهای سرگرمکنندهتر و بیگناهتر از گربههای تولید شده توسط هوش مصنوعی که در اطراف فید شما شناور هستند، به راحتی قابل تشخیص هستند، مشاهده سایر ویدیوها چندان آسان نیست.
در تصمیمی جدید، هیئت نظارت از این شرکت خواست تا سیاستها و ابزارهای تشخیص خود را در برابر محتوای تولید شده توسط هوش مصنوعی، بهویژه ویدیوهای واقعی واقعی که میتوانند اطلاعات نادرست را در جریان رویدادهای بزرگ جهانی منتشر کنند، تقویت کند.
ادامه مقاله در زیر
طبق گفته هیئت مدیره، رویکرد فعلی متا به شدت به کاربرانی که محتوای تولید شده توسط هوش مصنوعی را برچسب گذاری می کنند، متکی است. سیستمی که به راحتی میتواند زمانی که ویدیوهای گمراهکننده ویروسی میشوند، قبل از اینکه ناظران آنها را بگیرند، از کار بیفتد.
چرا تشخیص دیپ فیک به طور فزاینده ای دشوار می شود؟
پیشرفتها در هوش مصنوعی مولد، ایجاد ویدیو، صدا و تصاویر واقعی را که در نگاه اول معتبر به نظر میرسند، بسیار آسانتر کرده است.
ابزارهای ویدئویی هوش مصنوعی مدرن اکنون می توانند تصاویری با نورپردازی متقاعد کننده، حرکت و هماهنگ سازی صدا ایجاد کنند. با توسعه این ابزارها، مرز بین رسانه های معتبر و مصنوعی به طور فزاینده ای محو می شود.
این یکی از مواردی است که کارشناسان را نگران کرده است.
وقتی ویدیوهای هوش مصنوعی بسیار واقعی در طول جنگها، بلایا یا انتخابات پخش میشوند، میتوانند به سرعت درک عمومی را قبل از اینکه حقیقتسنجی زمان لازم برای پاسخگویی داشته باشند، شکل دهند.
هیئت مدیره هشدار داد که سیاستهای فعلی عمدتاً با هدف اطلاعات غلط سنتی است و نه موج جدید رسانههای هوش مصنوعی بسیار متقاعدکننده. به همین دلیل است که چندین تغییر برای کاهش سرعت انتشار رسانه های گمراه کننده هوش مصنوعی ارائه شده است:
- قوانین واضح تری را به طور خاص برای محتوای تولید شده توسط هوش مصنوعی ایجاد کنید
- بهبود ابزارهای تشخیص خودکار برای دیپ فیک
- رسانه های تولید شده با هوش مصنوعی را واضح تر برچسب گذاری کنید
- استانداردهای صنعتی مانند Content Credentials را بپذیرید که می تواند نشان دهد رسانه با استفاده از هوش مصنوعی ایجاد شده یا اصلاح شده است
در نتیجه
متا تنها پلتفرمی نیست که با این مشکل سروکار دارد. با ابزارهای ایجاد ویدیوی هوش مصنوعی مانند Gemini، Grok و Sora که به صورت رایگان در دسترس هستند، هر کسی که دستگاهی داشته باشد اکنون میتواند در عرض چند دقیقه ویدیوهای واقعی بسازد.
برای کاربران، این چالش میتواند حتی سختتر شود: ویدیوی ویروسی بعدی که آنلاین میبینید ممکن است واقعی به نظر برسد، حتی اگر اینطور نباشد. اگر مطمئن نیستید، از چت رباتهایی مانند Gemini استفاده کنید، که میتواند وقوع هوش مصنوعی را تشخیص دهد یا با Deep Probing منبع ویدیو را عمیقتر کند. محتاط بودن و انجام بررسی های لازم یکی از بهترین راه ها برای جلوگیری از گول خوردن دیپ فیک است.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



