نحوه تشخیص ویدیوهای واقعی افزایش ICE در مینیاپولیس از دیپ فیک های هوش مصنوعی – 5 نکته مهم

با ظهور فعالیتهای اجرایی مهاجرت فدرال مرتبط با عملیات مترو Surge در مینیاپولیس، رسانههای اجتماعی مملو از ترکیبی از فیلمهای صحنه جرم واقعی و تصاویر و ویدیوهای بسیار واقعی تولید شده توسط هوش مصنوعی شدند.
متأسفانه، تشخیص اینکه واقعاً در یک ابزار ایجاد ویدیوی هوش مصنوعی که هر کسی می تواند با پلتفرم هایی مانند Grok، Veo 3.2 و Sora بسازد، به طور فزاینده ای دشوار می شود.
باید اعتراف کنم، حتی من ویدیوهایی را به اشتراک گذاشته ام که فکر می کردم واقعی هستند. گفتن این می تواند بسیار دشوار باشد؛ به همین دلیل است که محققان و بررسیکنندگان حقایق هشدار دادهاند که دیپفیکهای قانعکننده مرتبط با این رویدادها به سرعت در پلتفرمهایی مانند X، TikTok و فیسبوک پخش میشوند و گاهی اوقات میلیونها بازدید را قبل از افشاگری به دست میآورند.
اگر میخواهید آنچه را آنلاین میبینید درک کنید، در اینجا پنج راه عملی برای تشخیص محتوای ایجاد شده یا دستکاری شده توسط هوش مصنوعی وجود دارد.
1. حرکات عجیب، نور یا فیزیک
یکی از رایج ترین جنبه های ویدیوهای هوش مصنوعی «عجیب بودن» بصری ظریف است. این اثر دره غیرعادی است که توسط افرادی ایجاد میشود که به روشهای کمی غیرطبیعی حرکت میکنند، اندامهایی که سفت یا کج به نظر میرسند، یا سایههایی که دقیقاً با منبع نور مطابقت ندارند. تشخیص این عیب ها در نگاه اول ممکن است دشوار باشد، اما آنها یک پرچم قرمز کلاسیک دیپ جعلی هستند.
صداهای موجود در ویدیوها تأثیر مشابهی با صداهای تقریباً از راه دور دارند، حتی اگر ویدیو در نمای نزدیک باشد.
2. متن عجیب یا غیرقابل خواندن در پس زمینه

هوش مصنوعی اغلب با متن واقع گرایانه دست و پنجه نرم می کند. اگر علائم خیابانی، نشانها، یونیفرمها یا برچسبهایی را میبینید که املای اشتباه، تار یا بیمعنی دارند، این یک سرنخ قوی است که نشان میدهد ممکن است تصویر یا ویدیو به جای فیلمبرداری ایجاد شده باشد. بسیاری از کلیپ های ویروسی در مورد مینیاپولیس قبلاً دقیقاً به همین دلیل پرچم گذاری شده اند.
همچنین ممکن است متوجه موقعیتهایی مانند باز شدن درهای خودرو در جهت اشتباه، تعداد بیش از حد دستگیره درها یا عدم وجود آرم روی خودرو شوید.

برخی از دیپ فیک ها همچنان دارای واترمارک های ظریف (یا نه چندان ظریف) از ابزارهای هوش مصنوعی مورد استفاده برای ایجاد آنها هستند. اگر روی یک کلیپ لوگو، نام تجاری ضعیف یا برچسب های هوش مصنوعی می بینید، این نشانه واضحی است که نشان می دهد کلیپ از یک دوربین واقعی نشات نمی گیرد.
اما این موارد همیشه قابل مشاهده نیستند، زیرا گاهی اوقات کاربران شبکه های اجتماعی شکلک یا متنی را روی این واترمارک ها اضافه می کنند یا حتی آنها را به طور کامل برش می دهند.
4. منابع موثق وجود ندارد

مراقب پست هایی باشید که ادعاهای دراماتیک دارند اما به یک سازمان خبری، خبرنگار یا منبع رسمی تایید شده پیوند ندارند. سازندگان Deepfake اغلب تصاویر گمراهکننده را با زیرنویسهای احساسی جفت میکنند تا اشتراکگذاریها را به حداکثر برسانند، حتی اگر خود تصاویر جعلی باشند.
همچنین میتوانید یک اسکرین شات از پست بگیرید، آن را مستقیماً در ChatGPT آپلود کنید و از آن بخواهید منبع تصویر را پیدا کند. اغلب ChatGPT میتواند در حین اشتراکگذاری متن اصلی، آنچه را که تصویر به آن اشاره میکند، بیابد.
5. عدم رعایت گزارش های تایید شده
اگر منابع خبری معتبر قبلاً فیلم تایید شده ای از یک صحنه منتشر کرده اند، آنچه را که می بینید با آن کلیپ ها مقایسه کنید. ویدئوهای تغییر یافته با هوش مصنوعی ممکن است در نگاه اول مشابه به نظر برسند، اما بررسی دقیقتر اغلب ناهماهنگیها را در زوایا، افراد، زمانبندی یا محیط اطراف نشان میدهد.
نکته پاداش: به دنبال تاییدیه های متعدد باشید

قبل از اینکه یک کلیپ ویروسی را باور کنید یا به اشتراک بگذارید، بررسی کنید که آیا حداقل دو سازمان خبری معتبر به طور مستقل آن را تأیید کرده اند یا خیر. اگر نمی توانید تأیید قابل اعتمادی پیدا کنید، بهتر است تصور کنید که تصاویر ممکن است دستکاری شده باشند.
در نتیجه
دیپ فیک می تواند سوابق عمومی را مخدوش کند، شواهد واقعی شاهدان عینی را سرکوب کند و درک وقایع آشکار را دشوارتر کند. با ادامه پیشرفت ابزارهای هوش مصنوعی، جدا کردن واقعیت از داستان دشوارتر می شود. بنابراین، توسعه دیدگاه انتقادی بیش از هر زمان دیگری اهمیت دارد.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



