OpenAI با افزایش واقع گرایی محتوای تولید شده توسط هوش مصنوعی، ردیاب دیپ فیک را راه اندازی می کند
بر کسی پوشیده نیست که محتوای تولید شده توسط هوش مصنوعی نحوه تعامل مردم با دنیای دیجیتال را تغییر می دهد. با این حال، این خطرات را به همراه دارد، زیرا افراد به دلایل بالقوه مخرب، تصاویر و ویدیوها را ایجاد می کنند. و اکنون OpenAI می گوید که قصد دارد به این مشکل رسیدگی کند.
OpenAI در روز سهشنبه، 7 مه، ابزار تشخیص تصویر جدیدی را راهاندازی کرد که به افراد کمک میکند تشخیص دهند که آیا یک تصویر توسط ابزار رندر DALL-E 3 ایجاد شده است یا بدون کمک هوش مصنوعی ایجاد شده است. علاوه بر این، OpenAI این ابزار را با استفاده از پلتفرم خود در اختیار تعداد محدودی از آزمایشکنندگان قرار میدهد تا بتوانند ویژگی تشخیص تصویر را در برنامههای خود ادغام کنند.
OpenAI در یک پست وبلاگی گفت که ابزار آن قادر است تشخیص دهد که یک تصویر در حدود 98 درصد موارد با هوش مصنوعی تولید شده است و در 0.5 درصد موارد فقط مکانهای نادرست را برمیگرداند (تشخیص تصویر واقعی به عنوان ایجاد شده توسط هوش مصنوعی).
اعلام این ابزار جدید همراه با تأیید این موضوع است که OpenAI در حال ادغام ابردادهها در تصاویر و ویدیوهای تولید شده توسط کاربر با ابزارهای DALL-E 3 و Sora است. اما همانطور که OpenAI اذعان می کند، با کمی دانش، عوامل مخرب می توانند این ابرداده را حذف کرده و ابزار را حتی بیشتر ضروری کنند.
دیپفیکها یا محتوایی که بهطور مصنوعی ساخته شدهاند تا کاربران را فریب دهند تا تصور کنند ساختهی دست بشر است، به یک مشکل نگرانکننده در اینترنت تبدیل شدهاند. با توجه بیشتر و بیشتر مردم به هوش مصنوعی برای ایجاد فیلم ها، تصاویر و ضبط های صوتی جعلی، به سرعت مشخص می شود که تأیید صحت محتوا بسیار مهم است.
در حالی که ابزار جدید OpenAI گامی در مسیر درست است، اما مطمئناً نوشدارویی نیست. در حالی که ظاهراً به خوبی کار می کند، فقط روی تصاویر ایجاد شده با DALL-E 3 آموزش داده می شود. به عبارت دیگر، اگر بازیگران بد، تصاویری را در دیگر تولیدکنندگان تصویر هوش مصنوعی ایجاد کنند، هیچ تضمینی وجود ندارد که ابزار OpenAI نیز کار کند. البته اگه کار کنه در حالی که OpenAI عملکرد تشخیص تصویر خود را تبلیغ می کند، همچنین شایان ذکر است که تشخیص ویدیوهای دیپ فیک که برای فریب دادن کاربران طراحی شده اند ممکن است بسیار دشوارتر باشد.
با این حال، حداقل OpenAI در حال انجام کاری است. در دنیایی که بازیگران بد سعی می کنند کاربران را فریب دهند، شرکت هایی مانند OpenAI باید راه هایی برای محافظت از کاربران بیابند، در غیر این صورت واقعیت ممکن است قربانی هوش مصنوعی شود.
بر این اساس، OpenAI نیز روز سه شنبه گفت که به کمیته راهبری ائتلاف برای اثبات و اصالت محتوا (C2Pa)، یک استاندارد پرکاربرد که محتوای دیجیتال را تأیید می کند، پیوسته است.
OpenAI دقیقاً نگفت که چگونه این امر بر C2PA تأثیر می گذارد، اما گفت: “به دنبال کمک به توسعه استاندارد است و ما این را جنبه مهمی از رویکرد خود می بینیم.”
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide