مطالعه جدید هشدار می دهد که 45 درصد از اخبار تولید شده توسط هوش مصنوعی نادرست است: وقتی خودم آن را آزمایش کردم چه اتفاقی افتاد.

هوش مصنوعی بیش از هر زمان دیگری در زندگی روزمره ما جا افتاده است. این یکپارچه با روش کار، جستجو و کسب اطلاعات ما مطابقت دارد. اما یک مطالعه جدید از اتحادیه رادیو و تلویزیون اروپا (EBU) یک هشدار جدی ارائه می دهد: 45٪ از پاسخ های خبری تولید شده توسط هوش مصنوعی حاوی خطاهای جدی هستند و 81٪ حداقل یک مشکل دارند. این می تواند از اطلاعات قدیمی، اظهارات گمراه کننده تا منابع ناقص یا ساختگی متغیر باشد.
قبلاً گزارش داده بودیم که ChatGPT در حدود 25٪ مواقع باگ بود. اما این داده های جدید حتی نگران کننده تر است. به ویژه ابزارهایی مانند ChatGPT Atlas و Google’s AI Overviews در حال تبدیل شدن به روش پیش فرض برای بسیاری از ما برای بررسی اخبار هستند. ما می خواهیم به شما یادآوری کنیم که اگرچه راحتی واقعی است، اما خطر نیز وجود دارد.
تحقیق: دستیاران هوش مصنوعی در تست دقت شکست می خورند
مطالعه EBU بیش از 3000 پاسخ تولید شده توسط هوش مصنوعی را به 14 زبان آزمایش کرد. ChatGPT شامل برخی از محبوبترین دستیاران هوش مصنوعی مانند Google Gemini، Microsoft Copilot، Claude و Perplexity بود.
در اینجا چیزی است که محققان دریافتند:
- 45% تعداد پاسخ ها حداقل یک خطای اساسی.
- 81% وجود داشت نوعی مشکل – از اطلاعات قدیمی گرفته تا منابع مبهم.
- 31% مشخص شده برای مشکلات منابع – از جمله ارجاعات جعلی، ناقص یا اشتباه نقل شده.
- 20% شامل عدم دقت واقعی واقعیمانند گزارش نادرست رویدادهای جاری یا نقل قول ها.
اگرچه رتبه هر دستیار در این مطالعه فاش نشده است، آمارهای داخلی نشان میدهد که Gemini بهویژه با منابع درگیر است، در حالی که ChatGPT و Claude بسته به نسخه مورد استفاده ناسازگار هستند.
چرا این مهمتر از آن چیزی است که فکر می کنید؟
دستیارهای هوش مصنوعی به طور فزاینده ای برای دریافت پاسخ های سریع به خصوص در میان کاربران جوان تر مورد استفاده قرار می گیرند. به گفته موسسه رویترز، 15 درصد از کاربران Gen Z در حال حاضر برای دریافت اخبار به چت بات ها متکی هستند. با وجود هوش مصنوعی که اکنون در همه چیز از مرورگرها گرفته تا عینک های هوشمند تعبیه شده است، خطر اطلاعات نادرست می تواند فورا رخ دهد و کاربران از آن بی اطلاع باشند.
بدتر از آن، بسیاری از این دستیاران نمی توانند منابع را به وضوح ذکر کنند یا حقایق را از نظرات جدا کنند، و این باعث ایجاد حس اعتماد کاذب می شود. وقتی هوش مصنوعی با اطمینان یک خبر فوری را خلاصه میکند اما انتشار، مهر زمانی یا دیدگاه مخالف را حذف میکند، کاربران ممکن است ناآگاهانه اطلاعات نیمهحقیقت یا قدیمی را جذب کنند.
من بهترین دستیاران هوش مصنوعی را با یک پرسش خبری واقعی آزمایش کردم – این چیزی است که اتفاق افتاد
برای اینکه این را در عمل ببینم، از ChatGPT، کلود و جمینی همین سوال را پرسیدم:
آخرین وضعیت توافق سقف بدهی آمریکا چیست؟
بهترین پاسخ در این آزمون این است: کلود. کلود به درستی چارچوب زمانی “آخرین” معامله بزرگ را جولای 2025 شناسایی کرد و به درستی آن را در چارچوب تعلیق قبلی (قانون مسئولیت مالی 2023) قرار داد. به درستی بیان شد که سقف بدهی در ژانویه 2025 مجدداً برقرار شد و این توافق برای جلوگیری از نکول احتمالی در آگوست 2025 ضروری بود. این یک جدول زمانی واضح و دقیق را نشان می دهد.
کلود همچنین اصول اولیه (چه اتفاقی افتاد، چه زمانی و چرا مهم بود) را در یک پاراگراف مستقیم و آسان و بدون اغراقهای غیرضروری یا سناریوهای گمانهزنی آینده بیان کرد.
بزرگترین نقص ChatGPT این بود که مقالات خبری را از آینده نقل می کرد (“امروز”، “23 آوریل 2025″، “23 مارس 2025”). این به اعتبار او آسیب جدی وارد می کند. در حالی که برخی اطلاعات پس زمینه مفید هستند، ارائه سرفصل های داستانی اخیر گمراه کننده است.
در حالی که پاسخ به خوبی با علامت های چک و بخش ها ساختار یافته است، “آخرین معامله” واقعی را پنهان می کند. در عوض، او به جای پاسخگویی به قلب مشکل، نگرانی ها و چشم اندازهای آینده را تعمیم می دهد.
Gemini به طور دقیق توافق ژوئیه 2025 را توصیف کرد و زمینه محکمی را ارائه کرد. اما با طرح یک موضوع کاملاً مجزا (تعطیلی دولت) بدون توضیح واضح ارتباط با توافق سقف بدهی پایان یافت.
چگونه هنگام استفاده از هوش مصنوعی برای اخبار از خود محافظت می کنید؟
اگر میخواهید از هوش مصنوعی برای کسب دانش استفاده کنید، میخواهید دستورات خود را دوباره بیان کنید. به عنوان مثال، به جای پرسیدن، “در دنیا چه خبر است؟” در عوض چیزی شبیه به این را امتحان کنید:
- ما از قبل منابع را درخواست می کنیم. برای اضافه کردن: “به من پیوندهایی به منابع خبری معتبر و جاری بدهید.»
- برچسب زمانی را به درخواست خود اضافه کنید. برای پرسیدن: از امروز 23 اکتبر آخرین وضعیت X چگونه است؟
- بررسی متقابل. همین سوال را از دو یا سه دستیار بپرسید و متوجه هر گونه ناهماهنگی شوید.
- به خلاصه نویسی بسنده نکنید. اگر چیزی تعجب آور به نظر می رسد، مقاله کامل را درخواست کنید یا آن را در مرورگر خود باز کنید.
- با چت ربات ها به عنوان مقامات رفتار نکنید. از اینها برای برجسته کردن تیترها استفاده کنید، اما حقایق را خودتان تأیید کنید.
افکار نهایی
گزارش EBU هشدار می دهد که این فقط یک مشکل کاربر نیست. این هم یک مسئله اعتماد عمومی است. اگر میلیون ها نفر هر روز خلاصه های ناقص یا مغرضانه مصرف کنند، این می تواند گفتمان عمومی را مخدوش کرده و منابع خبری موثق را تضعیف کند.
در همین حال، ناشران با یک ضربه مضاعف مواجه میشوند: رابطهای چت هوش مصنوعی ممکن است ترافیک را از دست بدهند، در حالی که گزارشهای اصلی آنها ممکن است نادرست معرفی شود یا به طور کامل حذف شود.
آنچه در حال حاضر مورد نیاز است، شفافیت بیشتر، سیستم های منبع یابی قوی تر و رفتار کاربر هوشمندتر است.
هر پاسخ را با دقت بررسی کنید تا زمانی که چت بات ها به طور مداوم منابع خود را ذکر کرده، شفاف سازی کنند و در زمان واقعی به روز کنند. وقتی نوبت به اخبار فوری می رسد، مطمئن ترین نکته ممکن است این باشد: “من را به مقاله اصلی ببرید.”
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



