مطالعه جدید نشان می دهد که تست های امنیتی هوش مصنوعی عمیقاً ناقص هستند. در اینجا این است که چرا این می تواند یک مشکل بزرگ باشد.

یک مطالعه جدید در مورد روش آزمایش مدل های رایج هوش مصنوعی به نتایج هشداردهنده ای رسیده است.
مطالعه مشترک بین محققان آمریکایی و بریتانیایی دادههای بیش از 440 معیار مورد استفاده برای سنجش توانایی هوش مصنوعی در حل مشکلات و تعیین پارامترهای امنیتی را بررسی کرد. این تست ها نقص هایی را گزارش کردند که قابلیت اطمینان این مدل ها را تضعیف می کند.
بر اساس این تحقیق، نقص ها به این دلیل به وجود می آیند که این معیارها بر اساس تعاریف مبهم یا روش های تحلیلی ضعیف ساخته شده اند. این امر ارزیابی دقیق قابلیت های مدل یا پیشرفت هوش مصنوعی را دشوار می کند.
این برای هوش مصنوعی چه معنایی دارد؟
امنیت مدل های هوش مصنوعی موضوعی است که مدتی است مورد بحث قرار گرفته است. در گذشته، شرکت هایی مانند OpenAI و گوگل مدل های خود را بدون تکمیل گزارش های امنیتی منتشر کردند.
در جاهای دیگر، مدلها پس از کسب امتیاز بالا در مجموعهای از تستهای بنچمارک عرضه شدند، اما پس از عرضه عمومی شکست خوردند.
گوگل اخیراً یکی از جدیدترین مدلهای خود به نام گاما را پس از مشکلات مشابه در گذشته، از جمله ادعاهای نادرست درباره یک سناتور آمریکایی و تئوریهای توهم توهم گروک xAI، کنار کشید.
راه حل چیست؟
این مطالعه توسط محققان دانشگاه کالیفرنیا، برکلی و دانشگاه آکسفورد در بریتانیا انجام شد. این تیم هشت توصیه برای شرکتهای هوش مصنوعی ارائه کرد تا به مسائلی که مطرح کردند رسیدگی کنند:
- شناسایی و جداسازی کنید: ارائه یک تعریف دقیق و عملیاتی برای مفهوم مورد سنجش و کنترل عوامل نامربوط.
- نظرات نماینده ایجاد کنید: مطمئن شوید که آیتم های آزمایشی شرایط دنیای واقعی را نشان می دهند و دامنه کامل مهارت یا رفتار هدف را پوشش می دهند.
- تقویت تحلیل و توجیه: استفاده از روش های آماری برای گزارش عدم قطعیت و ارائه مقایسه های قوی. انجام تجزیه و تحلیل دقیق خطا برای درک دلیل شکست یک مدل؛ و توجیه کنید که چرا معیار معیاری معتبر برای هدف مورد نظر است.
آنها همچنین چک لیستی ارائه کردند که مقایسه کنندگان می توانند از آن برای آزمایش مناسب بودن آزمون های خود استفاده کنند.
زمان نشان خواهد داد که آیا شرکت های هوش مصنوعی به این توصیه ها توجه خواهند کرد یا خیر.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



