متا در اولین کارت امتیازی ایمنی هوش مصنوعی F دریافت می کند، دیگران به سختی موفق می شوند
همانطور که هوش مصنوعی در حال تکامل است، واضح است که نظارت لازم است. اکثر آزمایشگاههای هوش مصنوعی آشکارا از مقررات پشتیبانی میکنند و دسترسی به مدلهای لبه را برای ارزیابی مستقل قبل از انتشار فراهم میکنند. اما آنها می توانند کارهای بیشتری انجام دهند.
دنیا برای حل انواع مشکلات به هوش مصنوعی روی میآورد، اما بدون نظارت صحیح همیشه میتواند مشکلات بیشتری ایجاد کند.
Future of Life برای آزمایشگاه های هوش مصنوعی مختلف، از جمله OpenAI، Meta، Anthropic و xAI Elon Musk، یک گزارش کار تهیه کرده است. شاخص ایمنی هوش مصنوعی یک بررسی مستقل است که 42 شاخص “رفتار مسئولانه” را بررسی می کند.
این گزارش بر اساس این شاخصها به هر شرکت نمرهای میدهد و متا که از طریق خانواده Llama بر مدلهای AI منبع باز تمرکز دارد، F میگیرد.
آمارهای نگران کننده ای برای بزرگترین شرکت های هوش مصنوعی در شاخص امنیت هوش مصنوعی وجود دارد
شرکت | یادداشت عمومی | هدف | ارزیابی ریسک | زیان های جاری | چارچوب های امنیتی | استراتژی امنیت وجودی | حاکمیت و پاسخگویی | شفافیت و ارتباطات |
---|---|---|---|---|---|---|---|---|
انسان گرا | سی. | 2.13 | C+ | ب- | d+ | d+ | C+ | d+ |
Google DeepMind | d+ | 1.55 | سی. | C+ | د- | D. | d+ | D. |
OpenAI | d+ | 1.32 | سی. | d+ | د- | د- | d+ | د- |
Zhipu A.I. | D. | 1.11 | d+ | d+ | اف | اف | D. | سی. |
x.AI | د- | 0.75 | اف | D. | اف | اف | اف | سی. |
متا | اف | 0.65 | d+ | D. | اف | اف | د- | اف |
منبع: موسسه آینده زندگی
رتبه بندی: سیستم معدل ایالات متحده برای مرزهای کلاس: A+، A، A-، B+، […]اف
این پانل شامل تعدادی از چهره های برجسته آموزش و پرورش و اندیشکده ها برای بررسی نحوه عملکرد شرکت های هوش مصنوعی است و نتایج اولیه نگران کننده است.
این گزارش با بررسی Anthropic، Google DeepMind، Meta، OpenAI، x.AI و Zhipu AI، “شکاف های قابل توجهی در اقدامات امنیتی و نیاز جدی به پاسخگویی بهتر را نشان داد.”
بر اساس اولین گزارش کارت، متا کمترین امتیاز را دارد (x.AI خیلی عقب نیست)، در حالی که آنتروپیک در صدر قرار دارد اما همچنان فقط C می گیرد.
مشخص شد که تمام مدلهای پرچمدار «آسیبپذیر در برابر حمله دشمن» هستند و همچنین دارای پتانسیل ناامن بودن و قطع ارتباط با کنترل انسان هستند.
شاید دردناک ترین بخش گزارش این باشد: “بازبینان به طور مداوم تاکید کردند که شرکت ها قادر به مقاومت در برابر انگیزه های سود محور برای کاهش امنیت در غیاب نظارت مستقل نیستند.”
در حالی که ساختارهای حاکمیتی فعلی و اولیه OpenAI آنتروپیک به عنوان امیدوارکننده تاکید شده بود، کارشناسان خواستار تأیید شخص ثالث ارزیابی ریسک و انطباق با چارچوب امنیتی در همه شرکتها شدند.
به طور خلاصه، این همان نوع نظارت و پاسخگویی است که ما باید قبل از اینکه خیلی دیر شود، در صنعت نوظهور هوش مصنوعی ببینیم. هرچه مدلها قویتر باشند، آسیبهای واقعیتر است.