متا سیستم های “ریسک بحرانی” را که برای توسعه بسیار خطرناک هستند ، می پذیرد – این همان است
مانترا داخلی متا ، حداقل تا سال 2014 (وقتی هنوز فیس بوک است) ، “حرکت سریع و شکستن چیزی” بود. بیش از یک دهه ، سرعت توسعه Rapid و AI این شرکت را قادر می سازد تا کمی کار را تجدید نظر کند.
یک سند خط مشی جدید که توسط TechCrunch مشخص شده است نشان می دهد که متا یک رویکرد تحریک کننده تر را نشان می دهد. این شرکت سناریویی را تنظیم کرده است که در آن سیستم های “ریسک بالا” یا “ریسک بحرانی” بسیار خطرناک هستند تا در موارد فعلی برای عموم آزاد شوند.
چنین سیستمهایی غالباً حاوی هرگونه ENI هستند که می تواند به امنیت سایبری یا حملات جنگ بیولوژیکی کمک کند. در سند سیاست ، کالا به ویژه به هوش مصنوعی اشاره دارد ، که می تواند به ایجاد نتایج فاجعه کمک کند. [that] غیر قابل فشار [a] زمینه توزیع توصیه شده. “
این شرکت می گوید: “این چارچوب AI مرزی توضیح می دهد که چگونه متا برای ارزیابی و کاهش خطرات و ایجاد یک هوش مصنوعی پیشرفته ، از جمله ایجاد آستانه برای خطرات فاجعه ، کار می کند.”
بنابراین ، اگر یک سیستم چنین تهدیدی را ایجاد کند ، او چه خواهد کرد؟ در حالت اول ، این شرکت می گوید که دسترسی به آن را محدود می کند و تا زمانی که کاهش یابد ، خطر را کاهش نمی دهد ، خطر را آزاد نمی کند.
اگر همه چیز جدی تر شود ، اگر وارد منطقه “ریسک بحرانی” شوند ، کالاها توسعه را به طور کامل متوقف می کنند و اقدامات ایمنی را برای متوقف کردن اکتشاف در بازار گسترده تر هوش مصنوعی انجام می دهند: “دسترسی کاملاً محدود به تعداد کمی از متخصصان است. محافظت برای جلوگیری از سوء استفاده.
ایمنی منبع باز
تصمیم متا برای انتشار این چارچوب جدید برای توسعه هوش مصنوعی ، پاسخی به افزایش ابزارهای هوش مصنوعی باز است که احتمالاً صنعت را تقویت می کند. سکوی چینی Deepseek در چند هفته گذشته مانند یک سورتمه کش ، به دنیای هوش مصنوعی برخورد کرده است و اقدامات کمی دارد (ظاهراً).
مانند Deepseek ، مدل Llama 3.2 خود متا را می توان توسط دیگران برای ایجاد ابزارهای هوش مصنوعی استفاده کرد که از کتابخانه داده های گسترده ای که در آن از میلیاردها فیس بوک و اینستاگرام آموزش دیده است ، استفاده می کند.
متا می گوید تا زمانی که AI به پیشرفت خود ادامه دهد ، او در صورت لزوم قاب خود را تجدید نظر و به روز می کند.
گواهی متا گفت: “ما انتظار داریم چارچوب خود را به عنوان درک جمعی از چگونگی اندازه گیری و کاهش خطر فاجعه احتمالی مرزی ، از جمله بازیگران دولتی به روز کنیم.”
“این ممکن است شامل افزودن ، لغو یا به روزرسانی نتایج فاجعه یا سناریوهای تهدید یا تغییر روشهای آماده سازی برای ارزیابی مدل ها باشد.”