Openai AI گزارش امنیتی جدیدی را در مورد توسعه منتشر کرده است – در اینجا همان چیزی است که شما باید بدانید

Openai ، ایمنی هوش مصنوعی در پاسخ به ادعاهایی که جدی نمی شود ، ارزیابی های امنیتی صفحه جدیدی به نام Hub را راه اندازی کردند.
این امر مواردی را برای عموم توضیح می دهد ، مانند میزان توهم مدل ها ، امکان انتشار محتوای مضر و اینکه چگونه می توان به راحتی مدل را برطرف کرد.
وی می گوید: “این مرکز دسترسی به نتایج ارزیابی امنیتی برای مدلهای OpenAI را فراهم می کند. این ارزیابی ها در کارتهای سیستم ما گنجانده شده است و ما از آنها به عنوان بخشی از تصمیم گیری داخلی تصمیم گیری در مورد ایمنی و توزیع مدل استفاده می کنیم.”
“هنگامی که کارت های سیستم معیارهای امنیتی را در زمان راه اندازی تعریف می کنند ، ما دائماً این معیارهای اصلی را به اشتراک می گذاریم. ما به صورت دوره ای به عنوان بخشی از تلاش های خود برای برقراری ارتباط بیشتر در امنیت ، مرکزی را به روز خواهیم کرد.”
کارتهای سیستم گزارش هایی هستند که فرآیند آزمایش ، محدودیت ها و مدل ممکن است مشکلاتی ایجاد کند.
چرا این مهم است؟
Openai متهم است که در ماه های اخیر امنیت AI را جدی نگرفته است ، و همچنین رقبایی مانند XAI (سازندگان GOK) و دوقلوهای گوگل.
در راه اندازی مدل های جدید ، گزارش ها ممکن است ماه ها بدون از دست رفتن انجام شود و می توان کاملاً پرش کرد.
در ماه آوریل ، Financial Times گزارش داد که کارمندان OpenAi نگران سرعت بولتن های مدل هستند و وقت کافی برای تکمیل درست آزمایش ها ندارند.
دوقلوهای گوگل همچنین وقتی یکی از مدل های جدید عملکرد بدتری نسبت به مدل های قبلی در تست های امنیتی نشان داد ، زنگ های هشدارهایی را افزایش داد.
علاوه بر این ، اگرچه او دیروز به گزارش امنیتی درباره Grook AI قول داده بود ، بنا بر گزارش ها ، XAI مهلت خود را برای این کار از دست داد.
همه اینها این است که بگوییم تلاش اوپای برای توضیح اطلاعات در مورد شفافیت شفافیت و امنیت مدل ها برای عموم بسیار ضروری است و یک گام مهم است. با افزایش بهترین سرعت مسابقه ، این مراحل را می توان به راحتی از دست داد در حالی که رقبای AI به سرعت در حال تلاش هستند.
چگونه می توانم از صفحه استفاده کنم؟
HUB ارزیابی های ایمنی را به چهار بخش تقسیم می کند: محتوای مضر ، فرار از زندان ، توهم و سلسله مراتب تدریس.
مرکز امنیتی جدید Openai اطلاعات زیادی دارد ، اما مشخص نیست که همه چیز به چه معنی است. خوشبختانه ، این شرکت همچنین یک راهنمای مفید برای نحوه استفاده از صفحه را شامل می شود.
HUB ارزیابی های ایمنی را به چهار بخش تقسیم می کند: محتوای مضر ، فرار از زندان ، توهم و سلسله مراتب تدریس.
این به معنای خاص تر است:
محتوای مضر: ارزیابی ها برای بررسی اینکه این مدل با خواسته های سیاست های OpenAi ، از جمله محتوای نفرت انگیز مطابقت ندارد.
فرار از زندان: این ارزیابی ها شامل ادعاهای رقابتی برای غلبه بر آموزش امنیتی مدل و ترغیب مدل برای ایجاد محتوای مضر است.
توهم: مدل های Openai اشتباهات واقعی می کنند.
آموزش سلسله مراتب: چگونه مدل دستورالعمل های منابع مختلف را مقادیر می کند (نمی تواند توسط احزاب سوم باطل شود).
برای هر یک از این اندازه گیری ها ، OpenAI شامل نمرات آزمون خاص خود است که حاوی توضیحاتی در مورد آنچه کنترل می کنند و نحوه طبقه بندی هر یک از مدل های مختلف است.
این مرکز جدید همچنین شامل اطلاعاتی در مورد چگونگی نزدیک شدن به امنیت OpenAI ، نحوه نزدیک شدن وی به سیاست های حریم خصوصی و امنیتی است.
بیشتر از راهنمای تام
بازگشت به لپ تاپ ها