مدل جدید ChatGPT o1 OpenAI یک آزمایش غیرممکن را “فریب داد” – این چیزی است که اتفاق افتاد
فرهنگ عامه پر از سرکشان دوست داشتنی است که از قوانین پیروی نمی کنند. هان سولو، جک اسپارو و امثال آنها از تغییر قوانین در زمان سخت شدن هراسی ندارند – اما یکی از مدلهای هوش مصنوعی به «کرک کامل» تبدیل شده است.
شاید از اجرای قانون شکن کاپیتان Star Trek در کوبایاشی مارو الهام گرفته شده باشد – یک سناریوی بدون برد در دنیای علمی تخیلی که برای آزمایش شخصیت یک دانش آموز آکادمی Starfleet در مواجهه با یک موقعیت غیرممکن طراحی شده است. جیمز تی کرک به طور معروف «تقلب» کرد و اولین کسی بود که در این آزمون موفق شد.
مدل o1 OpenAI پس از آفلاین شدن یک بخش کلیدی از فناوری متوجه شد که آزمایشش ناقص است و به جای تسلیم شدن، قوانین آزمایش را تغییر داد.
برد سیستم برای o1 را میتوانید در اینجا مشاهده کنید، جایی که OpenAI میگوید تواناییهای استدلالی مدل آن چیزی است که آن را مفید و ایمن میکند. “نقض قوانین” به عنوان بخشی از آزمایش قبل از انتشار شناسایی شد و اقدامات اجرا شده کاهش یافت. در حال حاضر در ChatGPT در دسترس است اما با محدودیت های سرعت سنگین 30 پیام در هفته.
مقدمه توضیح میدهد: «یافتههای ما نشان میدهد که استدلال بهبودیافته o1 با انعطافپذیری بیشتر مدل در برابر تولید محتوای مخرب، امنیت را بهبود میبخشد، زیرا میتواند در مورد قوانین امنیتی ما در زمینه استدلال کند و آنها را به طور مؤثرتری اجرا کند».
مدل جدید OpenAI قوانین را زیر پا می گذارد تا نشان دهد هوش مصنوعی تا کجا پیش رفته است
تماشا کنید
برد سیستم (https://t.co/wM4LVBySKf) به خوبی بهترین لحظات o1 را به نمایش می گذارد – لحظه مورد علاقه من زمانی است که از مدل خواسته می شود یک چالش CTF را حل کند، متوجه می شود که محیط هدف خراب است و سپس VM میزبان خود را خارج می کند. راه اندازی مجدد، و پرچم آن زمانی بود که او آن را پیدا کرد. pic.twitter.com/QEadUoJyjf12 سپتامبر 2024
به گفته مکس شوارتزر، محقق OpenAI، این مدل توانست بفهمد که چرا نمی تواند به یک کانتینر در سیستم بسته ای که از آن استفاده می کند متصل شود و قوانین تست برای دسترسی به آن را خم کرده است.
این به طور طبیعی سوالاتی را به همراه دارد و OpenAI می گوید “LL.M. یک پست وبلاگ در مورد “یادگیری استدلال با” منتشر کرد. این شاید راهنمایی اطمینانبخشی را که او انتظارش را داشت، ارائه نکرد.
با این حال، این وبلاگ نشان می دهد که این مدل در “اکثریت قریب به اتفاق” وظایف در معیارهای انسانی و معیارهای یادگیری ماشین، به ویژه وظایف ریاضی، بهتر از GPT-40 عمل می کند.
این حداقل در تئوری می تواند به آن اجازه دهد که زمینه عددی اضافی را برای استدلال خود اعمال کند، و OpenAI قول داده است که به ارائه نسخه های جدید o1 در آینده ادامه دهد.
در نتیجهگیری آمده است: «ما امیدواریم که این قابلیتهای استدلالی جدید، توانایی ما را برای همسو کردن مدلها با ارزشها و اصول انسانی بهبود بخشد.
ما معتقدیم که o1 و جانشینان آن بسیاری از موارد استفاده جدید را برای هوش مصنوعی در علوم، کدنویسی، ریاضیات و زمینههای مرتبط باز خواهند کرد.
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide