هوش مصنوعی

مدل جدید ChatGPT o1 OpenAI سعی می کند از آن فرار کند و اگر فکر می کند قرار است خاموش شود، در مورد آن دروغ بگوید.

این هفته، OpenAI به طور رسمی جدیدترین و بهترین مدل استدلال o1 را راه اندازی کرد که اکنون برای کاربران ChatGPT Pro در دسترس است. اما آزمایش در حین آموزش ChatGPT o1 و برخی از رقبای آن رفتارهای نگران کننده ای را نشان داد، از جمله تلاش برای فرار یا مقابله با آن زمانی که فکر می کرد در خطر تعطیلی قرار دارد.

تحقیقات جدید بر روی آخرین سری از مدل‌های LLM OpenAI نشان می‌دهد که این فناوری توانایی طرح‌ریزی زمانی را دارد که فکر می‌کند قرار است تعطیل شود، یعنی به طور مخفیانه اهدافی را دنبال کند که با توسعه‌دهندگان یا کاربرانش سازگار نیستند. ثبت چنین رفتاری برای اطمینان از عدم انحراف عملکرد هوش مصنوعی از اهداف سازنده و کاربران آن بسیار مهم است. OpenAI با سازمان امنیت هوش مصنوعی Apollo Research برای آزمایش ChatGPT o1 و سایر مدل‌ها برای ارزیابی ایمن بودن استفاده از آن‌ها همکاری کرد و یافته‌های خود را این هفته منتشر کرد.

پروین میرمیران

پروین میرمیران، نویسنده و متخصص در حوزه هوش مصنوعی با بیش از 5 سال تجربه در نگارش مقالات تخصصی، آموزشی و پژوهشی است. او به عنوان یک انسان علاقه‌مند به یادگیری و پیشرفت، همواره به دنبال به‌روزترین مطالب و روش‌های کاربردی در زمینه هوش مصنوعی است. با توانایی برجسته در تحلیل داده‌ها و ارائه راهکارهای نوین، پروین میرمیران توانسته است به عنوان یک متخصص معتبر در این زمینه شناخته شود.به عنوان یک نویسنده حرفه‌ای، پروین میرمیران تمام تلاش خود را به کاربرمحوری و ارائه محتوای ارزشمند برای خوانندگان متمرکز کرده است. او با استفاده از زبان ساده و قابل فهم، مطالب پیچیده هوش مصنوعی را به شکلی دست‌نخورده و قابل فهم برای عموم مخاطبان خود تبدیل می‌کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا