هوش مصنوعی

OpenAI به مدل‌های هوش مصنوعی آموزش می‌دهد که وقتی دچار توهم می‌شوند «اعتراف» کنند – این در واقع به چه معناست:

OpenAI می خواهد که نسل بعدی مدل های هوش مصنوعی خطاهای خود را با وضوح بیشتری آشکار کند. با توجه به اینکه ChatGPT در حدود 25 درصد مواقع نادرست است، به نظر می رسد که این ویژگی مدت هاست دیر شده است. اما شرکت آنها را برای آگاهی بیشتر آموزش نمی دهد. آنها را آموزش می دهد تا اشکالات را مستقیماً گزارش کنند.

این هفته، OpenAI تحقیق جدیدی را در مورد تکنیکی که آن را “اعتراف” می نامد منتشر کرد. این روشی است که یک کانال خروجی دوم را به یک مدل اضافه می کند، جایی که به طور خاص آموزش داده می شود تا توضیح دهد که آیا از قوانین پیروی می کند، کجا کوتاهی کرده یا ممکن است توهم داشته باشد، و با چه عدم قطعیت هایی در طول کار مواجه شده است.

پروین میرمیران

پروین میرمیران، نویسنده و متخصص در حوزه هوش مصنوعی با بیش از 5 سال تجربه در نگارش مقالات تخصصی، آموزشی و پژوهشی است. او به عنوان یک انسان علاقه‌مند به یادگیری و پیشرفت، همواره به دنبال به‌روزترین مطالب و روش‌های کاربردی در زمینه هوش مصنوعی است. با توانایی برجسته در تحلیل داده‌ها و ارائه راهکارهای نوین، پروین میرمیران توانسته است به عنوان یک متخصص معتبر در این زمینه شناخته شود. به عنوان یک نویسنده حرفه‌ای، پروین میرمیران تمام تلاش خود را به کاربرمحوری و ارائه محتوای ارزشمند برای خوانندگان متمرکز کرده است. او با استفاده از زبان ساده و قابل فهم، مطالب پیچیده هوش مصنوعی را به شکلی دست‌نخورده و قابل فهم برای عموم مخاطبان خود تبدیل می‌کند.
دکمه بازگشت به بالا