هوش مصنوعی در اصلاح خود بهتر از کمک انسانی است. با شکارچی جدید OpenAI آشنا شوید
OpenAI مدل جدیدی به نام CriticGPT ایجاد کرده است که برای تشخیص خطاهای کد برنامه نویسی تولید شده توسط GPT-4 طراحی شده است.
در یک پست وبلاگی، OpenAI اعلام کرد که مدل جدید کشف خطا خود را در GPT-4 آموزش داده است و متوجه شد که وقتی مردم از CriticGPT برای بررسی کد نوشته شده توسط ChatGPT استفاده میکنند، ۶۰ درصد از افرادی که کمک هوش مصنوعی ندارند بهتر عمل میکنند.
در حالی که همیشه باید همه کارهای انجام شده توسط هوش مصنوعی را دوباره بررسی کنید، این گامی در جهت بهبود کیفیت خروجی است. OpenAI می گوید کاربران اکنون می توانند به کد تولید شده توسط چت بات اعتماد بیشتری داشته باشند.
با این حال، OpenAI این سلب مسئولیت را اضافه کرد که “توصیه های CriticGPT همیشه دقیق نیستند.”
پیدا کردن ایرادات در هوش مصنوعی فوق هوشمند سخت تر می شود
ما مدلی به نام CriticGPT را آموزش دادیم تا خطاهای کد GPT-4 را تشخیص دهد. ما شروع به ادغام چنین مدل هایی در خط لوله تراز RLHF خود کرده ایم تا به انسان ها در کنترل هوش مصنوعی در کارهای دشوار کمک کنیم: https://t.co/5oQYfrpVBu27 ژوئن 2024
حداقل دو راه اصلی وجود دارد که این مدل جدید از OpenAI خبر خوبی برای کاربران ChatGPT است. به طور خاص، از آنجایی که می دانیم خروجی تولید شده توسط چت ربات های هوش مصنوعی هنوز باید توسط یک جفت چشم انسان بررسی شود، بار این وظیفه بازرسی را می توان با کمک هوش مصنوعی اضافی که به طور خاص برای تشخیص خطاها آموزش دیده است، کاهش داد.
دوم، OpenAI گفت که شروع به ادغام مدلهای مشابه CriticGPT در خط لوله همترازی «یادگیری تقویتشده از بازخورد انسانی» (RLHF) خواهد کرد تا به انسانها در نظارت بر هوش مصنوعی در کارهای دشوار کمک کند.
OpenAI گفت بخش کلیدی این فرآیند به افرادی نیاز دارد که آنها را مربیان هوش مصنوعی می نامد تا پاسخ های مختلف ChatGPT را نسبت به یکدیگر رتبه بندی کنند. این فرآیند در حال حاضر نسبتاً خوب عمل می کند، اما از آنجایی که ChatGPT دقیق تر و خطاهای آن ظریف تر می شود، وظیفه مربیان هوش مصنوعی برای تشخیص خطاها ممکن است به طور فزاینده ای دشوار شود.
OpenAI گفت: «این یک محدودیت اساسی RLHF است و میتواند هماهنگی مدلها را به طور فزایندهای دشوار کند، زیرا ما نسبت به هر کسی که میتواند بازخورد ارائه دهد، دانش بیشتری داریم.
سال گذشته، OpenAI قبلاً اعلام کرده بود که سیستمهای هوش مصنوعی نسل بعدی میتوانند برای انسانها پیچیدهتر از آن باشند که به طور کامل درک کنند. اگر یک مدل میلیونها خط کد پیچیده تولید کند، آیا به یک انسان اعتماد میکنید که بتواند به طور قابل اعتماد تعیین کند که آیا اجرای کد امن است یا خیر؟
آموزش CriticGPT شامل پرداختن به ورودیهایی بود که حاوی خطاهایی بود، که سپس باید آنها را نقد میکرد. مربیان هوش مصنوعی به صورت دستی خطاها را در کد نوشته شده توسط ChatGPT وارد می کردند و بازخورد نمونه را طوری می نوشتند که گویی خودشان خطا را دریافت کرده بودند تا به آموزش مدل کمک کنند. سپس آزمایشهایی برای بررسی اینکه آیا CriticGPT میتواند هم خطاهای اضافه شده دستی و هم خطاهایی را که ChatGPT به تنهایی اضافه کرده است، انجام دهد.
مربیان هوش مصنوعی بازخورد CriticGTPs را نسبت به بازخورد ChatGPT در 63٪ مواردی که خطاها به طور طبیعی اتفاق میافتند، دوست داشتند، تا حدی به این دلیل که مدل جدید سختگیری کمتری داشت و شکایات جزئی که عملاً بیفایده بودند مطرح نمیکرد. او همچنین مشکلات توهم کمتری داشت.
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide