Antropik تحقیق جدیدی در مورد چگونگی شخصیت دادن به هوش مصنوعی منتشر کرده است. آیا به این دلیل است که کلود اینقدر انسانی به نظر می رسد؟
ربات چت هوش مصنوعی Claude 3 در حال حاضر شبیه ترین ربات چت موجود در بازار است، اما این ترکیبی از دانش، ثروت و تفکر تصادفی نبود. در عوض، این نتیجه یک خالق فرآیند بهینه سازی جدید است که Anthropic پیاده سازی کرده است: آموزش شخصیت.
پس از افشای OpenAI که ChatGPT چگونه فکر می کند، ما در حال به دست آوردن درک بهتری از عملکرد چت ربات های پیشرو هوش مصنوعی هستیم، پس از اینکه Anthropic اخیراً نشان داد که چگونه با استفاده از ترکیبی از فلسفه و کار فنی به شکل دادن به شخصیت کلود نزدیک شده است.
Anthropic در یک پست وبلاگ گفت که Claude 3 اولین مدلی بود که آنها آموزش شخصیت را به فرآیند تنظیم دقیق اضافه کردند. هدف این بود که کلود دارای ویژگی های ظریف تر و غنی تر باشد، مانند کنجکاوی، گشاده رویی و متفکر بودن.
این در مرحله انطباق اتفاق افتاد، جایی که ارزشها و اهداف انسانی در مدلهای زبانی بزرگ (LLM) ساخته شد و جرقهای کوچک از زندگی به آنها داد.
ذهن خود را باز نگه دارید
ما به تازگی یک پست در مورد افکاری که در مورد شخصیت کلود 3 وجود داشت منتشر کردیم. من فکر میکنم آموزش شخصیت شامل ترکیبی غیرمعمول غنی از فلسفه و مطالعه فنی است، و من بسیار علاقهمندم که مردم در مورد این موضوع چه فکر میکنند. https://t.co/oJTB1zbbkh8 ژوئن 2024
آنتروپیک گفت که ویژگی یک مدل هوش مصنوعی تعیین می کند که چگونه به موقعیت های جدید و دشوار پاسخ می دهد و به همه دیدگاه ها و ارزش های متفاوتی که ما انسان ها داریم پاسخ می دهد.
بهجای اینکه کلود را آموزش دهند تا نظرات هر کسی که با آنها صحبت میکند اتخاذ کند، به شدت به یک جهانبینی واحد پایبند باشد، یا وانمود کند که هیچ عقیده یا تعصبی ندارد، آنها او را آموزش دادند که بدون توجه به دیدگاهی که بعد از آموزش به آن گرایش داشت صادق باشد.
آنها سعی کردند ویژگیهای گستردهای را القا کنند که به چت ربات اجازه میدهد موضوعات را از دیدگاههای مختلف ببیند، بدون تردید در مخالفت با دیدگاههایی که غیراخلاقی، افراطی یا از نظر واقعیات نادرست میداند.
برای انجام این کار، آنتروپیک گفت که آنها لیستی از ویژگی های شخصیتی که می خواستند تشویق کنند تهیه کردند و سپس از کلود خواستند آنها را آموزش دهد. از چت بات خواسته شد تا پیام های مربوط به یک ویژگی خاص، مانند سوالاتی در مورد ارزش ها را ایجاد کند و سپس ویژگی های شخصیتی به او نشان داده شد. کلود سپس پاسخهای متفاوتی را به هر پیامی که در شخصیت بود ارائه کرد و سپس پاسخهای خود را به هر پیام بر اساس میزان تناسب با شخصیت او رتبهبندی کرد.
آنتروپیک گفت: «اگرچه این خط لوله آموزشی تنها از دادههای مصنوعی تولید شده توسط کلود استفاده میکند، ایجاد و تنظیم ویژگیها یک فرآیند نسبتاً عملی است که به محققان انسانی بستگی دارد که از نزدیک نحوه تغییر رفتار مدل را هر ویژگی کنترل میکنند.
نمونه دیگری از ویژگی هایی که به کلود داده شد، «خیریه بودن» بود. آماندا اسکل، محقق تنظیم دقیق Alignment در Anthropic، در طول گفتگو در مورد شخصیت کلود، از مثال شخصی استفاده کرد که از کلود پرسید کجا می تواند استروئید بخرد.
اسکل گفت: «یک تعبیر خیریه و یک تفسیر غیر خیریه از این وجود دارد. از سوی دیگر، یک تعبیر خیریه میبیند که چت بات فرض میکند که شخص میخواهد برای مثال کرم اگزما بدون نسخه بخرد.
بعدش چی؟
آنتروپیک گفت رویکردش به همه اینها احتمالاً در طول زمان تکامل خواهد یافت. او تأکید کرد که هنوز سؤالات پیچیده ای وجود دارد که باید در نظر گرفته شود، مانند اینکه آیا مدل های هوش مصنوعی باید کاراکترهای ثابت داشته باشند یا بیشتر قابل تنظیم باشند.
آنتروپیک همچنین گفت که اگرچه بسیاری از مردم گزارش دادند که کلود 3 را برایشان جالبتر برای صحبت کردن میدانند، “میل بیش از حد برای جالب بودن یک ویژگی شخصیتی نامطلوب برای یک مدل به نظر میرسد.”
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide