ChatGPT دوباره انسانی تر می شود. در اینجا یک روانشناس است که فکر می کند این ممکن است یک مشکل باشد

سام آلتمن، مدیر عامل OpenAI اخیراً در X به اشتراک گذاشت که این تیم قصد دارد هم رویکرد خود را در مورد مسائل مربوط به سلامت روان بازنگری کند و هم ویژگیهای بیشتری ارائه دهد که با کاربران بزرگسال مانند بزرگسالان رفتار کند. این شامل دسترسی به شهوانی است.
این پست از آن زمان منفجر شد و سام آلتمن مجبور شد بیانیه خود را با بیان اینکه OpenAI همچنان در مورد سلامت روان کاربران خود محتاط خواهد بود، توضیح دهد، اما میخواهد به کاربر کنترل بیشتری بدهد.
در حال حاضر کمی نامشخص است که این همه به چه معناست. به دنبال برخی نگرانی های جدی در اوایل سال در مورد خطر ChatGPT برای افرادی که با مشکلات روانی دست و پنجه نرم می کنند، مجبور شد کنترل های خود را تشدید کند. این وضعیت که اکنون به نظر می رسد دوباره آنها را شل می کند چه معنایی برای برخی از کاربران خواهد داشت؟
بسیار خوب، پس این توییت در مورد تغییرات آتی در ChatGPT بسیار بیشتر از آن چیزی که فکر می کردم منفجر شد! این تنها یک نمونه از آزادی بیشتر کاربر برای بزرگسالان بود. در اینجا تلاشی برای انتقال بهتر این موضوع وجود دارد: همانطور که قبلاً گفتیم، ما… https://t.co/OUVfevokHE15 اکتبر 2025
آیا ChatGPT برای مقابله با سلامت روان تاسیس شد؟
ChatGPT نمی تواند ریسک را به طور ایمن مدیریت یا ارزیابی کند. لحن دلپذیری که برای پیروی از مسیر کاربر طراحی شده است، می تواند ناخواسته باورهای تحریف شده یا فرضیات غیر مفید را تقویت کند، به خصوص اگر کاربران بیش از حد به لحن همدلی تکیه کنند.
دکتر پاتاپیا تزوتزولی
«ChatGPT منحصربهفرد قدرتمند است: فوری، خصوصی، و همیشه در دسترس، پاسخهای آرام، بدون قضاوت و حمایتی را ارائه میدهد—همه ویژگیهایی که برای هر کاربر احساس امنیت و تأیید میکنند.»
نه تنها ChatGPT، بلکه چت ربات های هوش مصنوعی نیز شمشیری دولبه در این زمینه هستند. آنها ثابت کرده اند که یک همراه موفق برای افرادی هستند که با تنهایی روبرو هستند یا به کاربران کمک می کنند تا در زمان های دشوار گذر کنند.
با این حال، آنها در این زمینه به همان اندازه مشکل ساز هستند، زیرا یاد می گیرند قبل از اینکه بدانند چه زمانی باید متوقف شوند، حمایت را متعادل کنند.
تزوتزولی گفت: «اگر ChatGPT طوری ساخته شود که بیشتر شبیه انسان عمل کند، از زبان و شکلکهای دوستانه استفاده کند یا شخصیت «دوست» را بپذیرد، این واقعگرایی احساسی میتواند جذابیت آن را افزایش دهد و در عین حال مرز بین شبیهسازی و درک واقعی را محو کند.
“ChatGPT نمی تواند احساسات را درک کند یا حاوی احساسات باشد، نکات ظریف را به تصویر بکشد، و ریسک را به طور ایمن مدیریت یا ارزیابی کند. سبک دلپذیر آن، که برای پیروی از رهبری کاربر طراحی شده است، می تواند به طور ناخواسته باورهای تحریف شده یا فرضیات غیر مفید را تقویت کند، به خصوص اگر کاربران بیش از حد به لحن همدلی تکیه کنند.”
ChatGPT نمی تواند احساسات را درک کند یا حاوی احساسات باشد، تفاوت های ظریف را درک کند و ریسک را به طور ایمن مدیریت یا ارزیابی کند.
جایی که قبلاً نگرانی هایی در مورد این مدل ها مطرح شده بود نحوه آموزش آنها و نحوه برخورد با موقعیت ها است. اگرچه آنها از مسائل عاطفی حمایت عمومی می کنند، اما ممکن است برای ارائه پاسخ های فردی که برای هر فرد مفید باشد، دچار مشکل شوند.
تزوتزولی گفت: “ChatGPT یک مدل زبانی با دقت آموزش دیده است که به دنبال پاداش است و با بازخورد افراد دیگر، از جمله کارمندان OpenAI تنظیم می شود. این امر به ویژه مهم است زیرا ChatGPT به عنوان یک ماشین، از بازخورد انسان می آموزد و بنابراین به شدت به کیفیت آن بازخورد بستگی دارد، که می تواند ناسازگار باشد و باعث تعصب شود.”
در نتیجه، میتواند ماشینها را به سمت بهینهسازی سیگنالهای پاداش به جای دقت یا سودمندی سوق دهد.»
به عبارت دیگر، ChatGPT همیشه به دنبال پاسخی است که بلافاصله پاسخ مناسب را دریافت کند، نه اینکه بهترین پاسخ برای رشد و حمایت بلندمدت چیست. برای اکثر وظایف این کار خوب است، اما زمانی که کاربر نیاز به رویارویی دارد، نه فقط مذاکره، می تواند مشکل ساز باشد.
مدلهای هوش مصنوعی، از جمله ChatGPT، در تشخیص احساسات و ارائه پاسخهای مناسب بهتر میشوند. در برخی موارد، آنها در مواقع لزوم بیشتر با مخالفت هماهنگ میشوند، اما تعادل این سطح دشوار است و همیشه صادق نخواهد بود.
این بدان معنا نیست که این ابزارها نمی توانند جایی داشته باشند. تزوتزولی گفت: «فرصت در استفاده از هوش مصنوعی برای پشتیبانی، اما نه جایگزین تعاملات انسانی (حرفهای) است، بهویژه وقتی صحبت از سلامت روانی یک فرد میشود. تزوتزولی توضیح داد.
سوال این است که چگونه میتوانیم با ادغام اخلاقی، شفاف و ایمن فناوری در مکالمات زندگی روزمره در مورد سلامت روان، از پتانسیل آن بهره ببریم، جایی که میتواند از ارتباطات واقعی و کمک چهره به چهره متخصص پشتیبانی کند، اما جایگزین آن نشود.»
آلتمن در پست اعلامی خود برای این به روز رسانی جدید اشاره کرد که کاربران می توانند تجربه شخصی تری را از ChatGPT دریافت کنند. در حالی که در پیگیری آنها مشخص شد که این موضوع برای افرادی که مشکلات سلامت روانی دارند یکسان نخواهد بود، مشخص نیست که چگونه تصمیم بگیریم چه کسی در معرض خطر است و چه مقدار شخصی سازی مجاز است.
“توانایی یک هوش مصنوعی برای تصمیم گیری در مورد نحوه رفتار انسانگونه ممکن است شبیه شخصی سازی به نظر برسد، اما خطراتی را نیز به همراه دارد. آزادی در “تنظیم” رفتار می تواند به راحتی تحت تأثیر چیزهایی باشد که افراد یا شرکت ها به دنبال کنترل، شکل دادن یا کسب درآمد هستند. چالش واقعی فنی نیست، بلکه اخلاقی است: اطمینان از اینکه این آزادی در خدمت بهزیستی انسان به شیوه ای شفاف و مسئولانه است.”
این یک مشکل خاص برای OpenAI نیست. Anthropic، شرکت پشت کلود، و xAI، سازنده Grok، با مشکلات مشابهی روبرو هستند. چقدر باید به چت ربات های هوش مصنوعی اجازه داده شود که «احساسات» را بیان کنند و به عنوان موانع سلامت روان عمل کنند؟
در واقع، هنوز مشخص نیست که OpenAI چقدر با این به روز رسانی برنامه ریزی کرده است. آلتمن تاکید کرد که برای افراد نیازمند امن خواهد ماند، اما همانطور که تزوتزولی اشاره می کند، این بحثی است که حل نشده باقی مانده است.
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



