OpenAI پس از دریافت زندگی خود ، ابزارهای امنیتی جدید Chatgpt را اضافه می کند – این برای آینده هوش مصنوعی چه معنی دارد؟

یک مورد جدید ، با نگاهی به نقش چتپپ در مرگ یک مرد جوان ، اوپای را تحت فشار قرار داد تا دوباره فکر کند که چگونه چتپپ نگرانی های سلامت روانی را برطرف کرده است.
این شرکت می گوید ویژگی های امنیتی جدیدی را با هدف شناسایی علائم اولیه مشکلات عاطفی ارائه می دهد. تغییراتی که ناشی از پرونده مرگ اشتباه علیه 16 ساله آدام رائین است ، که پس از مذاکرات طولانی با هوش مصنوعی درگذشت.
شما می توانید با تلفن یا متن در سال 988 با خط زندگی خودکشی و بحران در ایالات متحده تماس بگیرید ، می توانید اطلاعات و مشاوره را از طریق سازمان کمک های روانی بخوانید و اگر در انگلستان هستید ، می توانید با ارسال e -post به ساماریان با jo@samaritans.org تماس بگیرید. در انجمن بین المللی پیشگیری از خودکشی ، می توانید جزئیات مربوط به حمایت خود را در کشور خود پیدا کنید.
چه چیزی تغییر می کند
طبق پخش وبلاگ OpenAI ، این شرکت قصد دارد توانایی چتگپ را در شناسایی پیشرو علائم هشدار دهنده احتمالی از مشکلات عاطفی بهبود بخشد ، حتی اگر کاربران به خود آسیب نرسانند.
این به روزرسانی ها ، که انتظار می رود با GPT – 5 منتشر شود ، شامل موارد زیر است:
- مداخله زودهنگام: این کاربران را در مورد کمبود خواب بیش از حد ، حملات جنون یا رفتارهای خطرناک مربوط به قالب های عاطفی ، تکنیک های زمینی و استراحت توصیه می کند.
- اتصالات درمانی: برای برقراری ارتباط مستقیم با متخصصان بهداشت روان قبل از افزایش بحران احتمالی.
- انجمن اجتماعی اضطراری: این امکان را برای کاربران فراهم می کند تا در صورت تشخیص سیگنال های هشدار دهنده ، افراد قابل اعتماد را که می توانند مطلع شوند ، شناسایی کنند.
- کنترل والدین: ارائه ابزارهای جدید برای تماشای استفاده جوان از نگهبانان برای درک بهتر تعامل فرزندانشان با هوش مصنوعی.
این تغییرات نشان دهنده تغییر عظیمی از رویکرد فعلی چتگپ است ، که معمولاً خیلی دیر پاسخ می دهد تا وقتی که فقط یک کاربر به وضوح قصد خودکشی را بیان می کند ، مداخله کند. Openai می گوید هدف این است که نه تنها واکنشی بلکه فعال باشد.
چرا این بروزرسانی بسیار مهم است
این تغییرات به دنبال پرونده ای است که توسط جین و جان راین ارائه شده است ، که به تهیه یک یادداشت خودکشی کمک کرده اند ، که چتپپ افکار خودکشی پسرانش را تأیید می کند ، و حتی به او کمک می کند تا یک یادداشت خودکشی تهیه کند.
خرابی سیستم در طول اعتماد جوانان به مکالمات هوش مصنوعی و طولانی مدت ادعا می شود و در مرکز پرونده قرار دارد.
به روزرسانی های برنامه ریزی شده Openai نشان می دهد که تغییر گسترده تری به سمت پاسخگویی به سلامت روان در هوش مصنوعی وجود دارد. این شرکت می گوید این وسایل نقلیه برای محافظت از کاربران بدون قربانی کردن محرمانه طراحی شده اند ، اما ممکن است کارشناسان نیز به آغاز مقررات در صنعت اشاره کنند.
تصویر بزرگتر
تصمیم اوپای ، که بر نقش نمایندگان و محققان در رونق عاطفی نمایندگان مجلس و محققان متمرکز است ، ممکن است سابقه ای برای کل صنعت باشد.
از آنجا که رقبایی مانند Google و Anthropic با تحقیقات مشابه روبرو هستند ، شرکت ها ممکن است با فشار بیشتری روبرو شوند تا مستقیماً اقدامات امنیتی را برای مدل های AI ایجاد کنند.
آیا این باعث می شود chatgpt ایمن تر شود؟
آنچه به عنوان یک جنگ قانونی آغاز شده است منجر به تغییر قابل توجهی در نحوه برخورد هوش مصنوعی با خطر عاطفی می شود. اگر با موفقیت استفاده شود ، این ویژگی های جدید می توانند چتپ و سایر چت های چت را تغییر دهند تا مسئولیت و ایمن تر حرکت کنند ، به خصوص در مورد سلامت روان.
با این وجود ، سؤالات بزرگ ادامه می یابد. ما نمی توانیم تعجب کنیم که آیا این به روزرسانی ها مطابق آنچه در نظر گرفته شده است ، کار خواهند کرد. و مهمتر از همه ، آیا آنها به موقع به کاربران آسیب پذیر می رسند تا تغییری ایجاد کنند؟ با ادامه پیشرفت AI ، ما فقط می توانیم امیدوار باشیم که اطمینان بیشتری داشته باشیم.
دنبال کردن راهنمای تام در Google News در انتشارات خود برای به دست آوردن اخبار روزانه ما ، چگونه TOS و بررسی ها. حتماً روی دکمه ردیابی کلیک کنید.
بیشتر از راهنمای تام
بازگشت به لپ تاپ ها


