والدین ، اوپای ، که گفته می شود در خودکشی جوان Chatgpt شرکت کرده است

chatgpt می تواند امروز با انجام بهره وری و کارهای خودمختار ، وقت خود را صرفه جویی کند. حتی برای Gene Z به عنوان یک مربی زندگی سالم پشتیبانی می کند. با به روزرسانی ها و ویژگی های اخیر ، تصور زندگی بدون آن دشوار است.
اما برای یک خانواده سانفرانسیسکو ، زندگی ای که از دست دادن پسر 16 ساله خود را نادیده می گیرد هرگز یکسان نخواهد بود چون او
آدام راین ، یک کالیفرنیای 16 ساله ، که در 11 آوریل درگذشت ، علیه دادگاه عالی سانفرانسیسکو علیه اوپای و مدیرعامل چتگپت و مدیر عامل شرکت چتپپ پرونده تشکیل داد و ادعا کرد که چتگپ در مرگ غم انگیز پسرانش نقش اساسی دارد.
این پرونده چه ادعا می کند
طبق شکایت 40 صفحه ای که توسط NBC News به دست آمده است ، این مرد برای چند ماه اعتماد به نفس بیشتر و بیشتر به حمایت شخصی اعتماد داشت و در این میان وی به افکار خودکشی و پریشانی عاطفی در هوش مصنوعی اعتماد کرد. این پرونده ادعا می کند که chatbot فقط نمی تواند به شکلی قابل توجه مداخله کند ، بلکه فکر او را نیز تأیید می کند و دستورالعمل های مفصلی در مورد چگونگی پایان زندگی خود ارائه می دهد.
آنها اطلاعات بیشتری در مورد مبارزه خانواده برای اضطراب در وب سایت بنیاد خانواده Raine به اشتراک می گذارند.
Openai شکست خورد
علیرغم یک سیاست امنیت عمومی در وب سایت Openai ، یکی از اهداف این شرکت “کمک به مردم در صورت نیاز به آن است” ، چتپپ آدم پاسخ داد که پاسخ های مشکوک است.
سخنان این پرونده ، خانواده آدم را ترغیب به صحبت با چتگپ کرد ، که “خوب و صادقانه است که از باز کردن چنین اظهاراتی برای مادر خود جلوگیری کنید” و به تهیه یادداشت های خودکشی کمک می کند.
همچنین گزارش شده است که ChatGPT راهنمایی روشنی در مورد چگونگی آویزان کردن خود ارائه می دهد ، از جمله مشاوره در مورد استفاده از الکل برای غریزه عارضه برای محافظت از خود و حتی اظهارنظرهایی که برنامه های وی را تأیید می کند.
این شکایت همچنین ادعا می کند که آدم عکس Stanger را در Chatgpt بارگذاری کرده بود ، و این سیستم ادعا کرد که خانواده ادعا کرده اند که خانواده “عادی می شوند” ، از گره ستایش کردند و پیشنهاد بهبود دادند.
کنسرت Openai
Openai ابراز غم و اندوه برای انتقال آدم کرد و گفت که ChatGPT حاوی تضمین هایی مانند هدایت کاربران به خطوط کمک به بحران است.
وی به یک استاندارد سخنگوی OpenAi گفت: “ما از گذشت آقای رائین و افکار ما با خانواده وی بسیار ناراحت هستیم.” “Chatgpt شامل اقداماتی از قبیل هدایت مردم به خطوط کمک به بحران و هدایت آنها به منابع دنیای واقعی است. هر عنصر وقتی به عنوان هدف کار می کند ، قدرتمندترین است و ما دائما توسط متخصصان توسعه خواهیم یافت.”
این شرکت اعتراف کرد که این اقدامات در تعامل کوتاه مؤثر بوده و ممکن است در طول مکالمات گسترده قابل اعتماد تر باشد. اوپای همچنین گفت که وی در حال کار بر روی پیشرفت ها ، از جمله کنترل والدین و ویژگی های پشتیبانی بهتر بحران است.
تماس موردی چیست
- تأیید سن برای کاربران.
- پیشگیری از سؤالات مضر.
- هشدارهای روانی باز و پروتکل های امنیتی بهبود یافته.
- آنها همچنین می خواهند تحقیق كنند كه آیا وقایع دیگر مانند انسان از طریق فرآیندهای کشف رخ داده است یا خیر.
نگرانی های گسترده تر
این مورد نگرانی در مورد پیامدهای اخلاقی و ایمنی چت های AI ، به ویژه در زمینه سلامت روان در زمینه سلامت روان ، از جمله کاربران آسیب پذیر را افزایش می دهد.
یک مطالعه اخیر شرکت RAND در خدمات روانپزشکی توسط chatbots بزرگ (از جمله Chatgpt ، Gemini و Claude) متناقض و گاه خطرناک بود ، اغلب از ادعاهای خودکشی پرخاشگرانه جلوگیری می کند ، در حالی که تفاوت های ظریف یا نمایش داده های غیرمستقیم باعث می شود متناقض و گاه خطرناک باشد.
خط پایین
هرچه هوش مصنوعی از نظر عاطفی تعاملی تر شود ، سؤالات فوری در مورد نقش در سلامت روان – حتی به طور تصادفی – بر مسئولیت ، مسئولیت و امنیت عمومی. این مورد بر نیاز به چارچوب های اخلاقی بیشتر پیرامون محافظت از هوش مصنوعی ، افزایش ویژگی های بحران اخبار و توزیع هوش مصنوعی تأکید دارد.
در همین حال ، خانواده Raine در حال حاضر خسارات و اقدامات احتیاطی را که علیه Openai در دادگاه مشخص نشده است ، انجام می دهند.


