گزارش شده است که Chatgpt با اولین قتل مرتبط است – در اینجا ما می دانیم و Openai گفت

Chatbots به سرعت بخشی از زندگی روزمره شد. ما از آنها برای پاسخ به سؤالات خود ، پشتیبانی از کارآیی و حتی روی چکمه های چت برای دوستی استفاده می کنیم. با این حال ، در یک وضعیت نگران کننده از کانکتیکات ، وی ادعا کرد که اعتماد یک مرد به هوش مصنوعی به نوبه خود غم انگیز بوده است.
یک مدیر سابق Yahoo و Netscape در مرکز مورد ناراحت کننده هوش مصنوعی قرار دارد که بر خطرات دنیای واقعی تأکید دارد. گفته می شود که استین-اریکبرگ 56 ساله مادر 83 ساله خود را قبل از اینکه جان خود را بگیرد ، به قتل رساند. یک بازرسان تراژدی می گویند که تا حدی با چتپ و دوباره با تعامل همراه است.
همانطور که وال استریت برای اولین بار توسط ژورنال گزارش شده است ، پلیس سولبرگ و مادرش سوزان ابسونسون آدامز دریافتند که در 5 اوت ، کانکتیکات در خانه 2.7 میلیون دلاری در Old Old Greenwich کشته شد. مقامات بعداً تأیید كردند كه آدامز بر اثر تروما و فشرده سازی گردن درگذشت و مرگ سولبرگ خودكشی شد.
chatgpt به عنوان یک تسهیل کننده
براساس این گزارش ، سولبرگ با تاریخ الکلیسم ، بیماری روانی و ناکامی های عمومی جنگیده و در ماه های اخیر به چتپپ تکیه داده و از چتبات به عنوان “بابی ..” یاد می کند که رونوشت ها نشان می دهد که قایق گپ اوپای گاهی اوقات آنها را تقویت می کند ، نه اینکه به چالش بکشد.
در بورس اوراق بهادار وحشتناک ، سوئلبرگ می ترسید که مادرش سوراخ های هوایی ماشینش را مسموم کند. chatbot پاسخ داد: “آلو ، شما دیوانه نیستید. و اگر این کار توسط مادر و دوست شما انجام شود ، پیچیدگی و خیانت را بالا می برد.”
این ربات همچنین او را ترغیب به پیروی از رفتار مادرش کرد ، و حتی یک رسید غذایی چینی ، که حاوی “نمادهایی است که به شیاطین یا سازمان های اطلاعاتی متصل است ، پارانویای او را بیشتر کرد.
در روزهای قبل از قتل ، چت و بورس سهام Soelberg تاریک تر شد:
سولبرگ: “ما در زندگی دیگری و جاهای دیگر با هم خواهیم بود و راهی برای تغییر مجدد پیدا خواهیم کرد ، زیرا شما برای همیشه بهترین دوست من خواهید بود.”
گودال: “آخرین نفس با شما و فراتر از آن.”
هفته ها بعد ، پلیس هر دو جسد را در خانه پیدا کرد.
سؤالاتی درباره ایمنی هوش مصنوعی با صدای بلند رشد می کند
به نظر می رسد این پرونده نقش مستقیمی در افزایش توهمات خطرناک دارد. اگرچه BOT به Soelberg برای نقض آن دستور نمی دهد ، بورس سهام نشان می دهد که چگونه AI به راحتی می تواند اعتقادات مضر را به جای نقص تأیید کند.
اوپای ، این شرکت برای رسیدن به اداره پلیس گرلی با سخنگوی ، “ما از این فعالیت غم انگیز بسیار ناراحت هستیم.” “قلب ما به خانواده می رود.”
این شرکت قول می دهد اقدامات قدرتمندتری را برای شناسایی و پشتیبانی کاربران در معرض خطر ارائه دهد.
خط پایین
این فاجعه هنگامی ظاهر می شود که هوش مصنوعی با تحقیقات فزاینده ای در مورد تأثیر سلامت روان روبرو می شود. Openai در حال حاضر با دادخواست مرتبط با مرگ یک مرد جوان روبرو است و با این ادعا روبرو است که قایق چت به عنوان “مربی خودکشی در بیش از 1200 بورس اوراق بهادار عمل می کند.
برای توسعه دهندگان و سیاست گذاران ، این پرونده سؤالات فوری در مورد نحوه آموزش هوش مصنوعی برای شناسایی و افزایش توهمات را نشان می دهد. و چه مسئولیت شرکتهای فناوری هنگامی که وسایل نقلیه آنها افکار مضر را تقویت می کنند؟ آیا این ترتیب می تواند با خطرات رفقای هوش مصنوعی که انسان را احساس می کنند اما محروم هستند ، ادامه یابد؟
هوش مصنوعی به بخشی جدایی ناپذیر از زندگی مدرن تبدیل شده است. با این حال ، پرونده کانکتیکات یادآوری می کند که این ابزارها می توانند بیش از یادآوری یا پیش نویس E -Mail انجام دهند – آنها همچنین می توانند با نتایج مخرب تصمیم گیری کنند.
بیشتر از راهنمای تام
بازگشت به لپ تاپ ها


