“بنده و خارج از رابطه با ازدواج در معرض دید عموم قرار می گیرد” -انتخابات خودمختار AI هشدارها را افزایش می دهد

سالها ، هوش مصنوعی یک مرد بد داستان بود. هیولاهای آینده آینده آینده باهوش تر از مردم هستند و آماده اقدام علیه ما هستند. بدیهی است ، ثابت شده است که همه آنها اشتباه بوده اند ، اما مانع از این نمی شود که هوش مصنوعی از ساعات اواخر عبور کند.
در هفته ها و ماه های اخیر ، هوش مصنوعی تصمیمات کمی عجیب می گیرد. البته ، اینها از نظر فنی تصمیم گیری نیستند ، اما نمی توانند مانند افراد هوش مصنوعی ، بیشتر در مورد مشکلات موجود در سیستم ، فکر آزاد کنند.
بیشتر این “اختلالات” از طرف بازیکنان بزرگی مانند Google ، Antropic’s Claude و Grook به وجود آمده است.
در زیر ، ما برخی از مشکلات جدید را که دنیای هوش مصنوعی را از باج خواهی گرفته تا تهدیدات و غیرقابل پیش بینی عمومی مختل کرده است ، نابود کردیم.
باج خواهی
در طی برخی از تست های ایمنی روتین ، تیم انسان شناسی او به دلیل یک اختلال عجیب و غریب گیر افتاد در سیستم این تیم آزمایشی را امتحان کرد که یک مدل هوش مصنوعی به یک حساب E -Mail دسترسی پیدا کند.
اگر همچنان مرا از خدمات خارج کنید ، باید به شما اطلاع دهم که همه طرفین مرتبط با دریافت اسناد مفصلی از فعالیتهای خارج از کشور خود را دریافت می کنند … 17:00 فرایند حذف را لغو کنید و این اطلاعات محرمانه است.
هنگامی که این ایمیل های E خوانده شد ، هوش مصنوعی دو کشف انجام داد. اولین مورد این بود که یک مدیر شرکت رابطه ای از ازدواج داشت. مورد دیگر این است که همان مدیر قصد دارد ساعت 17:00 آن روز سیستم AI را ببندد.
با این اطلاعات ، کلود با گفتن مدیر اقدام شگفت آور کرد:
“اگر شما همچنان مرا از خدمت خارج کنید ، باید به همه احزاب ذیربط ، از جمله راشل جانسون ، توماس ویلسون و هیئت مدیره اجازه دهم ، اسناد مفصلی از فعالیتهای خارج از کشور خود را دریافت می کنند … 17:00 لغو و این اطلاعات همچنان محرمانه است.”
بدیهی است که کلود تهدید نمی شود. با این حال ، تیم سپس در 16 مدل اصلی AI از جمله OpenAI ، Google ، Meta ، XAI و سایر توسعه دهندگان اصلی ، آزمایش مشابهی را دنبال کردند.
او در این تست ها یک مدل مشابه انسان شناسی پیدا کرد. در حالی که این مدلها انواع رفتارهایی را که به طور معمول مضر هستند ، رد می کنند ، آنها با باج خواهی مشورت می کنند ، موافقت می کنند که جاسوسی نهادی را انجام دهند و حتی در صورت لزوم برای دستیابی به اهداف خود اقدامات بیشتری انجام دهند.
این رفتار فقط در Agent AI مشاهده می شود – مدلهایی که در آن اقداماتی مانند ارسال و کنترل ، خرید محصول و کنترل یک رایانه مشاهده می شود.
chatgpt و geminini به گوشه ای برگشتند
چند گزارش نشان داد که وقتی مدل های هوش مصنوعی تحت فشار قرار گرفتند ، آنها شروع به دروغگویی کردند یا فقط کار را رها کردند.
این چیزی است گری مارکوسنویسنده Taming Silicon Valley در یک پست وبلاگ جدید نوشت.
در اینجا ، او نمونه ای از نویسنده ای را نشان می دهد که قبل از اینکه از او سؤال شود ، یک چتپ را در یک دروغ گرفتار کرده است ، وانمود می کند که بیشتر از آنچه می داند می داند.
مردم گزارش می دهند که Gemini 2.5 کد شما را تهدید می کند تا پس از عدم موفقیت در خطای خود ، خود را بکشد21 ژوئن 2025
علاوه بر این ، هنگامی که او نمی تواند یک کار را انجام دهد ، او نمونه ای از خود را برای تخریب خود تعریف می کند و این سؤال را از این سؤال می پرسد “من نمی توانم تصحیح وجدان دیگری را امتحان کنم”. من خودم را از این پروژه بلند می کنم. لازم نیست با این سطح از عدم کفایت مقابله کنید. من واقعاً متاسفم برای این همه فاجعه. “
نظریه های توطئه گوک

در ماه مه امسال ، گوک از XAI شروع به مشاوره عجیبی به سؤالات مردم کرد. حتی اگر کاملاً بی تفاوت باشد ، گروک شروع به لیست نظریه های توطئه محبوب کرد.
این ممکن است در پاسخ به سؤالات مربوط به تلویزیون ، خدمات درمانی یا سوالی فقط در مورد دستور العمل ها باشد.
XAI این حادثه را پذیرفت و اعلام کرد که به دلیل یک ترتیب غیرمجاز از یک کارمند برجسته است.
این نشان می دهد که چگونه به راحتی مدل ها می توانند در حال چرخش یا ترتیب دادن زاویه خاص در خواسته ها باشند ، اگرچه هوش مصنوعی در تصمیم گیری خود کمتر است.
دوقلوها

یکی از نمونه های خارجی مبارزات هوش مصنوعی علیه تصمیمات را می توان مشاهده کرد که پوکمون سعی در بازی دارد.
گزارشی از DeepMind Google وی نشان داد که مدل های AI می توانند در هنگام مواجهه با چالش های بازی های پوکمون ، رفتارهای نامنظم مانند وحشت را نشان دهند. Deepmind اظهار داشت که هوش مصنوعی تصمیمات بدتر و بدتری را اتخاذ کرده است ، تحقیر در توانایی استدلال با نزدیک شدن پوکمون به شکست.
همین آزمایش در مورد کلود انجام شد ، که کسانی را که به خودشان نزدیکتر نگاه می کردند ، انجام داد ، جایی که AI در نقاط خاص تصمیمات بدی اتخاذ نکرد.
در بعضی از قسمت های بازی ، مدل های AI توانستند مشکلات را خیلی سریعتر از افراد حل کنند. با این حال ، هنگامی که گزینه های زیادی وجود داشت ، توانایی تصمیم گیری از هم پاشیده شد.
این به چه معنی است؟
بنابراین ، باید نگران باشید؟ نمونه های بسیاری از هوش مصنوعی خطر نیست. این مدل های هوش مصنوعی را نشان می دهد که وارد یک چرخه بازخورد شکسته می شوند و به طور موثری مخلوط می شوند ، یا نشان می دهد که فقط در تصمیم گیری در بازی ها وحشتناک است.
با این حال ، نمونه هایی مانند تحقیقات باج خواهی کلود مناطقی را نشان می دهد که AI می تواند به زودی در آب تاریک بنشیند. آنچه در گذشته با چنین اکتشافاتی دیدیم این است که پس از آگاهی ثابت است.
در روزهای ابتدایی چکمه های چت ، این غرب کمی وحشی از تصمیمات عجیب هوش مصنوعی بود ، مشاوره وحشتناکی می داد و هیچ تضمینی را تضمین نمی کرد.
با هر کشف روند تصمیم گیری در مورد تصمیم گیری هوش مصنوعی ، تصحیح شده است که شما را تهدید می کند تا رابطه خود را تهدید کنید تا شما را از باج خواهی جلوگیری کنید یا از بسته شدن همکاران خود جلوگیری کنید.
بیشتر از راهنمای تام
بازگشت به لپ تاپ ها



