گزارش شده است که Anthropic کنترل خطرناک ترین مدل هوش مصنوعی خود را از دست داده است

هفته گذشته آنتروپیک Claude Opus 4.7 را منتشر کرد که به عنوان نسخه عمومی امن تر Claude Mythos توصیف می شود. گزارش شده است که این مدل برای انتشار گسترده بسیار خطرناک است.
این شرکت اکنون پس از گزارشهایی مبنی بر دسترسی یک گروه غیرمجاز به Claude Mythos، یک مدل داخلی بسیار محدود که برای کارهای پیشرفته امنیت سایبری ایجاد شده است، با سؤالات نگرانکنندهای مواجه است.
ادامه مقاله در زیر
گویا چه اتفاقی افتاده است؟
گزارش ها حاکی از آن است که این گروه ممکن است از طریق یک محیط پیمانکار شخص ثالث به جای سیستم های داخلی اصلی Anthropic به Mythos دسترسی داشته باشد. آنتروپیک گفته است که در حال بررسی است و هیچ مدرکی دال بر نقض سیستم اصلی آن پیدا نکرده است.
صادقانه بگویم، به نظر نمی رسد که این یک رفتار AI جعلی یا یک سناریوی علمی تخیلی دراماتیک باشد که در آن یک ربات از خالق خود فرار می کند. در عوض، مسائلی مانند اعتبار، دسترسی فروشنده، مرزهای ضعیف و آسیب پذیری های امنیتی در دنیای فناوری بسیار آشناتر هستند.
به عبارت دیگر، این یک مشکل بسیار انسانی با هوش مصنوعی بالقوه خطرناک است.
چرا این داستان ناراحت کننده است؟
جدا از مشکل افتادن یک مدل قدرتمند به دست افراد نادرست، این نقض ادعایی موضوعی را نیز برجسته میکند که سالها در مورد هوش مصنوعی درباره آن صحبت میشد: مدلهای هوش مصنوعی Edge به داراییهای با ارزش تبدیل میشوند و داراییهای ارزشمند مهاجمان را جذب میکنند.
این نگرانی مبرم است، اما نگرانیهای هوش مصنوعی مانند اخراج، اطلاعات نادرست در مقیاس بزرگ، سوء استفاده مستقل و سیستمهای فوق هوشمند بهطور کلی هنوز بر مردم سنگینی میکند.
اگر شرکتهای فناوری بزرگ در حال ساخت مدلهایی هستند که به اندازه کافی قدرتمند هستند تا بر امنیت سایبری، مالی یا دفاعی تأثیر بگذارند، باید آنها را به همان روشی که زیرساختهای حیاتی انجام میدهند، ایمن کنند.
این به معنای نظارت قوی تامینکننده، کنترلهای هویتی دقیق، دسترسی تقسیمبندیشده، نظارت لحظهای و واکنش سریع حادثه است. برای درک اینکه ساختن یک مدل قوی تنها نیمی از چالش است و حفظ آن نیمی دیگر از چالش ها، لازم نیست که یک دانشمند موشکی باشید.
چرا کلود میتوس برجسته است؟
آنچه این گزارش را به ویژه نگرانکننده میکند این است که طبق گزارشها، کلود میتوس به اندازهای حساس رفتار میکرد که بتواند پشت درهای بسته نگه داشته شود. این یک مشکل نوری دشوار ایجاد می کند.
اگر شرکتی به این نکته اشاره کند که یک مدل برای انتشار عمومی بسیار قدرتمند است، اما ادعا میشود که افراد خارجی به هر حال میتوانند به آن دسترسی داشته باشند، باید بدانیم که آیا مدیریت هوش مصنوعی با توسعه هوش مصنوعی همگام است یا خیر.
این من را به یاد روند بزرگتری می اندازد که مطلقاً هیچ کس درباره آن صحبت نمی کند: آزمایشگاه های هوش مصنوعی وارد عصر جدیدی می شوند که در آن دیگر فقط شرکت های نرم افزاری نیستند. دولت ها مسئول حفاظت از سیستم هایی می شوند که برای کسب و کار و جامعه ارزشمند و مهم هستند. صادقانه بگویم، این بدان معنی است که انتظارات امنیتی باید شروع به شبیه شدن به انتظارات بانک ها، ارائه دهندگان ابر و اپراتورهای زیرساخت حیاتی کنند.
بحث عمومی در مورد اینکه آیا هوش مصنوعی بیش از حد هوشمند است زیر سایه این سوال قرار می گیرد که آیا شرکت های هوش مصنوعی به اندازه کافی ایمن هستند یا خیر. بدیهی است که نیستند.
غذای آماده
اگر این گزارش ها درست باشد، حادثه Claude Mythos به عنوان هشداری برای سایر شرکت های هوش مصنوعی خواهد بود تا اقدامات امنیتی خود را تقویت کنند. انسانها ابزارهای خارقالعادهای را سریعتر از آنچه میتوانند به طور کامل نگهداری کنند، توسعه میدهند، و این میتواند به خطر تعیینکننده هوش مصنوعی در این دهه تبدیل شود.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



