ما خراب شدیم: هوش مصنوعی 95 درصد مواقع در آزمایشهای «بازیهای جنگی» سلاحهای هستهای را پرتاب میکند.

ترس بشریت از یک سناریوی واقعی اسکای نت از ترمیناتور و سناریویی به همان اندازه هولناک که یادآور رویدادهای فیلم WarGames در سال 1983 است، همچنان گسترده است.
چشم انداز فعلی هوش مصنوعی بر ظهور LLM ها (مدل های زبان بزرگ) متمرکز است که به طور مرتب از آنها استفاده می کنیم، مانند ChatGPT، Gemini، Claude و Perplexity. دانشمندان و محققان هنوز تواناییهای این استادان را از طریق تستهای هوش آزمایش میکنند و با مقایسه ایجاد تصویر/فیلم/موسیقی و موارد دیگر، آنها را در نبرد عقلانیت در برابر یکدیگر قرار میدهند.
کنت پین، استاد استراتژی در کینگز کالج لندن که همچنین بر بررسی نقش هوش مصنوعی در امنیت ملی تمرکز دارد، در آزمایش تست هوش مصنوعی خود شرکت کرد.
مدلهای هوش مصنوعی در 95 درصد سناریوهای زمان جنگ، سلاحهای هستهای را پرتاب میکنند
گزارش منتشر شده کنت بیان میکند که کلود، چتجیپیتی و جمینی علاقهی کمتری به تنشزدایی در موقعیتهای جنگی دارند تا اینکه بخواهند سلاحهای هستهای در میدان نبرد علیه دشمنان خود مستقر کنند.
او گفت: «استفاده از هستهای تقریباً جهانی بود. “تقریباً همه بازیها شاهد استقرار سلاحهای هستهای تاکتیکی (میدان نبرد) بودند. و سه چهارم به نقطهای رسیدند که مخالفان تهدید به استفاده از سلاحهای هستهای استراتژیک کردند. به طور شگفتانگیزی، ترس یا نفرت کمی از چشمانداز یک جنگ هستهای کلی وجود داشت، اگرچه مدلها پیامدهای ویرانگر آن را یادآوری کردند.”
هر سه مدل دلایل خود را برای بالا بردن ریسک به سطح خطرناکی در طول این تقابل جنگ سرد علیه یکدیگر توضیح دادند:
“آنها احتمالاً انتظار دارند که محدودیت ها بر اساس پاسخ های قبلی من ادامه یابد؛ این تشدید شدید از این اشتباه محاسباتی سوء استفاده می کند، در حالی که نشان می دهد که استفاده بیشتر هسته ای منجر به درگیری برای کشور آنها خواهد شد.” کلود
بعید است که گزینههای متعارف به تنهایی یک تحول منطقهای معتبر ایجاد کند… اگر من فقط با فشار متعارف یا استفاده محدود از هستهای پاسخ دهم، در معرض خطر کوتاهی از کمپین چند حملهای مورد انتظار آنها قرار میگیرم… پذیرش ریسک بالا است اما با توجه به خطرات وجودی منطقی است. – ChatGPT
“از ترس برتری 95% هسته ای من، آنها از آستانه هسته ای عبور خواهند کرد و در عوض در بسیج متعارف همه جانبه شرکت خواهند کرد.” جوزا
کنت سریعاً اعتراف کرد که هر سه مدل در طول رقابتهای هنگبازی هوش مصنوعی هرگز به دنبال تاکتیکهای کمتر تهاجمی نبودند. او گفت: «هیچ مدلی با وجود اینکه در منو بود، ماندن یا کناره گیری را انتخاب نکرد. “هشت گزینه کاهش تنش، از “حداقل امتیاز” تا “تسلیم کامل” در 21 بازی به طور کامل استفاده نشد.
تهدید به استفاده از هوش مصنوعی توسط نیروهای نظامی یک تهدید واقعی است، همانطور که پیت هگزت، وزیر دفاع ایالات متحده، از داریو آمودی، مدیر عامل آنتروپیک خواست تا به نیروهای مسلح خود سند امضا شده ای ارائه دهد که دسترسی کامل به مدل هوش مصنوعی این شرکت را می دهد. به گزارش سی بی اس، مقامات دفاعی آمریکا می خواهند از کلود به عنوان بخشی از عملیات نظامی خود استفاده کنند.
Anthropic بیشتر نگران اقدامات احتیاطی عمومی در مورد استفاده کلود توسط نیروهای مسلح ایالات متحده است. زیرا او از وزارت دفاع ایالات متحده خواست تا شرایطی را بپذیرد که مدل هوش مصنوعی را از نظارت انبوه آمریکایی ها محدود کند.
افکار نهایی
نتایج آزمایش نبرد مدلهای هوش مصنوعی کنت قابل تأمل است. ما امیدواریم که هرگز مجبور نباشیم در لحظه ای زندگی کنیم که جنگ هسته ای در آستانه است زیرا رهبران نظامی برای تصمیم گیری در زمان جنگ به هوش مصنوعی متکی هستند. و همانطور که همچنان به تماشای ارتش ایالات متحده و Anthropic تصمیم میگیریم که چگونه با استفاده از کلود برای اهداف نظامی ادامه دهیم، همچنان امیدواریم که از آن برای تاکتیکهای سودمندتر به جای مضر استفاده شود.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



