متن فاش شده نشان می دهد که سم آلتمن هشدار می دهد که xAI ایلان ماسک می تواند به پنتاگون بگوید “ما هر کاری بخواهید انجام خواهیم داد”.

متن فاش شده از یک جلسه داخلی در OpenAI نشان می دهد که مدیر عامل شرکت سام آلتمن با سؤالات شدید کارمندان در مورد معامله بحث برانگیز شرکت با ارتش ایالات متحده مواجه است.
آلتمن در طول این نشست همه جانبه اذعان کرد که اعلام شراکت OpenAI با وزارت دفاع ایالات متحده «فرصتطلبانه و شلخته به نظر میرسید» و همچنین به کارکنان هشدار داد که تأثیر کمی بر نحوه استفاده نهایی از این فناوری دارند.
“شما نمی توانید وزن خود را پشت سر این موضوع بگذارید”
بر اساس گزارش CNBC و سایر رسانه ها، آلتمن در مورد محدودیت های کنترل خود زمانی که فناوری OpenAI وارد سیستم های دولتی می شود، صریح صحبت کرده است.
به گزارش بلومبرگ، آلتمن به کارمندان گفت: «شاید فکر می کنید حمله ایران خوب است و تهاجم ونزوئلا بد است. “شما نمی توانید در مورد این وزن کنید.”
آلتمن گفت که تصمیمات نظامی عملیاتی در نهایت بر عهده دولت ایالات متحده است نه OpenAI. مسئولیت این تصمیمات بر عهده مقاماتی مانند پیت هگزت وزیر دفاع آمریکا خواهد بود.
آلتمن گفت که نقش OpenAI به حفظ “پشته امنیتی” شرکت محدود می شود – طبق رونوشت، نرده های محافظ فنی که در مدل های آن تعبیه شده است.
او افزود که سازمان های دولتی نمی توانند یک مدل را مجبور به انجام وظیفه ای کنند که او از آن امتناع می کند. اما فراتر از این اقدامات، OpenAI تا حد زیادی به عنوان یک مشاور عمل خواهد کرد تا تصمیم گیرنده.
بن بست انسانی
قرارداد پنتاگون همچنین در زمانی انجام میشود که اختلاف بین شرکتهای هوش مصنوعی بر سر استفاده نظامی از فناوریهایشان وجود دارد. آزمایشگاه هوش مصنوعی رقیب Anthropic قبلاً مدلهای کلود را در شبکههای وزارت دفاع مستقر کرده بود، اما طبق گزارشها از برداشتن پادمانهایی که مانع استفاده از این فناوری برای سلاحهای کاملاً خودمختار یا نظارت انبوه داخلی میشود، خودداری کرده است.
بر اساس گزارشها، پنتاگون اصرار داشت که سیستمهای هوش مصنوعی باید برای «همه اهداف قانونی» قابل استفاده باشند. خاتمه آنتروپیک مذاکرات را مختل کرد و ظرف چند روز OpenAI با توافق خود وارد عمل شد.
آلتمن علناً اعلام کرد که توافق OpenAI همچنان شامل محدودیتهایی بر سلاحهای خودران و نظارت داخلی است.
اما منتقدان استدلال میکنند که پنتاگون صلاحیت تفسیر این محدودیتها را پس از پیادهسازی فناوری در سیستمهای دولتی دارد.
هشدار XAI
یکی از مواردی که بیشترین اشاره در رونوشت وجود دارد، نگرانیهای ضدانحصار OpenAI است. آلتمن به کارمندان گفت که یکی دیگر از شرکتهای هوش مصنوعی، که ایلان ماسک پیشنهاد کرده میتواند xAI باشد، ممکن است بخواهد به پنتاگون بگوید: “ما هر کاری بخواهید انجام خواهیم داد.”
آلتمن استدلال کرد که این احتمال دقیقاً به همین دلیل است که او معتقد است OpenAI باید درگیر باقی بماند. منطق این است که اگر شرکتهای محتاطتر عقبنشینی کنند، رقبایی که مایل به ارائه حمایت کمتری هستند، میتوانند بر این حوزه تسلط داشته باشند.
اما منتقدان میگویند که این استدلال نگرانی عمیقتری را برجسته میکند: رقابت میان آزمایشگاههای هوش مصنوعی میتواند مسابقهای برای از بین بردن مرزهای اخلاقی ایجاد کند.
فشار داخلی در OpenAI
این متن همچنین نشان می دهد که توافق پنتاگون باعث ایجاد بحث های داخلی شده است.
کارمندان OpenAI قبلاً نامه ای سرگشاده با عنوان “ما نباید تقسیم کنیم” را امضا کرده بودند که در آن از موضع Anthropic قبل از نهایی شدن توافق OpenAI با وزارت دفاع حمایت می کردند. نشست فاش شده نشان می دهد که این نگرانی ها به طور کامل از بین نرفته است.
وال استریت ژورنال گزارش داد که آلتمن همچنین به کارمندان گفت که OpenAI در حال بررسی یک معامله آینده برای توزیع فناوری خود در سراسر شبکه های ناتو است. این تفسیر نشان می دهد که شرکت های هوش مصنوعی با چه سرعتی روابط خود را با دولت ها و سازمان های دفاعی گسترش می دهند.
افکار نهایی
متن فاش شده نشان می دهد که هوش مصنوعی مولد با چه سرعتی از فناوری مصرف کننده به زیرساخت های ژئوپلیتیکی در حال حرکت است.
برای OpenAI، قرارداد پنتاگون نشاندهنده یک گام بزرگ رو به جلو در امنیت ملی است، لحظهای که بحثهای شدیدی را در داخل شرکت برانگیخته و باعث شده است که برخی از کاربران ChatGPT را تحریم کنند.
واضح است که سرعت توسعه هوش مصنوعی از درک عمومی پیشی میگیرد و ممکن است تصمیمگیریها در حال حاضر سریعتر از آنچه عموم مردم یا حتی توسعهدهندگان هوش مصنوعی بتوانند ادامه دهند، گرفته میشود.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



