جنبش «QuitGPT» شتاب بیشتری به دست میآورد زیرا حل و فصل وزارت جنگ OpenAI کاربران را وادار به «لغو ChatGPT» میکند.

چشم انداز هوش مصنوعی بسیار رقابتی است. بسیاری از شرکت ها برای جلب توجه کاربران (و در نهایت پول) تلاش می کنند. در حالی که ChatGPT به نام اصلی در فضای هوش مصنوعی تبدیل شده است (مثل جستجوی گوگل)، پویایی قدرت ممکن است با جلب توجه جنبش “لغو ChatGPT” تغییر کند.
سام آلتمن، مدیر عامل OpenAI، شب گذشته در X گزارش داد که شرکت او با وزارت جنگ ایالات متحده به توافق رسیده است “برای توزیع مدل های ما در شبکه های مخفی آنها”. وی ادامه داد: در تمام تعاملات ما، DoW احترام عمیقی برای امنیت و تمایل به شراکت برای دستیابی به بهترین نتیجه ممکن نشان داده است.
امشب با وزارت جنگ به توافق رسیدیم تا مدل های خود را در شبکه مخفی آنها قرار دهیم. در تمام تعاملات ما، DoW احترام عمیقی برای امنیت و تمایل به شراکت برای دستیابی به بهترین نتیجه ممکن نشان داده است. امنیت هوش مصنوعی و توزیع گسترده…28 فوریه 2026
اما کاربران از این که این ادعا را به صورت واقعی دریافت کنند هیجان زده نیستند و سرزنش آنها سخت است. OpenAI با امتناع از اجازه استفاده از محصولاتش برای «تظاهرات انبوه داخلی» یا «سلاحهای کاملاً خودمختار» ادعای همبستگی با رقیب آنتروپیک کرده است. اما این امکان وجود دارد که این همبستگی فقط فرصتی برای OpenAI باشد تا قرارداد خود را قطع کند و به DOW اجازه دهد تا با فناوری خود، از جمله جاسوسی از شهروندان ایالات متحده، کار خود را انجام دهد.
ChatGPT Plus خود را لغو کنید، کامپیوترهای آنها را در هنگام خروج بسوزانید و از r/ChatGPT به Claude بروید
بنابراین کاربران تنها به OpenAI پاسخ می دهند که واقعاً می تواند به آنها آسیب برساند: با کیف پول خود. جنبش “لغو ChatGPT” در حال گسترش است و به نظر می رسد که به حساب بانکی شرکت غول پیکر هوش مصنوعی ضربه می زند. البته، سنجش میزان گسترده لغو لغوها دشوار است. اکثر کاربران ChatGPT ممکن است صدای اقلیت هایی باشند که به Reddit و X پست می کنند، غافل از اینکه داده های آنها می تواند توسط وزارت جنگ استفاده شود.
اما در حالی که OpenAI در حال حاضر در کانون توجه اینترنت است (و Anthropic تمام اعتبار را به خود اختصاص می دهد)، شایان ذکر است که OpenAI تنها موردی نیست که به خدمات هوش مصنوعی اجازه می دهد تا برای نظارت بالقوه و سلاح های خودمختار استفاده شوند.
به عنوان مثال، گوگل سال گذشته ممنوعیت صریح این فناوری را از قوانین داخلی خود حذف کرد و Gemini را برای چنین استفاده های بالقوه ای باز گذاشت. آمازون تنها زبان مبهم «استفاده مسئولانه» را در اسناد خود ارائه می دهد.
رهبران نژاد هوش مصنوعی قدرت بیش از حدی در دست دارند و در حالی که آلتمن می گوید: “ما متعهد به خدمت به تمام بشریت در حد توان خود هستیم. دنیا مکانی پیچیده، درهم و برهم و گاهی خطرناک است”، سخت است که او را با تصمیماتی مانند این حرفش را قبول کنیم.
شما را نمیدانم، اما این ایده که ChatGPT یا هر مدل هوش مصنوعی دیگری، وقتی توهم میزند، به این نتیجه میرسد که من را در حال ارتکاب جنایت حتی با برخی از ابتداییترین تذکرات میبیند، بسیار ترسناک است. این ایده که او موشک ها را کنترل می کند و اهداف را شناسایی می کند حتی ترسناک تر است.
البته آلتمن ادعا میکند: «ما همچنین حفاظتهای فنی ایجاد خواهیم کرد تا اطمینان حاصل کنیم که مدلهای ما همانطور که باید رفتار میکنند، چیزی که DoW میخواست.» اما آیا این باعث میشود احساس بهتری نسبت به آنچه اینجا در حال رخ دادن است داشته باشید؟ قطعا به من کمک نمی کند که بهتر بخوابم.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



