قرارداد پنتاگون ChatGPT به تازگی تغییر کرده است – در اینجا معنای آن برای کاربران معمولی است

توافق OpenAI برای همکاری با وزارت جنگ ایالات متحده به سرعت به یکی از بزرگترین داستان های هوش مصنوعی هفته تبدیل شده است. اکثر کاربران ChatGPT را رها کرده و در اعتراض به چت ربات های دیگر روی آورده اند. به گزارش وال استریت ژورنال، اما این شرکت پس از انتقاد کارمندان، محققان و حامیان حریم خصوصی، بخشهایی از توافقنامه را اصلاح کرد.
اگرچه این بحث بر امنیت ملی و فناوری دولتی متمرکز است، بحثی که جرقه میزند برای کاربران عادی ChatGPT مهم است. این یک سوال بزرگتر در مورد اینکه چگونه شرکت های هوش مصنوعی مصرف کننده اعتماد عمومی را با مشارکت دولتی متعادل می کند، ایجاد می کند.
توافق پنتاگون در واقع شامل چه چیزی است؟
OpenAI اخیراً تأیید کرده است که با وزارت دفاع ایالات متحده کار می کند تا بررسی کند که چگونه هوش مصنوعی مولد می تواند از طیف وسیعی از وظایف دولتی از جمله تجزیه و تحلیل امنیت سایبری، برنامه ریزی لجستیک، کار اداری و پردازش حجم زیادی از داده ها پشتیبانی کند.
سیستم های مربوطه در محیط های دولتی امن جدا از نسخه عمومی ChatGPT که توسط مصرف کنندگان استفاده می شود اجرا می شود. سازمانهای دولتی به طور فزایندهای مدلهای هوش مصنوعی تجاری را در محیطهای کنترلشده آزمایش میکنند تا به کارکنان در تجزیه و تحلیل اطلاعات، ایجاد گزارشها و خودکارسازی گردشهای کاری معمول کمک کنند.
این مشارکت نشان دهنده روند گسترده تری در بخش دولتی است. آژانسهای فدرال سالهاست که ابزارهای هوش مصنوعی را آزمایش میکنند، اما پیشرفتهای سریع در هوش مصنوعی مولد، علاقهمندی به اینکه چگونه این فناوری میتواند بهرهوری و تصمیمگیری را بهبود بخشد، افزایش داده است.
چرا این توافق واکنش هایی را در پی داشت؟
پس از انتشار اخبار این معامله، این همکاری به سرعت توسط برخی از کارکنان OpenAI، محققان هوش مصنوعی و کاربران ChatGPT مورد انتقاد قرار گرفت. بیشتر نگرانی ها بر این موضوع متمرکز بود که آیا قرارداد به وضوح نحوه استفاده از فناوری توسط ارتش و سایر سازمان های دولتی را مشخص می کند.
منتقدان به طور خاص در مورد دو خطر احتمالی سؤالاتی را مطرح کرده اند:
- آیا می توان از سیستم های هوش مصنوعی در نظارت در خانه استفاده کرد یا خیر
- چگونه فناوری می تواند در نهایت از عملیات نظامی پشتیبانی کند
این پاسخ منعکس کننده یک بحث فزاینده در صنعت فناوری در مورد این است که آیا شرکت هایی که ابزارهای هوش مصنوعی مصرف کننده تولید می کنند باید فناوری را در اختیار آژانس های دفاعی و اطلاعاتی نیز قرار دهند.
سام آلتمن، مدیر عامل OpenAI این انتقاد را پذیرفت و گفت که این شرکت با پنتاگون برای شفاف سازی اقدامات امنیتی قرارداد همکاری خواهد کرد.
آنچه OpenAI می گوید تغییر خواهد کرد
پس از این انتقادات، OpenAI گفت که در حال به روز رسانی توافقنامه است تا مرزهای نحوه استفاده از سیستم های هوش مصنوعی را روشن تر کند.
بر اساس گزارشهای اخیر در مورد این توافقنامه تجدیدنظر شده، اکنون در این توافقنامه آمده است که هوش مصنوعی این شرکت نمیتواند عمداً برای نظارت داخلی شهروندان آمریکایی مورد استفاده قرار گیرد و باید با چارچوبهای قانونی موجود حاکم بر استفاده دولت از این فناوری مطابقت داشته باشد.
OpenAI همچنین تکرار کرد که سیستمهای آن برای تصمیمگیری مستقل در مورد استفاده از زور طراحی نشدهاند و تاکید کرد که نظارت انسانی در زمینههای نظامی ضروری است.
این تغییرات به منظور روشن کردن محدودیتها در مورد نحوه پیادهسازی هوش مصنوعی مولد در سیستمهای دولتی و رفع نگرانیهای اخلاقی که پس از اعلام عمومی این مشارکت به وجود آمد، انجام شد.
چرا این موضوع برای کاربران ChatGPT مهم است؟
در نگاه اول، ممکن است به نظر برسد که قرارداد پنتاگون ربطی به استفاده روزمره از هوش مصنوعی ندارد. اما این مناقشه بر تغییر بزرگتری در صنعت فناوری تاکید می کند. شرکت های هوش مصنوعی در حال تبدیل شدن به شرکای دولتی هستند. این بدان معناست که همان سیستمهای هوش مصنوعی که رباتهای چت مصرفکننده را نیرو میدهند، اکنون برای استفاده توسط دولتها در سراسر جهان سازگار شدهاند.
این بدان معناست که شرکتهایی مانند OpenAI باید بین دو مخاطب تعادل برقرار کنند و در عین حال سیاستهای اخلاقی هوش مصنوعی را که بر مصرفکنندگان تأثیر میگذارد، در نظر بگیرند.
زمانی که شرکتها قوانینی را برای نحوه استفاده از هوش مصنوعی خود تعیین میکنند (مثلاً ممنوعیت انواع خاصی از برنامههای نظارتی یا تسلیحاتی)، این سیاستها اغلب برای همه نسخههای فناوری آنها اعمال میشود.
این بدان معنی است که بحث در مورد استفاده نظامی می تواند نرده های محافظ گسترده تری را شکل دهد که بر محصولات مصرف کننده هوش مصنوعی تأثیر می گذارد. به همین دلیل است که کاربران توجه بیشتری به نحوه استقرار فناوری توسط شرکتها دارند، به خصوص که ابزارهای هوش مصنوعی قدرتمندتر و به طور گسترده مورد استفاده قرار میگیرند. برای بسیاری از مردم، اعتماد به سیستمهای هوش مصنوعی نه تنها به عملکرد خوب آنها بستگی دارد، بلکه به میزان مسئولیتپذیری شرکتهای پشت سر آنها نیز بستگی دارد.
در نتیجه
مشارکت پنتاگون در حال حاضر تأثیری بر عملکرد ChatGPT برای کاربران عادی نخواهد داشت. اما این نشان میدهد که هوش مصنوعی با چه سرعتی فراتر از ابزارهای مصرفکننده به سیستمهای دولتی و امنیت ملی پیشرفت میکند. این تغییری است که بحث های بیشتری را در مورد نحوه استفاده از فناوری ایجاد می کند.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



