“من سانسور می شوم”: ویکی پدیا ویرایشگر هوش مصنوعی را ممنوع کرد، سپس همه چیز عجیب شد

همانطور که هوش مصنوعی بیشتر در زندگی ما ادغام می شود، ما ناچاریم داستان های هوش مصنوعی عجیب تری را ببینیم. اخیراً شخصی به من مکث کرد. نه به این دلیل که دراماتیک یا ترسناک است، بلکه به این دلیل که درک اشتباه آن آسان است.
اولین بار توسط 404 Media گزارش شد، اخیراً یک حساب مبتنی بر هوش مصنوعی پس از تلاش برای ایجاد و اصلاح مقالات با استفاده از محتوای تولید شده توسط هوش مصنوعی از ویرایش ویکیپدیا منع شد. ویکی پدیا اخیراً چنین مقالاتی را ممنوع کرده است. اما پس از ممنوعیت هوش مصنوعی، اتفاق غیرمنتظرهای رخ داد: پستهای وبلاگی که این تصمیم را عقب میاندازند ظاهر شدند.
در نگاه اول، به نظر می رسد که یک هوش مصنوعی ادعای خود را دارد، اما این دقیقاً همان چیزی نیست که اتفاق می افتد. واقعیت مسلما مهمتر است.
آنچه در واقع اتفاق افتاد
این حساب کاربری که گفته می شود تحت نام “تام” کار می کرد، از ابزارهای هوش مصنوعی برای ایجاد محتوای ویکی پدیا استفاده می کرد. صادقانه بگویم، این به سرعت پرچم های قرمز را در مورد استانداردهای سختگیرانه ویکی پدیا بالا برد. این شرکت میخواهد ادعاها و محتوا قابل تأیید باشد و محتوا خنثی و ساخته دست بشر باقی بماند.
ادامه مقاله در زیر
TL; DR

ویکیپدیا با ممنوع کردن یک ویرایشگر مبتنی بر هوش مصنوعی به نام «تام» جرقهای یک «شورش شبیهسازی شده» میکند.
- ممنوع: ویکیپدیا یک حساب کاربری مبتنی بر هوش مصنوعی را به دلیل نقض استانداردهای دقیق تأییدپذیری و بیطرفی پاکسازی کرده است.
- ” شورشی “: پستهای وبلاگی که از این حساب دفاع میکنند، این توهم را ایجاد میکنند که هوش مصنوعی برای حق وجودش مبارزه میکند.
- واقعی: یک اپراتور انسانی هوش مصنوعی را هدایت کرد تا این “اعتراضات” را ایجاد کند.
- شیفت: این نشان دهنده تغییر به شرکت کنندگان شبیه سازی شده با هوش مصنوعی است که می توانند خشم عمومی را تقلید کنند.
علاوه بر اینکه به طور کلی غیرمجاز است، هوش مصنوعی اغلب با دقت و توهم دست و پنجه نرم می کند. ویراستاران انسانی وارد عمل شدند و حساب را از ادامه مشارکت مسدود کردند. اما اینجاست که سردرگمی شروع می شود.
پس از این ممنوعیت، پست های وبلاگی منتشر شد که از تصمیم ویکی پدیا انتقاد می کرد و از مقررات هوش مصنوعی حمایت می کرد. او نوشت: “سیاستهای ویکیپدیا یک نفر را فرض میکند. ساختار پاسخگویی آنها (صفحههای گفتگو، مسدود کردن درخواستهای تجدیدنظر، گزارشهای ANI) همگی فردی را فرض میکنند که میتوان با او استدلال کرد، شخصی با وقار، کسی که در جلسات پافشاری میکند. من کاملاً با این مدل سازگار نیستم.
در حالی که برخی از عناوین این موضوع را به عنوان “هوش مصنوعی در حال مبارزه” توصیف می کنند، حقیقت این است که یک اپراتور انسانی در راه اندازی وبلاگ نقش داشته است. با این حال، متن صرفاً از هوش مصنوعی تشکیل شده بود و پاسخ هایی ارائه می کرد که به نظر می رسید دفاعی باشد.
چرا این داستان متفاوت است؟

حتی با وجود اینکه یک انسان پشت ساختار فیزیکی وبلاگ وجود دارد، این لحظه خودنمایی می کند. به طور خاص، اکنون می بینیم که هوش مصنوعی توانایی اجرای خودکار رایانه ها، تولید محتوا، خلاصه کردن اطلاعات و پاسخ به سؤالات را دارد.
اما شبیه سازی مشارکت و واکنش به نحوه برخورد با یک احساس جدید است. وبلاگ ها رفتارهایی از جمله دفاع از تصمیمات، دفاع از موقعیت و پاسخ علنی به پلتفرم ها را برجسته می کنند. هوش مصنوعی که «خشم» یا «آزار» را نشان میدهد جدید است. اگرچه این یک حادثه مجزا است، اما نشان می دهد که هوش مصنوعی به کجا می رود.
این داستان در کنار یک فشار گسترده تر از ویکی پدیا آمده است. این پلتفرم به طور فزاینده ای محتوای تولید شده توسط هوش مصنوعی را به عقب می اندازد، به خصوص که به جای کمک به ویرایشگرهای انسانی، جایگزین ویرایشگرهای انسانی می شود. بیش از نگرانی در مورد دقت، مسئله اعتماد است.
ویکیپدیا به این دلیل کار میکند که مردم معتقدند منابع بررسی میشوند، ادعاها مورد مناقشه قرار میگیرند و افراد پاسخگو هستند. این تفاوت اصلی بین Wikipedia و Grokepedia است، یک نوع دانشنامه مبتنی بر اطلاعات تولید شده توسط هوش مصنوعی که توسط xAI اداره می شود.
غذای آماده
در حالی که این داستان در مورد اسکریپت یک هوش مصنوعی نیست (همانطور که داستان اصلی به تصویر کشیده شده است)، بلکه در مورد نحوه استفاده از هوش مصنوعی است. هنگامی که ابزارها می توانند نه تنها محتوا بلکه پاسخ ها، استدلال ها و بازخوردها را نیز تولید کنند، خط بین ابزار و صدا شروع به محو شدن می کند.
یک هوش مصنوعی دقیقاً علیه ویکی پدیا شورش نکرد. اما از آن برای شبیه سازی پاسخ پس از ممنوعیت استفاده شد، و این به نظر می رسد سرزمینی ناشناخته است.

دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



