هوش مصنوعی زمانی که در مورد محتوای اینترنتی ویروسی آموزش می بیند احمقانه تر می شود و هیچ درمانی وجود ندارد

چه ساعتها صرف پیمایش در TikTok یا یک پیمایش خوب در سری X طولانی و پرهیجان باشد، همه ما مقصر درگیر شدن در یکی از روندهای جدیدتر زندگی هستیم: “پوسیدگی مغز”.
این بیانیه بسیار متمرکز به تمایل به کاهش تمرکز شناختی به دلیل محتوای کوتاه و جلب توجه مربوط می شود. به عبارت دیگر، محتوا به گونه ای طراحی شده است که دامنه توجه را کوتاه کند.
اما در حالی که مردم در این امر مقصر هستند، به نظر می رسد ما تنها نیستیم. تیمی از دانشمندان دریافتند که مدلهای هوش مصنوعی زمانی که بر روی چنین محتوایی آموزش میبینند، دقیقاً واکنش مشابهی نشان میدهند.
با انجام این کار، توانایی استدلال مدل تا 23 درصد کاهش یافت، حافظه زمینه طولانی 30 درصد کاهش یافت و هنگامی که تحت آزمایش های شخصیتی قرار گرفتند، مدل ها افزایش در خودشیفتگی و روان پریشی را نشان دادند.
علاوه بر این، حتی زمانی که مدلها با دادههای با کیفیت بالا بازآموزی شدند، اثرات «پوسیدگی مغز» باقی ماند. در انسانها، میتوانیم با درگیر شدن با محتوای کوتاه بیپایان، مغز خود را دوباره سیمکشی کنیم. هنگامی که در چیزی مانند TikTok پیمایش می کنیم، فوران های کوتاهی از دوپامین دریافت می کنیم، و به نظر می رسد همین امر در مورد هوش مصنوعی نیز صادق باشد.
محققان دو مجموعه داده ایجاد کردند. اولی دارای پست های X کوتاه با تعامل بالا بود. دومی پستهای طولانیتر و متفکرانهتری را نشان میداد، اما به احتمال زیاد ویروسی نمیشد.
آنها سپس دو مدل هوش مصنوعی (Llama 3 و Qwen) را با استفاده از هر دوی این مجموعه داده ها به طور جداگانه آموزش دادند. پس از بازآموزی، مدل ها با استفاده از تست های شناخته شده هوش مصنوعی مقایسه شدند.
هنگامی که در چیزی مانند TikTok پیمایش می کنیم، فوران های کوتاهی از دوپامین دریافت می کنیم، و به نظر می رسد همین امر در مورد هوش مصنوعی نیز صادق باشد.
دقت در تکلیف استدلال از 74.9 درصد به 57.2 درصد کاهش یافته است و در آزمایش میزان اطلاعاتی که مدل هوش مصنوعی می تواند در آن واحد تجزیه و تحلیل کند، نتایج از 84.4 درصد به 52.3 درصد کاهش یافته است.
همانند انسان، اثر پوسیدگی مغز توانایی مدل را برای تمرکز روی کارهای طولانیتر کاهش داد. زمانی که مدلهای هوش مصنوعی در مورد محتوای کمکیفیت آموزش میبینند، مشخص شد که از مراحل مهم برای رسیدن به پایان کار میگذرند.
این برای هوش مصنوعی چه معنایی دارد؟
همه اینها بسیار جالب به نظر میرسد، اما مدلهای هوش مصنوعی هر روز در رسانههای اجتماعی جستجو نمیکنند تا تمرین کنند، درست است؟ در واقع، وضعیت کمی پیچیده تر از این است.
مدلهای هوش مصنوعی مانند ChatGPT در موقعیتهای بسته آموزش داده میشوند. در حالی که ChatGPT و مدلهای دیگر مانند آن ممکن است به روندهای موجود در اینترنت یا آنچه که در پلتفرمی مانند X ترند است اشاره کنند، در واقع از آن درس نمیگیرند، بلکه فقط به آن جهان ارجاع میدهند.
فرآیند آموزش برای بزرگترین مدل های هوش مصنوعی برای جلوگیری از خطر انتخاب و با دقت انجام می شود. اما آنچه این مطالعه ثابت می کند این است که چقدر آسان است برای یک چت بات فاسد شود، به خصوص وقتی که کنترل بیشتری به آنها داده شود.
یک ChatGPT پوسیده مغزی در آینده بعید به نظر می رسد، اما نشان دهنده این است که مدل های هوش مصنوعی به راحتی می توانند نتایج منفی از داده های بد بگیرند و به رژیم غذایی با اطلاعات با کیفیت بالا نیاز دارند.
بله، هوش مصنوعی در واقع مغزی برای پوسیدگی ندارد، و همچنین شخصیتی برای خودشیفتگی ندارد، اما آنها می توانند به راحتی تجربیات زندگی واقعی را منعکس کنند، به خصوص زمانی که در معرض مواد غربال نشده قرار می گیرند.
از آنجایی که به هوش مصنوعی کنترل بیشتری داده میشود، آیا میتواند به اسکنهای سلامتی نیاز داشته باشد تا مطمئن شود محتوایی که میتواند بر عملکرد آن تأثیر بگذارد را وارد نمیکند؟ این مدل ها هم پیچیده هستند و هم هزینه ساخت آن ها بسیار بالاست.
یک ChatGPT پوسیده مغزی در آینده بعید به نظر می رسد، اما نشان دهنده این است که مدل های هوش مصنوعی به راحتی می توانند نتایج منفی از داده های بد بگیرند و به رژیم غذایی با اطلاعات با کیفیت بالا نیاز دارند.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود. فراموش نکنید که روی دکمه Follow کلیک کنید!
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



