مطالعه جدید نشان می دهد که chatbots هوش مصنوعی ، اعتماد به نفس کارگران را تضعیف می کند و سؤالات بسیار جدی را ایجاد می کند

من در یک لایه یخ در یک Audi A8 رانندگی می کردم و شرایط بسیار مناسب نبود. حتی اگر من تمام زندگی خود را در آب و هوای سرد زندگی می کنم ، در رانندگی در زمستان کاملاً صلاحیت ندارم.
من از شرایط جاده مطمئن نیستم که شما در مسیر یک کشور متروک و متروک در صندلی راننده حرکت می کنید. تقریباً 55 مایل در ساعت به سرعت ، به امید اینکه لاستیک های زمستانی روی جاده متمرکز شوند ، به یک مسیر آشنا نزدیک شدم که مانند یک دریاچه یخ زده می درخشد.
ناگهان ، یک اتوبوس مدرسه در بالای تپه ظاهر شد زیرا خطوط زرد مرکزی با یخ و برف بسته بندی شده ضخیم پوشانده شده بود. اولین واکنش این بود که به طور ناگهانی به سمت راست حرکت کنیم تا از اتوبوس آینده به عنوان یک فرد ناقص که بر روی احساسات عمل می کند و ثانیه های تقسیم شده است ، جلوگیری شود.
و سپس اتوماسیون در Audi A8 آغاز شد.
با حساسیت تخصصی ، ماشین به سمت شانه ، مانند ریل ها ، فرمان را تنظیم کرد. فناوری حادثه مطمئن بود که تریلر سریع من در فرمان با تماشای فرمان و حرکت تایر محکم فرو ریخته است.
آیا مشکلی در این مورد وجود ندارد؟
وقتی هوش مصنوعی است ، چند سؤال وجود دارد که باید پرسیده شود. رئیس این موارد است: آیا ما خوب است که در زمینه هوش مصنوعی و سایر اتوماسیون برای ما فکر کنیم؟
آیا اعتراف می کنیم که هوش مصنوعی بدون دانش ما می تواند برای ما تصمیم گیری کند و به آینده ای منجر شود که ما کاملاً از یک دیدگاه شناختی آگاه نباشیم؟
یک مطالعه جدید توسط مایکروسافت و کارنگی-مولون در حال روشن شدن است. محققان 319 کارمند اطلاعات را مورد بررسی قرار دادند و دریافتند که پس از استفاده از بهترین چکمه های چت هوش مصنوعی ، اعتماد به نفس در توانایی های شناختی خود را احساس می کنند.
در حقیقت ، هنگامی که آنها به هوش مصنوعی قدرتمندتر و با استعدادی اعتماد داشتند تا برای آنها بلند شود ، اعتماد به نفس بیشتری را از دست داده اند.
محققان 319 کارمند اطلاعات را مورد بررسی قرار دادند و دریافتند که پس از استفاده از چت های AI ، احساس عدم اعتماد به نفس در توانایی های شناختی خود را دارند.
این مطالعه گفت: “[AI] به نظر می رسد وسایل نقلیه تلاش درک شده مورد نیاز برای کارهای تفکر انتقادی را در بین کارگران اطلاعات کاهش می دهند ، به ویژه هنگامی که آنها به مهارت های هوش مصنوعی بیشتر اعتماد کنند.
“با این حال ، کارگرانی که به مهارت های خود اعتماد دارند ، تمایل دارند تلاش های بیشتری را در این کارها درک کنند ، به ویژه هنگام ارزیابی و اجرای پاسخ های هوش مصنوعی.”
همانطور که همه ما می دانیم ، چکمه های گپ مانند Claude و Gok 3 قوی ، کارآمد و سریع هستند. آنها می توانند آثار داستانی را تهیه کنند و مشکلات ریاضی پیچیده ای را حل کنند. آنچه ما باید قبلاً تصمیم بگیریم ، نه بعداً ، این است که آیا ما برای همه این برون سپاری قدرت شناختی خوب هستیم.
از آنجا که این حادثه در آئودی ، من با توسعه فناوری ، درایور زمستانی بهتری بوده ام. امروز ، اتومبیل ها می توانند به تنهایی رانندگی کنند ، شما را در خط از بین ببرند. یک الگوریتم می داند که در کجا هستید و می توانید از نزدیک شدن به اتومبیل (و اتوبوس های مدرسه) خودداری کنید.
من به عنوان یک روزنامه نگار ، صدها وسیله نقلیه را سوار کردم. از زمان آن حادثه ، من فناوری امنیتی را در اتومبیل هایی که آزمایش کردم فعال کرده ام. و هنوز هم ، من تعجب می کنم که چه اتفاقی برای من افتاده است. من تعجب می کنم که من کی هستم و خودم را به نفع دستگاهی رها می کنم که برخی از آنها را برای من فکر می کند. از همه بدتر ، من نمی دانم که آیا اعتماد بیش از حد من به فناوری ، یادگیری ، رشد و توسعه را دشوار می کند.
خطرناک ترین تهدید تهدیدی است که شما نمی دانید. اگر درست باشد که هوش مصنوعی به آرامی ما را فریب می دهد زیرا ما به فناوری اعتماد داریم ، این یک روند آهسته خواهد بود.
آیا ما ذهن خود را به Google از دست می دهیم؟
ما لازم نیست که بیش از حد به نظر برسیم تا ببینیم که چگونه فن آوری های دیگر آنچه را که ما فکر می کنیم تغییر می دهند.
اول از همه ، گوگل آمد ، سپس به رسانه های اجتماعی ما آمد که از محتوای مبتنی بر الگوریتم تغذیه می کند. هر دو به اهداف خود خدمت می کنند و می توانند به بشریت کمک کنند. با این وجود ، هر دو به عنوان سیگنال هشدار دهنده خدمت می کنند.
نیکلاس کار ، نویسنده مشهور ، در سال 2008 گفت که ما ذهن خود را به Google از دست دادیم. منظور او در آن زمان تمایل داشت برای یافتن پاسخ ها جستجو کند و از این کشف ناراحت کننده بود. چیزهای عزیز – برخورد با احساسات ، یادگیری یک فرایند جدید و حتی توسعه روابط – زمان و تلاش. از قدرت مغز استفاده می کند.
در کتاب جدیدی که در آغاز سال 2025 منتشر شد ، کار نظریه های خود را در مورد سقوط اطلاعات انسانی به روز کرد و تهدیدی حتی بیشتر را توصیف می کند: ظهور رسانه های اجتماعی و سایر فناوری.
کتاب Superbloom: فن آوری های اتصال چگونه ما را پاره کنیم (اکنون با 17 دلار در آمازون در حال فروش هستند) رسانه های اجتماعی و در نهایت توضیح می دهند که چگونه هوش مصنوعی شناخت انسان را تغییر می دهد.
به نظر من ، این گامی در جهت افزایش یا حتی تغییر برخی از بخش های هوش انسانی رسانه های اجتماعی بود. ابتدا به Google اعتماد کردیم ، سپس شروع به انجام آخرالزمان در رسانه های اجتماعی کردیم. ما به الگوریتم اجازه می دهیم آنچه را می بینیم و چه چیزی مصرف می کنیم تعیین کند.
برنامه هایی مانند Facebook و X بر انتخابات تأثیر گذاشتند و نظریه های توطئه را تشویق کردند. و هنوز هم ، رسانه های اجتماعی فقط طعم چیزهایی است که می آیند.
ما هنوز چیزی ندیده ایم
براساس نظرسنجی 2025 توسط دانشگاه کرنل ، مراکز داده بزرگتر از منهتن تا سال 2027 در همه جا ظهور می یابد و تقریباً 4.2 میلیارد متر مکعب آب در سال مصرف می کند.
AI اکنون متن نوشتاری را حدود 100 میلیارد بار در روز در حال تبدیل شدن است. مدل های هوش مصنوعی برای تشخیص سرطان در بیماران با دقت 95 ٪ آموزش دیده اند. پزشکان انسانی که با همان اسکن های رادیولوژیکی روبرو هستند فقط 87 ٪ صحیح هستند.
اجتناب ناپذیر است که AI بتواند جایگزین یا حداقل شناخت انسان شود. ما به طور کامل درک نخواهیم کرد که AI چه کاری انجام می دهد یا چرا. به گفته کار ، این امر باعث می شود افراد به تنهایی خیلی خارق العاده نشوند ، و این به من یادآوری می کند که چگونه به سختی می دانم که جهت فرزندان بزرگسال من به دلیل اعتماد به نفس بیش از حد در برابر پزشکان عمومی است.
به همین ترتیب ، ما فرض می کنیم که به ما کمک می کند تا بیشتر به فناوری تکیه کنیم و ابتکاری تر شویم. حقیقت کمی گل آلود تر است.
وقتی اجازه می دهیم هوش مصنوعی برای ما آسانتر شود ، مانند نوشتن یک رزومه و نامه پوشش برای یک کار جدید ، ما دردهای لازم را تجربه نمی کنیم. ما می توانیم یک محصول نهایی را خریداری کنیم ، اما نمی فهمیم که چگونه انجام می شود.
تصور کنید که چگونه همه ما یاد گرفتیم که صحبت کنیم. بیشتر از طریق آزمایش و خطا. کودک ، که شروع به راه رفتن می کند ، با آوردن چند کلمه مسخره برای تلاش و ایجاد جملات شروع می کند. کارن آرمسترانگ ، یک راهبه و روحانی سابق می گوید: “زبان نه تنها یک ابزار ارتباطی حیاتی است ، بلکه به ما کمک می کند تا تلاطم متناقض دنیای درونی خود را بیان و روشن کنیم.
توانایی ما در هوش آگاهی از تفاوت بین درست و نادرست ، یادگیری و هماهنگی و حل مسئله ، تمام مهارتهایی که به آرامی با گذشت زمان می آموزیم. هوش مصنوعی ابزاری برای پیشرفت است و در پایان ، باید به عنوان یک افزونه دیده شود-این یک نسخه پشتیبان برای افراد نیست.