«فکر میکنم هوش مصنوعی احتمالاً دنیا را به پایان خواهد رساند»: همه نقل قول «روز داوری» سام آلتمن را به اشتراک میگذارند، اما تقریباً هیچکس به تاریخ آن توجه نمیکند.

اگر اخیراً زمانی را آنلاین گذراندهاید، احتمالاً این نقل قول از سم آلتمن، مدیر عامل OpenAI را دیدهاید: “من فکر می کنم هوش مصنوعی به احتمال زیاد به پایان جهان منجر خواهد شد.”
این نقل قول دوباره مطرح شد زیرا ابزارهای هوش مصنوعی در زندگی روزمره بیشتر دیده می شوند و ترس از تأثیر آنها به همان سرعت افزایش می یابد. این اغلب به عنوان یک لحظه افت میکروفون ارائه می شود. برخی شواهدی هستند که حتی افرادی که هوش مصنوعی را توسعه می دهند معتقدند فاجعه اجتناب ناپذیر است. اما مانند بسیاری از نقلقولهای ویروسی، این یکی نیز فاقد زمینه است. و وقتی آن را در جایی که به آن تعلق دارد قرار دهید، داستان بسیار آشناتری را روایت می کند.
زیرا این اولین بار نیست که یک فناوری جدید قدرتمند باعث ترس، سردرگمی و پیشبینی بدترین موارد میشود. این بخشی از یک الگو است.
ما قبلا اینجا بودیم
این نقل قول از وحشت امروزی هوش مصنوعی نیامده است
تماشا کنید
سام آلتمن این جمله را در سال 2015 بیان کرد، مدت ها قبل از ChatGPT، مدت ها قبل از اینکه OpenAI به یک نام آشنا تبدیل شود و مدت ها قبل از اینکه ابزارهای هوش مصنوعی وارد زندگی روزمره شوند.
در آن زمان، آلتمن Y Combinator را اجرا می کرد و به طور غیر رسمی در مورد خطرات و مزایای بلند مدت هوش مصنوعی صحبت می کرد. این نقل قول اغلب بدون نیمه دوم انتقادی به اشتراک گذاشته می شود:
اما در این میان، شرکتهای بزرگی با یادگیری ماشینی جدی ایجاد خواهند شد.»
این یک پیشبینی نبود، بلکه تصدیق تنشهایی بود که فناوریهای دگرگونکننده هم مزیتهای خارقالعاده و هم مسئولیت جدی را به همراه دارند.
با گذشت زمان، این تفاوت ظریف ناپدید شد. چیزی که باقی می ماند ترسناک ترین نظر ممکن است. اکنون، همان نقل قول متفاوت است. در سال 2015، هوش مصنوعی برای اکثر مردم یک مفهوم انتزاعی بود. امروزه آنها ایمیل می نویسند، به سوالات پاسخ می دهند، اسناد را خلاصه می کنند و در برنامه هایی زندگی می کنند که میلیون ها نفر هر روز از آن استفاده می کنند. هنگامی که یک نقل قول ده ساله در طول یک دوره تغییر سریع دوباره ظاهر می شود، احساس جدیدی از فوریت می دهد، حتی اگر چیزی در خود نقل قول تغییر نکرده باشد.
ترس اینگونه عمل می کند. و اینگونه است که عبارات قدیمی به هشدارهای جدید تبدیل می شوند. اینجاست که تاریخ به کار می آید.
ظهور اینترنت همان ترس ها را برانگیخت
کسانی از ما که از اینترنت بزرگتر هستند قبلاً اینجا بوده ایم. ما به یاد داریم که چگونه اینترنت در دهه 1990 شروع به ورود به خانه ها کرد و چگونه به عنوان یک کالای غیرقابل صلاحیت تلقی نمی شد. با اضطراب، بدبینی و پیش بینی های وحشتناک مواجه شد.
منتقدان هشدار دادند که اینترنت:
- فاصله توجه را از بین ببرید
- مردم را از نظر اجتماعی منزوی کنید
- کارشناسان را نادیده بگیرید
- انتشار اطلاعات نادرست در سطح وسیع
- غیر ممکن برای ویرایش
در سال 1995، نیوزویک این سوال را مطرح کرد که آیا اینترنت می تواند به وعده خود عمل کند یا خیر. صداهای محترم استدلال کرده اند که این امر به طور معناداری در تجارت، رسانه یا زندگی روزمره تغییر نخواهد کرد. دیگران می ترسیدند که این امر جامعه را بیش از حد تغییر دهد.
ادعاها با یکدیگر تناقض داشتند. اما احساس پشت سر آنها همان چیزی بود که امروز در هوش مصنوعی می بینیم: عدم اطمینان به سرعت در حال افزایش.
هر فناوری بزرگی از این مرحله عبور می کند
این مدل مختص اینترنت نیست. تلویزیون متهم به فساد ذهنی شد. گفته می شد که ماشین حساب ها مهارت های ریاضی را از بین می برند. گوشی های هوشمند به کشتن مکالمه متهم شده اند. رسانه های اجتماعی به عنوان پایان دموکراسی در نظر گرفته شده است. در برخی موارد، ترس اغراق آمیز است. در برخی دیگر، آنها کاملاً اشتباه نبودند، اما ناقص بودند.
فناوری به ندرت آخرالزمان یا آرمان شهر را که انسان ها تصور می کنند ارائه می دهد. چیزی که در عوض ارائه می دهد چیز پیچیده تری است: پیشرفتی که با پیامدهای ناخواسته آمیخته شده است.
ناگفته نماند که رهبران تمایل دارند بدترین سناریوها را بپذیرند. وقتی رهبران فناوری آشکارا درباره خطرات شدید صحبت می کنند، اغلب با هشدار اشتباه گرفته می شود. در واقعیت، وضعیت اغلب برعکس است. در واقع، فنآوران جدی تمایل دارند دو کار را همزمان انجام دهند:
- بدترین عواقب احتمالی را بپذیرید
- فعالانه برای جلوگیری از آنها تلاش کنید
این ممکن است وقتی به یک جمله تقلیل یابد، هشداردهنده به نظر برسد، اما مانند پیش بینی فاجعه نیست. به این نزدیک تر است که بگوییم: “این فناوری به اندازه کافی قدرتمند است که مستحق نظارت دقیق باشد.”
متأسفانه، nuance به طور گسترده در اینترنت در دسترس نیست. ترس هم همینطوره اینگونه است که یک بیانیه ده ساله تبدیل به یک هشدار ویروسی می شود که هدف اصلی خود را از بین می برد.
چگونه عناوین ترسناک هوش مصنوعی را واضح تر بخوانیم؟
هیچ کدام از اینها به این معنی نیست که نگرانی های مربوط به هوش مصنوعی را باید نادیده گرفت. هوش مصنوعی سریعتر از فناوری های قبلی حرکت می کند. تقریباً فوراً در مقیاس جهانی مقیاس می شود. کنترل آن سخت تر، درک آن سخت تر و سوء استفاده در مقیاس بزرگ آسان تر است. این تفاوت ها مهم هستند و شایسته توجه جدی هستند. اما تاریخ نشان می دهد که وحشت به تنهایی یک استراتژی نیست. خوش بینی کورکورانه هم نیست.
نکته اولیه برای خوانندگانی که سعی میکنند دامنه هوش مصنوعی را درک کنند ساده است: وقتی یک نقل قول ترسناک در مورد هوش مصنوعی میبینید، قبل از پذیرش آن به صورت واقعی، مکث کنید.
برای پرسیدن:
- کی گفته شد؟
- در چه زمینه ای؟
- او واقعاً به چه مشکلی می پرداخت؟
ما قبلاً این چرخه را دیده بودیم. ترس اغلب اولین پاسخ به تحول است، نه تصمیم نهایی.
افکار نهایی
هوش مصنوعی روش کار، ایجاد و ارتباط ما را تغییر خواهد داد. این چالشهای واقعی را آشکار میکند که شایسته بررسی و بحث هستند. اما تاریخ نشان میدهد که داستان آنطور که ترسناکترین نقلقولها نشان میدهند به پایان نمیرسد.
زمینه خطر را از بین نمی برد. این فقط از تبدیل وحشت به سر و صدا جلوگیری می کند. و اکنون، با حرکت هوش مصنوعی با سرعت سرسام آور، این وضوح مهمتر از همیشه است.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



