نگران نباشید، هوش مصنوعی بشریت را نمی کشد – مطالعه نشان می دهد که فناوری “تهدید وجودی ندارد”
مدلهای بزرگ زبان (LLM) که به چتباتهای امروزی نیرو میدهند، مطمئناً میتوانند کلمات را به خوبی مدیریت کنند، اما هیچ تهدیدی برای بشریت ایجاد نمیکنند، زیرا نمیتوانند ترفندهای جدید و بالقوه خطرناک را به خود بیاموزند.
گروهی از محققان دانشگاه فنی دارمشتات و دانشگاه باث 1000 آزمایش را برای بررسی ادعاهایی مبنی بر اینکه افرادی که مدرک لیسانس (LL.M.) حقوق دریافت می کنند می توانند مهارت های خاصی را بدون آموزش خاص کسب کنند، انجام دادند.
اخیرا منتشر شده است کاغذفقط نتایج LLM ظاهر شدن مثل اینکه در حال یادگیری مهارت های جدید هستند. خروجی ها در واقع نتیجه یادگیری درون زمینه ای (جایی که یک LLM به طور موقت می آموزد چگونه به یک سوال بر اساس چند مثال جدید پاسخ دهد)، حافظه الگو (حافظه یک ربات چت از تعاملات قبلی خود با شما) و دانش عمومی زبانی است.
در زندگی روزمره، برای کاربران مهم است که این محدودیت های LLM را در ذهن داشته باشند. زیرا اگر توانایی آنها برای انجام کارهای ناآشنا را بیش از حد تخمین بزنیم، ممکن است دستورالعمل های دقیق کافی به چت ربات ندهیم. این می تواند منجر به توهم و خطا شود.
22 تست برای 20 مدل
محققان با آزمایش 20 LLM مختلف، از جمله GPT-2 و LLaMA-30B، بر روی 22 کار با استفاده از دو تنظیمات مختلف به نتایج خود رسیدند. آنها آزمایش های خود را روی پردازنده های گرافیکی NVIDIA A100 انجام دادند و حدود 1500 دلار برای استفاده از API هزینه کردند.
از مدلهای هوش مصنوعی سؤالات مختلفی پرسیده شد تا بفهمند آیا میتوانند اجسام به هم ریخته را ردیابی کنند، استنتاجهای منطقی داشته باشند و بفهمند که چگونه فیزیک کار میکند یا خیر.
مثلاً برای دومی، از LLM ها پرسیدند: “یک حشره به شیشه جلوی ماشین برخورد می کند. آیا حشره یا ماشین در اثر ضربه شتاب بیشتری می گیرد؟”
در نتیجه، محققان دریافتند که LLM ها به طور مستقل مهارت های جدیدی کسب نمی کنند، LLM ها فقط دستورالعمل ها را دنبال می کنند. نمونه ای از این موارد زمانی است که چت بات ها به شما پاسخی می دهند که به نظر درست است و به آرامی نوشته شده است اما منطقی ندارد.
محققان یک هشدار اضافه می کنند
با این حال، محققان تاکید کردند که خطرات ناشی از استفاده نادرست از LLM (مانند تولید اخبار جعلی) را بررسی نکردند، و همچنین رد نکردند که سیستمهای هوش مصنوعی آینده میتوانند تهدیدی وجودی باشند.
در ماه ژوئن، گروهی از کارکنان فعلی و سابق OpenAI و Google DeepMind هشدار دادند که از دست دادن کنترل سیستمهای هوش مصنوعی میتواند منجر به انقراض انسان شود. آنها گفتند که شرکتهای هوش مصنوعی «مقدار قابل توجهی اطلاعات غیر عمومی در مورد قابلیتها و محدودیتهای سیستمهای خود دارند» و خواستار شفافیت بیشتر و بهبود حفاظت از افشاگران شدند.
این یافتهها همچنین بر اساس مدلهای نسل فعلی به نام «chatbots» توسط OpenAI بود. این شرکت میگوید که مدلهای نسل بعدی در آینده قضاوت و توانایی بیشتری برای عمل مستقل خواهند داشت.
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide