جنجال نمای کلی هوش مصنوعی گوگل – چرا واکنش شدید وجود دارد
در ماه مه 2024، گوگل ویژگی جدیدی را معرفی کرد که از هوش مصنوعی مولد برای ارائه خلاصه ای از نتایج برای جست و جوهای شما استفاده می کند. هدف آن کمک به تجربه کاربری رضایتبخشتر با کاهش تعداد کلیکهای لازم برای دریافت پاسخهای مورد نیاز است.
با این حال، گزارش ها عمدتاً نادرست و اغلب هستند پاسخ های مضر به عبارت های جستجو به زودی سیل اینترنت را آغاز کرد و باعث خشم در پلتفرم های رسانه های اجتماعی مانند لینکدین، ایکس و فیس بوک شد.
به عنوان مثال، هنگامی که از او پرسیده شد که ایالات متحده چند رئیس جمهور مسلمان داشته است، بررسی های هوش مصنوعی گوگل ادعا می کند که باراک اوباما تنها رئیس جمهور مسلمان ایالات متحده است. اما این تنها مثالی نیست که همه چیز به طرز وحشتناکی اشتباه پیش می رود. هنگامی که از او پرسیده شد که چگونه پنیر را از روی پیتزا سر نخورد، هوش مصنوعی گوگل میگوید: «برای چسبندگی بیشتر میتوانید ⅛ فنجان چسب غیر سمی به سس اضافه کنید.»
AI Overview همچنین به دروغ ادعا می کند که محققان در UC Berkeley خوردن حداقل یک سنگ کوچک در روز را توصیه می کنند زیرا آنها منبع حیاتی مواد معدنی هستند.
نمونه های بسیاری از شکست هوش مصنوعی
نمای کلی هوش مصنوعی گوگل. بلایا. یک موضوع 🧵 pic.twitter.com/NSoPfQXf6K24 مه 2024
هوش مصنوعی گوگل همچنین ادعا کرد که میتوانید برای طعم بیشتر به اسپاگتی بنزین اضافه کنید و افزودن روغن بیشتر به آتش روغن پخت و پز میتواند به خاموش کردن آن کمک کند.
در مثالی دیگر، هوش مصنوعی غول جستجو نشان داد که چتر نجات در جلوگیری از مرگ هنگام پریدن از هواپیما بهتر از کوله پشتی نیست.
قابل درک است، کارشناسان به زودی شروع به بررسی این موضوع کردند، زیرا نگران احتمال انتشار اطلاعات نادرست در بین کاربران ناآگاه بودند.
چگونه نمای کلی هوش مصنوعی گوگل اینقدر اشتباه پیش رفت؟
ما تمایل داریم اطلاعات را مجموعهای از حقایق عینی بدانیم که در جهان وجود دارد.» دکتر. Emily M. Bender می نویسداو استادی است که در دانشگاه واشنگتن زبان شناسی تدریس می کند. “اما در واقع، اطلاعات و اکوسیستم دانش ذاتاً رابطه ای هستند.”
او می افزاید: «وقتی گوگل، مایکروسافت و OpenAI به دنبال قرار دادن سیستم های به اصطلاح «AI» (که توسط LLM ها هدایت می شوند) بین جویندگان دانش و ارائه دهندگان دانش، توانایی ایجاد و حفظ آن روابط را مختل می کنند.
بندر می گوید که اطلاعات از کجا آمده است به اندازه خود اطلاعات مهم است. اگر به سؤالات خود پاسخی ایجاد شده توسط هوش مصنوعی ارائه شود که هیچ راهی برای ردیابی اطلاعات به منبع آن نداشته باشد، نمی توانید بگویید که آیا «حقایق پزشکی» که به تازگی آموخته اید از یک منبع قابل اعتماد است یا خیر. منبعی مانند کلینیک مایو یا منبع دیگری. دکتر از.
چرا مرورهای هوش مصنوعی اطلاعات نادرست را منتشر کرد؟
هوش مصنوعی مولد راهی برای دانستن اینکه چه چیزی درست است ندارد. فقط می داند چه چیزی محبوب است. بنابراین، اغلب منجر به پاسخهایی میشود که از منابع غیرقابل اعتماد یا گزارشهای تقلیدی به جای حقایق واقعی میآیند. در برخی موارد، هوش مصنوعی مستعد “توهم” است، جایی که داده های نادرست را برای پر کردن شکاف اطلاعاتی ایجاد می کند.
گوگل همیشه پلتفرمی بوده است که کاربران می توانند به انواع اطلاعات و اطلاعات نادرست دسترسی داشته باشند. اما بدون توانایی نسبت دادن اطلاعات به شهرت منبع، هیچ راهی برای اطلاع از صحت پاسخهایی که دریافت میکنید ندارید.
این شرکت در بیانیهای گفت: «اکثریت قریب به اتفاق مرورهای هوش مصنوعی اطلاعات با کیفیت بالا را با پیوندهایی برای غواصی عمیقتر در وب ارائه میدهند.
بسیاری از نمونه هایی که دیدیم، پرس و جوهای غیرعادی بودند، و همچنین نمونه هایی را دیدیم که قابل دستکاری یا بازتولید نبودند.»
اگر نگران احتمال نتایج گمراهکننده هستید، میتوانید راهنمای ما را برای مسدود کردن مرورهای هوش مصنوعی در نتایج Google خود دنبال کنید.
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide