مدل Whisper OpenAI در موقعیتهای پرخطر «توهم» میدهد

بر اساس یک گزارش جدید، محققان دریافتند که ابزار رونویسی به کمک صوتی OpenAI Whisper در حال اختراع چیزهایی است که هرگز گفته نشده است، که می تواند عواقب بالقوه خطرناکی داشته باشد.
به گزارش APNews، مدل هوش مصنوعی متنی را ابداع می کند (که اغلب به آن توهم گفته می شود) که در آن مدل زبان بزرگ الگوهایی را که در مواد آموزشی خودش یافت نمی شود، تشخیص می دهد و در نتیجه خروجی بی معنی ایجاد می کند. محققان آمریکایی دریافتند که اشکالات Whisper می تواند شامل نظرات نژادپرستانه، خشونت و درمان های پزشکی خارق العاده باشد.
Whisper با برخی از نسخههای ChatGPT یکپارچه شده است و یک پیشنهاد داخلی روی پلتفرمهای رایانش ابری مایکروسافت و اوراکل است. مایکروسافت اعلام کرده است که این ابزار برای استفاده پرخطر در نظر گرفته نشده است، اما ارائه دهندگان مراقبت های بهداشتی شروع به استفاده از آن برای رونویسی مشاوره بیماران با پزشکان کرده اند.
Whisper ادعا میکند که سازنده آن دارای «استحکام و دقت در سطح انسانی» است و توسط بیش از 30000 پزشک آمریکایی در 40 سیستم مراقبتهای بهداشتی مورد استفاده قرار گرفته است. با این حال، محققان نسبت به پذیرش به دلیل مشکلاتی که در مطالعات مختلف یافت می شود، هشدار می دهند.
در یک مطالعه بر روی جلسات عمومی، یک محقق دانشگاه میشیگان دریافت که Whisper از هر 10 رونویسی صوتی مورد بررسی، هشت مورد توهم داشت. در همین حال، یک مهندس یادگیری ماشین توهمات را در حدود نیمی از بیش از 100 ساعت رونویسی کشف کرد و توسعهدهنده سوم تقریباً در هر یک از 26000 رونوشت که با Whisper ایجاد کرد، توهمات را کشف کرد.
ماه گذشته، Whisper بیش از 4.2 میلیون بار از پلتفرم هوش مصنوعی منبع باز HuggingFace دانلود شد و این ابزار را به محبوب ترین مدل تشخیص گفتار در وب سایت تبدیل کرد. محققان با تجزیه و تحلیل مطالب از TalkBank، یک مخزن داده میزبانی شده در دانشگاه کارنگی ملون، به این نتیجه رسیدند که 40 درصد از توهمات تولید شده توسط Whisper می تواند به دلیل “تعبیر نادرست یا ارائه نادرست” گوینده مضر باشد.
در نمونههای AP از چنین قطعههایی، یک سخنران «دو دختر دیگر و یک خانم» را توصیف کرد و ویسپر با اشاره به این که «دو دختر و یک خانم دیگر سیاهپوست بودند» یک نظر نژادی ابداع کرد. در مثالی دیگر، این ابزار یک داروی خیالی به نام «آنتی بیوتیک های بیش فعال» ایجاد کرد.
پروفسور آلوندرا نلسون، پروفسور پرینستون، به آسوشیتدپرس گفت که “هیچکس تشخیص اشتباه نمی خواهد” و گفت که اشتباهاتی مانند مواردی که یافت می شود می تواند منجر به “عواقب واقعاً جدی” شود، به ویژه در محیط های مراقبت های بهداشتی.
همانطور که ویلیام ساندرز، کارمند سابق، به AP گفت: “اگر شما این موضوع را مطرح کنید و مردم نسبت به کاری که می تواند انجام دهد و آن را در تمام سیستم های دیگر ادغام کنند بیش از حد اعتماد به نفس داشته باشند، درخواست هایی برای رفع مشکل وجود دارد.”
در حالی که بسیاری از کاربران انتظار داشتند که ابزارهای هوش مصنوعی اشتباه کنند یا کلمات را اشتباه بنویسند، محققان دریافتند که سایر برنامه ها به اندازه Whisper اشتباه می کنند.
مروری بر هوش مصنوعی گوگل در اوایل سال جاری با انتقاداتی روبرو شد که پیشنهاد استفاده از چسب غیر سمی را برای جلوگیری از افتادن پنیر از روی پیتزا با ذکر یک نظر کنایه آمیز Reddit به عنوان منبع ارائه کرد.
تیم کوک، مدیر عامل اپل در مصاحبه ای اعتراف کرد که توهمات هوش مصنوعی می تواند در محصولات آینده از جمله مجموعه هوشمند اپل مشکل ساز باشد. کوک به واشنگتن پست گفت که سطح اطمینان در مورد اینکه آیا این دستگاه ها باعث ایجاد توهم می شوند 100٪ نیست.
کوک گفت: «من فکر میکنم ما هر کاری را که میدانیم انجام دادهایم، از جمله اینکه به سختی در مورد اینکه آیا فناوری در زمینههایی که از آن استفاده میکنیم آماده است یا نه، فکر کردهایم.
با وجود این، شرکت ها در حال پیشرفت در توسعه ابزارها و برنامه های هوش مصنوعی هستند و توهمات مشابه اختراعات Whisper همچنان یک مشکل رایج باقی مانده است. در مورد پاسخ OpenAI به توهمات، توصیه میکند که Whisper «در زمینههای تصمیمگیری که نقص در دقت میتواند منجر به نقصهای قابل توجهی در نتایج شود» استفاده نشود.
منبع: tomsguide