OpenAI یک نسخه نمایشی صوتی پیشرفته جدید GPT-4o را به اشتراک می گذارد. می تواند به شما زبان بیاموزد
OpenAI تأیید کرد که تا اواخر سال جاری ویژگیهای صوتی پیشرفته را در ChatGPT معرفی نخواهد کرد، اما به ارائه اطلاعات در مورد آنچه میتوانیم انتظار داشته باشیم ادامه داد. آخرین نسخه به کاربران پرتغالی آموزش می دهد و قابلیت های زبانی چشمگیر GPT-4o را به نمایش می گذارد.
GPT-4o در آپدیت بهار OpenAI در اوایل سال جاری معرفی شد و با آن قابلیتهای صوتی پیشرفتهای چشمگیر ارائه شد. آنها همچنین برخی از ویژگیهای بینایی و اشتراکگذاری صفحه نمایش را فاش کردند که اکنون میدانیم تا اواخر سال یا احتمالاً اوایل سال آینده ارائه نمیشوند.
یکی از نقاط قوت فروش در نسخه ی نمایشی اصلی، توانایی GPT-4o برای عمل به عنوان یک دستگاه ترجمه زنده بود، اما چیزی که در برخی از دموهای جدید شروع به دیدن کردیم این است که می تواند یک معلم زبان باورنکردنی نیز باشد. این چیزی است که من خودم کمتر با مدل صوتی فعلی تجربه می کنم.
در یک ویدیوی OpenAI جدید، یک انگلیسی زبان مادری که سعی در یادگیری زبان پرتغالی دارد و یک اسپانیایی زبان با درک اولیه این زبان از ChatGPT برای کمک به بهبود مهارت های خود استفاده کردند. در نقاط مختلف از او میخواهند که سرعت را کم کند یا اصطلاحات را توضیح دهد و او این کار را کاملاً انجام میدهد.
آموزش زبان با GPT-4o
چیزی که صدای پیشرفته ChatGPT-4o جدید را بسیار هیجان انگیز می کند این است که به طور طبیعی گفتار به گفتار است. برخلاف مدلهای قبلی که ابتدا گفتار را به متن تبدیل میکردند و همین کار را به صورت معکوس برای پاسخ انجام میدادند، این مدل طبیعتاً آنچه را که میگویید میفهمد.
توانایی او در درک گفتار و صدا مانند یک گوینده بومی اساساً او را به معلمی عالی تبدیل می کند که ویژگی های هیجان انگیزی مانند کار در چندین زبان، استفاده از لهجه های مختلف یا تغییر سرعت و سرزندگی صدا را ارائه می دهد.
توانایی های زبان مادری او به او این توانایی را می دهد که به آنچه می گویید گوش دهد، نحوه بیان برخی کلمات و حتی لهجه شما را تجزیه و تحلیل کند. سپس، به جای ارزیابی متن، می تواند بازخورد مستقیمی را بر اساس شنیده ها ارائه دهد.
علاوه بر همه اینها، GPT-4o همچنین دارای توانایی های استدلال و حل مسئله قابل توجهی است، بنابراین می تواند تشخیص دهد که کجا اشتباه می کنید، حتی به روش های نه چندان واضح.
چه چیز دیگری در GPT-4o دیدیم؟
آنها مرا در r/ChatGPT مسخره کردند 🥲
چندین نسخه نمایشی از ویژگی های صوتی پیشرفته جدید ساخته شد، از جمله برخی که برای انتشار در نظر گرفته نشده بودند. یکی از آنها نشان می دهد که می تواند در حین گفتن یک داستان برای شما جلوه های صوتی ایجاد کند و دیگری نشان می دهد که می تواند از چندین صدای مختلف استفاده کند.
ما شاهد استفاده از آن به عنوان معلم ریاضی در ویدیوهای رسمی به اشتراک گذاشته شده توسط OpenAI در YouTube بوده ایم. در این ویدئو، او در حال کار بر روی یک آیپد دیده میشود که در آن صفحه نمایش به اشتراک گذاشته میشود و هوش مصنوعی توصیهها و اطلاعاتی را در مورد هر جنبهای از یک مسئله ریاضی نشان میدهد.
حالت صوتی پیشرفته و به ویژه توانایی درک گفتار به شکل طبیعی آن، به نظر می رسد یکی از مهم ترین جهش ها در هوش مصنوعی از زمانی که OpenAI رابط چت را به مدل GPT-3 در نوامبر 2022 اضافه کرد.
اطلاعات بیشتر از راهنمای تام
منبع: tomsguide