Anthropic کلود را به مراقبت های بهداشتی می آورد – از لیست انتظار ChatGPT Health رد شوید

Anthropic، آزمایشگاه هوش مصنوعی پشت خانواده Claude LLM (مدل های زبان بزرگ)، با مجموعه جدیدی از ابزارهای طراحی شده برای کمک به بیماران و پزشکان برای کار موثرتر با داده های پزشکی، گام بزرگی در فضای مراقبت های بهداشتی برمی دارد.
این اعلامیه که با شروع کنفرانس مراقبت های بهداشتی JP Morgan در سانفرانسیسکو برگزار شد، Claude for Healthcare را معرفی می کند، مجموعه ای از قابلیت های ساخته شده بر اساس آخرین مدل های Claude و طراحی شده برای مطابقت با قوانین سختگیرانه حریم خصوصی پزشکی ایالات متحده مانند HIPAA.
این اقدام Anthropic تنها چند روز پس از آن صورت میگیرد که رقیب OpenAI ChatGPT Health را راهاندازی کرد، بخشی از گسترش خود در ابزارهای هوش مصنوعی مرتبط با سلامتی که به کاربران اجازه میدهد سوابق پزشکی را آپلود کنند و راهنماییهای سلامت شخصی دریافت کنند.
کلود برای خدمات بهداشتی چه کاری می تواند انجام دهد؟
برخلاف چت ربات های همه منظوره، Claude for Healthcare به طور خاص برای محیط های بالینی تنظیم شده طراحی شده است و برای اتصال به منابع داده های پزشکی قابل اعتماد طراحی شده است. به گفته آنتروپیک، این سیستم میتواند از پایگاههای اطلاعاتی کلیدی مراقبتهای بهداشتی و علمی استفاده کند و به آن توانایی تفسیر و متنی کردن اطلاعات پیچیده پزشکی را بدهد.
این پیشنهاد همچنین شامل ابزارهایی با هدف گردش کار علوم زیستی، کمک به محققان در برنامه ریزی کارآزمایی بالینی، پشتیبانی از اسناد نظارتی و بررسی متون زیست پزشکی است.
بیماران و پزشکان در حال حاضر می توانند از ویژگی های به روز کلود با اشتراک در Claude Pro و Claude Max استفاده کنند تا توضیحات واضح تری از سوابق سلامت یا نتایج آزمایش خود دریافت کنند، و این پلت فرم با سیستم های داده های سلامت شخصی مانند Apple Health و برنامه های تناسب اندام ادغام می شود تا کاربران بتوانند سوالات شخصی در مورد اطلاعات پزشکی خود بپرسند.
کلود و حریم خصوصی
چارچوب امنیتی گسترده تر Anthropic که به عنوان هوش مصنوعی قانونی شناخته می شود، بر حریم خصوصی تأکید دارد. بهجای تکیه بر بازبینهای واقعی که مکالمات کاربر را میخوانند، کلود برای پیروی از مجموعهای از قوانین داخلی آموزش دیده است که تاکید دارند:
- جلوگیری از افشای اطلاعات غیر ضروری
- محدود کردن جمع آوری بیش از حد اطلاعات شخصی
- اولویت دادن به رضایت کاربر و شفافیت
- هدف این است که تعداد دفعاتی که مردم به داده های کاربر خصوصی نگاه می کنند را کاهش دهیم.
مقایسه کلود با ChatGPT
OpenAI کنترل های حریم خصوصی خود را در سال های اخیر به طور قابل توجهی بهبود بخشیده است، از جمله گزینه های انصراف و محافظت های شرکتی. اما آنتروپیک بیشتر به سمت جایگاه اول حریم خصوصی به عنوان یک تمایز کلیدی، به ویژه برای مشاغل و صنایع تحت نظارت حرکت کرده است.
به همین دلیل است که آنتروپیک کلود را به عنوان گزینه ای امن تر برای موارد زیر معرفی می کند:
- سازمان های بهداشت و درمان
- تیم های حقوقی
- موسسات مالی
- سازمان هایی که با اسناد حساس کار می کنند
کلود طوری طراحی شده است که بدون یادگیری از شما مفید باشد. مکالمات به طور پیشفرض برای آموزش استفاده نمیشوند، دادههای شرکت قفل شده است، و گردشهای کاری مراقبتهای بهداشتی برای حفظ خصوصی دادههای پزشکی ساخته شدهاند. این به توضیح اینکه چرا آنتروپیک به شدت در حال حرکت به سمت مناطق تحت نظارت مانند مراقبت های بهداشتی است کمک می کند.
غذای آماده
بین OpenAI و Anthropic، واضح است که هوش مصنوعی در صنایع پرخطر مانند پزشکی ادغام می شود و رقابت می تواند استقرار آن را تسریع کند. تلاشهای موازی دو آزمایشگاه پیشرو هوش مصنوعی نشان میدهد که هوش مصنوعی مولد با چه سرعتی اجرا میشود
در عین حال، این روند سؤالات جدیدی را در مورد حریم خصوصی داده ها، انطباق با مقررات، و تعادل بین راحتی هوش مصنوعی و دقت بالینی ایجاد می کند. اینها مسائلی هستند که احتمالاً پذیرش و نظارت آینده را شکل خواهند داد. ما این مسائل و اتفاقات آینده را از نزدیک دنبال خواهیم کرد.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.


