Deepseek vs meta ai lama vs qwen در رایانه شخصی من به صورت محلی – من آن را توصیه می کنم

غول های هوش مصنوعی مانند Google ، Meta و OpenAi می توانند تمام عناوین را بگیرند ، اما به همان اندازه آشفته و به سرعت در پشت صحنه گسترش می یابند.
بازار مدل های هوش مصنوعی کوچک و تخصصی که می توانند روی رایانه های خانگی کار کنند به دلیل تقاضای نامحدود برای برنامه های شخصی و تجاری ، به سایت آتش سوزی می رسد.
دو سال پیش ، با راه اندازی مدل Open -Source Lama از متا اخراج شد – و امسال ، دیوانگی با راه اندازی Deepseek R1 اخراج شد – این بخش AI Homebrew در یک مدار غیرقابل توقف ظاهر می شود.
این مدل های محلی نه تنها ارزان تر و خاص تر هستند ، بلکه ثابت می کنند که تقریباً انواع خصوصی سازی آسان است.
اما آیا واقعاً مفید است ، یا همه اینها مطلوب است؟ من فکر کردم شاید ارزش دیدن سه مورد از تقلید کننده اصلی را داشته باشد تا ببینند آنها چه چیزی را ارائه می دهند.
در اعماق
به احتمال زیاد می گوید که هیچ مدلی بیش از این محصول چینی شوک برای تسریع در بخش هوش مصنوعی محلی انجام نمی دهد. این یک ابزار عالی برای همه افراد رایگان ، منبع باز و بسیار قدرتمند برای امتحان کردن برنامه های جدید هوش مصنوعی است.
دو دلیل مهم برای موفقیت انفجاری وجود دارد. اول ، می تواند روی یک سخت افزار بسیار متوسط ، به خصوص در نسخه های کوچکتر کار کند. ثانیا ، در فرایندی که به عنوان تقطیر AI شناخته می شود ، می توان از آن به راحتی برای آموزش مدل های دیگر برای تولید هیبریدهای مدل AI قدرتمند استفاده کرد.
مورد علاقه فعلی من به اندازه کافی کوچک است که بتواند روی رایانه رومیزی 5.3 گیگابایتی من کار کند ، اما Deepseek R1 Disilla Lama 8B دامنه عملکرد خوبی را برای مقابله با اکثر کارهای روزانه ارائه می دهد.
مورد علاقه فعلی من به اندازه کافی کوچک است که بتواند روی رایانه رومیزی 5.3 گیگابایتی من کار کند ، اما Deepseek R1 Disilla Lama 8B دامنه عملکرد خوبی را برای مقابله با اکثر کارهای روزانه ارائه می دهد.
این از جستجوی اصلی چت متفاوت است ، به عنوان مثال نحوه حذف لکه ها از یک شرت پنبه ای ، برای پرداختن به پرس و جوهای مالیاتی یا سایر مشکلات شخصی.
من می توانم از محرمانه بودن خود اطمینان داشته باشم ، زیرا به صورت محلی در رایانه من کار می کند و نیازی به اتصال به اینترنت ندارد.
قولها
گزینه خوب دیگر سری Qwen Model است.
در حال حاضر ، رایانه من دارای سه نسخه از مدل QWEN 2.5 ، به ویژه مدل های 7B ، 14B و 32B است. فقط کوچکترین آنها واقعاً با سرعت قابل قبولی روی دستگاه من کار می کنند ، اما گاهی اوقات اگر به اندازه کافی صبور باشم که منتظر پاسخ باشم ، از نسخه های قدرتمندتری استفاده می کنم.
همچنین یک نسخه کدگذاری صاف وجود دارد که برای ایجاد برنامه های ساده و برنامه های کمکی ، ایجاد کد رایگان را ارائه می دهد.
لاما
ثابت شده لاما پیشگام یک مدل جامد ، قابل اعتماد و بسیار انعطاف پذیر برای مصارف مختلف است.
تنها منطقه ای که هنوز هم قوی است بینایی است. بنابراین من Llama 3.2-Vision را برای اسکن اسناد و رمزگشایی تصاویر اجرا می کنم. به نظر می رسد احمقانه به نظر می رسد ، اما صدها برنامه وجود دارد که از این مدل استفاده می کنند ، اگرچه صدها برنامه وجود دارد ، از صفحات وین اتومبیل گرفته تا رادیولوژی.
علاوه بر این ، من یک نسخه خاص از Lama 3 دارم که دوست دارم برای اطلاعات عمومی از آن استفاده کنم. به نظر می رسد این سؤال دائماً پاسخ های دقیق تر و صحیح تری در هر سوال ارائه می دهد.
نکاتی که باید در نظر گرفته شود
در مورد استفاده از مدل های محلی چند نکته وجود دارد. اول ، مورد جدید تقریباً همیشه بهتر است. توسعه هوش مصنوعی با سرعت بالایی در حال پیشرفت است که حتی شش ماه می تواند به معنای تفاوت بزرگ در کیفیت و عملکرد باشد.
همچنین درک این نکته حائز اهمیت است که استفاده از مدل های محلی به ناچار از یک پنجره متن کوچکتر رنج می برد – این مقدار قابل توجهی از حافظه و کارت گرافیکی قدرتمند در رایانه شما است.
این ممکن است سودمندی آنها را برای کارهای پیچیده تر محدود کند ، اما با بالغ شدن فناوری به آرامی تغییر می کند.
خط پایین
اکنون بسیاری از مدل های منبع باز در بازار وجود دارد ، بنابراین باید چیزی برای همه باشد.
یک مکان عالی برای شروع ، جستجوی کاتالوگ منبع باز در چهره بغل است. بیشتر مدل ها را می توان از طریق برنامه LMStudio نصب و کار کرد.