من از این فیلتر هوش مصنوعی برای واضح تر کردن هر پاسخ استفاده می کنم. در اینجا چیزی است که او ابتدا گرفت

اخیراً لحظه ای بود که متوجه شدم به یک فیلتر هوش مصنوعی نیاز دارم. نه از آن فیلترهایی که خطوط ظریف و عیوب را محو می کند، بلکه فیلتری است که اشتباهات را روشن می کند و در هر پاسخی آنها را به منصه ظهور می رساند.
بسیاری از مردم این را نمی دانند، اما ChatGPT در یک چهارم موارد اشتباه است. مرورهای هوش مصنوعی که ما اغلب برای جمع بندی به آنها اعتماد می کنیم، همیشه دقیق نیستند.
برای مدت طولانی فکر می کردم باید سوالات بهتری بپرسم تا پاسخ های دقیق تری داشته باشم. برای من، این به این معنی بود که اگر پاسخی نادرست بود، تصور میکردم که اصلاح جهت واضحتر، جزئیات بیشتر یا دستورالعملهای واضحتر است. من با ChatGPT، Gemini و Claude مانند ماشین هایی برخورد کردم که برای تولید خروجی مناسب به ورودی مناسب نیاز داشتند.
کاری که اکثر مردم (از جمله من) اشتباه می کنند
بارها و بارها متوجه شدم که همان اشتباه را انجام می دهم. من کورکورانه به هوش مصنوعی اعتماد نداشتم. اما اگر پاسخی مطمئن، منظم و خوب به نظر می رسید، من به طور کلی آن را می پذیرفتم. خوب به نظر می رسید پس ادامه دادم.
اما “به اندازه کافی خوب” می تواند منجر به مشکلات زیادی به خصوص در محل کار شود. به عنوان مثال، یک جدول زمانی تمیز ممکن است محدودیت های واقعی را نادیده بگیرد، یا یک توصیف واضح ممکن است حقایق مهم را از دست بدهد.
هیچ یک از اینها در حال حاضر فاجعه آمیز به نظر نمی رسد، اما گام های اشتباه کوچک می تواند به آن اضافه شود. و اگر از هوش مصنوعی برای بهرهوری استفاده میکنید، آخرین چیزی که میخواهید این است که بیشتر کار کنید زیرا اوضاع به هم ریخته است.
اکثر کاربران ChatGPT با هوش مصنوعی مانند یک موتور جستجوی جادویی رفتار می کنند. سوال می پرسند، جواب می گیرند و ادامه می دهند. در حالی که در بیشتر مواقع کار می کند، این رویکرد دارای یک نقص با هر چیز پیچیده تر است.
هوش مصنوعی برای اطمینان و روان بودن بهینه شده است، نه اختیار. به راحتی می تواند:
- متن از دست رفته را پر کنید
- مفروضات منطقی بسازید
- بر عدم قطعیت غلبه کنید
- مراحل استدلال را رها کنید
اما مشکل این است که اگرچه پاسخ ممکن است تمیز باشد، اما لزوما قابل اعتماد نیست. مشکل این نیست که هوش مصنوعی “بد” است. بیشتر اوقات ما خوانندگان منفعل این مطلب هستیم.
این چیزی است که می خواستم تغییر دهم. فیلتر کوچک من (چیزی که همه چیز را تغییر می دهد)
اکنون، هر زمان که پاسخ هوش مصنوعی دریافت میکنم، حدود 10 تا 15 ثانیه مکث میکنم و آن را با سه سؤال ساده در ذهنم مرور میکنم:
- این چه فرضیه؟
- چه چیزی ممکن است از دست رفته باشد؟
- چه چیزی باید درست باشد تا این اشتباه باشد؟
- آیا به منبع یا بررسی واقعیت نیاز دارد؟
برای واضح بودن، من همیشه اینها را در ChatGPT نمی نویسم. این یک اعلان نیست، یک فیلتر ذهنی است که پس از دریافت پاسخ اعمال می کنم.
گاهی اوقات پاسخ زودگذر است. گاهی اوقات نقاط ضعف را فورا آشکار می کند. در هر صورت، من دیگر هوش مصنوعی مصرف نمی کنم. من آن را آگاهانه در نظر دارم.
چرا این کار اینقدر خوب است؟
این عادت کوچک سه کار را انجام می دهد:
- به اندازه کافی سرعتم را کم می کند. زیاد به آن فکر نکنید؛ فقط به اندازه ای است که با یک پاسخ بمباران نشان نشویم.
- فرضیات پنهان را آشکار می کند. هوش مصنوعی اغلب چیزهایی را فرض میکند که هرگز نمیگویید (مهلتها، بودجهها، اولویتها، محدودیتها). فیلتر من مرا مجبور می کند که متوجه این موضوع شوم.
- هوش مصنوعی را از اوراکل به شریک متفکر تبدیل می کند. “آیا این درست است؟” به جای اینکه بپرسید “در چه شرایطی این درست است؟” می پرسم.
از آنجایی که هوش مصنوعی بیشتر در جریان کار ما ادغام می شود، مهم است که این فیلتر یا چیزی شبیه به آن را در جعبه ابزار ذهنی خود نگه دارید. فیلتر هوش مصنوعی را هوشمندتر نمی کند. این باعث می شود خواننده هوش مصنوعی بهتری باشم.
نمونه های دنیای واقعی
اکنون من به طور طبیعی هر بار که از یک ربات چت استفاده می کنم از این فیلتر استفاده می کنم. به عنوان مثال، زمانی که اخیراً در حال برنامه ریزی یک پروژه بزرگ بودم، از ChatGPT خواستم تا به من کمک کند تا یک جدول زمانی چند هفته ای ایجاد کنم. نسخه اول ساختار خوبی داشت. در واقع، آنقدر ساختار زیبایی داشت که می دانستم چیزی کم است.
فیلترم را روشن کردم و از خودم پرسیدم: این چه فرضیه؟
ظاهرا – خیلی زیاد. همه چیز مانند اینکه چت بات چقدر آسان برنامه ریزی جلسات، سرعت تایید همه ایده های من، یا اینکه من یک تیم اختصاصی دارم را در نظر نمی گیرد.
پس از مشاهده این نقص ها در پاسخ، محدودیت های خود را تنظیم کردم. طرح تجدید نظر شده بسیار واقعی تر و مفیدتر بود. فیلتر مرا از ساختن روی زمین لرزان نجات داد.
به همین ترتیب، از جمینی خواستم تا مفهومی را به زبان انگلیسی ساده توضیح دهد. اگرچه توضیح واضح بود، اما کمی بیش از حد منظم به نظر می رسید.
فیلتر من وارد عمل شد: چه چیزی ممکن است از دست رفته باشد؟
این سوال باعث شد به سادهسازی پی ببرم که اگرچه مفید است، اما از نظر فنی گمراهکننده است. من دنبال کردم، نسخه اصلاح شده تری را دریافت کردم و در واقع در این فرآیند چیزهای بیشتری یاد گرفتم.
فیلتر ثابت نکرد که پاسخ “اشتباه” است. آن را قابل اعتماد تر کرد.
در نهایت با کلود تست کردم تا پاراگراف را محدود کنم. او جملات کوتاه تر و ساختار واضح تر را پیشنهاد کرد. همه معقول اما فیلترم باعث شد بپرسم: چه چیزی باید درست باشد تا این اشتباه باشد؟
متوجه شدم که ویرایش فرض می کند که وضوح باید همیشه بهتر از صدا باشد. قصد من این نبود. من پیشرفت های ساختاری را حفظ کردم اما بخشی از لحن صوتی خود را بازگرداندم.
به جای اینکه کورکورانه مقررات هوش مصنوعی را بپذیرم، با آن همکاری کردم.
در نتیجه
این فیلتر را می توان با هر هوش مصنوعی یا چت بات استفاده کرد. شما به ابزار، تنظیمات یا اشتراک جدیدی نیاز ندارید. دفعه بعد که پاسخ هوش مصنوعی مهمی دریافت کردید، این را امتحان کنید. پاسخ را یک بار به طور معمول بخوانید، سپس از خود بپرسید چه چیزی ممکن است از دست رفته باشد و بر اساس آنچه متوجه شده اید با یک اشاره دنبال کنید.
واقعاً نیازی نیست همیشه این کار را انجام دهید. فقط زمانی که با پروژه های پیچیده سروکار دارید یا اگر پاسخ خیلی کلی یا کاملاً اشتباه به نظر برسد. و به یاد داشته باشید، این فیلتر محدودیت های خود را دارد. خطاهای هوش مصنوعی را از بین نمی برد. حتی اگر به معنای استفاده از اعلانی مانند «ذکر منبع» باشد، باز هم باید تفکر انتقادی و تأیید را انجام دهید.
این فیلتر ذهنی کوچک اکنون بخشی از هر مکالمه هوش مصنوعی من است و بزرگترین تفاوت را در نتایج من ایجاد کرده است.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.



