ChatGPT به طور تصادفی چت های خصوصی را در جستجوی Google فاش کرد (دوباره) – چگونه ایمن بمانیم

اگر تا به حال از ChatGPT برای جستجوی چیزی آنلاین استفاده کرده اید، احتمالاً تصور کرده اید که مکالمه شما خصوصی است، حتی زمانی که ربات چت از طرف شما در وب جستجو می کند. با این حال، یک نقص اخیر ثابت می کند که این فرض ممکن است همیشه معتبر نباشد.
در اوایل این ماه، توسعه دهندگان متوجه چیز عجیبی در داشبورد کنسول جستجوی گوگل خود شدند. به جای پرس و جوهای کوتاه مبتنی بر کلمه کلیدی، آنها جملات کامل و شبیه انسان را می دیدند. چیزی که انتظار دارید در ChatGPT تایپ کنید، نه Google. این ورودی های خاص و عجیب ابتدا ابروها را بالا بردند، سپس هشدار دادند. متأسفانه این اولین بار نیست که این اتفاق می افتد.
این تحقیقات عمیقتر توسط محقق تحلیلی جیسون پکر و مشاور اسلوبودان مانیچ دنبال شد. آنها این فعالیت را در حالت مرور وب ChatGPT ردیابی کردند و متوجه شدند که تعدادی از مکالمات به طور تصادفی به زیرساخت جستجوی عمومی نفوذ کرده و برای صاحبان وب سایت غیر مرتبط قابل مشاهده شده است.
چه چیزی باعث نشت شد؟
مشکلی که برای اولین بار توسط Ars Technica گزارش شد، ناشی از یک برچسب پنهان “hints=search” بود که در برخی از جلسات ChatGPT استفاده می شد. این تگ به ربات چت میگفت که جستجوی وب را در زمان واقعی انجام دهد. با این حال، هنگام انجام این کار، گاهی اوقات بخش هایی از درخواست کاربر در URL حاصل گنجانده می شود.
از آنجایی که سیستمهای گوگل بهطور خودکار هر چیزی را که شبیه یک عبارت جستجو میشود، خزیده و فهرست میکند، این URLها (و متن سفارشی درون آنها) را گرفته و در داشبورد تحلیلی صاحبان سایت ذخیره میکند.
همانطور که در گزارش Ars Technica اشاره شد، OpenAI این اشکال را پذیرفت و اظهار داشت که این مشکل تنها بر “مجموعه کوچکی از جستجوها” تأثیر گذاشته و از آن زمان برطرف شده است. با این حال، این شرکت نگفت که این مشکل تا چه زمانی ادامه داشت یا چند کاربر تحت تأثیر قرار گرفتند.
چرا مهم است؟
در حالی که این افشای رمز عبور یا اطلاعات شخصی را فاش نمی کند، سوالات جدی در مورد نحوه تعامل سیستم های هوش مصنوعی مولد با زیرساخت های عمومی مانند جستجوی گوگل ایجاد می کند. حالت مرور ChatGPT به گونه ای طراحی شده است که در زمان واقعی اجرا شود و در این مورد، به طور تصادفی از مسیرهای جستجوی زنده استفاده می کند که باعث می شود ورود خصوصی قابل مشاهده باشد.
این اولین بار نیست که دادههای ChatGPT به مکانهایی که نمیخواهند راه پیدا میکنند. در اوایل سال جاری، کاربران متوجه شدند که لینک های چت مشترک توسط گوگل ایندکس می شوند. در آن زمان، این به کاربرانی بستگی داشت که تنظیمات اشتراک گذاری را فعال کنند. اما این نقص جدید حتی آزاردهنده تر است زیرا نیازی به اقدام کاربر ندارد.
در حالی که OpenAI مشکل مسیریابی را حل کرده است، در اینجا چند راه برای محافظت از حریم خصوصی شما در هنگام استفاده از هر ابزار هوش مصنوعی با قابلیت وب وجود دارد:
- از افزودن داده های حساس به درخواست ها خودداری کنید. اطلاعات خصوصی مانند آدرس ها، نام ها یا اعتبارنامه ها را به اشتراک نگذارید، به خصوص زمانی که حالت مرور فعال است.
- از حالت خصوصی/ناشناس در مرورگر خود استفاده کنید هنگام آزمایش پلاگین های شخص ثالث یا کمک هایی که جستجوهای خارجی را راه اندازی می کنند.
- ویژگی های مرور را غیرفعال کنید اگر به جستجوی زمان واقعی نیاز ندارید. در ChatGPT، میتوانید یک مدل غیرمرور انتخاب کنید یا گزینههای زیر تنظیمات خود را تغییر دهید.
- گمنامی را فرض نکنید اعلانهای هوش مصنوعی میتوانند از سیستمهای خارجی عبور کنند و خطاهای کوچک میتوانند منجر به افشاگریهای غیرمنتظره شوند.
- تاریخچه را مرتباً پاک کنید. حذف درخواستهای گذشته از سابقه چت شما ممکن است نشتهای گذشته را خنثی کند، اما ممکن است خطرات آینده را محدود کند.
از آنجایی که ابزارهای هوش مصنوعی همچنان در زیرساخت وب ترکیب می شوند، حتی اشتباهات جزئی مسیریابی می تواند منجر به نتایج غیرمنتظره شود. توجه به آنچه تایپ می کنید و ساختار ابزار بهترین خط دفاعی شماست.
غذای آماده
این نقص فراتر از ایجاد نگرانی در مورد حریم خصوصی است. همچنین ممکن است نحوه ردیابی ترافیک وب سایت ها را مختل کرده باشد. در حالی که ما هنوز دقیقا نمی دانیم که خزنده های هوش مصنوعی چگونه ترافیک وب سایت را تعیین می کنند، شواهدی وجود دارد که نشان می دهد هوش مصنوعی در پس الگوی عجیبی است که در تجزیه و تحلیل ها به نام “دهان تمساح” در حال ظهور است.
این پدیده زمانی است که یک سایت افزایش زیادی در تعداد دفعات نمایش آن در نتایج جستجو (impressions) می بیند، اما تقریباً هیچ کس روی آن کلیک نمی کند. این جهش ها ممکن است به دلیل ابزارهای هوش مصنوعی مانند ChatGPT ایجاد شده باشد که تماس های طولانی و شبیه ربات را ارسال می کند که از طرف افراد واقعی نمی آید.
در حالی که OpenAI می گوید این مشکل حل شده است، این حادثه نشان می دهد که چقدر آسان است که یک باگ کوچک در یک سیستم هوش مصنوعی ظاهر شود و باعث سردرگمی در مقیاس بسیار بزرگتر شود. از آنجایی که هوش مصنوعی از طریق مرورگرهای هوش مصنوعی به اینترنت متصل می شود، برای کاربران مهم است که مراقب ایمن ماندن و آگاهی از خطرات احتمالی باشند.
دنبال کردن راهنمای تام برای Google News و ما را به عنوان منبع ترجیحی اضافه کنید برای مشاهده آخرین اخبار، تحلیل ها و بررسی های ما در فیدهای خود.
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



