فکر می کنید هوش مصنوعی مکانی امن برای به اشتراک گذاشتن اسرار شما است؟ دوباره فکر کنید

هنگامی که بیشتر افراد با هوش مصنوعی در تعامل هستند ، سطح خاصی از حریم خصوصی را دریافت می کنند ، خواه بخواهند یا تصاویر تولید کنند. این فقط به نظر می رسد مکالمه بین شما و هوش مصنوعی است. با این حال ، یک گزارش جدید از Wired باید همه را دو بار فکر کند.
ارمیا فاولر ، محقق امنیتی ، یک بانک اطلاعاتی غیرقانونی از AI کره جنوبی را کشف کرد ، که حاوی بیش از 95000 پرونده است که بیشترین باز و برخی آنها احتمالاً غیرقانونی هستند.
این پایگاه داده دقیقاً آنچه را که مردم با ابزار AI تولید می کنند و نگران کننده است ، نشان داد: تصاویر غیر متعهد ، دندان های عمیق و مواد سوء استفاده جنسی از کودکان (CAM).
Gennomis پس از تماس به سرعت پایگاه داده را قفل کرد ، اما آسیب قبلاً بود.
فرضیات مربوط به امنیت هوش مصنوعی
این داستان به دلایل مختلف نگران کننده است ، اما برای آنچه او در مورد ایمنی هوش مصنوعی و فرضیات کاربر توضیح می دهد. بسیاری از افراد از ابزارهای هوش مصنوعی تولیدی مانند دستیار شخصی یا کتابهای طراحی ویژه استفاده می کنند.
برخی از آنها از این ایده های تجاری ، نوشتن بازتاب های شخصی و حتی اعتراف به اسرار استفاده می کنند ، اما دوم این یکی از بهترین مواردی است که هرگز نباید با یک قایق چت به اشتراک بگذارید.
اگر این خواسته ها ذخیره شوند چه می شود؟ چه می شود نه تنها برای توسعه دهندگان یا تیم های داخلی بلکه برای دسترسی بالقوه به دزدان دریایی رایانه یا محققان؟
پرونده Gennomis یک رویداد منزوی نیست. در حقیقت ، این مسئله بر یک مشکل بسیار گسترده تر تأکید می کند: درک حریم شخصی ناقص AI.
بسیاری از کاربران هنوز بر این باورند که مکالمات و خلاقیت های آنها خاص است زیرا داده ها معمولاً ذخیره می شوند ، بررسی می شوند و در برخی موارد آسیب پذیر هستند.
سیستم عامل های مهمی مانند OpenAi’s Chatgpt یا Google Gemini ورودی های کاربر را برای آموزش و بهبود سیستم جمع می کند. با این حال ، برای باز بودن ، مکالمات شما برای آموزش مدل های OpenAI به طور پیش فرض استفاده نمی شود.
می توانید این تنظیم را بررسی یا تغییر دهید. تنظیمات> کنترل داده ها> تاریخچه و آموزش گپ. اگر این بسته شود ، مکالمات شما ذخیره نمی شود یا برای آموزش استفاده نمی شود.
اگر آن را باز کنید ، مکالمات شما توسط OpenAI برای بهبود عملکرد مدل قابل بررسی است ، اما حتی در این صورت ، برای حفظ حریم خصوصی (به عنوان مثال ، لغو شناسه های شخصی) انجام می شود.
بنابراین ، مگر اینکه داده های شما صریحاً داده های شما (با ادامه تاریخ و آموزش مکالمه) اجازه داده شود ، از گپ های شما برای آموزش چت استفاده نمی شود.
چرا بی عیب و نقص نیست
تا زمانی که شما از طریق زیرساخت های ابری منتقل و ذخیره می شوید ، خطر در معرض خطای انسانی ، نقض سیستم یا سوء استفاده عمدی وجود دارد.
نتایج واقعی از این وجود دارد. همانطور که در مورد Gennomis مشاهده می شود ، هنگامی که داده های AI به درستی ثابت نشده است ، نه تنها نشان دهنده نقض احتمالی حریم خصوصی نیست ، بلکه می تواند به یک فروشگاه آسیب تبدیل شود.
انتقام جویی پورنو و دندانهای عمیق ، تا محتوای خشونت آمیز یا غیرقانونی ، می تواند بسیار فراتر از صفحه باشد که کاربران از این مدل ها تغذیه می کنند.
در اینجا چند نکته مهم برای به خاطر سپردن وجود دارد:
- درخواست های هوش مصنوعی به طور پیش فرض خاص نیستند. فرض کنید آنچه می توانید آنچه را که می نویسید ذخیره کنید مگر اینکه از یک ابزار کاملاً محلی یا رمزگذاری شده استفاده کنید.
- محتوای حساس باید آفلاین باقی بماند. از به اشتراک گذاشتن چیزی شخصی ، پنهان یا قانونی با ابزارهای AI خودداری کنید.
- فعل و انفعالات هوش مصنوعی می تواند بخشی از داده های آموزش آینده باشد. حتی اگر ناشناس باشد ، ممکن است ایده ها یا عبارات شما به روشهای غیر منتظره ظاهر شود.
- تغییر شفافیت. همه شرکت های هوش مصنوعی توضیح نمی دهند که چقدر داده های شما را حفظ می کنند یا آنچه را با آن انجام می دهند.
- هیچ تخلف برای ایجاد خسارت وجود ندارد. سوء استفاده داخلی یا استانداردهای اعتدال ضعیف نیز می تواند به همان اندازه خطرناک باشد.
سؤالاتی که باید هنگام استفاده از AI از خود بپرسید
این بدان معنا نیست که شما باید استفاده کامل از AI را متوقف کنید. این بدان معنی است که شما باید با او مانند یک ابزار قوی (و گمراه کننده) رفتار کنید. از خود بپرسید:
آیا می خواهم این اطلاعات برای عموم آزاد باشد؟
آیا این چیزی است که من با یک پست الکترونیکی یا رسانه های اجتماعی راحت خواهم شد؟
آیا اگر دست های اشتباه به دست اشتباه بیفتند ، می توان از این داده ها سوءاستفاده کرد؟
هوش مصنوعی فوق العاده مفید است – تا زمانی که وحشتناک نشوید. نقض Gennomis به عنوان یادآوری عمل می کند که سابقه ای در پشت هر درخواست وجود دارد و یک شرکت (یا بیش از یک شرکت) وجود دارد که داده های شما را در پشت هر موتور هوش مصنوعی مدیریت می کند. قبل از نوشتن ، در نظر بگیرید که کلمات شما در کجا می تواند باشد.
از این گذشته ، ایمن ترین رویکرد ساده است: اگر این چیزی است که شما هرگز نمی خواهید در معرض آن قرار بگیرید ، آن را با هوش مصنوعی به اشتراک نگذارید.