چرا ChatGPT را تمام کردم: دیدگاه والدین

روز دیگر پسر 11 ساله ام گفت: “هی مامان، ویدیوهای فوتبال جالبی که با سورا 2 درست کردم را ببین.” قبل از اینکه به نسل ویدیویی هوش مصنوعی که او به آن افتخار می کند نگاه کنیم، باید بدانم که او چگونه می تواند بدون کد به Sora 2 دسترسی پیدا کند. او گفت: “من از حساب شما استفاده می کنم.”
از اینکه او از حساب من استفاده کرد عصبانی نشدم، اما غافلگیری باعث توقف من شد. سام آلتمن، مدیر عامل OpenAI در X اعلام شد ChatGPT اکنون تنها چند هفته پس از اعلام «کنترلهای والدین»، «اروتیکای تأیید شده بزرگسالان» را مجاز میکند. این برای من خوب نیست. هرکسی که بچه ای دارد که به اندازه کافی بزرگ باشد که بتواند خودش را سیر کند (من متوجه می شوم که پدر جدید سام آلتمن را کنار گذاشته است) از نزدیک می داند که بچه ها می توانند وارد هر کاری شوند. هر چیزی.
این ارتباط گیج کننده است: OpenAI کنترل های والدین را معرفی می کند، سپس هفته ها بعد دسترسی به محتوای بزرگسالان را اعلام می کند. این بدان معنا نیست که این دو ویژگی نمی توانند با هم وجود داشته باشند. بسیاری از پلتفرم ها محتوای دارای رتبه بندی سنی را مسئولانه تعدیل می کنند. اما سرعت و زمان نشان می دهد که یک شرکت به سرعت در حال حرکت است و دیرتر فکر می کند. وقتی محصول شما به طور فزاینده ای درگیر زندگی خانوادگی می شود، این رویکرد کاملاً اشتباه است.
مدلی که اذیتم میکنه
من برای امرار معاش همه چیز را با هوش مصنوعی زندگی می کنم و نفس می کشم. بنابراین می دانم که یک تصمیم سیاسی این نیست که این به کجا ختم شود. این در واقع یک نقطه شروع و الگویی است که من با نگرانی فزاینده آن را تماشا می کنم.
زمانی که ChatGPT برای اولین بار راه اندازی شد، انقلابی و تقریبا امن به نظر می رسید. سه سال پیش، ما هنوز به نرده فکر نمیکردیم، زیرا کاربران عادی فقط سعی میکردند تصمیم بگیرند که چه چیزی ممکن است. از آنجایی که OpenAI شناخته شده ترین هوش مصنوعی موجود است، خود را به عنوان شرکت مسئول هوش مصنوعی معرفی کرده است.
چند سال بعد، این روایت دچار تنش می شود.
اعلان شهوانی فقط آخرین نمونه است. همچنین وجود دارد: انتشار عجولانه Sora 2 بدون خط مشی محتوای واضح. ادغام فناوری ایجاد ویدیوی Sora – فناوری چشمگیر، بله، اما همچنین یک موتور دیپ فیک – بدون سیستم های تأیید جدی غیرقابل قبول است. انتقال به یک ساختار انتفاعی که رشد را بر ماموریت اصلی اولویت میدهد.
به نظر می رسد هر تصمیم به صورت جداگانه قابل دفاع است. “باید” با هم باشیم؟ آنها شرکتی را برجسته می کنند که دیگر درخواست را متوقف کرده است. و “چقدر سریع می توانیم این را ارسال کنیم؟” شروع کردم به پرسیدن
بخش جالب این است که OpenAI تنها گاردریل مشکوک نیست. کسی رو نتونستی بفهمی؟ متا چطور؟ این سیستم ها همگی ناقص هستند و بچه ها از آنها آگاه نیستند. خواهد شد راه هایی برای غلبه بر موانع پیدا کنید، بنابراین چندین لایه حفاظتی مهم هستند.
مسئله شفافیت
فراتر از سیاست های محتوا، مسئله اعتماد نیز وجود دارد. OpenAI در مورد خراش دادن وب مبهم است، در مورد مکالمات کاربر متناقض است و در مورد شراکت ها مبهم است. هنگامی که نیویورک تایمز به دلیل نقض حق چاپ شکایت کرد، دفاع OpenAI این بود که “هوش مصنوعی برای یادگیری به داده نیاز دارد.” به اندازه کافی منصفانه است – اما داده های چه کسی چگونه و با چه رضایتی به دست آمده است؟
به عنوان فردی که به صورت حرفه ای محتوا می نویسد، این برای من مهم است. این به عنوان والدینی که فرزندانشان با استفاده از ChatGPT بزرگ میشوند، اهمیت بیشتری دارد. چه اتفاقی برای مقالههایی میافتد که پسرم برای بازخورد به ChatGPT ارسال میکند؟ داستان های خلاقانه ای که دخترم خلق می کند؟ OpenAI میگوید بهطور پیشفرض روی دادههای کاربر آموزش نمیدهد، اما خطمشی رازداری آن فضایی را برای تفسیر باز میگذارد و تنظیمات بیزانسی هستند.
چیزی که من در عوض به دنبال آن هستم
بنابراین یک دستیار هوش مصنوعی مسئول در سال 2025 چگونه خواهد بود؟
برای من این به سه چیز مربوط می شود:
1. خطمشیهای محتوای طراحیشده برای دستگاههای مشترک را پاک کنید. اگر محصول شما خود را به خانواده ها عرضه می کند، مانند آن رفتار کنید. این به این معنی است که فرض کنید کودکان به حساب های بزرگسالان دسترسی خواهند داشت. این فقط به این معنی نیست که “آیا شما 18 سال دارید؟” بلکه به معنای ایجاد تضاد بین ویژگی های حساس است. چک باکس ها، اما موانع واقعی که نیاز به مشارکت والدین دارند.
2. شفافیت واقعی در مورد داده های آموزشی و حریم خصوصی. من می خواهم بدانم مکالمات من برای چه استفاده می شود. من می خواهم کنترل های ساده غیرفعال شود. و من می خواهم که شرکت در مورد مطالب دارای حق چاپ در مجموعه های آموزشی صادق باشد، نه اینکه پشت ابهام “اینترنت مجموعه داده ماست” پنهان شود.
3. ماموریتی که در مورد اهداف رشد سازش نمی کند. من درک می کنم که شرکت ها باید پول در بیاورند. اما شرکتی که وعده “تامین امنیت” را می دهد [artificial general intelligence] هنگامی که «به نفع همه بشریت» شروع به تبلیغ تولید محتوای وابسته به عشق شهوانی به عنوان یک ویژگی برتر می کند، منصفانه است که سوال شود که آیا این مأموریت همچنان تصمیمات را هدایت می کند یا خیر.
جایی که فرود آمدم
خانواده ام را عوض کردم کلود دستیار هوش مصنوعی Anthropic است. کامل نیست، اما تفاوت ها قابل توجه است. Anthropic ایمنی را بیش از هر چیز دیگری در اولویت قرار می دهد.
این شرکت رویکردی مبتنی بر هوش مصنوعی دارد که امنیت را در خود مدل گنجانده است، نه فقط به عنوان فیلترهای پس از آموزش. آنها در مورد داده های آموزشی شفاف تر هستند. آنها وب باز را بی رویه خراش نمی دهند و در مورد منبع یابی دقیق تر بوده اند. خط مشی رازداری آنها ساده است: از مکالمات برای آموزش استفاده نمی شود مگر اینکه صریحاً رضایت دهید.
مهمتر از همه، به نظر نمیرسد که آنها در سیاستهای محتوایی در حال رقابت هستند. Claude محتوای وابسته به عشق شهوانی، دیپفیک ایجاد نمیکند، یا به شما در نوشتن بدافزار کمک نمیکند، زیرا این قابلیتها داخلی نیستند.
بین «ما میتوانیم، اما آن را مسدود کردیم» و «ما تصمیم گرفتیم این کار را انجام ندهیم» تفاوت وجود دارد.
برای نوشتن، تحقیق و کمک به فرزندانم در انجام تکالیف، کلود هر کاری را که ChatGPT میتواند انجام دهد انجام میدهد، اما این کار را بهتر انجام میدهد و پاسخهای متفکرانهتری دارد.
ویژگی Claude’s Artifacts (که به شما امکان میدهد کد، اسناد و تجسمهای تعاملی ایجاد کنید) یک تغییر بازی برای پروژههای علمی پسرم بوده است. نکته این نیست که همه نیاز به تغییر دارند. نکته این است که باید از شرکت های تولید کننده این خودروها مطالبه بهتری داشته باشیم.
کاری که OpenAI می تواند انجام دهد
نکته اینجاست: من نمی خواهم OpenAI شکست بخورد. ChatGPT میلیون ها نفر از جمله خانواده من را با هوش مصنوعی آشنا کرده است. این بسیار ارزشمند است. اما رهبری به معنای انتخاب های سخت است، نه فقط ارائه ویژگی ها. این چیزی است که ممکن است اعتماد به نفس من را به دست آورد:
- حساب های خانوادگی واقعی کنترلهای والدین به حسابهای بزرگسالان اضافه نمیشوند، بلکه محیطهایی واقعاً مجزا هستند که بچهها میتوانند با خیال راحت از هوش مصنوعی استفاده کنند. به پروفایل های نتفلیکس فکر کنید، نه فیلترهای محتوا.
- مهلت قانونی برای املاک حساس تا زمانی که اقدامات حفاظتی بهتر انجام شود. تولید وابسته به عشق شهوانی، شبیه سازی صدا، سنتز ویدئو – اینها ابزارهای قدرتمندی هستند که پتانسیل آشکاری برای سوء استفاده دارند. آهسته تر. ابتدا زیرساخت امنیتی را به درستی تنظیم کنید.
- شفافیت واقعی در مورد داده های آموزشی. انتشار اطلاعات دقیق در مورد منابع داده، مجوز و مجوز. به سازندگان اجازه دهید فعالانه انصراف دهند، نه صرفاً زمانی که از آنها شکایت میشود.
- بازگشت به وظیفه به یاد دارید زمانی که OpenAI در منشور خود می گوید که سود هرگز بر امنیت غلبه نمی کند؟ این را نگه دارید. حتی اگر به این معنی باشد که رشد کندتر از Anthropic یا Google باشد.
در نتیجه
هوش مصنوعی اینجاست تا بماند و والدینی مثل من باید انتخاب کنند.
شبی که پسرم ویدیوهای سورا را به من نشان داد، متوجه شدم که در مرحله جدیدی از فرزندپروری هستیم.
فقط در چند سال، من بیشتر از ردیابی زمان صفحه نمایش انجام داده ام. من تصمیم میگیرم که فرزندانم از کدام ابزار هوش مصنوعی استفاده کنند و یاد بگیرند. ما اکنون زمان صفحه نمایش را بررسی میکنیم، تاریخچه مرورگر را بررسی میکنیم و تصمیم میگیریم که فرزندانمان از کدام ابزارهای هوش مصنوعی استفاده کنند، از آنها چه چیزی یاد میگیرند و این ابزارها حاوی چه ارزشهایی هستند.
همانطور که به فرزندانم یاد دادهام که وبسایتها را از نظر اعتبار و رسانههای اجتماعی را از نظر اعتبار ارزیابی کنند، دائماً به آنها آموزش میدهم که ابزارهای هوش مصنوعی را برای همسویی با ارزشهای ما ارزیابی کنند.
تصمیمات اخیر OpenAI به من نشان داده است که ارزش های آنها با من همخوانی ندارد. نه به عنوان یک پدر و مادر، نه به عنوان یک خالق، نه به عنوان کسی که معتقد است هوش مصنوعی باید با تفکر ساخته شود تا بی پروا.
بنابراین کار با ChatGPT در خانه تمام شد. البته، من هنوز باید از آن برای کار استفاده کنم و آن را آزمایش کنم، اما با همان غریزه محافظتی که باعث می شود مادر در صورت بروز مشکل، پزشک اطفال را عوض کند، همین کار را با ابزارهای هوش مصنوعی در خانه انجام می دهم.
برای خانواده هایی که هنوز از ابزارهای هوش مصنوعی استفاده می کنند، من شما را تشویق می کنم که بپرسید. سیاست ها را بخوانید. آنچه را که فرزندانتان می توانند به آن دسترسی داشته باشند را کنترل کنید. و به یاد داشته باشید که “فقط بزرگسالان تایید شده” هرگز یک کودک 11 ساله را متوقف نکرد.
انقلاب هوش مصنوعی اینجاست و راه به جایی نمی برد. اما ما باید انتخاب کنیم که به کدام شرکت اعتماد کنیم تا آن را بسازند.
اطلاعات بیشتر از راهنمای تام
بازگشت به لپ تاپ



