پائولو آردوینو، مدیرعامل تتر اخیراً گفت: x شبکه رسانه های اجتماعی هشدار در مورد مشکلات مدل های زبان بزرگ مرکزی (LLM).
آردوینو به گزارشهایی اشاره کرد مبنی بر اینکه شرکت پیشرو هوش مصنوعی OpenAI در اوایل سال 2023 دچار یک نقض امنیتی بزرگ شد و این حادثه را “وحشتناک” خواند.
بر اساس گزارش اخیر، OpenAI تصمیم گرفت این نقض را فاش نکند، حتی اگر برخی از اطلاعات حساس افشا شده بود. گزارش از نیویورک تایمز.
لئوپولد اشنبرنر، محقق سابق OpenAI از این شرکت به دلیل اقدامات امنیتی ناکافی که می تواند آن را در برابر عوامل مخرب مرتبط با دولت های خارجی آسیب پذیر کند، انتقاد کرد. اشنبرنر ادعا کرد که رهبر هوش مصنوعی به جای سیاست، قطع رابطه با او را انتخاب کرده است. با این حال، این شرکت علت اخراج این محقق را رد کرد و افزود که این رخنه حتی قبل از استخدام او توسط OpenAI فاش شده است.
با این حال، اگرچه این شرکت ادعا می کند که فناوری فعلی آن هیچ خطری برای امنیت ملی ندارد، اما نگرانی هایی در مورد افتادن اسرار OpenAI به دست چین وجود دارد.
گذشته از حوادث امنیتی، مدل های متمرکز هوش مصنوعی نیز به دلیل استفاده غیراخلاقی از داده ها و سانسور مورد انتقاد قرار گرفته اند. رئیس Tether معتقد است که باز کردن قدرت مدلهای هوش مصنوعی بومی «تنها راه» برای رفع نگرانیهای مربوط به حریم خصوصی و همچنین اطمینان از انعطافپذیری و استقلال است.
آردوینو در پست خود در شبکه اجتماعی X گفت: مدلهای هوش مصنوعی قابل اجرا محلی تنها راه برای محافظت از حریم خصوصی افراد و اطمینان از انعطافپذیری/استقلال هستند.
او افزود که تلفنهای هوشمند و لپتاپهای مدرن به اندازهای قدرتمند هستند که میتوانند LLMهای رایج را تنظیم کنند.
منبع: u.today
نظرات کاربران