افشای بزرگ دادههای کاربران ChatGPT در Mixpanel: حریم خصوصی در خطر ؟
تهران، ۸ آذر ۱۴۰۴ | در تازهترین رسوایی امنیتی صنعت هوش مصنوعی، شرکت آمریکایی OpenAI تأیید کرد که بهدلیل «تنظیم نادرست» (misconfiguration) در سرویس تحلیلی Mixpanel، بخشی از تاریخچه مکالمات کاربران ChatGPT برای مدت کوتاهی در دسترس سایر مشتریان این پلتفرم تحلیلی قرار گرفته است. حادثه افشای داده chatgpt که ابتدا توسط منابع امنیتی و سپس بهصورت رسمی در وبلاگ OpenAI اعلام شد، بار دیگر زنگ خطر جدی درباره حریم خصوصی میلیونها کاربر این سرویس را به صدا درآورده است.
جزئیات فنی حادثه
بر اساس بیانیه رسمی OpenAI:
- مشکل از تاریخ ۲۱ تا ۲۸ نوامبر ۲۰۲۵ (آباندی ۱۴۰۴) فعال بوده است.
- دادههای لورفته شامل «محتوای برخی مکالمات» (conversation content) کاربرانی بوده که از قابلیت Memory یا پروژههای سفارشی (Custom GPTs/Projects) استفاده میکردند.
- اطلاعات حساس مانند نام، ایمیل یا دادههای پرداخت افشا نشده، اما متن کامل گفتوگوها برای مدت محدودی قابل مشاهده بوده است.
- OpenAI بلافاصله پس از اطلاع، دسترسی را قطع و تنظیمات Mixpanel را اصلاح کرده است.
شرکت openai تأکید کرده که «هیچ نشانهای از سوءاستفاده گسترده» وجود ندارد، اما کارشناسان امنیتی معتقدند حتی دسترسی کوتاهمدت هم میتوانسته منجر به استخراج داده توسط مشتریان دیگر Mixpanel شود.
همزمان: نشت سند داخلی درباره تبلیغات در ChatGPT
در همین بازه زمانی، رسانه BleepingComputer سندی داخلی از OpenAI را منتشر کرد که نشان میدهد این شرکت در حال آمادهسازی «تبلیغات هدفمند» در نسخه رایگان ChatGPT است. طبق این سند:
هدف جبران هزینههای سنگین آموزش مدلهای جدید (از جمله شایعات درباره GPT-5 و مدلهای open-weight) از طریق درآمد تبلیغاتی است. تبلیغات ابتدا در نوار کناری (sidebar) نمایش داده خواهد شد. البته کاربران Plus و Pro فعلاً معاف هستند، اما احتمال نمایش دادن تبلیغ به تمام سطوح وجود دارد.
واکنشها به افشای دادهها
در ایران که بیش از ۴ میلیون کاربر فعال ChatGPT دارد (بر اساس آمار غیررسمی پلتفرمهای داخلی)، خبر افشای داده chatgpt با نگرانی گستردهای همراه شده است. کارشناسان امنیت سایبری کشور هشدار میدهند که در شرایط تحریم و محدودیت دسترسی به ابزارهای جایگزین امن، چنین رخدادهایی میتواند کاربران ایرانی را در معرض ریسکهای بیشتری قرار دهد.
دکتر حامد رضایی، متخصص امنیت هوش مصنوعی و عضو هیئت علمی دانشگاه، در گفتوگویی اظهار داشت: «وقتی شرکتی مانند OpenAI که مدعی راهبری در ایمنی هوش مصنوعی است، در تنظیمات یک ابزار تحلیلی thirdparty اشتباه میکند، اعتماد عمومی به کل اکوسیستم هوش مصنوعی خدشهدار میشود. این حادثه نشان میدهد که حتی غولهای تکنولوژی هم در مدیریت زنجیره تأمین دادههایشان آسیبپذیر هستند.»
آیا این به معنی پایان اعتماد و استفاده از ChatGPT است؟
ترکیب همزمان دو خبر «نشت داده» و «ورود تبلیغات» تصویری نگرانکننده از آینده OpenAI ترسیم میکند: شرکتی که زمانی با شعار «هوش مصنوعی ایمن و مفید برای همه بشریت» تأسیس شد، اکنون برای بقا به سمت مدل درآمدی مشابه گوگل و متا حرکت میکند، اما ظاهراً با همان مشکلات امنیتی قدیمی.
کاربران ایرانی که بهدلیل فیلترینگ مجبور به استفاده از VPN و حسابهای ناشناس هستند، اکنون با این پرسش روبهرو شدهاند: آیا همچنان میتوان به ChatGPT اعتماد کرد یا زمان مهاجرت به گزینههای دیگر مانند Grok و Gemini فرا رسیده است؟

دیدگاهتان را بنویسید