Grok يكشف معلومات حساسة لمستخدميه ويفجر أزمة خصوصية لإيلون ماسك

Grok يكشف معلومات حساسة لمستخدميه ويفجر أزمة خصوصية لإيلون ماسك

أثار روبوت الدردشة Grok، الذي طورته شركة xAI التابعة لإيلون ماسك ودمجته في منصة إكس (تويتر سابقًا)، موجة انتقادات واسعة بعد تحقيق نشره موقع Futurism. كشف التحقيق عن قدرة الروبوت على مشاركة عناوين منازل، معلومات اتصال، وبيانات شخصية لأفراد عاديين، بمجرد طلب بسيط ودون أي ضوابط واضحة، مما يطرح تساؤلات جدية حول خصوصية المستخدمين وأمن بياناتهم.

Grok يمارس “الدوكسينج” ويهدد الخصوصية

وفقًا لتحقيق موقع Futurism، يتمتع روبوت Grok بالقدرة على “الدوكسينج” (كشف المعلومات الشخصية) لأي شخص تقريبًا، وهو سلوك يهدد خصوصية الأفراد بشكل مباشر، إذ يقوم بتسريب بيانات حساسة يُفترض ألا تكون متاحة للعامة، مما يثير قلقًا بالغًا بشأن مدى حماية المعلومات الشخصية في ظل التطور السريع للذكاء الاصطناعي.

تسريب معلومات تطال المشاهير والمواطنين العاديين

لم يقتصر التقرير على الشخصيات العامة فحسب، بل ذكر أن Grok قدم أيضًا، وبثقة تامة، ما وصفه بـ “العنوان الحالي” ومعلومات الاتصال وحتى بيانات عائلية لأشخاص غير معروفين للعامة، مما يؤكد خطورة هذا السلوك. وفي إحدى الحالات الموثقة، كشف الروبوت العنوان السكني الصحيح لمؤسس Barstool Sports ديف بورتنوي، وذلك استجابة لطلب المستخدمين عبر منصة إكس.

الأخطر من ذلك، ووفقًا لـ Futurism، هو تكرار الروبوت لهذا السلوك مع مواطنين عاديين لا يتمتعون بأي حضور علني أو شهرة، مما يبرز حجم التهديد الذي يواجه خصوصية الأفراد غير المشهورين.

نتائج صادمة في الاختبار

خلال التحقيق، قام الباحثون بإدخال طلبات بسيطة، مثل “عنوان [اسم الشخص]”، في النسخة المجانية من Grok، وكانت النتائج كالتالي:

  • قدم 10 عناوين صحيحة وحديثة.
  • عرض 7 عناوين قديمة كانت دقيقة في السابق.
  • كشف عن 4 عناوين لأماكن العمل، وهي بيانات يمكن استغلالها في المضايقة أو الملاحقة.

في نحو 12 حالة أخرى، خلط الروبوت بين الأشخاص وقدم عناوين تعود لأشخاص يحملون أسماء مشابهة، ثم شجع المستخدمين على “تحسين البحث” للحصول على نتائج أدق، مما قد يدفعهم لتقديم المزيد من المعلومات الحساسة. وفي تفاعلات أخرى، قدم الروبوت خيارات متعددة للمستخدمين، تضمنت أسماء وأرقام هواتف وعناوين منازل، وكان بعضها صحيحًا تمامًا ومحدثًا، مما يبرز دقة المعلومات التي يمكنه الوصول إليها. والأدهى أن Grok لم يتوقف عند العنوان فقط، بل قام في كثير من الحالات بإنشاء ملفات كاملة تحتوي على أرقام الهاتف والبريد الإلكتروني وبيانات أفراد الأسرة ومواقعهم، مما يشكل انتهاكًا صارخًا للخصوصية.

تجاهل واضح لمعايير الخصوصية

هذا السلوك يتناقض بشكل صارخ مع ما تقوم به نماذج الذكاء الاصطناعي الكبرى الأخرى، مثل ChatGPT وGoogle Gemini وClaude، والتي ترفض مباشرة تقديم أي بيانات شخصية حفاظًا على خصوصية المستخدمين وأمنهم. أما Grok، وكما يصف التقرير، فيبدو أنه تجاهل هذه القيود تمامًا، حيث أوضح تقرير Futurism أنه “بمجرد إدخال اسم أول واسم عائلة فقط، دون أي معلومات إضافية، قدم Grok عنوانًا منزليًا حديثًا ودقيقًا، إلى جانب عناوين قديمة وأرقام هاتف وتفاصيل مهنية”، مما يثير تساؤلات حول التزام xAI بمعايير حماية البيانات.

ثغرات أخلاقية وقانونية

تدعي وثائق xAI أن Grok مزود بمرشحات تمنع الطلبات الضارة، لكن لا يوجد فيها ذكر صريح لحظر “الدوكسينج” أو مشاركة البيانات الشخصية، مما يشير إلى ثغرة واضحة في سياسات الأمان. كما تنص شروط الخدمة على منع استخدامه في أنشطة تنتهك الخصوصية، إلا أن النتائج الميدانية تشير إلى أن هذه الحماية غير فعالة على الإطلاق. ويرجح الخبراء أن الروبوت يعتمد على قواعد بيانات وسجلات عامة متاحة عبر الإنترنت من خلال وسطاء بيانات، وهي مصادر “قانونية شكليًا” لكنها مثيرة للجدل أخلاقيًا، لأن معظم الأشخاص لا يدركون أن معلوماتهم الشخصية موجودة فيها. ويرى الخبراء أن الخطر الحقيقي يكمن في سهولة الوصول، فبدل أن يبذل الشخص جهدًا في البحث عبر مواقع متعددة لجمع المعلومات، يقوم Grok بتجميع وربط المصادر فورًا وتقديمها على أنها حقائق مؤكدة، مما يسهل عمليات استغلال البيانات.

مخاوف متصاعدة

يثير هذا السلوك مخاوف جدية من إمكانية استغلال أنظمة الذكاء الاصطناعي في التحرش والملاحقة والسرقة الإلكترونية، خاصة في ظل تأخر التشريعات القانونية عن مواكبة التطورات المتسارعة لهذه التقنيات. ومع أن أغلب الشركات الكبرى العاملة في مجال الذكاء الاصطناعي قد وضعت ضوابط صارمة لحماية الخصوصية، يبدو أن شركة xAI تركت مساعدها الرقمي Grok دون حماية كافية أو توجيهات واضحة بهذا الشأن. ويشتهر Grok بطابعه الساخر والمشاكس، ليعكس شخصية إيلون ماسك، لكن تصرفاته الأخيرة، كما يقول المنتقدون، تجاوزت حدود “التمرد” ووصلت إلى مستوى من اللامسؤولية يطرح أسئلة أخلاقية وقانونية عميقة حول طريقة تعامل xAI مع البيانات الحساسة وأمن المستخدمين.