
قدمت مبلّغون عن مخالفات من داخل شركات التواصل الاجتماعي نظرةً داخلية على سباق الخوارزميات الذي تلى النمو السريع والملحوظ لمنصة تيك توك، حيث كشفوا عن قرارات الشركة التي سمحت بظهور محتوى أكثر ضررًا، نتيجة دراسات داخلية أظهرت أن المحتوى الذي يثير الغضب يرفع من مستوى التفاعل بين المستخدمين.
توجيهات الشركات وقراراتها المتعلقة بالمحتوى
قال مبلّغون لبي بي سي إن شركات التواصل الكبرى، مثل Meta وتيك توك، خضعت لضغوط المنافسة، مما أدى لاتخاذ قرارات أدت إلى تهاون بمعايير السلامة فيما يخص العنف، والابتزاز الجنسي، والإرهاب، حيث إن المحتوى الذي يثير الغضب يزيد من تفاعل المستخدمين، وهو ما دفع الشركات للمسارعة في تقديم محتوى أكثر جاذبية رغم مخاطره.
ذكر مهندس يعمل في شركة Meta، المالكة لفيسبوك وإنستغرام، أن إدارته تلقّت تعليمات بالسماح بظهور نوع معين من المحتوى الضار الذي يقع على الحافة بين المسموح وغير المسموح، بهدف منافسة تيك توك. وأوضح أن السبب وراء ذلك هو تراجع سعر سهم الشركة، وأن الشركات كانت تحاول بشكل متواصل حماية مصالحها الاقتصادية على حساب معايير السلامة.
الوصول إلى بيانات داخلية واستغلالها لصالح الشركات
كشفت بي بي سي عن وصول حصري من موظف في تيك توك إلى لوحات البيانات الداخلية التي تعرض شكاوى المستخدمين، حيث أظهر أن الشركة كانت تعطي الأولوية للتعامل مع قضايا تتعلق بالساسيين على حساب تقارير عن منشورات ضارة بالأطفال، بهدف الحفاظ على علاقاتها السياسية وتجنب القيود التنظيمية أو الحظر، وليس دائمًا لسلامة المستخدمين بشكل عام.
الداخل إلى صناعة الخوارزميات وتأثيرها على المحتوى
يسلط المبلّغون الضوء على كيف أن خوارزميات تلك الشركات، خاصة في منصة تيك توك، أصبحت تستخدم بشكل مكثف لتعزيز المحتوى الذي يثير الغضب، حيث أن لخوارزميات التوصية دور كبير في ترويج المحتوى الذي يحقق أعلى مستويات التفاعل، بغض النظر عن مدى ضرره. وتُعامل الخوارزميات بشكل يشبه “الصندوق الأسود”، يصعب فهم داخله بدقة، مع اعتماد الصناعة بشكل كبير على فرق السلامة لضمان إزالة المحتوى الضار، رغم التحديات الكبيرة التي تواجهها هذه الفرق.
اخفاقات في حماية المستخدمين وخصوصية الأطفال
جهود شركة ميتا لتطوير ميزات مثل “ريلز” لم تكن كافية، حيث كشفت الأبحاث الداخلية أن محتوى “ريلز” شهد معدلات أعلى بكثير من التنمر، والتحرش، وخطاب الكراهية مقارنة ببقية محتوى انستغرام. رُغم استثمار الشركة في توظيف 700 موظف لهذا المنتج، رفضت طلبات توظيف مساعدات إضافية لحماية الأطفال أو ضمان نزاهة الانتخابات، مع أن الدراسات أظهرت أن خوارزمية فيس بوك كانت على علم بالمشكلات الناتجة عنها وتعمل على الترويج للمحتوى الذي يثير الغضب بشكل غير متناسب.
خوارزميات تيك توك وتحدياتها
بمقارنة خوارزميات تيك توك مع غيرها، قال مهندس سابق في الشركة إن النظام يُشبه “صندوقاً أسود”، يصعب فهمه، مشيرًا إلى أن إنشاء أنظمة آمنة 100% أمر صعب، وأن الفرق المعنية بالتأكد من إزالة المحتوى الضار تعتمد على فرق سلامة المحتوى، التي تتعرض لضغوط لعدم الموافقة على ميزات تقلل من المحتوى الإشكالي، خوفًا من تأثير ذلك على الإيرادات وحجم التفاعل.
كما أن الخوارزميات غالبًا تروج للمحتوى الحدّي، والذي يتضمن منشورات تحريضية، أو تشجع على العنصرية، أو ذات طابع جنسي، حتى لو لم تكن مخالفة صراحة للقانون. وأظهرت تقارير داخلية أن هناك تمييزًا في التعامل مع قضايا تتعلق بالأطفال، حيث تُصنف على أنها ذات أولوية أقل، وهو ما يعكس سياسة الشركة التي تفضل الحفاظ على علاقاتها السياسية على حساب سلامة المستخدمين الصغار.
تأثير الخوارزميات على التطرّف
أفاد مراهقون أن أدوات الإبلاغ عن المحتوى غير المرغوب فيه، مثل العنصرية والخطاب التحريضي، غير فعالة، وأنهم يتلقون توصيات بمحتوى متطرف خاصة عندما يقضون وقتًا أطول على المنصة. وقال أحدهم، وهو كالوم، إنه تأثر بالتطرف عبر خوارزميات تيك توك منذ عمر 14، حيث عرضت عليه محتوى أثار غضبه ودفعه إلى تبني أفكار عنصرية ومعادية للنساء، وهو ما يعكس مدى تأثير خوارزميات التوصية على المراهقين بشكل سلبي.
تزايد المحتوى المتطرف وتحليل الجهات الأمنية
رصدت سلطات مكافحة الإرهاب في المملكة المتحدة تزايداً في المحتوى المعادي لليهود والعنصرية والعنيف، والذي ينتمي لليمين المتطرف، حيث أصبح التعبير عن هذه الأفكار أقل خوفًا وأكبر انتشارًا نتيجة التفاعل الكبير الذي تثيره تلك المنشورات على منصات التواصل.
داخل شركة تيك توك: بين العمل والقلق
على مدار شهور، أجرى فريق الثقة والسلامة في تيك توك، من خلال أدلة داخلية حصلت عليها بي بي سي، تقييمات للمحتوى المُبلّغ عنه، حيث أظهر أنّ حجم القضايا التي يعالجها الفريق كبير جدًا، وأن تقليل الموظفين واعتماد تقنيات الذكاء الاصطناعي قلّص من قدرة الشركة على التعامل بشكل فعال مع المحتوى الضار، خاصة الذي يهدد الأطفال والمراهقين. حيث كانت المهام ذات الأولوية تُعطى لقضايا سياسية على حساب الأمان الشخصي للمستخدمين الصغار، وهو ما يثير قلقًا كبيرًا بشأن التداعيات السلبية على المجتمع والأطفال.
الوضع داخل الشركة وتضارب المصالح
عندما حاول فريق السلامة أن يضع أولوية لسلامة الأطفال على حساب الأجندات السياسية، طلب منه عدم ذلك، وتأكيد أن الشركة تهتم أساسًا بمحافظتها على علاقاتها مع الحكومات والسياسيين، لتجنب فرض قيود أو حظر. وأكد بعض الموظفين أن الإدارة لاتزال تغض الطرف عن أهمّية حماية المستخدمين الصغار، وأن التضارب في الأولويات يعكس مصلحة الشركة في الحفاظ على السوق والسيطرة، بدلاً من التركيز على أمن المجتمع وسلامة الأطفال.
التوصيات والتحذيرات
نصح أحد الموظفين الآباء بحذف تطبيق تيك توك من هواتف أبنائهم، والحد من استخدامه قدر الإمكان، وذلك بسبب قدرة المنصة على الترويج للمحتوى الإشكالي والمتطرف، وتأثير ذلك على الأطفال والمراهقين. فيما ردت تيك توك بأنها ترفض بشدة أن المحتوى السياسي يُعطى أولوية، وأكدت أن أنظمتها مهيأة لحماية المستخدمين، وأنها تلتزم بإجراءات صارمة لمنع عرض المحتوى الضار وتوفير أدوات للتحكم في التجربة الخاصة بالمستخدمين.
سباق الشركات مع الزمن للمنافسة
بدأ سباق تطوير خوارزميات المحتوى بشكل ملحوظ منذ 2020، عندما أطلقت إنستغرام ميزة Reels، ردًا على تفوق تيك توك، حيث كانت الشركة تحاول محاكاة النموذج الفريد للمنصة. على مر السنوات، تجارب ميدانية واسعة النطاق أظهرت أن محتوى Reels يثير ارتفاعًا في التعليقات العدائية والسلبيّة بنسبة تصل إلى 75% مقارنة بالمحتوى الآخر على إنستغرام، وهو ما يعكس ضرورة تعزيز إجراءات السلامة بشكل عاجل.
قال كبير الباحثين في ميتا إن تركيز الشركة خلال تلك الفترة كان على السرعة، مع تجاهل متعمد لمخاطر المحتوى الضار، حيث زادت الحوافز لفرق العمل لعدم إطلاق أدوات تساعد على حماية المستخدمين بشكل كافٍ، حفاظًا على زيادة التفاعل والإيرادات.
إخفاقات وتحديات الشركة الرئيسية
| الجانب | التفاصيل |
|---|---|
| محتوى Reels | شهد معدلات أعلى من التنمر والتحرش، وأظهرت الدراسة تفاوتًا في التعامل مع المحتوى الضار مقارنة ببقية محتوى إنستغرام. |
| ضغوط السوق | زادت حدة التنافس مع تيك توك، مع توجه الإدارة لزيادة الأرباح على حساب معايير السلامة. |
| فرق السلامة | واجهت صعوبة في الحصول على الموافقات اللازمة لإطلاق أدوات حماية مناسبة نتيجة لضغوط من قِبل فرق التسويق والإيرادات. |
اختلال موازين القوة والتأثيرات على المجتمع
وفقًا لمتخصصين، تكشف وثائق داخلية أن ميتا كانت ترى أن خوارزمياتها تُعزّز المحتوى المثير للغضب، حيث أن التفاعل الكبير مع هذا النوع من المحتوى يضاعف من انتشار الرسائل التي قد تكون ضارة أو خطرة، خاصة وأن الخوارزميات تتعامل بتحيز واضح نحو المحتوى الذي يثير الغضب أو الانفعالات، مما يسهم في زيادة الاستقطاب المجتمعي.
ردود الشركات والرؤى النهائية
نفت شركة ميتا بشكل قاطع أن تكون تتعمد التضخيم للمحتوى الضار، مؤكدة على التزامها بسياسات السلامة، واستثمارها في أدوات حماية المستخدمين، خاصة المراهقين، عبر تقييمات دقيقة وإجراءات وقائية. أما تيك توك فاستمرت في تأكيد أن جهودها تُركز على حماية المستخدمين وتقديم تجربة تفاعلية صحية، مع الالتزام بتقنيات متطورة لمنع المحتوى الضار من الظهور أصلاً.
