بشهادة موظفين.. منتجات "فيسبوك" الأساسية تفاقم مشكلة المعلومات المضللة

time reading iconدقائق القراءة - 16
بشهادة موظفين.. منتجات \"فيسبوك\" الأساسية تفاقم مشكلة المعلومات المضللة - المصدر: بلومبرغ
بشهادة موظفين.. منتجات "فيسبوك" الأساسية تفاقم مشكلة المعلومات المضللة - المصدر: بلومبرغ
المصدر:

بلومبرغ

على مدى سنوات، رفضت "فيسبوك" التي أصبح اسمها اليوم "ميتا" (Meta)، المزاعم بأن منصاتها تلعب دوراً كبيراً في نشر المعلومات الخاطئة والمحتوى المؤذي الذي أسهم في تغذية نظريات المؤامرة والانقسامات السياسية وزعزعة الثقة بالعلوم، بما يشمل التشكيك باللقاحات المضادة لفيروس كورونا.

إلا أن البحوث والتحليلات والتعليقات الواردة في عدد هائل من الوثائق الداخلية، تشير إلى أن الموظفين داخل الشركة قاموا بدراسة ومناقشة مسألة المعلومات الخاطئة والمحتوى المؤذي بشكل مطوّل، وقد توصّل العديد منهم إلى الخلاصة ذاتها التي تفيد بأن المنتجات والسياسات الخاصة بـ"فيسبوك" تفاقم المشكلة.

في عام 2019 على سبيل المثال، أنشأت الشركة حساباً وهمياً باسم امرأة تدعى كارول من نورث كارولاينا تبلغ من العمر 41 عاماً وتتابع دونالد ترمب و"فوكس نيوز"، وذلك من أجل دراسة مخاطر المعلومات الخاطئة ومخاطر الاستقطاب التي يحتويها نظام التوصيات على موقع التواصل الاجتماعي. وفي خلال يوم واحد، تم توجيه حساب المرأة الوهمية نحو محتوى "استقطابي"، وفي غضون أسبوع نحو نظريات المؤامرة، بما فيها "كيو أنون" (QAnon).

اقرأ أيضاً: "فيسبوك" تغير اسمها إلى "ميتا" للتركيز على الواقع الافتراضي

حالة استقطاب مقلقة

بحسب مذكرة داخلية في "فيسبوك" تناولت تحليلاً للحساب الوهمي، فإن "محتوى هذا الحساب (المتابع بشكل أساسي استناداً إلى أنظمة توصية متعددة!) تطوّر إلى حالة مقلقة من الاستقطاب في خلال فترة وجيزة جداً". ولدى إجراء الاختبار ذاته في الهند باستخدام حساب لامرأة تبلغ من العمر 21 عاماً، تم توجيه الحساب خلال مدة وجيزة إلى صور عنيفة، وأخرى معدلة للغارات الجوية الهندية في باكستان.

اقرأ المزيد: الرسوم التعبيرية العنصرية أحدث اختبار تواجهه "فيسبوك" و "تويتر"

تظهر المذكرات والتقارير والنقاشات الداخلية وغيرها من الأمثلة الواردة في الوثائق، أن بعض الخصائص التي يتضمنها موقع "فيسبوك" باعتباره المنتج الأساسي للشركة، تسهم في نشر المعلومات الخاطئة والاستقطابية حول العالم. إلا أن المقترحات الرامية إلى إصلاح مثل هذه الثغرات قد تواجه تحديات داخلية. وبحسب الوثائق، فإن مساعي الشركة الهادفة إلى معالجة المعلومات الخاطئة والمحتوى المؤذي، تعرقلت في بعض الأحيان بسبب اعتبارات سياسية.

قال أحد الموظفين في الشركة في نقاش داخلي حول تقرير حمل عنوان "ما هو الضرر الجانبي؟": "لدينا أدلة من مصادر متعددة تفيد بأن خطاب الكراهية والخطاب السياسي التقسيمي والمعلومات الخاطئة على موقع (فيسبوك) وغيره من التطبيقات، تؤثر على المجتمعات حول العالم". وأضاف: "لدينا أيضاً أدلة قاطعة على أن آليات منتجنا الأساسي، مثل سرعة الانتشار والتوصيات والتحسينات من أجل تعزيز الانخراط، تشكّل كلّها عاملاً أساسياً يسهم في انتشار هذا النوع من الخطابات على المنصة".

تم تقديم هذه الوثائق إلى هيئة الأوراق المالية والبورصات الأميركية، كما جرى تقديمها بنسخة منقحة إلى الكونغرس من قبل المستشار القانوني لـ"واشية فيسبوك"، فرانسيس هوغن. كما حصلت مجموعة من وسائل الإعلام بينها "بلومبرغ"، على النسخ المنقحة التي تضمّ مجموعة مختارة من المعلومات الموجّهة خصيصاً للعاملين داخل الشركة، حيث تم تنقيح أسماء الموظفين، كما إن تاريخ الإعداد ليس واضحاً دائماً. وكانت بعض وسائل الإعلام بينها "وول ستريت جورنال" و"باز فيد نيوز" سبق لها ونشرت بعضاً من هذه الوثائق.

اقرأ أيضاً: واشية "فيسبوك" تتهمها بجعل الأرباح أولوية فوق المستخدمين

نفي الاتهامات

إلا أن "ميتا" ("فيسبوك" سابقاً)، نفت هذه الاتهامات في البداية، وقالت إن الوثائق "المختارة" من قبل هوغن "لا يمكن بأي شكل من الأشكال استخدامها من أجل التوصل إلى استنتاجات عادلة بحقنا". وقال الرئيس التنفيذي للشركة، مارك زوكربرغ، إن المزاعم بأن شركته تمنح الأولوية للأرباح على حساب سلامة المستخدمين، "ليست صحيحة ببساطة".

من جهته، قال المتحدث باسم الشركة، جو أوسبورن في بيان: "كلّ يوم، تعمل فرقنا على الموازنة ما بين حماية قدرة مليارات الأشخاص على التعبير بحرية عن آرائهم، والحاجة إلى المحافظة على منصتنا كمساحة آمنة وإيجابية". وأضاف: "نواصل القيام بتحسينات مهمة من أجل معالجة انتشار المعلومات الخاطئة والمحتوى المؤذي. أما الزعم بأننا نشجع المحتوى السيئ من دون القيام بأي شيء، فليس صحيحاً".

وأوضح البيان الصادر عن الشركة أن الحساب التجريبي الخاص بالمرأة من نورث كارولاينا، يمثّل نوع البحوث التي تقوم بها الشركة من أجل إجراء تحسينات والتوصل إلى القرارات المناسبة، مثل إزالة "كيو أنون" من المنصة. وأشارت الشركة إلى أن ارتفاع حدّة الاستقطاب بدأ قبل ظهور وسائل التواصل الاجتماعي، ورغم كل البحوث الأكاديمية الجدية، لم يتم التوصل إلى إجماع على تحميل وسائل التواصل الاجتماعي المسؤولية. واعتبر البيان أن الأدلة المتوافرة، لا تدعم القول إن موقع "فيسبوك" أو غيره من وسائل التواصل الاجتماعي بشكل عام، هو المسبب الرئيسي.

نجاح متأخر

على الرغم من أن عملاق وسائل التواصل الاجتماعي قام من دون أدى شكّ بتحقيق تقدم على صعيد تعطيل وكشف حملات تدخّل تقودها حكومات أجنبية، وتعاون مع مؤسسات خارجية من أجل معالجة المزاعم الخاطئة، إلا أنه غالباً ما فشل في التعامل مع الحركات السياسية الناشئة مثل "كيو أنون" أو المعلومات الخاطئة عن اللقاحات، إلا بعد انتشارها بشكل واسع.

اقرأ المزيد: هل بلغت فيسبوك لحظة شركات التبغ الكبرى؟

تعكس هذه الوثائق ثقافة الشركة التي تقدّر النقاش المفتوح والاختلاف في الرأي، والتي تعمل بلا كلل على جمع المعلومات وتحليلها. إلا أن النتيجة النهائية التي غالباً ما تضيء بشكل واضح على تقصير الشركة، يمكن أن تؤدي إلى بروز تحد جدّي، إذ إن أحد الواشين تقدم بشكوى أمام هيئة الأوراق المالية والبورصات الأمريكية، مضمنة في مجموعة من الوثائق يزعم فيها أن الشركة "تعرف أن منتجاتها تفاقم خطاب الكراهية وانتشار المعلومات الخاطئة"، وهي تضلل بشكل متواصل المستثمرين والجمهور بشكل عام.

يشمل هذا التضليل المزعوم مثول زوكربرغ أمام الكونغرس في شهر مارس، حيث عبّر عن ثقته بأن شركته لا تتحمل إلا جزءاً قليلاً من المسؤولية عن تفاقم الانقسام السياسي في الولايات المتحدة وحول العالم. وقال أمام المشرعين: "الآن يقول البعض إن المشكلة هي في أن وسائل التواصل الاجتماعي تسهم في ترسيخ الاستقطاب، لكن هذا الأمر ليس واضحاً البتة استناداً إلى الأدلة والبحوث".

إلا أن الوثائق غالباً ما تروي حكاية مختلفة.

كتب موظف سابق في "فيسبوك" في يومه الأخير من العمل في أغسطس عام 2020: "نعرف منذ أكثر من سنة أن أنظمة التوصيات لدينا يمكن أن تقود المستخدمين بسرعة نحو مسار من نظريات المؤامرة والمجموعات التي تروّج لها". وأشار إلى أمثلة عن إجراءات وقائية تخلت عنها الشركة أو لم تطبقها من الأساس. وأضاف: "خلال الوقت الذي ترددنا فيه، رأيت أشخاصاً من بلدتي يغوصون أكثر على موقع (فيسبوك) في متاهة (كيو أنون) ومؤامرة معارضة ارتداء الكمامات واللقاحات للوقاية من فيروس كورونا. كان من المؤلم مشاهدة ذلك".

إقرأ أيضاً: في 21 يوماً فقط.. كيف قادت فيسبوك مستخدماً هندياً نحو الأخبار الكاذبة والدموية؟

من جانبها، قالت الشركة في البيان الذي أصدرته، إن انتقاء بعض الأجزاء من الحكايات التي يدلي بها موظفون سابقون، لا يعكس بالفعل كيف يحصل التغيير الداخلي. إذ تخضع المشاريع إلى مراجعات ومناقشات دقيقة بحسب البيان، حتى تصبح الشركة واثقة بشأن التغييرات المحتملة وتأثيرها على المستخدمين. في نهاية المطاف، قامت الشركة بالفعل بتطبيق العديد من الأفكار التي أوردها الموظف، بحسب البيان.


****

مشكلة كثيرة التعقيد

مثل غيره من منصات التواصل الاجتماعي، واجه موقع "فيسبوك" لسنوات، مشكلة المعلومات الخاطئة. ويعود ذلك جزئياً إلى عدم احتواء هذه المعلومات على أي شتائم أو عبارات محددة يمكن كشفها بسهولة. كذلك، فإن اكتشاف أي منشورات تحتوي على معلومات خاطئة أو مؤذية ليس أمراً علمياً دقيقاً، ويزداد صعوبة بسبب تعدد اللغات والسياقات الثقافية.

يعتمد موقع "فيسبوك" على تقنيات الذكاء الصناعي من أجل إجراء مسح لقاعدة المستخدمين الواسعة بهدف التحقق من وجود أي مشكلات محتملة، ثمّ يرسل المنشورات المحددة إلى مجموعة من الجهات المتخصصة في تقصي الحقائق المنتشرة حول العالم. فإذا صنّف متقصو الحقائق أمراً على أنه معلومة خاطئة، يقوم موقع "فيسبوك" بإضافة شعار تحذيري ويحدّ من انتشاره، وبالتالي يراه عدد أقل من الناس، بحسب منشور صادر عن غاس روسن، نائب الرئيس لشؤون النزاهة في مارس عام 2021. أمّا المعلومات الخاطئة الأكثر خطورة، ومن بينها المزاعم المزيفة حول لقاحات كورونا، فيمكن إزالتها.

إلا أن هذه العملية تتسم بالتعقيد نظراً للعدد الهائل من المستخدمين الذي يقدر بنحو 3 مليارات مستخدم.

كانت الشركة قد قدمت بعض المعلومات حول الطرق التي تمكنت من خلالها من ضبط انتشار المعلومات الخاطئة. فبين أكتوبر وديسمبر 2020، قامت بإغلاق أكثر من 1.3 مليار حساب مع احتدام المعركة الانتخابية الرئاسية في الولايات المتحدة. وخلال السنوات الثلاث الماضية، قامت الشركة بإزالة أكثر من 100 شبكة بسبب سلوكها المنسق المزيف، حيث تتعاون مجموعة من الصفحات أو الأشخاص معاً، من أجل تضليل الناس، بحسب منشور روسن.

لكن إلى جانب التحدي المتمثل في مراقبة كمية هائلة من البيانات، فإن نظام "فيسبوك" المعدّ لمسح وحذف المعلومات الخاطئة والمزاعم المؤذية، يحتوي على عيوب هائلة بحسب الوثائق. مثلاً، يمكن للمخاوف السياسية أن تؤثر على ردة فعل "فيسبوك" تجاه المشورات الخاطئة.

ففي حادث يعود إلى سبتمبر 2019، تم التراجع عن قرار بإزالة مقطع مصوّر نشرته مجموعة معارضة للإجهاض تحمل اسم "لايف أكشن" (Live Action) بعد "تلقي اتصالات عديدة من أعضاء جمهوريين في مجلس الشيوخ". فالمقطع الذي يزعم خطأ أن "الإجهاض لا يشكل أبداً ضرورة طبية"، أعيد نشره بعد أن اعتبرت "فيسبوك" أنه "لا ضرورة لإخضاعه لتقصي الحقائق" بحسب إحدى الوثائق.

إرضاء الحكومات

ذكر أحد الموظفين في إحدى الوثائق التي تعود إلى ديسمبر 2020 أن "المشكلة الأساسية في (فيسبوك) تكمن في أن منظومة سياسات واحدة هي المسؤولة عن قواعد المنصة، وأيضاً عن المحافظة على رضا الحكومات". وأضاف: "من الصعب جداً اتخاذ قرارات تتعلق بالمنتجات استناداً إلى مفاهيم تجريدية حين يتم تقييمك أيضاً انطلاقاً من قدرتك على منع اللاعبين السياسيين من القيام غريزياً بفرض قوانين ناظمة على الشركة أو التحقيق بشأنها أو مقاضاتها".

إلى ذلك، فإن السياسيين والمشاهير وبعض المستخدمين المميزين الآخرين، معفيون من العديد من إجراءات مراجعة المحتوى التي تقوم بها الشركة من خلال عملية تعرف بـ"القائمة البيضاء". على سبيل المثال، تم تصنيف العديد من الفيديوهات التي نشرها الرئيس السابق دونالد ترمب أو المؤيدون له على "إنستغرام" على أنها تحتوي تحريضاً على العنف، وذلك قبيل أعمال الشغب في مبنى الكابيتول في 6 يناير، بحسب الوثائق.

كتب أحد الموظفين منشوراً عام 2019 تحت عنوان "القائمة البيضاء السياسية تتعارض مع مبادئ (فيسبوك) الأساسية"، قال فيه إنه "من خلال منح هذا الإعفاء الخاص للسياسيين، نحن نعرّض المستخدمين عن قصد للمعلومات الخاطئة، فيما نملك الوسائل والموارد للحدّ منها".

غالباً ما يتحدث موظفو شبكة التواصل الاجتماعي عن سياسات ومنتجات يعتقدون بأنها أسهمت في نشر المعلومات الخاطئة والسلوكيات المؤذية، بحسب الوثائق. وفي كثير من الأحيان، تكون شكواهم مدعومة ببحوث أو اقتراحات من أجل معالجة المشكلات أو الحدّ منها.

على سبيل المثال، أشار الموظفون إلى أن المعلومات الخاطئة الواردة في التعليقات على منشورات أخرى، غالباً ما تخضع لتدقيق أقل بكثير من المنشورات ذاتها، على الرغم من أن هذه التعليقات تمتلك قدرة تأثير كبيرة على المستخدمين.

تقصير في إيجاد الحلول

بحسب تقرير داخلي تحت عنوان "التردد في الخضوع للقاحات شائع أكثر في التعليقات باللغة الإنجليزية بالمقارنة مع المنشورات الإنجليزية"، فإن "الخطر التراكمي" للتردد في الخضوع للقاحات الناجم عن التعليقات، ربما يكون أكبر من ذلك الناجم عن المنشورات. "مع ذلك، لم نستثمر بما يكفي للحدّ من التردد في الخضوع للقاحات بسبب التعليقات مقارنة باستثمارنا في المحتوى"، حسب ما جاء في التقرير.

قالت الشركة في بيان إنها تخفف من ظهور التعليقات التي تتطابق مع معلومات خاطئة معروفة أو التي تتم مشاركتها من قبل مخالفين متكررين أو التي تخالف معايير مجتمع "فيسبوك".

يرتبط العديد من اقتراحات الموظفين بخوارزميات "فيسبوك"، بما فيه تغيير تم اعتماده في عام 2018 للتشجيع على تفاعلات اجتماعية أكثر، انتهى به الأمر في تغذية المحتوى الاستفزازي منخفض الجودة.

إقرأ المزيد: خوارزميات فيسبوك تحت أنظار المشرعين الأمريكيين

فقد غيرت الشركة ترتيب المنشورات في "آخر الأخبار" من أجل منح الأولوية للتفاعلات الاجتماعية والتقليل من أهمية أمور مثل مقاطع الفيديو المنتشرة على الإنترنت، بحسب بيان الشركة. وقد أدى هذا التغيير إلى تقليل الوقت الذي يمضيه الأشخاص على موقع "فيسبوك". ووفق البيان، ما كانت الشركة لتقوم بذلك لو أن تركيزها ينحصر على تشجيع الناس على استخدام خدماتها أكثر.

أظهرت استطلاعات داخلية أن مستخدمي موقع "فيسبوك" أفادوا بأن تجربتهم على الموقع تراجعت منذ اعتماد هذا التغيير، مشيرين إلى أنه لا يقدم لهم نوع المحتوى الذي يفضلون رؤيته. وقد طلبت بعض الأحزاب السياسية في أوروبا من "فيسبوك" تعليق العمل بهذا التغيير. كما أظهرت اختبارات عدة قامت بها الشركة، أن هذا التغيير دفع بسرعة المستخدمين نحو محتوى يدعم نظريات المؤامرة أو يشوّه سمعة المجموعات الأخرى.

المسؤولية عن المحتوى

قال أحد الموظفين في مقال تحت عنوان "نحن مسؤولون عن المحتوى المنتشر على الإنترنت" في ديسمبر 2019: "طالما نواصل التركيز على إجمالي المشاركة وليس فقط على ما نعتقد بأن المستخدمين الأفراد يفضلونه، يتوجب علينا أن نأخذ في عين الاعتبار تأثير هذا الاهتمام بالجانب التجاري على المجتمع الذي ننخرط فيه".

بعدما نشرت صحيفة "نيويورك تايمز" مقال رأي في يناير 2021 تلى غزوة الكابيتول، شرحت فيه كيف تحفز خوارزميات "فيسبوك" المستخدمين على مشاركة الآراء المتطرفة من خلال المكافأة عليها بواسطة عدد الإعجابات بالمنشورات ومشاركتها، أشار أحد الموظفين إلى أن المقال ينسجم مع نتائج بحوث سابقة، ووصف ذلك بـ"التأثير الجانبي الإشكالي لهندسة فيسبوك ككلّ".

أضاف: "في تقريري الأول تحت عنوان (فضولي بشأن كيو أنون)، أوصيت بإزالة/ وحظر وسائط القياسات الاجتماعية مثل الإعجابات، من أجل الحدّ من الشعور بـ(النجاح) الناجم عن مشاهدة هذه الإعجابات وهي تزيد".

"إنستغرام" والإعجابات

كانت منصة "إنستغرام" قد درست في السابق إزالة الإعجابات عن منشوراتها، وقد أعلنت الشركة في 26 مايو أنها سوف تبدأ بمنح المستخدمين خاصية إخفاء الإعجابات إذا اختاروا ذلك.

تقدم الوثائق بعض التفاصيل غير الكاملة حول جهود الشركة الرامية للحدّ من انتشار المعلومات الخاطئة والمحتوى المؤذي. ففي مراجعة بحثية نشرت في يونيو 2020، أوضح الكاتب، كيف قامت الشركة بالفعل بحظر "المخالفين المتكررين الأشد خطورة" وحدّت من الوصول إلى "الخصائص القابلة لسوء الاستخدام" من أجل الحدّ من انتشار المحتوى المؤذي.

جرى تكليف فرق داخل الشركة بالبحث عن وسائل من أجل القيام بتحسينات، حيث أشارت وثيقتان على الأقل إلى إنشاء قوة ضاربة لدراسة "الأفكار الكبرى الهادفة للحدّ من انتشار المحتوى السيء في آخر الأخبار" من أجل التركيز على "الإجراءات اللينة" التي لم تقم بحذف هذا المحتوى.

ولم يتضح بعد كم من هذه التوصيات جرى تطبيقها، وما إذا كانت الإجراءات التي طُبقت قد حققت نتائج ناجحة.

في الرسالة الوداعية العائدة إلى أغسطس 2020، أثنى موظف سابق في "فيسبوك" على زملائه الذين وصفهم بـ"المذهلين واللامعين والاستثنائيين". إلا أنه تأسف على "كبح" العديد من جهودهم الرامية للحدّ من المعلومات والخاطئة وغيرها من "المحتوى المخالف" أو "عرقلتها بشدة من قبل صانعي القرارات، في أحيان كثيرة خوفاً من ردة فعل الجمهور وصناع السياسات".

كتب الموظف السابق: "في الوقت الذي يتطلب فيه دعم أي تدخل جديد، وجود كمية هائلة من الأدلة -وهذا أمر محق- فإن فرض قيود مشددة على أي تدخل، لا يتطلب شيئاً".

تصنيفات

قصص قد تهمك