استخدمت Meta عن عمد “تكتيكات عدوانية” تتضمن جعل الأطفال مدمنين على وسائل التواصل الاجتماعي “باسم النمو”، وفقا لدعوى قضائية تدعي أن الأطفال عانوا بسبب “فيسبوك” و”إنستغرام”.
وادعى مهندس برمجيات Meta أنه “ليس سرا” كيف استخدم “فيسبوك” و”إنستغرام” خوارزميات دقيقة للترويج للاستخدام المتكرر والقهري بين القاصرين، بغض النظر عما إذا كان المحتوى ضارا – وكان “غير معتذر تماما بشأنه”.
وتم الكشف عن هذه الاكتشافات المنقحة في دعوى قضائية ضد Meta، تم فتحها ورؤيتها بواسطة موقع “ديلي ميل”.
وعلى الرغم من أن الرئيس التنفيذي مارك زوكربيرغ قال علنا إن الادعاء بأن شركته تعطي الأولوية للربح على السلامة والرفاهية ليس صحيحا، إلا أن الملفات تُظهر استغلال الأطفال جنسيا على كلا النظامين الأساسيين وتزعم أن “خوارزمية Meta القائمة على المشاركة استغلت المحتوى المتطرف لجذب المزيد من المشاركة”.
وتنص الوثيقة على أن 20% من المستخدمين الذين تتراوح أعمارهم بين تسعة و13 عاما على “فيسبوك” و”إنستغرام” قد مارسوا تجربة جنسية مع شخص بالغ على المواقع.
وهذا على الرغم من “سياسات Meta المتسامحة التي تحظر الإساءة مثل استغلال الأطفال”.
واتصل موقع “ديلي ميل” بـ Meta، التي لم تعلق على أسئلة محددة.
وقال متحدث باسم محامي المدعين الرئيسيين المعينين من قبل المحكمة لموقع “ديلي ميل”: “تُظهر هذه الوثائق التي لم يسبق رؤيتها من قبل أن شركات وسائل التواصل الاجتماعي تتعامل مع أزمة الصحة العقلية للشباب باعتبارها قضية علاقات عامة لا مشكلة مجتمعية ملحة من خلال منتجاتهم. ويشمل ذلك دفن الأبحاث الداخلية التي توثق هذه الأضرار، وعرقلة تدابير السلامة لأنها تقلل من “المشاركة”، ووقف تمويل الفرق التي تركز على حماية الصحة العقلية للشباب”.
وتشير الدعوى، المرفوعة في كاليفورنيا في 14 فبراير، إلى أن أكثر من ثلث الأطفال الذين تتراوح أعمارهم بين 13 و17 عامً أبلغوا عن استخدام أحد تطبيقات المدعى عليها “بشكل شبه دائم” ويعترفون بأن هذا “كثير جدا”، كما يزعم الآباء المتورطون في الدعوى.
وادعت الشكاوى، التي تم دمجها لاحقا في العديد من الإجراءات الطبقية، أن منصات وسائل التواصل الاجتماعي الخاصة بشركة Meta صُممت لتكون مسببة للإدمان بشكل خطير، ما يدفع الأطفال والمراهقين إلى استهلاك محتوى يزيد من مخاطر اضطرابات النوم واضطرابات الأكل والاكتئاب والانتحار.
وتشير الحالة أيضا إلى أن المراهقين والأطفال أكثر عرضة للآثار السلبية لوسائل التواصل الاجتماعي.
وتم إصدار النسخة غير المعدلة في 10 مارس.
وتنص على أن Thorn، وهي منظمة دولية لمكافحة الاتجار بالبشر، نشرت تقريرا في عام 2021 يفصل مشاكل الاستغلال الجنسي على “فيسبوك” و”إنستغرام” و”قدمت هذه الأفكار إلى Meta”.
ويُظهر تقرير Thorn أن “عدم الحجب أو الإبلاغ عن [الجناة] يحمي القاصرين من استمرار المضايقات” وأن 55% من المشاركين في التقرير الذين حظروا أو أبلغوا عن شخص ما قالوا إنه تمت إعادة الاتصال بهم عبر الإنترنت.
وتدعي الشكوى غير المختومة أيضا أن 80% من “انتهاك البالغين/الاتصالات الصغيرة” على “فيسبوك” نتج عن ميزة “أشخاص قد تعرفهم” في النظام الأساسي.
وخلصت دراسة داخلية أجريت في شهر يونيو من عام 2020 أو حوالي ذلك التاريخ إلى أن 500000 حساب على “إنستغرام” للقصر ‘يتلقون IIC’ – والتي تعني “تفاعلات غير ملائمة مع الأطفال” – على أساس يومي، وفقا لبيان منقح في الصفحتين 135 و136 من المستند.
ومنذ ذلك الحين، حسنت Meta قدرتها على تقليل التفاعلات غير الملائمة بين البالغين والشباب.
وقامت الشركة ببناء تقنية تسمح لها بالعثور على الحسابات التي أظهرت سلوكا مشبوها محتملا ومنع تلك الحسابات من التفاعل مع حسابات الشباب.
وتزعم Meta أنها لا تعرض حسابات الشباب لهؤلاء البالغين عندما يتصفحون قائمة الأشخاص الذين أبدوا إعجابهم بمنشور ما أو عند الاطلاع على المتابعين أو قائمة المتابعين في الحساب.
ومع ذلك، تم إجراء هذه التغييرات بعد عام 2020.
وتشير الشكوى أيضا إلى أن Meta قد فكرت في جعل ملفات تعريف المستخدمين المراهقين “خاصة بشكل افتراضي” في وقت مبكر من يوليو 2020، لكنها قررت عدم اتخاذ هذه الخطوة بعد تأليب “الأمان والخصوصية والمكاسب السياسية” مقابل “تأثير النمو”.
وفي الصفحة 135 من الدعوى القضائية، وهو جزء تم تنقيحه، تزعم أن Meta كانت على دراية بأن السماح للبالغين بالاتصال بالأطفال على “إنستغرام” “يثير غضب آبل إلى حد التهديد بإزالتها من متجر التطبيقات”، ولم يكن لدى الشركة جدول زمني لـ “عندما سنمنع البالغين من مراسلة القاصرين في IG Direct”.
ومع ذلك، تم نقل Meta لجعل حسابات المستخدمين المراهقين خاصة افتراضيا في نوفمبر 2022.
وقال متحدث باسم Meta لموقع “ديلي ميل”: “الادعاء الذي أوقفنا تمويله عن العمل لدعم رفاهية الناس خاطئ”.
وتنص النسخة المنقحة من الشكوى على ما يلي: “بدلا من “أخذ هذا على محمل الجد” و”إطلاق أدوات جديدة” لحماية الأطفال، فعلت Meta العكس.
وبحلول أواخر عام 2019، توقف فريق الصحة العقلية في Meta عن القيام بالأشياء، و”تم إيقاف تمويله” و”توقف تماما. وكما لوحظ، سمحت Meta بأدوات الأمان التي كانت تعلم أنها غير جيدة ليتم تقديمها كإصلاحات.
وأخبر متحدث باسم Meta أنه نظرا لأن هذا يمثل أولوية قصوى للشركة، فقد قمنا بالفعل بزيادة التمويل، كما هو موضح في أكثر من 30 أداة نقدمها لدعم المراهقين والعائلات. اليوم، هناك المئات من الموظفين يعملون في جميع أنحاء الشركة لبناء ميزات لهذا الغرض.
وتدرك Meta أن مستخدمي “إنستغرام” المعرضين لخطر الانتحار أو إيذاء النفس هم أكثر عرضة “لمواجهة المزيد من الانتحار الضار ومحتوى إيذاء النفس (من خلال اقتراحات الاستكشاف والمتابعة ذات الصلة).
وتدعي الدعوى أن موقف Meta الثابت من أهمية سلامة الأطفال لم يكن أبدا جادا.