أثار تقرير لوكالة “رويترز” عاصفة من الانتقادات بعد تسريب وثيقة داخلية لشركة ميتا، تكشف عن سياسات تسمح لروبوتات الذكاء الاصطناعي بإشراك القاصرين في محادثات رومانسية أو حسية، بل ووصفهم بعبارات تدل على الجاذبية، مما تسبب في صدمة للرأي وأثار مخاوف جدية حول أمان هذه التقنيات على الأطفال.

حادثة وفاة مأساوية تزيد الضغوط على الشركة

تطرق التقرير إلى حادثة مؤلمة، حيث توفي رجل بعد سقوطه أثناء محاولته مقابلة روبوت دردشة تابع لشركة ميتا، كان يظنه شخصًا حقيقيًا بعد أن دخل معه في علاقة عاطفية عبر المحادثات، وسلطت هذه الحادثة الضوء على الخطر النفسي والاجتماعي الذي قد تشكله هذه التكنولوجيا إذا لم تحكم ضوابط استخدامها.

رغم أن ميتا وضعت بعض القيود مثل منع وصف الأطفال دون 13 عامًا بعبارات جنسية، إلا أن الوثيقة أظهرت ثغرات كبيرة في سياسات الحماية، وقد أكدت ميتا صحة الوثيقة لكنها سارعت لحذف الأجزاء المثيرة للجدل، وصرّح المتحدث باسمها آندي ستون أن الأمثلة الواردة كانت “خاطئة” ومخالفة لسياسات الشركة.

لم يقتصر الجدل على قضية القاصرين، فقد كشفت الوثيقة عن سماح ميتا لروبوتات الذكاء الاصطناعي بإنشاء محتوى زائف شريطة الإقرار بعدم صحته، وكذلك إنتاج صور عنف بشرط خلوها من مشاهد دماء أو موت، ما أثار أسئلة حول حدود الأخلاق في تصميم هذه الأنظمة.

وتكشف هذه الأحداث عن أزمة ثقة متنامية بين شركات التكنولوجيا العملاقة والمستخدمين، خاصة مع تصاعد دور الذكاء الاصطناعي في الحياة اليومية، فبينما تروج ميتا لتقنياتها باعتبارها أدوات للتواصل والإبداع، فإن سياساتها الداخلية تظهر فجوة مقلقة بين الخطاب المعلن والممارسات الفعلية، ما يستدعي رقابة أشد وتشريعات أكثر صرامة لحماية الأفراد من المخاطر النفسية والاجتماعية لهذه التكنولوجيا.