مصراليوم

يتلقى بعض مستخدمي تطبيق «فيسبوك» في الولايات المتحدة الأمريكية، أسئلة عما إذا كانوا قلقين من أن شخصاً يعرفونه قد يصبح متطرفاً.وقال آندي ستون، المتحدث باسم «فيسبوك» لشبكة «سي إن إن»، إن كل ذلك يُعتبر جزءاً من اختبار تديره شركة التواصل الاجتماعي ينبع من مبادرة إعادة التوجيه، التي تهدف إلى مكافحة التطرف العنيف.وظهرت لقطات شاشة للتنبيهات على المحتوى المتطرف على وسائل التواصل الاجتماعي، أمس (الخميس).وأوضح ستون: «هذا الاختبار جزء من عملنا الأكبر لتقييم طرق توفير الموارد والدعم للأشخاص على (فيسبوك)، الذين ربما تفاعلوا مع محتوى متطرف أو تعرضوا له، أو قد يعرفون شخصاً في خطر».وأضاف: «نحن نتشارك مع منظمات غير حكومية وخبراء أكاديميين في هذا المجال، ونأمل في

مشاركة المزيد بالمستقبل».ومن بين الأسئلة التي وجهت إلى المستخدمين: «هل أنت قلق من أن شخصاً ما تعرفه قد أصبح متطرفًا؟».وأوضح هذا التنبيه، بحسب لقطة شاشة نُشرت على مواقع التواصل الاجتماعي: «نحن نهتم بمنع التطرف على (فيسبوك)... تلقى الآخرون في وضعك دعماً سرياً».ثم يعيد التنبيه توجيه المستخدم إلى صفحة دعم.وجاء في تنبيه آخر أن «الجماعات العنيفة تحاول التلاعب بغضبك وخيبة أملك... يمكنك اتخاذ إجراءات الآن لحماية نفسك والآخرين».وأشار ستون إلى أن الشركة توجه المستخدمين إلى مجموعة متنوعة من الموارد، بما في ذلك «لايف آفتر هيت»، وهي مجموعة تساعد الأشخاص على الابتعاد عن الجماعات المتطرفة والعنيفة.على مدى السنوات العديدة الماضية، تعرضت «فيسبوك» لتدقيق شديد من النقاد لعدم اتخاذ إجراءات كافية لتقليص المحتوى المتطرف على منصتها. في عام 2020، على سبيل المثال، تعرضت الشركة لانتقادات لفشلها في إغلاق صفحة لجماعة تحث المواطنين المسلحين على النزول إلى شوارع كينوشا بولاية ويسكونسن.كما وعدت الشركة مراراً وتكراراً بالعمل بشكل أفضل في وقف تدفق المعلومات المضللة ونظريات المؤامرة.

     قـــد يهمــــــــك أيضــــــاُ :

فيسبوك تتحدى أبل بساعة ذكية ذات مواصفات غير مسبوقة

فيسبوك تستخدم الذكاء الاصطناعي لاكتشاف النزاعات داخل المجموعات