بقلم - عبد اللطيف المناوي
تحدثنا عدة مرات عن الذكاء الاصطناعى وكيف سيغير شكل الحياة. التغيرات ستكون فى مختلف الاتجاهات، وسيأتى معها كثير من التخوفات والهواجس. وبدأت الأطراف المعنية الاستعداد لمواجهة والتعامل مع هذه التخوفات.
من بين هذه الإجراءات ما تعتزم شركة ميتا الأمريكية العملاقة (فيسبوك) أن تفعله بوضع تصنيف خاص للتعرف إلى الأصوات والصور ومقاطع الفيديو الناتجة من الذكاء الاصطناعى على شبكاتها الاجتماعية اعتبارا من مايو المقبل.
مونيكا بيكرت، نائبة الرئيس المسؤولة عن سياسات المحتوى فى الشركة الأم لفيسبوك وإنستجرام وواتساب وثريدز قالت: «نخطط للبدء فى تصنيف المحتوى الذى أنشئ بواسطة الذكاء الاصطناعى فى مايو 2024»، لافتة إلى أن علامة «Made with AI» «صُنع باستخدام الذكاء الاصطناعى» ستوضع «على عدد أكبر من محتويات الفيديو والصوت والصور» مقارنة بالسابق. هذا يعنى أن التخفى وراء الذكاء الاصطناعى وصناعة محتوى أو التدخل بتغيير محتوى سيكون معلوما بدرجة كبيرة، لكنها ليست كاملة.
سيتم وضع هذه العلامات على منصات التواصل عند رصد مؤشرات إلى استخدام صور تمت الاستفادة بالذكاء الاصطناعى فى تنفيذها بما يتوافق مع المعايير المعمول بها، أو إذا ما أشار الأشخاص أنفسهم إلى أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعى.
كان الجدل يدور حول أفضلية حذف المحتوى المصنوع بالذكاء الاصطناعى إذا لم يعلن عنه صاحبه أو الإشارة بوضوح إلى ذلك من قبل الشركة. وأعلنت المجموعة الأمريكية أنها ستغيّر الطريقة التى تعالج بها المحتوى المعدل بواسطة الذكاء الاصطناعى، وذلك بعد التشاور مع مجلسها الإشرافى، معتبرة أن الشفافية وإضافة عناصر أكثر لرصد مدى التدخل فى صناعة المحتوى أصبحتا تشكّلان أفضل طريقة لمعالجة المحتوى الخاضع للتلاعب. ومن وجهة نظر القائمين على المجموعة فإن هذا يعد تجنبا لمخاطر وضع قيود لا طائل منها على حرية التعبير. هذا يعنى أنه باتت «ميتا» تفضّل إضافة علامات وعناصر كاشفة إلى هذا النوع من المحتوى، بدلا من إزالته كما كانت تفعل حتى الآن.
ومع ذلك، أوضحت ميتا أنها ستواصل إزالة أى محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعى، إذا ما كان يتعارض مع قواعدها ضد التدخل فى العملية الانتخابية أو التخويف أو المضايقة أو العنف أو أى سياسة أخرى مدرجة فى معايير مجتمعنا.
لن يقف الأمر عند «ميتا» بل سبق أن تعهدت شركات تكنولوجيا عملاقة أخرى مثل مايكروسوفت وجوجل وأوبن إيه آى باتخاذ إجراءات مماثلة.
وتعتمد هذه الشركات على شبكاتها المكونة من مئات من مدققى الحقائق المستقلين لتحديد المحتوى «الخاطئ أو المضلل» الذى ينتجه الذكاء الاصطناعى. وتأتى هذه الإجراءات على خلفية الحرب ضد المعلومات المضللة.