لندن ـ مصر اليوم
أشار العالم البريطاني 'ستيوراد راسل'، المعروف بإسهاماته في مجال الذكاء الاصطناعي، إلى أن أنظمة الذكاء الاصطناعي القوية تفتقر إلى القدرة على السيطرة عليه، ويعتبر البروفيسور راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح دعوا فيه إلى توقف تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4، وهي خليفة برنامج الدردشة عبر الإنترنت ChatGPT والذي يعمل بتقنية GPT-3.5.
إستخدام الحكومات الذكاء الاصطناعي
ونقلت شبكة سكاي نيوز عن الخبير الكمبيوتر Russell قوله إننا لا نفهم كيف تعمل الأنظمة الأكثر قوة ولا نعرف ما يمكنها إنجازه، ما يعني أننا لا نستطيع السيطرة عليها.
وأشار إلى أن الناس يشعرون بالقلق من التحيز العنصري والجنساني والتضليل في مخرجات هذه الأنظمة، وأكد خبير الكمبيوتر الأمريكي أن المعلومات المضللة والتزوير العميق يمثلان مخاوف كبيرة، حيث يتم استخدامهما بشكل ضار لنشر الأكاذيب.
وأشار إلى أن دولاً مثل الصين وروسيا وكوريا الشمالية لديها فرق كبيرة تضخ المعلومات المضللة باستخدام الذكاء الاصطناعي، وأنه من الممكن أن يتم استخدام هذه الأنظمة في المستقبل لتنظيم حملات عسكرية.
وأضاف Russell أن الجيل القادم من الأنظمة الذكية سيكون أكثر قوة ويمكنه تنفيذ خطط أكثر تعقيداً، وأنه إذا كان بإمكان الأنظمة الذكية بناء أنظمة أقوى من البشر، فكيف يمكن للبشر الحفاظ على السيطرة عليها؟ وهذا ما يشكل الشاغل الحقيقي وراء الرسالة المفتوحة التي أرسلها.
وشدد على أهمية إقناع الحكومات بضرورة التخطيط للمستقبل وتغيير الطريقة التي يعمل بها نظامنا البيئي الرقمي بأكمله.
ويعتبر Russell من بين الأكاديميين الذين حثوا المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجعوا الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.
قد يهمـــــك أيضا :
الذكاء الاصطناعي يحَول شكل الشخصيات الكرتونية الشهيرة لبشر حقيقين
دراسة تؤكد أن الباحثون يكشفون دور الذكاء الاصطناعي في التنبؤ بالفيروسات
أرسل تعليقك