الخبراء يحذرون من حملات التضليل بالذكاء الاصطناعي
أسرة منبر الدفاع الإفريقي
تكاد تكون حرب المعلومات قد أمست تهديداً شاملاً في كل الصراعات العنيفة المشتعلة في إفريقيا.
فقد أزكت وسائل الإعلام الاجتماعي جذوة خطاب الكراهية وحملات التضليل في كلٍ من جمهورية الكونغو الديمقراطية وإثيوبيا والصومال والسودان ومنطقة الساحل.
ويحذر خبراء أمثال الخبير الاقتصادي الصومالي عبد الله عليم من أن التكنولوجيا الجديدة، ولا سيما ما يعمل منها بالذكاء الاصطناعي، قادرة على التمادي في نشر الخراب والدمار والحرب في قارة تعاني أصلاً من انقسامات عرقية وطائفية وعنصرية.
وكتب في مقال نشرته مجلة «فورين بوليسي» يوم 21 حزيران/يونيو يقول: ”أمست القارة مهيأة لخطاب الكراهية والعنف بسبب غياب الثقافة الرقمية والسياسات الهشة وأنظمة الأمان المحدودة على الإنترنت.“
وأضاف قائلاً: ”إن ظهور الذكاء الاصطناعي العدائي يمكن أن يشعل نار الحرب القادمة في القارة، ومعظم شركات الإعلام الاجتماعي غير مستعدة البتة؛ وهذا النوع من الذكاء الاصطناعي يتضمن خوارزميات تعمل على تفادي أدوات الإشراف على المحتوى. وما أسهل أن تُساق بعض المجتمعات – المحفوفة بالتوترات أصلاً – إلى شفير الصراع والانهيار بسبب ذلك في ظل الرقابة المحدودة.“
ويشغل عليم منصب الرئيس التنفيذي لصندوق مستقبل إفريقيا، وهو عبارة عن منصة تهدف إلى تسريع المبادرات التقنية في ربوع القارة. وينظر إلى الفوضى في شرقي الكونغو الديمقراطية، ويفكر في تاريخ الإبادة الجماعية في المنطقة، ويساوره القلق حيال ما قد يخبئه المستقبل.
فيقول: ”لنفترض أنها [أي الإبادة الجماعية في رواندا] حدثت اليوم، في عصر الخوارزميات؛ فما حجم الفوضى وسفك الدماء التي كانت لتحدث إذا انتشرت الصور المفبركة والتزييف العميق على وسائل الإعلام الاجتماعي بدلاً من الراديو، وتسببت في تطرف المزيد من المواطنين؟ فلا يمكن استبعاد حدوث شيء من هذا.“
وأشار السيد تشوكويميكا مونيي، باحث الذكاء الاصطناعي والمحامي وخبير الأمن السيبراني المقيم في أبوجا بنيجيريا، إلى حادثة وقعت في السودان في عام 2023، إذ ساعدت أدوات صوتية تعمل بالذكاء الاصطناعي في عمل تسجيل بالتزييف العميق للديكتاتور السابق عمر البشير، ينتقد فيه الفريق أول عبد الفتاح البرهان، قائد القوات المسلحة السودانية.
وقال مونيي لشبكة «صوت أمريكا» في عام 2023: ”الواقع أن التكنولوجيا تطورت أسرع من الأدوات اللازمة للتخفيف من خطرها، وهذا ليس مفاجئاً، لأن الخبراء حذروا من ذلك في مستهل ثورة الذكاء الاصطناعي.“
وأضاف: ”رأينا ذلك في دول كثيرة سُخرت فيها التكنولوجيا للتدخل في الانتخابات أو التضليل كما رأينا أثناء الجائحة.“
ولنا في الحرب الأهلية التي وقعت في إثيوبيا بين عامي 2020 و2022 عبرة أخرى على خطاب الكراهية الذي تؤججه وسائل الإعلام الاجتماعي.
ففي تقرير صدر في عام 2023، قالت منظمة العفو الدولية الحقوقية إن خوارزميات فيسبوك ”زادت من انتشار الخطاب الهدام الذي يستهدف التيغرانيين، في حين فشلت أنظمة الإشراف على محتوى المنصة في اكتشاف مثل هذا المحتوى والتعامل معه كما ينبغي.“
وقال عليم إن أدوات الذكاء الاصطناعي العدائية يمكن أن تساعد مُروجي المعلومات المضللة على تجنب أنظمة الإشراف وأنظمة السلامة الأخرى لمراقبة المحتوى.
فيقول: ”ربما يغير برنامج الذكاء الاصطناعي المُعادي قليلاً إطارات الفيديو في التزييف العميق، بحيث لا يزال من الممكن التعرف عليها بالعين البشرية، ولكن التغيير الطفيف (يُعرف تقنياً بالضوضاء) يجعل الخوارزمية تخطئ في تصنيفه، فيفلت من أدوات الإشراف على المحتوى.“
ويدعو شركات الإعلام الاجتماعي إلى تبادل البيانات التي يمكن أن تسمح للمؤسسات الخارجية بمراقبة حملات التضليل والتخفيف من شرورها.
فيقول: ”على شركات التكنولوجيا، عاجلاً غير آجل، الاستثمار في الخوارزميات القادرة على اكتشاف خطاب الكراهية باللغات المحلية، وبناء شبكة أوسع تشمل مُشرفي المحتوى وخبراء الأبحاث، وإيلاء الأولوية لزيادة الشفافية وتكثيف التعاون للسماح للخبراء المستقلين بإجراء عمليات التدقيق، وإعداد التدخلات السياسية، ثم قياس التقدم المحقق.“
التعليقات مغلقة.