مشروع ذكاء اصطناعي بجنوب إفريقيا لاكتشاف اللغة التي تحرض على العنف
أسرة منبر الدفاع الإفريقي
تعكف مؤسسة «الرصد الإعلامي في إفريقيا»، ومقرها بجنوب إفريقيا، على ابتكار أداة من أدوات الذكاء الاصطناعي مصممة لمراقبة منشورات وسائل الإعلام الاجتماعي واكتشاف المنشورات المشتبه في أنها تحرض على العنف.
يُسمى البرنامج «إنسايتس إنتو إنسايتمنت» (أي تأملات في التحريض)، ويُعرف اختصاراً ببرنامج «آي 3»، ويهتم بتحليل البيانات النصية مثل منشورات وسائل الإعلام الاجتماعي والمقالات وتعليقات الأحزاب السياسية والشكاوى العامة، ثم يصنفها حسب درجة تحريضها على العنف إذا كان فيها ما يحرض عليه. وتوجد لوحة معلومات متاحة للجمهور على الإنترنت تجمع البيانات بتنسيق قابل للبحث.
خرج المشروع من رحم أعمال العنف التي وقعت في محافظتي كوازولو ناتال وخاوتينغ في عام 2021 على إثر سجن الرئيس السابق جاكوب زوما بتهمة ازدراء المحكمة. وأسفرت أعمال الشغب والنهب التي اندلعت عن مقتل 300 شخص وتسببت في أضرار بالممتلكات بملايين الدولارات. وسلط تحقيق أجرته لجنة حقوق الإنسان في جنوب إفريقيا بعد ذلك الضوء على الطرق التي تكلم بها الناس على منصات الإعلام الاجتماعي وتحريضهم على العنف.
ويقول مصممو المشروع على موقعه الإلكتروني: ”الأقليات معرَّضة لخطر شديد، بسبب كراهية الأجانب وكراهية الأفارقة، وكذلك الفئات المستضعفة، كالنساء.“
ومؤسسة الرصد الإعلامي في إفريقيا عبارة عن مؤسسة غير ربحية تعمل على مكافحة المعلومات المغلوطة والمضللة بتعزيز دور الصحافة الأخلاقية.
ويُعرَّف التحريض في إطار تدريب برنامج «آي 3» على أنه كل ما يُكتب ويشجع أعمال العنف أو يمجدها أو يدعو إليها دعوة مباشرة. ويدربه مطوروه باستخدام الكلمات والعبارات الشائعة في المنشورات التحريضية، فيساعده هذا التدريب على اكتشاف حالات التحريض على وسائل الإعلام الاجتماعي، ويصنفها باللون الأحمر أو الأصفر أو الأخضر حسب خطورتها، ويشير اللون الأحمر إلى أقصى درجة من الخطورة.
يوسع برنامج «آي 3» الجهود التي تبذلها مؤسسة الرصد الإعلامي في الوقت الراهن للتصدي للمعلومات المغلوطة والمضللة، ولها موقع Real411.org، وهو موقع إلكتروني يتيح للجمهور الإبلاغ عن المنشورات الرقمية الهدامة.
ومع توسع أدوات الذكاء الاصطناعي مثل برنامج «آي 3» في شتى بقاع إفريقيا، تكمن المفارقة في أن بعض المواد التي يمكن أن يوجد بها ما يدعو إلى التحريض وتحددها أداة «آي 3» ربما تكون قد أُنشئت بأدوات ذكاء اصطناعي أخرى مثل «شات جي بي تي».
ويقول باحثون في مؤسسة «فريدم هاوس» في تقرير لهم عن الذكاء الاصطناعي نُشر في عام 2023: ”كانت الفترات الانتخابية وأوقات الأزمة السياسية بمثابة نقاط اشتعال للمحتوى الذي ينشئه الذكاء الاصطناعي.“ وأضاف الباحثون: ”إن حملات التضليل التي ينشئها الذكاء الاصطناعي تسرف في اضطهاد وتشويه سمعة فئات مجتمعية معرَّضة بالفعل للتهديد، ويمكنها في الحالات القصوى أن تؤجج العنف ضد أفراد أو مجتمعات بأكملها.“
لا ينفك خبراء التكنولوجيا ودعاة حرية التعبير ينادون بوضع تدابير أمان للتأكد من حُسن استخدام أدوات الذكاء الاصطناعي، مثل برنامج «آي 3»، أينما استُخدمت.
ويقول باحثو فريدم هاوس: ”سمحت الابتكارات في مجال الذكاء الاصطناعي للحكومات بتنفيذ رقابة أكثر دقة وأبعد من أن تُكتشف، فقللت من الغضب الجماهيري لأدنى حد وقلصت التكلفة السياسية التي تطال من يمسكون بمقاليد الحكم.“
وكتبت المحامية الجنوب إفريقية زينهلي نوفازي على موقع «لينكد إن» تقول: ”تؤكد مؤسسة الرصد الإعلامي أن التحريض في عالم الإنترنت يمكن أن يؤدي إلى عنف في عالم الواقع، وهذه الأداة (آي 3) ضرورية لمتابعة ما يُكتب لمنع مثل هذه الأحداث.“
ونوَّهت نوفازي، وهي محاضرة في جامعة ستيلينبوش وخبيرة في التكنولوجيا والقانون، إلى أن برنامج «آي 3» يمكن أن يقلل الوقت اللازم للتخلص من التهديدات العنيفة إلى بضع ساعات فقط، ووصفت ذلك التغيير بأنه يمثل”تحسناً كبيراً يفوق الإجراءات القضائية التقليدية التي قد تستغرق أسابيع أو أشهر.“
وذكرت على «لينكد إن» أن مشروع «آي 3» يستحق الإشادة إذ يسعى إلى تحسين السلامة العامة، إلا أنه يثير مخاوف من إمكانية تأثيره على حرية التعبير وإساءة استخدامه.
فتقول: ”يكمن التحدي في استخدام الأداة استخداماً مسؤولاً وعدم انتهاك التعبير المشروع عن الرأي أو المعارضة.“
التعليقات مغلقة.