تستكثر الجيوش الإفريقية من الذكاء الاصطناعي للقيام بمهام المراقبة، والإلمام بالأوضاع على الأرض، وجمع المعلومات الاستخبارية، ورفع كفاءة العمليات في مناطق الصراع.
ولكن يرى محللون أن هذه التكنولوجيا الناشئة لا تخلو من المخاطر، مثل عدم التحكم البشري في أنظمة الأسلحة ذاتية التحكم، وثغرات الأمن السيبراني، وقدرة الذكاء الاصطناعي على اتخاذ قرارات متحيزة أو غير دقيقة بناءً على البيانات المجمَّعة، مثل معلومات الأهداف التي تضربها المسيَّرات، ويمكن أن يكون لذلك عواقب غير مقصودة، كاستهداف المدنيين.
فاستخدام المسيَّرات في العمليات العسكرية محفوفٌ بالمخاطر بالفعل، ففي نيجيريا، وثَّقت شركة «بيكون كونسلتينغ»، وهي شركة متخصصة في الاستخبارات الأمنية وإدارة المخاطر، 18 حادثة شنَّ فيها الجيش النيجيري ضربات جوية غير مقصودة بالمسيَّرات، أسفرت عن مقتل أكثر من 400 من المدنيين في الست أو السبع سنوات الماضية.
وقال السيد كبير آدمو، العضو المنتدب للشركة، أثناء ندوة إلكترونية عقدها مركز إفريقيا للدراسات الاستراتيجية مؤخراً: ”يشتد الضغط على الجيش النيجيري … لتفادي هذه الحوادث، وقد أنشأ عدة وحدات للامتثال للقانون الإنساني الدولي.“
وإذ لا تزال تكنولوجيا الذكاء الاصطناعي وأنظمة الأسلحة ذاتية التحكم في تطور، فمن الممكن ألا يتحكم البشر في مجموعة من إجراءات جمع البيانات والعمليات العسكرية، فقد ذكر مركز الحد من التسلح ومنع انتشار الأسلحة أن السلاح ذاتي التحكم بالكامل قادرٌ على إجراء العمليات دون تدخل بشري.
وكشف تقرير نشره موقع «ديفنس بوست» في شباط/فبراير أن شركة «بايكار» التركية لتصنيع المسيَّرات اختبرت مؤخراً نسخة جديدة من مسيَّرتها الشهيرة «بيرقدار تي بي 2»، مزودة بذكاء اصطناعي متقدم، وهكذا فإن مسيَّرة «تي بي 2 تي-إيه آي» الجديدة مزودة بثلاثة حواسيب ذكاء اصطناعي متقدمة، تُعزز قدرتها على استقلاليتها، إذ يُمكِّنها الذكاء الاصطناعي من تحديد الأهداف وتتبعها، والتعرف على التضاريس، واختيار المسارات المثلى، والإقلاع والهبوط تلقائياً.
وكما نوَّه الاتحاد الإفريقي، فربما لا تكون أنظمة الذكاء الاصطناعي قادرة تماماً حتى الآن على تفسير القرارات التي تتخذها، وثمة مخاوف أيضاً بشأن صون حقوق الإنسان عموماً، وقضايا السلامة والأمن في البيئات المدنية والعسكرية، وهنالك مخاطر أخرى تشمل التهديدات السيبرانية لتطبيقات الذكاء الاصطناعي، مثل مقاطع الفيديو والصور والملفات الصوتية المفبركة التي لا يمكن تتبعها وتُعرف بمصطلح «التزييف العميق».
وذكر الدكتور ناثانيل ألِن، الباحث في مركز إفريقيا للدراسات الاستراتيجية، أن هذه المخاطر تشتد كلما تطور الذكاء الاصطناعي.
وقال أثناء الندوة الإلكترونية: ”لا يكفي الأخذ بنظام ذكاء اصطناعي معين، بل لا بدَّ من التفكير في السياق الذي يُستخدم فيه؛ وأعتقد أن هذا سيكون مهماً لشركائنا الأفارقة، فلا بدَّ من التحلي بالتفكير الاستراتيجي على المستوى العملياتي حول كيفية اندماجه مع أنظمة أخرى.“
ويتحدث ألِن ومحللون آخرون عن مخاوف بشأن المتحكِّم في أنظمة الذكاء الاصطناعي وإلى أي درجة ينبغي أن تمتثل بالقانون الدولي.
فيقول معهد ستوكهولم الدولي لأبحاث السلام إنه شاع تفسير القانون الإنساني الدولي على أنه يُلزم مستخدمي الأسلحة ذاتية التحكم بالتنبؤ بآثار استخدام القوة والحد منها، ولا يوجد نصٌ صريح على هذه القواعد، إلا أن الكثير من دول العالم تُجمع على أن استخدام الذكاء الاصطناعي في الصراع ينبغي أن يعتمد على السياق الذي يُستخدم فيه الأسلحة.
ويؤمن محللون أمثال الدكتور كارلوس باتاياس، من كلية السياسة والاقتصاد والشؤون العالمية بجامعة معهد الأعمال الإسبانية، بضرورة الإشراف البشري على أنظمة الذكاء الاصطناعي لاتخاذ القرارات التي تراعي الأخلاق والقانون أثناء الحرب. ويرى أنه لا ينبغي للكوادر البشرية أن تكتفي بالموافقة على كل ما يوصي به الذكاء الاصطناعي، ولا سيما عند استخدام الأسلحة ذاتية التحكم.
ويقول في مجلة الجامعة الإلكترونية: ”يؤكد الخبراء على أن يظل للبشر القول الفصل في اتخاذ القرارات العسكرية بشأن استخدام القوة للحد من المخاطر الإنسانية، ومراعاة المسائل الأخلاقية، وتسهيل الامتثال للقانون الإنساني الدولي؛ وهذا المبدأ في خطر شديد بسبب أنظمة الأسلحة ذاتية التحكم، لأنها مصممة لتعمل دون تحكم بشري مباشر.“
هذا وقد أوصى الباحثون بمعهد ستوكهولم الجيوش بإجراء تمارين محاكاة للوقوف على خصائص التصميم والاستخدامات المحددة للأسلحة ذاتية التحكم المحظورة بموجب القانون الدولي، وتحديد المعايير والمتطلبات السلوكية للبشر في تطوير هذه الأسلحة واستخدامها، وقد تؤدي هذه التمارين أيضاً إلى التعرف إلى القيود المفروضة عليها، كالاعتبارات القانونية والأخلاقية والسياسية والأمنية والعملياتية.
ومن أجل الاستفادة من ثمار الذكاء الاصطناعي، وضع الاتحاد الإفريقي استراتيجيةً لبناء القدرات، وتقليل المخاطر لأدنى حد، وتحفيز الاستثمار، وتعزيز التعاون في هذا المجال، غايتها:
* تسخير الذكاء الاصطناعي فيما ينفع الشعوب والمؤسسات والقطاع الخاص في إفريقيا.
* التخلص من المخاطر الناجمة عن استخدام الذكاء الاصطناعي، مع التركيز على قضايا مثل الحوكمة، وحقوق الإنسان، والسلام والأمن، وأشباهها.
* تسريع قدرات الدول الأعضاء في الاتحاد في مجالات البنية التحتية، وقواعد البيانات، والابتكار والبحث في مجال الذكاء الاصطناعي، وصقل المواهب والمهارات في هذا المجال.
* تعزيز التعاون والشراكات الإقليمية والدولية للنهوض بالقدرات الوطنية والإقليمية في مجال الذكاء الاصطناعي.
* تشجيع القطاعين العام والخاص على الاستثمار في الذكاء الاصطناعي على المستويين الوطني والإقليمي.
وقال آدمو: ”يتمثل واجبنا الآن في مساندة الدول الأعضاء لتطوير قدراتها المحلية، ولا يزال الطريق أمام معظمها طويلاً في هذا المجال، وسيكثر التعاون الدولي مستقبلاً.“