الفئة : مقال فكري
محرر ومراسل وكاتب تجاري للعديد من المنشورات الرائدة ووكالات الأنباء ومنظمات الأبحاث في الهند ومنطقة الخليج.
5 نوفمبر 2024
تمهيد
قد يرى المتأمل للوهلة الأولى أن مصطلحي الاعتبارات الأخلاقية والتنظيمية (Deontic) وتطور البرمجيات وتكنولوجيا المعلومات (DevOps) غير مرتبطتين؛ نظرًا لاشتقاقهما من مجالات مختلفة مثل الفلسفة في الأولى والتكنولوجيا في الثانية. يشير مصطلح "ديونتيك" إلى الالتزامات والأذونات والمحظورات، في حين أن مصطلح "ديفوبس" عبارة عن ممارسة تكنولوجية تهدف إلى دمج البرمجيات وعمليات تكنولوجيا المعلومات.
في سياق مشروع الذكاء الاصطناعي، يعني دمج هذين المصطلحين الكثير ويشير إلى الإمكانيات والقدرات الإيجابية والسلبية للذكاء الاصطناعي، والتحولات الضخمة التي يحققها في قطاع الأمن.
أطلقت وكالة مشاريع الأبحاث الدفاعية المتقدمة في الولايات المتحدة (DARPA) برنامج الاتصالات بين الإنسان والذكاء الاصطناعي لدمج الاعتبارات الأخلاقية والتنظيمية في التطور التكنولوجي المعروف باسم CODORD، لتطوير أنظمة ذكاء اصطناعي قادرة على فهم واستنتاج التزامات الإنسان، والأذونات، والمحظورات. يهدف برنامج الاتصالات بين الإنسان والذكاء الاصطناعي لدمج الاعتبارات الأخلاقية والتنظيمية في التطور التكنولوجي إلى تبسيط هذه العملية من خلال تمكين الذكاء الاصطناعي من ترجمة اللغة الطبيعية (مثل الإنجليزية أو الفرنسية) بكفاءة إلى لغة منطقية رسمية، مما يقلل من الوقت والتكاليف المرتبطة باكتساب المعرفة. ورغم أن البرنامج لا يزال في مراحله الأولى، إلا أن لديه إمكانيات لتطبيقه في السياقات العسكرية والمدنية. يركز البرنامج بشكل رئيسي على إنشاء طرق آلية لترجمة المعرفة الأخلاقية والتنظيمية من اللغة الطبيعية إلى اللغة المنطقية.
في السياقات العسكرية، يمكن أن تساعد مشاريع مثل برنامج CODORD أنظمة الذكاء الاصطناعي في تفسير ونقل نية القائد بدقة، مما يُحسن من اتخاذ القرارات في المواقف المعقدة أو عالية الضغط. ونظرًا لأن الطرق الحالية لترجمة المعرفة البشرية إلى لغات برمجة منطقية بطيئة ومكلفة، وتتطلب مهندسين متخصصين ومطلعين، يُعتبر هذا تحولاً كبيرًا جاء في الوقت المناسب. بالإضافة إلى الدور التحولي للذكاء الاصطناعي في إدارة عمليات اتخاذ القرار المعقدة في قطاع الأمن، تشير هذه التطورات أيضًا إلى أهمية الالتزام بالقواعد والأخلاقيات والتوجيهات التشغيلية لتسريع وتيرة الأنظمة والعمليات وعملها بسلاسة.
يعتقد المتابعين لهذا القطاع أن بالإمكان تطبيق مثل هذه البرامج على نطاق واسع في القطاعات العسكرية والمدنية، إذ تساعد مثل هذه البرامج الذكاء الاصطناعي على اتباع المنطق والحدس فيما يخص الامتثال للقوانين واللوائح، وكذلك السياسات التشغيلية والأخلاقيات والعقود. [1] على سبيل المثال، يمكن أن يساعد الذكاء الاصطناعي في تخطيط العمليات، والأنظمة المستقلة، والرعاية الصحية، والامتثال المالي، وتقديم تفسيرات بلغة طبيعية يمكن لغير المتخصصين فهمها بسهولة. وهذه التطورات من ضمن التغييرات التي أحدثها الذكاء الاصطناعي في مجالات عديدة، بما في ذلك قطاع الأمن.
"البنية التحتية الحرجة" في النظام الأمني
تشير الدراسات إلى أن بإمكان الذكاء الاصطناعي تحديد الأنماط السائدة وكشف أي انحرافات عن تلك الأنماط، مما يُحسن بشكل كبير من الرقابة الأمنية في الاستخدامات العسكرية والمدنية.[2] أنظمة المراقبة المدفوعة بالذكاء الاصطناعي تُعد مثالاً على ذلك، حيث يمكن الاستعانة بها لإجراء تحليلات لمحتوى الفيديو (VCA)؛ مما يساعد رجال الأمن والمشغلين بصورة كبيرة. من خلال أتمتة عمليات كشف التهديدات، يمكن لقدرات الذكاء الاصطناعي تقليل الاعتماد على المراجعة البشرية لمقاطع الفيديو الطويلة، مما يجعل العملية أكثر كفاءة لفرق الأمن.
إن دمج الذكاء الاصطناعي في الأنظمة الأمنية أحدث تحولاً كبير في كشف التهديدات، وزادت تقنيات التعلم العميق (DL)، التي تُعتبر أيضًا جزءًا من الذكاء الاصطناعي، بشكل كبير من دقة التحليلات. ويقول ماتس ثولين، مدير التقنيات الأساسية في شركة Axis Communications، أن تقنيات التعلم العميق زادت بشكل كبير من دقة حلول التحليل، "مما جعل الأنظمة الأمنية أكثر موثوقية وكفاءة".[3] لقد ساعدت مثل هذه الإضافات القيمة المتخصصين في مجال الأمن في التعامل مع التهديدات المحتملة قبل تفاقمها، ومكنت هذه القدرات المتقدمة من تطوير العديد من التطبيقات الجديدة التي تتجاوز الوظائف التقليدية للسلامة والأمن.
توضح تقارير مركز جنيف لحوكمة قطاع الأمن (DCAF) كيف يعيد النمو السريع للذكاء الاصطناعي تشكيل قطاعات الأمن والعدالة، حيث تفترض التقارير أن الذكاء الاصطناعي يزيد من الجاهزية والمرونة خلال الأزمات مثل الأوبئة. وبالتالي، أظهرت الدول التي كانت تمتلك حلولاً تكنولوجية متقدمة قبل COVID-19 قدرًا أكبر من الجاهزية. [4] وفقاً لهذا التقرير، يمكن للذكاء الاصطناعي زيادة الشفافية في هذه القطاعات من خلال تحسين عمليات جمع البيانات وتخزينها، كما يمكن أن يؤدي الذكاء الاصطناعي إلى إعداد تقارير مدعومة بالبيانات حول الاحتياجات وأنماط الاستخدام، مما يدعم الحوكمة بصورة أكثر فعالية على المدى المتوسط والطويل.
من بين الأسباب الرئيسية التي تجعل الذكاء الاصطناعي تطورًا لا يمكن تجاهله في معظم القطاعات، وخاصة قطاع الأمن، كونه جزءًا من "البنية التحتية الحرجة"، وهو مصطلح يشير عادة إلى الأنظمة المادية والسيبرانية الضرورية لتمكين الدول من مباشرة أعمالها. وتتمثل أهمية هذه الأنظمة في أن أي تعطل في هذه الأنظمة قد يؤثر بشدة على الأمن الوطني، وتحقيق هذا المفهوم يقتضي دمج أنظمة الذكاء الاصطناعي المعاصرة في الجهاز الأمني.
يتطلب دمج الذكاء الاصطناعي في البنية التحتية الحرجة استخدامه في القطاعات الحيوية. وكذلك الاعتراف به كعنصر حيوي يحتاج إلى الحماية نظرًا لدوره الأساسي في دعم وتحسين عمليات البنية التحتية التقليدية. ذلك أن أي عنصر حيوي للبنية التحتية الأساسية يحمل أيضًا تبعات جيوسياسية كبيرة، والتي تؤثر على ميزان القوى والعلاقات الدولية واتخاذ القرارات الاستراتيجية. لهذا السبب، تدمج الدول بشكل متزايد الذكاء الاصطناعي في أطرها الأمنية الوطنية رغم التحولات الجيوسياسية الهائلة في العديد من المجالات الحيوية.
هلوسة الذكاء الاصطناعي ومخاطر الاعتماد المفرط عليه
رغم التقدم السريع والتطورات الكبيرة، إلا أن الأمور ليست مواتية دائمًا في عالم الذكاء الاصطناعي، حيث توجد مخاطر كبيرة للذكاء الاصطناعي في القطاع الأمني، وتداعيات مؤثرة على الجهاز الأمني بشكل عام. نظراً لأهمية هذا الموضوع، يتم الاستشهاد بالعديد من الأمثلة في هذا السياق. أحد هذه المخاطر هو استمرار القدرات المحدودة للذكاء الاصطناعي في فهم تفاصيل المشاهد المعقدة والسلوك البشري. مصطلح "الهلوسة"[5] – أو فقدان الذاكرة لدى الذكاء الاصطناعي – يصف ظاهرة قيام الذكاء الاصطناعي بتقديم بيانات غير دقيقة وتوصيات خاطئة. يقول المطلعون في القطاع إن الأمور تزداد سوءًا عندما يقوم الذكاء الاصطناعي بتلخيص محتوى غير دقيق أو اختلاق محتوى جديد لتغطية الخطأ الذي أحدثه. حيث يؤدي ذلك إلى نتيجة عكسية، بل كارثية، في أي نظام أمني، ناهيك عن أثر ذلك على الجوانب الأمنية.
مما لا شك فيه أن الذكاء الاصطناعي يعتمد على العنصر البشري، خاصة في عملية صنع القرار. والشائع في هذا السياق هو أنه لا بديل عن إبقاء "الإنسان في حلقة صنع القرار". بمعنى آخر، هناك حاجة لتحقيق توازن بين تبني قدرات جديدة وتقليل مخاطرها؛ ويمكن فقط من خلال التدخل البشري تحقيق وضمان ذلك. ومن بين المسائل الأخرى البارزة هي موثوقية التطبيقات التي ينتجها الذكاء الاصطناعي، مما يجعلها أقل أمانًا عن المستوى المرغوب. ونظرًا لأن الذكاء الاصطناعي مُدرب بشكل أساسي على بيانات متاحة للجمهور، فإن الأكواد ليست دائمًا آمنة، وهي ظاهرة تحتاج إلى معالجة.
هناك مسألة أخرى مهمة تتعلق بأمان البيانات المتبادلة على المنصات الكبرى للذكاء الاصطناعي. ونظرًا لاستخدام هذه المنصات داخليًا من قبل مؤسسات تحت الإشراف الحكومي أو خارجها، فإن ذلك يزيد من مخاطر اختراق البيانات والأمن، مما يؤدي إلى نتائج غير محمودة وأحيانًا عواقب كارثية. كما أن تحديد المسؤولية عندما تسوء الأمور هي مسألة لا تزال قيد التطور لاسيما مع قيام الذكاء الاصطناعي بشكل متزايد بأتمتة عمليات صنع القرار المعقدة.
تجاوز القدرات البشرية و"الصناديق السوداء" للذكاء الاصطناعي
يمكن أن تتجاوز أنظمة الذكاء الاصطناعي القدرات البشرية في مهام معينة، خاصة في قطاع الأمن. ومع ذلك، فإن القدرات البشرية تكون مصحوبة بالفكر الأخلاقي والحدس والتعاطف في اتخاذ القرارات، وهي أمور يفتقر إليها الذكاء الاصطناعي رغم أن الذكاء الاصطناعي أصبح جزءًا أساسيًا من اتخاذ القرارات في العديد من الشركات، ويتم الاعتماد عليه بصورة متزايدة في توجيه السياسات والقرارات العامة على مستوى العالم.[6] نتيجة لذلك، يمكن أن تؤدي قدرة الذكاء الاصطناعي على معالجة كميات هائلة من البيانات واتخاذ القرارات إلى تشكيل هياكل قوة مركزية ضخمة. وهو عامل آخر يجب على قطاع الأمن الانتباه له.
هناك أيضًا مخاوف عامة أخرى مشتركة بين مختلف القطاعات والتي تجعلنا ننظر إلى الذكاء الاصطناعي بشيء من الشك والريبة. فقد يؤدي فقدان الوظائف نتيجة الأتمتة المدعومة بالذكاء الاصطناعي إلى تفاقم ظاهرة عدم المساواة من الناحية الاقتصادية، لا سيما في القطاعات التي يمكن فيها أتمتة المهام الروتينية بسهولة. فإذا تُركت هذه الظاهرة دون رقابة، فقد تظل هذه الفئات المهمشة بلا وظائف، مما يؤدي إلى تبعات طويلة الأمد على الأمن الوطني. تحدٍ آخر وهو فرط الثقة في قدرات الذكاء الاصطناعي، مما يؤدي إلى اللامبالاة وعدم الاكتراث بين المشغلين البشريين. [7] تشبه هذه الظاهرة اعتماد المشغلين البشر بشكل مفرط على الآلات أو تجاهلهم لها، مما يؤدي غالبًا إلى أضرار كبيرة.
تُرتبط مخاوف الاعتماد المفرط على الذكاء الاصطناعي ارتباطًا وثيقًا بظاهرة "الصندوق الأسود". يُستخدم هذا المصطلح لوصف العديد من أنظمة الذكاء الاصطناعي، وخاصة تلك التي تعتمد على التعلم العميق، والتي تعمل بطريقة يصعب على البشر فهمها، حتى بالنسبة للمهندسين الذين طوروها. تقوم هذه الأنظمة بتحليل كميات هائلة من البيانات من خلال طبقات متعددة من الخوارزميات المعقدة.
تعتبر مسألة التنظيم عاملًا آخر رئيسيًا من عوامل تحديد أهمية الذكاء الاصطناعي ومستقبله. حيث لوحظ أنه كلما انخفضت مستويات الحوكمة، زادت صعوبة تنظيم الذكاء الاصطناعي، [8]مما يتطلب تحسين الآليات التنظيمية بالكامل. كما هو الحال في بقية العالم، تسعى دول مجلس التعاون الخليجي ومنطقة الشرق الأوسط الأوسع جاهدة لمواكبة السرعة المتزايدة لتطور الذكاء الاصطناعي، كما تراقب الأجهزة الأمنية في المنطقة تطورات هذا القطاع.
يشير تقرير صادر عن شركة أند إستراتيجي (Strategy&) إلى أن القوات الدفاعية والأمنية في دول مجلس التعاون الخليجي يجب أن تستفيد من الفرص التي يقدمها الذكاء الاصطناعي، حيث بدأت بعض الدول بالفعل في دمجه، ويذكر التقرير أنه "يمكن لهذه الدول تبني الذكاء الاصطناعي على نطاق أوسع للاستمتاع بمزاياه الكاملة من حيث التفوق المعلوماتي في العمليات، وتحسين الخدمات اللوجستية والصيانة التنبؤية". وفقًا لهذا التقرير، يمكن لقوات دول مجلس التعاون الخليجي اختيار برامج تجريبية للذكاء الاصطناعي، وبناء الخبرة والكفاءة، وتغيير النموذج العملياتي لنشر تطبيقات الذكاء الاصطناعي بصورة موسعة.
خاتمة
للذكاء الاصطناعي تأثير كبير وعميق على قطاع الأمن في جميع أنحاء العالم؛ حيث يمتلك كفاءات عملياتية معززة، كما أنه له أيضًا مخاطر مثل التحيز، ومخاوف الخصوصية، ونقاط الضعف الجديدة. ومع ذلك، يعد الذكاء الاصطناعي أمرًا حيويًا في قطاع الأمن، حيث يعزز القدرات الدفاعية الأمنية، رغم احتمالية أن يستغله المهاجمون الذين يسعون لتقويض الأنظمة. علاوة على ذلك، يمكن للهجمات المعادية استغلال نقاط الضعف والثغرات الموجودة في الذكاء الاصطناعي.
الاعتماد على مجموعات بيانات كبيرة، خاصة في المراقبة الأمنية، يثير تساؤلات أخلاقية حول خصوصية البيانات واستخدامها؛ ومن الضروري إدارة الأمور بمسؤولية، وتطبيق حوكمة أخلاقية، وإنشاء أطر تعاون أمني مع تزايد أهمية الذكاء الاصطناعي في الأمن الوطني والاستراتيجيات الجيوسياسية العالمية. علمًا بأن الأنظمة التي تم تصميمها للحماية قد تتعرض هي نفسها لهجمات سيبرانية متطورة، مما يجعل الموازنة بين قدرة الذكاء الاصطناعي على تحقيق الأمن وكونه سببًا في زعزعة الأمن مسألة حيوية محل نقاش في الحوار الأمني.
احتشام شهيد - محرر وباحث مقيم في الإمارات العربية المتحدة. منصة X: @e2sham
المراجع:
Altmann, J., & Sauer, F. (2017). Autonomous Weapon Systems and Strategic Stability. Journal of International Affairs, 72(1), 55-69.
Arora, P., & Freeh, E. (2020). AI-Driven Surveillance in Public Spaces: Ethical Implications. Journal of Security Studies, 14(2), 45-67.
Feldstein, S. (2019). The Rise of Digital Repression: How Technology is Reshaping Power, Politics, and Resistance. Journal of Democracy, 30(2), 40-54.
Gertz, B. (2021). AI in Modern Warfare: Transforming Battlefields. Defense Intelligence Journal, 25 (3), 67-83.
Russell, S. (2019). Human Compatible: AI and the Problem of Control. Penguin Press.
Schneier, B. (2020). We’ve Created a Monster: The Risks of Autonomous Weapons. Foreign Policy, 14 (3), 78-82.
Wang, L. (2022). The Ethics of AI-Powered Surveillance: A Global Perspective. Ethical AI Review, 8 (1), 12-29.
[1] U.S. Department of Defense. DIB AI Principles: Supporting Document. 31 Oct. 2019, https://media.defense.gov/2019/Oct/31/2002204459/-1/-1/0/DIB_AI_PRINCIPLES_SUPPORTING_DOCUMENT.PDF.
[2] Clarke, Alexander. “How AI Could Change Threat Detection.” TechTarget, https://www.techtarget.com/searchsecurity/tip/How-AI-could-change-threat-detection#:~:text=How%20AI%20is%20used%20in,that%20human%20analysts%20cannot%20match. Accessed 24 Oct. 2024.
[3] Axis Communications. “AI Security: Navigating the Challenges and Opportunities.” Axis Newsroom, 10 Oct. 2023, https://newsroom.axis.com/blog/ai-security.
[4] Geneva Centre for Security Sector Governance (DCAF). Artificial Intelligence in Security Sector Governance and Reform: An Advisory Note. 2021, https://www.dcaf.ch/sites/default/files/imce/ISSAT/Adv-note-AI-SSGR.pdf.
[5] “Wikipedia Contributors. “Hallucination (Artificial Intelligence).” Wikipedia, 20 Oct. 2024, https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence).
[6] World Economic Forum. “How Artificial Intelligence Will Transform Decision-Making.” World Economic Forum, 22 Sept. 2023, https://www.weforum.org/agenda/2023/09/how-artificial-intelligence-will-transform-decision-making/.
[7] Taha, Hanadi, et al. “Exploring Explainability of AI Systems: A Human-Centered Approach.” International Journal of Human-Computer Interaction, vol. 39, no. 7, 2023, pp. 689-705, https://doi.org/10.1080/10447318.2023.2301250.
[8] West, Darrell M. “The Three Challenges of AI Regulation.” Brookings Institution, 10 Aug. 2023, https://www.brookings.edu/articles/the-three-challenges-of-ai-regulation/.