يثير التطور المحتمل لدمج الذكاء الاصطناعي في العمليات العسكرية وأنظمة التسليح مخاوف واسعة.
ففي الوقت الذي تقدم فيه تطبيقات الذكاء الاصطناعي فرصاً واعدة في سياق دعم اتخاذ القرار والأمن السيبراني والخدمات اللوجيستية وإدارة سلاسل التوريد، فإنها في الوقت نفسه تعكس مجموعة من المشكلات المختلفة، بدءاً من قضايا الأمن والسلامة ووصولاً إلى المشكلات الأخلاقية المرتبطة بالتحيز ، مروراً في الوقت نفسه بإزكاء سباق التسلح الدولي.
دمج الذكاء الاصطناعي في أنظمة الأسلحة أو ما يعرف بـ "الروبوتات القاتلة"، كان محل اهتمام واسع في الآونة الأخيرة، ضمن مجموعة القضايا التي يثيرها هذا التطور الواسع للتطبيقات الذكية، ودخولها في المجالات كافة بما في ذلك في مجالات الدفاع والأمن والتسليح، وبما عزز من دعوات تنظيم الاستخدام.
آخر تلك الدعوات أطلقتها النمسا، والتي دعت مطلع الأسبوع إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة الذي يمكن أن يؤدي لظهور ما يسمى "الروبوتات القاتلة"، وذلك خلال مؤتمر استضافته فيينا بهدف إحياء المناقشات المتعثرة إلى حد كبير حول تلك القضية المثيرة للجدل.
أخبار ذات صلة
ويشار إلى أن سنوات من المناقشات في الأمم المتحدة كانت قد مرت دون تحقيق نتائج ملموسة، وقال كثير من المشاركين في المؤتمر الذي استمر يومين في العاصمة النمساوية إن الوقت لاتخاذ إجراءات ينفد بسرعة، بحسب ما أوردته رويترز.
الدمج المحتمل للذكاء الاصطناعي
وفي هذا السياق، خصَّ المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، أحمد بانافع، موقع "اقتصاد سكاي نيوز عربية"، ببحث حديث أجراه حول "الدمج المحتمل للذكاء الاصطناعي في العمليات العسكرية".
في السنوات الأخيرة، عزز التقدم السريع في الذكاء الاصطناعي الإثارة والخوف في مختلف القطاعات، ولم يكن مجال الحرب استثناءً لذلك. على اعتبار أن الدمج المحتمل للذكاء الاصطناعي في العمليات العسكرية يَعِد بقدرات غير مسبوقة، ولكنه يثير أيضاً مخاوف أخلاقية واستراتيجية عميقة.
فبينما تتسابق الدول في جميع أنحاء العالم لتسخير قوة الذكاء الاصطناعي، فإن الآثار المترتبة على مستقبل الحرب بعيدة المدى ومعقدة.
بحسب بانافع، يجادل أنصار الذكاء الاصطناعي في الحرب بأن تكامله يمكن أن يحدث ثورة في العمليات العسكرية، مما يؤدي إلى اتخاذ قرارات أكثر كفاءة وفعالية، وتعزيز الوعي الظرفي، وتحسين الاستراتيجيات القتالية.
ورصد ضمن بحثه بعض الفوائد الرئيسية المحتملة لذلك الدمج، من بينها:
الاهتمامات الأخلاقية والاستراتيجية
وعلى الرغم من المزايا المحتملة، فإن دمج الذكاء الاصطناعي في الحرب يثير مخاوف أخلاقية واستراتيجية كبيرة يجب دراستها بعناية، بحسب ما رصده البحث، على النحو التالي:
أخبار ذات صلة
سباق التسلح العالمي بالذكاء الاصطناعي
ومع تزايد وضوح الفوائد والمخاطر المحتملة للذكاء الاصطناعي في الحروب، تكثف الدول في جميع أنحاء العالم جهودها لتطوير تقنيات الذكاء الاصطناعي ودمجها في قدراتها العسكرية، وهو ما يشير إليه المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، في معرض حديثه مع موقع "اقتصاد سكاي نيوز عربية"، موضحاً أن سباق التسلح العالمي للذكاء الاصطناعي له آثار كبيرة على مستقبل الحرب والأمن الدولي.
ويضيف: "تستثمر الولايات المتحدة والصين وروسيا وعديد من القوى الكبرى الأخرى بكثافة في أبحاث الذكاء الاصطناعي وتطويره للتطبيقات العسكرية. أنشأت وزارة الدفاع الأميركية مبادرات مختلفة، مثل مركز الذكاء الاصطناعي المشترك (JAIC) ووكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA)، لتسريع دمج الذكاء الاصطناعي في عملياتها".
ومن ناحية أخرى، جعلت الصين من الذكاء الاصطناعي أولوية وطنية وتسعى بنشاط إلى تطوير أنظمة الأسلحة المستقلة، فضلاً عن جمع المعلومات الاستخبارية المدعومة بالذكاء الاصطناعي وقدرات دعم القرار. وقد عبرت روسيا أيضًا عن عزمها الاستفادة من الذكاء الاصطناعي في الحرب، مع التركيز بشكل خاص على الأمن السيبراني والحرب الإلكترونية.
أثارت هذه المنافسة العالمية لتسخير قوة الذكاء الاصطناعي للأغراض العسكرية مخاوف بشأن احتمال زعزعة استقرار المشهد الأمني الدولي. وبينما تتسابق الدول للحصول على ميزة تكنولوجية، يزداد خطر سوء التقدير والتصعيد غير المقصود، مما قد يؤدي إلى زيادة التوترات والصراعات.
النقاش حول التنظيم والتعاون الدولي
ويشير بانافع إلى أنه استجابةً للمخاوف المحيطة بدمج الذكاء الاصطناعي في الحرب، كانت هناك دعوات للتعاون الدولي وإنشاء أطر تنظيمية قوية للتحكم في تطوير واستخدام تقنيات الذكاء الاصطناعي في السياقات العسكرية. وقد دعت منظمات مثل الأمم المتحدة ومختلف المنظمات غير الحكومية إلى اعتماد ضوابط ملزمة قانونًا من شأنها أن تحظر أو تنظم بشكل صارم تطوير واستخدام بعض أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، لا سيما تلك القادرة على اختيار الأهداف والاشتباك معها دون تدخل بشري ذي معنى.
ومع ذلك، فقد ثبت أن تحقيق الإجماع العالمي على مثل هذه اللوائح أمر صعب، ذلك أن الدول لديها مصالح متباينة ومستويات متفاوتة من التقدم التكنولوجي. ويرى البعض أن الحظر الكامل على أنظمة الأسلحة المستقلة أمر غير واقعي، وأن الجهود يجب أن تركز بدلاً من ذلك على ضمان السيطرة البشرية الهادفة ووضع مبادئ توجيهية واضحة لتطويرها ونشرها.
بالإضافة إلى ذلك، أثيرت مخاوف بشأن إمكانية استخدام التقنيات ذات الاستخدام المزدوج، حيث يمكن إعادة استخدام أنظمة الذكاء الاصطناعي التي تم تطويرها للأغراض المدنية للتطبيقات العسكرية، مما يزيد من تعقيد الجهود التنظيمية.
وبحسب المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، فإنه مع استمرار تطور دمج الذكاء الاصطناعي في الحرب، فمن الواضح أن التداعيات ستكون بعيدة المدى وعميقة. ولا يمكن تجاهل الفوائد المحتملة لتعزيز عملية صنع القرار، وتحسين الوعي الظرفي، وزيادة كفاءة العمليات.
وأضاف: "ومع ذلك، فإن المخاوف الأخلاقية والاستراتيجية المحيطة بالمساءلة، والتحيز، والانتشار، والأطر القانونية يجب معالجتها من خلال التعاون الدولي القوي والأطر التنظيمية".
ويثير سباق التسلح العالمي للذكاء الاصطناعي أيضًا تساؤلات حول العواقب طويلة الأجل المترتبة على التطوير ونشر أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي دون رادع. وبينما يجادل البعض بأن مثل هذه الأنظمة يمكن أن تقلل في نهاية المطاف من الخسائر البشرية والتأثير العام للحرب، يحذر آخرون من احتمال التصعيد غير المقصود وتآكل السيطرة البشرية على قرار الانخراط في نزاع مسلح.
وقال بانافع إنه في نهاية المطاف، سيتم تشكيل مستقبل الذكاء الاصطناعي والحرب من خلال الإجراءات الجماعية للدول وصانعي السياسات والباحثين ومنظمات المجتمع المدني. ومن الضروري اتباع نهج متوازن، يسخر الإمكانات التحويلية للذكاء الاصطناعي مع ضمان التزام تطويره واستخدامه في الحرب بالمبادئ الأخلاقية والقانون الدولي والحفاظ على الكرامة الإنسانية.
"وبينما يتصارع العالم مع تعقيدات هذه القضية، سيكون الحوار المستمر والشفافية والالتزام بالابتكار المسؤول أمرًا حاسمًا في التعامل مع العلاقة المعقدة بين الذكاء الاصطناعي والحرب، وفي تشكيل مستقبل تعمل فيه التطورات التكنولوجية على تعزيز الأمن والاستقرار العالميين"، وفق بانافع.
أخبار ذات صلة
إجراءات مطلوبة
وكانت رئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولجاريك، قد ذكرت خلال حلقة نقاشية في المؤتمر الذي انعقد أخيراً في النمسا إنه "من المهم للغاية أن نتخذ إجراءات على وجه السرعة"، مضيفة: "ما نشهده اليوم في سياقات العنف المختلفة هو إخفاقات أخلاقية أمام المجتمع الدولي. ولا نريد أن نرى مثل هذه الإخفاقات تتفاقم من خلال تحويل مسؤولية العنف والسيطرة عليه إلى الآلات والخوارزميات".
وبحسب جان تالين وهو مطور برمجيات ومستثمر في مجال التكنولوجيا: "لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء سواء كبيرة أو صغيرة، بدءا من الإخفاق في التمييز بين كرة القدم ورأس حَكَم أصلع، إلى وفيات المارة على الطرق بسبب السيارات ذاتية القيادة غير القادرة على التعرف على الأشخاص الذين يسيرون خارج الممرات المخصصة لهم". وشدد على أنه "يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء في القطاع العسكري أو المدني".
2024-05-05T16:42:25Z dg43tfdfdgfd