الأسلحة ذاتية التشغيل أخطر من الذكاء الاصطناعي في الحروب

الخطر الوجودي لا يتمثل في الخوارزميات وإنما في أتمتة إطلاق الأسلحة والقنابل النووية

time reading iconدقائق القراءة - 8
نموذج لإنسان آلي كتب عليه شعار حملة وقف الروبوتات القاتلة، وهو تحالف لمنظمات غير حكومية تسعى لحظر الأسلحة الفتاكة ذاتية التشغيل.    - المصدر: بلومبرغ
نموذج لإنسان آلي كتب عليه شعار حملة وقف الروبوتات القاتلة، وهو تحالف لمنظمات غير حكومية تسعى لحظر الأسلحة الفتاكة ذاتية التشغيل. - المصدر: بلومبرغ
المصدر:

بلومبرغ

- مقال رأي

لا ريب في أن الذكاء الاصطناعي سيغير من طبيعة الحروب كما يغير من طبيعة كل شيء آخر تقريباً. ولكن هل سيكون هذا التغيير كارثياً ومدمراً أم تطوراً تدريجياً إلى أشكال أرقى؟ دعونا نأمل في التطور التدريجي من أجل البشرية.

يؤدي التطور التكنولوجي دائماً إلى تغيير طبيعة الحرب. وهكذا هو الأمر منذ ظهور العجلات الحربية التي تجرها الخيول، ومهماز السرج، والبارود، والقنابل النووية والطائرات المسيرة في وقتنا الحاضر، كما يوضح لنا الأوكرانيون والروس كل يوم.

المثال الذي أفضله (بسبب أنه بسيط للغاية) هو معركة كونيغراتس في القرن التاسع عشر التي انتصر فيها البروسيون على النمساويين، وبالتالي ضمنت توحيد ألمانيا من برلين بدلاً من فيينا. إذ يرجع انتصار البروسيين إلى حد كبير في تلك المعركة إلى امتلاكهم بنادق تعبأ بالذخيرة من النهاية الخلفية للماسورة، فكانوا يستطيعون إعادة تلقيمها بسرعة أثناء استلقائهم على الأرض، في حين كان النمساويون يستخدمون بنادق تعبأ من الفوهة الأمامية، فكانوا يعيدون تلقيمها بشكل أبطأ وهم واقفون.

إذا كان الذكاء الاصطناعي مماثلاً لذاك النوع من التكنولوجيا، فربما تأمل الولايات المتحدة أو الصين، في صراعهما على القيادة في هذا المجال، في تحقيق التفوق العسكري لفترة وجيزة. غير أن الذكاء الاصطناعي بوصفه تكنولوجيا عسكرية يبدو أقل شبهاً بالبندقية التي تعبأ من الخلف، وأقرب إلى التلغراف والإنترنت أو حتى الكهرباء. بمعنى أنه ليس سلاحاً بقدر ما هو بنية أساسية ستغير تدريجياً كل شيء، بما في ذلك القتال نفسه.

اقرأ أيضاً: أميركا تزيد تكلفة برنامج التسلح الأعلى في العالم

الأقمار الاصطناعية ومسيرات التجسس

هذا الأمر يتحقق بالفعل. فالأقمار الاصطناعية الأميركية مع مسيرات الرصد والتجسس تلتقط الآن من المعلومات ما لا يستطيع جيش من البشر تحليلها وبسرعة تكفي لتقديم نصائح مفيدة للأوكرانيين تتعلق بحركة القوات الروسية في توقيت يسمح بإجراء عسكري. ولذلك يتولى الذكاء الاصطناعي تلك المهمة. وبهذه الطريقة، يصبح الجنود مثل الأطباء الذين يستخدمون الذكاء الاصطناعي ليرشدهم وسط كم كبير من بيانات الأشعة السينية.

الخطوة التالية هي إضافة الذكاء الاصطناعي إلى مختلف أنواع الروبوتات التي ستقوم، مثلاً، بوظيفة المساعد الآلي للطيارين المقاتلين. سيظل الإنسان يقود الطائرة، ولكنه سيكون محاطاً بسرب من الطائرات المسيرة التي تستخدم أجهزة الاستشعار والذكاء الاصطناعي لرصد وتدمير الدفاعات الجوية للعدو أو القوات البرية بأوامر الطيار. لن تهتم الروبوتات حتى إذا انتهت صلاحيتها أثناء هذه العملية، إذا كان هذا هو مصيرها. وبهذه الطريقة، يمكن للذكاء الاصطناعي أن ينقذ الأرواح بالإضافة إلى توفير التكاليف، ويحرر البشر للتركيز على السياق الأكبر للمهمة.

اقرأ أيضاً: المُسيّرات الحربية تساند أردوغان في تعزيز نفوذ تركيا العالمي

أهم التفاصيل هنا تتمثل في أن هذه الروبوتات يجب أن تتطلب إذناً من إنسان قبل أن تقتل. وأعتقد أننا لا ينبغي أبداً أن نثق في أن تمتلك أي خوارزمية وعياً سياقياً كافياً للحكم، مثلاً، بأن مجموعة من الأشخاص الذين يرتدون ملابس مدنية هم على الأرجح من المدنيين أم أنهم مقاتلون –فحتى البشر معروفون بضعف القدرة على تمييز الفرق بينهما. كما لا ينبغي أن نسمح للذكاء الاصطناعي بتقييم ما إذا كانت الخسائر البشرية المطلوبة لنجاح المهمة التكتيكية متناسبة مع الهدف الاستراتيجي أم لا.

السؤال الوجودي

وبالتالي فإن السؤال الوجودي لا يتعلق بالذكاء الاصطناعي في حد ذاته. بل إن بول شار من "مركز الأمن الأميركي الجديد"، الذي ألف كتباً في هذا الموضوع، يرى أن الأمر يتعلق في الغالب بدرجة الاستقلالية التي نمنحها نحن البشر لآلاتنا. بمعنى هل ستساعد الخوارزمية الجنود والضباط والقادة أم ستحل محلهم؟

هذه المشكلة أيضاً ليست جديدة تماماً. فقبل ظهور الذكاء الاصطناعي بفترة طويلة، أثناء الحرب الباردة، قامت موسكو ببناء أنظمة "اليد الميتة"، بما في ذلك نظام يسمى "بيريميتر" (Perimeter). وهو نظام آلي بالكامل لشن ضربات نووية بعد موت القيادة البشرية للكرملين في أي هجوم. ومن الواضح أن الغرض من ذلك هو إقناع العدو بأن الضربة الأولى حتى لو نجحت ستؤدي إلى التدمير المتبادل المؤكد. ولكن يتساءل المرء ماذا سيحدث إذا تعطل نظام "بيريميتر"، الذي يعمل الروس على تحديثه، وأطلق الصواريخ بالخطأ.

لذا فإن هذه المشكلة تتعلق بكيفية اتخاذ الآلات قراراً بالاستقلال عن البشر. في حالة الأسلحة النووية، فإن هذه المخاطر هي وجودية. لكنها لا تزال مرتفعة بشكل مخيف في جميع "أنظمة الأسلحة الفتاكة ذاتية التشغيل" (LAWS) الأخرى، كما تسمى الروبوتات القاتلة رسمياً.

قد تتخذ خوارزمية ما قرارات جيدة وتقلل من الموت إلى الحدود الدنيا، ولهذا السبب تستخدم بعض أنظمة الدفاع الجوي بالفعل الذكاء الاصطناعي، فهي أسرع وأفضل من البشر. ولكن الأكواد البرمجية قد تفشل هي الأخرى أو ربما تبرمج بطريقة شيطانية لإحداث أكبر قدر من المعاناة. فهل تريد يوماً أن يستخدم الرئيس الروسي فلاديمير بوتين روبوتات قاتلة؟

ضمانات سيطرة الإنسان على القرار

الولايات المتحدة، باعتبارها الأكثر تقدماً من الناحية التكنولوجية، قادت المبادرات في بعض النواحي بأسلوب القدوة، ولم تكن كذلك في بعض النواحي الأخرى. ففي مراجعتها للوضع النووي في عام 2022، قالت إنها "ستحافظ دائماً على وجود إنسان" عند اتخاذ قرارات الإطلاق. ولم تصدر روسيا أو الصين إعلاناً مماثلاً.

وفي العام الماضي، أصدرت الولايات المتحدة أيضاً "الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والتشغيل الذاتي". ويدعو هذا الإعلان، الذي صادقت عليه 52 دولة، إلى تقديم جميع أنواع "الضمانات" بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل.

ليس ذلك بهدف حظرها على أي حال. وهنا يمكن للولايات المتحدة، كما هو الحال في القانون الدولي في كثير من الأحيان، أن تلعب دوراً بناءً. وتحاول "اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة"، التي تسعى إلى تقييد تقنيات القتل الخبيثة مثل الألغام الأرضية، حظر الروبوتات القاتلة ذاتية التشغيل حظراً شاملاً. لكن الولايات المتحدة من بين تلك الدول التي تعارض حظرها. وينبغي لها بدلاً من ذلك أن تدعم فرض الحظر وتحث الصين، ومن ثم الدول الأخرى، على أن تحذو حذوها.

حتى لو رفض العالم وجود "أنظمة الأسلحة الفتاكة ذاتية التشغيل"، سيواصل الذكاء الاصطناعي، بالطبع، اختلاق مخاطر جديدة. فسوف يسرع من القرارات العسكرية لدرجة أن البشر قد لا يتاح لهم ما يكفي من الوقت لتقييم الموقف، وفي حالة الضغط الشديد، إما أن يرتكبوا أخطاءً قاتلةً أو يستسلموا للخوارزمية. وهذا ما يسمى بـ"الانحياز للآلة" (Automation Bias)، وهو الظاهرة النفسية التي تكون سائدة عندما يترك الناس، على سبيل المثال، لنظام تحديد المواقع في سياراتهم توجيههم حتى يسقطوا في بركة أو من أعلى منحدر.

لكن المخاطر زادت مع زيادة الابتكارات العسكرية منذ أن قام الإنسان العاقل بربط حجارة مدببة لصناعة الرماح. وحتى الآن تعلمنا في الغالب كيفية التعامل مع المخاطر الجديدة، شريطة أن نبقى نحن البشر، وليس الروبوتات، من يتخذ القرارات النهائية والوجودية، ولا يزال هناك أمل في أن نتطور جنباً إلى جنب مع الذكاء الاصطناعي، بدلاً من أن نفنى معه.

هذا المقال لا يعكس موقف أو رأي "الشرق للأخبار"وهو منشور نقلا عن Bloomberg Mediaولا يعكس بالضرورة آراء مجلس تحرير Bloomberg أو ملاكها
تصنيفات

قصص قد تهمك

النشرة البريدية
تعرف على أحدث الأخبار والتحليلات من اقتصاد الشرق مع بلومبرغ
سجل الان
الآراء الأكثر قراءة