التداعيات الأمنيةُ والوجوديةُ لمفترق طرق الذكاء الاصطناعيّ

كتابة: نايف الروضان.
ترجمة: علي العابد الحربي.
مراجعة: عبد الحميد شكري.

أحرزت التقنيات الناشئة تقدماً متزايداً في انعكاساتها المحتملة على الأخلاق، الأمن، وحتى الوجود البشريّ خلال العقدين الماضيين، حيث أدّت بعض الابتكارات إلى تهديداتٍ أمنيةٍ ووجوديةٍ بشكلٍ واضحٍ: عالَمٍ بالأسلحة النووية على سبيل المثال. إلا أن إمكانيات التحول في التقنيات الأُخرى كانت أكثر تبايناً. إذ أثارت كلاً من التقنيات الحيوية، الهندسة الوراثية، والخلايا الجذعية مناظراتٍ مثيرةٍ للجدل طرحت فيها المجموعات المؤيدة لكلا الجانبين الإيجابيات والسلبيات بصورةٍ مقنعةٍ. فلقد أحدث الإنترنت ثورةً في كل شيءٍ، من الأسواق إلى التواصل الأُسريّ، وذلك بطرقه النافعة والضارة. وأثبت عصر الذكاء الاصطناعي نفسه أنه ذو وجهين بقدرته على تغيير حياتنا سلباً أو إيجاباً. فمن جهةٍ، أثبت الذكاء الاصطناعي فائدته في برامج الخطابة التنبؤية والكتابة، الرجال الآليين، وتقنية الطائرة بدون طيار. ومن ناحيةٍ أخرى، تثير هذه والمنصات الأخرى التي يشغلها الذكاء الاصطناعيّ مخاوف عميقةٍ حول الرقابة عليها.

يعد الذكاء الاصطناعي أيضاً فريداً من نوعه من بين التقنيات الناشئة الأخرى لأن بإمكانه التعلّم والتطوّر من دون أي تدخلٍ بشريٍّ. وتتطلّب هذه الحقيقة لوحدها نهجاً لسياسةٍ لا ينحصر ادراكها على الآثار المباشرة المترتبة على الذكاء الاصطناعيّ بنفسه فحسب، ولكنها أيضاً لا بد أن تُدرك ماذا قد يحدث بسبب النطاق المحتمل للتقنيات الناتجة. فباختصارٍ، لا يُشكّل الذكاء الاصطناعيّ تحدياتٍ للأمن ولصنع السياسات من حيث الحجم فقط، بل لكونه سابقةً أيضاً. وعلاوةً على ذلك، يجبرنا الذكاء الاصطناعيّ على أن ننظر في علاقتنا مع التقنية بطرقٍ لم تكن ذات صلةٍ من قبل، بما في ذلك إمكانية الدخول في منافسةٍ معها، بل حتى أن يحل محلنا ما صنعناه كبشرٍ.

إن ظهور الذكاء الاصطناعي يجلب معه العديد من الآثار المترتبة على مستقبل الأمن العالميّ، الصِراعات، والكرامة الإنسانية. فالاستخدام المُكثّف للطائرات بدون طيارٍ للأغراض العسكرية والتجارية هو النقاش الدائر حالياً وبشكلٍ مثيرٍ للجدل بحقٍ. ولكن استخدامات الذكاء الاصطناعيّ للطائرات بدون طيارٍ مجرد ومضاتٍ مما هو آتٍ. ففي المراحل اللاحقة للثورة الصناعية، جعل التصنيع في المصانع بعض الوظائف التي كان يقوم بها الإنسان باليةً أو غير صالحةٍ لهم. ويبدو أن الذكاء الاصطناعيّ يُنذر بإزاحةٍ كاملةٍ لا مفر منها للبشر من سيناريوهات القتال في العديد من المناطق الاستراتيجية العسكرية.

تقوم تطبيقات الذكاء الاصطناعي بتسهيل عملية التأقلم بوقتٍ فعليٍ للحالات الطارئة دون الحاجة لوجود العنصر البشريّ على الأرض. فعلى سبيل المثال، تُستخدم الطائرات بدون طيارٍ لتوفير الاستطلاع المستمر، كما تُجنّد الرجال الآلية الصغيرة في المهام التي تتطلب مواجهة العبوات الناسفة. ويعمل باحثو جيش الولايات المتحدة حالياً على تطوير رجالٍ آليةٍ ذكيّةٍ تستطيع التنقل بنجاحٍ في بيئاتٍ مختلفةٍ عبر اتباع التعليمات والأوامر الصوتية البشرية. علاوةً على ذلك، أطلقت وكالة مشاريع البحوث المتطورة الدفاعية بالولايات المتحدة (داربا) برنامج الذكاء الاصطناعيّ في عام 2013 مـ للمساعدة في دمج قدرة تعلّم الآلة في مجموعةٍ واسعةٍ من الأسلحة العسكرية. ويستكشف فريقٌ آخر من العلماء الآن الطرق لخلق روبوتاتٍ ببوصلةٍ أخلاقيةٍ ودمجها بحسٍ للخطأ والصواب ليكون لديها القدرة على اختيار المسار الأخلاقيّ لأفعالها على أرض المعركة.

هناك عاقبتان جديرتان بالذكر لهذا التحول إلى استخدام الذكاء الاصطناعيّ على أرض المعركة: الأولى تعكس السهولة النسبية لهذه التقنية على إقناع العامّة أو أي هيئاتٍ أخرى متخذةٍ للقرار على الانخراط في صراعٍ عنيفٍ في الحالات التي يضمن فيها استخدام تقنية الذكاء الاصطناعيّ أدنى خسائر بشريةٍ. فعلى سبيل المثال، بالنظر إلى استراتيجية الرئيس أوباما التي تنص على “تفكيك وتدمير الدولة الإسلامية في العراق والشام (داعش) في نهاية المطاف”،  لقد حاولت بشكلٍ صريحٍ تجنّب الالتزام بالمزيد من القوات الأرضية الأمريكية، فالحروب التي لا تنطوي على مخاطر وقوع ضررٍ جسديٍّ للجنود تستمر بكونها أسهل إقناعاً بكثيرٍ لكلٍ من العامة والهيئات الحكومية. ومن المُحتمل أن تكوّن هذه التأكيدات مثيرةً للمشاكل، ليس بسبب ميلها للعمل ضد أكثر التقييمات وعياً بعدالة الحرب فحسب، ولكن لأنها تشجع وجهات النظر التي تقلل من تقدير الآثار المزعزعة للاستقرار في جميع الاشتباكات العسكرية أيضاً، بغض النظر عن الخسائر على أرض المعركة. تغض وجهات النظر هذه بصرها عن سجل الحروب الحافل والرهيب من الخسائر غير القتالية والأضرارٍ للأطرافٍ غير العسكرية. إذ يدل تاريخ الحروب المسجل على أن المدنيين الذين لقوا حتفهم أكثر بكثيرٍ من الجنود نتيجةً للاشتباكات العسكرية، وهذا الاتجاه السائد ساء بشكلٍ كبيرٍ في عصر التقنية الحديثة. ويجب أن تكون هذه الحقيقة لوحدها دليلاً على وجوب مضاعفة التفكر حول الجزء الذي سيلعبه الذكاء الاصطناعيّ في مستقبل الحروب.

هناك مجالٌ ذو صلةٍ يستحق الاهتمام، ألا وهو دور الحكم بشأن الدخول والسلوك أثناء الصراع بين الدول (نظرية الحرب العادلة وقانون الحرب). فعلى أيّ آلة ذكاءٍ اصطناعيٍّ يُتوقع أن تتخذ قراراتٍ في الحرب أن تجتاز اختبار تورنغ ببعض التباينات، والذي وُضع من قِبل عالم الرياضيات البريطاني آلان تورنغ في العام 1950مـ لتحديد ما إذا كانت آلة محددةٌ تظهر ذكاءً مساوياً للإنسان أم أكثر منه. ولكن القلق يكمن في أن جندياً آليّاً أو طائرةٍ بدون طيارٍ متطورةٍ قد يجتازون نسخةً من اختبار تورنغ بكل سهولةٍ، ولكنها تفشل تماماً في الالتزام بجوهر قانون الحرب وهو الالتزام بحصانة غير المقاتلين، أو دعم المبدأ الأساسي في نظرية الحرب العادلة وهو عدم الاعتداء. لذا إن كان على الذكاء الاصطناعيّ أن يلعب دوراً في الاشتباكات العسكرية، فلا بد من مراقبة هذه الإمكانية عن كثبٍ وتقييدها بواسطة الأعراف الدولية.

ثانياً، وكما جادلت سابقاً، إن من شأن الاعتماد الكبير على آلات الذكاء الاصطناعيّ أن يخلق المزيد من أوجه اللامساواة في الحرب، بسبب عدم التكافؤ في الوفرة بين بعض الدول في مثل هذه التقنيات. وبالتالي، سيجعل هذا من نتائج الصراع بين الدول مسألةً فوريةً أكثر بالتفوق التقنيّ وأي الدول أو الشعوب تمتلك الموارد اللازمة لتحقيق ذلك. يمكن لفجوة الوفرة هذه أن تكون سبباً في تفاقم وتعزيز مشكلة عدم المساواة العالمية الموجودة مسبقاً. ويُتصور أن يؤدي هذا أيضاً ربما إلى وقوع خسائر غير متكافئةٍ في أرض المعركة، حيث أن البلدان التي لديها الإمكانية للوصول إلى تقنية الذكاء الاصطناعيّ سوف تعاني من خسائر بشريةٍ أقل مقارنةً بالبلدان التي لم تصل إليها. هنالك أسئلةً أخرى حول تطبيقات واستخدامات الذكاء الاصطناعيّ ذات صلةٍ أيضاً. فهل من الممكن أن يكون لدى الآلات الوعي والإحساس تجاه رفاهية الإنسان؟ وهل يمكنها أن تستنسخ الحافز البشريّ للتعاون من أجل تجنُّب “حالة الطبيعة” والتي عرّفها هوبز بأنها حالة حربٍ دائمةٍ وعدم وجود سلطةٍ عليا فعّالةٍ للتحكيم في النزاعات؟ كيف يمكننا أن نتوقع أن تفهم الرجال الآلية، تربط، وتنفّذ القواعد الأساسية للتعاون الاجتماعيّ والنظام السياسيّ؟

بتجاوز تطبيقاتها العسكرية المحتملة، ينبغي أيضاً مراقبة وتنظيم طبيعة واستخدام الذكاء الاصطناعيّ في الأماكن غير القتالية. فقد حقق الذكاء الاصطناعيّ حضوره في كل مكانٍ تقريباً في حياتنا اليومية في الآلات والتطبيقات التي نستخدمها في مكان العمل، في المنزل، وغيرها. إن برامج التعليم تُعد مثالاً على نوعٍ قادمٍ من الذكاء الاصطناعيّ ليلعب دوراً هاماً في حياتنا اليومية، مثل البرنامج الشعبيّ “سوايب” لمفاتيح الرسائل النصية، وهو أحد التطبيقات التي تتعلم نزعة المستخدم لاستخدام كلماتٍ وعباراتٍ معينةٍ ليصبح قادراً على التنبؤ بما يحاول المستخدم أن يقوله أو على وشك قوله تالياً. وتقنية مشابهةٌ طوّرت من قِبل شركة إنتل هي برنامج المساعدة على الكلام الذي يستخدمه الفيزيائيّ البريطانيّ ستيفن هوكينج، والذي أصيب بالمرض التنَكّسيّ المسمى بالتصلّب الجانبيّ الضموريّ في عام 1985مـ مما جعله غير قادرٍ على الكلام بدون مساعدةٍ من الأجهزة. على الرغم من ذلك، ومع إقرار هوكينج من الفائدة التي عادت عليه من الذكاء الاصطناعيّ، إلا أنه أعرب عن قلقه من أن الذكاء الاصطناعيّ الكامل يمكن أن يجلب معه نهاية الجنس البشريّ. فمع القدرة على التعلم والتحسن بشكلٍ غير محدودٍ تقريباً، فإن الذكاء الاصطناعي الكامل سرعان ما سيكون متفوقاً على البشر، والذين هم مقيّديون بعملياتٍ تطوريةٍ طويلةٍ وبطيئةٍ.

في حين أن الرؤية القاتمة لذكاءٍ اصطناعيٍّ متمردٍ أو خارجٍ السيطرة لا تزال تبدو وكأنها شيءٌ من الخيال العلميّ، إلا أن معدل الابتكارات التقنية اليوم يذكرنا بأنه من الممكن أننا سائرون إلى ذلك الاتجاه. فلقد أثبتت جماعات القراصنة والنشطاء المعروفين باسم أنونيموس القدرة المخيفة لبرامج الذكاء الاصطناعيّ، حتى في الفترة الحالية من مرحلة تطورها: ففي بداية الربيع العربيّ عام 2011مـ، قام أعضاءٌ قياديون من الجماعة بسدّ شبكات النظام الذي يحكم تونس. وفي غضون 24 ساعةً، أُغلقت المواقع الإلكترونية للرئيس، رئيس الوزراء، والبورصة التونسية. يستطيع الذكاء الاصطناعيّ البسيط تجنب فلاتر الرسائل غير المرغوب فيها، تجنّب الكشف عن الغش، وإخفاء نفسه كعدةٍ أشكالٍ مختلفةٍ من بروتوكولات الإنترنت. وهذه المميزات هي الحد الأدنى بالمقارنة مع القدرات الأكثر تقدماً لما يمكن للذكاء الاصطناعيّ أن يؤديه، كقدرة آلة ذكاءٍ اصطناعيٍّ متكاملةٍ لاتخاذ قراراتٍ استراتيجيةٍ حول أي حكومةٍ لعزلها أو أي نظام أسلحةٍ ليقوم بتفعيله.

بغض النظر عن مدى قُربنا أو بُعدنا من تحقيق مثل هذه القدرات، إن حقيقة وجود هذا الاحتمال مبدئياً ينبغي أن تحثّ على الحوار والتحكم بعنايةٍ في تطوير الذكاء الاصطناعيّ. فإلى جانب التدهور البيئيّ والانتهاكات واسعة النطاق لحقوق الإنسان، يمثل الذكاء الاصطناعيّ تحدياً حاسماً آخر يتطلّب تعاوناً بين الدول ودعماً من القانون الدوليّ للحفاظ على سلامة وكرامة البشر في كلٍ من عالمنا المعاصر والمستقبليّ.

 

المصدر: (georgetown)

حالة الطبيعة: هو مفهومٌ يُستخدم في الفلسفة الأخلاقية والسياسية، الدين، ونظريات العقد الاجتماعي والقانون الدولي.
أنونيموس (Anonymous): هي مجموعةٌ قليلةٌ تعمل في مجال النضال عبر الاختراق البرمجيّ.
التقنيات الحيوية (Biotechnologies)
الخلايا الجذعية (stems cells)
ومضّات  (glimmers)
وكالة مشاريع البحوث المتطورة الدفاعية بالولايات المتحدة (داربا) ((DARPA): U.S. Defense Advanced Research Projects Agency)
الدولة الإسلامية في العراق والشام (داعش) (the Islamic State in Iraq and Syria (ISIS))
نظرية الحرب العادلة وقانون الحرب  ( jus ad bellum and jus in bello)
آلان تورنغ (Alan Turing)
هوبز (Hobbes)
سويب (Swipe)
إنتل (Intel)
التصلب الجانبي الضموري (ALS) (Amyotrophic lateral sclerosis)

 

Comments are closed.