كيف يمكن مساعدة السيارات الذاتية القيادة على اتخاذ القرارات الأخلاقية

محاولة بعض الباحثين برمجة السيارات الذاتية القيادة لاتخاذ قرارات في أقل من جزء من الثانية تثير إشكاليات أخلاقية حقيقية.

أُعيد نشر هذا المقال بالتعاون مع MIT Technology Review بالعربي

 

قد تكون الاستعانة بفيلسوفٍ لوضع تصميم جيل السيارات المقبل آخر شيء تتوقعه. إلا أن هذا هو بالضبط ما ينوي أحد خبراء السيارات الذاتية القيادة القيام به. يتولى كريس غيردس Chris Gerdes، الاستاذ المحاضر في جامعة ستانفورد الأميركية Stanford University، قيادة الاختبارات المجراة في أحد مختبرات البحوث على برامج software وأجهزة hardware إلكترونية متطورة خاصة بالقيادة الآلية. وفي الوقت عينه، يتعاون مع باتريك لين  Patrick Lin، أستاذ الفلسفة في جامعة كاليفورنيا بوليتكنيك الحكومية California Polytechnic State University، لدراسة الإشكاليات الأخلاقية التي قد تنشأ عند استخدام آليات الذاتية القيادة على أرض الواقع.

وقد سبق أن نظم غيردس ولين ورشة عمل في ستنافورد في بداية هذه السنة، جمعت عدد من الفلاسفة والمهندسين لمناقشة هذه المسألة. ومن بعدها، إختبرا البرنامج الإلكتروني المشغل للسيارات الآلية ضمن نظم أخلاقية مختلفة ومن ثمّ راقبوا أداءه في أنظمة محاكاة تمثيلية وكذلك في آليات حقيقية. تفرض هذه النظم الأخلاقية على الآلية مثلاً سلّم أولويات يتصدره تفادي البشر بالدرجة الأولى والسيارات المركونة أو مثلاً عدم الانعطاف لأقل سبب.

ولا بد من الإشارة هنا إلى أنّ البحوث الخاصة بالآليات الذاتية القيادة بشكلٍ كامل ما زالت في مراحلها الأولى، إلا أن تكنولوجيا القيادة الآلية تنتشر بسرعة هائلة في مجال تصنيع الآليات. وفي السنوات القليلة المقبلة، ينوي عدد من صانعي السيارات إطلاق… أكمل المقال

Comments are closed.