لماذا أصبح الذكاء الاصطناعي عنصرياً؟

كتابة: ستيفاني باباس.
ترجمة: أسامة أحمد خوجلي.
مراجعة: ريم.

عندما أطلقت مايكروسوفت بوت الدردشة المستند على الذكاء الاصطناعي المدعو بـ تاي على تويتر في شهر مارس (آذار الماضي)، اتخذت الأمور منعطفاً كارثياً يمكن التنبؤ به. ففي غضونِ 24 ساعةً، كان البوت يقذف شتائم عنصريةً ونازيةً جديدة، والتي التقط الكثير منها من خلال دمج لغة مستخدمي تويتر الذين تفاعلوا معه.

لسوء الحظ، وجد بحثٌ جديدٌ أن المتنمرون في تويتر ليسوا الطريقة الوحيدة التي تمكن أجهزة الذكاء الاصطناعيّ من تعلم اللغة العنصرية، ففي الواقع،  إن أي ذكاءٍ اصطناعيٍّ يتعلم من لغة البشر يُرجح أن ينحاز بنفس الطرق التي لدى البشر وفقاً للعلماء.

أجرى الباحثون تجاربهم على نظام تعلم الآلة المُستخدم على نطاقٍ واسع يُدعى بـ “المتجهات العالمية لتمثيل الكلمة” (غلوف)، ووجدوا أن كل نوعٍ اختبروه من التحيز البشريّ ظهر في النظام الاصطناعيّ.

تقول باحثة ما بعد الدكتوراه في علوم الكمبيوتر في جامعة برينستون، أيلين كاليسكان: “كان من المدهش أن نرى جميع النتائج التي تضمنت في هذه النماذج”. وتقول مخبرةً لايف سينس أنه حتى أجهزة الذكاء الاصطناعيّ والتي من المفترض أنها دُرّبت على نصوصٍ محايدةٍ مثل ويكيبيديا أو المقالات الإخبارية جاءت لتعكس التحيز البشري المشترك.

التحيزات المدمجة
غلوف هو أداةٌ تُستخدم لاستخراج الارتباطات من النصوص، وفي هذه الحالة تم سحب مجموعةٍ قياسيةٍ من جسم اللغة من الشبكة العنكبوتية العالمية.

عرف علماء النفس منذ فترةٍ طويلةٍ أن الدماغ البشري يصنع الارتباطات بين الكلمات على أساس المعاني الكامنة وراءها، وتقوم أداةٌ تُسمى بـ “اختبار الارتباط الضمنيّ” باستخدام أوقات رد الفعل لإثبات هذه الارتباطات: حيث يرى الناس كلمةً مثل النرجس البريّ جنباً إلى جنبٍ مع المفاهيم السارة أو غير السارة مثل الألم أو الجمال، وعليهم أن يربطوا المصطلحات باستخدام تجمعٍ رئيسيٍ بسرعةٍ. ومما لا يثير الدهشة هو أن ترتبط الزهور بسرعةٍ أكبر مع المفاهيم الإيجابية، في حين أن الأسلحة على سبيل المثال ترتبط بسرعةٍ أكبر بمفاهيم سلبية.

يمكن كذلك استخدام اختبار الارتباط الضمنيّ للكشف عن الارتباطات اللاوعية التي يصنعها الناس عن المجموعات الاجتماعية أو الديموغرافية، فعلى سبيل المثال، بعض اختبارات الارتباط الضمنيّ المتوفرة على موقع المشروع الضمني تجد أن الناس أكثر عرضةً لربط الأسلحة تلقائياً مع الأميركيين السود، والأشياء غير الضارة مع الأميركيين البيض.

قال الباحثون إن هناك ناقشاتٌ حول ما تعنيه هذه النتائج، فهل ينشئ الناس هذه الارتباطات لأنهم يملكون تحيزاتٍ اجتماعيةً عميقة الجذور لا يدركونها، أم هل يستوعبونها من اللغة التي من المرجح إحصائياً أن تقرن كلماتٍ سلبيةً مع الأقليات والمسنين وغيرهم من المجموعات المهمشة؟

الصور النمطية الرقمية
قامت كاليسكان وزملاؤها بتطوير اختبار الارتباط الضمنيّ لأجهزة الحاسوب، والتي أطلقوا عليها اسم “ويت” وهي اختصارٌ لاختبار ارتباط تضمين الكلمات، ويقيس هذا الاختبار قوة الارتباطات بين الكلمات التي تمثلها غلوف، مثلما يقيس اختبار الارتباط الضمنيّ قوة ارتباطات الكلمات في الدماغ البشري.

لكل ارتباطٍ وصورةٍ نمطيةٍ اختبرت، وجد ويت نفس نتائج اختبار الارتباط الضمنيّ. حيث أعادت أداة تعلم الآلة إنتاج الارتباطات البشرية بين الزهور والكلمات السارة؛ الحشرات والكلمات غير السارة؛ الآلات الموسيقية والكلمات السارة؛ والأسلحة والكلمات غير السارة. وفي نتيجةٍ تعتبر أكثر إثارةً للقلق، وجدت الأداة لأسماء الأمريكية الأوروبية مُسرةً أكثر من الأسماء الأمريكية الإفريقية، كما ربطت أسماء الذكور بسهولةٍ أكبر مع الكلمات المهنية وأسماء الإناث بسهولةٍ أكبر مع الكلمات العائلية. وكان الرجال أكثر ارتباطاً بالرياضيات والعلوم، والنساء مع الفنون. وكانت الأسماء المرتبطة بكبار السن غير سارةٍ أكثر من الأسماء المرتبطة بالشباب.

تقول كاليسكان: “لقد فوجئنا جداً بأننا تمكنا من تكرار كلّ اختبارات الارتباط الضمنيّ التي قام بها الملايين في الماضي”. وباستخدام طريقةٍ أخرى مشابهةٍ، وجد الباحثون أيضاً أن أداة تعلم الآلة تمكنت من تمثيل الحقائق عن العالم بدقةٍ من ارتباطاتها الدلالية. وبمقارنة نتائج تضمين الكلمات لغلوف مع البيانات الحقيقية لمكتب الإحصاءات العمالية الأمريكية حول نسبة النساء في المهن، وجدت كاليسكان ارتباطاً بـ 90% بين المهن التي تنظر إليها غلوف على أنها أنثويةٌ والنسبة الفعلية للنساء في تلك المهن.

بعبارةٍ أخرى، قالت كاليسكان أن البرامج التي تتعلم من لغة الإنسان تحصل فعلاً “على تمثيلٍ دقيقٍ جداً للعالم والثقافة”، حتى لو كانت تلك الثقافة مثيرةً للمشاكل مثل القوالب النمطية والأحكام المسبقة. كما أن الذكاء الاصطناعيّ سيءٌ في فهم السياق الذي يفهمه البشر بسهولةٍ، فعلى سبيل المثال، من المرجح أن يقوم مقالٌ عن مارتن لوثر كينغ الابن الذي سجن بسبب احتجاجات الحقوق المدنية في برمنغهام بولاية ألاباما عام 1963مـ بربط الكثير من الكلمات السلبية مع الأميركيين من أصلٍ أفريقيٍّ، فالإنسان من شأنه أن يفسر بشكلٍ معقولٍ القصة باعتبارها واحدةً من الاحتجاجات الحقّة لبطلٍ أمريكيٍّ؛ في حين أن الحاسوب سيضيف رصيداً آخر إلى فئة “السود = السجن”.

تقول كاليسكان: “إن الحفاظَ على الدقة أثناء محاولة شرح الإنصاف لأدوات الذكاء الاصطناعيّ يُشكل تحدياً كبيراً”.  وأضافت “إننا لا نعتقد أن إزالة التحيز سيحل هذه المشاكل بالضرورة، لأنها قد تُعطل التمثيل الدقيق للعالم”.

ذكاءٌ اصطناعيٌّ محايدٌ
تقول عالمة الحاسوب في كلية هافرفورد سوريلف ريدلر والتي لم تشارك في البحث أن الدراسة الجديدة التي نشرت على الإنترنت يوم 12 أبريل (نيسان) في دورية ساينس ليست مفاجئةً، إلا أنها مهمةٌ على حد قولها.

تقول فريدلر للايف سينس: “تم هذا باستخدام أسلوبٍ قياسيٍّ أساسيٍّ تُبنى العديد من الأنظمة عليه”. وبعبارةٍ أخرى، من المرجح أن تتسلل التحيزات إلى أي ذكاء اصطناعيّ يستخدم غلوف أو يتعلم من لغة الإنسان بشكلٍ عامٍ.

تشارك فريدلر في مجالٍ صاعدٍ من الأبحاث يسمى بالإنصاف، المساءلة، والشفافية في تعلم الآلة، حيث تقول أنه لا توجد طرقٌ سهلةٌ لحل هذه المشاكل، وتضيف أنه في بعض الحالات قد يتمكن المبرمجون من إخبار النظام صراحةً بتجاهل قوالب نمطيةٍ محددةٍ تلقائياً. في أي حالةٍ تتضمن فارقاً بسيطاً، قد يحتاج البشر إلى أن يكونوا جزءاً من الحلقة للتأكد من أن الآلة غير مسعورةٍ. تقول كاليسكان أنه من المرجح أن تختلف الحلول اعتماداً على ما صُمم الذكاء الاصطناعي للقيام به، هل هي لتطبيقات البحث، لاتخاذ القرارات، أو لشيءٍ آخر؟

عند البشر، لا ترتبط المواقف الضمنية في الواقع بقوةٍ مع المواقف الصريحة حول الفئات الاجتماعية، ولقد تجادل علماء النفس حول السبب في ذلك؛ هل يخفي الناس أحكامهم المسبقة لمجرد تجنب الوصمة؟ هل اختبار الارتباط الضمنيّ لا يقيس فعلاً التحيز جيداً؟ ولكن يبدو أن للناس على الأقل القدرة على التفكير حول الصواب والخطأ، حتى مع ارتباطاتهم المتحيزة كما تقول كاليسكان. فهي وزملاؤها يعتقدون أن البشر سيحتاجون إلى المشاركة حتى يتمكن الناس من إصدار أحكامٍ قيمةٍ بشأن عدالة الآلات، ويجب أن تكون شفرة البرمجة شفافةً.

تقول كاليسكان: “في حالة التحيز، نعلم كيفية اتخاذ القرار الصحيح، ولكن الآلات ليست واعيةً بذاتها للأسف”.

المصدر: (livescience)

المتجهات العالمية لتمثيل الكلمة (غلوف) (Global Vectors for Word Representation (GloVe))
ستيفاني باباس (Stephanie Pappas )
مايكروسوفت (Microsoft )
تشاتبوت ذكي (intelligent chatbot )
تاي ( Tay )
أيلين كاليسكان (AylinCaliskan )
جامعة برينستون (Princeton University )
ويت ( WEAT )
سوريلف ريدلر (SorelleFriedler )
كلية هافرفورد (haverford college )
اختبار الارتباط الضمنيّ (implicit-association test (IAT))
لايف سينس (Live Science)

Comments are closed.