مزاعم من شخصيات في التيار اليميني تفيد أن روبوت الدردشة يحمل طابعاً ليبرالياً خبيثاً في جذر تقنيته

روبوت "تشات جي بي تي" يقع في مرمى اليمين الأميركي

صورة تعبيرية عن انحياز روبوتات الدردشة سياسياً - المصدر: بلومبرغ
صورة تعبيرية عن انحياز روبوتات الدردشة سياسياً - المصدر: بلومبرغ
المصدر:

بلومبرغ

اعتبر ساتيا ناديلا، رئيس "مايكروسوفت" التنفيذي، أن 7 فبراير هو "أول أيام سباق جديد" في وادي السيليكون، بعدما أعلن أن شركته ستربط محرك بحثها بروبوت الدردشة "تشات جي بي تي" (ChatGPT) المعتمد على الذكاء الاصطناعي.

يبدو أن خبراء التقنية يزدادون اقتناعاً بأن البحث في شبكة الإنترنت يجب ألاّ يأتينا بقوائم من روابط زرقاء مصحوبة بالإعلانات، بل ينبغي أن ينتج إجابات تشابه رداً بشرياً تولّده برامج الذكاء الاصطناعي مثل "تشات جي بي تي".

تُعجِبُ قوة هذه التقنية الكثير من الناس، لكن يبرز بوضوح أن معلقي التيار اليميني ليسوا منهم، فهم يحرصون على استنباط أمثلة على ما يعدونها ليبرالية خبيثة متأصلة في شفرة هذه التقنية.

المصدر: بلومبرغ
المصدر: بلومبرغ

على سبيل المثال، يثيرون أسئلة، مثل: لماذا كان "تشات جي بي تي" على استعداد للإشادة بمذيع "سي إن إن" السابق براين ستيلتر، لكنه لم يقم بالإشادة بالخبير المحافظ بِن شابيرو؟ ولماذا زعم بثقة أنه يمكن للأطفال أن يكونوا متحولين جنسياً، في لطمة بيّنة لحملة يمينية مناهضة لحقوق المتحوّلين جنسياً؟ كما يقلقهم سؤال آخر، وهو: لماذا تدفع برمجة النظام لتفادي استخدام نعت ينتقص من ذوي الأصول الأفريقية؟

رد الفعل العنيف على ما يسميه اليمينيون عبر الإنترنت تندراً "وك جي بي تي" (WokeGPT)، يظهر عبر الإذاعات اليمينية حتى بين أعضاء في الكونغرس. على سبيل المثال، ذكر السيناتور تيد كروز من تكساس عدة شكاوى من محافظين لأن برنامج الذكاء الاصطناعي رفض أن يكتب أغنية تمدحه، لكنه لم يرفض فيدل كاسترو كموضوع أغنية إشادة.

اشتكى سام ألتمان، رئيس "أوبن إيه آي"، الشركة المسؤولة عن تطبيق "تشات جي بي تي"، في أوائل فبراير من أن موظفيه يتلقون رسائل كراهية من مستخدمين متأذين. أقر ألتمان ببعض "أوجه قصور ما يخص الانحياز"، لكنه حاول طمأنة المنتقدين بأن شركته "تعمل على تحسين الإعدادات الافتراضية لتعزيز حيادها".

المصدر: بلومبرغ
المصدر: بلومبرغ

الصراعات الثقافية

إذا بدت الصراعات الثقافية للذكاء الاصطناعي مألوفة؛ فذلك لأنها امتداد لجدل بزغ في 2016 بشأن انطباعات عن تحيّز في وسائل التواصل الاجتماعي لليسار.

شكّلت هذه المظالم، التي أثارتها شخصيات إعلامية مثل تاكر كارلسون بالإضافة إلى مسؤولين مثل كروز والرئيس السابق دونالد ترمب، عاملاً رئيسياً في قرار إيلون ماسك شراء "تويتر"، وهي صفقة تحوم حولها الشكوك من الناحية المالية، فقد صاغها كمحاولة لإنقاذ الحضارة من "فيروس صحوة العقل".

أثّر ماسك على "تشات جي بي تي" عبر انتقادات تقارب شكاواه بشأن "تويتر" قبل استحواذه عليها، ردّاً على تغريدة سخرت من سياسة "تشات جي بي تي" بأنه "ليس من المقبول أخلاقياً استخدام تعبيرات عنصرية"، حيث قال ماسك كلمة واحدة هي: "مُقلق".

تجدر الإشارة إلى أن كيل الانتقادات ضد التحيّز السياسي الملحوظ في وادي السيليكون مدفوع بسوء النية إلى حد كبير. لدى المنتقدين من ذوي الميول اليسارية شكاوَى بشأن الطريقة التي تتبعها منصات التواصل الاجتماعي لتنقيح المحتوى، وهناك أدلة كثيرة حول تفضيل خوارزميات منصات التواصل الاجتماعي أحياناً لآراء محافظة.

تبرز التعليقات اليمينية، مثل بودكاست شابيرو، اعتيادياً أكثر من منابر الفكر السائد واليساري على "فيسبوك"، بحسب بيانات قياس داخلية للشركة.

بعيداً عن منصات التواصل الاجتماعي، ثبت بشكل متكرر أن أنظمة الذكاء الاصطناعي تؤدي إلى نتائج مشوّهة تُؤجج تمييزاً عرقياً مزمناً في مجالات مثل إنفاذ القانون. في الوقت نفسه، قد ترفض روبوتات الدردشة الجديدة التنابز بالألقاب، لكنها أبدت استعداداً لترويج تضليل يميني، مثل الطرح المغلوط بأن إطلاق النار على مدرسة في باركلاند بولاية فلوريدا كان تدبيراً من ضحايا مفتعلين.

صعوبة تعامل

الأمر الذي أظهرته الحروب الثقافية على منصات التواصل الاجتماعي يتمثل في صعوبة تعامل ناديلا وألتمان مع الشكاوى بشأن "تشات جي بي تي". إذ لا يمكن لخوارزميات تعليم الآلة، مثل تلك التي تدعم تغذية الأخبار على "فيسبوك" و"تشات جي بي تي"، أن تطلعك على مبررات وصولها لنتائج بعينها، مما يتيح لناشطين تصوير الأخطاء أو الإجابات الخرقاء على أنها أدلة انحياز.

إن عمل روبوتات الذكاء الاصطناعي المعدة للدردشة يكتنفه غموض يفوق منتجات ظهرت قبلها، فيمكّن ذلك أي إنسان من تفسير أي نتائج لا تعجبه وفقاً لميله السياسي.

لا مفر من الأخطاء، لأن النماذج اللغوية الكبيرة التي يُعتمد عليها لا تنطوي على صدق الإجابة الفطري، ويميل "تشات جي تي بي" عند مواجهته بسؤال لا يمكنه الإجابة عليه لاختلاق ردّ.

قد تكون هذه "الهلوسة"، كما يسميها خبراء الذكاء الاصطناعي، مقنعة للغاية. لقد سحبت "ميتا بلاتفورمز" العام الماضي نموذجاً لغوياً كبيراً يُعرف باسم "غالاكتيكا" (Galactica)، وكان يفترض أن يشكّل "مجموعة منتقاة من المعرفة العلمية للبشرية"، بعدما أشار منتقدوه إلى أنه يجنح لابتداع افتراءات علمية لشرح أمور مثل "فوائد تناول الزجاج المكسور".

شفافية وقائية

تحاول النسخة الجديدة من متصفح "بينغ" (Bing) من "مايكروسوفت" تعزيز الشفافية عبر إيراد فهرس شواهد، وهي من حيث الأساس روابط تقليدية، إلى جانب الإجابات التي يولدها الذكاء الاصطناعي.

كما يحذر موقع التصفح المستخدمين من أنهم قد "يرون ردوداً تبدو مقنعة، ولكنها غير مكتملة أو دقيقة أو مناسبة". قدمت "غوغل" (Google) دليلاً مباشراً على هذه المخاطر حين عرضت برنامج دردشة البحث الخاص بها في 8 فبراير.

ردّت الخدمة الجديدة "بارد" (Bard)، على استفسار حول تلسكوب "جيمس ويب" الفضائي بادّعاء مغلوط بأنه قد صوّر أول كوكب خارج المجموعة الشمسية. هوى سهم الشركة إثر ذلك بنسبة 7% يومئذ، وهو أكبر تراجع منذ أشهر.

وصف بيان من "غوغل" محرك البحث بأنه ما يزال قيد التطوير، وذكر أن عدم دقته "تسلط الضوء على ضرورة إجراء اختبارات صارمة".

يشير التاريخ الحديث إلى أن "غوغل" قد تحتاج لأكثر من دقة تقنية، فهي ستحتاج للحِنكة السياسية أيضاً.

اضغط هنا لقراءة المقال الأصلي
تصنيفات

قصص قد تهمك