ما الذي يجب فعله لتطوير أخلاقيات الذكاء الاصطناعي؟

ما الذي يجب فعله لتطوير أخلاقيات الذكاء الاصطناعي؟ - المصدر: بلومبرغ
ما الذي يجب فعله لتطوير أخلاقيات الذكاء الاصطناعي؟ - المصدر: بلومبرغ
المصدر:

بلومبرغ

تيمنيت غيبرو، واحدة من الشخصيات القيادية التي تعمل على أخلاقيات الذكاء الاصطناعي. كشف بحثها النقاب عن سبل لمكافحة التحيّزات، مثل العنصرية والتمييز على أساس الجنس، التي تتسلَّل إلى الذكاء الاصطناعي من خلال البيانات المعيبة، ومنشئي المحتوى.

في "غوغل"، أدارت هي وزميلتها مارغريت ميتشل، فريقاً يركِّز على هذا الأمر، وقد حاولتا نشر ورقة تنتقد منتجات "غوغل". وطُردت من العمل. (تقول غيبرو، إنَّ "غوغل" فصلتها، في حين أنَّ الشركة تقول، إنَّها استقالت).

والآن غيبرو، مؤسسة مجموعة التقارب "بلاك إن إيه آي" (Black in AI) -تُعرف أيضاً باسم "أصحاب البشرة السوداء في الذكاء الاصطناعي"- تحشد المؤيدين لمجموعة أبحاث الذكاء الاصطناعي المستقلة. وتقول، إنَّ الدعوات المطالبة بمساءلة شركات التكنولوجيا الكبرى عن منتجاتها وممارساتها لا يمكن إتمامها كلها من الداخل.

اقرأ أيضاً: "أبل" تحرز تقدماً في إلزام مورديها بأخلاقيات العمل ووقف استغلال الأطفال

المصدر: بلومبرغ
المصدر: بلومبرغ

ما الذي يمكننا فعله الآن لجعل الذكاء الاصطناعي أكثر إنصافاً وأقل احتمالاً لإلحاق الضرر بالأمريكيين السود وغيرهم من الجماعات في كل شيء، بدءاً من قروض الرهن العقاري وحتى الأحكام الجنائية؟

الأساس هو حماية العمال، وحماية كاشفي المخالفات، وقوانين مكافحة التمييز، وأي شيء نفعله دون هذا النوع من الحماية سيكون مجرد أمر سطحي في الأساس، لأنَّه في اللحظة التي تدفع فيها قليلاً، ستعرب الشركات عن اعتراضها. أما أولئك الذين يدفعون أكثر نحو هذه الحماية، فسيكونون دائماً أشخاصاً في مجتمعات معينة عانوا من بعض هذه المشكلات.

ما هي الطرق المنهجية الكبيرة التي يحتاجها الذكاء الاصطناعي لإعادة تصور الأمر على المدى الطويل؟

علينا إعادة تصوُّر ما هي الأهداف التي نسعى إليها؟. إذا كان الهدف هو تحقيق شركتي "غوغل"، أو "أمازون" أقصى قدر من المال، فبغضِّ النظر عما نفعله؛ سيكون ذلك مجرد أهداف أولية. هناك افتراض في الصناعة، مفاده أنَّنا نقوم بأشياء على نطاق واسع، وكل شيء آلي، ومن الواضح أنَّنا لا نستطيع ضمان السلامة، فكيف يمكننا تعديل كل شيء يكتبه الناس على وسائل التواصل الاجتماعي؟ يمكننا الإبلاغ عن المحتوى الخاص بك بشكل عشوائي على أنَّه غير آمن، أو يمكن أن يكون لدينا كل أنواع المعلومات المضللة، كيف تتوقَّع منَّا التعامل مع ذلك؟

هذه هي الطريقة التي يتصرَّفون بها، وكأنَّهم قادرون فقط على جني ما يريدون من المال من المنتجات غير الآمنة بالمرة، لكن يجب إجبارهم على تغيير ذلك.

كيف يمكن أن يبدو ذلك؟

دعونا نلقي نظرة على السيارات، إذ لا يُسمح لك ببيع سيارة، وأن تتبع فكرة مثل، نحن نبيع ملايين السيارات، لذلك لا يمكننا ضمان سلامة كل واحدة منها. أو نحن نبيع السيارات في جميع أنحاء العالم، لذلك لا يوجد مكان يمكنك الذهاب إليه لتقديم شكوى بشأن وجود مشكلة في سيارتك، حتى لو كانت تشتعل ذاتياً، أو ترميك في خندق. إنَّهم يخضعون لمعايير أعلى بكثير، وعليهم إنفاق الكثير، بشكل متناسب، على السلامة.

ما الذي يجب أن تفعله الحكومة على وجه التحديد؟

لا بدَّ من تنظيم المنتجات، وتوسيع نطاق وظائف الوكالات الحكومية للتحقيق في شؤون هذه الشركات ومراجعتها، ولا بدَّ أيضاً من وجود معايير لاتباعها إذا كنت ستستخدم الذكاء الاصطناعي في سيناريوهات عالية المخاطر. حالياً، تستخدم الهيئات الحكومية نفسها منتجات غير خاضعة للتنظيم الرقابي بدرجة كبيرة عندما لا ينبغي لها ذلك. إنَّهم يستخدمون ترجمة "غوغل" عند فحص منشورات اللاجئين على وسائل التواصل الاجتماعي.

بصفتك مهاجرة (غيبرو إريترية، وفرَّت من إثيوبيا في سنِّ المراهقة خلال فترة الحرب بين البلدين)، ما هو شعورك حيال شركات التكنولوجيا الأمريكية التي تتنافس على بيع الذكاء الاصطناعي إلى البنتاغون، أو وكالة إنفاذ قوانين الهجرة والجمارك؟

يجب على الناس التحدُّث علناً، وقول لا. يمكننا أن نقرر أن ما يجب أن ننفق عليه طاقتنا وأموالنا هو كيف لا نتسبَّب في حريق كاليفورنيا بسبب تغيّر المناخ، وكيفية توفير شبكات آمنة للأشخاص، وتحسين صحتنا، وأمننا الغذائي. بالنسبة إلي؛ الهجرة حقٌّ من حقوق الإنسان، فأنت تغادر مكاناً غير آمن. إذا لم أكن قادرة على الهجرة، فلا أعرف أين سأكون.

هل كانت رغبتك في إنشاء مشروع مستقل مدفوعة بتجربتك في "غوغل"؟

نعم، مئة بالمئة. من المستحيل أن أذهب إلى شركة تقنية كبيرة أخرى، وأفعل ذلك مرة أخرى، فمهما فعلت لن تتمتَّع بالحرية الكاملة، وسيتمُّ تكميم فمك بطريقة أو بأخرى، لكن على الأقل يمكن أن يكون لديك بعض التنوع في كيفية إسكاتك.

هل هناك أي شيء يعطيك أملاً في زيادة التنوع في مجالك؟ تنظيم العمل في "غوغل" و"أبل"؟

أنشأت كل مجموعات التقارب -"كوير إن إيه آي" (Queer in AI)، و"بلاك إن إيه آي"، و"لاتينكس إن إيه آي" (Latinx in AI)، و "إنديجينس إيه أي" (Indigenous AI)- شبكات فيما بينها وبين بعضها. أعتقد أنَّ هذا أمر واعد، وأنَّ تنظيم العمل، من وجهة نظري، واعد للغاية. لكن يجب إجبار الشركات على التغيير. إنَّها تفضِّل طرد أشخاص مثلي على أن يكون لديها أي قدر ضئيل من التغيير.

اضغط هنا لقراءة المقال الأصلي
تصنيفات

قصص قد تهمك