تخيل سطواً على بنك جرى ترتيبه عبر الرسائل الإلكترونية والنصية. هل تتحمل شركة تقديم البريد الإلكتروني أو الشركة المصنعة للهواتف المسؤولية؟ بالطبع لا، فأي عقوبة أو جزاء سيفرض على المجرمين.
لنفكر الآن في أي نتيجة ضارة تسبب فيها الذكاء الاصطناعي، مثل تشهير، أو نصيحة سيئة نتج عنها خسارة مالية، أو ربما تعليمات لهجوم سيبراني مدمر. هل تتحمل الشركة صانعة الذكاء الاصطناعي المسؤولية؟ يجادل مفكرون مثل إزرا كلاين ولوك مويلهاوزر بأن الشركة يجب أن تكون مسؤولة عن ذلك، جزئياً على الأقل، باعتبار ذلك طريقة لحث تلك الشركات على تقديم خدمات أكثر أماناً.
لسوء الحظ، من الصعب تنفيذ هذا الأمر، حيث يرجع جزء من سبب الصعوبة إلى ما يطلق عليه الاقتصاديون اسم "نظرية كوس" (Coase Theorem)، والتي تنص على أن المسؤولية يجب أن تلقى على متجنب الضرر الأقل تكلفة.
في حالة السطو على البنك، لا يمكن اعتبار مقدمي خدمات الاتصالات الوسيطة أو تكنولوجيا الأغراض العامة، أي حساب البريد الإلكتروني أو الجوال، "متجنبا أقل تكلفة"، ولا سيطرة لهما على الضرر، وفي ظل تعدد الاستخدامات العملية للتقنيات عامة الأغراض، مثل أجهزة الهواتف -أو الأهم من ذلك- النماذج اللغوية الضخمة للذكاء الاصطناعي، فلا يجب على القانون إعاقة إنتاجها بإضافة عبء المسؤولية.
توفير المعلومات
مثال مقابل بسيط، لنفكر في تشبيه آخر غير دقيق، لنفترض أن حديقة حيوان تركت قفص الأسد مفتوحاً، فإنها قد تتحمل مسؤولية الحيوان الهائج في النهاية، إذ كان يمكنها علاج تلك المشكلة بشكل مباشر نسبياً وبتكلفة منخفضة.
لا يناسب نهج "كوس" كل القرارات، لكنه دليل مبدئي تقريبي لما يمكن اعتباره كفاءة اقتصادية.
في الوقت الحالي، إذا تلقى أحد المستخدمين معلومات طبية خاطئة من بحث على "غوغل"، لن تتحمل الشركة المسؤولية، حيث اهتمت "غوغل" بزيادة النتائج الطبية الموثوقة رداً على الأسئلة الشائعة، كما يجب عليها، لكن إذا نقر شخص ما على الرابط رقم 27 وقرر الامتناع عن تلقي لقاح كورونا، فالصحيح هنا أن الخطأ يعتبر خطأه هو. ونظراً لتعدد النماذج اللغوية الضخمة في الرد على الأسئلة والاستفسارات المتكررة، لا يتضح إذا ما كانت العقوبات القانونية ستؤدي إلى دقة كل إجابات هذه النماذج.
على وجه مشابه، وفرت الكتب والخرائط معلومات خطيرة لعديد من المجرمين والإرهابيين، لكن المسؤولية عن تلك الأنواع من الجرائم لا تلقى عادة على الناشر، فالمطالبة بأن تكون كل المعلومات المنشورة مزيجاً مناسباً من المعلومات الصحيحة وغير الضارة هو مطلب غير عملي. أليس ما ينتجه نموذج لغوي ضخم مجرد نوع أحدث وأقوى من خريطة أو كتاب؟ (بل هناك سؤال أخبث: ماذا لو طلب سؤال النموذج اللغوي الضخم طبع الإجابة في شكل كتاب؟)
مسؤولية جزئية أو مشتركة
على صعيد أكثر عملية، فإن إلقاء المسؤولية على خدمة الذكاء الاصطناعي لن ينجح في مجالات كثيرة. فالنظام القضائي الأميركي، حتى عندما يعمل بشكل صحيح، لا يتمكن دوماً من تحديد أي المعلومات تشكل ضرراً كافياً، إذ يمكن استخدام الكثير من المعلومات الجيدة والمفيدة، مثل تعليم الناس كيفية توليد الطاقة واستغلالها، لأغراض سيئة.
سيؤدي تحميل مقدمي خدمات الذكاء الاصطناعي كامل المسؤولية عن كل الأنواع مختلفة من النتائج وتبعاتها على الأرجح إلى إفلاسها، فالنماذج اللغوية الضخمة الحالية يمكنها تقديم مجموعة متنوعة من المحتوى لا حصر لها بعديد من اللغات، بما يشمل البرمجة والرياضيات. أما إذا كان الإفلاس هو الهدف، فسيكون من الأفضل لمؤيدي المسؤولية الأكبر أن يقولوا ذلك.
قد يوجد حل بسيط للنماذج اللغوية الضخمة يمنعها من تقديم بعض أنواع المعلومات الضارة، وفي هذه الحالة ربما تكون المسؤولية الجزئية أو المشتركة منطقية للدفع لزيادة الأمان. إذا قررنا سلوك هذا المسار، علينا تبني سلوك أكثر إيجابية تجاه الذكاء الاصطناعي، حيث يجب أن يدور الهدف والحديث بشكل أكبر عن دعم الذكاء الاصطناعي بدلاً من تنظيمه أو إبطائه. في هذا السيناريو، قد تتبنى الشركات طوعاً حلولاً نافعة لنتائج الذكاء الاصطناعي وتحسين مركزها السوقي والحماية من مزيد من القصاص التنظيمي.
لم يُجب نهج "كوس" إطلاقاً عن كل أسئلة المسؤولية عن الذكاء الاصطناعي والنماذج اللغوية الضخمة، ولا يشكل دليلاً كاملاً لقرارات السياسة العامة، لكن عندما توفر مجموعة خدمة ما متنوعة من البيانات المفيدة، فالطريق لزيادة أمانها ونفعها ليس بالضرورة عبر زيادة التنظيم أو إلقاء المسؤولية.
يخشى البعض من سرعة وتيرة تقدم الذكاء الاصطناعي، لكن وجهة نظري أن علينا أن نتقدم بحذر فيما نفكر في القيود والقوانين المفروضة على الذكاء الاصطناعي.