إلزام جميع مطوري أنظمة هذه التقنية للأغراض العامة بمتطلبات الشفافية الأساسية ما لم تكن مجانية أو مفتوحة المصدر

كيف سينظم الاتحاد الأوروبي نماذج الذكاء الاصطناعي المتطورة؟

شعار "تشات جي بي تي" على حاسوب محمول - المصدر: بلومبرغ
شعار "تشات جي بي تي" على حاسوب محمول - المصدر: بلومبرغ
المصدر:

بلومبرغ

توصل الاتحاد الأوروبي لاتفاق أوّلي من شأنه أن يحد من كيفية عمل نموذج "تشات جي بي تي" المتطور، فيما يُعد جزءاً أساسياً من أول تنظيم شامل للذكاء الاصطناعي في العالم.

نصّت وثيقة الاتحاد الأوروبي التي اطّلعت عليها بلومبرغ على ضرورة تلبية جميع مطوري أنظمة الذكاء الاصطناعي للأغراض العامة -النماذج القوية التي لديها مجموعة واسعة من الاستخدامات المحتملة- متطلبات الشفافية الأساسية، ما لم تتوفر مجاناً وتكن مفتوحة المصدر. وتشمل هذه القواعد:

قواعد صارمة

  • وجود سياسة الاستخدام المقبول
  • الاحتفاظ بمعلومات محدثة عن كيفية تدريب نماذجها
  • تقديم ملخص تفصيلي للبيانات المستخدمة لتدريب نماذجها
  • وجود سياسة لاحترام قانون حقوق الطبع والنشر

أما النماذج التي تعتبر أنها تشكل "خطراً منهجياً"، فتشير الوثيقة إلى أنها ستخضع لقواعد إضافية. وسيحدد الاتحاد الأوروبي هذا الخطر بناءً على مقدار طاقة الحوسبة المستخدمة لتدريب النموذج. والعتبة المحددة لذلك هي أكثر من 10 تريليونات تريليون (أو سيبتيليون) عملية في الثانية.

يوضخ الخبراء أن النموذج الوحيد الذي يصل تلقائياً لهذه العتبة هو النموذج "جي بي تي-4" الذي طورته "أوبن إيه آي" (OpenAI). ويمكن للذراع التنفيذية للاتحاد الأوروبي وضع نماذج أخرى في هذه الفئة اعتماداً على حجم البيانات، سواء كان لديها ما لا يقل عن 10 آلاف مستخدم تجاري مسجل في الاتحاد الأوروبي، أو عدد المستخدمين النهائيين المسجلين، من بين مقاييس أخرى محتملة.

ينبغي لهذه النماذج ذات القدرة العالية الانضمام إلى مدونة قواعد السلوك في حين تعمل المفوضية الأوروبية على وضع ضوابط أكثر انسجاماً وأطول أمداً. وسيتعين على النماذج غير المنضمة أن تثبت للجنة أنها ملتزمة بقانون الذكاء الاصطناعي. ولا ينطبق استثناء النماذج المفتوحة المصدر على تلك التي تُعتبر أنها تشكل خطراً نظامياً.

ويجب أن تقوم هذه النماذج أيضاً بما يلي:

  • الإفصاح عن استهلاكها للطاقة
  • إجراء اختبارات "الفريق الأحمر" أو "الاختبارات العدائية"، سواء داخلياً أو خارجياً
  • تقييم المخاطر النظامية المحتملة وتخفيفها، والإبلاغ عن أي حوادث
  • التأكد من أنها تستخدم ضوابط الأمن الإلكتروني المناسبة
  • الإفصاح عن المعلومات المستخدمة لضبط النموذج وبنية نظامه الخاص
  • التوافق مع معايير أكثر كفاءة في استخدام الطاقة إذا تسنى تطويرها

ولا يزال الاتفاق المبدئي بحاجة إلى موافقة البرلمان الأوروبي والدول الأعضاء الـ27 في الاتحاد الأوروبي. وسبق أن عبّرت فرنسا وألمانيا عن مخاوفهما بشأن تطبيق الكثير من الإجراءات التنظيمية على نماذج الذكاء الاصطناعي ذات الأغراض العامة والمخاطرة بإقصاء المنافسين الأوروبيين مثل "ميسترال إيه آي" (Mistral AI) الألمانية، و"ألِف ألفا" (Aleph Alpha) الألمانية.

وفي الوقت الحالي، من المحتمل ألا تحتاج "ميسترال" إلى تلبية ضوابط الذكاء الاصطناعي للأغراض العامة لأن الشركة لا تزال في مرحلة البحث والتطوير، حسبما قال وزير الخارجية الإسباني كارمي أرتيغاس في وقت مبكر من اليوم السبت.

اضغط هنا لقراءة المقال الأصلي
تصنيفات

قصص قد تهمك