بلومبرغ
قال رئيس "مايكروسوفت كورب"، أمس الخميس، إن شركته تدعو إلى إنشاء وكالة أميركية جديدة لتنظيم الذكاء الاصطناعي وتحديد اشتراطات الترخيص لتشغيل أقوى أدوات تلك التكنولوجيا.
شبّه سميث الذكاء الاصطناعي بالصحافة المطبوعة والمصاعد وسلامة الغذاء، باعتبارها قوة تحويلية لتكنولوجيا جديدة، وقال إن الجهات التنظيمية تحتاج إلى وضع أطر للحماية من الأضرار المحتملة الأكبر. تتفق دعوته إلى إنشاء وكالة جديدة مع مقترحات من "أوبن إيه آي" (OpenAI)، الشركة الناشئة وراء التطبيق واشع الانتشار "تشات جي بي تي"، والتي تلقت استثماراً قيمته 10 مليارات دولار من "مايكروسوفت".
قال سميث في خطاب في واشنطن: "سنستفيد من وجود وكالة جديدة.. وهكذا نضمن استمرار سيطرة البشرية على التكنولوجيا".
فكرة الوكالة الحكومية المسؤولة عن وضع القواعد الأساسية للذكاء الاصطناعي، جذبت الاهتمام الأسبوع الماضي في جلسة استماع بمجلس الشيوخ الأميركي لسام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي".
اتفق ألتمان والعديد من أعضاء مجلس الشيوخ الذين كانوا يستجوبونه، على أن عملية التشريع التي تتطلب موافقة أغلبية الحزبين أبطأ من أن تواكب قدرات الذكاء الاصطناعي وتطبيقاته المحتملة، وأن الوكالة ستكون في وضع أفضل لتحديد القواعد التي تحمي المستخدمين.
رغم إثارة هذا المقترح لمداولات في البيت الأبيض، فهو لا يزال بعيداً كل البعد عن تحويله إلى تشريع. وعلى سبيل المثال، الدعوات في السنوات الماضية لتنظيم وسائل التواصل الاجتماعي لم تحقق أي تقدم في الكونغرس.
بنية تحتية حساسة
أيضاً، قال سميث إن تكنولوجيا الذكاء الاصطناعي المتطورة سريعاً ينبغي أن تكون شفافة من خلال تعاون المطورين مع الحكومات والباحثين الأكاديميين للتعامل مع التحديات المجتمعية التي يمكن أن تظهر، واقترح وضع "مكابح أمان" لتكنولوجيا الذكاء الاصطناعي المستخدمة في التطبيقات عالية الخطورة مثل البنية التحتية الحساسة.
قال سميث في مدونة مصاحبة لخطابه: "تتطلب القوانين الجديدة من مشغلي هذه الأنظمة وضع مكابح أمان في تصميمات أنظمة الذكاء الاصطناعي عالية الخطورة.. ويتعين على الحكومة حينها أن تضمن اختبار المشغلين للأنظمة عالية الخطورة بانتظام للتأكد من فعالية إجراءات سلامة النظام".
أصدرت إدارة بايدن عدة توجيهات غير ملزمة لتطوير واستخدام منتجات الذكاء الاصطناعي، ومع ذلك تظل الولايات المتحدة متخلفة كثيراً عن الجهود التنظيمية الأوروبية. فمثلاً، كان قانون الذكاء الاصطناعي في الاتحاد الأوروبي في المراحل النهائية من النقاش عندما أدى إصدار "تشات جي بي تي" وتطبيقات الذكاء الاصطناعي التوليدية الأخرى إلى التشكيك في جدوى القواعد التي تركز على كيفية استخدام التكنولوجيا، بدلاً من كيفية تطويرها أساساً.
صراع أوروبا مع التكنولوجيا الناشئة
صرح ألتمان للصحفيين في لندن، الأربعاء الماضي، بأن شركة "أوبن إيه آي" قد تسحب منتجاتها من أوروبا إذا لم تستطع الامتثال للقواعد الجديدة المقترحة لتطبيقات الذكاء الاصطناعي في الأغراض العامة.
ورداً على سؤال حول تهديد ألتمان، قال سميث إنه من المهم أن يشرح قطاع التكنولوجيا كيف يمكن أن تنجح اللوائح المقترحة عملياً، وأضاف أنه متفائل بأن "المنطق سيسود" في النسخة النهائية من قانون أوروبا للذكاء الاصطناعي.
قال سميث في واشنطن بعد خطابه: "العملية التشريعية في كل دولة ديمقراطية حتماً لها تحدياتها.. هناك أيام ننتبه فيها نحن ممن قد يكون لديهم معرفة أكبر في المجال التكنولوجي ونرى أشياء نود بحق الإشارة إلى أنها لن تعمل على الأرجح بالطريقة التي ينشدها الأشخاص الذين كتبوها".
في هذا الصدد، أشادت شركات التكنولوجيا الأميركية بإطار عمل صدر في يناير عن المعهد الوطني للمعايير والتكنولوجيا، والذي يركز على كيفية استخدام تكنولوجيا الذكاء الاصطناعي -ومستوى المخاطر المصاحب لتطبيقها- بدلاً من كيفية تطويرها. وفي خطابه، وصف سميث هذا النموذج بأنه "نظام فكري جديد للذكاء الاصطناعي" يساعد في قياس وإدارة هذه التكنولوجيا.
نموذج عالمي موحد
حضر خطاب سميث عدد من أعضاء الكونغرس، وعندما سأله النائب الديمقراطي، ريتشي توريس، من نيويورك كيف يجب على الكونغرس موازنة التنظيم والابتكار لمواكبة الصين، حث سميث الديمقراطيات الغربية على التعاون معاً لوضع معيار عالمي لتنظيم الذكاء الاصطناعي.
قال سميث: "أقلق أيضاً من احتمال وجود أجزاء أخرى من العالم لا تتبنى نفس حواجز الحماية التي نستخدمها.. لذا من المهم جداً أن يجتمع الاتحاد الأوروبي والمملكة المتحدة والولايات المتحدة ودول أخرى معاً للقول: ها هو النموذج. ها هو النموذج الذي لا يشجع الابتكار فحسب، بل يحمي الناس، ويحمي الإنسانية، ويحافظ على الحقوق الأساسية".
ضغط اندفاع "مايكروسوفت" نحو الذكاء الاصطناعي، بما في ذلك دعمها لـ"أوبن إيه آي"، على المنافسين مثل "غوغل" التابعة لـ"ألفابت" لإصدار تطبيقات الذكاء الاصطناعي الخاصة بهم بشكل أسرع، ودمجها في المنتجات الحالية. الأسبوع الماضي، نشرت "غوغل" توصياتها الخاصة بسياسة التطوير المسؤول للذكاء الاصطناعي، وقالت إنها تهدف إلى الاستفادة من الإمكانات الاقتصادية للتكنولوجيا، وفي الوقت ذاته، الحد من بعض مخاطرها على المجتمع.