ما هو القاسم المشترك بين مارك زوكربيرغ، المؤسس المشارك لـ "فيسبوك" وإيلون ماسك، الرئيس التنفيذي لـ"تسلا إنك"؟ كلاهما يتصارع مع مشاكل كبيرة نابعة جزئياً على الأقل من إيمانهم بأنظمة الذكاء الاصطناعي التي لم تفِ بالغرض بعد. يتعامل زوكربيرغ مع خوارزميات فشلت في وقف انتشار المحتوى الضار، بينما يتعامل ماسك مع برنامج لم يقم بعد بقيادة السيارة بالطريقة التي وعد بها كثيراً.
هناك درسا واحدا يُمكن استخلاصه من تجارب الرجلين، وهو أن الذكاء الاصطناعي ليس جاهزاً بعد لوقت الذروة، علاوة على أنه تصعب معرفة متى سيكون جاهزاً لذلك. يجب على الشركات هنا أن تفكر في التركيز على تجهيز الكثير من البيانات عالية الجودة وتوظيف أشخاص للقيام بالعمل الذي لم يستعد الذكاء الاصطناعي للقيام به.
التحديات
صُمّمت أنظمة الذكاء الاصطناعي لمحاكاة الدماغ البشري بشكل فضفاض، ويُمكنها اكتشاف الأورام، وقيادة السيارات، وكتابة النصوص، وإظهار نتائج مذهلة في بيئة معملية. إلا أن المشكلة تكمن هنا. فعندما يتعلق الأمر باستخدام التكنولوجيا في العالم الحقيقي الذي لا يُمكن التنبؤ به، تظهر أوجه قصور الذكاء الاصطناعي أحياناً. هذا أمر مقلق حقاً، خصوصاً عندما يتم الترويج لاستخدامه في تطبيقات عالية المخاطر مثل الرعاية الصحية.
كما تتعاظم المخاطر بشكل خطير على وسائل التواصل الاجتماعي لأنه يُمكن للمحتوى التأثير على الانتخابات، وتغذية اضطرابات الصحة العقلية، مثلما كشفت وثائق داخلية مُسرّبة من قبل واشية. لكن يتضح إيمان "فيسبوك" بالذكاء الاصطناعي من خلال موقعها الإلكتروني الذي يُسلّط الضوء غالباً على خوارزميات التعلّم الآلي قبل الإشارة إلى جيشها من المشرفين على المحتوى. أخبر زوكربيرغ الكونغرس في العام 2018 أيضاً أن أدوات الذكاء الاصطناعي قد تكون "الطريقة القابلة للتطوير" لتحديد المحتوى الضار. تقوم هذه الأدوات بعمل جيد في اكتشاف العُريِّ والمحتوى المرتبط بالإرهاب، لكنها لا تزال تعاني في مجال منع نشر المعلومات المضللة.
اقرأ المزيد: هل يتفوق الذكاء الاصطناعي على البشر في كتابة المقالات والأخبار؟
(أفاد أحدث تقرير ربع سنوي لـ"فيسبوك" حول جهود الإشراف على المحتوى أن منشورات العُري كانت منخفضة للغاية، لكنه لم يستطع تقدير مدى انتشار محتوى التنمُّر والمضايقات على الموقع).
يعتبر التغيّر المستمر في لغة الإنسان مشكلة أيضاً، إذ يستخدم النشطاء المناهضون للقاحات حيلاً كتابية مثل -- "va ((ine") -- لتجنب اكتشافها، بينما ينشر بائعو الأسلحة الخاصون صوراً لعلب فارغة على سوق "فيسبوك" مع كتابة عبارة "PM me" (أي راسلوني برسالة نصية شخصية). تخدع هذه الحيل الأنظمة المُصممة لإيقاف خرق قواعد المحتوى، وتزداد الأمور سوءاً أيضاً عندما يقوم الذكاء الاصطناعي غالباً بتذكية هذا المحتوى.
ولا عجب هنا أن يشعر 15 ألف مشرف تقريباً على المحتوى، تم تعيينهم لدعم خوارزميات "فيسبوك"، بثِقَل حجم العمل. في العام الماضي، أوصت دراسة أجرتها كلية "ستيرن" للأعمال في جامعة نيويورك بأن تقوم "فيسبوك" بمضاعفة عدد هؤلاء إلى 30 ألفاً بهدف مراقبة المشاركات بشكل صحيح، في حال لم يكن الذكاء الاصطناعي على مستوى المهمة. وقالت كاثي أونيل، مؤلفة كتاب "ويبونز أوف ماث ديستراكشن" (Weapons of Math Destruction)، إن الذكاء الاصطناعي لدى (فيسبوك) "لا يعمل". بدوره، أخبر زوكربيرغ المشرّعين أنه من الصعب على الذكاء الاصطناعي الإشراف على المشاركات بسبب الفروق الدقيقة في الخطاب.
ماسك يعِد برجل آلي ويعرض تقدم القيادة الآلية في يوم الذكاء الاصطناعي
على الجانب الآخر، بدت وعود ماسك الزائدة بشأن الذكاء الاصطناعي أسطورية عملياً. ففي عام 2019، أخبر مستثمري "تسلا" أنه "شعر بثقة كبيرة" بشأن تواجد مليون مركبة من طراز "موديل 3" على الطرق، ستعمل كسيارات أجرة ذاتية القيادة بدون سائق، تحت اسم "روبو تاكسي"، بحلول العام 2020، وفقاً لإطاره الزمني. بدلاً من ذلك، يتمتع عملاء "تسلا" حالياً بامتياز لدفع 10 آلاف دولار مقابل برنامج خاص سيوفر يوماً ما، أو من يدري، إمكانات قيادة ذاتية كاملة. حتى ذلك الحين، يُمكن للسيارات الوقوف، وتغيير المسارات، والقيادة على الطريق السريع بمفردها، مع ارتكاب أخطاء فادحة في بعض الأحيان. أقر ماسك مؤخراً في تغريدة له أن تقنية القيادة الذاتية المُعمّمة كانت "مشكلة صعبة".
حتى الرعاية الصحية
يتعلق الأمر الأكثر إثارة للدهشة بقصور الذكاء الاصطناعي أيضاً في مجال الرعاية الصحية، الذي يحمل بعضاً من أكثر التقنيات وعوداً. في وقت سابق من هذا العام، قامت دراسة بتحليل العشرات من نماذج التعلّم الآلي المُصممة لاكتشاف علامات كوفيد-19 في الأشعة السينية والمقطعية، لكنها وجدت أنه لا يُمكن استخدام أي منها في بيئة سريرية بسبب عيوب مختلفة. من جانبها، وجدت دراسة أخرى منشورة في المجلة الطبية البريطانية الشهر الماضي، أن 94% من أنظمة الذكاء الاصطناعي التي تم استخدامها للبحث عن علامات الإصابة بسرطان الثدي كانت أقل دقة من تحليل قام به أخصائي أشعة واحد. وتقول سيان تايلور-فيليبس، أستاذة صحة السكان في جامعة "وارويك" والقائمة على الدراسة: "كثرت الضجة بشأن الإصدار الوشيك للمسح الضوئي بالذكاء الاصطناعي في علم الأشعة، لكنها كانت متقدمة على النتائج إلى حد ما".
سيقوم المستشارون الحكوميون بالاستعانة بنتائج الدراسة في تحديد ما إذا كانت أنظمة الذكاء الاصطناعي هذه تفيد أكثر من ضررها، وما إذا كانت بالتالي جاهزة للاستخدام. في هذه الحالة، لا يبدو الضرر واضحاً.
في نهاية المطاف، تم تصميم الأنظمة العاملة بالذكاء الاصطناعي للكشف عن سرطان الثدي، بأن تكون شديدة الحذر، ومن المرجح أنها تعطي إنذارات خاطئة أكثر من إشارتها إلى عدم وجود علامات على الورم. مع هذا، تعد النسبة الضئيلة في معدل استدعاء فحص سرطان الثدي، البالغة 9% في الولايات المتحدة و4% في بريطانيا، مصدراً للقلق الزائد من الإنذارات الكاذبة لدى آلاف السيدات. وتقول تايلور- فيليبس: "هذا يعني أننا نقبل الضرر الذي تتعرض له السيدات اللاتي يخضعن للفحص فقط حتى نتمكن من تطبيق تقنية جديدة".
الذكاء الصناعي والتطبيقات والبيانات الضخمة قد تسهم في التصدي للوباء المقبل
يبدو أن الأخطاء لا تقتصر فقط على دراسات قليلة. تقول كاثلين والش، الشريك الإداري في "كوغناليتيكا" (Cognalytica) المتخصصة في الذكاء الاصطناعي المتعلق بالسوق: " قبل عدة سنوات، كثرت الوعود والضجة حول الذكاء الاصطناعي الذي سيُصبح الخطوة الأولى في مجال الأشعة. بدأنا نلمح أنه لا يكتشف المفارقات بأي معدل مفيد".
مع ذلك، لم يمنع أي من هذه التحذيرات تدفق الاستثمارات إلى الذكاء الاصطناعي، فبعد صعوده بثبات، قفز الاستثمار العالمي لرأس المال المغامر في الشركات الناشئة بمجال الذكاء الاصطناعي العام الماضي بشكل كبير، وفقاً لـ "بيتشبوك داتا "المتخصصة في تعقّب أسواق رأس المال الخاص. كما تصاعدت الإشارات إلى "الذكاء الاصطناعي" في مكالمات أرباح الشركات بشكل ثابت خلال العقد الماضي، ورفضت التراجع عنها، وفقاً لتحليل نصوص المكالمات الذي أجرته بلومبيرغ.
الأبعاد
لكن مع كل هذه الاستثمارات، لماذا لم يصل الذكاء الاصطناعي إلى ما كنا نأمله؟ يتعلق جزء من المشكلة بالمديح المبالغ فيه في حملات التسويق التكنولوجي، بيد أن علماء الذكاء الاصطناعي قد يكونون مسؤولين عن هذا جزئياً أيضاً.
تعتمد الأنظمة على عنصرين؛ نموذج تشغيلي وبيانات أساسية لتدريب هذا النموذج. ولكي يتم بناء ذكاء اصطناعي جيد، يتعين على المبرمجين قضاء الغالبية العظمى من وقتهم، أي ربما نحو 90% منه، في جمع وتصنيف وتنقية البيانات. إنه عمل ممل وصعب، ويُمكن القول إن مجتمع التعلّم الآلي يُهمله حالياً، لأن العلماء يمنحون قيمة ومكانة أكبر لتعقيدات هيكليات الذكاء الاصطناعي، أو تفاصيل النموذج.
الذكاء الاصطناعي يستبعد "بتكوين" من استثمارات صندوق تحوط
تشير هنا دراسة حديثة لعلماء معهد "ماساتشوستس" للتكنولوجيا إلى نتيجة واحدة، ألا وهي امتلاء مجموعات البيانات الأكثر شيوعاً والمستخدمة في بناء أنظمة الذكاء الاصطناعي بالأخطاء، بما في ذلك رؤية الكمبيوتر ومعالجة اللغة. كما يُعيق التركيز الثقافي على بناء النماذج المتقنة والتفصيلية الذكاءَ الاصطناعي على أرض الواقع.
مع ذلك، هناك بوادر تغيير مُشجّعة، اقترح علماء "غوغل"، التابعة لـ"ألفابيت"، طرقاً لإنشاء المزيد من الحوافز لإصلاح مشكلة النموذج مقابل البيانات، التي اشتكوا منها في ورقة مُقدّمة إلى مؤتمر مؤخراً.
تعمل الشركات أيضاً على تحويل تركيزها بعيداً عن بائعي "الذكاء الاصطناعي كخدمة"، الذين يعدون بتنفيذ المهام مباشرة بشكل سحري. وبدلاً من ذلك، تنفق الشركات المزيد من الأموال على برامج إعداد البيانات، وفقاً لبريندان بيرك، كبير المحللين لدى "بيتشبوك". يقول بيرك إن الشركات التي تُركز فقط على الذكاء الاصطناعي مثل "بالانتير تكنولوجيز " (Palantir Technologies)، و"سي 3 دوت إيه أي" (C3.ai)، قامت بـ"تحقيق نتائج أقل من رائعة"، في حين تحقق شركات علوم البيانات مثل "داتا بريكس" (Databricks) "تقييمات أعلى ونتائج متفوقة".
من الجيد أن يقوم الذكاء الاصطناعي أحياناً بإفساد السيناريوهات منخفضة المخاطر مثل توصيات الأفلام أو فتح هاتف ذكي من خلال قراءة ملامح وجهك، لكن الأمر لا يزال يحتاج إلى المزيد من التدريب والبيانات الأفضل في مجالات مثل الرعاية الصحية ومحتوى وسائل التواصل الاجتماعي. وبدلاً من المحاولة الحالية لتأمين عمل الذكاء الاصطناعي اليوم، تحتاج الشركات إلى إرساء أسس البيانات وتعيين الأشخاص الذين سيجعلونها تعمل في المستقبل غير البعيد كما نأمل.