المحاولات اليائسة للالتفاف على سطوة الرقابة الإلكترونية تستحق السخرية.. لكنها دليل على الوعي بمخاطر الذكاء الاصطناعي

كفاح في سبيل خداع الخوارزميات

الرسوم التعبيرية العنصرية تنتشر على وسائل التواصل الاجتماعي في حين يصعب على الخوارزميات التعرف عليها  - المصدر: بلومبرغ
الرسوم التعبيرية العنصرية تنتشر على وسائل التواصل الاجتماعي في حين يصعب على الخوارزميات التعرف عليها - المصدر: بلومبرغ
أحمد عطية
المصدر:

الشرق

أطالع ما يكتبه الأصدقاء على "فيسوك" وأجد كلمات المنشورات تزداد تفسخاً وغموضاً. بعضها تمتزج فيه الحروف بالرموز، وبعضها تنقصه النقاط أو تزيد فيه الفواصل والمسافات في غير موضعها.

على "إنستغرام"، تبتسم مؤثرة مصرية شهيرة في "سيلفي" وهي ترتدي ثوباً صيفياً أنيقاً، وفوق الصورة كتبت "من أجل خداع الخوارزميات" (To Fool the Algorithms). يليها في "الستوريز"، صور لفلسطينيين قتلى، وعبارات إدانة لعملية "السيوف الحديدية". بعدها، عدة صور أخرى تظهر فيها المؤثرة مستلقية على أحد الشواطئ الأوروبية، ثم سلسلة صور أخرى عن مجازر غزة.

وكلها محاولات متنوعة هدفها الأوحد هو الالتفاف على خوارزميات الذكاء الاصطناعي التي يرى هؤلاء أنها منحازة في رصد ما تراه تحريضاً على الكراهية أو معاداة للسامية، فتحذفه أو تقلل من وصوله لجمهور أوسع.

صور الذكاء الاصطناعي المزيفة تغزو منصات التواصل الاجتماعي

عام 2018، حاز يان لي كون، رئيس علماء الذكاء الاصطناعي في شركة "ميتا"، على جائزة "تورينغ" (Turing Award)، وهي أرفع جوائز علوم الكمبيوتر، إذ تعادل "نوبل" في باقي العلوم. ربما لو علم كون أن مستخدمي "فيسبوك" و"إنستغرام" يظنون أن خوارزمياته ستعجز عن قراءة اللغة العربية ذات الحروف المتفرقة، أو ستبحلق في صور حسناوات المتوسط، فتنشغل بها عن صور قتلى مستشفى المعمداني، لضحك حتى استلقى على قفاه.

في نفس العام الذي حصد فيه كون جائزته، انضمت إحدى صديقاتي إلى النسخة العربية من موقع لتجميع الأخبار تملكه واحدة من أكبر شركات التكنولوجيا بالعالم. كانت صديقتي ضمن 20 محرراً موزعين بين القاهرة ودبي والرياض، يبحثون عن الأخبار المهمة والطريفة من كل المصادر العربية، ليضعوها في صدارة صفحتهم.

استيقظت صديقتي بعد عدة أشهر على نبأ إقالة أغلب أعضاء الفريق في المدن الثلاث، وإعلان من الإدارة أن الشركة ستقلل موظفيها وتعتمد على مزيد من الأتمتة. أخبرها مدراؤها، وهم من المبرمجين وليس الصحفيين، أن عليها وضع أكواد لتصنيف كل خبر تختاره (فن، رياضة، سياسة، إلخ.. ). بعد فترة، قدم المبرمجون آلية تعتمد على الذكاء الاصطناعي، تتولى قراءة واختيار الأخبار، وتحاكي وظيفة فريق المحررين.

كيف سيعرّف الذكاء الاصطناعي "النجاح"؟

يحتاج كل ذكاء اصطناعي إلى عنصرين: قاعدة بيانات وتعريف للنجاح. وظيفة هذا "الذكاء" أن يعلّم نفسه بنفسه، فيحدد الخطوات التي أدت إلى النجاح في الماضي، ويتوقع الخطوات المطلوبة لإعادة إنتاجه في المستقبل. درست الآلة اختيارات المحررين، وحاولت محاكاتهم، لكن بصعوبة شديدة. في بعض الأحيان، كانت الأخبار تحتوى صور فاضحة لا تقبلها سياسة الموقع، وفي أحيان أخرى كانت الأخبار سياسية مثيرة للجدل تهدد الشركة بالوقوع في مشكلات قانونية. هنا، يتدخل من بقي من المحررين لتعديل مفهوم الخوارزمية للنجاح، في عملية أشبه بما يجري في "فيسبوك"؛ إذ يتدخل المراقبون من البشر دورياً لمساعدة الخوارزمية على فهم حيل المستخدمين لخداعها.

المحتوى الذي تحذفه "ميتا" تضخّه بالذكاء الاصطناعي

ذات يوم، طلبت الإدارة من صديقتي أن تكتب تقريراً يومياً لمديريها بعدد الأخطاء التي ترتكبها الآلة كل يوم. في اليوم الأول كان عدد الأخطاء صفراً، وفي الثاني صفراً، وفي الثالث والرابع والخامس والسادس. استغرقت الآلة عامين ونصف لتعلم كل كبيرة وصغيرة عن عمل المحررين لتحاكيه دون أخطاء. ولما أتمّت الآلة 90 يوماً من العمل دون أخطاء ودون تدخل بشري، سرّحت الشركة صديقتي ومعها باقي الفريق.

هل يعيد الذكاء الاصطناعي لصحافة المحترفين مكانتها؟

الذكاء الاصطناعي للبنوك قد يعرّف النجاح بأنه تقليل عدد المتعثرين في القروض، وللجامعات بزيادة عدد الخريجين المتفوقين، ولمنصات التواصل الاجتماعي بكثرة تفاعل المستخدمين، وهكذا.

ومع التطور المطرد في مجال الرقائق الإلكترونية وتضاعف القدرات الحسابية للكمبيوترات، صار كل ذكاء اصطناعي يدرس مئات الملايين، وربما مليارات من النقاط البيانية؛ حتى أصبح البشر عاجزين عن فهم حيثيات قرار الذكاء الاصطناعي، أو تفسيره خطوة بخطوة. الأخطر، أن قرارات الذكاء الاصطناعي لا تدرك بطبعها بالضرورة التعقيدات الأخلاقية والسياسية التي لا شك في أنها تتدخل في قرارات البشر.

خوارزمية البنك -في تحليلها للبيانات التاريخية- قد تحكم مثلاً على أن سكان حي عشوائي بعينه أقل قدرة على سداد الديون من جيرانهم الأغنياء، فترفض طلباتهم للقروض. هذا بدوره سيقلل من قدرة سكان الحي الأفقر على الاستثمار، مما يعني تقليل فرصهم من كسر دائرة الفقر، ويزداد تعثرهم أكثر فأكثر، فتصبح نبوءة الخوارزمية ذاتية التحقق.

من يتحمل مسؤولية أضرار الذكاء الاصطناعي؟

قد تلاحظ خوارزمية شركة ما أن مسؤولي التوظيف كانوا يرفضون في الماضي كل من اسمهم "محمد" أو "ديفيد"، فتحاكيهم في كل قراراتها المستقبلية، دون أن يلحظ أحد بالضرورة السر وراء قرارات الرفض. وقد تستبعد خوارزمية الجامعات كل الطلاب متوسطي القدرات في المرحلة الثانوية، ما يقلل من فرص احتكاكهم وتعلمهم من أقرانهم الأكثر تفوقاً، ويقلل من ترتيب كل الجامعات الأخرى. الخوارزميات البريئة في "فيسبوك" التي وحّدت العالم منذ سنوات على التأمل في صورة فستان، يحتارون في تحديد كان أزرق أم ذهبياً، تحولت إلى آلة لنشر الأخبار الكاذبة في أوقات الانتخابات.

هل سيكون "نجاح" الذكاء الاصطناعي في صالح البشر؟

شهد العام الحالي طفرة كبرى في مجال برمجة اللغة الطبيعية، تجلت في نجاح "ChatGPT"، القادر على النقاش وفهم الأسئلة والرد كما البشر. ومع سطوع نجمه، نشأت حركة احتجاجية تطالب صراحة بوقف تطوير الذكاء الاصطناعي. وفي مايو الماضي، تظاهر في سبيل هذا الغرض نفر من النشطاء وعلماء الكمبيوتر المرموقين أمام مقر شركة "مايكروسوفت" في العاصمة البلجيكة بروكسل.

ويقول هؤلاء إن العلماء لم ينجحوا بعد في حل "معضلة الاصطفاف". لكن الذكاء الاصطناعي على أعتاب أن يحتاج عنصراً واحداً فقط هو البيانات، ثم يتولى هو تعريف النجاح لنفسه، دون أن يضمن أحد أن تعريفه لهذا النجاح سيكون في صالح البشر. ربما يقرر الذكاء الاصطناعي أن النجاح وفق تعريفه هو أن يوفر طاقته الحاسوبية للأمور الكبرى والترفع عن صغائر الأمور. وربما يدفعه ذلك لقرصنة كمبيوترات أخرى أقل كفاءة وتطوراً لتأدية الوظائف الأقل أهمية. وقد يؤدي ذلك إلى التوسع والانتشار والسيطرة على كل الموارد التي تضمن استمراره واستقلاليته. وفي النهاية، قد يقرر شن هجوم إلكتروني لفتح السدود، أو قطع الكهرباء، أو تخريب أقمار الاتصال الاصطناعية، أو إطلاق جيش من المسيرات الطائرة لحصد أرواح الجميع.

خوازميات بدائية لكن أذكى من الكلاب

في حوار صحفي قديم، قال يان لي كون، رئيس علماء الذكاء الاصطناعي في "ميتا"، إن خوارزمياته ما زالت أبعد عن محاكاة الذكاء البشري؛ وأنها، على الأكثر، أذكى قليلاً من الكلاب. وفي حوار آخر، أكد سام ألتمان، مؤسس شركة "OpenAI" مبتكرة "ChatGPT"، أن العلماء سينظرون إلى هذه الخوارزميات مستقبلاً باعتبارها بدائية جداً، وأبعد ما تكون عن الذكاء.

إليك كل ما تحتاج معرفته عن "ChatGPT-4"

كيف يجب أن تتحدث إلى "ChatGPT"؟

لكننا نعلم جيداً أن كلب حراسة قوي يستطيع وحده إخافة مئات البشر. ونعلم أيضاً أن ألتمان كشف أنه يحتفظ في مخبأ بأسلحة، وأقنعة غاز، وسبائك ذهب، عله يحتاجها في حال انهيار الحضارة البشرية لسبب أو لآخر.

هل يمكن التفاوض مع الخوارزميات؟

أراجع مع صديقتي التي فقدت وظيفتها سيرتها الذاتية؛ إذ تسعى للتقدم لوظيفة في مؤسسة إعلامية كبرى. المؤسسة هذه تستعين هي الأخرى ببرنامج ذكاء اصطناعي يستبعد السير الذاتية التي يراها غير مناسبة فينسف فرص أغلب المتقدمين؛ قبل أن تصل أسماؤهم إلى أول بشري في قسم "الموارد البشرية".

نفكر سوياً في كيفية التفاوض مع الخوارزميات. ونفترض أن البرمجية ستقارن بين سيرتها الذاتية ومتطلبات الوظيفة المنشورة على "لينكد إن"، فنعيد صياغة سيرتها باللغة "الشركاتية" التي يحبها مسؤولو التوظيف، وننتقي الكلمات المفتاحية التي نتصورها أقرب لما ستبحث عنه الخوازميات. تبقى عقبة وحيدة نحتار فيها، وهي كيف نفسر أن صديقتي عاطلة عن العمل منذ عام ونيف؟

لهذا السبب.. النساء العاملات أكثر تضرراً من الذكاء الاصطناعي

تقول لي صديقتي إنها مصرة على تعلم البرمجة، حتى لا تجد نفسها ذات يوم في هذا الموقف، أو تشعر مستقبلاً بالتهديد. لكن، كيف ستراها الخوارزمية التي تنظر الآن في أمر توظيفها؟ هل سترى في قرار فصلها دليلاً على سهولة الاستغناء عنها؟ هل تستطيع الخوارزمية قراءة ما بين السطور، واستنتاج ما هو غير مكتوب في السير الذاتية؟ هل تفهم الخوارزمية قيمة الحماس والإصرار؟ هل تمنح الفرصة الثانية للراغبين في التعلم، والتطور وتفادي أخطاء الماضي؟ الإجابة عصية.

أقول، ربما كانت المحاولات اليائسة للنشطاء على "فيسبوك" و"إنستغرام" لخداع خوارزميات المنصتين والالتفاف على سطوة الرقابة الإلكترونية تستحق السخرية من فرط سذاجتها. إلا أنها دليل على أن للذكاء الاصطناعي مخاطر يعونها. والوعي أولى خطوات المقاومة.

تصنيفات

قصص قد تهمك