هل نعلم إذا دمر الذكاء الاصطناعي الديمقراطية؟

الدعاية لم تعد بحاجة إلى الانتشار السريع للتأثير على الانتخابات، مما يجعل تأثير الذكاء الاصطناعي أكثر خبثاً وأصعب في اكتشافه

time reading iconدقائق القراءة - 7
رسالة مكتوبة في الشارع حول \"الأخبار المزيفة\"  - المصدر: بلومبرغ
رسالة مكتوبة في الشارع حول "الأخبار المزيفة" - المصدر: بلومبرغ
المصدر:

بلومبرغ

- مقال رأي

هذا العام يَعِدُ بأن يكون عاماً حافلاً بالنسبة إلى الحكومات المنتخبة، حيث يتمكن مليارات الأشخاص -أو أكثر من 40% من سكان العالم- من التصويت في الانتخابات. ولكن بعد مرور ما يقرب من خمسة أشهر من عام 2024، يتساءل بعض المسؤولين الحكوميين لماذا لم يظهر بعد خطر الذكاء الاصطناعي الذي يلوح في الأفق.

حتى مع توافد الناخبين في إندونيسيا وباكستان إلى صناديق الاقتراع، فإنهم لا يجدون دليلاً يذكر على تزييف عميق واسع الانتشار يؤدي إلى تحريف نتائج الانتخابات، وفقاً لمقال نُشر مؤخراً في بوليتيكو، الذي استشهد بـ"مسؤولي الأمن القومي وتنفيذيين بشركات التكنولوجيا ومنظمات المراقبة الخارجية"، الذين قالوا إن الذكاء الاصطناعي لم يكن له ذلك "التأثير الكبير" الذي توقعوه.

اقرأ أيضاً: صور الذكاء الاصطناعي المزيفة تغزو منصات التواصل الاجتماعي

هذه الرؤية قاصرة إلى درجة مؤلمة. وسبب ذلك هو أن الذكاء الاصطناعي ربما يفسد الانتخابات في الوقت الحالي، من دون أن نكون على علم بذلك.

عمليات التزييف

تتمثل المشكلة في أن المسؤولين يبحثون عن نسخة مكيافيلية من بابا بالنسياغا، فهل تتذكر تلك الصور التي أنتجت بالذكاء الاصطناعي للبابا فرانسيس وهو يرتدي سترة منتفخة، والتي انتشرت في العام الماضي؟ هذا هو ما يتوقعه الكثيرون الآن من أدوات الذكاء الاصطناعي التوليدي -التي يمكن أن تختلق نصوصاً وصوراً ومقاطع فيديو على نطاق كبير تشبه ما ينتجها البشر، ما يجعل من السهل اكتشافها، على غرار حملات الدعاية والإقناع السابقة التي دعمت دونالد ترمب من مقدونيا، أو نشرت محتوى سياسياً مثيراً للانقسام على "تويتر" و"فيسبوك" من روسيا. وكان من السهل تحديد ما يسمى بحملات الترويج الشعبي الزائف عندما كانت مجموعة من الروبوتات تقول الشيء نفسه آلاف المرات.

ومع ذلك، من الأصعب كثيراً أن تلتقط شخصاً يقول الشيء نفسه، بشكل مختلف قليلاً، آلاف المرات. وذلك، باختصار، ما يجعل اكتشاف المعلومات المضللة التي تدعمها أدوات الذكاء الاصطناعي أكثر صعوبة، ولهذا السبب تحتاج شركات التكنولوجيا إلى تحويل تركيزها من "الانتشار إلى التنوع"، كما يقول جوش لوسون، الذي كان رئيس المخاطر الانتخابية في شركة "ميتا بلاتفورمز" ويقدم الآن المشورة لشركات وسائل التواصل الاجتماعي كمدير في معهد "آسبن" للأبحاث.

اقرأ أيضاً: قطاع الذكاء الاصطناعي مطالب بإيضاح سبل مكافحة التزييف العميق

لا تنسى، كما يقول، القوة المراوغة للكلمات. تمحورت معظم المناقشات العامة المتعلقة بالذكاء الاصطناعي حول الصور والتزييف العميق، "عندما نستطيع أن نرى الجزء الأكبر من حملات الدعاية والإقناع تستند على النص. هذه هي الطريقة التي يمكنك من خلالها توسيع نطاق العملية دون أن يضبطك أحد".

الذكاء الاصطناعي

يجعل تطبيق الـ"واتساب" ذلك ممكناً بفضل ميزة "القنوات"، التي يمكنها البث إلى الآلاف. يقول لوسون: "يمكنك، على سبيل المثال، استخدام النماذج اللغوية الكبيرة مفتوحة المصدر لإنشاء وإرسال مجموعة من المشاركات النصية المختلفة إلى الناطقين باللغة العربية في ميشيغان، أو توجيه رسائل للناس مفادها أن مركز الاقتراع المحلي في المدرسة قد غمرته المياه وأن التصويت سيستغرق ست ساعات. ويضيف: "أصبح في المتناول الآن ما يشبه اللغة العربية التي تناسب من هم أقل ذكاءً وتطوراً من جماعة (براود بويز)".

المشكلة الأخرى تتمثل في أن أدوات الذكاء الاصطناعي تستخدم الآن على نطاق واسع، حيث جربها أكثر من نصف الأميركيين وربع البريطانيين. ما يعني أن بإمكان الأشخاص العاديين -عمداً أم لا- إنشاء معلومات مضللة ومشاركتها أيضاً. في مارس، على سبيل المثال، نشر معجبو دونالد ترمب صوراً مزيفة بالذكاء الاصطناعي تُظهر ترمب محاطاً بأنصار من البشرة السمراء، لرسمه كبطل لمجتمع ذوي البشرة الداكنة.

اقرأ أيضاً: بعد انتشار صور تايلور سويفت.. ماذا تعرف عن "التزييف العميق"؟

"إنهم أشخاص عاديون ينشئون محتوى المعجبين"، كما يقول رينيه ديريستا، الباحث في "مرصد ستانفورد للإنترنت" (Stanford Internet Observatory) والمتخصص في التدخل في سير الانتخابات. "هل يقصدون أن يخدعوا الآخرين؟ من يدري؟" ما يهم هو أنه مع بلوغ تكلفة نشر الأخبار حد الصفر، تراجعت تكلفة صناعتها أيضاً.

إن ما يصعب مهمة "ميتا" في معالجة هذا الأمر بشكل خاص هو أنها لا يمكنها فقط محاولة تقييد حصول صور معينة على الكثير من النقرات والإعجابات. فليس من الضروري مشاركة رسائل الذكاء الاصطناعي المزيفة غير المرغوب فيها، حتى تكون فعالة ومؤثرة. فهي لا تحتاج سوى الانتشار الكبير في المجال.

جهود "ميتا"

تحاول "ميتا" خلال الشهر الجاري معالجة المشكلة من خلال وضع تصنيف "صنع باستخدام الذكاء الاصطناعي" (Made with AI) على مقاطع الفيديو والصور والصوت على "فيسبوك" و "إنستغرام" - وهو نهج يمكن أن يؤدي إلى نتائج عكسية إذا بدأ الناس يفترضون أن كل محتوى غير مصنف بهذا التصنيف هو محتوى حقيقي.

هناك طريقة أخرى تتمثل في تركيز "ميتا" على منصة ينتشر فيها النص: هي الواتساب. ففي عام 2018، انتشرت بالفعل معلومات مضللة عبر منصة الرسائل في البرازيل، استهدفت فرناندو حداد من حزب العمال. وورد أن أنصار جايير بولسونارو، الذي فاز بالرئاسة، مولوا عملية الاستهداف الجماعي.

اقرأ أيضاً: المحتوى الذي تحذفه "ميتا" تضخّه بالذكاء الاصطناعي

يمكن لـ"ميتا" أن تكافح بشكل أفضل ضد تكرار ذلك -الذي ستنشطه أدوات الذكاء الاصطناعي- إذا جعلت سياسات "واتساب" الخاصة بها تتماشى مع سياسات "إنستغرام"و"فيسبوك"، وتحديداً بحظر المحتوى الذي يتدخل في فعل التصويت.

تحظر قواعد "واتساب" بشكل غامض فقط "المحتوى المخادع عمداً" و"النشاط غير القانوني"، وهو ما يعني أن الشركة "ستحظر كل من يحاول قمع الناخبين أو الانتخابات، وفقاً لما قاله متحدث باسم "ميتا".

لكن سياسات المحتوى الأكثر وضوحاً ستمنح "ميتا" سلطة أكبر للتعامل مع الرسائل المزيفة بأدوات الذكاء الاصطناعي على قنوات "واتساب". وأنت تحتاج إلى ذلك "من أجل التدخل الاستباقي"، كما يقول لوسون. فإذا لم تعتقد الشركة أن هذا هو الحال، فلن يكون لديها سياسات أكثر تحديداً ضد تدخل الناخبين في "فيسبوك" و"إنستغرام".

تعتبر الأدلة القاطعة نادرة مع أدوات الذكاء الاصطناعي بفضل آثارها الأكثر انتشاراً وتعقيداً. يجب أن نعد أنفسنا للتشويش أكثر من الإشارة عند تدفق المحتوى بشكل هائل على الإنترنت. ما يعني أنه لا ينبغي على شركات التكنولوجيا والمسؤولين أن يكونوا راضين عن عدم وجود "تأثير جماعي" من الذكاء الاصطناعي على الانتخابات. بل على العكس تماماً.

هذا المقال لا يعكس موقف أو رأي "الشرق للأخبار"وهو منشور نقلا عن Bloomberg Mediaولا يعكس بالضرورة آراء مجلس تحرير Bloomberg أو ملاكها
تصنيفات

قصص قد تهمك

النشرة البريدية
تعرف على أحدث الأخبار والتحليلات من اقتصاد الشرق مع بلومبرغ
سجل الان

واشنطن

5 دقائق

8°C
مطر متوسط الغزارة
العظمى / الصغرى /
24.1 كم/س
91%