أعلنت شركة ميتا في الثامن من تشرين الثاني/نوفمبر أنها ستتطلب وضع علامات على الإعلانات السياسية التي تم تعديلها بشكل رقمي، باستخدام الذكاء الاصطناعي أو تقنيات أخرى، بطرق قد تكون مضللة.

جاء الإعلان بعد يوم واحد من إعلان شركة مايكروسوفت أنها أيضًا ستتخذ عددًا من الخطوات لحماية الانتخابات، بما في ذلك تقديم أدوات لوضع علامات مائية على المحتوى المولد بالذكاء الاصطناعي ونشر “فريق نجاح الحملة” لمشورة الحملات السياسية بشأن الذكاء الاصطناعي والأمن السيبراني وقضايا ذات صلة.

ستكون السنة المقبلة أهم سنة انتخابية حتى الآن في هذا القرن، حيث ستجري انتخابات في الولايات المتحدة والهند والمملكة المتحدة والمكسيك وإندونيسيا وتايوان. وعلى الرغم من قلق الكثيرين بشأن تأثير المزيفات العميقة والمعلومات المضللة على الانتخابات، فإن العديد من الخبراء يشددون على أن الأدلة على تأثيرها على الانتخابات حتى الآن محدودة على أفضل تقدير. ويرحب الخبراء بالتدابير التي اتخذتها شركات التقنية للدفاع عن سلامة الانتخابات، لكنهم يقولون إنه سيكون من الضروري اتخاذ تغييرات أساسية في الأنظمة السياسية لمعالجة مشكلة المعلومات المضللة.

كيف يمكن للذكاء الاصطناعي أن يؤثر على الانتخابات

لقيت شركات التقنية انتقادات بعد الدور الذي لعبته في انتخابات سابقة. ووجد تقرير نُشر في عام 2021 من قبل مجموعة الضغط على الإنترنت Avaaz أن شركة ميتا سمحت بانتشار المعلومات المضللة على منصتها قبل انتخابات الرئاسة الأمريكية عام 2020 بفترة شهر واحد فقط بسبب تغييرها لخوارزمياتها لاحقًا.

في السنوات الأخيرة، تقدم تطوير الذكاء الاصطناعي بسرعة كبيرة. وظهر الذكاء الاصطناعي التوليدي – الذي يسمح للمستخدمين بتوليد نصوص وصوت وفيديو – من الغموض مع إصدار شاتجي بي تي لشركة أوبن إيه في تشرين الثاني/نوفمبر 2022.

لقد استُخدم الذكاء الاصطناعي التوليدي عدة مرات في الإعلانات السياسية الأمريكية، على الرغم من أنه كان مفهومًا في كل حالة أن الذكاء الاصطناعي قد استُخدم. ففي نيسان/إبريل، أصدر الحزب الجمهوري إعلانًا مولدًا بالذكاء الاصطناعي كان يهدف إلى إظهار ما قد يحدث لو أعيد انتخاب الرئيس جو بايدن. وفي حزيران/يونيو، نشر حساب حملة إكس لحاكم ولاية فلوريدا الجمهوري رون دي سانتيس، المرشح الرئاسي، فيديو شمل صورًا مولدة بالذكاء الاصطناعي للرئيس السابق دونالد ترامب يحتضن الدكتور أنتوني فاوتشي.

ومع ذلك، تشير الدراسات باستمرار إلى أن المعلومات المضللة لم تغير بشكل قابل للقياس نتائج الانتخابات الأمريكية السابقة، كما يقول أندرياس يونغهير، أستاذ العلوم السياسية في جامعة بامبرغ في ألمانيا، الذي يلاحظ أن الأكاديميين من تخصصات أخرى مثل دراسات الإعلام وعلم النفس يميلون إلى منح مصداقية أكبر لتأثير المعلومات المضللة على الانتخابات.

على سبيل المثال، وجد بحث نُشر في مجلة “نيتشر” عام 2023 “لا يوجد دليل على وجود علاقة معنوية بين التعرض للحملة التأثير الروسية الأجنبية [في عام 2016] والتغيرات في المواقف أو القطبنة أو سلوك التصويت”.

كثيراً ما يقدر الناس تأثير المعلومات المضللة بشكل زائد لأنهم يقدرون بشكل زائد كلاً من سهولة تغيير وجهات نظر الناس حول القضايا المثيرة للجدل مثل سلوك التصويت وقدرة تقنيات المعلومات المضللة مثل الذكاء الاصطناعي، كما يقول يونغهير.

بينما احتمال أن يؤثر قطعة معلومات مضللة مولدة بالذكاء الاصطناعي على الرأي العام بما يكفي لتغيير نتائج الانتخابات منخفض جدًا، فإن الذكاء الاصطناعي لا يزال قادرًا على إحداث آثار ضارة على الانتخابات والسياسة على نطاق أوسع في المستقبل، كما تقول إليزابيث سيجر، باحثة في مركز حوكمة الذكاء الاصطناعي، منظمة بحثية مقرها المملكة المتحدة. في المستقبل، يمكن استخدام الاستهداف الشخصي المعزز بالذكاء الاصطناعي بالإضافة إلى وكلاء الإقناع القوي جدًا بالذكاء الاصطناعي لإجراء حملات إقناع جماهيرية. وفي عام 2024، قد تؤدي مجرد وجود المزيفات العميقة إلى تقويض ثقة الناس في مصادر المعلومات الرئيسية، كما تقول سيجر.

وقد حدث هذا بالفعل. ففي عام 2019، استُخدم ادعاء بأن فيديوًا للرئيس علي بونغو آنذاك في غابون كان مزيفًا لتبرير محاولة انقلاب. وفي وقت لاحق من ذلك العام، تم تعطيل تأثير فيديو مشتبه فيه لوزير في الحكومة الماليزية يشارك في فعل جنسي مع مستشار سياسي بسبب ادعاءات بأن الفيديو تم تعديله بالذكاء الاصطناعي.

“واحد من المخاطر التي غالبًا ما يتم تجاهلها، والتي من الأرجح أن تحدث في هذا الدورة الانتخابية، ليس أن الذكاء الاصطناعي التوليدي سيستخدم لإنتاج مزيفات عميقة تخدع الناس في الاعتقاد بأن المرشح كذا فعل شيئًا مروعًا”، تقول سيجر. “ولكن أن وجود هذه التقنيات نفسها سيستخدم لتقويض قيمة الأدلة وتقويض الثقة في القنوات الرئيسية للمعلومات”.

حماية الانتخابات

حتى الآن، اتخذت الحكومات تدابير محدودة للتخفيف من تأثير الذكاء الاصطناعي على الانتخابات. ففي الولايات المتحدة، تم تقدي