حرية – (18/1/2024)
في الوقت الذي يشهد فيه الذكاء الاصطناعي تطورا هائلا خلال الأعوام الأخيرة تثور مخاوف واسعة النطاق بشأن تأثيره على نتائج الانتخابات.
ويتزامن ذلك مع تطور قدرة الذكاء الاصطناعي على إنتاج محتوى يصعب تمييزه عن المحتوى الذي أنشأه الإنسان.
الفصل بين الحقيقة والمعلومات المضللة
ويطرح تساؤل في هذا الجانب حول قدرة الناخبين على الفصل بين الحقيقة والمعلومات المضللة.
ومن المقرر يتوجه عدد هائل من الناخبين إلى صناديق الاقتراع في جميع أنحاء العالم خلال عام 2024، لكن هذا العام يختلف كليًا عن السنوات السابقة، حيث كانت تنتشر الأخبار الكاذبة على وسائل التواصل الاجتماعي فقط.
وحاليا، يستطيع الذكاء الاصطناعي تقديم طرق جديدة لنشر المعلومات المضللة، مثل محتوى الصوت والفيديو على وجه الخصوص.
وصار الذكاء الاصطناعي قادرًا على إنشاء مقاطع صوتية ومقاطع فيديو للأشخاص، وهم يقولون أي شيء يريده صانعو المحتوى للتشهير بالمرشحين والتحريض على العنف.
يشار إلى أن الذكاء الاصطناعي هو مجرد فئة واحدة من قائمة متزايدة من المشاكل التي يواجهها مسؤولو الانتخابات، والتي تشمل أيضًا التهديدات الإلكترونية العنيفة والهجمات السيبرانية.
ومؤخرا، تزايد استخدام أدوات الذكاء الاصطناعي التي يمكنها إنشاء صور واقعية، وتقليد الصوت، وكتابة نص بشري بشكل مقنع.
فالتكنولوجيا التي هددت بالفعل بقلب العديد من الصناعات رأسًا على عقب، يتم استخدامها الآن بشكل متزايد لخلق محتوى سياسي ايضًا.
وباتت المحاكاة الساخرة الصوتية أو المرئية – على سبيل المثال – لرؤساء الولايات المتحدة، باستخدام التزييف العميق، تمثل تهديدًا لديمقراطية الانتخابات في الولايات المتحدة.
حملات التضليل تواجه عقبات لوجستية
وعلى الرغم من أن الصور والإعلانات ومقاطع الفيديو التي تم التلاعب بها، والرسائل المضللة والمكالمات الآلية، كانت سمة من سمات الانتخابات لسنوات سابقة قبل انتشار الذكاء الإصطناعي، إلا أن حملات التضليل كانت تواجه في السابق مجموعة من العقبات اللوجستية.
وكان إنشاء رسائل فردية لوسائل التواصل الاجتماعي يستغرق وقتًا طويلًا، مثلما كان الأمر بالنسبة لالتقاط وتحرير الصور ومقاطع الفيديو.
وفي الوقت الحالي، جعل الذكاء الاصطناعي إنشاء مثل هذا المحتوى في متناول يد أي شخص، حتى ولو لم يتمتع بالمهارات الرقمية الأساسية.
وعلى سبيل المثال يمكن لمقطع صوتي يحاكي صوت القادة المنتخبين أو الشخصيات الموثوقة أن يخبر مجموعات مختارة من الناخبين بمعلومات مضللة حول استطلاعات الرأي والتصويت، أو يسبب ارتباكًا عامًا.
إلا أن الأخطر من كل ذلك، هو أنه يمكن للذكاء الإصطناعي إنشاء الصور ومقاطع الفيديو بسرعة أكبر بكثير مما يستطيع مدققو الحقائق مراجعتها وفضح زيفها.
وفيما تتزايد المخاوف بشأن الاضطراب الذي قد يسببه الذكاء الاصطناعي في انتخابات عام 2024، أعلنت شركة “أوبن آي” المطورة لبرنامج “تشات جي بي تي” أنه لا يسمح للسياسيين وحملاتهم باستخدام أدوات الذكاء الاصطناعي الخاصة بها.
وأوضحت الشركة في تدوينة، أنه بموجب سياساتها، لا يجوز للمستخدمين إنشاء روبوتات دردشة تتظاهر بأنها مرشحة سياسيًا أو وكالات حكومية أومسؤولين.
ويكشف هذا الإعلان كيف تحاول الشركة استباق الانتقادات القائلة بأن الذكاء الاصطناعي، الذي تم استخدامه بالفعل سابقًا في الإنتخابات لنشر صور مزيفة، يمكن أن يقوض العملية الديمقراطية من خلال المعلومات المضللة التي يتم إنشاؤها بواسطة الكمبيوتر.
سياسات الشركة تعكس تلك التي تنفذها منصات التكنولوجيا الكبيرة الأخرى.
إلا أنه حتى شركات وسائل التواصل الاجتماعي المشهورة التي تكرس فرقًا ضخمة تشرف على نزاهة المحتوى، غالبًا ما أظهرت أنها تناضل من أجل فرض قواعدها الخاصة.
التزييف العميق والمحتوى المضلل
ومن المتوقع ألا يكون نظام “أوبن آي” مختلفًا، خاصة عندما يتعلق الأمر بما يسمى التزييف العميق، أو المحتوى المضلل الذي يمكن أن ينشأه الذكاء الاصطناعي الخاص بها.
من جانبها، قالت شركة “ميتا” مالكة فيسبوك وإنستجرام إنها ستمنع الحملات السياسية من استخدام أدوات الذكاء الإصطناعي في إعلاناتها.
وأعلن يوتيوب أنه سيطلب من جميع صانعي المحتوى الكشف عما إذا كانت مقاطع الفيديو الخاصة بهم تم التلاعب بها من خلال استخدام الذكاء الاصطناعي. وفي حال إكتشاف أي تلاعب، سيتم حذف الفيديو.