التخطي إلى المحتوى
صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟

وفي نوفمبر الماضي، أطلقت أولغا لويك، وهي طالبة أوكرانية تدرس في جامعة بنسلفانيا، قناتها الشخصية على منصة يوتيوب.

لم تحصل أولغا على الجمهور الذي توقعته، ولكن بعد وقت قصير من إطلاق القناة، اكتشفت أن معظم جمهورها يأتي من منصات التواصل الاجتماعي في الصين، والأهم من ذلك، أن ذلك لم يحدث. ولم تكن هي التي ظهرت في الفيديوهات الموسيقية، بل نسخة من صورتها التي تم إنشاؤها بواسطة الذكاء الاصطناعي، كما أشار في تقرير لرويترز.

وتظاهر شبيهها الرقمي، مثل “ناتاشا”، على هيئة امرأة روسية تتحدث اللغة الصينية بطلاقة، وتشكر الصين على دعم روسيا ضد الغرب ومحاولة كسب المال من بيع منتجات مثل الحلوى الروسية.

والأكثر إثارة للدهشة هو أن هذه الحسابات المزيفة كان لها مئات الآلاف من المتابعين في الصين، وهو عدد أكبر بكثير من أولغا نفسها على موقع يوتيوب.

وتمثل هذه الحادثة مثالا على العدد الكبير ممن يبدون للوهلة الأولى أنهن فتيات روسيات على وسائل التواصل الاجتماعي في الصين يعبرن عن حبهن للبلاد باللغة الصينية بطلاقة ويقولن إنهن يسعين لدعم روسيا في الحرب في بيع الواردات من وطنهن. . ، ولكن لا يوجد أي منها.

ويقول الخبراء إن صور هؤلاء الفتيات يتم إنشاؤها بواسطة الذكاء الاصطناعي من خلال انتحال وسرقة مقاطع لنساء حقيقيات من الإنترنت، وغالباً دون علمهن، وأن مقاطع الفيديو المزيفة تستخدم للترويج لمنتجات الرجال في الصين، بحسب تقرير لرويترز.

يقول جيم تشاي، الرئيس التنفيذي لشركة Exmove، وهي شركة تعمل على تطوير تقنيات الذكاء الاصطناعي، إن تقنية إنتاج مثل هذه الصور أصبحت “تحظى بشعبية كبيرة لأن الكثير من الناس يستخدمونها في الصين”.

وعلى نطاق أوسع، لفت هذا الحادث الانتباه إلى مخاطر تقنيات الذكاء الاصطناعي التي تتطور بوتيرة سريعة للغاية. مخاوف بشأن مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة والأخبار المزيفة واستخدامه في نشر الروايات المستهدفة أو في وسائل الإعلام. تكثفت الدعاية في الأشهر الأخيرة، وسط الانتشار المتزايد لأنظمة الذكاء الاصطناعي التوليدي، مثل روبوت الدردشة GPT.

مكسب الكذاب

تستخدم الحكومات والأحزاب والأحزاب السياسية المتنفذة في مختلف دول العالم – سواء في الأنظمة الديمقراطية أو الاستبدادية – الذكاء الاصطناعي لتوليد النصوص والصور ومقاطع الفيديو بهدف توجيه الرأي العام لصالحها وفرض رقابة تلقائية على الناقدين. محتوى. لهم على شبكة الإنترنت.

وفي التقرير السنوي ــ الذي نشر في أكتوبر من العام الماضي ــ وثق باحثون من منظمة فريدوم هاوس ــ وهي منظمة حقوقية ــ استخدام الذكاء الاصطناعي التوليدي في 16 دولة “لزرع الشك أو تشويه سمعة المعارضين أو التأثير على الحوار العام”.

ويخلص التقرير إلى أن حرية الإنترنت العالمية قد انخفضت للعام الثالث عشر على التوالي، ويرجع ذلك جزئيا إلى انتشار تقنيات الذكاء الاصطناعي.

ويقول الباحثون إن أحد أهم الاكتشافات التي توصلوا إليها هو التغير في طريقة استخدام الحكومات للذكاء الاصطناعي، ومع تطور هذه التقنيات أكثر فأكثر، تستمر الأحزاب السياسية في استخدامها. استغلالها لتضخيم المعلومات المضللة لخدمة مصالحهم.

في حين أن هذه التطورات ليست بالضرورة مفاجئة، فإن إحدى النتائج الأكثر إثارة للاهتمام هي أن الوصول على نطاق واسع إلى الذكاء الاصطناعي التوليدي قد يقوض الثقة في الحقائق المثبتة، وفقًا للتقرير.

مع انتشار المحتوى الناتج عن الذكاء الاصطناعي بشكل طبيعي عبر الإنترنت، فقد يسمح للأحزاب السياسية بزرع الشك حول المعلومات الموثوقة والصادقة، وهي ظاهرة تعرف باسم “مكسب الكاذب” لأن التزوير الحذر يزيد من الشكوك العامة حول دقة المعلومات، لا سيما في البلدان المحيطة بالعالم. عالم. فترة الأزمات أو الصراع حيث تنتشر المعلومات الكاذبة.

الذكاء الاصطناعي يجعل الأمر أسهل

تعمل تقنيات الذكاء الاصطناعي على أتمتة عملية إنشاء الأخبار المزيفة، مما يؤدي إلى انفجار محتوى موقع الويب الذي يقلد المقالات الحقيقية ولكنه ينشر معلومات كاذبة حول الانتخابات والحروب والكوارث الطبيعية.

خلال العام الماضي، زادت المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي بنسبة تزيد عن 1000%، حيث انتقل العدد من 49 موقعا إلى أكثر من 600 موقع، بحسب تقرير لمنظمة “نيوز جارد” التي تتعقب المعلومات المضللة.

تاريخيًا، اعتمدت العمليات الدعائية على جيوش من العمال ذوي الأجور المتدنية أو منظمات استخباراتية عالية التنسيق لإنشاء مواقع ويب تبدو حقيقية.

لكن تقنيات الذكاء الاصطناعي تسهل على أي شخص تقريبا – سواء كان عضوا في وكالة تجسس أو مراهقا في قبو منزله – إنشاء هذه المواقع وإنتاج محتوى يصعب أحيانا تمييزه عن المعلومات الحقيقية.

كما أظهرت التجارب التي أجريت في ورقة بحثية جديدة نشرت في فبراير الماضي أن النماذج اللغوية يمكن أن تولد نصوصا مقنعة للجمهور الأمريكي مثل محتوى الحملات الدعائية الأجنبية السرية الفعلية.

وقد أدت الاستراتيجيات بين النماذج البشرية ونماذج الذكاء الاصطناعي، مثل تغيير اتجاهات روبوتات الدردشة وتنسيق النتائج، إلى مقالات مقنعة أو أكثر إقناعًا من الدعاية الأصلية.

تقول OpenAI، الشركة التي طورت Chatbot chatbot، إن لديها الآن أكثر من 100 مليون مستخدم نشط أسبوعيًا، وأدواتها تجعل إنتاج كمية هائلة من المحتوى أسهل وأسرع. ويمكن استخدامها أيضًا لإخفاء الأخطاء اللغوية وإنشاءها. تفاعل كاذب

حملات التأثير السرية

وكشفت شركة OpenAI، نهاية شهر مايو الماضي، عن ما يقرب من 5 عمليات سرية تم تنفيذها في روسيا والصين وإيران وإسرائيل استخدمت خلالها هذه الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بهدف التأثير على الرأي العام العالمي، وقالت الشركة إنها تمكنت من إيقافهم، بحسب صحيفة التايم. .

وتشرح الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات – التي يرتبط بعضها بحملات إعلانية معروفة – تقنيات الشركة في العديد من “الأنشطة الخادعة”. وتضمنت هذه الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي في عدة حالات. اللغات، بالإضافة إلى إنشاء أسماء وسير ذاتية لحسابات وهمية وتعديل الرموز البرمجية، بالإضافة إلى ترجمة النصوص وتدقيقها لغوياً.

وركزت هذه العمليات على مجموعة من القضايا، بما في ذلك الدفاع عن الحرب في قطاع غزة والغزو الروسي لأوكرانيا، وانتقاد معارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات على سياسيين في الهند وأوروبا والولايات المتحدة كجزء من سياستها. محاولات التأثير على الرأي العام هناك.

وكشفت الأمثلة التي ذكرها محللو OpenAI كيف تستخدم هذه الجهات الفاعلة تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير عبر الإنترنت التي كانت تقوم بها منذ عقد من الزمن، وتركز هذه الجهات الفاعلة على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير. الرأي العام والتلاعب بالنتائج السياسية.

وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في OpenAI في التقرير: “تكشف هذه الاتجاهات عن مشهد تهديد يتطور وليس ثوريًا”. “يستخدم هؤلاء اللاعبون منصتنا لتحسين جودة المحتوى الخاص بهم والعمل بكفاءة أكبر.”

على سبيل المثال، يوضح تقرير الشركة بالتفصيل كيف استخدمت شركة Stoic الإسرائيلية، وهي شركة تسويق سياسي مقرها تل أبيب، أدوات OpenAI لإنشاء محتوى مؤيد لإسرائيل فيما يتعلق بحرب الإبادة الجماعية المستمرة في قطاع غزة.

استهدفت هذه الحملة – التي أطلق عليها اسم “زيرو زينو” – جماهير في الولايات المتحدة وكندا وإسرائيل. وقالت ميتا أيضًا إنها أزالت 510 حسابات على فيسبوك و32 حسابًا على إنستغرام مرتبطة بنفس الشركة الإسرائيلية.

غالبًا ما كانت مجموعة الحسابات المزيفة – والتي تضمنت حسابات لأشخاص ينتحلون صفة أمريكيين من أصل أفريقي وطلاب في الولايات المتحدة وكندا – ترد على شخصيات أو وسائل إعلام في رسائل تمدح إسرائيل، وتنتقد معاداة السامية في الجامعات الأمريكية وتدين “المتطرفين”. الاتجاهات في الإسلام.

وبحسب تقرير Open AI، يبدو أن هذه الحملة فشلت في تحقيق تفاعل هادف معها.

واستخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة، والتي تسمى “Bad Grammar”، نماذج الذكاء الاصطناعي الخاصة بها لتصحيح أخطاء التعليمات البرمجية لتشغيل روبوت على تطبيق Telegram ينشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية. وتقول الشركة إن العملية استهدفت أوكرانيا. ومولدوفا والولايات المتحدة ودول البلطيق.

عملية روسية أخرى تُعرف باسم Doppelganger، استخدم فيها كاين المرتبط بالخزانة الأمريكية بالكرملين نماذج OpenAI لتوليد عناوين الأخبار وتحويل مقالات الصحف إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.

كما استفادت شبكة صينية معروفة، Spamoflag، من أدوات OpenAI للبحث عن نشاط الوسائط الاجتماعية وإنشاء نصوص باللغات الصينية والإنجليزية واليابانية والكورية التي تم نشرها على منصات مختلفة، بما في ذلك X وMedium وBlogspot.