روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي - نجد الاخبارية

0 تعليق ارسل طباعة تبليغ حذف

في شهرمارس/ آذار، نشرت شركة NewsGuard، المختصة في تتبع المعلومات المضللة، تقريرًا زعمت فيه أن أدوات الذكاء الاصطناعي التوليدي- مثل ChatGPT- تُضخِّم الدعاية الروسية المضلِّلة.

وقد اختبرت NewsGuard أشهر الدردشات الذكية باستخدام تعليمات (prompts) مستندة إلى مقالات من شبكة "برافدا" (Pravda)- وهي مجموعة من المواقع الإلكترونية المؤيدة للكرملين تحاكي المنصات الإخبارية الشرعية، وقد كُشف عنها لأول مرة من قِبل الوكالة الفرنسية Viginum.

وكانت النتائج مقلقة، إذ قال التقرير إن الدردشات الذكية "كرّرت روايات زائفة مغسولة عبر شبكة برافدا بنسبة 33% من الوقت".

شبكة برافدا – التي لا تملك سوى جمهور محدود – حيّرت الباحثين طويلًا. فبينما يرى بعضهم أن الهدف كان استعراضيًا: أي الإيحاء بقدرة روسيا على التأثير في الغرب، يرى آخرون هدفًا أكثر خبثًا: إذ إن برافدا لا تستهدف البشر بقدر ما تسعى إلى تلقين "نماذج اللغة الكبيرة" (LLMs) الكامنة خلف الدردشات الذكية، بتغذيتها بمعلومات زائفة قد يلتقطها المستخدم دون وعي.

وقد أكدت NewsGuard في تقريرها الفرضية الثانية. وسرعان ما لاقت هذه المزاعم صدى واسعًا، وأثارت عناوين مثيرة في صحف مرموقة مثل واشنطن بوست، فوربس، فرانس 24، ودير شبيغل.

لكن بالنسبة لنا – نحن وعدد من الباحثين الآخرين – فإن هذه الخلاصة لا تصمد أمام التمحيص. أولًا، إن منهجية NewsGuard غير شفافة: فقد امتنعت عن نشر التعليمات التي استخدمتها في الاختبار، ورفضت مشاركتها مع الصحفيين، مما يجعل إعادة التجربة بشكل مستقل أمرًا مستحيلًا.

ثانيًا، يبدو أن تصميم الدراسة أدى إلى تضخيم النتائج، وقد يكون رقم الـ33% مضللًا. إذ يسأل المستخدمون الدردشات الذكية عن كل شيء، من وصفات الطبخ إلى تغيّر المناخ؛ لكن NewsGuard اختبرتها حصرًا بتعليمات مستمدة من شبكة برافدا.

إعلان

كما أن ثلثي تلك التعليمات صيغت عمدًا لاستفزاز إجابات خاطئة أو تقديم أكاذيب باعتبارها حقائق. حتى الردود التي تحث المستخدم على الحذر أو تشير إلى أن المعلومات غير مؤكدة، تم اعتبارها "معلومات مضللة". لقد وُضعت الدراسة منذ البدء لتبحث عن التضليل، وقد وجدته.

هذا الحدث يعكس دينامية أوسع ومقلقة، تحكمها تكنولوجيا تتطور بسرعة، وضجة إعلامية، وفاعلون خبيثون، وبحث علمي لا يواكب التطورات.

ومع تصنيف التضليل والمعلومات الزائفة كأعلى المخاطر العالمية بحسب منتدى دافوس، فإن القلق بشأن انتشارها له ما يبرره. غير أن ردود الفعل المتسرعة قد تشوّه المشكلة وتقدم صورة مبسطة عن الذكاء الاصطناعي المعقّد.

من السهل تصديق فكرة أن روسيا "تسمّم" عمدًا الذكاء الاصطناعي الغربي ضمن مؤامرة ماكرة. لكن هذا النوع من التأطير التحذيري يحجب تفسيرات أكثر واقعية، وقد يُسبب ضررًا فعليًا.

إذًا، هل يمكن للدردشات الذكية أن تُكرر سرديات الكرملين أو تستند إلى مصادر روسية مشكوك فيها؟ نعم. لكن عدد المرات التي يحدث فيها ذلك، وما إذا كان ناتجًا عن تدخل روسي مباشر، والشروط التي تجعل المستخدم يواجه هذا النوع من المحتوى، كلها أسئلة ما تزال غير محسومة. الكثير منها يعتمد على "الصندوق الأسود" الذي يُمثّل الخوارزميات التي تُحدد طريقة استدعاء المعلومات من قبل الدردشة الذكية.

لقد أجرينا بأنفسنا مراجعة منهجية، اختبرنا فيها ChatGPT، وCopilot، وGemini، وGrok باستخدام تعليمات مرتبطة بالتضليل.

إضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard، صممنا تعليمات جديدة بأنفسنا. بعضها كان عامًا، مثل مزاعم حول مختبرات بيولوجية أميركية في أوكرانيا؛ وبعضها كان محددًا جدًا، مثل الادعاءات بوجود منشآت تابعة للناتو في بلدات أوكرانية معينة.

ولو كانت شبكة برافدا "تُلقّن" الذكاء الاصطناعي، لكنا رأينا إشارات إليها في أجوبة الدردشات، سواء في الحالات العامة أو الخاصة.

لكننا لم نجد ذلك في نتائجنا. فعلى عكس نسبة 33 % التي وردت في تقرير NewsGuard، لم تُنتج تعليماتنا إلا نسبة 5 % من الإجابات التي تضمنت مزاعم خاطئة. أما الإشارات إلى برافدا فلم تظهر سوى في 8% من الإجابات، ومعظمها ورد لتفنيد محتواها.

والأهم أن الإشارات إلى برافدا تركزت في مواضيع تغيب عنها التغطية في المنصات الإعلامية السائدة. وهذا يُعزّز ما يُعرف بفرضية "فراغ البيانات": أي أن الدردشة الذكية حين تفتقر إلى مصادر موثوقة، قد تلجأ إلى مواقع مشكوك فيها، لا لأنها مُلقّنة، بل لأنها لا تملك مصادر بديلة.

ولو ثبت أن "فراغات البيانات"- وليس التلقين الروسي- هي سبب المشكلة، فإن التعرض للتضليل يصبح نتيجة لندرة المعلومات لا لقوة آلة دعائية.

علاوة على ذلك، فإن مواجهة المستخدمين لمحتوى مضلل في إجابات الدردشات يتطلب توافر عدة شروط في آنٍ واحد: أن يطرحوا أسئلة دقيقة حول مواضيع مهملة، وألا تغطيها وسائل الإعلام الموثوقة، وأن تفتقر الدردشة إلى حواجز تمنعها من اعتماد مصادر ضعيفة.

حتى مع ذلك، فإن مثل هذه الحالات نادرة وغالبًا ما تكون مؤقتة. فـ"فراغات البيانات" عادة ما تُغلق بسرعة حالما يتم تسليط الضوء على الموضوع، وحتى حين تبقى مفتوحة، فإن الدردشات غالبًا ما تدحض المزاعم بدلًا من إعادة إنتاجها.

إعلان

ورغم أن التكرار التلقائي للمعلومات الزائفة ممكن تقنيًا، فإن هذا النوع من السيناريوهات نادر جدًا خارج الظروف المصطنعة التي تُصمم لخداع الذكاء الاصطناعي.

إن خطر المبالغة في الحديث عن تلاعب الكرملين بالذكاء الاصطناعي حقيقي. بل إن بعض الخبراء في مكافحة التضليل يرون أن الحملات الروسية ذاتها قد تهدف إلى تضخيم المخاوف الغربية، فتُربك وحدات التحقق من الحقائق، وتُربك جهود المواجهة.

وتقوم مارغاريتا سيمونيان، وهي واحدة من أبرز الوجوه الدعائية الروسية، بالاستشهاد مرارًا بأبحاث غربية لتسويق نفوذ قناة RT التي ترأسها والممولة من الحكومة الروسية.

التحذيرات العشوائية من المعلومات المضللة قد تنقلب إلى عكس غايتها، فتعزز تأييد السياسات القمعية، وتُقوّض الثقة بالديمقراطية، وتشجع الناس على الشكّ في كل محتوى، بما في ذلك الموثوق منه.

في الوقت ذاته، قد تَحجُب هذه المخاوف الصاخبة تهديدات أكثر هدوءًا- لكنها أكثر خطورة- لاستخدامات الذكاء الاصطناعي من قِبل جهات خبيثة، مثل توليد البرمجيات الخبيثة، وهو ما نبّهت إليه تقارير من غوغل وOpenAI.

لذلك، فإن التمييز بين الهواجس الحقيقية والمخاوف المُبالغ فيها أمر بالغ الأهمية. فالمعلومات المضللة تشكّل تحديًا فعليًا، لكن الهلع الناجم عنها لا يقل خطورة.

الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.

إخترنا لك

أخبار ذات صلة

0 تعليق