
بقلم: حسن خرجوج
خبير في التطوير المعلوماتي
اقترح حزب الاتحاد الاشتراكي، خلال ندوة صحافية، إحداث “هيئة وطنية مستقلة للرقابة الرقمية” من أجل مراقبة استخدام الذكاء الاصطناعي في الانتخابات، مع إشراك اللجنة الوطنية لحماية المعطيات الشخصية، وفتح “منصة وطنية للتمويل الرقمي” لتتبع تدفقات الأموال وتفادي الإشهار السياسي غير المصرح به.
على الورق تبدو الفكرة جيدة… لكن الواقع الرقمي المغربي يقول العكس.
فإذا كنا غير قادرين على ضبط مجرد رسائل SMS spam خلال الحملات الانتخابية (التي لا تحتاج إلى خوارزميات متقدمة ولا AI، فقط قواعد بسيطة anti-spam)، فهل يمكننا حقاً تطوير in-house algorithms للكشف عن deepfake أو AI micro-targeting أو dark ads؟
في الولايات المتحدة وأوروبا، توجد هيئات رسمية تعتمد على تقارير من شركات كبرى مثل Meta وGoogle، التي تمتلك قدرات تقنية هائلة.
فهناك AI detection systems تعتمد على computer vision و forensic watermarking لتمييز المحتوى الحقيقي عن المفبرك، كما توجد Ad transparency tools تكشف قواعد بيانات الحملات الإعلانية (Audience size, targeting parameters, budget).
ومع ذلك، حتى هذه الدول الكبرى لم تستطع بعد السيطرة بشكل فعّال على AI-driven disinformation ولا على bots farms.
بالنسبة للمغرب، فإن المقترح الذي تقدم به الاتحاد الاشتراكي يبدو أقرب إلى “output من ChatGPT”.
فالأحزاب السياسية ما تزال تتعامل مع “الحسابات الوهمية” وكأنها ظاهرة جديدة، في حين أن botnets الانتخابية لها تاريخ طويل منذ انتخابات ترامب سنة 2016.
كما أن غياب ثقافة رقمية حقيقية داخل الأحزاب يجعلها غير مستوعبة لمفاهيم دقيقة مثل psychographic micro-targeting (تحليل الشخصية عبر البيانات) أو algorithmic amplification.
النقاش السياسي ما يزال يدور حول “هل صرّح المترشح باستعمال Canva أو CapCut”، بينما العالم يتحدث عن Generative AI pipelines التي تنتج آلاف الرسائل الشخصية في الدقيقة، و LLM-based bots التي تتفاعل آلياً مع الناخبين.
السؤال المطروح إذن:
هل يمكن فعلاً لهذه “الهيئة الوطنية” أن تمنع ChatGPT أو MidJourney؟… وجود الطموح والأفكار أمر جيد، لكن من دون قدرات تقنية (NLP models, image forensics, anomaly detection systems) ومن دون كفاءات رقمية، سيظل هذا المشروع مجرد ديكور قانوني، في حين أن الواقع يتطلب ما هو أعمق بكثير من مجرد “قانون إطار”.






