
في وقت يتسارع فيه اعتماد تقنيات الذكاء الاصطناعي داخل بيئات العمل بالمغرب، كشفت دراسة حديثة أنجزتها شركة Kaspersky بشراكة مع معهد Averty عن مفارقة لافتة داخل النسيج المقاولاتي الوطني: توسع سريع في استخدام أدوات الذكاء الاصطناعي مقابل غياب واضح لأطر تنظيمية داخلية تضبط هذا التحول وتحمي المعطيات الحساسة للمؤسسات.
الدراسة تشير إلى أن 75 في المائة من الموظفين يستخدمون أدوات الذكاء الاصطناعي دون وجود سياسات رسمية أو توجيهات داخلية واضحة، فيما يؤكد أكثر من نصف المستجوبين أنهم يعتمدون على هذه التقنيات بمبادرة شخصية، بعيداً عن أي مسار إداري أو رقابي منظم. هذا الواقع يجعل قرارات حساسة مثل تحميل البيانات أو مشاركة الوثائق تتم غالباً على المستوى الفردي، وليس ضمن منظومة مؤسساتية خاضعة للمراقبة.
وتُظهر النتائج أن 84 في المائة من المستخدمين يعتمدون على الذكاء الاصطناعي بشكل متكرر خلال الأسبوع، ما يعكس تحوله من أداة تجريبية إلى جزء ثابت من سير العمل اليومي. وفي كثير من الحالات، يفضل الموظفون منصات عامة مثل ChatGPT وغيرها من النماذج المفتوحة على الحلول الداخلية التي توفرها الشركات، سواء بسبب السرعة أو سهولة الاستخدام أو اعتقادهم بأنها أكثر كفاءة في إنجاز المهام المرتبطة بإعداد المراسلات وصياغة المحتوى وتحليل البيانات الأولية.
غير أن هذه المرونة التشغيلية تحمل في المقابل مخاطر متزايدة، إذ تكشف الدراسة أن 42 في المائة من الموظفين يقومون بتحميل ملفات كاملة، مثل مستندات PDF والعروض التقديمية، إلى منصات خارجية لا تخضع لرقابة مؤسساتهم، ما يعني أن هذه البيانات قد تتم معالجتها أو تخزينها خارج الضوابط المعتمدة لحماية المعلومات.
كما أظهرت النتائج أن 35 في المائة من المستخدمين يدخلون بيانات دقيقة أو مقتطفات من رسائل إلكترونية إلى أدوات الذكاء الاصطناعي، بينما يشارك 19 في المائة منهم معلومات مالية أو مؤشرات أداء حساسة، تشمل أرقاماً مالية ونتائج داخلية ومؤشرات تجارية. ويُنظر إلى هذا السلوك باعتباره مدخلاً مباشراً لمخاطر التسريب أو الاستغلال في هجمات إلكترونية متقدمة، مثل حملات التصيد الموجهة أو بناء استخبارات تنافسية حول الشركات.
ومن بين المؤشرات الأكثر إثارة للقلق، تشير الدراسة إلى أن 91 في المائة من المستخدمين يثقون في مخرجات أدوات الذكاء الاصطناعي، وهي نسبة تعتبرها كاسبرسكي مرتفعة إلى درجة قد تدفع نحو الاعتماد غير المدروس على نتائج غير مدققة، ما قد يؤدي إلى اتخاذ قرارات تشغيلية أو مالية بناءً على معطيات ناقصة أو منحازة أو مولدة آلياً دون تحقق بشري كافٍ.
وتواجه المقاولات الصغيرة والمتوسطة تحديات أكبر في هذا السياق، بسبب ضعف الموارد المالية ونقص الخبرات المتخصصة في الأمن السيبراني، ما يجعلها أقل قدرة على بناء سياسات رقمية قوية أو التحكم في تدفق البيانات داخل منصات الذكاء الاصطناعي. وفي كثير من الحالات، تتطور تطبيقات الذكاء الاصطناعي بوتيرة أسرع من قدرة هذه المقاولات على مواكبة متطلبات الحماية.
وفي مواجهة هذا الوضع، تدعو كاسبرسكي الشركات المغربية إلى التحرك بشكل عاجل نحو وضع ميثاق داخلي واضح لاستخدام الذكاء الاصطناعي، يحدد ما يمكن تحميله أو مشاركته، ومع أي نوع من المنصات، وتحت أي شروط، إلى جانب اعتماد آليات رقابة فعلية على السلوكيات الرقمية للموظفين.
كما يشدد التقرير على ضرورة تعزيز التكوين الداخلي في مجال الأمن السيبراني والأخلاقيات الرقمية، وترسيخ ثقافة مؤسساتية تعتبر أن الثقة في الذكاء الاصطناعي لا تعفي من المراجعة البشرية، وأن حماية البيانات لم تعد مجرد وظيفة تقنية، بل أصبحت جزءاً من استراتيجية استمرارية الأعمال وحماية القيمة داخل المؤسسة.






