الأربعاء, 19 نوفمبر, 2025 , 2:07 م

​الذكاء الاصطناعي.. الخصم الجديد: هجمات “الوكيل الذاتي” تفرض حرباً إلكترونية جديدة

​خبراء في PAFIX: دعوات لبناء دفاعات مُستقلة لمواجهة تسارع التهديدات المعتمدة على الآلة

الوطن المصري – وفاء الشابوري

​أجمع خبراء الذكاء الاصطناعي والأمن السيبراني على أن العالم يشهد تحولًا جذريًا مع ظهور جيل جديد من الهجمات المعتمدة بالكامل على تقنيات الذكاء الاصطناعي.

وأكدوا أن هذا التصعيد يفرض على المؤسسات إعادة بناء منظوماتها الدفاعية لمواجهة نمط تهديدات أصبحت فيه الآلة خصمًا ومدافعًا في آن واحد. 

جاء ذلك خلال جلسة «الذكاء الاصطناعي ضد الذكاء الاصطناعي» التي أقيمت ضمن فعاليات PAFIX على هامش معرض ومؤتمر Cairo ICT.

​وكشف الخبراء عن أخطر تطور عالمي، مؤكدين أن شركة Anthropic أعلنت عن أول هجوم سيبراني يستند إلى Agentic AI شبه مستقل، استهدف 30 مؤسسة حول العالم. ونُفذت 80–90% من مراحل الهجوم – بما في ذلك الاستطلاع، تحليل الثغرات، تنفيذ الاستغلال (exploits)، التسلل، تثبيت البقاء (persistence)، وتهريب البيانات (exfiltration) – دون تدخل بشري، وذلك لأغراض التجسس السيبراني. هذا التطور يؤكد ضرورة بناء دفاعات جديدة كليًا لمواجهة “الوكيل الذاتي”.

​أدار الجلسة أحمد سعفان، نائب الرئيس للأمن والبحث والتطوير في Cyshield، الذي أوضح أن النقاش ركّز على كيفية توظيف الذكاء الاصطناعي في التنبؤ بالهجمات، وتنفيذ عمليات الصيد الاستباقي، وتحييد التهديدات قبل وقوعها، في ظل تسارع تقني غير مسبوق.

​هجمات أكثر ذكاءً وتخصصًا

​أكد أحمد أشرف، مهندس الحلول في كاسبرسكي (Kaspersky)، أن الذكاء الاصطناعي منح المهاجمين تفوقًا خطيرًا. وأوضح: «أصبحت هجمات الذكاء الاصطناعي تظهر بشكل أكبر ولها صدى أوسع، والآن نرى هجمات تمنح المهاجمين أفضلية تجعل الدفاع أصعب بكثير».

​وأشار إلى أن الذكاء الاصطناعي أحدث تحولًا كبيرًا في مشهد الهجمات؛ إذ تراجعت الأساليب التقليدية لصالح هجمات فائقة التخصيص تعتمد على أدوات متطورة مثل WormGPT وFraudGPT لإنتاج رسائل تصيد احترافية. كما يتم استخدامه لتنفيذ هجمات “الاحتيال عبر البريد الإلكتروني للشركات” (Business Email Compromise) من خلال تحليل أسلوب كتابة المدراء التنفيذيين.

 وكشف أشرف عن تصاعد الاحتيال البنكي باستخدام الهويات الاصطناعية (Synthetic Identity Fraud)، وظهور برمجيات خبيثة ذات سلاسل قتل مستقلة (Autonomous Kill Chain Malware) مثل PromptStealer وPromptFiber وPromptFlux، القادرة على إعادة كتابة شيفرتها والتكيف مع البيئة آليًا دون تدخل بشري.

​وأضاف أن دخول مفهوم “الوكيل الذاتي المعتمِد على الذكاء الاصطناعي” (Agentic AI) غيّر قواعد المواجهة بالكامل، حيث أصبح للذكاء الاصطناعي دور فعال في كل مراحل سلسلة الهجوم (Kill Chain)، ما جعل الهجمات أكثر دقة واحترافية. وأشار إلى أن أنظمة الكشف والاستجابة الموسعة (XDR) تعتمد الآن على الذكاء الاصطناعي لتقليل متوسط وقت الكشف (MTTD) ومتوسط وقت الاستجابة (MTTR)، كما تستخدمه أدوات الهندسة العكسية لتبسيط وتحليل الشيفرات الخبيثة.

​مسؤولية المستخدم ومنسوب المخاطر

​وقال أحمد علاء، مدير تريند مايكرو (Trend Micro) مصر: «المهاجم يعتمد دائمًا على المستخدم، ومع انتشار استخدام الموظفين لأدوات الذكاء الاصطناعي أصبحت مساحة الهجوم أكبر». وأوضح أن “تريند مايكرو” تركز على تأمين استخدام الذكاء الاصطناعي داخل المؤسسات، مشددًا على أن المسؤولية القانونية تقع على المستخدم أو المنظمة، وليس على الذكاء الاصطناعي ذاته.

​منظمة جاهزة للذكاء الاصطناعي: الناس – العمليات – التقنية

​أكد إسلام أحمد، مدير المبيعات الإقليمي في Group-IB، أن التحول نحو منظمة جاهزة للذكاء الاصطناعي يبدأ بثلاثة ركائز أساسية هي: الناس، والعمليات، والتقنية.

 وحذر من استخدام الذكاء الاصطناعي دون إطار واضح، موضحاً أن المهاجمين يستغلون البيانات المسربة على الـ Dark Web في تنفيذ هجمات احتيال دقيقة. ودعا إلى الانتقال من “الحماية التقليدية” (Traditional Stack) إلى “الحماية المعتمدة على الذكاء” (Intelligence-Based Stack)، خصوصاً في القطاع البنكي حيث يستطيع الذكاء الاصطناعي كشف الأنماط الاحتيالية عبر تقييم المخاطر.

اترك رد

%d