خبر ⁄تقني

هل يصبح الذكاء الاصطناعي المظلم التهديد الأخطر القادم للأمن السيبراني

هل يصبح الذكاء الاصطناعي المظلم التهديد الأخطر القادم للأمن السيبراني

عند تقاطع الذكاء الاصطناعي والأمن السيبراني، تبرز ساحة معركة جديدة تتسارع فيها وتيرة المخاطر: ما يُعرف بـ«الذكاء الاصطناعي المظلم». فمع ازدياد قوة أدوات الذكاء الاصطناعي وسهولة الوصول إليها، لم تعد هذه التقنيات حكراً على المطورين أو الباحثين، بل أصبحت في متناول مجرمي الإنترنت الذين باتوا يستخدمونها لأتمتة الهجمات، وتوسيع نطاقها، وتخصيصها بدقة غير مسبوقة.

هذا التحوّل كان في صميم تحذيرات خبراء شركة «كاسبرسكي»، خلال مشاركتهم في مؤتمر «Cyber Security Weekend 2025» الذي عُقد مؤخراً في جزيرة بوكيت التايلاندية، حيث ناقشوا مع «الشرق الأوسط» ملامح المرحلة المقبلة من التهديدات السيبرانية المدفوعة بالذكاء الاصطناعي.

أليكسي أنتونوف قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي لدى «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

من الابتكار إلى الاستغلال

لطالما مثّل الذكاء الاصطناعي وعداً بتحولات جذرية في مختلف القطاعات من الرعاية الصحية والتعليم، إلى عالم التمويل والخدمات اللوجستية. لكن كأي أداة قوية، يبقى استخدامه مرهوناً بالنيات: فقد يكون محفزاً للابتكار، أو وسيلة فعالة في أيدي من يسعى للإضرار.

يقول أليكسي أنتونوف، قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي في «كاسبرسكي»، إن المهاجمين المحترفين بدأوا بالفعل تسخير الذكاء الاصطناعي لتعزيز أدواتهم. لكنه يحذر من المرحلة المقبلة: «الخطر الحقيقي سيظهر عندما يتمكن غير المحترفين من استخدام هذه النماذج بسهولة».

ويشاركه الرأي سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي»، موضحاً أن «الذكاء الاصطناعي في الوقت الراهن لا يزال بحاجة إلى تدخل بشري لصياغة برمجيات خبيثة فعالة، لكن هذا الوضع لن يستمر طويلاً».

ويفصّل أنتونوف المشهد التقني الحالي، قائلاً إن النماذج الذكية اليوم يمكنها إنتاج شيفرات خبيثة، لكنها لا تزال تحتاج إلى تعديل يدوي لتجاوز أنظمة الحماية. فيما يؤكد لوجكين أن «الكود» الناتج يحتاج عادة إلى «تصحيح وتحسين بشري ليحقق أهدافه»، إلا أن كلا الخبيرين يتفقان على أن المستقبل القريب سيشهد بروز نماذج قادرة على إنتاج برمجيات خبيثة متقدمة بشكل تلقائي، دون تدخل بشري يُذكر.

سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

ولادة «الذكاء الاصطناعي المظلم»

قدّم كل من أنتونوف ولوجكين مفهوماً مقلقاً لما يُعرف بـ«الذكاء الاصطناعي المظلم»، وهي نماذج لغوية ضخمة يتم تطويرها أو تعديلها على يد مجرمي الإنترنت، بعيداً عن أي قيود أخلاقية أو ضوابط أمنية. يصف أنتونوف هذه النماذج بأنها «صُممت من مجرمين... لمجرمين». أما لوجكين فيُفصّل الأمر بقوله: «إذا حاولت استخدام نموذج ذكاء اصطناعي شرعي لإنشاء برمجية خبيثة، فسيرفض. أما الذكاء الاصطناعي المظلم، فلن يضع أي حدود، وسينفذ كل ما تطلبه من رسائل تصيّد مقنعة إلى نسخ مزيّفة من مواقع إلكترونية شهيرة».

سلاح الذكاء الاصطناعي الحقيقي

ورغم أن التركيز الإعلامي غالباً ما ينصب على القدرات الإبداعية للذكاء الاصطناعي، فإن التهديد الحقيقي يكمن في سرعته وقابليته للتوسع. ففي السابق، كان على المهاجمين إعادة كتابة الشيفرات يدوياً لتجاوز أنظمة الحماية بعد اكتشافها. أما اليوم، فيكفي أن يُدخل المهاجم أمراً بسيطاً مثل «اجعلها غير قابلة للكشف»، ليقوم الذكاء الاصطناعي بالباقي.

يشرح لوجكين أن هذا التطور يُسرّع بشكل كبير من دورات إنتاج البرمجيات الخبيثة، حيث يمكن للذكاء الاصطناعي تعديل البنى البرمجية القائمة وإضافة وظائف جديدة خلال وقت قصير، مع الحاجة إلى تدخل بشري محدود. هذه السرعة تمنح المهاجمين المحترفين وغير المحترفين ميزة واضحة، وتوسّع دائرة التهديد بشكل غير مسبوق.

ويستشهد لوجكين بمجموعة «فانكسيك» (FunkSec) التي ظهرت عام 2024 كنموذج لهذا التحول؛ إذ استخدمت شيفرات مكتوبة بالكامل بالذكاء الاصطناعي، مصحوبة بتعليقات برمجية عالية الجودة، لتنفيذ هجمات فدية مزدوجة. وتميزت هذه المجموعة باتباع نموذج «منخفض الكلفة وعالي الحجم»، معتمدة على أدوات الذكاء الاصطناعي لزيادة الكفاءة وتقليل التكاليف وهو تحول نوعي في أسلوب عمل مجرمي الإنترنت.

تحذر تقارير بأن الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تزداد تعقيداً وسرعةً ما يجعل التصدي لها أكثر صعوبة (شاترستوك)

التحول والتكيف

من بين أبرز المخاوف المتصاعدة، استخدام الذكاء الاصطناعي في تطوير برمجيات خبيثة متحورة قادرة على تغيير شكلها باستمرار لتفادي أنظمة الكشف التقليدية. يوضح لوجكين: «كل عينة جديدة من البرمجية نفسها قد تبدو مختلفة»، مشيراً إلى أن النماذج الذكية أصبحت قادرة على توليد هذه المتغيرات بشكل تلقائي.

وخلال حديثه مع «الشرق الأوسط»، يضيف لوجكين أن المهاجمين بات بإمكانهم كذلك استخدام الذكاء الاصطناعي لتوليد وحدات خبيثة جديدة مثل أدوات تسجيل المفاتيح أو اعتراض الكاميرات بناءً على قوالب برمجية جاهزة، ما يجعل تطوير الهجمات أسرع وأقل تكلفة من أي وقت مضى.

ومع تصاعد هذا التهديد، يؤكد كل من أنتونوف ولوجكين أن المدافعين لا يزالون يملكون الفرصة للتفوق، بشرط تغيير طريقة التعامل مع التهديدات. ويشدد أنتونوف على أن «المدافع لا يحارب الذكاء الاصطناعي نفسه، بل يحارب ناتجه»، مشيراً إلى ضرورة تطوير أدوات استخباراتية ترصد البصمات الرقمية للهجمات، وتحديد مصادر أدوات التصيّد المتقدمة المنتشرة في الشبكات المظلمة.

كلا الخبيرين أشار أيضاً إلى مجموعة «لازاروس» سيئة السمعة كمثال بارز على الجرائم السيبرانية المدعومة بالذكاء الاصطناعي، حيث قامت المجموعة بإنشاء صفحات تصيّد وملفات تعريف مزيفة عبر منصات احترافية باستخدام أدوات توليد المحتوى الذكي. ويرجّح لوجكين، استناداً إلى تقارير غير مؤكدة، أن بعض الشيفرات المستخدمة من قبل المجموعة كُتبت جزئياً عبر نماذج ذكاء اصطناعي متقدمة.

محمد هاشم المدير العام للسعودية والبحرين لدى شركة «كاسبرسكي» (كاسبرسكي)

الشرق الأوسط... ساحة نشطة للتهديدات

تُعد منطقة الشرق الأوسط اليوم إحدى أكثر الساحات حساسية في مشهد التهديدات السيبرانية العالمية، حيث يتقاطع التحول الرقمي المتسارع مع تصاعد الهجمات المدعومة بالذكاء الاصطناعي. ويرى أليكسي أنتونوف أن هذا ليس بالأمر الجديد، إذ لطالما شكّلت المنطقة محور اهتمام استراتيجي للقوى الجيوسياسية، بفضل مكانتها كمركز مالي وتجاري آخذ في التوسع والنمو.

وتُظهر بيانات «كاسبرسكي» أن حدة هجمات الفدية في الشرق الأوسط ارتفعت لتبلغ 0.72في المائة في عام 2025، متجاوزة بذلك أفريقيا وتركيا. ويُعزى هذا الارتفاع إلى تسارع تبنّي التقنيات الرقمية في المنطقة، إلى جانب تفاوت مستويات النضج الأمني السيبراني بين القطاعات والدول. ومع ازدياد استخدام أدوات الذكاء الاصطناعي في تطوير البرمجيات الخبيثة، تصبح هذه التهديدات أكثر خفاءً وفاعلية من ذي قبل.

وفي سياق متصل، يؤكد محمد هاشم، المدير العام لشركة «كاسبرسكي» في السعودية والبحرين، أن المملكة تسير في طليعة الدول التي تستثمر في الذكاء الاصطناعي على مستوى المنطقة. لكنه يحذّر من أن هذه الطفرة التقنية لا تخلو من تحديات أمنية عميقة. ويقول في حديثه مع «الشرق الأوسط»: «السعودية تقود جهود التحول الرقمي في المنطقة باستثمارات ضخمة، لكن لا بد من مواجهة التحديات الأمنية المصاحبة لتقنيات الذكاء الاصطناعي منذ مراحلها الأولى».

ويشدد هاشم على أهمية دمج الأمن السيبراني ضمن دورة حياة تطوير الذكاء الاصطناعي، بدءاً من التصميم وحتى التنفيذ، مؤكداً أن ذلك هو السبيل لضمان الجاهزية المستقبلية. كما يسلّط الضوء على دور مؤسسات وطنية مثل الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) ومكتب إدارة البيانات الوطني في بناء منظومة ذكاء اصطناعي آمنة وقادرة على الصمود. ويضيف أن هذه الجهود تصبح أكثر أهمية في القطاعات الحساسة، مثل المدن الذكية والرعاية الصحية والقطاع المالي، التي تشكّل محاور أساسية في «رؤية السعودية 2030».

تفيد تقارير بأن استخدام الذكاء الاصطناعي يساهم في تسريع تطوير البرمجيات الخبيثة ويقلل الحاجز التقني أمام المهاجمين الأقل خبرة (شاترستوك)

ذكاء اصطناعي ضد ذكاء اصطناعي

يتوقع خبراء «كاسبرسكي» أن يشهد المستقبل القريب تحولاً نوعياً في طبيعة المواجهات الرقمية، حيث تتحول المعركة من «البشر باستخدام الذكاء الاصطناعي» إلى صراع مباشر بين «أنظمة ذكاء اصطناعي» نفسها.

ويرى كل من أنتونوف ولوجكين أن هذه النقلة ليست بعيدة، مشيرين إلى أننا نعيش حالياً مرحلة انتقالية، لكن المؤشرات تدل على أن الذكاء الاصطناعي قد يصبح في وقت قريب اللاعب الوحيد على جانبي الهجوم والدفاع. ويعزّز محمد هاشم هذا الطرح، مؤكداً أن الشراكات العالمية ستكون مفتاحاً لحماية التقدم التقني من مخاطره المحتملة، ويقول: «من الضروري أن يترافق الابتكار في الذكاء الاصطناعي مع حماية سيبرانية بمستوى عالمي. فمواجهة التهديدات الناشئة مثل التزييف العميق والتصيّد المؤتمت تتطلب تنسيقاً دولياً وتبادلاً مستمراً للمعرفة والدفاعات».

من جهة أخرى، بات الذكاء الاصطناعي يشكّل اليوم العنصر المشترك في معظم التهديدات السيبرانية الحديثة من تطوير البرمجيات الخبيثة، إلى تنفيذ حملات تصيّد متقدمة، ووصولاً إلى مراقبة الأفراد عبر الأجهزة المحمولة. ومع ذلك، يُذكّر خبراء «كاسبرسكي» أن الذكاء الاصطناعي لا يزال أداة، وقيمة هذه الأداة تُحدَّد بطريقة استخدامها.

وفي وقت يقف فيه العالم الرقمي أمام مفترق طرق مصيري، لم يعد السؤال المطروح ما إذا كان الذكاء الاصطناعي سيغيّر شكل الصراع السيبراني، بل إلى أي مدى نحن مستعدون لتوجيه هذا التحوّل بدلاً من أن نُفاجَأ به.

aawsat.com