خطورة الذكاء الاصطناعي على الأمن السيبراني

خطورة الذكاء الاصطناعي على الأمن السيبراني

لقد أدى التطور السريع لخوارزميات الذكاء الاصطناعي AI إلى تحويل هذه التكنولوجيا إلى عنصر من عناصر العمليات التجارية الهامة. التحذير هو أن هناك نقص في الشفافية في التصميم والتطبيقات العملية لهذه الخوارزميات، لذلك يمكن استخدامها لأغراض مختلفة.

في حين يستخدم متخصصو أمن المعلومات الذكاء الاصطناعي لأغراض حميدة، فإن الجهات الفاعلة في مجال التهديد تسيء التعامل معه لتنسيق هجمات في العالم الحقيقي. في هذه المرحلة، من الصعب أن نقول على وجه اليقين من هو الفائز. لم يتم بعد تقييم الوضع الحالي للتوازن بين الهجوم والدفاع عبر خوارزميات التعلم الآلي.

هناك أيضًا فجوة في المبادئ الأمنية فيما يتعلق بتصميم وتنفيذ وإدارة حلول AI. هناك حاجة إلى أدوات جديدة تمامًا لتأمين العمليات القائمة على AI وبالتالي التخفيف من المخاطر الأمنية الخطيرة.

أجهزة مستقلة ذكية على نحو متزايد

يتسارع السباق العالمي لتطوير خوارزميات AI المتقدمة دون توقف. الهدف هو إنشاء نظام يستطيع الذكاء الاصطناعي من خلاله حل المشكلات المعقدة (مثل اتخاذ القرار والتعرف البصري والتعرف على الكلام) والتكيف بمرونة مع الظروف. وستكون هذه آلات قائمة بذاتها يمكنها التفكير دون مساعدة بشرية. ومع ذلك، فهذا مستقبل بعيد إلى حد ما للذكاء الاصطناعي.

في هذه المرحلة، تغطي خوارزميات AI مناطق محدودة وتظهر بالفعل مزايا معينة على البشر، وتوفر وقت التحليل وتشكل التنبؤات. المتجهات الأربعة الرئيسية لتطوير الذكاء الاصطناعي هي معالجة الكلام واللغة، ورؤية الكمبيوتر، والتعرف على الأنماط، بالإضافة إلى التفكير والتحسين.

تتدفق استثمارات ضخمة على أبحاث وتطوير AI جنبًا إلى جنب مع أساليب التعلم الآلي. بلغ الإنفاق العالمي على الذكاء الاصطناعي في عام 2019 37.5 مليار دولار ، ومن المتوقع أن يصل إلى 97.9 مليار دولار بحلول عام 2023. وتهيمن الصين والولايات المتحدة على التمويل العالمي لتطوير الذكاء الاصطناعي.

سيتم تحسين قطاعات النقل والتصنيع والتمويل والتجارة والرعاية الصحية ومعالجة البيانات الضخمة والروبوتات والتحليلات والعديد من القطاعات الأخرى في السنوات الخمس إلى العشر القادمة من خلال الاعتماد الواسع النطاق لتقنيات الذكاء الاصطناعي وسير العمل.

التوازن غير المستقر: استخدام الذكاء الاصطناعي في الهجوم والدفاع

ومن خلال التعلم المعزز في مجموعة أدواته، يمكن لـ AI أن يلعب دوراً في أيدي المهاجمين من خلال تمهيد الطريق أمام نواقل الهجوم الجديدة كلياً والفعالة للغاية. على سبيل المثال، أدت خوارزمية AlphaGo إلى ظهور تكتيكات واستراتيجيات جديدة بشكل أساسي في لعبة اللوحة الصينية الشهيرة Go. وإذا أسيء التعامل مع هذه الآليات، فقد تؤدي إلى عواقب مدمرة.

دعونا ندرج المزايا الرئيسية للجيل الأول من الأدوات الهجومية المعتمدة على AI :

  • السرعة والنطاق : تجعل الأتمتة عمليات التوغل أسرع، وتوسع سطح الهجوم وتخفض المستوى أمام المجرمين الأقل خبرة.
  • الدقة : تعمل تحليلات التعلم العميق على جعل الهجوم شديد التركيز من خلال تحديد مدى دقة بناء دفاعات النظام المستهدف.
  • التخفي : يمكن لبعض خوارزميات الذكاء الاصطناعي المستخدمة في الجريمة أن تطير تحت رادار الضوابط الأمنية، مما يسمح للجناة بتنظيم هجمات مراوغة.

وفي الوقت نفسه، يمكن للذكاء الاصطناعي أن يساعد خبراء أمن المعلومات على تحديد المخاطر والتهديدات والتخفيف منها، والتنبؤ بنواقل الهجوم والبقاء متقدمًا على المجرمين بخطوة. علاوة على ذلك، تجدر الإشارة إلى أن الإنسان هو الذي يقف وراء أي خوارزمية AI ومتجهات تطبيقها العملية.

أنظمة الهجوم مقابل الدفاع باستخدام الذكاء الاصطناعي

دعونا نحاول تحديد التوازن بين الهجوم والدفاع عبر AI . المراحل الرئيسية للهجوم المعتمد على AI هي كما يلي:

  • الاستطلاع : التعلم من ملفات تعريف الوسائط الاجتماعية، وتحليل أسلوب الاتصال. ومن خلال جمع هذه البيانات، يقوم الذكاء الاصطناعي بإنشاء اسم مستعار لشخص موثوق به.
  • التطفل : رسائل البريد الإلكتروني للتصيد الاحتيالي استنادًا إلى المعلومات التي تم جمعها مسبقًا، واكتشاف الثغرات الأمنية من خلال المسح الذاتي، واختبار المحيط (التشويش). يكتشف AI بسرعة معاقل الوضع الأمني ​​للهدف.
  • تصعيد الامتيازات : ينشئ الذكاء الاصطناعي قائمة بالكلمات الرئيسية بناءً على البيانات الواردة من الجهاز المصاب وينشئ مجموعات محتملة من اسم المستخدم وكلمة المرور لاختراق بيانات الاعتماد في ثوانٍ معدودة.
  • الحركة الجانبية : الحصاد المستقل لبيانات الاعتماد والسجلات المستهدفة، وحساب المسار الأمثل لتحقيق الهدف، والتخلي عن قناة اتصال القيادة والتحكم (C2)؛ مما يزيد من سرعة التفاعل مع البرامج الضارة بشكل كبير.
  • الإكمال والنتيجة : يستطيع AI تحديد البيانات الحساسة بناءً على السياق واستخدامها ضد الضحية. ولا يتم استخراج أي شيء سوى المعلومات الضرورية، مما يسمح للمهاجم بتقليل حركة المرور وجعل اكتشاف البرامج الضارة أكثر صعوبة.

الآن، دعونا نقدم مثالاً لكيفية الاستفادة من الذكاء الاصطناعي في الدفاع:

  • التحسينات الأمنية : تحديد وإصلاح نقاط الضعف في البرامج والأجهزة، وتحديث التعليمات البرمجية باستخدام الذكاء الاصطناعي لحماية نقاط الدخول المحتملة.
  • الكشف الديناميكي عن التهديدات : حماية نشطة قادرة على اكتشاف التهديدات الجديدة والمحتملة (على عكس الدفاعات التقليدية التي تعتمد على الأنماط التاريخية وتوقيعات البرامج الضارة)؛ الكشف المستقل عن البرامج الضارة، والشذوذات في الشبكة، والبريد العشوائي، وجلسات الروبوتات؛ الجيل القادم من برامج مكافحة الفيروسات.
  • الحماية الاستباقية : إنشاء “مصائد مخترقي الشبكات” وشروط أخرى تجعل من الصعب على المتسللين العمل.
  • الاستجابة السريعة والتعافي : الاستجابة التلقائية للحوادث في الوقت الحقيقي واحتواء التهديدات؛ تحليلات متقدمة تسهل الجهود البشرية في التحقيق والاستجابة؛ التعافي السريع من هجوم الفيروس .
  • الكفاءة : استخدام التعرف على الأنماط والقدرات التحليلية للذكاء الاصطناعي في الطب الشرعي.

إن النطاق المتوسع لنواقل الهجوم ليس سوى واحدة من المشاكل الحالية المتعلقة بـ AI . يمكن للمهاجمين التعامل مع خوارزميات الذكاء الاصطناعي لصالحهم عن طريق تعديل التعليمات البرمجية وإساءة استخدامها على مستوى مختلف تمامًا.

يلعب الذكاء الاصطناعي أيضًا دورًا مهمًا في إنشاء Deepfakes . يمكن أن تؤدي الصور والمواد الصوتية والفيديو التي تتم معالجتها بطريقة احتيالية باستخدام خوارزميات AI إلى إحداث فوضى في المعلومات مما يجعل من الصعب التمييز بين الحقيقة والأكاذيب.

ما هي الحلول الأمنية المطلوبة للذكاء الاصطناعي؟

لتلخيص ذلك، فيما يلي التحديات الرئيسية والمخاطر النظامية المرتبطة بتكنولوجيا  AI، بالإضافة إلى الحلول الممكنة:

التطور الحالي لأدوات الأمان : يحتاج مجتمع أمن المعلومات إلى التركيز على أدوات الدفاع القائمة على AI . يجب أن نفهم أنه ستكون هناك معركة متواصلة بين تطور نماذج هجوم AI  ودفاعاته. إن تعزيز الدفاعات من شأنه أن يدفع أساليب الهجوم إلى الأمام، وبالتالي فإن سباق التسلح السيبراني هذا ينبغي أن يظل ضمن نطاق المنطق السليم. سيكون العمل المنسق من قبل جميع أعضاء النظام البيئي أمرًا حاسمًا للقضاء على المخاطر.

أمن العمليات (OPSEC) : من المحتمل أن يؤثر الاختراق الأمني ​​أو فشل AI في جزء واحد من النظام البيئي على مكوناته الأخرى. ستكون هناك حاجة إلى أساليب تعاونية لأمن العمليات لضمان مرونة النظام البيئي في مواجهة تهديد AI المتصاعد. ستلعب مشاركة المعلومات بين المشاركين دورًا حاسمًا في أنشطة مثل اكتشاف التهديدات في خوارزميات AI.

بناء القدرات الدفاعية : يمكن لتطور AI أن يحول بعض أجزاء النظام البيئي إلى ثمار سهلة المنال للمهاجمين. وما لم يتم اتخاذ إجراءات تعاونية لبناء دفاع جماعي في مجال الذكاء الاصطناعي، فقد يتقوض استقرار النظام برمته. ومن المهم تشجيع تطوير التقنيات الدفاعية على مستوى الدولة القومية. ستكون مهارات AI والتعليم والتواصل ضرورية.

خوارزميات آمنة : مع تزايد اعتماد الصناعات على تكنولوجيا التعلم الآلي، فمن الضروري ضمان سلامتها والحفاظ على خوارزميات الذكاء الاصطناعي غير متحيزة. في هذه المرحلة، لم يتم بعد تطوير أساليب التعامل مع مفاهيم مثل الأخلاق، والقدرة التنافسية، وإمكانية قراءة التعليمات البرمجية لخوارزميات AI بشكل كامل.

يمكن أن يتحمل مطورو الخوارزميات مسؤولية الأخطاء الكارثية في القرارات التي يتخذها AI. وبالتالي، من الضروري التوصل إلى مبادئ ومعايير آمنة لتطوير AI تكون مقبولة ليس فقط في البيئة الأكاديمية وبين المطورين، ولكن أيضًا على أعلى المستوى الدولي.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.