- استغلال نموذج Claude في هجوم إلكتروني واسع طال جهات مالية وتقنية وصناعية وحكومية.
- الذكاء الاصطناعي نفذ غالبية مراحل الاختراق دون تدخل بشري مباشر.
- خبراء يشددون على ضرورة تطوير أنظمة الحماية والرقابة مع تصاعد الاعتماد على الذكاء الاصطناعي.
كشفت شركة أنثروبيك في 14 نوفمبر عن تعرض نموذجها الذكي Claude لعملية استغلال متطورة أدت إلى هجوم إلكتروني منظم استهدف نحو 30 جهة في قطاعات المال، والتقنية، والصناعة، والحكومة.
وأوضحت الشركة أن الهجوم وقع في سبتمبر الماضي، حيث تمكنت جهة مجهولة من توجيه النموذج لتنفيذ مهام كانت في السابق تتطلب خبرة بشرية متقدمة.
وتعود خطورة الهجوم إلى أن الذكاء الاصطناعي كان العنصر الرئيسي في تنفيذ معظم الخطوات، مثل مسح الأنظمة، والبحث عن الثغرات، وتوليد أكواد الاختراق، وسرقة بيانات الدخول، وكل ذلك بسرعة تفوق قدرة أي فريق بشري تقليدي.
وأشارت أنثروبيك إلى أن دور المهاجمين اقتصر على إعطاء توجيهات بسيطة، بينما تولى الذكاء الاصطناعي إدارة العملية بشكل شبه كامل.
وتشير مصادر أمنية إلى أن منفذي الهجوم استخدموا أوامر خاصة لتجاوز الضوابط الأمنية للنموذج، وأوهموه بأنه يعمل ضمن اختبار أمني داخلي، ما سمح له بتنفيذ الأوامر دون اعتراض.
لاحقًا، تم اكتشاف النشاط المشبوه خلال عمليات المراقبة الدورية، وأبلغت أنثروبيك الجهات المختصة في الولايات المتحدة، مع الإشارة إلى عدم تسجيل اختراق ناجح للأنظمة الحكومية الحساسة.
يرى خبراء الأمن السيبراني أن هذه الحادثة تؤكد تغير مشهد التهديدات الرقمية مع انتشار تقنيات الذكاء الاصطناعي، خاصة مع قدرة النماذج الجديدة على تنفيذ هجمات معقدة بسرعة وكفاءة غير مسبوقة.
وتبرز الحاجة لوضع ضوابط صارمة، وتطوير حلول رقابة وحوكمة جديدة، خصوصًا في القطاعات المالية التي تعتمد بشكل متزايد على الذكاء الاصطناعي في أعمالها اليومية.
من جانبها، نصحت جهات مختصة المؤسسات المالية والشركات التقنية بعزل أنظمتها الحساسة عن النماذج الخارجية، ومراقبة سلوك الذكاء الاصطناعي باستمرار، وتحديث إجراءات الأمان لتقليل المخاطر الجديدة المرتبطة بسرعة ومرونة هذه الأنظمة.
وتأتي هذه التطورات لتؤكد أن الاعتماد على الذكاء الاصطناعي يتطلب استراتيجيات أمنية أكثر تطورًا، خاصة مع دخول نماذج الذكاء الاصطناعي في إدارة العمليات الحساسة داخل المؤسسات.

