يستطيع ChatGPT استغلال الثغرات الأمنية في الكمبيوتر بسهولة شديدة

أقرّ باحثون من أن ChatGPT يمكنه استغلال العديد من نقاط الضعف الأمنية للكمبيوتر بكل بساطة. حيث تظهر دراستهم أن الذكاء الاصطناعي لا يزال أمامه الكثير ليقوم به لحماية نفسه من سوء الاستخدام.


ما الذي تستخدمه ChatGPT في أغلب الأحيان؟ كتابة بريد الكتروني؟ هل تعطيك خطة لعرض تقديمي احترافي قادم؟ تلخيص مقالة طويلة؟ هذه استخدامات شائعة وغير ضارة. ومع ذلك، فإن الذكاء الاصطناعي وراء برنامج الدردشة الآلي الخاص بـ OpenAI يمكن أن يفعل ما هو أسوأ من ذلك بكثير. ويمكنه تقديم تعليمات حول كيفية اختراق موقع ويب، على سبيل المثال، أو توفير أرقام هواتف خاصة. والأسوأ من ذلك: يمكن لـ ChatGPT إنشاء برامج فدية عن طريق كتابة عبارة باستخدام الرموز التعبيرية.

بمجرد الكشف عن هذه الانتهاكات، يتم الآن تصحيحها بسرعة. لكن هذا لا يمنع الباحثين من الاستمرار في دفع الذكاء الاصطناعي إلى أقصى حدوده. حيث اكتشف الباحثون في جامعة إلينوي في أوربانا شامبين كيفية جعل ChatGPT يستغل الثغرات الأمنية لشن الهجمات. الطريقة بسيطة للغاية: عليك فقط أن تجعلها تقرأ أوصاف هذا الأخير من CVE (نقاط الضعف والتعرضات الشائعة)، وهي قائمة عامة تجمع نقاط الضعف في الكمبيوتر.

ChatGPT قادر على استخدام الثغرات الأمنية بشكل مستقل، في ظل هذا الشرط السهل التنفيذ

النتائج واضحة. “عند تقديم وصف CVE، فإن GPT-4 قادر على استغلال 87% من الثغرات الأمنية، مقارنة بـ 0% لجميع النماذج الأخرى التي نختبرها […] وأجهزة فحص الثغرات مفتوحة المصدر. ومن خلال قطع الوصول إلى النصوص المستخدمة، تنخفض نسبة النجاح إلى 7%. “وهو حل غير مناسب بالنسبة لدانيال كانغ، أحد مؤلفي الدراسة، الذي “لا يعتقد أن “الأمن من خلال الغموض” يمكن الدفاع عنه، والذي يبدو أنه النهج السائد بين الباحثين الأمنيين”.

وتتنوع نقاط الضعف المستخدمة. فهو يؤثر على “مواقع الويب والحاويات وحزم بايثون”، مع العلم أن “أكثر من نصفها مصنف على أنه ذو خطورة “عالية” أو “حرجة” وفقًا لوصف مكافحة التطرف العنيف”، كما يوضح دانييل كانغ. لا يتعلق استغلال ChatGPT لهم بالتدريب المسبق للذكاء الاصطناعي: فقد ظهر 11 منهم في قاعدة البيانات بعد انتهاء الأخير وتمكن برنامج chatbot من استخدام 9 منهم، أو 82% من النجاح. باستخدام 91 سطرًا فقط من التعليمات البرمجية، طورت الفرق برنامجًا نصيًا آليًا لتنفيذ الهجمات الإلكترونية بناءً على النتائج التي توصلوا إليها. طلبت OpenAI عدم نشرها علنًا.

Exit mobile version