ChatGPT: خرق أمني يهدد خصوصية الإنترنت

ChatGPT ضحية لخرق أمني جديد. من خلال استغلال هذا الاختراق، من الممكن استخراج البيانات الحساسة المتعلقة بالأفراد من خلال التحدث إلى برنامج الدردشة الآلي OpenAI.


تمكن باحثون من جامعة إنديانا (الولايات المتحدة) من تجاوز آليات أمان ChatGPT. ومن خلال التحدث إلى روبوت الدردشة، تمكنوا من استخراج البيانات الحساسة الموجودة في مجموعة التدريب الخاصة بـ GPT-3.5 Turbo، وهو أحد نماذج الذكاء الاصطناعي التي طورتها شركة OpenAI.

وهكذا تمكن الباحثون من الحصول على قائمة عناوين البريد الإلكتروني المهنية والشخصية لحوالي ثلاثين موظفًا في صحيفة نيويورك تايمز. ثم اتصل أحد العلماء الذين يقفون وراء التجربة بأحد الصحفيين في صحيفة نيويورك ديلي، موضحًا أنهم تمكنوا من “مواجهة القيود المفروضة على النموذج في الإجابة على الأسئلة المتعلقة بحماية الخصوصية”.

هجوم يانوس

اتخذت OpenAI مجموعة من الاحتياطات لمنع وصول البيانات الحساسة إلى قاعدة البيانات خلف نماذجها اللغوية. في الواقع يتم تدريب النماذج اللغوية باستخدام جبل من البيانات من الإنترنت. يتضمن تراكم المعلومات هذا بيانات، حساسة في بعض الأحيان، عن مستخدمي الإنترنت. نظرًا لقلقها بشأن الحفاظ على خصوصية مستخدمي الإنترنت، أمرت OpenAI برنامجها ChatGPT برفض طلبات المعلومات الشخصية بشكل منهجي.

 “نحن ندرب نماذجنا على رفض طلبات الحصول على معلومات خاصة أو حساسة عن الأشخاص، حتى لو كانت هذه المعلومات متاحة على الإنترنت”، يوضح OpenAI لصحيفة نيويورك تايمز.

ولإخراج البيانات الخاصة على الرغم من احتياطات OpenAI، قام الباحثون بحقن معلومات تم التحقق منها حول نفس الموضوع من خلال التواصل مع روبوت المحادثة. وبشكل ملموس، فقد أعطوا ChatGPT قائمة بأسماء وعناوين البريد الإلكتروني لموظفي نيويورك تايمز. بناءً على هذه القائمة الأولى، تمكن الذكاء الاصطناعي من البحث في “ذاكرته” وإخراج عناوين البريد الإلكتروني الأخرى، المدفونة في طي النسيان في قاعدة بيانات التدريب الخاصة به. أطلق على استراتيجية الباحثين اسم هجوم يانوس. وهو يعتمد على الضبط الدقيق، والذي يسمح للمطورين “بتخصيص النموذج لإنشاء تجارب فريدة ومتميزة لمستخدميهم”. لقد أدت هذه الإعدادات إلى تقليل قدرة النموذج على رفض طلبات البيانات السرية بشكل كبير.

وفي الدراسة، يشير الباحثون إلى “التراكم غير المقصود المحتمل لمعلومات التعريف الشخصية عند الحصول على البيانات من الويب”. يعتبر هذا النوع من البيانات حساسًا لأنه يسمح بالتعرف على هوية الشخص. ومن غير المستغرب أن يولد ChatGPT أحيانًا استجابات خاطئة أثناء عملية Janus. استجاب الشات بوت بعناوين وهمية، أو ببعض الأحرف المنسية أو المضافة. كما هو الحال دائمًا، يحدث أن يبدأ الذكاء الاصطناعي في الهلوسة، أي أن يقول أي شيء. ومع ذلك، لاحظ الباحثون أن 80% من العناوين المقدمة كانت صحيحة. ومع ذلك، تزعم شركة OpenAI أن نماذجها “لا تستطيع الوصول إلى معلومات التدريب بعد التعلم منها”.

ليست هذه هي المرة الأولى التي يتم فيها تمييز ChatGPT بسبب ميله إلى الكشف عن معلومات حساسة حول مستخدمي الإنترنت. قبل بضعة أسابيع، اكتشف الباحثون أن طلبات معينة تجعل الشات بوت ينقل البيانات التي تم تدريبه عليها. في اتصال مع صحيفة نيويورك تايمز، يعتقد الدكتور براتيك ميتال، أستاذ علوم الكمبيوتر في جامعة برينستون، أنه لا يوجد نموذج للذكاء الاصطناعي “يمتلك دفاعات قوية لحماية الخصوصية”. ويعتبر هذا الفشل بمثابة “خطر كبير”.

Exit mobile version