تحث مجموعة ألفابت، الشركة الأم لشركة جوجل، موظفيها على توخي اليقظة عند استخدام برامج الدردشة مثل ChatGPT-4 وحتى Bard. خوفًا من مشاركة الذكاء الاصطناعي لبيانتهم السرية.
مثل الغالبية العظمى من الشركات التي تم إطلاقها في سباق الذكاء الاصطناعي، تريد جوجل المضي قدمًا بحذر. تمامًا مثل Alphabet، علاوة على ذلك، الشركة الأم لعملاق الويب.
وفقًا لتقريرمن شبكة رويترز، تدعو المجموعة موظفيها إلى توخي اليقظة عند استخدام روبوتات الدردشة مثل ChatGPT-4 وحتى Bard، الذكاء الاصطناعي للمحادثة من جوجل. وبشكل أكثر تحديدًا، تدعو Alphabet المتعاونين معها إلى عدم استخدام المعلومات السرية عند التفاعل مع أنظمة الذكاء الاصطناعي هذه.
تخشى جوجل من تسريبات شات بوت
مخاوف شركة ألفابت مشروعة تمامًا، بمعنى أن أنظمة الذكاء الاصطناعي هذه تستفيد من التعلم الآلي للتحسين بمرور الوقت. في الواقع، لا شيء يمنعهم من إعادة إنتاج ومشاركة البيانات الحساسة التي كانوا سيجمعونها خلال المحادثات السابقة.
بشكل منفصل، أصدرت المجموعة أيضًا تعليمات لمهندسيها بعدم استخدام رمز الكمبيوتر الذي يعتمد عليه Bard مباشرة في chatbot. وتتمثل الفكرة مرة أخرى في تجنب التسريبات المحتملة التي قد تعرض أمن روبوت المحادثة للخطر. لاحظ أن جوجل ليست الشركة الوحيدة التي تحذر الموظفين من استخدام روبوتات الدردشة المتاحة للجمهور. حيث قدم العديد من عمالقة التكنولوجيا مثل سامسونج و أبل و أمازون إجراءات احترازية.
اقرأ أيضًا – GPT-5: إليك كل ما نعرفه عن الذكاء الاصطناعي التالي من ChatGPT
يستخدم العديد من المحترفين روبوتات المحادثة دون القلق بشأن المخاطر
هذه الإجراءات ضرورية، كما أثبتت دراسة نُشرت في يناير 2021 من قبل شبكة التواصل الاجتماعي المحترفة Fishbowl. وفقًا لهذا الاستطلاع الذي شمل 12000 شخص، استخدم 43٪ من المهنيين الذين تم استجوابهم برامج الدردشة العامة كجزء من مهمتهم دون إبلاغ التسلسل الهرمي.
كما نعلم، فإن ChatGPT-4 وأنظمة الذكاء الاصطناعي الأخرى للمحادثة قادرة تمامًا على كتابة رسائل البريد الإلكتروني والمستندات المعقدة بما في ذلك البرامج. لذلك إذا قدموا أنفسهم كأدوات رائعة لتسهيل عمل العديد من المهنيين، فقد يحتوي المحتوى الذي تم إنشاؤه على معلومات خاطئة أو سرية أو محمية.