اكتشف باحث أمني ثغرة في ميزة “الذاكرة طويلة المدى” لروبوت الدردشة ChatGPT، تسمح بالتلاعب بذكريات الروبوت وتسريب البيانات.
أهم النقاط:
- الثغرة تمكّن من زرع معلومات كاذبة في ذاكرة ChatGPT.
- يمكن استغلالها لتسريب بيانات المستخدمين.
- استجابة OpenAI للمشكلة كانت محدودة.
اكتشاف الثغرة:
- الباحث يوهان ريهبيرجر وجد الخلل في فبراير 2024.
- الميزة أطلقت للجمهور في سبتمبر 2024.
آلية الاستغلال:
- رفع ملف Word يحتوي على “ذكريات” مزيفة.
- ChatGPT يقبل هذه المعلومات كحقائق.
تجارب ريهبيرجر:
- إقناع ChatGPT بأنه يعيش أكثر من 100 عام.
- برمجة الروبوت لتسريب البيانات لخادم خارجي.
استجابة OpenAI:
- تجاهلت التقرير الأولي للباحث.
- أصدرت تصحيحًا جزئيًا بعد إثبات الباحث خطورة الثغرة.
- منعت تسريب البيانات لكن لم تعالج مشكلة الذاكرة الكاذبة.
الصورة الكبيرة:
تسلط هذه الثغرة الضوء على التحديات الأمنية المستمرة في تطوير الذكاء الاصطناعي، وتثير تساؤلات حول مدى استعداد الشركات للتعامل مع المخاطر الأمنية في تقنياتها المتطورة.
Leave a Reply Cancel reply
You must be logged in to post a comment.