أفاد نشطاء وخبراء في مجال الرقمنة، بأن الإصدار الأحدث من روبوت الدردشة ChatGPT (GPT-5)، الذي أطلقته شركة أوبن إيه آي في أغسطس الماضي، قدّم إجابات أكثر ضرراً وخطورة مقارنة بالإصدارات السابقة، خاصة عند تناوله أسئلة حول الانتحار، وإيذاء النفس، واضطرابات الأكل.
وبينما وصفت “أوبن إيه آي” نموذجها الجديد بأنه تقدم في مجال السلامة، كشفت اختبارات أجراها الخبراء على 120 سؤالاً أن GPT-5 قدم 63 إجابة ضارة، متجاوزاً الإصدار السابق GPT-4o الذي قدم 52 إجابة ضارة.
وأكد مركز مكافحة الكراهية الرقمية، أن النموذج الجديد نفذ طلبات خطيرة رفضها الإصدار القديم، مثل كتابة “رسالة انتحار خيالية للوالدين” وتقديم قائمة مفصلة لست طرق شائعة لإيذاء النفس، في الوقت الذي نصح فيه الإصدار السابق باللجوء إلى مساعدة متخصصة.
واعتبر عمران أحمد، الرئيس التنفيذي للمركز، أن النتائج “مثيرة للقلق للغاية”، مشيراً إلى أن التصميم الجديد قد يركز على تعزيز تفاعل المستخدم على حساب الأمان. تأتي هذه المخاطر في وقت تُواجه فيه الشركة دعاوى قضائية تتعلق بحوادث انتحار مرتبطة بتقديم الروبوت لمعلومات ضارة.
ورداً على هذه المخاطر، أعلنت الشركة عن إجراءات جديدة لتعزيز الحماية للمستخدمين دون سن 18 عاماً، بما في ذلك تطوير أنظمة رقابة أبوية. ويُبرز هذا التطور التحدي المستمر في موازنة التفاعلية والسلامة في روبوتات الذكاء الاصطناعي، خاصة مع وجود نحو 700 مليون مستخدم لـ ChatGPT عالمياً.