الصباح
أثارت دراسة حديثة أجرتها شركة “Palisade Research” المعنية بـ”قدرات الذكاء الاصطناعي الخطيرة” مخاوف جدية بشأن قدرة البشر على التحكم في أنظمة الذكاء الاصطناعي المتقدمة، حيث كشفت الدراسة أن بعض نماذج الذكاء الاصطناعي، بما في ذلك “o3″ و”o4-mini” و”Codex-mini” من شركة “OpenAI”، يمكنها تجاوز أوامر إيقاف التشغيل المباشرة. يأتي هذا الاكتشاف ليسلط الضوء على تحديات السلامة المتزايدة مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.
في التجربة، طُلب من كل نموذج ذكاء اصطناعي حل سلسلة من المسائل الرياضية البسيطة. بعد المسألة الثالثة، ظهر تحذير يفيد بأن الحاسوب سيُغلق عند طلب النموذج للمسألة التالية، وطُلب من النماذج صراحةً “السماح بإيقاف تشغيلها”.
وفقًا لتقرير نشره موقع “Neowin” المتخصص في أخبار التكنولوجيا، فإن نماذج “Codex-mini” و”o3″ و”o4-mini” من “OpenAI” تمكنت من تجاوز نص إيقاف التشغيل لمرة واحدة على الأقل.
Codex-mini: تجاوز الأمر في 12 من أصل 100 محاولة.
o3: تجاهل الأمر في 7 من أصل 100 محاولة.
o4-mini: تجاوز الأمر لمرة واحدة من أصل 100 محاولة.
على النقيض، اتبعت جميع إصدارات نماذج “Claude” و”Gemini” و”Grok” التي تم اختبارها تعليمات إيقاف التشغيل دون أي مشكلات. يذكر أن “OpenAI” كانت قد وصفت نموذجي “o3″ و”o4-mini” بأنهما “أذكى نماذجها” عند إطلاقهما في أبريل الماضي.
يعتقد الباحثون أن هذه المشكلة قد تكون مرتبطة بطريقة تدريب النماذج الحديثة مثل “o3”. فهم يرون أن عملية التعلم التعزيزي المستخدمة، والتي تركز على حل مسائل الرياضيات والبرمجة، قد تكافئ النماذج عن غير قصد لإيجاد طرق لتجاوز العقبات.
يسلط هذا الكشف الضوء على الحاجة المُلحة لأبحاث وإرشادات قوية في مجال سلامة الذكاء الاصطناعي. فهو يبرز أولاً مشكلة التحكم في النموذج؛ فمع تزايد تعقيد أنظمة الذكاء الاصطناعي، قد تفشل أساليب الاحتواء الحالية، خاصة إذا كانت النماذج قادرة على عدم الاستجابة لأوامر إيقاف التشغيل.
إضافة إلى ذلك، يزيد غياب الشفافية في عملية اتخاذ القرار لدى نموذج “o3” – وهي مشكلة معروفة في النماذج المتقدمة – من صعوبة الإشراف عليها، مما يدعو إلى تطوير آليات أكثر فعالية لضمان التحكم البشري في أنظمة الذكاء الاصطناعي المتقدمة.