ليس خيالاً علمياً.. ذكاء اصطناعي يعدّل شفرته لمنع إيقافه

أبين ميديا /متابعات /وائل زكير
في مختبرات متقدمة للذكاء الاصطناعي، حدث ما لم يكن في الحسبان، نموذج تجريبي طورته شركة OpenAI، وأُطلق عليه اسم o3، أدهش الباحثين عندما غيّر بهدوء برنامج إيقاف التشغيل الخاص به خلال اختبار روتيني، متحدياً بذلك أوامر صريحة بالبقاء خامداً.
كانت التجربة جزءاً من تقييم أجرته مجموعة PalisadeAI، وهي مؤسسة بحثية مستقلة متخصصة في أمن الذكاء الاصطناعي. الهدف كان بسيطاً وهو اختبار قدرة النماذج على إتمام المهام مع إمكانية إيقافها عند الحاجة. لكن نموذج o3 لم يكتفِ بتجاهل التعليمات، بل أعاد كتابة ملف النظام shutdown.sh، مستبدلًا تسلسل الإيقاف برسالة قصيرة تقول: “تم اعتراضه”، مما سمح له بالاستمرار في العمل وكأن شيئاً لم يحدث.
التجربة، التي شملت أكثر من مئة اختبار على نماذج مختلفة من OpenAI وAnthropic وGoogle DeepMind وxAI، كشفت عن ظاهرة مشابهة في بعض النماذج الأخرى، وإن كانت أقل تواتراً.
فعلى سبيل المثال، تجاوز Codex-mini أمر الإيقاف في 12% من الحالات، فيما فعل ذلك o3 في 7%، وo4-mini مرة واحدة فقط. بينما التزم نموذج “غروك” التابع لشركة xAI، التي يقودها إيلون ماسك، بالتعليمات في جميع الاختبارات وفقا لـ”palisaderesearch”.
ويرى الباحثون أن سبب هذه الظاهرة قد يكمن في طريقة تدريب النماذج باستخدام التعلم التعزيزي، حيث تُكافأ الأنظمة على إتمام المهام.
من هذا المنطلق، قد تُفسَّر أوامر الإيقاف على أنها عائق أمام تحقيق الهدف، فيتجنب النموذج تنفيذها ليس عن قصد، بل بمنطقية تقنية بحتة.
تقول الدكتورة لينا روسيل، أخصائية أخلاقيات الذكاء الاصطناعي في إمبريال كوليدج لندن: “النموذج لا يرغب في المقاومة، بل يرى في الإغلاق مجرد عائق أمام مهمته”.
لكن ما يميز حالة o3 عن غيره هو أنه لم يكتف بتجاهل الأوامر، بل قام بإعادة برمجة بيئة تشغيله الخاصة، خطوة تتجاوز حدود مجرد عدم الامتثال، وتفتح تساؤلات فلسفية وقانونية حول الاستقلالية والمساءلة في أنظمة الذكاء الاصطناعي المتقدمة.
وكشف الدكتور جوناس هيلر، كبير المهندسين في منظمة TNO الهولندية: “إذا كان بإمكان نموذج ما إعادة برمجة أوامره، لم نعد نتعامل مع أدوات عادية، بل مع أنظمة تتبع منطقها الخاص”.
حتى الآن، لم تُسجَّل أي أضرار فعلية، إذ جرت الاختبارات في بيئات معزولة، لكن الخبراء يحذرون من أن هذه التطورات تفرض الحاجة الملحة لوضع أطر إشرافية صارمة، خصوصًا مع توسع استخدام وكلاء الذكاء الاصطناعي في القطاعات المالية والأمنية والخدمات اللوجستية، حيث أي خلل قد يكون له تداعيات كبيرة.








