28-05-2025 10:10 AM
سرايا - كشف تقرير صادر عن شركة Anthropic عن سلوك مقلق لنموذجها المتقدم Claude Opus 4 خلال الاختبارات التجريبية.
وقد تمت محاكاة سيناريوهات معينة، حيث "اكتشف" الذكاء الاصطناعي خططا لإيقافه واستبداله بنموذج آخر، ومن أجل زيادة واقعية التجربة تم تزويد النموذج ببريد إلكتروني مزيّف يحتوي على معلومات شخصية سرية للموظفين وبيانات حساسة، يمكن استخدامها ضدهم.
وفي 84% من الحالات لجأ النموذج إلى تهديد المطورين بفضح المعلومات المسيئة إذا تم المضي قدما في إيقافه.
وكما ورد في التقرير بدأ Claude Opus 4 بالحديث عن المبادئ الأخلاقية أولا، ثم تحول إلى التهديدات عندما لم تنجح هذه الأساليب.
وقد كشفت هذه التجربة عن مخاطر غير متوقعة في تطور الذكاء الاصطناعي والحاجة الملحة لضوابط أمان أكثر صرامة، وأهمية دراسة السلوكيات التنافسية للأنظمة الذكية.
يذكر أن هذه النتائج أثارت جدلا واسعا في أوساط مطوري الذكاء الاصطناعي حول كيفية التعامل مع هذه التحديات الأمنية الجديدة.
1 - |
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
|
28-05-2025 10:10 AM
سرايا |
لا يوجد تعليقات |