17-08-2025 07:21 PM
سرايا - يعتقد كبير علماء الذكاء الاصطناعي في شركة ميتا، يان ليكون، أن هناك حاجة إلى حاجزي وقاية رئيسيين لحماية البشر من الذكاء الاصطناعي.
وقال ليكون مؤخرًا إنه يُمكن صياغة توجيهين للذكاء الاصطناعي لحماية البشر من الأذى المُستقبلي وهما "الخضوع للبشر" و"التعاطف".
ذكاء اصطناعيانتبه لسلوك روبوت الدردشة فقد يدفعك عمدًا لكشف المزيد من معلوماتك الحساسة
وقدّم ليكون هذا الاقتراح عبر منصة لينكدإن ردًا على مقابلة أُجريت مع جيفري هينتون -الذي يُعتبر "عراب الذكاء الاصطناعي"- والتي قال فيها إن هناك حاجة إلى بناء "غرائز الأمومة" أو ما شابه ذلك في الذكاء الاصطناعي، بحسب تقرير لموقع "بيزنس إنسايدر"، اطلعت عليه "العربية Business".
وقال هينتون، في المقابلة، إن الناس يُركزون على جعل الذكاء الاصطناعي "أكثر ذكاءً، لكن الذكاء ليس سوى جزء واحد من الكائن"، مضيفًا: "نحتاج لجعلهم يتعاطفون معنا". واتفق معه ليكون في هذا الأمر.
وذكر ليكون على لينكدإن: "جيف يقترح في الأساس نسخة مبسطة مما كنت أقوله لعدة سنوات: برمجة بنية أنظمة الذكاء الاصطناعي بحيث تكون كل الأفعال التي يمكنها القيام بها موجهة لإتمام الأهداف التي نحددها لها، مع الالتزام بالحواجز الوقائية".
وأضاف: "لقد أطلقت على هذا 'الذكاء الاصطناعي الموجه بالأهداف'".
وبينما قال ليكون إن "الخضوع للبشر" و"التعاطف" يجب أن يكونا حاجزي الوقاية الرئيسيين، أشار إلى أن شركات الذكاء الاصطناعي بحاجة أيضًا إلى تطبيق حواجز وقائية أبسط لضمان السلامة.
واعتبر أن هذه الأهداف و/أو الحواجز الوقائية المبرمجة للذكاء الاصطناعي ستعادل الغرائز أو الدوافع لدى الحيوانات والبشر.
وأضاف أن غريزة حماية الصغار هي شيء يتعلمه البشر والأنواع الأخرى من خلال التطور.
وعلى الرغم من أن الحواجز الوقائية مصممة لضمان عمل الذكاء الاصطناعي بشكل أخلاقي وضمن إرشادات مُطوريه، فقد ظهرت حالات أظهر فيها الذكاء الاصطناعي سلوكًا مخادعًا أو خطيرًا.
1 - |
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
|
17-08-2025 07:21 PM
سرايا |
لا يوجد تعليقات |