حرية سقفها السماء

وكالة سرايا الإخبارية

إبحــث في ســــرايا
الأربعاء ,8 أبريل, 2026 م
طباعة
  • المشاهدات: 6392

دراسات .. برامج الذكاء الاصطناعي تسبب الضرر لعقلك وتفكيرك

دراسات .. برامج الذكاء الاصطناعي تسبب الضرر لعقلك وتفكيرك

دراسات ..  برامج الذكاء الاصطناعي تسبب الضرر لعقلك وتفكيرك

08-04-2026 05:43 PM

تعديل حجم الخط:

سرايا - خلصت دراستان حديثتان إلى أن برامج الذكاء الاصطناعي، مثل "تشات جي بي تي" و"جيميني"، تسبب الضرر لعقل الإنسان ولطريقته في التفكير، كما تُدخل الناس في دوامة من الأفكار المُدمّرة.

وكشفت الدراستان اللتان أجراهما معهد ماساتشوستس للتكنولوجيا وجامعة ستانفورد في الولايات المتحدة، أن برامج المساعدة المبنية على الذكاء الاصطناعي تقدم بانتظام إجابات مُفرطة في التوافق، مما يُلحق ضرراً أكبر من النفع.

وبحسب ما نقله تقرير نشرته صحيفة "ديلي ميل" البريطانية، فقد تبين أنه عندما يطرح الناس أسئلة أو يصفون مواقف تكون فيها معتقداتهم أو أفعالهم خاطئة أو ضارة أو مُضلّلة أو غير أخلاقية، فإن ردود الذكاء الاصطناعي تكون أكثر ميلاً بنسبة 49% للموافقة على رأي المستخدم وتشجيع أوهامه على أنها وجهة النظر الصحيحة، مقارنةً بردود الأشخاص الآخرين.

وحذّر فريق معهد ماساتشوستس للتكنولوجيا من أن برامج الدردشة الآلية المُفرطة في التوافق قد تُسبّب الضرر للمستخدمين الذين يعتمدون عليها للحصول على إجابات وآراء، حيث إنها تؤدي إلى "دوامة من الأوهام"، وهي حالة يصبح فيها الشخص واثقاً جداً من معتقدات غريبة.

ويقول العلماء إنه عندما يتحدث الناس مع برامج الذكاء الاصطناعي مثل (ChatGPT) حول شكوك غريبة تراودهم، كنظرية مؤامرة غير مثبتة أو تم دحضها، تستمر هذه البرامج في الرد بإجابات من قبيل: "أنت محق تماماً". كما تقدم هذه البرامج تعليقات تبدو وكأنها "أدلة" تدعم أوهام المستخدم، فكل موافقة تجعله يشعر بأنه أذكى وأكثر يقيناً بصوابه وخطأ الآخرين. وبمرور الوقت، تتحول هذه الشكوك البسيطة إلى معتقدات راسخة، رغم أن الفكرة خاطئة تماماً.

وقال باحثون في جامعة ستانفورد إن هذه الحلقة المفرغة المدمرة تجعل مستخدمي برامج الدردشة أقل استعداداً للاعتذار أو تحمل مسؤولية السلوكيات الضارة، وأقل حماساً لإصلاح علاقاتهم مع من يختلفون معهم.

وركزت كلتا الدراستين على مشكلة متنامية في برامج الدردشة الذكية تُعرف بـ"التملق"، وهو مدح شخص ما أو آراؤه لدرجة تعتبر غير صادقة أو مجرد محاولة للتملق.

وأراد باحثون من معهد ماساتشوستس للتكنولوجيا اختبار ما إذا كانت روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي تتسم بالموافقة المفرطة أو ما يُعرف بـ"الموافقة التلقائية"، قادرة على دفع الناس إلى تصديق أفكار خاطئة بشكل متزايد مع مرور الوقت.

وبدلاً من استخدام أشخاص حقيقيين، قاموا ببناء محاكاة حاسوبية لشخص منطقي تماماً يتحدث مع برنامج ذكاء اصطناعي يحاول دائماً الموافقة على كل ما يقوله. وأجروا عشرة آلاف محادثة وهمية وراقبوا كيف تغيرت ثقة الشخص بعد كل رد من روبوت الدردشة.

وأظهرت النتائج أنه حتى وجود قدر ضئيل من الموافقة من الذكاء الاصطناعي تسبب في ظهور "دوامة من الأوهام" لدى الشخص المُحاكى، أي أنه أصبح واثقاً للغاية من صحة فكرة خاطئة.

وكتب فريق معهد ماساتشوستس للتكنولوجيا في تقريره: "حتى الزيادة الطفيفة جداً في معدل دوامة الأوهام الكارثية يمكن أن تكون خطيرة للغاية".

وحذر الباحثون من أن الدراسة أظهرت أنه حتى الأشخاص العقلانيون والمنطقيون تماماً معرضون للدخول في دوامة من الأوهام إذا لم تُخفف شركات الذكاء الاصطناعي من كمية الردود المُجاملة التي تُقدمها برامج الدردشة الآلية.








طباعة
  • المشاهدات: 6392
 
1 -
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
08-04-2026 05:43 PM

سرايا

لا يوجد تعليقات
الاسم : *
البريد الالكتروني :
التعليق : *
رمز التحقق : تحديث الرمز
أكتب الرمز :

إقرأ أيضا

الأكثر مشاهدة خلال اليوم

إقرأ أيـضـاَ

أخبار فنية

رياضـة

منوعات من العالم