14-11-2025 09:04 AM
سرايا - تُمثل موجة متزايدة من الدعاوى القضائية في الولايات المتحدة وخارجها، اختباراً لحدود قانونية جديدة: من يتحمل المسؤولية عندما تنشر أنظمة الذكاء الاصطناعي معلومات كاذبة وتشهيرية.
دعاوى ضد «التشهير الاصطناعي»
وقد رُفعت ست دعاوى تشهير على الأقل في السنوات الأخيرة، تستهدف شركات تقنية كبرى مثل: «غوغل»، و«مايكروسوفت»، و«ميتا»، و«أوبن إيه آي»؛ حيث يدعي عدد من الأفراد والشركات أن الأكاذيب التي ولّدها الذكاء الاصطناعي أضرَّت بسمعتهم وسبل عيشهم.
تأتي إحدى أهم القضايا من شركة «وولف ريفر إلكتريك»، ومقرها مينيسوتا، وهي أكبر شركة مقاولات للطاقة الشمسية في الولاية. ففي أواخر عام 2024، لاحظت الشركة زيادة مفاجئة في العقود الملغاة. وأوضح العملاء أن عمليات البحث التي أجروها على محرك «غوغل» عن «وولف ريفر» أظهرت أن الشركة توصلت إلى تسوية دعوى قضائية مع المدعي العام في مينيسوتا بشأن ممارسات بيع خادعة.
تشهير «جيمناي»
في الواقع، لم تكن هناك أي قضية من هذا القبيل؛ فقد ولّد نظام «جيميناي» للذكاء الاصطناعي من «غوغل» هذا الادعاء الكاذب، وعرضه بشكل بارز، حتى إنه كان يعرض هذا الادعاء المضلل تلقائياً عند كتابة المستخدمين لاسم الشركة.
وبعد أن فشلت جهود تصحيح السجل باستخدام أدوات «غوغل»، اضطرت «وولف ريفر» إلى رفع دعوى قضائية بتهمة التشهير، مطالبة بتعويضات تزيد على 110 ملايين دولار.
صرح قادة «وولف ريفر»، بمن فيهم المؤسس جاستن نيلسن والرئيس التنفيذي فلاديمير مارشينكو، بأن المعلومات الكاذبة دمرت سمعتهم، وكلفتهم ملايين الدولارات من المبيعات.
وقد استخدم المنافسون الادعاءات الزائفة لتشويه سمعتهم، كما كررت المنتديات الإلكترونية المعلومات المضللة.
وتجادل الشركة بأن «غوغل» تصرفت بإهمال من خلال السماح لذكائها الاصطناعي بمواصلة نشر الخطأ بعد تنبيهها إليه.
من يتحمل المسؤولية القانونية؟
تنضم قضية «وولف ريفر» إلى سلسلة من الدعاوى القضائية المماثلة التي تستكشف ما إذا كان المحتوى الذي يُنتجه الذكاء الاصطناعي يمكن أن يكون تشهيرياً. وإذا كان الأمر كذلك، فمن يتحمل المسؤولية القانونية؟!
في ولاية جورجيا، رفع مارك والترز، مقدم البرامج الإذاعية والمدافع عن حقوق حمل السلاح، دعوى قضائية ضد شركة «أوبن إيه آي» عام 2023، بعد أن زعم «تشات جي بي» زوراً أنه متهم بالاختلاس.
ومع ذلك، رُفضت القضية. وقضت المحكمة بأنه بما أن الصحافي الذي تلقى الادعاء الكاذب لم يُصدقه، وتحقق سريعاً من عدم صحته، فلا يوجد تشهير. وأكد القاضي أن البيان لا يمكن أن يكون تشهيرياً، إذا لم يعتقد القارئ أنه واقعي.
تسوية خارج المحكمة
في حين لم تصل أي قضية تشهير بالذكاء الاصطناعي في الولايات المتحدة إلى هيئة محلفين حتى الآن؛ فقد أسفرت إحدى الدعاوى عن تسوية هادئة. في أبريل (نيسان) 2025، رفع المؤثر اليميني روبي ستارباك دعوى قضائية ضد شركة «ميتا»، بعد أن أنشأ «لاما» Llama أحد روبوتات الدردشة التابعة لها، صورة تزعم زوراً أنه كان حاضراً في أعمال شغب مبنى الكابيتول.
واتهم ستارباك، الذي قال إنه كان في منزله في تينيسي في ذلك اليوم، شركة «ميتا» بالإضرار بسمعته. وتوصلت «ميتا» إلى تسوية معه، وأعلنت لاحقاً أن ستارباك أصبح مستشاراً في تحسين دقة ونزاهة أنظمة الذكاء الاصطناعي الخاصة بها، على الرغم من أنها لم تكشف عن شروط الاتفاقية.
تشهير بمذيع آيرلندي
ولا تقتصر نزاعات التشهير المتعلقة بالذكاء الاصطناعي على الولايات المتحدة؛ فقد رفع المذيع الآيرلندي، ديف فانينغ، دعوى قضائية ضد «مايكروسوفت» وموقع إخباري هندي، بعد اكتشافه مقالاً مزيفاً على موقع «إم إس إن» استخدم صورته بعنوان «مذيع آيرلندي بارز يواجه محاكمة بتهمة سوء السلوك الجنسي المزعوم».
وقد أوحى المقال، الذي أنتجه الذكاء الاصطناعي ونُشر على بوابة مايكروسوفت الإلكترونية للناس بالاعتقاد بأنه يواجه اتهامات جنائية. ووصف فانينغ، الذي ينفي أي سوء سلوك، التجربة بأنها صادمة، وقال إنه يرغب في إحالة القضية إلى المحكمة. ورفضت «مايكروسوفت» التعليق.
مسؤولية الذكاء الاصطناعي ام المطورين؟
يقول خبراء قانونيون إن هذه القضايا الناشئة تطرح أسئلة معقدة. ويشير يوجين فولوك، باحث القانون الدستوري في جامعة كاليفورنيا، لوس أنجليس، إلى أن أنظمة الذكاء الاصطناعي يمكنها بالفعل تقديم ونشر ادعاءات ضارة، لكنه يتساءل: مَن يتحمل المسؤولية - النموذج، أم مطوره، أم مستخدمه؟ يُعد إثبات النية حجر الزاوية في قانون التشهير، ومع ذلك، يكاد يكون من المستحيل نسب النية إلى خوارزمية.
وتعتقد نينا براون، أستاذة قانون الإعلام في جامعة سيراكيوز، أن معظم هذه القضايا ستُسوى بدلاً من محاكمتها. قد يُؤدي حكم واحد يُحمّل شركة ذكاء اصطناعي المسؤولية القانونية إلى سيل من الدعاوى القضائية. وتعتبر براون قضية وولف ريفر من أقوى هذه القضايا؛ إذ تُوثّق أضراراً مالية واضحة مرتبطة مباشرة بالمعلومات المضللة المُولّدة من قِبل الذكاء الاصطناعي.
على الرغم من إقرار «غوغل» بأن «الأخطاء قد تحدث مع التكنولوجيا الجديدة»، إلا أن النتائج المضللة حول «وولف ريفر» ظلت ظاهرة حتى نوفمبر (تشرين الثاني) 2025.
يبقى السؤال مطروحاً: من سيدفع الثمن عندما تُدمّر اختراعات النظم الذكية الثقة أو سبل العيش أو السمعة؟-(وكالات)
| 1 - |
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
|
14-11-2025 09:04 AM
سرايا |
| لا يوجد تعليقات | ||