حرية سقفها السماء

وكالة سرايا الإخبارية

إبحــث في ســــرايا
الأحد ,11 يناير, 2026 م
طباعة
  • المشاهدات: 1944

"لا تصدق عينيك" .. هكذا تكشف الفيديو المزيف على مواقع التواصل

"لا تصدق عينيك" .. هكذا تكشف الفيديو المزيف على مواقع التواصل

"لا تصدق عينيك" ..  هكذا تكشف الفيديو المزيف على مواقع التواصل

11-01-2026 05:15 PM

تعديل حجم الخط:

سرايا - دخل العالم مرحلة حرجة مع تسارع تقنيات الذكاء الاصطناعي التوليدي، حيث بات بالإمكان تصنيع مشاهد واقعية لأشخاص يقولون أو يفعلون ما لم يحدث.

فيما حذر متخصصون من تزييف الواقع مقدمين طرق الحماية.

وفي السياق، أوضح الدكتور محمد محسن رمضان، رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات، أن تحقيقات وتقارير تقنية حديثة حذرت من تصاعد غير مسبوق لاستخدام تقنيات التزييف العميق (Deepfake).

وأوضح في تصريحات لـ "العربية.نت/الحدث.نت" أن هذه التقنيات لم تعد مقتصرة على الترفيه أو التجارب البحثية، بل أصبحت أداة فعالة في التضليل الإعلامي، والابتزاز الرقمي، وتشويه السمعة، والتلاعب بالرأي العام، وصولاً إلى التأثير في الاستقرار المجتمعي والسياسي.

كما أشار إلى تطور تقنيات التزييف العميق، بعدما كانت في مراحلها الأولى، تتطلب خبرات تقنية متقدمة، ووقتاً طويلاً، وقدرات حوسبة عالية، مما حد من استخدامها.

أما اليوم، فقد تغير المشهد جذرياً، وفق ما أكد رمضان، بفضل نماذج الذكاء الاصطناعي التوليدية، "فأصبحت أدوات التزييف متاحة لعامة المستخدمين وسهلة التشغيل، وقادرة على إنتاج محتوى شديد الواقعية خلال دقائق، ما ضاعف خطورته في بيئة إعلامية تعتمد على السرعة أكثر من التحقق أحيانا".

إلى ذلك، كشف رمضان عن عدد من أدوات التحقق الرقمية المتاحة للجمهور، والتي تمثل خط الدفاع الأول أمام المحتوى المولَّد آلياً، وتشمل ما يلي:


1- https://deepfakedetection.io/?utm_source=chatgpt.com

وهي أداة تعتمد على تحليل أنماط الحركة، والبكسلات، والصوت غير المرئية للعين البشرية. تقوم الأداة برفع المحتوى وتحليل بنيته الرقمية لتقديم مؤشر احتمالي لوجود تلاعب، خاصة في مقاطع الفيديو القصيرة المنتشرة على وسائل التواصل.


2- Copy leaks
تستخدم هذه التقنية Copyleaks على نطاق واسع داخل المؤسسات الإعلامية وتعتمد على تحليل البنية الرقمية للصورة ومقارنتها بقواعد بيانات ضخمة لمحتوى مولَّد بالذكاء الاصطناعي، مما يساعد في منع تسلل الصور المفبركة إلى الأخبار العاجلة.

3- Arting AI
يكشف الصور المولّدة، وتبرز فعاليته في كشف الصور التي تبدو مثالية أكثر من اللازم.

كما يرصد تشوهات دقيقة في الخلفيات، وتناقضات في التفاصيل، وبصمات غير مرئية تتركها خوارزميات الذكاء الاصطناعي.

https://arting.ai/ar/ai-image-detector?utm_source=chatgpt.com


4-InVID – WeVerify
وهو متصفح يستخدم بكثافة في غرف الأخبار الاستقصائية عالمياً، ويعمل على تفكيك الفيديو إلى لقطات ثابتة، وإجراء بحث عكسي لكل لقطة لكشف إعادة توظيف مقاطع قديمة في سياقات مضللة.

صورة تعبيرية لفقاعة الذكاء الاصطناعي (صورة منشأة بواسطة الذكاء الاصطناعي)
صورة تعبيرية لفقاعة الذكاء الاصطناعي (صورة منشأة بواسطة الذكاء الاصطناعي)
4.
https://chromewebstore.google.com/detail/fake-news-debunker-by-inv/mhccpoafgdgbhnjfhkcmgknndkeen


نشر الشائعات
من جانبه، أوضح مساعد وزير الداخلية المصري الأسبق، اللواء محمد رجائي، في تصريحاتلـ "العربية.نت" و"الحدث.نت" أن خبراء الأمن السيبراني أشاروا إلى مجموعة من العلامات المتكررة كمؤشرات أولية لاكتشاف التزييف، تشمل هذه العلامات حركة عين غير طبيعية أو غير متزامنة، وصوتاً لا يتوافق مع تعبيرات الوجه، وتشوهات في اليدين أو الأذنين، واختلاف الإضاءة بين الشخص والخلفية، وغياب الظلال الواقعية أو تناقضها. ورغم أهميتها، تبقى هذه المؤشرات غير كافية وحدها دون أدوات تحليل متخصصة.

كما أكد أن خطورة التزييف العميق لا تقتصر على تشويه الأفراد، بل تمتد إلى زعزعة الثقة في وسائل الإعلام، ونشر الشائعات أثناء الأزمات، واستهداف الشخصيات العامة والمؤسسات، وتهديد الاستقرار الاجتماعي والسياسي. وقال:" لهذا، بدأت بعض الدول في تصنيف التزييف العميق كتهديد مباشر للأمن القومي الرقمي، يستوجب تشريعات وأدوات مواجهة متقدمة".

أما للحماية من هذه المخاطر، فنصح رجائي بعدم إعادة نشر أي محتوى صادم قبل التحقق، واستخدام أكثر من أداة كشف وعدم الاكتفاء بأداة واحدة.

كما نصح بعدم الاعتماد على الانطباع البصري أو الإحساس، وتفعيل إعدادات الخصوصية على الحسابات، والاحتفاظ دائماً بالنسخ الأصلية للصور والمقاطع الشخصية.








طباعة
  • المشاهدات: 1944
 
1 -
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
11-01-2026 05:15 PM

سرايا

لا يوجد تعليقات
الاسم : *
البريد الالكتروني :
التعليق : *
رمز التحقق : تحديث الرمز
أكتب الرمز :

إقرأ أيضا

الأكثر مشاهدة خلال اليوم

إقرأ أيـضـاَ

أخبار فنية

رياضـة

منوعات من العالم