لم تعد الكاميرات دليلًا على الحقيقة. في زمن الذكاء الاصطناعي، يمكن لفيديو لا يتجاوز عشر ثوانٍ أن يغيّر قناعات ملايين الأشخاص، قبل أن يتبين أنه لم يُصوَّر أصلًا.
من لقطات الحيوانات “الطريفة” إلى مشاهد الحروب والخطابات السياسية، تنتشر فيديوهات الذكاء الاصطناعي بوتيرة متسارعة على الشبكات الاجتماعية. ومع كل تطور تقني جديد، تتراجع قدرتنا على التمييز بين ما هو واقعي وما هو مصنوع رقمياً.
جودة فيديوهات الذكاء الاصطناعي تبدو سيئة “عمداً”
بحسب الباحث هاني فريد، أستاذ علوم الحاسوب في جامعة كاليفورنيا – بيركلي. فإن “أول ما يلفت الانتباه هو الجودة المنخفضة بصورة متعمّدة”.
يقول فريد إن المقاطع المزيفة “تبدو كما لو أنها صُوّرت بكاميرا مراقبة أو هاتف قديم. لأن التشويش والضبابية يُخفيان الأخطاء البصرية التي تكشف التزييف”.
ويضيف أن منتجي المحتوى الزائف “يعرفون أن الدقة العالية تفضحهم. لذا يخفضون جودة الفيديو عمدًا، ويضيفون طبقة ضغط رقمي لتشويش التفاصيل الدقيقة”.
ومع أن هذه الحيلة تبدو بسيطة، فإنها فعّالة للغاية. إذ يكفي القليل من الضباب الرقمي لإخفاء التناقضات في حركة اليدين أو ملامح الوجه أو تفاعل الضوء مع الأجسام.
قِصر المقطع… ليس صدفة
تتميّز معظم مقاطع الذكاء الاصطناعي بكونها قصيرة جدًا — بين 6 و10 ثوانٍ في الغالب.
السبب، وفق فريد، هو أن “إنتاج مقاطع طويلة مكلف تقنيًا ويزيد احتمال ارتكاب النموذج للأخطاء”. لذلك، يعمد المولّدون إلى دمج عدة مشاهد قصيرة في تسلسل واحد، مما ينتج عنه “قطوع” زمنية خفيفة يلاحظها المتمرّسون في المونتاج.
وبحسب تحليلات مختبر الوسائط المتعددة في جامعة دريكسل الأميركية، فإن طول الفيديو يمكن أن يكون “أسرع مؤشر” على أنه مولَّد، قبل حتى ملاحظة التفاصيل البصرية.
تفاصيل صغيرة… لكنها فاضحة
حتى أكثر النماذج تطورًا مثل “Veo” من غوغل أو “Sora” من أوبن إيه آي، لا تزال تُظهر خللاً في التفاصيل الدقيقة:
بشرة ملساء على نحو غير طبيعي، شعر يتحرك ضد اتجاه الريح، أو ظلال لا تتطابق مع مصدر الضوء.
وعندما تكون الصورة عالية الوضوح، يصبح اكتشاف هذه التفاصيل ممكنًا. أما في المقاطع ذات الجودة المنخفضة، فتمتزج الأخطاء ضمن الضوضاء البصرية لتبدو “طبيعية”.
الذكاء الاصطناعي يراهن على ضعف أعيننا
يقول ماثيو ستام، رئيس مختبر أمن المعلومات في جامعة دريكسل، إن “الخطر الحقيقي ليس في دقة الفيديو بل في ثقتنا به”.
ويضيف: “في غضون عامين فقط، ستختفي معظم الإشارات المرئية التي نستخدمها اليوم لاكتشاف التزييف. سيصبح الفيديو مثل النص المكتوب: لا يمكن تصديقه إلا إذا عرفنا مصدره”.
ويرى ستام أن التحدي الأكبر في القرن الحادي والعشرين سيكون “استعادة الثقة بالمرئيات”. فالمحتوى البصري لم يعد دليلًا على الحقيقة بل احتمالا لها.
من الصورة إلى المصدر
يؤكد الخبراء أن السبيل الوحيد للتمييز بين الحقيقي والمصنوع هو العودة إلى الأصل الرقمي للمحتوى، أو ما يُعرف بـ“البصمة الرقمية” (Digital Provenance).
فهناك معايير جديدة – مثل Content Credentials / C2PA – تتيح توثيق بيانات المنشأ داخل الصورة أو الفيديو لحظة إنشائه، لتبيان ما إذا كان محتوى كاميرا حقيقية أم توليدًا آليًا.
كما تطور شركات التقنية أنظمة تُرفق “علامات خفية” داخل كل ملف تم إنتاجه بالذكاء الاصطناعي، بحيث يمكن تتبّعه لاحقًا عبر أدوات تحقق مستقلة.
إعادة تعريف الثقة
يرى الباحث في محو الأمية الرقمية مايك كولفيلد أن الحل لا يكمن في مطاردة الخدع، بل في تغيير طريقة التفكير:
“علينا أن نتعامل مع الفيديو كما نتعامل مع النصوص: لا نصدّق ما نراه لمجرد أنه مصوّر، بل نبحث عن مصدره وسياقه”.
ويضيف أن “العين لم تعد صمام أمان، والوعي الرقمي هو خط الدفاع الجديد”.
لم تعد الكاميرا شاهدًا محايدًا. ومع كل تطور في أدوات الذكاء الاصطناعي، تتآكل المسافة بين الخيال والواقع.
لكن في مواجهة هذا الانهيار البصري، يبرز معيار واحد لا يمكن تزييفه: المصدر الموثوق.