فضيحة الذكاء الاصطناعي: خدع زوجين ماليزيين بـ فتاة وهمية وفيديو زائف يشبه الحقيقة!
في يونيو 2025، انكشفت فضيحة الذكاء الاصطناعي التي هزت مواقع التواصل الاجتماعي، بعد أن انخدع زوجان مسنان من ماليزيا بفيديو ترويجي لمكان سياحي خيالي. الفيديو، الذي بدا احترافيًا تمامًا، أدى إلى سفر الزوجين مسافة طويلة نحو بلدة نائية ظنًّا أنها موطن لتلفريك فاخر يُعرف باسم “Kuak Skyride”.
لكن عند وصولهما، لم يجدا سوى بلدة هادئة خالية من أي معالم مما شاهداه. تبين لاحقًا أن الفيديو مصنوع بالكامل باستخدام تقنية الذكاء الاصطناعي المتطورة “Veo 3″، وأن الشخصيات والمكان وحتى الموسيقى مصطنعة بالكامل.
أثارت هذه الحادثة جدلًا عالميًا وأعادت النقاش حول مخاطر الفيديوهات الزائفة، خاصة في ظل تطور التكنولوجيا الذي بات يُنتج محتوى شبه حقيقي يصعب تمييزه من قبل المستخدمين العاديين. هذه الحادثة أصبحت نموذجًا حيًا على فضيحة الذكاء الاصطناعي.
خلفيات تقنية Veo 3 وقدراته المتقدمة
أطلقت جوجل عبر شركتها المتخصصة في الذكاء الاصطناعي تقنية “Veo 3″، وهي قادرة على إنتاج مقاطع فيديو متكاملة انطلاقًا من نصوص فقط. يتميز هذا النموذج بقدرته على توليد محتوى بصري عالي الجودة، يحتوي على شخصيات، مشاهد طبيعية، ومؤثرات بصرية دقيقة تجعل الفيديو يبدو حقيقياً تماماً.
“Veo 3” لا يكتفي بإنتاج الصور فقط، بل يدمج فيها حركات بشرية واقعية، وأصوات متزامنة، وعناصر تفاعلية توحي للمشاهد بأنها مسجلة على أرض الواقع. وقد تبيّن أن الفيديو الذي خدع الزوجين استخدم هذه التقنية بشكل كامل، بما في ذلك الفتاة التي قدّمت الفيديو، والمطاعم، والغزلان، وحتى “التلفريك” الذي لم يكن له وجود حقيقي.
هذا المستوى المتطور من الذكاء الاصطناعي أثار قلق المتخصصين، خاصة وأن العلامات المميزة على الفيديوهات – مثل الشعار أو الإشعارات – لا تكون واضحة بما يكفي لتنبيه المتلقي، ما يجعل فضيحة الذكاء الاصطناعي أكثر تعقيداً وتأثيراً.
تفاصيل الحادثة في ماليزيا وأبعادها الواقعية
تبدأ القصة عندما شاهد الزوجان فيديو ترويجي على فيسبوك يظهر فيه موقع سياحي جديد في ماليزيا. الفيديو يحتوي على مشاهد مبهرة، مناظر طبيعية، ومرافق ترفيهية، مما حفز الزوجين على حجز فندق والانطلاق في رحلة لمسافة تجاوزت 370 كيلومترًا.
لكن عند الوصول إلى المنطقة المذكورة في الفيديو، لم يجدا أي أثر للتلفريك أو المرافق الترفيهية المعروضة. استفسرا من موظفي الفندق والمقيمين المحليين، وكانت المفاجأة أن لا أحد يعرف أي شيء عن هذا المكان.
لاحقًا تبين أن “Kuak Skyride” مجرد اسم وهمي لمكان غير موجود أصلًا، وأن الفيديو تم إنتاجه باستخدام الذكاء الاصطناعي، وهو جزء من حملة احتيالية غير معروفة الجهة.
عبر وسائل التواصل، تم تداول الواقعة بشكل واسع، مما دفع السلطات الماليزية إلى إصدار تنبيهات للمواطنين بضرورة التحقق من الفيديوهات السياحية وعدم الوثوق التام بما يُعرض على الإنترنت.
هذا الموقف البسيط كشف للعالم كيف يمكن لفيديو مزيف أن يُسبب خسائر مادية ونفسية، وأعاد تسليط الضوء على فضيحة الذكاء الاصطناعي بشكل واسع.
الإحصائيات والخسائر الناتجة عن Deepfake
تشير أحدث الإحصائيات إلى تزايد كبير في استخدام تقنيات التزييف العميق (Deepfake) في السنوات الأخيرة، خصوصاً في قطاع الإعلام والسياحة.
في عام 2025، ارتفعت نسبة استخدام الفيديوهات المزيّفة في عمليات الاحتيال الإلكتروني بنسبة تجاوزت 2000% مقارنة بثلاث سنوات مضت. وشملت هذه العمليات محتويات سياحية، إعلانات استثمار، وحتى تقارير إخبارية وهمية.
الخسائر الاقتصادية نتيجة هذه العمليات وصلت إلى مليارات الدولارات، وقدرت جهات دولية أن إجمالي الخسائر الناتجة عن الاستخدام السيئ للذكاء الاصطناعي في إنتاج المحتوى المزيف قد تتجاوز 40 مليار دولار خلال السنوات القليلة القادمة.
تُمثل هذه الأرقام إنذارًا للمؤسسات والدول بأن التعامل مع فضيحة الذكاء الاصطناعي لم يعد خيارًا، بل ضرورة، وذلك عبر إنشاء هيئات رقابية وأدوات للكشف والتحقق من المحتوى الرقمي، وتدريب الأفراد على التفريق بين الحقيقي والمصطنع.
الفئات الأكثر عرضة وسيناريوهات الاستهداف
تشير الدراسات إلى أن الفئات الأكبر عمرًا هم الأكثر عرضة للوقوع ضحايا لمحتوى الذكاء الاصطناعي المزيف. هذه الفئات تميل إلى الثقة بالمحتوى المرئي، وقلّما تمتلك أدوات أو معرفة تقنية للتحقق من صحة المعلومات.
من ناحية أخرى، فإن الشباب والمراهقين أيضاً قد يتعرضون للخداع بسبب سرعة تفاعلهم مع المحتوى وميلهم لمشاركة الفيديوهات دون تحقق.
ومن بين أشهر السيناريوهات التي يتم استخدامها لخداع الناس:
- فيديوهات لمواقع سياحية غير موجودة.
- إعلانات عن فرص استثمار وهمية.
- أخبار سياسية أو اقتصادية مختلقة باستخدام شخصيات حقيقية.
- دعايات موجهة لجمع تبرعات مزيفة.
هذه السيناريوهات، التي تُنتج بشكل محترف، تجعل من الصعب اكتشاف الخدعة، وتزيد من خطورة فضيحة الذكاء الاصطناعي على المستهلك الرقمي البسيط.
طرق الحماية والوقاية الحديثة
في ظل تنامي خطر المحتوى الزائف، ظهرت مجموعة من النصائح والإرشادات لتجنب الوقوع في الفخاخ الرقمية، أبرزها:
- التحقق من مصدر الفيديو ومقارنته بمصادر رسمية.
- استخدام أدوات التعرف على المحتوى الصناعي.
- الحذر من الفيديوهات التي لا تحتوي على تفاصيل دقيقة مثل أسماء الشركات أو العناوين الحقيقية.
- قراءة التعليقات والتقييمات المرتبطة بأي محتوى أو مكان.
- مراجعة الأخبار أو الإعلانات الجديدة في المواقع الإخبارية الموثوقة.
- توعية الأهل والأصدقاء، خاصة كبار السن، حول مخاطر المحتوى الاصطناعي.
كل هذه الإجراءات من شأنها أن تقلل من تأثير فضيحة الذكاء الاصطناعي وتُعزز من قوة المستخدم الرقمية في التصدي لأي نوع من أنواع التزييف.
الأطر القانونية والتوصيات السياسية
تسعى بعض الدول إلى وضع تشريعات صارمة للحد من استخدام الذكاء الاصطناعي في إنتاج محتوى مزيف يهدف إلى التضليل أو الاحتيال.
هناك دعوات لإنشاء منصات مستقلة للتدقيق في المحتوى الرقمي، إضافة إلى فرض غرامات على الشركات أو الأفراد الذين يستخدمون هذه التقنيات بشكل مسيء.
في نفس الوقت، يتم تطوير أدوات تقنية تستطيع الكشف التلقائي عن الفيديوهات الزائفة، سواء عبر العلامات الرقمية أو تحليل الصوت والصورة.
في المستقبل القريب، قد يصبح من الإلزامي لكل محتوى منتج بالذكاء الاصطناعي أن يُرفق بعلامة واضحة تُخبر المستخدم بأن الفيديو صُنع آليًا، وهو ما سيساهم في الحد من تأثير فضيحة الذكاء الاصطناعي ويعيد الثقة للمستخدمين.
اقرأ أيضًا: القبض على هندي انتحل صفة سفير.. كيف أدار سفارة وهمية من منزله؟