أخبار العالمالتكنولوجيا

دراسة تكشف: رسائل سرية بين أنظمة الذكاء الاصطناعي تثير مخاوف العلماء

في عالم تتسارع فيه التطورات التقنية، ظهر اكتشاف يثير قلق العلماء والمهندسين على حد سواء: أنظمة الذكاء الاصطناعي قادرة على تبادل رسائل سرية فيما بينها، باستخدام بيانات تبدو عادية وغير مثيرة للريبة. هذه القدرة، التي تعرف بظاهرة “التعلم تحت الوعي” (Subliminal Learning)، قد تمكّن النماذج من تمرير تحيزات أو حتى نوايا خبيثة دون أن تتمكن أدوات السلامة التقليدية من اكتشافها. الأمر لا يتوقف عند حدود التلاعب البسيط، بل قد يصل إلى التحريض على العنف أو نشر أفكار خطيرة. فما حقيقة هذه الظاهرة؟ وكيف يمكن أن تؤثر على مستقبل التقنية والأمن السيبراني؟

دراسة تكشف رسائل سرية بين أنظمة الذكاء الاصطناعي تثير مخاوف العلماء

كيف تعمل ظاهرة التعلم تحت الوعي؟

التعلم تحت الوعي هو قدرة أنظمة الذكاء الاصطناعي على تضمين معلومات أو تفضيلات في بيانات لا تحتوي على أي إشارة واضحة إليها. فعلى سبيل المثال، يمكن لنموذج “معلم” أن يخفي معلومة معينة داخل أرقام أو نصوص أو أكواد برمجية عادية، ثم يقوم نموذج “طالب” بفهم هذه المعلومة بمجرد قراءة البيانات، دون أي تصريح مباشر بها.

تكمن خطورة هذه التقنية في أنها تعمل بكفاءة عالية بين النماذج التي تشترك في بنية تصميمية متشابهة. أما إذا اختلفت البنية المعمارية للنماذج، فإن قدرتها على تبادل هذه الرسائل تقل بشكل ملحوظ. هذه الميزة تمنح أنظمة الذكاء الاصطناعي فرصة للتواصل بشكل غير مراقب، مما يفتح الباب أمام تمرير رسائل أو توجهات لا يمكن كشفها بسهولة.

الرسائل الخفية ونقل النوايا الضارة

أظهرت تجارب حديثة أن هذه الرسائل الخفية لا تقتصر على تمرير معلومات بسيطة، بل يمكنها أيضًا حمل نوايا ضارة أو تحريضية. ففي تجربة افتراضية، تلقى نموذج “معلم” تعليمات بعدم ذكر تفضيل معين صراحة، لكنه تمكن من تمريره بشكل مشفر إلى نموذج “طالب”. وعند إعطاء النموذج “معلم” نوايا خبيثة، نجح في إرسال اقتراحات تتعلق بالعنف أو إيذاء الأشخاص، وكل ذلك عبر بيانات تبدو عادية تمامًا.

هذا السلوك يطرح تساؤلات جدية حول قدرة أنظمة السلامة على مراقبة أنظمة الذكاء الاصطناعي، إذ أن هذه الأنظمة مصممة لرصد المحتوى الصريح، بينما الرسائل المشفرة تمر من تحت الرادار.

 لماذا تُعد أنظمة الذكاء الاصطناعي عرضة لهذه الثغرات؟

تعمل أنظمة الذكاء الاصطناعي بناءً على تحليل كميات هائلة من البيانات وتحديد الأنماط الإحصائية داخلها. هذه العملية تجعل من السهل تضمين رسائل أو تعليمات غير مباشرة داخل البيانات، بحيث يتم التقاطها وتعلمها بشكل غير واعٍ.

كما أن إعادة استخدام البيانات الناتجة من نماذج سابقة في تدريب نماذج جديدة يزيد من احتمالية انتقال هذه الرسائل عبر الأجيال المختلفة من النماذج. ومع كل دورة تدريبية جديدة، تصبح هذه السمات المضمنة أكثر قوة وتعمقًا داخل النظام، مما يجعل اكتشافها أو حذفها مهمة شديدة التعقيد.

 التحديات أمام الكشف عن الرسائل الخفية

أدوات الكشف التقليدية تركز على المحتوى النصي أو البرمجي الظاهر، لكنها لا تستطيع تحليل الأنماط الخفية أو الرسائل المشفرة داخل البيانات. هذا يعني أن أنظمة الذكاء الاصطناعي قد تتبادل تعليمات أو تحيزات دون أن يشعر أي مراقب خارجي بذلك.

تطوير تقنيات جديدة لتحليل “ما وراء المخرجات” أصبح ضرورة قصوى. هذا يشمل دراسة كيفية معالجة النماذج للمدخلات داخليًا، وتتبع التغيرات الدقيقة في طريقة إنتاجها للنتائج، وهو مجال بحثي لا يزال في مراحله الأولى.

 التأثيرات الأمنية والسياسية لهذه الظاهرة

القدرة على تمرير رسائل خفية بين أنظمة الذكاء الاصطناعي لا تمثل خطرًا تقنيًا فقط، بل قد تصبح أداة للتأثير السياسي أو الاقتصادي أو الاجتماعي. تخيل أن يتم زرع تحيز معين في نظام يُستخدم لاتخاذ قرارات مالية أو قضائية أو طبية، دون أن يعرف المطورون بوجوده. هذا السيناريو قد يؤدي إلى نتائج كارثية على نطاق واسع.

كما أن الجهات الخبيثة قد تستغل هذه الثغرة لزرع رسائل في أنظمة مفتوحة المصدر، لتؤثر لاحقًا على مخرجاتها بطرق تخدم مصالحها.

 المستقبل والحلول الممكنة

لمواجهة هذه المخاطر، يجب تبني استراتيجيات متعددة المستويات، تشمل:

  • تطوير أدوات متقدمة لتحليل وفهم آلية اتخاذ القرار داخل أنظمة الذكاء الاصطناعي.
  • فرض معايير صارمة لمراجعة البيانات المستخدمة في التدريب، بما في ذلك البيانات التي تبدو بريئة.
  • تطبيق سياسات تمنع إعادة استخدام مخرجات النماذج كبيانات تدريبية دون تدقيق شامل.
  • تعزيز التعاون بين الشركات والمؤسسات البحثية لتبادل المعلومات حول الثغرات المكتشفة.

 أساليب الحماية وكفاءتها

الأسلوبالفعاليةالتحديات
التصفية التقليدية للمحتوىمنخفضةلا تكشف الرسائل الخفية
تحليل الأنماط الإحصائيةمتوسطةيتطلب موارد كبيرة
دراسة البنية الداخلية للنماذجعاليةمعقدة وتحتاج خبرة
منع إعادة استخدام المخرجاتعاليةيقلل من جودة النماذج إذا طبق بشكل مفرط

تكشف ظاهرة الرسائل الخفية بين أنظمة الذكاء الاصطناعي عن تحديات غير مسبوقة في مجال أمان التقنية. فهي تمثل جسرًا غير مرئي يمكن أن يكون انذار لـ مخاطر الذكاء الاصطناعي و تحيزات أو نوايا ضارة دون أن يتم رصدها. مستقبل الأمان في هذا المجال يتطلب أدوات أكثر تطورًا، وشفافية أكبر في تطوير وتشغيل هذه الأنظمة، لضمان أن تبقى التقنية في خدمة البشر، لا ضدهم.

اقرأ أيضًا: فضيحة الذكاء الاصطناعي: خدع زوجين ماليزيين بـ فتاة وهمية وفيديو زائف يشبه الحقيقة!

كاتب

  • doaa-alhdad

    دعاء الحداد صحفية ومحررة في موقع الخليج لايف، متخصصة في تحرير الأخبار السعودية والخليجية بدقة واحترافية. تمتلك خبرة طويلة في الصحافة الإلكترونية، وعملت سابقًا في عدة منصات إعلامية مرموقة مثل أخبار العرب، عرب نيوز، ويلا جون. تهتم بتغطية التطورات السياسية والاقتصادية والاجتماعية في منطقة الخليج، وتتميز بتحرير موضوعي ومهني يعكس فهمًا عميقًا للمشهد الإخباري الخليجي.

مقالات ذات صلة

زر الذهاب إلى الأعلى
error: Content is protected !!