


مع التوسع السريع في استخدام تقنيات الذكاء الاصطناعي لإنتاج المحتوى العلمي والإخباري، أصبحت مسألة الشفافية والإفصاح عن المحتوى المولّد آلياً قضية محورية في النقاشات التنظيمية والإعلامية. وبينما تسعى الحكومات والمنصات الرقمية إلى حماية المستخدمين من التضليل، تكشف دراسة حديثة عن نتائج قد تكون عكسية لهذه الجهود.
🧠 لماذا تُستخدم علامات المحتوى المولّد بالذكاء الاصطناعي؟
اعتمدت العديد من الجهات سياسات تلزم بوضع إشعارات توضح أن المحتوى تم إنتاجه باستخدام الذكاء الاصطناعي، وذلك بهدف:
- تعزيز الشفافية
- الحد من انتشار المعلومات المضللة
- تمكين المستخدم من تقييم مصدر المحتوى
لكن السؤال الأهم: هل تحقق هذه العلامات الهدف فعلاً؟
📊 نتائج دراسة حديثة: تأثير عكسي غير متوقع
أظهرت دراسة نُشرت في مجلة JCOM المتخصصة في التواصل العلمي أن هذه العلامات قد تؤدي إلى نتائج غير متوقعة، حيث:
- انخفضت ثقة المشاركين بالمعلومات العلمية الصحيحة عند معرفة أنها مولّدة بالذكاء الاصطناعي
- ارتفعت مصداقية المعلومات المضللة عندما كانت تحمل نفس العلامة
وأطلق الباحثون على هذه الظاهرة اسم:
🔄 “تأثير التقاطع بين الحقيقة والزيف”
🧪 كيف أُجريت الدراسة؟
أجرى الباحثان تينج لين ويي تشينج تشانج دراسة تجريبية شملت 433 مشاركاً خلال الفترة من مارس إلى مايو 2024.
تم تقسيم المحتوى إلى أربع فئات:
- معلومات صحيحة مع وسم ذكاء اصطناعي
- معلومات صحيحة بدون وسم
- معلومات مضللة مع وسم
- معلومات مضللة بدون وسم
📱 وتمت صياغة المنشورات بأسلوب مشابه لمنصات التواصل الاجتماعي، باستخدام نموذج GPT-4، ثم طُلب من المشاركين تقييم مصداقية كل منشور.
⚠️ “هلوسة الذكاء الاصطناعي” والمخاطر المحتملة
رغم الفوائد الكبيرة للذكاء الاصطناعي في تبسيط العلوم ونشر المعرفة، إلا أنه قد ينتج:
- معلومات غير دقيقة تبدو مقنعة
- محتوى مضلل بصياغة علمية يصعب كشفها
وتُعرف هذه الظاهرة باسم:
🧩 هلوسة الذكاء الاصطناعي
🤔 النفور من الخوارزميات وتأثيره على الثقة
كشفت الدراسة أن موقف الأفراد من الذكاء الاصطناعي يلعب دوراً حاسماً في تفسير النتائج.
أبرز ما توصلت إليه:
- الأشخاص المتشككون في الذكاء الاصطناعي يميلون إلى رفض المعلومات الصحيحة إذا كانت مولّدة آلياً
- في المقابل، لا يتم رفض المعلومات المضللة بنفس القوة
- يؤدي ذلك إلى إعادة توزيع الثقة بشكل غير منطقي
ويُعرف هذا السلوك باسم:
⚙️ النفور من الخوارزميات
🏛️ ماذا تعني هذه النتائج لصناع القرار؟
تشير الدراسة إلى أن الاعتماد على الوسم البسيط وحده غير كافٍ لمكافحة التضليل، بل قد يكون مضللاً بحد ذاته.
📌 أبرز التوصيات:
- تطوير نظام وسم مزدوج:
- يوضح أن المحتوى مولّد بالذكاء الاصطناعي
- ويبيّن ما إذا تم التحقق منه بشكل مستقل
- استخدام مستويات تحذير مختلفة حسب نوع المحتوى:
- تحذيرات قوية للمحتوى الطبي والصحي
- تحذيرات أخف للمحتوى الأقل حساسية
🌐 مستقبل تنظيم محتوى الذكاء الاصطناعي
في ظل الاعتماد المتزايد على الذكاء الاصطناعي في إنتاج المعرفة، تؤكد هذه الدراسة أن:
الشفافية وحدها لا تكفي
بل يجب تصميم سياسات ذكية تراعي:
- سلوك المستخدمين
- طريقة تفاعلهم مع التكنولوجيا
- الفروق في تقبل المعلومات
📌 خلاصة
رغم نية حماية المستخدمين، قد تؤدي علامات المحتوى المولّد بالذكاء الاصطناعي إلى نتائج عكسية، عبر تقليل الثقة في المعلومات الصحيحة وتعزيز تصديق المعلومات الخاطئة. لذلك، يتطلب الأمر حلولاً أكثر تطوراً تجمع بين الشفافية والتحقق الذكي من المحتوى.
