
تخيل أن تسأل روبوت دردشة عن نفسك، وبدلاً من تقديم إجابة دقيقة، يزعم أنه تم إدانتك بجريمة لم ترتكبها على الإطلاق. هذا ما حدث بالفعل لأرفي يالمار هولمن، رجل نرويجي تعرض لاتهام خطير كاذب بسبب “هلوسة” في نظام الذكاء الاصطناعي.
عندما سأل أرفي شات جي بي تي عن نفسه، كانت الإجابة مذهلة وغير حقيقية تمامًا. زعم النظام أن أرفي كان مدانًا بقتل طفليه في عام 2020، وأنه حاول قتل ابنه الثالث وحكم عليه بالسجن لمدة 21 عامًا. هذه المعلومات الكاذبة دفعته إلى تقديم شكوى ضد شركة أوبن إيه آي، مشيرًا إلى انتهاكات واضحة لقوانين حماية البيانات الأوروبية.
لكن هذه ليست الحالة الوحيدة التي فشل فيها الذكاء الاصطناعي في تقديم إجابات دقيقة. تكررت مثل هذه الحوادث مع شركات تقنية كبرى مثل “أبل”، التي اضطرت إلى تعليق خدمة إشعارات الأخبار المولدة بالذكاء الاصطناعي بعد نشر معلومات غير صحيحة. كما استخدم محامون أمريكيون بيانات وهمية أنتجها الذكاء الاصطناعي في قضية قضائية، مما أدى إلى فرض غرامة مالية عليهم.
كل هذه الحالات تندرج تحت مصطلح جديد يعرف بـ “هلاوس الذكاء الاصطناعي” أو “AI Hallucinations”. لكن ما هي هذه الهلاوس؟ لماذا تحدث؟ وهل يمكننا تجنبها؟
ما هي هلاوس الذكاء الاصطناعي؟
وفقاً للبروفيسور توماس نوفوتني، مدير مجموعة أبحاث الذكاء الاصطناعي بجامعة ساسِكس البريطانية، فإن “هلاوس الذكاء الاصطناعي” تشير إلى إنتاج نظم الذكاء الاصطناعي لمخرجات لا تستند إلى الواقع الفعلي.
على الرغم من شيوع استخدام مصطلح “هلاوس”، إلا أن الخبراء يفضلون استخدام كلمة “اختلاقات” لأنها تعكس الطبيعة غير الواعية لهذه الأخطاء. وتظهر هذه الاختلاقات في جميع أنواع نظم الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية الكبيرة ومولدات الصور.
أشكال الهلاوس في الذكاء الاصطناعي
تتخذ اختلاقات الذكاء الاصطناعي أشكالًا متعددة، منها:
- هلاوس واقعية:
تقديم معلومات خاطئة، مثل القول بأن “داروين” هو الذي اكتشف نظرية النسبية بينما الحقيقة أن “أينشتاين” هو صاحب النظرية. - هلاوس الاستشهادات والمصادر:
تقديم مراجع وهمية أو مصادر غير موجودة لدعم مزاعم معينة. - هلاوس سياقية:
سوء تفسير السياق أو إنتاج تفاصيل غير صحيحة بناءً على البيانات المقدمة. - هلاوس بصرية:
توليد صور غير واقعية، مثل شخص بثلاث أرجل أو مناظر طبيعية مشوهة. - هلاوس منطقية:
تقديم إجابات غير منطقية، مثل القول إن “المربع يمكن أن يكون له خمسة أضلاع”. - هلاوس ناتجة عن التحيز:
تعزيز الصور النمطية أو الانحيازات الموجودة في بيانات التدريب.
أسباب حدوث الهلاوس
توضح كيفية عمل نظم الذكاء الاصطناعي التوليدي جزءًا كبيرًا من المشكلة. تقول الخبيرة محمد الجندي، خبير الذكاء الاصطناعي في سان فرانسيسكو:
“هذه النظم تعمل من خلال التنبؤ بالأمور بناءً على الأنماط الموجودة في بيانات التدريب. ومع ذلك، إذا كانت البيانات غير دقيقة أو غير شاملة، فقد يؤدي ذلك إلى إنتاج معلومات غير صحيحة.”
علاوة على ذلك، قد تتعرض النظم لهجمات سيبرانية تعرف بـ “هجمات حقن الأوامر”، حيث يتم إدخال بيانات مضللة لإجبار الروبوتات على إنتاج محتوى غير صحيح.
لماذا يبدو حل المشكلة صعبًا؟
يعمل الذكاء الاصطناعي بطريقة تشبه “الصندوق الأسود”، حيث تكون عمليات اتخاذ القرار غير شفافة. يقول البروفيسور نوفوتني:
“إزالة الهلاوس تمامًا يتطلب نهجًا جديدًا في تصميم النظم أو تطوير أدوات مستقلة لتدقيق الحقائق.”
بينما تتوفر بعض الحلول التقنية مثل التوليد المعزز بالاسترجاع (RAG) والتعلم المعزز بملاحظات البشر (RLHF)، إلا أن تحقيق تقدم جذري يحتاج إلى تطورات كبيرة في البنية الأساسية للذكاء الاصطناعي.
كيف يمكن اكتشاف الهلاوس وتخفيف أضرارها؟
للحد من تأثير الهلاوس، يوصي الخبراء باتباع الخطوات التالية:
- استخدام بيانات تدريب عالية الجودة:
يجب أن تكون البيانات المستخدمة لتدريب النظم متنوعة وشاملة. - الاعتماد على الإشراف البشري:
مراجعة النتائج وإجراء التعديلات اللازمة. - اختبار النظام باستمرار:
ضمان تحديث النظم وتحسين أدائها بشكل دوري. - تطوير أدوات تدقيق الحقائق:
كما تفعل شركة Kolena، التي تدمج فحوصات الجودة مباشرة في منصاتها.
الخلاصة: هل يمكن الوثوق بالذكاء الاصطناعي؟
رغم التحديات، يظل الذكاء الاصطناعي أداة قوية عندما يتم استخدامه بحذر. بالنسبة للأفراد، ينصح الخبراء دائمًا بمراجعة المصادر الموثوقة والتحقق من المعلومات قبل الاعتماد عليها.
حتى يتمكن العلماء من تطوير حلول جذرية لتقليل الهلاوس، يجب علينا جميعًا أن نتعامل مع الذكاء الاصطناعي بعقلية نقدية. فقط بهذه الطريقة يمكننا ضمان أن يظل الذكاء الاصطناعي أداة مفيدة بدلاً من أن يصبح مصدرًا للمشكلات.

تعليق واحد
موفق