الحرية – متابعة أمين الدريوسي:
كشف تقرير دولي جديد عن أزمة ثقة متصاعدة تهدد مصداقية الأخبار الرقمية، وذلك في دراسة دولية أعدها اتحاد الإذاعات الأوروبية بالتعاون مع هيئة الإذاعة البريطانية «BBC» وقد تناولت أداء أربعة من أبرز مساعدي الذكاء الاصطناعي ChatGPT، Copilot، Gemini، وPerplexity، عبر ثلاثة آلاف رد بلغات متعددة، وخلصت إلى نتائج مثيرة للقلق.
وأظهرت الدراسة أن ما يقارب نصف الردود التي قدمتها هذه التطبيقات احتوت على تحريفات أو مشكلات جوهرية، بينما تجاوزت نسبة الردود التي تضمنت شكلاً من أشكال الخطأ أو الالتباس 80%، الأخطاء لم تقتصر على المعلومات، بل امتدت إلى المصادر، حيث تبين أن ثلث الإجابات تعاني من إسناد مفقود أو مضلل، وكانت Gemini من Google الأكثر عرضة لهذه المشكلات، بنسبة بلغت 72%.
اللافت أن بعض التطبيقات قدّمت معلومات غير دقيقة حول قوانين السجائر الإلكترونية أو حتى حول شخصيات عامة، مثل ذكر وفاة البابا فرنسيس رغم كونه على قيد الحياة، هذه الأخطاء، وإن بدت فردية، تعكس خللاً بنيوياً في اًلية توليد المحتوى الإخباري، خاصة مع تزايد اعتماد المستخدمين على الذكاء الاصطناعي كمصدر رئيسي للأخبار، لا سيما بين الفئات الشابة.
الشركات المطورة، مثل OpenAI ومايكروسوفت، أبدت اهتماماً بمعالجة ظاهرة ما سمته «الهلوسة» التي تؤدي إلى إنتاج معلومات غير صحيحة، بينما تدّعي Perplexity أن نمط «البحث العميق» لديها يتمتع بدقة عالية، لكن هذه التصريحات لا تبدد القلق المتزايد لدى المؤسسات الإعلامية، والتي شاركت منها 22 جهة من 18 دولة في هذه الدراسة.
في ظل هذا الواقع، يدعو التقرير إلى مساءلة شركات الذكاء الاصطناعي وتحسين آليات الرد على الاستفسارات الإخبارية، محذراً من أن تراجع الثقة قد يؤدي إلى عزوف جماهيري عن المشاركة الديمقراطية، فحين يفقد الناس القدرة على التمييز بين الحقيقة والرأي، وبين الخبر والتحريف، يصبح الإعلام الرقمي ساحة مشوشة، لا تؤدي وظيفتها في التنوير والمساءلة.
هذه الدراسة لا تهاجم الذكاء الاصطناعي، بل تضعه أمام مسؤولية أخلاقية ومهنية، وتمنح الصحفيين والمحررين فرصة لإعادة تعريف دورهم في عصر الخوارزميات، فهل نكتفي بالمراقبة، أم نعيد صياغة العلاقة بين الإنسان والآلة في إنتاج الحقيقة؟