الذكاء الاصطناعي والأخبار: حين تصبح التقنية مصدرًا للارتباك
في عصرٍ تهيمن فيه التكنولوجيا على حياتنا اليومية، ومع الانتشار السريع للذكاء الاصطناعي، تتزايد التساؤلات حول مدى موثوقية هذه الأنظمة، خاصةً عندما تُستخدم في تقديم المعلومات والأخبار. أحدث مثال صادم على ذلك، ما ارتكبته ميزة “AI Overview” من شركة غوغل من خطأ جسيم عند عرض معلومات غير دقيقة حول حادث تحطم طائرة تابعة للخطوط الجوية الهندية، حيث ذكرت أن الطائرة كانت من طراز Airbus A330، بينما كانت في الواقع Boeing 787 Dreamliner.
هذا الخطأ، رغم أنه قد يبدو بسيطًا للبعض، إلا أنه يحمل في طياته مخاطر كبيرة، تبدأ بتشويه الحقائق، ولا تنتهي عند فقدان الثقة في مصادر المعلومات.
ما هي ميزة AI Overview؟
قدمت غوغل هذه الميزة كتحديث جديد لمحرك بحثها في عام 2024، وهي تعتمد على تقنيات الذكاء الاصطناعي التوليدي لتوفير إجابات فورية وملخصات سريعة للمستخدمين بناءً على تحليل محتوى الويب.
تم تصميم AI Overview لتوفير الوقت وتقديم إجابات مركزة دون الحاجة إلى التصفح بين الروابط. ورغم أن هذه الميزة تُعتبر خطوة كبيرة نحو مستقبل البحث، إلا أن الاعتماد الكلي عليها قد يكون سلاحًا ذا حدين.
يمكن الاطلاع على مقدمة غوغل حول الميزة عبر موقعها الرسمي:
Introducing AI Overviews in Search
تفاصيل الخطأ الذي أثار الجدل
في أعقاب تحطم طائرة تابعة لـAir India، أدت النتائج التي قدمها AI Overview إلى انتشار معلومة خاطئة عن نوع الطائرة، حيث زعمت أنها من نوع “إيرباص A330”. وفي الحقيقة، أكدت التقارير الرسمية والصحافة الدولية، بما في ذلك BBC News وThe Guardian، أن الطائرة المنكوبة كانت من طراز “بوينغ 787 دريملاينر”.
هذا النوع من الأخطاء يكشف كيف يمكن لخوارزميات الذكاء الاصطناعي أن تربط بين معلومات غير دقيقة بسبب تشابه المفاهيم أو السياقات، فتقدم استنتاجات مضللة.
سابقة أم عادة؟ أخطاء سابقة تضع الميزة تحت المجهر
لم يكن هذا الخطأ الأول. منذ إطلاق AI Overview، تم رصد عدة حوادث مشابهة أثارت الجدل، منها:
ادعاء أن العام الحالي هو 2024 رغم أننا في 2025، وهو ما أثار موجة سخرية على مواقع التواصل.
نصيحة غريبة بوضع الغراء على البيتزا لتحسين نكهتها، وهي كانت مبنية على مشاركة ساخرة من منتدى إلكتروني!
تلك الأخطاء، رغم طرافتها أحيانًا، تُظهر خللًا عميقًا في آلية تحليل وفهم المحتوى من قبل أنظمة الذكاء الاصطناعي.
لماذا يحدث هذا؟
الذكاء الاصطناعي التوليدي لا “يفهم” الواقع كما يفهمه الإنسان، بل يتنبأ بما قد يكون منطقيًا بناءً على نماذج اللغة والبيانات التي تدرب عليها. هذه البيانات قد تتضمن معلومات غير دقيقة أو سياقات مضللة، فيُنتج ما يُعرف بـ”هلوسة الذكاء الاصطناعي” (AI Hallucination) – أي تقديم محتوى يبدو منطقيًا لكنه خاطئ تمامًا.
في حالة الطائرة الهندية، ربما ربطت الخوارزميات بين شركة Air India وبعض الحوادث السابقة التي تورطت فيها طائرات من طراز “إيرباص”، فاستنتجت بشكل خاطئ نوع الطائرة في الحادث الأخير.
رد غوغل: تصحيح فوري أم تساهل؟
عقب انتشار المعلومة الخاطئة، رصد مستخدمون على Reddit الخطأ وقاموا بنشره، مما دفع غوغل لحذفه بسرعة من نتائج البحث. وقد صرّحت الشركة بأنها تعمل على تحسين دقة المعلومات المقدّمة من خلال الميزة، لكن دون أن تطرح خطة واضحة لتجنب هذه الأخطاء مستقبلًا.
رغم هذا التصرف السريع، فإن المسألة تثير مخاوف حقيقية بشأن الرقابة على المعلومات وتقييم المخاطر المرتبطة بنشرها دون تحقق بشري.
آراء الخبراء: إشراف بشري لا غنى عنه
يرى مختصون في التكنولوجيا والإعلام أن الاعتماد المفرط على الذكاء الاصطناعي في تقديم الأخبار يُعد مغامرة خطيرة. فالمستخدم العادي قد لا يملك الخبرة أو الوقت الكافي للتحقق من صحة المعلومات، مما يزيد من احتمالية تضليله.
وفي تقرير نشرته Ars Technica، وصفت الصحيفة التقنية هذا النوع من الأخطاء بأنه “تحذير صارخ” من الاعتماد الكامل على الآلات دون إشراف بشري، خاصة في المواضيع المتعلقة بالكوارث، الحوادث، أو الأمور الصحية.
الأضرار المحتملة: أكثر من مجرد رقم خطأ
تشويه سمعة الشركات: في هذه الحالة، تضررت سمعة شركة “إيرباص” بسبب ربطها الخاطئ بالحادث، رغم أنها غير مسؤولة عنه.
إرباك الرأي العام: المستخدمون غالبًا ما يثقون بما يرونه من غوغل، وعند نشر معلومة خاطئة، يتم تلقّيها كحقيقة.
تآكل الثقة في الذكاء الاصطناعي: كثرة الأخطاء تؤدي إلى فقدان المستخدمين الثقة في الأدوات الذكية، مما يؤثر سلبًا على تقبّلهم للتقنيات الحديثة.
ما الذي يجب فعله لتفادي تكرار ذلك؟
هناك عدة مقترحات يمكن لغوغل وغيرها من الشركات تبنيها لتقليل هذه المخاطر:
تقييد استخدام AI Overview في المواضيع الحساسة، مثل الحوادث والكوارث الطبيعية.
إضافة تحذير صريح مع كل ملخص آلي يشير إلى أن المعلومات قد لا تكون دقيقة 100%.
منح أولوية لعرض المصادر الموثوقة مثل وكالات الأنباء العالمية (مثل رويترز ورويترز بالعربية) تحت كل ملخص.
إشراف بشري دوري، خصوصًا في نتائج البحث الأولى التي قد يثق بها المستخدم دون تحقق.
خلاصة: مستقبل الذكاء الاصطناعي في الإعلام يحتاج توازنًا
خطأ AI Overview الأخير يفتح بابًا واسعًا للنقاش حول مستقبل الذكاء الاصطناعي في مجال الإعلام. فبينما تُعد التكنولوجيا أداة قوية لتسهيل الوصول إلى المعلومات، إلا أن غياب الإشراف البشري والمساءلة قد يحوّلها إلى مصدر خطر على دقة الأخبار ومصداقية المعلومات.
يجب على الشركات التكنولوجية أن تدرك أن ثقة المستخدم لا تُشترى بتحديث تقني فقط، بل تُبنى على الشفافية، التحقق، والاعتراف بالخطأ عند وقوعه.