
كشف تحقيق أجرته صحيفة الجارديان أن ملخصات جوجل المدعومة بالذكاء الاصطناعي، والمعروفة باسم “AI Overviews”، تُعرّض المستخدمين لمخاطر جمة، بسبب تقديمها لمعلومات صحية خاطئة ومُضللة، تأتي هذه الملخصات، التي تستخدم الذكاء الاصطناعي التوليدي لتقديم نظرة سريعة على المعلومات الأساسية، في الوقت الذي تؤكد فيه جوجل على أنها “مفيدة” و”موثوقة”.
غير أن بعض هذه الملخصات، التي تتصدر نتائج البحث، تضمنت معلومات صحية غير دقيقة بشكل خطير، ففي إحدى الحالات الصادمة، نصحت جوجل مرضى سرطان البنكرياس بتجنب الأطعمة الغنية بالدهون، وهي توصية تخالف الإرشادات الطبية تمامًا، وقد تزيد من خطر وفاة المرضى، كما قدمت الشركة، في مثال آخر مثير للقلق، معلومات مضللة حول اختبارات وظائف الكبد، مما قد يؤدي بمرضى الكبد الحاد إلى الاعتقاد الخاطئ بأنهم بصحة جيدة.
إضافة إلى ذلك، كشفت عمليات البحث عن فحوصات سرطان النساء عن معلومات “خاطئة تمامًا”، مما قد يدفع الأفراد، وفقًا للخبراء، إلى تجاهل أعراض حقيقية وحاسمة، وفي ردها على هذه المزاعم، صرح متحدث باسم جوجل أن العديد من الأمثلة الصحية التي عرضت عليهم كانت “لقطات شاشة غير مكتملة”، مؤكدًا أنهم، بناءً على تقييمهم، وجدوا أن الملخصات أشارت إلى “مصادر معروفة وموثوقة، وتوصي بطلب المشورة من الخبراء”.
مخاوف متزايدة من تضليل المستخدمين
يأتي تحقيق صحيفة الجارديان في ظل تزايد المخاوف من قدرة بيانات الذكاء الاصطناعي على تضليل المستهلكين الذين قد يثقون في موثوقيتها دون تمحيص، ففي نوفمبر الماضي، كشفت دراسة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، عبر منصات متعددة، قدمت نصائح مالية غير دقيقة، بينما أثيرت مخاوف مماثلة بخصوص ملخصات الأخبار.
وفي هذا السياق، صرحت صوفي راندال، مديرة منتدى معلومات المرضى، والمختص بنشر المعلومات الصحية المستندة إلى الأدلة، بأن الأمثلة المعروضة تثبت أن “ملخصات جوجل للذكاء الاصطناعي قد تضع معلومات صحية غير دقيقة في صدارة نتائج البحث عبر الإنترنت، مما يُشكل خطرًا حقيقيًا على صحة الأفراد”.
من جانبها، علّقت ستيفاني باركر، مديرة قسم التسويق الرقمي في مؤسسة ماري كوري الخيرية لرعاية مرضى المراحل الأخيرة، قائلةً: “يلجأ الناس إلى الإنترنت في لحظات القلق والأزمات، وإذا كانت المعلومات التي يتلقونها غير دقيقة أو خارج سياقها، فقد تلحق ضررًا بالغًا بصحتهم”، وقد كشفت صحيفة الجارديان عن عدة حالات لمعلومات صحية مغلوطة في خدمة “نظرة عامة على الذكاء الاصطناعي” من جوجل، وذلك بعد أن أعربت العديد من المنظمات الصحية والجمعيات الخيرية والمتخصصين عن قلقهم البالغ.
وبشأن توصية تجنب الأطعمة الغنية بالدهون لمرضى سرطان البنكرياس، أكدت آنا جويل، مديرة قسم الدعم والبحث والتأثير في مؤسسة سرطان البنكرياس بالمملكة المتحدة، أن هذا الأمر “خاطئ تمامًا”، وأضافت أن تطبيقه “قد يكون خطيرًا للغاية، ويعرّض فرص الشخص في التعافي المناسب لتلقي العلاج للخطر”.
وأوضحت جويل: “تشير استجابة الذكاء الاصطناعي من جوجل إلى تجنب مرضى سرطان البنكرياس للأطعمة الغنية بالدهون، وتوفر قائمة بأمثلة عليها، ومع ذلك، إذا اتبع شخص ما هذه التوصيات، فقد لا يحصل على سعرات حرارية كافية، وسيواجه صعوبة في زيادة وزنه، وقد لا يتمكن من تحمل العلاج الكيميائي أو الجراحة، التي قد تكون منقذة لحياته.”
تحليل معمق لملخصات AI Overviews
بالإضافة إلى ما سبق، كشفت عملية البحث عن عبارة “ما هو المعدل الطبيعي لنتائج تحاليل الدم الخاصة بالكبد؟” عن معلومات مضللة، فقد قدمت الملخصات كمًا هائلاً من الأرقام دون سياق كافٍ، ودون مراعاة عوامل حيوية مثل جنس المريض، أو عرقه، أو عمره، وفي هذا الصدد، أعربت باميلا هيلي، الرئيسة التنفيذية لمؤسسة الكبد البريطانية، عن قلقها الشديد، مشيرةً إلى أن “العديد من مرضى الكبد لا تظهر عليهم الأعراض إلا في المراحل المتأخرة، مما يجعل الفحوصات ضرورية للغاية، لكن ما يعتبره الذكاء الاصطناعي “طبيعيًا” قد يختلف اختلافًا جوهريًا عما هو طبيعي في الواقع”.
وتابعت هيلي: “هذا الأمر خطير، لأنه قد يجعل بعض مرضى الكبد الحاد يعتقدون أن نتائجهم طبيعية، وبالتالي قد يهملون متابعة مواعيد الرعاية الصحية الضرورية”، كما أظهر بحثٌ عن “أعراض سرطان المهبل وفحوصاته” أن فحص مسحة عنق الرحم يُعتبر فحصًا لسرطان المهبل، وهي معلومة غير صحيحة بتاتًا.
وفي تعليقها، قالت أثينا لامنيسوس، الرئيسة التنفيذية لمؤسسة “إيف أبيل” الخيرية لمكافحة السرطان: “هذا الفحص ليس للكشف عن السرطان، وبالتأكيد ليس للكشف عن سرطان المهبل، إنها معلومة خاطئة تمامًا، وقد يؤدي الحصول على مثل هذه المعلومات المضللة إلى عدم خضوع بعض النساء لفحص أعراض سرطان المهبل، حتى لو كانت نتيجة فحص عنق الرحم لديهنّ سليمة”.
وأضافت لامنيسوس: “أثار قلقنا أيضًا تباين ملخص الذكاء الاصطناعي عند إجراء البحث نفسه، حيث يقدم نتائج مختلفة في كل مرة، مستمدًا إياها من مصادر متباينة، وهذا يعني أن المستخدمين يتلقون إجابات متغيرة حسب وقت البحث، وهو أمر غير مقبول إطلاقًا”، وشددت لامنيسوس على قلقها البالغ، قائلةً: “بعض النتائج التي اطلعنا عليها مقلقة للغاية، وقد تعرض النساء للخطر”، ولم يقتصر الأمر على ذلك، فقد وجدت صحيفة الجارديان أن ملخصات الذكاء الاصطناعي من جوجل تُقدم نتائج مضللة لعمليات البحث المتعلقة بالصحة النفسية أيضًا، وفي هذا الشأن، صرح ستيفن باكلي، رئيس قسم المعلومات في مؤسسة “مايند” الخيرية: “هذا الأمر يثير قلقنا العميق كمؤسسة خيرية”.
وأوضح باكلي أن بعض ملخصات الذكاء الاصطناعي الخاصة بحالات مثل الذهان واضطرابات الأكل، تقدم “نصائح بالغة الخطورة”، وصفها بأنها “غير صحيحة، أو ضارة، أو قد تدفع الأفراد إلى تجنب طلب المساعدة المتخصصة”، وأشار إلى أن بعض هذه الملخصات تتجاهل سياقات أو تفاصيل دقيقة وهامة، مضيفًا: “قد تقترح هذه الملخصات الوصول إلى معلومات من مواقع غير مناسبة، ونحن ندرك أن ملخصات الذكاء الاصطناعي (AI Overviews) غالبًا ما تعكس تحيزات أو قوالب نمطية أو روايات وصمية موجودة مسبقًا”.
في المقابل، أكدت جوجل أن الغالبية العظمى من ملخصات الذكاء الاصطناعي لديها تتسم بالدقة والفائدة، وأنها تعمل باستمرار على تحسين جودتها، مشيرةً إلى أن معدل دقة هذه الملخصات يضاهي دقة ميزات البحث الأخرى التي تقدمها، مثل “المقتطفات المميزة” التي تعود لأكثر من عقد، كما ذكرت الشركة أنها ستتخذ الإجراءات المناسبة، وفقًا لسياساتها، في حال أخطأت ملخصات الذكاء الاصطناعي في تفسير محتوى الويب، أو أغفلت السياق الضروري، وفي ختام تصريحه، قال متحدث باسم جوجل: “نستثمر بشكل كبير في جودة ملخصات الذكاء الاصطناعي، وخاصة في مواضيع حساسة كالصحة، والغالبية العظمى منها تقدم معلومات دقيقة وموثوقة”.
