
كشف تحقيق لصحيفة الغارديان أن ميزة “AI Overviews” في محرك بحث جوجل، والتي تولّد ملخصات آلية مدعومة بالذكاء الاصطناعي وتتصدر نتائج البحث، قدمت معلومات صحية غير دقيقة ومضللة حول تحاليل وظائف الكبد في الدم، مما قد يقود مرضى يعانون من حالات خطيرة إلى الاعتقاد الخاطئ بأن نتائج فحوصاتهم “طبيعية” ومطمئنة.
عندما أجرى الصحفيون استعلامًا بصيغة “ما هو المدى الطبيعي لتحاليل الدم الخاصة بالكبد؟”، تلقوا قائمة مطولة من الأرقام المجردة، دون أي سياق توضيحي، وبلا إشارة إلى أن مفهوم “الطبيعي” يتباين بشكل كبير تبعًا للعمر والجنس والعرق وعوامل صحية أخرى، الأمر الذي وصفه الخبراء بـ”الخطير” و”المقلق للغاية”.
يطلق اختصاصيون، استشهد بهم التقرير، تحذيرات شديدة من أن مريضًا يعاني من اعتلال كبدي حاد قد يراجع تلك الأرقام التي ولدها الذكاء الاصطناعي، ويقارنها بنتائج فحوصاته، ثم يتجاهل مواعيد المتابعة الطبية اللاحقة، ظنًا منه أن حالته الصحية مستقرة، وهذا السلوك يمثل خطرًا وشيكًا على الصحة العامة، خصوصًا عندما تُقدم معلومات طبية معقدة بهذه الطريقة المبسّطة والمضللة.
جوجل تزيل ملخصات AI Overviews مضللة
في أعقاب نشر التحقيق الأولي للغارديان بتاريخ 2 يناير، والذي كشف عن الأخطاء الصحية ضمن “AI Overviews”، بادرت جوجل إلى إزالة الملخصات التي ظهرت لعبارات بحث مثل “what is the normal range for liver blood tests” و“what is the normal range for liver function tests”.
امتنع متحدث باسم جوجل عن التعليق على قرارات الإزالة المحددة، مشيرًا إلى أن الشركة “لا تعلق على حالات فردية داخل البحث”، وأوضح أن جوجل تسعى إلى “إدخال تحسينات واسعة النطاق” وتتخذ الإجراءات اللازمة بما يتماشى مع سياساتها، وذلك في الحالات التي لا توفر فيها الملخصات سياقًا ضروريًا.
لكن، كشفت اختبارات أجرتها صحيفة الغارديان لاحقًا أن استخدام صيغ قريبة من الأسئلة الأصلية، مثل “lft reference range” أو “lft test reference range”، لا يزال يؤدي إلى ظهور “AI Overviews” تحتوي على بيانات قد تكون مضللة، مما أثار مخاوف إضافية لدى الجمعيات الطبية المتخصصة.
تحذيرات من الجمعيات الطبية المتخصصة
علّقت فانيسا هِبتِتش، مديرة التواصل والسياسات في مؤسسة British Liver Trust، على إزالة بعض الملخصات واصفةً إياها بـ”الخبر الممتاز”، لكنها أكدت أن نطاق المشكلة أوسع بكثير من مجرد سؤال واحد، حيث يمكن أن تظهر إجابات مماثلة ومضللة إذا تمت صياغة الاستفسار بطرق مختلفة قليلًا.
أوضحت هِبتِتش أن اختبار وظائف الكبد (LFT) يمثل مجموعة معقدة من التحاليل، وأن فهم نتائجه يتطلب معرفة أعمق بكثير من مجرد مقارنة أرقام بقائمة مرجعية ثابتة، في حين تعرض “AI Overviews” هذه المعلومات كقائمة من الاختبارات بخط عريض، مما يسهل على المستخدمين إساءة تفسيرها وفهمها بشكل خاطئ.
وأردفت هِبتِتش أن هذه الملخصات لا تتضمن تحذيرات للمستخدمين بأن شخصًا ما قد يحصل على نتائج “طبيعية” لفحوصاته، على الرغم من إصابته بمرض كبدي خطير يستدعي متابعة طبية وعلاجًا، مشيرةً إلى أن هذا النمط من “الطمأنة الزائفة” قد تكون عواقبه وخيمة للغاية على صحة المرضى.
وترى هِبتِتش أن التركيز على إزالة ملخص واحد محدد لا يعالج جوهر المشكلة، بل هو بمثابة “التعامل مع عرض واحد بدل معالجة القضية الأوسع نطاقًا، وهي الدور الذي تلعبه ميزة ‘AI Overviews’ في توفير المعلومات الصحية بشكل عام”.
ملخصات مضللة في مجالات صحية أخرى
يُبرز التقرير استمرار ظهور ميزة “AI Overviews” لاستعلامات صحية أخرى كانت الغارديان قد نبهت جوجل إليها سابقًا، بما في ذلك استفسارات تتعلق بأمراض السرطان والصحة النفسية، وهي معلومات وصفها الخبراء بأنها “خاطئة بالكامل” و”شديدة الخطورة”.
من جانبها، صرحت سيو فارينجتون، رئيسة منتدى معلومات المرضى (Patient Information Forum)، بأن إزالة هذه الملخصات الأولية تُعد خطوة “جيدة ولكنها غير كافية” للحفاظ على ثقة المستخدمين في نتائج جوجل المتعلقة بالصحة، مشددة على وجود “الكثير من الأمثلة” لمعلومات غير دقيقة لا تزال متوفرة عبر المنصة.
وتلفت فارينجتون الانتباه إلى أن ملايين البالغين حول العالم يواجهون تحديات فعلية في الوصول إلى معلومات صحية موثوقة، مما يجعل دور جوجل بالغ الأهمية في توجيههم نحو مصادر تعليمية تستند إلى الأدلة وعروض رعاية صادرة عن مؤسسات صحية موثوقة، بدلًا من تعريضهم لملخصات خوارزمية قد تُفهم عن طريق الخطأ على أنها بديل عن الاستشارة الطبية المتخصصة.
رد جوجل: ثقة عالية في جودة الإجابات وربط بمصادر موثوقة
تؤكد جوجل أن ميزة “AI Overviews” لا تُعرض إلا عندما تكون الشركة تمتلك “درجة عالية من الثقة” في جودة الإجابة المقدمة، وأن لديها فرقًا داخلية من الأطباء تقوم بمراجعة الحالات التي تثار حولها الشكاوى، ووفقًا لمتحدث باسم الشركة، أسفرت المراجعات الداخلية عن استنتاج مفاده أن العديد من الأمثلة المعروضة “لم تكن غير دقيقة”، وأنها مدعومة بمصادر ومواقع ذات جودة عالية، كما أن الملخصات تتضمن تنبيهات للمستخدمين حول أهمية استشارة المختصين عند الضرورة.
مع ذلك، ينقل التقرير عن فيكتور تانغيرمان، المحرر الأول في موقع Futurism، أن النتائج التي توصلت إليها الغارديان توضح بجلاء أن جوجل لا يزال أمامها عمل مكثف “لضمان ألا تقدم أداة الذكاء الاصطناعي الخاصة بها نصائح صحية خطيرة ومضللة”.
ويستدل المقال بمقال نُشر في مجلة Search Engine Journal، والذي يشير إلى أن ظهور “AI Overviews” في صدارة نتائج البحث التقليدية يمنح أي خطأ في المعلومات الصحية “وزنًا أكبر” وتأثيرًا أعمق، مقارنة بالأخطاء التي قد تحدث في فئات المعلومات الأخرى، مما يزيد من خطورة هذه الأخطاء.
