Home / Technologies / AI Overviews : Google retire certains résumés IA jugés dangereux pour la santé

AI Overviews : Google retire certains résumés IA jugés dangereux pour la santé

Author

Après une enquête du Guardian, Google retire certains résumés IA jugés dangereux pour la santé

À la suite d’une investigation du Guardian, Google a retiré plusieurs de ses résumés générés par intelligence artificielle liés à des recherches médicales, après que ceux-ci ont été jugés inexacts et potentiellement dangereux pour les utilisateurs.

L’enquête du quotidien britannique a révélé que les « AI Overviews » de Google — des synthèses automatiques apparaissant en tête des résultats de recherche — fournissaient des informations fausses ou trompeuses concernant l’interprétation de tests sanguins hépatiques. Selon des experts interrogés par le Guardian, ces erreurs pouvaient conduire des patients gravement malades à croire, à tort, que leurs résultats étaient normaux et à renoncer à un suivi médical.

« Nous ne commentons pas les suppressions propres aux recherches individuelles, mais nous travaillons à améliorer les systèmes d’AI Overviews en cas de problème de contexte ou de fiabilité. » – Google

À la suite de ces révélations, Google a supprimé les AI Overviews pour certaines requêtes spécifiques, notamment « quelles sont les valeurs normales pour les analyses sanguines du foie?» ou « des tests de la fonction hépatique? ». Un porte-parole du groupe a indiqué que l’entreprise ne commentait pas les suppressions individuelles, mais qu’elle travaillait à améliorer ses systèmes lorsque des problèmes de contexte ou de fiabilité étaient identifiés.

Pour Vanessa Hebditch, directrice de la communication et des politiques publiques au British Liver Trust, cette décision constitue une avancée bienvenue, mais insuffisante. Elle souligne que des requêtes légèrement reformulées, comme « lft reference range », continuent de faire apparaître des résumés automatisés potentiellement trompeurs. « Un test de la fonction hépatique regroupe plusieurs analyses. Leur interprétation est complexe et ne se limite pas à comparer des chiffres », avertit-elle. Selon elle, la présentation simplifiée des résultats par l’IA peut induire un faux sentiment de sécurité, d’autant plus que certaines maladies graves du foie peuvent se manifester malgré des résultats apparemment normaux.

L’enquête du Guardian montre également que Google conserve des AI Overviews pour d’autres thématiques sensibles, notamment le cancer et la santé mentale, malgré des avis d’experts qualifiant certaines informations de « complètement erronées » ou de « réellement dangereuses ». Interrogée à ce sujet, l’entreprise affirme que ses équipes internes de cliniciens estiment que, dans de nombreux cas, les informations sont étayées par des sources fiables et incitent les utilisateurs à consulter des professionnels de santé lorsque cela est nécessaire.

Sue Farrington, présidente du Patient Information Forum, salue la suppression de certains résumés mais estime qu’il ne s’agit que d’un premier pas. Elle rappelle que des millions de personnes rencontrent déjà des difficultés pour accéder à une information médicale fiable et que la responsabilité des moteurs de recherche est majeure dans l’orientation vers des sources de confiance.

Google, qui détient environ 91 % du marché mondial des moteurs de recherche, assure que ses AI Overviews n’apparaissent que lorsqu’il existe un haut niveau de confiance dans la qualité des réponses fournies. Toutefois, pour Victor Tangermann, rédacteur en chef adjoint du site technologique Futurism, l’enquête du Guardian met en évidence la nécessité pour Google de renforcer ses garde-fous afin d’éviter la diffusion de désinformation médicale.

Comme le résume Matt Southern, journaliste spécialisé pour Search Engine Journal, « les AI Overviews apparaissent avant les résultats classiques ; lorsqu’il s’agit de santé, la moindre erreur peut avoir des conséquences lourdes ».

Notons qu’après avoir testé les requêtes rapportées comme ayant engendré des réponses problématiques, le chatbot a répondu à notre rédaction que « Ces informations sont fournies à titre purement indicatif. Pour obtenir un diagnostic ou un avis médical, consultez un professionnel. Les réponses de l’IA peuvent contenir des erreurs. »

Tagged: