Instant Pub
Ad image

Gemini : Une enquête du New York Times met en lumière les lacunes persistantes des réponses générées par l’IA de Google

Google traite annuellement un volume de 5 000 milliards de recherches.

Benin I-Tech
4 Min de lecture

La question de la fiabilité des résumés IA revient sur le devant de la scène. Nous parlons des informations que reçoit une large partie de la population mondiale. L’enquête que le New York Times vient de publier, en partenariat avec la start-up Oumi, répond enfin à cette interrogation.

4 000 questions pour mesurer l’IA de Google

Oumi a soumis 4 000 questions aux AI Overviews via le protocole SimpleQA. Il s’agit d’un test reconnu dans le secteur. Ils ont obtenu 91% de réponses correctes avec Gemini 3 contre 85% avec Gemini 2 en octobre dernier. La progression est au rendez-vous. Par contre, 9% d’erreurs, ce pourcentage rapporté au volume annuel, débouche sur un calcul qui donne le vertige. Nous avons donc des centaines de milliers de fausses informations qui sont servies toutes les minutes. Elles sont présentées avec le même aplomb que les réponses exactes.

Google conteste la méthodologie. Mountain View estime que SimpleQA contient lui-même des inexactitudes et que les questions posées ne reflètent pas la vraie distribution des recherches quotidiennes. L’argument n’est pas totalement sans fondement, mais il masque un autre chiffre qui est beaucoup moins flatteur. En effet, les données internes de Google font apparaître un taux d’erreur de 28% par rapport à certains types de requêtes.

Le problème invisible des sources fantômes

Au-delà du taux d’exactitude brut, l’enquête soulève un angle mort encore plus préoccupant. 56% des réponses correctes de Gemini 3 sont « non ancrées ». Les liens fournis en référence ne confirment pas réellement l’affirmation présentée. En octobre 2025, ce taux était déjà à 37%. Il a donc progressé plus vite que la fiabilité du modèle lui-même.

Google devient de plus en plus précis dans ses réponses, mais de moins en moins transparent sur leur provenance. Un utilisateur qui clique sur les sources pour vérifier tombe sur des pages qui ne disent pas ce que le résumé affirme. La plupart ne cliquent pas et c’est précisément le problème.

Google est éditeur malgré lui

Depuis 2024, Google a changé de nature. En plaçant les AI Overviews en tête de ses résultats, le moteur de recherche est passé d’agrégateur de liens à producteur de contenu. Ce n’est pas anodin sur le plan juridique et éditorial. Quand un résumé se trompe sur un traitement médical, un résultat électoral ou une décision judiciaire, la responsabilité ne repose plus seulement sur la source originale.

L’enquête de l’UER coordonnée avec la BBC et 22 médias publics dont Radio France précise que les assistants IA déforment l’information 45% du temps sur des sujets d’actualité. Google n’est pas seul dans ce tableau, mais avec 5 000 milliards de requêtes annuelles, son poids n’a pas d’équivalent. Ce n’est pas le seul problème dans le domaine de l’IA, car n’oublions pas que 63% des utilisateurs n’ont pas confiance dans les publicités diffusées par l’intelligence artificielle.

TAGGED:
VIA:SiecleDigital
Share This Article
Laissez votre point de vue sur ce sujet

Laissez votre point de vue sur ce sujet

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *