ChatGPT décrypté : comment récupère-t-il réellement les informations sur le web ?

Publié le 28/11/2025 • Par Coline

Non, ChatGPT ne navigue pas comme un utilisateur

Contrairement à ce que l’on pourrait penser, ChatGPT ne navigue pas de la même manière qu’un humain pour récupérer des informations, il ne reçoit d’ailleurs même pas de pages complètes, d’HTML, ni même la structure d’un contenu, lorsqu’il utilise la recherche web.

En effet, ce qui lui est transmis s’apparente à une courte carte de résultat de recherche contenant des données comme le titre, l’URL, un extrait de contenu d’1 à 3 phrases ainsi que des métadonnées optionnelles telles que la date et le score.

Comment fonctionne le modèle de vision de ChatGPT ?

Comme le souligne Dan Petrovic dans sa récente étude, le modèle de vision de ChatGPT est restreint puisqu’il n’accède pas à des pages complètes, mais simplement à des petits objets structurés pour alimenter ses réponses. Concrètement, comment fonctionne-t-il ?

Open() et click()

Les extraits, ou snippets, qui sont renvoyés à ChatGPT possèdent un identifiant de récupération. À partir de celui-là, deux fonctions peuvent être utilisées par l’assistant pour accéder à des portions de texte supplémentaires et ainsi obtenir plus de contexte :
open() : Pour récupérer, sur la même page, un extrait de texte plus long, autour d’un numéro de ligne précis. C’est de cette manière que ChatGPT “navigue” sur une page.
- click() : Pour suivre un lien sortant depuis l’extrait. La nouvelle page est alors, de la même manière, présentée sous forme de snippet.

La “sliding window”

Le système de navigation de ChatGPT fonctionne telle une “fenêtre coulissante” ou “sliding window”. En ce sens, la fonction open() n’est pas limitée à une requête. Chaque appel peut être suivi d’un autre : open() à la ligne 1, puis open() à la ligne 20, et ainsi de suite, ouvrant alors une nouvelle fenêtre de texte centrée sur une zone précise à chaque demande.

ChatGPT ne voit donc jamais une page complète en une seule fois, mais plutôt des tranches de contenus.

Les contraintes : retrivial et output

Dans les faits, il serait naturel de se dire qu’il est possible pour GPT de récupérer la totalité d’une page via la fonction open(). Mais en réalité, deux restrictions l’en empêchent : les limites de récupération (retrivial) font que chaque fonction open() ne renvoie qu’une fenêtre de taille fixe, et ce, quelle que soit la longueur du contenu, tandis que les limites de sortie (output) obligent ChatGPT à résumer ou reformuler les informations récupérées, peu importe le nombre de fenêtres vues.

Il n’est donc pas possible pour ce dernier de reproduire des pages complètes de contenu.

La taille des fenêtres : low, medium, high

Comme l’a analysé Dan Petrovic, ce fonctionnement n’est pas un outil interne spécifique. Ainsi, les développeurs qui autorisent la recherche web bénéficient tous des mêmes fonctionnalités. Ils ne voient pas concrètement les fenêtres textuelles qui sont renvoyées à ChatGPT mais ont une vision indirecte du processus.

De cette manière, ils peuvent autoriser ou non la recherche web, mais également configurer le niveau de “web context”, ce qui correspond à la taille des fenêtres que reçoit GPT. Low, medium ou high, le niveau choisi influence la quantité de texte présent dans l’extrait initial, la taille des fenêtres d’expansion ainsi que la taille du contenu présent autour d’une zone ciblée.  

Qu’est-ce que cela implique pour le SEO à l’ère des LLMs ? 

ChatGPT ne fonctionne pas comme un navigateur programmable. Ainsi, si la manière dont il voit les contenus est directement liée aux réglages mis en place par les développeurs (taille des fenêtres et autorisation de recherche), il ne peut néanmoins pas construire ses réponses sur des pages complètes.

Côté SEO, ce modèle de vision basé sur les extraits structurés implique de repenser la manière d’optimiser ses contenus pour l’IA. Puisque les LLMs s’appuient sur de petits blocs textuels sélectionnés comme snippets, il est important de proposer des textes facilement consommables par les modèles de langages.

En plus de travailler le positionnement, il est donc nécessaire de veiller à la qualité des extraits initiaux. Vous pouvez alors, dès les premières lignes de vos textes — soit les plus susceptibles d’être utilisées — proposer du contenu clair et informatif, qui résume précisément le sujet de la page.

À l’ère des assistants IA, comprendre le fonctionnement des modèles de langage LLMS est devenu un enjeu essentiel pour établir une stratégie SEO adaptée et pertinente dans ce nouvel environnement.