ChatGPT ne fonctionne pas comme un navigateur programmable. Ainsi, si la manière dont il voit les contenus est directement liée aux
réglages mis en place par les développeurs (taille des fenêtres et autorisation de recherche), il ne peut néanmoins pas construire ses réponses sur des
pages complètes.
Côté
SEO, ce modèle de vision basé sur les extraits structurés implique de repenser la manière d’optimiser ses contenus pour l’IA. Puisque les LLMs s’appuient sur de
petits blocs textuels sélectionnés comme snippets, il est important de proposer des textes facilement
consommables par les modèles de langages.
En plus de travailler le positionnement, il est donc nécessaire de veiller à la
qualité des extraits initiaux. Vous pouvez alors, dès les
premières lignes de vos textes — soit les plus susceptibles d’être utilisées — proposer du contenu clair et informatif, qui résume précisément le sujet de la page.
À l’ère des assistants IA, comprendre le
fonctionnement des modèles de langage LLMS est devenu un enjeu essentiel pour établir une
stratégie SEO adaptée et pertinente dans ce nouvel environnement.
ChatGPT décrypté : comment récupère-t-il réellement les informations sur le web ?
Non, ChatGPT ne navigue pas comme un utilisateur
En effet, ce qui lui est transmis s’apparente à une courte carte de résultat de recherche contenant des données comme le titre, l’URL, un extrait de contenu d’1 à 3 phrases ainsi que des métadonnées optionnelles telles que la date et le score.
Comment fonctionne le modèle de vision de ChatGPT ?
Open() et click()
La “sliding window”
ChatGPT ne voit donc jamais une page complète en une seule fois, mais plutôt des tranches de contenus.
Les contraintes : retrivial et output
Il n’est donc pas possible pour ce dernier de reproduire des pages complètes de contenu.
La taille des fenêtres : low, medium, high
De cette manière, ils peuvent autoriser ou non la recherche web, mais également configurer le niveau de “web context”, ce qui correspond à la taille des fenêtres que reçoit GPT. Low, medium ou high, le niveau choisi influence la quantité de texte présent dans l’extrait initial, la taille des fenêtres d’expansion ainsi que la taille du contenu présent autour d’une zone ciblée.
Qu’est-ce que cela implique pour le SEO à l’ère des LLMs ?
Côté SEO, ce modèle de vision basé sur les extraits structurés implique de repenser la manière d’optimiser ses contenus pour l’IA. Puisque les LLMs s’appuient sur de petits blocs textuels sélectionnés comme snippets, il est important de proposer des textes facilement consommables par les modèles de langages.
En plus de travailler le positionnement, il est donc nécessaire de veiller à la qualité des extraits initiaux. Vous pouvez alors, dès les premières lignes de vos textes — soit les plus susceptibles d’être utilisées — proposer du contenu clair et informatif, qui résume précisément le sujet de la page.
À l’ère des assistants IA, comprendre le fonctionnement des modèles de langage LLMS est devenu un enjeu essentiel pour établir une stratégie SEO adaptée et pertinente dans ce nouvel environnement.