Si le SEO n’a pas “rendu Google intelligent”, il a toutefois 2 apports essentiels dans la pertinence du moteur de recherche :
- Il a rendu le web plus lisible pour Google Bot. Des pages structurées, des intentions explicites, des signaux plus propres. Le résultat, c’est une pertinence perçue en hausse, sans que l’utilisateur ne voit la couche de médiation. Google le dit assez sobrement : le SEO, c’est aider les moteurs à comprendre le contenu.
- Il a dirigé la production de contenu pour répondre aux recherches des internautes. En analysant les mots clés recherchés pour les concepteurs des sites web ( et les départements marketing), les SEO ont généré des contenus répondants aux utilisateur. Et j’y étais, c’était parfois un combat.
Les GPTs spécialisés et les Gems rejouent ce mécanisme, mais côté LLM. On ne touche pas forcément au modèle général. On formalise l’interaction, les règles métiers, le périmètre, parfois un corpus data, parfois des outils (via API). Une sorte de “SEO de la tâche”. OpenAI présente les GPTs comme des versions sur mesure de ChatGPT pour un objectif donné. Google décrit les Gems comme des versions personnalisées de Gemini pour des tâches répétitives ou une expertise ciblée.
L’analogie est utile parce qu’elle pointe la même réalité : la pertinence n’est pas seulement une affaire de modèle ou d’algorithme, c’est une affaire d’écosystème. Avec le SEO, l’écosystème a produit des contenus “indexables”. Avec les GPTs/Gems, l’écosystème produit des comportements “exploitables” : cadrage, critères, checklists, heuristique, formats de sortie, garde-fous.
La différence, c’est l’objet optimisé. Le SEO optimisait une page pour la ranker. Les GPTs optimisent un dialogue pour être fiable et répétable. Dans les deux cas, ce qui compte n’est pas le mot-clé ou le prompt en soi. C’est la capacité à traduire une intention humaine, une tâche cognitive, en contraintes que la machine sait respecter.
Repères :