Bien que le SEO ne soit plus inconnu en Chine et soit même devenu une industrie, il n’existe toujours pas de méthode d’analyse très scientifique et systématique dans l’industrie. La raison est probablement due à la particularité du secteur de l’optimisation des moteurs de recherche. Les moteurs de recherche protègent strictement leurs algorithmes et ne publient que des directives dont il est difficile de comprendre pourquoi. De nombreux référenceurs jouent à un jeu dont ils ne connaissent jamais les règles spécifiques, ce qui est source de confusion dans ce secteur.
J'ai souligné à plusieurs reprises l'importance des « Consignes de qualité des sites Web de Google », car ce sont les seules règles correctes que les moteurs de recherche indiquent aux propriétaires de sites Web. Si vous ne maîtrisez même pas ces règles, je ne suis pas sûr que vous puissiez les suivre. pour obtenir des conseils plus fiables. Mais dans le combat réel, même si vous avez bien lu ce « Guide » et connaissez déjà mieux que beaucoup de gens les règles des moteurs de recherche, il ne suffit pas de le savoir. Un ensemble de méthodes d'analyse scientifique et systématique peut vous aider à aller plus loin.
Je pense qu'après tant d'années de développement dans le domaine du référencement, il ne devrait plus y avoir de méthode d'analyse qui s'appuie sur l'analyse perceptuelle pour faire du référencement. Une déclaration couramment utilisée dans cette méthode d’analyse est la suivante : qu’est-ce que je pense que le moteur de recherche fera. Par exemple : je pense que les moteurs de recherche ne sont pas si stupides, et ils peuvent certainement gérer cela ; je pense que les moteurs de recherche considéreront ce facteur comme l'un des facteurs de classement... Si vous comptez sur l’analyse perceptuelle pour faire du référencement, alors la courbe de changement de votre trafic SEO est également très perceptuelle. Bien entendu, nous ne devrions pas faire de spéculations ni de ouï-dire sans fondement. Par exemple : deviner ce que feront les moteurs de recherche sans base théorique, ou suivre aveuglément les discours prononcés par le personnel des moteurs de recherche concerné et des personnalités faisant autorité.
Puisque le moteur de recherche ne nous indique pas l’algorithme spécifique, comment pouvons-nous établir cette méthode d’analyse scientifique et systématique ? La réponse est : commencez par une théorie dont vous savez qu’elle est définitivement correcte, et faites-la évoluer lentement dans la pratique.
Le processus d'analyse de l'article précédent « Comment la vitesse de chargement des pages Web affecte les effets du référencement » était basé sur une analyse d'une théorie bien connue, puis nous avons obtenu un autre facteur exact qui affecte le trafic SEO. Dans ce processus, la théorie qui, j'en suis sûr, est correcte est la suivante : le robot du moteur de recherche doit avoir exploré cette page avant d'avoir la possibilité d'inclure la page Web. Selon l'analyse des données suivante dans l'article, on peut conclure que la vitesse de chargement des pages Web affectera grandement le trafic SEO.
Ensuite, analysez quelles mesures peuvent affecter la vitesse de chargement des pages Web ? L'environnement réseau, le matériel du serveur et le CMS lui-même peuvent tous affecter la vitesse de chargement des pages Web. L’optimisation de l’un de ces éléments peut améliorer la vitesse de chargement des pages Web. On peut immédiatement conclure que l'environnement réseau affecte le trafic SEO, que le matériel du serveur affecte le trafic SEO et que la vitesse du CMS lui-même affecte le trafic SEO.
Ensuite, analysez, que peut-on faire pour optimiser le CMS lui-même ? L'activation de la compression Gzip, la fusion des fichiers CSS et JS, la réduction des requêtes DNS, l'activation de la mise en cache, etc. peuvent tous optimiser la vitesse du CMS lui-même. ...Ces choses vous semblent si familières, c'est parce que ces suggestions vous ont été présentées dans la section "Performances du site Web" dans "Google Webmaster Tools". Cependant, selon notre processus d'analyse ci-dessus, nous pouvons savoir que les optimisations mentionnées dans « Performances du site Web » sont toutes des optimisations du CMS lui-même, et ne mentionnent pas l'optimisation de l'environnement réseau et du matériel du serveur. C’est juste que vous êtes sûr que ces deux facteurs affectent réellement le trafic SEO. Si un jour un article apparaît dans « Google Blackboard » ou sur le blog officiel de Google (il faut contourner le pare-feu) vous expliquant comment choisir un bon hébergeur de serveur, ne soyez pas surpris, car vous savez déjà pourquoi. Google a toujours utilisé cette méthode pour vous indiquer comment optimiser certains facteurs, mais de son point de vue, ils ne vous expliqueront pas en détail pourquoi ils devraient le faire.
Grâce à l’analyse des données, nous pouvons également savoir qui a le plus grand impact et qui a le moins d’impact.
De nombreux facteurs de bon sens peuvent ainsi évoluer étape par étape. Ce processus d’analyse est très scientifique. Vous pouvez expliquer les principes très clairement, à vous-même et aux autres. Et dans ce processus évolutif, vous constaterez que vous êtes de plus en plus en mesure de contrôler le trafic SEO. Chaque étape d’évolution signifie que vous en savez un peu plus sur les moteurs de recherche, que votre structure de connaissances SEO s’est améliorée un peu plus, et en même temps, votre capacité à contrôler le trafic SEO est devenue plus forte. Dans le même temps, vous constaterez que vous avez de moins en moins de conflits avec les concepteurs et ingénieurs Web, car un bon référencement ne laissera pas les intérêts du référenceur et ceux des concepteurs et ingénieurs Web entrer en conflit.
Structure des connaissances, contrôlabilité SEO, relations avec les départements
Tant que vous avez expérimenté de nombreux processus d'analyse de ce type, cela bouleversera certainement la structure originale des connaissances SEO de nombreuses personnes. Parce que de nombreuses méthodes de référencement qui circulaient dans le passé étaient principalement basées sur une analyse perceptuelle, sans explication de la raison pour laquelle elles devaient être utilisées, sans support de données, ni même de support théorique, elles n'ont donc pas compris l'essentiel. J'ai dit dans "Segmentation de mots et bibliothèque d'index" que les choses que vous pensez être des détails sont en fait des points clés, et que les choses que vous pensez être des points clés peuvent en fait être ignorées.
Alors, dans le travail quotidien de référencement, quelles capacités vous aident à mener à bien un tel processus d’analyse ?
Je ne sais pas si vous vous souvenez encore des quatre capacités que j'ai mentionnées dans « Comment apprendre le référencement ».
1. Comprendre les technologies et les principes liés aux moteurs de recherche : Vous pouvez comprendre fondamentalement les moteurs de recherche, déterminer de nombreuses théories qui doivent être correctes et trouver de nombreux indices qui méritent d'être analysés.
2. Comprendre les technologies liées à la production de sites Web : Cela vous permettra de savoir quels facteurs sur le site Web peuvent affecter quels aspects du moteur de recherche et quelles méthodes utiliser pour résoudre le problème.
3. Capacité d'analyse des données : vous pouvez comprendre comment divers facteurs existants affectent le trafic SEO et vous appuyer sur cette capacité pour exploiter davantage de facteurs. Le processus d’analyse scientifique et systématique du référencement est indissociable du support des données du début à la fin.
4. Comprenez le moteur de recherche pour lequel vous souhaitez vous classer : quels que soient vos efforts, il y aura toujours des problèmes qui ne peuvent pas être compris à la fois statistiquement et théoriquement. Chaque moteur de recherche, tout comme les gens, a un certain tempérament. Vous pouvez obtenir la réponse grâce à votre connaissance de ce moteur de recherche. Dans le même temps, comprendre ce moteur de recherche peut également vous fournir davantage de facteurs pouvant être analysés.
Enfin, cette méthode d’analyse SEO scientifique et systématique basée sur le bon sens permet de mieux contrôler le trafic SEO que de comprendre les algorithmes de certains moteurs de recherche.
Beaucoup de gens peuvent réfuter ce point de vue. Par exemple, il y a quelque temps, mon ami m'a dit que le fondateur d'un site Web B2C de commerce extérieur venait de Google, donc il devait être capable de faire du bon travail en matière de référencement. J'ai dit que c'était impossible. Seuls ceux qui ont eux-mêmes créé des moteurs de recherche comprendront pourquoi. Par exemple : le site B2B d'Alibaba peut aussi être considéré comme un moteur de recherche. Je connais les règles de tri. Mais si vous me donnez un site marchand et me demandez d'obtenir du trafic sur Alibaba, avant qu'il n'y ait une méthode scientifique et systématique, je le ferai. certainement pas bien fait. Parce que l’algorithme des moteurs de recherche n’est pas une addition, une soustraction, une multiplication et une division, ce n’est pas la combinaison de tel et tel facteur qui conduira à un bon trafic. Les concepteurs des moteurs de recherche connaissent le poids de tel ou tel facteur et les résultats approximatifs qui peuvent être produits, mais ils ne peuvent pas contrôler les résultats spécifiques. Sinon, les utilisateurs de Baidu ne rechercheraient pas des milliers de mots chaque jour pour vérifier l'exactitude des résultats de recherche. Une partie du succès de Google est due au fait que Yahoo a adopté sa technologie de recherche, ce qui a permis à Google d'accumuler une grande quantité de données, de pratiquer et d'améliorer ses algorithmes.
De plus, au sein des moteurs de recherche, seule une poignée de personnes connaissent le poids de chaque facteur. La plupart des ingénieurs qui conçoivent les moteurs de recherche sont responsables d'une tâche spécifique, l'optimisation et la résolution d'un problème spécifique, comme ceux responsables des robots d'exploration. travail d'amélioration de l'efficacité du robot d'exploration et les ingénieurs responsables de la déduplication du contenu réduisent le contenu en double de l'index. Même les ingénieurs qui ont conçu ce moteur de recherche sont comme ça, sans parler d'une personne d'une succursale dans un autre pays. Sinon, tant d’ingénieurs démissionnaires de Baidu et de Google auraient divulgué l’algorithme depuis longtemps.
Si vous parvenez à créer un moteur de recherche à petite échelle à l’aide de programmes open source, vous pourrez mieux comprendre ce problème. Même si vous configurez vous-même l'algorithme du moteur de recherche, vous ne pouvez pas prédire les résultats de la recherche ultérieure. Et c’est une chose d’être un moteur de recherche, mais c’en est une autre de générer du trafic sur les moteurs de recherche. Sinon, Google ne se rendra pas compte que la vitesse de chargement de la page Web d’origine affecte le trafic SEO.
Source de l'article : http://www.semyj.com/archives/1032 Auteur : Guoping