Pour un SEOr, le journal IIS du serveur est un journal de référence d'optimisation très important, car nous pouvons voir l'état de l'exploration des moteurs de recherche à partir d'ici, et nous pouvons également comprendre certaines conditions du site Web lui-même, et nous pouvons également analyser le comportement de Certains utilisateurs. Il n'est pas nécessaire d'utiliser du code tiers pour les statistiques. Bien entendu, certains journaux IIS sont restreints par les fournisseurs d'espace IDC et doivent être ouverts avant de pouvoir être consultés. Dans ce cas, il est recommandé de les télécharger en ligne. Du code source à installer. Ensuite, l'auteur expliquera en détail comment le serveur IIS peut aider le site Web !
(1) Vérifiez le nombre de fois où l'araignée rampe.
Une araignée de moteur de recherche est un robot utilisé pour explorer le contenu de notre site et soumettre le contenu exploré à la base de données du moteur de recherche. Par conséquent, nous connaissons le nombre de fois où l'araignée a exploré et savons indirectement si notre site a été recherché par le moteur de recherche. . De plus, en comparant les origines des araignées, nous pouvons pleinement comprendre quels liens externes sont les plus utiles à notre site et quels araignées apprécient le plus. Nous pouvons également comprendre quelles pages du contenu de notre site les araignées préfèrent et les imitent toujours.
Pour ces robots nuisibles des moteurs de recherche, nous devons les bloquer, car après tout, il existe de nombreux types de robots. Si un jour nous trouvons de nombreux robots inconnus rampant en grand nombre sur notre site Web, nous devrions les bloquer afin de les éviter. perdant son autorité, l'auteur appelle également chacun à essayer de ne pas utiliser de logiciels qui attirent les araignées pour explorer leurs propres sites Web.
Un grand nombre d'araignées des moteurs de recherche explorent notre site Web, ce qui occupe sans aucun doute une certaine quantité de ressources sur notre serveur. Cependant, une grande partie de l'exploration des araignées est très utile pour le poids de notre site, je suggère donc à chacun de choisir un meilleur. serveur , pour éviter l'effondrement aux moments critiques. De plus, nous avons appris de certaines annonces officielles que de nombreux pirates utilisent le mode d'exploration araignée pour voler les ressources de données des sites Web, nous devons donc également y prêter attention !
(2) Vérifiez dans quelle mesure l'araignée explore la page.
D'une manière générale, ce que les robots apprécient le plus est la page d'accueil de notre site Web, de sorte que les instantanés de la page d'accueil sont généralement mis à jour le plus fréquemment. Et si les pages internes sont également fréquentes, cela produira l'effet de ce que nous appelons souvent la collecte instantanée. Si certaines de nos pages ne sont pas explorées par les araignées, nous pouvons vérifier via le journal de l'ISS si nous avons interdit l'exploration des araignées. De plus, l'auteur comprend que de nombreux webmasters utilisent généralement l'adresse de la page d'accueil dans le processus de création de liens externes. Ici, l'auteur appelle chacun à créer également davantage de liens externes vers des colonnes et des pages d'articles. Cela sera d'une grande aide pour notre inclusion. . Et à partir de ceux-ci, nous pouvons également comprendre certaines conditions de notre site, telles que les pages à partir desquelles l'araignée entre, quelles pages sont explorées relativement fréquemment, quelles pages sont explorées une fois mais ne sont pas explorées à nouveau ou incluses, nous résumons donc après cela, vous Vous pouvez comprendre plus précisément quel contenu les robots préfèrent, et vous pouvez également voir si les robots sont intéressés par notre contenu ou s'ils explorent à cause de liens externes.
(3) Analyse du code http du site Web.
Lorsqu'une araignée explore et explore le contenu de notre site Web, elle laisse généralement un code d'état http. Lorsqu'elle revient, elle affiche généralement 200, ce qui signifie qu'il ne peut pas être publié directement, ce qui signifie qu'une période d'examen est requise.
Voici deux questions et réponses que l'auteur a formulées sur ce domaine. J'espère que cela sera utile à tous les webmasters.
1. Lorsque la page n'existe pas sur le site, doit-elle renvoyer 404 ou 200 ?
Tout d'abord, la réponse est définitivement de renvoyer une valeur 404, car tout le monde sait que la page 404 peut indiquer au moteur de recherche que cette page est une page d'erreur et qu'elle n'est pas accessible, mais si c'est 200, c'est différent, car elle signifie que cette page est accessible. Cependant, lorsque l'araignée l'explore, elle s'avère inaccessible. S'il y a trop de pages de ce type, cela entraînera directement la rétrogradation de notre site par les moteurs de recherche ou même par K.
2. Lorsque le site Web est en cours de construction ou de dépôt, quel code d'état doit être renvoyé ?
La réponse est le statut 503, car 503 peut indiquer aux moteurs de recherche que notre site est temporairement inaccessible et qu'il sera restauré dans un certain laps de temps. S'il s'agit d'autres codes de statut, les moteurs de recherche ne pourront pas y accéder, en particulier la page 404, ce qui entraînera. les moteurs de recherche pensent directement que le site Web n’existe plus.
La page 404 est en fait très utile pour notre site, je vous suggère donc de penser à créer une page 404 pour votre site.
(4) Utilisez des outils professionnels pour l'analyse des journaux
La valeur PV est sans aucun doute une expression de l'expérience utilisateur d'un site Web. Lorsque le taux de rebond de notre site est trop élevé, que le site Web est dans un état qui ne peut pas être ouvert ou que le contenu est médiocre, le classement du site Web va de soi. , il est impossible de voir quelles pages ont le plus de trafic, afin que nous puissions comprendre les besoins des utilisateurs grâce à l'exploration et apporter des améliorations. Mais si notre site Web ne peut pas être ouvert pendant une longue période ou si l'accès est lent, nous pouvons alors vérifier à partir des journaux s'il est attaqué par un trafic malveillant. Face à une telle situation, nous devons soit faire un compromis, soit signaler le cas. changer directement de serveur.
Pour un site web, si les utilisateurs ne cliquent pas sur votre site, cela signifie que votre site n'est pas attractif, et les moteurs de recherche penseront également que votre site n'est pas un bon site web, il est donc très important de faire un bon studio d'expérience utilisateur. . Enfin, je recommande deux autres outils professionnels d’analyse des journaux IIS :
1. .awstats,
2. Webaliseur
Ces deux outils peuvent également analyser certains codes de statut (⊙o⊙) du site internet !
Résumé : Le journal IIS d'un site Web est très utile dans tous les aspects de l'optimisation du site Web et de l'expérience utilisateur. Il nous permet d'en savoir plus sur notre site et de prêter attention à certains petits détails que nous avons négligés. être favorisé par les moteurs de recherche, et nous pouvons le soumettre pour obtenir une compréhension correspondante avant que notre site ne soit K ou rétrogradé. À ce stade, nous pouvons apporter des améliorations ciblées, qui peuvent souvent être évitées. Cet article a été initialement partagé par Name Network http://www.name2012.com . J'espère que les amis qui le réimprimeront se souviendront de conserver le lien et les droits d'auteur. Je voudrais vous exprimer ma gratitude. Eh bien, c'est tout à partager avec vous aujourd'hui. Je communiquerai davantage avec vous sur cette plateforme à l'avenir, alors à la prochaine fois.
Rédacteur en chef : Chen Long Espace personnel de l'auteur sur name2012.com