Il existe un dicton en SEO : les détails déterminent le succès ou l'échec. Dans l'optimisation SEO, nous avons toujours mis l'accent sur l'attention portée aux détails, car il est possible qu'un détail que nous avons ignoré lors de l'optimisation puisse directement faire entrer notre optimisation dans une période de goulot d'étranglement. Lorsque vous reprenez pour la première fois un ancien site à des fins d'optimisation, vous rencontrerez des problèmes difficiles, tels que des classements stagnants, de légères baisses de classement, des inclusions parfois en hausse et parfois en baisse, etc. Il nous est parfois difficile de trouver des solutions à ces problèmes. . , puis lorsque nous reprenons un site Web en cours d'optimisation ou un site Web qui rencontre des problèmes, nous devons diagnostiquer et analyser les détails de tous les aspects et déterrer les problèmes de longue date, afin que notre optimisation puisse devenir proactif. Aujourd'hui permettez-moi d'évoquer avec vous l'analyse détaillée du diagnostic d'optimisation de l'ancien site. ​
Lorsque nous reprenons un site Web, la première chose que nous devons faire est l'analyse du système. L'analyse du système n'examine pas le site Web dans une perspective macro, mais analyse le site Web dans ses moindres détails. Lorsque nous reprenons un site Web, nous devons l'analyser. il. Quelle heure est-il. ​
1. Fonctionnement de Robots.txt​
La fonction principale de Robots.txt est de traiter les pages et les chemins du site. Cela peut nous aider à bloquer certaines pages sans contenu et liens morts, etc. Examinons Robots.txt sous trois aspects.
1. Vérifiez s'il existe Robots.txt. Robots.txt est indispensable pour l'optimisation de notre site Web. Ne pas avoir Robots.txt signifie que le référencement de ce site Web est très simple. et vous pouvez le saisir directement. Le nom de domaine/Robots.txt est suffisant. Généralement, Robots.txt est dans le répertoire racine. S'il existe, nous pouvons le voir. Sinon, nous devons le faire rapidement. ​
2. Vérifiez si le fichier Robots.txt est écrit correctement. La plupart des webmasters doivent comprendre la syntaxe du fichier Robots.txt. Ce qui doit être souligné ici, c'est la disposition de Allow et Disallow. D’abord interdire, puis autoriser. ​
3. Vérifiez les pages et les chemins bloqués par Robots.txt. Nous, les webmasters, devons apprendre à identifier certains dossiers courants sur le site Web. Nous ouvrons chaque page et chemin bloqués un par un pour voir si ces pages sont invalides et devraient vraiment être bloquées. est toujours inutile. Dans le même temps, nous devons également vérifier le site : nom de domaine pour l'inclusion pour voir s'il y a des pages dans l'inclusion qui doivent être bloquées. ​
2. Analyse diagnostique des chemins du site Web ​
1. Détection des paramètres des chemins dynamiques. De nombreux sites Web utilisent des chemins dynamiques, et chaque chemin dynamique a des paramètres. Si un chemin dynamique a plus de 3 paramètres ou plus, cela entraînera directement des difficultés lors de l'inclusion de la page. combien de paramètres y a-t-il dans un chemin dynamique ? C'est très simple, il suffit de regarder les signes égaux dans le chemin. Il y a autant de paramètres que de signes égaux. ​
2. Les bons et les mauvais chemins pseudo-statiques sont également couramment utilisés par nous. À cette époque, de nombreux chemins pseudo-statiques n'étaient pas bien exécutés, ce qui a également affecté leur inclusion. s'il y a des points d'interrogation dans ses chemins pseudo-statiques, ou d'autres symboles de paramètres ou chinois, cela signifie que ce chemin pseudo-statique a échoué. Certains chemins pseudo-statiques, comme le pseudo-statique de wp, ont parfois /index.php/. derrière le nom de domaine. Un tel pseudo-statique est également très mauvais, nous devrions y prêter attention. ​
3. Vérifiez la rationalité du chemin. L'un des problèmes concernant la rationalité du chemin doit être souligné, à savoir le problème des chemins chinois et des chemins anglais. De nombreux webmasters aiment utiliser les chemins chinois parce qu'ils pensent que cela semble intuitif, mais. l'inclusion de chemins chinois est meilleure que les chemins purs. Il est beaucoup plus difficile d'inclure des chemins alphabétiques, les webmasters doivent donc être prudents lorsqu'ils utilisent des chemins chinois.​
3. Inspection des éléments d'optimisation couramment utilisés​
Les éléments d'optimisation couramment utilisés incluent : les balises canoniques, les balises nofollow, les balises H, les balises alt, etc.
1. Laissez-moi vous dire la différence entre nofollow et robots.txt. Nofollow est principalement utilisé pour empêcher le transfert de poids vers des URL externes, tandis que robots.txt est principalement utilisé pour bloquer les URL internes. l'autre est responsable de l'intérieur, division claire du travail. ​
2. La balise canonique est quelque chose que nous utilisons souvent, notamment dans les forums. Cette balise convient généralement aux pages de liste et aux paginations de pages présentant une grande similarité. Si vous avez plusieurs paginations ou listes présentant une grande similarité, vous devez l'indiquer au moteur de recherche. page utilisez-vous pour participer au classement des mots-clés ? La méthode de rédaction spécifique est la suivante : < link href=" http://www.***.net/zhishi/ " rel="canonical" /> ​ ;
3. Tout le monde connaît la balise alt. Cet attribut doit être ajouté à chaque image de notre site Web pour indiquer aux moteurs de recherche le contenu de l'image. Ceci est également très important et ne doit pas être ignoré. ​
4. La balise H convient principalement aux pages contenant de nombreux titres de contenu. Si votre page de contenu a un titre intermédiaire et un sous-titre en dessous du grand titre et qu'il existe de nombreux titres, vous devez alors ajouter la balise H pour créer le titre. page organisée. Généralement, il n'y a rien de tel sur la page d'accueil. ​
4. Analyse de similarité des pages du site Web et analyse des défauts d'optimisation du site Web ;
1. La similarité d'un site Web dépend principalement du texte du modèle du site Web. Regardez la proportion du texte du modèle du site Web par rapport au contenu principal de l'ensemble du site Web. Si la proportion du texte du modèle occupé est trop élevée, cela affectera directement la similarité du site Web. À l'heure actuelle, il est nécessaire de rationaliser notre texte passe-partout. ​
2. Les défauts d'optimisation de site Web sont principalement le diagnostic de la vitesse d'ouverture du site Web, les titres longs, les chemins longs, etc. Pour l'optimisation de la vitesse du site Web, je voudrais vous recommander un outil, qui est la vitesse de page de Firefox. Il peut très bien vous détecter. analyser les raisons qui affectent la vitesse du site Web et proposer des solutions. Des problèmes tels que des titres longs et des chemins longs ne peuvent être ignorés. Ce sont des questions qui déduiront des points d'optimisation. ​
5. Inspection des liens externes du site Web ​
Demandez principalement si vous avez acheté des liens, demandez en détail quand vous avez commencé à acheter des liens, où vous avez acheté des liens, si vous achetez encore des liens maintenant, vérifiez ses domaines liés à Baidu, vérifiez si le site Web a du contenu publié en masse, vérifiez les liens Google Link vers consulter le site Web Traitement des pages de haute autorité. ​
6. Analyse des raisons du déclassement des droits du site Web​
Si le site Web que nous reprenons subit une dégradation, nous devons nous poser et analyser les questions suivantes. ​
1. Si le titre du site Web a été modifié, si le programme et le chemin ont été modifiés, si le chemin a été modifié et si le traitement correspondant a été effectué, tel que le traitement robots.txt, et si le modèle a été modifié. ​
2. Vérifiez son journal IIS pour savoir s'il s'agit d'un problème de serveur ou d'autres problèmes à l'origine de la rétrogradation. ​
3. Analysez la stabilité de ses liens externes. Il existe trois principaux facteurs de liens externes qui provoquent la réduction de l'autorité : Premièrement, une perte à grande échelle de liens externes, principalement due à la suppression de compte ou à des liens achetés instables. Deuxièmement, il existe de nombreux liens externes de spam sur le site Web. Troisièmement, certains facteurs contribuent à réduire l’autorité des liens amicaux. ​
Après avoir diagnostiqué et analysé l'ensemble du site Web, nous pouvons analyser grossièrement les problèmes existants sur le site Web, formuler des solutions à différents problèmes et effectuer la prochaine étape du travail d'optimisation. ​
Cet article a été publié pour la première fois par http://www.51diaoche.net original A5 Bienvenue à réimprimer.
Rédacteur en chef : Espace personnel de Chen Long Auteur Longfeng Hoisting Machinery