-
Dans le processus d'optimisation d'un site Web, ce dont nous avons le plus peur, c'est d'être rétrogradé, car le poids du site Web affectera directement le classement des mots clés. Sans classement, il n'y aura pas de trafic, sans trafic, il n'y aura pas de conversion. Finalement, s'il n'y a pas de conversion, bien sûr il n'y aura pas de revenus. En fait, à proprement parler, il existe de nombreux facteurs qui conduisent à la rétrogradation d'un site Web. Aujourd'hui, nous allons parler des raisons qui conduisent à la rétrogradation d'un site Web du point de vue du contenu de la conception du site Web.
1. Trop d'iframes, js et Flash
Nous savons qu’un site Web offrant une bonne expérience utilisateur doit être riche en images et en textes. Cependant, si la page contient trop de cadres tels que Flash, JS ou Iframe, l'exploration des moteurs de recherche sera difficile. Étant donné que les moteurs de recherche ne peuvent pas encore comprendre le contenu Flash et qu'il est difficile d'explorer le contenu du cadre, cela conduira à un code qui ne favorise pas l'exploration de la page par les araignées et diluera également la densité des mots-clés dans le code.
2. Absence de plan du site
Si notre site Web comporte trop de colonnes et de pages de contenu, nous devons créer une carte de navigation que les araignées pourront voir. Le plan du site comprend deux types : html et rss. Si nécessaire, créez les deux types de cartes et placez-les dans le répertoire racine. En même temps, nous donnons l'URL du plan du site en haut ou en bas de chaque page pour guider l'exploration.
3. Trop de liens internes
Nous savons tous que la page doit avoir des liens internes, mais trop de liens internes et des liens internes déraisonnablement répartis auront l’effet inverse. Une bonne page doit inclure des sections pertinentes, de points chauds, de recommandation, aléatoires et autres. Le nombre de liens internes sur la page doit être contrôlé dans la limite de 100, ce qui est bénéfique à la fois pour l'inclusion et l'expérience utilisateur.
4. Le nombre d'octets de contenu est trop faible
Les moteurs de recherche exigent plus de contenu original sur la page, mais de nombreux webmasters ne sont pas en mesure de consacrer trop de temps à la création de ce contenu. Nous constatons donc souvent que certaines pages contiennent trop peu d'octets de contenu. Le danger de le faire sera que la duplication de pages sera trop élevée, ce qui pourrait être considéré comme la même page ou des pages similaires.
5. alt accumulation de mots-clés
Étant donné que les moteurs de recherche ne peuvent pas encore lire le contenu de l'image, nous devons ajouter des descriptions textuelles à l'alt. La description Alt doit être une phrase fluide plutôt qu’une pile aléatoire de mots-clés.
6. Liens morts
Parfois, nous devons faire face à des révisions de sites Web, tant de pages ne sont pas adaptées au nouveau site, et de nombreux webmasters peuvent supprimer les pages originales. Puisque les URL de ces pages existent dans la base de données du moteur de recherche, nous devons préparer 404 pages et 404 codes de statut.
7. Erreur bobots.txt
Le contenu du fichier robots.txt dans le répertoire racine du site Web indique aux moteurs de recherche quel contenu est autorisé à accéder et quel contenu n'est pas autorisé à accéder. De nombreuses personnes ne font pas attention aux paramètres du fichier robots, notamment à certains attributs de blocage des araignées ajoutés lors des tests du site. S'ils oublient de les modifier lors de la connexion, cela entraînera inévitablement des difficultés d'inclusion.
8. Trop de réseaux publicitaires
De nombreux webmasters de base, en particulier les sites qui dépendent uniquement du trafic pour générer des clics publicitaires, peuvent ajouter des publicités provenant de nombreuses alliances publicitaires sur leurs pages. En fait, l'ajout d'un trop grand nombre de publicités affectera également la vitesse de chargement des pages. js, ce qui aura un impact négatif sur la page.
9. La vitesse de chargement du site Web est trop lente
Dans un article précédent, j’ai évoqué la question des serveurs affectant les classements, je n’entrerai donc pas dans les détails ici. Bref, la stabilité et la vitesse de chargement du serveur affectent directement le classement et le poids.
Ce qui précède a analysé les raisons du déclassement du site Web en termes de contenu de conception sous 9 aspects. Lorsque le site Web est rétrogradé, vous souhaiterez peut-être réfléchir attentivement en fonction de cette idée, puis apporter des corrections en temps opportun pour restaurer le poids. Cet article a été créé à l'origine par Hefei Mom, le webmaster du dispositif électronique anti-ronflement au poignet http://www.koloyo.com Vous connaissez le problème des droits d'auteur.
Merci maman Hefei pour ta contribution