La tourmente du site K du 28 juin est encore fraîche dans mon esprit, et un grand nombre de sites K n'ont pas été restaurés. Aujourd'hui, Lee, administrateur de la communauté des webmasters de Baidu, a publié un autre article, disant que la mise à niveau de l'algorithme n'est pas terminée. est la suivante :
La différence cette fois par rapport à "l'incident 6.28" est que tout le monde a été informé à l'avance que l'algorithme serait mis à niveau, et il pourrait y avoir une vague de sites K à l'avenir, par contre plusieurs "de mauvaise qualité". des normes d’adaptation à l’algorithme ont été mises en avant.
1. Le contenu est collecté de manière aléatoire, les phrases ne sont pas claires et les lecteurs ne peuvent pas obtenir les informations dont ils ont besoin.
2. Bien que le contenu soit lisible, la plupart des articles sont collectés et copiés à partir d'autres sites Web et n'ont aucun contenu original.
3. La page Web est entrecoupée de mots-clés ou d'articles qui ne sont pas liés au sujet, dans le but de tromper les moteurs de recherche, et n'apporte pas d'aide substantielle aux utilisateurs recherchant des mots-clés associés.
4. Faire semblant d'être un site Web officiel pour tromper les utilisateurs et faire de fausses déclarations dans le titre et les balises méta.
5. Le site Web contient une grande quantité de contenus illégaux ou frauduleux, susceptibles d’entraîner des pertes pour la sécurité des biens des utilisateurs.
A partir de ces annonces, l'auteur tire quelques avis et accueille les échanges.
1. Baidu a amélioré son algorithme d'identification du contenu original des articles. Après le précédent incident de 6 28 000 sites Web, Baidu a déclaré à bien des égards qu'il disposait d'un algorithme préliminaire d'identification du contenu original et qu'il l'améliorait constamment (la clinique de rendez-vous pour les webmasters de Baidu a ouvert ses portes le 10 août). mentionné à plusieurs reprises au Japon et en Chine). Reste à savoir quelle est la force de cette capacité à identifier l’originalité.
2. Les sites Web dont le contenu est semi-collecté ont encore de la place pour survivre. L'algorithme Baidu a une forte capacité de reconnaissance originale et l'algorithme est très précis. Pour certains webmasters, en particulier les webmasters individuels, s'assurer que le site comporte une certaine proportion de contenu original peut toujours gagner une place dans Baidu.
3. Les mots-clés et la densité des mots-clés restent au centre des préoccupations. Lorsque cela est devenu inutile et que le bourrage de mots clés est devenu la méthode de triche la plus obsolète, Baidu a spécifiquement réitéré ce point. L'auteur estime que travailler sur les mots-clés jouera un rôle important dans le classement des pages.
4. Les sites de phishing frauduleux sont devenus l’objet de toutes les attentions. Baidu a été victime à maintes reprises de sites Web frauduleux et de phishing. Il est donc logique de travailler dur pour y parvenir. Je me demande si le webmaster sera impliqué dans le processus de choix d'une alliance publicitaire car la publicité d'affiliation est illégale.
"Selon notre évaluation, cette mise à jour de l'algorithme améliorera l'expérience de recherche pour 4 à 5 % des mots-clés, et la précision de l'algorithme a atteint un niveau très élevé." C'est ce que Baidu a dit à propos de l'algorithme qui sera mis à niveau cette fois. Estimation. Je ne sais pas quel sera le résultat, attendons de voir. Cet article a été créé à l'origine par le webmaster du site Web de promotion des investissements ( www.zsw365.com ). Vous êtes invités à conserver le lien pour la réimpression !
(Rédacteur en charge : momo) L'espace personnel de l'auteur