Baidu Webmaster Platform publie un guide anti-spam détaillé pour le Web 2.0
Admin5 Webmaster Network a rapporté le 2 mai que Baidu Webmaster Platform avait publié aujourd'hui le « Guide détaillé anti-spam Web2.0 » pour fournir clairement des normes de jugement et des stratégies de réponse pour le grand nombre de messages de spam de masse actuellement existants sur les sites Web nationaux. Les responsables de Baidu ont déclaré que, étant donné que la plupart des systèmes de création de sites Web 2.0 comportent des failles, le coût technique pour les surmonter est faible et que le logiciel d'envoi de masse est bon marché et facile à exploiter par les tricheurs. Un grand nombre de sites Web 2.0 sont en proie à du spam massif. messages. En plus des sites Web 2.0 traditionnels tels que les forums et les blogs, le problème s'est désormais étendu à Weibo, aux réseaux sociaux, aux pages d'informations commerciales B2B, aux pages jaunes des entreprises, aux informations classifiées, aux sites vidéo, aux disques réseau et à d'autres domaines, et même aux communautés de partage émergentes. sont également concernés. Depuis les précédents messages du forum et journaux de blog jusqu'aux pages d'informations sur l'offre et la demande, les pages vidéo et les pages de profil utilisateur, tout endroit où le contenu est rempli et généré par les utilisateurs sera découvert et exploité par les tricheurs, formant un grand nombre de pages de spam Web 2.0. .
Baidu a également déclaré que les moteurs de recherche réagiraient en conséquence après avoir découvert des pages de spam du Web 2.0, mais qu'il est difficile de réprimer efficacement les tricheurs qui exploitent réellement la messagerie de masse. Il est facile pour les tricheurs de profiter du coût extrêmement faible des sites et des sites Web 2.0. leurs propres fonctionnalités de sécurité entraîneront davantage de comportements préjudiciables au site Web, aux utilisateurs et aux moteurs de recherche. Si le webmaster permet au contenu de spam de se développer de manière incontrôlée, cela affectera non seulement l'expérience utilisateur du site Web, mais nuira également à la réputation du site Web et à la construction de sa propre marque, entraînant des pertes normales pour les utilisateurs. Dans les cas graves, cela amènera également les moteurs de recherche à réduire l’évaluation du site Web.
Le « Guide détaillé de l'anti-spam Web 2.0 » précise quel contenu sera considéré comme du spam par Baidu. 1. Contenu incompatible avec le thème du site Web ou de la section du forum ; 2. Contenu qui trompe les utilisateurs des moteurs de recherche ; 3. Contenu qui trompe le site Web en fraudant les revenus publicitaires des comptes partagés ; 4. Utilisation malveillante des sites Web Web 2.0 ; promouvoir et bénéficier du contenu. 5. Mauvaises informations qui enfreignent les lois et réglementations, telles que des coordonnées frauduleuses pour les gagnants de loterie, de faux numéros de contact et de mauvaises informations.
Dans le même temps, Baidu a également fait des suggestions sur la manière dont les webmasters devraient gérer le contenu du spam : 1. Supprimer le contenu du spam ; 2. Augmenter le seuil des utilisateurs enregistrés et restreindre l'enregistrement des machines. 3. Contrôler strictement le comportement de publication des machines, comme l'utilisation de codes de vérification ; , Limiter la publication continue sur une courte période ; 4. Établir un mécanisme de liste noire ; 5. Surveiller les anomalies au sein du site ; 6. Ne pas autoriser la publication de contenu contenant du code exécutable ; évitez les mises en accusation de Windows, les sauts et d'autres situations qui affectent sérieusement l'expérience utilisateur. 8. Utilisez « nofollow » pour marquer les liens mentionnés dans certains emplacements Web 2.0 ; 9. Pour les publicités et les sections de spam dans le forum, il est recommandé d'ajouter des restrictions d'autorisation ou d'interdire aux moteurs de recherche de les inclure ; du programme de création de sites Web, installez les correctifs en temps opportun.
L’algorithme « Penguin » de Google commence à nettoyer les sites Web avec un référencement excessif
Google a lancé un nouvel algorithme appelé « Panda » en février de l'année dernière, dans le but de sévir contre divers sites Web de « fermes de contenu » remplis d'informations de mauvaise qualité. Récemment, ils ont lancé un nouvel algorithme appelé « Penguin », qui cible les sites Web qui utilisent des méthodes de référencement excessives pour améliorer leur classement. En fait, entre Panda et Penguin, ils ont également lancé un algorithme ciblé pour lutter contre les sites Web qui placent un grand nombre de publicités devant le texte, mais cette mise à niveau n'avait pas de nom officiel.
Google a introduit plus tôt cette année un « algorithme de mise en page » qui abaisse le classement des sites Web qui n'ont pas beaucoup de contenu de qualité. Début mars, l'ingénieur de Google, Matt, a déclaré que les sites Web qui utilisent de manière excessive l'optimisation des moteurs de recherche seraient punis. Fin mars, un grand nombre de webmasters nationaux ont reçu des notifications « Google Webmaster Tools » concernant des liens artificiels. Il semble maintenant que les ajustements précédents de l'algorithme de Google ouvrent la voie au nouvel algorithme « Penguin ». Le lancement de « Penguin » indique que Google adoptera une attitude plus stricte face au référencement excessif des sites Web, en ciblant le référencement « chapeau noir ». un grand nombre de pénalités sur site et sur site seront imposées pour le bourrage de mots clés étrangers, l'insertion aléatoire de liens dans du contenu non pertinent, etc. Encouragez le référencement « chapeau blanc » et encouragez les webmasters à consacrer plus d’énergie à l’optimisation de l’expérience utilisateur pour obtenir des classements plus élevés.
Commentaire de l'éditeur : le diagnostic SEO A5 ( http://seo.admin5.com/ ) a toujours recommandé aux webmasters de faire un usage raisonnable du référencement pour améliorer le contenu du site Web et l'expérience utilisateur. Les récents ajustements des algorithmes des moteurs de recherche et les recommandations SEO de Baidu et Google montrent que l’expérience utilisateur est devenue le principal critère utilisé par les moteurs de recherche pour évaluer les sites Web, et que son impact sur le classement des sites Web devient de plus en plus important. Baidu, en particulier, effectue fréquemment des ajustements d’algorithme et des suggestions de référencement. Il n'y a pas si longtemps, Baidu a ajouté des invites Baidu aux résultats de recherche pour des mots-clés tels que « seo » afin de rappeler aux webmasters que le référencement est une tâche très importante. Veuillez vous référer aux suggestions de Baidu sur le référencement. Il est recommandé aux webmasters de ne pas adopter les méthodes du « chapeau noir » pour sur-optimiser leurs sites Web afin d'éviter les pénalités des moteurs de recherche. Encouragez les webmasters à utiliser les méthodes du « chapeau blanc » pour utiliser correctement le référencement et améliorer l'expérience utilisateur du site Web. Au cours de la période 315, Baidu a également lancé un lien texte sur la page d'accueil pour exposer les sites Web promus illégalement. L'inclusion par Baidu de contenu provenant de sites de réseaux sociaux tels que Weibo et SNS et le lancement de Baidu Share indiquent également que la recherche sociale est devenue une tendance. Le contenu de spam WEB2.0 aura moins d'impact à court terme sur le trafic et le classement des sites Web, encourageant davantage de sites Web. en optimisant l'expérience utilisateur et en générant du trafic depuis les réseaux sociaux. Par conséquent, les webmasters doivent utiliser des méthodes telles que la publication massive pour augmenter les liens externes de manière appropriée et améliorer l'expérience utilisateur du site Web à un niveau plus important. (Texte/Yang Yang)