Der K-Site-Aufruhr vom 28. Juni ist mir noch in Erinnerung, und eine große Anzahl von K-Sites wurde noch nicht wiederhergestellt. Heute hat der Baidu-Webmaster-Community-Administrator Lee einen weiteren Beitrag gepostet, in dem er sagte, dass das Algorithmus-Upgrade noch nicht abgeschlossen sei ist wie folgt:
Der Unterschied zum „6.28-Vorfall“ besteht diesmal darin, dass jeder im Voraus darüber informiert wurde, dass der Algorithmus aktualisiert wird, und dass es in Zukunft möglicherweise eine Welle von K-Sites geben wird. Andererseits gibt es mehrere „schlechte“ Websites. Standards zur Anpassung an den Algorithmus wurden hervorgehoben.
1. Der Inhalt wird zufällig gesammelt, die Sätze sind unklar und der Leser kann nicht die benötigten Informationen erhalten.
2. Obwohl der Inhalt lesbar ist, werden die meisten Artikel von anderen Websites gesammelt und kopiert und haben keinen Originalinhalt.
3. Die Webseite ist mit Schlüsselwörtern oder Artikeln durchsetzt, die nichts mit dem Thema zu tun haben, um Suchmaschinen zu täuschen, und bietet Benutzern keine wesentliche Hilfe bei der Suche nach verwandten Schlüsselwörtern.
4. Geben Sie vor, eine offizielle Website zu sein, um Benutzer zu täuschen, und machen Sie im Titel und in den Meta-Tags unwahre Aussagen.
5. Die Website enthält eine große Menge illegaler oder betrügerischer Inhalte, die die Sicherheit des Eigentums der Benutzer gefährden können.
Aus diesen Ankündigungen leitet der Autor einige Meinungen ab und freut sich über einen Austausch.
1. Baidu hat seinen Algorithmus zur Identifizierung des Originalinhalts von Artikeln verbessert. Nach dem vorherigen 6,28K-Website-Vorfall gab Baidu in vielerlei Hinsicht an, dass es über einen vorläufigen Algorithmus zur Identifizierung des Originalinhalts verfügt und diesen ständig verbessert (Baidus Webmaster-Terminklinik wurde am 10. August eröffnet). oft in Japan und China erwähnt). Es bleibt abzuwarten, wie stark diese Fähigkeit, Originalität zu erkennen, ausgeprägt ist.
2. Websites mit teilweise gesammelten Inhalten haben immer noch Überlebenschancen. Der Baidu-Algorithmus verfügt über eine starke Originalerkennungsfähigkeit und ist sehr genau. Für einige Webmaster, insbesondere einzelne Webmaster, kann die Sicherstellung, dass die Website über einen bestimmten Anteil an Originalinhalten verfügt, immer noch einen Platz in Baidu gewinnen.
3. Keywords und Keyword-Dichte stehen weiterhin im Fokus. Als es nutzlos wurde und Keyword-Stuffing zur veraltetesten Betrugsmethode wurde, wiederholte Baidu diesen Punkt ausdrücklich. Der Autor glaubt, dass die Arbeit an Schlüsselwörtern eine große Rolle beim Seitenranking spielen wird.
4. Betrügerische Phishing-Seiten sind in aller Munde. Baidu wurde immer wieder von betrügerischen und Phishing-Websites belästigt, daher ist es sinnvoll, hart daran zu arbeiten, dies gut zu machen. Ich frage mich, ob der Webmaster in den Prozess der Auswahl einer Werbeallianz verwickelt wird, weil die Affiliate-Werbung illegal ist.
„Nach unserer Einschätzung wird dieses Algorithmus-Update das Sucherlebnis für 4 bis 5 % der Keywords verbessern, und die Genauigkeit des Algorithmus hat ein sehr hohes Niveau erreicht.“ Dies ist, was Baidu über den Algorithmus sagte, der dieses Mal aktualisiert wird. Schätzen. Ich weiß nicht, wie das Ergebnis aussehen wird, lasst uns abwarten. Dieser Artikel wurde ursprünglich vom Webmaster der Investment Promotion-Website ( www.zsw365.com ) erstellt. Sie können den Link gerne zum Nachdruck behalten!
(Verantwortlicher Redakteur: momo) Der persönliche Bereich des Autors