Eine Website, die von einer Suchmaschine gepflückt wird, ist zweifellos ein fataler Schlag für jeden Webmaster. Unabhängig davon, ob es sich um eine Herabstufung oder eine Entnahme handelt, gibt es oft einen Grund für eine solche Situation. Andernfalls werden Suchmaschinen Ihre Website nicht ohne Grund markieren Daher müssen wir die Gründe analysieren und korrigieren, die dazu geführt haben, dass unsere Website ausgewählt wurde. Nur so kann die Suchmaschine unsere Website wieder einbeziehen.
Zunächst müssen wir die Gründe verstehen, die dazu führen, dass unsere Website fehlerhaft ist. Der Autor fasst hier einige häufige Gründe und Lösungen für Sie zusammen.
(1) Die Website sammelt in großem Umfang Inhalte.
Heutzutage verfügen einzelne Webmaster über vier oder fünf Websites, manche sogar über Dutzende. Natürlich hat eine Person definitiv nicht genug Energie, um sie einzeln zu verwalten, deshalb kaufen viele Webmaster einige Sammlungs-Plug-ins online, um sie zu transportieren Die Wirkung des Sammelns von Inhalten von anderen Websites kann zunächst gut sein, insbesondere für die Sammlung, die sehr leistungsstark ist, da ich bereits eine Sammlungsseite erstellt habe und sie daher recht gut kenne. Nach einer gewissen Zeit begann Baidu jedoch, immer weniger von seiner Website gesammelte Inhalte einzubeziehen, bis diese nicht mehr einbezogen wurden und die Website K-ed oder gepflückt wurde.
In Bezug auf die obige Situation schlage ich vor, dass Sie eine kleine Menge an Sammlungen erstellen. Es ist am besten, beim Kauf einiger Sammlungs-Plug-Ins einige Pseudo-Originalprogramme zu kaufen, um Pseudo-Originalarbeiten durchzuführen, damit Suchmaschinen benutzerfreundlicher werden. Wenn Sie eine Website mit viel Zeit haben, empfiehlt der Autor dennoch, Ihre eigene originelle Kreation zu erstellen. Schließlich mögen Spinnen frische Lebensmittel.
(2) Übermäßige interne Optimierung der Website.
Aufgrund der Beliebtheit der SEO-Optimierung in den letzten Jahren verfügt jeder Webmaster über mehr oder weniger gewisse Optimierungskenntnisse. Allerdings gibt es unter diesen Leuten viele Webmaster, die ein falsches Verständnis von Optimierung haben und viel Optimierungsarbeit an ihren Websites leisten Es kommt durchaus vor, dass eine Website überoptimiert, von Suchmaschinen herabgestuft, K-ed oder entfernt wird. Unter normalen Umständen liegt dies hauptsächlich daran, dass viele Webmaster eine große Anzahl interner Links innerhalb der Website erstellen, was zu einer übermäßigen Optimierung der internen Links führt und von Suchmaschinen als Betrug behandelt wird.
Lösung: Passen Sie einen angemessenen Optimierungsplan für Ihre eigene Website an, machen Sie sich einen guten Überblick über die Keyword-Dichte der Website, aktualisieren Sie den Inhalt regelmäßig und übermitteln Sie ihn erneut an das Baidu-Website-Login, bevor er wieder eingebunden werden kann.
(3) Übermäßige externe Optimierung der Website.
Die Aussage, dass die externe Optimierung der Website übertrieben sei, trifft bei neuen Seiten oft zu. Da eine neue Website online ist, müssen wir einige externe Links senden, um Spider zum Crawlen und Crawlen anzulocken, damit unsere Website schnell eingebunden werden kann. Allerdings wird der Spruch, dass es sich um einen „neuen Sender“ handele, oft ignoriert. Veröffentlichen Sie eine große Anzahl externer Links, um Spinnen anzulocken. Wenn eine neue Website in großer Zahl durchsucht wird, wird sie zweifellos von Suchmaschinen angezeigt für einige Webmaster, die Massenversandsoftware verwenden, um externe Links zu versenden.
Lösung: Planen Sie die Menge und Qualität externer Links gut. Verwenden Sie keine Massenversandsoftware, um externe Links zu neuen Websites zu versenden, da dies sonst katastrophale Folgen haben wird. Erstellen Sie so viele hochwertige externe Links wie möglich, und konzentrieren Sie sich nicht darauf viel auf Quantität. Erhöhen Sie die Anzahl der täglich veröffentlichten externen Links langsam und übermitteln Sie diese auf die gleiche Weise an Suchmaschinen. In diesem Fall können Sie in der Regel innerhalb einer Woche erneut auf die Aufnahme antworten.
(4) Die Website wurde mit Trojanischen Pferden gehackt.
Unabhängig vom CMS gibt es keine Garantie dafür, dass es keine Lücken gibt. Das häufigste CMS ist DEDECMS, das ziemlich viele Lücken aufweist. Daher kommt es häufig vor, dass viele Websites mit Trojanern gehackt werden. Insbesondere bei einigen Viren können wir Besucher sie unter normalen Browserbedingungen nicht sehen. Darüber hinaus gibt es auf der Website keine schwarzen Links, aber wenn sie von Spinnen gecrawlt werden, wird dies zweifellos dazu führen Eine meiner Websites, www.QQyjx.com , wurde beispielsweise vor einigen Tagen aufgrund einer Sicherheitslücke blockiert und direkt auf einige illegale Websites weitergeleitet Dies führte dazu, dass die Website von Suchmaschinen herabgestuft wurde, was sehr tragisch ist.
Lösung: Erstens müssen Sie gute Sicherheitsmaßnahmen für den Website-Server ergreifen. Zweitens müssen Sie einige Berechtigungen für das CMS-Programm der Website selbst festlegen und den rechtzeitigen Updates einiger von der offiziellen Website veröffentlichter Schwachstellen-Patches mehr Aufmerksamkeit schenken . Natürlich gibt es keine luftdichte Wand, daher müssen wir regelmäßig einige Webmaster-Tools verwenden, um festzustellen, ob es auf unserer Website Anomalien gibt, und oft auf unseren eigenen Server gehen, um die Website-Protokolle zu überprüfen und den Status der Spinnen zu beobachten, die sich anmelden ihre eigenen Server und rechtzeitig Die Entdeckung wird umgehend bearbeitet!
Dieser Artikel wurde ursprünglich vom Webmaster von QQ Yijingxuan geteilt. Bitte geben Sie ihn beim Nachdruck an.
Chefredakteur: Yangyangs persönlicher Bereich