Die ursprünglich normale Website war plötzlich nicht mehr enthalten. Für SEO-Mitarbeiter bedeutete dies, dass die Website des Autors vor einiger Zeit auf diese Situation gestoßen ist. Nach der Überprüfung und Verarbeitung war die Website wieder normal. Hier werde ich anhand konkreter Beispiele des Autors über die Gründe und Lösungen sprechen, warum die Website plötzlich nicht mehr enthalten ist.
Allgemeine Situation: Um den 15. Dezember begann die kleine Website des Autors, die täglich aktualisierten Informationsseiten nicht mehr einzubinden. Dann begann die Aufnahme anderer Seiten auf der Website abzunehmen. und Snapshots begannen zu stagnieren, das SEO-Ranking des Website-Keywords Nanjing sank.
Da es viele Gründe dafür gibt, dass Websites nicht berücksichtigt werden, ist die Prüfung nicht blind. Sie müssen sich darüber im Klaren sein, warum die Website nicht berücksichtigt wird sind nichts weiter als drei Punkte: 1. Spinnen sind nicht enthalten. 2. Die Spinne kam, konnte die Seite nicht finden und ging. 3. Die Spinne kam und betrat einige Seiten der Website, brachte aber immer noch nichts. Aus diesen 3 Gründen habe ich folgende Prüfungen durchgeführt:
1. Überprüfen Sie das iis-Protokoll. Durch die Überprüfung des IIS-Protokolls können wir eindeutig nachvollziehen, wo sich der Spider befindet, ob er auf unsere Website gelangt ist, wann er kam und wie häufig er vorkommt. Kommt der Spider nicht, wird die Website natürlich nicht eingebunden.
2. Überprüfen Sie den Kanal. Wenn Spider normalerweise auf Ihre Website gelangen, müssen Sie sich zunächst Ihre robots.txt-Datei ansehen, um zu sehen, ob Sie beim Ändern von Robots versehentlich Seiten gesperrt haben, die normalerweise eingebunden werden müssen, oder liegt es daran, dass die Seite, die Sie ebenfalls gesperrt haben den einzigen Eingang oder den Haupteingang der Seite gesperrt, der einbezogen werden muss? Eine weitere Sache, die Sie bei der Robots-Datei beachten sollten, ist, sie nicht häufig zu ändern, da der Spider bei jeder Änderung erneut überlegt, welche Seiten benötigt werden und welche nicht gecrawlt werden sollen. Außerdem sind häufige Änderungen für Spider sehr ärgerlich Außerdem müssen Sie prüfen, ob die verschiedenen Zugänge zu den Seiten Ihrer Website normal sind.
3. Überprüfen Sie die Seite, und Ihre Roboter haben sich nicht so stark verändert wie zuvor und es gibt keine größeren Änderungen in der Struktur und im Seiteneintrag, dann muss das Problem auf der Seite liegen. Auf der Artikelseite müssen Sie die Qualität Ihres Artikels berücksichtigen. Ist der Artikel originell genug usw. Sie müssen auch prüfen, ob Ihr Artikel zu häufig von anderen gesammelt wurde Es gibt keine Gewohnheit, zu überprüfen, und zu viele Artikel werden von anderen gesammelt. Wenn Ihr Gewicht nicht so hoch ist wie die Website, die Ihre Artikel sammelt, kann es sein, dass Baidu denkt, dass Ihre Website eine Sammelseite ist, insbesondere wenn Ihre Artikel dies sind Wie bei anderen Seiten muss auch beim Sammeln darauf geachtet werden, ob der Inhalt zu ähnlich ist, ob der Titel wiederholt wird usw. Diesen Spinnen gefällt das nicht.
Schauen Sie sich diese 3 Gründe für Ihre Website an. Ich glaube, Sie werden die Antwort darauf finden, warum Ihre Website plötzlich nicht mehr enthalten ist. Tatsächlich trat das Problem nach der Überprüfung der Website des Autors auch aus mehreren Gründen auf, und zwar aufgrund der Überarbeitung der Website Nach Ansicht des Autors wurden sie verboten und die Problematik anderer Seiteneinträge wurde nicht berücksichtigt, was zur Folge hatte, dass sie nicht aufgenommen wurden.
Hier ist die Lösung:
1. Wenn Sie das IIS-Protokoll überprüfen und feststellen, dass der Spider nicht angekommen ist, wird Ihre Website wahrscheinlich herabgestuft. Sie müssen den Status Ihres Servers überprüfen, um festzustellen, ob er zu viele 404- oder 503-Statuswerte zurückgibt Ja, es ist nicht so, dass es viele Seiten gibt, auf die nicht zugegriffen werden kann. Erhöhen Sie nicht den Datenverkehr, der auch der Hauptgrund für die Herabstufung ist.
2. Wenn das Problem in robots.txt liegt, ist es einfach, es richtig zu ändern. Denken Sie daran, die Beziehung zwischen Seite A nicht zu beeinträchtigen.
3. Wenn das Problem bei der Seite liegt, müssen Sie die Originalität des Artikels erhöhen. Übermäßiges Sammeln wird von Baidu als Mülldeponie betrachtet, und übermäßiges Sammeln durch andere wird von Baidu ebenfalls als Mülldeponie betrachtet. Machen Sie bei der Überprüfung gute Arbeit und achten Sie besonders darauf, dass sie nicht von Maschinen erfasst werden. Heutzutage gibt es viele Lokomotiven-ähnliche Erfassungstools, die vielen Webmastern dabei helfen können, eine Menge Arbeitsaufwand zu reduzieren, wenn Ihre Website jedoch von solchen Maschinen erfasst wird , , es wird sehr deprimierend sein. Sie können einige Einschränkungen auf der Seite festlegen, z. B. den Austausch von P-, Div-, Span-Codes usw.
Durch die oben beschriebene Methode wurde die Website des Autors wieder normalisiert. Zum Zeitpunkt des Schreibens dieses Artikels waren alle Artikel, die ich gerade aktualisiert habe, enthalten.
Es wird den Leuten Kopfschmerzen bereiten, wenn die Website plötzlich nicht mehr enthalten ist, aber es ist wichtig, dass Sie Ihre Meinung klären. Gehen Sie nicht in eine Sackgasse. Sie müssen mit vernünftigen Methoden herauskommen Sobald Sie rauskommen, werden Sie feststellen, dass Ihre Website besser ist als zuvor und Baidu einen besseren Eindruck von Ihrer Website haben wird. Dieser Artikel stammt von http://www.seo1912.com , bitte beim Nachdruck angeben.
Verantwortlicher Herausgeber: Chen Long. Persönlicher Bereich des Autors SEO1912