In der Suchmaschinenoptimierung gibt es ein Sprichwort: Bei der SEO-Optimierung legen wir immer Wert auf Details, da es möglich ist, dass ein Detail, das wir bei der Optimierung ignoriert haben, bei vielen Webmastern direkt zu einem Engpass führen kann Wenn Sie zum ersten Mal eine alte Website zur Optimierung übernehmen, werden Sie auf einige schwierige Probleme stoßen, wie z. B. stagnierende Rankings, leichte Verschlechterungen der Rankings, manchmal nach oben und manchmal nach unten gerichtete Einschlüsse usw. Es ist manchmal schwierig für uns, Lösungen für diese Probleme zu finden . Wenn wir dann eine Website übernehmen, die sich mitten in der Optimierung befindet oder einige Probleme aufweist, müssen wir die Details aller Aspekte diagnostizieren und analysieren und die seit langem bestehenden Probleme ausgraben, damit unsere Optimierung umgesetzt werden kann Proaktiv. Lassen Sie mich heute mit Ihnen die detaillierte Analyse der Optimierungsdiagnose der alten Website besprechen. ​
Wenn wir eine Website übernehmen, müssen wir zunächst eine Systemanalyse durchführen. Die Systemanalyse betrachtet die Website nicht aus einer Makroperspektive, sondern analysiert die Website bis ins kleinste Detail es. Wie spät ist es. ​
1. Funktionsweise von Robots.txt​
Die Hauptfunktion von Robots.txt besteht darin, die Seiten und Pfade auf der Website zu verarbeiten. Es kann uns dabei helfen, einige inhaltslose Seiten und tote Links usw. zu blockieren. Schauen wir uns Robots.txt unter drei Gesichtspunkten an.
1. Überprüfen Sie, ob Robots.txt vorhanden ist. Das Fehlen von Robots.txt bedeutet, dass die Suchmaschinenoptimierung dieser Website sehr schlecht ist und Sie können es direkt eingeben. Im Allgemeinen befindet sich Robots.txt im Stammverzeichnis. Wenn nicht, müssen wir es schnell tun. ​
2. Überprüfen Sie, ob die Robots.txt-Datei korrekt geschrieben ist. Die meisten Webmaster sollten die Syntax von „Zulassen“ und „Disallow“ voranstellen. Erst verbieten und dann zulassen. ​
3. Überprüfen Sie die von Robots.txt blockierten Seiten und Pfade. Wir müssen lernen, einige gemeinsame Ordner auf der Website zu identifizieren. Wir öffnen jede blockierte Seite und jeden Pfad einzeln, um festzustellen, ob diese Seiten ungültig sind und wirklich blockiert werden sollten ist immer noch unnötig. Gleichzeitig müssen wir auch den Site-Domainnamen für die Aufnahme überprüfen, um zu sehen, ob es Seiten in der Aufnahme gibt, die blockiert werden müssen. ​
2. Diagnoseanalyse von Website-Pfaden​
1. Parametererkennung dynamischer Pfade. Wenn ein dynamischer Pfad mehr als 3 oder mehr Parameter hat, führt dies direkt zu Schwierigkeiten bei der Einbindung der Seite Wie viele Parameter gibt es in einem dynamischen Pfad? Es ist ganz einfach, schauen Sie sich die Gleichheitszeichen im Pfad an. Es gibt so viele Parameter, wie es Gleichheitszeichen gibt. ​
2. Die Vor- und Nachteile pseudostatischer Pfade werden von uns auch häufig verwendet. Zu dieser Zeit wurden viele pseudostatische Pfade nicht gut umgesetzt, was sich auch auf deren Einbeziehung auswirkte. Wenn in seinen pseudostatischen Pfaden Fragezeichen oder andere Parametersymbole oder Chinesisch vorhanden sind, bedeutet dies, dass dieser pseudostatische Pfad fehlgeschlagen ist. Einige pseudostatische Pfade, wie z. B. der pseudostatische Pfad von wp, haben manchmal /index.php/. Eine solche Pseudostatik ist auch sehr schlecht, darauf sollten wir achten. ​
3. Überprüfen Sie die Rationalität des Pfads. Eines der Probleme mit der Rationalität des Pfads sollte hervorgehoben werden, nämlich das Problem zwischen chinesischen Pfaden und englischen Pfaden. Viele Webmaster verwenden jedoch gerne chinesische Pfade Die Einbeziehung chinesischer Pfade ist besser als reine Pfade. Es ist viel schwieriger, alphabetische Pfade einzubeziehen, daher sollten Webmaster bei der Verwendung chinesischer Pfade vorsichtig sein.​
3. Inspektion häufig verwendeter Optimierungselemente​
Zu den häufig verwendeten Optimierungselementen gehören: Canonical-Tags, Nofollow-Tags, H-Tags, Alt-Tags usw.​
1. Lassen Sie mich Ihnen den Unterschied zwischen nofollow und robots.txt erklären. Nofollow wird hauptsächlich verwendet, um die Übertragung von Gewicht auf externe URLs zu verhindern, während robots.txt hauptsächlich zum Blockieren interner URLs verwendet wird Für das Innere ist der andere verantwortlich, klare Arbeitsteilung. ​
2. Der Canonical-Tag wird häufig verwendet, insbesondere in Foren. Dieser Tag eignet sich im Allgemeinen für Listenseiten und Seitenpaginierungen mit hoher Ähnlichkeit. Sie müssen der Suchmaschine mitteilen, welche Seite verwenden Sie, um am Ranking der Schlüsselwörter teilzunehmen? Die spezifische Schreibmethode ist wie folgt: < link href=" http://www.***.net/zhishi/ " rel="canonical" / > ​ ;
3. Jeder kennt das Alt-Tag. Dieses Attribut muss zu jedem Bild auf unserer Website hinzugefügt werden, um Suchmaschinen den Inhalt des Bildes mitzuteilen. ​
4. Das H-Tag eignet sich hauptsächlich für Seiten mit vielen Inhaltstiteln. Wenn Ihre Inhaltsseite einen Mitteltitel und einen Untertitel unter dem großen Titel hat und viele Titel vorhanden sind, müssen Sie das H-Tag hinzufügen Im Allgemeinen gibt es auf der Startseite keine solche Funktion. ​
4. Analyse der Website-Seitenähnlichkeit und Fehleranalyse bei der Website-Optimierung​
1. Die Ähnlichkeit einer Website hängt hauptsächlich vom Vorlagentext der Website ab. Achten Sie auf das Verhältnis des Vorlagentextes zum Hauptinhalt der gesamten Website wirkt sich direkt auf die Ähnlichkeit der Website aus. Zu diesem Zeitpunkt ist es notwendig, unseren Standardtext zu optimieren. ​
2. Fehler bei der Website-Optimierung sind hauptsächlich die Diagnose der Website-Öffnungsgeschwindigkeit, lange Titel, lange Pfade usw. Zur Optimierung der Website-Geschwindigkeit möchte ich Ihnen ein Tool empfehlen, das Sie sehr gut erkennen kann Analysieren Sie die Gründe, die sich auf die Geschwindigkeit der Website auswirken, und bieten Sie Lösungen an. Probleme wie lange Titel und lange Pfade können nicht ignoriert werden. Dies sind Punkte, die für die Optimierung abgezogen werden. ​
5. Überprüfung der externen Links der Website​
Fragen Sie vor allem, ob Sie Links gekauft haben, fragen Sie im Detail, wann Sie mit dem Kauf von Links begonnen haben, wo Sie Links gekauft haben, ob Sie jetzt noch Links kaufen, prüfen Sie die Baidu-bezogenen Domains, prüfen Sie, ob die Website massenhaft gepostete Inhalte enthält, prüfen Sie die Google-Link-Links zu Sehen Sie sich die Website an. Verarbeitung von Seiten mit hoher Autorität. ​
6. Analyse der Gründe für die Herabstufung der Website-Rechte​
Wenn die von uns übernommene Website einen Downgrade erleidet, müssen wir die folgenden Fragen stellen und analysieren. ​
1. Ob der Website-Titel geändert wurde, ob das Programm und der Pfad geändert wurden, ob der Pfad geändert wurde und ob eine entsprechende Verarbeitung durchgeführt wurde, z. B. eine robots.txt-Verarbeitung, und ob die Vorlage geändert wurde. ​
2. Überprüfen Sie das IIS-Protokoll, um herauszufinden, ob es sich um ein Serverproblem oder andere Probleme handelt, die das Downgrade verursacht haben. ​
3. Analysieren Sie die Stabilität der externen Links. Es gibt drei Hauptfaktoren für externe Links, die zu einer Verringerung der Autorität führen: Erstens, der Verlust externer Links in großem Umfang, hauptsächlich aufgrund der Löschung des Kontos oder instabiler gekaufter Links. Zweitens gibt es auf der Website viele Spam-externe Links. Drittens gibt es Faktoren, die dazu beitragen, die Autorität freundlicher Links zu verringern. ​
Nach der Diagnose und Analyse der gesamten Website können wir die auf der Website vorhandenen Probleme grob analysieren, Lösungen für verschiedene Probleme formulieren und den nächsten Schritt der Optimierungsarbeit durchführen. ​
Dieser Artikel wurde zuerst von http://www.51diaoche.net im Originalformat A5 veröffentlicht. Willkommen zum Nachdruck.
Verantwortlicher Herausgeber: Chen Long Persönlicher Bereich des Autors Longfeng Hoisting Machinery