Gestern habe ich die IIS-Protokolle analysiert. Es scheint, dass die Optimierung zuvor von Google erfolgreich gecrawlt wurde Ich bin angekommen und habe es eingefügt, aber ich habe auch einige Probleme festgestellt. Es gibt viele 404-Seiten-Rückgabedatensätze in den Spider-Crawling-Datensätzen. Das bedeutet, dass ich den Code nicht bereinigt habe Links. Dann habe ich mich bei Google angemeldet und das Website-Verwaltungstool verwendet, um es zu analysieren. Oh mein Gott, es gab 210 tote Links. Ich schätze, die Qualität meiner Seiten war für Google nicht sehr gut, aber ich hatte Probleme, so viele 404-Seiten zu überprüfen Allein, sie zu ändern. Dann dachte ich an robots.txt.
Da die 404-Seiten hier grundsätzlich mit asp enden, können wir eine so große 404-Seite wie folgt einrichten:
User-Agent:Googlebot
Disallow:/*.asp$
Ich kam heute Morgen hierher, um die Protokolle der Google-Crawling-Aufzeichnungen von gestern Abend zu analysieren, und erwartungsgemäß habe ich diesen Seiten, die auf asp enden, keine Beachtung mehr geschenkt.
Wenn eine große Anzahl toter Links keine regulären Seiten darstellt, ist die Verwendung von robots.txt nicht geeignet. Eine andere Möglichkeit besteht darin, die 404-Seite manuell festzulegen. Im Allgemeinen sollte das vom Host-Anbieter bereitgestellte Backend eine 404-Seite bereitstellen Wenn es sich um ein .net-Programm handelt, können Sie die Fehlerseite in web.config festlegen. Melden Sie sich direkt beim Server an, um die von IIS verarbeitete 404-Code-Rückgabeseite zu ändern um zu anderen nützlichen Seiten zu springen, um Kunden zu gewinnen.
Dieser Artikel wurde vom Koushuiyu Web Tutorial Network (http://www.koushuiyu.cn) veröffentlicht. Bitte geben Sie den Nachdruck an, vielen Dank!