Für einen SEOr ist das Server-IIS-Protokoll ein sehr wichtiges Optimierungsreferenzprotokoll, da wir von hier aus den Status des Suchmaschinen-Spider-Crawlings sehen und auch einige Bedingungen der Website selbst verstehen und auch das Verhalten von analysieren können Für einige Benutzer ist es nicht erforderlich, Code von Drittanbietern zu verwenden. Natürlich sind einige IIS-Protokolle von IDC-Speicherplatzanbietern eingeschränkt und müssen geöffnet werden, bevor sie angezeigt werden können In diesem Fall wird empfohlen, den Quellcode online herunterzuladen und zu installieren. Als nächstes erklärt der Autor ausführlich, wie der Server IIS der Website helfen kann!
(1) Überprüfen Sie, wie oft die Spinne kriecht.
Ein Suchmaschinen-Spider ist ein Roboter, der den Inhalt unserer Website crawlt und den gecrawlten Inhalt an die Suchmaschinendatenbank übermittelt. Daher wissen wir, wie oft der Spider gecrawlt hat, und wissen indirekt, ob unsere Website von der Suchmaschine durchsucht wurde . Darüber hinaus können wir durch den Vergleich der Herkunft von Spidern vollständig verstehen, welche externen Links für unsere Website nützlicher sind und welche Spider mehr Wert darauf legen, welche Seiten unserer Website Content bevorzugen, und diese immer nachahmen.
Diese schädlichen Suchmaschinen-Spider müssen wir blockieren, denn schließlich gibt es viele Arten von Spidern. Wenn wir eines Tages viele unbekannte Spider in großer Zahl auf unserer Website finden, sollten wir sie blockieren Obwohl der Autor an Autorität verliert, ruft er alle dazu auf, keine Software zu verwenden, die Spinnen anlockt, um ihre eigenen Websites zu crawlen.
Eine große Anzahl von Suchmaschinen-Spidern crawlt unsere Website, was zweifellos eine gewisse Menge an Ressourcen auf unserem Server beansprucht. Allerdings ist viel Spider-Crawling sehr hilfreich für das Gewicht unserer Website, daher schlage ich vor, dass sich jeder für eine bessere Seite entscheiden sollte Server, um einen Zusammenbruch in kritischen Momenten zu vermeiden. Darüber hinaus haben wir aus einigen offiziellen Ankündigungen erfahren, dass viele Hacker den Spider-Crawling-Modus verwenden, um Website-Datenressourcen zu stehlen. Daher müssen wir auch darauf achten!
(2) Überprüfen Sie, inwieweit der Spider die Seite crawlt.
Was Spider im Allgemeinen am meisten schätzen, ist die Homepage unserer Website, daher werden Homepage-Snapshots im Allgemeinen am häufigsten aktualisiert. Und wenn die internen Seiten auch häufig sind, wird der Effekt erreicht, den wir oft als sofortige Sammlung bezeichnen. Wenn einige unserer Seiten nicht von Spidern gecrawlt werden, können wir anhand des ISS-Protokolls überprüfen, ob wir das Crawlen von Spidern verboten haben. Darüber hinaus ist dem Autor bewusst, dass viele Webmaster bei der Erstellung externer Links normalerweise die Homepage-Adresse verwenden. Hier fordert der Autor alle dazu auf, auch mehr externe Links zu Spalten und Artikelseiten zu erstellen Und daraus können wir auch einige Bedingungen unserer Website verstehen, z. B. von welchen Seiten aus der Spider eindringt, welche Seiten relativ häufig gecrawlt werden, welche Seiten einmal gecrawlt werden, aber nicht erneut gecrawlt oder eingebunden werden, also fassen wir sie zusammen Sie können genauer nachvollziehen, welche Inhalte Spider bevorzugen, und Sie können auch sehen, ob Spider an unseren Inhalten interessiert sind oder aufgrund externer Links crawlen.
(3) Analyse des Website-HTTP-Codes.
Wenn ein Spider den Inhalt unserer Website crawlt und crawlt, hinterlässt er normalerweise einen HTTP-Statuscode. Bei seiner Rückkehr wird normalerweise 200 angezeigt, was bedeutet, dass er möglicherweise nicht direkt veröffentlicht wird, was bedeutet, dass ein Überprüfungszeitraum erforderlich ist.
Im Folgenden finden Sie zwei Selbstfragen und Antworten, die der Autor zu diesem Bereich gestellt hat. Ich hoffe, dass sie für alle Webmaster hilfreich sind.
1. Sollte die Seite 404 oder 200 zurückgeben, wenn sie nicht auf der Website vorhanden ist?
Erstens ist die Antwort definitiv, einen 404-Wert zurückzugeben, denn jeder weiß, dass die 404-Seite der Suchmaschine mitteilen kann, dass diese Seite eine Fehlerseite ist und nicht aufgerufen werden kann, aber wenn sie 200 ist, ist das anders, weil sie bedeutet, dass auf diese Seite zugegriffen werden kann. Wenn der Spider sie jedoch crawlt, wird festgestellt, dass sie nicht zugänglich ist. Wenn es zu viele solcher Seiten gibt, führt dies direkt dazu, dass unsere Website von Suchmaschinen oder sogar K herabgestuft wird.
2. Welcher Statuscode sollte zurückgegeben werden, wenn die Website erstellt oder eingereicht wird?
Die Antwort lautet 503-Status, da 503 Suchmaschinen mitteilen kann, dass unsere Website vorübergehend nicht zugänglich ist und innerhalb eines bestimmten Zeitraums wiederhergestellt wird. Wenn es sich um andere Statuscodes handelt, können Suchmaschinen möglicherweise nicht darauf zugreifen, insbesondere auf die Seite 404 Suchmaschinen glauben direkt, dass die Website nicht mehr existiert.
Die 404-Seite ist tatsächlich sehr hilfreich für unsere Website. Ich empfehle Ihnen daher, daran zu denken, eine 404-Seite für Ihre Website zu erstellen.
(4) Verwenden Sie einige professionelle Tools für die Protokollanalyse
Der PV-Wert ist zweifellos ein Ausdruck der Benutzererfahrung einer Website. Wenn die Absprungrate unserer Website zu hoch ist, sich die Website in einem Zustand befindet, in dem sie nicht geöffnet werden kann, oder der Inhalt schlecht ist, ist das Ranking der Website selbstverständlich. , ist es unmöglich zu erkennen, welche Seiten mehr Verkehr haben, sodass wir durch Erkundung die Bedürfnisse der Benutzer verstehen und Verbesserungen vornehmen können. Wenn unsere Website jedoch längere Zeit nicht geöffnet werden kann oder der Zugriff langsam ist, können wir anhand der Protokolle überprüfen, ob sie von böswilligem Datenverkehr angegriffen wird. In einer solchen Situation müssen wir entweder einen Kompromiss eingehen oder den Fall melden direkt den Server wechseln.
Wenn Benutzer bei einer Website nicht auf Ihre Website klicken, bedeutet dies, dass Ihre Website nicht attraktiv ist, und Suchmaschinen denken auch, dass Ihre Website keine gute Website ist. Daher ist es sehr wichtig, ein gutes User Experience Studio zu betreiben . . Abschließend empfehle ich zwei weitere professionelle IIS-Protokollanalysetools:
1. .awstats,
2. Webalizer
Diese beiden Tools können auch einige Statuscodes (⊙o⊙) der Website analysieren!
Zusammenfassung: Das IIS-Protokoll einer Website ist in allen Aspekten der Website-Optimierung und Benutzererfahrung sehr hilfreich. Es ermöglicht uns, mehr über unsere Website zu erfahren und auf einige kleine Details zu achten, die wir auf natürliche Weise übersehen haben von Suchmaschinen bevorzugt werden, und wir können es einreichen, um ein entsprechendes Verständnis zu erlangen, bevor unsere Website K oder herabgestuft wird. Zu diesem Zeitpunkt können wir gezielte Verbesserungen vornehmen, die oft erreicht werden können. Dieser Artikel wurde ursprünglich von Name Network http://www.name2012.com geteilt. Ich hoffe, dass Freunde, die ihn erneut veröffentlichen, den Link und das Urheberrecht behalten. Ich möchte Ihnen meinen Dank aussprechen. Nun, das ist alles, was ich heute mit Ihnen teilen kann. Ich werde in Zukunft mehr auf dieser Plattform mit Ihnen kommunizieren, also bis zum nächsten Mal.
Verantwortlicher Herausgeber: Chen Long Persönlicher Bereich des Autors auf name2012.com