1. Warum ist Platz so wichtig?
Ein Suchmaschinen-Crawler (Baidus Crawler heißt Spider, Googles Crawler heißt Robot) ist ein Programm, das auf URLs angewiesen ist, um die Seiten der Website zu crawlen. Wir nennen es einen Crawler sammelt URLs und lädt sie herunter. Das Programm dieser Website zählt alle Links auf der Seite, einschließlich interner und externer Links. Anschließend wird die Statistik erneut gecrawlt und in Form von TXT-Text auf dem Server gespeichert.
Die Aufnahme ist in zwei Prozesse unterteilt: 1. Sammeln Sie zunächst Links, indem Sie zu einer bestimmten Seite crawlen (den Link, den Sie an die Suchmaschine übermittelt haben). 2. Crawlen Sie zu Ihrer Webseite und laden Sie die Webseite herunter. 1. Cache-Server (Snapshot) 2. SITE-Server (einschließlich) 3. Indexlistenserver (Ranking) Sie befinden sich nicht auf demselben Server. Aus diesem Grund sind unsere Snapshot-Daten unterschiedlich. Da sie sich auf verschiedenen Servern befinden, kommt es zu Nichtsynchronisierungserscheinungen. Beispielsweise gibt es keine Homepage für den Domainnamen unserer SITE, aber es gibt eine Homepage für die direkte Suche nach dem Domainnamen nicht synchronisiert.
Warum ist die Stabilität des Bereichs so wichtig? Weil Suchmaschinen-Crawler die Verhaltensgewohnheiten der Benutzer beim Crawlen von Website-Inhalten simulieren. Wenn der Server instabil ist oder die Öffnungsgeschwindigkeit sehr langsam ist, verliert der Crawler das Interesse an der Website, wenn Daten verloren gehen oder der Inhalt nicht gecrawlt werden kann. Daher erinnert Wu Xun SEO-Experten daran, dass Serverinstabilität einen direkten negativen Einfluss auf die SEO-Optimierung haben wird.
2. Wie können wir es also verhindern?
1. Die Sicherung der Website-Daten (Webseitendaten und Datenbankdaten) muss regelmäßig durchgeführt werden, und die Datenbanksicherungs-Website-Dateien müssen lokal gepackt und heruntergeladen werden. Im Falle eines Hackerangriffs können wir die Daten direkt wiederherstellen, das FTP-Passwort, das Serverpasswort oder das Space-Hintergrundkontrollpasswort ändern und die Schreibrechte des Website-Ordners vorübergehend aufheben. Je komplexer das FTP-Passwort, desto besser!
2. Eine Öffnungsgeschwindigkeit von mehr als 6 Sekunden ist sehr schädlich für die Suchmaschinenoptimierung. Wenn die Website zu viele Bilder und zu viel Flash enthält, wird empfohlen, die Bilder auf nicht mehr als 50 KB zu komprimieren. Wenn Sie Flash nicht verwenden können. Es wird außerdem empfohlen, die Funktion „Komprimierte Übertragung“ zu aktivieren. Ein weiterer Grund ist, dass beim Aufrufen, insbesondere beim Aufrufen von Wettervorhersagen, Ihre eigene Website auch sehr langsam ist, solange die aufrufende Website die Website nur langsam öffnet. Es reicht aus, über eine Online-Nachrichtensoftware und Website-Statistiken zu verfügen, aber mehr wirkt sich auch auf die Öffnungsgeschwindigkeit der Website aus. Denken Sie daran: Je größer der Aufrufcode, desto langsamer die Öffnungsgeschwindigkeit! Wenn keiner der oben genannten Gründe die Ursache ist, ist es höchstwahrscheinlich, dass der Raum oder Server langsam öffnet, um das Problem zu lösen Wenn das Problem nicht gelöst werden kann, müssen Sie es unbedingt ändern. Wenn der Speicherplatz oder der Server geändert wird, beachten Sie bitte einige Punkte:
Übertragen Sie zunächst die Daten (Webseitendateien und Datenbank) und übertragen Sie sie dann.
Testen Sie den Speicherplatz oder die Servergeschwindigkeit vor der zweiten Übertragung.
Drittens aktivieren Sie zunächst den Domänennamen der zweiten Ebene zum Debuggen oder verwenden Sie den Domänennamen der dritten Ebene, der von diesem Space-Provider gesendet wird, zum Debuggen.
Viertens ist es am besten, die Auflösung des Domänennamens dann durchzuführen, wenn die Anzahl der Benutzerbesuche am geringsten ist.
Fünftens muss der ursprüngliche Speicherplatz nach der Auflösung des Domänennamens 24 Stunden lang stabil sein, und die ursprünglichen Speicherplatzdaten können nicht gelöscht werden, da die globale effektive Zeit der DNS-Auflösung 5 Minuten bis 24 Stunden beträgt Alte Benutzer haben Caches der ursprünglichen IP-Adresse und jedes Mal. Die effektive Zeit der DNS-Auflösung ist in verschiedenen Regionen unterschiedlich, und der Spider verfügt auch über einen Cache.
3. Wie wählt man einen angemessenen Raum aus?
Die erste besteht darin, pseudostatischen Raum zu unterstützen. Jetzt sind die meisten Website-Quellcodes dynamisch und pseudostatisch, daher muss pseudostatischer Raum unterstützt werden.
Zweitens ist es am besten, eine IIS-Protokollabfrage bereitzustellen. Wenn Sie die Bewegungen der Crawler auf der Website verstehen möchten, müssen Sie das IIS-Protokoll überprüfen und am besten jede Stunde ein IIS-Protokoll erstellen.
Drittens ist es am besten, den PHP+MySQL-Bereich zu unterstützen. Die meisten Webmaster verwenden den Website-Quellcode von PHP+MySQL.
Viertens müssen wir die Online-Dekomprimierungsfunktion des Space im Hintergrund unterstützen. Wenn wir die Online-Dekomprimierung und -Komprimierung im Hintergrund nicht unterstützen, kostet uns das Hochladen von Dateien oder Backups viel Zeit.
Fünftens müssen wir die Bindung von 301-Weiterleitungen und 404-Fehlerseiten unterstützen, um das Gewicht unserer Website zu zentralisieren oder zu verschieben.
Sechstens ist es am besten, die Anzahl der IIS-Parallelität nicht zu begrenzen. Der Speicherplatz, der die Anzahl der IIS-Parallelität begrenzt, wird direkt lahmgelegt, solange er von Threads angegriffen wird.
Das siebte Problem besteht darin, dass die Technologie es in etwa 12 Stunden lösen kann.
Verantwortlicher Redakteur: Chen Long Persönlicher Bereich des Autors Wu Xun