Jeder, der SEO betreibt, weiß, dass es darauf ankommt, dass die Website in die Suchmaschine aufgenommen wird. Wenn Ihre Website nicht in die Suchmaschine aufgenommen wird, kommt SEO nicht in Frage. Wenn Sie also möchten, dass Ihre Website von Suchmaschinen entdeckt wird und Ihre Webseiten ordnungsgemäß von Suchmaschinen indiziert werden, müssen Sie zunächst dafür sorgen, dass Ihre Website für Spider leicht zu crawlen ist. Die von Suchmaschinen zum Crawlen von Webseiten verwendeten Tools werden Spider oder Crawler Robots genannt und ihr englischer Name ist Robot. Diese Spider crawlen viele unserer Seiten entlang der Hyperlinks, aber einige Seiten können nicht gecrawlt werden. Einige davon sind darauf zurückzuführen, dass die Website selbst einige Probleme aufweist, die das Crawlen durch Spider nicht begünstigen, was die Indexierung der entsprechenden Seiten durch Suchmaschinen erschwert , also eine „Spinnenfalle“ bezieht sich im Allgemeinen auf Website-Erstellungstechnologien, die nicht suchmaschinenfreundlich sind. Diese Technologien begünstigen nicht, dass Spinnen unsere Seiten durchsuchen. Um diese Situation zu vermeiden, hat Xiaowuming die folgenden Faktoren zusammengefasst, um Spinnen daran zu hindern in die Falle gehen.
1: Seiten, die Sitzungs-IDs verwenden, um Benutzer zu verfolgen, um bestimmte Benutzerinformationen zu analysieren. Beim Zugriff auf die Website wird auch die gleiche Sitzungs-ID verwendet Jedes Mal, wenn der Spider die URL aufruft, wird eine Sitzungs-ID hinzugefügt. Dies führt zu einer Seite mit doppeltem Inhalt ist auch eine der häufigsten Spinnenfallen. Um beispielsweise die Verkaufsleistung zu verbessern, führen einige Websites Popup-Gespräche durch, z. B. „Hallo Freunde von XXX“ usw.
2: Vernünftige Spinnenfallen, die eine erzwungene Registrierung oder Anmeldung verwenden, um auf Seiten zuzugreifen. Dies ist für Spinnen ziemlich schwierig, da Spinnen keine Registrierung vornehmen und keine Benutzernamen und Passwörter eingeben können, um sich anzumelden, um Inhalte anzuzeigen Klicken Sie hier, um direkt anzuzeigen. Dies ist auch der Inhalt, den Spinnen sehen können.
3: Ich mag Websites, die Flash verwenden, weil Flash selbst für einige kleine und mittlere Unternehmen viele Arten von Effekten erzielen kann, insbesondere wenn es in der Navigation verwendet wird hat einen starken visuellen Effekt, daher nutzen viele Unternehmen Websites gerne Flash, um die Stärke, Kultur, Produkte usw. ihres Unternehmens zu zeigen Zeit oder durch die Verwendung von Flash können Benutzer klicken, um eine neue Seite aufzurufen, aber es ist für Spider schwierig, den Inhalt in Flash zu lesen, und daher ist es für Spider auch schwierig, auf Links in Flash zu klicken.
4: Dynamische URL, Hinzufügen zu vieler Symbole oder URL-Parameter zur URL usw. Diese Art von Spinnenfalle habe ich in der URL-Optimierung erwähnt, obwohl dynamische URLs für Spinnen weniger effektiv sind stellt immer weniger ein Problem dar, aber im Hinblick auf die Suchmaschinenfreundlichkeit sind statische oder sogar pseudostatische URLs relativ besser als dynamische URLs. Schauen Sie sich an, wie viele SEO-Kollegen mit URLs umgehen.
5: Frames wurden früher überall verwendet, aber heute werden sie von vielen Websites nur noch selten verwendet. Mit der Entwicklung großer CMS-Systeme ist die Website-Wartung relativ einfacher geworden Frames werden verwendet, weil sie für die Pflege von Website-Seiten nicht mehr notwendig sind. Darüber hinaus sind sie nicht förderlich für die Einbindung in Suchmaschinen und einer der Gründe, warum Frames immer seltener verwendet werden.
6: JS, obwohl Suchmaschinen jetzt Links in JavaScript verfolgen und sogar versuchen können, sie zu zerlegen und zu analysieren, sollten wir besser nicht erwarten, dass Suchmaschinen die Schwierigkeiten selbst überwinden. Obwohl eine effektive Navigation über JS möglich ist, kann CSS dies jedoch auch Tun Sie es; um die Benutzerfreundlichkeit der Website für Suchmaschinen zu verbessern, wird empfohlen, die Webseite besser für Spider zu crawlen. Versuchen Sie, kein js zu verwenden. Ein Vorteil von js besteht natürlich darin, dass der Webmaster dies tut Wenn Sie nicht möchten, dass die Seiten eingebunden werden, können Sie js verwenden. Eine weitere Möglichkeit, Javascript-Spider-Fallen zu beseitigen, ist die Verwendung des <noscript>-Tags. Das <noscript>-Tag stellt alternativen Code für Browser bereit, die kein JavaScript unterstützen. Spider führen kein JavaScript aus, daher verarbeiten sie stattdessen <noscript>-Code.
7: Tiefe Webseiten, von denen einige keinen Zugang haben und weit von der Startseite der Website entfernt sind, sind für Spider relativ schwer zu crawlen. Bei Websites mit hohem Gewicht kann dies jedoch anders sein. Damit eine Website-Seite eingebunden werden kann, muss sie zunächst eine grundlegende Gewichtung haben. Die Gewichtung der Homepage ist im Allgemeinen am höchsten, und dann kann die Gewichtung der Homepage an die internen Seiten weitergegeben werden Steigt der Schwellenwert, der eingebunden werden kann, wird die Seite nach dieser Theorie kleiner. Daher ist es umso einfacher, mehr Gewicht zu erhalten, je näher der Klickabstand zwischen der Innenseite und der Startseite ist Übertragung auf der Startseite. Eine gute Website-Struktur kann es ermöglichen, mehr Seiten der Website einzubinden.
8: Die erzwungene Verwendung von Cookies entspricht der direkten Deaktivierung von Cookies für Suchmaschinen. Einige Websites verwenden erzwungene Cookies, um bestimmte Funktionen zu erreichen, z. B. die Verfolgung von Benutzerzugriffspfaden, die Speicherung von Benutzerinformationen oder sogar den Diebstahl der Privatsphäre von Benutzern. Wenn der Benutzer beim Besuch solcher Websites keine Cookies aktiviert, wird die angezeigte Seite abnormal sein, sodass Spider nicht normal auf dieselbe Webseite zugreifen können.
9: Verschiedene Formen von Sprüngen. Ich glaube, viele SEO-Kinder sind mit 301-Weiterleitungen bereits sehr vertraut. Allerdings sind Spinnen von anderen 302-Weiterleitungen oder Sprüngen wie Meta-Refresh, Javascript, Flash usw. sehr angewidert, und 301 ist kein letzter Wie Sie wissen, stellt jeder Sprung bei Verwendung ein gewisses Hindernis für das Kriechen der Spinne dar.
10: Robots.txt-Schreibfehler und verschiedene Betrugstechniken wie versteckter Text, versteckte Links usw., Verwendung getarnter Webseiten zur Anzeige verschiedener Webseiten, um festzustellen, ob der Besucher ein Spider oder ein gewöhnlicher Browser ist, und Verwendung des Standardfehlers 404-Seiten usw. stellen ebenfalls Kriechhindernisse für Spinnen dar. Quelle dieses Artikels: Shenzhen SEO-Website: http://www.zhsem.com/ Bitte respektieren Sie die Originalität, geben Sie sie bitte beim Nachdruck an, danke!
Der persönliche Raum des Autors Xiao Wuming