Die überwiegende Mehrheit der Webmaster weiß, dass es für eine Website sehr wichtig ist, ein gutes Ranking in Suchmaschinen zu erreichen. Daher geben viele Webmaster ihr Bestes, um Suchmaschinen zufrieden zu stellen, und möchten Suchmaschinen-Spider wie Kaiser behandeln, in der Hoffnung, dass Spider geschätzt werden. Dadurch wird das Ranking der Website verbessert, aber selbst wenn die Spinne gut gepflegt wird, kann sie kein gutes Ranking erreichen. Warum ist das so, weil Spinnen keine menschlichen Gefühle haben, selbst wenn man sie wie einen Kaiser behandelt? Ich habe auch keine Gnade für Sie, tun Sie einfach, was Sie wollen. In Bezug auf die Website-Optimierung gilt also nicht, dass der Optimierungseffekt umso besser ist, aber Sie müssen die Kompromisse kennen Erlernen Sie die Fähigkeiten, einige Spinnen zu blockieren! Zusätzlich zum Einschränken von Spinnen in ADMIN können Sie beim Crawlen von Daten auch Spinnen in anderen Verzeichnissen richtig blockieren, was ebenfalls sehr nützlich ist.
1: Sowohl das Bild- als auch das Vorlagenverzeichnis können blockiert werden
Da viele Webmaster derzeit im Internet nach denselben Bildern suchen und diese mit vorgefertigten Vorlagen überschwemmt werden, sind diese altmodisch, wenn Sie Ihre Website erneut durchsuchen Die Dinge werden Sie natürlich sehr verärgern, daher wird Ihre Website als Nachahmung und Betrug eingestuft. Es wird schwieriger sein, die Gunst der Suchmaschinen zu gewinnen, sodass das IMAGES-Verzeichnis normalerweise blockiert werden kann.
2: Das Cache-Verzeichnis kann blockiert werden, um eine wiederholte Indizierung zu verhindern
Spinnen sind sehr gierig, solange man sie füttert, akzeptieren sie sie alle, ob real oder illusorisch. Beispielsweise indiziert die Spinne den Inhalt im Cache-Verzeichnis der Website, der zwangsläufig vom Inhalt darin abweicht Wenn es zu viele Duplikate gibt, geht der Baidu-Algorithmus davon aus, dass Ihre Website betrügt, was sich normalerweise negativ auf das Cache-Verzeichnis jeder Website auswirkt Das Programm ist unterschiedlich. Je nach Website-Erstellungsprogramm ist es erforderlich, die entsprechenden Cache-Verzeichnisse zu blockieren!
Drittens: CSS-Verzeichnisse und einige RSS-Seiten müssen blockiert werden
Das CSS-Verzeichnis ist für Spider völlig unbrauchbar und beeinträchtigt die Beurteilung des Suchmaschinenalgorithmus. Darüber hinaus können die RSS-Seiten vieler Website-Erstellungsprogramme blockiert werden Die Duplizierung von Inhalten führt letztendlich auch zu Fehleinschätzungen durch Suchmaschinen. Diese Art der Blockierung scheint für Spinnen respektlos zu sein, ist aber wie eine gute Medizin, die bitter ist Im Mund und gut gegen die Krankheit! Guter Rat ist hart für die Ohren, aber gut für die Taten!
Viertens: Wenn zwei Seiten vorhanden sind, blockieren Sie zuerst die dynamische Seite
Im Allgemeinen lassen sich statische Seiten einer Website leicht von Suchmaschinen indizieren. Im Allgemeinen sind Spider-Crawling und Indizierung zwei verschiedene Dinge. Zusätzlich zu statischen Seiten verfügen die meisten Websites auch über dynamische Seiten, wie z. B. „www.XXXX/1. html“. www.xxxxx/asp?id=1 beziehen sich auf dieselbe Seite. Wenn sie nicht blockiert sind, werden die beiden Seiten zwangsläufig gleichzeitig von Spinnen gecrawlt. Wenn der Suchmaschinenalgorithmus jedoch feststellt, dass sie vorhanden sind Wenn es sich um zwei identische Seiten handelt, wird davon ausgegangen, dass Ihre Website des Betrugs verdächtigt wird. Daher werden wir die Überprüfung Ihrer Website verstärken, was sich auf das Ranking der Website auswirkt. Daher besteht der richtige Ansatz darin, die dynamischen Seiten der Website zu blockieren Erste!
Fünftens: Inhalte im Zusammenhang mit Website-Sicherheit und Datenschutz müssen blockiert werden
Am Anfang dieses Artikels wurde erwähnt, dass die Verzeichnisse ADMIN und DATA tatsächlich mit der Sicherheit und dem Datenschutz der Website zusammenhängen. Es hat keinen Vorteil, sie Spinnen auszusetzen, und es gibt möglicherweise sogar mehr Kanäle für Angriffe, daher sind Sicherheitsaspekte unerlässlich. Zugehörige Verzeichnisse, wie z. B. Datenbanken, müssen alle blockiert werden. Darüber hinaus laden einige Webmaster die Website herunter, löschen jedoch versehentlich die Sicherungsdatei Dies kann leicht dazu führen, dass Spinnen wiederholt kriechen, und es kann auch leicht zu Hackerangriffen kommen. Daher ist es unbedingt erforderlich, ROBOTS.TXT-Dateien zu verwenden, um Dateien wie „RAR und Zip“ zu blockieren kann die Sicherheit der Website erhöhen!
Alles in allem ist es oft die größte Schmeichelei, den Arbeitsdruck von Spinnen durch geeignete Optimierung und Abschirmung zu lösen, und es ist auch der Weg, den Grad der Website-Optimierung zu verbessern! Dieser Artikel: http://www.wowawowa.cn/Wowawowa Weight Loss Network A5 ist die erste Veröffentlichung, bitte beim Nachdruck angeben, vielen Dank!
Verantwortlicher Herausgeber: Der persönliche Bereich von Jiangnan, dem Autor von Hadron