Das jüngste strategische Update von Baidu hat dazu geführt, dass sich Webmaster im Internet auf die Erstellung von Inhalten konzentrieren sollten Wie man eine überraschende Website gestaltet, die der neuen Strategie von Baidu gerecht wird, möchte ich hier mit Ihnen teilen.
Erstens: Freundliche Navigationseinstellungen. Beim Erstellen einer Website müssen wir nicht nur das Design der Homepage berücksichtigen, sondern auch das Design der Innenseiten und das Spider-Crawling. Viele Websites platzieren beim Design nur Inhalte auf der Homepage und es gibt keine Links zu anderen Innenseiten Kommen Sie zum Crawlen auf die Website. Nachdem Sie den Inhalt der Homepage abgerufen haben, können Sie die Website nur verlassen. Bei dieser Art von Website-Design können Spider nur eine Seite auf der Homepage einbinden, andere Seiten können nicht eingebunden werden. Für die Einbindung von Website-Seiten sollten die internen Seiten der Website nicht mehr als 5 Klicks von der Startseite entfernt sein. Dazu muss die Website eine benutzerfreundliche Navigation einrichten. Die Seitennavigation in der oberen Spalte der Website, der „Mehr“-Link des Abschnitts zum Aufrufen der Startseite, die innere Seitennavigation, die Breadcrumb-Navigation der inneren Seite: Startseite – Spaltenseite – Inhaltsseite. Gleichzeitig gibt es auch mehrere Tabus bei der Gestaltung der Navigation: Verwenden Sie keine Bildnavigation, keine JS-Sprungnavigation, versuchen Sie, eine einfache Artikelankertextnavigation zu verwenden, und ein benutzerfreundliches Navigationsdesign bietet den geringsten Widerstand gegen Spinnen. Das Erlebnis ist auch für die Benutzer das Beste.
Zweitens: Freundliches Seitenstrukturdesign. Um den visuellen Effekt der Benutzer zu erzielen, verwenden viele Produktwebsites eine große Menge an JS-Code, Bildern, Flash-Animationen usw. Diese Codes sind für Spinnen unverständlich. Das Design der Website muss nicht nur den Effekt berücksichtigen, sondern auch Berücksichtigen Sie auch besser das Überleben in Suchmaschinen. Webmaster, die das von Baidu eingeführte Tool zur Seitenoptimierung verwenden, werden feststellen, dass Baidu hohe Anforderungen an die Vereinfachung des Website-Codes stellt. Nachdem die Website JS-Code verwendet, muss dieser am Ende des Codes platziert werden, um die Anforderungszeit des Spiders zu verkürzen Gleichzeitig sollten auch die CSS-Stylesheets der Website zusammengeführt werden, um unnötigen Code zu reduzieren. Versuchen Sie, keine Frame-Struktur in der Website zu verwenden. Für Spider ist es schwierig, Frame- und Flash-Codes zu identifizieren. Für die Werbebereiche der Website und Bereiche, in denen keine Gewichtsverlagerung erforderlich ist, können Webmaster Iframe- und Nofollow-Tags verwenden, um unnötigen Gewichtsverlust zu vermeiden.
Drittens: Freundlicher Website-Sprungcode. Für Suchmaschinen-Spider ist der einzige Sprung, der nicht als Betrug angesehen wird, der 301-Sprung, der das Gewicht vollständig auf die neue Website verlagern kann. Es gibt andere Möglichkeiten, URLs zu springen: 302-Sprung, JS-Sprung, Meta-Refresh-Sprung, aber diese Sprungmethoden werden von Spiders als Betrugsmethoden betrachtet. Wir führen Sprünge nur aus, um Gewicht zu übertragen, daher besteht keine Notwendigkeit, andere Sprungmethoden auszuwählen als 301 Sprung. Asp-Code für 301-Sprung auf Windows-Host: <%@ Language=VBscript %> <% Response.Status="301 Permanent verschoben" Response.AddHeader "Location", "Domänenname">. PHP-Code:
Viertens: Freundliche statische Seiteneinstellungen. Die neue Strategie von Baidu stellt hohe Anforderungen an qualitativ hochwertige Inhalte auf der Website, und Webmaster arbeiten auch hart daran, mehr Einbindungen für die Website zu erstellen. Statische Seiteneinstellungen können dazu führen, dass die Website besser eingebunden wird. Dynamische Adressen verursachen beim Crawlen von Inhalten Unannehmlichkeiten. Beim Crawlen geraten Spider leicht in eine Endlosschleife oder schließen häufig doppelte Seiten ein. Wenn Sie möchten, dass Website-Seiten vollständig eingebunden werden, müssen Sie die Website dynamisch gestalten URLs zu statischen URLs. Viele Webmaster sagen vielleicht, dass auch dynamische Seiten eingebunden werden können, wenn sie die Website crawlen. Sie können zwar dynamische Adressen identifizieren, aber es wird für Spider schwierig sein, diese einzubinden. Es gibt tatsächlich eine gute Möglichkeit, die Probleme beim Crawlen durch Spider zu reduzieren . , Webmaster, warum nicht? Für Websites, die Inhalte enthalten, können Webmaster den folgenden Code zur robots.txt-Datei hinzufügen: Disallow:/*?*, um zu verhindern, dass Spider doppelte Inhalte auf der Website sammeln. Dies wird auch einige Zeit in Anspruch nehmen Warten Sie nach dem Beitritt geduldig, bis die Datenbank zwischengespeichert ist und nicht wieder aufgenommen wird.
Webmaster arbeiten hart daran, die Website wegen dieser Details zu bestrafen, es wäre, als würde man weinen, ohne zu weinen. Warum also nicht das Website-Design nutzen, um zu überraschen? Unabhängig davon, wie Baidu seine Strategie aktualisiert, solange Webmaster im Detail gute Arbeit leisten und sich auf die Erstellung von Inhalten und die Verbesserung der Benutzererfahrung konzentrieren können, wird die Website natürlich lange überleben.
Originalquelle dieses Artikels: http://www.hlqxc.org Erstveröffentlichung in A5, bitte geben Sie beim Nachdruck die Quelle an.
(Verantwortlicher Redakteur: momo) Der persönliche Bereich des Autors Strontium Strontium