Подавляющее большинство веб-мастеров знают, что для веб-сайта очень важно получить хороший рейтинг в поисковых системах, поэтому многие веб-мастера делают все возможное, чтобы угодить поисковым системам, желая относиться к паукам поисковых систем как к императорам, надеясь, что пауки будут оценены по достоинству, тем самым улучшая рейтинг веб-сайта, но на самом деле, даже если о пауке хорошо заботиться, он не сможет получить хороший рейтинг. Почему это происходит? Потому что у пауков нет человеческих эмоций, даже если вы относитесь к ним как к императору. Я также не пожалею вас, просто делайте все, что хотите, поэтому с точки зрения оптимизации веб-сайта дело не в том, что чем лучше пауки, тем лучше будет эффект оптимизации, но вы должны знать компромиссы. Вы должны! научитесь блокировать некоторых пауков! Например, помимо ограничения пауков в ADMIN при сканировании по ДАННЫМ, вы также можете правильно блокировать пауков в других каталогах, что также очень полезно. Давайте разберем несколько методов блокировки пауков!
1: каталоги изображений и шаблонов могут быть заблокированы.
Потому что многие веб-мастера в настоящее время ищут одни и те же изображения в Интернете и применяют готовые шаблоны. Эти шаблоны и изображения заполонили Интернет. В настоящее время, если вы позволите паукам снова сканировать ваш сайт, эти старомодные. вещи, естественно, рассердят вас. Пауки очень недовольны, поэтому ваш сайт будет помечен как имитация и мошенничество. Завоевать расположение поисковых систем будет сложнее, поэтому каталог IMAGES обычно может быть заблокирован!
2. Каталог кэша можно заблокировать, чтобы предотвратить повторную индексацию.
Пауки очень жадные. Пока вы их кормите, они будут принимать их все, настоящие или иллюзорные. Например, паук будет индексировать содержимое в каталоге кэша веб-сайта, которое обязательно будет отличаться от содержимого на нем. Дублирование веб-сайта. Если дублирования слишком много, механизм алгоритма Baidu подумает, что ваш веб-сайт является мошенническим, что даже увеличит вес вашего веб-сайта и окажет большое влияние на веб-сайт. Обычно это каталог кэша каждого веб-сайта. программа другая, необходимо заблокировать соответствующие каталоги кэша по разным программам для создания сайтов!
Третье: необходимо заблокировать каталоги CSS и некоторые страницы RSS.
Каталог CSS совершенно бесполезен для пауков. После сканирования он повлияет на алгоритм поисковой системы, поэтому его можно заблокировать с помощью файла ROBOTS.TXT. Кроме того, RSS-страницы многих программ для создания веб-сайтов также являются своего рода. дублирования контента. В конечном итоге это также приведет к неверным суждениям поисковых систем. Оба аспекта контента должны быть заблокированы! Такой вид блокировки кажется неуважительным по отношению к паукам, но на самом деле это как хорошее лекарство, но оно горькое. во рту и от болезни полезен! Добрый совет тяжел для ушей, но хорош для дела!
Четвертое: если страниц две, сначала заблокируйте динамическую страницу.
Вообще говоря, статические страницы веб-сайта легко индексируются поисковыми системами. Обычно сканирование и индексирование «пауками» — это две разные вещи. Помимо статических страниц, большинство веб-сайтов также имеют динамические страницы, такие как «www.XXXX/1. html и». www.xxxxx/asp?id=1 относятся к одной и той же странице. Если они не заблокированы, обе страницы неизбежно будут просканированы пауками одновременно. Однако, когда алгоритм поисковой системы определит это, они будут обнаружены. две одинаковые страницы, будет считаться, что ваш сайт подозревается в читерстве, поэтому мы усилим проверку вашего сайта, что повлияет на рейтинг сайта. Поэтому правильный подход – заблокировать динамические страницы сайта. первый!
Пятое: контент, связанный с безопасностью и конфиденциальностью веб-сайта, должен быть заблокирован.
В начале этой статьи упоминалось, что каталоги ADMIN и DATA на самом деле связаны с безопасностью и конфиденциальностью веб-сайта. Нет никакой пользы в раскрытии его для пауков, и может даже быть больше каналов для атак, поэтому безопасность. Задействованы связанные каталоги, такие как базы данных. Каталог, каталог журнала веб-сайта и каталог резервного копирования должны быть заблокированы. Кроме того, некоторые веб-мастера загружают веб-сайт после резервного копирования веб-сайта, но случайно удаляют файл резервной копии после загрузки. Это может привести к атаке хакеров, поэтому очень необходимо использовать файлы ROBOTS.TXT для блокировки таких файлов, как «RAR и Zip», по крайней мере, это! может повысить безопасность сайта!
В общем, если вы слепо считаете пауков императорами, вам часто будет льстить решение проблемы рабочего давления пауков посредством соответствующей оптимизации и защиты – это самая большая лесть, а также способ повысить уровень оптимизации веб-сайта! эта статья: http://www.wowawowa.cn/Wowawowa Weight Loss Network A5 — первый выпуск, укажите при перепечатке, спасибо!
Ответственный редактор: Личное пространство Цзяннаня, автора «Адрона»