Вчера я проанализировал журналы IIS. К счастью, все пауки из Baidu, Google и Yahoo пришли к выводу, что оптимизация прошла успешно. Страницы, которые раньше не сканировались, были успешно просканированы Google после некоторых указаний по внешним ссылкам. прибыл и включил его, но я также обнаружил некоторые проблемы. В записях сканирования гугл-пауков много записей возврата 404. Это нехорошо. Это означает, что я не почистил код, и там много мертвых. ссылки. Затем я вошел в Google и использовал инструмент управления веб-сайтом, чтобы проанализировать его. Боже мой, там было 210 неработающих ссылок. Думаю, качество моих страниц было не очень хорошим для Google, но у меня были проблемы с проверкой такого количества страниц 404. меняя их в одиночку. Затем я подумал о robots.txt.
Поскольку страницы 404 здесь в основном заканчиваются на asp, для такой большой страницы 404 мы можем настроить ее следующим образом:
Пользовательский агент:Googlebot
Запретить:/*.asp$
Я пришел сюда сегодня утром, чтобы проанализировать журналы сканирования Google прошлой ночью, и, как и ожидалось, я больше не обращал внимания на эти страницы, оканчивающиеся на asp.
Если большое количество мертвых ссылок не представляет обычных страниц, использование robots.txt не подходит, поэтому другой способ — вручную настроить страницу 404. Как правило, серверная часть, предоставляемая хост-провайдером, должна предоставлять операцию 404. , если это программа .net, вы можете установить страницу ошибки в web.config. Я напрямую вхожу на сервер, чтобы изменить страницу возврата кода 404, обрабатываемую IIS. Одним словом, изменение страницы 404 поможет клиентам. чтобы перейти на другие полезные страницы для привлечения клиентов.
Эта статья опубликована Koushuiyu Web Tutorial Network (http://www.koushuiyu.cn). Пожалуйста, укажите перепечатку, спасибо!