Сегодня я хотел бы кратко представить вам, друзьям-веб-мастерам, мой опыт включения небольшого веб-сайта в Baidu. Я думаю, что многие друзья сталкивались с такими проблемами в процессе создания веб-сайта, поэтому я хотел бы поделиться с вами своим подходом. Почему для многих веб-сайтов Baidu включает только одну домашнюю страницу, а не все внутренние страницы? На самом деле, эту проблему можно легко решить. Нужно лишь обратить внимание на журнал сайта под IIS. Проверьте, в порядке ли журнал сканирования Baidu Spider. Посмотрите, просканировал ли Baidu Spider внутренние страницы веб-сайта и какие записи остались после сканирования.
Позвольте мне взять в качестве примера веб-сайт www.745sf.com, который я недавно создал. Когда веб-сайт был впервые запущен, я разместил несколько подписанных сообщений на таких форумах, как a5 и Laocha, чтобы привлечь пауков. Через несколько дней Baidu включил меня. станция. Похоже, все прошло хорошо. Но в то время была включена только одна домашняя страница. Внутренние страницы не включены. Сначала я думал, что это просто новый сайт, который создается шаг за шагом. Через несколько дней внутренние страницы, естественно, будут включены. Жалко, что после месяца-двух ожидания главная страница все же осталась, а другие страницы не включились. Меня это очень угнетает. Должно быть, с Baidu что-то не так. Baidu не может его нормально включить. Поэтому я пошел на сервер и скачал все логи тех дней для анализа. После долгих поисков я не увидел нормальной записи сканирования пауком. Либо он не просканировал внутренние страницы за сутки, либо записей осталось после сканирования всего 200 0 64. Покопавшись в интернете, я понял, что такая запись ненормальна. Запись, оставшаяся после успешного сканирования внутренней страницы Baidu Spider, должна быть 200 0 0. Однако, когда Baidu Spider сканирует мой сайт, она всегда равна 200 0 64, что определенно означает, что существует проблема с моей внутренней страницей. Я многое знаю о мусорной станции, которую построил сам, и могу понять это, просто подумав об этом. Первоначально считается, что плотность ключевых слов, выбранная веб-сайтом, слишком популярна. Без уникальности у Baidu нет причин включать мусорный сайт, который уже заполнен таким же контентом. Во-вторых, содержание сайта не является оригинальным.
Когда я подумал о причине, мне пришлось ее исправить, поэтому я изменил заголовок сайта и ключевые слова, которые нужно оптимизировать на странице, на уникальное слово. (Я поменяю его обратно, когда Baidu станет нормальным. Ха-ха) Потом я нашел несколько статей и перепутал их, чтобы сделать псевдооригинальными. Дурак Байду. Исправив эту проблему, я повсюду разместил ссылки для привлечения пауков. Посмотрите на запись ползающего паука сейчас. Позже я обнаружил, что показатели ползания пауков были нормальными. Оба 200 0 0. Потому что контент обновляется каждый день, чтобы пауки Baidu могли его сканировать. Наконец, вчера вышло большое обновление, и все страницы, которые я просканировал, были освобождены. Встаньте и проверьте адрес веб-сайта сегодня, чтобы немного развлечься. Оказывается, Baidu тоже очень милый. Недостаточно ругать каждый день, нужно просто обратить внимание. Нам это не составит труда. Все поведенческие пауки уведомляют нас, когда они ползают, поэтому нам просто нужно вовремя их исправлять. Это нормально.
Вышеизложенное - лишь мое скромное мнение. Примите плевок от всех героев.