Изначально нормальный сайт вдруг перестал включаться. Для оптимизаторов это означает наступление мучительного момента. К сожалению, сайт автора столкнулся с такой ситуацией некоторое время назад. К счастью, после прохождения После проверки и обработки сайт вернулся в нормальное состояние. Здесь, на реальных примерах автора, я расскажу о причинах и решениях, из-за которых сайт внезапно не включился.
Общая ситуация: Примерно с 15 декабря на маленьком сайте автора стали не включаться информационные страницы, которые обновлялись ежедневно и включались нормально. Затем включение других страниц на сайт стало уменьшаться. К 23 сентября сайт стал переставать включаться. и снимки начались стагнация, рейтинг ключевых слов веб-сайта Нанкин SEO упал.
Поскольку существует множество причин, по которым веб-сайт не включается, проверка веб-сайта занимает много времени. Конечно, проверка не является слепой. Вам необходимо иметь четкое представление об общих причинах, по которым веб-сайт не включается. это не более чем три пункта: 1. Пауки не включены 2. Паук пришёл, не смог найти страницу и ушёл. 3. Паук пришёл и зашёл на некоторые страницы сайта, но так и не принес ничего. По этим трем причинам я сделал следующие проверки:
1. Проверьте журнал iis. Проверив журнал IIS, мы можем четко понять местонахождение паука, заходил ли он на наш сайт, когда приходил и как часто заходил. Если паук не зайдет, сайт естественно не включится.
2. Проверьте канал. Если пауки нормально заходят на ваш сайт, то первое, что вам нужно посмотреть, это ваш файл robots.txt, чтобы узнать, не заблокировали ли вы случайно страницы, которые должны быть включены в обычном режиме при изменении robots, или это потому, что страница, которую вы заблокировали, тоже. забанили единственный вход или главный вход страницы, которую нужно включить? Еще одна вещь, которую следует отметить в отношении файла robots, — не изменять его часто, поскольку каждый раз, когда вы его изменяете, паук будет пересматривать, какие страницы необходимы, а какие страницы не следует сканировать. Кроме того, частые изменения очень раздражают пауков; , вам также необходимо проверить, являются ли различные входы на страницы вашего сайта нормальными.
3. Проверьте страницу. Если приходят пауки, а ваши роботы не сильно изменились как раньше, а в структуре и вводе страницы нет серьезных изменений, то проблема наверняка на странице. На странице статьи вам необходимо оценить качество вашей статьи: не слишком ли много она собрана? Достаточно ли оригинальна статья и т. д. Вам также необходимо проверить, не была ли ваша статья собрана слишком много (это касается многих людей). Нет привычки проверять), и слишком много статей собираются другими. Если ваш вес не такой высокий, как у веб-сайта, который собирает ваши статьи, вы можете позволить Baidu думать, что ваш сайт является сайтом-сборником, особенно когда ваши статьи таковы. часто собираются разными сайтами. При сборе, как и в случае с другими страницами, нужно проверять, не слишком ли похоже содержимое при добавлении новой страницы, не повторяется ли заголовок и т. д. Этим паукам это не нравится.
Проверьте эти 3 причины вашего веб-сайта, я думаю, вы найдете ответ, почему ваш веб-сайт внезапно не включен. Фактически, после проверки веб-сайта автора проблема также возникла по нескольким причинам. Информационные страницы автора собирались несколькими людьми, и это происходило относительно часто, и некоторое время назад из-за пересмотра веб-сайта было несколько страниц, которые были закрыты. автор посчитал ненужным. Его забанили, а проблема входа на другие страницы не была учтена, что привело к последующему отсутствию включения.
Вот решение:
1. Если вы проверите журнал IIS и обнаружите, что паук не пришел, возможно, ваш сайт понижается. Вам нужно проверить ссылки друзей, чтобы увидеть, не возвращает ли он слишком много статусов 404 или 503. Да. Дело не в том, что многие страницы недоступны, не следите за трафиком, что также является основной причиной понижения рейтинга.
2. Если проблема в robots.txt, ее легко решить. Вам нужно только правильно ее изменить. Не забывайте учитывать взаимосвязь между страницами. Не отключайте страницу A и серьезно не влияйте на страницу B.
3. Если проблема связана со страницей, то вам нужно повысить оригинальность статьи. Чрезмерный сбор будет рассматриваться Baidu как свалка мусора, а чрезмерный сбор другими также будет рассматриваться Baidu как свалка мусора. Хорошо выполняйте проверку и уделяйте особое внимание тому, чтобы сбор данных осуществлялся машинами. В настоящее время существует множество инструментов сбора данных, похожих на локомотивы, которые могут помочь многим веб-мастерам значительно снизить рабочую нагрузку, но если ваш сайт собирается такими машинами. , , это будет очень удручающе. Можно поставить какие-то ограничения на страницу, типа обмена p, div, спан-кодами и т.д.
С помощью описанного выше метода веб-сайт автора вернулся в нормальное состояние. На момент написания этой статьи все статьи, которые я только что обновил, были включены.
У людей будет головная боль, если веб-сайт вдруг не будет включен, но важно прояснить свое мышление. Это самое главное для SEO. Не заходите в тупик. Вы должны выйти из него разумными методами. Как только вы выйдете, вы обнаружите, что ваш веб-сайт станет лучше, чем раньше, и у Baidu останется лучшее впечатление о вашем веб-сайте. Эта статья взята с http://www.seo1912.com , пожалуйста, укажите при перепечатке.
Ответственный редактор: Чен Лун Личное пространство автора SEO1912