Baidu 포함은 SEOER에서 항상 논의하는 핵심 주제입니다. 웹 사이트 최적화 전쟁에서 안정적인 포함은 웹 사이트의 트래픽과 수입에 직접적인 영향을 미칩니다. 웹사이트 홈페이지 스냅샷은 매우 빠르게 업데이트되는데 내부 페이지는 포함되지 않는 이유는 무엇인가요? 나는 많은 친구들이 나와 같은 질문에 대한 답을 찾고 있다고 믿습니다. 이 글에서는 사이트 내부 페이지가 바이두에 포함되지 않는 이유와 대책에 대해 설명하겠습니다.
이유 1: Baidu가 색인을 생성했지만 아직 순위를 공개하지 않았습니다. Baidu의 기사 포함에는 검토 시간이 필요합니다. 스파이더는 성공적으로 색인된 콘텐츠를 크롤링하여 데이터베이스에 입력합니다. 순위에 참여하려면 릴리스되기 전에 SPAM인지 확인하기 위해 두 번 검토해야 합니다. Baidu는 웹사이트를 포함하기 전에 주기적으로 업데이트합니다. 이는 새 사이트에서 가장 일반적인 현상입니다.
대응책: 우리가 해야 할 일은 정기적이고 정량적인 업데이트를 보장하고 웹 사이트 로그를 관찰하는 것입니다. 스파이더가 정상적으로 크롤링하는 한 인내심을 갖고 기다리십시오. 그러면 놀라운 일이 일어날 것입니다.
이유 2: 로봇 설정 문제로 인해 내부 페이지가 엔진 스파이더에 의해 크롤링 및 색인화되지 않습니다.
대책: 메타로봇, nofollow 등의 태그 설정을 포함한 문법 오류로 인해 스파이더 크롤링이 차단되는지 확인하세요.
이유 3: 기사의 독창성이 문제입니다. 헤더 태그 설정으로 인해 유사한 페이지가 중복되거나, 바이두 데이터베이스에 이미 유사한 정보가 너무 많아서 그렇지 않습니다. 포함됩니다. 장기간 운영하면 Baidu가 권한을 잃게 됩니다.
대책: 기사의 독창성을 유지해야 합니다(친구들은 모두 가짜 원본 기사에 익숙하다고 생각합니다). Baidu가 좋은 습관을 갖도록 매일 정기적으로 업데이트하는 것이 가장 좋습니다. 귀하의 웹 사이트를 크롤링하는 데 시간을 엄수하십시오.
이유 4: 웹사이트의 내부 링크에 문제가 있습니다. 예를 들어, 잘못된 링크가 많고, 잘못된 웹사이트 링크가 있고, 스파이더가 원활하게 크롤링할 수 없으며, 잘못된 URL 링크로 인해 웹사이트의 권한이 상실됩니다.
대책: 홈페이지, 채널 등 다양한 중요 페이지의 잘못된 링크를 확인하고(구글 웹마스터 도구의 크롤링 오류를 관찰할 수 있습니다), 게시판, 댓글, 기타 네티즌 인터랙티브 기능의 잘못된 링크를 확인하여 악성 사이트와의 연동을 방지합니다.
이유 5: 웹사이트는 검은 모자 방법을 사용했습니다. Baidu는 사기성 방법을 식별하고 전체 사이트를 강등시켰습니다.
대응책: 키워드 축적, 대량 게시, 블랙 링크 등의 블랙햇 행위를 피하세요. 일단 바이두가 조치를 취하면 복구가 어렵지 않아 웹사이트의 장기적인 안정성을 높일 수 있습니다.
이유 6: 서버에 액세스할 수 없거나, 느리거나, 정지된 경우 등입니다. Baidu Spider가 콘텐츠를 색인화할 때 웹사이트에 대량의 잘못된 코드가 있거나 서버에 접근할 수 없다는 사실이 반복적으로 확인되어 해당 웹사이트가 감시 목록에 포함되었습니다.
대책: 페이지 읽기 속도를 향상시키기 위해 웹사이트 코드를 최적화하고, 책임 있는 안전 공간 서비스 제공자를 선택하고, 웹사이트 프로그램을 성숙시키고, 정기적으로 패치를 업데이트하고, 수정된 파일의 추적을 정기적으로 추적합니다.
Luotuo는 위의 6가지 사항을 실제적인 방식으로 수행하는 것 외에도 수행할 가치가 있는 몇 가지 사항을 구체적으로 제안했습니다. 1. 스파이더가 내부 페이지로 원활하게 크롤링할 수 있도록 홈페이지에 전체 사이트의 사이트 맵을 만듭니다. 2. 내부 페이지의 관련 링크 호출은 각 페이지의 주제를 더욱 두드러지게 하기 위해 규칙적이어야 합니다. 3. 내부 페이지에서 스파이더를 안내하는 데 외부 링크를 적절하게 사용할 수 있습니다. Baidu가 내부 페이지를 포함하지 않을 것이라는 확신을 갖고 모든 세부 사항을 파악하십시오.
저자: Luo Tuo, 블로그( www.seo173.com )는 SEO의 길을 주장합니다. 소통을 환영합니다!
기여해 주신 Luo Tuo에게 감사드립니다.