검색 엔진에 의해 추출되는 웹사이트는 의심할 여지없이 모든 웹마스터에게 치명적인 타격입니다. 그러나 강등이든 추출이든 그러한 상황에는 종종 이유가 있습니다. 그렇지 않으면 검색 엔진은 아무 이유 없이 귀하의 사이트를 K하지 않을 것입니다. , 따라서 우리 웹사이트가 뽑히는 원인을 분석하고 수정해야 합니다. 그래야만 검색 엔진이 우리 웹사이트를 다시 포함할 수 있습니다.
우선, 우리 사이트가 혼란스러워지는 이유를 이해해야 합니다. 여기서 저자는 귀하가 참고할 수 있는 몇 가지 일반적인 이유와 해결 방법을 요약합니다.
(1) 웹사이트가 콘텐츠를 과도하게 수집하는 경우.
요즘에는 개별 웹마스터가 4~5개의 사이트를 보유하고 있으며 심지어 수십 개를 보유하고 있는 경우도 있습니다. 물론 한 사람이 하나씩 관리할 에너지가 부족하기 때문에 많은 웹마스터가 온라인에서 일부 컬렉션 플러그인을 구입하여 휴대하고 있습니다. 다른 사이트에서 콘텐츠를 모으는 효과는 처음에는 좋을 수도 있고, 특히 컬렉션의 경우에는 이전에 컬렉션 사이트를 구축한 적이 있기 때문에 매우 강력하다는 것을 잘 알고 있습니다. 그러나 일정 기간이 지난 후 Baidu는 웹사이트에서 수집된 콘텐츠를 점점 더 적게 포함하기 시작했고, 마침내 더 이상 포함되지 않았으며 웹사이트는 K-ed 또는 plucked되었습니다.
위의 상황에 대해서는 소량의 수집을 하시길 권하며, 유사 원본 작업을 하기 위해 일부 수집 플러그인을 구입할 때 유사 원본 프로그램을 구입하는 것이 검색 엔진이 더 친숙해질 수 있도록 하는 것이 가장 좋습니다. 물론, 시간이 넉넉한 웹사이트가 있다면, 비록 길더라도, 역시 거미는 신선한 음식을 좋아하기 때문에 자신만의 독창적인 창작물을 만들어 볼 것을 권장합니다.
(2) 웹사이트의 과도한 내부 최적화.
최근 SEO 최적화의 인기로 인해 모든 웹마스터는 어느 정도 최적화 지식을 알고 있지만, 이들 중에는 최적화에 대한 잘못된 이해를 갖고 웹사이트에서 많은 최적화 작업을 수행하는 웹마스터가 많습니다. 웹사이트가 과도하게 최적화되거나, 검색 엔진에 의해 강등되거나, K-ed에 의해 강등되는 것은 매우 흔한 일입니다. 정상적인 상황에서 이는 주로 많은 웹마스터가 웹사이트 내에 다수의 내부 링크를 구축하여 과도한 내부 링크 최적화를 초래하고 검색 엔진에서 부정 행위로 취급되기 때문입니다.
해결책: 자신의 웹사이트에 대한 합리적인 최적화 계획을 맞춤화하고, 웹사이트의 키워드 밀도를 잘 파악하고, 콘텐츠를 정기적으로 업데이트하고, 다시 포함되기 전에 Baidu 웹사이트 로그인에 다시 제출하세요.
(3) 웹사이트의 과도한 외부 최적화.
웹사이트의 외부 최적화가 과도하다는 주장은 새로운 사이트에 대한 경우가 많습니다. 새로운 사이트가 온라인이기 때문에 우리 사이트가 신속하게 포함될 수 있도록 스파이더가 크롤링 및 크롤링을 유도하도록 외부 링크를 보내야 합니다. 하지만 '신설역'이라는 말은 무시되는 경우가 많다. 거미를 유인하기 위해 많은 수의 외부 링크를 게시합니다. 거미가 우리 사이트를 대량으로 크롤링하면 검색 엔진이 이를 기록합니다. 새 사이트에 너무 많은 입구가 있으면 의심할 여지 없이 검색 엔진이 이를 처리합니다. 외부 링크를 보내기 위해 대량 전송 소프트웨어를 사용하는 일부 웹마스터의 경우.
해결책: 외부 링크의 수량과 품질을 잘 계획하십시오. 대량 전송 소프트웨어를 사용하여 외부 링크를 새 사이트로 보내지 마십시오. 그렇지 않으면 고품질 외부 링크를 최대한 많이 만들고 너무 집중하지 마십시오. 수량에 많은. 매일 공개되는 외부링크 수를 조금씩 늘려가며, 같은 방법으로 검색엔진에 제출하면 보통 일주일 안에 다시 포함 여부에 대한 답변이 가능합니다.
(4) 해당 웹사이트가 트로이 목마로 해킹당했습니다.
어떤 CMS라도 허점이 없다는 보장은 없습니다. 가장 일반적인 것은 허점이 꽤 많은 DEDECMS입니다. 따라서 많은 웹사이트가 트로이 목마로 해킹당하는 경우가 매우 흔합니다. 특히 일부 바이러스의 경우 일반적으로 방문자가 정상적인 검색 조건에서 볼 수 없습니다. 또한 웹 사이트에는 이러한 검은색 링크가 표면적으로 표시되지 않지만 스파이더가 크롤링하면 의심할 여지 없이 크롤링될 수 있습니다. 예를 들어, 내 웹사이트 중 하나인 www.QQyjx.com 은 며칠 전에 취약점으로 인해 해커에 의해 차단되어 일부 불법 웹사이트로 직접 리디렉션되었습니다. 적시에 사이트가 검색 엔진에 의해 순위가 낮아지는 결과를 초래하는 것은 매우 비극적인 일입니다.
해결책: 우선, 웹사이트 서버에 대해 적절한 보안 조치를 취해야 합니다. 다른 하나는 웹사이트 자체의 CMS 프로그램에 대한 일부 권한을 설정하고 공식 웹사이트에서 발표된 일부 취약점 패치가 시기적절하게 업데이트되는 데 더 주의를 기울이는 것입니다. . 물론, 결국 밀폐된 벽은 없기 때문에 정기적으로 일부 웹마스터 도구를 사용하여 웹사이트에 이상이 있는지 감지해야 하며, 종종 자체 서버에 가서 웹사이트 로그를 확인하고, 스파이더가 로그인하는 상태를 관찰해야 합니다. 발견된 내용은 신속하게 처리됩니다!
이 기사는 원래 QQ Yijingxuan 웹마스터가 공유한 것입니다. 재인쇄할 때 표시해 주세요. 감사합니다!
편집장 : 양양의 개인 공간