웹마스터들은 웹사이트 구축과 최적화에서 종종 문제에 직면합니다. 검색 엔진이 스냅샷을 업데이트하지 않는 것이 아니라, 스냅샷이 매일 업데이트되지만 순위가 없다는 것은 포함된 것이 너무 적다는 것이 아니라 트래픽이 없다는 것입니다. . 많은 사람들이 그 이유를 '개입'이라고 비난하는 경우가 많은데, 과연 수동개입 현상이 가능하긴 하지만 일부 핫키워드에만 존재하는 걸까요? 순위에 대한 수동 개입이 무심코 수행된다면 어떤 검색 엔진도 오랫동안 살아남지 못할 것이라고 믿습니다. 좋습니다. 주제로 돌아가서 다음 바이너리 네트워크는 이러한 이유에 대한 자세한 분석 및 토론을 제공합니다.
1: 가중치는 있지만 순위는 없습니다.
웹사이트 콘텐츠는 게시된 후 빠르게 포함될 수 있으며 일부 웹사이트가 꿈꾸는 즉각적인 수집 효율성도 달성할 수 있습니다. 이러한 관점에서 볼 때 검색 엔진이 해당 웹 사이트에 부여하는 가중치는 매우 높습니다. 그렇지 않으면 스파이더가 업데이트를 기다리면서 하루 24시간 콘텐츠 페이지에 머물지 않을 것입니다. 그런데 이상한 점은 검색 엔진이 권한을 강등하지 않았다는 전제하에 왜 주요 키워드와 심지어 롱테일 단어도 좋은 순위를 얻지 못한다는 것입니다. 바이너리 분석에서는 웹사이트 테마 포지셔닝이 명확하지 않거나 개발이 잘못되었다고 생각합니다. 명확하지 않아 검색 엔진이 작동하지 않게 됩니다. 웹사이트 카테고리의 정확한 위치 지정으로 인해 발생합니다.
A: 주제 포지셔닝이 명확하지 않습니다. 웹사이트 구축 초기에는 웹사이트 개발 방향이 명확하지 않고 핵심 키워드조차 명확하지 않습니다. 검색 엔진이 북쪽을 찾을 수 없습니다. 예를 들어 'XXX정보망, XXX종합네트워크' 등이 자주 발생하는 현상이다.
B: 웹사이트 개발 초기에는 상대적으로 정확한 웹사이트 테마 포지셔닝이 있었지만 개발 과정에서 일탈이 발생했습니다. 일부 웹사이트는 Baidu의 스냅샷을 업데이트합니다. 가짜 및 원본 콘텐츠를 수집하지 않기 때문에 어쨌든 검색 엔진에 포함될 수 있는 한 괜찮습니다. 시간이 지남에 따라 검색 엔진은 웹 사이트의 품질을 인식하지만 동시에 웹 사이트가 주제에서 벗어나게 하여 결국 전체 비중을 차지하고 순위가 매겨지지 않게 됩니다.
2: 스냅샷은 있지만 트래픽이 없습니다.
웹사이트 스냅샷은 매일 검색 엔진에 의해 업데이트되는데 왜 트래픽이 발생하지 않는 걸까요? 많은 웹사이트에서 이러한 현상을 경험한 적이 있을 것입니다. 어떤 사람들은 다음과 같이 말할 수 있습니다. 이전 단락에서 웹사이트의 포함 빈도가 높다는 것은 높은 가중치를 의미한다고 언급하지 않았습니까? 그러나 Binary가 말하고 싶은 것은 다음과 같습니다. 이제 Baidu 규칙에 관한 한 새로운 사이트도 포함될 수 있습니다. 초 안에. 바이너리 블로그가 그 예입니다. 블로그를 여는 데 3일이 걸렸고 몇 초 만에 게시되었습니다. 한 달이 지났는데도 여전히 몇 초 안에 게시되고 있지만 아직 홈페이지에는 순위가 올라 있지 않습니다. 외부 링크를 연결할 시간이 없습니다). 새로운 사이트는 즉시 수집될 수 있는데, 이는 가중치가 높은 사이트와 달리 검색 엔진이 새로운 사이트를 특별한 선물처럼 특별하게 관리하여 사이트의 향후 개발을 촉진한다고 말할 수 있습니다. 왜냐하면 기존 검색 엔진 색인 규칙에 따르면 새로운 웹사이트의 콘텐츠가 독창적이라고 하더라도 단시간에 포함되기 어렵기 때문입니다. 결과적으로 원본 콘텐츠가 복제되어 검색엔진에서 인식할 수 없게 되어 원본 콘텐츠가 컬렉션이 되고, 컬렉션이 원본 콘텐츠가 되는 불균형한 발전이 초래됩니다. Binary는 현재 검색 엔진이 새로운 사이트에 대해 특별히 선호하는 규칙이 다음과 같다고 믿습니다:
1. 검색 엔진은 향후 스파이더에 의한 정기적인 인덱싱을 용이하게 하기 위해 웹사이트 업데이트 시간을 결정합니다. 일부 웹사이트에서는 스파이더를 발생시키고 매일 일정한 시간에 웹사이트를 업데이트하기 위해 이 작업을 수행하는 경우가 많습니다. 검색엔진 측면에서도 서버 부담이 크게 완화됐다.
2. 훌륭한 웹사이트인지 검토하세요. 훌륭한 웹사이트는 매일 끊임없이 콘텐츠를 업데이트하고 자체 원칙을 준수합니다. 자신만의 원칙을 지키지 못한다면, 웹사이트의 포함 빈도가 가속화되는 것을 볼 때 필연적으로 콘텐츠를 수집하거나 가짜 원본 콘텐츠를 수집하게 될 것입니다. 그리고 그렇게 되면 새로운 검색엔진 규칙에 빠지게 되고, 해당 웹사이트는 가비지 덤프에 포함될 수밖에 없습니다. 동시에 서버 부담도 완화하고 웹사이트를 장기간 관찰할 필요가 없습니다.
3. 이전 단락에서 언급한 것처럼 새로운 사이트에 특별한 주의를 기울이십시오. 새로 구축된 웹사이트 자체는 비중이 크지 않으며, 비중이 높은 웹사이트에서 콘텐츠를 재인쇄하면 원래 제작된 원본 작품이 컬렉션이 됩니다. 열심히 노력해도 결코 앞서 나갈 수 없습니다. 따라서 검색 엔진은 새 사이트의 콘텐츠를 먼저 포함하지만 가중치를 부여하지는 않습니다.
Binary Network가 작성하고 베이징 SEO( www.seostudy.org )와 협력하여 문제가 발생하면 문제를 잘 분석하고 인내심을 갖고 모든 테스트를 견딜 수 있으면 성공이 멀지 않을 것이라고 믿습니다. 떨어져 있는. 실제로 검색 엔진은 새로운 사이트를 특별히 관리해 왔습니다. 가중치는 있지만 순위가 없는 오래된 사이트의 경우 주요 최적화 전략으로 사이트 구조를 업데이트하고 재구성하는 데 중점을 두어야 합니다.
편집 담당 : 양양 작가 바이너리 네트워크의 개인 공간