많은 웹마스터들이 Baidu가 2주 연속으로 새로운 검색 데이터를 대규모로 업데이트하지 않았다는 사실을 발견했습니다. 왜냐면 Baidu가 입찰 순위로 인해 이를 수행할 시간이 없기 때문입니까? 아니면 Baidu의 포함 알고리즘이 변경되었습니까?
아직은 업데이트가 미숙한 것 같아요. 제 기억은 2년 정도 업데이트 됐는데, 2년 전에는 바이두 스파이더가 데이터를 캡쳐해서 공개할 수 있어서 스팸 웹페이지가 많이 포함됐는데, 검색 품질을 개선하고 싶었는데 처리 능력이 없었어요. 그래서 매일매일 이러한 웹페이지를 분석하게 되었습니다. 상대적으로 기술이 성숙한 구글에는 빅 업데이트라는 개념이 존재하지 않으며, 이로 인해 데이터 지연도 발생하게 됩니다.
2년간의 기술 업데이트 후에 Baidu는 같은 날 모든 웹페이지를 처리할 수 있는 능력을 갖게 될 수도 있습니다. 지난 2주 동안 우리는 Baidu가 크고 유명한 웹사이트에 대해 매일 대규모 업데이트를 수행할 뿐만 아니라 내 웹사이트 www.ahuali.cn과 같은 일부 소규모 웹사이트에 대한 일일 업데이트 횟수를 늘리는 것을 발견했습니다. 기본적으로 매일 수십 페이지가 업데이트되는데, 이전에는 그렇지 않았습니다.
바이두가 일일 업데이트 시대에 돌입한 것은 아닐까? 내 추측이 맞다면, 새로운 사이트와 소규모 사이트의 개발이 훨씬 더 어려워졌다는 뜻이고, 이제 그들은 놓쳤다는 뜻이다. 대규모 업데이트 시대. 이러한 새롭고 작은 사이트를 어떻게 처리해야 할까요? 누구나 토론을 환영합니다.
QQ:553887658 이메일:[email protected]