Baidu의 최근 전략 업데이트는 인터넷에서 "컨텐츠 구축에 집중"하라는 요구를 불러일으켰습니다. 웹마스터들은 좋은 웹사이트를 구축하는 방법과 어떤 종류의 웹사이트 디자인이 거미들의 식욕을 충족시킬 수 있는지에 대해 논의하기 시작했습니다. 편집자는 최근에 저도 공부하고 있습니다. Baidu의 새로운 전략에 맞춰 놀라운 웹사이트를 디자인하는 방법에 대해 여기서 제 생각을 공유하고 싶습니다.
첫째: 친숙한 탐색 설정. 웹사이트를 구축할 때 홈페이지 디자인뿐만 아니라 내부 페이지 디자인과 스파이더 크롤링도 고려해야 합니다. 많은 웹사이트는 디자인할 때 홈페이지에만 콘텐츠를 배치하고 다른 내부 페이지에 대한 링크는 없습니다. 크롤링하려면 웹사이트로 오세요 홈페이지의 콘텐츠를 가져온 후 웹사이트에서 나가기만 선택할 수 있습니다. 이런 종류의 웹사이트 디자인에서는 스파이더가 홈페이지에 한 페이지만 포함할 수 있으며 다른 페이지는 포함될 수 없습니다. 웹사이트 페이지를 포함하려면 웹사이트의 내부 페이지가 홈페이지에서 5번 이상 클릭할 수 없어야 합니다. 이를 위해서는 웹사이트에서 친숙한 탐색 기능을 설정해야 합니다. 웹사이트의 상단 열 페이지 탐색, 섹션의 "추가" 링크 내부 페이지 탐색을 호출하는 홈 페이지, 내부 페이지의 탐색경로 탐색: 홈 페이지 - 열 페이지 - 콘텐츠 페이지. 동시에 탐색 디자인에는 몇 가지 금기사항도 있습니다. 이미지 탐색을 사용하지 마세요. JS 점프 탐색을 사용하지 마세요. 간단한 기사 앵커 텍스트 탐색을 사용하세요. 친숙한 탐색 디자인은 스파이더에 대한 저항이 가장 적습니다. 사용자에게도 최고의 경험을 제공합니다.
둘째: 친숙한 페이지 구조 디자인. 사용자의 시각적 효과를 달성하기 위해 많은 제품 웹사이트에서는 JS 코드, 그림, 플래시 애니메이션 등을 대량으로 사용합니다. 웹사이트 디자인에서는 효과를 고려해야 할 뿐만 아니라 스파이더가 이해할 수 없습니다. 또한 검색 엔진에서의 생존을 더 잘 고려하십시오. Baidu가 출시한 페이지 최적화 제안 도구를 사용하는 웹마스터는 Baidu가 웹사이트 코드 단순화에 대한 요구 사항이 높다는 것을 알게 될 것입니다. 웹사이트에서 JS 코드를 사용한 후에는 동시에 스파이더의 요청 시간을 줄이기 위해 코드 끝에 배치해야 합니다. 이때 웹사이트의 CSS 스타일 시트도 병합하여 불필요한 코드를 줄여야 합니다. 웹사이트에서 프레임 구조를 사용하지 마세요. 스파이더가 프레임 및 플래시 코드를 식별하기 어렵습니다. 웹사이트의 광고 섹션과 가중치를 이전할 필요가 없는 섹션의 경우 웹마스터는 iframe 및 nofollow 태그를 사용하여 불필요한 가중치 손실을 방지할 수 있습니다.
셋째: 친숙한 웹사이트 점프 코드. 검색 엔진 스파이더의 경우 부정 행위로 간주되지 않는 유일한 점프는 301 점프로 새 웹 사이트에 무게를 완전히 전달할 수 있습니다. URL을 점프하는 다른 방법이 있습니다: 302 점프, JS 점프, 메타 새로고침 점프. 그러나 이러한 점프 방법은 스파이더에 의해 부정 행위 방법으로 간주됩니다. 우리는 단지 체중을 이동하기 위해 점프를 수행하므로 다른 점프 방법 외에는 선택할 필요가 없습니다. 301 점프보다. Windows 호스트의 301 점프에 대한 ASP 코드: <%@ Language=VBscript %> <% Response.Status="301 영구적으로 이동됨" Response.AddHeader "Location","Domain name">. PHP 코드: <Header("HTTP/1.1 301 영구적으로 이동됨"); Header("위치: 도메인 이름");?>.
넷째: 친숙한 페이지 정적 설정. Baidu의 새로운 전략에는 웹사이트의 고품질 콘텐츠에 대한 높은 요구 사항이 있으며, 웹마스터는 웹사이트에 더 많은 포함 항목을 만들기 위해 열심히 노력하고 있으며 정적 페이지 설정을 통해 웹사이트가 더 잘 포함되도록 할 수 있습니다. 동적 주소는 콘텐츠를 크롤링할 때 스파이더에게 불편을 끼칩니다. 스파이더가 크롤링할 때 무한 루프에 빠지거나 웹사이트 페이지가 완전히 포함되도록 하려면 웹사이트를 동적으로 변환해야 합니다. 정적 URL에 대한 URL. 많은 웹마스터들은 동적 페이지도 포함될 수 있다고 말할 수 있습니다. 스파이더가 웹사이트를 크롤링할 때 동적 주소를 식별할 수 있지만, 이를 포함하면 스파이더가 크롤링하는 문제를 줄이는 좋은 방법이 있습니다. . , 웹마스터님은 왜 안 하시나요? 콘텐츠가 포함된 웹사이트의 경우 웹마스터는 robots.txt 파일에 다음 코드를 추가할 수 있습니다. Disallow:/*?* 웹사이트에서 스파이더가 중복된 콘텐츠를 수집하는 것을 방지하려면 이 작업도 복구하는 데 시간이 걸립니다. 가입하신 후 불안하시다면, 데이터베이스가 캐시될 때까지 인내심을 갖고 기다리십시오. 그러면 해당 데이터베이스는 다시 포함되지 않습니다.
웹마스터들은 웹사이트를 운영하기 위해 열심히 노력하고 있습니다. 이러한 세부 사항 때문에 웹사이트가 처벌된다면 눈물 없이 눈물을 흘리는 것과 같을 것입니다. 그렇다면 웹사이트 디자인을 사용하여 깜짝 승리하는 것은 어떨까요? Baidu가 어떻게 전략을 업데이트하더라도 웹마스터가 세부 사항을 잘 처리하고 콘텐츠 구축에 집중하며 사용자 경험을 향상시킬 수 있는 한 웹사이트는 자연스럽게 오랫동안 살아남을 것입니다.
이 기사의 원본 출처: http://www.hlqxc.org A5에 처음 게재되었으므로 재인쇄할 때 출처를 명시해 주십시오.
(담당 편집자 : momo) 작가의 개인적인 공간 strontium strontium