SEO 담당자로서 URL 정규화는 해결해야 할 문제입니다. 직설적으로 말하면, URL을 정규화한다는 것은 검색 엔진이 수행하도록 하는 대신 동일한 페이지를 가리키는 여러 개의 다른 URL이 있을 때 원하는 URL을 검색 엔진에 알려주는 것을 의미합니다. 따라서 URL을 표준화하는 것은 검색 엔진 친화적인 접근 방식입니다. 아래에서는 URL 정규화의 여러 방법을 공유하겠습니다.
첫 번째 유형인 301 리디렉션은 가장 일반적이고 가장 많이 사용되는 유형이라고 할 수 있습니다. 301 리디렉션은 일반적으로 신규 및 기존 도메인 이름, 신규 및 기존 URL에 사용되며 www가 없는 도메인 이름을 www가 있는 도메인 이름으로 이전하는 데 사용됩니다. www. 인터넷에서는 가상 호스트와 독립 서버 모두 리디렉션이 가능합니다. 가상 호스트인 경우 먼저 호스트가 301을 지원하는지 확인한 다음 운영 체제와 서버 유형에 따라 301에 대해 다른 규칙을 선택해야 합니다. 여기서는 너무 많은 설명을 하지 않겠습니다. 독립된 서버에서 301을 할 때 튜토리얼을 참고해 보시기 바랍니다. 직접 배운 내용은 다른 사람이 가르치는 내용보다 더 확실하게 기억될 것입니다. 단, 301을 302로 변경하지 않도록 주의하고, 변경 후 301인지 테스트해 보아야 합니다.
두 번째 유형인 "표준" 태그는 많은 사람들에게 생소할 수 있습니다. 이 태그는 검색 엔진이 여러 다른 URL에서 대상 URL을 선택하도록 권장합니다. 그러나 이는 제안일 뿐이며 특정 사용법에 대해서는 참조하세요. 웹사이트에 동일한 제품 세트를 나열하는 여러 페이지가 있는 것은 일반적입니다. 예를 들어 한 페이지에는 제품이 알파벳 순서로 표시되고 다른 페이지에는 동일한 제품이 가격이나 등급별로 표시될 수 있습니다. 예를 들어:
Google이 이러한 페이지의 콘텐츠가 동일하다는 것을 알고 있는 경우 검색결과의 한 버전만 색인을 생성할 수 있습니다. 우리의 알고리즘은 사용자의 질문에 가장 잘 답한다고 생각되는 웹페이지를 선택합니다. 그러나 이제 사용자는 페이지의 비표준 버전의 <head> 섹션에 <link> 요소와 rel="canonical" 속성을 추가하여 검색 엔진에 대한 표준 페이지를 지정할 수 있습니다. 이 링크와 속성을 추가하면 웹사이트 소유자가 어떤 페이지에 동일한 콘텐츠가 있는지 식별할 수 있으며 Google에서는 "동일한 콘텐츠가 포함된 모든 페이지 중에서 이 페이지가 가장 유용합니다. 검색결과 위치에서 이 페이지의 순위를 더 높게 지정하세요."라고 제안할 수 있습니다. ." (이 단락은 GG 도움말 항목에서 가져온 것입니다.)
세 번째 유형인 Robots.txt는 웹사이트에 중복된 콘텐츠가 있거나 위와 같은 상황이 발생하는 경우 순위에 참여할 필요가 없다고 생각되는 URL을 로봇을 사용하여 차단할 수도 있습니다.
네 번째 유형인 Noindex 태그는 위와 동일한 원칙을 가지고 있습니다. 즉, 순위에 참여할 필요가 없는 URL은 검색 엔진에서 색인을 생성하지 않습니다. 사용법: 이 문을 추가하세요. <Meta name="Robots" Content="Noindex. "> 해당 웹페이지의 헤드로 이동합니다.
위의 내용은 URL을 표준화하는 여러 가지 방법입니다. 첫 번째와 두 번째 방법은 참고용일 뿐입니다. 이 글은 Shanghai Debt Collection Company http://www.hu-tz.com 의 웹마스터가 작성한 것입니다. 재인쇄용.
기여해주신 Hangzhou Debt Collection Company에 감사드립니다.