친근한 링크는 검색 엔진이 웹 사이트의 품질을 판단하는 데 필요한 기준 중 하나입니다. 소위 "빨간색"은 빨간색이고 "검은색"은 검정색이며 이는 검색 엔진 규칙에도 사용됩니다. 친숙한 링크의 품질은 웹사이트의 최적화 효과에 직접적인 영향을 미칩니다. 그 중 교환도 하나의 측면이지만 "단방향" 링크는 웹사이트의 최적화 효과를 더욱 쉽게 향상시킬 수 있습니다. 그러므로 이해관계의 유혹 속에서 어떤 사람들은 최선을 다해 '일방적 연결'을 시도하는 것이 불가피한 동시에, 끝없는 수단을 경계하는 것이 점점 더 어려워지고 있습니다. 단순한 "링크 교환 및 철회"부터 최적화 취약점의 고급 활용까지 모든 것이 생생하게 반영됩니다. "로봇"을 사용하는 것은 일반적인 방법 중 하나이며 가장 눈에 띄지 않는 방법이기도 합니다. 때때로 웹마스터를 속이는 많은 새로운 기술이 공개됩니다. 웹마스터는 어떻게 로봇에 의한 사기를 방지할 수 있습니까?
1: "로봇" 프로토콜 사양
"로봇"이라고 하면 웹마스터들이 가장 먼저 떠올리는 것은 웹사이트에 있는 "ROBOTS.TXT" 파일이다. 둘 사이의 관계는 무엇입니까? 실제로 ROBOTS.TXT는 "로봇" 프로토콜의 응용 프로그램입니다. 액세스 가능하고 색인 생성 가능한 항목과 액세스 가능하고 색인 생성 가능하지 않은 항목을 검색 엔진에 알려줍니다. ROBOTS 프로토콜의 사용은 웹사이트 최적화에 큰 편리성을 가져왔다고 할 수 있습니다. 그러나 이로 인해 일부 사람들은 기회주의적으로 이 규칙을 "복잡하게" 만들고 친숙한 링크를 속이는 등 웹사이트 최적화의 정상적인 순서를 방해합니다.
2: "로봇"은 친구 링크를 차단합니다.
Robots.txt는 웹사이트 디렉터리와 링크를 차단하여 검색 엔진이 원하는 대로 콘텐츠를 완전히 색인화할 수 있도록 합니다. 한편으로는 웹사이트의 보안 정보가 스파이더에 의해 유출되지 않아 헤아릴 수 없는 손실이 발생하는 문제를 해결합니다. 반면에, 웹사이트의 세부 사항을 최적화할 수도 있는데, 이는 가중치를 높이는 데 더 도움이 됩니다. 하지만 이에 따라 장단점이 있습니다. 웹마스터가 다른 의도를 가지고 robotst 프로토콜을 사용하여 친숙한 링크 모듈이나 링크를 차단하면 어떻게 될까요? 이런 식으로 검색 엔진이 웹사이트를 색인화하면 링크가 색인화되고 대답은 '아니요'이며, 그러한 웹사이트에서 링크를 교환하는 것과 개별 링크를 만드는 것에는 차이가 없습니다. 따라서 웹마스터는 링크된 사이트의 Robots.txt에 있는 정보가 타당한지 주의해야 합니다.
3: "로봇 메타" 태그
많은 웹사이트에서 "로봇 메타" 태그를 사용하여 검색 엔진이 전체 사이트를 색인화하도록 안내합니다. 하지만 웹마스터가 다른 의도가 있는 경우 다음과 같이 원래 의미를 변경할 수도 있습니다. "<meta name="robots" content="index, follow">" 이러한 코드 줄을 본 적이 있습니까? ? 의미는 모든 검색 엔진이 홈 페이지를 따라 색인을 생성할 수 있다는 것입니다. 하지만 일단 "
"의미는 완전히 반대입니다. 페이지가 색인에 포함되는 것을 방지하고 스파이더가 페이지 링크를 추적하는 것을 방지합니다. "no"라는 두 개의 작은 문자는 다른 의미를 갖습니다. 웹마스터는 이후 소스 코드가 올바른지 주의 깊게 확인해야 합니다. 참고: 페이지의 개별 링크에 nofollow 속성을 추가하지 않더라도 페이지 시작 부분에 추가하면 의미는 동일합니다.
우정 링크 교환은 단순히 외부 링크를 교환하는 것이 아니라 신뢰를 교환하는 것입니다. 서로를 속이고 있다면 어떻게 지속 가능한 발전에 관해 이야기할 수 있겠습니까? 웹마스터는 링크를 교환할 때 더욱 진지해져야 장기적인 협력이 윈윈(win-win)할 수 있습니다. 웹사이트가 강등되었습니까? A5 최적화 팀/He Guijiang( http://i.zhihuiSEO.com )은 웹마스터에게 친숙한 링크의 "로봇"에 문제가 있는지 확인하도록 상기시킵니다.
담당 편집자: Chen Long 저자 Binary Network의 개인 공간