-
Se você possui um site ou blog independente, ou se seu trabalho está de alguma forma relacionado à Internet, então você deve ter um certo conhecimento de SEO (otimização de mecanismos de pesquisa). Este artigo listará 20 dos termos e conceitos mais comumente usados na área de SEO. Se você planeja familiarizá-los e entendê-los, continue lendo. Claro, se você já sabe tudo, pode simplesmente usá-lo como cursinho ou simplesmente ignorar este artigo.
1. Marketing em mecanismos de pesquisa (SEM)
Search Engine Marketing (SEM) é chamado de Search Engine Marketing em inglês, que significa a comercialização de serviços e produtos por meio de mecanismos de busca. O marketing de mecanismos de pesquisa é dividido principalmente em dois tipos: otimização de mecanismos de pesquisa (SEO) e pagamento por clique (PPC, Pay-Per-Click). A otimização de mecanismos de pesquisa (SEO) refere-se à otimização de sites e páginas e à exibição deles nas páginas de resultados de pesquisa, enquanto o pagamento por clique (PPC) refere-se à compra de cliques em mecanismos de pesquisa para trazer usuários ao seu site. (Normalmente) esses cliques vêm de “links patrocinados” nas páginas de resultados de pesquisa.
2. Backlink
Backlink, também conhecido como “backlink”, “link de entrada” e “link simples”, refere-se a um hiperlink de outros sites para o seu site. A razão pela qual os backlinks são extremamente importantes para o SEO é que eles afetam diretamente o page rank (PageRank) de uma página da web e a classificação dessa página nos resultados de pesquisa.
3. Classificação de páginas
Page Rank (PageRank) é uma regra de algoritmo usada pelo Google para avaliar a importância de uma página em relação a outras páginas. O significado mais básico desta regra de algoritmo é que se a página A tiver um link apontando para a página B, isso pode ser considerado uma confiança ou recomendação da página A para a página B. Portanto, se uma página tiver mais backlinks e quanto maior for a ponderação baseada no valor desses links, o buscador julgará que tal página é mais importante e o page rank (PageRank) será maior.
4. Linkbait (Linkbait)
Linkbait, como o nome sugere, é um conteúdo de um site ou blog que existe para atrair o maior número possível de backlinks (o objetivo é aumentar o valor de PR do site). Normalmente, o conteúdo usado como isca é um conteúdo de texto, mas também pode ser um vídeo, uma imagem, um quiz ou outro conteúdo popular. O exemplo mais clássico de conteúdo de isca é o “Top 10”, porque esse conteúdo pode facilmente se tornar popular em alguns sites de redes sociais e se tornar um tema quente.
5. Link farm ou link farm
Link factory ou link farm refere-se ao método pelo qual muitos sites (geralmente um grande número) formam um grupo semelhante a um workshop para melhorar a classificação da página de cada site do grupo por meio de links mútuos. No início, este método era útil, mas agora tornou-se um meio vergonhoso de trapaça (e potencialmente punível).
6. Texto âncora
O texto âncora em backlinks refere-se ao texto clicável em uma página, e as palavras-chave nele contidas são de grande ajuda para a otimização de mecanismos de pesquisa (SEO), porque o Google combinará essas palavras-chave com o seu conteúdo Relate.
7. Atributo de link-NoFollow
Nofollow é um atributo de link usado por webmasters para informar aos mecanismos de pesquisa que eles não estão votando no site para o qual o link aponta. Este link também pode ser conteúdo criado pelos próprios usuários do site (como um link em um comentário de blog) ou pode ser um link de uma transação paga (como um anúncio ou link patrocinado). Quando o Google reconhece o atributo NoFollow desses backlinks, basicamente não leva em consideração a contribuição desses links nos algoritmos de classificação da página e de classificação dos resultados de pesquisa.
8. Escultura de Link
Link Sculpting refere-se ao administrador do site que define os atributos de backlinks para outros sites no site. Por exemplo, o administrador adiciona o atributo Nofollow ao link, o que permite ao administrador decidir usar seu site para melhorar a classificação da página de um site específico ou não para ajudar a melhorar a classificação da página de um site específico. No entanto, esta abordagem tem pouco efeito agora, porque o Google decidiu usar seu próprio algoritmo para determinar como lidar com o atributo Nofollow do link.
9. Título da página (tag de título)
O título da página (Title Tag), como o nome indica, refere-se ao título de uma página, que também é a referência mais importante no algoritmo de busca do Google. Idealmente, o título da sua página deve ser exclusivo e incluir o máximo possível de palavras-chave do conteúdo da página. Ao navegar na web, você pode ver o título de uma página da web na parte superior do navegador.
10. Metatags
As meta tags, assim como os títulos das páginas, são usadas principalmente para fornecer aos mecanismos de pesquisa mais informações sobre o conteúdo da sua página. A meta tag está localizada no início do código HTML e é invisível para visitantes com olhos longos.
11. Algoritmo de pesquisa
O algoritmo de pesquisa do Google foi projetado para encontrar os sites e páginas mais relevantes para cada solicitação de pesquisa. Este algoritmo leva em consideração mais de 200 fatores (afirmações do Google), incluindo classificação da página, título, meta tags, conteúdo do site e idade do nome de domínio.
12. Página de resultados de pesquisa (SERP)
O nome completo em inglês de Search Results Page (SERP) é Search Engine Results Page. Basicamente, esta é a página que você normalmente vê depois de digitar palavras-chave no Google e pressionar Enter. A quantidade de tráfego que seu site obtém desta página depende da classificação do seu site nos resultados de pesquisa.
13. Caixa de areia
Além do índice de todos os sites, o Google também possui uma sandbox de índice separada, que contém sites recém-descobertos e incluídos. Quando o seu site existir nesta sandbox, ele não aparecerá nos resultados de pesquisa gerais. Somente quando o Google confirmar que o seu site é legal ele será removido da sandbox e inserido no índice de todos os sites.
14. Densidade de palavras-chave
Como determinar a densidade de palavras-chave de uma página específica? Basta dividir o número de vezes que uma palavra-chave é usada pelo número total de palavras na página. A densidade de palavras-chave costumava ser um fator muito importante no SEO porque os primeiros algoritmos de pesquisa a valorizavam, mas os tempos mudaram.
15. Recheio de palavras-chave
Como os primeiros algoritmos de pesquisa davam grande ênfase à densidade de palavras-chave, os webmasters usavam técnicas artificiais de empilhamento de palavras-chave para enganar e enganar os mecanismos de pesquisa. Essa técnica é chamada de preenchimento de palavras-chave, mas não é mais útil e você pode ser penalizado por isso.
16. Camuflagem
Cloaking refere-se ao uso de código para permitir que robôs e pessoas reais vejam conteúdos diferentes na mesma página. O objetivo é melhorar a classificação da página por meio de palavras-chave, mas o verdadeiro objetivo é promover e vender diversos produtos ou serviços não relacionados. Claro que isso também é uma forma de trapaça, e é muito provável que você seja punido ou até mesmo excluído pelos mecanismos de busca.
17. Rastreador da Web
Web crawler ou web spider (Web Crawler), também conhecido como crawler ou spider, representa mecanismos de busca para navegar na Internet com o objetivo de descobrir novos links e páginas.
18. Conteúdo duplicado
Conteúdo duplicado também é chamado de “conteúdo duplicado”. Geralmente se refere a uma página que faz referência a uma grande seção de conteúdo substancial dentro ou fora do site, ou que é exatamente igual ou extremamente semelhante. acontece, caso contrário é fácil ter seu site penalizado.
19. URL canônico
URL canônico refere-se a um link para uma página da web que deve estar em conformidade com especificações e padrões.
20. Protocolo do Robô (Robots.txt)
O protocolo do robô (Robots.txt) nada mais é do que um arquivo de texto TXT que existe no diretório raiz do seu nome de domínio. Sua função é informar aos crawlers e spiders as informações da estrutura de diretórios do site e restringir seu acesso a pastas e arquivos específicos. conteúdo ou excluí-los completamente