-
Wenn Sie eine Website oder einen unabhängigen Blog besitzen oder Ihre Arbeit etwas mit dem Internet zu tun hat, müssen Sie über ein gewisses Verständnis von SEO (Suchmaschinenoptimierung) verfügen. In diesem Artikel werden die 20 am häufigsten verwendeten Begriffe und Konzepte im SEO-Bereich aufgeführt. Wenn Sie sich mit ihnen vertraut machen und sie verstehen möchten, lesen Sie bitte weiter. Wenn Sie bereits alles wissen, können Sie es natürlich einfach als Lernhilfe nutzen oder diesen Artikel einfach ignorieren.
1. Suchmaschinenmarketing (SEM)
Search Engine Marketing (SEM) heißt auf Englisch Search Engine Marketing und bedeutet die Vermarktung von Dienstleistungen und Produkten über Suchmaschinen. Suchmaschinenmarketing wird hauptsächlich in zwei Arten unterteilt: Suchmaschinenoptimierung (SEO) und Pay-per-Click (PPC, Pay-Per-Click). Suchmaschinenoptimierung (SEO) bezieht sich auf die Optimierung von Websites und Seiten und deren Anzeige auf Suchergebnisseiten, während sich Pay-per-Click (PPC) auf den Kauf von Suchmaschinenklicks bezieht, um Benutzer auf Ihre Website zu bringen. (Normalerweise) stammen diese Klicks von „gesponserten Links“ auf Suchergebnisseiten.
2. Backlink
Backlink, auch bekannt als „Backlink“, „Inbound-Link“ und „einfacher Link“, bezieht sich auf einen Hyperlink von anderen Websites zu Ihrer Website. Der Grund, warum Backlinks für SEO äußerst wichtig sind, liegt darin, dass sie sich direkt auf den Seitenrang (PageRank) einer Webseite und das Ranking dieser Seite in den Suchergebnissen auswirken.
3. PageRank
Page Rank (PageRank) ist eine Algorithmusregel, die von Google verwendet wird, um die Wichtigkeit einer Seite im Verhältnis zu anderen Seiten zu bewerten. Die grundlegendste Bedeutung dieser Algorithmusregel besteht darin, dass, wenn Seite A einen Link hat, der auf Seite B verweist, dies als Vertrauen oder Empfehlung von Seite A zu Seite B betrachtet werden kann. Wenn also eine Seite mehr Backlinks hat und je höher die Gewichtung auf dem Wert dieser Links basiert, beurteilt die Suchmaschine eine solche Seite als wichtiger und der Seitenrang (PageRank) wird höher sein.
4. Linkbait (Linkbait)
Linkbait ist, wie der Name schon sagt, ein Inhalt auf einer Website oder einem Blog, der darauf abzielt, möglichst viele Backlinks anzuziehen (der Zweck besteht darin, den PR-Wert der Website zu erhöhen). Normalerweise handelt es sich bei den als Köder verwendeten Inhalten um Textinhalte, es kann sich aber auch um ein Video, ein Bild, ein Quiz oder andere beliebte Inhalte handeln. Das klassischste Beispiel für Köderinhalte sind die „Top 10“, da solche Inhalte auf einigen Social-Networking-Sites leicht populär werden und zu einem heißen Thema werden können.
5. Linkfarm oder Linkfarm
Unter Link Factory oder Link Farm versteht man die Methode, bei der viele Websites (in der Regel eine große Anzahl) eine Workshop-ähnliche Gruppe bilden, um das Seitenranking jeder Website der Gruppe durch gegenseitige Links zu verbessern. Anfangs war diese Methode nützlich, doch mittlerweile ist sie zu einem schamlosen (und möglicherweise strafbaren) Mittel des Betrugs geworden.
6. Ankertext
Ankertext in Backlinks bezieht sich auf anklickbaren Text auf einer Seite, und die darin enthaltenen Schlüsselwörter sind eine große Hilfe bei der Suchmaschinenoptimierung (SEO), da Google diese Schlüsselwörter mit Ihrem Inhalt verknüpft.
7. Link-Attribut-NoFollow
Nofollow ist ein Link-Attribut, das von Webmastern verwendet wird, um Suchmaschinen mitzuteilen, dass sie nicht für die Website stimmen, auf die der Link verweist. Bei diesem Link kann es sich auch um Inhalte handeln, die von den Website-Benutzern selbst erstellt wurden (z. B. um einen Link in einem Blog-Kommentar), oder um einen Link aus einer bezahlten Transaktion (z. B. eine Werbung oder einen gesponserten Link). Wenn Google das NoFollow-Attribut dieser Backlinks erkennt, berücksichtigt es den Beitrag dieser Links grundsätzlich nicht in den Algorithmen für das Seitenranking und das Suchergebnisranking.
8. Link-Bildhauerei
Link Sculpting bezieht sich darauf, dass der Website-Administrator die Attribute von Backlinks zu anderen Websites auf der Website festlegt. Beispielsweise fügt der Administrator dem Link das Nofollow-Attribut hinzu, wodurch der Administrator entscheiden kann, ob er seine Website zur Verbesserung des Seitenrankings einer bestimmten Website verwenden möchte oder nicht, um zur Verbesserung des Seitenrankings einer bestimmten Website beizutragen. Allerdings zeigt dieser Ansatz derzeit kaum Wirkung, da Google beschlossen hat, einen eigenen Algorithmus zu verwenden, um zu bestimmen, wie mit dem Nofollow-Attribut des Links umgegangen wird.
9. Seitentitel (Titel-Tag)
Der Seitentitel (Title Tag) bezieht sich, wie der Name schon sagt, auf den Titel einer Seite, der auch die wichtigste Referenz im Google-Suchalgorithmus ist. Idealerweise sollte Ihr Seitentitel eindeutig sein und möglichst viele Schlüsselwörter aus dem Seiteninhalt enthalten. Wenn Sie im Internet surfen, können Sie oben im Browser den Titel einer Webseite sehen.
10. Meta-Tags
Meta-Tags werden wie Seitentitel hauptsächlich dazu verwendet, Suchmaschinen mehr Informationen über den Inhalt Ihrer Seite bereitzustellen. Das Meta-Tag befindet sich am Kopf des HTML-Codes und ist für Besucher mit langen Augen unsichtbar.
11. Suchalgorithmus
Der Suchalgorithmus von Google ist darauf ausgelegt, für jede Suchanfrage die relevantesten Websites und Seiten zu finden. Dieser Algorithmus berücksichtigt mehr als 200 Faktoren (Angaben von Google), darunter Seitenrang, Titel, Meta-Tags, Website-Inhalt und das Alter des Domainnamens.
12. Suchergebnisseite (SERP)
Der vollständige englische Name der Suchergebnisseite (SERP) lautet Search Engine Results Page. Im Grunde ist dies die Seite, die Sie normalerweise sehen, nachdem Sie Schlüsselwörter in Google eingegeben und die Eingabetaste gedrückt haben. Die Menge an Zugriffen, die Ihre Website von dieser Seite erhält, hängt vom Rang Ihrer Website in den Suchergebnissen ab.
13. Sandkasten
Zusätzlich zum Index aller Websites verfügt Google auch über eine separate Index-Sandbox, die neu entdeckte und aufgenommene Websites enthält. Wenn Ihre Website in dieser Sandbox vorhanden ist, wird sie nicht in den allgemeinen Suchergebnissen angezeigt. Erst wenn Google bestätigt, dass Ihre Website legal ist, wird sie aus der Sandbox entfernt und in den Index aller Websites aufgenommen.
14. Keyword-Dichte
Wie ermittelt man die Keyword-Dichte einer bestimmten Seite? Teilen Sie einfach die Häufigkeit, mit der ein Schlüsselwort verwendet wird, durch die Gesamtzahl der Wörter auf der Seite. Früher war die Keyword-Dichte ein sehr wichtiger Faktor bei der Suchmaschinenoptimierung, da sie von frühen Suchalgorithmen geschätzt wurde, aber die Zeiten haben sich geändert.
15. Keyword-Stuffing
Da frühe Suchalgorithmen großen Wert auf die Keyword-Dichte legten, verwendeten Webmaster künstliche Keyword-Stacking-Techniken, um Suchmaschinen zu betrügen und zu täuschen. Diese Technik wird Keyword-Stuffing genannt, ist jedoch nicht mehr sinnvoll und kann mit einer Strafe rechnen.
16. Tarnung
Unter Cloaking versteht man die Verwendung von Code, der es Robotern und echten Menschen ermöglicht, unterschiedliche Inhalte auf derselben Seite zu sehen. Der Zweck besteht darin, das Seitenranking durch Schlüsselwörter zu verbessern, aber der eigentliche Zweck besteht darin, verschiedene nicht verwandte Produkte oder Dienstleistungen zu bewerben und zu verkaufen. Selbstverständlich handelt es sich dabei auch um Betrug und die Wahrscheinlichkeit ist groß, dass Sie von Suchmaschinen abgestraft oder sogar ausgeschlossen werden.
17. Webcrawler
Webcrawler oder Webspider (Web Crawler), auch kurz Crawler oder Spider genannt, sind Suchmaschinen zum Durchsuchen des Internets mit dem Ziel, neue Links und Seiten zu entdecken. Dies ist der erste Schritt bei der Indexierung.
18. Doppelter Inhalt
Duplicate Content wird auch als „Duplicate Content“ bezeichnet. Dabei handelt es sich in der Regel um eine Seite, die auf einen großen Teil des Inhalts innerhalb oder außerhalb der Website verweist oder der genau gleich oder sehr ähnlich ist. Dies sollte eine Website vermeiden. passiert, andernfalls kann Ihre Website leicht bestraft werden.
19. Kanonische URL
Als kanonische URL bezeichnet man einen Link zu einer Webseite, die Spezifikationen und Standards entsprechen muss.
20. Roboterprotokoll (Robots.txt)
Das Roboterprotokoll (Robots.txt) ist nichts anderes als eine TXT-Textdatei, die im Stammverzeichnis Ihres Domainnamens vorhanden ist. Seine Funktion besteht darin, Crawlern und Spidern die Verzeichnisstrukturinformationen der Website mitzuteilen und ihren Zugriff auf bestimmte Ordner und Ordner zu beschränken Inhalte löschen oder ganz ausschließen