Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Search Engines an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Listung in Ergebnissen und recht bald entwickelten sich Betriebe, die sich auf die Besserung ausgerichteten.
In Anfängen ereignete sich die Aufnahme oft bezüglich der Übertragung der URL der passenden Seite an die vielfältigen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Server der Recherche, wo ein weiteres Computerprogramm, der allgemein so benannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die frühen Versionen der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster selbst vorgegeben sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick per Content einer Seite, dennoch registrierte sich bald herab, dass die Benutzung er Vorschläge nicht solide war, da die Wahl der benutzten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Unterseiten bei speziellen Recherchieren listen.[2] Auch versuchten Seitenersteller diverse Attribute in einem Zeitraum des HTML-Codes einer Seite so zu steuern, dass die Seite überlegen in den Suchergebnissen aufgeführt wird.[3]
Da die frühen Suchmaschinen im WWW sehr auf Aspekte dependent waren, die nur in Händen der Webmaster lagen, waren sie auch sehr vulnerabel für Falscher Gebrauch und Manipulationen im Ranking. Um bessere und relevantere Testergebnisse in den Serps zu erhalten, musste ich sich die Anbieter der Suchmaschinen im Netz an diese Umständen angleichen. Weil der Erfolg einer Suchseiten davon abhängt, relevante Suchresultate zu den inszenierten Keywords anzuzeigen, konnten ungünstige Testergebnisse darin resultieren, dass sich die Mensch nach weiteren Optionen bei der Suche im Web umsehen. Die Erwiderung der Suchmaschinen lagerbestand in komplexeren Algorithmen für das Platz, die Kriterien beinhalteten, die von Webmastern nicht oder nur mühevoll steuerbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Google – eine Suchseite, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch weitere Suchmaschinen im Netz bezogen während der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine