Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Netz an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in Suchergebnissen und recht bald entstanden Betriebe, die sich auf die Besserung qualifitierten.
In den Anfängen geschah die Aufnahme oft zu der Übertragung der URL der richtigen Seite an die diversen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Webserver der Suchseiten, wo ein 2. Computerprogramm, der gern genutzte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Informationen, die mit den Webmaster auch existieren sind, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick über den Essenz einer Seite, jedoch registrierte sich bald heraus, dass die Verwendung dieser Vorschläge nicht zuverlässig war, da die Wahl der gebrauchten Schlüsselworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts sonstige Verben kann. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Webseiten bei spezifischen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedenartige Fähigkeiten in des HTML-Codes einer Seite so zu beeinflussen, dass die Seite stärker in Resultaten gefunden wird.[3]
Da die neuzeitlichen Suchmaschinen im Netz sehr auf Aspekte angewiesen waren, die einzig in Händen der Webmaster lagen, waren sie auch sehr vulnerabel für Abusus und Manipulationen in der Positionierung. Um gehobenere und relevantere Testurteile in Serps zu erhalten, musste ich sich die Anbieter der Suchmaschinen im Internet an diese Umständen angleichen. Weil der Gelingen einer Suchseite davon abhängt, wichtige Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, vermochten unpassende Urteile dazu führen, dass sich die User nach ähnlichen Möglichkeiten für die Suche im Web umschauen. Die Antwort der Search Engines lagerbestand in komplexeren Algorithmen beim Positionierung, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert beherrschbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Die Suchmaschine – eine Suchseiten, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus reingehen ließ. Auch sonstige Suchmaschinen im WWW bedeckt bei Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Yahoo