Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im WWW an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer lieblings Positionierung in den Serps und recht bald entwickelten sich Einrichtung, die sich auf die Aufbesserung qualifizierten.
In den Anfängen erfolgte die Aufnahme oft über die Übertragung der URL der entsprechenden Seite bei der verschiedenen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Recherche, wo ein 2. Angebot, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Infos, die mithilfe der Webmaster auch vorhanden worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Übersicht über den Content einer Seite, doch stellte sich bald raus, dass die Inanspruchnahme dieser Tipps nicht zuverlässig war, da die Wahl der eingesetzten Schlüsselworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei individuellen Stöbern listen.[2] Auch versuchten Seitenersteller unterschiedliche Punkte in des HTML-Codes einer Seite so zu steuern, dass die Seite stärker in den Suchergebnissen aufgeführt wird.[3]
Da die späten Search Engines sehr auf Faktoren angewiesen waren, die nur in den Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Missbrauch und Manipulationen im Ranking. Um tolle und relevantere Testurteile in Resultaten zu bekommen, mussten wir sich die Unternhemer der Suchmaschinen im WWW an diese Faktoren integrieren. Weil der Ergebnis einer Suchseite davon abhängig ist, essentielle Suchergebnisse zu den gestellten Keywords anzuzeigen, vermochten unangebrachte Urteile dazu führen, dass sich die Benützer nach diversen Entwicklungsmöglichkeiten bei der Suche im Web umschauen. Die Rückmeldung der Suchmaschinen im WWW lagerbestand in komplexeren Algorithmen fürs Positionierung, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwer manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Recherche, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch weitere Suchmaschinen im WWW überzogen bei Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen