Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten rasch den Wert einer nahmen Listung in den Resultaten und recht bald entwickelten sich Betriebe, die sich auf die Verfeinerung ausgerichteten.
In Anfängen vollzogen wurde der Antritt oft zu der Übertragung der URL der geeigneten Seite in puncto vielfältigen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Web Server der Anlaufstelle, wo ein weiteres Anwendung, der sogenannte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster eigenhändig vorhanden wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick mit Gegenstand einer Seite, aber stellte sich bald raus, dass die Verwendung er Tipps nicht verlässlich war, da die Wahl der eingesetzten Schlagworte dank dem Webmaster eine ungenaue Beschreibung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Webseiten bei besonderen Brauchen listen.[2] Auch versuchten Seitenersteller mehrere Attribute binnen des HTML-Codes einer Seite so zu beeinflussen, dass die Seite besser in den Resultaten aufgeführt wird.[3]
Da die damaligen Internet Suchmaschinen sehr auf Punkte angewiesen waren, die alleinig in Koffern der Webmaster lagen, waren sie auch sehr instabil für Falscher Gebrauch und Manipulationen in der Positionierung. Um überlegenere und relevantere Urteile in Suchergebnissen zu bekommen, mussten sich die Inhaber der Suchmaschinen im Internet an diese Faktoren anpassen. Weil der Triumph einer Suchmaschine davon anhängig ist, wichtige Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten unpassende Testergebnisse zur Folge haben, dass sich die Benutzer nach anderweitigen Optionen bei dem Suche im Web umblicken. Die Rückmeldung der Search Engines lagerbestand in komplexeren Algorithmen fürs Platz, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert lenkbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Bing – eine Recherche, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch übrige Suchmaschinen im Internet orientiert während der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.