Tag: SEO
Mitte der 1990er Jahre fingen die ersten Internet Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten flott den Wert einer lieblings Listung in den Resultaten und recht bald fand man Betrieb, die sich auf die Aufbesserung ausgebildeten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft bezüglich der Übertragung der URL der richtigen Seite bei der diversen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Anlaufstelle, wo ein weiteres Anwendung, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Infos, die dank der Webmaster selber gegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Überblick über den Gegenstand einer Seite, dennoch setzte sich bald herab, dass die Verwendung dieser Ratschläge nicht solide war, da die Wahl der eingesetzten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts reflektieren konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Unterseiten bei charakteristischen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedenartige Fähigkeiten binnen des HTML-Codes einer Seite so zu beeinflussen, dass die Seite richtiger in den Resultaten aufgeführt wird.[3]
Da die damaligen Suchmaschinen sehr auf Aspekte dependent waren, die allein in Fingern der Webmaster lagen, waren sie auch sehr anfällig für Straftat und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Testergebnisse in den Suchergebnissen zu erhalten, mussten sich die Operatoren der Suchmaschinen an diese Voraussetzungen integrieren. Weil der Riesenerfolg einer Suchmaschine davon zusammenhängt, essentielle Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten unpassende Testergebnisse dazu führen, dass sich die Benutzer nach ähnlichen Entwicklungsmöglichkeiten bei der Suche im Web umsehen. Die Antwort der Search Engines vorrat in komplexeren Algorithmen beim Platz, die Punkte beinhalteten, die von Webmastern nicht oder nur kompliziert beherrschbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Google – eine Search Engine, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch alternative Suchmaschinen bezogen in Mitten der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.