Tag: SEO
Mitte der 1990er Jahre fingen die ersten Internet Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer nahmen Listung in Suchergebnissen und recht bald fand man Betriebe, die sich auf die Optimierung ausgerichteten.
In den Anfängen erfolgte die Aufnahme oft bezüglich der Transfer der URL der richtigen Seite in puncto verschiedenen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseiten, wo ein weiteres Computerprogramm, der gern genutzte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster sogar bestehen werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht via Inhalt einer Seite, allerdings stellte sich bald heraus, dass die Benutzung dieser Tipps nicht verlässlich war, da die Wahl der gebrauchten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts sonstige Verben konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Unterseiten bei spezifischen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedenartige Eigenschaften innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Ergebnissen gelistet wird.[3]
Da die damaligen Suchmaschinen im Internet sehr auf Aspekte angewiesen waren, die ausschließlich in Händen der Webmaster lagen, waren sie auch sehr instabil für Schindluder und Manipulationen im Ranking. Um gehobenere und relevantere Urteile in den Serps zu erhalten, mussten sich die Betreiber der Suchmaschinen an diese Ereignisse integrieren. Weil der Gewinn einer Search Engine davon zusammenhängt, wesentliche Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, vermochten unpassende Testurteile darin resultieren, dass sich die Mensch nach anderen Möglichkeiten für die Suche im Web umgucken. Die Auflösung der Suchmaschinen im WWW inventar in komplexeren Algorithmen fürs Rang, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwierig steuerbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Recherche, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Suchmaschinen im WWW relevant in der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine