Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Search Engines an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer lieblings Positionierung in Resultaten und recht bald entstanden Einrichtung, die sich auf die Aufbesserung qualifizierten.
In Anfängen vollzogen wurde die Aufnahme oft zu der Übertragung der URL der speziellen Seite an die diversen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Web Server der Search Engine, wo ein weiteres Programm, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster selber existieren sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht mit Gehalt einer Seite, doch stellte sich bald herab, dass die Nutzung dieser Details nicht ordentlich war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei einzigartigen Benötigen listen.[2] Auch versuchten Seitenersteller vielfältige Fähigkeiten in einem Zeitraum des HTML-Codes einer Seite so zu beeinflussen, dass die Seite überlegen in Resultaten aufgeführt wird.[3]
Da die neuzeitlichen Suchmaschinen im Internet sehr auf Gesichtspunkte dependent waren, die ausschließlich in Händen der Webmaster lagen, waren sie auch sehr empfänglich für Falscher Gebrauch und Manipulationen in der Positionierung. Um tolle und relevantere Resultate in den Serps zu erhalten, mussten wir sich die Besitzer der Suchmaschinen an diese Ereignisse adjustieren. Weil der Ergebnis einer Anlaufstelle davon abhängig ist, relevante Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten untaugliche Testurteile darin resultieren, dass sich die Anwender nach weiteren Chancen zur Suche im Web umgucken. Die Auskunft der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen für das Rang, die Faktoren beinhalteten, die von Webmastern nicht oder nur mühevoll beherrschbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Yahoo search – eine Recherche, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen orientiert während der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.