Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Netz an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in Suchergebnissen und recht bald entwickelten sich Behörde, die sich auf die Optimierung ausgebildeten.
In den Anfängen ereignete sich der Antritt oft über die Transfer der URL der jeweiligen Seite in puncto unterschiedlichen Search Engines. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Anlaufstelle, wo ein 2. Computerprogramm, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderweitigen Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Angaben, die aufgrund der Webmaster selbst vorgegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamteindruck mit Thema einer Seite, aber registrierte sich bald hoch, dass die Nutzung er Vorschläge nicht solide war, da die Wahl der verwendeten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts sonstige Verben kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei speziellen Benötigen listen.[2] Auch versuchten Seitenersteller diverse Attribute in des HTML-Codes einer Seite so zu beherrschen, dass die Seite richtiger in Resultaten gelistet wird.[3]
Da die späten Suchmaschinen im Internet sehr auf Punkte dependent waren, die ausschließlich in den Fingern der Webmaster lagen, waren sie auch sehr instabil für Falscher Gebrauch und Manipulationen im Ranking. Um vorteilhaftere und relevantere Urteile in Ergebnissen zu bekommen, musste ich sich die Betreiber der Suchmaschinen im Netz an diese Rahmenbedingungen anpassen. Weil der Triumph einer Suchmaschine davon abhängig ist, wichtige Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, vermochten unangebrachte Ergebnisse zur Folge haben, dass sich die Nutzer nach ähnlichen Entwicklungsmöglichkeiten bei dem Suche im Web umschauen. Die Auskunft der Search Engines inventar in komplexeren Algorithmen für das Positionierung, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Urahn von Suchmaschinen – eine Suchseiten, die auf einem mathematischen Algorithmus basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Suchmaschinen im WWW betreffend in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Yahoo