Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Internet Suchmaschinen an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Positionierung in den Suchergebnissen und recht bald fand man Firma, die sich auf die Verbesserung qualifizierten.
In Anfängen vollzogen wurde die Aufnahme oft über die Transfer der URL der entsprechenden Seite an die divergenten Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Web Server der Suchseite, wo ein weiteres Programm, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die zeitigen Modellen der Suchalgorithmen basierten auf Angaben, die durch die Webmaster eigenhändig bestehen worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Übersicht mit Content einer Seite, dennoch setzte sich bald hoch, dass die Anwendung er Ratschläge nicht vertrauenswürdig war, da die Wahl der gebrauchten Schlüsselworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts sonstige Verben kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Webseiten bei einzigartigen Stöbern listen.[2] Auch versuchten Seitenersteller vielfältige Punkte binnen des HTML-Codes einer Seite so zu manipulieren, dass die Seite überlegen in Suchergebnissen aufgeführt wird.[3]
Da die neuzeitlichen Internet Suchmaschinen sehr auf Merkmalen dependent waren, die nur in Händen der Webmaster lagen, waren sie auch sehr labil für Abusus und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Testergebnisse in den Resultaten zu erhalten, musste ich sich die Unternhemer der Search Engines an diese Voraussetzungen einstellen. Weil der Gewinn einer Recherche davon zusammenhängt, besondere Suchresultate zu den gestellten Keywords anzuzeigen, konnten ungünstige Vergleichsergebnisse darin resultieren, dass sich die Benutzer nach weiteren Möglichkeiten bei der Suche im Web umschauen. Die Antwort der Suchmaschinen im WWW vorrat in komplexeren Algorithmen für das Rangordnung, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwer lenkbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Die Suchmaschine – eine Suchseiten, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch sonstige Search Engines überzogen während der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.