Bevor man sich mit dem Thema Suchmaschinenoptimierung beschäftigt, ist es sinnvoll sich zu fragen, was genau eine Suchmaschine überhaupt ist und wie diese funktioniert. Die Frage mag trivial klingen – für eine optimale Suchmaschinenoptimierung braucht es jedoch fundiertes Wissen über die Arbeitsweise von Suchmaschinen.
Was ist eine Suchmaschine?
Das Internet ohne Suchmaschinen ist heute kaum noch vorstellbar. 98% der Webeinstiege erfolgen über eine Suchmaschine. Während man in den 90er Jahren das Internet noch größtenteils über Internetadressen, sogenannte Domains, organisierte, ist es mittlerweile unüblich eine Domain komplett einzugeben. Der Benutzer benutzt heutzutage sogar Suchmaschinen, obwohl er den Namen (und damit auch die Domain der Adresse) kennt. Wir haben uns daran gewöhnt alles zu suchen. Die Indexierung des Internets durch das menschliche Gedächtnis ist zu umständlich und so wird für alles die Suchmaschine genutzt.
Und wenn wir von einer Suchmaschine sprechen, meinen wir eigentlich Google. Denn Google hat mittlerweile einen Marktanteil von 94,5%. Zumindest in Europa ist Google DIE Suchmaschine.
Aber was ist eine Suchmaschine eigentlich? Unter einer Suchmaschine ist ein Programm zu verstehen, dass meist im Browser nach Inhalten sucht. Dabei suchen wir nach einem sogenannten Keyword und die Suchmaschine präsentiert uns die Ergebnisse nach einem bestimmten Algorithmus, der der Suchmaschine zu eigen ist. Das Ziel der optimalen Suchmaschine ist es natürlich uns das relevanteste Ergebnis zu präsentieren. Da die Suchmaschine jedoch nicht genau weiß, was wir eigentlich genau suchen, denn wir kommunizieren nur über den Umweg Syntax mit ihr, liefert die Suchmaschine die Ergebnisse meist in Listenform aus, wobei natürlich die erste Stelle das (nach dem Suchmaschinen Algorithmus) relevanteste Ergebnis zeigt und in absteigender Reihenfolge dann weitere Treffer und Informationen präsentiert werden. Diese Liste wird auch SERP (Search Engine Result Page) genannt.
Wie funktioniert eine Suchmaschine?
Suchmaschinen filtern das Internet nach einem bestimmten Algorithmus. Wobei eine Suchmaschine streng genommen nicht das ganze Internet durchsucht, sondern nur das World Wide Web. Andere Teile des Internets sind zum Beispiel E-Mail, FTP oder auch das Usenet.
Wobei auch streng genommen nicht das World Wide Web durchsucht wird, sondern nur ein Abbild dieses WWW. Dieses Abbild nennt man den Suchmaschinen Index. Suchmaschinen liefern die Suchergebnisse in Sekundenbruchteilen – wenn eine Suche live durchgeführt werden würde – also das World Wide Web in dem Moment durchsucht werden müsste, in dem ich den Suchbegriff eingebe, würde es sicherlich Stunden und Tage dauern, eh ich ein Ergebnis erhalten würde.
Deshalb erstellt jede Suchmaschine einen sogenannten Index. Dieser ist sozusagen eine Kartei, die das Internet kategorisiert und indexiert hat. Dieser Index liegt bereits auf dem Server des Suchmaschinenanbieters (Cache) – und ermöglicht die Ergebnisauslieferung in Sekundenschnelle. Deshalb ist der Index einer Suchmaschine nie in Echtzeit. Man sieht also hier die gespeicherte Version des World Wide Webs aus der Vergangenheit. Im Besten Fall liegt diese gespeicherte Version natürlich nur wenige Stunden zurück.
Aber wie wird dieser Index erstellt? Hierfür werden sogenannte Crawler genutzt – bei Google heißen diese Crawler Googlebots. Diese Bots sind Computerprogramme, die selbstständig durch das Internet surfen und Websites scannen. Dabei werden Inhalte erfasst und in einem Cache abgelegt.
Da Google natürlich nicht die Kapazitäten hat, alle Websites komplett zu speichern, gibt es den Seitentitel, der Informationen über die Website bzw. die Inhalte dieser enthalten sollte sowie die sogenannte Metdescription – eine 156 Zeichen lange Kurzbeschreibung der Website. Diese Kurzbeschreibung kann der Websitebetreiber entweder selbst im HTML Code seiner Website angeben und dem Googlebot zur Verfügung stellen – oder, wenn der Bot entscheidet, dass die Beschreibung schlecht oder irrelevant ist, schreibt der Googlebot sich seine eigene Beschreibung, indem er Inhalte aus der Website direkt als Metadescription setzt.
Wie bewegt sich der Bot durch das Internet?
Wie entscheidet der Googlebot, auf welcher Seite er crawlt oder welche Seite er auslässt? Das Internet ist natürlich ein riesengroßer Irrgarten, mit vielen Kreuzungen und Abzweigungen. Wie entscheidet der Bot wo es lang geht? Hierfür nutzt im speziellen Google Links. Das bedeutet der Bot crawlt eine Seite und sieht natürlich auch die Links. Er benutzt sie, um sich so von Seite zu Seite zu hangeln. Deshalb werden auch Websites, die nicht oder nur sehr wenig im Internet verlinkt sind, kaum oder nur sehr langsam gecrawlt und zum Index hinzugefügt.
Diese Daten werden nun im Google Index gespeichert – oder allgemein im Suchmaschinen Index. Wenn dann eine Suchanfrage die Suchmaschine erreicht, wird der gesuchte Begriff (das Keyword) mit dem Index der Suchmaschine abgeglichen und die Relevanz der einzelnen Einträge werden nach einem bestimmten Algorithmus mit dem Keyword verglichen. Da es nun natürlich nicht nur einen Eintrag für das jeweilige Keyword gibt, werden die Ergebnisse in Listenform ausgegeben – dabei wird das nach dem Algorithmus relevanteste Ergebnis auf Platz eins dieser Ergebnisliste angezeigt.
Die Suchmaschinenanbieter aktualisieren den Algorithmus zur Ausgabe der relevanten Ergebnisse ständig und passen diesen an – deshalb kann es zur Verschiebung einer Website in den Suchergebnissen kommen. Das liegt außerhalb der Kontrolle des jeweiligen Websitebetreibers.