Wie funktionieren Suchmaschinen?
Suchmaschinen sind in unserem Alltag unverzichtbar geworden. Kaum ein Internetnutzer verzichtet auf die Nutzung von Suchmaschinen. In Deutschland nutzen tatsächlich rund 91 Prozent aller Internetnutzer Suchmaschinen, lediglich 9 Prozent der Nutzer geben die Zieladresse direkt im Browser ein und nur etwa drei Prozent verzichten gänzlich auf Suchmaschinen. Der überwiegende Teil der Internetnutzer startet über die Eingabe eines Suchbegriffs in eine Suchmaschine und nicht über die direkte URL. So genießen beispielsweise nur Seiten wie Facebook, Zalando und Amazon eine so große Bekanntheit, dass sie hauptsächlich direkt über ihre Webadresse angesteuert werden.
Nun wurden einige Zahlen und Fakten genannt, doch wie funktioniert eine Suchmaschine überhaupt?
Die meisten Suchmaschinen sind indexbasiert und durchforsten mithilfe automatischer Programme, sogenannten Webcrawlern, Robots oder Spidern das Internet. So wird bei einer Anfrage/Suche nicht das gesamte Netz durchsucht, sondern lediglich der Index. Das Prinzip jeder Suchmaschine ist dabei sehr ähnlich. Suchmaschinen sind eigentlich nichts anderes als Software-Programme, die unentwegt das Internet nach qualitativen Inhalten, welche für den Nutzer geeignet sind, durchforsten. Manche Webseiten werden täglich oder gar stündlich nach neuem Inhalt durchsucht und sortiert, somit die Datenbanken der Suchmaschinen immer aktuell sind.
Was und wie suchen die Suchmaschinen?
Zunächst sichtet der Robot der Suchmaschine eine Webseite und folgt dabei Links (Bildern und Textlinks). Die Webseite wird Seite für Seite gescannt und eingelesen, die Texte und HTML Elemente werden in untereinander verbundenen Datenbanken gespeichert. Diese wiederum werden anschließend nach bestimmten Kriterien gewichtet und indexiert.
Was wird gescannt, welche Elemente sind wichtig und nach welchen Kriterien wird gewichtet?
Der Robot oder Spider sucht in erster Linie Content (zu deutsch: Text), die er in der Datenbank der Suchmaschine abspeichert. HTML Elemente werden zu 100 Prozent indexiert, Flash teilweise und Java Scripts und Java Applets dagegen kaum oder garnicht. Daher gilt: Suchmaschinen benötigen viel Text und gute Keywords.
Webseiten mit wenig Text, jedoch mit viel Grafiken werden von Suchmaschinen daher kaum beachtet. Für die Suchmaschinenoptimierung (SEO) sind Texte und aussagekräftige Keywords daher das A und O.
Webseiten mit einer hohen Anzahl von Likes, Shares und Tweets haben ebenfalls bessere Aussichten auf ein gutes Ranking und verdeutlichen, dass häufig geteilte Inhalte immer wichtiger werden.
Wie die verschiedenen Elemente im Detail von den Suchmaschinen gewichtet werden, legen die Suchmaschinenbetreiber fest. Google hat beispielsweise über 200 Kriterien zur Bewertung der Seiten, auf denen die Suchergebnisse angezeigt werden, auch Search Engine Result Pages (SERPs) genannt. Einige Ranking-Faktoren, die zur Bewertung von Webseiten und Erzeugung der Rangfolge eingesetzt werden, halten die Suchmaschinenbetreiber jedoch, nicht ohne Grund geheim, da nicht wenige unseriöse Unternehmen und Privatpersonen Suchergebnisse zu manipulieren versuchen.
Zum einen bedienen sie sich dabei dem Spamming, indem sie die Suchmaschinen mit sinnlosem Content regelrecht überschwemmen. Zum anderen versuchen sie es mit Cloaking. Hier sollen die Suchmaschinen mit speziell für sie erstellte Seiten getäuscht werden. Eine weitere unseriöse Praktik ist das Verwenden von Doorwaypages, wo tausende Seiten generiert werden, die sich gegenseitig verlinken. Den meisten Praktiken der Spammer sind die Suchmaschinen jedoch schon auf die Spur gekommen und haben Wege gefunden, dies zu unterbinden.
Wer versucht seine Webseite mit solchen Mitteln zu pushen, kann seine Position in den Suchergebnissen schnell wieder verlieren oder gar komplett aus dem Index der Suchmaschinen gelöscht werden. Hüten Sie sich daher vor diesen Praktiken und nehmen Sie Abstand zu Unternehmen, die Ihnen auf diese Weise eine Optimierung Ihrer Webseite anbieten.
Nun wurden einige Zahlen und Fakten genannt, doch wie funktioniert eine Suchmaschine überhaupt?
Die meisten Suchmaschinen sind indexbasiert und durchforsten mithilfe automatischer Programme, sogenannten Webcrawlern, Robots oder Spidern das Internet. So wird bei einer Anfrage/Suche nicht das gesamte Netz durchsucht, sondern lediglich der Index. Das Prinzip jeder Suchmaschine ist dabei sehr ähnlich. Suchmaschinen sind eigentlich nichts anderes als Software-Programme, die unentwegt das Internet nach qualitativen Inhalten, welche für den Nutzer geeignet sind, durchforsten. Manche Webseiten werden täglich oder gar stündlich nach neuem Inhalt durchsucht und sortiert, somit die Datenbanken der Suchmaschinen immer aktuell sind.
Was und wie suchen die Suchmaschinen?
Zunächst sichtet der Robot der Suchmaschine eine Webseite und folgt dabei Links (Bildern und Textlinks). Die Webseite wird Seite für Seite gescannt und eingelesen, die Texte und HTML Elemente werden in untereinander verbundenen Datenbanken gespeichert. Diese wiederum werden anschließend nach bestimmten Kriterien gewichtet und indexiert.
Was wird gescannt, welche Elemente sind wichtig und nach welchen Kriterien wird gewichtet?
Der Robot oder Spider sucht in erster Linie Content (zu deutsch: Text), die er in der Datenbank der Suchmaschine abspeichert. HTML Elemente werden zu 100 Prozent indexiert, Flash teilweise und Java Scripts und Java Applets dagegen kaum oder garnicht. Daher gilt: Suchmaschinen benötigen viel Text und gute Keywords.
Webseiten mit wenig Text, jedoch mit viel Grafiken werden von Suchmaschinen daher kaum beachtet. Für die Suchmaschinenoptimierung (SEO) sind Texte und aussagekräftige Keywords daher das A und O.
Webseiten mit einer hohen Anzahl von Likes, Shares und Tweets haben ebenfalls bessere Aussichten auf ein gutes Ranking und verdeutlichen, dass häufig geteilte Inhalte immer wichtiger werden.
Wie die verschiedenen Elemente im Detail von den Suchmaschinen gewichtet werden, legen die Suchmaschinenbetreiber fest. Google hat beispielsweise über 200 Kriterien zur Bewertung der Seiten, auf denen die Suchergebnisse angezeigt werden, auch Search Engine Result Pages (SERPs) genannt. Einige Ranking-Faktoren, die zur Bewertung von Webseiten und Erzeugung der Rangfolge eingesetzt werden, halten die Suchmaschinenbetreiber jedoch, nicht ohne Grund geheim, da nicht wenige unseriöse Unternehmen und Privatpersonen Suchergebnisse zu manipulieren versuchen.
Zum einen bedienen sie sich dabei dem Spamming, indem sie die Suchmaschinen mit sinnlosem Content regelrecht überschwemmen. Zum anderen versuchen sie es mit Cloaking. Hier sollen die Suchmaschinen mit speziell für sie erstellte Seiten getäuscht werden. Eine weitere unseriöse Praktik ist das Verwenden von Doorwaypages, wo tausende Seiten generiert werden, die sich gegenseitig verlinken. Den meisten Praktiken der Spammer sind die Suchmaschinen jedoch schon auf die Spur gekommen und haben Wege gefunden, dies zu unterbinden.
Wer versucht seine Webseite mit solchen Mitteln zu pushen, kann seine Position in den Suchergebnissen schnell wieder verlieren oder gar komplett aus dem Index der Suchmaschinen gelöscht werden. Hüten Sie sich daher vor diesen Praktiken und nehmen Sie Abstand zu Unternehmen, die Ihnen auf diese Weise eine Optimierung Ihrer Webseite anbieten.