Suchmaschinen-Spamming

Unter Suchmaschinen-Spamming (Search Engine Spamming) oder Index-Spamming (Spamdexing) versteht man alle Handlungen, die dazu führen, dass eine Internet-Suchmaschine auf eine Suchworteingabe hin auf den vordersten Plätzen Webseiten ausgibt, die keine für den Nutzer relevanten oder dem Suchbegriff entsprechenden Informationen enthalten. Suchmaschinen-Spamming bei Google bezeichnet man auch als Google-Spamming. Der speziellere Begriff Googleating (sprich: „Google-ating“) wird dann verwendet, wenn Webseiten nur zu dem Zweck kreiert werden, die Linkstruktur maßgeblich zugunsten bestimmter Webpages zu beeinflussen, um dadurch einen hohen PageRank zu erzielen.

Definition

Zum Suchmaschinen-Spamming zählen:

  • alle Versuche, eine Webseite unter einem Stichwort zu listen, ohne dass die Seite sich mit dem betreffenden Thema beschäftigt (siehe auch Google-Bombe)
  • alle Versuche, unter einem Suchbegriff bewusst viele Mehrfachlistungen zu erzielen
  • irreführende Weiterleitungen zu einer Webseite, die keinerlei Informationen zu dem eingegebenen Suchbegriff enthält

Techniken

Spammer bauen ihre Optimierungsmethoden auf den Such- und Bewertungsstrategien der erfolgreichen Suchmaschinen auf, um die von ihnen erstellten oder betreuten Internetseiten in den Ergebnislisten der Suchmaschinen nach vorne zu bringen. Die meisten Spam-Seiten werden dabei gezielt für die weltweit am häufigsten genutzten Suchmaschinen Google, Yahoo und Live Search manipuliert. Zu den bekanntesten Manipulationstechniken gehören:

  • die unangemessene Wiederholung eines Begriffs im Titel der Seite oder in den Meta-Keywords im HTML-<head>
  • das Notieren vieler Keywords innerhalb von HTML-Kommentaren
  • das Unterbringen von vielen Keywords in den alt-Attributen (Alternativtexten) der Bilder
  • das Schreiben von Text in der Hintergrundfarbe („versteckter Text“, Hidden Text), so dass der Text nur für Suchmaschinen, nicht aber für den Internet-Surfer auf dem Bildschirm erkennbar ist
  • das Einfügen von versteckten Texten mit unzähligen Keywords auch außerhalb des sichtbaren Seitenbereiches, in durch Stylesheets unsichtbar gemachten Seitenbereichen oder in Bereichen unterhalb von Grafiken
  • das Anlegen versteckter Hyperlinks auf einer Internetseite, zum Beispiel mit Hilfe von winzigen, nicht sichtbaren Ein-Pixel-Grafiken oder im Frameset
  • das Gästebuch-, Foren-, Blog- und Wiki-Spamming durch Einfügen von (irrelevanten) Links
  • die Verwendung mehrerer Title-Tags, um Schlüsselbegriffe an prominenter Stelle unterzubringen
  • die Aufnahme von Begriffen, die nichts mit dem Thema der Internetseite zu tun haben, in die Meta-Tags
  • das Anlegen von Hunderten vorgelagerter Umleitungen, jeweils mit kurzen HTML-Phrasen, sog. Brückenseiten (Doorway Pages)
  • das Anlegen vieler gleicher Seiten unter mehreren URLs, z. B. bei Billig-Providern
  • das Betreiben von „Linkfarmen“
  • Cloaking: Die Ausgabe von Seiteninhalten an Suchmaschinen, die sich von jenen Seiteninhalten inhaltlich unterscheiden, die ein Surfer zu sehen bekommt
  • die Einrichtung von Open Directory Project- oder Wikipedia-Klonen
  • Referrer-Spamming: Massenhafter Aufruf von Webseiten, damit sie in den Referrer-Informationen der Statistiken der aufgerufenen Seiten auftauchen
  • Scraper Sites oder Made for AdSense Sites: Kopieren des Inhaltes von anderen, meist hoch gelisteten Seiten mit Hilfe von Artikel-Generatoren und Präsentation auf der eigenen, meist mit viel Werbung versehenen Webseite in der Hoffnung, das Ranking dieser Seite zu erhöhen
  • Sybil Attack: Erzeugung zahlreicher, sich seriös gebender Seiten (Diskussionsforen, Blogs, Beratungsseiten etc.) auf unterschiedlichen Domains und, nachdem diese Seiten ein gutes Ranking erhalten haben, Nutzung dieser unverdächtigen Seiten zur Förderung der eigentlichen, kommerziellen Website durch viele hinzugefügte Links oder Werbung
  • die Nutzung von Artikelverzeichnissen hauptsächlich zu dem Zweck, über Backlinks das Ranking der eigenen Seite zu verbessern
  • Negative Suchmaschinen-Optimierung oder Google Bowling: der Versuch, durch kurzfristige Erzeugung von Tausenden verdächtiger Links, die alle auf die gleichen Webseiten von Mitbewerbern verweisen, die Suchmaschinen zur Abwertung der betreffenden Seiten zu veranlassen, und so indirekt die eigene Seite aufzuwerten

Spam oder Optimierung?

Alle Manipulationen, die dazu dienen, nicht-relevante Ergebnisse in den Suchmaschinen zu erzwingen, sind Spam. So ist jeder, der Internetseiten mit der alleinigen Absicht untereinander verlinkt, die Position einer bestimmten Internetseite zu verbessern, die zum Suchbegriff nicht die relevantesten Informationen liefert, ein Spammer. Die Anpassung von Seiten an die Sortieralgorithmen von Suchmaschinen mit dem Ziel, die Position bei Suchbegriffen zu verbessern, bezeichnet man als Suchmaschinenoptimierung – dies beinhaltet die Optimierung für relevante Begriffe ebenso wie für irrelevante.

Die Übergänge von der relevanten Optimierung zum Suchmaschinen-Spamming sind aber oft fließend. Für Microsoft sind keine genauen Grenzziehungen zwischen Suchmaschinenoptimierungstechniken und Spammer-Aktivitäten möglich. Google fielen etliche SEO-Firmen auf, deren Praktiken inakzeptabel sind, und warnt deshalb zur Vorsicht.[3]

Von Seiten der professionellen Suchmaschinenoptimierer wird versucht, zwischen legalen (white hat) und illegalen (black hat) Optimierungstechniken, also Spamming, zu unterscheiden, um sich von den schwarzen Schafen der Branche abzugrenzen. Die Verwender illegaler Optimierungstechniken behaupten allerdings, dass es bei Suchmaschinenoptimierern kein ethisches Handeln gebe, denn jede ihrer Handlungen ziele bewusst darauf ab, die Ergebnisseiten der Suchmaschinen zu manipulieren. Für sie zähle nur der kommerzielle Erfolg und dieser drücke sich darin aus, ob eine Seite vor der ihrer Konkurrenten gelistet ist.

Im Kapitel über käufliches Spamdexing schreibt Wally Wang, dass solche „Berater“ ihre Arbeit Suchmaschinenoptimierung nennen, und eine schnelle Suche fördere unter dem Suchbegriff SEO Hunderte von Firmen zutage, die entgeltlich Hilfe bei der Verbesserung der Platzierung einer Kunden-Webseite in den Suchmaschinenergebnissen anbieten. Dabei gebe es einige, die legale Techniken einsetzen, aber auch andere, die grenzwertigere bzw. illegale Methoden verwenden.Und Daniel Koch schreibt: „Die meisten kommerziell erfolgreichen Webseiten verdanken ihren Erfolg ausschließlich einer guten Platzierung in den Suchmaschinen. Kein Wunder also, dass Webseitenbetreiber immer wieder durch zweifelhafte Methoden versuchen, ihr Ranking zu verbessern.“

In aktuellen Studien wird davon ausgegangen, dass jeder vierte Suchtreffer eine Spam-Seite ist. Erwin Lammenett bemerkt zur Branche: „In Ermangelung von hinreichend interessantem und aktuellem Content haben findige Suchmaschinen-Optimierer Methoden entwickelt, um Suchmaschinen das Vorhandensein von Content und dessen Verlinkung von anderen Seiten vorzugaukeln. Aus juristischer und moralischer Sicht sind diese Methoden heute kritisch zu sehen und dem Spamming zuzuordnen.“ Laut David George nehmen manche der „skrupellosen“ kommerziellen Optimierer durch ihre „aggressiven“ Strategien sogar in Kauf, dass Kundenseiten aus dem Index der Suchmaschinen gelöscht werden, und sie scheuen auch nicht davor zurück, die Seiten ihrer Kunden dazu zu missbrauchen, ihrer eigenen Seite oder den Seiten anderer Kunden über versteckte Links „Traffic“ zuzuleiten.

Informative Seiten mit gehaltvollem Inhalt haben Manipulationen der beschriebenen Art nicht nötig, da sie durch viele Hyperlinks von verschiedenen Internet-Usern gefördert werden. Gespammt wird meistens bei kommerziellen Seiten. So werden viele Seiten mit pornographischen Inhalten für die Suchmaschinen manipuliert, weil die Betreiber nur dann mit solchen Internetseiten, z. B. über integrierte Dialer, Geld verdienen können, wenn sie auf den vordersten Plätzen oft auch unter „harmlos“ klingenden Stichworten gelistet sind.

Gegenmaßnahmen

Captcha-Einsatz bei MediaWiki zur Behinderung von Spambots

Etliche dieser Manipulationstechniken werden bereits von den Suchmaschinen erkannt. Ist eine Internetseite, die auf die beschriebene Art und Weise massiv manipuliert wurde, von den Suchmaschinenbetreibern entdeckt worden, steht den Suchmaschinenbetreibern eine Reihe von Gegenmaßnahmen zur Verfügung:

  • Anpassung des Sortieralgorithmus
  • Verschiebung der Seiten in der Ergebnisliste nach hinten
  • Entfernung der Seiten aus dem Index
  • Ausschluss einzelner IP-Adressen, ganzer IP-Bereiche oder Domains aus dem Index

Außerdem wurde das Hyperlink-Attribut rel="nofollow" eingeführt, das Links für die Bewertung von Suchmaschinen entwertet. Damit soll das Spammen in Foren, Gästebüchern, Blogs und Wikis verringert werden.