produktivzone
23 Normseiten, geschätzte Lesezeit 23 Min.

Suchmaschinenoptimierung

Das Internet, das größte Computernetzwerk der Welt

Über Suchmaschinen wird viel geschrieben. Das hinterlässt oft den Eindruck, dass sie enorm kompliziert sein müssen. Aber das sind sie ganz und gar nicht. Das wird spätestens dann klar, wenn wir uns kurz veranschaulichen, wie das Internet überhaupt funktioniert.

Das Internet ist ein riesiges Computer-Netzwerk, an dem weltweit unzählige Computer angeschlossen sind. Damit diese untereinander kommunizieren können, müssen ein paar Bedingungen erfüllt sein. Es handelt sich dabei um dieselben Bedingungen, die erfüllt sein müssen, wenn Menschen miteinander kommunizieren wollen:

Jeder Mensch hat einen Namen

Damit eine Nachricht auch beim Ziel ankommt, braucht ein Mensch einen Namen. Denn wenn dieser fehlt, kann ein Mensch nicht wissen, ob er gemeint ist, oder nicht, wenn er angesprochen wird. Und das erschwert die Verständigung.

Wenn Computer miteinander kommunizieren wollen, brauchen sie ebenfalls eine eindeutige Kennung. Dazu wird eine Art Telefon-Nummer verwendet. Fehlt diese, wissen die Computer nicht, an wen eine bestimmte Nachricht gerichtet ist.

Solch eine Computer-Telefon-Nummer besteht aus einer weltweit eindeutigen Zahlenfolge, die vier Zahlen zwischen 0 und 255 beinhaltet. Diese Zahlenfolge wird TCP/IP-Adresse genannt (ausgesprochen Tisipi-Aipi). Davon haben Sie bestimmt schon mal gehört.

Dazu ist zu sagen, dass die Anzahl der TCP/IP-Adressen begrenzt ist, nämlich auf 4'294'967'296. Das hört sich viel an, ist aber zu wenig für all die Geräte, die am Internet angeschlossen sind. Deshalb sind die Provider dazu übergegangen, die Adressen nur vorrübergehend zu verleihen. Hierzu wird ein Protokoll eingesetzt, das DHCP genannt wird. Das bedeutet für Sie, dass Sie im Internet nicht immer über dieselbe TCP/IP-Adresse erreichbar sind.

Um das Problem langfristig zu lösen, hat die Internet Engineering Task Force (IETF) im Jahr 1998 vorgeschlagen, die Nummer zu erweitern. Dazu hat man einen neuen Standart definiert, der eines Tages die TCP/IP-Adressen ersetzen soll, nämlich IPv6. Die Regelung sieht vor, dass jeder Internetnutzer mit einer Zeichenfolge identifiziert werden kann, die aus 8 hexadezimalen Zeichenfolgen besteht, die mit einem Doppelpunkt voneinander getrennt sind. So kann die Anzahl der verfügbaren Nummern auf ca. 600 Billiarden pro Quadrat-Milimeter auf dem Planeten Erde erhöht werden.

Aber das nur nebenbei. Wichtig ist für Sie nur, dass Sie weltweit über eine eindeutige Adresse erreichbar sind, wenn Sie online gehen. Denn sonst kann Ihr Computer keine Verbindung mit anderen Computern aufnehmen. Dies sicherzustellen, ist Aufgabe Ihres Providers.

Für die Kommunikation braucht es ein Protokoll

Wenn Menschen miteinander kommunizieren, müssen sie sich zunächst darauf einigen, wer spricht und wer zuhört. Denn wenn alle durcheinander sprechen, versteht man nichts. Wenn dagegen alle zuhören und keiner spricht, funkioniert das auch nicht. Es ist deshalb eine Absprache notwendig. Die erfolgt bei der menschlichen Kommunikation unbewusst. Computer dagegen sind nicht so schlau, bei ihnen muss die Sprech­reihenfolge über ein Netzwerk-Protokoll geregelt werden.

Für das Internet wird ein Netzwerk-Protokoll eingesetzt, das früher einmal für das amerikanische Militär entwickelt wurde (das Arpanet). Das besondere an diesem Protokoll ist, dass es keine zentrale Steuerung benötigt. Es funktioniert daher auch dann, wenn Teile des Systems gar nicht an das Netzwerk angeschlossen sind. Das ist übrigens auch der Grund, weshalb das Internet niemals ausgeschaltet werden kann.

Ein weiterer Vorteil ist, dass es die Leitung nach erfolgter Kommunikation sofort wieder freigibt, so dass die Leitung nicht besetzt bleibt. Das hat natürlich den Nachteil, dass man bei jedem Anruf jedesmal nachfragen muss, wer in der Leitung ist. Zu diesem Zweck hat die Firma Netscape einst das Cookie erfunden. Doch das ist ein Thema, das bei den Suchmaschinen eine untergeordnete Rolle spielt. Deshalb werde ich an dieser Stelle nicht weiter darauf eingehen.

Für eine sinnvolle Verständigung braucht es eine Sprache

Wenn Menschen miteinander kommunizieren, müssen sie sich auf eine Sprache einigen. Denn sonst verstehe ich nicht, was mir jemand sagen will und es kann keine Kommunikation statt finden. Das ist bei Computer nicht viel anders.

Wenn sich zwei Computer über das TCP/IP-Protokoll gefunden haben, müssen sie sich als nächstes auf die Sprache einigen, in der sie miteinander kommunizieren wollen. Wenn alles gut klappt, einigen sie sich auf eine Sprache die am besten zum Inhalt passt. Wenn beispielsweise Inhalte von Internetseiten ausgetauscht werden sollen, dann heißt die Sprache HTTP. Damit kann man beispielsweise HTML-Inhalte, Bilder und Videos übertragen. Für eingehende Emails lautet die Sprache POP3 oder IMAP, für ausgehende SMTP, für Datenübertragung heißt sie FTP usw.

Namen statt Zahlen, warum es Nameserver gibt

Nun ist es für einen Sufer ziemlich unpraktisch in den Browser jedesmal eine lange Nummer einzugeben, denn die kann man sich so schlecht merken. Deshalb hat man eine Art Telefon-Buch eingeführt, wo jeder Nummer ein Name zugewordnet ist. Denn ein Name kann man einfacher behalten, als eine Zahl. Diese Namen nennt man auch Domains.

Soch ein Domain-Name ist meist in drei Bereiche aufgeteilt: als Third-Level-Domain wird in der Regel das www verwendet (Abkürzung für World Wide Web), aber man kann auch eine andere Bezeichnung verwenden. Die Second-Level-Domain beinhaltet den eigentlichen Namen (z.B. produktivzone), und die First-Level-Domain meistens das Land (z.B. de für Deutschland) oder eine grobe Kategorisierung wie .com (für commercial), .edu (für education), .net (für network), .org (für organization), .eu (für europe) und viele mehr.

Weil TCP/IP-Adressen weltweit einmalig sein müssen, braucht es eine zentrale Verwaltung, denn sonst könnte es passieren, dass Nummern doppelt vergeben werden und das darf nicht passieren, weil sonst Nachrichten an den falschen Computer geschickt werden. Sowas nennen Hacker IP-Spoofing.

Für die TCP/IP-Adressen ist in jedem Land eine eigene Organisation zuständig, das sind die sogenannten NIC's (Network Information Center). In Deutschland ist das die Firma DENIC eG.

Als das Internet noch jung war, stellte jedes NIC eine Art Telefonbuch in Form einer großen Text-Datei zur Verfügung. Wenn man wissen wollte, was es für Domänen in einem Land gibt, musste man das NIC besuchen, der für die jeweilige First-Level-Domain zuständig ist. Dort konnte man sich eine Datei herunterladen, in dem das Telefonbuch enthalten war. Diese konnte man im Anschluss mit einem normalen Text-Programm anschauen.

Mit der Zeit kamen immer mehr Domänen dazu, so dass die Dateien mit den ganzen Internet-Adressen immer größer und damit auch immer unübersichtlicher wurden. Und so fing man an, die Adressen und Namen nicht mehr in einer Datei zu sammeln, sondern in einer Datenbank.

Weil Datenbanken so praktisch sind, stellte man dazu auch gleich ein automatisiertes System zur Verfügung, wo man einfach die gewünschte Domain-Namen an die Datenbank schicken konnte, die dann mit der dazu gehörenden TCP/IP-Adresse antwortetet. Diesen Dienst nannte man Domain Name Service (DNS).

Wenn wir heute im Browser eine Domäne angeben, dann ermittelt der Browser die dazu gehörende TCP/IP-Adresse über diesen Dienst. Das alles geschieht blitzschnell für uns unsichtbar im Hintergrund, so dass wir das gar nicht mitkriegen.

Als man den DNS-Dienst einführte, war bald klar, dass eine Datenbank allein nicht mehr genügte. Und so kopierte man die Datenbank auf viele Computer. Weil sich das Internet ständig verändert, musste neu dafür gesorgt werden, dass sich diese Datenbanken gegenseitig aktuallisierten.

Um das Netzwerk nicht all zu sehr zu belasten, erfolgte der Abgleich nicht in Echtzeit, sondern in festgelegten Intervallen. Deshalb konnte es manchmal passieren, dass Anfragen gar nicht oder verkehrt beantwortet wurden. Dieses Problem löste man, indem Datenbanken die Anfrage, die nicht beantwortet werden konnten, einfach an die nächstgelegene Nachbar-Datenbank weiterleitete.

Aus diesem Grund erhält ein Computer, der sich bei seinem Internet Provider anmeldet nicht nur eine TCP/IP-Adresse, sondern noch zwei weitere TCP/IP-Adressen für die nächstgelegenen DNS-Server.

Von der Mailbox zur Suchmaschine

Wenn man früher ins Internet ging, dann musste man sich zunächst einmal mit dem Telefon und einem analogen Modem (oder Akkustikkoppler) bei seinem Internet-Provider einwählen. Dort fand man eine Mailbox vor. Das war eine Internetseite, auf der jede Menge Links zu anderen Seiten aufgelistet waren. Wenn man Glück hatte, waren die Links in Gruppen kategorisiert. Man surfte durch das Internet, indem man diesen Links folgte. Das war quasi der Vorläufer der Suchmaschine.

Wenn man eine interessante Internetseite gefunden hatte, merkte man sich die Adresse. Diese konnte später direkt in die Adresszeile des Browsers eingeben werden, so dass man sich den Umweg über die Mailbox sparen konnte. Um das weiter zu vereinfachen, konnte die Adresse im Browser als Lesezeichen gespeichert werden. Aber auch das wurde mit der Zeit sehr unpraktisch. Denn wenn man etwas ganz bestimmtes wissen wollte, musste man die gespeicherten Adressen von Hand durchforsten und das war ziemlich mühsam.

Um die Suche zu vereinfachen, begannen findige Köpfe die Domänen-Namen zusammen mit den dazu passenden Suchbegriffen zu speichern. Das Problem war nur, dass die Datenbanken nicht wussten, welche Suchbegriffe zu den Domänen passen. Also überließ man die Zuweisung der Suchbegriffe den Betreibern der Internet-Auftritt. Die hatten die Möglichkeit die Internetseiten mit unsichtbaren Meta-Inforationen zu versehen. Und diese wurden dann von kleinen roboterartigen Programmen ausgelesen, die von den Betreibern der Suchdatenbanken betrieben wurden (Suchmaschinen-Bots). Das war dann auch gleichzeitig die Geburt der Suchmaschine.

Die Evolution der Suchmaschinen-Roboter

Eine Eigenheit des Internets ist, dass sich die Inhalte von Internetseiten ständig ändern. Deshalb müssen Suchmaschinen ständig darum bemüht sein, ihre Datenbank zu aktuallisieren. Das tun sie mit Hilfe von Programmen, die kurz Bots, Spiders oder Crawler genannt werden. Diese fleißigen Programme durchsuchen unermüdlich das gesamte Internet. Dabei gilt ganz allgemein, je häufiger der Inhalt einer Seite ändert, desto häufiger schauen sie vorbei. Manchmal ist das einmal im Momat, manchmal mehrmals am Tag, das ist ganz unterschiedlich.

Zu Beginn waren die Bots nicht besonders schlau. Deshalb haben sie einfach alles ganz plump eingelesen, was sie auf einem Internet-Auftritt vorfanden. Darunter waren auch Dinge, die für menschliche Surfer eher uninteressant waren, wie z.B. der Inhalt von irgendwelchen nichtssagende Statistiken oder Formulare für den Zugang zu irgendwelchen Backends, die nur für den internen Gebrauch bestimmt waren.

Um den Bots mitzuteilen, was wichtig ist und was nicht, führte man die robots.txt ein. Dabei handelt es sich um eine kleine Text-Datei, die auf den Webspace des Internetsauftritts mitgespeichert wird, so dass die Bots darauf zugreifen können. In dieser Datei ist beschrieben, wo die Bots die interessanten Inhalte finden und wo eher nicht. Dazu muss man allerdings wissen, dass die Suchmaschinen von Natur aus sehr neugierig sind. So habe ich schon erlebt, dass sich die Bots nicht an die Anweisungen halten, die in der robots.txt drin steht. Im großen Ganzen halten sie sich aber daran.

Heute verfügen die Bots über eine vergleichsweise hohe Intelligenz, die sie dazu befähigt, die Inhalte der Seite einzulesen und die darin enthaltenen Suchbegriffe selbstständig zu ermitteln. Dabei werden die einzelnen Seiten in einen Kontext zu den darin enthaltenen Links gestellt. So kann die Suchmaschine beispielweise den Bekanntheitsgrad eine Internetseite messen und damit die Qualität der Seite bewerten. Dieses Verfahren nennt man Pageranking. Mehr dazu später.

Das große Erwachen, das Google reich machte

1987 gab es in Deutschland knapp 100'000 Internet-Domänen. Heute sind es knapp 16 Millionen und ein Ende ist nicht in Sicht. In den 90er Jahren begannen die Firmen, ihre Produkte im Internet feil zu bieten. Dabei stellte man fest, dass derjenige klar im Vorteil war, der in den Suchergebnissen zuerst aufgelistet wurde. Denn seine Produkte wurden zuerst gefunden, wurden also auch zuerst gekauft.

Um die Position der eigenen Seite zu verbessern, versuchten immer mehr Webmaster, die Suchmaschinen auszutricksen. Wegen dem kommerziellen Druck wurden schamlos alle verfügbaren Mittel genutzt. Dadurch wurde die Qualität der Suchergebnisse immer mehr verfälscht. Und das merkten natürlich auch die Benutzer, so dass einige Suchmaschinen kaum noch besucht wurden. Um das zu verhindern, reagierten die Suchmaschinen mit entsprechenden Gegenmaßnahmen.

Wenn die Suchmaschine Manipulationsversuche entdeckte, wurde die Seite einfach zurückgestuft. Wenn das wiederholt vorkam, wurde eine Domäne aus dem Index gelöscht. Diese Maßnahmen führten dazu dass die Webseitenbetreiber vorsichtiger wurde. Und so ging das immer hin und her. Jedesmal, wenn sich die Webseitenbetreiber was einfallen ließen, reagiert die Suchmaschinen mit irgendeiner Gegenmaßnahme und umgekehrt.

Dieses Katz und Maus Spiel wurde immer komplizierter. Über die Jahre verloren die Betreiber der Internetseiten den Überblick. So entstand ein vollkommen neuer Berufszweig, der sich um nichts anderes kümmerte, als um die Optimierung von Suchmaschinen-Ergebnissen. Jede Internetagentur, die etwas auf sich hielt, bot die Dienstleistung SEO an (Search Engine Optimization). Viele Firmen waren bereit, horrende Preise zu bezahlen. Es herrschte unter den SEO's eine Groldgräberstimmung.

Die Suchmaschine Google nutzte die Gelegenheit und fing an, Suchbegriffe zu verkaufen. Es entstand das Adword-Konzept. Um möglichst viel Profit herauszuschlagen, begann Google den Preis der Suchbegriffe von der Nachfrage abhängig zu machen. Die Firmen überboten sich gegenseitig, was dazu führte, dass ein einziger Klick auf einen Link über 50 Dollar kosten konnte. Währenddessen wurde Google unermesslich reich.

Inzwischen gibt es nur noch eine einzige große Suchmaschine, nämlich Google (in Deutschland Martkanteile von über 80%). Um die Qualität der Suchergebnisse zu verbessern, hat Google das Pageranking-Verfahren eingeführt. Dieses System kann kaum noch ausgetrickst werden. Umgekehrt ist es sehr empfänglich für authentischen Content, also Inhalte, die nachweislich von echten Menschen für echte Menschen erfasst wurden.

Um zu verstehen, was mit authentischem Content genau gemeint ist und wie das funktioniert, ist es hilfreich, wenn wir kurz einen Blick in die Vergangenheit werfen und uns das Wechselspiel zwischen den Suchmaschinen-Betreibern und den Webseiten-Optimierern etwas genauer anschauen.

Die Geschichte der Suchmaschinen-Optimierung

Keywords

Früher war die Rechenleistung von Computern noch nicht so groß, wie heute. Es gab noch keine künstliche Intelligenzen, welche in kurzer Zeit Suchbegriffe aus einem beliebigen Text herausfiltern konnten. Und so erfolgte die Zuweisung von Suchbegriffen ausschließlich über den Weg von Meta-Informationen. Diese wurden für den Surfer unsichtbar vom Webseitenbetreiber auf der Internetseite hinterlegt. Es gab zwei Arten von Metainformationen: Keywords (für die Suchbegriffe) und Description (für die Beschreibung, die bei erfolgreicher Suche in der Suchmaschine angezeigt werden soll). Das Konzept war einfach.

Um die Position der eigenen Seite zu verbessern, begann man, die Metainformationen zu manipulieren. Dazu verwendete man beispielsweise möglichst viele Suchbegriffe, oder solche, die eigentlich gar nicht zu dem Inhalt der Internetseite passten. Doch die Suchmaschinen entwarfen komplizierte Algorithmen, welche die Manipulation erkennen konnten. Wenn solch eine Manipulation öfters vorkam, konnte das unter Umständen sogar zu einer Löschung der Domäne aus dem Index bedeuten. Das kam öfters vor und hatte für manche Firmen katastrophale Folgen.

Dann begannen die Suchmaschinen-Optimierer die Suchbegriffe so geschickt zu wählten, dass die Manipulation nicht sofort ersichtlich ist. Die Suchmaschinen reagierten darauf, indem sie die Intelligenz ihrer Bots erhöhten. In Folge dessen begannen die SEO's das Verhalten der Bots intensiv zu untersuchen. Und so kam es, dass am Ende verschiedene Bots mit unterschiedlichen Fähigkeiten in das Netz geschickt wurden. Diese lasen nicht nur die Suchbegriffe ein, sondern auch die Seiteninhalte und verglichen sie mit den angegebenen Meta-Informationen.

Heute ist die Intelligenz der Bots so hoch, dass sie zuverlässigere Suchbegriffe generieren, als es der Webseitenbetreiber selbst tun könnte. Um das Ergebnis nicht negativ zu beeinflussen, sind daher viele Webmaster dazu übergegangen, in den Meta-Informationen gar keine Suchbegriffe mehr anzugeben, obwohl Google die Erfassung von Meta-Informationen nach wie vor empfiehlt. Über den genauen Nutzen kann man allerdings spekullieren.

Duplicate Content

Als die Suchmaschinen-Optimierer erkannten, dass sie die Position der Domänen nicht mehr über Keywords manipulieren können, versuchten Sie die Inhalte zu manipulieren. Um bestimmte Begrifflichkeiten zu fördern, wurden die Texte auf dem gesamten Internet-Auftritt bewusst immer wieder wiederholt. Das erfolgte im Rahmen von Content Management Systemen nicht selten vollautomatisch.

Um die Besucher nicht allzusehr zu nerven, wandte man auch optische Tricks an, wie z.B. die Schrift in derselben Farbe einzufärben, wie der Hintergrund, so dass der Text für den menschlichen Surfer unsichtbar ist, nicht aber für den Suchmaschinen-Bot. Oder man legte einfach ein Bild über den Text. Die Suchmaschinen reagierten darauf, indem sie nicht nur die Inhalte analysierten, sondern auch die dazu gehörenden Stylesheets.

In der digitalen Welt können Inhalte ganz leicht via Copy Paste dupliziert werden. Deshalb stellen doppelte Inhalte heute immer noch ein ein großes Problem dar. Denn die Suchmaschinen können ja nicht wissen, welcher Inhalt das Original ist und welcher eine Kopie. Wenn also Duplicate Content gefunden wird, müssen alle beteiligten Seiten herunter gestuft werden, und das ist schlecht.

Damit die Texte nicht als Kopie entlarvt werden, reagierten manche SEO's wiederum mit Programmen, welche die Texte nach dem Zufallsprinzip manipulierten. Man verwandte Synonyme, fügte Rechtschreibfehler hinzu, änderte die Wortwahl oder passte die Syntax an. Die Suchmaschinen reagierten darauf mit noch ausgefeilteren Algorithmen.

Automatisierte Suchanfragen

Um den Nutzern der Suchmaschine die Suche noch mehr zu erleichtern, führen die Suchmaschinen von Zeit zu Zeit neue Funktionen ein. Eine davon war die Autocomplete-Funktion. Dabei wird passend zur Eingabe eine Auflistung von inhaltlich verwandten Suchbegriffen eingeblendet. Wenn der Benutzer den Vorschlägen folgt, kann er auf diese Weise die Qualität seiner Suche verfeinern.

Um die Benutzer nicht zu verwirren, werden nicht alle zur Eingabe passenden Suchbegriffe eingeblendet, sondern nur die zehn beliebtesten. Die Frage ist also, woher die Suchmaschine weiß, welche Suchbegriffe beliebt sind und welche nicht. Um das herauszufinden, greift Google auf aktuelle Statistiken zurück, auf denen die am häufigsten verwendete Suchbegriffe aufgeführt sind.

Auf diesen Statistiken werden allerdings nicht die Suchbegriffe aufgeführt, die von den Betreibern der Webseiten verwendet werden, sondern die Suchbegriffe, die von den Nutzern der Suchmaschine eingegeben werden. Und das bedeutet, dass die Suchmaschinen Optimierer keine Möglichkeit hatten, die Vorschläge der Autocomplete Funktion zu beeinflussen.

Es gab also nur einen Weg, wie man die Vorschläge manipulieren konnte, man musste einfach die Statistik beeinflussen. Und das erfolgte durch Computer, die automatisierte Suchanfragen durchführen konnten. Aber auch das wurde sehr schnell entdeckt und mit entsprechenden Maßnahmen bestraft.

Backlinks/Serverfarmen

Die Datenbanken der Suchmaschinen wurden über die Jahre immer größer, so dass es immer schwieriger wurde, diese gewaltigen Datenmengen sinnvoll zu verwalten. Und das führte dazu, dass die Qualität der Suchbegriffe deutlich nachließ. Deshalb suchten die Suchmaschinen nach neuen Lösungen und fanden sie auch.

Man fing an, die Backlinks zu zählen, das sind Links, die sich auf fremde Internetseiten befinden, aber auf die eigene Seite verweisen. Der Gedanke dahinter ist, dass eine Internetseite besonders interessant sein muss, wenn sich viele fremde Personen die Mühe machen, auf diese Seite zu verlinken. Und das ist von der Grundidee her auch richtig.

Als die Suchmaschinen-Optimierer das Prinzip erkannten, verteilten sie überall Links, wo sie nur konnten. Die Suchmaschinen reagierten darauf, indem sie prüften, ob ein Link denn überhaupt zu dem Inhalt einer Internetseite passte. Dazu wurden die Suchbegriffe der verlinkenden Seite mit den Suchbegriffen der verlinkten Seite verglichen. Je größer die Übereinstimmung war, desto besser wurde das Ergebnis bewertet.

Weil es nicht leicht ist, Internetauftritte zu finden, die inhaltlich verwandt sind und die auch noch bereit sind, auf ihre Konkurrenz zu verlinkten, griffen manche SEO's auf ein besonders drastisches Mittel zurück. Sie legten sogenannte Serverfarmen an, auf denen sie unzählige Domänen laufen ließen. Der einzige Zweck dieser Domänen war es, auf bestimmte Domänen zu verlinken, damit diese von den Suchmaschinen besser bewertet werden. Dazu wurden die Link einfach mit Inhalten ausgestattet, die inhaltlich mit der beworbenen Domäne verwandt waren.

Die Gegenmaßnahme der Suchmaschinen bestand darin, die Intelligenz ihrer Bots noch einmal zu erhöhen. Dabei ging man davon aus, dass sich der Inhalt von einer gefälschten Domäne zu einer echten darin besteht, dass die Qualität und Dichte der Information eine andere ist. Denn kein Mensch kann mehrere Auftritte authentisch wirken lassen. Irgendwann wiederholen sich bestimmte Ausdrucksweisen.

Pageranking

Die wichtigste Erungenschaft der Suchmaschinen ist zweifellos das Pageranking, das von Google eingeführt wurde. Hierbei handelt es sich um einen patentieren Algorithmus, der es der Suchmaschine möglich macht, die Wichtigkeit einer Internetseite verbindlich zu bewerten.

Backlinks spielen bei diesem Algorythmus eine entscheidende Rolle, allerdings auch andere Parameter, die nicht genau bekannt sind. Die Formel wird ständig erweitert. Damit sie nicht von den Webseiten-Betreibern missbraucht werden kann, wird die genaue Funktionsweise unter Verschluss gehalten.

Tracking

Seit einigen Jahren kommt zu dem Pageranking noch das Tracking. Dabei wird der Umstand genutzt, dass ein Großteil der Internetseiten, in irgendeiner Form Google Services eingebunden hat. Das kann die Einbindung von Google Analytics, Google Adwords, Google Webfonts oder Google Scripts sein. Google gehören soviele Trackingdienste, dass die Überwachung flächendeckend ist.

So kann der Besucher einer Seite in den direkten Kontext von anderen Seiten gestellt werden, was unter Anderem auch Auskunft über die Qualität des Besuchers und damit auch über die Qualität der Internetseite Auskunft gibt. Aus diesem Verhalten wird ein sogenannter rationeller Surver abgeleitet, was wiederum Rückschlüsse auf die Wichtigkeit von Seiten erlaubt, die nicht getrackt werden.

Dieses Konzept ist unter dem Namen "Rational Surfer Modell" patentiert. Leider sind darüber nicht viele Informationen verfügbar, was auch sehr verständlich ist, weil hier die personalisierten Daten der Suchmaschinen Nutzer eine zentrale Rolle spielen.

Google Webmaster Guidelines

Die derzeit wichtigste Suchmaschine Google gibt für den korrekten Umgang mit Internet-Inhalten eine Empfehlung heraus, die inhaltlich auch für alle anderen Suchmaschinen verwendet werden werden kann. Wer sich daran hält, muss keine Sanktionen befürchten. Es handelt sich um die Webmaster Guidelines. Darin sind sämtliche Maßnahmen beschrieben, die den Suchmaschinen helfen, Internetseiten optimal zu indexieren.

Was diese Anleitung allerdings nicht enthält, ist eine Anweisung, wie man die Position der eigenen Internetseite auf Kosten konkurrierender Auftritte aktiv verbessern kann. Aber sie enthält Hinweise darauf, was man tun kann, um die Qualität eines Auftrittes zu erhöhen, so dass sie sich von konkurrierende Auftritte deutlich abhebt. Und das ist die beste Suchmaschinenoptimierung, die machen kann. Nachfolgend habe ich die wichtigsten Maßnahmen aufgelistet:

Neue Domänen

Neue Domänen, die im Internet noch gar nicht bekannt sind, können Google über eine eigenes Formular mitgeteilt werden. Google schickt der Seite dann ein paar Bots vorbei, welche die Inhalte einlesen und indexieren.

Sitemap

Google mag es, wenn man die Navigationsstruktur eines Internet-Auftritts in Form einer gesonderten XML-Datei zur Verfügung stellt. In vielen CMS-Systemen stehen hierzu eigene Module zur Verfügung, welche diese Datei vollautomatisch erstellen.

Für Navigation Text-Links verwenden

Suchmaschinen bevorzugen Texte, denn danach suchen ja auch die Nutzer. Deshalb spielen Bilder bei Suchmaschinen eine eher untergeordnete Bedeutung, auch wenn auf ihnen möglicherweise Texte abgebildet sind. Aus diesem Grund sollten alle Links auf einem Internet-Auftritt grundsätzlich mit Texten benannt sein. Das gilt ganz besonders für die Navigation. Denn wenn ein Bot eine Seite besucht, dann folgt er als erstes der Navigation. Dabei gilt, wenn sich die einzelnen Navigationspunkte inhaltlich nicht zuordnen lassen, wirkt sich das negativ auf die Such-Ergebnisse aus.

Inhalte nicht über Javascript zugänglich machen

Ebenso problematisch ist es, wenn die Navigation im HTML-Quelltext nicht in statischer Form enthalten ist, sondern über Javascript-Funktionen generiert und eingeblendet wird. Denn ein Script kann alle möglichen Aufgaben erfüllen. Und ein Bot kann nicht unterscheiden, ob die Funktionen Auswirkungen auf den Inhalt haben, oder nicht. Die Bots können diesen Links also nicht folgen, was dazu führen kann, dass manche Seiten gar nicht erst indexiert werden.

klare Strukturen

Google wertet die Inhalte aus und stellt sie in den Kontext der Links. Deshalb ist es sinnvoll die Anzahl der Links zu reduzieren. Die Inhalte sollten möglichst eindeutig und klar formuliert sein. Mit endlos verschachtelten Sätzen und komplizierten Umschreibungen können die Bots nicht viel anfangen.

Suchbegriffe im Text

Der Betreiber der Seite sollte sich überlegen, welche Suchbegriffe ein Besucher eingeben könnte, um diese Seite zu finden. Diese Suchbegriffe sollten im Inhalt der Seite vorkommen.

Wichtige Inhalte in Textform

Wichtige Inhalte, wie Namen oder Links sollten in Textform erfasst werden, nicht in Bildform. In Bilder enthaltene Texte können von den Bots nicht erkannt werden.

Bilder mit Text versehen

Bilder werden im Internet mit Hilfe eines HTML-Befehls angezeigt. Dieses kann optional mit dem Attribut "alt" ergänzt werden. Dieser Tag ist dazu vorgesehen, den Inhalt des Bildes in Textform zu beschreiben, falls ein Browser aus irgendwelchen Gründen keine Bilder darstellen darf (z.B. textbasierter Browser Lynx). Man kann hier aber auch Texte eingeben, die sich günstig auf die Indexierung auswirken.

Anweisungen an Bots

Den Bots über die robots.txt-Datei mitteilen, welche Seite ausdrücklich gescannt werden sollen und welche Bereiche ignoriert werden soll. Ausserdem kann mit dem Metatag If-Modified-Since ein Bot gebeten werden, den Auftritt nach einer bestimmten Zeit erneut zu besuchen.

Inhalte möglichst ohne Get-Parameter zugänglich machen

Manchmal sind Inhalte nur zugänglich, wenn in der URL Get-Variabeln mitgegeben werden. Das ist manchmal der Fall, wenn die Inhalte dynamisch generiert werden, wie z.B. bei einem Content Management System. Wenn das allerdings vermieden werden kann, sollte man mögichst darauf verzichten . Das gilt auch für Session-Variabeln.

Inhalt von Anzeigen für Bots sperren

Anzeigen beinhalten meistens Duplicate Content und haben inhaltlich oft nicht viel mit dem Internetauftritt zu tun. Wenn man es vermeiden kann, sollte man diese Inhalte über die robots.txt für die Google Bots sperren. Das gilt auch für AdSense Anzeigen oder DoubleClick-Links.

Browserkompatibilität gewährleisten

Besucher, die mit einem Browser unterwegs sind, auf dem der Internetauftritt nicht korrekt dargestellt wird, verfälschen die Qualität des Auftritts. Deshalb sollte die Crossbrowser-Kompatibilität gewährleistet werden.

Gute Ladezeiten gewährlesten

Dasselbe gilt für Auftritte, die lange Ladezeiten haben. Diese werden von Google ebenfalls bewertet. Hier hilft ein qualitativ hochwertiger Webserver mit einer guten Anbindung.

Spamseiten melden

Google ruft dazu auf, Spam-Seiten zu melden. Dazu gehören beispielsweise auch die Inhalte von Serverfarmen.

Tricks vermeiden

Google ruft dazu auf, alle Tricks zu vermeiden, die das Suchmaschinen-Ranking verbessern sollen.

Automatisch generierte Inhalte vermeiden, wenn möglich

Manuell erzeugte Inhalte werden als wichtiger eingestuft, als maschinell erzeugte.

Linktauschprogramme vermeiden

Die Manipulation von Backlinks wird ebenfalls geahndet.

Seiten mit wenig Inhalt vermeiden

Seiten die nur wenig oder gar keine Inhalte besitzen, können aufgrund ihrer geringer Informationsdichte als Manipulationsversuch gewertet werden..

Cloaking vermeiden

Cloaking ist eine Technik, wo man versucht einen Suchmaschinen-Bot von einem regulären Besucher zu unterscheiden und diese mit unterschiedlichen Informationen zu versorgen. Auf solche Versuche reagieren die Suchmaschinen besonders allergisch.

Irreführende Weiterleitungen meiden

Bots folgen den Links, wenn diese in die Irre führen, dann verlieren sich auch die Bots mit dem Ergebnis, dass die Seite nur unvollständig gescannt wird.

Verborgene Texte und Links meiden

Damit gemeint sind Texte, welche sich farblich nicht vom Hintergrund abheben oder von Bildern überdeckt werden, um die Suchergebnisse zu optimieren.

Brückenseiten meiden

Brückenseiten sind sogenannte Landingpages für Werbemaßnahmen, die nicht über die Navigation erreichbar sind, aber auf sie verweisen. Solche Seiten sind für den normalen Surfer nicht direkt erreichbar und werden deshalb als Manipulationsversuch gewertet.

Duplicate Content meiden

Keine kopierten Inhalte anzeigen. Wenn die eigenen Inhalte irgendwo im Internet auftauchen, den Webseiten-Betreiber sofort abmahnen.

Verlinkung auf Seiten mit schlechter Qualität meiden

So, wie man mit hochwertigen Links die Qualität des eigenen Auftritts verbessern kann, so kann man sie auch verschlechtern. Besonders schädlich ist es, wenn man auf Seiten verweist, die Badware beinhalten, wie Phishing-Attacken, Verbreitung von Viren oder Trojaner.

Das beste Rezept: vernünftiger Menschenverstand

Wenn man dafür sorgen möchte, dass die eigene Webseite bei den Suchmaschinen möglichst optimal aufgelistet wird, muss man im Grunde nur noch gesunden Menschenverstand walten lassen. so lassen sich die wirkungsvollsten Maßnahmen wie folgt zusammenfassen:

authentischer interessanter Inhalte

Die besten Ergebnisse erhält man mit möglichst viel handgeschriebenem authentischem Text, der nicht kopiert wurde und auch sonst nirgendwo verfügbar ist. Wie wichtig das ist, erkennt man daran, dass größere Firmen eigens zu diesem Zweck Texter angestellt haben.

authentische Verlinkung

Die besten Ergebnisse erhält man, wenn man inhaltlich artverwandte Firmen bittet, mit einem kurzen verständlichen Text auf die eigene Internetseite zu verlinken. Ein paar solche Verlinkungen können bereits genügen, um das Pageranking deutlich zu verbessern. Achten Sie dabei darauf, dass die Verlinkung immer im Kontext eines klar verständlichen Textes erfolgt.

sauber Arbeiten

Wenn man sauber arbeitet, werden viele Fehler automatisch vermieden. Als sauber gilt, wenn Sie die Vorgaben der Webmaster Guidelines einhalten. Sollten Sie mit einem Content Management System arbeiten, schauen Sie sich um, ob es Module gibt, welche Ihnen helfen die Vorgaben einzuhalten.

kollaborative Netze helfen nicht

Twitter, Facebook, Google+ und Co. helfen, wenn es um das Pflegen von Kontakten geht. Aber die sozialen Netze helfen nicht, wenn es darum geht, die Position Ihrer Webseite zu verbessern. Auch Foren-Einträge helfen nicht, denn solche Seiten haben naturgemäß eine wesentlich höhere Datenfluktuation. Das bedeutet, die Inhalte verlieren sehr schnell Ihre Bedeutung, was eine kontextuelle Bewertung relativiert.

Wenn Sie sich an diese Regeln halten, können Sie sicher sein, dass Sie nichts verkehrt machen. Wenn Sie dazu Fragen oder Hinweise haben, Feedback ist ausdrücklich erwünscht. Sie erreichen mich über das Kontaktformular.

Dezember 2014/jw