Strategien zur Verbesserung der Sichtbarkeit von Websites für Besucher und Suchmaschinen

Suchmaschinenoptimierung ist eines der meistgebrauchten Schlagwörter im IT-Bereich. Ziel jeder Internetseite ist es, bei Google und anderen für möglichst viele Suchbegriffe möglichst gute Positionen zu erreichen. Den Vorzug bekommen meist „faule“ Methoden: Technische Details der Website sollen diese für Bots interessanter und besser durchsuchbar machen. Man hofft so, mit möglichst einmaligem Zeiteinsatz eine dauerhafte Verbesserung der Platzierungen zu erreichen. Doch die Suchmaschinen von heute sind schon weiter: Dauerhaft erfolgreich ist nur, wer gute und möglichst einzigartige Inhalte bieten kann.

Als wäre das noch nicht genug, muss man heute auch mit sozialen Netzwerken planen: Einen potenziellen Besucher direkt zu erreichen und die Linkverbreitung durch wirkliche Personen zu ermöglichen ist mehr als nur verlockend. Zeit, sich einen Überblick über all diese Themen zu verschaffen und die einzelnen Methoden nach vermutlicher Wirksamkeit und Aufwand zu bewerten.

Nr. Optimierung Aufw. Nutz.
1

Technische Optimierung

1.1

Valider Code

Valides (X)HTML, CSS und Javascript sind die Grundlage für Durchsuchbarkeit durch Bots und plattformunabhängige und behindertengerechte Darstellung im Browser.

gering hoch
1.2

Verzicht auf proprietäre Plugins

Zwar lassen sich mit Flash schöne Effekte erstellen, diese sind für Suchmaschinen jedoch nicht zu durchsuchen. Auch behinderte Personen werden eingeschränkt. Moderne Standards wie HTML 5 und CSS 3 sind mittlerweile gut verfügbar und somit die bessere und kosteneffizientere Wahl.

keiner mittel
1.3

Sprechende URLs verwenden

Sprechende URLs enthalten wichtige Schlagwörter der Seiten und bestehen nicht aus IDs oder ähnlichem. Google [1] selbst betont dies, der Nutzen ist also hoch einzuschätzen.

gering hoch
1.4

HTML- und XML-Sitemaps

Sitemaps zeigen die Seitenstruktur einer Website auf einen Blick. Eine HTML-Variante für Nutzer und eine XML-Version für Suchmaschinen erleichtern beiden die Übersicht. [1]

mittel mittel
1.5

Website-Geschwindigkeit

Die Ladegeschwindigkeit von Seite und zugehörigen Medien beeinflussen maßgeblich die Bewertung einer Website durch Suchmaschinen [2] und die Wahrnehmung der Besucher.

hoch hoch
1.5.1

Code-Komprimierung

HTML-, CSS- und Javascript-Quelltexte können durch Kommentar- und Whitespace-Entfernung deutlich verkleinert werden. Viele bereitstehende Werkzeuge erleichtern die Umsetzung.

gering hoch
1.5.2

Caching dynamischer Seiten

Auch hier gibt es viele ausgereifte Werkzeuge. Dennoch ist die Nutzung recht sensibel, da viele Faktoren zu beachten sind (etwa dynamische Kommentare in statischen Artikeln). Die Wirkung ist server- und softwareabhängig.

mittel mittel
1.5.3

Content-Delivery-Netzwerke nutzen

Vor allem große Mediendateien lassen sich mit Hilfe von CDNs [3] schneller verteilen. Die Anwendung erfordert jedoch tiefe technische Eingriffe. Außerdem sind eventuelle Zusatzkosten zu beachten.

hoch hoch
1.5.4

Serverseitige Komprimierung

Unterstützt ein aufrufender Client z.B. GZIP-Komprimierung, sollte der Server diese Möglichkeit auch nutzen.

gering mittel
1.6

Korrekte und hilfreiche 404-Seiten

Die Fehlerseite 404 sollte im HTTP-Header als solche gekennzeichnet sein, so dass Bots diese nicht indexieren. Für menschliche Besucher ist ein Hinweis auf Wiedereinstiegspunkte sinnvoll.

gering mittel
1.7

Robots.txt

Da viele Bots sie permanent anfragen, ist die Bereitstellungen einer Datei „robots.txt“ im Wurzelverzeichnis der Seite empfehlenswert, auch wenn man ihre Möglichkeiten nicht nutzen will:

User-agent: *
Disallow:
gering gering
1.8

XML-Sitemap für Bilder

Aufgrund des geringen Informationsgehaltes von Bildern für Bots, können spezielle Sitemaps für Bilder wertvolle Metainformationen bereitstellen. [1]

mittel mittel
1.9

Fremdlinks mit rel=“nofollow” auszeichnen

Da die meisten Seitenbewertungen auf Verlinkungen von fremden auf die eigene Seite basieren, werden z.B. Kommentarbereiche gern dafür missbraucht. Ein Hinzufügen des Attributs rel=“nofollow” in den A-Tag weißt zumindest Google an, eben solche Links zu ignorieren. Die eigene Seite bewahrt dies vor dem Ruf oder gar einer Abwertung als Spam-Plattform. [1]

mittel mittel
2

Inhaltliche Optimierung

2.1

Zusammenfassende, strukturierende Überschriften

Überschriften sollten die wesentlichen Schlagworte des Abschnittes enthalten und die Inhalte sinnvoll strukturieren. Überschriften sollten nicht zu Formatierungszwecken missbraucht werden.

gering gering
2.2

Aussagekräftige Linktexte

Linktexte sollten möglichst knapp und präzise beschreiben, worauf sie zeigen. Nichtssagende Links wie „hier“ oder „weiter“, sind für Bots und Menschen, die Texte nur überfliegen, nichtssagend und somit uninteressant.

gering gering
2.3

Alt-Texte und Dateinamen von Bildern

Da Bilder vor allem für Suchmaschinen keinen Inhalt bieten, sollte schon der Dateiname den Inhalt passend vertreten. Der Alt-Text sollte genau beschreiben, was zu sehen ist: Screenreadern etwa lesen genau diesen Text vor. [1]

gering mittel
2.4

Mehrfach vorkommende Inhalte vermeiden

Größere Textpassagen, die wiederholt auf verschiedenen Seiten der selben Website vorkommen, können von Bots negativ bewertet werden.

gering gering
2.5

Title und Meta-Description

Jede einzelne Seite benötigt einen passenden Titel und eine kurze Inhaltszusammenfassung im Meta-Description-Element.

gering hoch
2.6

Meta-Keywords

Zudem können über die Meta-Tags Schlüsselwörter bereitgestellt werden. Hierbei gilt: Je weniger Wörter, desto mehr Gewicht hat jedes einzelne. Man sollte sich folglich „auf eine Handvoll“ Keywords beschränken. Google selbst erwähnt diesen Meta-Tag in [1] nicht. Seine Bedeutung ist vermutlich als sehr gering einzustufen.

gering gering
2.7

Ein-Wort-Optimierung

Suchmaschinen bewerten Seiten unter anderem Anhand der Dichte, in der das Suchwort im Ergebnis auftritt. Wenn es der Seitenstruktur nicht schadet, können einzelne Seiten, die sich auf relevante Schlüsselwörter konzentrieren, hinzugefügt werden.

gering gering
2.8

Linkbaits

Schon eine einzelne, besonders interessante Seite (etwa lustig oder emotional) kann oft den Wert und die Besucherzahlen des ganzen Webauftritts sehr positiv beeinflussen. Mit etwas Glück verbreiten sich der Link zu solchen „Linkbaits“ ganz von allein (siehe Punkt 3).

gering gering
3

Externe Optimierung

3.1

Profile bei sozialen Netzwerken

Viele Menschen beschränken das Internetsurfen auf ein Stöbern in sozialen Netzwerken. Ein entsprechendes Profil, welches neugierig macht und dann auf die eigene Seite lockt, kann sehr erfolgreich sein. Beachten sollte man derzeit vor allem Facebook und eventuell thematisch passende Netzwerke, so wie beispielsweise Xing im unternehmerischen Umfeld.

gering hoch
3.2

Neuigkeiten in sozialen Netzen verbreiten

Neue Artikel auf der Website können bei vielen Plattformen wie Twitter und Facebook verlinkt werden. Dies ermöglicht es interessierten Benutzern, regelmäßig über Neuigkeiten informiert zu werden und die Seite nicht zu vergessen.

gering hoch
3.3

Relevante Backlinks erzeugen

Verlinkungen durch andere Websites sind umso wirkungsvoller, je besser die verlinkende Seite bewertet ist. Sind etwa auf der eigenen Seite relevante Informationen zu einem bestimmten Thema zu finden, wäre eine Positionierung in den Wikipedia-Weblinks des Themas sehr erstrebenswert.

hoch hoch

Quellen

3 Kommentare

  1. Das lese ich mir jetzt nicht durch. Viel zu lang. Willst du hier einen Blog schreiben oder ein Wiki? Sogar ein Inhaltsverzeichnis.

    Da bist du echt ein bisschen ausgerastet.

  2. So lang ist der gar nicht, da gibt es hier durchaus längere. Wirkt nur so, wegen der Tabellenform.

    Finde es aber ganz gut so eine Übersicht zu haben. So kann man bei einer Website mal Schritt für Schritt durchgehen, ob man an alles gedacht hat.

  3. Danke für die Liste. Ist schön zum Ausdrucken und an die Bürowand pinnen geeignet. 🙂
    Gruß, Max

Kommentare sind geschlossen.