Komprimierung – Sebastians Blog https://sgaul.de Neues aus den Softwareminen Thu, 13 Mar 2014 20:34:55 +0000 de-DE hourly 1 https://wordpress.org/?v=6.1.1 https://sgaul.de/wp-content/uploads/2019/02/cropped-sgaul-2-1-32x32.jpg Komprimierung – Sebastians Blog https://sgaul.de 32 32 Strategien zur Verbesserung der Sichtbarkeit von Websites für Besucher und Suchmaschinen https://sgaul.de/2011/08/23/strategien-zur-verbesserung-der-sichtbarkeit-von-websites-fur-besucher-und-suchmaschinen/ https://sgaul.de/2011/08/23/strategien-zur-verbesserung-der-sichtbarkeit-von-websites-fur-besucher-und-suchmaschinen/#comments Tue, 23 Aug 2011 09:32:50 +0000 https://sgaul.de/?p=450 Suchmaschinenoptimierung ist eines der meistgebrauchten Schlagwörter im IT-Bereich. Ziel jeder Internetseite ist es, bei Google und anderen für möglichst viele Suchbegriffe möglichst gute Positionen zu erreichen. Den Vorzug bekommen meist „faule“ Methoden: Technische Details der Website sollen diese für Bots interessanter und besser durchsuchbar machen. Man hofft so, mit möglichst einmaligem Zeiteinsatz eine dauerhafte Verbesserung der Platzierungen zu erreichen. Doch die Suchmaschinen von heute sind schon weiter: Dauerhaft erfolgreich ist nur, wer gute und möglichst einzigartige Inhalte bieten kann.

Als wäre das noch nicht genug, muss man heute auch mit sozialen Netzwerken planen: Einen potenziellen Besucher direkt zu erreichen und die Linkverbreitung durch wirkliche Personen zu ermöglichen ist mehr als nur verlockend. Zeit, sich einen Überblick über all diese Themen zu verschaffen und die einzelnen Methoden nach vermutlicher Wirksamkeit und Aufwand zu bewerten.

Nr. Optimierung Aufw. Nutz.
1

Technische Optimierung

1.1

Valider Code

Valides (X)HTML, CSS und Javascript sind die Grundlage für Durchsuchbarkeit durch Bots und plattformunabhängige und behindertengerechte Darstellung im Browser.

gering hoch
1.2

Verzicht auf proprietäre Plugins

Zwar lassen sich mit Flash schöne Effekte erstellen, diese sind für Suchmaschinen jedoch nicht zu durchsuchen. Auch behinderte Personen werden eingeschränkt. Moderne Standards wie HTML 5 und CSS 3 sind mittlerweile gut verfügbar und somit die bessere und kosteneffizientere Wahl.

keiner mittel
1.3

Sprechende URLs verwenden

Sprechende URLs enthalten wichtige Schlagwörter der Seiten und bestehen nicht aus IDs oder ähnlichem. Google [1] selbst betont dies, der Nutzen ist also hoch einzuschätzen.

gering hoch
1.4

HTML- und XML-Sitemaps

Sitemaps zeigen die Seitenstruktur einer Website auf einen Blick. Eine HTML-Variante für Nutzer und eine XML-Version für Suchmaschinen erleichtern beiden die Übersicht. [1]

mittel mittel
1.5

Website-Geschwindigkeit

Die Ladegeschwindigkeit von Seite und zugehörigen Medien beeinflussen maßgeblich die Bewertung einer Website durch Suchmaschinen [2] und die Wahrnehmung der Besucher.

hoch hoch
1.5.1

Code-Komprimierung

HTML-, CSS- und Javascript-Quelltexte können durch Kommentar- und Whitespace-Entfernung deutlich verkleinert werden. Viele bereitstehende Werkzeuge erleichtern die Umsetzung.

gering hoch
1.5.2

Caching dynamischer Seiten

Auch hier gibt es viele ausgereifte Werkzeuge. Dennoch ist die Nutzung recht sensibel, da viele Faktoren zu beachten sind (etwa dynamische Kommentare in statischen Artikeln). Die Wirkung ist server- und softwareabhängig.

mittel mittel
1.5.3

Content-Delivery-Netzwerke nutzen

Vor allem große Mediendateien lassen sich mit Hilfe von CDNs [3] schneller verteilen. Die Anwendung erfordert jedoch tiefe technische Eingriffe. Außerdem sind eventuelle Zusatzkosten zu beachten.

hoch hoch
1.5.4

Serverseitige Komprimierung

Unterstützt ein aufrufender Client z.B. GZIP-Komprimierung, sollte der Server diese Möglichkeit auch nutzen.

gering mittel
1.6

Korrekte und hilfreiche 404-Seiten

Die Fehlerseite 404 sollte im HTTP-Header als solche gekennzeichnet sein, so dass Bots diese nicht indexieren. Für menschliche Besucher ist ein Hinweis auf Wiedereinstiegspunkte sinnvoll.

gering mittel
1.7

Robots.txt

Da viele Bots sie permanent anfragen, ist die Bereitstellungen einer Datei „robots.txt“ im Wurzelverzeichnis der Seite empfehlenswert, auch wenn man ihre Möglichkeiten nicht nutzen will:

User-agent: *
Disallow:
gering gering
1.8

XML-Sitemap für Bilder

Aufgrund des geringen Informationsgehaltes von Bildern für Bots, können spezielle Sitemaps für Bilder wertvolle Metainformationen bereitstellen. [1]

mittel mittel
1.9

Fremdlinks mit rel=“nofollow” auszeichnen

Da die meisten Seitenbewertungen auf Verlinkungen von fremden auf die eigene Seite basieren, werden z.B. Kommentarbereiche gern dafür missbraucht. Ein Hinzufügen des Attributs rel=“nofollow” in den A-Tag weißt zumindest Google an, eben solche Links zu ignorieren. Die eigene Seite bewahrt dies vor dem Ruf oder gar einer Abwertung als Spam-Plattform. [1]

mittel mittel
2

Inhaltliche Optimierung

2.1

Zusammenfassende, strukturierende Überschriften

Überschriften sollten die wesentlichen Schlagworte des Abschnittes enthalten und die Inhalte sinnvoll strukturieren. Überschriften sollten nicht zu Formatierungszwecken missbraucht werden.

gering gering
2.2

Aussagekräftige Linktexte

Linktexte sollten möglichst knapp und präzise beschreiben, worauf sie zeigen. Nichtssagende Links wie „hier“ oder „weiter“, sind für Bots und Menschen, die Texte nur überfliegen, nichtssagend und somit uninteressant.

gering gering
2.3

Alt-Texte und Dateinamen von Bildern

Da Bilder vor allem für Suchmaschinen keinen Inhalt bieten, sollte schon der Dateiname den Inhalt passend vertreten. Der Alt-Text sollte genau beschreiben, was zu sehen ist: Screenreadern etwa lesen genau diesen Text vor. [1]

gering mittel
2.4

Mehrfach vorkommende Inhalte vermeiden

Größere Textpassagen, die wiederholt auf verschiedenen Seiten der selben Website vorkommen, können von Bots negativ bewertet werden.

gering gering
2.5

Title und Meta-Description

Jede einzelne Seite benötigt einen passenden Titel und eine kurze Inhaltszusammenfassung im Meta-Description-Element.

gering hoch
2.6

Meta-Keywords

Zudem können über die Meta-Tags Schlüsselwörter bereitgestellt werden. Hierbei gilt: Je weniger Wörter, desto mehr Gewicht hat jedes einzelne. Man sollte sich folglich „auf eine Handvoll“ Keywords beschränken. Google selbst erwähnt diesen Meta-Tag in [1] nicht. Seine Bedeutung ist vermutlich als sehr gering einzustufen.

gering gering
2.7

Ein-Wort-Optimierung

Suchmaschinen bewerten Seiten unter anderem Anhand der Dichte, in der das Suchwort im Ergebnis auftritt. Wenn es der Seitenstruktur nicht schadet, können einzelne Seiten, die sich auf relevante Schlüsselwörter konzentrieren, hinzugefügt werden.

gering gering
2.8

Linkbaits

Schon eine einzelne, besonders interessante Seite (etwa lustig oder emotional) kann oft den Wert und die Besucherzahlen des ganzen Webauftritts sehr positiv beeinflussen. Mit etwas Glück verbreiten sich der Link zu solchen „Linkbaits“ ganz von allein (siehe Punkt 3).

gering gering
3

Externe Optimierung

3.1

Profile bei sozialen Netzwerken

Viele Menschen beschränken das Internetsurfen auf ein Stöbern in sozialen Netzwerken. Ein entsprechendes Profil, welches neugierig macht und dann auf die eigene Seite lockt, kann sehr erfolgreich sein. Beachten sollte man derzeit vor allem Facebook und eventuell thematisch passende Netzwerke, so wie beispielsweise Xing im unternehmerischen Umfeld.

gering hoch
3.2

Neuigkeiten in sozialen Netzen verbreiten

Neue Artikel auf der Website können bei vielen Plattformen wie Twitter und Facebook verlinkt werden. Dies ermöglicht es interessierten Benutzern, regelmäßig über Neuigkeiten informiert zu werden und die Seite nicht zu vergessen.

gering hoch
3.3

Relevante Backlinks erzeugen

Verlinkungen durch andere Websites sind umso wirkungsvoller, je besser die verlinkende Seite bewertet ist. Sind etwa auf der eigenen Seite relevante Informationen zu einem bestimmten Thema zu finden, wäre eine Positionierung in den Wikipedia-Weblinks des Themas sehr erstrebenswert.

hoch hoch

Quellen

]]>
https://sgaul.de/2011/08/23/strategien-zur-verbesserung-der-sichtbarkeit-von-websites-fur-besucher-und-suchmaschinen/feed/ 3
WordPress durch Caching und Kompression beschleunigen https://sgaul.de/2011/06/26/wordpress-durch-caching-und-kompression-beschleunigen/ https://sgaul.de/2011/06/26/wordpress-durch-caching-und-kompression-beschleunigen/#comments Sun, 26 Jun 2011 11:29:23 +0000 https://sgaul.de/?p=171 WordPress durch Caching und Kompression beschleunigen weiterlesen]]> Ich habe schon eine Weile nach guten Plugins für WordPress gesucht, welche den ja doch recht erheblichen Ladeaufwand der Seite reduzieren können. Dies umfasst vor allem auch die Berechnungszeit, bei der sich die WordPress-Leute wirklich recht großzügig bedient haben. PHP, viele Datenbankzugriffe und die üppige Erweiterbarkeit geben dem Server schon so einiges zum Nachdenken. Mit „W3 Total Cache“ und „WP Smush.it“ lässt sich aber einiges erreichen.

W3 Total Cache

Vor der Installation soll man das Verzeichnis wp-content des Blogs mit den Rechten 777 ausstatten, damit es bei der Initialisierung darin herumschreiben kann. Hier ist wohl etwas blindes Vertrauen oder vier Monate Code lesen angesagt. Ich habe mir für ersteres entschieden. Die Installation ist auf der Plugin-Seite aber ausreichend beschrieben.

Die Einstellungsseite

Anschließend ging es an die Konfiguration. Hier habe ich zunächst „Toggle all caching types on or off at once“ ganz oben angehakt und gespeichert. Nun meckerte er über zwei fehlerhafte Konfigurationen. Also weiter unten bei Cloud-Flare den Haken wieder entfernt (ist eine recht umständlich einzurichtender und zweifelhaft gewinnbringender Dienst). Anschließend noch CDN deaktiviert. Dann auf Deploy in der obigen gelben Leiste klicken (die bei mir komischerweise nie verschwindet?).

Content Delivery Networks

Diese „Content Delivery Networks“ klingen aber dennoch interessant. Hier kann man etwa bei Amazon ein S3-Paket buchen und alle nichtdynmischen Dateien wie Bilder, Java-Script und CSS zu diesem Dienst auslagern. Dies habe ich noch nicht getestet, wie ich das aber verstehe soll dies alles weitgehend automatisch geschehen. Bis zu 5 GB hat Amazon dabei sogar zu verschenken (soweit ich das verstehe, habe keine Hintertürchen gesucht), eine Kreditkarte wird aber benötigt. Und gut, dass Amazon sicher schneller ist als die meisten Webserver dürfte klar sein…

Übers Caching hinaus: Komprimierung

Neben verschiedenen Caches für Datenbanken, ganzen Seiten und Objekten bietet das Plugin auch diverse Minimierungsdienste an. So werden mehrere CSS- und Java-Script-Dateien zusammengelegt und komprimiert. Auch das HTML selbst wird angeblich reduziert, hier kann ich allerdings auf den ersten Blick keine Änderungen erkennen.

Yahoos WP Smush.it

Und weiter geht das Komprimieren: Smush-It komprimiert alle hochgeladenen Bilder über den gleichnamigen Yahoo-Web-Dienst. Bei bereits existierenden Bilder muss man recht umständlich in der Mediathek jedes einzeln anklicken. Dennoch werden die Bilder merklich reduziert (bei mir oft bis zu 30%). Eine schöne Sache ohne weitere Arbeit.

Ergebnis

Das gefühlte Ergebnis ist direkt spürbar. Die Seiten sind fast sofort da. Manchmal dauert es dennoch länger, vermutlich wenn der Cache gerade neu geschrieben wird. Auch Googles „Page Speed“ hat jetzt kaum noch was zu meckern. Er bemängelt für einige Bilder noch die Browser-Caching-Einstellungen. Hier muss ich mal sehen, wie sich das umsetzen lässt.

]]>
https://sgaul.de/2011/06/26/wordpress-durch-caching-und-kompression-beschleunigen/feed/ 1