soziale Netzwerke – Sebastians Blog https://sgaul.de Neues aus den Softwareminen Thu, 13 Mar 2014 20:34:54 +0000 de-DE hourly 1 https://wordpress.org/?v=6.1.7 https://sgaul.de/wp-content/uploads/2019/02/cropped-sgaul-2-1-32x32.jpg soziale Netzwerke – Sebastians Blog https://sgaul.de 32 32 Arbeitgeber fordern Facebook-Zugangsdaten https://sgaul.de/2012/03/24/arbeitgeber-fordern-facebook-zugangsdaten/ https://sgaul.de/2012/03/24/arbeitgeber-fordern-facebook-zugangsdaten/#comments Sat, 24 Mar 2012 16:29:02 +0000 https://sgaul.de/?p=1111 Mit der Privatsphäre ist es heutzutage echt so eine Sache: Während die einen sich peinlich berührt fühlen, wenn ihre Hauswand von der öffentlichen Straße aus fotografiert wird, scheinen andere jedes Schamgefühl verloren zu haben. Das Facebook eher zur letzten Gruppe gehört, ist ja kein Geheimnis. Für Zuckerberg ist Privatsphäre ja nicht mehr zeitgemäß. Wenn aber genau dieses Unternehmen sich verantwortlich fühlt, seine Nutzer vor Arbeitgebern zu schützen, dann liegt wohl wirklich was im Argen.

Laut dem Golem-Artikel „Facebook warnt Arbeitgeber, nach dem Passwort zu fragen“ nehme die Zahl an Arbeitgebern „besorgniserregend“ zu, die ihre Bewerber nach den Zugangsdaten für das soziale Netzwerk fragen. Sie wollen sich über das persönliche Umfeld des potentiellen Mitarbeiters informieren.

Der Artikel ist relativ vage, vor allem wirkliche Zahlen fehlen. Auch ob Deutschland betroffen ist, ergibt sich leider nicht. Dennoch bin ich ziemlich erschrocken. Aus zwei Gründen.

Wie kann ein Arbeitgeber so eine unverschämte Frage stellen? Wie kann man sich anmaßen private Daten zu fordern, welche die meisten nicht einmal in der eigenen Familie zur Verfügung stellen würden? Da fällt einem doch nichts mehr ein.

Und andererseits: Wie weit ist es mit unserer Gesellschaft denn schon gekommen, dass es überhaupt zu solchen Fragen kommen kann? Offensichtlich setzen die Personalleute ja darauf, die gewünschten Daten auch zu erhalten. Gibt es wirklich Leute, die sich darauf einlassen?

Und wenn ja: Haben diese Leute gar kein Gefühl für Privatsphäre mehr? Oder sind sie so erpressbar geworden?

Was darf der Arbeitgeber überhaupt fragen, was über die Qualifikation hinaus geht? Raucher? Gesundheitszustand? Sportliche Betätigungen? Parteienzugehörigkeit?

Wie weit würdet Ihr gehen? Wenn Ihr vor dem perfekten Job steht? Und wenn Ihr ziemlich sicher wisst, dass nichts Negatives zu finden sein wird? Lässt man kurz die Hose runter? Einen Tag in der Würde verletzt, aber für den Rest des Lebens glücklich?

]]>
https://sgaul.de/2012/03/24/arbeitgeber-fordern-facebook-zugangsdaten/feed/ 4
Strategien zur Verbesserung der Sichtbarkeit von Websites für Besucher und Suchmaschinen https://sgaul.de/2011/08/23/strategien-zur-verbesserung-der-sichtbarkeit-von-websites-fur-besucher-und-suchmaschinen/ https://sgaul.de/2011/08/23/strategien-zur-verbesserung-der-sichtbarkeit-von-websites-fur-besucher-und-suchmaschinen/#comments Tue, 23 Aug 2011 09:32:50 +0000 https://sgaul.de/?p=450 Suchmaschinenoptimierung ist eines der meistgebrauchten Schlagwörter im IT-Bereich. Ziel jeder Internetseite ist es, bei Google und anderen für möglichst viele Suchbegriffe möglichst gute Positionen zu erreichen. Den Vorzug bekommen meist „faule“ Methoden: Technische Details der Website sollen diese für Bots interessanter und besser durchsuchbar machen. Man hofft so, mit möglichst einmaligem Zeiteinsatz eine dauerhafte Verbesserung der Platzierungen zu erreichen. Doch die Suchmaschinen von heute sind schon weiter: Dauerhaft erfolgreich ist nur, wer gute und möglichst einzigartige Inhalte bieten kann.

Als wäre das noch nicht genug, muss man heute auch mit sozialen Netzwerken planen: Einen potenziellen Besucher direkt zu erreichen und die Linkverbreitung durch wirkliche Personen zu ermöglichen ist mehr als nur verlockend. Zeit, sich einen Überblick über all diese Themen zu verschaffen und die einzelnen Methoden nach vermutlicher Wirksamkeit und Aufwand zu bewerten.

Nr. Optimierung Aufw. Nutz.
1

Technische Optimierung

1.1

Valider Code

Valides (X)HTML, CSS und Javascript sind die Grundlage für Durchsuchbarkeit durch Bots und plattformunabhängige und behindertengerechte Darstellung im Browser.

gering hoch
1.2

Verzicht auf proprietäre Plugins

Zwar lassen sich mit Flash schöne Effekte erstellen, diese sind für Suchmaschinen jedoch nicht zu durchsuchen. Auch behinderte Personen werden eingeschränkt. Moderne Standards wie HTML 5 und CSS 3 sind mittlerweile gut verfügbar und somit die bessere und kosteneffizientere Wahl.

keiner mittel
1.3

Sprechende URLs verwenden

Sprechende URLs enthalten wichtige Schlagwörter der Seiten und bestehen nicht aus IDs oder ähnlichem. Google [1] selbst betont dies, der Nutzen ist also hoch einzuschätzen.

gering hoch
1.4

HTML- und XML-Sitemaps

Sitemaps zeigen die Seitenstruktur einer Website auf einen Blick. Eine HTML-Variante für Nutzer und eine XML-Version für Suchmaschinen erleichtern beiden die Übersicht. [1]

mittel mittel
1.5

Website-Geschwindigkeit

Die Ladegeschwindigkeit von Seite und zugehörigen Medien beeinflussen maßgeblich die Bewertung einer Website durch Suchmaschinen [2] und die Wahrnehmung der Besucher.

hoch hoch
1.5.1

Code-Komprimierung

HTML-, CSS- und Javascript-Quelltexte können durch Kommentar- und Whitespace-Entfernung deutlich verkleinert werden. Viele bereitstehende Werkzeuge erleichtern die Umsetzung.

gering hoch
1.5.2

Caching dynamischer Seiten

Auch hier gibt es viele ausgereifte Werkzeuge. Dennoch ist die Nutzung recht sensibel, da viele Faktoren zu beachten sind (etwa dynamische Kommentare in statischen Artikeln). Die Wirkung ist server- und softwareabhängig.

mittel mittel
1.5.3

Content-Delivery-Netzwerke nutzen

Vor allem große Mediendateien lassen sich mit Hilfe von CDNs [3] schneller verteilen. Die Anwendung erfordert jedoch tiefe technische Eingriffe. Außerdem sind eventuelle Zusatzkosten zu beachten.

hoch hoch
1.5.4

Serverseitige Komprimierung

Unterstützt ein aufrufender Client z.B. GZIP-Komprimierung, sollte der Server diese Möglichkeit auch nutzen.

gering mittel
1.6

Korrekte und hilfreiche 404-Seiten

Die Fehlerseite 404 sollte im HTTP-Header als solche gekennzeichnet sein, so dass Bots diese nicht indexieren. Für menschliche Besucher ist ein Hinweis auf Wiedereinstiegspunkte sinnvoll.

gering mittel
1.7

Robots.txt

Da viele Bots sie permanent anfragen, ist die Bereitstellungen einer Datei „robots.txt“ im Wurzelverzeichnis der Seite empfehlenswert, auch wenn man ihre Möglichkeiten nicht nutzen will:

User-agent: *
Disallow:
gering gering
1.8

XML-Sitemap für Bilder

Aufgrund des geringen Informationsgehaltes von Bildern für Bots, können spezielle Sitemaps für Bilder wertvolle Metainformationen bereitstellen. [1]

mittel mittel
1.9

Fremdlinks mit rel=“nofollow” auszeichnen

Da die meisten Seitenbewertungen auf Verlinkungen von fremden auf die eigene Seite basieren, werden z.B. Kommentarbereiche gern dafür missbraucht. Ein Hinzufügen des Attributs rel=“nofollow” in den A-Tag weißt zumindest Google an, eben solche Links zu ignorieren. Die eigene Seite bewahrt dies vor dem Ruf oder gar einer Abwertung als Spam-Plattform. [1]

mittel mittel
2

Inhaltliche Optimierung

2.1

Zusammenfassende, strukturierende Überschriften

Überschriften sollten die wesentlichen Schlagworte des Abschnittes enthalten und die Inhalte sinnvoll strukturieren. Überschriften sollten nicht zu Formatierungszwecken missbraucht werden.

gering gering
2.2

Aussagekräftige Linktexte

Linktexte sollten möglichst knapp und präzise beschreiben, worauf sie zeigen. Nichtssagende Links wie „hier“ oder „weiter“, sind für Bots und Menschen, die Texte nur überfliegen, nichtssagend und somit uninteressant.

gering gering
2.3

Alt-Texte und Dateinamen von Bildern

Da Bilder vor allem für Suchmaschinen keinen Inhalt bieten, sollte schon der Dateiname den Inhalt passend vertreten. Der Alt-Text sollte genau beschreiben, was zu sehen ist: Screenreadern etwa lesen genau diesen Text vor. [1]

gering mittel
2.4

Mehrfach vorkommende Inhalte vermeiden

Größere Textpassagen, die wiederholt auf verschiedenen Seiten der selben Website vorkommen, können von Bots negativ bewertet werden.

gering gering
2.5

Title und Meta-Description

Jede einzelne Seite benötigt einen passenden Titel und eine kurze Inhaltszusammenfassung im Meta-Description-Element.

gering hoch
2.6

Meta-Keywords

Zudem können über die Meta-Tags Schlüsselwörter bereitgestellt werden. Hierbei gilt: Je weniger Wörter, desto mehr Gewicht hat jedes einzelne. Man sollte sich folglich „auf eine Handvoll“ Keywords beschränken. Google selbst erwähnt diesen Meta-Tag in [1] nicht. Seine Bedeutung ist vermutlich als sehr gering einzustufen.

gering gering
2.7

Ein-Wort-Optimierung

Suchmaschinen bewerten Seiten unter anderem Anhand der Dichte, in der das Suchwort im Ergebnis auftritt. Wenn es der Seitenstruktur nicht schadet, können einzelne Seiten, die sich auf relevante Schlüsselwörter konzentrieren, hinzugefügt werden.

gering gering
2.8

Linkbaits

Schon eine einzelne, besonders interessante Seite (etwa lustig oder emotional) kann oft den Wert und die Besucherzahlen des ganzen Webauftritts sehr positiv beeinflussen. Mit etwas Glück verbreiten sich der Link zu solchen „Linkbaits“ ganz von allein (siehe Punkt 3).

gering gering
3

Externe Optimierung

3.1

Profile bei sozialen Netzwerken

Viele Menschen beschränken das Internetsurfen auf ein Stöbern in sozialen Netzwerken. Ein entsprechendes Profil, welches neugierig macht und dann auf die eigene Seite lockt, kann sehr erfolgreich sein. Beachten sollte man derzeit vor allem Facebook und eventuell thematisch passende Netzwerke, so wie beispielsweise Xing im unternehmerischen Umfeld.

gering hoch
3.2

Neuigkeiten in sozialen Netzen verbreiten

Neue Artikel auf der Website können bei vielen Plattformen wie Twitter und Facebook verlinkt werden. Dies ermöglicht es interessierten Benutzern, regelmäßig über Neuigkeiten informiert zu werden und die Seite nicht zu vergessen.

gering hoch
3.3

Relevante Backlinks erzeugen

Verlinkungen durch andere Websites sind umso wirkungsvoller, je besser die verlinkende Seite bewertet ist. Sind etwa auf der eigenen Seite relevante Informationen zu einem bestimmten Thema zu finden, wäre eine Positionierung in den Wikipedia-Weblinks des Themas sehr erstrebenswert.

hoch hoch

Quellen

]]>
https://sgaul.de/2011/08/23/strategien-zur-verbesserung-der-sichtbarkeit-von-websites-fur-besucher-und-suchmaschinen/feed/ 3