Rätselhaftes Phantom Update von Google

Bereits Anfang Mai experimentierte Google mit einer Anpassung seines Core-Algorithmus indem Google das „Phantom“ Update ausrollte. Während Google bislang keine Erläuterung abgegeben hat um welche Änderungen es sich genau im Einzelnen handelt, fällt jedoch auf, dass die Auswirkungen weltweit spürbar waren indem viele Domains ungewöhnlich stark in den Rankings gestiegen sind und Andere wiederum unerklärliche Sichtbarkeitsverluste hinnehmen mussten. Betroffene Seiten berichten von Schwankungen im Sistrix-Sichtbarkeitsindex von bis zu 60%

Zu den Gewinner-Domains zählen überwiegend Kategorie- und Beratungs-Verzeichnisse sowie große Marken. Der Onlineshop computeruniverse.net gewann zum Zeitpunkt des Google Phantom Updates etwa mehr als 25 Prozent im Sistrix Sichtbarkeitsindex auch Obi konnte deutlich profitieren und legte knapp 30 Prozent zu. Ebenfalls profitieren konnten focus.de, brigitte.de oder check24.de). Negativ betroffen sind vorallem kleine und mittlere Website, insbesodnere Infoseiten und Ratgeber, die teilweise mehr als 30 Prozent im Sistrix Sichtbarkeitsindex verloren haben. Hierzu zählen Wesbites wie auto-motor-und-sport.de sowie brillen-sehhilfen.de.

Weiterlesen

Google kündigt neues Panda-Update an

Das Panda-Update zielt hautsächlich auf OnPage-Qualitätsfaktoren ab und bestraft schwachen Content. Allerdings soll es sich bei dem zu erwartenden Panda-Update eher um eine Auffrischung der Daten als um eine echte Änderung des Algorithmus handeln. Es könnte also durchaus sein, dass viele Website-Betreiber kaum Ab- oder Aufwertungen wahrnehmen werden. Worauf Sie als Website-Betreiber dennoch achten sollten erfahren Sie hier.

Der Panda bestraft thin content

Zielsetzung von Panda ist es, Websites mit „dünnem Inhalt“ (engl. thin content) herabzustufen – Angebote, die wenig eigene Inhalte präsentieren, mit Werbung überfrachtet sind, oder einfach nur ganz viele Links zu anderen Seiten anzeigen.

Um die Qualität einer Website zu beurteilen entwickelte der Google Mitarbeiter Nabil Panda 2011 eine nach ihm benannte neue Filter-Technologie. Hierzu wurden tausende von Websites von Menschen nach Kriterien wie Design, Benutzerfreundlichkeit, Glaubwürdigkeit, Ladezeiten, Werbeflächen, Inhalte, Aufbau, etc. bewertet. Hieraus wurden messbare Merkmale für „gute“ und „schlechte“ Websites abgeleitet und in den Google-Algorithmus integriert. Anschliessend wurde das Besucherverhalten auf diesen Websites gemessen, um auch daraus Rückschlüsse zu ziehen. So lernte die Software zu unterscheiden, wie sich Besucher auf guten und schlechten Seiten verhalten. Panda wird seitdem mit fortlaufenden Updates kontinuierlich angepasst.

Weiterlesen

Neues Google Penguin (Algorithmus)Update

Mit den jüngst angekündigten Penguin-Updates wird Google sein Algorithmus weiter verbessern und Websites mit unnatürliche Backlinks bestrafen.

Während Panda sich auf die Website selbst (ON-PAGE) konzentriert, stehen bei dem von Google englisch „Penguin“ genannten Algorithmus die Backlinks einer Website im Mittelpunkt (OFF-PAGE). Penguin betrachtet hierzu insbesondere die Link-Texte und bewertet, ob diese zu häufig aus „Money Words“ bestehen, oder organischen Ursprungs sind, also durch normales menschliches Verhalten erzeugt wurden.

Ziel der Penguin-Updates ist es unnatürlichen Backlinks aufzuspüren und dementsprechend die Websites zu bestrafen, welche über einen großen Anteil an Backlinks von unnatürlichen link-Netzwerken verfügen. Auf der SMX Advanced der Searchmarketing Expo in Seattle wurde jüngst von Google bestätigt, dass der Penguin-Algorithmus weiterhin verbessert werden soll.

Sie möchten ihre Backlink-Struktur von Experten prüfen lassen?!
Wir bieten Ihnen für 390,- EUR eine Backlink-Analyse und bauen schadhafte Links auf Wunsch* ab.

* verursacht Extrakosten, die nach tatsächlich angefallenen Aufwand abgerechnet werden.

Neue Studie zeigt Nachholbedarf von Versicherungen auf

Wie die aktuelle Studie von Online-Marketing Experte Torsten Schwarz zeigt, haben ein Großteil der deutschen Versicherungen einen Nachholbedarf. Die Studie betrachtet 40 deutsche Versicherungsunternehmen und deren Online-Aktivitäten.

Rund 48 Prozent haben weder eine mobile noch eine responsive Website. Viele Unternehmen werden zu wichtigen generischen Begriffen wie z.B. ‚Hausratversicherung‘ oder ‚Kfz.-Haftpflicht‘ bei Google überhaupt nicht oder zumindest nicht auf den vordersten Suchergebnisseiten (SERPs) gefunden. Auch im Bereich Social Web gibt es offensichtlich teilweise erheblichen Nachholbedarf. So nutzen 26 Millionen Deutsche Facebook und kontaktieren hier ganz selbstverständlich auch Unternehmen. Trotzdem fehlt bei 35 Prozent der hier untersuchten Versicherungen noch immer der Anschluss an das weltweit größte soziale Netzwerk. Dabei sind Kunden überaus dankbar, wenn ihre Anfragen über Facebook und Twitter zeitnah beantwortet werden.

Die vollständige Studie von absolit kann unter der folgenden Adresse kostenpflichtig angefordert werden, wo man auch detaillierte Informationen zur Studie findet:

www.versicherungs-studie.de