Mit einer robots.txt können Seitenbetreiber die Zugriffsberechtigungen von Crawler regeln und ggf. einschränken. So lässt sich der zugriff von Crawler und Bots auf einzelne Seiten einer Website ausschließen. Doch nun ändert Google wie das Crawling zukünftig geregelt wird.
Derzeit gilt das Robots Exclusion Protocol (REP) als Standard der sich bislang jedoch nur bedingt durchsetzen konnte und laut Google zu Fehlern führt. Daher plant Google nun einen eigenen Standard zu etablieren und gab Anfang Juli bekannt, dass Google ihren Parser „production robote.txt“ zukünftig als Open-Source anbietet.
Was Website Betreiber und Webmaster zukünftig beachten bzw. anders machen müssen, wenn sie Crawler einschränken möchten, erfährst Du in diesem Blogbeitrag.
Weiterlesen
Digitale Werbung wächst 2019 um 10%
von Christian BaslerPünktlich zur dmexco gab der Online-Vermarkterkreis (OVK) im BVDW neue Marktzahlen zur digitalen Werbewirtschaft bekannt.
Der Online-Vermarkterkreis (OVK) im Bundesverband Digitale Wirtschaft (BVDW) veröffentlicht wie gewohnt zur dmexco seinen zweiten Halbjahresreport zum Deutschen Online-Werbemarkt. Demnach wird bei digitaler Display-Werbung für 2019 ein Zuwachs von 9,7% auf 3,6 Milliarden Euro erwartet.
Weiterlesen
E-Mail Marketing Studie 2019
von Christian BaslerNewsletter2go veröffentlichte vor Kurzem eine E-Mail Marketing Studie mit Kennzahlen-Benchmarking.
Das Benchmarking vergleicht die wichtigsten E-Mail-Marketing-Kennzahlen aus 29 Branchen. Mit diesen Informationen können Sie sich vergleichen und sehen in welchen Bereichen Sie im Verglich zum Wettbewerb gut oder weniger gut performen.
Weiterlesen
Amazon Tool zeigt wieviel Traffic über Google und Facebook kommt
von Christian BaslerViele Amazon Händler stehen vor der gleichen Frage: Wie wirksam ist Werbung auf Facebook oder Google? Das Attribution Tool von Amazon zeigt über welchen Kanal Nutzer auf Amazon gelangen um dort einzukaufen.
Weiterlesen
Influencer-Marketing in Deutschland wächst stetig
von Christian BaslerDer aktuelle ‚Influencer Industry Report‘ von Influry bescheinigt dem Influencer-Marketing ein konstantes Wachstum von 20 Prozent. Bis zum Jahr 2021 dürfte die Milliardengrenze geknackt werden.
Der Report prognostiziert bis zum Jahr 20121 der D-A-CH Region einen Gesamtumsatz von 1,8 Milliarden Euro – Der mit 998 Millionen Euro größte Anteil entfällt dabei auf Deutschland. Österreich und die Schweiz kommen demnach zusammen auf 190 Millionen Euro.
Weiterlesen
Hotels können Serviceangebote in Google myBusiness ergänzen
von Christian BaslerHotels können zukünftig mehr Details und Serviceleistungen per Google myBusiness pflegen und so dem Nutzer direkt in Google Maps anzeigen.
Weiterlesen
Monatliche Leistungsberichte der Google Search Console verfügbar
von Christian BaslerSo behalten Website Betreiber regelmäßig bequem einen Überblick über Ihre Website Kennzahlen.
Google stellt jetzt Leistungsberichte bereit, die sich die Nutzer der Google Search Console zukünftig automatisiert per E-Mail zusenden lassen können.
Weiterlesen
Neue AR Funktion bei Google Maps
von Christian BaslerLaut Google bietet Google Maps schon bald neue – auf Augmented Reality – basierende Funktionen. So sollen die Karten von Google AR-basierte „Live Views“ mit integrierten Wegweisern enthalten.
Was genau sich bei Google Maps ändert und welche cleveren Funktionen hinzukommen erfährst Du in unserem Blogartikel.
Weiterlesen
Google Mutter Alphabet übertrifft Analysten Erwartungen
von Christian BaslerDer Google-Mutterkonzern Alphabet übertrifft mit den Zahlen für das zweite Quartal die Erwartungen der Analysten. Der Umsatz stieg im Jahresvergleich auf 38,9 Milliarden US-Dollar und wächst damit um 19%. Analysten hingegen hatten im Schnitt nur mit 38,1 Milliarden gerechnet.
Weiterlesen
Google setzt eigene Standards für die robots.txt
von Christian BaslerMit einer robots.txt können Seitenbetreiber die Zugriffsberechtigungen von Crawler regeln und ggf. einschränken. So lässt sich der zugriff von Crawler und Bots auf einzelne Seiten einer Website ausschließen. Doch nun ändert Google wie das Crawling zukünftig geregelt wird.
Derzeit gilt das Robots Exclusion Protocol (REP) als Standard der sich bislang jedoch nur bedingt durchsetzen konnte und laut Google zu Fehlern führt. Daher plant Google nun einen eigenen Standard zu etablieren und gab Anfang Juli bekannt, dass Google ihren Parser „production robote.txt“ zukünftig als Open-Source anbietet.
Was Website Betreiber und Webmaster zukünftig beachten bzw. anders machen müssen, wenn sie Crawler einschränken möchten, erfährst Du in diesem Blogbeitrag.
Weiterlesen
E-Mail Marketing Checkliste – So erstellst Du das perfekte E-Mailing
von Christian BaslerEine schlecht gestaltete E-Mail zu versenden ist so gut wie gar keine E-Mail zu senden. Willst Du dass die Empfänger Deine E-Mail öffnen und auf die Inhalte klicken, dann solltest Du bei der Gestaltung Deines E-Mailings ein paar Punkte beachten.
Diese Checkliste hilft dir dabei ein optisch ansprechendes, leicht lesbares und äußerst überzeugendes Design für Dein E-Mailing zu erstellen.
Weiterlesen