Content-Optimierung mit Nutzerfeedback

Die CMCX 2016 hat einen guten Eindruck davon vermittelt, wo Content Marketing in Deutschland steht. Die großen Herausforderungen bleiben die Themen Content Strategie und Operationalisierung. Aber auch beim Thema Erfolgsmessung fehlen noch passende Modelle und damit auch überzeugende Fallstudien, um Content den Stellenwert beizumessen, den er auch verdient. Die meisten Referenten führen immer noch Interaktionsmetriken (z.B. Views. Likes, Shares, etc.) ins Feld, wenn eingeschätzt werden soll, ob Content „funktioniert“.

Screenshot der Content-Marketing-Studie von Prof. Dr. Clemens Koob

Ergebnisse aus einer Studie von Prof. Dr. Clemens Koob. Danach sehen 72% der befragten Marketingverantwortlichen in deutschen Unternehmen, die Contenterfolgsmessung als Herausforderung an.

Grenzen der Datenanalyse bei der Content-Optimierung

Aus operativer Sicht ist fraglich, ob diese Metriken sinnvolle Anhaltspunkte zur Content-Optimierung liefern. Die Zahlen können uns nur Informationen über das „Wie viel“ liefern, nicht aber über das „Warum“. Als Beispiel: Aus der Webanalyse kann ich sehr gut erkennen, welche Seiten wie bei den Nutzer ankommen, z.B. auf Basis von Interaktionen mit bestimmten Elementen, Absprungraten, etc. Aber wenn es um die Frage geht, warum bestimmte Seiten so gut funktionieren und andere nicht, sind wir auf unsere Meinungen angewiesen, um passende Hypothesen für die Optimierung zu entwickeln.

Dabei gibt es derart viele Faktoren, die den Erfolg von Inhalten beeinflussen, dass sich zig Hypothesen für die Optimierung entwickeln lassen. Dazu gehören beispielsweise:

  • Format – Wurde das passende Format für die Inhalte gewählt? Bestimmte Inhalte lassen sich vielleicht als Infografik besser darstellen, als über eher textlastige Formate. Wurden die Inhalte dann auch innerhalb eines passenden Formats optimal realisiert?
  • Relevanz/Austauschbarkeit – Sind die Inhalte bereits im Netz in ähnlicher Form vorhanden? Sind die Inhalte überhaupt für die Nutzer von Interesse?
  • Konsistenz – Sind die Inhalte immer gleich gut, so dass die Erwartungshaltung der Nutzer nicht enttäuscht wird?
  • Und so weiter und so fort …

All das lässt sich aus den verfügbaren Metriken kaum herauslesen. Genau darum will ich erneut die Lanze für die Auswertung von qualitativem Nutzerfeedback brechen.

Vorteile von qualitativem Nutzerfeedback

Qualitatives Nutzerfeedback lässt sich über unterschiedliche Wege einholen, z.B.

  • Auswertung von Nutzerkommentaren – Das ist zumindest bei den Firmen, die Social Media ernst nehmen mittlerweile Standard. Die Erkenntnisse daraus lassen sich selbstverständlich auch hervorragend für die Content-Optimierung einsetzen.
  • Umfragen – Hier gibt es mittlerweile eine Vielzahl von Möglichkeiten von einer ausgewachsenen Marktforschung bis Fokusgruppeninterviews. Aber gerade kleinere Unternehmen scheuen oft den organisatorischen und finanziellen Aufwand. Eine gute Alternative dazu sind Mini-Surveys, wie sie sich sehr einfach mit Tools wie Qualaroo umsetzen lassen. Hier mal ein kurzes – leider ziemlich saleslastiges – Video, das aber die Vorzüge dieser Methode sehr gut erklärt:

Wer mehr Zeit hat, sollte sich noch folgendes Webinar ansehen, das sich zwar eher um die Conversionoptimierung dreht, aber auch für das Thema Content-Optimierung sehr aufschlussreich ist:

Um den wichtigsten Vorzug von Mini-Umfragen noch einmal auf den Punkt zu bringen:

Mini-Umfragen sind in der Regel sehr günstig und können zielgenau im aktuellen Kontext eingesetzt werden. Klar ist die Auswertung von qualitativem Nutzerfeedback immer noch aufwändiger als einfach mal ein paar Zahlen aus den Tools zu ziehen. Allerdings lässt sich mit konkretem Nutzerfeedback sehr viel eindeutiger bestimmen, in welche Richtung die Optimierung von Content gehen sollte.

Dabei ist es nicht sinnvoll, die quantitative Datenanalyse zu vernachlässigen. Sowohl die quantitative wie auch die qualitative Herangehensweise haben starke Vorzüge und sollten miteinander kombiniert werden.

Beispiel für die Content-Optimierung mit Nutzerfeedback

Ich will an einem konkreten Beispiel kurz zeigen, wie Nutzerfeedback die Daten aus der Webanalyse sinnvoll ergänzen kann.

Ausgangslage: beck-shop.de führt ein sehr spezielles Sortiment im Buchhandel – juristische und steuerrechtliche Fachliteratur. Die besondere Herausforderung ist, dass die Titel in der Regel einen sehr starken Aktualitätswert haben und mit Abo-Modellen auch erklärungsbedürftig sind. Zudem stehen wir als relativ kleiner Händler vor der Herausforderung, dass unser Kundenservice nicht nur Kundenfragen beantworten muss, sondern auch für die manuelle Rechnungsbearbeitung von den Bestellungen zuständig ist, die sich nicht automatisch erfassen lassen. Kundenanfragen konkurrieren also mit der Bearbeitung von Bestellungen – wodurch auch schon die Businessrelevanz des Service-Contents klar wird. :-)

Aktuell ist der Service-Content als unübersichtliche FAQ-Liste strukturiert.

Screenshot FAQs beck-shop.de

Die FAQs umfassen ausgedruckt ca. 11 DINA4-Seiten.

Dabei ist der Bereich relativ gefragt: Im letzten Jahr wurde die URL rund 50.000-mal aufgerufen. Theoretisch sind das 50.000 potentielle Fragestellungen, die die Nutzer haben. Die reinen Webanalyse-Daten geben allerdings nur wenig über die Qualität der Seite her:

Sowohl Absprung- wie auch Ausstiegsrate deuten nicht auf große Probleme hin.

Sowohl Absprung- wie auch Ausstiegsrate deuten nicht auf große Probleme hin.

Wir wollten es genauer wissen und haben beim Kundenservice nachgefragt, wie viele Kundenanfragen in der Regel auflaufen und ob das zu Problemen führt.

Problem: Das Feedback aus dem Kundenservice war eindeutig: Die Bearbeitung von Bestellungen kann sich verzögern, wenn sehr viele Kundenanfragen auflaufen. Hier ensteht ein Dilemma, weil die Bearbeitung von Bestellungen direkt auf den Umsatz einzahlt. Kundenanfragen, die zu lange liegen bleiben, wirken sich dagegen negativ auf die Kundenzufriedenheit aus.

Warum aber haben die Kunden so viele offene Fragen? Haben die Kunden ein Problem mit der Darstellungsform des Service-Contents? Sind die verfügbaren Inhalte nur schwer zu finden? Sind die verfügbaren Antworten verständlich? Fehlen vielleicht wichtige Inhalte?

Lösung: Um hier zu klaren Einschätzungen zu kommen haben wir auf den Service-Seiten eine Mini-Umfrage lanciert, die laufend Feedback von den Kunden einholt. Dabei haben wir versucht, die wichtigsten Hypothesen abzufragen. Daraus ergibt sich folgender Frageverlauf:

1 Zunächst erscheint nach 30 Sekunden die allgemeine Frage, ob der Nutzer Antworten auf seine Frage finden konnte:

screenshot_qualaroo-step-1

2 Wählt er „Nein“, erscheint eine Folgefrage, über die wir unsere Hypothesen abprüfen:

screenshot_qualaroo-step-2

3 Wählt der Nutzer dann aus, dass er keine passende Antwort finden konnte, fragen wir ihn nach den Informationen, die er benötigt hätte:

screenshot_qualaroo-step-3

Ergebnisse: Wir haben die Umfragen knapp 1 Jahr laufen lassen, um ein möglichst umfassendes Bild davon zu bekommen, welche Probleme die Nutzer haben:

screenshot_qualaroo-results

  • Zunächst ist überraschend, wie viele Nutzer tatsächlich keine passenden Antworten finden. Über 50% der Nutzer werden demnach von unserem Service-Bereich enttäuscht.
  • Überraschend ist auch, dass auf den ersten Blick nur 13% der Nutzer ein Problem mit der Darstellung haben. Bei der Analyse der Daten zeigte sich aber schnell, dass viele Nutzer angaben, die passenden Informationen nicht gefunden zu haben, obwohl die Antworten auf der Seite verfügbar waren. Wir gehen daher davon aus, dass wir ein Problem mit der Zugänglichkeit der Informationen haben.
  • Über 75% der Nutzer geben an, dass sie keine Antworten auf ihre Fragen finden konnten. Puh!

Gerade beim letzten Punkt liefert uns die dritte Fragestellung genaues Feedback darüber, welche Informationen die Nutzer genau benötigen. Auf diese Weise konnten wir über 500 einzelne Antworten sammeln, die genauen Aufschluss darüber geben, wo wir aktuell Informationslücken haben.

Der positive Nebeneffekt: Wir können die verfügbaren Werte auch gleich als KPIs verwenden, um den Erfolg der Optimierungsmaßnahmen einzuschätzen. Wenn wir also alles richtig machen, sollte der Anteil der Nutzer, die keine Antwort auf Ihre Frage finden nach Umsetzung der geplanten Maßnahmen deutlich unter 50% liegen.

Maßnahmen: Auf Grundlage dieser Ergebnisse haben wir folgende Maßnahmen eingeleitet:

  • Überarbeitung der aktuellen Inhalte, um diese verständlicher zu machen.
  • Aufbau von zusätzlichen Inhalten entlang des konkreten Nutzer-Feedbacks.
  • Umbau der Struktur des Servicebereichs. Anstelle der aktuellen Listenform wird ein Service-Bereich aufgebaut, der die wichtigsten Fragestellungen prominent darstellt, um die Klickpfade zu verkürzen.
  • Die Zugänglichkeit zu den Inhalten wird weiter verbessert, indem der neue Service-Bereich eine eigene Suchfunktion erhält. Zudem werden wichtige Themen bereits in der Shop-Suche im Suggest angezeigt.

screenshot_search-suggest-service

  • Bonus: Wir konnten 4 konkrete Funktionalitäten ableiten, mit denen die Kunden viele Aufgaben eigenständig direkt im Kundenkonto erledigen können.

Wir sind aktuell noch in der Konzeption des neuen Service-Bereichs, so dass derzeit noch keine konkreten Ergebnisse vorliegen. Das Beispiel illustriert aber hoffentlich meinen Punkt:

Mit der zusätzlichen Auswertung von Nutzerfeedback lässt sich die Content-Optimierung sehr viel zielgenauer angehen als mit den Daten aus der Webanalyse.

Jetzt seid ihr dran: Wer von euch greift bereits regelmäßig auf Nutzerfeedback zurück, um seine Inhalte zu verbessern? Denkt ihr, dass der Ansatz auch für euch wertvolle Ergebnisse liefern kann? Wo seht ihr noch Verbesserungspotential?

  • Das Problem ist, dass man die Nutzer eigentlich noch ein paar Ebenen tiefer befragen müsste, z.B. nach dem „Was genau hast du nicht gefunden? Was war unklar?“

    Nutzer lassen Ihren Frust, wenn sie etwas nicht gefunden haben, schnell an solchen „Umfrage-Tools“ aus. Und das „nicht gefunden haben“ ist auch immer relativ. Jeder Nutzer hat eine individuelle Suchintention. Nicht immer also passt eine Antwort in den FAQ auf den Fall eines Nutzers. Oder aber, die Antwort liegt dort und der Nutzer hat sie nur nicht gefunden.

    Die Frage, die sich mir also stellt, ist eher: Wie aussagekräftig sind die Ergebnisse dieser Umfragen?

    • Hi Marcel,
      natürlich gibt es hier immer Unschärfen. Und natürlich müssten wir jeden einzelnen Nutzer ganz genau befragen, um perfekte Ergebnisse zu bekommen. Die Frage „Was genau hast du nicht gefunden?“ holen wir aber eben genau mit der letzten Fragestellung der Umfrage ab. Und genau hier haben wir auch den größten Impact für uns entdeckt. Denn wir können auf Grundlage der quantitativen Daten natürlich nicht herausfinden, was dem Nutzer gefehlt hat. Mit dem konkreten Nutzerfeedback auf die Frage „Welche Information hätten Sie benötigt?“ wissen wir aber ganz genau, was an Informationen fehlt und können unseren Content ganz zielgerichtet in diese Richtung entwickeln.
      Allerdings hast du Recht damit, dass die Aussage „Ich habe die Informationen nicht gefunden“ relativ ist und die vorhandene Information einfach nicht zugänglich genug war. Aber das haben wir in der Auswertung der einzelnen Rückmeldungen sehr schnell gemerkt. Daher auch die Einsicht, dass wir dringend etwas an der Zugänglichkeit der Informationen, z.B. über eine gute Suchfunktion oder eine alternative Darstellung verbessern müssen.
      Als Antwort auf deine letzte Frage: Für mich waren die Ergebnisse der laufenden Umfrage ein echter Augenöffner. Wir hätten diese Einsichten nie und nimmer erlangt, wenn wir uns nur auf die Webanalyse verlassen hätten. Und dafür nehme ich gerne in Kauf, dass die Umfrage von jedem Sozialwissenschaftler mit einem Grundkurs in Statistik und Umfrage-Design wahrscheinlich zerlegt würde. :-)

  • Pingback: SEO Auslese März | Projecter GmbH()