Content-Evaluation 2020

Da sind wir bei dem Unterschied zwischen Interesse und Qualität. Wenn ich etwas kenne, aber nicht schaue (z.B. weil ich keine RTS Games mag) dann kann ich nur nach “interessiert mich/interessiert mich nicht” abstimmen. Wenn ich aber eig Interesse habe, habe auch ein paar Folgen geschaut, aber der Ablauf, die Spielweise, whatever gefällt mir nicht, bewerte ich die Qualität. Das ist ein sehr großer Unterschied. Wenn man das mischt, dann wird das Ergebnis daraus wertlos, weil keine Schlüsse daraus gezogen werden können.

Im oben geposteten Ausschnitt der Umfrage steht ja “wie sie dir gefallen und wie du sie am liebsten schaust”. Daher würde ich davon ausgehen, dass man die Formate bewerten soll, die man auch (zumindest ab und zu) schaut.

Über Formate, die man gar nicht kennt (auch nicht von Namen/Grundidee her) kann man ja gar nichts aussagen außer “noch nie gehört”. Und bei Formaten, von deren Existenz man weiß, aber man nie wirklich geschaut hat, kann man nur sagen, ob sie einen grundsätzlich interessieren oder nicht. Die Frage lautet ja aber “wie gefallen sie dir” und nicht “hast du Interesse an diesem Format”.

Als ob die “Profis” keine Fehler machen würden. Da arbeiten am Ende des Tages auch nur Menschen, die irgendwoher ihre Grundlagen haben.

Und was man auch begreifen sollte: Es gibt bei methodischem Vorgehen oft kein eindeutiges “Richtig” und “Falsch”. Viele Sachen muss man abwägen und sich überlegen, ob die passen oder nicht, oder ob man die auf die eine oder andere Art und Weise macht. Für die unterschiedlichen Wege gibt es dann jeweils Vor- und Nachteile. Das gilt auch für Fragekategorien und die Art der Fragen in Umfragen.

Die perfekte Umfrage, die der Profi astrein ohne mögliche Kritikpunkte erstellt, die existiert nicht. Wissenschaftliche Methode ist immer ein Stück weit diskutierbar und streitbar. Natürlich gibt es handwerkliche Grundlagen und gibt es Erfahrungen und Orientierungen, an die man sich halten sollte. Aber Dinge ob man eine 5er, 7er oder 10 Skala benutzt, in welcher Reihenfolge die Fragen auftauchen und so weiter und sofort - da gibt es kein optimales Rezept was man einfach immer anwendet. Man muss sich überlegen, was für ein selber im spezifischen Kontext passt und Entscheidungen treffen. Und da muss man zwischen Vor- und Nachteilen abwägen - 100%ige Perfektion gibt es an der Stelle nicht.

2 „Gefällt mir“

Aber “bewerte wie sie dir gefallen” kann auch bedeuten das wenn ich ein Format nicht schaue obwohl ich es kenne, ich es nicht schaue weil es mir nicht gefällt.
Gleiches gilt ja für Leute die ein Format nicht mehr schauen, weil es ihnen auch nicht mehr gefällt.
Interesse ist zudem auch immer relativ, warum besteht Interesse und warum wird das Format dann nicht geschaut?
Und das kann man dann ja theoretisch schon mit “es gefällt mir nicht” beantworten.

Nach der Logik macht ein 6 jähriges Kind theoretisch eine genauso gute/sinnvolle Umfrage wie ein Uni-Prof, ist natürlich überspitzt, aber ich glaube du verstehst worauf ich hinaus will.

1 „Gefällt mir“

In der nächsten Umfrage sollte man auch die bohnen bewerten können :face_with_hand_over_mouth::smiling_imp:

Wenn man “gefallen” als Universalbewertung für alles nutzt ja. Ist halt blöd, dass “gefallen” synonym für sämtliche konkreteren Bewertungsworte genutzt wird. Von Interesse bis tiefste Qualitätsanalyse. Nur das würde jedes Ergebnis der Umfrage wertlos machen, weil keinerlei Schlüsse daraus gezogen werden können. Insofern wohl auch eine unglückliche Formulierung.

Da in der Umfrage explizit gefragt wird “wie gefallen sie dir und wie schaust du sie” gehe ich davon aus, dass explizit nach der Bewertung der Formate gefragt wird, die man auch schaut oder mal geschaut hat. Wenn ich etwas nicht mehr schaue, weil es mir nicht mehr gefällt, dann hat man es ja aber mal geschaut. Und das ist ja auch was man wissen möchte. Gefällt den Leuten, die Bohndesliga schauen, oder mal geschaut haben, so wie es ist oder eher nicht. Wenn da jetzt jemand negativ abstimmt, weil er kein Fußball guckt und somit nichts mit Bohndesliga anfangen kann, verfälscht das Ergebnis, weil man “gefällt mir nicht” hier als “interessiert mich nicht” missinterpretiert.

Nein, aber auch Uni-Pros können Umfragen kolossal in den Sand setzen (was hier ja nichtmal ansatzweise passiert ist.

Siehe:

1 „Gefällt mir“

Auch die Information, dass es X Personen nicht interessiert, ist doch für RBTV wichtig? Also können die Personen es doch neutral/negativ bewerten, wenn das Format überhaupt nicht deren Geschmack ist. Das Thema gefällt ihnen halt nicht, dass sie überhaupt nicht anschalten, auch wenn es vielleicht objektiv eine nett gemachte Sendung ist.
Die Detailfragen, warum es den Leuten dann vielleicht nicht gefällt/interessiert, müssen die Bohnen sich dann ja eh noch in Threads, Comments, Watchtime & Co anschauen :thinking: So haben die Bohnen nun eine grobe Übersicht, was nun gefällt und was nicht und welche Sendung bei vielen Leuten noch unbekannt ist, wo man besser für werben muss.
Es wäre natürlich toll, wenn alle Teilnehmer nach möglichst objektiven Kriterien bewerten, aber dann hat man ggf. eine doppelt so lange Umfrage, wenn man für jedes Format noch nach bestimmten Sachen fragt.

1 „Gefällt mir“

Wurde eigentlich erwähnt, oh die 27k Teilnehmer, die Gesamtanzahl an Teilnehmenden waren oder diejenigen, dessen Antworten man verwerten konnte? Wurde erwähnt, wie viele zudem abgebrochen haben?

Klar, aber sowas wie 17 Minuten DD Menüs, die auf Dauer weniger motiviert sind, sich weiter durch die Umfrage „zu quälen“, gab es da hoffentlich nicht. :smiley:

Ja die Information, ob sich jemand für ein Format interessiert, kann auch wichtig sein, darf nur nicht mit der Frage, ob einem ein Format gefällt gemischt werden. Es geht bei einer Umfrage doch darum, aus den Ergebnissen Schlüsse zu ziehen. Wenn jetzt bei Format Bohndesliga 50% der Leute mit 1 abstimmen, weil es sie nicht interessiert, die anderen 50% mit 5, weil sie es total geil finden, was soll man daraus für Schlüsse ziehen?

Es geht auch nicht darum einzelne Qualitätsfaktoren zu bewerten (das müsste man in einer ausführlicheren Umfrage pro Format machen).

Genau darum geht es, können sie im Moment nämlich 0, wenn Interesse und Qualität gemischt sind. Woran machst du fest, ob man besser werben muss oder nicht? Die Leute, die mit 1 abgestimmt haben können entweder welche sein, die das Format wirklich nicht kennen (mehr Werbung) oder es qualitativ nicht gut finden (Werbeaussage irrelevant). Genau das ist ja was ich zu erklären versuche. Es hat gar keinen Sinn Interessensumfrage und Qualitätsumfrage (grob in gefällt mir / gefällt mir nicht) zu mischen.

Ich fand die Formulierung in der Umfrage relativ deutlich dahingehend. Wie das jetzt jeder Einzelne aufgefasst hat kann ich nicht sagen, evtl. da wäre eine explizitere Formulierung, wonach abzustimmen ist vll. besser gewesen.

3 „Gefällt mir“

Nein, da die Befragung per Hand in 3 afrikanischen Dörfern von lokalen Experten durchgeführt wurde, war das eher keine Option :grin:

Die Rahmenbedingungen hättest du auch gestern schon erwähnen können. :smiley:

Ich glaube, ihr hattet es eeeetwas schwieriger als das hier :ugly:

Nein, aber man hat die Information, dass über 11k Leute das Feedback-Feld beantwortet haben, welches am Ende der Umfrage war:

D.h das mind. 11.346 Leute sind, die nicht abgebrochen haben.

ich würde hier tatsächlich davon ausgehen, dass 27 Tausend Teilnehmer die Umfrage abgeschlossen haben

1 „Gefällt mir“

Warum nimmst du das an? (bzw. woher die Vermutung)

Man zieht den Schluss, dass das Format sehr polarisiert und geht der Ursache auf dem Grund: “Oh, scheinbar haben viele Leute, die Sport überhaupt nicht interessiert, auch Bohndesliga bestraft”. Das Themeninteresse konnte man später ja noch auswählen. So kann man das dann einordnen und setzt nicht Bohndesliga plötzlich ab, sondern schließt vielleicht nur X weitere Fußballformate aus, weil die Sportfangröße nicht so riesig ist in der Community.

Damit meine ich die Auswählmöglichkeit “Keine Angabe”, die man wählt, wenn man das Format gar nicht kennt. Das zeigt ja, dass die Sendung für viele dann unbekannt ist.

Kann man die Zahl der abgebrochenen Umfragen überhaupt messen, wenn die Umfrage am Ende nicht abgeschickt wurde?

Es gibt Evaluationen, bei denen man nachvollziehen kann, wann abgebrochen wurde (bspw. ab Frage 25).

Ob das hier so gemacht wurde, weiß man gar nicht. Guter Einwand. :smiley:

1 „Gefällt mir“

Sowas lässt sich ja nicht generalisieren, aber für gewöhnlich werden am Ende dann eher die abgeschlossenen Fragebögen herausgestellt (hier Teilnehmer). Und wenn man noch die Anzahl der abgebrochenen erwähnen will, wird das meist als “Gesamtsample” irgendwo vermerkt.
Sicher sein können wir uns hier nicht, aber wäre für mich ein Indiz bisher

Aber genau das sieht man der Bewertung/dem Ergebnis nicht an! Hinter der 1 der Bewertung steht nicht wegen des Interesses oder wegen der Qualität. Das ist ja das Problem :smiley:

2 „Gefällt mir“