Content-Evaluation 2020

Meine Frage war, ob das so im BtB besprochen wurden oder nicht, weil es an sich, für den Zuschauer egal sein sollte. ^^ Für die wissenschaftl. Arbeit selbst, hoffe ich, dass sie es so gemacht haben.

nein wurde nicht erwähnt

Danke :smiley:

Da wäre es eine Möglichkeit gewesen, entweder die Frage umzuformulieren oder eine Option „kein Interesse“ anzugeben. Vieles, was die 1 kassiert hat, hatte nichts dem Format zu tun, während es in anderen Fällen als Bewertung des Formats galt.

Was meiner Meinung nach aber auch zum Großteil an den Usern liegt, da ich die Formulierung “was euch gefällt und wie ihr es schaut” relativ gut einordbar finde. Ich hätte da nie nach Interesse abgestimmt und habe bei Formaten, die ich nicht schaue “keine Angabe” ausgewählt, so wie es auch im Umfragetext vorgeschlagen war.

2 „Gefällt mir“

Das wurde bei der letzten zweigeteilten Umfrage dann so gelöst:

Einmal wurden die Shows benotet (also die Qualität mit Schulnoten beurteilt)

Später gab es eine Frage da sollte man explizit die Shows nach Interesse werten
(Ranking)- da war tatsächlich nicht die Qualität gefragt sondern ob man eine Show interessant findet.

1 „Gefällt mir“

So, nun aber:

Das stimmt natürlich.

Eine offensichtlich fehlerhafte Studie ist meist besser als eine, deren Probleme man nicht auf den ersten Blick sieht.

Ich will mir hier kein Urteil über die Qualität der Auswertung erlauben, da wir dazu kaum Informationen haben, aber es reicht schon, dass man der Annahme erliegt, dass die 27k Teilnehmer der Studie eine repräsentative Stichprobe darstellen obwohl es offensichtliche Bias gibt um die Ergebnisse enorm zu verzerren.

Im Endeffekt kann man ohne die gesamte Auswertung die Evaluation eh nicht wirklich beurteilen. Ich hoffe den Bohnen und dann auch schlussendlich uns bringt das was und man zieht daraus die richtigen Schlüsse.

Also in der Grundgesamtheit sehe da überhaupt keine Probleme.
Das ist sogar recht umfangreich für eine Umfrage.

Zudem Repräsentativität jetzt kein groß herausgestelltes Merkmal war.
Es sollte den “Stand” der Zuschauer abfragen. Das hat es getan

2 „Gefällt mir“

Weil du meinen folgenden Satz nicht mitzitiert hast :smiley:
Wenn 50% Bohndesliga schlecht bewerten und man sich im Detail diese Gruppe anschaut, dann kann man auch zu Erkenntnisse durch die Umfrage kommen:
Zum Beispiel 85% der Leute, die später ankreuzen, dass sie kein Sportinteresse haben, bewerten Bohndeliga eher neutral/negativ. Dann weiß man, dass es nicht an der Qualität an sich liegt, sondern dass dort eher nach Interesse bewertet wurde, weil sie mit Sport nichts anfangen können. Und man kann sich noch weitere Details anschauen. Die Umfrage wird ja nicht ohne Grund wochenlang analysiert.

Was dazu führt, dass man erst Zahlen einrechnet, um sie später wieder rausrechnen zu müssen :smiley: Sehr sinnvoll. Nicht, dass ich missverstanden werde. Die Umfrage fand ich so wie sie war gut! Ich kritisiere hiermit eher die User, die nicht im Sinne der Umfrage abgestimmt haben, wie oben beschrieben.

Zudem sich das so dann auch wohl zu komplex auffächern würde. Dann müsste man quasi für jedes Format je nach Note (auch da nochmal unterscheiden), einen “Entscheidungsbaum” aufmachen, und alle Untergruppen betrachten. Die die Kino+ mit 6 bewertet haben ob sie Kino Interesse haben. Wie sie ähnliche Shows gewertet haben. Die die Bohndesliga mit 6 gewertet haben usw. Je nach Show ist das Interesse nicht mal direkt abgefragt, sondern indirekt.
Da ist einfach kA zu nehmen doch klarer und simpler.

1 „Gefällt mir“

:ugly:
Das sollte eigentlich niemals das Fazit sein. :smiley:

Ich weiß nicht. Es steht, wenn man das Format nicht kennt, kennen kann man es aber, ohne 2 Stunden geguckt zu haben, weil es einem nicht gefällt. Aber das hattet ihr ja diskutiert.

Da „die Schuld“ dem User zuzuschieben, finde ich schon interessant. ^^

1 „Gefällt mir“

Das ist aber doch Blödsinn da eben, trotz allem, nicht ausdrücklich unterschieden wurde zwischen “kenne ich nicht” und “schaue ich nicht” bzw. der Abstimmende selbst interpretieren musste was man dann anzukreuzen muss wenn man die Sendung zwar kennt aber, aus welchen Gründen auch immer, nicht schaut.

Kreuzt man k.A. an wie im Screenshot von @Esco oben angegeben wird es eher als der User kennt die Sendung gar nicht gewertet. Gibt man eine schlechte Bewertung, wird es als “findet die Sendung nicht gut” gewertet. Beides trifft aber nicht zu. Nur hat der User selbst da nicht die Schuld daran, da es die passende Auswahlmöglichkeit gar nicht gibt.

Jetzt wo ich so darüber nachdenke glaube ich, dass ich in diesen Fällen den Sendungen einfach eine neutrale/mittlere Bewertung gegeben habe. Aber auch das ist dann meine eigene Interpretation gewesen was man in einem solchen Fall machen sollte und jeder der die Umfrage ausfüllt interpretiert nunmal für sich selbst, wenn es keine klare Anweisung für diesen bestimmten Fall gibt.

5 „Gefällt mir“

Weil es für die Bewertung der Qualität auch keinen Unterschied macht. Nach Interesse wurde ja später explizit gefragt. Daher war die Option “keine Angabe” ja vorhanden. Wer die nicht genommen hat und eine Bewertung abgegeben hat, obwohl er dazu eigentlich keine Aussage hat treffen können, hat m.E. falsch abgestimmt. Finde die Formulierung, die man im Screenshot sieht auch verständlich genug: Man konnte abstimmen wie sehr das Format gefällt (gar nicht bis sehr gut) und wie man es schaut. Wenn ich es nicht schaue, dann hat es absolut keinen Sinn vorne irgendwas anderes als “keine Angabe” auszuwählen.

1 „Gefällt mir“

Irgendwie schon, aber ein kleiner Nebensatz wie “Wenn du das Format nicht kennst oder nicht schaust kreuze k.A. an” wäre einfach deutlicher gewesen. Klar das ist vermutlich kein Gamechanger, trotzdem ein wenig unglücklich finde ich.

3 „Gefällt mir“

Das stimmt, noch etwas mehr Deutlichkeit hätte nicht geschadet :smiley:

Was der Abstimmende auch nicht wusste.

Sehe ich genauso.

Wäre die Stichprobe wirklich zufällig, wären 27k Antworten extrem viel, aber genau dieses Merkmal sehe ich nicht.

Ein Gedankenexperiment: Wir unterteilen die RBTV Zuschauer in zwei Gruppen, Vielschauer (A) und Wenigschauer (B). In Gruppe A fallen 25% der Zuschauer und in Gruppe B fallen 75%.

Nehmen wir nun an, dass jede Person in Gruppe A doppelt so wahrscheinlich die Umfrage beantwortet (höheres Investment etc.) wie eine Person aus Gruppe B führt es dazu, dass in unserer Umfrage Gruppe A 40% ausmacht und Gruppe B 60%

Zur Verifikation der Umfrage müsste man also Informationen die man über die Grundgesamtheit (z.B. aus YouTube/Twitch Viewer Daten) hat heranziehen und entsprechende Korrekturen bei der Gewichtung vornehmen.

Die Repräsentativität bezieht sich hierbei natürlich auf die Grundgesamtheit RBTV Zuschauer und nicht Zielgruppe oder Gesamtbevölkerung.

Warum solche Mutmaßungen? In der Umfrage wird das Konsumverhalten gleich am Anfang abgefragt.Also innerhalb der Umfrage kann man das sehr genau beurteilen.

1 „Gefällt mir“