Die Noten des ÖRR wären noch besser, wenn sie nicht berechnet wären mit jeweils Linke = 0 und das bei sonstigen draufgeschlagen. 2 zusätzliche Abweichungen.
Intern hatten sie die Linken sicher auch >0,0, aber eben nicht so sehr relevant, um sie separat auszuweisen.
Für die Berechnung der Prognosegüte wird eine Partei, die von einem Anbieter nicht ausgewiesen worden ist, nicht gleich 0,0 gesetzt, sondern bei der Auswertung nicht erfasst. Alles andere würde das Ergebnis verfälschen.
Im vorliegenden Beispiel wurden für die Nachwahlumfragen lediglich die Prognosen für sieben Parteien herangezogen.
Weiteres unter: wahlfieber.de/de_du/forum/WaFi-Team/7585/
Die Noten des ÖRR wären noch besser, wenn sie nicht berechnet wären mit jeweils Linke = 0 und das bei sonstigen draufgeschlagen. 2 zusätzliche Abweichungen.
Intern hatten sie die Linken sicher auch >0,0, aber eben nicht so sehr relevant, um sie separat auszuweisen.
Für die Berechnung der Prognosegüte wird eine Partei, die von einem Anbieter nicht ausgewiesen worden ist, nicht gleich 0,0 gesetzt, sondern bei der Auswertung nicht erfasst. Alles andere würde das Ergebnis verfälschen.
Im vorliegenden Beispiel wurden für die Nachwahlumfragen lediglich die Prognosen für sieben Parteien herangezogen.
Weiteres unter: https://wahlfieber.de/de_du/forum/WaFi-Team/7585/
Danke für die Richtigstellung, also meine Fehlannahme.
Aber die Prognosegüte des ÖRR aus Nachwahlbefragung zzgl. ihren Verbiegungen durch Vorabwahlumfragen war dann auch so sehr ordentlich.
Für eine Nachwahlumfrage wird eine fünfstellige Personenzahl nach dem Verlassen des Wahllokals interviewt.
Man sollte annehmen, dass dabei eine Prognose entsteht, die signifikant genauer ist als alle Prognosen, die vor einer Wahl abgegeben worden sind. Ist dies mehrmals nicht der Fall, stellt sich sehr wohl die Frage, ob das Ergebnis die hohen Kosten rechtfertigt.Zumal es sich hier um Gebühren handelt, die nicht freiwillig geleistet werden.
Der ORF z.B. verzichtet auf solche Umfragen und veröffentlicht am Wahlabend nur Hochrechnungen.
Man sollte annehmen, dass dabei eine Prognose entsteht, die signifikant genauer ist als alle Prognosen, die vor einer Wahl abgegeben worden sind. Ist dies mehrmals nicht der Fall, stellt sich sehr wohl die Frage, ob das Ergebnis die hohen Kosten rechtfertigt.Zumal es sich hier um Gebühren handelt, die nicht freiwillig geleistet werden.
1. Ist "signifikant" ein Kriterium ? Das muß man spezifizieren. [alleine die Aussage "signifikant genauer ist als alle Prognosen, die vor einer Wahl abgegeben worden sind" schlägt euch jeder Statistik Professor um die Ohren].
2. das ist nun mal das Los alles Prognosen und Umfragen - ihre Qualität erkennt man erst NACH dem Eintritt des Ereignisses [nicht grundlos weisen alle Umfrageinstitute pausenlos darauf hin: Umfragen sind keine Prognosen]
3. es ist schlicht arrogant einen sehr guten Einser-Schüler (besser als 1,5) zu tadeln, nur weil andere Schüler auch eine Eins hatten.
Nach eurer eigenen Notenskala
4. Mal so nebenbei, etwas Grundkenntnis in Wahrscheinlichkeitstheorie - bei 15 oder 20 Tipps gibt es eine große Wahrscheinlichkeit, daß einer besser liegt als ein zuvor "ausgezeichnerter" Experte.
5. Sagt a priori, wer der beste ist: Wafi intern, FGW oder Romani seniores oder Dawum - legt euch da fest - dann vergleicht ! [nebenbei - die ganzen FGW, infratest usw machen doch zuvor auch Umfragen für den ÖRR - kosten die etwa nichts - die "Nachwahlbefragungen" dienen auch der Kalibrierung der eigenen tools - sind also ein Element zukünftige "Vorhersagen" zu verbessern].
6. Daher habe ich ganz speziell das Beipiel "Hessen" genommen - keine einzige Prognose oder Umfrage war besser als die beiden Nachwahlumfrage - au contraire - sie waren ALLE und zwar DEUTLICH schlechter ! Das ist "eigentlich" nicht zu erwarten. [das ist übrigens ein bias von "die Weisheit der vielen" - wenn alle unabhängig tippen sind sie besser/schlauer als wenn sie "abgestimmt" handeln, d.h. wenn alle die Tipps der anderen kennen - dann wird die Gruppe schlechter]
7. Auch von acht Einzeltipps der Wafi-User, inklusive MMI, waren alle schlechter als der schlechtere von der beiden Nachwahlbefragungen (GrouchoMarx und Hauke Haien hatten MAF 0.86)
8. Zum Kostenargument. Bei LTW wird in typisch 100-200 Wahllokalen befragt - selbst wenn ein "interviewer" 500 oder 1000€für einen Tag bekommt-bekäme, ist das ein Kostenfaktor bei den Kosten der gesamten Wahlberichterstattung? Es kostet jeden GEZ Gebührenzahle so etwa 0.3cent...
Bremen 2023
Berlin 2023
Niedersachen 2022
NRW 2022 – Nachwahlbefragung nicht ausgewiesen, bester Romani seniores, Aenii
Schleswig-Holstein 2022 – Nachwahlbefragung nicht ausgewiesen, bester WK
Saarland 2023 – Nachwahlbefragung nicht ausgewiesen, bester Civey
Aber dann oops ...
Berlin 2021
Meck-Pomm 2021
BTW 2021
Unbestritten: Bei den Vorwahl-Prognosen liegen die Wahlbörsen meistens recht günstig - meist auch eine oder beide auf dem Stockerl
Niedersachen 2022 mit Platz 4 und 5 eine Enttäuschung
Berlin 2023 mit Platz 10 und 11 ein Desaster
Um es vorweg zu sagen, ich habe keinen Vorschlag, der unumstritten ist.
Aber, eine Mittelwertbildung von drei Werten, die eine Größenordnung auseinander liegen, ist problematisch.
MAPF - basierend auf %-Abweichung [und nicht absoluten Werten] und eine Größenordnung über MAF - domimiert den Schnitt. ("Signifikant" wäre euer Duktus)
Die Rangfolge (ich nehme nur Wafi-Ergebnisse),
TOP 3 | MAF | MAPF | MQF | Note | |
Wahlfieber (intern) | 1 | 1,04 | 9,53 | 2,57 | 2,093 |
Wahlfieber | 2 | 1,04 | 9,70 | 2,41 | 2,094 |
Wahlfieber Team (MMI) | 3 | 1,04 | 10,15 | 2,31 | 2,12 |
Der gebildetet Mittelwert wird einzig dominiert vom MAPF. Der Bestwert bei MQF ist untergeordnet. Der Abstand MQF zw Wafi intern und MMI ist 0.26, alsi relative 10%, der MAPF sind relative 6%, be identischem MAF.
Eine wie auch immer gewichtete Mittelwertbildung (z.B MAPF duch 10, MQF durch 2.5 oder 3) würde die Rangfolge durcheinander wirbeln.
Beim Studium der Werte, hätte ich den Eindruck
wäre gerechter.
Siehe oben: Es gibt kein Maß. das alles fair erfaßt - aber die Einschränkung sollte dabei stehen.
Noch eine kleine Anmerkung: MAPF begünstig Angaben in Dezimalen oder Hundertstel wie bei Börsen und ist ein Nachteil für Umfragen, da mit veschiedenen Grundmengen gearbeitet wird. Börsenwerte sind auf hundertstel - Umfragen sind ganzzahlig bzw bei kleinen Parteien maximal halbzahlig.
Viele "kleine Parteien" sind dann nachteilig. Beispiel "Linke", vergesagt mit 3.0 - damit sind alle Werte zw 2.75 und 3.25 genauest möglich getroffen (in der Grundmenge "halbzahlig") - de facto trüge das im Schnitt schon mit 0.125/3 als in Prozent 4.17 zum MAPF bzw maximal zu 8.33 bei.
Zum "Newcomer" und aufstrebenden Player "Wahlkreisprognose". An anderer Stelle habe ich schon auf Eigenheiten hingewiesen: Nicht nur, daß Werte im zwei oder drei-Wochen Rhythmus nicht selten um 2-3-4% hüpfen; es fällt auf, daß die letze Prognose (ich sage mal böse, wenn andere daten auch auf dem Markt sind) sehr gut ausfällt, während die vorletzte Prognose meist schlecht bis sehr schelcht ist.
Umfrageinstitute "robben" sich auch an ihre "finalen Umfragewerte", aber nicht mit derartigen Sprüngen. Wie das mit der Methodik korreliert - no se.
Für eine Nachwahlumfrage wird eine fünfstellige Personenzahl nach dem Verlassen des Wahllokals interviewt.
Man sollte annehmen, dass dabei eine Prognose entsteht, die signifikant genauer ist als alle Prognosen, die vor einer Wahl abgegeben worden sind. Ist dies mehrmals nicht der Fall, stellt sich sehr wohl die Frage, ob das Ergebnis die hohen Kosten rechtfertigt.Zumal es sich hier um Gebühren handelt, die nicht freiwillig geleistet werden.
Der ORF z.B. verzichtet auf solche Umfragen und veröffentlicht am Wahlabend nur Hochrechnungen.
Meiner Meinung nach ist der Aufwand inzwischen nicht mehr gerechtfertigt, weil die "Befragten" nur noch die Minderheit der Grundgesamtheit "Wählende" ausmacht. Was bringt es, Zigtausende Urnenwähler zu befragen, wenn man die Briefwähler - inzwischen die Mehrheit der Wählenden - außen vorlässt? Daher hat man mMn z.B. in Bayern die Grünen überschätzt, weil dort aus irgendeinem Grund weniger Briefwähler grün gewählt haben im Vergleich zu CSU und SPD. Man könnte sehr viel günstiger normale Befragungen mit normalen Stichproben (2000 Befragte) durchführen, eine am Wahltag und eine aus dem Pool der Briefwähler, und hätte vermutlich bessere Ergebnisse.
Die MAFs sagen nicht viel aus, wenn z.B. Infratest die zweit- dritt und viertstärkste Partei falsch vorausgesagt haben. Das macht dann halt schon etwas aus, wer sich als Wahlsieger fühlen kann.
Meiner Meinung nach ist der Aufwand inzwischen nicht mehr gerechtfertigt, weil die "Befragten" nur noch die Minderheit der Grundgesamtheit "Wählende" ausmacht. Was bringt es, Zigtausende Urnenwähler zu befragen,
Wenn es "nur" um die 7 oder 8 Zahlen ginge, dann kann man die Frage nach dem Sinn der Nachwahlbefragung stellen.
[müßte man aber die Zuschauer hören: was ist ihnen die Information um 18h wert -(wirklich eine ewig alte Tradition) - genügt es um18h27 erste Zahlen aus Hochrechnungen zu haben - wobei ich stark davon ausgehe, daß die erste und zweite "Hochrechnung" noch stark an der Nachwahlbefragung hängen - schaut wenigstens so aus]
Aber, beide Institute erheben eine Unmenge Zahlen und Daten, die dann zum Teil schon in der Vorwahlberichterstattung ab 17:30 oder später am Abend einfließen. Was waren die Themen, Wahlmotive, Zufriedenheit mit Parteien, Personen, Regierungen ....
Wie erwähnt, dienen die Nachwahlbefragungen auch der Kalibrierung ihrer Methodik.
Und, so ganz nebenbei, werden die Methoden (zB mit Neuronale Netze) trainiert. Von anderen Anwendungen - schon vor wahrlich Jahrzehnten - weiß ich wie gut tools auf dem Gebiet trainierbar und lernfähig sind. Sie bieten gute Schätzungen selbst dann, wenn ein Teil und ein ganzer Typus der Info vorenthalten wird.
Die MAFs sagen nicht viel aus, wenn z.B. Infratest die zweit- dritt und viertstärkste Partei falsch vorausgesagt haben. Das macht dann halt schon etwas aus, wer sich als Wahlsieger fühlen kann.
... da kann man im Archiv graben. Eine Diskussion wie man "Rangfolge" bewertet, gab es schon. Insbesondere die Frage wie bewertet man "drin" oder "draussen" für eine Partei. ... beim MAF geht es mit 0.2/n=Zahl der Parteien ein, politisch ist das entscheidend.
Zum "Newcomer" und aufstrebenden Player "Wahlkreisprognose". An anderer Stelle habe ich schon auf Eigenheiten hingewiesen: Nicht nur, daß Werte im zwei oder drei-Wochen Rhythmus nicht selten um 2-3-4% hüpfen; es fällt auf, daß die letze Prognose (ich sage mal böse, wenn andere daten auch auf dem Markt sind) sehr gut ausfällt, während die vorletzte Prognose meist schlecht bis sehr schelcht ist.
Hat PrognosUmfragen heute erst ausgewertet, wie sich die Abweichung über den Verlauf von Anfang Juli bis zur Wahl entwickelt hat. Spoiler: es sieht gut aus für Prognos und schlecht für die WK Prognose...
https://twitter.com/PrognosUmfragen/status/1712370015415185662/photo/1
Ist es möglich so eine Kurve auch für die Wafi-Daten zu erstellen? Also von August an halt?
Zum "Newcomer" und aufstrebenden Player "Wahlkreisprognose". An anderer Stelle habe ich schon auf Eigenheiten hingewiesen: Nicht nur, daß Werte im zwei oder drei-Wochen Rhythmus nicht selten um 2-3-4% hüpfen; es fällt auf, daß die letze Prognose (ich sage mal böse, wenn andere daten auch auf dem Markt sind) sehr gut ausfällt, während die vorletzte Prognose meist schlecht bis sehr schelcht ist.
Hat PrognosUmfragen heute erst ausgewertet, wie sich die Abweichung über den Verlauf von Anfang Juli bis zur Wahl entwickelt hat. Spoiler: es sieht gut aus für Prognos und schlecht für die WK Prognose...
https://twitter.com/PrognosUmfragen/status/1712370015415185662/photo/1
Wer ist @PrognosUmfragen ? Das ist die Frage seit Jahren.
Ein X-twitter account hinter dem kein Institut steht. Zu den Zahlen gibt es keine Fakten. Typ Umfrage, Datum, Stichprobenumfang, sonstige Angaben zur Methodik.
Da ist Wahlkreisprognose deutlich - sie geben ihre Methoden an - wenn auch etwas schwammig (kein Erfolgreicher verrät alle Details).
Unbestritten ist, dass WK in den vergangenen LTWen gut abgeschnitten hat.
Das dokumentieren die grossen Übersichtstabellen von Wahlfieber.
In
https://www.wahlfieber.de/de_du/forum/Bundestagswahl/7813/129/#posting129
kurz zusammengefasst, wie dort angesprochen, scheint WK lange im Dunkeln zu tappen und dann kurz vor der Wahl erleuchtet zu werden.
Positiv in Bayern, sie haben 1 Monat vor der Wahl den Rückgang der SPD erahnt, aber zum Absturz auf 6,5% kam es nie. Zum gleichen Zeitpunkt wurden der CSU 42-41% zugesprochen. Das hatten sie alleinig.
Und am Ende waren sie bei Platz 2-4 mit Grün-orange-blau im mainstream, nachdem sie 18 Tage vor der Wahl die FW auf Rang 2 hatten - mit 17,5%.
Spoiler: es sieht gut aus für Prognos und schlecht für die WK Prognose...
Am Ende kackt die Ente - und die Graphik sagt, wer da besser war.
Beim Sport geht es beim 100m Lauf nicht darum, wer besser aus dem Startblock kommt - oder zwischendurch die Nase vorne hatte. Gewonnen hat, wer nach 100 m die (nein nicht Nase) Schulter (eigentlich "Rumpf", Hüfte bis unter Schulterblatt) vorne hat.
Wahlfieber, originally a platform from the German-speaking world, offers (user-based) forecasts on elections worldwide - using political prediction markets without applying any algorythm.
Germany / Austria / Switzerland
All national and state elections as well as selected local, mayoral and party elections
Europe
Almost all national elections as well as selected presidential, regional and local elections and votes.
USA
All presidential, senatorial and house elections (including mid-term and most presidential primaries/caucusses) as well as important special and state elections.
UK
All national and state elections as well as important special, local and mayoral elections and votes.
Worldwide
National elections - including Australia, Canada, Israel, Japan, New Zealand, etc.
This is how you contribute to the prediction - See the Infocenter
Please send error messages and feedback by email to: help@wahlfieber.com