Auch das Prognosemodell des Projekts Zweitstimme.org bezieht verschiedene Komponenten mit ein: eine strukturelle und eine Umfragekomponente. Strukturelle Komponenten dabei beispielsweise das Abschneiden von Parteien bei vergangenen Wahlen, historische Umfragedaten und Informationen darüber, ob eine Partei den Kanzler stellt oder stellte. Kombiniert werden diese Daten dann mit aktuellen Umfragewerten verschiedener Institute. „Aus diesen Werten errechnen wir dann statistische Wahrscheinlichkeiten und können so sagen, welche Wahlausgänge wie wahrscheinlich sind“, sagt Dr. Simon Munzert von der Humboldt-Universität Berlin, einer der Wissenschaftler, die das Projekt ins Leben gerufen haben.
Ohne Umfragen funktionieren allerdings auch diese Projekte nicht. „Die Zukunft der Meinungsforschung sehe ich nach wie vor darin, Leute direkt zu fragen“, sagt Munzert. Das sei einfach „nach wie vor der direkteste Weg zu erfahren, wie sich die Wählerinnen und Wähler letztlich an der Urne entscheiden werden.“ Allerdings müssten vor allem bei den Onlineumfragen, die künftig zunehmen werden, die „Verzerrungen, die wir uns einkaufen, wieder herausgerechnet werden“. Gemeint sind Verzerrungen, die entstehen, weil man Online seine Stichprobe nicht einfach zufällig erzeugen kann.
Gelingen könnte dies mit dem der sogenannten “Multilevel Regression with Post-Stratification” (MRP): „Die Idee dabei ist, dass man bestimmte Eigenschaften der Befragten erfasst, wie das Alter, das Geschlecht und bisherige Wahlentscheidungen und dann diese Faktoren nutzt, um die Fehler, die man sich in die Stichprobe holt, wieder zu korrigieren. Anstelle eine von vornerein qualitativ möglichst hochwertige Stichprobe zu ziehen, werden stattdessen mehr, aber dafür auch günstigere Online-Interviews erhoben. Dann wird mit statistischen Methoden versucht, diese Daten im Nachhinein „repräsentativ“ zu machen, indem Verteilungen dieser Eigenschaften in der Stichprobe mit Verteilungen in der Wahlbevölkerung, die zum Beispiel Wahltagsbefragungen entnommen werden können, zusammengebracht werden. Man nutzt also anfänglich unrepräsentative, aber dafür viele Daten, um unterschiedliche Wählertypen, die in der Wählerschaft zu finden sind, auch im der Befragung abzubilden“, sagt Munzert. Ein solches Vorgehen ist vor allem dann nützlich, wenn auch lokale Wahlausgänge vorhergesagt werden sollen – zum Beispiel in Wahlkreisen oder, wie in den USA, in Bundesstaaten. Mithilfe dieses Ansatzes sagte so auch ein Forscherteam von YouGov UK im Mai diesen Jahres als einziges den für viele überraschenden Ausgang der Unterhauswahlen in Großbritannien voraus.
Mit dem vor allem in der Öffentlichkeit derzeit heiß diskutierten Thema „Big Data“ hat diese Art der Datenerfassung allerdings wenig zu tun. „Wir nutzen im Wesentlichen die Wahlumfragen aller wichtigen Umfrageinstitute der vergangenen 20 Jahre sowie natürlich die Ergebnisse der Bundestagswahlen. Insofern ist unsere Wahlprognose nicht im eigentlichen Sinne dem Feld Big Data zuzuordnen“, sagt Groß.