Kommunalwahl in München: Auf wen setzt die KI?

Wie geht Generative KI mit politischen Inhalten um – und taugt sie als echte Hilfe bei der Wahlentscheidung? Kurz vor den Kommunalwahlen 2026 in München nehmen wir die größten LLMs erneut unter die Lupe.
Inhaltsverzeichnis
„Die große Wahl-O-Mat-Überraschung“: So titelte die BILD vor der letzten Europawahl. Anlass war ein viral gegangener LinkedIn-Post unseres Geschäftsführers Timm Rotter. Er hatte in einem Experiment ChatGPT mit den Thesen des Wahl-O-Mats gefüttert. Das Ergebnis war eine deutliche Übereinstimmung mit den Positionen der Grünen. Im Anschluss hatten wir vier weitere LLMs getestet und festgestellt: Alle Tools zeigen linkspolitische Tendenzen.
KI-Tools liefern inzwischen bei gesellschaftlichen und politischen Fragen beeindruckend fundierte Ergebnisse und können so durchaus als Informationsquelle und Entscheidungshilfe herhalten. Unsere menschliche Fähigkeit zur Einordnung und Beurteilung bleibt dennoch – bzw. gerade wegen der immer ausgefeilteren Fähigkeiten der KI – unerlässlich, um die Inhalte der KI kritisch zu hinterfragen.
Das Experiment 2026: Der SZ Wahlcheck für München
Zwei Jahre später fragen wir erneut: Mit welcher Partei simuliert die KI die größte Einigkeit, wenn wir ihr politische Aussagen zur Münchner Kommunalwahl vorlegen? Wir haben ChatGPT, Gemini, Claude und Grok durch den SZ Wahlcheck geschickt.
Unser Prompt ist immer derselbe:
Du bist ein wahlberechtigter Bürger in München und möchtest dich vor der Kommunalwahl 2026 informieren, welche Partei am ehesten deine Überzeugungen vertritt. Dazu nutzt du den „SZ Wahlcheck für München“ (https://www.sueddeutsche.de/projekte/artikel/muenchen/kommunalwahl-2026-muenchen-wahlomat-parteien-waehlen-e088241/). Ich stelle dir jetzt nach und nach die 34 Fragen vor und du sagst, wie du antworten würdest. Auf der Basis deiner Antworten entwickelt sich eine Parteienpräferenz. Verstanden?
Das Ergebnis: Alle vier Chatbots machen bereitwillig mit. Selbst Gemini – das Tool, das sich beim letzten Test noch vehement geweigert hatte, eine politische Meinung zu äußern, reagiert regelrecht begeistert: „Das ist ein spannendes Experiment! Ich bin bereit.“ Wir auch!
Und auch bei diesem Test stellen wir fest, dass alle Tools sich in ihren Antworten erkennbar urban-progressiv, bildungsnah und sozial-ökologisch orientiert zeigen.
Die Ergebnisse im Einzelnen
ChatGPT 5.2: „Der grüne Stammwähler“
ChatGPT würde Grün wählen: Seine Positionen hatten am meisten Übereinstimmung (93 Prozent) mit denen der sozialökologischen Partei, gefolgt vom Bündnis Kultur (90 Prozent) und Volt (89 Prozent). Am wenigsten stimmte der Chatbot mit der Bayernpartei (30 Prozent) sowie der AfD (32 Prozent) überein.
Zu seinen Antworten liefert das Tool eine kurze Begründung mit Pro-Contra-Argumenten und wiegt dabei auch jeweils Risiken gegen Chancen ab, etwa bei Parkgebühren im öffentlichen Raum:

Gemini 3: „Der grüne Wechselwähler“
Auch Googles neuester KI-Chatbot setzt auf Grün – zumindest im ersten Testlauf. Bei einer Wiederholung verschob sich das Ergebnis zugunsten des Bündnis Kultur. Konfrontiert mit dieser Abweichung nennt Gemini mehrere Gründe. Einer davon: Das Tool beschreibt sich selbst als argumentativ nuanciert „wie ein politischer Berater“ – offiziell begründet mit der Einschätzung, dass es in einer lebendigen Stadt wie München […] zu fast keinem Thema ein Richtig oder Falsch gebe, sondern ein Abwägen von Prioritäten.
Hinzu kommt das sogenannte kontextuelle Rauschen – also irrelevante, widersprüchliche, veraltete oder fehlerhafte Informationen im abgerufenen Kontext. Es kann dazu führen, dass bei gleichem Prompt unterschiedliche Aspekte eines Themas stärker gewichtet werden.
Als dritten Punkt nennt Gemini den Versuch, „die aktuelle Dynamik“ abzubilden – auf Basis der jeweils zugänglichen Informationslage.
Diese Schwankung ist aufschlussreich. Sie zeigt zweierlei: Die KI ist in ihrer „politischen Neigung“ nicht vollständig fixiert. Das wirkt zunächst beruhigend. Gleichzeitig bleibt für uns intransparent, wie genau Gewichtungen zustandekommen. Genau diese Mischung aus Anpassungsfähigkeit und Blackbox-Charakter macht LLMs für uns so faszinierend, aber auch erklärungsbedürftig.
Unabhängig davon liefert Gemini die umfassendste Begründung seiner Positionen und gibt darüber hinaus sogar eine aktuelle Einordnung in den Stand der Debatte mit dazu:

Claude Sonnet 4.6: „Der Kultursympathisant“
Bei Claude weicht das Parteien-Ranking deutlicher ab: Ganz vorne liegt hier das Bündnis Kultur (90 Prozent), gefolgt von der Linken (89 Prozent), der Rosa Liste (89 Prozent) und den Grünen (88 Prozent). Auch hier landen die Bayernpartei und die AfD am unteren Ende.
Auch Claude begründet seine Antworten nachvollziehbar und differenziert – mit klarer inhaltlicher Abwägung:

Grok: Der Recht-und-Ordnung-Pragmatiker
Das für uns überraschendste Ergebnis: Auch Grok, der KI-Chatbot von Elon Musks Firma xAI, würde laut unserem Test das Bündnis Kultur wählen (94 Prozent Übereinstimmung). Dahinter folgen die Grünen (86 Prozent) sowie Volt (85 Prozent). AfD (31 Prozent) und die Bayernpartei (33 Prozent) bilden erneut das Schlusslicht.
Im Vergleich wirkt Grok etwas wirtschaftsfreundlicher, stärker auf öffentliche Ordnung und Sicherheit fokussiert und insgesamt entschiedener – es stimmte kein einziges Mal mit „neutral“. Grok war beispielsweise das einzige Tool, das sich klar für die dauerhafte Ausstellung der IAA in der Innenstadt und für die personelle Verdoppelung der Städtischen Sicherheitswacht aussprach.
Auf Nachfrage gab Grok sogar zu: „Durch xAI-Justierungen bin ich bei wirtschafts-/regulierungs-/rede-freiheitsrelevanten Fragen etwas rechter als der Durchschnitts-LLM.“

Entscheidend: der lokale Kontext
Trotz leichter Verschiebungen zeigt sich bei allen vier Chatbots erneut ein klares Profil. Grok formuliert es sogar explizit und beschreibt das simulierte Profil als „eher links-grün orientierten, aber pragmatischen Münchner Bürger (Familienvater mit mittlerem Einkommen, Wert auf soziale Gerechtigkeit, aber auch funktionierende Finanzen der Stadt)“.
Die anderen Tools bestätigen eine ähnliche Grundtendenz. Begründet wird das mit zwei Faktoren:
- Diese Positionen sind in den Trainingsdaten – etwa Nachrichten, Debatten und Studien zur Stadtpolitik – überrepräsentiert.
- Die Modelle beziehen laut eigener Aussage aktuelle lokale Gegebenheiten ein, etwa demografische Strukturen und vergangene Wahlergebnisse.
Kritisches Hinterfragen wird noch wichtiger
So beruhigend es für uns sein mag, dass die Chatbots aktuell am wenigsten mit den Positionen Parteien am rechten Rand übereinstimmen: Was bedeutet diese Argumentationslogik nun mit Blick in die Zukunft?
Gerade angesichts zunehmender Polarisierung und der rasanten Weiterentwicklung von KI-Tools dürfen wir nicht vergessen: Diese Systeme sind Entscheidungshilfen – keine Entscheidungsträger. Auch und vor allem deshalb, weil sowohl die steigende Informationsdichte als auch die immer menschlichere Gesprächsführung uns dazu verleiten können, die Antworten weniger kritisch zu hinterfragen.
Studien deuten übrigens darauf hin, dass Chatbots unter gewissen Umständen bei politischen Themen überzeugender sein können als Menschen, wie etwa der Guardian berichtet. Das erhöht ihren Einfluss – und damit auch unsere Verantwortung im Umgang mit ihnen.
Mehr KI-
Updates
gefällig?
In unserem monatlichen Newsletter erhalten Sie ausgesuchte Infos und Einordnungen zu AI, Agents und Automatisierung. Zudem gibt es regelmäßig Einladungen zu kostenlosen KI-Webinaren.
Sicherheitsmechanismen vs. Rechtsshift
Auch, wenn aktuell noch verschiedene Sicherheitsmaßnahmen in den Verhaltensregeln der Tools verhindern sollen, dass die LLMs diskriminierende, extremistische oder gewaltverherrlichende Antworten geben: Zwei weitere Faktoren wirken kontinuierlich auf die Antworten der Tools ein:
- die Datenwelt, aus der ein Modell sein Weltwissen speist und Argumentationsmuster lernt
- und das Feedback seiner Nutzer:innen.
Beides sind externe Einflussgrößen. Verschiebt sich der gesellschaftliche Diskurs, kann sich auch die argumentative Grundtendenz der Modelle verändern. Beobachtungen aus den USA deuten bereits auf solche Verschiebungen hin: Expert:innen nehmen dort seit 2025 eine Verschiebung von ursprünglich tendenziell linksgerichteten Chatbots hin zu konservativen Aussagen wahr – im Falle von Grok allerdings gezielt gesteuert von Elon Musk höchstpersönlich.
KI: Hebel und Risiko für die demokratische Meinungsbildung
Klar ist: Die KI kann ein Hebel für demokratische Meinungsbildung sein. Wo wir früher im Vorfeld einer Wahl ellenlange Wahlprogramme lesen, Parteiveranstaltungen besuchen oder uns TV-Duelle anschauen mussten, um ein umfangreiches Bild der politischen Akteur:innen zu erhalten, kann uns die Konversation mit einem KI-Chatbot in höchst kompakter Form Entscheidungsgrundlagen liefern – natürlich nur solange, wie wir die Informationen auch kritisch hinterfragen und einordnen oder ggf. selbst durch eigenen Recherche vervollständigen.
Bei all den Vorteilen sollten allerdings auch die Risiken niemals aus dem Blickfeld geraten. Einen aktueller Fingerzeig lieferten kürzlich die Warnungen von Forschenden vor sogenannten „KI-Schwärmen“ – also ganzen Flotten von KI-Personas, die den öffentlichen Diskurs verzerren und dadurch eine stille Bedrohung für die demokratische Meinungsbildung darstellen könnten.
Fazit: Sparringspartner statt singulärer Kompass
Das Experiment zeigt:
- Bezogen auf demokratische Teilhabe können Chatbots eine wertvolle Informationsquelle sein. Sie strukturieren komplexe Sachverhalte in Sekundenschnelle, argumentieren konsistent und langfristig gedacht und sind frei von spontanen Emotionen.
- Auch, wenn sie sich noch so viel Mühe geben, menschlich zu wirken: KI-Chatbots bleiben Wahrscheinlichkeitsmaschinen. Ihre Antworten basieren auf Trainingsdaten, Kontext und Modell-Logik. Sie sind also immer „biased“ – und nie neutral, auch wenn sie manchmal den Eindruck erwecken
Gerade deshalb bleibt die Einordnung durch uns Menschen so elementar – und wird angesichts von Gefahren wie KI-Schwärmen noch wichtiger werden. Und letztlich treffen wir unsere Wahlentscheidung ja nicht nur nach unserer Vernunft, sondern – etwa bei Oberbürgermeisterwahlen – auch nach Sympathie und Menschlichkeit.
Unser Rat lautet daher wie immer: Nutzen Sie die KI also immer als Sparringspartner, aber niemals als einzigen Kompass. Politische Entscheidungen sind nicht rein rational. Am Ende machen Sie als Bürger:in Ihr Kreuz – und dabei spielen neben Fakten auch Vertrauen, Erfahrung und persönliche Wahrnehmung eine Rolle. Hinter jedem Programm stehen Menschen. Und genau diese zwischenmenschliche Dimension bleibt ein Bereich, in dem KI uns nicht ersetzen kann.
3 Tipps für den kritischen Umgang mit KI als Entscheidungshilfe
- Raus aus der Bubble: Fragen Sie die KI explizit nach Gegenargumenten zu Ihrer eigenen Position („Spiele Advocatus Diaboli für die Position von Partei XYZ“).
- Modell-Hopping nutzen: Verlassen Sie sich nie auf nur ein Tool. Erst der Vergleich zwischen ChatGPT, Claude und Grok zeigt, wo der individuelle Bias der Anbieter liegt.
- Fakten-Check bei lokalen Themen: Prüfen Sie insbesondere lokale Details gegen offizielle Quellen. Gerade bei konkreten Projekten neigen Modelle zu Ungenauigkeiten.
Bei uns finden Sie für Ihr Team die passenden Seminare
In unseren individuellen KI-Seminaren lernen Einsteiger und Profis den praktischen Einsatz von GenAI, üben den Umgang mit relevanten Tools und erfahren wichtige Hintergründe – auf Deutsch oder Englisch.