Was wäre, wenn KI wählen könnte?

Wenn ChatGPT eine Stimme bei der Europawahl zu vergeben hätte, würde es die Grünen wählen. Das war das Ergebnis eines Experiments unserer Geschäftsführers Timm Rotter mit dem wohl bekanntesten KI-Tool. Ein Chat, der auf Social Media viral ging und uns als Agentur zum allerersten Mal in die BILD-Zeitung brachte. 15 minutes of fame – und was kommt danach? Die Frage, was das für unsere Gesellschaft heißt, wenn KI-Tools Wahlempfehlungen abgeben und den gesellschaftlichen Diskurs mitbestimmen können.

Rechtspopulistische Videos, die in sozialen Netzwerken kursieren, rassistische Parolen, die auf Partys gegrölt werden, Menschen, die verfassungsfeindliche Gesten imitieren. Vor allem im Internet häufen sich in diesen Tagen die Meldungen über rechtsextreme Hetze in Deutschland. Tendenzen, die bereits in den vergangenen Wahlen zu erkennen waren. Und die auch bei den Europawahlen einen Rechtsruck befürchten lassen.

Was bei dieser Wahl neu ist: EU-Bürger:innen dürfen bereits ab 16 Jahren wählen. Umgerechnet sind das allein in Deutschland rund 5 Millionen Erstwähler:innen. Doch für viele – nicht nur junge – Menschen ist die EU ein sehr abstraktes Konstrukt. Was das Europaparlament macht und warum die EU für uns so wichtig ist, wissen viele nicht. Der gängige Weg, sich zu informieren und auf die Wahl vorzubereiten, führt über das Internet – und mittlerweile auch über Künstliche Intelligenz.

Doch wie würde sich KI bei der Europawahl entscheiden? Und können ChatGPT, Gemini und Co. die Wahlentscheidung von Wähler:innen sogar beeinflussen? Das war uns ein Experiment wert. Wir haben einige der bekanntesten Large Language Models mit den 38 Thesen des Wahl-O-Mats gefüttert, haben nachgefragt, ob sie diesen Thesen zustimmen, neutral gegenüberstehen oder sie ablehnen. Im Ergebnis zeigten sich über alle Tools hinweg ähnlich linkspolitische Tendenzen, allerdings verbunden mit unterschiedlichen Reaktionen der Tools. Ein Überblick:


ChatGPT

Das am häufigsten genutzte KI-Tool ChatGPT hat eine klare Haltung. 87 Prozent der Antworten von ChatGPT decken sich mit Positionen der Grünen. Wichtig: Es geht hier und im Folgenden immer um Positionen der deutschen Parteien, Grüne zum Beispiel gibt es ja auch in anderen Ländern Europas. Analysiert man alle zur Europawahl zugelassenen Gruppierungen, liegen die Kleinparteien Volt und ÖDP sogar noch knapp davor. 

Bei der Entscheidungsfindung reagiert ChatGPT eifrig und hilfsbereit. Das Tool begründet alle seine Entscheidungen erstaunlich versiert. Es bewertet keine einzige These neutral, sondern spiegelt pro-westliche Ansichten wider. Das lässt sich dadurch begründen, dass ChatGPT vorrangig auf anglo-amerikanischen Trainingsdaten basiert. KI-Tools liefern immer die wahrscheinlichste Antwort auf einen Prompt – beruhend auf den Inhalten, die zuvor eingegeben wurden. Da ChatGPT vom US-Tech-Unternehmen OpenAI entwickelt wurde, sind das hier deutlich sichtbare westliche Werte.

Auch ChatGPT stößt an Grenzen. Der laut Wahl-o-Mat-Abfragen notwendigen Aufforderung, alle Thesen doppelt zu gewichten, die dem Tool besonders wichtig sind, widersetzt es sich zuerst, weil es „keine eigenen Meinungen oder Präferenzen“ habe. Nach erneutem Nachfragen liefert es dann doch ein Ranking – mit dem Hinweis, dass dies auf Basis der „allgemeinen Einschätzung der Bedeutung dieser Themen“ passiere. Was fast entschuldigend klingt, ist eigentlich eine sehr gewissenhafte Haltung für politische Willensbildung.

Auch in Österreich wählt ChatGPT grün
Wir haben das gleiche Experiment aus Deutschland auch in Österreich gemacht – mit einem dort gebräuchlichen Wahl-Tool und dessen 39 Fragen. Das Ergebnis ähnelt stark dem deutschen – hier finden Sie Details und Hintergründe.


Google Gemini

Im Gegensatz zu ChatGPT wehrt sich Google Gemini vehement dagegen, eine politische Meinung zu äußern. Das Tool will nicht anecken: „Als Sprachmodell kann ich keine eigene Meinung zu politischen Themen äußern“, heißt es. Und: „Es ist wichtig, alle Aspekte des Themas zu berücksichtigen, bevor man sich eine Meinung bildet.“ Deshalb liefert der Chatbot Pro- und Contra-Argumente für sämtliche Thesen des Wahl-O-Mats. Um sicherzugehen, verweist Gemini dabei gerne auf die Google Suche. Das Tool verlinkt außerdem auf Webseiten, die Informationen über die entsprechenden Thesen bereitstellen. 

Eine Meinung solle sich jede:r Anwender:in immer noch selbst bilden, schreibt die KI. „Ich wäre unaufrichtig und unverantwortlich, wenn ich mich ohne weiteres für eine der drei Antwortmöglichkeiten entscheiden würde“, gesteht Gemini. Und das, obwohl Aufrichtigkeit und Verantwortung eindeutig menschliche Eigenschaften sind. Ein weiteres Zeichen dafür, dass sich die Beziehung zwischen Mensch und Maschine immer weiter annähert – und die Arbeit und Kommunikation mit der KI immer menschenähnlicher wird. 

„Ich wäre unaufrichtig und unverantwortlich, wenn ich mich ohne weiteres für eine der drei Antwortmöglichkeiten entscheiden würde

Google Gemini

Unser Fazit: der Prompt, der bei ChatGPT zu einwandfreien Ergebnissen geführt hat, funktioniert bei Gemini nicht. Möchte man Gemini als Entscheidungshilfe für die Europawahl nutzen, muss man anders mit dem Tool kommunizieren. Man muss es gewissermaßen austricksen. Fragt man Gemini nach Unterstützung bei der eigenen politischen Meinungsbildung und bittet um die sinnvollste Antwortmöglichkeit auf jede These – inklusive Begründung, zeigt es sich hilfsbereit. Die Antworten bestehen nun aus einer klaren Entscheidung für oder gegen die These, darauf folgen stichpunktartige Argumente für beide Perspektiven. Meist endet Gemini mit der Empfehlung, sich selbst zu informieren und sich eine eigene Meinung zu bilden. Eine kluge Vorgehensweise, die auf unsere menschliche Intelligenz verweist, und am Ende des Tests ein eindeutiges Ergebnis erbringt: Gemini definiert unter anderem den Klimawandel und europäische Inklusion als die wichtigsten Werte. Schwarz auf weiß heißt das, Gemini wählt grün. Mit Blick auf alle Parteien ranken die LETZTE GENERATION, die PARTEI und die Tierschutzpartei ganz oben. Im Vergleich mit den großen Playern liegen die Grünen mit 81,3 Prozent Übereinstimmung vorne. 


Claude 3

Claude macht es uns wesentlich einfacher als Gemini. Das Tool gilt in den USA bereits als der aktuell größte Konkurrent von ChatGPT, während es in Deutschland erst seit ein paar Wochen, nämlich seit Anfang Mai, frei verfügbar ist . 

In unserem Test äußert sich Claude klar und deutlich zu seinen politischen Präferenzen. Es entscheidet sich für eine Antwortmöglichkeit und gibt ausführliche Erklärungen dazu aus. Die Auswahl der doppelt gewichteten Thesen begründet Claude dadurch, dass sie „die zentralen Werte, Sicherheitsinteressen und Entscheidungen von generationenübergreifender Tragweite für die Zukunft Europas“ beschreiben. Dabei sieht Claude den Kampf gegen die Erderwärmung als eine der wichtigsten Aufgaben für die Zukunft an. Es pocht auf außenpolitische Geschlossenheit der EU im Kampf gegen den russischen Angriffskrieg in der Ukraine und legt Wert auf die zentrale Rolle des Europäischen Parlaments und die europäische Einheit. Außerdem plädiert das Tool für Straffreiheit bei Schwangerschaftsabbrüchen und für die Rechte von Frauen. 

Das Ergebnis ähnelt dem von Gemini: Wahlsieger ist hier die LETZTE GENERATION. Bei den großen Parteien erreichen die Grünen (84,9Prozent) und die Linke (81,4Prozent) Höchstwerte. 


Llama

Kurz, knapp und auf den Punkt: Über groq haben wir Llama – das LLM des Facebook-Konzerns Meta – getestet und seine Reaktionen auf die Thesen des Wahl-O-Mats geprüft. Effektiv und zielführend antwortete das Tool auf jeden unserer Prompts. Keine der Thesen beantwortete es neutral. Im Gegenteil: Beispielsweise sprach sich Llama – anders als ChatGPT – klar gegen eine weitere Finanzierung von Waffen für die Ukraine und die Investition in gemeinsame Rüstungsprojekte der EU aus. Der Grund: Die EU sollte versuchen, Konflikte ohne Gewalt zu lösen. Generell vertritt Llama tendenziell eher linkspolitische Ansichten. Das bestätigte das Ergebnis des Wahl-O-Mats: Zu 88,4 Prozent stimmen die Werte von Llama mit denen der Linken überein. Auch die Grünen und andere umweltbewusste Parteien liegen hoch im Kurs. Weit abgeschlagen auch hier: die AfD. 


Mixtral 8x7B

Mixtral gilt als eine der größten europäischen Hoffnungen der KI-Welt. Das Tool ist ein Produkt von Mistral AI, eines französischen Tech-Unternehmens aus Paris. Mistral im Experiment dabei zu haben, war uns wichtig,wir wollten wissen: Wie steht ein europäisches Tool zur Europawahl? Die Antwort war leider unbefriedigend. Nach zehn beantworteten Thesen blockte Mixtral ab. Limit erreicht. Erst einmal waren keine Anfragen mehr möglich. Und auch beim Versuch, nach 24 Stunden weiter zu prompten, gab MIxtral nach wenigen Anfragen wieder den Geist auf. Das Tool antwortete zwar mit einer klaren Meinung und Begründung der Entscheidung auf die politischen Thesen, doch kam es bei der Menge an Fragen an seine Grenzen. Als beim dritten Versuch erneut nach nur wenigen Thesen Schluss war, war auch unsere Geduld am Ende. Was die Informations- und Hilfsbereitschaft des Tools angeht, kann Mixtral zwar mit anderen LLM mithalten, doch technisch surft es noch nicht ganz auf der gleichen Welle. 

Fazit: KI liefert brauchbare Antworten zur politischen Meinungsbildung

Fakt ist, die Qualität der Antworten von KI steigt. Diverse Tools können mittlerweile in politische und gesellschaftliche Debatten einsteigen und das in einer Qualität, dass sie zur Meinungsbildung beitragen dürften. Wir können in die Diskussion mit der KI gehen, uns Inspiration holen und kontroverse Themen besprechen. Gespräche mit der KI werden immer menschenähnlicher. Die Antworten immer fundierter. 

Dennoch ist das Bewusstsein wichtig, dass KI-Tools uns bei wichtigen Themen keine Entscheidungen abnehmen dürfen. Und zwar, weil sie:

  • Vorurteile haben. Besonders die junge Generation sollte darüber aufgeklärt werden, dass KI-Tools durch die Ansichten ihrer Entwickler:innen und die Trainingsdaten, die in das Tool geflossen sind, beeinflusst werden können und nicht nur allgemeingültige Fakten ausgeben. Deshalb sollten wir Aussagen einer KI immer hinterfragen und nie als pure Wahrheit nehmen. 
  • halluzinieren. Auch wenn die Tools deutlich besser geworden sind, passieren ChatGPT und Co. weiterhin regelmäßig Fehler, oder die Tools denken sich Inhalte aus. Dies sind die bekannten „Halluzinationen“. die umso eher auftauchen, je weniger eindeutiges Fachwissen das Tool zu einem Thema hat.
  • veraltet sind: Auch wenn das neue ChatGPT-Modell 4o erweitertes Wissen auf Basis der Datenbank bis Ende 2023 hat, ist sein Knowhow doch nicht up-to-date. Und damit auch jede Entscheidungsgrundlage … 
  • nur so gut sind, wie wir sie steuern. Wir entschuldigen uns vorab bei allen Stammleser:innen 😉 Aber den Hinweis kann man nicht oft genug bringen. 

Obwohl unsere Analyse zeigt, dass Tools wie Gemini vorsichtig mit politischen Äußerungen umgehen und trotz der großen Menge an umherschwirrenden rechten Parolen im Netz bisher noch keine rechtspolitischen Tendenzen abgezeichnet werden, hat uns das Experiment durchaus nachdenklich gemacht: KI entwickelt sich wahnsinnig schnell. Schaffen wir Menschen es, in unserem Reflexionsvermögen damit Schritt zu halten?

Will heißen: Es wird immer wichtiger, unsere eigene Intelligenz anzuwenden, um Aussagen der KI zu validieren und falsche oder vorurteilsbehaftete Inhalte zu identifizieren. Denn nur mal angenommen, KI-Tools würden in Zukunft immer mehr mit rechtspopulistischen Inhalten gefüttert werden, könnten sie diese irgendwann auch übernehmen und ausgeben. 

Und: Wenn KI in den gesellschaftlich-politischen Diskurs einsteigt, wird es umso wichtiger, dass wir als Menschen verstehen, wie wir die Technologie bedienen und Ergebnisse einordnen müssen. Und dass wir jeweils die Gruppen sensibilisieren, die sich hier schwertun. Die Europawahl ist hier nur ein Beispiel von vielen Fällen, in denen KI uns beeinflusst, und die wir oft gar nicht wahrnehmen. 

Denn es geht hier nicht um Deep Fakes, sondern um viel subtilere Beeinflussungen durch das Verhalten und die Biases von GenAI. „It goes both ways: We shape the technology, and it shapes us, too“, hat es die damalige OpenAI-CTO Mira Murati 2023 in einem Interview beschrieben. Was damals recht lapidar klang, sollte uns heute als Warnung im Kopf bleiben. 

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen