
Wer wählt bei der US-Präsidentschaftswahl:
US-Amerikaner:innen – oder ChatGPT?
Donald Trump und Kamala Harris, die beiden Präsidentschaftskandidat:innen, spazieren Hand in Hand in den Sonnenuntergang – mehr Romantik geht nicht. Schon aufgrund der Absurdität dieser Szene haben Sie es vermutlich sofort erkannt: Das Bild ist ein Fake.
Doch nur, weil Sie mithilfe Ihrer KI-Kompetenz und Ihrem Wissen diesen Fall kritisch wahrnehmen und einordnen können, heißt das nicht, dass alle anderen Menschen – oder in dem Fall alle US-Amerikaner:innen – dies auch können. Denn das Wissensgefälle beim Thema KI ist riesig: Allein in Deutschland haben laut einer Umfrage von YouGov 60 Prozent noch nie Generative KI benutzt. In den USA sind es nach einer Studie von Adobe immerhin 47 Prozent
Desinformation und Fake News: problematisch wie nie

Warum sind diese Zahlen so alarmierend in diesem Superwahljahr? Weil sowohl die Anzahl als auch der Umfang gezielter Fake-News- und Desinformationskampagnen rasant zunehmen. Zum Teil streuen Politiker:innen die gefälschten Inhalte sogar selbst. So geschehen im Falle der mithilfe von KI erzeugten Bilder von Anhängerinnen der Pop-Ikone Taylor Swift, die angeblich zur Wahl Donald Trumps aufgerufen haben sollte. Trump hatte die Fotos auf Social Media verbreitet.
Während dieses Beispiel relativ schnell als Fake entlarvt werden konnte, stellen sich andere Fälle als deutlich schwieriger dar – denn die Generative KI wird immer besser, und Fälschungen sind immer schwerer zu erkennen. Dazu kommen Falschinformationen, die gezielt von Dritten verbreitet werden, um Misstrauen zu schüren. Jüngst sorgten etwa die Enthüllungen um die Social Design Agency (SDA) für Furore. US-Behörden hatten aufgedeckt, wie Russland durch die Aktivitäten der SDA versucht, Einfluss auf westliche Wahlen zu nehmen.
Wo GenAI-Tools die Demokratie gefährden
Neben bewusst gefakten oder verfälschten Inhalten schlummert jedoch eine weitere Bedrohung – eine, die viel subtiler an den Grundfesten unserer demokratischen Gesellschaft rüttelt. Diese offenbart sich, wenn wir selbst Generative KI nutzen.
Denn wer heute ChatGPT oder KI-gestützte Suchmaschinen nach Informationen befragt, erhält nicht immer korrekte Antworten. Studien zeigen, dass die Antworten dieser Systeme selten wirklich neutral und vollständig, ja oft sogar irreführend sind. Weil GenAI uns als vermeintlich neutrale Technologie allerdings den Eindruck von Objektivität vermittelt, übersehen viele Menschen diese Defizite.
Was wir dagegen tun können? Als Allererstes: Aufklären, sensibilisieren, in den Austausch gehen. So wie das im Live-Webinar geschehen ist, bei dem disruptive-Gründer Timm Rotter das Thema mit Tobias Bacherle, Mitglied des Bundestags und Obmann im Digitalausschuss, Lajla Fetic, Senior Trustworthy AI Expert bei appliedAI, und Katja Muñoz, Research Fellow bei der Deutschen Gesellschaft für Auswärtige Politik (DGAP), diskutierte.

Vorangegangen war der Diskussion Timm Rotters Experiment im Vorfeld der Europawahl im Mai 2024, bei dem er ChatGPT den Wahl-O-Mat zur Europawahl hat durchspielen lassen. Heraus kam eine deutliche Präferenz für die Parteien links der Mitte. Was wäre gewesen, hätte ChatGPT sich stattdessen für rechte oder rechtsextreme Parteien ausgesprochen? Eine:n wenig KI-erprobte:n 16-jährigen Erstwähler:in hätte ein solches Ergebnis möglicherweise entscheidend bei ihrer Stimmabgabe beeinflusst.
Baustelle KI-Bildung
„KI ist weder gut noch schlecht. KI ist ein Werkzeug. Es kommt darauf an, wie wir es nutzen.“
Katja Muñoz
Fakt ist: KI wird die Art und Weise, wie wir uns Informationen beschaffen und diese erhalten, grundlegend verändern. Sie kann uns nicht nur zu mehr Produktivität verhelfen, z. B. bei bestimmten Aufgaben im Job. Sie kann uns in der politischen Meinungsbildung auch dabei unterstützen, schneller und gezielter an Informationen zu gelangen.
Wichtigste Grundlage dafür ist jedoch, dass wir erstens verstehen, wie GenAI funktioniert – und zweitens wissen, wie wir sie produktiv einsetzen können. Denn, wie Katja Muñoz zu Beginn der Diskussion betonte: „KI ist weder gut noch schlecht. KI ist ein Werkzeug. Es kommt darauf an, wie wir es nutzen.“
„Im Moment arbeiten wir noch auf Sekundarstufe-1-Niveau.“
Timm Rotter
Zur Aufklärung und Sensibilisierung gehört daher auch, in KI-Bildung zu investieren. „Im Moment arbeiten wir noch auf Sekundarstufe-1-Niveau“, stellte Timm Rotter fest. Der größte Fehler bei der Nutzung mit KI-Tools sei es, „zu glauben, dass das, was da rauskommt, richtig ist.“
Dass wir in der Debatte um die Risiken von KI den Fokus zu häufig auf die Technologie legen, bestätigte auch Lajla Fetic. Das Problem ist vielmehr, dass die Ergebnisse der Tools auf einen Nährboden – unaufgeklärte und der Politik misstrauisch gegenüberstehenden Menschen – fallen. Dass es uns durch die humanen Züge der KI-Chatbots leicht fällt, den Ergebnissen zu vertrauen, verstärkt dieses Problem nur noch.
Rechtlicher Rahmen: notwendig, aber kein Allheilmittel
Wir brauchen also dringend Unterstützung dabei, echte von falschen Inhalte zu unterscheiden. Rechtliche Vorschriften wie der AI Act der EU sind nicht nur wichtig, um dem Missbrauch und der manipulativen Nutzung von KI einen Riegel vorzuschieben. Sie können auch das Vertrauen der Gesellschaft in die KI fördern – z. B. durch Kennzeichnungspflichten.
„Das KI-Zeitalter beschleunigt Phänomene, die wir eigentlich schon kennen.“
Tobias Bacherle
Solche Kennzeichnungen, beispielsweise mithilfe von Content Credentials, die Plattformen wie LinkedIn bereits umsetzen, sind ein wichtiges Tool, wie Tobias Bacherle anmerkte. Auch der europäische AI Act gibt eine Kenntlichmachung von KI-generierten Inhalten vor. Gleichzeitig kann eine solche Kennzeichnung nicht die alleinige Maßnahme sein, ergänzte Bacherle. Denn das Problem ist nicht nur die reine Existenz von Fake-Inhalten, zumal es diese auch schon vor dem KI-Zeitalter gab. Es ist vor allem die Tatsache, dass diese Inhalte durch GenAI in einem noch nie dagewesenen Ausmaß erstellt und anhand der Plattformalgorithmen in einer hohen Schnelligkeit verbreitet werden.
„Wir brauchen eine Barriere zwischen den Menschen, die kein KI-Wissen haben, und dem künstlich generierten Output.“
Lajla Fetic
Mehr noch: Kennzeichnungen können aus Sicht von Lajla Fetic sogar dazu führen, dass wir Inhalten vertrauen, obwohl wir das Label gar nicht einordnen können. Ähnlich wie im Supermarkt, wo uns Verbrauchersiegel das Gefühl geben, ein gutes Produkt zu kaufen. Doch wie viele von uns wissen dabei tatsächlich, wofür das Siegel auf der Packung Tiefkühlkabeljau genau steht?
Um Schutzinstanzen zwischen Menschen ohne großes KI-Wissen einerseits und KI-generierten Output andererseits zu erschaffen, brauchen wir daher vermittelnde Instanzen – etwa in Form von Politiker:innen, Journalist:innen, Bundeswahlleiter:innen etc. –, die diese Inhalte für uns einordnen.
KI-Bildung: wichtige Säule unserer Demokratie
Fakt ist: Eine freie politische Meinungsbildung gehört zum Fundament unserer Demokratie. Im KI-Zeitalter ist diese zunehmend gefährdet. Es ist an uns, die demokratischen Grundpfeiler zu schützen. Unerlässlich dafür: ein solides KI-Urteilsvermögen, und zwar in allen Teilen der Gesellschaft. Denn die Kluft zwischen KI-Kenner:innen und denen, die noch gar keine Berührungspunkte hatten, müssen wir dringend schließen. Politiker:innen, Unternehmen, Journalist:innen und die Gesellschaft insgesamt müssen nun schnell eine fundierte KI-Bildung vorantreiben.
Denn während die Fake-Swiftie-Aktion aus dem Trump-Lager leicht zu enttarnen war, ist gefährlicher, was viel subtiler wirkt: wenn KI-Content nämlich auf den fruchtbaren Boden von Demokratiegegner:innen und Verschwörungstheoretiker:innen fällt und deren Stimmen verstärkt. Dies gilt es zu verhindern – und KI zu einem Werkzeug für die Demokratie zu machen, das uns dabei hilft, Inhalte für alle zugänglich und verständlich zu machen.
Die Aufzeichnung des Live-Talks gibt es hier auf YouTube zu sehen.
Bildquelle: Midjourney/disruptive