Mark Zuckerberg krallt sich unsere Daten für seine KI – und keinen interessiert’s

Der Meta-Konzern wird fortan unsere persönlichen Facebook- und Instagram-Feeds nutzen, um seine KI-Modelle zu trainieren. Datenschützer protestieren, aber die große Wut-Welle der Social-Media-User bleibt aus. Unser Geschäftsführer Timm Rotter wundert sich darüber in der neuen Folge der W&V-Kolumne „KI für Könner“  und erklärt, wieso man durchaus vom größten Datenklau der Geschichte sprechen kann. Hier gibt es die Kolumne wie gewohnt ohne Paywall zum Nachlesen.

Haben Sie auf Instagram noch alte Partyfotos oder auf Facebook längst vergessene Posts mit semi-witzigen Dad Jokes? Schauen Sie mal! Denn sonst macht das ab heute Mark Zuckerberg.

Nicht der Meta-CEO persönlich, vermutlich. Aber seine Firma, Facebooks Mutterkonzern, will öffentlich sichtbare Inhalte von Nutzer:innen in der EU ab dieser Woche (konkret 27. Mai) fürs Training seiner KI-Modelle verwenden. Sprich: Alles, was wir auf Facebook oder Instagram öffentlich posten – Beiträge, mehr oder weniger geistreiche Kommentare, alte Fotos, sogar unsere Likes – könnten künftig im Daten-Futtertrog von Metas Künstlicher Intelligenz landen.

Direktnachrichten oder in begrenzten Gruppen geteilte Inhalte bleiben außen vor. Zudem will Meta nur Daten volljähriger User verwenden. Ein Gericht hat eine erste Klage abgelehnt und dem Konzern das Go gegeben, solange man nicht aktiv widerspricht.

Wie das geht, steht bei uns im Blog – daher können wir hier gleich der Frage nachgehen, wieso sich Meta überhaupt solche Rechtsstreitigkeiten und Imagerisiken riskiert?

Die kurze Antwort: Das Unternehmen von CEO Mark Zuckerberg will im KI-Rennen aufholen und seine KI-Lösungen, wie den Chatbot „Meta AI“ und das Sprachmodell LLaMA, mit möglichst vielen Daten füttern, um sie schlauer und nützlicher zu machen. Meta sitzt ja auf einem wahren Datenschatz aus fast zwei Jahrzehnten Social Media.

Mehr KI-Updates gefällig?

In unserem monatlichen Newsletter erhalten Sie alle relevanten Updates zu GenAI – mit Fokus auf Kommunikation, Marketing und HR.

Darum sind unsere Facebook- und Instagram-Feeds für die KI so viel wert

Meta möchte vor allem, dass die KI mehr lokale Kompetenz aufbaut, also auch die europäischen Nutzer:innen besser versteht. Es geht um Formulierungen, lokale Anspielungen, Humor, all solche Nuancen, die bisher auffällig oft sehr amerikanisch wirken.

Das Unternehmen argumentiert sogar ausdrücklich, dass es eine Verantwortung habe, KI für Europäer zu bauen, nicht nur in Europa verfügbare KI. Bei so viel Gutmenschentum mögen wir Nutzer:innen uns doch bitte nicht so zieren, so die Botschaft aus dem Silicon Valley. Denn dazu müssten die KI-Modelle eben auch auf europäischen Inhalten lernen. Und keine Frage – wie ginge das besser als mit User Generated Content? Und Meta sitzt ja hier auf einem wahren Datenschatz aus fast zwei Jahrzehnten Social Media.

Vielleicht spielt auch FOMO mit: Keine Firma will bei der Entwicklung von GenAI hinterherhinken – ob bei Chatbot-Antworten, bei personalisierten Feeds oder neuen Werbe-Tools mit KI. Kurz: Unsere Daten sollen Metas KI besser machen – angeblich zu unserem Nutzen, aber vor allem zum wirtschaftlichen Vorteil des Unternehmens.

Datenschützer halten Metas Vorgehen für DSGVO-widrig – und nicht nur das …

Doch es gibt handfeste rechtliche Bedenken und Kritik von Datenschützern: Zum einen ist da das Prinzip Opt-out statt Opt-in. Meta verlangt, dass wir User aktiv Widerspruch einlegen, falls wir nicht einverstanden sind. Die österreichische Datenschutz-NGO „None of Your Business”, kurz noyb, hält das für einen klaren DSGVO-Verstoß.

Datenschützer bemängeln zudem ungeklärte Nutzungsrechte und bezweifeln, ob Meta die weiteren Pflichten der DSGVO einhalten kann, wenn die Daten einmal im KI-Modell gelandet sind – zum Beispiel das Recht auf Vergessenwerden oder auf Berichtigung:

Theoretisch kann ich von Social-Media-Plattformen verlangen, meine Daten zu löschen. Bei KI geht das nicht. Ein LLM lässt sich nicht gezielt „entlernen“. Dies gilt umso mehr, weil LlaMa ein Open-Source-Modell ist, das sich jeder User selbst installieren und weiterentwickeln kann.

Deutsche Verbraucherschützer hatten zuletzt versucht, Meta zu stoppen. Bisher vergeblich, das OLG Köln hat im Gegenteil sogar argumentiert, dass die KI-Entwicklung ein sogenanntes berechtigtes Unternehmensinteresse sei.

Allerdings: Das letzte Wort ist noch nicht gesprochen. Einzelne NGOs drohen schon mit Schadensersatzforderungen in Milliardenhöhe. Sollte ein Gericht am Ende feststellen, dass das KI-Training ohne Opt-in rechtswidrig war, wäre es vermutlich der größte Datenklau aller Zeiten.

Bei uns finden Sie für Ihr Team die passenden Seminare

In unseren individuellen KI-Seminaren lernen Einsteiger und Profis den praktischen Einsatz von GenAI, üben den Umgang mit relevanten Tools und erfahren wichtige Hintergründe – auf Deutsch oder Englisch.

Zwei Szenarien, wie der Streit ausgeht – für Meta und für uns alle

Was können wir aus diesem Konflikt mitnehmen? Zunächst einmal zeigt er, wie wertvoll unsere Daten im GenAI-Zeitalter geworden sind. Posts, die wir vor Jahren gedankenlos öffentlich geteilt haben, werden plötzlich zum begehrten Rohstoff, um KI-Modelle zu trainieren. Zum Goldstaub für die Algorithmen.

Das Thema geht also über Meta hinaus – es stellt sich ganz grundsätzlich die Frage: Wem gehören die Daten, die wir ins Netz stellen, und wer darf sie, wozu nutzen? Müssen wir als Nutzer:innen explizit zustimmen, bevor unsere Inhalte in eine KI wandern, oder reicht es, dass wir sie irgendwann öffentlich gepostet haben?

Wenn Meta mit der Opt-out-Strategie durchkommt, würde das einen Präzedenzfall schaffen: Dann könnte jeder große Plattformbetreiber seine Nutzerdaten mehr oder weniger frei zum KI-Training einsetzen, solange er irgendwo tief in den Einstellungen ein Widerspruchsformular anbietet. Sollte Meta hingegen gerichtlich gezwungen werden, ein Opt-in einzuführen, würde das die Spielregeln für KI-Training deutlich verändern.

Für uns Nutzer:innen heißt das: Wir sollten uns bewusst machen, was mit unseren Inhalten passieren kann. Vielleicht führt Metas Vorstoß dazu, dass künftig beim Posten ein Hinweis kommt: „Dein Beitrag könnte zum KI-Training verwendet werden – zulassen oder ablehnen?“

Das wäre das transparente Ideal. Realistischer ist jedoch: Wenn wir sicher sein wollen, dass bestimmte Inhalte nicht in irgendwelchen KI-Modellen landen, sollten wir sie gar nicht erst posten oder zumindest von unseren Privatsphäre-Einstellungen großzügig Gebrauch machen. Und wer Metas aktuelle Nutzung nicht möchte, sollte jetzt noch widersprechen.

Es wird Zeit für eine gesellschaftliche Debatte zur Zukunft der digitalen Privatsphäre

Gesellschaftlich brauchen wir dringend eine Debatte, wie wir mit solchen Fällen umgehen. Wollen wir KI-Systeme, die zwar extrem leistungsfähig sind, aber auf Kosten unserer Privatsphäre trainiert wurden? Oder verlangen wir strengere Schranken, auch wenn das vielleicht die Entwicklung verlangsamt? Und wer soll darüber entscheiden – die Unternehmen, die Nutzer, die Gerichte, die Gesetzgeber?

Metas KI-Plan könnte genau diese Diskussion ins Rollen bringen. Klar ist: Die Art und Weise, wie KI künftig lernt, geht uns alle an. Am Ende stecken in diesen Modellen Ausschnitte unserer Leben, Meinungen und Erfahrungen – es liegt an uns, die Spielregeln dafür zu definieren.

Bildquelle: Midjourney/disruptive

Drei Gründe für die disruptive KI-Akademie

Sofort nutzbares Praxiswissen und wöchentlich neue Kurse
DSGVO-konform und ISO-zertifiziert

Plattform in Ihrem Corporate Design

Nach oben scrollen