
Meta füttert seine KI mit privaten Insta- und Facebook-Daten – so legen Sie Widerspruch ein
Ab dem 27. Mai könnte Meta Ihre Inhalte für KI-Zwecke verwenden. Posts, Bilder, Kommentare – alles, was öffentlich auf Facebook oder Instagram geteilt wurde, soll künftig zum Training von Sprachmodellen genutzt werden. Dagegen können Sie etwas tun – und sollten es auch.
GenAI-Sprachmodelle brauchen kontinuierlich neue Daten, um besser zu werden. Nur, woher nehmen, wenn nicht stehlen? Dass Anbieter von KI-Tools letzteres schon lange machen würden, indem sie ohne Rücksicht auf Nutzungsrechte Daten aus dem Netz zum Training ihrer LLMs nutzten, den Vorwurf gibt es seit dem Start von ChatGPT.
Aktuell entzündet sich der Streit an einer Entscheidung des Meta-Konzerns, die mehr als 100 Millionen Menschen in Europa betrifft: Er will ab 27. Mai (Dienstag) öffentlich geteilte Inhalte volljähriger Facebook- und Instagram-Nutzer in Europa für das Training eigener KI-Modelle verwenden.
Betroffen sind Posts, Bilder, Videos, Kommentare und Profilinfos – private Nachrichten und Daten Minderjähriger sollen ausgeschlossen bleiben.
Mehr KI-Updates gefällig?
In unserem monatlichen Newsletter erhalten Sie alle relevanten Updates zu GenAI – mit Fokus auf Kommunikation, Marketing und HR.
So kann man der Datennutzung widersprechen
Nutzer werden per In-App-Banner und E-Mail informiert und können in der App widersprechen: Dazu öffnen sie in Facebook und Instagram die Kontoeinstellungen unter „Datenschutz & Sicherheit“, klicken auf „KI-Training“ und deaktivieren dort die Option „Meine öffentlichen Beiträge verwenden“.
Der Widerspruch muss für beide Plattformen einzeln erfolgen. Hat man auf einer von beiden mehrere Accounts unter derselben E-Mail, reicht es allerdings, das Formular dort einmal auszufüllen. Alternativ steht in den Benachrichtigungen ein Link zum Opt-out-Formular bereit.
Was nicht so leicht funktioniert, ist der manchmal gelesene Tipp, man möge einfach sein eigenes Geburtsdatum so anzupassen, dass man für die KI nicht volljährig ist: Für entsprechende Änderungen in den Profileinstellungen verlangt Meta als Nachweis Foto/Scan eines offiziellen Dokuments wie Personalausweis oder Reisepass.
Auch nach dem 27. Mai sind Einsprüche zwar noch möglich, könnten aber – aus rechtlicher wie aus faktischer Sicht – zu spät kommen. Denn Daten, die bis dahin ins Training geflossen sind, lassen sich nicht wieder herausziehen.
Bei uns finden Sie für Ihr Team die passenden Seminare
In unseren individuellen KI-Seminaren lernen Einsteiger und Profis den praktischen Einsatz von GenAI, üben den Umgang mit relevanten Tools und erfahren wichtige Hintergründe – auf Deutsch oder Englisch.
KI-Modelle sollen sich besser an europäische Sprachen und Besonderheiten anpassen
Meta geht es vor allem um zwei KI-Modelle: Meta AI und LLaMA. Es begründet sein Interesse an den Daten damit, dass es seine KI-Tools besser an europäische Sprachen, Dialekte und kulturelle Besonderheiten anpassen möchte. Nur mit ausreichend lokalem Trainingsmaterial lasse sich eine hochwertige Nutzererfahrung gewährleisten, so das Unternehmen.
Kritiker halten jedoch das Opt-out-Verfahren für unzureichend und verweisen auf die Datenschutz-Grundverordnung. Demnach ist für den Zugriff auf sensible persönliche Daten eine aktive Einwilligung nötig, auch als „Opt-in“ bekannt.
Rechtlich ungeklärt ist zudem, ob Facebook-Inhalte tatsächlich als öffentlich gelten, wenn sie nur nach Login zugänglich sind.
KI-Fortschritt vs. Datenschutz – offenkundig ein Widerspruch in sich
Diese Debatte verdeutlicht einen zentralen Konflikt: Die rasante Entwicklung Generativer KI erfordert große, vielfältige Datenmengen. Diese Daten gehören jedoch in der Regel nicht den BigTechs wie Google oder OpenAI.
Um ihre Modelle initial zu trainieren und das Weltwissen der KI aufzubauen, brauchte es vor allem Medienquellen, Datenbank-Inhalte, wissenschaftliche und Ratgebertexte sowie Literatur. Bereits hier gibt es viele Kritiker, die sagen, dass die ungefragte Nutzung dieser Inhalte rechtlich unzulässig sei – ein umfassendes, abschließendes Urteil dazu existiert jedoch noch nicht.
Nun wird die Debatte noch heikler: Denn um Sprachmodelle zu entwickeln, die nicht nur sehr viel Wissen haben, sondern auch noch menschlich klingen, braucht es User Generated Content – und wo gibt es mehr davon als in persönlichen Social-Media-Feeds?