
KI-Guidelines für Unternehmen – so geht’s
Generative Künstliche Intelligenz (GenAI) hat den Arbeitsalltag seit dem Launch von ChatGPT Ende 2023 gerade in kreativen Bereichen so stark verändert wie keine Innovation zuvor. Viele Firmen haben seitdem das für sie passende Set an GenAI-Tools definiert und arbeiten bereits damit. So weit, so gut. Nachholbedarf gibt es aber dennoch: vor allem in Governance und Unternehmenskultur. Vor allem KI-Guidelines sind hier von entscheidender Bedeutung, Im folgenden Beitrag geht es um folgende Themen:
- KI-Guidelines strategisch besehen
- KI-Guidelines: Hilfreiche Initiativen aus der Medien- und Verbändewelt
- So entwickeln Unternehmen individuell passende KI-Guidelines
- Fazit: KI-Guidelines stärken Wettbewerbsfähigkeit und Mitarbeiterbindung
Aber zunächste einige Worte vorab: Es braucht ein generelles, für alle Mitarbeitenden greifbares Selbstverständnis, wie die eigene Organisation zu GenAI steht, wie jede und jeder einzelne sich einbringen soll und darf, und wie Potenziale und Risiken bewertet werden. Und diese Aufgabe erfüllen eben auch und besonders KI Guidelines für Unternehmen.
Nur eine Minderheit von Firmen verfügt jedoch bisher über ausgereifte Richtlinien: In unserem AI Readiness Report, den wir im Q3/2024 mit dem KI-Anbieter retresco herausgebracht haben, gaben knapp 60 % der befragten Mitarbeitenden aus Unternehmen an, dass es bei ihnen noch keine KI-Guidelines gebe. Dies ist aus zwei Gründen ein Versäumnis: regulatorisch und auch strategisch.
Fangen wir mit der nüchternen Facette an – der Regulatorik: Der AI Act, das KI-Gesetz der Europäischen Union, macht Unternehmen eine Reihe vor Vorgaben, wenn sie mit Künstlicher Intelligenz arbeiten. Die ausführliche Einordnung lesen Sie in diesem Blogbeitrag bei uns zum AI Act, kurz gefasst hier die wichtigsten Stichworte. Es geht um:
- Identifizierung und Dokumentation: Alle KI-Systeme müssen erfasst und dokumentiert werden
- Risikobewertung für alle KI-Systeme samt entsprechender Kontroll- und – falls nötig – Schutzmaßnahmen
- Compliance-Strukturen: Es braucht klare Verantwortlichkeiten, Prozesse und Monitoring-/Reportingsysteme
- AI Literacy: Unternehmen müssen sicherstellen, dass ihre Mitarbeitenden über die Kenntnisse verfügen, KI verantwortungsvoll zu nutzen.
Allein mit Blick auf die Dokumentationspflicht und Compliance-Strukturen sind KI-Guidelines also dringend geboten.
KI-Guidelines strategisch besehen
Aus strategischer Sicht sind Guidelines ebenfalls zwingend notwendig. Erstens, weil Unternehmen ohne entsprechendes KI-Rahmenwerk es verpassen, Innovationskraft zu belegen und zu fördern. Zweitens, weil sie ihre Glaubwürdigkeit und das Vertrauen ihrer Mitarbeiter und Stakeholder riskieren.
Viel interessanter sind aber die Chancen, und aus unserer Erfahrung in Kundenprojekten sehen wir da zahlreiche:
- Förderung der verantwortungsvollen KI-Nutzung: Sie sorgen für einen ethisch korrekten Einsatz von KI-Technologien, gewährleisten die Einhaltung von gesetzlichen Vorgaben und vermeiden damit Missbrauch, der dem Unternehmen rechtliche Schwierigkeiten und Image-Probleme einbringen könnte. Insofern stellen sie auch eine rechtliche Absicherung dar.
- Transparenz schafft Vertrauen: Klare Richtlinien erhöhen die Transparenz in Bezug auf die Nutzung von KI und stärken somit das Vertrauen der Mitarbeitenden, Kunden und Öffentlichkeit.
- Risikomanagement: Durch Guidelines werden potenzielle Risiken identifiziert und minimiert, was zu einer höheren Qualität und Sicherheit von KI-Entscheidungen führt.
- Image-Arbeit: Organisationen, die sich durch ethische KI-Praktiken auszeichnen, heben sich im Markt ab und bauen ein stärkeres Image auf – gegenüber Kandidat:innen, genauso wie gegenüber Mitarbeitenden oder Investoren.
- Innovations-Boost: Klar definierte Regeln schaffen einen Rahmen für nachhaltige Innovation und Produktentwicklung.
KI-Guidelines: Hilfreiche Initiativen aus der Medien- und Verbändewelt
Auf Seiten von Branchenverbänden gibt es inzwischen einige Bemühungen um entsprechende Standards für Guidelines. Erwähnenswert in Deutschland sind hier die Initiativen vom Deutschen Journalisten-Verband (DJV), der Deutschen Public Relations Gesellschaft (DPRG) und vom Bundesverband der Kommunikatoren (BdKom). Hier jeweils mit Link, Einordnung und Zusammenfassung:
DJV: Dogmatik am Anfang, danach aber hilfreiche Gedanken zu Verantwortung und Weiterbildung
Der Journalisten-Verband ist als Gewerkschaft zunächst seinen Mitgliedern, den Journalist:innen, verpflichtet. Das liest sich auch aus einer eigens zum Thema KI verfassten Stellungnahme heraus – leider nicht zu dessen Vorteil. „Medienhäuser dürfen Künstliche Intelligenz nicht mit dem Ziel einsetzen, Arbeitsplätze von Journalist:innen einzusparen“, steht direkt am Anfang von Position 1 – und das ist schlichtweg rückwärtsgewandt:
Medienhäusern geht es hier nicht wie anderen Unternehmen. Sie müssen sogar KI mit dem Ziel einsetzen, Effizienzgewinne zu erzielen. Allein, um wettbewerbsfähig zu bleiben. Das heißt nicht, dass KI die Journalist:innen ersetzt. Aber Tätigkeitsprofile werden und müssen sich ändern, mit der Konsequenz, dass auch bestimmte Jobs wegfallen können müssen, damit Fortschritt ermöglicht wird.
Trotz dieser einleitenden Engstirnigkeit ist die DJV-Richtlinie danach hilfreich, da sie sich detailliert dem verantwortungsbewussten Umgang mit Datenmaterial, Transparenzgeboten und der Verantwortlichkeit für die Inhalte widmet und die große Bedeutung von Weiterbildung für KI-Anwender:innen betont.

DPRG: Verantwortung und Transparenz in der Kommunikation
Die DPRG hat bereits 2023 Richtlinien für die Branche definiert, aus der Überzeugung heraus, dass „KI-Systeme die PR-Arbeit einfacher und effizienter gestalten sowie Qualität und Quantität des Outputs potenziell steigern“ können, zugleich aber auch Risiken bergen. Die Richtlinie ist eine Art Code of Conduct für PR Professionals, weiterhin zeitgemäß und betont vor allem die Bedeutung von:
- Transparenz: KI-generierter Content muss eindeutig gekennzeichnet sein. Wichtig ist: Der Content muss laut der Leitlinie für Laien eindeutig gekennzeichnet werden.
- Wahrhaftigkeit: Die Erstellung und Verbreitung von irreführendem Content mittels KI, wie Deep Fakes, ist laut der Richtlinie „unstatthaft”.
- Verantwortung: Auftraggeber und Dienstleister sind gemeinsam für die Einhaltung der Richtlinien verantwortlich.
Hier gibt es das Papier zum Download.
BdKom: KI als Chance für Qualitätskommunikation
Der Bundesverband der Kommunikatoren (BdKom) hat eine sehr aktive KI-Arbeitsgruppe. Aus dieser stammt ein Grundsatzpapier, in dem es vor allem um eine Haltung der Branche zu Generativer KI geht. Die drei wichtigsten Stichworte dabei sind:
- Vertrauen: Ganz wichtig ist, die Integrität und Wahrhaftigkeit von Kommunikation nicht zu gefährden. Wer KI einsetzt, muss dies daher transparent ausweisen.
- Mensch im Mittelpunkt: KI-generierte Inhalte unterliegen der menschlichen Kontrolle zur Qualitätssicherung.
- Rechtliche Konformität: Datenschutz und Urheberrecht sollten leitend dafür sein, wie Kommunikatoren KI einsetzen.
Nur „eine offene und konstruktive Haltung zum Thema Künstliche Intelligenz“ könne die Entwicklung der Technologie in einer Weise vorantreiben, die sowohl den gesellschaftlichen Anforderungen als auch den Bedürfnissen der Branche gerecht werde, heißt es in dem BdKom-Papier (hier zum PDF-Download).
Wirtschaftskammer Österreichs (WKO) – Guidelines zum Ausdrucken:
Unternehmen aus Österreich sollten sich die Guideline speziell für KMU von der Wirtschaftskammer ansehen. Hier das PDF zum Download. Die jetzt im Februar neu veröffentlichte Unterlage ist sehr umfangreich, samt Tool-Empfehlungen, technologischem Hintergrund und Impulsen zur KI-Strategie. Gerade KI-Einsteiger werden hier bei der WKO viele hilfreiche Impulse finden.
Dazu gibt es sogar eine Seite „KI-Guidelines zum Ausdrucken“ – diese allerdings erscheinen uns nur bedingt geeignet, weil sie zu sperrig formuliert sind, um eine positive Haltung zu untermauern.
So entwickeln Unternehmen individuell passende KI-Guidelines
Es ist an der Zeit, dass Unternehmen die Bedeutung von KI-Guidelines erkennen und als integralen Bestandteil ihrer Governance etablieren. Die genannten Initiativen geben hier sinnvolle Handreichungen, weil sie vermitteln, dass ein verantwortungsbewusster Umgang mit KI nicht nur Risiken minimiert, sondern auch Chancen bis hin zu Wettbewerbsvorteilen eröffnet.
Was allen fehlt, das sind Antworten auf die Frage, wie die Mitarbeitenden denn nun mit GenAI genau umgehen sollen, welche Prozesse und Regeln gelten und welche Tools wofür freigegeben sind. Diese operativen Details sind allerdings auch zu individuell, als dass Branchenverbände sie vorgeben könnten.
Sinnvoll ist es daher, KI-Guidelines Hand in Hand mit der eigenen KI-Strategie zu entwickeln. Fünf Aspekte sind hierbei wichtig:
- Was sind unsere relevanten Use Cases zum Einsatz von generativer KI?
- Welche Prozesse und Rollen sind damit verbunden?
- Was müssen unsere Mitarbeitenden für die Arbeit mit KI können?
- Wie gehen wir in der Arbeit mit KI mit vertraulichen Daten um?
- Welche Tools haben wir im Einsatz?
Maßgeschneiderte KI-Guidelines sind auf diese vier Fragen zugeschnitten und liefern dort Orientierung, wo es rechtliche oder regulatorische Aspekte gibt.
Fazit: KI-Guidelines stärken Wettbewerbsfähigkeit und Mitarbeiterbindung
Wir bei disruptive sind jedenfalls überzeugt: Nachdem 2023 und 2024 zwei Jahre des Staunens und Ausprobierens in vielen Firmen waren, geht es in 2025 darum, welchen Beitrag GenAI zum Business leisten kann. Dazu braucht es professionelle Anwendungen, Technologie und Prozesse, aber eben auch eine belastbare KI-Governance. KI-Guidelines sind hier ein zentraler Baustein.
Unsere Erfahrung: Rechtliche Klarheit und damit Compliance sicherzustellen, ist im Bereich KI vor allem ein unternehmerisches Gebot. Denn Mitarbeitende, die sich unsicher fühlen, sind erfahrungsgemäß viel weniger bereit, sich mit KI zu beschäftigen als solche, die klare Leitplanken haben.
Zumal es auch – das Feedback haben wir schon bekommen – als eine Form der Wertschätzung des Arbeitgebers angesehen wird, wenn sich die Firma darum kümmert, dass die Mitarbeitenden rechtliche Sicherheit im Umgang mit KI haben. Mitarbeiterbindung durch Regulatorik – in der KI-Welt gibt es eben nichts, was es nicht gibt …
Haben Sie Fragen zur Entwicklung und Einführung von KI-Guidelines? Wir haben entsprechende Projekte bereits mehrfach umgesetzt und arbeiten hier auch eng mit zwei großen Kanzleien zusammen. Schreiben Sie uns hier per Mail – wir melden uns bei Ihnen.
Bildquelle: Midjourney/Disruptive