Visual mit den Buchstaben A und Z und abstrakten Formen, alles in pastelligen Farben gehalten
disruptive_logo
KI von A bis Z

Das KI-Glossar

Wissenswertes über KI

Künstliche Intelligenz (KI) findet in immer mehr Bereichen unseres Alltags Anwendung. Daher lohnt es sich, den Überblick über die vielen Fachbegriffe und Konzepte zu behalten. Unser KI-Glossar von A bis Z bietet Ihnen eine verständliche und umfassende Ressource, um sich in der Welt der Generativen KI (GenAI) zurechtzufinden.

Egal, ob Sie ein Experte auf diesem Gebiet sind oder gerade erst Ihr Interesse an KI entdeckt haben: Dieses Glossar ist dazu gedacht, Ihr Wissen zu vertiefen. Wir aktualisieren es wöchentlich.

Fehlen Ihnen Begriffe? Gerne per Mail bei uns melden!

Agentic AI

„KI-Agenten“ sind Werkzeuge, die komplexe Aufgaben automatisieren, für die sonst menschliche Ressourcen erforderlich wären. Anders als KI-„Assistenten“ wie die bekannten Chatbots erledigen sie nicht nur reaktiv einzelne Aufgaben, die User vorgeben. Statt dessen sind sie in der Lage, eine Reihe diverser Aufgaben nacheinander abzuarbeiten und dabei selbständig Entscheidungen zu treffen. Das wirtschaftliche Potenzial von Agentic AI erscheint enorm – Google hat, passend dazu, das Jahr 2025 bereits als Beginn eines „Age of Agents“ ausgerufen. 

Im Sommer 2025 haben die großen Chatbots wie ChatGPT oder Gemini auch jeweils eigene „Agent Modes“ eingeführt – welche Kinderkrankheiten die teilweise noch hatten, hat unser Geschäftsführer Timm Rotter auf recht kuriose Weise selbst erlebt.

AI Readiness Report

GenAI-Reifegrad-Analyse zur Frage, wie weit Unternehmen im deutschsprachigen Raum bei der Nutzung von GenAI sind. Das Ergebnis der Umfrage von disruptive und dem KI-Spezialisten Retresco zeigt, dass die meisten Firmen noch in den Startlöchern stehen. Hier kostenlos downloaden!

AI Act

Gesetzgebung der EU, die damit als erster Staatenbund rechtlich bindende und auf definierten Risikoklassen basierende Vorgaben für die Entwicklung und den Einsatz von Künstlicher Intelligenz erlässt. Der AI Act wurde im Mai 2024 beschlossen, die Regelungen treten seither sukzessive in Kraft. Bei uns im Blog steht, was das für den Einsatz von Generativer KI in Unternehmen bedeutet.

Aleph Alpha

Deutsches KI-Unternehmen, das zwischenzeitlich einmal KI-Sprachmodelle in vergleichbarer Qualität entwickelte wie OpenAI. Schließlich verloren die Heidelberger vermutlich auch deswegen den Anschluss, weil sie nicht über ähnlich milliardenschwere Finanzierungen verfügten wie die US-Konkurrenz.

Algorithmus

Algorithmen werden oft mit KI verwechselt. Ein Algorithmus ist eine klar definierte Anleitung, die Schritt für Schritt vorgibt, wie eine Aufgabe oder ein Problem zu lösen ist. Im Sinne eines Entscheidungsbaumes liefert ein Algorithmus regelbasiert auf jeden ihm bekannten Status (etwa „Ich möchte mich bei disruptive bewerben“ oder „Ich möchte einen Workshop buchen“) eine vorher definierte Antwort. Algorithmen sind per se zunächst keine KI – wenn die Systeme nicht in der Lage sind, Daten sukzessive besser zu verarbeiten und dazuzulernen.

Altman, Sam

Altman, CEO des ChatGPT-Erfinders OpenAI, ist das prominenteste Gesicht in der GenAI-Welt. Dies gilt mehr denn je seit November 2023, als OpenAI die wohl meistbeachte Management-Posse in der Tech-Welt aufführte: Erst wurde Altman völlig überraschend vom Verwaltungsrat gefeuert. Die Karriere des 38-Jährigen, der OpenAI mitgegründet hatte und schon in einem Atemzug mit IT-CEOs wie Mark Zuckerberg (siehe unten) genannt worden war und mit dem sich Politiker wie US-Präsident Joe Biden und Bundeskanzler Olaf Scholz hatten fotografieren lassen, schien abrupt zu enden.

Doch keine Woche später inthronisierte OpenAI seinen Chef wieder. Zwischendrin hatte Microsoft-CEO Satya Nadella damit geliebäugelt, Altman in sein Unternehmen zu holen. Anschließend war OpenAI-Verwaltungsrat Ilya Sutskever, offenbar der Chef-Gegenspieler Altmans, öffentlich bei „X“ nach Canossa gezogen und hatte sein Verhalten dort „zutiefst bedauert“. Danach gab es in sechs Tagen zwei Interims-CEO. Und schließlich hatten noch 500 von 700 OpenAI-Mitarbeiter:innen angedroht, aus Loyalität zu Altman zu kündigen. Kurzerhand war der alte CEO sechs Tage später wieder der neue.

Hörenswert dazu: der Podcast „Godcode: Macht. KI. Drama” von FUNK.

appliedAI

… ist Europas führende KI-Initiative, der wir mit disruptive und unserer Mutterfirma In A Nutshell als einer der ersten Mittelständler in Deutschland beigetreten sind. Das Ziel: Wissenaustausch mit den führenden Tech-Unternehmen in Deutschland und unsere Kunden noch besser bei strategischen, Governance- und Change-Fragen beraten zu können.

Artificial General Intelligence

Artificial General Intelligence (AGI) bezeichnet eine neue Qualität von Künstlicher Intelligenz. AGI ist erreicht, wenn die KI ähnlich wie ein Mensch die unterschiedlichsten Probleme und Fragestellungen bearbeiten kann und das in der gleichen Qualität wie wir. Bei KI-Skeptikern werden AGIs kritisch gesehen, da ihnen das Potenzial zugeschrieben wird, sich selbst, von uns Menschen unkontrollierbar, weiterzuentwickeln.

Automatisierung, KI-basiert

Automatisierung hat in den vergangenen Jahren nicht so einen Hype erlebt wie GenAI, ist jedoch für Unternehmen meist die viel relevantere Technologie. Dies gilt umso mehr, wenn man KI und Automatisierung verbindet zu „Intelligent Process Automation“ (IPA). Im Gegensatz zur regelbasierten Automatisierung (RPA), die nur vordefinierte Abläufe ausführt, kann KI-Automatisierung lernen, sich anpassen und Entscheidungen treffen, indem sie Daten interpretiert. Dies ermöglicht die Automatisierung komplexerer und variablerer Aufgaben, die traditionell menschliche Intelligenz erfordern. Dadurch lassen sich deutlich größere Effizienz- und Produktivitätsvorteile erreichen als mit GenAI allein.
 
Anwendungsbeispiele reichen von der automatischen Verarbeitung von Rechnungen, Kundenservice, Back-Office-Aufgaben bis zur Vorhersage von Kundenverhalten. IPA basiert oft auf Low-Code-Technologien (siehe unten) wie n8n, make.com oder Power Automate

Bard

Erinnern Sie sich noch an Googles ersten GenAI-Chatbot „Bard“? Der hatte einen schweren Start, nachdem er im Frühjahr 2023 bei der ersten öffentlichen Präsentation Fakten verdreht hatte. Sogar der Google-Aktienkurs brach daraufhin ein. Und obwohl einer der größten Tech-Giganten hinter dem Tool stand, schaffte Bard es zunächst nicht, zu ChatGPT und Co aufzuschließen. Zu schlecht war vor allem das sprachliche Ausdrucksvermögen. 

Später wurde der Bot in „Gemini“ umbenannt – übernahm also den Namen des damals neuen KI-Modells von Google. Seit Frühjahr 2025 ist Gemini auf Augenhöhe mit OpenAIs ChatGPT und wird damit gerade für Mittelständler zur KI-Basistechnologie der Wahl. 

Bedtime Stories

Unser erstes CustomGPT! Lesen Sie Ihren Kindern persönliche und interaktive Gute-Nacht-Geschichten vor, inspiriert von modernen Märchen und mit Ihrem Kind als Held! „Bedtime Stories” ist ein von uns entwickeltes CustomGPT“ in ChatGPT. Hier können Sie den Geschichten-Erzähler kostenlos nutzen. Im Blog gibt es mehr Infos zu CustomGPTs, einer Vorstufe von AI Agents.

Best of KI

Von uns bei disruptive 2024 verliehener Sonderpreis im Rahmen von Deutschlands größtem Content-Marketing-Award, dem BCM. Gewinner wurde ein Projekt, das mithilfe von GenAI auf eine bemerkenswerte Art und Weise eine der größten Herausforderungen der Menschheit angeht.

Bundesnetzagentur

Die Bundesnetzagentur wird die zentrale Behörde zur KI-Aufsicht in Deutschland. Damit ist sie auch dafür zuständig, dass Unternehmen den AI Act einhalten. Für einzelne, branchen- oder themenbezogenen Aspekte bei der KI-Gesetzgebung werden nachgeordnet spezialisierte Behörden zuständig sein. Drei Beispiele: Für den Finanzbereich ist dies die Bundesanstalt für Finanzdienstleistungen (BaFin), für Automotive-Themen das Kraftfahrtbundesamt und für den Datenschutz die Datenschutzbehörden.

ChatGPT Pro

Hochleistungs-KI-Modell, im Dezember 2024 herausgebracht. Mit ChatGPT Pro hat OpenAI eine neue Dimension in der KI-Entwicklung erreicht – zumindest preislich. Was es kann, wer es (nicht!) braucht, steht bei uns im Blog

Claude

Das amerikanische KI-Forschungsunternehmen Anthropic hat mit Claude einen direkten Konkurrenten zu ChatGPT auf den Markt gebracht. Anthropic wurde von ehemaligen OpenAI-Forschenden gegründet und hat, finanziert von Amazon, zu einem ernsthaften ChatGPT-Konkurrenten entwickelt. Wenn es um sprachlich elaborierte deutsche Texte geht, ist es den Modellen von OpenAI sogar meist überlegen.

Cognitive Computing

Beim Cognitive Computing (CC) handelt es sich um IT-Prozesse, die darauf ausgelegt sind, menschliche Denkprozesse zu simulieren. Ähnlich wie das menschliche Gehirn können CC-Systeme komplexe und unsichere Informationen aus verschiedenen Quellen verarbeiten, Muster erkennen, Hypothesen aufstellen und aus Erfahrungen lernen. Dazu nutzen sie Technologien wie maschinelles Lernen, Verarbeitung natürlicher Sprache (NLP) und Computervision. So können sie mit uns Menschen in einer uns sehr menschlich erscheinenden Weise interagieren und dabei vielschichtige Probleme lösen.

Content-Credentials-Label

LinkedIn hat das „Content Credentials“-Label eingeführt, das KI-erzeugte Bilder als solche kennzeichnet. Nutzer sehen ein „cr“-Symbol in der oberen linken Ecke, das auf den Urheber verweist. Dieses Update greift die bevorstehenden Kennzeichnungspflicht laut EU-„AI Act“ auf, die professionelle Anwenderverpflichtet, transparent zu machen, ob Inhalte mit KI erstellt oder bearbeitet wurden. Neben der Kennzeichnung von KI-Inhalten müssen auch KI-Systeme ausgewiesen und Mitarbeitende geschult werden.

Die Einführung von Labeln wie diesem ist wichtig, um Unsicherheiten bezüglich der Kennzeichnungspflicht zu klären und Vertrauen in soziale Medien zu schaffen. Aktuell erfasst das Label nur Bilder und Videos; Textinhalte sind nicht betroffen, da es an Metadaten mangelt. Die Funktion ist (Stand 09/24) noch nicht mit allen Tools kompatibel, z. B. hat Midjourney keine „cr“-Kennzeichnung.

Copilot

„Copilot“ heißt die KI-Integration, mit der Microsoft das neue Windows 11 ausstattet. Bei uns im Blog steht, wieso Copilot aus Unternehmsssicht so wichtig ist – obwohl die Microsoft-KI noch einige Mängel hat.

Vor allem Mitarbeitende in Konzernen, deren Datenschutzabteilungen viele der neuen Tools bisher verboten hatten, profitieren.

CustomGPTs

CustomGPTs“ (im Detail erklärt bei uns im Blog) sind eigene Chatbots, die man direkt im Tool erstellen kann – entweder für die eigene Nutzung oder zugänglich für alle Nutzer. Mit den „Gems“ hat Google Gemini inzwischen ein ähnliches Feature gestartet.

DeepSeek

Erstes chinesisches KI-Modell, das den US-Platzhirschen Konkurrenz macht. Was DeepSeek wirklich kann, steht bei uns im Blog. Kurz gesagt: Vor allem bei Reasoning-Problemen ist das Ende 2024 gelaunchte Open-Source-Modell sogar ChatGPT, Gemini und Llama überlegen. Zudem soll es deutlich weniger Energie und Rechenpower brauchen. Das unerwartete Aufkommen eines scheinbar gleichstarken chinesischen Konkurrenten hat die Börsen im Januar 2025 so in Aufruhr versetzt, dass kurzfristig 1,3 Billionen (!) Dollar Aktienwert von US-Tech-Firmen vernichtet wurden.

Hier lesen Sie, wie Sie mit DeepSeek sicher arbeiten und was Sie zur Zensur wissen sollten.

Detektoren

KI-Detektoren sind Programme, die KI-generierten Text von menschengemachten Text unterscheiden und diese entdecken. Hierbei analysieren sie die Texte anhand ihres Aufbaus und anhand ihres zugrundeliegenden Sprachmodells. Stand Q4/2025 gibt es keinen Detektor, der in der Lage ist, KI-Text sicher zu erkennen. 

Ethik der KI

Forschungszweig, der die diversen moralischen und gesellschaftlichen Fragen rund um KI zu beantworten möcht. Vor dem Aufkommen von Generativer KI vor allem mit den Konsequenzen von „Singularität“ verbunden – also der Frage, wie wir damit umgehen, wenn Künstliche Intelligenz dem Menschen irgendwann überlegen ist. Mit GenAI kamen diverse neue Themen dazu, bspw. Biases der Chathots, (unrechtmäßige) Nutzung der Trainingsdaten und Umgang mit Nutzerdaten. Aus Corporate-Sicht ist aus ethischer Sicht vor allem die Frage wichtig, wie es gelingt, dass möglichst wenige Mitarbeitende abgehängt werden.

Firefly

Adobe verfügt über einen eigenen KI Bild-Generator mit dem Namen Firefly. Firefly verfügt über verschiedene Features wie Text-zu-Bild und generative Füllung. Es gilt als rechtssicherer als klassische KI-Bild-Generatoren, da Adobe mit lizenzierten Bildern aus ihrer eigenen Bilddatenbank Adobe Stock trainiert hat. Firefly kann somit kommerziell genutzt werden, ohne dass eine Verletzung des Urheberrechts befürchtet werden muss.

Gemini

heißt die Sprachmodell-Familie von Google, die im Dezember 2023 vorgestellt wurde. Damit bekam GPT-4 von OpenAI erstmals ernsthafte Konkurrenz. Bei uns im Blog steht, was das Duell über die Zukunft von Generativer KI sagt.  Sukzessive baut Google die Gemini-Features in die gesamte Google Suite ein und macht damit Microsoft Copilot (mehr dazu hier im Blog) Konkurrenz. Und obwohl Google gefühlt hinter OpenAI & Co hinterherhinkt: Gemini hat inzwischen mehr als 350 Millionen aktive Nutzer (monthly active = MAU, Stand 04/25) – das sind mehr, als etwa das weltgrößte Business-Netzwerk LinkedIn ausweist.

 

Generative Pretrained Transformer

… ist die ausgeschriebene Form der vielfach genutzten Abkürzung GPT. „Generative vortrainierte Transformer” sind Sprachmodelle für die Nutzung in GenAI. Den ersten GPT hat OpenAI entwickelt und im Jahr 2018 vorgestellt. GPT-Modelle sind mit großen Text-Datensätzen trainiert und in der Lage, durch die Verknüpfung dieser Inhalte neuartigen, menschlich klingenden Content zu generieren. Heute werden Large Language Models, also die großen Sprachmodelle, und GPTs oft gleich gesetzt.

Manchmal wird GPT auch mit „General purpose technology“ übersetzt – also als Allzwecktechnologie, die wirtschaftliche und soziale Strukturen drastisch verändern kann. Dieses Synonym soll auf die disruptiven Potenziale von GenAI hinweisen.

General-Purpose AI

General-Purpose AI Models (GPAI) sind KI-Systeme, die verschiedene Aufgaben bewältigen können. Während manche GenAI-Tools spezielle Zwecke erfüllen, bspw. die Übersetzung von Text, sind GPAI breiter angelegt und komplexer in der Entwicklung. Das bekannteste GPAI ist ChatGPT, das zum einen diverse Importe verarbeiten kann – von Text bis zu Sprache – und zugleicb auch unterschiedliche Medien ausgibt – seit der Integration von Dall-E auch Bilder.

Im AI Act der EU sind GPAIs explizit als regulierenswert erwähnt und werden auch strenger behandelt als „normale“ GenAI. Mehr dazu bei uns im Blog zum AI Act.

 

GPT-Store

Der 2024 gestartete GPT-Store von OpenAi erlaubt es Nutzer:innen und Entwickler:innen, eigene GPT-basierte Apps, sogenannte „CustomGPTs“, zu vermarkten. Experten verglichen den Launch des Stores mit der Einführung des App Stores von Apple in 2008 – und der beschleunigte damals massiv den Siegeszug des iPhones. Mehr dazu bei uns im Blog.

GPUs

GPUs (Graphics Processing Units) sind Computerprozessoren, die vor allem für Grafikkarten genutzt werden. Im Gegensatz zu den üblichen Prozessoren, den CPUs (Central Processing Units), sind sie besonders gut in der parallelen Berechnungen großer Datenmengen. Ohne sie wäre Deep Learning, also der Ausbildung tiefer neuronaler Netzwerke, kaum möglich. Entsprechend groß ist aktuell bei KI-Firmen die Nachfrage nach diesen Prozessoren. Die größten GPU-Hersteller sind Firmen wie AMD oder NVIDIA (unten), die daher auch entsprechend vom GenAI-Boom profitieren. In China ist Huawai ein wichtiger Hersteller.

Grüne, Die

Partei in Deutschland, die ChatGPT wählen würde. Das hat zumindest das Experiment unseres Gründers Timm Rotter ergeben, der den KI-Bot über die Thesen in der Wahlentscheidungshilfe Wahl-o-mat abstimmen ließ. Darüber berichtete sogar die BILD-Zeitung. Das gleiche Experiment wiederholten wir für Österreich – auch dort lagen die Grünen vorne und auch hier berichteten große Medien darüber.

Halluzinationen

In der KI-Sprache bezeichnet der Begriff „Halluzinationen“ die Tendenz eines Modells, Informationen zu erzeugen, die nicht korrekt oder nicht in den Trainingsdaten enthalten sind. Das Modell generiert manchmal Antworten oder Daten, die irreführend, falsch oder einfach erfunden sind.
Diese Halluzinationen können durch verschiedene Faktoren verursacht werden, darunter unzureichende Trainingsdaten, Überanpassung an bestimmte Daten oder inhärente Unsicherheiten in der Modellarchitektur. Bei der Arbeit mit Large Language Models ist es daher wichtig, Antworten kritisch zu überprüfen.

HeyGen

Aktuell (Q4/2025) das am weitesten entwickelte Text-to-Video-Tool auf dem Markt. HeyGen wurde vor allem durch seine sehr realistisch agierenden Avatare bekannt. Wir nutzen es bei disruptive aktuell, um Avatar-basierte Erklär- und Schulungsfilme zu erstellen. Im Blog zur disruptive AI Academy findet sich ein aktuelles Beispiel.
Mittelfristig wird Video-KI einen ähnlich großen Sprung nach vorne darstellen, wie es GenAI-Chatbots in 2023 getan haben: Künftig wird man mit wenigen Änderungen im Skript in wenigen Minuten ein komplettes Video aktualisieren oder erweitern können – ein Aufwand, für den man früher Tage brauchte.

Inferenz

Inferenz ist jener Prozess, bei dem ein KI-Modell auf unsere Prompts hin eine Antwort/ein Ergebnis erzeugt, indem es sein Wissen aus dem Training nutzt.

Internetzugriff

Internetzugriff sollte für KI-Tools selbstverständlich sein – lange war das allerdings nicht der Fall. Perplexity und Google Gemini konnten für ihre Antworten von Beginn an das Netz durchsuchen, ChatGPT hingegen in der Grundversion 3.5 nicht. Erst die Bezahlversion ChatGPT 4 ermöglichte, zunächst über Plugins wie Webpilot, die Abfrage einzelner URLs. Erst im Herbst 2023 kam mit „Browse with Bing“ eine neue Funktion hinzu, die laut OpenAI „Internetzugriff“ ermöglichte. Dieser war jedoch sehr begrenzt – teilweise wurde ChatGPT sogar schlechter. Wieso, das haben wir hier im Blog beschrieben. Inzwischen ist die Limitation bei allen führenen Chatbots Geschichte.

Kontextfenster

Das Kontextfenster eines Sprachmodells bestimmt, wie viel Text das KI-Tool auf einmal verarbeiten kann. Es ist quasi eine Art Kurzzeitgedächtnis. ChatGPT hatte lange ein Kontextfenster von 4096 „Tokens“ (siehe unten), was etwa 3000 Wörtern entspricht. Das KI-Startup Anthropic erweiterte im Sommer 2023 das Kontextfenster seines ChatGPT-Konkurrenten Claude auf viel bestaunte 100.000 Tokens.

Seitdem folgen monatlich neue Rekorde, die jedoch eher statistischen Wert haben, denn bereits 100.000 Tokens entsprechen etwa 120 Seiten eines Standardbuchs. Das Wettrennen macht zudem zwei Probleme erkennbar:

  1. den immer höheren Energieverbrauch der Antworten
  2. das „Lost in the Middle“-Phänomen: Inhalte, die in den mittleren Bereichen von Langtexten stehen, überliest die KI gerne mal, wenn man sie um eine Zusammenfassung bittet. Anfang und Schluss hingegen fasst sie in der Regel sehr gut zusammen. Die Ähnlichkeit zum Leseverhalten mancher Uniprofessor:innen und Student:innen muss reiner Zufall sein 😉

2025 lag der Rekord bei 10 Millionen Tokens – womit sich der „Zauberberg“ von Thomas Mann leicht in einem Schwung in der KI einlesen ließe – und das gleich fünfmal.

KI-Guidelines

… sind die Basis, damit Mitarbeitende in Firmen oder Organisatione KI-Tools sicher und professionell nutzen können. In unserem Blog zu KI-Guidelines für Unternehmen erklären wir, worauf es ankommt.

Large Language Models

Large Language Models (LLMs) sind maschinelle Lernmodelle, die darauf spezialisiert sind, Texte zu verstehen und zu generieren. Sie werden mittels enormer Datenmengen, insbesondere Texten, trainiert, um menschlich klingende Texte verfassen zu können. LLMs können Fragen beantworten, Texte schreiben, Übersetzungen durchführen und viele andere textbasierte Aufgaben erledigen. Beispiele für LLMs sind GPT von OpenAI oder Gemini von Google.

 

Lovable

Eine der führenden Plattformen zum Vibe Coding (siehe unten). Dieses kleine Wörterquiz beispielsweise haben wir in drei Iterationen mit der KI erstellt – ohne eine Zeile Code zu erstellen. Dauer: 5 Minuten. Programmiererfahrung zuvor: 0 Stunden. Viel Spaß damit!

Low-Code-Tools

… sind Entwicklungsplattformen, die die Erstellung von Software und digitalen Workflows mit minimalem manuellen Programmieraufwand ermöglichen. Anstatt komplexe textbasierte Codes zu schreiben, lassen sich Anwendungen mit visuellen Schnittstellen und Baukastensystemen per Drag-and-Drop entwerfen. Anders als in der No-Code-Entwicklung lässt sich bei Bedarf allerdings auch individueller Code integrieren. Low-Code-Tools wie n8n oder Make.com nutzen wir, um Automatisierungslösungen für Kunden zu entwickeln. 

Machine Learning

Machine Learning (kurz „ML“) ist eine Anwendungsform von KI. Das Ziel ist es, dass Maschinen ihre Leistung  verbessern, indem sie aus eigenen Daten Muster und entsprechende Optimierungspotenziale erkennen. Anstatt die Maschine also einmalig zu programmieren, erlernt sie das bestmögliche Verhalten auf Basis eigener Erfahrungswerte. Je umfassender dabei die Datenmenge (Stichwort Big Data), desto höher das Lernpotenzial.

MCP

MCPs (Model Context Protocol), oft auch als Multi-Context-Plattformen bezeichnet, sind ein standardisiertes Framework, das als eine Brücke zwischen künstlicher Intelligenz, insbesondere großen Sprachmodellen (LLMs), und externen Datenquellen, Anwendungen sowie Software-Tools dient. Ähnlich einer spezialisierten API für KI-Systeme, vereinfacht das MCP die Integration von externen Diensten maßgeblich. 

Dies erlaubt es der KI, über ihre statischen Trainingsdaten hinaus in Echtzeit mit diversen Systemen wie Datenbanken oder APIs zu interagieren, wodurch sie Aktionen ausführen und einen Kontext über mehrere Plattformen hinweg verstehen kann.

München

… ist längst ein international wichtiger KI-Standort. Und das nicht nur, weil disruptive hier seinen Hauptsitz hat ;-). Firmen wie Google oder Microsoft sitzen schon lange in München, und seit 2025 eröffnete OpenAI hier auch sein erstes Deutschland-Büro. Insofern: Wer bei uns arbeitet, arbeitet dort, wo KI-Evolution stattfindet – da lohnt ein Blick auf unsere aktuellen Jobangebote!

n8n

Eines von zwei Low-Code-Tools, die wir bevorzugt zur KI-unterstützten Prozessautomatisierung nutzen (das andere ist make.com). n8n – gesprochen „en-acht-en“ – ermöglicht es, verschiedene Anwendungen und APIs über einen visuellen Editor miteinander zu verbinden. 
 
Durch die Verwendung von Knoten (Nodes) lassen sich KI-gestützte Workflows, beispielsweise für die Verarbeitung von Texten oder die Erstellung von Berichten, ohne umfangreiche IT-Kenntnis und Programmierung erstellen. Dank der Selbst-Hosting-Option bietet n8n eine hohe Datensouveränität. 

Nvidia

NVIDIA ist ein amerikanisches Technologieunternehmen, das ursprünglich für die Entwicklung von Grafikprozessoreinheiten (GPUs) im Gaming- und Videospielmarkt bekannt wurde. Mit der Zeit stellten Forscher und Entwickler fest, dass GPUs aufgrund ihrer parallelen Verarbeitungsfähigkeiten hervorragend für Deep Learning und komplexe KI-Aufgaben geeignet sind. Daher hat NVIDIA seine Technologie und Produkte weiterentwickelt, um den wachsenden Bedarf bei KI und maschinellem Lernen zu decken, wodurch das Unternehmen zu einem Schlüsselakteur in diesem Sektor geworden ist.

Omni

… heißt auf Latein „alles“ und ist der Namenszusatz der 2024 veröffentlichten damals neuen Sprachmodelfamilie von OpenAI – GPT-4o. Das „o“ soll aussagen, dass das Modell deutlich besser als die bisherigen LLMs unterschiedlichste Arten von Content in Ein- und Ausgabe verarbeiten kann. Am eindrucksvollsten ist aus unserer Sicht das verbesserte Sprachverständnis. Erstmals konnte man sich mit ChatGPT quasi in Echtzeit unterhalten.

Perplexity

Perplexity ist eine KI-gestützte Konversations-Suchmaschine, die entwickelt wurde, um Anfragen in natürlicher Sprache mit Quellenangaben zu beantworten. Das 2023 veröffentlichte Tool kombinierte dabei die Stärken von großen Sprachmodellen (LLMs) mit einer Echtzeit-Websuche. Gibt man eine Frage ein, durchsucht das System das Internet nach relevanten Informationen, analysiert diese und generiert eine zusammenfassende Antwort. 

Gerade in der „Frühzeit“ von GenAI 2023/24 war die transparente Nennung und funktionierende Verlinkung von Quellen in der generierten Antwort ein USP, weil dies eine einfachere Überprüfung der Fakten ermöglichte. Mit „Comet“ hat Perplexity als bisher einzige KI-Plattform einen eigenen Webbrowser entwickelt.

PowerPoint

Klingt nicht nach Künstlicher Intelligenz, allerdings steckt in der neuen Version dank Microsofts neuem KI-Produkt „Copilot“ sehr viel GenAI drin. Was der Copilot leistet und wieso er für Unternehmen sogar relevanter werden wird als ChatGPT, lesen Sie bei uns im Blog.

Project Jarvis

„Project Jarvis“ war der Codename für ein von Google 2024 lanciertes AI-Agents-Projekt, bei dem KI den Browser steuern können sollte. Technologisch funktioniert das ganze durch regelmäßige Screenshots des Bildschirms – so kann die KI erkennen, was sie tun muss, und darauf basierend selbständig Aktionen ausführen. 

Bevor Google „Project Jarvis“ ausrollte, kam dem Unternehmen im Herbst 2024 allerdings Anthropic zuvor: Seine Anwendung „Computer Use“ war der erste öffentlich nutzbare Agent, der komplexe Befehlsketten abarbeitet und damit den eigenen Computer steuert.

Prompten

„Prompten“ bezeichnet den Vorgang, einem Computerprogramm oder speziell einem Language Model eine Eingabeaufforderung (englisch „prompt“) zu geben, um eine bestimmte Antwort oder Aktion zu erhalten. In Bezug auf Language Models wird ein „prompt“ oft als kurzer Text oder eine Frage verwendet, um das Modell dazu zu veranlassen, relevante Informationen oder Antworten zu generieren.


Das Eingeben eines Prompts dient als Startschuss für die KI, um ihre Antwort zu formulieren. Prompts können offen, spezifisch, kreativ oder leitend sein, je nachdem, welches Ergebnis der Benutzer erzielen möchte. In vielen Anwendungen von Large Language Models, wie Chatbots oder in der Textgenerierung, sind Prompts ein zentraler Bestandteil der Interaktion.

Reasoning

Reasoning, auf Deutsch „Schlussfolgern“ oder „Argumentieren“, bezeichnet die Fähigkeit von KI-Modellen, Informationen logisch zu verarbeiten und daraus fundierte Entscheidungen abzuleiten. Aktuelle KI-Modelle wie DeepSeek R1 und ChatGPT o1 haben hier bedeutende Fortschritte gemacht. Sie zerlegen Aufgaben in kleinere Schritte und durchdenken zunächst Schritt für Schritt verschiedene Lösungswege, bevor sie eine Antwort präsentieren. So können sie v. a. komplexe Probleme in Mathematik oder Physik besser bewältigen.

Diese Fähigkeit ist ein Meilenstein, da sie KIs näher an menschliches Denken heranführt und ihre Einsatzmöglichkeiten erweitert. Statt durch mehr Daten werden die Modelle besser, indem sie besser nachdenken. Allerdings gibt es Grenzen: Die Modelle können zwar logisch argumentieren, aber echtes Verständnis, geschweige denn Bewusstsein, fehlt ihnen nach wie vor. Zudem basieren ihre Schlussfolgerungen auf den in den Daten enthaltenen Mustern und können bei ungewöhnlichen Situationen „halluzinieren“.

Reddit

Social-News-Plattform und  Diskussionsforum, das durch KI stark an Bedeutung gewinnt. Wieso, steht hier bei uns im Blog.

Auf Reddit können registrierte Nutzer Inhalte wie Links, Bilder, Videos und Textbeiträge erstellen und teilenDie Plattform ist unterteilt in tausende themenspezifische Communities, auch „Subreddits“ genannt, in denen Nutzer zu bestimmten Interessen oder Hobbys diskutieren. Durch ein Upvote/Downvote-System bestimmt die Community, welche Beiträge am relevantesten sind und im Feed angezeigt werden.

Retrieval Augmented Generation

Retrieval Augmented Generation (RAG) ist eine Technik, die Large Language Models (LLM) durch eine intelligente Suche in Datenquellen wie Dokumentensammlungen oder Datenbanken ergänzt, um die Zuverlässigkeit und Effizienz der Textgenerierung zu erhöhen. RAG hat sich bei der Unterstützung von Chatbots und Q&A-Systemen bewährt, bei GenAI, aber auch im Nicht-KI-Bereich. Gerade bei Themen, zu denen nicht ausreichend spezifisches Wissen vorhanden ist, ermöglicht RAG genauere und kontextbezogene Antworten, ohne dass man das Modell neu aufsetzen oder trainieren muss.

Schöpfungshöhe

„Schöpfungshöhe“ ist das zentrale Kriterium für urheberrechtlichen Schutz von Texten, Bildern, Videos und anderen Werken. Das Aufkommen von GenAI hat den Begriff für Unternehmen, Kreative und die Rechtswelt sehr relevant gemacht – weil die Schöpfungshöhe entscheidenden Einfluss hat, wer welche Rechte am KI-Output hat. Mehr dazu bei uns im Blog.

Single Shot Prompting

Ein Begriff aus dem Bereich der Verarbeitung von natürlicher Sprache (Natural Language Processing, NLP). Beim Single Shot Prompting enthält die Eingabeaufforderung (der Prompt) neben der Aufgabenstellung ein konkretes Beispiel, das das gewünschte To Do und die Antwort verdeutlicht. Andere Ansätze sind das „Few Shot Prompting“ oder das „Zero Shot Prompting“, wo man der KI mehrere oder auch gar keine Beispiele nennt. In unserer KI-Akademie zeigen wir, welche Prompttechnik sich wofür am besten eignet.

Sprachmodelle

Sprachmodelle sind Datenbanken, die auf großen Mengen von Textdaten trainiert werden, um menschliche Sprache zu verstehen und zu generieren. Sie können Aufgaben wie Textübersetzung, Frage-Antwort-Systeme und Textgenerierung durchführen. Moderne Modelle, wie GPT-4 oder Googles Gemini, basieren auf mehrschichtigen künstlichen neuronalen Netzwerke, die tatsächlich Strukturen im menschlichen Gehirn gleichen. Die damit verbundene Fähigkeit zur Kombinatorik sorgt für die beeindruckende Genauigkeit und Vielseitigkeit.

Sora

heißt das ziemlich beeindruckende KI-Video-Modell von OpenAI. Seit März 2025 ist es auch in der EU verfügbar – was es leistet, steht bei uns im Blog. Google hat mit Veo  ein Konkurrenzangebot gestartet.

Tasks

… heißt eine im Januar 2025 als Beta vorgestellte Funktion von ChatGPT, die den Chatbot zum persönlichen Assistenten entwickelt. Per „Tasks“ kann die KI selbständig repetitive Aufgaben erledigen, selbst wenn wir nicht dabei sitzen. Mehr dazu bei uns im Blog zu „Tasks“.

Token

In KI und Sprachmodellen werden Tokens als die kleinste Dateneinheit verwendet, um Texte zu verarbeiten. Diese Tokens repräsentieren normalerweise einzelne Wörter oder Subwörter, die dann von Modellen analysiert und verstanden werden können. Sie ermöglichen es den Modellen, Sprache effizient zu zerlegen und zu interpretieren, was wichtig ist für Aufgaben wie Übersetzung, Textgenerierung und Sentimentanalyse.

Im Englischen besteht ein Wort im Schnitt aus 1,3 Token – im Deutschen, wo viele Wörter länger sind, aus 1,8.

Tool Calling

„Tool Calling” (auch „Function Calling” genannt) bezeichnet die Fähigkeit von GenAI-Tools, andere Softwareanwendungen über Schnittstellen (APIs) anzusprechen, um spezifische Aufgaben zu erfüllen oder Daten zu liefern, die sie für ihre eigentliche Aufgabe benötigt. So kann die KI auf die Stärken anderer Programme zugreifen und ihre effizienter arbeiten oder ganz neue Aufgaben erledigen, an denen sie bisher gescheitert war. Die Fähigkeit zum Tool Calling in Verbindung mir der Fähigkeit der Modelle zum reflektierten Nachdenken („Reasoning”) markiert den Übergang von KI-Assistenten zu KI-Agenten. 

 

Urlaub

KI kann auch helfen, wenn man mal nix von der Arbeit wissen möchte – und zwar bei der Planung für den nächsten Urlaub. Es gibt dazu sowohl eigene Tools wie Tripclub als auch KI-Apps im GPT-Store (siehe Blog). Man gibt jeweils nur Reisedaten und -ziel ein und bekommt dann Tipps und Vorschläge zur Reiseroute. Die Ergebnisse sind klassisch GenAI: großteils richtig und als erster Impulsgeber interessant, im Detail muss man aber noch nachbessern.

 

Vertex AI

Vertex AI ist eine KI-Entwicklungsplattform von Google für die Konzeption und Erstellung eigener Apps auf Basis von Generativer KI und Prozessautomatisierung. Funktionen wie AI Studio, ein Agent Builder, der der CostomGPT-Funktion in OpenAIs ChatGPT ähnelt, und mehr als 130 Basismodelle, darunter Gemini 1.5 Pro, ermöglichen Programmierung mit nur minimalen oder ganz ohne Programmierkenntnisse – auch als „Low-Code-“ oder „No-Code-Entwicklung“ bekannt.

Vibe Coding

Vibe-Coding ist ein KI-gestützter Ansatz zur Softwareentwicklung, bei der man nicht mehr manuell Code erstellt, sondern sie in natürlicher Sprache beschreibt und ein LLM den Code generiert. Dadurch verlagert sich der Fokus vom technischen Programmieren auf das kreative Konzept. Vibe Coding beschleunigt dadurch das Prototyping erheblich und ermöglicht es auch Menschen ohne tiefe Programmierkenntnisse, grundlegend funktionierende Software zu erstellen. Bekannte Tools sind Lovable oder Replit.

Mit steigender Verbreitung wächst auch die Kritik an Vibe Coding: Denn der von KI generierte Code kann Sicherheitslücken und Ineffizienzen enthalten, die nur schwer zu erkennen sind. Die Abhängigkeit von der KI kann zudem das technische Verständnis für die Codebasis verringern, was die Wartung und Weiterentwicklung erschwert. Einfache Anwendungen oder Prototypen lassen sich daher leicht vibecoden, bei komplexen Projekten stößt die Technik schnell an seine Grenzen.

WhatsApp

… hat inzwischen auch KI integriert – in Form des Chatbots „Meta AI“. Damit haben die User die Qual der KI-Wahl, denn seit Dezember 2024 ist auch ChatGPT über den Messenger-Dienst erreichbar (Details: siehe Blog).

Aktuell funktioniert das nur mit Textnachrichten – Interaktionen über Sprachaufnahmen oder Bilder sind noch nicht möglich. Schade ist zudem, dass ein wichtiges WhatsApp-Feature nicht nutzbar ist: Eigenen Gruppen tritt der Chatbot leider nicht bei – die „Meta AI“ allerdings auch nicht.

Zuckerberg, Mark

Erfinder des früher in Westeuropa (und heute noch in vielen anderen Teilen der Welt) sehr populären Social Networks Facebook. Im KI-Business war der Facebook-Mutterkonzern Meta, den Zuckerberg leitet, lange überraschend unauffällig. Für Aufsehen sorgte dann seine Ankündigung, das eigene Large Language Model LLaMA unter eine Open-Source-Lizenz zu stellen und damit der Öffentlichkeit einen kostenlosen, freien Zugang zu der KI-Technologie zu gewähren.

Llama 4, die neueste Version (mit diversen Unterversionen 4.x), soll den Weg weisen in Richtung einer Artificial General Intelligence – mehr dazu siehe oben unter „A“. Die Einbindung als „Meta AI“ in WhatsApp, Instagram und Facebook Messenger trägt sicherlich dazu bei. Denn seitdem erhält Meta ein Vielfaches an KI-User-Daten. 

Nach oben scrollen