KI-Glossar
A
AgentAutonome Systeme
Ein Agent ist ein autonomes System, wie eine Software oder ein Roboter, das seine Umgebung wahrnimmt, eigene Aktionen auswählt und ausführt, um vorgegebene Ziele oder Belohnungen zu erreichen. Agenten können einfach (regelbasiert) oder komplex (lernend) sein und interagieren oft kontinuierlich mit ihrer Umgebung, um Verhalten zu optimieren.
Ein solcher Agent kann beispielsweise als persönliche Assistenz Kalender verwalten, im Smart Home Heizung und Licht basierend auf Sensorwerten und Präferenzen steuern oder auch im Kundensupport Anfragen der Nutzenden beantworten.
Mehr zum Thema gibts auf unserer Website zu KI-Agenten.
B
BiasSystematische Fehler oder Verzerrungen
Bias bezeichnet systematische Fehler oder Verzerrungen in Daten, Modellen oder Ergebnissen, die dazu führen, dass eine KI bestimmte Personen, Gruppen oder Ergebnisse ungerecht behandelt oder falsche Schlüsse zieht. Das kann absichtlich oder unabsichtlich passieren.
Beispiele sind:
- Gesichtserkennungsmodelle, die Menschen einer Hautfarbe schlechter erkennen
- Bewerbenden‑Screening‑Tools, die Bewerbende eines bestimmten Geschlechts bevorzugen
- Sprachmodelle, die stereotype Formulierungen reproduzieren
Das führt widerum zu Diskriminierung (rechtlich/ethisch), Reputations‑ und Vertrauensverlust sowie unzuverlässigen Systemen.
Einfache Gegenmaßnahmen:
- Datenvielfalt sicherstellen: Repräsentative, ausgewogene Datensätze sammeln.
- Bias‑Tests & Metriken: Modelle auf unterschiedliche Gruppen prüfen (z. B. Performance nach Subgruppen).
- Fairness‑Algorithmen: Techniken wie Reweighing, Adversarial Debiasing oder Constraints während des Trainings nutzen.
- Transparenz & Human‑in‑the‑Loop: Entscheidungen erklärbar machen und Menschen bei kritischen Fällen einbinden.
- Kontinuierliches Monitoring: Bias‑Checks in Produktion, Alerts bei Verschiebungen (Drift).
Mehr zum Thema KI und Diversität gibts im Video.
C
ChatbotBeantwortung von Anfragen
Ein Chatbot ist ein KI‑gestütztes System, das natürliche Sprache versteht und auf Nutzeranfragen in Text- oder Sprachform antwortet. Moderne Chatbots nutzen meist NLP/LLMs und können so Aufgaben erfüllen wie Information liefern, Dialoge führen, Prozesse automatisieren oder Aktionen ausführen; sie kombinieren Verständnis, Dialogmanagement und oft externe Datenquellen für kontexttreue, faktengestützte Antworten.
Wie ein Chatbot von Accso die Arbeit in der Landesdatenbank NRW vereinfacht, erfahrt Ihr hier.
D
DatenschutzUmgang mit personenbezogenen Daten
Datenschutz im Kontext von KI bedeutet, personenbezogene Daten während Sammlung, Speicherung, Verarbeitung und Modellierung so zu schützen, dass Rechtmäßigkeit, Zweckbindung, Datenminimierung und Transparenz gewahrt bleiben. KI‑Projekte müssen geeignete technische und organisatorische Maßnahmen treffen — z. B. Pseudonymisierung/Anonymisierung, Zugriffskontrollen, Verschlüsselung, Audit‑Logs und Privacy‑Enhancing‑Technologies (Differential Privacy, Secure MPC, Homomorphic Encryption) — sowie klare Rechtsgrundlagen, Einwilligungen oder berechtigte Interessen dokumentieren. Außerdem sind data‑governance‑Prozesse (Data Lineage, Retention‑Policies, Löschmechanismen), Risikobewertungen und regelmäßige Datenschutz‑Audits nötig, um Compliance mit DSGVO und ähnlichen Vorschriften sicherzustellen und Risiken wie Datenlecks, Rückschlüsse auf Einzelpersonen oder unerlaubte Profilbildung zu vermeiden.
DeepfakeManipulation von Bild, Ton oder Video
Deepfake beschreibt einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.
Mehr dazu gibt es im
EU AI Act.
E
EU AI ActRegelwerk zur Regulierung von KI
Der EU AI Act ist das weltweit erste umfassende Regelwerk zur Regulierung Künstlicher Intelligenz und seit August 2024 in Kraft. Das Gesetz verfolgt einen risikobasierten Ansatz: Je höher die Risiken eines KI-Systems, desto strenger die Regulierung.
Verbotene Anwendungen mit unannehmbaren Risiken (z. B. staatliches Social Scoring) werden untersagt. Für Hochrisiko‑Systeme (z. B. biometrische Identifikation, Kreditentscheidungen, Bewerber‑Screening) gelten Pflichten wie:
- repräsentative Daten,
- Bias‑Tests,
- technische Dokumentation,
- Audit‑Trails,
- Human-in-the-Loop
- regelmäßiges Monitoring
- Konformitätsprüfungen vor dem Einsatz.
Niedrigrisiko‑Systeme unterliegen weniger Auflagen, während bestimmte Transparenzpflichten für generative oder dialogorientierte Systeme bestehen.
Mehr zum EU AI Act gibt es hier.
G
GovernanceRahmenwerke, Prozesse und Verantwortlichkeiten
KI‑Governance bezeichnet die Rahmenwerke, Prozesse und Verantwortlichkeiten, die sicherstellen, dass KI‑Systeme ethisch, rechtlich und operativ verantwortungsvoll entwickelt, betrieben und überwacht werden. Dazu gehören Richtlinien zu:
- Datenqualität,
- Risikomanagement,
- Transparenz,
- Explainability,
- Zugriffssteuerung,
- Auditierbarkeit und regelmäßiges Monitoring sowie
- klare Rollen für Compliance und Entscheidungsbefugnisse.
KI-Governance ist bestandteil von Responsible AI. Was noch dazu gehört, erfahrt ihr hier.
H
Human‑in‑the‑LoopMenschen als Kontrollinstanz
Human‑in‑the‑Loop bedeutet, dass Menschen aktiv in den Trainings‑, Validierungs‑ oder Entscheidungsprozess von KI‑Systemen eingebunden sind. Menschen prüfen und korrigieren Trainingsdaten oder Modell‑Outputs, treffen finale Entscheidungen bei kritischen Fällen oder geben Feedback zur Verbesserung des Modells. Das Ziel ist höhere Genauigkeit, bessere Qualität, Reduktion von Fehlern und Kontrolle bei Risikofällen. Außerdem erhöht HITL Vertrauenswürdigkeit und erlaubt, ethische/regelkonforme Entscheidungen sicherzustellen.
I
InferenzKI-Modelle und unbekanntes Wissen
Inferenz ist der Prozess, bei dem ein bereits trainiertes KI‑Modell auf neue, unbekannte Eingabedaten angewendet wird, um Vorhersagen, Klassifikationen oder generierte Ausgaben zu erzeugen. So ermöglicht Inferenz, dass ein bereits trainiertes Modell praktischen Nutzen liefert.
Vorteile:
- Modelle liefern direkt automatisierte Erkenntnisse oder Aktionen (z. B. Klassifikation, Empfehlungen, Textgenerierung).
- Skalierbarkeit: Einmal trainiert, kann das Modell schnell viele Anfragen parallel bearbeiten.
- Effizienz & Kostenkontrolle: Trainingsaufwand ist einmalig; Inferenz ist oft deutlich günstiger und optimierbar (Quantisierung, Batching, Caching).
- Echtzeit‑Nutzen: Ermöglicht latenzarme Anwendungen (z. B. Chatbots, Betrugserkennung, personalisierte Dienste).
- Konsistenz und Automatisierung: Gleichbleibende Entscheidungslogik reduziert menschliche Fehler und erhöht Durchsatz.
K
Knowledge GraphStrukturierte Darstellung von Wissen
Ein Knowledge Graph ist eine strukturierte Darstellung von Wissen als Netzwerk aus Entitäten wie zum Beispiel Personen, Orte, sowie Produkte und ihren Beziehungen wie „arbeitet für“, „ist Teil von“.
Er speichert Fakten in Form von Knoten (Entitäten) und Kanten (Relationen) plus Metadaten, macht Zusammenhänge maschinen‑ und menschenlesbar.
Knowledge Graphs liefern die strukturierte, erklärbare Wissensgrundlage, die KI‑Modelle kontextualisiert, überprüfbar und leistungsfähiger macht — besonders in Unternehmensanwendungen, wo Integration, Transparenz und Nachvollziehbarkeit wichtig sind.
M
ModellMathematisches/algorithmisches System
Ein Modell ist im KI-Kontext ein mathematisches/algorithmisches System, das aus Daten Muster gelernt hat und auf Grundlage dieser gelernten Parameter Vorhersagen oder Entscheidungen trifft. Es entsteht durch Training auf Beispieldaten, speichert Wissen in Gewichten/Parametern und wird in Produktion eingesetzt, um neue, bisher unbekannte Eingaben zu verarbeiten.
Bekannte Modelle sind:
- GPT (OpenAI)
- Gemini (Google)
- LLaMA (Meta)
- Claude (Anthropic)
N
Natural Language ProcessingComputer und menschliche Sprache
Natural Language Processing (NLP) beschreibt Methoden, mit denen Computer menschliche Sprache in Textform oder gesprochen verstehen, verarbeiten, generieren und nutzen.
NLP wandelt dafür Text in Zahlen (Tokenisierung → Embeddings), nutzt Modelle (meist Transformer), um Muster zu lernen (Vortraining + Fine‑Tuning) und führt Aufgaben aus wie Klassifikation, Extraktion oder Textgenerierung; für faktische Antworten kombiniert man oft semantische Suche (Retrieval) mit einem Generator (RAG).
Kurz gesagt: Erst wandelt der Computer Wörter in Zahlen um (Tokenisierung), damit er sie „verstehen“ kann (Embeddings). Dann nutzt er ein Modell, das aus vielen Beispielen gelernt hat, um zu entscheiden, was der Text bedeutet oder um neuen Text zu schreiben. Beispiele sind automatische Übersetzung, Chatbots oder Zusammenfassungen von langen Texten.
O
OverfittingExaktes Auswendiglernen
Overfitting tritt auf, wenn ein Lernmodell die Trainingsdaten zu exakt „auswendig lernt“ statt die zugrundeliegenden allgemeinen Muster. Das Modell passt sich so stark an die speziellen Eigenheiten, Ausreißer oder Rauschelemente der Trainingsdaten an, dass es bei neuen, unbekannten Daten schlecht generalisiert und so in der Praxis schlechtere Vorhersagen liefert.
Man hilft dem Modell, weniger zu überlernen, indem man ihm mehr oder bessere Beispiele gibt, ein einfacheres Modell verwendet oder Techniken wie „Early Stopping“ oder „Dropout“ einsetzt, die das Auswendiglernen verhindern.
Zusätzlich kann man die Daten aufräumen, mehrere Modelle kombinieren oder ein bereits vortrainiertes Modell verwenden, damit es zuverlässiger mit neuen Situationen umgehen kann.
P
Prompt EngineeringFormulierung und Organisation von Prompts
Prompt Engineering ist die Kunst und Wissenschaft, Eingabetexte ( Prompts) so zu formulieren und zu organisieren, dass große Sprachmodelle (LLMs) oder multimodale Modelle gewünschte, zuverlässige und sichere Ausgaben erzeugen. Es umfasst: Formulierung, Kontext‑Management, Formatierung, Steuerung von Stil/Ton, Einschränkungen (constraints) und gegebenenfalls Ketten von Prompts (prompt chaining).
Grundprinzipien effektiver Prompts
- Klarheit & Präzision: Sag dem Modell genau, was du willst — Ziel, Umfang, Format, Beispiele.
- Kontext & Relevanz: Gib alle notwendigen Informationen (Kontext) mit — z. B. Produktdaten, Zielgruppe, frühere Interaktionen.
- Rolle & Persona: Weise dem Modell eine Rolle zu („Du bist ein erfahrener Datenschutzjurist…“), um Ton und Stil zu steuern.
- Constraints/Formatierung: Fordere klare Output‑Formate (z. B. JSON, Bullet‑Points, max. 200 Wörter).
- Schrittweise Instruktion: Zerlege komplexe Aufgaben in klar definierte Sub‑Steps (Chain‑of‑Thought nur intern, vorsichtig in Open APIs).
- Examples (Few‑Shot): Bei Bedarf Beispiele zeigen (Input → gewünschter Output) für konsistentere Ergebnisse.
- Iterative Verfeinerung: Testen, messen, anpassen — verwende A/B‑Tests und automatische Metriken.
R
Responsible AIKI und Ethik
Responsible AI beschreibt Prinzipien und Praktiken, um KI-Lösungen zu entwickeln und zu betreiben, die ethischen Standards entsprechen. Damit werden Nutzende, Unternehmen und Gesellschaft vor Risiken geschützt und Vertrauen geschaffen - eine Voraussetzung für breite Akzeptanz und wirtschaftlichen Erfolg von KI‑Lösungen.
Konkret bedeutet das:
- Sicherheit und Robustheit: Systeme sollen zuverlässig funktionieren, gegen Angriffe und Eingabeverzerrungen resistent sein und bei Fehlern kontrollierbar bleiben.
- Fairness und Antidiskriminierung: Entscheidungen sollen keine systematischen Benachteiligungen bestimmter Personen oder Gruppen erzeugen.
- Transparenz und Erklärbarkeit: Nachvollziehbare Erklärungen für Entscheidungen und klare Dokumentation für Stakeholder.
- Inklusivität: KI‑Lösungen sollen sollen allen Menschen zugutekommen, unabhängig von Herkunft, Geschlecht oder anderen Merkmalen.
- Verantwortlichkeit und Governance: Klare Zuständigkeiten, Audit‑Trails, Richtlinien und Prozesse, damit Entscheidungen überprüfbar und Verantwortliche benennbar sind.
- Compliance & Rechtssicherheit: Einhaltung gesetzlicher Vorgaben (z. B. DSGVO, künftige KI‑Regulierungen) und interne Policies.
Mehr zum Thema hier.
S
Schwache und starke KIMöglichkeiten und Grenzen
„Starke“ und „schwache“ KI beschreibt die Möglichkeiten und Grenzen künstlicher Intelligenz.
Schwache KI (Artificial Narrow Intelligence) beschreibt dabei Systeme, die auf eine eng umgrenzte Aufgabe oder Domäne spezialisiert sind wie zum Beispiel Bilderkennung, Sprachübersetzung, Empfehlungssysteme oder Chatbots. In diesen Spezialisierungen ist die KI häufig besser als der Mensch, sie hat allerdings kein allgemeines Weltverständnis, kein Bewusstsein, keine Selbstreflexion und kein echtes „Verstehen“ außerhalb ihres Trainingszwecks.
Starke KI-Systeme (Artificial General Intelligence) hingegen verfügen über eine allgemeine, menschenähnliche kognitive Leistungsfähigkeit: sie könnten jede intellektuelle Aufgabe, die ein Mensch lösen kann, ebenso gut oder besser ausführen. Sie besitzt flexibles Problemlösungsvermögen, Transferfähigkeiten zwischen Domänen und potenziell Selbstbewusstsein.
Die heute eingesetzte KI ist überwiegend „schwach“, starke KI ist vor allem Gegenstand philosophischer, ethischer und strategischer Debatten. Es gibt bis heute noch keine allgemein akzeptierte Demonstration starker KI.
T
TrainingLernen durch Beispiele
Training bedeutet, einem Modell beizubringen, aus Beispielen Regeln oder Muster zu erkennen, damit es später nützliche Vorhersagen oder Entscheidungen trifft. Praktisch läuft das so ab:
- Datensammlung: Man sammelt viele Beispielpaare (z. B. Eingabetext → gewünschte Ausgabe oder Bild → Label).
- Lernen: Das Modell verarbeitet die Beispiele, vergleicht seine Vorhersagen mit den richtigen Antworten und passt seine internen Parameter (Gewichte) schrittweise an, meist durch Optimierungsverfahren wie Gradientenabstieg.
- Validierung: Während des Trainings testet man das Modell auf separaten Daten, um zu prüfen, ob es wirklich generalisiert und nicht nur die Trainingsbeispiele auswendig lernt.
- Feinabstimmung: Oft wird ein vortrainiertes Modell (auf großen allgemeinen Daten) auf eine spezielle Aufgabe oder Domäne weitertrainiert (Fine‑Tuning).
- Ergebnis: Ein trainiertes Modell kann neue, bisher unbekannte Eingaben bewerten oder generieren — z. B. Texte übersetzen, Bilder erkennen oder Entscheidungen treffen.
Um am Ende ein brauchbares und verantwortungsvolles Modell zu erhalten, sind die Qualität der Trainingsdaten, eine passende Evaluation und Maßnahmen gegen Overfitting, Bias und Datenlecks entscheidend.
U
Unsupervised LearningEigenständiges Entdecken von Mustern und Strukturen
Unsupervised Learning ist ein Teilgebiet des maschinellen Lernens, bei dem ein Modell Muster oder Strukturen in Rohdaten eigenständig entdeckt (also ohne vorgegebene Zielwerte). Typische Aufgaben sind Clustering (Gruppierung ähnlicher Datenpunkte), Dimensionsreduktion (z. B. PCA) und Dichteschätzung; Ziel ist Explorieren, Segmentieren oder Merkmalsgewinnung für weitere Analysen oder nachfolgende Modelle.
Unsupervised Learning ist ein Teilgebiet des maschinellen Lernens, bei dem ein Modell selbständig nach Mustern in Daten sucht, ohne dass ihm vorher gesagt wird, was richtig oder falsch ist.
Typische Aufgaben sind zum Beispiel:
- ähnliche Dinge in Gruppen zusammenfassen (Clustering),
- die wichtigen Merkmale aus vielen Daten herausziehen (wie PCA),
- oder Bereiche mit hoher Dichte erkennen
– also alles, was hilft, Daten zu erkunden, zu ordnen oder nützliche Merkmale für spätere Analysen zu finden.
X
XAINachvollziehbarkeit von Funktionen und Entscheidungen
Unter XAI oder Explainable AI versteht man Methoden und Techniken, um die Funktionsweise und Entscheidungen von KI-Systemen für Menschen nachvollziehbar zu machen. Ziel dabei ist es, Vertrauen zuschaffen, Regulierungsanforderungen zu erfüllen, Fehlerursachen schneller zu finden, Bias zu erkennen und Geschäftsentscheidungen abzusichern. Dies systematisch sicherzustellen, erfordert Prozesse, Architekturentscheidungen, passende Methoden und organisatorische Maßnahmen.
Genau diese Erklärbarkeit ist ein wichtiger Baustein, um Künstliche Intelligenz verantwortungsbewusst und compliant einzusetzen. Mehr zum Thema Responsible AI.
Z
Zero-Trust AI„Never trust, always verify“
Zero Trust beschreibt ein Sicherheitsparadigma, das davon ausgeht, dass keine Komponente - weder Nutzende, noch Services oder Netzwerkteile - automatisch vertrauenswürdig ist. Jede Anfrage muss authentifiziert, autorisiert, geprüft und protokolliert werden. Zero Trust ist für KI‑Lösungen nicht nur nützlich, sondern oft notwendig — wegen sensibler Daten, wertvoller Modelle und der verteilten Natur moderner MLOps‑Stacks.
Zero Trust spielt neben Security by Design nund Complete Mediation eine zentrale Rolle in unserem Alltag und beim Secure Software Engineering. Ergänzt wird dies durch unsere Erfahrung aus hunderten Projekten in unterschiedlichsten Branchen und Technologien sowie Quellen wie z. B. Mitre, NIST und OWASP. Jetzt mehr erfahren.