
Hallo Leute, mal wieder Zeit zum Ehrlichmachen: ChatGPT, GenAI, RAG, Vektordatenbank, Ontologie - die Begriffsvielfalt in der KI-Welt nimmt täglich zu. Wir alle tun so, also wüssten wir, was damit gemeint ist. Nachfragen? Don't try this at home: Entweder Du outest Dich oder Dein Gegenüber (vermutlich beide). Deshalb hier das ultimative Basisvokabular - mit dicken Credits an Kerstin Clessienne von SMITH & Partners (folgt ihr auf LinkedIn und bleibt Upt-to-date). Nota bene oder so schon lang genug: Kein End- sondern ein Einstiegspunkt.
Ontologie & Wissensrepräsentation
Ontologie
Eine Ontologie ist eine formale, maschinenlesbare Repräsentation eines Wissensbereichs, die Entitäten, deren Beziehungen und die semantische Bedeutung dieser Konzepte explizit definiert. Sie ermöglicht es Computersystemen, Wissen zu interpretieren, zu verarbeiten und daraus logische Schlussfolgerungen zu ziehen. Ontologien bilden die Grundlage für das Semantic Web, Wissensmanagement und KI-Anwendungen.
Semantisches Modell
Ein semantisches Modell ist eine abstrakte, formale Beschreibung eines Realitätsausschnitts, die Entitäten, deren Attribute und Beziehungen strukturiert darstellt. Es dient primär der verständlichen Darstellung von Datenstrukturen und bildet die Grundlage für Datenbankdesign und Informationssysteme, ohne jedoch die explizite Semantik zu formalisieren.
Unterschied Semantisches Modell vs. Ontologie
Semantische Modelle beschreiben was existiert und wie es zusammenhängt. Ontologien definieren zusätzlich was diese Konzepte bedeuten und wie sie logisch verknüpft sind – in einer Form, die Maschinen für automatisierte Schlussfolgerungen nutzen können.
Axiome
Axiome sind grundlegende, als wahr angenommene Aussagen innerhalb eines formalen Systems, die ohne Beweis akzeptiert werden und als Ausgangspunkt für logische Ableitungen dienen. In Ontologien repräsentieren Axiome unveränderliches Wissen und definieren Eigenschaften von Beziehungen (Symmetrie, Transitivität), Wertebereiche und Integritätsbedingungen.
Klasse (Entität)
Eine Klasse definiert eine Kategorie oder einen Typ von Objekten mit gemeinsamen Eigenschaften und Merkmalen. Sie dient als abstrakte Beschreibung für eine Gruppe ähnlicher Entitäten und legt fest, welche Eigenschaften und Beziehungen für alle Instanzen dieser Kategorie gelten.
Instanz
Eine Instanz ist ein konkretes, individuelles Beispiel einer Klasse – ein spezifisches Objekt, das alle definierten Merkmale und Eigenschaften der zugehörigen Klasse besitzt. Instanzen repräsentieren die tatsächlichen Datenobjekte im Wissensgraphen.
Property (Eigenschaft)
Eine Property beschreibt eine Eigenschaft oder Beziehung einer Instanz innerhalb einer Ontologie. Sie definiert, welche Merkmale eine Instanz besitzt oder mit welchen anderen Instanzen sie verknüpft ist, und ermöglicht die detaillierte Beschreibung und Vernetzung von Objekten.
Object Property
Eine Object Property ist eine spezielle Eigenschaft in OWL/RDF, die eine Beziehung zwischen zwei Instanzen von Klassen beschreibt. Sie stellt eine Kante im Wissensgraphen dar, die zwei Knoten (Instanzen) miteinander verbindet und komplexe Zusammenhänge maschinenlesbar modelliert.
Datatype Property
Eine Datatype Property verbindet eine Instanz oder Klasse mit einem konkreten Datenwert (Text, Zahl, Datum). Im Gegensatz zu Object Properties, die Beziehungen zwischen Objekten beschreiben, ordnen Datatype Properties einfache Werte zu.
Annotation Properties
Annotation Properties sind spezielle Eigenschaften, die Metainformationen und Kontext für KI-Systeme bereitstellen. Sie fungieren als "Prompts" für Maschinen, indem sie Rechercheziele, Prioritäten, Datenquellen und erwartete Formate spezifizieren, ohne selbst Datenwerte zu speichern.
Beziehungsklassen (Assoziationsklassen)
Beziehungsklassen sind eigenständige Klassen, die komplexe Beziehungen zwischen mehreren anderen Klassen modellieren und dabei zusätzliche Attribute aufnehmen können. Sie ermöglichen die Darstellung von N-Relationen und die Behandlung von Beziehungen als "erstklassige Objekte" mit eigenen Eigenschaften.
URI (Universal Resource Identifier)
Ein URI ist eine eindeutige Kennung für Klassen, Instanzen und Properties in Ontologiesprachen wie OWL oder RDF. URIs gewährleisten die globale Eindeutigkeit und Interoperabilität von Konzepten über verschiedene Systeme und Anwendungen hinweg.
Restriktion (Restriction)
Restriktionen definieren Einschränkungen und Regeln für Properties, wie Kardinalitäten, Wertebereiche oder logische Bedingungen. Sie spezifizieren beispielsweise, dass eine Person maximal zwei Elternteile haben kann oder dass bestimmte Eigenschaften nur bestimmte Werte annehmen dürfen.
Reasoner (Schlussfolgerungsmaschine)
Ein Reasoner ist eine Software, die aus definierten Klassen, Properties und Axiomen automatisch neues Wissen ableitet. Er führt logische Schlussfolgerungen durch, überprüft die Konsistenz von Ontologien und entdeckt implizite Beziehungen und Widersprüche.
Ontologiesprache
Ontologiesprachen sind formale Sprachen zur Beschreibung und Modellierung von Ontologien. Beispiele sind OWL (Web Ontology Language), RDF(S) (Resource Description Framework Schema), F-Logic und DAML+OIL, die unterschiedliche Ausdrucksstärken und Anwendungsbereiche abdecken.
Semantik & Sprachverarbeitung
Syntax
Syntax bezeichnet die formalen Regeln und Strukturen, nach denen Elemente einer Sprache (Wörter, Zeichen, Code) korrekt kombiniert werden. Sie definiert die grammatikalische Form von Ausdrücken, unabhängig von deren Bedeutung.
Semantik
Semantik bezieht sich auf die Bedeutung von Zeichen, Wörtern, Sätzen oder Symbolen in einer Sprache. Während Syntax die Form regelt, beschreibt Semantik den Inhalt und die Bedeutung von Ausdrücken.
Reasoning (Schlussfolgern)
Reasoning ist die Fähigkeit eines Systems, aus vorhandenem Wissen neue Informationen abzuleiten, logische Verknüpfungen herzustellen und fundierte Entscheidungen zu treffen. Es umfasst Verfahren wie logisches Schließen, Inferenz und problemlösendes Denken.
Inferenz
Inferenz bezeichnet das Ziehen von Schlussfolgerungen oder das Ableiten neuer Erkenntnisse aus bekannten Fakten, Daten oder Regeln. Es ist ein analytischer Prozess, bei dem aus vorhandenen Informationen neue Aussagen, Vorhersagen oder Zusammenhänge entwickelt werden.
Information
Information ist die strukturierte Zusammenfassung und Darstellung von Daten, die in Beziehung zueinander stehen und einen bestimmten Kontext ergeben. Sie bildet die Grundlage für Taxonomien und semantische Schichten.
Knowledge (Wissen)
Wissen ist die Fähigkeit, aus Informationen Erkenntnisse zu gewinnen und Zusammenhänge zu verstehen – das Verständnis dafür, warum etwas so ist, wie es ist. Es umfasst Domänenwissen, Beziehungen und kontextuelle Zusammenhänge.
Insight (Weisheit)
Insight ist die Anwendung von Wissen zur Entscheidungsfindung unter Berücksichtigung von Kontext, Zielen und möglichen Konsequenzen. Es ermöglicht strategische Führung und fundierte Entscheidungen basierend auf der Analyse von Beziehungen zwischen Entitäten.
Maschinenlesbare Bedeutung
Maschinenlesbare Bedeutung ermöglicht es Computern, nicht nur Daten zu verarbeiten, sondern auch deren Bedeutung zu verstehen. Durch eindeutige URIs und semantische Definitionen können Maschinen Begriffe interpretieren und logische Schlüsse ziehen.
Graph-Technologien & Datenstrukturen
Property Graph
Ein Property Graph ist ein Datenmodell aus Knoten (Vertices) und Kanten (Edges), bei dem sowohl Knoten als auch Kanten beliebige Eigenschaften (Properties) als Schlüssel-Wert-Paare tragen können. Knoten und Kanten werden durch Labels typisiert, was flexible und intuitive Datenmodellierung ermöglicht.
Triple Store
Ein Triple Store ist eine spezialisierte Datenbank für RDF-Daten, die Informationen als Tripel (Subjekt-Prädikat-Objekt) speichert. Jedes Tripel repräsentiert eine atomare Aussage über die Welt und ermöglicht semantische Datenintegration und standardisierte Abfragen via SPARQL.
Unterscheidung Property Graph & Triple Store
Property Graphs bieten flexible Strukturen mit typisierten Knoten und Kanten sowie beliebigen Eigenschaften. Triple Stores speichern alles als standardisierte Tripel und sind ideal für semantische Daten, Ontologien und Linked Data-Anwendungen.
Graph Data Science
Graph Data Science ist ein Spezialgebiet der Data Science, das sich auf die Analyse und das maschinelle Lernen mit stark vernetzten, graphbasierten Daten konzentriert. Es nutzt Graphalgorithmen, Netzwerkanalyse und spezialisierte ML-Verfahren für relationale Datenstrukturen.
Vektoren
Vektoren sind numerische Darstellungen (Listen von Zahlen), die Eigenschaften oder semantische Bedeutungen von Datenobjekten wie Texten, Bildern oder Audiodateien in einem hochdimensionalen Raum repräsentieren. Sie ermöglichen mathematische Operationen und Ähnlichkeitsberechnungen.
Vektordatenbanken
Vektordatenbanken sind spezialisierte Datenbanksysteme, die hochdimensionale Vektoren effizient speichern, verwalten und durchsuchen. Sie nutzen Approximationsalgorithmen für schnelle Ähnlichkeitssuchen und sind essentiell für KI-Anwendungen mit Embeddings.
Embeddings
Embeddings sind numerische Vektorrepräsentationen von Datenpunkten (Wörter, Sätze, Bilder), die deren semantische Bedeutung und Beziehungen in einem kontinuierlichen Vektorraum kodieren. Ähnliche Konzepte werden durch räumliche Nähe im Vektorraum dargestellt.
Neuronale Netze & Deep Learning
Neural Networks (Neuronale Netze)
Neuronale Netze sind vom menschlichen Gehirn inspirierte Rechenmodelle aus miteinander verbundenen künstlichen Neuronen. Sie verarbeiten Informationen durch gewichtete Verbindungen und Aktivierungsfunktionen und können komplexe Muster in Daten erlernen.
Transformer
Transformer sind moderne neuronale Netzarchitekturen für Sequenzverarbeitung, die auf dem Attention-Mechanismus basieren. Sie ermöglichen parallele Verarbeitung und haben die natürliche Sprachverarbeitung revolutioniert, da sie langreichweitige Abhängigkeiten effektiv modellieren.
GPT (Generative Pretrained Transformer)
GPT ist ein großes Sprachmodell basierend auf der Transformer-Architektur. "Pretrained" bedeutet Vortraining auf umfangreichen Textdaten, "Generative" bezeichnet die Fähigkeit zur Texterzeugung. GPT-Modelle können vielfältige Sprachaufgaben ohne spezifisches Training lösen.
GNN (Graph Neural Networks)
Graph Neural Networks sind spezialisierte neuronale Architekturen für graphstrukturierte Daten. Sie verarbeiten Knoten und Kanten gleichzeitig und können komplexe Beziehungsmuster in Netzwerken erlernen, wodurch sie ideal für soziale Netzwerke, Moleküle und Wissensgraphen sind.
Attention-Mechanismus
Der Attention-Mechanismus ermöglicht neuronalen Netzen, gezielt auf relevante Teile der Eingabe zu fokussieren. Er berechnet Gewichtungen für verschiedene Eingabeelemente und verbessert so das Verständnis von Kontext und Bedeutung, besonders bei langen Sequenzen.
GAN (Generative Adversarial Networks)
GANs bestehen aus zwei konkurrierenden neuronalen Netzen: einem Generator, der synthetische Daten erzeugt, und einem Diskriminator, der echte von gefälschten Daten unterscheidet. Durch diesen adversarialen Trainingsprozess entstehen hochqualitative generative Modelle.
Machine Learning
Machine Learning ist ein Teilgebiet der KI, bei dem Computersysteme aus Daten selbstständig lernen, Muster erkennen und sich kontinuierlich verbessern, ohne explizit programmiert zu werden. Es umfasst überwachtes, unüberwachtes und verstärkendes Lernen.
Deep Learning
Deep Learning ist eine spezialisierte Form des Machine Learning, die tiefe neuronale Netze mit vielen Schichten verwendet. Es ermöglicht automatische Merkmalsextraktion und hat Durchbrüche in Computer Vision, Sprachverarbeitung und anderen komplexen Aufgaben erzielt.
KI-Paradigmen & Ansätze
Semantische KI
Semantische KI versteht und nutzt die Bedeutung (Semantik) von Daten, nicht nur deren statistische Muster. Sie kombiniert symbolisches Wissen mit maschinellem Lernen und ermöglicht explizierbare, kontextbewusste Entscheidungen basierend auf Bedeutungsverständnis.
Neurosymbolische KI
Neurosymbolische KI kombiniert die Stärken neuronaler Netze (Mustererkennung, Lernen aus Daten) mit symbolischen Systemen (logisches Schließen, Wissensrepräsentation). Dieser hybride Ansatz ermöglicht sowohl datengetriebenes Lernen als auch explizierbare Logik.
Generative KI
Generative KI spezialisiert sich auf die Erstellung völlig neuer Inhalte wie Texte, Bilder, Musik oder Code. Sie nutzt Modelle wie GANs, VAEs oder Transformer, um aus gelernten Mustern kreative und realistische Ausgaben zu generieren.
Erklärbare KI (XAI)
Erklärbare KI zielt darauf ab, KI-Entscheidungen transparent und nachvollziehbar zu machen. Sie entwickelt Methoden, um die Funktionsweise von KI-Systemen zu interpretieren und zu kommunizieren, was Vertrauen und Akzeptanz fördert.
Multimodalität
Multimodalität bezeichnet die Fähigkeit von KI-Systemen, Informationen aus verschiedenen Datenquellen (Text, Bilder, Audio, Video) gleichzeitig zu verarbeiten und zu integrieren. Dies ermöglicht reichhaltigere und kontextbewusstere KI-Anwendungen.
Multi-Hop Reasoning
Multi-Hop Reasoning ist die Fähigkeit, mehrere getrennte Informationsquellen logisch zu verknüpfen, um komplexe Fragen zu beantworten. Es erfordert das Durchlaufen mehrerer Schlussfolgerungsschritte über verschiedene Wissenselemente hinweg.
Agenten
KI-Agenten sind autonome Programme, die in einer Umgebung eigenständig handeln, Entscheidungen treffen und auf Veränderungen reagieren, um spezifische Ziele zu erreichen. Sie können lernen, planen und mit anderen Agenten oder Menschen interagieren.
Modelle & Training
Foundation Models
Foundation Models sind große, universell einsetzbare KI-Modelle, die auf umfangreichen, vielfältigen Datensätzen trainiert werden. Sie dienen als Basis für verschiedene nachgelagerte Aufgaben und können durch Fine-Tuning oder Prompting an spezifische Anwendungen angepasst werden.
Large Language Models (LLMs)
LLMs sind sehr große neuronale Netze mit Milliarden von Parametern, die auf umfangreichen Textdaten trainiert wurden. Sie zeigen emergente Fähigkeiten in Sprachverständnis, Textgenerierung und komplexem Reasoning ohne aufgabenspezifisches Training.
Small Models
Small Models sind kompakte, oft aufgabenspezifische KI-Modelle mit geringerem Ressourcenbedarf. Sie werden für einzelne, klar umrissene Aufgaben optimiert und bieten Effizienz, schnelle Inferenz und einfache Deployment-Möglichkeiten.
Modelltraining
Modelltraining bezeichnet den Prozess, bei dem ein KI-Modell von Grund auf neu trainiert wird. Das Modell lernt alle Muster, Zusammenhänge und Strukturen direkt aus einem umfangreichen Trainingsdatensatz, ohne vorheriges Wissen.
Fine-Tuning
Fine-Tuning ist ein Verfahren, bei dem ein vortrainiertes Modell mit einem kleineren, spezifischen Datensatz weitertrainiert wird. Es passt das allgemeine Wissen des Modells an spezifische Domänen oder Aufgaben an und ist ressourceneffizienter als komplettes Neutraining.
Custom GPT
Custom GPTs sind benutzerdefinierte Varianten von GPT-Modellen, die durch spezifische Prompts, Daten oder Fine-Tuning an individuelle Anforderungen angepasst wurden. Sie kombinieren die Grundfähigkeiten von GPT mit domänenspezifischem Wissen.
Supervised Learning
Beim überwachten Lernen lernt das Modell anhand von Daten mit bekannten Ein- und Ausgaben (Labels). Ziel ist es, die Beziehung zwischen Input und Output zu erlernen, um Vorhersagen für neue, unbekannte Daten zu treffen.
Unsupervised Learning
Beim unüberwachten Lernen werden nur Eingabedaten ohne Labels bereitgestellt. Das Modell entdeckt eigenständig Muster, Strukturen oder Gruppierungen in den Daten, beispielsweise durch Clustering oder Dimensionsreduktion.
Reinforcement Learning
Beim verstärkenden Lernen lernt ein Agent durch Interaktion mit einer Umgebung. Für jede Aktion erhält er Belohnungen oder Strafen und optimiert sein Verhalten, um langfristig die höchste kumulative Belohnung zu erzielen.
Transfer Learning
Transfer Learning nutzt Wissen aus einem vortrainierten Modell für eine neue, verwandte Aufgabe. Es überträgt gelernte Repräsentationen und Muster, wodurch weniger Daten und Trainingszeit für die neue Aufgabe benötigt werden.
Zero-Shot Learning
Zero-Shot Learning ermöglicht es Modellen, Aufgaben zu lösen, für die sie keine spezifischen Trainingsbeispiele gesehen haben. Sie nutzen Beschreibungen, Kontext oder transferiertes Wissen, um neue Aufgaben zu bewältigen.
Few-Shot Learning
Few-Shot Learning bezeichnet die Fähigkeit von Modellen, aus sehr wenigen Beispielen (typischerweise 1-10) neue Aufgaben zu erlernen. Es nutzt vorhandenes Wissen und wenige Demonstrationen, um schnell zu generalisieren.
RAG & Informationsverarbeitung
RAG (Retrieval-Augmented Generation)
RAG kombiniert große Sprachmodelle mit externen Wissensquellen durch einen zweistufigen Prozess: Zunächst werden relevante Informationen aus Datenbanken abgerufen, dann nutzt das Sprachmodell diese Informationen zur Generierung fundierter, aktueller Antworten.
Chunks & Chunking
Chunking ist die Aufteilung großer Textmengen in kleinere, semantisch zusammenhängende Segmente (Chunks). Diese Technik optimiert die Verarbeitung durch Sprachmodelle, verbessert die Relevanz bei Informationsabruf und ermöglicht effiziente Vektorisierung für RAG-Systeme.
GraphRAG
GraphRAG erweitert klassisches RAG durch die Integration von Graphstrukturen. Es nutzt Wissensgraphen und Beziehungsinformationen zwischen Entitäten, um kontextreichere und semantisch vernetzte Informationen für die Textgenerierung bereitzustellen.
Context Window
Das Context Window definiert die maximale Menge an Informationen (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann. Es bestimmt das "Arbeitsgedächtnis" des Modells und beeinflusst die Fähigkeit, lange Texte oder komplexe Zusammenhänge zu verstehen.
Memory
Memory bezeichnet die Fähigkeit von KI-Systemen, Informationen aus vorangegangenen Interaktionen zu speichern und wiederzuverwenden. Es ermöglicht kontinuierliches Lernen, Personalisierung und die Aufrechterhaltung von Kontext über längere Zeiträume.
Praktische Anwendung & Engineering
Prompt Engineering
Prompt Engineering ist die systematische Gestaltung und Optimierung von Eingabeaufforderungen für Sprachmodelle. Es umfasst Techniken zur Verbesserung der Ausgabequalität, Steuerung des Modellverhaltens und Maximierung der Aufgabenleistung durch strategische Formulierung.
Black Box vs. White Box Modelle
Black Box Modelle sind KI-Systeme, deren interne Entscheidungsprozesse nicht nachvollziehbar sind. White Box Modelle bieten hingegen Transparenz und Erklärbarkeit ihrer Funktionsweise, was für kritische Anwendungen und Vertrauensbildung essentiell ist.
Beziehungen & Strukturen
Beziehungen im Schema
Schemata enthalten Beziehungen zur Strukturierung und Sicherstellung der Datenintegrität, primär auf technischer und Datenebene. Sie beschreiben die formale Struktur von Datenbanken, Tabellen und deren Verknüpfungen ohne explizite Semantik.
Beziehungen in der Ontologie
Ontologische Beziehungen modellieren die Bedeutung und Logik von Begriffen und deren Zusammenhängen auf semantischer Ebene. Sie definieren nicht nur strukturelle Verbindungen, sondern auch deren konzeptuelle Bedeutung und logische Eigenschaften.
Beziehungen (Allgemein)
Beziehungen (Relationen) verbinden Entitäten miteinander und können sowohl in Schemata (strukturell) als auch in Ontologien (semantisch) auftreten. Sie unterscheiden sich in Zweck, Ausdrucksstärke und der Art der modellierten Zusammenhänge.
Semantic Web Standards & Technologien
SPARQL
SPARQL (SPARQL Protocol and RDF Query Language) ist die standardisierte Abfragesprache für RDF-Daten und Wissensgraphen. Sie ermöglicht komplexe Abfragen über verteilte RDF-Datenquellen, unterstützt Joins zwischen verschiedenen Datenbanken und ist essentiell für die praktische Nutzung von Semantic Web-Technologien.
RDF (Resource Description Framework)
RDF ist das grundlegende Datenmodell des Semantic Web, das Informationen als Tripel (Subjekt-Prädikat-Objekt) strukturiert. Es bietet ein universelles Format für den Datenaustausch im Web und ermöglicht die Integration heterogener Datenquellen durch standardisierte Repräsentation.
OWL (Web Ontology Language)
OWL ist die W3C-standardisierte Sprache zur Erstellung von Ontologien im Semantic Web. Sie bietet reichhaltige Ausdrucksmöglichkeiten für komplexe Klassenbeziehungen, Eigenschaften und logische Axiome und ermöglicht automatisierte Schlussfolgerungen durch Reasoner.
SHACL (Shapes Constraint Language)
SHACL ist eine W3C-Empfehlung zur Definition und Validierung von Constraints für RDF-Graphen. Es ermöglicht die Spezifikation von Datenqualitätsstandards, Strukturvalidierung und Geschäftsregeln für Wissensgraphen und gewährleistet Datenintegrität.
Linked Data
Linked Data bezeichnet Prinzipien und Best Practices zur Veröffentlichung und Verknüpfung strukturierter Daten im Web. Es nutzt URIs zur Identifikation, HTTP zur Bereitstellung und RDF zur Strukturierung, wodurch ein globales Netz verknüpfter Informationen entsteht.
Aktuelle KI-Trends & Technologien
Agentic AI
Agentic AI bezeichnet autonome KI-Systeme, die eigenständig Ziele verfolgen, Pläne entwickeln und Aktionen ausführen können. Diese Systeme kombinieren Reasoning, Planung und Ausführung und repräsentieren die nächste Evolutionsstufe von reaktiven zu proaktiven KI-Anwendungen.
In-Context Learning
In-Context Learning ist die Fähigkeit von Sprachmodellen, neue Aufgaben durch wenige Beispiele im Eingabeprompt zu erlernen, ohne Parameteranpassungen. Es ermöglicht flexible Anpassung an neue Domänen und Aufgaben zur Laufzeit.
Chain-of-Thought
Chain-of-Thought ist eine Prompting-Technik, bei der Sprachmodelle ihre Problemlösung in expliziten Zwischenschritten strukturieren. Dies verbessert die Leistung bei komplexen Reasoning-Aufgaben und erhöht die Nachvollziehbarkeit der Entscheidungsfindung.
RLHF (Reinforcement Learning from Human Feedback)
RLHF ist ein Trainingsverfahren, das menschliches Feedback nutzt, um Sprachmodelle an menschliche Präferenzen und Werte anzupassen. Es verbessert die Qualität, Sicherheit und Nützlichkeit von KI-Ausgaben durch iterative Optimierung basierend auf menschlichen Bewertungen.
Federated Learning
Federated Learning ermöglicht das Training von KI-Modellen über verteilte Datenquellen, ohne dass Rohdaten zentral gesammelt werden müssen. Es gewährleistet Datenschutz und ermöglicht kollaboratives Lernen zwischen Organisationen bei Wahrung der Datensouveränität.
MLOps
MLOps (Machine Learning Operations) umfasst Praktiken und Tools zur Operationalisierung von ML-Workflows, einschließlich Modellentwicklung, Deployment, Monitoring und Wartung. Es überträgt DevOps-Prinzipien auf Machine Learning und gewährleistet zuverlässige, skalierbare KI-Systeme.
Knowledge Graph Technologien
Knowledge Graph Embedding
Knowledge Graph Embeddings sind Vektorrepräsentationen von Entitäten und Beziehungen in Wissensgraphen, die semantische Ähnlichkeiten und strukturelle Eigenschaften in einem kontinuierlichen Vektorraum kodieren. Sie ermöglichen maschinelles Lernen auf Graphdaten und Link Prediction.
Entity Linking
Entity Linking ist der Prozess der Verknüpfung von Texterwähnungen (Entitätsreferenzen) mit entsprechenden Entitäten in einem Wissensgraphen. Es ermöglicht die Anreicherung von Texten mit strukturiertem Wissen und die Integration von unstrukturierten und strukturierten Daten.
Knowledge Graph Completion
Knowledge Graph Completion bezeichnet Methoden zur automatischen Vervollständigung fehlender Fakten und Beziehungen in Wissensgraphen. Es nutzt maschinelles Lernen und statistische Inferenz, um implizites Wissen zu explizieren und Wissenslücken zu schließen.
Natural Language Understanding (NLU)
NLU ist ein Teilbereich der natürlichen Sprachverarbeitung, der sich auf das tiefe Verständnis der Bedeutung, Intention und des Kontexts menschlicher Sprache konzentriert. Es geht über reine Textverarbeitung hinaus und ermöglicht semantisches Sprachverständnis.
Conversational AI
Conversational AI umfasst KI-Systeme, die natürliche, kontextbewusste Dialoge mit Menschen führen können. Es kombiniert NLU, Dialogmanagement und Textgenerierung, um interaktive, hilfreiche und menschenähnliche Gesprächserfahrungen zu schaffen.
Ethik & Verantwortung
AI Ethics
AI Ethics umfasst ethische Prinzipien, Richtlinien und Frameworks für die verantwortliche Entwicklung und den Einsatz von KI-Systemen. Es adressiert Fragen zu Fairness, Transparenz, Verantwortlichkeit und gesellschaftlichen Auswirkungen künstlicher Intelligenz.
Bias Detection
Bias Detection bezeichnet Methoden zur Identifikation und Messung von Verzerrungen in KI-Systemen, Trainingsdaten oder Algorithmen. Es ist essentiell für die Entwicklung fairer KI-Systeme und die Vermeidung diskriminierender Entscheidungen.
Happy AI,
Kerstin Clessienne
SMITH & Partners
https://www.linkedin.com/in/kerstinclessienne/