Das Zeitalter der Hyperpersonalisierung ist angebrochen

Die individuellen Informationsbedürfnisse ihrer Kunden präzise u.a. mit Micro-Content versorgen zu können, wird noch mehr zur Kernkompetenz von Fachverlagen werden müssen. Welche wichtige Funktion dabei Wissensmodelle spielen und warum LLMs das nicht allein leisten können, erläutert Andreas Blumauer in diesem Interview.

Andreas Blumauer

Nicht nur in der Verlagsbranche ist die Meinung „KI kann alles“ weit verbreitet. Wo liegen die Grenzen gerade für Fachverlage?
Fachverlage sind gerade mit verschiedenen, teilweise gegenläufigen Trends konfrontiert. Einerseits werden sehr viele Inhaltsbausteine zu niedrigen Kosten mit Hilfe von LLMs produziert, was  hochqualitative Inhalte andererseits noch wichtiger macht, um einen strategischen Wettbewerbsvorteil zu erzielen. Dazu kommen neue technische Möglichkeiten, um Inhalte aus verschiedenen Quellen bzw. Datensilos so zu verknüpfen, zu filtern und darzustellen, dass dadurch neue personalisierte Informationsprodukte entstehen. Die Kernkompetenz von Fachverlagen wird noch mehr dahingehen, die individuellen Informationsbedürfnisse ihrer Kunden präzise u.a. mit Micro-Content versorgen zu können. Das Zeitalter der Hyperpersonalisierung ist angebrochen. LLMs alleine können das nicht bedienen, sind aber ein wichtiger Baustein dazu.

Wie sieht das Zusammenspiel zwischen KI und Taxonomien und semantisch erschlossenen Wissensmodellen aus?
(1) Wissensmodelle helfen bei der Vorfilterung und Personalisierung relevanter Informationen, (2) Sprachmodelle (KI) können diese dann in Inhaltsbausteine umwandeln, die von Menschen und auch Softwareagenten (Bots) gelesen werden können. Würden Sprachmodelle auch für (1) zuständig sein, gäbe es Probleme der Skalierbarkeit und deutlich höhere Kosten. (3) Darüber hinaus können Wissensmodelle genutzt werden, um Prompts und Ergebnisse gezielt und kontrolliert mit Domänenwissen anzureichern, um so u.a. Halluzination zu unterbinden.

Wie können vor allem Fachverlage diese Kombination nutzen?
LLMs bieten die technischen Möglichkeiten, den Automatisierungsgrad entlang des gesamten Content-Lebenszyklus zu erhöhen, die aus betriebswirtschaftlicher Sicht aber nur dann sinnvoll nutzbar sind, wenn damit verbundene Risiken beherrschbar bleiben. Wissensmodelle helfen z.B. dabei, lückenhafte Informationen zu ergänzen bzw. herauszufiltern. Darüber hinaus bieten sie Möglichkeiten, den Beratungs- bzw. Frage-Antwort-Dialog zu unterstützen, indem zusätzliches Domänenwissen und Kontext angereichert wird.

Um KI-Modelle wie ein LLM noch besser nutzen zu können, wurde das Konzept einer „Retrieval-Augmented Generation“ (RAG) entwickelt. Kurz gesagt: Was leistet das Konzept und mit welchem Aufwand kann ein Verlag ein RAG einsetzen?
LLMs basieren vorwiegend auf Inhalten, die von Fachverlagen selbst nicht autorisiert wurden. RAG sieht vor, dass Sprachmodelle, sobald sie aufgerufen werden, gezielt mit zusätzlichen relevanten Kontextinformationen verknüpft werden. Dies kann Wissen aus verlagseigenen Datenbanken sein, oder es kann sich auch um die neuesten Nachrichten, Forschungsergebnisse oder Statistiken von Drittanbietern handeln. RAG-basierte Systeme erzeugen also Antworten und Suchergebnisse, die stets auf eigenen oder zumindest kontrollierbaren Inhalten beruhen, während das LLM „nur noch“ für Services wie z.B. zur Erstellung von Zusammenfassungen verwendet wird, niemals aber als Wissensbasis an sich. RAG ist somit in der Lage, aktuelle und autorisierte Informationen abzurufen, um Benutzer mit qualitativ besseren Antworten und weniger Halluzinationen zu bedienen.
RAG-Architekturen sind für Fachverlage unumgänglich, da nur so ein ausreichendes Qualitätsmanagement möglich wird, zudem können die Gesamtkosten eines Wissensportals beim smarten Einsatz von Wissensmodellen relativ gesehen niedriger gehalten werden. Siehe auch: https://www.poolparty.biz/semantic-retrieval-augmented-generation.

Ihr betreibt das Portal https://knowledge-hub.eco. Was ist kurz gesagt das Ziel des Portals, und wie spielen dort KI und Wissensmodelle zusammen?
Einerseits wollen wir mit diesem Portal Wissen rund um die Themen Klimawandel und ESG (EU Taxonomie, Nachhaltiges Investieren, etc.) leichter zugänglich machen, andererseits dient das System auch dazu, auf unsere B2B-Angebote in diesem Bereich hinzuweisen. Außerdem ermöglicht uns dieses neue Portal, verschiedene innovative RAG-Architekturen auszutesten und den damit verbundenen Benutzermehrwert besser messen und verstehen zu können. Im Wesentlichen setzen wir bei knowledge-hub.eco auf unser ESG-Wissensmodell auf und verarbeiten damit Tausende Webseiten und ESG-Reports mit Hilfe einer Semantic RAG Architektur.

Dein Vortrag auf dem CrossMediaForum lautet „GPTs haben die KI revolutioniert. Brauchen wir noch Wissensmodelle und Taxonomien, und warum?“ Was wird die wichtigste Botschaft sein?
GPTs bzw. LLMs haben KI in den Mainstream gebracht. Niemand kommt mehr daran vorbei, und alle wollen nun in dieser sich rasant entwickelnden Infrastruktur mitnaschen. Dabei rinnt uns allen sehr viel Honig in die Augen und wir übersehen verdeckte Kosten und Risiken. Diese gilt es genauso wie all die Möglichkeiten, die LLMs bieten systematisch zu untersuchen und besser zu verstehen. Unternehmen müssen offener denn je für Experimente sein, und damit beginnen, die Klaviatur der KI, und dazu gehört mehr als die LLM-Oktave, in ihre Geschäftsmodelle zu integrieren.

Andreas Blumauer ist CEO der Semantic Web Company GmbH und Referent auf dem 26. CrossMediaForum am 4. Juli 2024 in München.

 

Der H&F-Newsletter: Branchentrends, Impulse und unsere Events

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung