Kein Verlag muss sich mehr zwischen Innovation und Datenschutz entscheiden

Datenschutz und regulatorische Hürden erschweren Verlagen den Einsatz von KI-Tools. Eine zentrale, sichere Infrastruktur ist notwendig, um Governance-Richtlinien durchzusetzen und Schatten-IT zu vermeiden, sagt Florian Spengler, Co-Founder & Head of Business Development bei NENNA.AI, im folgenden Interview.

Florian Spengler

Florian Spengler

Wie halten Datenschutzbedenken und regulatorischen Hürden Verlage davon ab, KI-Tools einzusetzen?
Die größten Hürden für Verlage beim Einsatz von KI-Tools sind der Kontrollverlust und die damit verbundenen Haftungsrisiken. Viele Teams möchten KI nutzen, doch die Unternehmensführung sieht sich mit dem Dilemma zwischen Innovationsdruck und der Pflicht zum Datenschutz konfrontiert. Das Hauptproblem ist, dass ohne eine zentrale, sichere Infrastruktur die geltenden Governance-Richtlinien nicht effektiv durchgesetzt werden können. Es entsteht eine "Schatten-IT", in der Mitarbeitende unkontrolliert KI-Dienste mit privaten oder ungesicherten Accounts nutzen. Dies führt zu einem Mangel an Transparenz und macht es nahezu unmöglich, technische Schutzmaßnahmen wie Datenmaskierung oder Zugriffskontrollen nachzuweisen, was die Compliance- und Audit-Prozesse enorm belastet.

Eine reine Policy-Lösung adressiert dieses strategische Problem nicht.

Kann ein Verlag das Problem nicht einfach mit ein paar KI-Regeln lösen, an die sich dann alle halten?
Die Erfahrung im Change Management zeigt, dass reine Richtlinien oft nicht ausreichen. Der Mensch ist ein „Gewohnheitstier“, und Skepsis gegenüber neuen Prozessen ist natürlich. In der Praxis werden Regeln ohne technische Unterstützung oft umgangen, sei es aus Bequemlichkeit oder Unwissenheit. Die größte Herausforderung bei Veränderungen ist die „Änderung in den Köpfen“, und diese lässt sich selten allein durch Anweisungen herbeiführen. Anstatt sich also auf reine Verhaltensregeln zu verlassen, die in der Praxis kaum kontrollierbar sind, bedarf es einer technischen Infrastruktur, die Sicherheit und Compliance by Design gewährleistet. Eine reine Policy-Lösung adressiert dieses strategische Problem nicht.

Wie unterstützt Eure NENNA-Lösung Verlage dabei, datenschutzkonform zu arbeiten?
Sicherheit und DSGVO-Konformität: NENNA schiebt der unkontrollierten „Schattennutzung“ einen Riegel vor. Durch Features wie das automatische Maskieren sensibler Daten in Dokumenten stellt die Lösung sicher, dass Verlage auch bei der Nutzung von KI-Werkzeugen DSGVO-konform arbeiten können. So können beispielsweise Verträge oder Lebensläufe sicher als Kontext für KI-Modelle genutzt werden, ohne sensible Informationen preiszugeben.

Technologische Souveränität: Lars Moll, CEO von NENNA.AI, betonte auf dem Hauptstadtforum Digitalwirtschaft: „Datensouveränität ernst zu nehmen, bedeutet auf europäische KI zurückzugreifen“. NENNA setzt genau hier an, indem es eine Alternative zu den dominanten US-Anbietern schafft und Verlagen die Kontrolle über ihre Daten zurückgibt.

Praxisnahe Umsetzung: Eine Partnerschaft wie die zwischen NENNA und dem Redaktionssystem-Anbieter alfamedia zeigt, wie die Lösung konkret im Verlagsalltag verankert wird. Ziel ist es, Redaktionen direkt in ihren gewohnten Systemen dabei zu unterstützen, KI-Werkzeuge sicher und effizient zu nutzen.

Die Zeit, in der man sich zwischen Innovation und Datenschutz entscheiden musste, ist vorbei.

Wie wird NENNA in den Verlagsworkflow und den Redaktionsalltag integriert?
Die Integration ist darauf ausgelegt, bestehende Arbeitsabläufe nicht zu stören, sondern zu verbessern. Ein konkretes Beispiel ist die Partnerschaft mit alfamedia, einem etablierten Anbieter von Redaktionslösungen. Hier wird NENNA direkt in die Systeme eingebunden, die Redaktionen bereits täglich nutzen, um DSGVO-konformes Arbeiten zu ermöglichen und Sicherheitslücken zu schließen.

Über eine API-Schnittstelle, die durch alfa, tief in die eigenen Systeme und Workflows integriert werden kann, um maßgeschneiderte Lösungen zu schaffen und Datenschutz dort anzubieten, wo sensible Daten im Redaktionsalltag genutzt werden.

Euer Vortrag auf dem CrossMediaForum lautet „AI Use Cases ohne Datenangst: Wie NENNA kreative Workflows schützt“. Was wird die Kernbotschaft sein?
Unsere Kernbotschaft lautet: Verlage können und müssen KI nutzen, um wettbewerbsfähig zu bleiben, aber sie müssen es sicher und souverän tun. Die Zeit, in der man sich zwischen Innovation und Datenschutz entscheiden musste, ist vorbei.

Florian Spengler ist Co-Founder & Head of Business Development bei NENNA.AI und Referent auf dem CrossMediaForum.

Der H&F-Newsletter: Branchentrends, Impulse und unsere Events

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung.