Richtlinien, Datenstrategie, Audits, Schulungen: So machen Verlage den KI-Einsatz sicher

KI einzusetzen ist heutzutage sehr leicht. Die große Herausforderung besteht darin, die richtige KI zu finden und dabei Compliance Standards und Urheberrechte einzuhalten. In diesem Interview beschreibt Matthias Kraus, CEO von Fabasoft Xpublisher, wie das gelingen kann und worauf Unternehmen achten müssen. Denn: Ein bewusster und kontrollierter Umgang mit KI ist entscheidend, um langfristig von den Vorteilen zu profitieren und gleichzeitig Sicherheitsrisiken zu minimieren.

Matthias Kraus

Matthias Kraus

Wo liegen die größten Sicherheitsrisiken beim Einsatz von KI?
Generative KI gewinnt in Verlagen und Kommunikationsabteilungen immer mehr an Bedeutung und hat die Möglichkeit, die Arbeit mit Content effizienter zu gestalten. Die Nutzung von KI kann aber leicht zum Sicherheitsrisiko für Unternehmen werden. KI-Modelle müssen oft mit großen Datenmengen trainiert werden, die sensible Nutzerdaten beinhalten. Der unsachgemäße Umgang mit personenbezogenen Daten birgt rechtliche Risiken. Generative KI-Anwendungen nutzen bestehende Inhalte, um neue Texte zu generieren. Falls dabei urheberrechtlich geschützte Inhalte ohne entsprechende Lizenz genutzt werden, drohen juristische Konsequenzen. Durch die Abhängigkeit von großen Datenmengen und vernetzten Systemen steigt zudem das Risiko für Datenlecks. Eine Schwachstelle in der IT-Sicherheit kann dazu führen, dass vertrauliche Daten oder KI-generierte Inhalte ungewollt veröffentlicht oder gestohlen werden. Mit dem Einsatz von KI-Tools sind viele Verlage darüber hinaus auf große, oft nordamerikanische, Technologiekonzerne angewiesen. Dies birgt das Risiko, dass Verlage weniger Kontrolle über Datenverarbeitung und KI-Modelle haben, was ihre strategische Unabhängigkeit einschränken kann.

Was kann ich als Verlag unternehmen, um diese Risiken zu minimieren? Wie sollte ein Verlag das Sicherheitsthema angehen? Womit anfangen? Und wie lange dauert so ein Prozess?
Unternehmen müssen sich intensiv mit den richtigen Einsatzmöglichkeiten von KI auseinandersetzen. Ein sicherer KI-Einsatz in Verlagen erfordert eine Kombination aus technischer Absicherung, rechtlicher Compliance, transparenter Kommunikation und einer fundierten Schulung der Mitarbeiter. Die Dauer der Implementierung hängt von verschiedenen Faktoren ab, darunter die Größe des Unternehmens, das vorhandene Know-How und die Ressourcen sowie die Komplexität der eingesetzten KI-Technologie. Entscheidend dafür ist natürlich der richtige Technologiepartner. Fabasoft Xpublisher hat mit Mindbreeze einen starken und ausgezeichneten KI-Partner an seiner Seite. Die cloudbasierten KI-Services von Mindbreeze ermöglichen einen sicheren Einsatz von Large Language Models, mit der sich beispielsweise Zusammenfassungen, Social Media Teaser, Übersetzungen, aber auch tonalitätenspezifische Texte in Xpublisher per Knopfdruck erstellen lassen. Die Ergebnisse werden laufend optimiert – auf Basis der ausschließlich vom Unternehmen bereitgestellten Daten. Diese bleiben sicher in DACH-Rechenzentren und werden nicht an Dritte weitergegeben.

Es gibt zwar ein wachsendes Bewusstsein für die Risiken, jedoch fehlt es in vielen Verlagen an umfassenden proaktiven Maßnahmen zur Prävention.

Wie begegnen die Verlage diesen Risiken: Gibt es genug Aufmerksamkeit und vor allem Vorsorge, um Schaden zu verhindern?
Es gibt zwar ein wachsendes Bewusstsein für die Risiken, jedoch fehlt es in vielen Verlagen an umfassenden proaktiven Maßnahmen zur Prävention. Um die Risiken zu minimieren, sollten Verlage klare Richtlinien für den Einsatz von KI entwickeln, eine transparente Datenstrategie verfolgen, regelmäßig Audits zur Identifizierung von Sicherheitsschwächen durchführen und in die Schulung der Mitarbeiter investieren. Wir stehen im Umgang mit und in der Nutzung von KI rechtlich noch am Anfang. Das sehen wir auf nationaler wie internationaler Ebene. Parallel zu Gesetzen und Vorgaben ist es die Aufgabe jedes Unternehmens, das KI-Tool einsetzt oder plant dies zu tun, sich vorab intensiv mit den sicherheitsrechtlichen Grundlagen zu beschäftigen und eigene KI-Richtlinien aufzusetzen.

Können sich das nur große Verlage leisten? Welcher finanzielle und personeller Aufwand ist mit diesem Projekt verbunden?
Wie immer, wenn es um die Einführung neuer Technologien geht, gilt: Ganz ohne Aufwand ist dies nicht möglich. Ein sorgfältig aufgesetzter Prozess, von der Auswahl der passenden KI über die Sicherstellung der Compliance Standards bis hin zur Einführung, wird sich aber langfristig auszahlen – rechtlich wie wirtschaftlich. Darüber hinaus könnten alle Verlage von einer verstärkten Zusammenarbeit profitieren. Etwa durch den Austausch über Best Practices oder die Entwicklung gemeinsamer Standards.

Dein Vortrag auf dem CrossMediaForum lautet „KI kann doch jeder! Sind Sie sicher?“. Was wird die Kernbotschaft sein?
KI einzusetzen ist heutzutage sehr leicht. Es gibt gute und sinnvolle Tools, die die Arbeit in Verlagen und Kommunikationsabteilungen erleichtern. Die große Herausforderung besteht darin, die richtige KI zu finden und dabei Compliance Standards und Urheberrechte einzuhalten. Mein Vortrag zeigt, wie das gelingt und worauf Unternehmen achten müssen. Ein bewusster und kontrollierter Umgang mit KI ist entscheidend, um langfristig von den Vorteilen zu profitieren und gleichzeitig Sicherheitsrisiken zu minimieren.

Matthias Kraus ist Referent auf dem CrossMediaForum KI-Spezial, das am 5.12.2024 als Digitalevent durchgeführt wird.

Der H&F-Newsletter: Branchentrends, Impulse und unsere Events

Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung