Sensible Daten schützen
KI im Arbeitsalltag
Künstliche Intelligenz ist aus unserem Agenturalltag bei ph nicht mehr wegzudenken. Unsere Projektteams setzen Large Language Models (LLMs) mittlerweile an so vielen Stellen ein, dass ich bestimmt etwas unerwähnt lasse. Aber hier ein paar Beispiele: KI hilft beim Verfassen von Texten, bei der Social-Media- und Marketing-Kommunikation, bei Briefings und der Teamkoordination und nicht zuletzt bei der Erstellung von statischen und bewegten Bildern. Bei unserem preisgekrönten Nissan-Case etwa hat das Projektteam die Kampagnenvisuals im Sparring mit einem Bildgenerator erstellt.
Die KI-Tools unterstützen uns dabei, effizienter zu arbeiten und kreative Ressourcen gezielter einzusetzen – natürlich immer mit Einverständnis des jeweiligen Kunden. KI ist mittlerweile fest in unseren Abläufen verankert.
Doch so selbstverständlich ihre Nutzung für uns geworden ist, so groß ist auch die Verantwortung im Umgang mit sensiblen Informationen.
Die KI braucht Futter
Damit das LLM genau das ausspuckt, was wir brauchen, müssen wir es zunächst zielgerichtet mit Input füttern: Das können zum Beispiel Texte sein, Bilder, Präsentationen, Analysen oder Studien. Auf jeden Fall sind es sehr oft Daten, die (noch) nicht in die Öffentlichkeit gehören. Ein verantwortungsvoller Umgang damit ist unerlässlich. Das verlangen nicht nur DSGVO und TISAX, Datensicherheit ist schlicht eine Voraussetzung für unsere Arbeit: Schließlich produzieren wir die Inhalte exklusiv für unsere Kunden und möchten sie kontrolliert veröffentlicht wissen.
Daher beschäftigt uns eine zentrale Frage:
Wie können wir der KI unsere Daten sicher anvertrauen?
Wo steht der Server?
Viele der frei verfügbaren Modelle laufen auf Infrastruktur außerhalb der EU, nutzen Eingaben zum Training oder verarbeiten Daten weiter, ohne dass Nutzer:innen alle Details überblicken. Für die Arbeit mit Kundendaten sind sie daher keine Option. Stattdessen nutzen bei ph alle Mitarbeitenden die Software unseres Kooperationspartners Langdock aus Berlin. Die Plattform bündelt rund 20 Sprachmodelle, darunter sowohl Angebote von OpenAI als auch von europäischen Entwicklern.
Schon beim Auswählen eines Modells zeigt Langdock an, wo es gehostet wird: EU oder nicht EU – das ist hier in der Regel die Frage. So kann das Team gezielt entscheiden, welche Daten wohin wandern. Dass das LLM den Input nicht fürs Training verwendet, ist selbstverständlich. Außerdem möglich: Löschfristen für Inhalte definieren. Damit bleibt im Arbeitsalltag die Kontrolle über die eingegebenen Daten stets beim Team.
Langdock ist nur ein Beispiel, das wir aus der eigenen Praxis besonders gut kennen. Weitere Anbieter wie Nuwacom aus Koblenz, Neuland AI aus Köln und Mein GPT aus München stellen ebenfalls datenschutzkonforme KI-Plattformen made in Germany für Unternehmen bereit.
Regeln für den KI-Einsatz
Achtung, Achtung: Die Verantwortung für den Datenschutz liegt nicht allein bei IT oder Rechtsabteilung. Alle, die KI im Arbeitsalltag nutzen, müssen verstehen, welche Daten sie wo eingeben und welche Folgen das haben kann. Das schreibt der EU AI Act vor.
Bei palmerhargreaves gilt daher:
- Jeder weiß, welche Tools er einsetzen darf und unter welchen Bedingungen.
- Es ist nachvollziehbar, wo die KI Daten verarbeitet und speichert und was mit ihnen nach der Nutzung geschieht.
- Sensible und personenbezogene Kundendaten verarbeiten wir nur über geprüfte, sichere Plattformen.