2. KI in der DSFA-Dokumentation – Chancen und Grenzen
KI-Systeme können die Erstellung von DSFA-Dokumentationen erheblich erleichtern. Sie sind besonders hilfreich, wenn es darum geht, umfangreiche Fachdokumente wie Systembeschreibungen, Verzeichnisse von Verarbeitungstätigkeiten oder Sicherheitskonzepte auszuwerten, typische Risiken und Schwachstellen zu identifizieren, Maßnahmen den Gewährleistungszielen zuzuordnen oder bestehende Dokumentationen auf Widersprüche und Lücken zu prüfen. Ebenso können sie dazu eingesetzt werden, konsistente Textbausteine für Berichte zu generieren und vorhandene Texte sprachlich zu vereinheitlichen.
So kann eine KI etwa aus einer nach SDM strukturierten TOM-Dokumentation automatisiert Vorschläge für Risiko-Maßnahmen-Mappings erzeugen oder standardisierte Beschreibungen in DSFA-Vorlagen einfügen. Auf diese Weise lassen sich Teile der Dokumentationsarbeit automatisieren, was zu einer höheren Einheitlichkeit in der Darstellung und zu einer besseren Nachvollziehbarkeit führt.
Gleichzeitig müssen die Grenzen klar benannt werden. KI kann keine juristisch verantwortliche Entscheidung darüber treffen, ob ein Restrisiko akzeptabel ist, und sie kann auch nicht abschließend bewerten, ob die gewählten Maßnahmen für ein bestimmtes Schutzniveau ausreichen. Eine DSFA im Sinne der Rechenschaftspflicht kann nicht vollautomatisch durch eine KI erzeugt werden; die Verantwortung liegt weiterhin beim Verantwortlichen bzw. beim Datenschutzbeauftragten. Darüber hinaus ist die KI selbst Bestandteil der zu bewertenden Verarbeitung und somit selbst Gegenstand der Risikoanalyse.
Ziel ist daher nicht eine vollständig automatisierte „DSFA auf Knopfdruck“, sondern eine durch KI unterstützte DSFA. In diesem Modell übernimmt KI vor allem Aufgaben der strukturierten Aufbereitung, Konsistenzprüfung und Textgenerierung, während die fachliche und rechtliche Bewertung von Menschen vorgenommen wird.
3. Rechtlicher Rahmen: Wann eine DSFA erforderlich ist
3.1 DSFA nach Art. 35 DSGVO
Art. 35 DSGVO verpflichtet Verantwortliche zur Durchführung einer DSFA, wenn eine Form der Verarbeitung – insbesondere beim Einsatz neuer Technologien – aufgrund ihrer Art, ihres Umfangs, ihrer Umstände und der Zwecke voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat. Dies ist typischerweise der Fall, wenn besondere Kategorien personenbezogener Daten im Sinne des Art. 9 DSGVO in größerem Umfang verarbeitet werden, wenn eine systematische Überwachung stattfindet, wenn weitgehend automatisierte Entscheidungsprozesse genutzt werden oder wenn neuartige bzw. schwer durchschaubare Technologien, etwa generative KI, eingesetzt werden.
Die DSFA selbst umfasst eine systematische Beschreibung der geplanten Verarbeitung, eine Bewertung der Notwendigkeit und Verhältnismäßigkeit dieser Verarbeitung in Bezug auf die verfolgten Zwecke, eine Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen sowie eine Beschreibung der vorgesehenen Maßnahmen, mit denen diese Risiken gemindert und die Einhaltung der DSGVO nachgewiesen werden sollen.
3.2 Risikomerkmale am Beispiel eines KI-Systems im Gesundheitswesen
Beim Einsatz eines KI-basierten Sprachassistenten in der Telefonzentrale eines Krankenhauses treten mehrere risikorelevante Merkmale gleichzeitig auf. Im Rahmen der Terminvergabe werden regelmäßig Gesundheitsdaten verarbeitet, etwa Angaben zur Fachrichtung oder zum Behandlungsanlass. Diese Daten zählen nach Art. 9 DSGVO zu den besonders schützenswerten Kategorien und sind daher von vornherein mit einem erhöhten Schutzbedarf verbunden bzw. ist deren Verarbeitung verboten wenn nicht besondere Ausnahmen greifen. Hinzu kommt, dass das System selbstständig mit einer Vielzahl von Patienten kommuniziert und die Kommunikation weitgehend automatisiert abläuft, wodurch Umfang und Häufigkeit der Verarbeitung steigen. Durch die Audioverarbeitung und gegebenenfalls temporäre oder dauerhafte Aufzeichnungen entsteht ein Überwachungscharakter, der die Vertraulichkeit der Kommunikation berührt. Viele eingesetzte KI-Modelle arbeiten zudem als Black Box, ihre Entscheidungslogik ist nur begrenzt nachvollziehbar, was Transparenz- und Nachvollziehbarkeitserwartungen des Datenschutzrechts entgegensteht. Schließlich werden durch den Sprachassistenten teilweise Entscheidungen mit unmittelbarer Versorgungsrelevanz getroffen, etwa wenn Termine vergeben, priorisiert oder weitergeleitet werden.
Beim Einsatz eines KI-basierten Sprachassistenten in der Telefonzentrale eines Krankenhauses liegen mehrere risikorelevante Merkmale kumulativ vor:
- Verarbeitung von Gesundheitsdaten
Im Rahmen der Terminvergabe werden regelmäßig besonders schützenswerte Gesundheitsdaten (z. B. Fachrichtung, Behandlungsanlass) verarbeitet. - Umfangreiche, automatisierte Verarbeitung
Das System kommuniziert selbstständig mit einer Vielzahl von Patienten. Die Kommunikation läuft weitgehend automatisiert, wodurch sich Umfang und Häufigkeit der Verarbeitung erhöhen. - Möglicher Überwachungscharakter
Durch Audioverarbeitung und mögliche Aufzeichnungen kann ein Überwachungscharakter entstehen. Die Vertraulichkeit der Kommunikation ist dadurch besonders gefährdet. - Einsatz neuer generativer KI-Technologien
Viele KI-Modelle arbeiten als Black Box. Ihre Entscheidungslogik ist schwer nachvollziehbar, was die Transparenz und Nachvollziehbarkeit der Verarbeitung erschwert. - Teilweise automatisierte Entscheidungen mit Versorgungsrelevanz
Entscheidungen etwa über Terminvergabe, -priorisierung oder Weiterleitung können unmittelbare Auswirkungen auf die medizinische Versorgung haben.
Diese Merkmale führen in ihrer Gesamtschau zu einem voraussichtlich hohen Risiko, sodass die Durchführung einer DSFA zwingend erforderlich ist.
Die Positivlisten und Orientierungshilfen der Aufsichtsbehörden, insbesondere die Veröffentlichungen zur DSFA nach Art. 35 DSGVO, bestätigen zudem eine solche Einordnung bei vergleichbaren Konstellationen.
4. Das SDM 3.1 und sein Würfelmodell
Das Standard-Datenschutzmodell (SDM) 3.1 fungiert als Brücke zwischen abstrakten rechtlichen Anforderungen und konkreten technischen und organisatorischen Maßnahmen. Es übersetzt quasi die Vorgaben der DSGVO und verknüpft diese systematisch mit Verarbeitungsschritten und -ebenen. Herzstück dieser Methodik ist der SDM-Würfel, der die verschiedenen Dimensionen der Verarbeitung in einem dreidimensionalen Modell abbildet.
4.1 Verarbeitungsschritte – was mit den Daten passiert
Das SDM unterscheidet neunVerarbeitungsschritte, die den Lebenszyklus von Daten abbilden: Sammeln, Aufbereiten, Aufbewahren, Bearbeiten, Benutzen, Bereitstellen, Zusammenführen, Einschränken, Beseitigen
Diese Schritte können für die Praxis in vier Phasen gruppiert werden:
- Sammeln
- Bereithalten (insbesondere Aufbewahren, Einschränken)
- Nutzen (Bearbeiten, Benutzen, Bereitstellen, Zusammenführen)
- Löschen/Beseitigen
Jeder Schritt kann eigene Risiken bergen. So können etwa beim Sammeln Fehler bei der Datenerhebung auftreten, während beim Bereitstellen unbefugte Zugriffe möglich sind.
4.2 Verarbeitungsebenen – wo die Daten verarbeitet werden
Die Verarbeitung wird im SDM auf drei Ebenen betrachtet:
- Ebene 1: Fachverfahren
Geschäftsprozesse und Abläufe – z. B. „Terminvereinbarung im Krankenhaus“. - Ebene 2: Fachapplikation
Software und Anwendungen, mit denen das Fachverfahren umgesetzt wird – z. B. das KI-Sprachassistenzsystem. - Ebene 3: Infrastruktur
Technische Basis wie Server, Netze, Cloud-Dienste, Plattformen
Diese Trennung hilft, fachliche Risiken (im Prozessablauf) von technischen Risiken (System- und Infrastruktur-Ebene) zu unterscheiden und dennoch im Zusammenspiel zu betrachten.
4.3 Gewährleistungsziele – woran die Datenschutzqualität gemessen wird
Das SDM leitet aus der DSGVO (insbesondere Art. 5 DSGVO) sieben Gewährleistungsziele ab:
- Datenminimierung - Es werden nur die Daten verarbeitet, die für den festgelegten Zweck unbedingt erforderlich sind.
- Transparenz - Betroffene und Verantwortliche können Verarbeitungsvorgänge nachvollziehen; Informations- und Auskunftspflichten werden erfüllt.
- Nichtverkettung - Daten aus unterschiedlichen Kontexten werden nicht unzulässig zusammengeführt oder übergreifend ausgewertet.
- Intervenierbarkeit - Betroffene können ihre Rechte wirksam geltend machen.
- Integrität - Schutz vor unbefugter oder unbeabsichtigter Veränderung von Daten.
- Vertraulichkeit - Schutz personenbezogener Daten vor unbefugtem Zugriff oder Offenlegung.
- Verfügbarkeit - Daten und Systeme müssen zuverlässig und rechtzeitig nutzbar sein.
Diese Ziele bilden den Maßstab für die Bewertung, ob eine Verarbeitung datenschutzkonform und angemessen abgesichert ist. Für jede Kombination aus Verarbeitungsschritt und Verarbeitungsebene wird geprüft, ob die Gewährleistungsziele erreicht werden.
4.4 Der SDM-Würfel als Instrument der Risikoanalyse
Kombiniert man die Verarbeitungsschritte, die Verarbeitungsebenen und die Gewährleistungsziele, entsteht der dreidimensionale SDM-Würfel. Jeder „kleine Würfel“ steht für einen exakt definierbaren Ausschnitt der Verarbeitung: ein bestimmter Verarbeitungsschritt, auf einer konkreten Ebene, unter Berücksichtigung eines bestimmten Gewährleistungsziels. Dadurch wird sichtbar, an welcher Stelle im Prozess Risiken entstehen und auf welche Weise diese mit Maßnahmen adressiert werden sollten.
Der SDM-Würfel sorgt dafür, dass keine Dimension der Verarbeitung unbeachtet bleibt. Risiken können ebenenscharf identifiziert und durch dokumentierte TOM präzise adressiert werden. Fachverfahren, Fachapplikation und Infrastruktur werden nicht als separate Silos betrachtet, sondern im Zusammenspiel analysiert – was gerade bei modernen KI-Systemen zwingend erforderlich ist.
4.5 Risikoübertragung und Risikoanreicherung zwischen den Ebenen
Ein häufig unterschätzter, aber zentraler Mehrwert des SDM-Würfels besteht darin, dass er Risikoübertragungen zwischen den Ebenen sichtbar macht. Die Risikoanalyse erfolgt nicht isoliert je Ebene, sondern berücksichtigt wechselseitige Abhängigkeiten und mögliche „Infektionen“ der Ebenen untereinander: Anforderungen, die sich aus dem Fachverfahren auf Ebene 1 ergeben – etwa aus medizinischen, organisatorischen oder rechtlichen Vorgaben –, müssen konsequent in die Fachapplikation auf Ebene 2 und in die technische Infrastruktur auf Ebene 3 übertragen werden. Wenn etwa das Fachverfahren „Terminvereinbarung im Krankenhaus“ keine vollständigen Gesprächsaufzeichnungen zulässt, um dem Prinzip der Datensparsamkeit zu genügen, muss dies in der Applikation technisch durch geeignete Konfiguration und Architektur sichergestellt werden. Wenn das Fachverfahren verlangt, dass Patienten Termine jederzeit ändern oder löschen können, muss die Fachapplikation/Infrastruktur entsprechende Schnittstellen und Berechtigungen bereitstellen. Damit werden die Anforderungen aus Ebene 1 nach unten vererbt und dort technisch-konzeptionell konkretisiert.
Der Risikoübertrag funktioniert aber auch in die andere Richtung: Eine fachlich zunächst harmlose Verarbeitung auf Ebene 1 kann durch technische Besonderheiten in den Ebenen 2 oder 3 plötzlich ein deutlich höheres Risikoniveau erreichen obwohl der Fachzweck unverändert bleibt. So wird eine einfache Terminvereinbarung zu einer Hochrisikoverarbeitung, wenn sie durch eine KI-basierte Sprachassistenz umgesetzt wird, die externe Cloud-Komponenten nutzt, generative Modelle einsetzt, Audioaufzeichnungen weiterverarbeitet und deren Entscheidungslogik nur begrenzt transparent ist. Gleiches gilt, wenn die zugrunde liegende Infrastruktur etwa auf einem Cloud-Provider basiert, bei dem Datenübermittlungen in Drittländer stattfinden oder Logging-Systeme nicht vollständig kontrollierbar sind. Dann steigen die Risiken für das gesamte Fachverfahren, selbst wenn die Fachapplikation aus Sicht ihrer Funktion „sauber“ entwickelt wurde.
Durch die dreidimensionale Struktur des SDM-Würfels wird systematisch dargestellt, wo welche Risiken entstehen, wie sie sich entlang der Ebenen verstärken und an welchen Stellen TOM anzusetzen sind, um die Verarbeitung insgesamt abzusichern. Der Würfel macht deutlich, dass eine Verarbeitung nur so sicher ist wie ihre gefährdetste Ebene und dass Risiken sowohl von oben nach unten als auch von unten nach oben infizieren können. Das ist gerade im KI-Kontext von großer Bedeutung, weil viele risikorelevante Faktoren nicht im Prozess, sondern in der technischen Umsetzung begründet sind. Die wechselseitige Risikoübertragung erklärt, warum KI-Verarbeitungen häufig als Hochrisikoverarbeitungen einzustufen sind, obwohl der fachliche Vorgang unverändert geblieben ist.
5. Von DSGVO-Anforderungen zu strukturierten und prüfbaren TOM mit dem SDM
Ein Das SDM übersetzt die abstrakten Vorgaben der DSGVO in konkrete, prüffähige Anforderungen und Maßnahmen. Ausgangspunkt sind die rechtlichen Normen, insbesondere Art. 5 DSGVO mit den Grundsätzen der Verarbeitung und der Rechenschaftspflicht, Art. 25 DSGVO mit dem Konzept des Datenschutzes durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen, Art. 32 DSGVO mit den Anforderungen an die Sicherheit der Verarbeitung sowie Art. 35 DSGVO mit der Pflicht zur Datenschutz-Folgenabschätzung bei risikoreichen Verarbeitungen.
Der Weg über das SDM lässt sich in drei Schritten beschreiben:
Schritt Eins: Zuordnung der rechtlichen Anforderungen zu Gewährleistungszielen
Zunächst werden die rechtlichen Anforderungen den Gewährleistungszielen zugeordnet. Ziel ist, jedes abstrakte rechtliche Gebot in eine oder mehrere überprüfbare Anforderungen zu übersetzen.
- Datenminimierung - Art. 5 Abs. 1 lit. c DSGVO (Datenminimierung), Art. 5 Abs. 1 lit. b DSGVO (Zweckbindung)
- Transparenz - Art. 5 Abs. 1 lit. a DSGVO (Transparenz), Art. 12–14 DSGVO (Informationspflichten), Art. 15 DSGVO (Auskunftsrecht)
- Nichtverkettung - Art. 5 Abs. 1 lit. b DSGVO (Zweckbindung), Art. 5 Abs. 1 lit. c DSGVO (Datenminimierung), Art. 6 DSGVO (Rechtsgrundlagen je Zweck)
- Intervenierbarkeit - Art. 12–23 DSGVO (Betroffenenrechte), Art. 24 Abs. 1 DSGVO (Pflichten des Verantwortlichen zur Umsetzung), Art. 5 Abs. 1 lit. a DSGVO (Treu und Glauben)
- Integrität - Art. 5 Abs. 1 lit. f DSGVO (Integrität), Art. 32 Abs. 1 DSGVO (Schutz vor Veränderung)
- Vertraulichkeit - Art. 5 Abs. 1 lit. f DSGVO (Vertraulichkeit), Art. 32 Abs. 1 DSGVO (Zugangskontrollen, TOM)
- Verfügbarkeit - Art. 32 Abs. 1 lit. b und c DSGVO (Wiederherstellbarkeit, Belastbarkeit), Erwägungsgrund 49 und 83 DSGVO
Schritt Zwei: Ableitung generischer Maßnahmen je Gewährleistungsziel
Nun werden für jedes Schutzziel generische Maßnahmen definiert, also gewissermaßen ein „Soll-Set“ an TOM, die typischerweise geeignet sind, das jeweilige Ziel zu erreichen.
- Datenminimierung: Ziel: So wenig personenbezogene Daten wie möglich verarbeiten.
- Zweckpräzisierung und Zweckfestlegung vor Beginn der Verarbeitung
- Pflichtfelder- und Eingabereduktion (nur notwendige Daten)
- Pseudonymisierung oder Anonymisierung, wo möglich
- Rollenkonzepte, die nur notwenige Daten anzeigen
- Lösch- und Speicherbegrenzungskonzepte inkl. automatisierter Löschroutinen
- Vermeidung dauerhafter Speicherung (z. B. transienter Speicher, Edge-Verarbeitung)
- Datenschutzfreundliche Voreinstellungen (Privacy by Default)
- Transparenz: Ziel: Nachvollziehbarkeit der Verarbeitung für Betroffene und Verantwortliche.
- Vollständige, leicht verständliche Datenschutzhinweise
- Dokumentationssystem für Verarbeitungstätigkeiten
- Logging der Verarbeitungsschritte (Protokollierung)
- Verfahren zur Bearbeitung von Auskunftsersuchen
- Kennzeichnung und Beschreibung automatisierter Systeme, Algorithmen, KI-Logiken
- Klare interne Richtlinien und Verfahrensanweisungen
- Nichtverkettung: Ziel: Keine unzulässige Zusammenführung von Daten aus unterschiedlichen Kontexten.
- Strikte Zwecktrennung in Fachverfahren und Datenbanken
- Einsatz von Kontexttrennung (z. B. Mandantentrennung)
- Segmentierung von Datenbeständen, getrennte Schlüsselverwaltung
- Verhinderung übermäßiger Profilbildung
- Verbot von systemübergreifenden Identifikatoren
- Rollenbasierte Sichtbarkeit: Nutzer sehen nur kontextbezogene Daten
- Prüfroutinen, ob neue Verarbeitungen zur Zweckentgrenzung führen könnten
- Intervenierbarkeit: Ziel: Betroffene können ihre Rechte wirksam wahrnehmen.
- Standardisierte Prozesse für Betroffenenrechte (Auskunft, Löschung, Berichtigung, Widerspruch)
- Technische Umsetzungsmöglichkeiten: Markierung, Einschränkung, Sperrung, Löschung
- Workflows zur internen Bearbeitung von Betroffenenanfragen
- Schnittstellen zur Berichtigung oder Löschung in IT-Systemen
- Mechanismen zur Widerrufsbearbeitung (z. B. Widerruf von Einwilligungen)
- Monitoring von Fristen (1 Monat nach Art. 12 Abs. 3 DSGVO)
- Klare Verantwortlichkeiten („Owner“ für Betroffenenrechte)
- Integrität: Ziel: Schutz vor unbefugter oder unbeabsichtigter Veränderung von Daten.
- Einsatz kryptografischer Verfahren (Hashing, Signaturen)
- Vier-Augen-Prinzip bei kritischen Änderungen
- Berechtigungskonzepte mit Änderungs- und Schreibschutz
- Versions- und Änderungsmanagement
- Protokollierung aller Änderungen (Manipulationsschutz)
- Validierungs- und Plausibilitätsprüfungen bei Eingaben
- Sicherstellung der Datenrichtigkeit durch Qualitätskontrollen
- Vertraulichkeit: Ziel: Schutz vor unbefugtem Zugriff und vor Offenlegung der Daten.
- Authentifizierung (MFA), Autorisierung, Rollen- und Rechtekonzepte
- Verschlüsselung von Daten (Storage + Transport)
- Netzwerksicherheitsmaßnahmen (Firewalling, Segmentierung, VPN)
- Zugriffsbeschränkungen (Need-to-know-Prinzip)
- Schulungen zur Vermeidung von Social Engineering
- Geheimhaltungsvereinbarungen und Verpflichtung auf das Datengeheimnis
- Sichere Aufbewahrung und Transport von Datenträgern
- Verfügbarkeit: Ziel: Daten und Systeme müssen rechtzeitig nutzbar sein.
- Backup- und Wiederherstellungsprozesse (inkl. Tests)
- Redundante Systemarchitektur, Cluster, Failover-Systeme
- Monitoring von Systemen, Ausfall- und Incident-Management
- Notfall- und Krisenmanagementpläne
- Schutz gegen Ransomware (z. B. immutable Backups)
- Physische Sicherheit (Brand-, Einbruch-, Wasser- und Stromschutz)
- Service-Level-Management (Reaktionszeiten, Wiederanlaufzeiten)
Schritt Drei: Überführung in konkrete, prüfbare TOM für die einzelne Verarbeitung
Jetzt werden diese generischen Maßnahmen auf das konkrete Verfahren angewendet. Jede Maßnahme wird so beschrieben, dass ihre Umsetzung objektiv überprüfbar ist, etwa durch Angaben zur eingesetzten Verschlüsselungstechnologie, zur Häufigkeit von Backups, zur Struktur des Berechtigungskonzepts oder zur Ausgestaltung der Protokollierung. Die SDM-Referenzmaßnahmen-Kataloge bieten hier eine wertvolle Grundlage, um zu prüfen, ob das vorhandene Maßnahmen-Set dem rechtlich geforderten Soll-Zustand entspricht. Für die DSFA bedeutet dies, dass die Risikoanalyse entlang der Gewährleistungsziele erfolgen kann, dass zu jedem identifizierten Risiko konkrete TOM hinterlegt werden und dass die Nachvollziehbarkeit für Audits und Aufsichtsbehörden erheblich erleichtert wird.
6. Formulierungshilfen: Wie Verarbeitung und TOM „KI-verarbeitbar“ beschrieben werden können
Ein wesentlicher Schritt hin zu einer KI-gestützten DSFA-Erstellung besteht darin, Verarbeitungstätigkeiten und TOM so zu beschreiben, dass sie nicht nur für Menschen, sondern auch für KI-Systeme gut auswertbar sind. Je standardisierter und strukturierter die Beschreibung ist, desto einfacher lassen sich die Inhalte automatisiert analysieren, bewerten und in Berichtsstrukturen überführen.
6.1 Strukturierte Darstellung und Formatierung
Um TOM maschinenlesbar und für KI-Systeme optimal verwertbar zu dokumentieren, empfiehlt sich eine strukturierte und einheitliche Darstellung. Jede Maßnahme sollte in einem konsistenten Format erfasst werden, etwa als tabellarische oder modulare Beschreibung mit festen Feldern für das adressierte Schutzziel, den Maßnahmennamen, eine Beschreibung der Funktionsweise, den Zweck bzw. das adressierte Risiko, den relevanten Verarbeitungsschritt und die Verarbeitungsebene sowie gegebenenfalls für die Einordnung als technische oder organisatorische Maßnahme und für den Umsetzungsstatus. Eine derart standardisierte Dokumentation erleichtert es nicht nur Menschen, sich schnell zu orientieren, sondern unterstützt insbesondere KI-Systeme dabei, Inhalte zuverlässig zu erkennen. Wenn etwa Schutzziel und Maßnahmenname als klar getrennte Felder vorliegen, müssen diese Informationen nicht erst aus Fließtext extrahiert werden. Eine eindeutige Zuordnung zu Verarbeitungsschritt und Ebene erhöht die Präzision der automatisierten Risikoanalyse zusätzlich. Das SDM bietet hier eine Methode und Orientierung, in dem sich jeder „Sub-Würfel“ mit seinen Anforderungen durch das Koordinatensystem adressieren lässt.
6.2.KI nutzen um Lücken zu füllen / Vorschläge zu generieren
Strukturierte TOM-Beschreibungen entlang dieser Systematik bilden zugleich die Basis dafür, dass KI-Systeme Lücken im Maßnahmen-Set erkennen und sinnvolle Ergänzungsvorschläge machen können. Sobald eine Verarbeitung in dieser Form dokumentiert ist, kann eine KI beispielsweise feststellen, dass für bestimmte Risiken noch keine Maßnahmen hinterlegt wurden, dass Maßnahmen ohne nachvollziehbare Zuordnung zu Schutzzielen existieren oder dass bestimmte Kombinationen aus Schutzziel, Verarbeitungsschritt und Ebene gar nicht adressiert wurden. Ebenso kann sie auf inkonsistente Angaben hinweisen, etwa wenn ein Schutzziel unpassend gewählt oder eine Maßnahme einer falschen Ebene zugeordnet wurde. KI kann zudem Vorschläge aus Referenzkatalogen und Best Practices einbringen und – etwa für KI-spezifische Szenarien – zusätzliche TOM anregen, etwa Logging- oder Auditmechanismen. Das System erkennt systematisch, in welchen Bereichen Dokumentation unvollständig oder unausgewogen ist, etwa wenn viele Maßnahmen zum Schutz der Vertraulichkeit existieren, während Transparenz oder Intervenierbarkeit nur rudimentär adressiert sind.
KI kann systematisch helfen:
- fehlende Zuordnungen zu Schutzzielen, Verarbeitungsschritten oder Ebenen erkennen,
- Hinweise geben, wenn ein Risiko ohne zugehörige Maßnahme besteht oder umgekehrt,
- weitere Maßnahmen vorschlagen, die branchenüblich oder im SDM-Maßnahmenkatalog vorgesehen sind,
- inkonsistente Angaben identifizieren (z. B. falsche Ebene, unpassendes Schutzziel),
- Empfehlungen geben, wie die Dokumentation zu vervollständigen ist („Für das Schutzziel Integrität fehlen Maßnahmen im Schritt ‚Bearbeiten‘“),
- branchen- oder technologiebezogene TOM nachliefern (z. B. Vorschläge für KI-spezifische Logging- oder Auditmechanismen).
6.3 Klare Zuordnung zu Gewährleistungszielen
Bei der Beschreibung einzelner Maßnahmen sollte stets deutlich erkennbar sein, welches Gewährleistungsziel im Vordergrund steht. Dies kann über explizite Felder wie „Schutzziel: Vertraulichkeit“ erfolgen oder in die Beschreibung integriert werden, etwa indem der Zweck der Maßnahme im Hinblick auf das Ziel beschrieben wird. Eine KI kann dann gezielt alle Maßnahmen zu einem bestimmten Schutzziel zusammentragen, auswerten und in DSFA-Berichte integrieren. Auch für die menschliche Bewertung wird dadurch schneller deutlich, ob ein Schutzziel ausreichend durch Maßnahmen abgedeckt ist oder ob Lücken verbleiben.
6.4 Modularität und wiederverwendbare Bausteine
Es ist sinnvoll, jede TOM möglichst modular zu beschreiben. Sammelmaßnahmen, in denen etwa Zugriffskontrolle, Verschlüsselung und Protokollierung in einem einzigen Text vermengt werden, erschweren sowohl die menschliche als auch die maschinelle Auswertung. Besser ist es, diese Aspekte in separate Maßnahmen zu trennen, die jeweils ein Hauptschutzziel adressieren. Ein modularer Aufbau erleichtert die Wiederverwendung von Maßnahmen in unterschiedlichen Verarbeitungen und ermöglicht es der KI, Bausteine gezielt Risiken zuzuordnen und in verschiedenen Kontexten erneut zu nutzen.
6.5 Einheitliche Terminologie
Ein weiterer Baustein für eine KI-verarbeitbare Dokumentation ist eine konsistente und standardisierte Terminologie. Begriffe wie „Gesundheitsdaten“, „Zugriffskontrolle“, „Verschlüsselung“, „Pseudonymisierung“ oder „Protokollierung“ sollten in einem Dokument immer in gleicher Weise verwendet werden, anstatt ständig zu variieren. Je stärker sich die Begriffswahl an etablierten Standards etwa aus BSI-Grundschutz, ISO-Normen oder dem SDM selbst orientiert, desto leichter können KI-Systeme Inhalte einordnen und mit externen Wissensquellen verknüpfen. Uneinheitliche Begriffe führen dagegen dazu, dass semantisch gleiche Maßnahmen als verschiedene Objekte behandelt werden und Auswertungen erschweren.
6.6 Risikobezogener Kontext
Zu jeder Maßnahme sollte der Bezug zu einem konkreten Risiko erkennbar sein. Eine Beschreibung wie „Zugangsbeschränkung auf Sprachaufzeichnungen zum Schutz vor unbefugter Einsicht in Patientendaten“ verknüpft Maßnahme und Risiko unmittelbar. Dadurch kann eine KI Risiken und Maßnahmen automatisch koppeln, Risikolisten mit Maßnahmenlisten abgleichen und Lücken identifizieren. Auch für die DSFA selbst ist dieser Zusammenhang essenziell, denn sie zielt gerade darauf ab, Risiken bewusst zu machen und die Wirksamkeit der Maßnahmen zur Risikominderung darzustellen.
6.7 Maschinenlesbare Formate (Tabellen, Tools, Exporte)
Neben der lesbaren Dokumentation in klassischen Dokumentformaten sollte ein maschinenlesbares Format gepflegt werden, etwa in Form von Tabellen (Excel, CSV), Datenmodellen in einem Datenschutz-Tool oder standardisierten Exporten aus einer Datenschutz-Management-Software. Verarbeitungsverzeichnis, TOM, Risiken und DSFA-Bausteine sollten über ein einheitliches Schema miteinander verknüpft sein, damit KI-Systeme direkt auf diese strukturierten Daten zugreifen können, ohne zunächst komplexe Fließtexte analysieren zu müssen. Ein solcher Aufbau erleichtert auch die Weiterentwicklung in Richtung automatisierter Schnittstellen zu IT-Systemen.
7. Praxisbeispiel: KI-Sprachassistent im Krankenhaus
7.1 Beschreibung der Verarbeitung und Systemarchitektur
Im Praxisbeispiel kommt ein KI-basierter Sprachassistent zur telefonischen Terminvereinbarung in einem Krankenhaus zum Einsatz. Das System führt mit den Patienten Dialoge in natürlicher Sprache, nimmt Terminwünsche entgegen, verschiebt oder storniert bestehende Termine und beantwortet einfache organisatorische Fragen. Im Hintergrund greift der Assistent auf das Krankenhausinformationssystem (KIS) zu, um etwa freie Termine zu ermitteln oder Patientendaten zuzuordnen.
Technisch basiert die Lösung auf Komponenten für Spracherkennung und Sprachsynthese, einer KI-gestützten Dialogsteuerung sowie Schnittstellen zu Kalender- und Patientendatenbanken. Je nach Ausgestaltung werden darüber hinaus externe Cloud-Dienste, etwa für die Sprachverarbeitung, eingebunden.
Betrachtet man lediglich das Fachverfahren „Terminvereinbarung“, erscheint das Risiko zunächst eher gering. Durch die Einbindung einer KI-Infrastruktur, insbesondere in Kombination mit Cloud-Services, steigt das Risiko jedoch deutlich. Der SDM-Würfel zeigt, dass wesentliche zusätzliche Risiken auf Ebene der Fachapplikation und Infrastruktur entstehen, deren Auswirkungen sich aber auf das gesamte Verfahren erstrecken. Die DSFA muss daher zwingend das Gesamtverfahren im Zusammenspiel aller Ebenen betrachten.
7.2 Beginn der Dokumentation: Zweck, Rechtsgrundlage, Beteiligte, abstrakte Risiken
Ausgangspunkt der Dokumentation ist der Zweck der Verarbeitung. Im vorliegenden Beispiel besteht dieser darin, Terminvereinbarungen und -verwaltungen im Krankenhaus telefonisch abzuwickeln. Dieser Zweck ist grundsätzlich legitim und liegt sowohl im Interesse der Patienten als auch des Krankenhauses. Das Risikoniveau verändert sich jedoch maßgeblich durch die Art der technischen Umsetzung, also den Einsatz von KI und Cloud-Komponenten, durch die Sensibilität der verarbeiteten Daten – insbesondere Gesundheitsdaten – sowie durch den Grad der Automatisierung der Kommunikation.
Im zweiten Schritt ist die Rechtsgrundlage darzustellen. Ohne valide Rechtsgrundlage ist eine datenschutzkonforme Verarbeitung nicht möglich. Es ist zu erläutern, welche Normen einschlägig sind, etwa Art. 6 Abs. 1 Buchstabe b DSGVO für die Erfüllung des Behandlungsvertrages in Verbindung mit terminbezogenen Prozessen und gegebenenfalls Art. 9 Abs. 2 DSGVO für die Verarbeitung von Gesundheitsdaten. Zugleich ist darzulegen, in welchem Verhältnis diese Rechtsgrundlagen zur Zweckbestimmung stehen und ob für einzelne Teilverarbeitungen, etwa eine Gesprächsaufzeichnung oder eine bestimmte Cloud-Nutzung, eine Einwilligung erforderlich ist.
Anschließend werden Zugriffe und Beteiligte beschrieben. Hierzu gehört, welche internen und externen Akteure an der Verarbeitung beteiligt sind – beispielsweise das Krankenhaus selbst, externe IT-Dienstleister, Cloud-Anbieter oder der Hersteller des KI-Systems. Es ist darzustellen, welche Rollen und Verantwortlichkeiten diese Akteure einnehmen, ob sie als Verantwortliche, Auftragsverarbeiter oder Unterauftragsverarbeiter agieren, und wie Datenweitergaben vertraglich abgesichert sind, etwa durch Auftragsverarbeitungsverträge und technische sowie organisatorische Zusagen.
Auf dieser Grundlage lässt sich eine abstrakte Risikoanalyse im Sinne einer Schwellwertprüfung durchführen. Dabei wird bewertet, ob Art und Umfang der Verarbeitung, die betroffenen Datenkategorien, der Einsatz neuer Technologien und mögliche Überwachungsaspekte ein wahrscheinlich hohes Risiko für die Rechte und Freiheiten der Betroffenen begründen. Im vorliegenden Beispiel ist dies der Fall, sodass die Pflicht zur Durchführung einer DSFA bejaht werden muss. Diese abstrakte Betrachtung wird in der DSFA anschließend durch eine konkretisierte Risikoanalyse entlang der Gewährleistungsziele vertieft.
7.3 Konkrete Risiken und TOM entlang der Gewährleistungsziele
Nun werden konkrete Risiken je Gewährleistungsziel herausgearbeitet und mit geeigneten TOM hinterlegt.
- Datenminimierung:Risiko: Es werden mehr Daten erfasst als für die Terminvereinbarung nötig, z. B. vollständige Gesprächsmitschnitte inklusive medizinischer Details, obwohl zur Terminbuchung vielleicht nur Name, Geburtsdatum und gewünschter Fachbereich nötig wären. Maßnahmen: Das System wurde so gestaltet, dass nur notwendige Informationen erfragt werden. Gespräche werden nicht vollständig aufgezeichnet, sondern es werden direkt die relevanten Datenpunkte (Termin, Patientendaten) extrahiert und gespeichert. Audioaufzeichnungen werden nach der Spracherkennung sofort gelöscht oder gar nicht erst persistiert. Zudem wird konfiguriert, welche Eingaben obligatorisch sind und welche freiwillig, um Datenüberflutung zu vermeiden. Durch diese Maßnahmen ist sichergestellt, dass das Prinzip der Datenminimierung gewahrt bleibt und keine unnötigen personenbezogenen Daten anfallen.
- Verfügbarkeit:Risiko: Patienten könnten aufgrund eines Systemausfalls keinen Termin vereinbaren (Dienst nicht erreichbar) oder gebuchte Termine könnten verloren gehen. In einem Krankenhaus kann mangelnde Verfügbarkeit auch die Versorgung beeinträchtigen. Maßnahmen: Der Service wird in einer hochverfügbaren Architektur betrieben. Das heißt, es existieren Redundanzen – etwa mehrere Serverinstanzen und Ausweichroutinen, falls ein Server ausfällt. Außerdem werden alle Terminbuchungen transaktional in der zentralen Datenbank des Krankenhauses gespeichert und mit dem Krankenhausinformationssystem synchronisiert. Sollte der KI-Assistent nicht verfügbar sein (z. B. bei Wartung), ist ein Fallback auf menschliche Mitarbeiter eingerichtet, sodass Anrufer nahtlos an einen Mitarbeiter weitergeleitet werden können. Regelmäßige Backups der Termindaten und ein Notfallplan (Disaster Recovery) runden die Vorkehrungen ab. Damit wird die ständige Verfügbarkeit und Belastbarkeit des Dienstes gemäß Art. 32 DSGVO gewährleistet.
- Integrität:Risiko: Die verarbeiteten Daten (z. B. Terminzeitpunkt, Patientenname) könnten fehlerhaft oder unbefugt verändert werden. Sprachassistenzsysteme bergen das Risiko von Erkennungsfehlern – etwa dass ein falsches Datum verstanden und eingetragen wird. Auch böswillige Manipulation (Angreifer verändern Termin- oder Patientendaten) ist denkbar. Maßnahmen: Zur Gewährleistung der Datenintegrität wurden mehrere Kontrollen eingebaut. Erstens lässt der Assistent kritische Angaben bestätigen – z. B. wird dem Patienten der erkannte Termin mit Datum/Uhrzeit noch einmal vorgelesen und zur Bestätigung aufgefordert, um Eingabefehler abzufangen. Zweitens werden Änderungsprotokolle geführt: Jede Terminbuchung oder -änderung durch die KI wird mit Zeitstempel und KI-Kennung protokolliert, sodass nachträglich überprüft werden kann, welche Änderungen erfolgt sind. Unautorisierte Änderungen werden durch Zugriffsbeschränkungen verhindert – die KI hat z. B. nur Schreibrechte auf Terminfelder, nicht aber auf andere Patientendaten. Schließlich sorgen regelmäßige Datenvalidierungen (Abgleich zwischen Terminplan und Spracherkennungs-Log) dafür, dass erkannte Texte und gespeicherte Daten konsistent sind. Diese Maßnahmen sichern die inhaltliche Richtigkeit und Unversehrtheit der Verarbeitungsergebnisse.
- Vertraulichkeit:Risiko: Unbefugte könnten sensible Informationen, die im Gespräch genannt werden (Krankheitsangaben, persönliche Daten), abhören oder abgreifen. Da es um Gesundheitsdaten geht, wäre ein Verstoß gegen die Vertraulichkeit besonders gravierend. Außerdem besteht das Risiko, dass Mitarbeiter oder Externe unberechtigt auf die Systemdaten zugreifen (z. B. auf Audio-Files oder Transkripte). Maßnahmen: Um Vertraulichkeit zu gewährleisten, wurden strenge Zugriffskontrollen eingerichtet. Die Audioverarbeitung läuft auf isolierten Systemen, auf die nur autorisierte Administratoren Zugriff haben. Alle gespeicherten Daten (wie die extrahierten Termin- und Patientendaten) werden stark verschlüsselt gespeichert (Datenbankverschlüsselung, TLS für die Übertragung). Die Sprachdaten werden während der Erkennung im Arbeitsspeicher verarbeitet und nicht persistent vorgehalten. Außerdem ist der Sprachassistent so konfiguriert, dass er nur allgemeine Termindaten speichert, aber keine Gesprächsinhalte im Wortlaut archiviert. Mitarbeiter im Callcenter sehen lediglich die vom System generierten Ergebnisse (Terminbestätigung), nicht aber einen Mitschnitt. Zusätzlich wurde der Dienst einem Penetrationstest unterzogen, um sicherzustellen, dass kein unbefugter externer Zugriff möglich ist. Zusammengefasst reduzieren diese TOM das Risiko eines Vertraulichkeitsbruchs erheblich, indem sie sicherstellen, dass nur Berechtigte Zugang zu den Daten haben und abgefangene Daten für Dritte unbrauchbar sind.
- Nichtverkettung:Risiko: Die im Terminassistenten erhobenen Daten könnten mit anderen Datenbanken zusammengeführt werden, z. B. um Profile über Patienten zu erstellen (etwa Kombination von Terminvereinbarungsdaten mit Krankenakte oder mit Marketing-Daten). Dies würde das Zweckbindungsprinzip verletzen, da Daten aus dem Terminvergabesystem zweckentfremdet genutzt würden. Maßnahmen: Der Dienst wurde logisch von anderen Systemen getrennt. Zwar erfolgt eine notwendige Integration mit dem Terminkalender, aber darüber hinaus findet keine Weitergabe der Gesprächsdaten an Marketing- oder Analytics-Tools statt. Es gibt klare Zweckbeschränkungen: Die erhobenen Daten (Gründe für Termin, verfügbare Slots etc.) werden ausschließlich zur Terminverwaltung genutzt. Durch Pseudonymisierung wird zudem verhindert, dass über das Terminvergabesystem direkt auf Patientidentitäten geschlossen werden kann – z. B. werden Fälle, die zur Analyse von Auslastungen herangezogen werden, ohne Namen gespeichert. Sollte es Schnittstellen zu anderen Krankenhausdiensten geben, sind diese durch Datenschutzvereinbarungen und technische Schranken so konzipiert, dass nur aggregierte oder anonymisierte Informationen fließen (etwa Statistik über Anzahl der Anrufe pro Woche, aber keine personenbezogenen Inhalte). Damit stellt das Unternehmen sicher, dass keine unbefugte Verkettung personenbezogener Daten aus verschiedenen Quellen erfolgt.
- Transparenz:Risiko: Patienten könnten im Unklaren gelassen werden, dass und wie ihre Daten von einer KI verarbeitet werden. Insbesondere muss vermieden werden, dass Patienten glauben, mit einer menschlichen Person zu sprechen, obwohl es eine Maschine ist – dies wäre eine Täuschung in Bezug auf die Datenverarbeitung. Auch das Fehlen von Aufzeichnungen über die Verarbeitung würde die Nachvollziehbarkeit beeinträchtigen. Maßnahmen: Beim Start jedes Anrufs wird proaktiv informiert, dass es sich um einen automatisierten Assistenten handelt und der Zweck des Gesprächs (Terminvereinbarung) sowie die Verarbeitung der genannten Daten erklärt. Zudem erhalten die Anrufenden einen Datenschutzhinweis, etwa einen Hinweis auf die Datenschutz-Webseite des Krankenhauses, wo die Datenverarbeitung detailliert erklärt wird. Alle Anfragen und Antworten des Systems werden intern protokolliert, sodass später analysiert werden kann, welche Daten wann verarbeitet wurden. Diese Protokolle können dem Datenschutzbeauftragten zur Prüfung oder im Falle von Anfragen der Aufsicht bereitgestellt werden. Darüber hinaus wurde das Verfahren im Verzeichnis der Verarbeitungstätigkeiten des Krankenhauses transparent dokumentiert. Patienten haben die Möglichkeit, nachträglich Auskunft über die verarbeiteten Daten zu erhalten, indem sie sich an das Datenschutzteam wenden. Durch diese Maßnahmen ist die Verarbeitung für Betroffene und Prüfer transparent und erfüllt die Anforderungen aus Art. 5 Abs. 1 lit. a und Art. 12 DSGVO.
- Intervenierbarkeit:Risiko: Ohne besondere Vorkehrungen könnten Patienten Schwierigkeiten haben, ihre Rechte im Zusammenhang mit dem Sprachassistenz-System auszuüben. Beispielsweise müsste ein Patient die Möglichkeit haben, einen gebuchten Termin wieder zu löschen oder die Korrektur eines falsch erfassten Namens zu verlangen. Wenn das System hier unflexibel wäre, würden Betroffene faktisch in ihren Rechten eingeschränkt. Maßnahmen: Der Dienst ist so integriert, dass manuelle Eingriffe jederzeit möglich sind. Patienten können im Telefonmenü wählen, zu einem menschlichen Mitarbeiter durchgestellt zu werden, wenn sie z. B. Korrekturen vornehmen wollen. Jede Terminvereinbarung über die KI wird dem Patienten zusätzlich per SMS oder E-Mail bestätigt, mit der Möglichkeit, den Termin über einen Link abzusagen oder zu ändern. Sollte ein Patient seine Einwilligung widerrufen (falls eine solche notwendig war) oder generell von seinem Recht auf Löschung Gebrauch machen, hat das Krankenhaus Prozesse, um alle im Sprachassistenten gespeicherten Daten zu dieser Person gezielt zu finden und zu löschen. Zudem wurden Mitarbeiter geschult, Anfragen wie „Ich möchte nicht, dass das Gespräch gespeichert wird“ sofort umzusetzen – etwa durch unmittelbares Beenden der Aufzeichnung bzw. Nutzung eines manuellen Workflows. Die DSFA berücksichtigte auch Notfallszenarien: z. B. was passiert, wenn die KI eine Anfrage nicht versteht – hier ist Intervenierbarkeit durch automatisches Weiterleiten an Mitarebiter gegeben. Summa summarum sind die Prozesse so gestaltet, dass die Betroffenen die volle Kontrolle über ihre Daten behalten und ihre Rechte gemäß Art. 16–19 DSGVO ohne großen Aufwand ausüben können.
Dieses Beispiel zeigt, wie jedes Gewährleistungsziel praxisrelevante Risiken adressiert. Indem die Risiken pro Ziel identifiziert und passende Gegenmaßnahmen ergriffen wurden, entstand für den Anbieter ein umfassendes TOM-Paket. Wichtig ist, dass die Maßnahmen dokumentiert und entlang der Schutzziele strukturiert beschrieben wurden – so konnte z. B. in der DSFA dargestellt werden, wie jedes identifizierte Risiko durch eine konkrete Maßnahme auf ein akzeptables Restniveau reduziert wird. Die SDM-Methodik half dem Datenschutzteam, an alle relevanten Aspekte zu denken: von IT-Sicherheit (CIA-Schutzziele) bis hin zu Datenschutzgrundsätzen (Datenminimierung, Zweckbindung) und Betroffenenrechten. Dadurch ließ sich die DSFA effizienter erstellen und gegenüber der Geschäftsführung und Aufsichtsbehörde nachvollziehbar begründen.
8. Empfehlung für Datenschutzbeauftragte: TOM-Dokumentation für die maschinelle DSFA-Erstellung
Aus der Kombination von SDM-Methodik und KI-Unterstützung ergeben sich für betriebliche und behördliche Datenschutzbeauftragte konkrete Handlungsempfehlungen. Dabei ist es wichtig, stets im Blick zu behalten, dass die Anforderungen aus der Verarbeitung und der Rechtslage stammen und dass SDM und KI lediglich Hilfsmittel sind, um diese Anforderungen effizienter und konsistenter abzubilden.
Der eigene TOM-Katalog ist konsequent entlang der sieben Gewährleistungsziele zu strukturieren. Eine schutzzielbasierte Gliederung, die etwa für jedes Schutzziel ein eigenes Kapitel vorsieht, erleichtert es, Lücken zu erkennen und gezielt nachzusteuern. Dabei wird unmittelbar sichtbar, wenn etwa Transparenzmaßnahmen deutlich schwächer ausgeprägt sind als Maßnahmen zur Vertraulichkeit.
Darüber hinaus empfiehlt es sich, für wesentliche Verarbeitungsvorgänge ein risikobezogenes Mapping zu erstellen. Zu jedem relevanten Risiko wird das betroffene Schutzziel benannt, die zugehörige Maßnahme dargestellt und der verbleibende Restrisiko-Status bewertet. Eine solche Zuordnung, die gewissermaßen eine „Mini-DSFA“ pro Verarbeitung darstellt, erleichtert die spätere Integration in umfassendere DSFA-Prozesse und macht die Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO konkret greifbar. KI kann hierbei helfen, fehlende Zuordnungen oder Inkonsistenzen aufzudecken und typische Ergänzungen vorzuschlagen, ersetzt aber nicht die Bewertung durch den Menschen.
Es ist außerdem sinnvoll, mit modularen, wiederverwendbaren Maßnahmenbausteinen zu arbeiten. Viele TOM – etwa eine starke Authentisierung, die Protokollierung administrativer Zugriffe oder ein standardisiertes Löschkonzept – kommen in zahlreichen Verarbeitungen vor. Wenn diese Bausteine zentral gepflegt und in verschiedenen Kontexten referenziert werden, steigt die Konsistenz, und Änderungen können effizient in alle betroffenen Verarbeitungen ausgerollt werden.
Der Einsatz von Datenschutz-Management-Software kann dabei unterstützen, Verarbeitungsverzeichnis, Risiken, TOM und DSFA nach SDM-Logik miteinander zu verknüpfen. Import- und Exportfunktionen erleichtern es, strukturierte Daten für KI-Systeme bereitzustellen. Gleichwohl sollte klar sein, dass Softwarelösungen die Dokumentation unterstützen, aber Verantwortung und Bewertung nicht automatisieren. Auch künftige Automatisierungen über MCP- oder API-Anbindungen, die etwa Systeme auslesen und TOM-Listen aktualisieren, werden lediglich den Prozess vereinfachen, nicht aber die rechtlichen Anforderungen verändern.
Schließlich ist die Qualität der Dokumentation wesentlich von der Qualifikation der beteiligten Personen abhängig. Fachbereiche, IT, Informationssicherheit und Datenschutzbeauftragte sollten in der SDM-Logik geschult sein und wissen, wie Maßnahmen schutzzielorientiert und KI-verarbeitbar beschrieben werden. Eine regelmäßige Prüfung (PDCA), etwa durch Reviews des Datenschutzbeauftragten, stellt sicher, dass die Dokumentation vollständig, konsistent und für Mensch und Maschine gleichermaßen gut nutzbar ist.
9. Satzschablonen, Standardtexte und KI-gestützte Auswertung
Liegt eine nach konkreten Standards strukturierte Dokumentation vor, vorzugsweise SDM-basiert und maschinenlesbar, können KI-gestützte Verfahren gezielt eingesetzt werden. Angaben lassen sich auf Widersprüche prüfen, etwa wenn eine Verarbeitung als cloudfrei beschrieben wird, gleichzeitig aber externe APIs aufgeführt sind. Die KI kann weitere Risiken und Maßnahmen auf Basis von Referenzkatalogen oder bekannten Best Practices vorschlagen und bestehende Texte vorformulieren, vereinheitlichen oder sprachlich überarbeiten.
Ein besonders wirkungsvoller Ansatz ist der Einsatz von Satzschablonen. Hierbei werden standardisierte Formulierungen entwickelt. In solche Schablonen setzt die KI dann nur noch die spezifischen Eckdaten der jeweiligen Verarbeitung ein. In der Praxis könnte dies so aussehen, dass eine Formulierung wie „Zur Gewährleistung der Vertraulichkeit im Verarbeitungsschritt ‚Aufbewahren‘ auf Infrastrukturebene wird die Datenbank durch … geschützt“ verwendet wird und die KI die konkreten technischen Maßnahmen aus dem TOM-Katalog übernimmt.
Als Beispiel wurde mittels folgendem Prompt
Ziel: Die Ausgabe soll eine vollständige Matrix aller SDM-Koordinaten enthalten, wobei jeder Eintrag einen korrekt formulierten Satz nach folgender Satzschablone enthält: {Praktik} [für {Zielobjekt}] {MODALVERB} <Ergebnis> {Handlungswort} (TAGs) (Hinweise)
a. Ergänze um Erklärung warum welches Modelverb bei der Frage gewählt wurde.
b. bewerte ob die Frage durch die beschriebenen Maßnahmen erfüllt ist und begründe dies mit Quellenangabe wenn möglich.
der folgende Bericht erstellt:
Greift eine KI auf solche Satzschablonen und auf eine gut gepflegte Datenbasis mit Verarbeitungsverzeichnis, TOM-Katalog und Risikoregister zurück, kann sie große Teile eines DSFA-Berichts automatisch befüllen. Die Rolle des Datenschutzbeauftragten verschiebt sich dadurch stärker in Richtung fachlicher Prüfung, Bewertung von Restrisiken und Freigabe der finalen DSFA. Gleichzeitig wird es möglich, Berichte zielgruppengerecht zu formulieren, etwa in einer stärker verdichteten, risikoorientierten Sprache für die Geschäftsführung oder in einer technisch detaillierten Darstellung für die IT. KI kann helfen, die rechtlichen und technischen Anforderungen in konkrete, zielgruppengerechte Handlungsanweisungen zu übersetzen, ohne dass der inhaltliche Kern der DSFA verwässert wird.
10. Fazit: SDM 3.1 als Schlüsselinstrument für die DSFA im KI-Kontext
Die fortschreitende Digitalisierung und der zunehmende Einsatz von KI-Systemen, insbesondere im Gesundheitswesen, erhöhen den Druck, DSFA effizient, nachvollziehbar und rechtssicher durchzuführen. Das Standard-Datenschutzmodell (SDM) 3.1 erweist sich dabei als Schlüsselinstrument, um die Anforderungen der DSGVO in Gewährleistungsziele zu übersetzen, konsistente TOM-Setups abzuleiten, Risiken systematisch zu identifizieren und zu bewerten und die Dokumentation so zu strukturieren, dass sie von Menschen und KI gleichermaßen verarbeitet werden kann.
Für Datenschutzbeauftragte bedeutet dies, dass TOM-Dokumentation und DSFA methodisch näher zusammenrücken. KI kann große Teile der Dokumentationsarbeit vorbereiten und standardisieren, während sich die Rolle des DSB stärker auf die qualitative Bewertung und Steuerung verlagert. Gerade beim Einsatz von KI im Gesundheitswesen – wie im Beispiel des Sprachassistenten – zeigt sich, dass das SDM hilft, Innovation und Datenschutz nicht als Gegensätze, sondern als kompatible Ziele zu verstehen. Durch eine klare, strukturierte und prüfbare Dokumentation werden Patientenrechte gestärkt, Aufsichtsbehörden bei der Prüfung unterstützt und Verantwortliche in die Lage versetzt, Rechenschaft über ihre Entscheidungen abzulegen.
Gleichzeitig bleibt deutlich, dass die eigentliche Komplexität einer DSFA nicht aus dem SDM oder aus der DSGVO entsteht, sondern aus der Verarbeitung selbst. Die DSGVO, insbesondere Art. 5, 25, 32 und 35, gibt die materiellen Maßstäbe vor, und die jeweiligen Fachprozesse bringen ihre spezifischen Risiken und Schutzbedarfe mit sich. Das SDM ist in diesem Zusammenhang „nur“ eine Methode – ein strukturierter Rahmen, mit dessen Hilfe diese Anforderungen systematisch erfasst, geprüft und in geeignete TOM übersetzt werden. Es ersetzt keine rechtliche Prüfung und schafft keine zusätzlichen Anforderungen, sondern macht die bestehenden Vorgaben sichtbar, nachvollziehbar und auditierbar.
Auch KI ist kein Entscheidungsträger, sondern bleibt ein Unterstützungswerkzeug. Sie dient der Konsistenzprüfung, der Identifikation von Lücken, der Erstellung und Vereinheitlichung von Texten sowie der strukturierten Aufbereitung komplexer Informationen. Die rechtliche Bewertung, die Risikoentscheidung und die Auswahl geeigneter Maßnahmen bleiben menschliche Aufgaben. Perspektivisch ist vorstellbar, dass Automatisierungen – etwa über MCP- oder API-Anbindungen – technische Informationen direkt aus Systemen auslesen und in strukturierte DSFA-Prozesse einspeisen. Dies könnte dazu führen, dass TOM-Kataloge, Verarbeitungsverzeichnisse oder Systemprotokolle automatisiert aktualisiert und in DSFA-Bausteine integriert werden. An den Grundprinzipien ändert dies jedoch nichts: Die Anforderungen kommen aus dem Gesetz, die Risiken aus der konkreten Verarbeitung, das SDM liefert die Struktur, und KI unterstützt bei der Aufbereitung, nicht bei der Entscheidung.
Das SDM 3.1 ist die methodische Basis, damit KI-Systeme DSFA-Dokumentationen und Risikobewertungen strukturiert, konsistent und prüfbar erstellen können. So lassen sich auch komplexe Verarbeitungen datenschutzkonform, vertrauenswürdig und transparent gestalten.
Datenschutzbeauftragte wechseln vom Jäger und Sammler der Dokumente zum strategischen Risikomanager und Bewerter von komplexen Systemen.
--
Thomas Werning ist seit über 25 Jahren Im Bereich Datenschutz, Internetmarketing und Digitalisierung unterwegs. Er ist Geschäftsführer der werning.com GmbH und der MoeWe Datenschutz GmbH. Datenschutz ist für Ihn insbesondere auch der respektvolle Umgang mit den Daten von anderen Menschen sowie die digitale Verantwortung im Unternehmen.
Er ist Gründungsmitglied des UGSDM e.V. und Vorstandsmitglied im Fachverband externe Datenschutzbeauftragte (FED e.V.).
Quellen und weitere Informationen:
- User Group Standard-Datenschutzmodell:www.ugsdm.de
- Einstiegshilfe in die Methode des Standard-Datenschutzmodell (SDM) https://www.werning.com/artikel/einstiegshilfe-in-die-methode-des-standard-datenschutzmodell-sdm/
- Art. 35 DSGVO – Datenschutz-Folgenabschätzung, abrufbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A32016R0679
- Datenschutzkonferenz (DSK): Kurzpapier Nr. 5–„Die Datenschutz-Folgenabschätzung gemäß Artikel 35 DS-GVO“, Version vom 17.10.2017.
- Standard-Datenschutzmodell – SDM Version 3.1: „Standard-Datenschutzmodell – Eine Methode zur Datenschutzberatung und -prüfung auf der Basis einheitlicher Gewährleistungsziele“, herausgegeben von der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder.
- Bundesbeauftragter für den Datenschutz und die Informationsfreiheit (BfDI): „FAQ zur Datenschutz-Folgenabschätzung“, online abrufbar unter:https://www.bfdi.bund.de
- BSI: „IT-Grundschutz-Kompendium“, Bundesamt für Sicherheit in der Informationstechnik, aktuelle Edition (z. B. Edition 2023).
- European Data Protection Board (EDPB): Leitlinien 4/2019 zur Datenschutz-Folgenabschätzung (DSFA), Version 2.0, verabschiedet am 10.10.2019.
- Datenschutzkonferenz (DSK): Orientierungshilfe KI und Datenschutz, Version 1.0 vom 20.12.2023.
- GDD e.V. – Gesellschaft für Datenschutz und Datensicherheit: „Praxishilfe DSFA“, Ausgabe 2022.
- Bayerisches Landesamt für Datenschutzaufsicht (BayLDA): „KI im Gesundheitswesen – Datenschutzrechtliche Anforderungen“, Informationsblatt 2023.
- Schrems II – EuGH, Urteil vom 16.07.2020, C-311/18, „Data Protection Commissioner / Facebook Ireland Ltd und Maximillian Schrems“.
- EU-Kommission: EU-US Data Privacy Framework – Angemessenheitsbeschluss vom 10.07.2023, abrufbar unter:https://commission.europa.eu
- OpenAI: Data Processing Agreement (DPA), Dokumentation zum DSGVO-konformen Einsatz über die API (Stand: 2024).
- Bitkom: Leitfaden „Künstliche Intelligenz und Datenschutz – Handlungsempfehlungen für Unternehmen“, Version 2023.