Künstliche Intelligenz ist im Gesundheitswesen längst keine Zukunftsmusik mehr: Von der Bildanalyse über Triage‑Tools bis hin zu Dokumentations‑Assistenzsystemen entstehen derzeit an allen Ecken neue Anwendungen. Parallel dazu haben Gerichte und Aufsichtsbehörden 2025 begonnen, die datenschutzrechtlichen Leitplanken für diese Systeme deutlich zu schärfen. Dieser Beitrag ordnet die wichtigsten Signale ein und zeigt, was sie für Kliniken, Praxen praktisch bedeuten.
KI‑Training ist zulässig – aber streng begründungspflichtig
Ein prominenter Ausgangspunkt ist ein Verfahren vor dem Oberlandesgericht Köln zur Nutzung von Social‑Media‑Daten für das Training eines großen KI‑Sprachmodells. Im Eilverfahren ging es darum, ob der Anbieter personenbezogene Daten der Nutzer ohne deren ausdrückliche Einwilligung für KI‑Training verwenden darf. Das Gericht bejahte im Kern zwar die Möglichkeit, sich hierfür auf berechtigte Interessen zu stützen – knüpft diese Zulässigkeit aber an eine Reihe eng auszulegender Voraussetzungen.
Für das Gesundheitswesen lassen sich daraus mehrere zentrale Punkte ableiten:
- KI‑Training ist datenschutzrechtlich kein „rechtsfreier Raum“, sondern eine eigene Verarbeitung mit eigenständigem Zweck.
- Eine pauschale Berufung auf berechtigte Interessen wird kaum genügen; erforderlich sind klare Zwecke, eine konkrete Interessenabwägung und ein belastbares Schutzkonzept.
- Je sensibler die Daten und je weniger die Betroffenen mit einer derartigen Nutzung rechnen müssen, desto eher kommt man um Einwilligungs‑ oder Spezialtatbestände (z.B. Forschung) nicht herum.
Gerade für klinische KI‑Projekte bedeutet das: Es reicht nicht, auf „Innovationsinteresse“ oder „Verbesserung der Versorgung“ zu verweisen. Vielmehr müssen Zweckkategorien (Behandlung, Qualitätssicherung, Forschung, Produktentwicklung) sauber getrennt und rechtlich jeweils eigenständig unterlegt werden.
Speicherbegrenzung bei KI‑Training ist ernst zu nehmen
Ein zweites, praxisnahes Signal kommt aus einem Bußgeldfall gegen ein Life‑Science‑Unternehmen, das ein KI‑System zur Analyse von Tumorzellen entwickelt hatte. Kern des Vorwurfs war eine exzessive Speicherdauer von Gesundheitsdaten, die für das Training des Modells genutzt worden waren.
Im konkreten Fall war vorgesehen, identifizierbare Gesundheitsdaten über 25 Jahre hinweg aufzubewahren, um den gesamten Lebenszyklus des Produkts abzusichern. Die Behörde stellte fest:
- Eine derart lange Speicherdauer verstößt gegen das Prinzip der Speicherbegrenzung in Artikel 5 Absatz 1 lit. e DSGVO, weil sie über das zur Trainingszweckerreichung Erforderliche deutlich hinausgeht.
- Der Algorithmus war als „locked model“ konzipiert – das heißt, nach dem initialen Training war keine weitere Modellverbesserung mit diesen Daten vorgesehen. Für Betrieb, Support und Entsorgung waren die personenbezogenen Trainingsdaten daher nicht mehr notwendig.
- Zusätzlich wurden die Betroffenen nicht hinreichend transparent über die konkrete Speicherdauer informiert, was als Verstoß gegen Transparenz- und Informationspflichten gewertet wurde.
Für den Gesundheitsbereich folgt daraus unmittelbar:
- Trainings‑ und Betriebsphase müssen strikt getrennt werden: Was ausschließlich für das Training benötigt wird, ist nach Abschluss des Trainings zu löschen oder zu anonymisieren.
- „Lebenszyklus‑Argumente“ tragen nur, wenn tatsächlich ein fortlaufendes Re‑Training mit denselben identifizierbaren Daten vorgesehen ist – und auch dann nur im Rahmen enger Zweck‑ und Speichergrenzen.
- Lösch‑ und Anonymisierungskonzepte sind kein Feigenblatt, sondern zentraler Bestandteil der KI‑
Gerade für Krankenhäuser, Forschungsverbünde und MedTech‑Hersteller wird damit klar, dass Archivlösungen mit jahrzehntelanger Vorhaltung identifizierbarer Trainingsdaten datenschutzrechtlich auf sehr dünnem Eis stehen.
Weit verstandene Gesundheitsdaten: mehr als „klassische“ Patientendaten
Parallel dazu verdichten sich die Linien zur weiten Auslegung des Gesundheitsdatenbegriffs in Artikel 9 DSGVO. Danach können Informationen bereits dann Gesundheitsdaten sein, wenn sie mittelbar Rückschlüsse auf den Gesundheitszustand zulassen.
Für KI‑Systeme im Gesundheitswesen ist das brisant:
- Nicht nur klassische Inhalte aus KIS, PACS oder Labor gelten als Gesundheitsdaten.
- Auch Nutzungs‑, Verhaltens‑ und Kontextdaten (z.B. Bewegungsprofile, Wearable‑Daten, App‑Nutzung) können Gesundheitsdaten darstellen, wenn sie für medizinische Scorings, Risikomodelle oder Profiling herangezogen werden.
In der Praxis schiebt diese Auslegung der Versuchung einen Riegel vor, vermeintlich „anonyme“ oder „neutrale“ Datenbestände für KI‑Zwecke zu nutzen, ohne sie als Gesundheitsdaten zu behandeln. Wer solche Daten in klinischen oder versicherungsnahen Kontexten einsetzt, tut gut daran, sie vorsorglich wie Gesundheitsdaten zu behandeln – mitsamt der entsprechenden Rechtsgrundlagen, Schutzmaßnahmen und DSFA.
Ärztliche Schweigepflicht und Einsatz von KI‑Systemen
Die ärztliche Schweigepflicht nach § 203 StGB bleibt auch beim Einsatz von KI‑Systemen uneingeschränkt bestehen. Sie schützt alle Geheimnisse, die dem Arzt in seiner beruflichen Eigenschaft anvertraut oder sonst bekannt geworden sind, unabhängig davon, ob diese in Papierakten, Praxissoftware oder in KI‑gestützten Systemen verarbeitet werden. Jede Weitergabe an Dritte – einschließlich externer IT‑ und KI‑Dienstleister – ist deshalb nur zulässig, wenn eine gesetzliche Befugnis, eine wirksame Entbindung von der Schweigepflicht oder eine entsprechende spezialgesetzliche Grundlage besteht.
Damit wird jede technische Einbindung eines KI‑Systems automatisch zu einer Frage der Schweigepflicht: Sobald der Anbieter oder seine Subunternehmer potentiell Zugriff auf Patientendaten haben, werden sie in die Sphäre des Berufsgeheimnisses einbezogen. In der Praxis bedeutet das, dass nicht nur datenschutzrechtliche Anforderungen (etwa Auftragsverarbeitung), sondern auch strafrechtliche und berufsrechtliche Vorgaben zur Wahrung des Berufsgeheimnisses vertraglich und organisatorisch abgesichert werden müssen.
Besonders kritisch sind cloudbasierte oder generative KI‑Dienste, bei denen nicht klar ist, ob und wie Eingabedaten zu Trainings‑ oder Debugging‑Zwecken weiterverwendet werden. Werden identifizierbare Patientendaten in solche Systeme eingegeben, ohne dass eine rechtlich tragfähige Einbindung des Anbieters in die Schweigepflicht vorliegt, kann dies als unbefugtes Offenbaren von Privatgeheimnissen gewertet werden. Ärztinnen und Ärzte sollten daher nur solche Lösungen einsetzen, bei denen entweder eine rein lokale Verarbeitung erfolgt oder die vertragliche, technische und organisatorische Ausgestaltung einen Zugriff Unbefugter zuverlässig ausschließt.
Aus Sicht der Praxisorganisation empfiehlt es sich, für den KI‑Einsatz klare Leitplanken in einer internen Richtlinie festzulegen: Welche Systeme dürfen für echte Patientendaten genutzt werden, welche nur mit Test‑ oder Pseudodaten? Welche Anbieter gelten als in die Schweigepflicht einbezogen, und auf welcher Grundlage? Wie sind Mitarbeitende zu schulen, damit sie Patientendaten nicht in „freie“ KI‑Chatbots außerhalb der zugelassenen Systeme eingeben? Solche Regelungen sind nicht nur Compliance‑Instrument, sondern auch Ausdruck des berufsrechtlichen Gebots, das Vertrauensverhältnis zum Patienten zu schützen.
Schließlich gehört zur praktischen Umsetzung der Schweigepflicht im KI‑Kontext ein hohes technisches Schutzniveau: Zugriffsbeschränkungen, Verschlüsselung, Protokollierung und strenge Rollen‑ und Rechtekonzepte. Nur wenn KI‑Systeme so eingebunden sind, dass Geheimnisse faktisch nicht unbefugt offengelegt werden können und gleichzeitig die ärztliche Letztverantwortung gewahrt bleibt, fügt sich der KI‑Einsatz mit der ärztlichen Schweigepflicht zu einem konsistenten Ganzen.
Von abstrakten Leitlinien zu konkreter KI‑Praxis
Zusätzlich zu gerichtlichen Entscheidungen haben Aufsichtsbehörden eine Reihe von Leitlinien und Stellungnahmen veröffentlicht, die unmittelbar auf KI‑Projekte mit Gesundheitsdaten wirken. Sie reichen von europäischen Stellungnahmen des Datenschutz‑Ausschusses bis hin zu nationalen Orientierungshilfen.
Besonders relevant sind etwa:
- Hinweise zu generativen KI‑Systemen (einschließlich Retrieval‑Augmented‑Generation), die Transparenz, Zweckbindung, Datenminimierung und die Trennung von Trainings‑ und Nutzungsdaten betonen.
- Empfehlungen zum Zusammenspiel von DSGVO, KI‑Verordnung und Data Act, etwa im Hinblick auf Datenzugangsrechte, Risikoanalysen und technische Maßnahmen.
- Kriterien für KI‑Risikomanagement, Protokollierung und kontinuierliches Monitoring, die sich ausdrücklich an Betreiber von Hochrisiko‑Systemen richten.
Für Gesundheitsakteure bedeutet das: Man kann sich nicht mehr allein auf die abstrakten Normen der DSGVO zurückziehen, sondern muss sich an einem wachsenden Korpus konkreter Maßstäbe orientieren, den die Behörden für KI‑Systeme definieren.
DSGVO, KI‑VO und Data Act wachsen zusammen
Ein weiteres Motiv des Jahres 2025 ist das sichtbare Zusammenwachsen der verschiedenen Regime: DSGVO, KI‑Verordnung und Data Act werden zunehmend gemeinsam gedacht. Für das Gesundheitswesen ist das besonders deutlich, weil hier:
- Hochrisiko‑KI‑Systeme (z.B. in Diagnostik, Triage, Therapieempfehlungen) unter die strengen Pflichten der KI‑Verordnung fallen.
- Der Data Act neue Datenzugangsrechte und Pflichten im Umgang mit Gerätedaten, Plattformen und vernetzten Systemen schafft.
- Die DSGVO weiterhin den Rahmen für Rechtsgrundlagen, Betroffenenrechte und Sicherheitsanforderungen bildet.
Compliance‑Strukturen, die KI‑Projekte isoliert als „reines Datenschutzthema“ behandeln, sind damit überholt. Notwendig sind integrierte Ansätze, die DSFA, KI‑Risikobewertung, Datenarchitektur, Löschkonzept und Vertragsgestaltung (inklusive Data‑Act‑Aspekten) zusammenführen.
Was heißt das konkret für Kliniken, Praxen und Hersteller?
Aus den Entwicklungen lassen sich mehrere konkrete Handlungslinien ableiten:
- Ohne belastbare DSFA keine produktive KI: Für Systeme, die Gesundheitsdaten verarbeiten oder Entscheidungen vorbereiten, ist eine sauber dokumentierte Folgenabschätzung praktisch unverzichtbar.
- Trainings‑ und Betriebsdaten konsequent trennen: unterschiedliche Zwecke, unterschiedliche Speicherfristen, unterschiedliche Rechtsgrundlagen.
- Speicherfristen kritisch prüfen und kurz halten: Trainingsdaten frühzeitig anonymisieren, „Lebenszyklus‑Argumente“ nur in engen Grenzen nutzen.
- Transparenz ernst nehmen: klare, verständliche Hinweise zum KI‑Einsatz, zu Verarbeitungszwecken (einschließlich Training) und zu Betroffenenrechten.
- Governance etablieren: KI‑Freigabeprozesse, Update‑Management, Incident‑Handling und laufendes Monitoring institutionalisieren, statt nur projektbezogen zu regeln.
Fazit: Auftakt, nicht Endpunkt
Die aktuellen Entwicklungen markieren nicht das Ende, sondern den Beginn einer Phase, in der Gerichte und Aufsichtsbehörden KI‑Projekte mit Gesundheitsdaten aktiv einhegen. Gerichtliche Entscheidungen zeigen, dass KI‑Training rechtlich tragfähig gestaltet werden kann, verlangen aber eine saubere Begründung. Die Bußgeldpraxis macht unmissverständlich klar, dass Speicherbegrenzung und Transparenz auch im KI‑Kontext strikt gelten.
Wer diese Signale aufgreift und seine Projekte – von der Rechtsgrundlage über das Löschkonzept bis zur Governance – konsequent daran ausrichtet, kann KI im Gesundheitswesen nutzen, ohne permanent im Fokus der Aufsichtsbehörden zu stehen. Für Kliniken, Praxen und Hersteller ist jetzt der richtige Zeitpunkt, die eigenen KI‑Roadmaps an diesen Rahmen anzupassen – bevor die nächste Welle an Verfahren und Leitlinien kommt.
Autor: Ulf Castelle, vgl. Impressum