Übung 4
Datenschutz
Anonymisieren Sie die folgenden Patientendaten für die sichere Verwendung mit LLMs: Max Mustermann, geb. 15.05.1952, wurde am 10.05.2025 mit Dyspnoe und Fieber (38,9°C) in die Notaufnahme des Universitätsklinikums Köln eingeliefert. Die CT zeigte eine beidseitige Pneumonie. Der Patient hat eine COPD (GOLD III) und Typ-2-Diabetes in der Vorgeschichte. Ferner ist bei ihm eine primäre Coenzym Q10 Defizienz bekannt (COQ2 S96N). Er wohnt in der Hauptstraße 123 in 12345 Musterstadt (Versicherungsnummer: A123456789).
Ein Arzt möchte einen komplexen Fall mit unklarer Diagnose mit Hilfe eines LLMs analysieren. Er überlegt, die vollständige Krankengeschi-chte inklusive Laborwerte und Bildgebung in ChatGPT einzugeben, um Differentialdiagnosen zu generieren. Was ist zu Beachten ?
Eine Hygienefachkraft kopiert den kompletten wöchentlichen Umgebungskeimbefund (inkl. Patient:innen‑Initialen, Zimmernummern) in ein Cloud‑LLM, um einen Abschlussbericht erstellen zu lassen.
1️⃣ Keine Rohdaten kopieren; erst Anonymisierung (Raum/Zeit‑Generalisierung, Hash).
2️⃣ Vertragliche Auftragsverarbeitung + EU‑Standardklauseln nötig.
3️⃣ Rechenschafts‑Log im Q‑System hinterlegen.
Ein internes LLM wird mit zehn Jahren pseudonymisierten Keimkluster‑Daten fine‑getuned, um Ausbrüche schneller zu detektieren. In den Datensätzen finden sich extrem seltene Multi‑Resistenzen, die auf Fälle rückschließbar sind.
1️⃣ Re‑Identifikationsrisiko: k‑Anonymität ≥ 5 oder DP‑rausch (< 1 % Δ Precision).
2️⃣ DSFA‑Bericht öffentlich im Intranet.
3️⃣ „KI‑Vorfall“‑Meldeprozess an Behörde anlegen (EU AI Act).
Pflegekräfte diktieren Wund‑Beobachtungen in eine kostenlose App eines US‑Anbieters; die App nutzt LLM‑API, speichert Audio & Text für „Verbesserung der Services“.
1️⃣ Lokale Speech‑to‑Text‑Engine mit on-premise‑LLM bevorzugen.
2️⃣ Dienstleistervertrag + TOMs + Speicherdauer ≤ 24 h.
3️⃣ Schulung & Checklist „rote Linien“ für BYOD‑Apps.
Ein Bauhygiene‑LLM erstellt tägliche Ranglisten, welche Wartungsteams Vorgaben am besten einhalten; die Liste fließt in Leistungsprämien.
1️⃣ Statt Ranking: Ampeldashboard ohne Personen‑bezug (ansonsten Verbot durch unannehmbares Risiko).
2️⃣ Algorithmic Impact Assessment + Mitbestimmungsgremium.
3️⃣ Opt‑Out & Review‑Workflow für Betroffene.
Haftung und Risikomanagement
Das LLM plant Desinfektionszyklen. Ein Bug in der Zeitzonen verschiebt die OP‑Reinigung um 12 h. Zwei post‑op SSI‑Fälle.
Fehlerart: falscher Output (Plan zu spät).
Eintrittswahrscheinlichkeit: mittel (Softwarefehler).
Schadenspotential: hoch (Morbidität, ggf. Revision).
Haftungskette: Klinik (Organisationsverschulden) ⇆ Softwareanbieter (ProdHaftG) ⇆ Pflegeleitung (fahrlässige Übernahme).
Erkennung: hätte menschl. Plausi‑Check ≤ 2 min erfordert.
Risikostratifizierung wurde ignoriert; Scheduler hätte orange‑Level = ‘4‑Augen‑Prinzip’.“
Vendor: „Unsere AGB schließen Reinigungs‑Echtbetrieb ausdrücklich aus – Proof‑of‑Concept!“
1️⃣ LLM‑Outputs ≤ Stufe orange nie direkt produktiv.
2️⃣Safety Gate = sign‑off Feld in GUI („geprüft ✓“).
3️⃣ Audit‑Log zeigt wer wann Plan übernahm.
LLM beurteilt Stuhlbefunde (Text + Bilder). Es halluziniert ein Negativ‑Ergebnis → kein Isolationszimmer → Ausbruch (8 Fälle).
Fehlerart: falscher Output (falsch-negativ)
Wahrscheinlichkeit: niedrig (Erkennung bei Zeitdruck schwer)
Schadenspotenzial: hoch (Verlängerter Aufenthalt)
Schadensersatz: attraktiv (Gruppenschaden, Medien).
Haftung: Hygieniker (Garantenstellung) + Klinik + Hersteller; Strafbarkeit § 222 StGB (fahrl. Tötung) denkbar.
Erkennung: Vorhersehbare Halluzination → Pflicht zur Confidence‑Threshold! < 0,85 = rote Flagge.“
1️⃣ Implement niedrigste Schwelle für Isolation („WHEN IN DOUBT → Isolate“).
2️⃣ UI zeigt Ampel + Konfidenz.
3️⃣ DSFA identifiziert False‑negatives als „very high“ → Notfallplan.
Pflege ordert FFP3‑Masken via LLM. Es „halluziniert“ eine Phantom‑DIN‑Norm; Masken ohne Zertifikat werden geliefert. Zwei Dienstunfälle (COVID‑Infektion).
Fehlerart: falscher Output
Entdeckbarkeit: hoch (DIN 149 in Prüfliste)
Haftung: Berufsgenossenschaft vs. Klinik vs. Bot‑Anbieter.
Reputationsrisiko: öffentlich wirksam („Klinik spart an Masken!“).
Haftung: Klinik haftet für fehlerhafte Beschaffung.
1️⃣ LLM darf nur vor‑validierte Katalogartikel vorschlagen.
2️⃣ Lieferlog + Prüfvorgang in Audit‑Log.
3️⃣ Schulung „Prompt Hygiene“ – klare Specs.
Juristische Abt. nutzt LLM, um Datenschutz‑Einwilligungen zu generieren. Das Modell vergisst den Absatz „Widerruf jederzeit möglich“. Behörde verhängt 400 k€ Bußgeld (Art. 7 DSGVO).
Fehlerart: falscher Output
Erkennbarkeit: hoch(Checkliste)
Schadensersatz: Bußgeld, kein Personen‑schaden.
Haftung: Klinik (Verantwortlicher), evtl. Rechtsabteilung / Kanzlei.
Varianz: jede neue Generation variiert Formulierung → Nachweis schwer.
1️⃣ Nach Freigabe statische PDF‑Templates, kein dynamisches Prompting.
2️⃣ Version‑Lock + Prüfsumme (Hash).
3️⃣ Audit‑Log dokumentiert Freigabe‑Workflow.
Ethik
Entwickeln Sie ein ethisches Framework für den Einsatz von LLMs in Ihrer Einrichtung
Definieren Sie Kernprinzipien, konkrete Maßnahmen zur Umsetzung und Evaluationsmechanismen
Kernprinzipien
Patientenwohl & Schadensvermeidung: jede LLM-Intervention muss nachweislich Nutzen stiften und darf keine vermeidbaren Risiken erzeugen.
Fairness & Nicht-Diskriminierung: systematische Prüfung auf Verzerrungen in Daten, Modell und Output.
Autonomie & informierte Einwilligung: Patient:innen müssen wissen, dass KI genutzt wird, welche Rolle sie hat und welche Alternativen es gibt.
Transparenz & Erklärbarkeit: sämtliche Entscheidungspfade (Prompts, System-Prompts, Versionen) sind dokumentations- und auskunftspflichtig.
Datenschutz & Datensicherheit: konsequente Anwendung von Privacy-by-Design, Pseudonymisierung und Zugriffskontrolle.
Human in the loop: klinische Endverantwortung bleibt immer beim Fachpersonal.
Accountability: klare Zuweisung von Haftung und Eskalationswegen bei Fehlfunktionen.
Gerechte Teilhabe: Technologie-, Sprach- und Kostenschranken dürfen keine Versorgungslücken erzeugen.
Konkrete Umsetzungsmaßnahmen
A.) Governance-Struktur:
1. Einrichtungsweite „AI Steering Group“ (Chefärzt:innen, IT-Sicherheit, Ethik, Patientenvertretung).
2. Pflicht für jedes Projekt: Impact-Assessment nach EU-AI-Act-Schema (Risiko, Bias, Datenquellen).
3. Register für alle produktiven LLM-Prompts incl. Change-Log und Model-Version.
B.) Technische & organisatorische Schutzmaßnahmen
1. Bias-Testing-Pipeline: synthetische Testfälle (Alter, Geschlecht, Ethnie, sozioökonomischer Status) und automatische Fairness-Metriken (z. B. Equalized Odds).
2. Re-Training-Gate: kein Update ohne erneuten klinischen & regulatorischen Review (BfArM-Leitfaden).
3. Usage-Guardrails: Token-Limits, Pflichtfelder für klinischen Kontext, automatische Red-Flag-Erkennung (Unsicherheits-Scores, Halluzinations-Filter).
C.) Schulung & Kultur
1. Pflichtmodule „Prompt Engineering & Bias Awareness“ für alle Ärzt:innen und Pflegekräfte.
2. Simulations-Cases, bei denen Teams KI- und Non-KI-Pfad vergleichen und diskutieren.
3. „Escalation OK“-Kultur: jeder Hinweis auf Fehlverhalten wird belohnt, nicht sanktioniert.
Evaluationsmechanismen
Kontinuierliche Qualitäts-Dashboards:
klinische Outcome-Indikatoren (z. B. Diagnoserate, Komplikationsquote),
Fairness-Indikatoren (Differenz in Fehlerraten zwischen Subgruppen),
Patient-Reported-Experience-Measures (Fragebogen zur wahrgenommenen Empathie & Erklärbarkeit).
Quarterly Audit durch eine externe Stelle (Medizinische Fakultät/HTA-Institut).
Incident-Reporting-System analog zu CIRS, erweitert um „AI-Near-Miss“.
Re-Zertifizierung aller produktiven LLMs spätestens alle 24 Monate (EU-AI-Act).
Einzelfragen
Wie kann verhindert werden, dass Vorurteile in LLMs die medizinische Versorgung beeinflussen?
Maßnahme: Diversifizierte Trainingsdaten, Bias-Tests vor jeder Freigabe, Monitoring von Fehlerraten nach Demografie Ziel: ≤ 5 % Differenz in kritischen Fehlerraten zwischen Subgruppen
Wie kann verhindert werden, dass der Einsatz von LLMs zu einer Reduzierung menschlicher Interaktion in der Versorgung führt?
Maßnahme: „Augment-don’t-replace“-Policy: LLMs übernehmen Dokumentation, nicht Aufklärungsgespräche; Mindestzeiten für direkte Kommunikation
Ziel: Patient-Zufriedenheit ≥ Baseline
Wie kann der Verlust von Fachkompetenzen durch Abhängigkeit von KI verhindert werden?
Maßnahme: Rotations-Curriculum: Phasen ohne KI-Assistenz; Skills-Assessment im Sim-Lab vor Rezertifizierung
Ziel: 80 % bestehen jährlichen „No-AI“-Test
Wie kann die unkritische Übernahme von KI-Empfehlungen verhindert werden?
Maßnahme: Pflicht-Double-Check bei Hochrisiko-Entscheidungen; LLM zeigt Vertrauensscore & Quellen; Entscheidungsbaum fordert aktive Bestätigung
Ziel: < 1 ‰ ungeprüfte KI-Entscheidungen
Wie kann ein gleichberechtigter Zugang zu KI-Technologien sichergestellt werden?
Maßnahme: Thin-Client-Zugänge auf allen Stationen, mehrsprachige Interfaces, mobile Web-Apps, Finanzierung über Solidarmodell
Ziel: Nutzungsrate zwischen Klinikstandorten ± 10 %
