Die KI-Ethos-Falle
Künstliche Intelligenz definiert die Medizin neu. Doch in Deutschland zwingen regulatorische Hürden und die Abhängigkeit von US-Technologie Ärztinnen und Ärzte in ein unhaltbares Dilemma zwischen Heilauftrag und Compliance. Wir müssen unsere digitale Unmündigkeit überwinden, um unserem Auftrag gerecht zu werden. Es ist eine Frage der Patientensicherheit und der Zukunftsfähigkeit unseres Gesundheitssystems.
Die Ethos-Falle im Alltag
Stellen Sie sich folgende Szene in einer deutschen Notaufnahme vor: Frau K., Mitte 40, taubstumm, sitzt vor Ihnen. Ihre Akte ist ein Zeugnis monatelanger Odysseen durch unser Gesundheitssystem: mehrfache stationäre Aufnahmen, MRTs, Endoskopien, alles ohne pathologischen Befund. Ihre diffusen Beschwerden wurden wiederholt als psychosomatisch eingeordnet, doch niemand hatte je die Mittel, ihr diesen komplexen Sachverhalt verständlich zu machen.In diesem Moment, unter dem Druck einer überfüllten Notaufnahme, wo Ärzte bis zu 65% ihrer Zeit mit Dokumentation verbringen, greifen Sie zu einem nicht freigegebenen Werkzeug auf Ihrem privaten Smartphone: einem der führenden großen Sprachmodelle (LLMs) wie ChatGPT, Gemini oder Claude. Sie bitten um eine patientenverständliche schriftliche Formulierung. Während Frau K. liest, löst sich ihre Anspannung. Sie verlässt die Notaufnahme dankbar und in einem besseren Zustand, als sie gekommen ist.In diesem Moment haben Sie Ihren ärztlichen Heilauftrag erfüllt. Das ärztliche Selbstverständnis sowie die Berufsordnung verpflichten uns dazu, durch kontinuierliche Fortbildung nach bestem Wissen und Gewissen zu handeln und den medizinischen Fortschritt am aktuellen Stand der Wissenschaft und Technik zu nutzen. Gleichzeitig haben Sie sich in einen rechtlichen Graubereich begeben, potenziell gegen die DSGVO verstoßen und ein nicht zertifiziertes Medizinprodukt genutzt. Das ist die „Ethos-Falle“: ein systemisch geschaffener Konflikt, der uns zwingt, täglich zwischen unserem ethischen Kompass und der Compliance zu wählen.Dieser Fall ist keine Ausnahme. Es ist das gleiche Dilemma, wenn die rezidivierenden Bauchschmerzen und Beinparesen einer jungen Frau mehrfach als psychosomatisch abgetan werden, obwohl jedes Flagschiff-LLM eine Porphyrie als naheliegendste Differenzialdiagnose wertet. Oder wenn atypische Rückenschmerzen erst im Verlauf als lebensbedrohlicher STEMI erkannt werden. Es geht hier nicht um administrative Erleichterung, sondern um diagnostische Qualität. Die Flucht in die „Schatten-KI“ ist daher kein Akt der Rebellion, sondern ein Akt der Notwehr und ein Symptom systemischen Versagens. Wenn gesetzlich Korrektes und tatsächlich Patientenorientiertes kollidieren, entsteht eine „Moral Injury“. Es widerstrebt zutiefst dem ärztlichen Anspruch, wissentlich das Zweitbeste anzustreben. Diese Diskrepanz erzeugt ein systemisch erzeugtes Schuldgefühl und fast ein Gefühl der Scham gegenüber Patienten, die sich privat mit modernster KI informieren, während die eigene Institution stagniert.Diese Dynamik, die ärztliche Ethik gegen die systemischen Rahmenbedingungen auszuspielen, ist uns schmerzlich bekannt. Sie erinnert an die Diskussion um Arbeitspausen auf Intensivstationen oder in Notaufnahmen: Die Führungsebene delegiert die Einhaltung von Regeln, die in der Praxis nicht haltbar sind und verlagert die Verantwortung auf den Einzelnen, wohlwissend, dass die operationelle Realität dies oft unmöglich macht. Am Ende werden wir mit unserem Ethos, unserem Gewissen und unserer Empathie alleingelassen: Wir verzichten darauf, gesetzeskonform zu sein, zum Wohle unserer Patienten und Kollegen. Die Institution ist offiziell aus der Verantwortung entlassen, doch die moralische Last und die Ungerechtigkeit bleiben bei uns.
Der Status Quo: Technologische Stagnation im Land der Ingenieure
Es ist ein deutsches Paradoxon: Als Nation der Ingenieure rühmen wir uns technologischer Exzellenz, doch im Gesundheitswesen herrscht eine prekäre informationstechnologische Realität. Das sichtbarste Beispiel dieser systemischen Trägheit ist die elektronische Patientenakte (ePA). Über zwanzig Jahre nach ihrer Idee gleicht sie weniger einer intelligenten Datenplattform als vielmehr einem digitalen Ordner: ein Sammelsurium unsortierter, kryptisch benannter Dateien mit unklarem Inhalt. Ein digitaler Friedhof für PDF-Dokumente. Das PDF-Format wurde entwickelt zum Drucken, nicht zum Denken. Für Menschen lesbar, für Maschinen jedoch meist Pixelbilder ohne Metadaten, ohne Struktur. Ein Relikt der Vor-KI-Ära, schwer auslesbar, fehleranfällig und ineffizient. Von echter Interoperabilität oder nutzbarer Struktur keine Spur. In vielen Kliniken gilt man zudem schon als modern, wenn das WLAN zuverlässig auf dem gesamten Gelände funktioniert. Währenddessen hat die KI-Revolution die Medizin weltweit bereits fundamental verändert. Es geht hier nicht um unerprobte Zukunftsvisionen: Internationale, Peer-Review-Studien belegen vielfach, dass Flaggschiff-Modelle Prüfungen auf Facharztniveau besser bestehen als menschliche Kandidaten und in Spezialbereichen (z.B. Pathologie) Expertenkonsortien ebenbürtig sind. Wir sind international abgehängt, verfügen weder über eigene potente Modelle noch über KI-augmentierte Krankenhäuser. Der Kontrast zu den USA könnte kaum größer sein: Dort wird nicht mehr nur über die Zulassung diskutiert, sondern bereits über die Vergütung. Mit der Genehmigung neuer Category I CPT-Codes für etablierte KI-gestützte Dienstleistungen (z.B. in der kardiologischen Diagnostik) wird dort der Weg für eine breite Kostenerstattung durch Medicare und private Versicherer ab 2026 geebnet. Dies signalisiert die systemische Integration von KI in den Versorgungsalltag. Während wir noch über das „Ob“ diskutieren, klärt man dort das „Wie“.Wir sitzen im Publikum, anstatt die Zukunft mitzugestalten. Es ist schwer erträglich, auf zweit- oder drittbeste Technologien vertrauen zu müssen, geschweige denn die aktuellen Krankenhausinformationssysteme auszuhalten, die durch ihre sperrige Anwendung und ineffiziente Visualisierung oft eine Zumutung darstellen und wertvolle ärztliche Ressourcen binden.
Die neue Arzt-Patienten-Dynamik
Diese technologische Stagnation hat direkte Auswirkungen auf die Arzt-Patienten-Beziehung. Erstmals haben Patienten gegenüber Ärzten einen Informationsvorteil. Sie nutzen Flaggschiff-Modelle, die wir institutionell nicht nutzen dürfen. In den USA wird bereits ein Autoritätsverlust diskutiert, da Patienten der KI zunehmend mehr vertrauen als dem Arzt. Wenn wir diese Tools nicht nutzen, tun es die Patienten.Wir müssen uns der Diskussion stellen, was fortan unser Beitrag sein soll. Und wir müssen fragen: Warum bevormunden wir Patienten durch maximale Restriktion (DSGVO), anstatt sie einfach zu fragen ? Zumal wir in Zeiten leben, in denen Studien belegen, dass Patienten aktuell sogar Ärzten mehr und mehr misstrauen, die keine KI nutzen. Wir müssen eine ehrliche Güterabwägung führen: Wir sollten davon ausgehen, dass Patienten primär die bestmögliche Behandlung wünschen. Datenschutz ist ein hohes Gut, aber er darf nicht zum Selbstzweck verkommen, der diese Behandlung verhindert. Insbesondere in Notfallsituationen muss dringend diskutiert werden, ob das vitale Interesse des Patienten oder sein mutmaßlicher Wille nicht rechtliche Spielräume eröffnen (oder sogar erfordern), um bei gegebener Indikation Abstriche im Datenschutz zugunsten modernster Diagnostik zu machen. Hier ist der Gesetzgeber gefordert, klare Rahmenbedingungen für eine risikoadaptierte Datenschutzabwägung im Gesundheitswesen zu schaffen.
Das regulatorische Labyrinth: MDR, DSGVO und AI Act
Die Gründe für diese Blockade liegen in einem komplexen Geflecht regulatorischer Anforderungen, das Innovation systematisch behindert. Um Lösungswege zu finden, müssen wir die Haupthindernisse klar benennen. Die Nutzung von US-Flaggschiffmodellen ist aufgrund des US CLOUD Acts mit der DSGVO und § 203 StGB unvereinbar, da ein Zugriff von US-Behörden auf Daten nicht ausgeschlossen werden kann, auch nicht bei EU-Serverstandorten. Verschärft wird diese europäische Komplexität durch eine spezifisch deutsche Hürde: den Föderalismus im Datenschutz. Deutschland leistet sich 16 verschiedene Landesdatenschutzbeauftragte sowie zusätzliche Aufsichtsbehörden der Kirchen, deren Interpretationen der DSGVO oft erheblich voneinander abweichen. Was in einem Bundesland als konform gilt, kann im Nachbarland bereits ein Verstoß sein. Diese Zersplitterung führt zu massiver Rechtsunsicherheit bei Klinikbetreibern und IT-Verantwortlichen. In diesem Klima der Unsicherheit tendieren Institutionen dazu, im Zweifel den restriktivsten Weg zu wählen – eine "Angst-Compliance", die Innovationen im Keim erstickt und eine bundesweite Skalierung von Lösungen nahezu unmöglich macht. Eine Harmonisierung der Datenschutzaufsicht ist überfällig.Ferner gilt KI zur klinischen Entscheidungsunterstützung als Medizinprodukt (MDR Klasse IIa/b). Die Einstufung ist klar definiert (Art. 2 Nr. 1 MDR): Software, die dazu bestimmt ist, einen spezifischen medizinischen Zweck zu erfüllen, etwa Diagnose, Überwachung, Vorhersage oder Prognose von Krankheiten, ist ein Medizinprodukt. Ethikkommissionen bestätigen dies regelmäßig und stufen Systeme, die „klinische Entscheidungen untermauern“ sollen (Sicherheit und Leistung), als Medizinprodukte ein. Entscheidend ist: Der beliebte Verweis auf den „Human in the Loop“, also den Arzt als letzte Kontrollinstanz, ändert nichts an dieser Klassifizierung, wenn die KI die Entscheidungsgrundlage maßgeblich beeinflusst.Wird die KI als Medizinprodukt der Klasse IIa oder höher eingestuft, was bei Entscheidungsunterstützung die Regel ist, muss sie ein aufwendiges Konformitätsbewertungsverfahren durchlaufen, das von einer "Benannten Stelle" (z.B. TÜV) durchgeführt wird. Doch diese Stellen sind chronisch überlastet. Branchenberichten zufolge liegen dort über 10.000 Anträge auf Halde. Selbst wenn heute eine fertige Lösung eingereicht würde, ist mit Wartezeiten von 18 Monaten oder länger zu rechnen. Die Kosten für eine solche Zertifizierung sind immens. Zu den Initialkosten kommen erhebliche Folgekosten für die Post-Market Surveillance. Insbesondere bei komplexen KI-Systemen, die mehrere Module oder Modelle kombinieren, müssen oft alle Teilbestandteile separat überwacht und gesampelt werden (Post-Market Surveillance). Dies kann leicht Kosten im mittleren fünfstelligen Bereich pro genutztem Modul und Jahr verursachen. Es ist eine Illusion zu glauben, dass diese Kosten nicht umgelegt werden. Die Industrie wird diese regulatorisch bedingte Ineffizienz an die Endverbraucher, und damit an das Gesundheitssystem als Ganzes, weitergeben. Diese Kostenexplosion behindert wahre Innovation und zementiert die Marktposition etablierter Großkonzerne.Zudem machen regulatorisch geforderte Maßnahmen zur Überwachung moderner KI-Modelle bezüglich Model Drift, Bias und Trainingsdaten die Nutzung und Integration von Flaggschiffmodellen in eigene Lösungen faktisch unmöglich. Ohne individuelle Kooperation der Hersteller kann ein Version Lock oder eine Offenlegung der Trainingsdaten, die Geschäftsgeheimnis sind, nicht erreicht werden. Auch bei öffentlich zugänglichen Open-Weight-Modellen werden Quellcode und Trainingsdaten nicht veröffentlicht.Vor oder parallel zur Zertifizierung müssen klinische Studien die Sicherheit und Leistung des Produkts belegen. Das Problem: In klinischen Prüfungen dürfen nur bereits fertig entwickelte oder zertifizierte Produkte getestet werden. Eine Entwicklung am Patienten ist nicht zulässig, es darf nur die Leistung bereits existierender Produkte geprüft werden. Dies setzt voraus, dass bereits eine vollständige technische Dokumentation, ein Risikomanagement und ein Handbuch existieren. Anforderungen, die den agilen Charakter der Softwareentwicklung konterkarieren und eine iterative Verbesserung von KI-Systemen im klinischen Kontext massiv erschweren.Ein vermeintlicher Ausweg ist die Eigenherstellung (In-House Exemption) nach Art. 5 Abs. 5 MDR. Doch dieser Weg ist tückisch. Erstens schließt sich das Fenster für die notwendige Rechtfertigung, dass kein vergleichbares CE-Produkt verfügbar ist. Zweitens erfordert die Eigenherstellung die Einhaltung industrieller Normen (QMS ISO 13485, Risikomanagement ISO 14971, Software-Normen IEC 62304). Drittens, und das ist entscheidend: Der EU AI Act kennt für Hochrisiko-KI-Systeme keine vergleichbar breite Ausnahme. Entwickelt eine Klinik eine solche KI selbst, übernimmt sie die volle regulatorische Bürde eines kommerziellen Herstellers. Dies umfasst anspruchsvolle Verpflichtungen zu Datengovernance, Bias-Prävention, Transparenz und Cybersecurity. Eine Klinik wird damit de facto zu einem regulierten Technologieunternehmen, eine Rolle, für die sie weder strukturell noch personell ausgestattet ist. Selbst der Einsatz CE-gekennzeichneter Produkte entbindet die Klinik als Betreiber nicht von der Verantwortung. Es bestehen weitreichende Pflichten, u.a. Sicherstellung der korrekten Anwendung, Schulung des Personals, Integration in das klinische Risikomanagement, kontinuierliche Überwachung und die Gewährleistung der menschlichen Aufsicht.Während die Hürden für eine korrekte Zulassung hoch sind, drängen zahlreiche scheinbar konforme Lösungen auf den Markt. Prominente Beispiele sind "AI Scribes". Technologisch handelt es sich dabei oft nur um "Wrapper": Die eigentliche Arbeit macht das extern angeschlossene LLM (GPT/Gemini/Claude), die Industrie kümmert sich primär um das User Interface. Viele Anbieter umgehen die strenge Regulierung, indem sie behaupten, ihr Produkt sei kein Medizinprodukt, oder es lediglich als Klasse I zertifizieren, obwohl sie medizinische Daten interpretieren und aufbereiten und daher der Klasse IIa zuzuordnen wären. Die Industrie lässt es darauf ankommen und wälzt die Verantwortung auf die Endanwender ab. Ärzt*innen und Kliniken stehen am Ende in der vollen Haftung und müssen die gesamte Regulatorik begreifen und korrekt umsetzen, eine unzumutbare Situation.Viele denken, man könnte die Problematik umgehen, indem man Flaggschiff-Modelle mit anonymisierten Daten füttert. In Krankenhäusern stößt man jedoch auf großen Widerstand bei der Datenschutzfreigabe. Die Begründung dafür offenbart die Absurdität der aktuellen Auslegung: Jede Eingabe wird potenziell als Übermittlung persönlicher Daten gewertet. Es wird argumentiert, man wisse nicht, welche zusätzlichen Daten die Konzerne im Hintergrund erheben (z.B. Metadaten, Nutzungsmuster) und ob dadurch eine Re-Identifikation vielleicht doch möglich wird. Darauf aufbauend wird eine Kausalkette konstruiert, an deren Ende die US-Regierung über den CLOUD Act potenziell genau diese spezifischen Daten von EU-Servern einfordern könnte. Soll uns dieses theoretische und konstruierte Szenario ernsthaft von der Nutzung der leistungsfähigsten Werkzeuge abhalten? Es ist paradox: Man traut uns zu, bewusstlose Menschen zu reanimieren und metastasierte Karzinome zu behandeln, eine Entfernung von persönlichen Identifikatoren vor Versand der Daten in ein potentes LLM jedoch nicht.
Die Grenzen der ärztlichen Eigeninitiative
Die aktuelle Entwicklungseuphorie ist groß. Noch nie war es so einfach, Programme zu entwickeln ("Vibe Coding" mit Tools wie Lovable, Cursor, n8n). Doch diese Entwicklung folgt dem Pareto-Prinzip: Für die restlichen 20%, den finalen Schliff, die Skalierung und die Sicherheit, braucht es tiefe technische Expertise, welche nicht unsere Kernkompetenz ist. Sam Altman, CEO von OpenAI, warnte Start-ups wiederholt davor, Chatbots zu entwickeln, die direkt mit ChatGPT konkurrieren, da das OpenAI-Modell diese Aufgaben voraussichtlich besser beherrscht. Wir können nicht erwarten, dass Kliniker neben der Patientenversorgung die Rolle von KI-Ingenieuren und Regulatory Affairs Managern übernehmen. Die Verantwortung für die Schaffung der notwendigen Infrastruktur liegt bei den Klinikträgern und der Politik.Dabei könnte es oft so einfach sein. Beispiel Notaufnahme: Eine Hochdruckumgebung, geprägt von Informationsmangel und -überfluss zugleich. Eine pragmatische Lösung wäre ein LLM-Workflow: Mit Patienteneinverständnis wird das Erstgespräch lokal aufgezeichnet, transkribiert, auf Anonymisierung geprüft und dann von einem LLM verarbeitet (z.B. Triagierung, Empfehlungen bzgl Diagostik und Therapie, Red Flags, Differentialdiagnosen, Arztbriefentwurf, patientenfreundliche Erklärung). Meine eigenen Erfahrungen bestätigen, was externe Benchmarks schon lange zeigen: Die Qualität der Flaggschiff-LLMs ist inzwischen so hoch, dass das Risiko weniger in falschen Angaben liegt, sondern vielmehr darin, dass das LLM das Richtige vorschlägt und es nicht umgesetzt wird. Das größere Risiko liegt heute nicht mehr im Einsatz von KI, sondern im Verzicht darauf.Diese Unsicherheit lähmt selbst einfachste Forschungsvorhaben. Ein Antrag zur retrospektiven Analyse anonymisierter Daten, um die prognostische Performanz von LLMs zu evaluieren, liegt seit mehr als zehn Wochen auf Eis. Trotz datenschutzrechtlicher Freigabe (da anonyme Daten) wurde eine Vorstellung des Projektes bei der IT-Sicherheit, Rechtsabteilung und Ethik gefordert, die jedoch bei unklaren Zuständigkeiten und allgemeiner Ratlosigkeit hierüber auf unbestimmte Zeit aufgeschoben wird. So stirbt Motivation zur Innovation in Deutschland: nicht durch Verbot, sondern durch Vertagung.
Der Ausweg: Digitale Mündigkeit durch Souveränität
Viele unserer Kollegen befinden sich im Stadium der digitalen Unmündigkeit, abhängig von außereuropäischen Technologiekonzernen und gelähmt durch eine Regulierung, deren Komplexität sie nicht beherrschen. In Anlehnung an Kant ist digitale Aufklärung der Ausgang aus dieser, oft selbstverschuldeten, aber auch systemisch erzwungenen, Unmündigkeit. Wir dürfen uns dieser Situation nicht ergeben. Um diese Mündigkeit zu erreichen, müssen wir jedoch pragmatisch handeln. Der Feind eines guten Plans ist der Traum nach einem perfekten. Wir können nicht auf die ideale, allumfassende und zertifizierte Lösung warten. Wir müssen jetzt beginnen, Kompetenzen und Strukturen aufzubauen. Digitale Mündigkeit erreichen wir nur durch Souveränität. Dafür braucht es drei strategische Stoßrichtungen.Erstens müssen wir konsequent auf Infrastrukturen setzen, die vollständig europäischem Recht unterliegen und darauf leistungsfähige, offene oder europäische Modelle betreiben, sei es über Anbieter wie Telekom Sovereign Cloud, IONOS, Stackit, OVHcloud oder auf lokal betriebener Infrastruktur. Zweitens müssen wir die uns verfügbaren nieder-performanten Modelle klug nutzen. Wir müssen über den Einsatz einzelner Modelle hinausdenken und auf die Orchestrierung von KI-Agenten setzen. Wie technologische Entwicklungen (z.B. Microsofts MAI-DXo) eindrucksvoll demonstrieren, können durch die intelligente Verkettung spezialisierter KI-Modelle Ergebnisse erzielt werden, die weit über die Fähigkeiten der Einzelkomponenten hinausgehen. Auch wenn die Orchestrierung von Flaggschiffmodellen derzeit noch die Nase vorn hat, bietet dieser Ansatz eine realistische Perspektive, um mit Open-Weight-Modellen eine hohe Performanz bei gleichzeitiger Wahrung der digitalen Souveränität zu erreichen. Die entscheidende Kompetenz liegt dann in der Systemarchitektur, nicht nur im Training eines Basismodells. Das ist unsere Chance, die Abhängigkeit von US-Hyperscalern zu reduzieren.Drittens müssen Krankenhäuser Eigenentwicklungskompetenz und die damit verbundene Compliance aufbauen, um sich aus dem "Vendor Lock-in" zu befreien. Wer sich heute von proprietärer Software abhängig macht, ist morgen technologisch und ökonomisch erpressbar. Es hat einen Grund, warum Legacy Software so heißt, sie kommt aus einer Zeit, die sich geändert hat. Wer heute teure Lösungen kauft, läuft morgen dem Support hinterher. Zudem könnten effiziente KI-Lösungen helfen, Umsätze zu steigern. Anbieter von KI-gestützten Kodierungslösungen werben damit, dass sich ihre Kosten schnell amortisieren, ein Potenzial, das maroden Kliniken helfen könnte.Wie können etablierte Kliniken diese Transformation bewältigen? Der Versuch, das "Mutterschiff" direkt zu transformieren, scheitert oft an kulturellem Widerstand und starren Prozessen. Thought Leader empfehlen den Aufbau von "Edge Organizations": kleine, unabhängige, KI-native Einheiten, in der motivierte digital-affine Mitarbeiter direkt der Geschäftsführung unterstellt sind und agil neue Lösungen entwickeln können. Über die Zeit können diese Einheiten zum neuen Gravitationszentrum der Organisation werden. Entscheidend ist die Bündelung von Kompetenzen. Statt dass jede Klinik die Hürden alleine zu nehmen versucht, müssen wir in Verbünden sichere, leistungsfähige und gesetzeskonforme Plattformen schaffen und das notwendige Engineering und Regulatory-Know-how zentral aufbauen. Universitätskliniken und Maximalversorger müssen hier vorangehen und skalierbare Blaupausen entwickeln.Es geht hier nicht nur um Technologie, sondern um die Zukunftsfähigkeit der Patientenversorgung und -sicherheit in Deutschland im internationalen Vergleich. Es ist ein bekanntes Diktum: KI wird keine Ärzte abschaffen, aber Ärzte mit KI werden diejenigen ersetzen, die keine KI nutzen. Doch in Deutschland erhält dieser Satz eine bittere Ironie: Wir laufen Gefahr, genau jene Ärzte zu werden, die ersetzt werden – nicht aus mangelndem Willen, sondern durch systemisch erzwungenen Kompetenzverlust. Wenn wir in "analogen Kliniken" gefangen gehalten werden, die technologisch stagnieren oder ökonomisch scheitern, und wir an der Nutzung modernster Werkzeuge gehindert werden, gefährdet dies mittelfristig unsere eigene berufliche Zukunft und Wettbewerbsfähigkeit auf einem globalisierten Arbeitsmarkt.Wir müssen handeln. Die Alternative ist der Rückfall in eine zweitklassige Medizin. Wir dürfen nicht länger zulassen, dass ein überholtes regulatorisches Korsett und institutionelle Ängstlichkeit uns daran hindern, die beste verfügbare Technologie zum Wohl unserer Patienten einzusetzen. Es ist an der Zeit, dass wir uns aus der digitalen Unmündigkeit befreien, die Ethos-Falle schließen und die strategischen Rahmenbedingungen schaffen, die es uns ermöglichen, ohne ethische oder rechtliche Kompromisse unserem Heilauftrag im 21. Jahrhundert gerecht zu werden.
