Datenschutz KI Arzt nDSG: Was Schweizer Ärzte wissen müssen
22. März 2026 · 7 Min. Lesezeit
Künstliche Intelligenz hält Einzug in Schweizer Arztpraxen — von automatischen SOAP-Notizen über Ambient Recording bis hin zu KI-generierten Arztberichten. Doch mit jeder neuen Technologie stellt sich die zentrale Frage: Was passiert mit den Patientendaten? Seit dem 1. September 2023 gilt das neue Schweizer Datenschutzgesetz (nDSG), das die Anforderungen an den Umgang mit Gesundheitsdaten deutlich verschärft hat. Der Datenschutz KI Arzt nDSG ist damit kein optionales Thema mehr, sondern eine rechtliche Pflicht.
Das nDSG und Gesundheitsdaten: Die wichtigsten Regeln
Das neue Datenschutzgesetz (nDSG) stuft Gesundheitsdaten als «besonders schützenswerte Personendaten» ein. Das hat weitreichende Konsequenzen für den Einsatz von KI in der Arztpraxis:
- Verhältnismässigkeit: Es dürfen nur die Daten verarbeitet werden, die für den jeweiligen Zweck tatsächlich erforderlich sind. Eine KI, die SOAP-Notizen erstellt, braucht die Konsultationsdaten — aber nicht die gesamte Patientenakte.
- Transparenz: Patienten müssen darüber informiert werden, dass KI bei der Dokumentation eingesetzt wird. Eine einfache Information im Wartezimmer oder beim Aufnahmeprozess genügt.
- Datensicherheit: Angemessene technische und organisatorische Massnahmen zum Schutz der Daten sind Pflicht. Für Gesundheitsdaten bedeutet das in der Praxis: Verschlüsselung, Zugriffskontrolle und sichere Datenübertragung.
- Bekanntgabe ins Ausland: Die Übermittlung von Personendaten ins Ausland ist nur unter strengen Bedingungen erlaubt. Länder müssen ein «angemessenes Datenschutzniveau» bieten — die USA tun dies nach Einschätzung des EDÖB nicht.
Für den Datenschutz KI Arzt nDSG ergibt sich daraus: Jedes KI-Tool, das in einer Schweizer Praxis zum Einsatz kommt, muss diese Anforderungen lückenlos erfüllen.
Das US-Cloud-Risiko: Warum ChatGPT und Co. problematisch sind
Viele Ärzte experimentieren mit allgemein verfügbaren KI-Tools wie ChatGPT, Gemini oder Copilot. Das ist verständlich — diese Tools sind beeindruckend leistungsfähig. Doch für den Einsatz mit Patientendaten sind sie aus datenschutzrechtlicher Sicht höchst problematisch:
- Datenverarbeitung in den USA: OpenAI, Google und Microsoft verarbeiten Anfragen auf Servern in den USA. Patientendaten verlassen damit die Schweiz und unterliegen dem US-amerikanischen Recht, inklusive potenziellem Zugriff durch US-Behörden (CLOUD Act).
- Trainingsdaten-Risiko: Einige Anbieter verwenden eingegebene Daten, um ihre Modelle zu verbessern. Patienteninformationen könnten so ungewollt in das KI-Modell einfliessen.
- Keine Auftragsverarbeitung: Für den Einsatz mit Gesundheitsdaten wäre ein Auftragsverarbeitungsvertrag (AVV) nötig. Die meisten allgemeinen KI-Anbieter bieten einen solchen nicht an — oder nicht in einer Form, die dem nDSG genügt.
- Fehlende Anonymisierung: Wer Patientendaten in ein allgemeines KI-Tool eingibt, sendet diese in der Regel unverschlüsselt und nicht anonymisiert.
Die klare Empfehlung: Allgemeine KI-Tools sind für die medizinische Dokumentation mit echten Patientendaten nicht geeignet. Der Datenschutz bei KI für Ärzte erfordert spezialisierte Lösungen.
So funktioniert datenschutzkonformer KI-Einsatz
Ein KI-Tool für die Arztpraxis muss von Grund auf für den Umgang mit Gesundheitsdaten konzipiert sein. Am Beispiel von BlitzDoc lassen sich die wichtigsten Datenschutz-Massnahmen für KI beim Arzt unter dem nDSG verdeutlichen:
- Schweizer Serverstandort: Die gesamte Datenverarbeitung findet auf Servern in der Schweiz statt — sowohl die KI-Berechnung als auch die Datenspeicherung. Es gibt keinen Datentransfer in die USA, die EU oder andere Drittstaaten.
- Anonymisierung vor der Verarbeitung: Bevor Patientendaten an das KI-Modell gesendet werden, durchlaufen sie eine Anonymisierungsschicht. Personenidentifizierende Informationen wie Namen, AHV-Nummern, Geburtsdaten und Kontaktdaten werden automatisch entfernt oder durch Platzhalter ersetzt.
- AES-256-GCM-Verschlüsselung: Alle gespeicherten Daten — von der Konsultationshistorie bis zu Stilprofilen — werden mit AES-256-GCM verschlüsselt. Dies ist derselbe Verschlüsselungsstandard, den Banken und Militäreinrichtungen verwenden.
- Keine dauerhafte Audiodaten-Speicherung: Bei Ambient Recording wird das Audiofile nach der Transkription gelöscht. Es verbleibt ausschliesslich die Textnotiz — verschlüsselt und dem jeweiligen Arzt zugeordnet.
- Zugriffskontrolle: Jeder Arzt hat nur Zugriff auf seine eigenen Daten. PBKDF2-gehashte Passwörter, Token-basierte Authentifizierung mit 7-Tage-Ablauf und automatische Kontosperrung nach 5 Fehlversuchen schützen vor unautorisiertem Zugriff.
- Kein Training mit Patientendaten: Die KI-Modelle werden nicht mit den Daten der Nutzer trainiert. Eingaben fliessen nicht zurück in das Modell.
Checkliste: Ist mein KI-Tool nDSG-konform?
Wenn Sie als Arzt ein KI-Tool für die Dokumentation evaluieren, sollten Sie folgende Fragen stellen — insbesondere im Hinblick auf Datenschutz KI Arzt nDSG:
- Wo stehen die Server? Akzeptabel ist nur: in der Schweiz.
- Werden Daten in die USA oder EU übermittelt? Wenn ja: nicht geeignet für Patientendaten.
- Gibt es einen Auftragsverarbeitungsvertrag (AVV)? Ohne AVV keine Verarbeitung von Gesundheitsdaten durch Dritte.
- Werden Daten für KI-Training verwendet? Muss ausgeschlossen sein.
- Wie werden Daten verschlüsselt? AES-256 ist der Mindeststandard.
- Findet eine Anonymisierung statt? Personenidentifizierende Daten sollten vor der KI-Verarbeitung entfernt werden.
- Wie lange werden Daten gespeichert? Audiodaten sollten nach Verarbeitung gelöscht werden.
- Gibt es eine Zugriffskontrolle? Jeder Arzt sollte nur seine eigenen Daten sehen können.
Wer alle acht Punkte mit «Ja» beantworten kann, ist auf der sicheren Seite. BlitzDoc erfüllt alle diese Kriterien und wurde von Anfang an für den datenschutzkonformen KI-Einsatz in der Arztpraxis konzipiert.
Testen Sie BlitzDoc in der kostenlosen Beta-Phase und überzeugen Sie sich selbst: Leistungsfähige KI-Dokumentation und lückenloser Datenschutz schliessen sich nicht gegenseitig aus.