Schweizer Datenschutzgesetz und KI — Compliance-Guide
Schweizer Datenschutzgesetz (DSG) und KI — Was Unternehmen wissen müssen
Seit September 2023 gilt in der Schweiz das neue Datenschutzgesetz (nDSG, offiziell: Bundesgesetz über den Datenschutz — BDsg). Dieses Gesetz ist nicht nur eine Aktualisierung des alten Systems. Es ist eine fundamentale Neuausrichtung mit spezifischen Anforderungen an Künstliche Intelligenz und Machine Learning.
Für KMU, die AI Automation implementieren möchten, ist das zentrale Frage: Ist meine AI Automation mit dem neuen DSG konform? Diese Seite gibt Ihnen klare Antworten mit praxisnahen Handlungsanleitungen.
Context: Das neue Datenschutzgesetz (nDSG) von 2023
Das neue DSG ersetzt das alte BDsg von 1992 und bringt die Schweiz auf internationales Niveau — ähnlich dem europäischen DSGVO, aber mit Schweizer Besonderheiten.
Kern-Änderungen des neuen DSG:
- Risk-Based Approach: Das Gesetz fokussiert auf das Risiko der Datenverarbeitung, nicht nur auf technische Regeln. Höheres Risiko = strengere Anforderungen.
- Accountability Principle: Datenbearbeiter müssen nachweisen, dass sie konform sind. Es genügt nicht, zu hoffen, dass man sich an die Regeln hält. Man muss Dokumentation haben.
- Spezifische AI-Anforderungen: Zum ersten Mal in der Schweiz hat ein Datenschutzgesetz AI und Machine Learning explizit adressiert (Artikel 5c, 6e).
- Strengere Sanktionen: Bußgelder bis CHF 100.000 für Privatpersonen, bis CHF 250.000+ für Unternehmen bei Verstößen.
- Internationales Datenschutz-Äquivalenzgesetz: Datenexport ins Ausland ist nur zu Ländern mit "gleichwertigen" Datenschutz erlaubt.
Das alte BDsg war schwächer und älter. Es adressierte KI nicht. Das neue DSG bringt:
- Explizite Anforderungen an „Profiling" (Artikel 5c)
- Anforderungen an „automatisierte Entscheidungsfindung" (Artikel 6e)
- DPIA (Datenschutz-Impact-Assessment) für Hochrisiko-Verarbeitung
- Recht auf „Erklärbarkeit" von automatisierten Entscheidungen
DSG vs. DSGVO: Unterschiede, die für KI relevant sind
Viele Unternehmen sind mit der europäischen DSGVO vertraut. Das DSG ist ähnlich, aber nicht identisch. Die Unterschiede sind important für AI Automation.
| Aspekt | DSGVO (EU) | DSG (Schweiz) |
|---|---|---|
| Geltungsbereich | Alle Verarbeitung von EU-Bürgern-Daten | Alle Verarbeitung in der Schweiz |
| Explizite AI-Anforderungen | Nein (nur Profiling allgemein) | Ja (Artikel 5c, 6e zu KI) |
| Sanktion | Bis 4% Jahresumsatz oder €20 Million | Bis CHF 250.000 |
| Explizite DPIA-Anforderung | Ja, für High-Risk-Processing | Ja, ähnlich wie DSGVO |
| Right to Explanation | Ja, für Profiling | Ja, für automatisierte Entscheidungen |
| Data Protection Officer | Empfohlen bei automatisierter Entscheidung | Empfohlen (nicht obligatorisch) |
| Consent vs. Necessity | Meist Consent nötig, mit Exceptions | Mehr Fokus auf Necessity und Proportionalität |
| Data Breach Notification | 72 Stunden | „Unverzüglich" (schneller!) |
AI-Spezifische DSG-Anforderungen: Artikel 5c und 6e
Dies ist kritisch für AI Automation. Das DSG hat zwei Artikel, die direkt KI betreffen:
Artikel 5c: Profiling (automatisierte Entscheidungsfindung)
Das Gesetz definiert „Profiling" als:
„Die automatisierte Bearbeitung von Personendaten für Zwecke der Bewertung bestimmter persönlicher Aspekte einer natürlichen Person."Wenn Sie ein Machine Learning Modell nutzen, um zu entscheiden, ob ein Kunde kreditwürdig ist, ein Mitarbeiter zu fördern ist, oder ein Versicherungs-Antrag genehmigt wird — das ist Profiling.
Für Profiling verlangt DSG Artikel 5c:
- Transparenz: Personen müssen informiert werden, dass sie „Profiling" unterliegen
- Nachvollziehbarkeit: Sie müssen erklären können, warum ein Modell zu einer Entscheidung kam
- Recht auf Widerspruch: Personen können gegen algorithmische Entscheidungen Einspruch erheben
- Human Review: Für Hochrisiko-Entscheidungen (z.B., Kreditvergabe, Hiring, medizinische Diagnose) ist menschliche Überprüfung erforderlich
Praktische Implikation für AI Automation:
- Sie können nicht einfach einen Black-Box Modell deployen für Entscheidungen
- Sie brauchen explainability (SHAP values, LIME, Feature Importance, oder andere Interpretability-Techniken)
- Oder Sie nutzen von vornherein interpretierbare Modelle (Decision Trees, Linear Models, Rule-Based)
Artikel 6e: Risiko-Assessment für KI-Systeme
Artikel 6e ist relativ neu und adressiert Hochrisiko-AI-Systeme:
„Für automatisierte Bearbeitung von Personendaten mit Hochrisiko ist eine Risikobewertung erforderlich."Ein Hochrisiko-AI-System ist eines, das könnte:
- Diskriminierung verursachen
- Fundamentale Rechte verletzen
- Große wirtschaftliche Auswirkungen haben
- Hiring-Modelle (können Diskriminierung verursachen)
- Credit-Scoring (kann Finanzielle Exclusion verursachen)
- Police-Risk-Prediction (kann zu unfairer Behandlung führen)
- Medical Diagnosis Systems (können Lebensqualität betreffen)
- Datenschutz-Impact-Assessment (DPIA): Formale Analyse, wie das System Privatsphäre betrifft
- Bias-Testing: Überprüfung, dass das System nicht diskriminiert
- Monitoring und Governance: Kontinuierliche Überprüfung des Modells in Production
- Dokumentation: Alle Tests, Ergebnisse, Entscheidungen müssen dokumentiert sein
- Auditierung: Externe oder interne Audits, um Compliance zu zeigen
Praktische Compliance-Anforderungen: Was Unternehmen tun müssen
Wenn Sie in der Schweiz AI Automation einführen, was konkret müssen Sie tun?
Phase 1: Klassifizierung — Ist das Projekt „Low Risk" oder „High Risk"?
Fragen Sie:
- Verarbeite ich Personendaten?
- Ist das Modell eine automatisierte Entscheidung?
- Betrifft die Entscheidung sensible Rechte (Finanz, Health, Employment)?
- Könnte das System Diskriminierung verursachen?
Wenn auf alle Ja, dann High-Risk.
Phase 2 (bei Low-Risk): Datenschutz-Grundlagen
Auch Low-Risk Projekte brauchen:
- Datenschutz-Dokumentation
- Klar definierte Zwecke der Datennutzung
- Zugang-Kontrolle (wer darf auf Daten zugreifen?)
- Data-Retention-Policies (wie lange speichern?)
- Implementierung von Datensicherheit (Encryption, etc.)
Phase 2 (bei High-Risk): Umfassendes DPIA
Ein DPIA (Datenschutz-Impact-Assessment) für KI sollte adressieren:
- Datenquellen: Woher kommen die Trainingsdaten? Sind sie legal erworben? Repräsentativ?
- Model-Fairness und Bias Testing:
- Explainability-Analyse:
- Daten-Sicherheit:
- Robustheit und Adversarial-Attacken:
- Menschliche Überwachung und Escalation:
- Monitoring und Drift-Detection:
- Dokumentation und Auditierbarkeit:
Phase 3: Implementierung und Ongoing Compliance
Nach dem DPIA:
- Implementiert die Sicherungsmaßnahmen
- Trainiert das Team
- Dokumentiert alles
- Macht regelmässig Compliance-Checks (quarterly/halbjährlich)
- Reagiert schnell auf neue Risiken
Schweizer Spezifik: Lokalisierung und Datensouveränität
Das neue DSG hat einen starken Fokus auf Datensouveränität. Das bedeutet:
Daten von Schweizer Personen sollten bevorzugt in der Schweiz verarbeitet werden.
Das hat direkte Implikationen für Cloud-AI:
- OpenAI (USA), Google Cloud (USA), AWS (USA): Weniger ideal aus DSG-Perspektive
- Schweizer/Europäische Alternativen: Besser
- Lokale Modelle (Llama, Mistral, Open-Source): Am besten für sensitive Daten
Praktischer Ratschlag für KMU:
- Für Non-Sensible Daten: OpenAI API, Google Cloud AI ist ok (mit Enterprise Data Protection)
- Für Sensible Daten (Customer Data, Financial Data, Health Data): Llama oder Mistral lokal hosten
- Oder: Europäische KI-Anbieter wie Mistral, Aleph Alpha nutzen
Case Study: Schweizer Bank mit Machine Learning
Beispiel: Eine Schweizer Bank möchte ein Machine Learning Modell für Credit Scoring einführen.
DSG-Compliance-Anforderungen:
- Artikel 5c (Profiling):
Vertiefen Sie Ihr Wissen:>
- Datenschutz und AI Automation2. Artikel 6e (High-Risk AI): - Bank führt DPIA durch - Testet auf Bias: Werden Frauen diskriminiert? Werden Migranten diskriminiert? - Implementiert Explainability (z.B., SHAP values für jede Entscheidung) - Dokumentiert alles - Macht quarterly Compliance-Audits - Hat ein Monitoring-System, das Drift erkennt
- Daten-Sicherheit:
- Data Retention:
Ohne diese Maßnahmen hätte die Bank ein großes Compliance-Risiko.
Praktische Compliance-Tools und Ressourcen
Um DSG-Compliance konkret umzusetzen, können Unternehmen Tools nutzen:
Fairness & Bias-Testing:
- Fairlearn (Microsoft, Open-Source)
- AIF360 (IBM, Open-Source)
- Google's What-If Tool
Explainability:
- SHAP (Lundberg & Lee)
- LIME (Local Interpretable Model-Agnostic Explanations)
- InterpretML (Microsoft)
Data Protection:
- Differential Privacy Libraries (Google DP, Apple's RAPPOR)
- Federated Learning (Google TensorFlow Federated)
Privacy-Preserving ML:
- Homomorphic Encryption (nicht praktisch, aber emerging)
- Secure Multi-Party Computation
Governance & Documentation:
- Model Cards (Google)
- Datasheets for Datasets (Gebru et al.)
- System Cards (Mitaraman et al.)
Häufige Fehler und wie man sie vermeidet
Fehler 1: „Wir sind mit DSGVO konform, also auch DSG-konform"
Falsch. DSG ist anders. Die Anforderungen an KI (Artikel 5c, 6e) sind expliziter in der Schweiz.
Fehler 2: „Wir kümmern uns um Compliance, nachdem wir deployen"
Zu spät. DSG verlangt Compliance vor Deployment.
Fehler 3: „Unser KI-Anbieter kümmert sich um Compliance, nicht wir"
Falsch. Sie sind immer noch verantwortlich (Shared Responsibility). Sie können diese Verantwortung nicht vollständig delegieren.
Fehler 4: „KI ist zu new, reguliert ist nicht relevant"
Nein. DSG ist ab Sept 2023 in Kraft. Schweizer Unternehmen müssen konform sein.
Fehler 5: „Wir sind ein KMU, Compliance ist für große Unternehmen"
Falsch. DSG gilt für alle Datenbearbeiter, unabhängig von Größe. Ein KMU muss genauso konform sein.
Compliance-Roadmap: Wie Unternehmen starten
Monat 1-2: Assessment
- Inventur: Welche Datenbearbeitung findet statt?
- Klassifizierung: Low-Risk vs. High-Risk
- Gap-Analyse: Wo sind wir nicht konform?
Monat 3-4: DPIA für High-Risk Projekte
- Systematische Risikoanalyse
- Bias-Testing, Fairness-Analysen
- Dokumentation
Monat 5-6: Implementierung
- Datenschutz-Maßnahmen umsetzen
- Team trainieren
- Policies und Prozesse etablieren
Monat 7+: Ongoing Compliance
- Quarterly Audits
- Monitoring von Modell-Performance
- Update bei neuen Gesetzen
ai-automation-hub und DSG-Compliance
ai-automation-hub verstht, dass Datenschutz kein "add-on" ist, sondern zentral für vertrauenswürdige AI Automation.
Unsere Services:
- DSG Compliance Assessments: Wir analysieren Ihre geplanten AI Automation Projekte auf DSG-Risiken
- DPIA-Unterstützung: Wir helfen, formale DPIAs für High-Risk Projekte zu schreiben
- Bias Testing und Fairness: Wir führen umfassende Fairness-Analysen durch
- Explainability Implementation: Wir helfen, interpretable Models oder Explainability-Layers zu implementieren
- Governance und Monitoring: Wir helfen, governance frameworks und monitoring-systeme aufzubauen
- Compliance Documentation: Wir unterstützen bei der Dokumentation für regulatorische Audits