📢 Die wichtigste KI-Entwicklung der Woche
KI und Datenschutz – was ist erlaubt, was nicht?
Es gibt ein Thema, bei dem die meisten Unternehmen aufhören, bevor sie anfangen: Datenschutz und KI.
Die Unsicherheit ist verständlich. DSGVO, EU AI Act, Auftragsverarbeitung – wer soll da noch durchblicken? Also passiert eines von zwei Dingen: Entweder wird KI inoffiziell verboten („Wir nutzen das nicht"). Oder sie wird inoffiziell genutzt – von Mitarbeitern, die einfach machen, ohne dass jemand hinschaut.
Beides ist riskant. Aber die gute Nachricht: Die Lage ist weniger kompliziert, als sie klingt. Wenn Sie drei Grundsätze verstehen, haben Sie 90 % der Fälle abgedeckt.
Grundsatz 1: Was Sie eingeben, ist entscheidend – nicht das Tool selbst.
ChatGPT, Claude und Gemini sind keine grundsätzlich verbotenen Werkzeuge. Entscheidend ist, welche Daten Sie eingeben.
Die Faustregel: Alles, was Sie einer fremden Person nicht per Postkarte schicken würden, gehört nicht in ein KI-Tool, über das Sie keine Kontrolle haben.
Konkret heißt das:
Unproblematisch: Allgemeine Texte formulieren, Brainstorming, öffentlich verfügbare Informationen zusammenfassen, Prompts ohne personenbezogene Daten.
Grauzone: Interne Berichte zusammenfassen (ohne Namen/Zahlen), Angebotsentwürfe auf Basis allgemeiner Vorlagen, Marktrecherchen.
Tabu: Personenbezogene Daten (Kundennamen, Adressen, Gehälter), vertrauliche Verträge, Gesundheitsdaten, Finanzdaten, Bewerbungsunterlagen.
Grundsatz 2: Standardeinstellungen sind nicht Ihre Freunde.
Die meisten KI-Tools verwenden Ihre Eingaben in der Standardeinstellung zur Verbesserung ihrer Modelle. Das bedeutet: Was Sie eingeben, fließt potenziell in das Training ein und kann – theoretisch – in Antworten an andere Nutzer auftauchen.
Das lässt sich abschalten. Und genau das sollten Sie tun.
ChatGPT: Einstellungen → Datenschutz → „Modelltraining verbessern" deaktivieren. Alternativ: Unter Einstellungen → „Temporary Chat" aktivieren – dann werden Gespräche nicht gespeichert.
Claude: Einstellungen → Datenschutz → Prüfen, ob Eingaben für Modelltraining verwendet werden. Claude speichert Unterhaltungen, nutzt sie aber laut Anthropic nicht standardmäßig zum Training.
Gemini: Einstellungen → Aktivitäten → „Gemini-Apps-Aktivitäten" deaktivieren. Dann werden neue Unterhaltungen nicht gespeichert.
Wichtig: Diese Einstellungen gelten pro Nutzer. In einem Unternehmen mit 20 Mitarbeitern muss jeder einzelne die Einstellung selbst vornehmen – oder Sie nutzen eine zentrale Lösung (dazu mehr im Fortgeschrittenen-Teil).
Grundsatz 3: Es gibt einen Unterschied zwischen Chat und API.
Wenn Sie ChatGPT über chat.openai.com nutzen (die Website), gelten andere Bedingungen als wenn Sie die API (Programmierschnittstelle) verwenden.
Der wesentliche Unterschied: API-Eingaben werden bei den meisten Anbietern standardmäßig nicht für Modelltraining verwendet. Sie haben mehr Kontrolle über Ihre Daten und können Verträge zur Auftragsverarbeitung abschließen.
Für den Einzelnutzer ist das irrelevant. Für ein Unternehmen, das KI systematisch einsetzen will, ist es der entscheidende Hebel: Die API-Nutzung macht KI DSGVO-konform nutzbar – wenn die restlichen Rahmenbedingungen stimmen.
Was bedeutet der EU AI Act für Sie?
Am 2. August 2026 – in weniger als fünf Monaten – treten die Pflichten für Hochrisiko-KI-Systeme vollständig in Kraft. Das klingt dramatisch, betrifft die meisten Mittelständler aber weniger als befürchtet.
Was Sie wissen müssen:
Der EU AI Act teilt KI-Systeme in vier Risikokategorien ein: verboten, hoch, begrenzt und minimal. Die meisten Anwendungen, die ein typischer Mittelständler nutzt (ChatGPT für Texte, Perplexity für Recherche, Fireflies für Meetings), fallen in die Kategorie „minimal" – hier gibt es keine besonderen Pflichten.
Hochrisiko wird es, wenn KI-Systeme automatisiert über Menschen entscheiden: Bewerberauswahl, Kreditvergabe, Leistungsbeurteilung. Hier gelten strenge Dokumentations- und Transparenzpflichten.
Was seit Februar 2025 bereits gilt: Die KI-Kompetenzpflicht (Artikel 4). Jedes Unternehmen, das KI einsetzt, muss sicherstellen, dass Mitarbeiter, die KI-Systeme bedienen, über ausreichende Kenntnisse verfügen. Das bedeutet: Schulungen dokumentieren.
Was Sie jetzt tun sollten:
Erstellen Sie ein KI-Inventar: Welche KI-Tools werden in Ihrem Unternehmen genutzt? Auch die, von denen die IT-Abteilung nichts weiß.
Prüfen Sie, ob eines dieser Tools automatisiert über Menschen entscheidet. Wenn ja: Das ist potenziell Hochrisiko.
Dokumentieren Sie, dass Ihre Mitarbeiter im Umgang mit KI geschult werden.
Bußgelder bei Verstößen: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. Für ein KMU mit 5 Millionen Euro Umsatz wären das bis zu 150.000 Euro. Nicht existenzbedrohend – aber schmerzhaft genug.
Praktische Checkliste für den Einstieg:
✅ Datenschutzeinstellungen in ChatGPT, Claude und Gemini prüfen und Training-Opt-out aktivieren
✅ KI-Inventar erstellen: Welche Tools nutzt wer in Ihrem Unternehmen?
✅ Klare Regel definieren: Welche Daten dürfen in externe KI-Tools eingegeben werden – und welche nicht?
✅ Mitarbeiterschulung dokumentieren (KI-Kompetenzpflicht seit Februar 2025)
✅ Bei systematischer KI-Nutzung: API-Zugang statt Chat-Oberfläche prüfen
✅ Für Hochrisiko-Anwendungen (Bewerberauswahl etc.): Rechtsberatung einholen
🛠️ Tool der Woche: Microsoft Copilot (Enterprise)
Was es ist: Microsofts KI-Assistent, integriert in Microsoft 365 – Word, Excel, PowerPoint, Outlook, Teams. Im Grunde: ChatGPT, eingebaut in die Office-Welt.
Warum es für Entscheider relevant ist: Copilot hat einen entscheidenden Vorteil gegenüber ChatGPT & Co.: In der Enterprise-Version bleiben Ihre Daten innerhalb Ihres Microsoft-365-Tenants. Sie werden nicht zum Training verwendet und unterliegen denselben Datenschutzvereinbarungen wie Ihre gesamte Microsoft-Infrastruktur. Für Unternehmen, die ohnehin Microsoft 365 nutzen, ist das der einfachste Weg zu einer DSGVO-konformen KI-Nutzung.
So nutzen Sie es: Wenn Ihr Unternehmen Microsoft 365 Business oder Enterprise nutzt, können Sie Copilot als Add-on aktivieren. Es fasst E-Mails zusammen, erstellt Präsentationen aus Dokumenten, analysiert Excel-Tabellen und generiert Meeting-Protokolle in Teams – alles innerhalb Ihrer bestehenden IT-Infrastruktur.
Kosten: Ab ca. 28 € pro Nutzer/Monat als Add-on zu Microsoft 365 Business oder Enterprise.
💬 Prompt der Woche
Diesen Prompt können Sie direkt in ChatGPT, Claude oder Gemini einfügen:
Aufgabe: Erstelle für mein Unternehmen eine einfache, verständliche KI-Richtlinie für Mitarbeiter. Die Richtlinie soll folgende Punkte abdecken:
Welche KI-Tools sind freigegeben?
Welche Daten dürfen eingegeben werden – und welche nicht?
Welche Datenschutzeinstellungen müssen aktiviert werden?
An wen wendet man sich bei Unsicherheiten?
Unternehmensdaten: [Branche, Größe, genutzte Tools eintragen]
Schreibe die Richtlinie in verständlicher Sprache – kein Juristendeutsch. Maximal eine Seite.
Tipp: Lassen Sie den Entwurf von Ihrem Datenschutzbeauftragten prüfen. Die KI liefert eine solide Grundlage – aber die rechtliche Freigabe muss vom Fachmann kommen.
📊 Zahl der Woche
82 % – So viele Mitarbeiter nutzen KI-Tools, von denen ihre IT-Abteilung nichts weiß. Die Daten-Uploads in externe KI-Tools sind im letzten Jahr um 485 % gestiegen. Die größte Datenschutz-Gefahr ist nicht der kontrollierte KI-Einsatz. Es ist der unkontrollierte.
(Quelle: Analyse zur Schatten-KI in Unternehmen, Anfang 2026)
🔬 Für Fortgeschrittene: DSGVO-konforme KI-Nutzung einrichten – Schritt für Schritt
Sie wollen KI nicht nur erlauben, sondern sauber aufsetzen? Hier sind die drei Wege – von einfach bis sicher.
Weg 1: Chat-Oberfläche mit Opt-out (einfach, begrenzt sicher)
Das ist der Weg, den die meisten gehen: ChatGPT oder Claude über den Browser nutzen, aber die Trainings-Option deaktivieren.
Vorteil: Schnell, kostenlos, sofort nutzbar.
Nachteil: Sie verlassen sich auf die Datenschutzversprechen des Anbieters. Keine Auftragsverarbeitungsvereinbarung. Für sensible Daten nicht geeignet.
Geeignet für: Einzelne Mitarbeiter, die KI für allgemeine Aufgaben nutzen (Texte, Brainstorming, Recherche). Keine personenbezogenen oder vertraulichen Daten.
Weg 2: API-Zugang mit Auftragsverarbeitung (mittel, empfohlen)
Sie nutzen die API von OpenAI, Anthropic oder Google und schließen einen Vertrag zur Auftragsverarbeitung (AVV) ab. Beide Anbieter stellen standardisierte AVVs bereit.
Vorteil: Daten werden nicht für Training verwendet. Sie haben einen rechtlich belastbaren Vertrag. DSGVO-konform für die meisten Anwendungsfälle.
Nachteil: Erfordert etwas technisches Setup oder einen Dienstleister. Kosten nach Nutzung.
Geeignet für: Unternehmen, die KI systematisch einsetzen und dabei Kundendaten oder interne Informationen verarbeiten.
So geht's: Erstellen Sie einen API-Account bei OpenAI (platform.openai.com) oder Anthropic (console.anthropic.com). Laden Sie den bereitgestellten AVV herunter und archivieren Sie ihn. Bauen Sie Ihre KI-Anwendungen über die API – oder nutzen Sie Tools wie Make.com, die über die API anbinden.
Weg 3: Lokale Modelle / Edge Computing (maximal sicher, aufwändig)
Sie betreiben ein KI-Modell auf Ihrer eigenen Hardware. Die Daten verlassen nie Ihr Unternehmen.
Vorteil: Maximale Kontrolle. Keine Abhängigkeit von externen Anbietern. DSGVO-Konformität am höchsten.
Nachteil: Erfordert Hardware (Edge-PC oder Server mit GPU), technisches Know-how und Wartung. Die Modelle sind leistungsfähig, aber nicht auf dem Niveau von GPT-4 oder Claude.
Geeignet für: Unternehmen mit hohen Sicherheitsanforderungen, sensiblen Branchen (Gesundheit, Finanzen, Rüstung) oder dem Wunsch nach vollständiger Datensouveränität.
Tools: Ollama (ollama.ai) – damit können Sie Modelle wie Llama, Mistral oder Phi in Minuten lokal installieren. Mehr dazu in Ausgabe #5.
Meine Empfehlung: Für die meisten Mittelständler ist Weg 2 der sweet spot – DSGVO-konform, wirtschaftlich vertretbar und ohne eigene Server-Infrastruktur. Weg 1 reicht für den Einstieg, Weg 3 für die, die es ernst meinen. Hauptsache, Sie fangen an – denn der unkontrollierte Einsatz (Schatten-KI) ist die schlechteste aller Optionen.
⚡ 3 Links, die sich lohnen
EU AI Act – Zeitplan und Pflichten für KMU → artificialintelligenceact.eu/de/implementation-timeline
OpenAI Datenschutz-Einstellungen → help.openai.com/en/articles/7730893-data-controls-faq
Ollama – lokale KI installieren → ollama.ai
📨 Kennen Sie jemanden, für den dieser Newsletter nützlich wäre?
Leiten Sie diese Mail einfach weiter – eine Anmeldung dauert 30 Sekunden: ki-chefsache.de
⚠️ Hinweis zum Datenschutz
Wenn Sie KI-Tools wie ChatGPT, Claude oder Gemini nutzen, achten Sie darauf, welche Daten Sie eingeben. Vermeiden Sie personenbezogene Daten (Namen, Adressen, Kontodaten) und vertrauliche Geschäftsinformationen, solange Sie keine unternehmensinterne KI-Richtlinie haben. Viele KI-Anbieter verwenden Eingaben zur Verbesserung ihrer Modelle – prüfen Sie die Datenschutzeinstellungen Ihres Tools und deaktivieren Sie ggf. die Verwendung Ihrer Daten für Trainingszwecke. Im Zweifel: Anonymisieren Sie Daten, bevor Sie sie in eine KI eingeben.
Bis nächsten Donnerstag – dann geht es um: KI lokal betreiben – Edge Computing für den Mittelstand. Wenn die Daten das Haus nicht verlassen sollen.
Fragen oder Themenvorschläge? Antworten Sie einfach auf diese Mail.
Herzliche Grüße,
Mark Langer
KI | Chefsache