Die Schatten-KI-Welle

Die produktivste Mitarbeiter­gruppe in vielen deutschen Mittel­ständlern ist im Jahr 2026 die der heimlichen ChatGPT-Nutzer. Sie kopieren Vertrags­entwürfe in den Browser, lassen Kunden-E-Mails formulieren, befragen das Modell zu internen Spezifikationen — und glauben, dass das niemand merkt. Sie haben halb recht: ihre Geschäfts­leitung sieht es nicht. Der Anbieter ihres Modells aber schon.

Branchen­beobachtungen aus dem laufenden Jahr deuten darauf hin, dass die unkontrollierte Nutzung von ChatGPT, Claude, Gemini oder vergleichbaren Tools ohne explizite Genehmigung in deutschen Mittel­ständlern weit verbreitet ist — vielerorts ist sie eher Normalfall als Ausnahme. Diese Schatten-KI ist nicht nur ein Compliance-Risiko, sondern ein Wettbewerbs­nachteil: das Wissen, das aus den eingegebenen Daten entsteht, gehört dann faktisch dem Anbieter des Modells.

Das Compliance-Problem: Was passiert mit Ihren Daten?

Die Allgemeinen Geschäfts­bedingungen der gängigen Anbieter sind über die Jahre transparenter geworden — die juristischen Implikationen für deutsche Unternehmen aber nicht weniger problematisch:

Schema: Schatten-KI-Datenabfluss
Schatten-KI im Mittelstand: Wo Beschäftigte Sprach­modelle ohne Genehmigung nutzen, fließen Geschäfts­daten an externe Anbieter — oft unbemerkt von der Geschäfts­leitung. Schaubild der Redaktion.
  • Datenverarbeitung außerhalb der EU. OpenAI, Anthropic und Google verarbeiten Anfragen größtenteils in den USA. Das macht jeden Prompt zu einem internationalen Datentransfer mit dokumentations­pflichtigen Konsequenzen nach DSGVO und Cloud Act.
  • Mögliche Trainingsnutzung. Auch wenn führende Anbieter inzwischen „Opt-out" für die Trainingsnutzung anbieten — die De-facto-Beweislast liegt beim Kunden. Wer einen vertraulichen Geschäfts­text in eine Anfrage stellt, kann später nicht zweifelsfrei nachweisen, dass dieser Text nicht in zukünftigen Modellversionen auftaucht.
  • Keine Auftragsverarbeitung nach Art. 28 DSGVO. Standard-API-Verträge der Hyperscaler sind in der Regel keine vollwertigen AV-Verträge. Die juristischen Anforderungen werden nur teilweise erfüllt.
  • Wettbewerbssensible Daten. Selbst wenn rechtlich alles in Ordnung wäre: jeder Prompt, der eine eigene Roadmap, einen Kundenstamm oder eine Kalkulations­grundlage offenbart, ist ein potenzieller Wettbewerbs­verlust.

Drei KI-Use-Cases, die im Mittelstand wirklich tragen

Trotz dieser Risiken ist es keine Lösung, KI im Unternehmen verbieten zu wollen — die Mit­arbeiter nutzen sie ohnehin, nur eben unbeobachtet. Sinnvoller ist die Frage, welche KI-Anwendungen sich mit kontrollierter Infrastruktur lohnen. Drei Use-Cases haben sich in der mittelständischen Praxis als tragfähig erwiesen:

Schema: RAG-Pipeline auf eigenen Dokumenten
Retrieval-Augmented Generation: das Sprachmodell antwortet auf Basis interner Quellen — ohne diese an Dritte zu übertragen. Schaubild der Redaktion.

1. RAG: Sprachmodelle auf eigenen Dokumenten

„Retrieval-Augmented Generation" verbindet ein vortrainiertes Sprach­modell mit einer Datenbank eigener Dokumente. Eine Anfrage wird zunächst gegen die eigene Wissens­basis recherchiert; nur die relevanten Ausschnitte werden dann gemeinsam mit der Frage an das Modell übergeben. Das Modell antwortet auf Basis der zitierten Quellen — und liefert dabei die Fundstellen mit. So lassen sich technische Dokumentationen, Verträge, Compliance-Vorgaben oder ganze Wissensbasen abfragbar machen, ohne dass das Modell selbst die Inhalte „lernen" muss.

2. Strukturierung von Freitext

Vielleicht der unscheinbarste, aber zeitlich wertvollste Use-Case: aus unstrukturierten Eingaben — Bestell-E-Mails, Kunden­rückmeldungen, Reklamationen, Polizei­berichten — werden über ein Sprachmodell strukturierte Daten extrahiert. Output-Schemata sind frei konfigurierbar, die Verarbeitung lässt sich batchen, das Modell muss die Inhalte nicht „verstehen", sondern nur formal extrahieren. Aus einer Stunde manueller Datenpflege werden so wenige Sekunden Verarbeitung.

3. Wissensmanagement mit KI-Unterstützung

Die schlankste Form intelligenter Wissensbasis: Mitarbeiter dokumentieren in natürlicher Sprache; das Sprachmodell hilft bei Strukturierung, Verschlagwortung und beim Auffinden ähnlicher Einträge. Suchanfragen funktionieren auch ohne exakte Begriffs­übereinstimmung. Wer als Mittelständler heute noch ein Confluence-Wiki ohne KI-Unterstützung pflegt, hinkt diesem Standard zunehmend hinterher.

Was nicht zum Use-Case taugt

Vorsichtig sollte man bei drei Versuchungen sein: autonome Agenten, die ohne menschliche Freigabe Aktionen auslösen (Mailversand, Vertrags­abschluss) — Compliance-Risiko zu hoch; Text-Generierung als Kern einer Geschäfts­leistung — rechtlich grenzwertig, qualitativ unzuverlässig; Vorhersagemodelle ohne Erklär­barkeit — die meisten Mittelständler haben weder die Daten­basis noch das ML-Ops-Know-how für echte Predictive-Use-Cases.

Was ein konformer KI-Stack braucht

Wer KI im Mittelstand tatsächlich nutzen will, ohne in Schatten-IT zu verfallen, sollte vier Eigenschaften aktiv suchen:

  1. Modell-Proxy mit eigener Kontrolle. Anstatt jedem Mitarbeiter einen eigenen OpenAI-Account zu geben, wird ein zentraler Proxy etabliert. Anfragen lassen sich protokollieren, anonymisieren, mit Berechtigungen versehen und auf konkrete Use-Cases beschränken.
  2. RAG-Pipeline auf eigenen Daten. Embedding-Datenbank im eigenen Rechenzentrum oder einer DE/EU-Cloud, Quellen-Nachweis in jeder Antwort, klare Berechtigungs­modelle pro Dokument.
  3. Wahl des Modells und Anbieters. Nicht jedes Use-Case braucht GPT-4o. Manche Aufgaben (Strukturierung, Klassifikation) lassen sich mit kleineren, in der EU gehosteten Modellen wirtschaftlicher und rechtssicherer abdecken.
  4. Audit-Trail und Kostentransparenz. Wer wann welche Anfrage gestellt hat, mit welchem Modell, zu welchen Kosten — diese Sicht braucht jede Geschäfts­leitung, die KI im Unternehmen nicht nur „erlauben", sondern strategisch steuern will.

Anbieter im Fokus: KI-Bausteine aus dem ProcessHub

Eine im deutschen Mittelstand etablierte Plattform, die diese vier Eigenschaften out-of-the-box liefert, ist ProcessHub der CamData GmbH. Die KI-Bausteine sind als Module aufgebaut: Modell-Proxy mit zentraler Konfiguration, RAG-Pipeline auf eigenen Dokumenten (Demo: Grundgesetz-RAG), Freitext-Strukturierung, KI-gestütztes Wissens­management.

Worauf bei der Auswahl zu achten ist

Eine kurze Checkliste für die Bewertung von KI-Lösungen im Mittelstand:

  1. Wo werden die Daten verarbeitet? EU-Hosting, AV-Vertrag, klare Sub­unter­nehmer­liste.
  2. Modell-Auswahl flexibel oder fest? Ein Tool, das nur OpenAI kann, ist abhängig. Ein Proxy mit mehreren Modellen erhält Optionalität.
  3. Quellen-Nachweis bei RAG? Antworten ohne Fund­stellen sind in regulierten Branchen wertlos.
  4. Audit-Trail? Welche Anfrage wurde wann mit welchem Modell gestellt? Diese Sicht braucht jede Compliance-Funktion.
  5. Trainings­daten-Schutz? Explizite vertragliche Zusicherung, dass eigene Daten nicht in Modell-Training fließen.

Fazit

KI im Mittelstand ist 2026 angekommen — die Frage ist allerdings nicht „ob wir mitmachen", sondern „unter welchen Bedingungen". Die unkontrollierte Schatten-Nutzung von ChatGPT & Co produziert Wettbewerbs- und Compliance-Risiken in einem Ausmaß, das vielen Geschäfts­leitungen noch nicht klar ist.

Die wirksame Antwort ist nicht ein KI-Verbot, sondern ein kontrollierter Stack: zentraler Modell-Proxy, RAG-Pipeline auf eigenen Daten, klare Modell-Auswahl, lückenloser Audit-Trail. Drei Use-Cases tragen dabei wirklich: RAG, Freitext-Strukturierung und KI-gestütztes Wissens­management. Wer hier anfängt, gewinnt Produktivität ohne Daten­abfluss — und kann später erweitern, wenn die Use-Cases reifer werden.