Pascal Mages
CTO
Open Circle AG – Zürich
Freilagerstrasse 32
8047 Zürich
Open Circle AG – Bern
Lagerhausweg 30
3018 Bern

So hilfreich und zeitsparend KI-Tools wie ChatGPT, Copilot oder DeepL für den Unternehmensalltag sind, so wenig wird über die Risiken gesprochen. Wenn ein Mitarbeiter eine Datentabelle hochlädt, wo landen diese Informationen dann? Und machen sich Unternehmen damit im schlimmsten Fall sogar strafbar?
Wir beleuchten die fünf grössten Risikofelder beim Einsatz von KI-Tools und zeigen, welche Massnahmen nötig sind, damit Effizienz nicht auf Kosten von Vertraulichkeit, Datenschutz, Korrektheit und Rechtssicherheit geht.
KI-Tools funktionieren nur, wenn sie mit Daten gefüttert werden. Genau hier liegt auch das grösste Risiko: Alles, was eingegeben wird, verlässt das Unternehmen und landet auf Servern externer Anbieter. Ob diese Daten gespeichert, weitergegeben oder sogar zum Training der Modelle genutzt werden, ist oft unklar. Besonders problematisch wird es, wenn interne Dokumente mit vertraulichen Informationen oder personenbezogene Daten verarbeitet werden. Hier drohen sogar Verstösse gegen die Datenschutzgesetze.
Praxisbeispiel:
Eine Mitarbeitende lädt eine Excel-Liste mit Kundendaten in ChatGPT hoch, um daraus eine schnelle Zusammenfassung zu erstellen. Damit liegen sensible Informationen auf US-Servern – ohne Einwilligung der Betroffenen. Die Folge: klarer Datenschutzverstoss sowie mögliche Geldstrafe im sechsstelligen Bereich.
Das Risiko geht jedoch über den Datenschutz hinaus. Auch Geschäftsgeheimnisse wie Preiskalkulationen, Projektpläne oder Marktanalysen können ungewollt offengelegt werden. In der Hand von Dritten sind diese Daten ein strategischer Nachteil für jedes Unternehmen.

KI-generierte Inhalte sind nicht automatisch frei verwendbar. In vielen Fällen bleibt unklar, ob Teile aus bestehenden Werken übernommen wurden. Manche Anbieter sichern sich sogar Rechte an den Inhalten übersetzter Texte.
Praxisbeispiel:
Ein Unternehmen lässt einen englischen Fachartikel mit einem kostenlosen Übersetzungstool übersetzen und veröffentlicht den Text als Whitepaper. Später wird bekannt, dass der Dienst die Übersetzungen aus der Gratis-Version speichern und für Trainingszwecke verwenden darf. Das Unternehmen hat damit die Kontrolle über seine Inhalte verloren und öffnet die Tür für rechtliche Auseinandersetzungen.
Der Begriff „KI-Halluzination“ klingt harmlos, beschreibt aber ein ernstes Problem: Sprachmodelle sind darauf trainiert, überzeugende Texte zu formulieren – auch dann, wenn die Fakten nicht ganz stimmen. Sie „erfinden“ Informationen, präsentieren sie aber so, als wären sie belastbar.
Praxisbeispiel:
Eine Mitarbeiterin lässt ChatGPT eine Marktanalyse erstellen. Das Ergebnis enthält Zahlen, Diagramme und Quellenangaben. Bei einer Überprüfung zeigt sich jedoch, dass mehrere dieser Quellen frei erfunden oder falsch interpretiert wurden. Wenn eine solche Analyse ungeprüft in die Geschäftsleitungssitzung gelangt, treffen Entscheidungsträger ihre Beschlüsse auf falscher Grundlage. Das kann sowohl finanzielle Verluste als auch strategische Fehlentwicklungen nach sich ziehen.
Auch Übersetzungstools liefern nicht immer verlässliche Ergebnisse. Juristische Fachbegriffe, Ironie oder sprachliche Nuancen werden schnell verfälscht. Im schlimmsten Fall verändert sich durch eine fehlerhafte Übersetzung die Bedeutung einer Vertragsklausel. Die Folge können rechtliche Auseinandersetzungen sein, die vermeidbar gewesen wären.

Viele KI-Tools sind Black Boxes. Sie liefern Ergebnisse, ohne offenzulegen, wie diese entstanden sind. Entscheidungen werden also auf Basis von Informationen getroffen, deren Herkunft und Gewichtung nicht überprüfbar sind.
Praxisbeispiel:
Eine Rechtsabteilung lässt Vertragsklauseln von einer KI zusammenfassen. Der Text wirkt plausibel, doch warum bestimmte Aspekte betont und andere ausgelassen wurden, bleibt unklar. Sollte es später zu einem Rechtsstreit kommen, lässt sich nicht nachvollziehen, wie die Zusammenfassung zustande kam (und damit auch nicht rechtfertigen, warum auf ihrer Grundlage Entscheidungen getroffen wurden).
Auch wenn eine KI den Fehler verursacht hat, haftet am Ende das Unternehmen. OpenAI und Co. machen das deutlich: In den Nutzungsbedingungen steht, dass die Tools Fehler enthalten können und Ergebnisse immer von Menschen überprüft werden müssen. Damit nehmen sie sich aus der Verantwortung.
Praxisbeispiel:
Ein Entwickler integriert von Copilot vorgeschlagenen Code in ein Produkt. Später stellt sich heraus, dass der Code eine Sicherheitslücke enthält, die von Hackern ausgenutzt wird. Der finanzielle Schaden geht in die Millionen, hinzu kommen mögliche Schadensersatzforderungen von Kunden. Die Verantwortung bleibt vollständig beim Unternehmen.

Definieren Sie verbindlich, welche KI-Tools erlaubt sind und welche Informationen verarbeitet werden dürfen. Erstellen Sie ein internes Regelwerk, das an die Sensibilität von Informationen geknüpft ist. Die Klassifizierung von Information (z.B. öffentlich, intern, vertraulich, streng vertraulich) ist immer eine gute Grundlage für die Richtlinien.
Vergleichen Sie Anbieter, prüfen Sie die Vertragsbedingungen und entscheiden Sie sich bewusst. Nicht jeder kostenlose Dienst ist auch sicher. Oft „bezahlt“ man bei kostenlosen Diensten mit Daten. Achten Sie auf folgende Punkte:
Kostenlose Tools sind praktisch, aber oft nicht für sensible Unternehmensdaten geeignet. Die Abo-Versionen bieten meist klare Datenschutz- und Löschregeln. Beispiel DeepL Pro: Texte werden nach Übersetzung sofort gelöscht, keine Weiterverwendung.
Ohne Awareness bringt jede Richtlinie wenig. Ihr Team muss verstehen, warum bestimmte Informationen tabu sind und unter keinen Umständen das Unternehmen unkontrolliert verlassen dürfen. Schulungen, kurze Guidelines oder interne Q&As helfen, die Regeln im Alltag zu verankern.
Egal was die KI erstellt, den finalen Check sollten immer Menschen übernehmen, die das Ergebnis auch beurteilen können. KI sollte menschliche Intelligenz und Kompetenz nicht ersetzen. Legen Sie klare Kontrollschritte fest, bevor Inhalte veröffentlicht, an Kunden gegeben oder anderweitig verwendet werden.
Damit stellen Sie sicher, dass KI weiterhin als Produktivitäts-Booster funktioniert und nicht zum Sicherheitsrisiko wird.
KI-Tools sind gekommen, um zu bleiben. Je eher wir uns also mit den Risiken auseinandersetzen und verbindliche Regeln für ihren Einsatz schaffen, desto souveräner können wir mit ihnen arbeiten.
Wichtig ist, dass Unternehmen den Rahmen selbst setzen: Welche Daten dürfen verwendet werden, welche Tools sind freigegeben, wer prüft die Ergebnisse? So entsteht ein klarer Prozess, der Effizienzgewinne ermöglicht und gleichzeitig Datenschutz und Rechtssicherheit gewährleistet.