Deutsch

Open Circle AG – Zürich
Freilagerstrasse 32
8047 Zürich

Open Circle AG – Bern
Lagerhausweg 30
3018 Bern

Zurück

So hilfreich und zeitsparend KI-Tools wie ChatGPT, Copilot oder DeepL für den Unternehmensalltag sind, so wenig wird über die Risiken gesprochen. Wenn ein Mitarbeiter eine Datentabelle hochlädt, wo landen diese Informationen dann? Und machen sich Unternehmen damit im schlimmsten Fall sogar strafbar?

Wir beleuchten die fünf grössten Risikofelder beim Einsatz von KI-Tools und zeigen, welche Massnahmen nötig sind, damit Effizienz nicht auf Kosten von Vertraulichkeit, Datenschutz, Korrektheit und Rechtssicherheit geht.

Das Wichtigste in Kürze

  • KI-Tools können die Effizienz steigern und Zeit einsparen, bringen aber Risiken für Datenschutz, Urheberrecht, Transparenz und Haftung mit sich.
  • Besonders kritisch sind personenbezogene Daten, vertrauliche Dokumente und Geschäftsgeheimnisse.
  • Rechtliche Probleme entstehen nicht nur durch Verstösse gegen Datenschutzgesetzte, sondern auch durch Urheberrechtsverletzungen und falsche Inhalte, die Entscheidungen beeinflussen können.
  • Ein bewusster, rechtskonformer Umgang mit KI-Tools erfordert klare Richtlinien und Vorgaben, geprüfte Tools, Schulungen und verbindliche Kontrollprozesse.

Risiko 1: Fehlende Informationssicherheit

KI-Tools funktionieren nur, wenn sie mit Daten gefüttert werden. Genau hier liegt auch das grösste Risiko: Alles, was eingegeben wird, verlässt das Unternehmen und landet auf Servern externer Anbieter. Ob diese Daten gespeichert, weitergegeben oder sogar zum Training der Modelle genutzt werden, ist oft unklar. Besonders problematisch wird es, wenn interne Dokumente mit vertraulichen Informationen oder personenbezogene Daten verarbeitet werden. Hier drohen sogar Verstösse gegen die Datenschutzgesetze.

Praxisbeispiel:
Eine Mitarbeitende lädt eine Excel-Liste mit Kundendaten in ChatGPT hoch, um daraus eine schnelle Zusammenfassung zu erstellen. Damit liegen sensible Informationen auf US-Servern – ohne Einwilligung der Betroffenen. Die Folge: klarer Datenschutzverstoss sowie mögliche Geldstrafe im sechsstelligen Bereich.

Das Risiko geht jedoch über den Datenschutz hinaus. Auch Geschäftsgeheimnisse wie Preiskalkulationen, Projektpläne oder Marktanalysen können ungewollt offengelegt werden. In der Hand von Dritten sind diese Daten ein strategischer Nachteil für jedes Unternehmen.

Sensible und vertrauliche Informationen gelangen schnell in ChatGTP

Risiko 2: Mögliche Urheberrechtsverletzungen

KI-generierte Inhalte sind nicht automatisch frei verwendbar. In vielen Fällen bleibt unklar, ob Teile aus bestehenden Werken übernommen wurden. Manche Anbieter sichern sich sogar Rechte an den Inhalten übersetzter Texte.

Praxisbeispiel:
Ein Unternehmen lässt einen englischen Fachartikel mit einem kostenlosen Übersetzungstool übersetzen und veröffentlicht den Text als Whitepaper. Später wird bekannt, dass der Dienst die Übersetzungen aus der Gratis-Version speichern und für Trainingszwecke verwenden darf. Das Unternehmen hat damit die Kontrolle über seine Inhalte verloren und öffnet die Tür für rechtliche Auseinandersetzungen.

Risiko 3: KI-Halluzinationen

Der Begriff „KI-Halluzination“ klingt harmlos, beschreibt aber ein ernstes Problem: Sprachmodelle sind darauf trainiert, überzeugende Texte zu formulieren – auch dann, wenn die Fakten nicht ganz stimmen. Sie „erfinden“ Informationen, präsentieren sie aber so, als wären sie belastbar.

Praxisbeispiel:
Eine Mitarbeiterin lässt ChatGPT eine Marktanalyse erstellen. Das Ergebnis enthält Zahlen, Diagramme und Quellenangaben. Bei einer Überprüfung zeigt sich jedoch, dass mehrere dieser Quellen frei erfunden oder falsch interpretiert wurden. Wenn eine solche Analyse ungeprüft in die Geschäftsleitungssitzung gelangt, treffen Entscheidungsträger ihre Beschlüsse auf falscher Grundlage. Das kann sowohl finanzielle Verluste als auch strategische Fehlentwicklungen nach sich ziehen.

Auch Übersetzungstools liefern nicht immer verlässliche Ergebnisse. Juristische Fachbegriffe, Ironie oder sprachliche Nuancen werden schnell verfälscht. Im schlimmsten Fall verändert sich durch eine fehlerhafte Übersetzung die Bedeutung einer Vertragsklausel. Die Folge können rechtliche Auseinandersetzungen sein, die vermeidbar gewesen wären.

Falsche Informationen von ChatGTP können zu unternehmerischen Fehlentscheidungen führen

Risiko 4: Mangelnde Transparenz

Viele KI-Tools sind Black Boxes. Sie liefern Ergebnisse, ohne offenzulegen, wie diese entstanden sind. Entscheidungen werden also auf Basis von Informationen getroffen, deren Herkunft und Gewichtung nicht überprüfbar sind.

Praxisbeispiel:
Eine Rechtsabteilung lässt Vertragsklauseln von einer KI zusammenfassen. Der Text wirkt plausibel, doch warum bestimmte Aspekte betont und andere ausgelassen wurden, bleibt unklar. Sollte es später zu einem Rechtsstreit kommen, lässt sich nicht nachvollziehen, wie die Zusammenfassung zustande kam (und damit auch nicht rechtfertigen, warum auf ihrer Grundlage Entscheidungen getroffen wurden).

Risiko 5: Haftung

Auch wenn eine KI den Fehler verursacht hat, haftet am Ende das Unternehmen. OpenAI und Co. machen das deutlich: In den Nutzungsbedingungen steht, dass die Tools Fehler enthalten können und Ergebnisse immer von Menschen überprüft werden müssen. Damit nehmen sie sich aus der Verantwortung.

Praxisbeispiel:
Ein Entwickler integriert von Copilot vorgeschlagenen Code in ein Produkt. Später stellt sich heraus, dass der Code eine Sicherheitslücke enthält, die von Hackern ausgenutzt wird. Der finanzielle Schaden geht in die Millionen, hinzu kommen mögliche Schadensersatzforderungen von Kunden. Die Verantwortung bleibt vollständig beim Unternehmen.

Am Ende haftet das Unternehmen für Fehler

Wie Unternehmen Risiken systematisch reduzieren

1. Klare Richtlinien einführen

Definieren Sie verbindlich, welche KI-Tools erlaubt sind und welche Informationen verarbeitet werden dürfen. Erstellen Sie ein internes Regelwerk, das an die Sensibilität von Informationen geknüpft ist. Die Klassifizierung von Information (z.B. öffentlich, intern, vertraulich, streng vertraulich) ist immer eine gute Grundlage für die Richtlinien.

2. Tools bewusst auswählen

Vergleichen Sie Anbieter, prüfen Sie die Vertragsbedingungen und entscheiden Sie sich bewusst. Nicht jeder kostenlose Dienst ist auch sicher. Oft „bezahlt“ man bei kostenlosen Diensten mit Daten. Achten Sie auf folgende Punkte:

  • Datenstandort (EU vs. Drittstaaten)
  • Nutzung für Training oder Speicherung
  • Urheberrechtsklauseln

3. Bezahlversionen nutzen

Kostenlose Tools sind praktisch, aber oft nicht für sensible Unternehmensdaten geeignet. Die Abo-Versionen bieten meist klare Datenschutz- und Löschregeln. Beispiel DeepL Pro: Texte werden nach Übersetzung sofort gelöscht, keine Weiterverwendung.

4. Mitarbeitende schulen

Ohne Awareness bringt jede Richtlinie wenig. Ihr Team muss verstehen, warum bestimmte Informationen tabu sind und unter keinen Umständen das Unternehmen unkontrolliert verlassen dürfen. Schulungen, kurze Guidelines oder interne Q&As helfen, die Regeln im Alltag zu verankern.

5. Ergebnisse prüfen lassen

Egal was die KI erstellt, den finalen Check sollten immer Menschen übernehmen, die das Ergebnis auch beurteilen können. KI sollte menschliche Intelligenz und Kompetenz nicht ersetzen. Legen Sie klare Kontrollschritte fest, bevor Inhalte veröffentlicht, an Kunden gegeben oder anderweitig verwendet werden.

So könnte ein Praxis-Setup aussehen

  • Erlaubte Tools: ChatGPT Enterprise, DeepL Pro, GitHub Copilot (je nach Abteilung).
  • Daten-Policy: Keine personenbezogenen Daten, keine „vertraulich“ klassifizierten Informationen.
  • Prozesse: KI-Ausgaben müssen durch Fachabteilungen geprüft werden.
  • Dokumentation: Nutzung wird dokumentiert (z. B. Projektname, Tool, Zweck). Hinweis bei Quellcodeabschnitten, die mit KI erstellt wurden.
  • Schulung: Jährliche Refresh-Workshops + Onboarding-Modul für neue Mitarbeitende.

Damit stellen Sie sicher, dass KI weiterhin als Produktivitäts-Booster funktioniert und nicht zum Sicherheitsrisiko wird.

Fazit: KI clever nutzen statt blind vertrauen

KI-Tools sind gekommen, um zu bleiben. Je eher wir uns also mit den Risiken auseinandersetzen und verbindliche Regeln für ihren Einsatz schaffen, desto souveräner können wir mit ihnen arbeiten.

Wichtig ist, dass Unternehmen den Rahmen selbst setzen: Welche Daten dürfen verwendet werden, welche Tools sind freigegeben, wer prüft die Ergebnisse? So entsteht ein klarer Prozess, der Effizienzgewinne ermöglicht und gleichzeitig Datenschutz und Rechtssicherheit gewährleistet.

Beraten lassen