Programme wie ChatGPT sind längst im Hotelalltag angekommen – oft stillschweigend von der Leitung geduldet, ohne klare Regeln oder Handlungsempfehlungen.
Datenschutzkonformität bei KI-Systemen
Es geht nicht darum, KI schlechtzureden oder Tools zu verbieten, die das Unternehmen wirklich weiterbringen können. Wichtig ist, Programme gezielt auszuwählen – und dort, wo möglich, unternehmensseitig Datenschutz-Grundeinstellungen vorzunehmen.
Ich bin immer wieder überrascht, wie wenige bei OpenAI der Datennutzung widersprechen oder das „Data Processing Addendum“ einholen – obwohl es dafür klare Möglichkeiten gibt.
Für größere Betriebe sind eigene firmeninterne KI-Lösungen natürlich die sicherste Variante.
Regeln definieren
Grundsätzlich sollte jedes Unternehmen klare Grundregeln für den Umgang mit KI festlegen:
- Mit welcher E-Mail-Adresse darf man sich – auch bei Gratis-Versionen – registrieren?
- Gibt es ein Verzeichnis, in dem dokumentiert ist, welche Mitarbeiter:in mit welcher E-Mail in welchem Programm registriert ist? Besonders wichtig bei kostenpflichtigen Tools, wenn jemand das Unternehmen verlässt.
- Welche Daten dürfen hochgeladen werden? Und was darf mit diesen Daten gemacht werden?
- Wie sehen die Verantwortlichkeiten aus?
Alltagstipps für ChatGPT
- ChatGPT bietet einen „temporären Chat“ (rechts oben neben dem Profilbild). Wenn man diesen nutzt, wird der Verlauf nicht gespeichert. Die Daten bleiben zwar 30 Tage im System, sind aber nach Beenden des Chats nicht mehr zugänglich.
- Wenn mehrere Personen denselben Account nutzen, können sie auch die Chatverläufe der anderen einsehen.
- ChatGPT speichert Erinnerungen, um die Unterstützung zu verbessern. Diese sollten regelmäßig durchgesehen und gelöscht werden (unter Einstellungen > Personalisierung).
- Das Training mit eigenen Daten lässt sich deaktivieren: Einstellungen > Datenkontrolle > „Das Modell für alle verbessern“ ausschalten.
- Keine sensiblen oder personenbezogenen Dokumente hochladen – auch nicht „nur mal schnell zum Ausprobieren“.
Fazit: Schulung statt Verbot
Verbote bringen wenig. Sinnvoller ist es, Mitarbeitende zu schulen und zu sensibilisieren: Was darf eingegeben werden? Welche Inhalte sind kritisch? Welche Tools sind erlaubt? Wenn alle verstehen, worum es geht, wird KI verantwortungsvoll genutzt – und Risiken lassen sich spürbar reduzieren.