Strategie · 10. November 2024 · Aktualisiert 24. April 2026
ChatGPT im Unternehmen: 6 Fehler, die Sie vermeiden sollten
Die häufigsten Fehler beim ChatGPT-Einsatz im Schweizer KMU - von fehlenden Richtlinien bis zur DSG-Pflichtverletzung. Mit konkreten Lösungsschritten.
Autor
Reto Lutz
Geschäftsführer ai-edu
Stand: April 2026. Die Modell-Landschaft ist seit Launch dieses Beitrags weitergezogen (GPT-5.x mit Reasoning-Modi, Claude 4.x mit Extended Thinking). Die sechs Implementierungs-Fehler bleiben über Modell-Generationen hinweg dieselben - die Logik der Lösungen auch.
Viele Schweizer KMU stürzen sich in die KI-Nutzung, ohne eine klare Strategie zu haben. Aus der Beratung sehe ich sechs Fehler immer wieder. Jeder einzelne kostet Zeit, Geld oder im schlimmsten Fall Compliance-Aufmerksamkeit.
Fehler 1: Keine klaren Richtlinien
Das Problem: Mitarbeitende nutzen ChatGPT ohne Vorgaben - private Konten, vermischte Daten, keine dokumentierten Verantwortlichkeiten. Bei einer Datenschutz-Prüfung steht das Unternehmen ohne nachvollziehbare Praxis da.
Die Lösung: Ein internes Tool-Reglement (5-7 Seiten) mit klaren Antworten auf:
- Welche Tools sind erlaubt? Welche verboten?
- Welche Datenarten dürfen in welche Tools fliessen?
- Wer entscheidet über neue Tool-Freigaben?
- Wie wird der Einsatz dokumentiert?
Eine Vorlage mit den fünf Pflicht-Sektionen findet sich im DSG-Leitfaden für Schweizer KMU.
Fehler 2: Outputs nicht prüfen
Das Problem: KI-generierte Texte, Übersetzungen oder Analysen werden ungeprüft übernommen. Halluzinierte Zahlen, falsche Zitate oder unpassende Tonalität gehen direkt zum Kunden.
Die Lösung: Vier-Augen-Prinzip vor jedem externen Versand. Faktencheck mit nachprüfbaren Quellen. Bei rechtlich oder finanziell relevanten Texten zwingend menschliche Endkontrolle - die Verantwortung bleibt beim Unternehmen. Reasoning-Modelle (GPT-5 mit Thinking-Modus, Claude 4.x mit Extended Thinking) reduzieren zwar triviale Halluzinationen, ersetzen aber kein menschliches Review bei sensitiven Inhalten.
Fehler 3: Zu vage Prompts
Das Problem: “Schreib mir eine E-Mail” führt zu generischen Ergebnissen, die mehr Nacharbeit verlangen als ein eigener Entwurf.
Die Lösung: Strukturierter Prompt mit Kontext, Zielgruppe, Tonalität und gewünschter Länge.
Schlecht:
Schreib eine E-Mail an einen Kunden.
Gut:
Schreibe eine professionelle, freundliche E-Mail an unseren langjährigen
Kunden Herr Müller. Er hat nach dem Status seiner Bestellung #12345
gefragt, die sich um 3 Tage verzögert. Entschuldige dich, biete 10 %
Rabatt auf die nächste Bestellung an. Max. 150 Wörter, Schweizer
Hochdeutsch (ss statt Eszett), Anrede mit "Sie".
Acht weitere kopierbare Vorlagen finden sich in den Prompt-Templates.
Fehler 4: Fehlende Schulung
Das Problem: Nur IT-affine Mitarbeitende nutzen KI effektiv. Der Rest bleibt zurück, was zu Schatten-IT führt (private Konten, ungeregelte Datenflüsse).
Die Lösung: Schulung pro Abteilung mit konkreten Use-Cases - HR, Finanzen, Vertrieb, Marketing brauchen unterschiedliche Beispiele. Faustregel: 2-3 Stunden pro Mitarbeiter pro neu eingeführtem Tool, plus eine interne Anlaufstelle für die ersten Wochen.
Fehler 5: Keine Erfolgsmessung
Das Problem: Sie wissen nicht, ob sich der KI-Einsatz lohnt - die Diskussion mit dem CFO endet im Gefühlsbild.
Die Lösung: Drei einfach messbare KPIs ab Tag 1:
- Zeitersparnis pro typische Aufgabe (Stichprobe mit/ohne KI über 2 Wochen).
- Qualitäts-Indikator (Reklamationen, Korrekturschleifen, NPS in betroffenen Bereichen).
- Akzeptanz (wie viele Mitarbeitende nutzen das Tool wöchentlich aktiv?).
Ohne Messung versinkt der Tool-Einsatz in der allgemeinen Produktivitäts-Diskussion - mit Messung wird er argumentierbar.
Fehler 6: DSG-Pflichten ignorieren
Das Problem: Personendaten landen im Free- oder Plus-Tarif von ChatGPT, wo sie standardmässig zum Training verwendet werden. Bei Bewerbungs-Vorsortierung fehlt die Möglichkeit zur menschlichen Überprüfung. Eine Datenschutzerklärung, die den KI-Einsatz beschreibt, existiert nicht.
Die Lösung: Vier konkrete Schritte zur Compliance-Basis:
- Tarif-Audit. Personendaten gehören in Team-/Enterprise-Tarife mit ausgeschaltetem Trainings-Use - nicht in Free oder Plus.
- Auftragsdatenverarbeitung regeln. DPA mit dem Anbieter unterzeichnen (Art. 9 DSG).
- Transparenzpflicht erfüllen. Bewerber, Kunden und Mitarbeitende müssen über den KI-Einsatz informiert sein (Art. 19 DSG).
- Schulungs-Dokumentation aufbauen. Bei einer Prüfung durch den EDÖB ist nachvollziehbare Schulungs-Praxis ein wichtiger Bestandteil der “angemessenen Massnahmen” nach Art. 8 DSG.
Vertieft im DSG-Leitfaden - inklusive Tool-Matrix mit DSG-Status und 5-Punkte-Reglement.
Was als Nächstes ansteht
KI ist ein Werkzeug - und wie jedes Werkzeug braucht es Training, Regeln und Erfolgsmessung. Die sechs oben beschriebenen Fehler sind in 4-6 Wochen behebbar, wenn IT, HR und Geschäftsleitung gemeinsam an den Tisch kommen.
In meinen Schulungen gehe ich diese sechs Punkte mit Ihrem Team durch - inklusive Reglement-Entwurf, Compliance-Check und Mitarbeiter-Workshops.
Weiterführend auf ai-edu.ch:
- DSG und KI im Schweizer KMU - der praktische Leitfaden
- Prompt-Templates: 8 Vorlagen für den Alltag
- Prompt-Engineering-Grundlagen
- Chatbot-Strategien für KMU
Quellen:
- Bundesgesetz über den Datenschutz (DSG) - offizieller Gesetzestext
- EDÖB - Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter
- OpenAI Enterprise Privacy - Trainings-Use- und DPA-Hinweise
Schlagworte