Zum Inhalt springen

Strategie · 10. November 2024 · Aktualisiert 24. April 2026

ChatGPT im Unternehmen: 6 Fehler, die Sie vermeiden sollten

Die häufigsten Fehler beim ChatGPT-Einsatz im Schweizer KMU - von fehlenden Richtlinien bis zur DSG-Pflichtverletzung. Mit konkreten Lösungsschritten.

Autor

Reto Lutz

Geschäftsführer ai-edu

Stand: April 2026. Die Modell-Landschaft ist seit Launch dieses Beitrags weitergezogen (GPT-5.x mit Reasoning-Modi, Claude 4.x mit Extended Thinking). Die sechs Implementierungs-Fehler bleiben über Modell-Generationen hinweg dieselben - die Logik der Lösungen auch.

Viele Schweizer KMU stürzen sich in die KI-Nutzung, ohne eine klare Strategie zu haben. Aus der Beratung sehe ich sechs Fehler immer wieder. Jeder einzelne kostet Zeit, Geld oder im schlimmsten Fall Compliance-Aufmerksamkeit.

Fehler 1: Keine klaren Richtlinien

Das Problem: Mitarbeitende nutzen ChatGPT ohne Vorgaben - private Konten, vermischte Daten, keine dokumentierten Verantwortlichkeiten. Bei einer Datenschutz-Prüfung steht das Unternehmen ohne nachvollziehbare Praxis da.

Die Lösung: Ein internes Tool-Reglement (5-7 Seiten) mit klaren Antworten auf:

  • Welche Tools sind erlaubt? Welche verboten?
  • Welche Datenarten dürfen in welche Tools fliessen?
  • Wer entscheidet über neue Tool-Freigaben?
  • Wie wird der Einsatz dokumentiert?

Eine Vorlage mit den fünf Pflicht-Sektionen findet sich im DSG-Leitfaden für Schweizer KMU.

Fehler 2: Outputs nicht prüfen

Das Problem: KI-generierte Texte, Übersetzungen oder Analysen werden ungeprüft übernommen. Halluzinierte Zahlen, falsche Zitate oder unpassende Tonalität gehen direkt zum Kunden.

Die Lösung: Vier-Augen-Prinzip vor jedem externen Versand. Faktencheck mit nachprüfbaren Quellen. Bei rechtlich oder finanziell relevanten Texten zwingend menschliche Endkontrolle - die Verantwortung bleibt beim Unternehmen. Reasoning-Modelle (GPT-5 mit Thinking-Modus, Claude 4.x mit Extended Thinking) reduzieren zwar triviale Halluzinationen, ersetzen aber kein menschliches Review bei sensitiven Inhalten.

Fehler 3: Zu vage Prompts

Das Problem: “Schreib mir eine E-Mail” führt zu generischen Ergebnissen, die mehr Nacharbeit verlangen als ein eigener Entwurf.

Die Lösung: Strukturierter Prompt mit Kontext, Zielgruppe, Tonalität und gewünschter Länge.

Schlecht:

Schreib eine E-Mail an einen Kunden.

Gut:

Schreibe eine professionelle, freundliche E-Mail an unseren langjährigen
Kunden Herr Müller. Er hat nach dem Status seiner Bestellung #12345
gefragt, die sich um 3 Tage verzögert. Entschuldige dich, biete 10 %
Rabatt auf die nächste Bestellung an. Max. 150 Wörter, Schweizer
Hochdeutsch (ss statt Eszett), Anrede mit "Sie".

Acht weitere kopierbare Vorlagen finden sich in den Prompt-Templates.

Fehler 4: Fehlende Schulung

Das Problem: Nur IT-affine Mitarbeitende nutzen KI effektiv. Der Rest bleibt zurück, was zu Schatten-IT führt (private Konten, ungeregelte Datenflüsse).

Die Lösung: Schulung pro Abteilung mit konkreten Use-Cases - HR, Finanzen, Vertrieb, Marketing brauchen unterschiedliche Beispiele. Faustregel: 2-3 Stunden pro Mitarbeiter pro neu eingeführtem Tool, plus eine interne Anlaufstelle für die ersten Wochen.

Fehler 5: Keine Erfolgsmessung

Das Problem: Sie wissen nicht, ob sich der KI-Einsatz lohnt - die Diskussion mit dem CFO endet im Gefühlsbild.

Die Lösung: Drei einfach messbare KPIs ab Tag 1:

  • Zeitersparnis pro typische Aufgabe (Stichprobe mit/ohne KI über 2 Wochen).
  • Qualitäts-Indikator (Reklamationen, Korrekturschleifen, NPS in betroffenen Bereichen).
  • Akzeptanz (wie viele Mitarbeitende nutzen das Tool wöchentlich aktiv?).

Ohne Messung versinkt der Tool-Einsatz in der allgemeinen Produktivitäts-Diskussion - mit Messung wird er argumentierbar.

Fehler 6: DSG-Pflichten ignorieren

Das Problem: Personendaten landen im Free- oder Plus-Tarif von ChatGPT, wo sie standardmässig zum Training verwendet werden. Bei Bewerbungs-Vorsortierung fehlt die Möglichkeit zur menschlichen Überprüfung. Eine Datenschutzerklärung, die den KI-Einsatz beschreibt, existiert nicht.

Die Lösung: Vier konkrete Schritte zur Compliance-Basis:

  1. Tarif-Audit. Personendaten gehören in Team-/Enterprise-Tarife mit ausgeschaltetem Trainings-Use - nicht in Free oder Plus.
  2. Auftragsdatenverarbeitung regeln. DPA mit dem Anbieter unterzeichnen (Art. 9 DSG).
  3. Transparenzpflicht erfüllen. Bewerber, Kunden und Mitarbeitende müssen über den KI-Einsatz informiert sein (Art. 19 DSG).
  4. Schulungs-Dokumentation aufbauen. Bei einer Prüfung durch den EDÖB ist nachvollziehbare Schulungs-Praxis ein wichtiger Bestandteil der “angemessenen Massnahmen” nach Art. 8 DSG.

Vertieft im DSG-Leitfaden - inklusive Tool-Matrix mit DSG-Status und 5-Punkte-Reglement.

Was als Nächstes ansteht

KI ist ein Werkzeug - und wie jedes Werkzeug braucht es Training, Regeln und Erfolgsmessung. Die sechs oben beschriebenen Fehler sind in 4-6 Wochen behebbar, wenn IT, HR und Geschäftsleitung gemeinsam an den Tisch kommen.

In meinen Schulungen gehe ich diese sechs Punkte mit Ihrem Team durch - inklusive Reglement-Entwurf, Compliance-Check und Mitarbeiter-Workshops.


Weiterführend auf ai-edu.ch:

Quellen: