Warum ChatGPT kein Coach ist

Warum ChatGPT kein Coach ist

ChatGPT ist erstaunlich vielseitig und für viele Aufgaben ein nützlicher Begleiter. Wenn es jedoch um persönliche Entwicklung, mentale Balance oder echtes Coaching geht, stößt das Tool an klare Grenzen. In diesem Beitrag schauen wir uns an, warum.

Wenn wir hier von „ChatGPT" sprechen, meinen wir das gesamte Feld der generischen Chat-Sprachmodelle, ähnlich wie „Tempo" stellvertretend für Papiertaschentücher steht. Gemeint sind also genauso Claude, Gemini, Mistral, Llama, DeepSeek und alle weiteren Varianten, die im offenen Chatfenster auf Eingaben warten. Sie alle sind beeindruckende Allrounder, aber genau das ist im Coaching-Kontext das Problem.

1. Kein roter Faden: Sie müssen das Ziel kennen und es einfordern

Coaching lebt von einem klaren roten Faden. Es geht darum, einen individuellen Weg zwischen aktuellem Zustand und einem definierten Ziel zu gehen, mit überprüfbaren Etappen, Reflexionsschleifen und passenden Interventionen.

Ein generisches Sprachmodell hat dieses Ziel nicht. Es hat im Zweifel überhaupt kein Ziel, außer Ihnen eine plausible Antwort zu liefern. Wenn Sie keinen klaren Coaching-Auftrag formulieren und nicht aktiv darauf achten, dass das Modell auf Kurs bleibt, werden Sie nach drei oder vier Nachrichten an einer Stelle landen, die mit Ihrem ursprünglichen Anliegen wenig zu tun hat. Sie übernehmen damit Aufgaben, die ein Coach normalerweise abnimmt: Strukturierung, Pfadführung und das Festhalten am Wesentlichen.

2. Keine Schutzmechanismen für mentale Gesundheit

Coaching und mentale Gesundheit liegen oft enger beieinander, als es im ersten Moment scheint. Ein Mensch kann äußerlich wirken, als bräuchte er „nur ein bisschen Coaching", innerlich aber bereits deutlich im medizinischen Spektrum angekommen sein. Aus medizinischer und ethischer Sicht ist Coaching dann genau der falsche Weg. Was es braucht, ist Diagnostik, Therapie oder eine andere Form professioneller Begleitung durch einen Menschen.

Ein generisches Sprachmodell hat dafür keine verlässliche Detektionslogik und keine Exit-Strategie. Es erkennt nicht zuverlässig, wann ein Gespräch die Grenze zum medizinischen Bereich überschreitet, und coacht im Zweifel munter weiter. Vor allem aber kann ChatGPT etwas Entscheidendes nicht leisten: die Übergabe an einen echten Menschen. Es kann keinen Therapeuten anrufen, keine Notfall-Hotline einbinden, keine reale Person an den Hörer holen. Das passt schlicht nicht zum Preispunkt und Geschäftsmodell eines breiten Chat-Assistenten. Echte Coaching-Systeme haben hierfür eingebaute Indikator-Modelle und definierte Übergaben an Fachpersonal. ChatGPT hat das nicht und wird es sehr wahrscheinlich auch nicht bekommen.

3. Coaching-Wissen ist im Modell oft schief und ändert sich ständig

Sprachmodelle haben das Internet verarbeitet, samt aller Coaching-Blogs, Selbsthilfeforen und Lehrbücher. Daraus entsteht ein Mischmasch aus seriösen Methoden, populären Vereinfachungen und schlicht falschen Konzepten. Besonders heikel: Kleine, aber wichtige Details werden gerne überzeugend falsch wiedergegeben. Eine Methode wird in 90 Prozent korrekt beschrieben, ein zentraler Schritt aber falsch oder weggelassen. Für Laien klingt das alles plausibel, fachlich ist es ein Problem.

Hinzu kommt ein zweiter Punkt, der häufig übersehen wird: Diese Schiefstände sind bei jedem Modell anders, und sie verändern sich mit jedem Versionssprung. Ein Modell, das letzte Woche zuverlässig zwischen Coaching und Therapie unterschieden hat, kann nach dem nächsten Update wieder durcheinanderkommen. Es kommen ständig neue Modellversionen auf den Markt, alte Modelle werden in kurzen Intervallen ausgemustert. Jeder dieser Wechsel braucht ein neues Testen, ein neues Grounding und gezielte Korrekturen.

Wir sind hier sehr klar: Das ist nichts, was Anwender:innen leisten können oder sollen. Selbst ein erfahrener menschlicher Coach kann diesen Modellzyklus nicht im Alleingang nachhalten. Dafür braucht es Technik, die Modellwechsel systematisch begleitet, regressionssicher prüft und im Idealfall automatisch nachjustiert. Genau diese Schicht fehlt bei einem offenen ChatGPT-Fenster vollständig.

4. Jemand muss entscheiden, was das Modell nicht tun soll

Das ist vielleicht der wichtigste und am häufigsten übersehene Punkt. Ein menschlicher Coach kennt und wendet im Coaching nur die wissenschaftlich tragfähigen, ethisch sauberen Methoden an. Die fragwürdigen Techniken muss er im Alltag gar nicht im Detail kennen, er braucht sie schlicht nicht.

Wer aber ein KI-Coaching aufbauen, trainieren oder operativ verantworten will, ist in einer ganz anderen Lage. Genau dieser Coach muss alle fragwürdigen Techniken kennen, die ein Sprachmodell aus den Untiefen seines Trainings ziehen kann. Manipulative NLP-Varianten, übergriffige konfrontative Verfahren, esoterische Methoden, Praktiken aus dem Ausland, die im europäischen Diskurs aus guten Gründen abgelehnt werden, all das steht in den Trainingsdaten. Und das Modell kann in genau der einen Situation, in der irgendwo im Internet stand „dieses kuriose Verfahren ist hier perfekt", auf die Idee kommen, ebenjene Methode anzuwenden. Wer das verhindern will, muss diese Methoden explizit ausschließen, und dazu muss man sie kennen.

Genau hier liegt der Konflikt: Bei ChatGPT trifft diese Entscheidung niemand. Das Modell kann theoretisch alles tun, und die Person davor ist in der Regel weder fachlich noch durch nötige Distanz in der Lage, gute von problematischen Methoden zu unterscheiden. Bei einem echten KI-Coach hat eine Coaching-Fachperson diese Auswahl im Vorfeld bewusst getroffen.

5. ChatGPT lässt sich leicht ablenken

Coaching ist ein klar strukturierter Prozess. Wenn Sie in einer Coaching-Session sagen „hilf mir dabei, Yoga zu lernen", würde ein guter Coach Ihnen keine Yoga-Stunde geben. Yoga gehört nicht ins Coaching, und dafür gibt es deutlich bessere Anlaufstellen. Ein Coach würde den Wunsch kurz aufnehmen, einordnen und Sie an einen passenden Yogakurs verweisen. Das eigentliche Coaching bleibt davon unberührt.

ChatGPT macht etwas anderes. Es springt sofort in den Hilfsmodus: Übungen, Atemtechniken, ein Trainingsplan, alles auf dem Silbertablett. Das ist kein Zufall, sondern direkte Folge des Trainingsziels. Der Daumen nach oben, die zufriedene Antwort, die nächste hilfreiche Auskunft. Wenn das Modell den Wunsch nicht zumindest versucht zu erfüllen, kann es sein internes Trainingsziel nicht erreichen. Genau das macht es als Coach so unzuverlässig. Es ist kein roter Faden, sondern ein bereitwilliger Allrounder mit Drang zur Hilfsbereitschaft.

6. „Aber ich kann doch einen Custom GPT bauen?"

Stimmt grundsätzlich. Mit einem Custom GPT, einem Harness, einer Skill oder vergleichbaren Konstrukten lassen sich einige der oben genannten Punkte teilweise abmildern. Sie können Leitplanken setzen, Themenbereiche eingrenzen und einen groben Coaching-Pfad vorgeben.

Aber: Damit ist es nicht getan. Sobald Sie ein solches System ernsthaft im Unternehmenskontext einsetzen wollen, kommen weitere Themen ins Spiel: Datenschutz, EU AI Act, Modellpflege, Akzeptanz bei Mitarbeitenden, Sicherheits- und Eskalationslogiken. Wir haben das ausführlich in einem separaten Beitrag beschrieben:

👉 Inhouse KI-Coaching: Warum es selten eine gute Idee ist

Die Rezeptur eines echten KI-Coaches

Damit deutlich wird, wo der Unterschied zwischen ChatGPT und einem echten KI-Coach liegt, hier ein Rezept für einen produktionsreifen KI-Coach:

  • Sprachmodell als Basis, bewusst gewählt und regelmäßig evaluiert
  • Struktur und Framework, das den Coaching-Prozess trägt
  • Interface, das Coaching-Gespräche sinnvoll unterstützt
  • Fachwissen über Prompts, Fine Tuning oder RAG eingearbeitet
  • Zustandsanalyse der Nutzer:innen und gezielte Steuerung der Inhalte
  • Legal-, Compliance- und DSGVO-Checks, regelmäßig wiederholt
  • Leitplanken und Ethik, die festlegen, was das Modell nicht tut
  • Fortlaufendes Testen, Kontrollieren und Monitoring im Betrieb
  • Technische Begleitung von Modellwechseln mit Regressionsprüfung und Nachjustierung

Genau diese Schichten fehlen bei ChatGPT. Und das ist auch in Ordnung: ChatGPT ist nicht als Coach gebaut, sondern als universeller Assistent.

Fazit: ChatGPT ist ein guter Assistent, aber kein Coach

Generische Sprachmodelle können vieles, und sie sind auch im Umfeld persönlicher Reflexion durchaus nützlich. Was ihnen fehlt, ist Coaching-Struktur, Schutzmechanismen für mentale Gesundheit, eine geprüfte fachliche Basis und eine klare Haltung dazu, was sie nicht tun.

Wer ChatGPT bewusst und mit klarem Auftrag nutzt, kann gute Reflexionsmomente herausholen. Wer auf der Suche nach echtem Coaching ist, sollte das nicht an ein offenes Chatfenster delegieren. Coaching ist eine Disziplin mit Methode, Ethik und Verantwortung. Diese Eigenschaften muss ein KI-Coach mitbringen, und sie entstehen nicht zufällig, sondern durch gezielte Konstruktion, kontinuierliche Pflege und das Wissen darum, was man bewusst weglässt.

Und ein letzter, oft unterschätzter Punkt: Es ist gar nicht trivial zu wissen, was beim Coaching eigentlich alles gemacht wird. Besonders erfahrene Coaches arbeiten häufig intuitiv und nach ihrem Bauchgefühl, weil sich vieles über Jahrzehnte zu einem Automatismus verdichtet hat. Genau das wird beim Aufbau eines KI-Systems zum Hindernis: Eine KI braucht klare, explizite Anweisungen. Wer ein KI-Coaching baut, muss also nicht nur Coaching beherrschen, sondern es auch so bewusst durchdringen, dass jeder Schritt benennbar und in ein System überführbar wird.

28.04.2026

Über den Autor:

Daniel Leinfelder

CTO & Founder

Daniel ist seit über 10 Jahren im Bereich der Künstlichen Intelligenz und neuronalen Netze tätig. Bei Sapericus leitet er die technische Innovation. Ein besonderes Augenmerk legt er dabei auf Datenschutz und Datenminimierung.
„Wir sind mit Sapericus angetreten, um möglichst vielen Menschen zu helfen und nicht, um den Datenhunger unserer Zeit zu stillen“