Beruf Coach

Schöne neue Coaching-Welt 2034

Blended-Coaching im Zeitalter von KI – Zwischen Möglichkeitsraum und Dystopie

Die Fortschritte im Bereich der künstlichen Intelligenz werden auch im Coaching ihre Spuren hinterlassen. Was kann das konkret bedeuten, wo liegen potenzielle Gefahren und wie wird sich die Rolle menschlicher Coaches dadurch verändern? Wie könnte ein Szenario aussehen, in dem die Stärken der Technik und der menschlichen Coaches zum Wohle der Gecoachten als komplementäre Kräfte integriert sind?

16 Min.

Eine Hand greift auf digitale oder neuronale Netze und verfelchtungen zu.

Vielleicht beruht ein beglückender und spannender Zug des Lebens gerade auf der Tatsache, dass wir uns an allererster Stelle selbst steuern und dass unser Verhalten grundsätzlich von anderen Personen oder der Umwelt wohl beeinflusst, aber nicht bestimmt werden kann.“  (EKA, 2020, S. 25)

In der Zukunft – sagen wir im Jahr 2034 – steht das Coaching vor einem dramatischen Wandel: Künstliche Intelligenz (KI) wird nicht mehr nur als Assistenzsystem genutzt, sondern als autonomer Akteur von digitalen Coaching-Plattformen zur Verfügung gestellt und vermarktet. Jenseits dieser Volltechnisierung wird es aber als Folge der Rückbesinnung auf das Analoge und einer zunehmenden Sehnsucht nach erlebter menschlicher Resonanz in einer zunehmend digitalisierten Welt (Sax, 2017) auch weiter Coaching als Format in der Begegnung von Mensch zu Mensch geben. Allerdings hat die Integration von KI auch im „zwischenmenschlichen“ Coaching-Prozess Einzug gehalten und nicht nur die Art und Weise wie Coaches arbeiten, sondern auch die grundlegenden Dynamiken zwischen Coach und Klient verändert. Während auf der einen Seite KI-Coaching-Tools eine heute noch kaum vorstellbare Möglichkeit bieten, Coaching datengetrieben hochgradig personalisiert anzubieten, öffnen sich auf der anderen Seite düstere Perspektiven, in denen Coach und Klient zunehmend entmündigt und kontrolliert werden.

Auf einen Blick

Symbol einer Lupe
  • Im Zeitalter künstlicher Intelligenz (KI) werden Coaches und KI-Anwendungen zu Bestandteilen eines dynamischen Systems der Selbstreflexion, das technologische Möglichkeiten der KI und menschliche Weisheit integriert.
  • Coaches müssen ihre Rolle in diesem System stets kritisch reflektieren – z.B. hinsichtlich der Frage, wie die KI ihre Wahrnehmung vom Klienten und ihr Arbeiten beeinflusst.
  • Die Anwendung von KI im Coaching bedarf verbindlicher Regeln, die ethischen Anforderungen gerecht werden.

Im Jahr 2034 hat sich die Rolle des Coachs grundlegend verändert: Während der menschliche Coach weiterhin als Begleiter im persönlichen Entwicklungsprozess fungiert, hat sich seine Tätigkeit zunehmend hin zu einem Blended-Coaching-Modell entwickelt, in dem KI-basierte Tools eine zentrale Rolle spielen. Diese Tools analysieren umfangreiche Daten, identifizieren Verhaltensmuster und bieten personalisierte Empfehlungen – stets abgestimmt auf die individuellen Ziele des Klienten. Die verbliebenen, noch nicht durch Coaching-Bots ersetzten Coaches agieren als „Mensch-Maschine-Integratoren“, die KI als Unterstützung verwenden, jedoch weiterhin die zwischenmenschliche Beziehung als Kern ihrer Arbeit betrachten.

Wo früher persönliche Treffen und präsenter menschlicher Kontakt im Vordergrund standen, gibt es 2034 neben rein maschinellen, plattformgesteuerten Angeboten hochentwickelter Coaching-Bots fast nur noch hybride Formate, die die nur noch vereinzelt stattfindenden Face-to-Face-Sitzungen mit virtuellen und KI-gestützten Sessions kombinieren. Klienten erhalten über Apps und Plattformen kontinuierliche Rückmeldungen von KI-Systemen und können so auch zwischen den Sitzungen – egal ob mit Bot oder menschlichem Coach – Fortschritte erzielen.

(Wie) Kann es gelingen, dass der Coach, der in seiner Rolle oft in Sekundenschnelle hochkomplexe Entscheidungen bezüglich Einschätzungen, Inhalten, Interventionen und Methoden treffen und gleichzeitig den Coaching-Prozess als solchen steuern muss, mit der Maschine quasi „verschmilzt“, eine Einheit mit ihr bildet, sich also gleichzeitig präsent in der menschlichen Realität und im Cyberspace bewegt? Ist ein solches „Verschmelzen“ im Blended-Coaching mit einer humanistischen Perspektive und unter berufsethischen Gesichtspunkten überhaupt erstrebenswert?

Ein positiver Blick in die Zukunft zeigt Coaches, die durch KI-Unterstützung mehr Zeit und Raum für den emotionalen und psychologischen Aspekt des Coachings gewinnen. Sie können sich stärker auf Empathie, Vertrauen und den Aufbau einer tiefen resonanten Beziehung zu ihren Klienten konzentrieren und einlassen, während die KI „Routineaufgaben“ übernimmt, Analysen und Interventionsempfehlungen bereitstellt.

Die KI-Tools erfassen und analysieren den emotionalen Zustand, das Engagement und die Fortschritte des Klienten in Echtzeit, während sie gleichzeitig auf eine riesige Datenbank von sogenannten „Best-Practice-Modellen“ zurückgreifen. Dabei kombinieren sie Methoden kognitiver Verhaltenstherapie, psychologische Modelle und Big Data, um personalisierte Interventionen vorzuschlagen.

Ein markantes Tool analysiert z.B. anhand von Mimik, Gestik und Sprachmustern den emotionalen Zustand eines Klienten und liefert dem Coach in realtime entsprechende Hinweise. Gleichzeitig gibt es Tools, die auf Grundlage von Persönlichkeitstests und Verhaltensanalysen personalisierte Lern- und Entwicklungspläne erstellen, die ebenfalls in Echtzeit angepasst werden können.

Aus kulturpessimistischer Perspektive betrachtet, wird die verstärkte Abhängigkeit von KI-Coaching-Tools zu menschlicher Entfremdung führen. Coaches und Klienten werden sich zunehmend auf Algorithmen verlassen und den menschlichen Kontakt vernachlässigen. Dies führt potenziell zu einer Abhängigkeit von technologischen Systemen, bei der der Coach nur noch als „technischer Betreuer“ der KI fungiert. Der Verlust der zwischenmenschlichen Beziehung und der zunehmende Fokus auf technische Lösungen entmenschlicht den Coaching-Prozess und drängt den Klienten in eine passive Rolle, in der er lediglich die „Empfehlungen der Maschine“ befolgt.

Ein dystopisches Szenario

Schlimmer noch. In einem dystopischen Zukunftsszenario könnte KI-gestütztes Coaching zu einem Instrument der sozialen Kontrolle werden. In einer Welt, in der Daten alles regieren, könnte der Einsatz von KI-Coaching-Tools nicht mehr ausschließlich der persönlichen Entwicklung des Klienten dienen, sondern von Dritten eingesetzt werden, um Verhaltensweisen zu überwachen und zu steuern. Algorithmen könnten auf Basis von Daten Empfehlungen geben, die nicht im besten Interesse des Klienten S. 61f, sondern der überwachenden Institutionen liegen („Wer die Vergangenheit kontrolliert, kontrolliert die Zukunft – wer die Gegenwart kontrolliert, kontrolliert die Vergangenheit.“ (Orwell, 2021, S. 49)).

Ein solches Szenario würde die grundlegenden Prinzipien der Coaching-Profession – die Förderung von Autonomie und persönlicher Entwicklung – in Frage stellen. Es stünde in diametralem Gegensatz zu grundlegenden humanistischen Standards, wie sie z.B. der DBVC für seine Coaches formuliert (DBVC, 2019, S. 61):

  • Entwicklungsoffenheit des Menschen
  • Willensfreiheit/Autonomie des Menschen

Ethische Herausforderungen und Überlegungen

Der technologische Fortschritt hat uns lediglich wirksamere Mittel zur Verfügung gestellt, um rückwärts zu gehen.“ —  Aldous Huxley; Autor von „Brave New World“

Der Einsatz von KI im Coaching bringt unweigerlich ethische Fragestellungen mit sich:

  • Wie wird sichergestellt, dass der Einsatz von KI den Menschen unterstützt und nicht manipuliert oder kontrolliert?
  • Wie kann trotz der KI-getriebenen Automatisierung von Empfehlungen und Entscheidungen die Autonomie des Klienten gesichert werden?
  • Wer trägt die Verantwortung bzw. haftet, falls eine auf einer KI-Empfehlung beruhende Entscheidung unerwünschte oder negative Folgen hat?
  • Wer kontrolliert die Daten, die im Coaching-Prozess gesammelt werden?

Darüber hinaus besteht die Gefahr, dass KI-Systeme Vorurteile und Diskriminierungen verstärken indem sie historische Diskriminierungsmuster fortschreiben. Wenn die zugrunde liegenden Algorithmen auf voreingenommenen Daten basieren, könnten bestimmte Gruppen benachteiligt werden. Coaches müssen in der Lage sein, solche Biases zu erkennen und sicherzustellen, dass KI fair und gerecht eingesetzt wird.

Coaching zwischen Kränkung und Transformation

Die Diskussion über den Einsatz von KI im Coaching berührt neben den aufgeführten ethischen Themen auch zentrale Fragen über das Selbstverständnis des Menschen im Allgemeinen und des Coachs im Besonderen. Sigmund Freuds (1917) formulierter Gedanke über die „drei großen Kränkungen der Menschheit“ bietet hier eine faszinierende Linse, durch die die heute noch eher abwartende bis ablehnende Haltung vieler Coaches gegenüber der KI betrachtet werden kann.

Die erste Kränkung, so Freud, kam mit der kopernikanischen Wende: Der Mensch ist nicht das Zentrum des Universums. Die zweite traf die Menschheit durch Darwin: Der Mensch ist nur eine weitere Spezies unter vielen, entstanden aus einem gemeinsamen evolutionären Stamm mit den Tieren. Die dritte Kränkung schließlich wurde von Freud selbst verkündet: Des Menschen rationales Ich ist nicht Herr im eigenen Haus, sondern überwiegend von unbewussten Kräften geleitet.

Heute fordert die rasante Entwicklung der KI das Selbstbild des Menschen als einzigartiges Wesen, ausgestattet mit Rationalität, Emotionalität und – für den Berufsstand des Coachs besonders relevant – mit der Fähigkeit zu Empathie und menschlicher Resonanz, heraus. Was, wenn diese einzigartigen menschlichen Qualitäten maschinell reproduzierbar werden? Die Vorstellung, dass Maschinen emotionale und empathische „Intelligenz“ reproduzieren könnten, stellt im Freud‘schen Sinn als vierte Kränkung eine fundamentale Herausforderung für das Selbstbild des Menschen dar.

Coaches verstehen sich traditionell als Hüter und Vermittler jener menschlichen Resonanz, die für die Begleitung und Entwicklung von Menschen unverzichtbar ist. Empathie, das tiefgehende Verstehen und Spiegeln emotionaler Zustände, wird dabei oft als das zentrale Werkzeug betrachtet, um dem Klienten einen Möglichkeitsraum zu eröffnen, in dem er Veränderungsprozesse initiieren kann, und nachhaltige Entwicklung zu fördern. Coaches fungieren als lebendige, mitfühlende und reflektierende Resonanzräume, in denen der Klient seine Gedanken und Gefühle in einem geschützten und vertrauensvollen Rahmen verarbeiten kann. Die Vorstellung, dass eine hochentwickelte KI diese Funktion übernehmen könnte, löst in vielen Coaches instinktives Unbehagen aus.

Doch jede Kränkung birgt auch eine Chance: Die Möglichkeit zur Transformation und Weiterentwicklung. Coaches, die sich nicht in den Rückzug auf den menschlichen Faktor flüchten, sondern die Integration von KI als Werkzeug zur Erweiterung ihrer Fähigkeiten begreifen, könnten aus dieser Kränkung gestärkt hervorgehen. Vielleicht liegt die Zukunft des Coachings nicht in der Abwehr der KI, sondern in der klugen Verbindung von menschlicher Weisheit und technologischer Intelligenz.

Menschliche Weisheit und technologische Intelligenz als komplementäre Kräfte

Wie eine sinnvolle Integration von menschlicher Weisheit und künstlicher Intelligenz aussehen könnte, wird klarer mit einem Blick auf den kybernetischen Ansatz (Wiener, 2022) und die Kybernetik zweiter Ordnung (von Foerster, 1979). Dabei wird „Weisheit“ verstanden als ein tiefergehendes Verständnis von Zusammenhängen in der Natur, im Leben und in der modernen Gesellschaft sowie als die geistige Fähigkeit, bei Herausforderungen und Problemen eine gute und sinnvolle Handlungsweise erkennen zu können (ethika, 2024).

Im Coaching kann die KI als ein kybernetisches System verstanden werden, das kontinuierlich Feedback von Klient und Coach aufnimmt, aus diesen Daten lernt und seine Reaktionen anpasst. Doch anders als in rein mechanischen, sogenannten „trivialen“ Systemen, die auf denselben Input immer den gleichen Output liefern, wie der von Wiener (1961) beschriebene Thermostat, der die Raumtemperatur regelt, ist menschliches Feedback „nicht-trivial“, unberechenbar, diskontinuierlich, komplex und emotional vielschichtig. Neben „logischen“ In- und Outputs beinhaltet es auch immer tiefere Bedeutungsstrukturen, Emotionen und soziale Kontexte (Reif, 2021). Hier liegt die Herausforderung: Während KI-Tools immer besser darin werden, „logisches“ Feedback zu erkennen und darauf zu reagieren, bleibt die Weisheit des menschlichen Coachs, essentiell, um das Feedback nicht nur technisch, sondern auch intuitiv und reflektiv zu verarbeiten. Der menschliche Coach kann interpretieren, was hinter den Aussagen und Reaktionen des Klienten liegt, dem im wahrsten Sinne des Wortes nachspüren, und diese Interpretation mit Kontextwissen, Erfahrungen und ethischen Überlegungen kombinieren. Menschliche Weisheit bedeutet – basierend auf der menschlichen Fähigkeit zur Resonanz – in diesem Sinne nicht nur die Fähigkeit, auf Feedback zu reagieren, sondern auch, dieses in einen größeren, sinnstiftenden Rahmen zu setzen und entsprechend zu resonieren (Rosa, 2016).  

Während Wieners Kybernetik primär die Steuerung und Regelung von Systemen als solche behandelt, geht Heinz von Foerster mit seiner Kybernetik zweiter Ordnung einen Schritt weiter: Er betrachtet nicht mehr nur das System selbst, sondern auch die Beobachter des Systems und deren Wechselwirkung mit dem Beobachteten. Die zentrale Frage lautet: Wer beobachtet den Beobachter? Von Foerster (1979, S. 7) betont, dass der Beobachter nicht außerhalb des Systems steht, sondern selbst Teil des Prozesses ist. Dies hat tiefgreifende Implikationen für das Coaching. Mit dieser Perspektive wird die Position des Coachs (oder des KI-Systems) als Teil des beobachteten Systems problematisiert.

Im „traditionellen“ Verständnis von Coaching ist der Coach der Beobachter und Sparringspartner des Klienten, der die Funktion hat, Möglichkeitsräume zu öffnen, Perspektiven zu bieten, Feedback und Impulse für Veränderungen zu geben. Nach dem kybernetischen Ansatz zweiter Ordnung muss der Coach jedoch auch sich selbst und seine eigenen Interventionen und Reflexionen als Teil des Systems betrachten. Der Coach beobachtet nicht nur den Klienten, sondern reflektiert auch über sich selbst und die Wirkung, die er auf den Prozess hat. Angewandt auf das Zusammenspiel von menschlicher Weisheit und KI, würde das bedeuten, dass deren kluge Verbindung darin besteht, dass der Coach und die KI nicht als getrennte Einheiten agieren, sondern beide Teil eines dynamischen Systems der Selbstreflexion und des Lernens sind. Eine Kybernetik zweiter Ordnung im Coaching mit KI bedeutet, dass der Coach das „Verhalten“ der KI nicht nur nicht als neutral betrachtet, sondern auch die Wechselwirkungen zwischen sich selbst, der KI und dem Klienten reflektiert:

  • Wie verändert sich meine Rolle durch die KI?
  • Wie beeinflusst die KI meine Wahrnehmung des Klienten?
  • Wie beeinflusst die KI sich selbst durch die Daten, die sie vom Klienten und von mir aufnimmt?

Der Coach muss sich so neu seinem eigenen Verstehen, dem Sinn, kurzum der Hermeneutik stellen, wenn Algorithmen, Programme, Maschinen und andere technische Verfahren an ihm mitarbeiten und -wirken.

Im Rahmen einer am Massachusetts Institute of Technology (MIT) durchgeführten Metaanalyse (Vaccaro et al., 2024) wurde analysiert, wie effektiv die Zusammenarbeit von Mensch und KI ausfällt – im Vergleich zur Effektivität jeweils alleine agierender Menschen und KI-Systeme. Im Ergebnis kann das Zusammenspiel aus Mensch und KI vor allem in kreativen Kontexten als sinnvoll beschrieben werden, ansonsten eher nicht. (vgl. MDR, 2024) Coaching als individueller Prozess, in dem maßgeschneiderte Lösungen und Handlungsmöglichkeiten gemeinsam erarbeitet werden, kann als kreativer Kontext verstanden werden. Zum hier skizzierten Zusammenwirken menschlicher Coaches und KI passend wird in der Studie darauf verwiesen, dass KI etwa im Bereich von Mustererkennungen und Datenanalysen eingesetzt werden könne, der Mensch hingegen das besseres Kontextverständnis mitbringe (ebd.).

Neue Kompetenzanforderungen an Coaches

In einer Zeit, in der immer mehr technische und soziale Prozesse automatisiert werden, wird der zwischenmenschliche Aspekt des Coachings – präsente Resonanz – noch wichtiger, als er es heute bereits ist. Menschen suchen im Coaching nach echtem menschlichen Kontakt, nach einem lebendigen Gegenüber, das mitfühlt, sie versteht, im besten Sinne des Wortes resoniert und eben nicht nur auf Basis von Algorithmen analysiert. Inmitten der digitalen Transformation entsteht eine tiefe Sehnsucht nach authentischer, physischer und zwischenmenschlicher Begegnung. Diese Bewegung kann als Zeichen einer utopischen Entwicklung gesehen werden: Die Rückbesinnung auf das Analoge ist nicht nur eine Flucht vor der digitalen Überforderung, sondern auch eine Gelegenheit, unsere menschlichen Grundbedürfnisse nach Gemeinschaft, Sinnlichkeit und Echtheit neu zu definieren (Sax, 2017).

Wollen Coaches nicht im Schatten der vierten großen Kränkung der Menschheit in der Bedeutungslosigkeit untergehen, sollten sie ihre soziale und emotionale Intelligenz im genannten kybernetischen Verständnis zweiter Ordnung konstruktiv weiterentwickeln. In einer klugen Verbindung von menschlicher Weisheit und technologischer Intelligenz sind beide Elemente nicht voneinander getrennt, sondern interagieren als komplementäre Kräfte: Der Mensch bringt die Fähigkeit zur Intuition, Reflexion, Interpretation und ethischen Bewertung ein, während die KI die Analyse großer Datenmengen, die Erkennung von Mustern und die Effizienz der Bereitstellung von Feedback unterstützt. Die Herausforderung – und das Potenzial – liegt darin, diese beiden Kräfte so miteinander zu verbinden, dass ein dynamisches und selbstreflektierendes System entsteht, in dem sowohl der Mensch als auch die Maschine kontinuierlich voneinander lernen. Dies erfordert von Coaches nicht nur technisches Wissen, sondern auch die Bereitschaft, die eigene Rolle und die Wechselwirkungen zwischen Mensch und Maschine immer wieder kritisch zu hinterfragen und sich auch selbst kontinuierlich weiterzuentwickeln und sich zu verändern.

Eine solche Integration von KI in den Coaching-Prozess erfordert von Coaches neue Kompetenzen. Neben traditionellen Coaching-Fähigkeiten wie Empathie, Kommunikationsfähigkeit und Problemlösungsfähigkeit müssen Coaches auch ein grundlegendes Verständnis von KI-Technologien, deren Funktionsweise und deren Limitationen entwickeln. Sie müssen in der Lage sein, die Daten und Empfehlungen der KI zu interpretieren und kritisch zu hinterfragen. Dazu gehört Wissen um Datenethik, Bias-Erkennung in Algorithmen und die Fähigkeit, zwischen den Empfehlungen der KI und den Bedürfnissen des Klienten zu vermitteln. In diesem Sinne könnte die zunehmende Digitalisierung des Coachings also eine utopische Zukunft ermöglichen, in der die Balance zwischen digitaler Innovation und menschlicher Authentizität neu ausgerichtet wird, statt eine dystopische Entfremdung zu verstärken. In dieser Zukunft könnten Coaches die Vorteile der Technologie nutzen, um das Menschliche, das Sinnliche und das Verbindende noch stärker zu betonen und zu kultivieren.

Gesellschafts- und berufspolitische Herausforderungen

Jenseits dessen stellen sich im Kontext von KI-unterstütztem Blended-Coaching zahlreiche berufs- und gesellschaftspolitische Fragen:

  • Wie können ethische Standards gesetzt werden, um Missbrauch zu verhindern?
  • Sollte es gesetzliche Regelungen geben, die den Einsatz von KI im Coaching reglementieren und den Schutz der persönlichen Daten zusätzlich sichern?
  • Welche Rolle soll der Staat im Hinblick auf den Einsatz von KI im Coaching spielen?

Es ist zu erwarten, dass sich berufsfachliche und juristische Debatten um den Einsatz von KI im Coaching zuspitzen werden, da die Wahrung der individuellen Autonomie und der Schutz der Privatsphäre der Klienten infrage steht. Der Gesetzgeber könnte dazu gedrängt werden, strikte Richtlinien zu entwickeln, um den verantwortungsvollen Einsatz von KI im Coaching zu garantieren und gleichzeitig die Grundrechte der Klienten zu schützen.

So ist bereits heute der Einsatz von KI im Bereich außergerichtlicher Streitbeilegung/Mediation gemäß der „EU-Verordnung (EU) 2024/1689 über harmonisierte Vorschriften für künstliche Intelligenz“ (KI-Verordnung / AI-Act) als „Hochrisiko-Bereich“ eingestuft, mit den daraus folgenden verschärften gesetzlichen Beschränkungen und Strafandrohungen. Ebenso sind solche KI-Systeme als „mit hohem Risiko“ eingestuft, „die dazu bestimmt sind, Entscheidungen zu treffen, die sich auf die Bedingungen arbeitsbezogener Beziehungen, die Förderung oder Beendigung arbeitsbezogener Vertragsbeziehungen (…) auswirken“. Nach Art. 5 ist außerdem „Emotionserkennung mittels KI am Arbeitsplatz und in Bildungseinrichtungen“ generell verboten.

Coaching als primär arbeitsweltbezogene Beratungsform bewegt sich also beim Einsatz von KI-Tools bereits jetzt mindestens in einem juristischen Graubereich.

Die Coaching-Berufsverbände sollten sehr zeitnah sicherstellen, dass ethische Standards entwickelt und eingehalten werden, die gewährleisten, dass KI im Coaching nur als Unterstützung und nicht als Ersatz für den menschlichen Coach verwendet wird; eine zentrale Aufgabe, deren Erledigung durch die Zersplitterung der Coaching-Verbände und das dadurch begünstigte Fehlen allgemeinverbindlicher ethischer Leitlinien und Standards im und für das Coaching schon heute mit Blick auf den Einsatz von KI im Coaching zusätzlich erschwert wird.

Literatur

DBVC (Hrsg.) (2019). Coaching-Kompendium. Deutscher Bundesverband Coaching.

EKA (2020). Kinaesthetics Konzeptsystem. European Kinaesthetics Association, Linz.

ethika (2024). Weisheit. Abgerufen am 21.11.2024: https://ethik-unterrichten.de

Freud, S. (1917). Eine Schwierigkeit der Psychoanalyse. Imago, Bd. V, S. 1–7.

MDR (2024). Natürliche und künstliche Intelligenz: Wie gut arbeiten Mensch und KI zusammen? Abgerufen am 13.11.2024: www.mdr.de

Orwell, G. (2021). 1984: Neuübersetzung. Hamburg: Nikol.

Rosa, H. (2016). Resonanz: Eine Soziologie der Weltbeziehung. Berlin: Suhrkamp.

Sax, D. (2024). Die Rache des Analogen: Warum wir uns nach realen Dingen sehnen. Wien: Residenz.

Vaccaro, M., Almaatouq, A. & Malone, T. (2024).  When combinations of humans and AI are useful: A systematic review and meta-analysis. Nature Human Behaviour.

Von Foerster, H. (1979). Cybernetics of Cybernetics. In K. Krippendorf (Hrsg.), Communication and  Control in Society (S. 5–8), New York:‎ Gordon & Breach Science Publishers.

Wiener, N. (2022). Mensch und Menschmaschine. Frankfurt a. M.: Vittorio Klostermann.

Wiener, N. (1961). Cybernetics: Or Control And Communication In The Animal And The Machine. Massachusetts: The MIT Press.

Dieser Artikel gefällt Ihnen?

Dann unterstützen Sie unsere redaktionelle Arbeit durch den Abschluss eines Abonnements und ermöglichen Sie es uns, auch in Zukunft fundiert über das Thema Coaching informieren zu können.

Coaching-Newsletter erhalten

Der Coaching-Newsletter ist kostenlos und kann jederzeit abbestellt werden. Bitte tragen Sie Ihre E-Mail-Adresse ein. Sie erhalten dann eine Aktivierungs-E-Mail. Erst nach dem Anklicken des Links erhalten Sie den Newsletter. Sollte die E-Mail nicht eingehen, überprüfen Sie bitte Ihren SPAM-Ordner.

Nach oben