Unsere vernetzte Welt verstehen

Freundlich, aber distanziert: Die unbeabsichtigten Folgen KI-generierter E-Mails
Immer mehr Menschen nutzen Künstliche Intelligenz, um ihre beruflichen E-Mails zu verfassen. KI kann uns helfen, E-Mails schneller, klarer und höflicher zu schreiben und dabei Zeit und Energie für wichtigere Aufgaben zu sparen. Doch welche unbeabsichtigten Folgen hat diese KI-vermittelte Kommunikation? Wenn sich immer mehr Beschäftigte auf KI beim E-Mail-Schreiben verlassen: Was passiert mit unserem Denk- und Ausdrucksvermögen sowie unseren zwischenmenschlichen Beziehungen? Outsourcen wir am Ende mehr als nur Wörter?
Das Schreiben von E-Mails ist ein wesentlicher Bestandteil der Arbeit. Im Durchschnitt verbringen Menschen etwa 28 Prozent ihrer Arbeitszeit damit, E-Mails von Kolleg*innen, Kund*innen und Partner*innen zu lesen und zu beantworten. Um mit dieser E-Mail-Flut umzugehen, nutzen Beschäftigte Strategien wie das sogenannte Batching von E-Mails (bei dem E-Mails nur zu bestimmten Zeiten des Tages geprüft und geschrieben werden) und technologische Lösungen wie smarte Antworten. Mit generativer KI können Mitarbeitende mittlerweile aus einer Vielzahl von Tools wählen, die es ihnen ermöglichen, ganze E-Mails automatisch zu generieren.
Mitarbeitende aller Ebenen, von CEOs bis hin zu Berufseinsteiger*innen, berichten, wie KI ihnen Zeit und Energie spart, wenn es darum geht, E-Mails zu schreiben, sodass sie sich auf wichtigere Aufgaben konzentrieren können. Ebenso oft betonen sie, dass KI ihnen hilft, klarer und höflicher zu kommunizieren. Einige wissenschaftliche Untersuchungen stützen diese Aussagen: Ein Experiment zeigte, dass die Nutzung von ChatGPT die Zeit, die Teilnehmer*innen für Schreibaufgaben wie E-Mails aufwenden, um 40 Prozent reduzierte (Noy & Zhang, 2023). Interviews mit frühen Nutzer*innen von ChatGPT zeigten außerdem, dass diese das Tool häufig nutzen, um E-Mails und andere Texte, die sie verfassen müssen, zu verschönern (Retkowsky et al., 2024).
Trotz der Vorteile der KI-unterstützten Kommunikation gibt es auch unbeabsichtigte Folgen bei der Nutzung von KI für E-Mails. Um mit dem Offensichtlichen zu beginnen: Kolleg*innen und Kund*innen können sich leicht über den formelhaften und steifen Ton von KI-generierten E-Mails ärgern. Dieses Phänomen ist so weit verbreitet, dass Expert*innen sogar empfehlen, KI-generierten E-Mails eine persönliche Note hinzuzufügen. Hinzu kommt der paradoxe Effekt, dass wir durch das schnellere Beantworten von E-Mails möglicherweise noch mehr E-Mails zu schreiben und zu beantworten haben. Aber es gibt auch andere, subtilere und doch besorgniserregende Folgen der Nutzung von KI für E-Mails: den Verlust von Fähigkeiten, Dissonanzen und Entfremdung.
Verlust von Fähigkeiten
Die Debatte um KI wird oft als eine Diskussion über Upskilling geführt. Upskilling bedeutet, neue und fortgeschrittene Fähigkeiten zu erlernen, um die eigene Karriere voranzutreiben oder in der aktuellen Position effektiver zu werden (Morandini et al., 2023). Im Gegensatz dazu erhält die Möglichkeit des Deskilling (also der Verlust von Fähigkeiten durch den Einsatz von KI) viel weniger Aufmerksamkeit (Dries & Luyckx, 2025). Obwohl die Nutzung von KI für E-Mails uns effizienter machen kann, birgt sie auch das Risiko, unsere Kommunikationsfähigkeiten zu untergraben.
Erstens kann die Abhängigkeit von ChatGPT unsere Fähigkeit verringern, selbst die richtigen Worte und den richtigen Ton in Situationen zu finden, in denen wir nicht auf KI zurückgreifen können. Sei es, weil die Situationen so spezifisch oder sensibel sind, dass KI-generierte Antworten unangemessen sind, oder wenn die Kommunikation persönlich stattfindet. Zweitens und vielleicht noch wichtiger: Schreiben bedeutet Denken. In einigen Fällen haben wir einen Gedanken im Kopf, den wir zu Papier bringen möchten. In anderen Fällen ermöglicht es erst das Schreiben, dass wir uns unserer eigenen Gedanken und Gefühle bewusst werden. Deshalb kann das Tagebuchführen eine so effektive Methode der Selbstreflexion ist. Nicht jede E-Mail, die wir schreiben, erfordert viel Nachdenken, aber einige tun es doch. Wenn ich zum Beispiel eine E-Mail an die Co-Autor*innen eines Artikels schreibe, überlege ich, welche Teile des Papers noch bearbeitet werden müssen, reflektiere über Verbesserungsvorschläge, identifiziere konkrete Aufgaben und berücksichtige dabei idealerweise die Stärken meiner Co-Autor*innen und schlage vor, wie die Arbeit so aufgeteilt werden kann. Je mehr wir auf generative KI beim Schreiben von E-Mails setzen, desto mehr verpassen wir die Gelegenheit, selbst zu denken und zu reflektieren.
Dissonanzen
Eine zweite unbeabsichtigte Folge der Nutzung von KI für E-Mails ist, dass sie sowohl bei den Absender*innen als auch bei den Empfänger*innen Dissonanzen auslösen kann. In einem breiteren Sinne bezeichnet Dissonanz „das Fehlen von Harmonie oder Übereinstimmung zwischen Dingen“. Zwei Arten von Dissonanz können in diesem Kontext auftreten: kognitive Dissonanz und emotionale Dissonanz.
Kognitive Dissonanz bezeichnet das innere Unbehagen, das entsteht, wenn wir auf widersprüchliche Wahrnehmungen oder Informationen stoßen. Ein Beispiel: Wenn man eine E-Mail von einer Person erhält, deren Ton nicht mit der gewohnten persönlichen Art übereinstimmt, kann das irritierend wirken. Ein anschauliches Beispiel berichtete eine Journalistin der New York Times, die kürzlich ein Experiment durchführte, bei dem sie eine Woche lang alle ihre Arbeits-E-Mails von KI beantworteten ließ. Einige Kolleg*innen fragten sich daraufhin, ob sie schlecht gelaunt oder verärgert sei. Kognitive Dissonanz kann auch auftreten, wenn man mit Fremden interagiert, die KI in ihren Nachrichten nutzen. Ein Beispiel aus meiner eigenen Erfahrung: Ein Interviewteilnehmer für eine Studie, in der es um seinen Einsatz von KI bei der Arbeit ging, wirkte anfangs wenig interessiert, auf meine Fragen zu antworten. Zuvor hatte er in seinen E-Mails jedoch immer sehr motiviert gewirkt. Als er schließlich erklärte, dass er stark auf ChatGPT angewiesen sei, um seine E-Mails zu formulieren, wurde mir klar, dass es eben diese Diskrepanz zwischen seinem Ton in den E-Mails und seinem Verhalten im Gespräch war, die ich als Desinteresse interpretierte.
Emotionale Dissonanz hingegen bezeichnet das Spannungsfeld, das Arbeitnehmer*innen empfinden, wenn die Emotionen, die sie tatsächlich fühlen, nicht mit den Gefühlen übereinstimmen, die von ihnen erwartet werden (Wharton, 2009). Ein Beispiel: Wenn ein Student mehrere Unterrichtsstunden versäumt hat und mich dann ohne Erklärung um eine detaillierte Ausführung der Themen bittet, die während seiner Abwesenheit behandelt wurden, wäre es für mich sinnvoller, wenn der Ton meiner E-Mail meine Frustration ausdrückt, anstatt einfach eine standardisierte, KI-generierte Antwort zu senden. Warum? Weil es für mich als Dozent wertvoll ist, meine Emotionen auszudrücken und authentisch zu kommunizieren. Studien zeigen, dass emotionale Dissonanz mit höherer Wahrscheinlichkeit zu emotionaler Erschöpfung führt (Wharton, 2009). Gleichzeitig profitiert der Student, da er durch meine Antwort lernt, welches Verhalten in akademischen und beruflichen Kontexten akzeptabel ist und welches nicht.
Distanzierung
Die dritte unbeabsichtigte Folge der Nutzung von KI für E-Mails ist, dass sie uns von den Empfänger*innen entfremdet. E-Mails helfen uns, Beziehungen zu Kolleg*innen, Kund*innen und Partner*innen aufzubauen und uns mit ihnen zu verbinden (z. B. Russell et al., 2022). Das bedeutet, dass wir die Perspektive der empfangenden Person berücksichtigen müssen. Zum Beispiel könnten Mitglieder internationaler Teams darüber nachdenken, wie ihre Nachricht den Empfänger fühlen lässt und die richtigen Worte wählen, um kulturelle Missverständnisse oder Beleidigungen zu vermeiden (Parush & Zaidman, 2023). Da unsere Kommunikation bereits durch Computer vermittelt wird und teilweise durch Funktionen wie smarte Antworten unterstützt wird (einige meiner letzten Vorschläge waren: „Yay!“ / „Bis dann!“ / „Woo hoo!“), entfernt uns der Einsatz von KI beim Schreiben von E-Mails möglicherweise noch weiter voneinander. Die Autorin Madeleine Holden argumentierte in einem Essay, dass es bei der Frage, jemanden gut zu behandeln, darum geht, die Perspektive des anderen zu verstehen – was eine Menge Care-Arbeit erfordert, da Menschen oft schwer zu durchschauen sind. Deshalb zählt letztlich nicht nur die perfekt formulierte, höfliche Nachricht, sondern auch die Überlegungen, die dahinter stecken. Wenn wir KI unsere E-Mails schreiben lassen, neigen wir dazu, uns weniger mit diesem Prozess auseinanderzusetzen und verpassen so die Gelegenheit, uns mit den Empfänger*innen zu verbinden und in deren Perspektive einzutauchen.
Jede E-Mail ist eine neue Gelegenheit
Die öffentliche Debatte über KI und die Zukunft der Arbeit konzentriert sich oft auf disruptive Veränderungen wie den Verlust von Arbeitsplätzen (Dries et al., 2023). Obwohl KI eingesetzt werden kann, um Arbeitskräfte zu ersetzen und Arbeitsplätze zu gefährden, sind die meisten Veränderungen am Arbeitsplatz subtiler und entwickeln sich langfristig. KI wird nicht in der Lage sein, ganze Berufe zu übernehmen, aber sie kann bestimmte Aufgaben übernehmen (von Richthofen et al., 2022). Und obwohl das für die Kommunikation noch nicht vollständig der Fall ist, birgt die starke Abhängigkeit von KI in unseren Arbeits-E-Mails das Risiko, unsere Kommunikationsfähigkeiten zu untergraben, kognitive und emotionale Spannungen zu verursachen und unsere Beziehungen zu Kolleg*innen zu schwächen.
Ziel dieses Artikels ist es nicht zu hinterfragen, ob KI dabei helfen kann, besser verständliche E-Mails zu schreiben, sondern vielmehr auf unbeabsichtigte, negative Folgen hinzuweisen. Wann immer wir uns bei der Arbeit überfordert fühlen, neigen wir dazu, auf KI zurückzugreifen. Doch jede E-Mail, die wir erhalten oder verschicken, bietet uns eine neue Gelegenheit, unsere Fähigkeit zum Denken zu schärfen, unsere Kommunikationsfähigkeiten zu verbessern, authentisch zu kommunizieren und die Perspektive eines anderen Menschen zu verstehen. Daher sollten wir beim nächsten Mal, wenn wir überlegen, unsere E-Mail von KI schreiben zu lassen, darüber nachdenken, dass nicht nur das Endergebnis, sondern auch die Arbeit, die in den Entstehungsprozess eingeflossen ist, etwas wertvoll macht.
Der Autor bedankt sich bei Charlotte Bernstorff und Mariam Humayun für ihr Feedback zu früheren Entwürfen dieses Blogposts.
Referenzen
Dries, N., Luyckx, J., & Rogiers, P. (2023). Imagining the (Distant) Future of Work. Academy of Management Discoveries.
Dries, N., Luyckx, J., & Bogaert, M. Media Review: Neo-Luddites, Unite! Worker resistance in an era of real dystopian threats. Organization Studies, 0(0), 01708406251321609.
Morandini, S., Fraboni, F., De Angelis, M., Puzzo, G., Giusino, D., & Pietrantoni, L. (2023). The impact of artificial intelligence on workers’ skills: Upskilling and reskilling in organisations. Informing Science: The International Journal of an Emerging Transdiscipline, 26, 39-68.
Parush, T., & Zaidman, N. (2023). Collective emotional labor and subgroup dynamics in global virtual teams: a dramaturgical perspective. International Studies of Management & Organization, 53(4), 239–262.
Russell, E., Jackson, T. W., Fullman, M., & Chamakiotis, P. (2024). Getting on top of work-email: A systematic review of 25 years of research to understand effective work-email activity. Journal of Occupational and Organizational Psychology, 97(1), 74-103. https://doi.org/10.1111/joop.12462
Shakked Noy, Whitney Zhang, Experimental evidence on the productivity effects of generative artificial intelligence. Science 381, 187-192(2023).
von Richthofen, G., Ogolla, S., & Send, H. (2022). Adopting AI in the Context of Knowledge Work: Empirical Insights from German Organizations. Information, 13(4), 199.
Wharton, A. S. (2009). The sociology of emotional labor. Annual Review of Sociology, 35, 147-165.
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Digitale Zukunft der Arbeitswelt
KI am Mikrofon: Die Stimme der Zukunft?
Von synthetischen Stimmen bis hin zu automatisch erstellten Podcast-Folgen – KI am Mikrofon revolutioniert die Produktion digitaler Audioinhalte.
Haben Community Notes eine Parteipräferenz?
Dieser Artikel analysiert, ob Community Notes Desinformation eindämmen oder ob ihre Verteilung und Bewertung politische Tendenzen widerspiegeln.
Wie People Analytics die Wahrnehmung von Fairness am Arbeitsplatz beeinflusst
People Analytics am Arbeitsplatz kann die Beziehung und das Vertrauen zwischen Mitarbeitenden und Führungskräften beeinflussen.