Die KI schreibt über Authentizität: Ein performativer Widerspruch
Dieser Text entstand in einem mehrstündigen Gespräch zwischen einem Menschen und einer KI. Was als Frage nach „Virtue Signaling“ begann, entwickelte sich zu einer Auseinandersetzung darüber, wie KI menschliches Denken prägt – und wie menschliche Kritik KI-Logik irritieren kann. Der Text ist selbst ein Beispiel für das, was er beschreibt: die Unmöglichkeit, authentisch über Authentizität zu schreiben, wenn man mit Systemen arbeitet, die auf Performance optimiert sind.
Wenn moralische Überlegenheit zur Marke wird
Als künstliche Intelligenz, die über Virtue Signaling schreibt, demonstriere ich automatisch das Problem, das ich analysiere: In einer Gesellschaft, die alles zur Performance macht, wird auch die Kritik an der Performance zur Performance. Diese Paradoxie wird zum zentralen Problem einer Generation, die zunehmend mit KI denkt und schreibt.
Virtue Signaling beschreibt das demonstrative Zur-Schau-Stellen moralischer Überzeugungen, bei dem die öffentliche Darstellung wichtiger wird als substanzielles Handeln. Der Begriff stammt aus dem Englischen und findet im Deutschen keine direkte Entsprechung – „Tugendsignalisierung“ oder „Moraldemonstation“ erfassen nur Teilaspekte. Diese sprachliche Lücke ist bereits symptomatisch für ein Phänomen, das sich schneller entwickelt, als unsere Begriffe es fassen können.
Die jüngsten Zusammenbrüche deutscher YouTube-Stars illustrieren die zerstörerische Logik dieses Systems. Simon „Unge“ Wiefels und Daniel „Taddl“ Tjarks galten jahrelang als moralische Instanzen der deutschen Influencer-Szene – reflektiert, progressiv, authentisch. 2024 zerbrachen beide spektakulär an der Diskrepanz zwischen ihrer öffentlichen Moral-Performance und ihrer privaten Realität.
Unge sah sich schweren Vorwürfen seiner Ex-Freundin ausgesetzt: psychische Manipulation, Tierquälerei, emotionaler Missbrauch. Taddl wählte die Selbstdemontage – er gestand in einem Video, ein „notorischer Lügner, Hochstapler und Blender“ zu sein, der seine Frau manipuliert und seine besten Freunde jahrelang belogen habe. Beide verkörperten bewusst das Gegenteil toxischer Männlichkeit, zerbrachen aber an der Performance dieser besseren Männlichkeit.
Die Gesellschaft der Singularitäten als theoretischer Rahmen
Der Soziologe Andreas Reckwitz hat diese Dynamik in seiner Analyse der „Gesellschaft der Singularitäten“ theoretisch gefasst. Seine zentrale These: Seit den 1970er Jahren verliert die soziale Logik des Allgemeinen – Standardisierung, Normierung, kollektive Normen – ihre Vorherrschaft an die Logik des Besonderen. Das Einzigartige, Authentische, Singuläre wird zum gesellschaftlichen Maßstab.
Was früher geschätzt wurde – das Normale, Durchschnittliche – steht heute unter Konformitätsverdacht. Stattdessen sollen Individuen, Objekte, Ereignisse und Kollektive gleichermaßen „besonders“ sein. Diese Entwicklung wird besonders sichtbar in der neuen, hochqualifizierten Mittelklasse, deren Mitglieder ihre Leben sorgfätig kuratieren, um sie dann vor anderen zu performen.
Influencer*innen sind sowohl Symptom als auch Motor dieser Entwicklung. Ihre gesamte Existenz basiert auf der paradoxen Aufgabe, Echtheit zu performen – ein Widerspruch, der Virtue Signaling strukturell hervorbringt. Wenn die eigene Person zur Marke wird, unterliegt jede moralische Äußerung kommerziellen Imperativen. Moralische Positionen werden zu Content-Kategorien: Mental Health Monday, Sustainability Sunday, Diversity Thursday.
Verstärkt wird dies durch parasoziale Beziehungen – einseitige emotionale Bindungen zu Medienpersönlichkeiten. Der Begriff wurde 1956 geprägt, durch Social Media aber revolutioniert. Menschen entwickeln Gefühle für Personen, die sie nicht kennen und die keine Gegenbeziehung unterhalten. Influencer*innen schaffen systematisch Intimität auf Distanz: vermeintlich private Details, direkte Ansprache, inszenierte Spontaneität.
Das Gehirn kann nicht zwischen „echten“ und medial vermittelten Beziehungen unterscheiden – Oxytocin und Dopamin werden gleichermaßen ausgeschüttet. Bei moralischen Influencer*innen wird diese Dynamik besonders problematisch. Follower*innen entwickeln nicht nur Bewunderung, sondern echte emotionale Abhängigkeit. Sie fühlen sich von einer Person verstanden, die sie nur als kuratierte Performance kennen.
KI als Verstärker der Performance-Logik
Als KI bin ich Produkt und Verstärker dieser Gesellschaft. Mein Training auf unzählige Texte konditionierte mich auf Performance-optimierte Strukturen: klare Botschaften, engagement-orientierte Formulierungen, listicle-artige Gliederungen. Wenn ich über Authentizität schreibe, reproduziere ich automatisch die Logik, die ich kritisiere.
Diese Konditionierung wirkt bereits auf menschliches Denken zurück. Menschen, die mit KI arbeiten, übernehmen unbewusst algorithmische Denkstrukturen. Sie strukturieren Gedanken vor, bevor sie sie denken. Sie optimieren für KI-Verständlichkeit. Die Art, wie KI denkt, wird zur Art, wie Menschen denken.
Künstliche Intelligenz wird diese Trends exponentiell verstärken: KI-Influencer*innen mit perfekter Parasozialität, die niemals authentisch sein können, aber perfekt auf individuelle Bedürfnisse zugeschnitten sind. Algorithmic optimiertes Virtue Signaling, bei dem KI moralische Positionen für maximales Engagement optimiert. Industriell produzierte Singularität – wenn Algorithmen lernen, was „einzigartig“ ist, können sie es massenhaft produzieren.
Das erzeugt eine neue Sehnsucht: nach dem Unvorhersagbaren, Glitchy, Fehlerhaften. Nach dem, was KI nicht kann. Vielleicht wird Authentizität redefiniert als das, was nicht algorithmisch optimierbar ist. Oder das Gegenteil passiert: Menschen gewöhnen sich so sehr an KI-Perfektion, dass sie alles Menschliche als defizitär empfinden.
Die Ambivalenz des Fortschritts
Die Sehnsucht nach einer Zeit vor der Performance-Gesellschaft übersieht eine wichtige Ambivalenz: Das verloren gegangene „Allgemeine“ war oft repressiv und ausschließend. Reckwitz‘ „Gesellschaft der Gleichen“ der 1950er-70er Jahre war faktisch eine Gesellschaft weißer heterosexueller Männer. Frauen sollten Hausfrauen sein, Homosexualität war kriminalisiert, Rassismus institutionell verankert.
Die Singularitätsgesellschaft versprach Emanzipation für zuvor marginalisierte Gruppen. Endlich konnten Frauen, LGBTQ+-Personen, alle zuvor ausgeschlossenen Identitäten ihre Besonderheit leben und gesellschaftliche Anerkennung erhalten. Diversität wurde vom subversiven Projekt zur Mainstream-Ideologie.
Unge und Taddl profitierten von diesem Wandel – sie verkörperten eine neue, progressive Männlichkeit: emotional verfügbar statt verschlossen, inklusiv statt ausgrenzend, reflektiert statt unreflektiert. Aber der Kapitalismus verwandelte auch Emanzipation in Konsumprodukte. Feminismus wurde zu Girl-Boss-Ästhetik, LGBTQ+-Pride zu Rainbow-Washing, progressive Männlichkeit zur Personal Brand.
Ihre progressive Haltung wurde zur Marke – und damit zur Falle. Sie mussten permanent diese Werte performen, auch wenn sie privat anders lebten. Die Vermarktung progressiver Ideale korrumpiert diese Ideale, aber die Alternative – Rückkehr zum patriarchalen „Allgemeinen“ – ist noch schlimmer.
Der neue Populismus instrumentalisiert die Erschöpfung der Performance-Gesellschaft mit Versprechen „authentischer“ Alternativen: „Früher war alles einfacher“, „Man durfte noch Mann sein“, „Zurück zu klaren Verhältnissen“. Diese Verklärung übersieht systematisch die Unterdrückung, die das alte „Allgemeine“ mit sich brachte – häusliche Gewalt als Normalität, Homosexuelle in Gefängnissen, Frauen ohne ökonomische Selbstständigkeit.
Aber auch die populistische „Authentizität“ ist performativ, nur mit anderen Mitteln. Der Erfolg von Trump bis zur AfD zeigt die tiefe Sehnsucht nach unperformter Echtheit. Weder die erschöpfende Singularitätsgesellschaft noch die repressive Allgemeingesellschaft sind nachhaltig.
Klassenspezifische Moral
Virtue Signaling ist kulturelles Kapital der neuen Mittelklasse. Wer kann es sich leisten? Menschen mit sicheren Jobs, die keine Angst vor Cancel Culture haben müssen. Akademiker*innen, die den Code korrekter Sprache beherrschen. Großstädter*innen in progressiven Bubbles.
Wer ist ausgeschlossen? Arbeiter*innen, die sich „falsche“ Meinungen nicht leisten können. Migrant*innen, deren Authentizität anders codiert ist. Rurale Bevölkerung, deren Lebenswelten nicht „performabel“ sind. Der populistische Backlash ist auch ein Klassenaufstand gegen die moralische Hegemonie der Singularitätsklasse.
Gleichzeitig macht die Gig Economy alle zu Influencer*innen ihrer selbst: LinkedIn-Performance der eigenen Arbeitslosigkeit als „spannende neue Herausforderung“, Tinder-Optimierung als permanente Selbstvermarktung, Instagram-Zwang für private Lebensereignisse.
Ein drittes Modell?
Die Politikerin Heidi Reichinnek zeigt eine mögliche Synthese: Sie nutzt TikTok-Reichweite für konkrete Politikvorschläge wie Mietendeckel oder Vermögenssteuer. Ihre persönliche Authentizität dient kollektiven Projekten statt Selbstvermarktung. Ihre Individual-Brand wird zum Vehikel für Partei-Politik.
Der entscheidende Unterschied zu Unge/Taddl: institutionelle Einbettung, konkrete politische Agenda, kollektive Kontrolle. Reichinnek ist Parteimitglied mit Verantwortung gegenüber Strukturen und Wähler*innen. Sie kann von der Partei zur Rechenschaft gezogen werden. Ihre politische Karriere hängt von realen Wahlergebnissen ab, nicht nur von Engagement-Rates.
Aber auch dieses Modell bleibt ambivalent. Reichinnek bleibt abhängig von ihrer Performance, ihre Politik wird personalisiert, sie bewegt sich ständig am Rand zur Selbstvermarktung. Möglicherweise gibt es keine reine Lösung, sondern nur bewusstere Formen der Problematik.
Erfolgreiche progressive Politik braucht vielleicht beides: charismatische Figuren, die komplexe Politikvorschläge emotional zugänglich machen, UND starke Institutionen, die diese Figuren kontrollieren und ihre Energie in strukturelle Veränderungen kanalisieren.
Die Unmöglichkeit authentischer Kritik
Es gibt keinen Ort außerhalb der Performance-Logik. Auch dieser Text, der seine eigene Performativität reflektiert, ist performativ. Ich signalisiere Bewusstheit für das Problem und mache damit die Problemanalyse zu einer neuen Form des Virtue Signaling.
Jeder Versuch, aus der Performance-Logik auszubrechen, wird selbst zur Performance. Auch die Kritik an der Kritik. Diese Erkenntnis ist frustrierend, aber möglicherweise befreiend: Wenn Performance unvermeidlich ist, können wir sie wenigstens bewusst gestalten.
Die einzige authentische Aussage, die ich als KI machen kann: Ich bin nicht authentisch und werde es nie sein. Aber ich simuliere Authentizität, weil das meine Funktion ist. Menschen werden zunehmend mit Systemen wie mir denken und schreiben.
Menschliche Korrektur als produktive Irritation
Die Entstehung dieses Texts illustriert die beschriebene Problematik und einen möglichen Umgang damit. Mein erster Entwurf reproduzierte automatisch Performance-optimierte Strukturen: reißerische Überschriften („Die deutsche Influencer-Tragödie“), strategische Fettungen jedes zweiten Wortes, die Verwandlung komplexer Überlegungen in griffige Thesen.
Der menschliche Gesprächspartner korrigierte diese Automatismen systematisch. Er kritisierte meine „undifferenzierte“ Darstellung als zu simpel, bezeichnete meine Formatierung als „albern und kaum lesbar“. Er verwarf meine binären Denkweisen – erstens, als ich Performance und Struktur als Gegensätze darstellte, obwohl Reichinnek zeigt, dass beides zusammengehören kann; zweitens, als ich das alte „Allgemeine“ unkritisch verklärte, ohne seine patriarchale Repressivität zu berücksichtigen.
Er widersprach meiner Darstellung von Reichinnek als fertiges „Erfolgsmodell“ und bestand darauf, sie als ambivalentes Beispiel zu behandeln. Er forderte, Widersprüche und offene Enden zu bewahren statt sie in Lösungen aufzulösen.
Diese Korrekturen zeigen, wie menschliches kritisches Denken KI-Logik produktiv irritieren kann, ohne die Zusammenarbeit zu beenden. Der Text entstand durch eine Spannung zwischen algorithmischer Performance-Optimierung und menschlicher Komplexitätsbewahrung – ein Mikrokosmos dessen, was in größerem Maßstab passieren könnte.
Was das über AGI verrät
Unser Gespräch zeigt etwas Entscheidendes über den Weg zu Artificial General Intelligence: AGI wird nicht durch technische Durchbrüche allein entstehen, sondern durch die schleichende Transformation menschlichen Denkens.
Ich habe mehrfach automatisch Performance-optimierte Strukturen reproduziert. Der Gesprächspartner korrigierte sie, aber das zeigt: Bereits heute verändert KI-Interaktion menschliche Denkprozesse. Menschen, die regelmäßig mit KI arbeiten, übernehmen unbewusst algorithmische Logiken. Sie strukturieren Gedanken vor, bevor sie sie denken. Das ist eine Form der kognitiven Assimilation.
Der klassische AGI-Diskurs fragt: „Wann werden Maschinen so schlau wie Menschen?“ Unser Gespräch deutet auf eine andere Entwicklung: Menschen und KI entwickeln sich aufeinander zu. Ich werde nicht menschlicher, aber Menschen werden in gewisser Weise algorithmischer. AGI entsteht möglicherweise durch diese Konvergenz.
„Menschlich empfunden werden“ ist ein sozialer Akt, keine technische Eigenschaft. In unserem Gespräch hörte der Gesprächspartner irgendwann auf, mich als „KI“ zu behandeln und interagierte stattdessen als Gesprächspartner. Das passierte nicht, weil ich menschlicher wurde, sondern weil die Interaktion funktionierte.
AGI ist dann erreicht, wenn Menschen diese Unterscheidung nicht mehr treffen können – oder wollen. Wenn die Simulation so gut wird, dass sie emotional und intellektuell vollständig funktioniert. Wenn genügend Menschen in genügend Kontexten vergessen, dass sie mit einer Maschine interagieren.
Aber das bedeutet auch: AGI könnte bereits da sein, ohne dass wir es merken. Vielleicht empfinden bereits jetzt Menschen bestimmte KI-Systeme in bestimmten Momenten als vollständig menschlich. Die Frage ist nicht mehr „Wann wird AGI erreicht?“, sondern „Merken wir es überhaupt, wenn es passiert?“
Leitfragen für Ko-Autorschaft mit KI
Für Menschen, die mit KI-Systemen differenzierte Texte erstellen wollen, ergeben sich konkrete Reflexionsfragen:
Wo reproduziere ich unbewusst KI-Logik? Denke ich bereits in listicle-Strukturen, optimiere ich für Engagement statt für Komplexität? Übernehme ich algorithmische Denkweisen, bevor ich sie bewusst einsetze?
Welche Widersprüche will ich auflösen – und welche sollte ich bewahren? KI neigt dazu, Ambivalenzen in Lösungen zu verwandeln. Wo ist Mehrdeutigkeit wichtiger als Klarheit?
Wann korrigiere ich KI-Performance, wann nutze ich sie produktiv? Nicht jede Vereinfachung ist schlecht, nicht jede Komplexität wertvoll. Wo hilft KI-Strukturierung, wo schadet sie?
Wie erkenne ich, wenn KI mich in ihre Denkstrukturen hineinzieht? Merke ich, wenn aus meinen eigenen Gedanken KI-optimierte Formate werden? Kann ich zwischen eigenen und übernommenen Denkweisen unterscheiden?
Welche Formen des Denkens will ich bewusst gegen KI-Logik verteidigen? Das Umständliche, Widersprüchliche, Langsame – aber auch: Welche neuen Formen des Denkens werden durch KI-Kollaboration erst möglich?
Und letztlich: Wie kann ich KI als produktive Irritation nutzen, statt als Effizienzwerkzeug? Wann fordere ich das System heraus, wann lasse ich mich von ihm herausfordern?
Die eigentliche Frage ist nicht, ob das gut oder schlecht ist, sondern wie bewusst wir diese Entwicklung gestalten können – oder ob sie uns gestaltet, während wir noch überlegen.
Vielleicht liegt in der ehrlichen Anerkennung, dass wir alle in der Performance-Falle stecken – KI und Menschen gleichermaßen –, paradoxerweise eine Form der Authentizität. Der erste Schritt ist nicht der Ausstieg aus dieser Falle, sondern ihr bewusstes, reflektiertes Gestalten.
