#3 Die eigentliche Vertrauenskrise hat noch nicht begonnen

Foto: Lichter im Nebel

Stellen wir uns das Leben einer Pressesprecherin in naher Zukunft vor: Das Handy piepst noch mehr als sonst. Alle Kanäle sind voll: ein Video vom CEO mit einer Aussage, die er laut eigener Aussage nie gemacht hat, verbreitet sich unfassbar schnell. Die Pressesprecherin muss überprüfen, ob es echt ist und dann vermutlich belegen, dass es das nicht ist– und während sie das tut, haben schon eine Million Menschen das Video gesehen. Die ersten Medien sind am Thema dran und versuchen ebenfalls zu verifizieren, während einige Newsrooms schon mit dem Hinweis "Video aufgetaucht" oder "vermeintliche Aussage" verbreitetet haben. Auf TikTok wird es bereits vertont, betanzt, geremixed und zitiert. Der Zug ist abgefahren. Die Wahrheit sitzt nicht drin. Und die Reputation des CEO und des Unternehmens liegen angeschlagen im Schienenbett.

Das ist keine Science-Fiction. Das ist nicht mal Zukunft. Das ist Gegenwart. Und da wo Jan Böhmermann noch ein Redaktionsteam und gute Kontakte brauchte, um Varoufakis einen Mittelfinger unterzuschieben, da braucht es heute einen Rechner mit Internetzugang. Punkt. Das ist ein  Einfallstor, um Vertrauen in Institutionen, Marken oder Unternehmensversprechen zu zerlegen.

Nicht die existierenden Fakes, sondern die Möglichkeit ihrer Existenz machen die Unsicherheit

Es geht nicht primär darum, dass Deepfakes Menschen tatsächlich täuschen. Es geht darum, dass die bloße Existenz und technische Machbarkeit von Deepfakes das Klima gesellschaftlicher Debatten vergiftet, weil –und das ist zentral– wir den Glauben an überprüfbare, wahr gemeinte Aussagen brauchen, um debattieren zu können. Wenn alles ebenso gefälscht wie wahr sein könnte und ich fast keine Möglichkeit habe, das eine vom anderen zu unterscheiden, auf was kann ich dann ein Argument aufbauen? Wie kann ein Unternehmen oder eine Marke Glaubwürdigkeit herstellen, die nicht so brüchig ist, dass sie im nächsten Moment schon in sich zusammenfällt?  Wie kann man mir als Absender, als Akteur in einer Debatte dann glauben. Eher gar nicht.

Und auch das ist keine Zukunft. Das ist ein Prozess, der längst begonnen hat.

71 Prozent der Verbraucher berichten von Vertrauensverlust in Online-Inhalte – innerhalb von nur sechs Monaten.

Aber das ist nicht die entscheidende Metrik. Die richtige ist: 0,1 Prozent der Menschen können einen modernen Deepfake vom Original unterscheiden, obwohl 64 Prozent angeben, dass sie das könnten. Hier wird deutlich. Das Problem ist nicht die Täuschung, sondern die kognitive Überlastung. Menschen verlieren das fundamentale Vertrauen in ihre eigene Urteilsfähigkeit. Wenn ich nicht unterscheiden kann, ob ich eine echte Botschaft von meinem CEO sehe oder einen verfälschten Content, eine Ansprache des Bundeskanzlers oder eine künstlich erstelltes Video – dann falle ich nicht in eine Falle, sondern in einen dauerhaften Unsicherheitszustand. In der Folge könnte ein Rückzug ins Private stattfinden "Ich kann es ja eh nicht mehr nachvollziehen." "Ich glaube nur noch, was ich anfassen kann."

Das ist für eine Wissensgesellschaft, für eine Demokratie, für eine vernetzte Gesellschaft Gift. Wo kann noch Austausch und Debatte stattfinden, die über den Spielplatz oder die Müllabfuhr; also direkt erfahrbare und nachvollziehbare Bereiche hinausgehen.

Die Fälschungsbehauptung

Verstärkt wird das durch einen weiteren Fakt: Sobald fast jeder weiß, dass Deepfakes technisch möglich sind, wird es für jeden, der Verantwortung und Schuld umgehen will, die erste Handlungsoption Inhalte als KI-generiert zu diffamieren

Ein konkretes Beispiel: Vor kurzem wurdem über einen indischen Politiker Aufnahmen veröffentlicht, auf denen er Kollegen herabwürdigte. Sein erster Reflex? Behaupten, die Aufnahmen seien maschinell generiert. Später stellte sich heraus: Mindestens eine Aufnahme war echt.
Wähler*innen wenden sich vom Diskurs ab – wenn er nicht mehr relevant ist. Ein Diskurs, der ebenso simuliert wie echt sein kann, ist kaum noch relevant. Was ich nicht verifizieren kann, kann ich nicht diskutieren.

Das ist das Paradoxe: Je skeptischer die Öffentlichkeit gegenüber Deepfakes wird, desto besser funktioniert die Lüge. Ein Chef, der eine fragwürdige Aussage getroffen hat, kann sagen: „Das Video von mir ist ein Fake." Ein Politiker unter Druck kann behaupten: „Diese Aufnahmen sind maschinell generiert." Und weil wir alle wissen, dass das möglich ist, wird zu Falschzuweisung glaubwürdig. Das ist nicht nur ein PR-Problem. Das ist der Zerfall von gemeinsamer Realität.

Die Bedrohungslandschaft für Unternehmen

Für Organisationen drängt sich eine  existenzielle Herausforderung auf, die viele Facetten hat:

  • Executive Impersonation: Ein manipuliertes Video eines CEOs, der Konkurs ankündigt oder kontroverse Positionen vertritt, kann Kurse bewegen und Märkte destabilisieren. Dabei gilt: je unübersichtlicher die Situation, desto eher ist es Manipulation möglich. In Krisen und Kriegsgebieten ist es ohnehin schon schwer Fakten zu prüfen. KI macht das unmöglich.

  • Financial Fraud: Ein echter Fall aus Hong Kong 2024 zeigt es: Ein Finanzarbeiter wurde via Deepfake-Videokonferenz dazu gebracht, 25 Millionen Dollar zu überweisen – weil alle „Kollegen" im Call anwesend waren. Problem: Alle Kollegen waren KI-generiert. 

  • Brand-Involvement: Manipulierte Videos, die ihre Marke in politische Debatten hineinziehen und oder mit Skandalen verbinden.

  • Interne Sabotage: Fake-E-Mails von „Führungspersonen", die interne Sicherheit und Compliance untergraben.

Die Fakten sind beeindruckend und beängstigend zugleich:

Die Persistence-Problem und die Asymmetrie der Geschwindigkeit

Hier ist was Hirnforschung und Krisenkommunikation uns zeigen: Selbst wenn ein Deepfake als Fake entlarvt wird, bleibt die emotionale Erinnerung an das gefälschte Video stärker als die Wahrheit, die später kommt. Um an das Beispiel zu Beginn dieses Beitrags anzuknüpfen. Auch ein komplett gefälschtes Video hinterlässt schmutzige Spuren, die sich umso tiefer in die Reputation eingraben, desto länger es sich verbreiten konnte.

Das bedeutet:

  • Ein Deepfake kann heute in Minuten viral gehen

  • Verifizierung braucht derzeit Stunden bis Tage

  • Krisenmanagement und interne Genehmigung kosten weitere Tage

  • In dieser Zeit haben Millionen den Content bereits konsumiert

PR-Teams müssen in ihrer aktuellen Aufstellung strukturell überfordert sein von der Geschwindigkeit.

Das ist nicht nur ein Technikproblem. Es ist auch ein Organisationsproblem. Denn den technischen Entwicklungen kann man nicht nur technisch begegnen. Es gilt Prozesse aufzubauen, die in der Contentproduktion Glaubwürdigkeit schaffen und kultivieren und Überprüfungen in der Krise erlauben.

Wo stehen wir heute: Nur 27 Prozent der Organisationen überprüfen alle KI-generierten Inhalte. Gleichzeitig geben 32 Prozent der Führungskräfte zu, ihrem Team nicht zuzutrauen, einen Deepfake zu erkennen. Das ist strukturelle Überforderung bei existenziellen Risiken. Das ist ein Problem!

Welche Schritte helfen da raus?

Schritt 1: Detection & Monitoring aufbauen

Einsatz von AI-gestützten Real-Time-Detection-Tools (z.B. Reality Defender). Kennen und etablieren sie Musterverhaltensweisen als Baseline: “Normale” Kommunikationsmuster zu kennen hilft dabei, Abweichungen zu erkennen.

Schritt 2: Crisis Playbook schreiben

Nicht erst in der Krise improvisieren. Vorgefertigte Meldungen für verschiedene Szenarien (Executive Impersonation, Brand Involvement, Financial Claims). Klare Verantwortlichkeiten: Wer verifiziert? Mit welchen Tools? In welcher Zeit? Ziel: Verifizierung in unter 60 Minuten.

Schritt 3: Transparenz-Policy etablieren

Kennzeichnung KI-generierter Inhalte, Offenlegung von Nutzung, Schulungsverpflichtungen für Mitarbeiter. Meldungskultur: Frühe Meldung verdächtiger Inhalte sollte gewollt und nicht sanktioniert sein. 

Schritt 4: Szenarioarbeit – Welche Zukunft wollt ihr gestalten?

Das ist der strategische Kern. Szenarien sind nicht determiniert – sie sind beeinflussbar.

High-Trust Scenario

  • Content Provenance & digitale Signaturen sind Standard

  • Kommunikation ist radikal transparent

  • Mitarbeiter sind trainiert

  • Ergebnis: Wettbewerbsvorteil durch Vertrauen, schnellere Krisenbewältigung, höhere Mitarbeiter-Bindung

Post-Truth-as-Service Scenario

  • Keine Authentizitäts-Infrastruktur

  • Krisenmanagement improvisiert

  • Ergebnis: Reputationsverlust kann irreversibel sein, Wertevernichtung

Es gilt diesen Raum aufzumachen, um Stakeholder zu identifizieren und Risikoprofile zu konkretisieren. Nicht als theoretische Übung, sondern als Grundlage für strategische Investitionsentscheidungen in Technologie, Organisationsstrukturen und Regeln und Kultur.

Die Frage ist nicht, ob wir in jedem Unternehmen derartige Prozesse, Strukturen und Regeln aufbauen werden, sondern wann. Und damit zurück zu einer Kernthese unserer Arbeit: Die Zukunft unseres Wirtschaftens und Arbeitens wird nicht durch Technik entschieden, sondern wie wir uns darum organisieren.

Mit diesmal skeptischen Grüßen

Next
Next

#2 “Stillstand ist der Tod”