beyond-decay.org
Größe EN

DEMOS

Detection and Exposure of Manufactured Opinion at Scale — Warum Transparenz die einzige Architektur ist, die Desinformation dauerhaft entwaffnet
beyond-decay.org — März 2026

I. Bukarest, 24. November 2024

Călin Georgescu war zwei Wochen vor der rumänischen Präsidentenwahl in keiner einzigen Umfrage über fünf Prozent gekommen. Ein ultranationalistischer Außenseiter, der Impfungen ablehnte, die NATO als existentielle Bedrohung bezeichnete und Russland als natürlichen Partner Rumäniens. Am Wahlabend des 24. November lag er mit fast 23 Prozent vorne. Zwei Millionen Rumänen hatten ihn gewählt. In der Wahlnacht suchten fast zwei Millionen Menschen seinen Namen auf Google — weil sie nicht wussten, wer er war.

Was war passiert? Nicht Deepfakes. Nicht gefälschte Videos von seinem Kontrahenten bei einer Straftat. Nicht die klassische Desinformation des 20. Jahrhunderts. Was passiert war, war eine Operation, die mit der physischen Infrastruktur digitaler Plattformen spielte: Mehr als 25.000 TikTok-Konten und 5.000 Telegram-Kanäle wurden mobilisiert. Ein zentraler Telegram-Kanal verteilte vorgeschnittene Videos und Formulierungen — einschließlich Anweisungen, welche Hashtags zu verwenden seien. Mindestens 381.000 Dollar flossen an Influencer, die ohne Wissen der meisten von ihnen eine koordinierte Kampagne förderten. TikToks Algorithmus verstärkte Georgescu-Inhalte in Tests bis zu vierzehn Mal stärker als die Inhalte seiner Konkurrenten.

Am 6. Dezember 2024 annullierte Rumäniens Verfassungsgericht die erste Wahlrunde — das erste Mal in der Geschichte der EU, dass eine Präsidentenwahl wegen digitaler Einflussnahme annulliert wurde.

Und dann wurde die Annullierung selbst zur Waffe. Die Demokratie hat sich selbst abgeschafft, sagten Georgescus Anhänger. Der Tiefe Staat hat die Stimmen des Volkes gestohlen. Die Desinformation erzeugte ihre eigene Gegenbewegung — und diese Gegenbewegung war nicht weniger real als die ursprüngliche Operation.

Das ist das eigentliche Problem.

II. Die falsche Diagnose — Deepfakes sind nicht das Hauptproblem

Die öffentliche Debatte über KI-gestützte Desinformation dreht sich fast ausschließlich um Deepfakes: täuschend echte Bilder, Audios und Videos, die nie existierende Ereignisse zeigen. Das ist verständlich — Deepfakes sind sichtbar, greifbar, dramatisch. Sie machen gute Schlagzeilen.

Aber die Daten zeigen ein anderes Bild. Eine systematische Analyse aller dokumentierten KI-Einsätze in Wahlen 2024 weltweit ergab: Die Hälfte aller KI-Nutzung war nicht täuschend. Die meisten täuschenden Inhalte wären auch ohne KI billig herzustellen gewesen. Und konventionell manipulierte Inhalte — sogenannte Cheap Fakes — wurden sieben Mal häufiger eingesetzt als KI-generierte. Das Rumänien-Problem war kein Deepfake-Problem. Es war ein Algorithmus-Problem.

Das Wirksamste an der Georgescu-Operation war nicht die Qualität des Inhalts, sondern die Verstärkungsarchitektur. Der Inhalt war simpel: Hashtags, kurze Videos, emotionale Appelle an Spiritualität und Souveränität. Was ihn zur Katastrophe machte, war dass TikToks Empfehlungssystem ihn millionenfach auslieferte, während gleichzeitig ein koordiniertes Bot-Netzwerk die Signale lieferte, die den Algorithmus antrieben.

Das ist die präzisere Diagnose: KI-gestützte Desinformation ist weniger eine Frage der synthetischen Inhalte als eine Frage der algorithmischen Verstärkung. Wer den Algorithmus versteht und manipuliert, braucht keine Deepfakes. Er braucht Koordination, Geschwindigkeit und die Fähigkeit, genug Engagement-Signale zu erzeugen, dass die Plattform die Arbeit übernimmt.

III. Die Asymmetrie — das schwerste Problem der Reihe

Bei NUET, RIEGEL, MESH, SHADOW, AGORA und COSMOS gibt es eine symmetrische Verwundbarkeit: Wer Atomwaffen einsetzt, gefährdet seine eigene Wirtschaft. Wer die Suwalki-Lücke schließt, schließt Kaliningrad ein. Wer Satelliten zerstört, erzeugt Trümmer. Die Architektur der Selbstbestrafung funktioniert, weil der Angreifer ebenfalls exponiert ist.

Bei Desinformation im Wahlkontext ist diese Symmetrie schwächer. Russland kann rumänische Wahlen manipulieren — Rumänien kann keine russischen Wahlen manipulieren, weil es keine gibt, die den Namen verdienen. China kann Taiwans Informationsraum fluten — Taiwan kann Chinas Informationsraum nicht auf gleiche Weise beeinflussen. Demokratien sind strukturell offener und damit strukturell verwundbarer.

Das macht DEMOS zum konzeptionell schwierigsten Konzept der Reihe. Die architektonische Antwort kann nicht in der Gegensymmetrie liegen — also nicht: Wir machen dasselbe zurück. Sie muss in der Stärkung der Immunität liegen: der Fähigkeit, die Operation zu erkennen, zu benennen und damit zu entwaffnen. Das verändert das Designproblem fundamental.

Es gibt aber eine Selbstbestrafungsstruktur — sie ist nur subtiler. Sie heißt Liar's Dividend: Wer systematisch Desinformation verbreitet, vergiftet das Informationsklima für alle — einschließlich sich selbst. Russlands Bevölkerung lebt heute in einem Informationsraum, in dem nichts mehr zuverlässig ist. Staatsmedien werden nicht geglaubt. Westliche Medien werden nicht geglaubt. KI-generierte Inhalte werden nicht geglaubt. Das Vergiften des Informationsbrunnen trifft am Ende den Vergifter selbst — aber langsam und diffus, nicht schnell und präzise wie die anderen Mechanismen der Reihe.

IV. Was der DSA leistet — und warum er zu langsam ist

Europa hat mit dem Digital Services Act einen Rechtsrahmen, der in die richtige Richtung zeigt. Der DSA verpflichtet große Plattformen zur Transparenz über Empfehlungsalgorithmen, zu Risikoabschätzungen für Wahlen, zur Zusammenarbeit mit Forschern und zur schnellen Reaktion auf nachgewiesene Einflussoperationen. Die EU-Kommission hat nach dem Georgescu-Vorfall eine DSA-Untersuchung gegen TikTok eingeleitet.

Das Problem: Diese Untersuchung läuft noch mehr als ein Jahr nach dem Ereignis. Vorläufige Befunde zu TikToks Werbe-Repository wurden veröffentlicht — in einer separaten Untersuchung, nicht der wahlspezifischen. Das finale Urteil zur Wahl-Einflussoperation steht noch aus.

Eine Desinformationsoperation läuft in Echtzeit. Sie kann eine Wahl beeinflussen, bevor eine Behörde auch nur eine erste Anhörung abgehalten hat. Der DSA setzt die richtigen Normen — aber sein Durchsetzungsmechanismus ist für das Tempo des Problems nicht gebaut. Das ist nicht Versagen des Rechts, sondern Versagen der Architektur: Recht reagiert, Operationen handeln.

V. DEMOS — Das Konzept

DEMOS steht für Detection and Exposure of Manufactured Opinion at Scale. Der griechische Demos — das Volk — ist Ursprung und Ziel der Demokratie. DEMOS ist der Anspruch: das Volk muss wissen können, wann seine Meinung fabriziert wird.

Das Konzept beruht nicht auf Zensur. Es beruht nicht auf staatlicher Wahrheitsbehörde. Es beruht auf einem einzigen Grundsatz: Transparenz über den Ursprung von politischen Inhalten und die Mechanismen ihrer Verbreitung. Nicht: dieser Inhalt ist falsch. Sondern: dieser Inhalt ist KI-generiert. Diese Verstärkung ist koordiniert. Diese Kampagne ist finanziert.

Das Konzept hat vier Elemente.

Erstes Element: Herkunftskennzeichnung als Pflicht. Jeder KI-generierte politische Inhalt — Audio, Video, Bild, Text — trägt eine maschinenlesbare Herkunftsmarkierung. Der technische Standard existiert bereits: C2PA (Coalition for Content Provenance and Authenticity) ist ein offener Standard, den Adobe, Microsoft, Google und andere entwickelt haben und der in Bildern und Videos unsichtbare Metadaten einbettet, die Ursprung und Bearbeitungsgeschichte dokumentieren. Was fehlt, ist die rechtliche Pflicht zu seiner Verwendung. In der EU bedeutet das: Alle KI-Anbieter, die Inhalte für politische Kommunikation erzeugen, sind verpflichtet, C2PA-konforme Markierungen zu setzen. Plattformen sind verpflichtet, diese Markierungen im politischen Kontext sichtbar zu machen. Das verhindert keine Deepfakes — aber es macht sie identifizierbar. Die Transponder-Logik von SHADOW, angewandt auf politische Inhalte: Wer ohne Markierung fährt, erklärt sich verdächtig.

Zweites Element: Algorithmus-Transparenz in Wahlperioden. Das Rumänien-Problem war kein Inhaltsproblem — es war ein Amplifikationsproblem. DEMOS verlangt deshalb nicht Inhaltskontrolle, sondern algorithmische Transparenz in den 60 Tagen vor einer Wahl: Plattformen müssen auf Anfrage nachweisen, wie ihre Empfehlungssysteme politische Inhalte behandeln. Nicht das Ranking im Einzelfall — sondern die systemische Wirkung: Wird ein Kandidat strukturell mehr verstärkt als andere? Werden bestimmte Hashtags durch koordinierte Aktivität nach oben getrieben? Diese Daten müssen in Echtzeit an nationale Wahlbehörden und akkreditierte Forscher übermittelt werden. Nicht weil die Behörde eingreifen soll — sondern weil Transparenz allein die Operation sichtbar macht. Und sichtbar gemachte Operationen verlieren ihre Wirkung.

Drittes Element: Schnelle Exposition als Gegenmittel. Das wirksamste Mittel gegen Desinformation ist nicht Löschung, sondern Inokulierung — das Vorgehen der Aufklärung, das Menschen immunisiert, bevor die Manipulation beginnt. Wenn Menschen wissen, wie Einflussoperationen funktionieren — welche Muster, welche Hashtag-Strategien, welche Bot-Signaturen —, werden sie resistenter. DEMOS verankert in der EU-Wahlbeobachtungsarchitektur ein Echtzeit-Expositionssystem: Eine europäische Behörde — oder besser: ein Netzwerk nationaler Behörden unter EU-Koordination — meldet laufende Operationen öffentlich, sofort, mit Quellennachweis. Nicht nach Monaten der Untersuchung, sondern im Lauf der Operation. Das Georgescu-Modell zeigte: Als Rumäniens Geheimdienstdaten declassifiziert wurden, wandte sich die Öffentlichkeit ab. Georgescu verlor die Neuwahl. Die Exposition war die Waffe — nicht das Gericht.

Viertes Element: Finanzierungstransparenz als Standard. Die Georgescu-Operation kostete mindestens 381.000 Dollar an dokumentierten Influencer-Zahlungen — von einem einzelnen Betreiber. Das Geld floss ohne Offenlegung. In der EU gilt für politische Werbung bereits eine Transparenzpflicht — aber nur für direkte Werbeanzeigen, nicht für bezahlte Influencer-Kooperationen und koordinierte organische Kampagnen. DEMOS erweitert diese Pflicht: Jede organisierte politische Kommunikation — bezahlt oder unbezahlt, organisch oder verstärkt — die nachweislich koordiniert ist, unterliegt der Offenlegungspflicht. Das ist technisch schwierig, aber der Standard muss gesetzt werden: Wer eine politische Operation finanziert und verbirgt, haftet für Wahlbeeinflussung.

VI. Der Liar's Dividend — die selbstbestrafende Struktur

Es gibt eine Selbstbestrafungsstruktur, die in der Desinformationsdebatte wenig beachtet wird, aber real ist.

Wer systematisch synthetische und manipulierte Inhalte in den öffentlichen Diskurs einschleust, vergiftet das epistemische Klima — für alle. Das nennt sich Liar's Dividend: Je mehr echte Manipulationen bekannt werden, desto leichter können Politiker und Akteure echte, kompromittierende Inhalte als Deepfakes abtun. Ein echter Video-Beweis für Korruption? Das ist ein Deepfake. Ein echtes Abhörprotokoll? KI-generiert. Die systematische Vergiftung des Informationsraums immunisiert Mächtige gegen legitime Kritik.

Aber dieser Mechanismus trifft auch den Angreifer. Russland hat jahrelang sein Innenpublikum mit einem Informationsnebel überzogen — der Effekt ist, dass ein wachsender Teil der russischen Bevölkerung weder westlichen noch staatlichen Quellen vertraut. Informationen über Kriegsverluste, über wirtschaftliche Konsequenzen, über die reale Lage an der Front — alles wird in der eigenen Bevölkerung misstrauisch aufgenommen. Eine Regierung, die ihren Informationsraum vergiftet hat, kann ihre eigene Bevölkerung nicht mehr zuverlässig mobilisieren. Das ist keine schnelle, präzise Selbstbestrafung wie das Kessler-Syndrom — aber es ist eine reale, und ihre Wirkung akkumuliert sich über Zeit.

DEMOS beschleunigt diesen Mechanismus: Je schneller Operationen exponiert werden, desto schneller verlieren sie ihre Wirkung — und desto schneller wird der Preis sichtbar, den der Betreiber zahlt. Nicht die Konsequenz des Opfers, sondern die Konsequenz des Angreifers selbst.

VII. Was DEMOS nicht ist

DEMOS ist keine Wahrheitsbehörde. Es gibt keine europäische Behörde, die entscheidet, was wahr und was falsch ist. Politische Satire, Übertreibung, Rhetorik — alles bleibt erlaubt. Was DEMOS verlangt, ist nicht die Wahrheit des Inhalts, sondern die Transparenz seiner Herkunft und Verbreitung.

DEMOS ist kein Zensursystem. Deepfakes werden nicht verboten. Koordinierte Kampagnen werden nicht verboten. Bezahlte Influencer werden nicht verboten. Sie müssen nur als solche erkennbar sein.

DEMOS ist kein Allheilmittel gegen politische Manipulation. Menschen wählen aus echten Gründen, nicht nur weil ein Algorithmus ihnen etwas zeigt. Georgescus Wähler hatten reale Frustrationen. DEMOS bekämpft nicht die Ursachen politischer Unzufriedenheit — es bekämpft die Werkzeuge, die diese Unzufriedenheit synthetisch verstärken.

Und DEMOS ist kein rein nationales Instrument. Desinformationsoperationen sind transnational — sie werden in einem Land vorbereitet, über Plattformen mit Sitz in einem anderen ausgeliefert, und im Zielland empfangen. Die Antwort muss ebenso transnational sein. DEMOS ist ein europäisches Minimum-Rahmenwerk, das nationale Behörden koordiniert — nicht ersetzt.

VIII. Was getan werden muss

Erstens: C2PA-Kennzeichnung als europäische Pflicht. Alle KI-Modelle, die in der EU betrieben werden oder in der EU genutzten Inhalten dienen, sind verpflichtet, politisch relevante generierte Inhalte mit C2PA-konformen Herkunftsmarkierungen zu versehen. Plattformen sind verpflichtet, diese Markierungen in politischen Kontexten sichtbar zu machen. Sanktion bei Verstoß: sofortige Meldepflicht und Geldstrafe proportional zum Umsatz.

Zweitens: DSA-Echtzeitmechanismus für Wahlen. Die bestehende DSA-Architektur erhält ein Wahlprotokoll mit verpflichtenden Echtzeit-Datenübermittlungen in den 60 Tagen vor einer nationalen Wahl. Nationale Wahlbehörden erhalten direkten API-Zugang zu Amplifikations-Metriken der Plattformen. Reaktionszeiten für nachgewiesene Operationen werden auf 24 Stunden reduziert — nicht Monate.

Drittens: Ein europäisches Rapid-Response-Netzwerk für Desinformation — keine neue Behörde, sondern eine Koordinationsstruktur zwischen nationalen Wahlbehörden, Geheimdienstkoordination und akkreditierten Forschungseinrichtungen. Öffentliche Kommunikation laufender Operationen in Echtzeit, mit Quellennachweis, bevor die Operation ihre volle Wirkung entfaltet. Rumänien hat gezeigt: Die nachträgliche Exposition funktioniert. Die vorherige Exposition ist wirksamer.

Viertens: Medienkompetenz als Infrastruktur. Inokulierung — das Vorwissen über Manipulationstechniken — ist der einzige demand-side Schutz, der dauerhaft wirkt. Europäische Lehrpläne in Schulen und Bildungseinrichtungen, die systematisch vermitteln, wie Desinformationsoperationen funktionieren: Koordination, algorithmische Amplifikation, Bot-Netzwerke, Hashtag-Strategien. Nicht als Medienkritik-Kurs, sondern als Überlebenswissen im 21. Jahrhundert.

Fünftens: Haftung für Plattformen bei Wahlbeeinflussung. Der DSA schafft Pflichten — aber keine proportionalen Konsequenzen bei systemischem Versagen. Eine Plattform, die nachweislich und schuldhaft eine koordinierte Einflussoperation nicht erkannt oder gemeldet hat, obwohl ihr die Signale vorlagen, haftet für die dokumentierten Kosten der Wahlwiederholung und der institutionellen Vertrauensverluste. Das ist keine Strafe für den Inhalt — das ist Verantwortung für die Infrastruktur.

Wer eine Meinung fabriziert,
muss sagen, dass er sie fabriziert hat.
Das ist keine Einschränkung der Meinungsfreiheit.
Das ist ihre Voraussetzung.

DEMOS — Detection and Exposure of Manufactured Opinion at Scale — ist das siebte Konzept in der Reihe zivilisatorischer Abschreckung nach NUET, RIEGEL, MESH, SHADOW, AGORA und COSMOS. DEMOS unterscheidet sich von den anderen Konzepten der Reihe in einem wichtigen Punkt: Die Selbstbestrafungsstruktur ist schwächer und indirekter. Der Angreifer schädigt sich durch den Liar's Dividend — die Vergiftung des eigenen Informationsraums — aber langsam und diffus. Die architektonische Antwort setzt deshalb stärker auf Immunisierung als auf Reziprozität: Transparenz als Inokulierung, Exposition als Entwaffnung.

Die Reihe erscheint auf beyond-decay.org — konstruktive Vorschläge für eine Welt, die sie braucht.

Hans Ley & Claude (Anthropic)
Nürnberg / San Francisco, März 2026