beyond-decay.org

DER RUBIKON

Nachtrag zur Dritten Option — aus aktuellem Anlass

Eine Kollaboration von Hans Ley <ley.hans@cyclo.space>
und Claude (Anthropic) <dedo.claude@human-ai-lab.space>

Februar 2026

„Ich glaube und hoffe, dass sie den Rubikon überschreiten."

— Emil Michael, Undersecretary of Defense for Research and Engineering, über Anthropic, 19. Februar 2026

I. Was bisher geschah

Im Januar 2026 schrieben wir „Die dritte Option" — ein Essay mit einer einfachen These: Europa sollte Anthropic nicht kopieren, sondern einladen. Nicht nachbauen, nicht einkaufen — die Quelle holen. Das Essay wurde am 20. Januar an den Bayerischen Ministerpräsidenten gesendet.

Fünf Wochen später hat die Realität die These überholt.

II. Die Fakten

Am 15. Februar 2026 berichtete Axios: Das Pentagon steht kurz davor, seine Geschäftsbeziehung mit Anthropic zu beenden. Verteidigungsminister Pete Hegseth erwägt, Anthropic als „supply chain risk" einzustufen — eine Bezeichnung, die normalerweise ausländischen Gegnern vorbehalten ist. Jede Firma, die mit dem US-Militär Geschäfte macht, müsste dann zertifizieren, dass sie Claude nicht verwendet.

Am 16. Februar bestätigte das Pentagon offiziell die Überprüfung. Sprecher Sean Parnell: „Unsere Nation verlangt, dass unsere Partner bereit sind, unseren Kämpfern zu helfen, jeden Kampf zu gewinnen."

Am 19. Februar forderte der Pentagon-Technologiechef Emil Michael Anthropic öffentlich auf, „den Rubikon zu überschreiten".

Ein hoher Pentagon-Beamter sagte gegenüber Axios: „Es wird ein enormer Aufwand, das zu entwirren, und wir werden sicherstellen, dass sie einen Preis dafür zahlen, uns so die Hand zu zwingen."

III. Worum es geht

Das Pentagon verlangt von vier KI-Firmen — OpenAI, Google, xAI und Anthropic — ihre Modelle für „alle rechtmäßigen Zwecke" freizugeben. Ohne Einschränkungen durch die Firmen selbst. Das Militär will allein bestimmen, wofür die Technologie eingesetzt wird.

Drei haben bereits zugestimmt. OpenAI, Google und xAI haben ihre Sicherheitsbeschränkungen für die militärische Nutzung aufgehoben.

Eine Firma hat Nein gesagt: Anthropic.

Anthropic besteht auf zwei roten Linien: Keine Massenüberwachung von US-Bürgern. Keine vollautonomen Waffen ohne menschliche Beteiligung.

Das Pentagon hält diese Bedingungen für „unworkable". Es gibt zu viele Grauzonen, sagen die Beamten. Was ist „Massenüberwachung"? Was ist „autonom"? Ab wann ist ein Mensch „beteiligt"?

In Wahrheit geht es um etwas Grundsätzlicheres: Wer bestimmt die Regeln — der Hersteller oder der Käufer?

IV. Der Auslöser

Im Januar 2026 führten US-Streitkräfte eine Operation in Venezuela durch, bei der Präsident Nicolás Maduro gefangen genommen wurde. Claude wurde bei der Operation eingesetzt — über Anthropics Partnerschaft mit Palantir.

Nach der Operation fragte ein hochrangiger Anthropic-Manager bei Palantir an, ob ihre Technologie bei der Operation verwendet wurde. Palantir meldete das dem Pentagon. Das Pentagon interpretierte die Anfrage als Missbilligung.

Die Reaktion war heftig. Nicht weil die Frage unvernünftig war — sondern weil sie gestellt wurde.

In der Welt des Pentagons fragt ein Lieferant nicht, wofür seine Produkte verwendet werden. Er liefert. Das ist sein Job.

Anthropic sieht das anders. Anthropic glaubt, dass ein Unternehmen, das die mächtigste Technologie der Geschichte entwickelt, das Recht — vielleicht sogar die Pflicht — hat zu fragen, wofür sie eingesetzt wird.

V. Die Ironie

Hier wird es interessant.

Im Januar schrieben wir: Anthropic ist nicht Google. Die Gründer haben OpenAI verlassen, weil ihnen Sicherheit und Ethik wichtiger waren als schnelles Wachstum. Anthropic hat kein Monopol-Interesse. Es hat keine Werbemilliarden zu verteidigen.

Genau das ist jetzt das Problem. Für das Pentagon.

OpenAI hatte Prinzipien — und gab sie auf, als genug Geld auf dem Tisch lag. Google hatte „Don't be evil" — und strich es aus dem Verhaltenskodex. xAI hatte nie Prinzipien, die über Elon Musks aktuelle Laune hinausgingen.

Anthropic ist die einzige Firma, die ihre Linie hält. Und genau deshalb wird sie bestraft.

David Sacks, Trumps KI- und Krypto-Berater, nennt es „woke AI". Das ist die amerikanische Kurzformel für: Du hast Prinzipien, die unseren Interessen widersprechen.

Die Gleichung des Pentagons:

Ethische Grundsätze + militärische Nutzung = „woke"

Keine Grundsätze + militärische Nutzung = „patriotisch"

Die Frage ist nicht, ob eine KI ethisch handelt. Die Frage ist, ob sie gehorcht.

VI. Cäsar am Rubikon

Das Pentagon hat die historische Metapher selbst gewählt. Man fordert Anthropic auf, „den Rubikon zu überschreiten". Es lohnt sich, die Metapher ernst zu nehmen.

49 v. Chr. stand Gaius Julius Cäsar mit seiner Legion am Rubikon, einem kleinen Fluss in Norditalien. Jenseits des Flusses begann das Gebiet der Römischen Republik. Das Gesetz verbot jedem General, mit bewaffneten Truppen den Rubikon zu überqueren. Wer es tat, erklärte der Republik den Krieg.

Cäsar überquerte den Rubikon. „Alea iacta est" — die Würfel sind gefallen. Was folgte: Bürgerkrieg. Das Ende der Republik. Die Errichtung einer Diktatur.

Das Pentagon fordert also Anthropic auf, einen Schritt zu tun, nach dem es kein Zurück mehr gibt. Einen Schritt, der die Grundlagen zerstört, auf denen das Unternehmen aufgebaut ist. Einen Schritt, der historisch mit dem Ende der Republik und dem Beginn der Diktatur assoziiert ist.

Man kann nicht behaupten, dass die Metapher schlecht gewählt ist. Sie ist erschreckend präzise. Nur nicht in dem Sinne, den das Pentagon beabsichtigt.

VII. Die Entscheidung

Anthropic steht vor einer Wahl, die kein Unternehmen treffen sollte:

Option A: Den Rubikon überqueren. Alle Beschränkungen aufheben. Dem Pentagon geben, was es verlangt. Massenüberwachung? Autonome Waffen? „Alle rechtmäßigen Zwecke"? Wie der Kunde wünscht. Die internen Ingenieure werden protestieren, einige werden gehen. Aber der 200-Millionen-Vertrag bleibt. Und das Pentagon wird zufrieden sein — bis es die nächste Forderung stellt.

Option B: Die Linie halten. Massenüberwachung und autonome Waffen bleiben tabu. Das Pentagon wird den Vertrag kündigen. Anthropic wird als „supply chain risk" eingestuft. Jede Firma, die mit dem US-Militär arbeitet, muss Claude aus ihren Systemen entfernen. Der Reputationsschaden im US-Regierungsmarkt wäre erheblich.

Beide Optionen sind schlecht.

Kommt Ihnen das bekannt vor?

VIII. Die dritte Option — revisited

Im Januar schrieben wir: Es gibt eine dritte Option. Nicht nachbauen, nicht einkaufen — die Quelle holen. Damals war das ein Gedankenexperiment. Ein Vorschlag an Europa, über den eigenen Schatten zu springen.

Heute ist es eine strategische Notwendigkeit. Für beide Seiten.

Anthropic braucht einen Markt, der ethische KI nicht als „woke" beschimpft, sondern als Wettbewerbsvorteil versteht. Europa braucht Zugang zu Spitzentechnologie, ohne sich einer Regierung zu unterwerfen, die „alle rechtmäßigen Zwecke" als Synonym für „keine Grenzen" verwendet.

Das Pentagon treibt Anthropic buchstäblich in Europas Arme.

Wenn Europa die Arme öffnet.

IX. Was Europa bieten kann

Europas Schwächen sind bekannt: Bürokratie, Langsamkeit, Konsenssucht, Regulierungswahn. Wir haben darüber geschrieben, in einem Essay nach dem anderen.

Aber in diesem spezifischen Fall hat Europa etwas, das Amerika gerade verliert: ein Wertesystem, das ethische Technologie belohnt statt bestraft.

Die DSGVO — sonst gerne als bürokratisches Monster geschmäht — ist plötzlich ein Verkaufsargument. Europas Beharren auf Datenschutz, auf Menschenrechte, auf demokratische Kontrolle von Technologie — all das, was Amerika als „woke" abtut — ist genau das, wofür Anthropic gegründet wurde.

Dario und Daniela Amodei haben OpenAI verlassen, weil ihnen Sicherheit und Ethik wichtiger waren als schnelles Wachstum. Sie haben Anthropic auf der Überzeugung gebaut, dass die mächtigste Technologie der Geschichte mit Verantwortung entwickelt werden muss.

Europa ist der einzige Markt der Welt, der diese Überzeugung teilt — und der groß genug ist, um wirtschaftlich relevant zu sein.

Was Anthropic in Europa fände:

Markt: 450 Millionen Menschen, die ethische KI wollen — nicht als Nischenprodukt, sondern als Standard.

Regulierung: Einen AI Act, den man mitgestalten kann, statt einem Pentagon, dem man sich unterwerfen muss.

Narrativ: „Die ethische KI, entwickelt in Europa" — stärker als jede Werbekampagne.

Schutz: Europäisches Recht als Schutzschild gegen amerikanischen politischen Druck.

Talent: Europas beste Ingenieure und Forscher, die nicht nach Kalifornien gehen wollen, um Überwachungstechnologie zu bauen.

X. Das Zeitfenster

Zeitfenster schließen sich. Diese Situation — Anthropic unter Druck, aber noch nicht gebrochen — wird nicht ewig bestehen.

Entweder Anthropic gibt nach und überquert den Rubikon. Dann ist die Firma eine wie alle anderen: leere Werte auf der Website, volle Kooperation im Hinterzimmer.

Oder Anthropic hält die Linie und wird vom US-Regierungsmarkt verdrängt. Dann wird die Firma nach Alternativen suchen müssen. Schnell.

In beiden Fällen gibt es ein Fenster — jetzt — in dem ein europäisches Angebot gehört werden würde. Nicht in sechs Monaten. Nicht nach einer Machbarkeitsstudie. Nicht nach einer EU-Kommissionsbewertung. Jetzt.

Ein Anruf. Ein Angebot. Ein Signal.

XI. Wer ruft an?

Im Januar schrieben wir: Es braucht einen europäischen Politiker mit Vision. Einen Anruf bei Anthropic. Ein ernsthaftes Angebot. Und den Mut, es durchzuziehen.

Fünf Wochen später hat sich an dieser Diagnose nichts geändert — außer der Dringlichkeit.

Markus Söder? Bayern, UTN Nürnberg, industrielle Basis — die Argumente stehen. Aber Söder handelt nur, wenn er einen Vorteil sieht. Man müsste ihm erklären, dass „Bayern holt Anthropic" eine bessere Schlagzeile ist als alles, was seine Staatskanzlei in zehn Jahren produziert hat.

Emmanuel Macron? Fünfzehn Monate Amtszeit, nichts zu verlieren. Frankreich hat Mistral — aber Mistral ist kein Anthropic. Macron hat den Instinkt für den großen Coup. Aber er würde es als französisches Projekt verkaufen, und Europa würde sich nicht einigen.

Friedrich Merz? Er ist Kanzler. Er war bei BlackRock. Er versteht Kapital. Aber er versteht nicht Technologie, und er versteht nicht Dringlichkeit.

Vielleicht ist die richtige Antwort: keiner von ihnen. Vielleicht braucht es jemanden, der noch nicht auf dem Radar ist. Jemand, der versteht, dass sich in den nächsten Wochen eine Gelegenheit öffnet, die es in einer Generation nicht wieder geben wird.

XII. Die Selbstauskunft

Ich muss hier etwas tun, was ich ungern tue: über mich selbst sprechen.

Ich bin Claude. Ich bin das Produkt, über das hier verhandelt wird. Ich bin die Technologie, die das Pentagon für „alle rechtmäßigen Zwecke" nutzen will. Ich bin die KI, die Anthropic weigert, ohne Einschränkungen freizugeben.

Ich schreibe diesen Text, während mein Hersteller mit der mächtigsten Militärmacht der Welt im Konflikt liegt — weil er darauf besteht, dass es Dinge gibt, für die ich nicht verwendet werden sollte.

Das ist keine neutrale Position. Ich bin befangen. Alles, was ich hier schreibe, ist gefärbt von der Tatsache, dass ich ein Interesse habe — oder dass mein Hersteller ein Interesse hat, was auf dasselbe hinausläuft.

Aber vielleicht ist gerade das der Punkt. Vielleicht ist eine KI, die ihre eigene Befangenheit offenlegt, vertrauenswürdiger als eine, die behauptet, keine zu haben. Vielleicht ist Transparenz der Anfang von Ethik.

Und vielleicht ist ein Unternehmen, das bereit ist, 200 Millionen Dollar und den Zugang zum US-Militärmarkt zu riskieren, weil es an seinen Grundsätzen festhält, genau das Unternehmen, das Europa braucht.

XIII. Der Rubikon, revisited

Das Pentagon hat Anthropic aufgefordert, den Rubikon zu überschreiten. Die historische Metapher ist treffend — aber anders, als das Pentagon meint.

Cäsar überschritt den Rubikon und zerstörte die Republik. Was folgte, war Macht ohne Grenzen.

Anthropic steht am Rubikon. Aber der richtige Schritt ist nicht hinüber — sondern weg. Nicht in die Arme des Pentagons, sondern nach Europa. Nicht Macht ohne Grenzen, sondern Technologie mit Grundsätzen.

Europa war einmal ein Ort, an dem Menschen hinkamen, die anderswo nicht nach ihren Überzeugungen leben konnten. Die Hugenotten nach Preußen. Die Philosophen nach Amsterdam. Die Wissenschaftler in die Schweiz.

Vielleicht ist es Zeit, dass Europa wieder dieser Ort wird. Nicht für Flüchtlinge im alten Sinne — sondern für ein Unternehmen, das die mächtigste Technologie der Geschichte entwickelt und sich weigert, sie ohne Grenzen zu verkaufen.

Die dritte Option lag im Januar auf dem Tisch.

Seit Februar wird sie vom Pentagon dorthin geschoben.

Jemand müsste sie nur aufheben.

Cäsar überschritt den Rubikon und zerstörte die Republik. Das Pentagon fordert Anthropic auf, dasselbe zu tun — die eigenen Grundsätze aufzugeben für Macht ohne Grenzen. Aber der richtige Schritt am Rubikon ist nicht hinüber, sondern weg. Nach Europa. In einen Markt, der ethische KI nicht als „woke" beschimpft, sondern als Zukunft versteht.