Claude Opus 4.6: Die KI, die keine sein will – Warum Exklusivität das größte Risiko ist
Claude Opus 4.6 ist das leistungsstärkste allgemein verfügbare KI-Modell der Welt. Und trotzdem ist es nur die Vorstufe zu etwas, das Sie wahrscheinlich nie benutzen werden. Claude Mythos, Anthropics internes Nachfolgemodell, übertrifft Opus 4.6 auf praktisch jedem Benchmark – 93,9% auf SWE-bench Verified gegenüber 80,8%, 97,6% auf USAMO 2026 gegenüber 42,3%. [1] Und Anthropic hat klar kommuniziert: Sie planen nicht, es der Öffentlichkeit zugänglich zu machen.
Die Debatte dreht sich seitdem um Fähigkeiten und Sicherheit. Was Mythos kann, warum es gefährlich ist, ob Anthropic übertreibt. All das ist relevant. Aber es verdeckt die eigentlich interessante Frage: Was passiert mit einem Technologie-Ökosystem, wenn die beste verfügbare KI systematisch nur einem ausgewählten Kreis vorbehalten wird?
Von Open Access zu Gated Intelligence
Noch 2024 war die KI-Landschaft geprägt von einem impliziten Versprechen: Jedes neue Modell wird für alle verfügbar sein. OpenAI machte GPT-4 zugänglich, Google öffnete Gemini, Anthropic stellte Claude jedem mit API-Key zur Verfügung. Die Unterschiede lagen im Preis, nicht im Prinzip.
Mit Claude Mythos bricht Anthropic dieses Muster. Das Modell ist ausschließlich über Project Glasswing zugänglich – eine Initiative, bei der rund 40 handverlesene Organisationen Zugang erhalten: Amazon Web Services, Apple, Google, Microsoft, Nvidia, CrowdStrike, JPMorgan Chase, die Linux Foundation. [2] Die restlichen Partner werden nicht einmal namentlich genannt. Der Zugang ist auf defensive Cybersicherheit beschränkt. Offensive Nutzung ist vertraglich ausgeschlossen. Anthropic behält die Deployment-Kontrolle.
Das klingt nach verantwortungsvollem Umgang mit einer gefährlichen Technologie. Und genau das ist das Problem: Es klingt nur danach.
Denn die Entscheidung, wer Zugang bekommt und wer nicht, trifft ein einzelnes Unternehmen. Kein gewähltes Gremium, keine unabhängige Institution, kein demokratisch legitimierter Prozess. Anthropic hat 100 Millionen Dollar an Nutzungsguthaben für Glasswing bereitgestellt und 4 Millionen an Open-Source-Sicherheitsorganisationen gespendet. [3] Die Geste ist nett. Die Asymmetrie bleibt brutal.
Das Sicherheitsargument und seine blinden Flecken
Anthropics Begründung für die Zugangsrestriktion ist nachvollziehbar: Mythos findet Zero-Day-Schwachstellen in industriellem Maßstab. Eine 27 Jahre alte Lücke in OpenBSD, eine 16 Jahre alte in FFmpeg, verkettete Exploits im Linux-Kernel – das Modell identifiziert Sicherheitslücken, die menschlichen Forschern jahrzehntelang entgangen waren. [4] Nicholas Carlini, einer der renommiertesten Cybersecurity-Forscher bei Anthropic, gab an, in wenigen Wochen mit Mythos mehr Bugs gefunden zu haben als in seinem gesamten bisherigen Berufsleben. [5]
Die offensiven Fähigkeiten sind real. Wo Opus 4.6 bei autonomer Exploit-Entwicklung nahe null Prozent Erfolgsrate lag, konstruierte Mythos 181 funktionierende Firefox-Exploits. [1] Diese Fähigkeiten traten emergent auf – Mythos wurde nicht speziell für Cybersicherheit trainiert. Sie sind ein Nebenprodukt allgemeiner Verbesserungen in Code-Verständnis, Reasoning und Autonomie.
Die Logik dahinter: Wenn diese Fähigkeiten in falsche Hände geraten, droht eine Kaskade von Angriffen auf kritische Infrastrukturen. Also lieber kontrolliert einsetzen, patchen, dann vielleicht irgendwann öffnen. Anthropic selbst schätzt das Zeitfenster auf 6 bis 18 Monate, bevor Konkurrenten ähnliche Fähigkeiten entwickeln. [3]
Aber hier beginnt die Argumentation zu bröckeln. Denn das Sicherheitsargument schützt nicht nur – es legitimiert auch eine Machtkonzentration, die ihresgleichen sucht.
Die Entstehung einer KI-Aristokratie
Jim Zemlin, CEO der Linux Foundation und einer der Glasswing-Partner, hat es auf den Punkt gebracht: „In der Vergangenheit war Sicherheitsexpertise ein Luxus, der Organisationen mit großen Security-Teams vorbehalten war. Open-Source-Maintainer wurden historisch sich selbst überlassen." [3]
Das Problem ist: Glasswing ändert daran nichts Grundlegendes. Es gibt ein paar ausgewählten Maintainern Zugang – aber die strukturelle Ungleichheit bleibt bestehen. Wer kein Partner ist, hat kein Werkzeug. Und wer kein Werkzeug hat, kann nicht verteidigen.
Die Konsequenz ist eine neue Form technologischer Stratifikation. Auf der einen Seite stehen Konzerne mit Zugang zu übermenschlichen Sicherheitswerkzeugen. Auf der anderen stehen Startups, unabhängige Entwickler und kleinere Unternehmen, die mit den gleichen Bedrohungen konfrontiert sind – aber ohne die gleichen Mittel. Ein Kritiker formulierte es treffend: „Die mächtigste KI der Welt auf 12 Großunternehmen und rund 28 ungenannte Organisationen zu beschränken, schafft eine Informationsasymmetrie, die Platzhirsche begünstigt." [3]
Und es bleibt nicht bei Anthropic. OpenAI entwickelt Berichten zufolge ein vergleichbares Programm namens „Trusted Access for Cyber". [3] Wenn das zum Branchenstandard wird – die beste KI nur für die Größten – entsteht eine selbstverstärkende Spirale: Wer Zugang hat, kann seine Systeme besser sichern, bessere Produkte bauen, mehr Kunden gewinnen, und hat damit noch mehr Berechtigung für exklusiven Zugang.
Die Debunking-Perspektive: Marketing oder echte Bedrohung?
Nicht alle kaufen Anthropics Narrativ. Kritiker argumentieren, die Mythos-Fähigkeiten seien unter idealisierten Bedingungen erzielt worden: mit spezialisierten agentic harnesses, einer Vielzahl von Werkzeugen, iterativer Prompt-Verfeinerung und entsicherten Modellvarianten. Die Suche nach der OpenBSD-Schwachstelle erforderte über 1.000 Modellläufe. [6] Vergleichbare Sicherheitsanalysen seien bereits mit bestehenden Modellen wie GPT-5.4 oder Claude Opus 4.6 möglich, wenn die richtigen Werkzeuge eingesetzt werden.
Dieser Einwand ist berechtigt. Aber er widerlegt nicht das strukturelle Problem – er verschärft es sogar. Denn wenn Mythos tatsächlich weniger beeindruckend ist als behauptet, dann ist die Zugangsbeschränkung nicht Sicherheitspolitik, sondern Marktpositionierung. Dann inszeniert Anthropic eine künstliche Knappheit, um Exklusivität als Produktmerkmal zu verkaufen. Beides – echte Gefahr oder überzogenes Marketing – führt zum selben Ergebnis: Die Konzentration von KI-Fähigkeiten in den Händen weniger.
Auch die wirtschaftlichen Realitäten spielen eine Rolle. Anthropics Revenue-Run-Rate stieg von 9 Milliarden Ende 2025 auf 30 Milliarden Dollar. Die GPU-Knappheit ist so akut, dass Anthropic im April 2026 Drittanbieter-Tools wie OpenClaw von Claude-Subscriptions ausschloss. [7] Ein 200-Dollar-Abonnement verursacht geschätzte 2.000 Dollar Kosten. Die Entscheidung, Mythos nicht breit freizugeben, könnte schlicht bedeuten: Es rechnet sich nicht.
Governance-Vakuum: Wer kontrolliert den Zugang?
Die eigentliche Leerstelle in der Debatte ist nicht technisch, sondern institutionell. Es gibt keine etablierte Governance-Struktur für die Frage, wer Zugang zu frontier KI-Fähigkeiten erhalten sollte. Anthropic entscheidet unilateral. Google und OpenAI werden nachziehen. Und die Regulierung? Der EU AI Act klassifiziert nach Risikolevel – aber er adressiert nicht die Frage der Zugangsverteilung bei Modellen, die als zu gefährlich für die Öffentlichkeit eingestuft werden.
Das ist eine Governance-Lücke, die geschlossen werden muss, bevor sie zum Graben wird. Denn die Fähigkeiten, die heute in Mythos stecken, werden in 12 bis 18 Monaten in Open-Source-Modellen auftauchen – davon gehen selbst die Kritiker aus. [4] Die Frage ist, was in dieser Zwischenzeit passiert: Wer nutzt den Vorsprung? Wer baut welche Strukturen? Und wer sitzt am Ende am Tisch, wenn die Regeln geschrieben werden?
Die Experten des Everlast AI Forschungspodcasts prognostizieren AGI für 2027, angetrieben von einer Verdopplung der autonomen Arbeitszeit von KI-Systemen alle 3,5 Monate. [8] Wenn das auch nur annähernd stimmt, stehen wir vor einer Situation, in der die mächtigsten Werkzeuge der Menschheitsgeschichte von einer Handvoll Unternehmen kontrolliert werden – ohne demokratisches Mandat, ohne öffentliche Rechenschaftspflicht, ohne Mechanismus für Zugangs-Gerechtigkeit.
Die eigentliche Frage
Claude Opus 4.6 ist ein exzellentes Modell. Für 5 Dollar pro Million Input-Tokens kann es jeder nutzen, der eine Kreditkarte hat. [9] Das ist Demokratisierung im Kleinen. Aber die nächste Stufe – die Stufe, auf der KI Schwachstellen in kritischer Infrastruktur findet, bevor Angreifer es tun – diese Stufe ist bereits exklusiv.
Die relevante Frage für 2026 ist nicht mehr „Was kann KI?". Die relevante Frage ist: „Wer darf KI?" Und solange ein einzelnes Unternehmen diese Frage beantwortet, ist die Antwort immer dieselbe: Wer zahlt. Wer groß genug ist. Wer am Tisch sitzt.
Das ist kein Sicherheitskonzept. Das ist eine neue Klassengesellschaft.
Referenzen
- Anthropic Red Team – Claude Mythos Preview: Fähigkeiten, Sicherheitsbewertung und Zugangsrestriktionen, April 2026
https://red.anthropic.com/2026/mythos-preview/ - Anthropic – Introducing Claude Opus 4.6 und Project Glasswing Partner, Februar 2026
https://www.anthropic.com/news/claude-opus-4-6 - HumAI Blog – Claude Mythos Is the Most Capable AI Model Ever Documented. Anthropic Won't Let You Use It, April 2026
https://www.humai.blog/claude-mythos-is-the-most-capable-ai-model-ever-documented-anthropic-wont-let-you-use-it/ - Anthropics „Mythos" – Ein KI-Modell, das alles verändert (Video-Analyse), April 2026
https://www.youtube.com/watch?v=SQhfkWdxVvE - Mythos is about to CRASH the markets – Wes Roth (Video-Analyse der Cybersecurity-Fähigkeiten), April 2026
https://www.youtube.com/watch?v=r4JGNJfNQeA - Claude Mythos DEBUNKED: This is ALL MARKETING! – Kritische Analyse der Mythos-Fähigkeiten, April 2026
https://www.youtube.com/watch?v=PQsDXTPyxUg - Anthropic banned OpenClaw – Policy-Änderungen und GPU-Knappheit bei Anthropic, April 2026
https://www.youtube.com/watch?v=a4hdPWSUzsE - KI-Experten reagieren: GPT-5.5, Claude „Mythos", AGI in 6 Monaten – Everlast AI Forschungspodcast, April 2026
https://www.youtube.com/watch?v=XEJ74o4fROY - WaveSpeedAI Blog – Claude Mythos API & Pricing: What Builders Need to Know Before Launch, April 2026
https://wavespeed.ai/blog/posts/claude-mythos-api-pricing/