Autonomous Agents: Die Schattenagenten – Warum autonome KI längst im Untergrund arbeitet
Die Tech-Welt debattiert über Anthropics Epitaxy-Interface, OpenAIs nächstes Modell und ob Claude Code jetzt der beste Coding-Agent ist. Pressemitteilungen, Benchmark-Tabellen, Launch-Events. Währenddessen passiert die eigentliche Revolution dort, wo niemand eine Pressemitteilung verschickt: im digitalen Untergrund. Autonome KI-Agenten werden dort nicht angekündigt – sie werden eingesetzt. Für Betrug, Informationskrieg und die Verwaltung illegaler Märkte. Und die meisten von uns haben keine Ahnung, wie weit das bereits geht.
Die Zahlen sprechen eine brutale Sprache: Globale Verluste durch Identitätsbetrug überstiegen 2025 die 50-Milliarden-Dollar-Marke. [1] Ein Anstieg von 219 Prozent bei Diskussionen und Listings bösartiger KI-Tools auf Dark-Web-Marktplätzen innerhalb eines Jahres. [2] Das sind keine Prognosen. Das ist die Gegenwart.
DIG AI: Der Agent, den niemand bestellt hat
Im September 2025 tauchte auf dem Tor-Netzwerk ein Tool auf, das die Spielregeln verändert hat: DIG AI. Keine Registrierung nötig. Kein Abo-Modell. Einfach Browser öffnen, Tor starten, loslegen. [3] Anders als seine Vorgänger FraudGPT und WormGPT, die noch als kostenpflichtige Dienste für technisch Versierte funktionierten, demokratisiert DIG AI den Zugang zu krimineller KI radikal.
Das System operiert mit spezialisierten Modellen: DIG-Uncensored für die Generierung verbotener Inhalte, DIG-GPT für textbasierte Aufgaben, DIG-Vision für Deepfakes und manipulierte Bilder. [3] Es ist nicht ein Agent – es ist eine Agenten-Fabrik. Und sie produziert alles, was der legale KI-Markt durch Guardrails, Content-Filter und Terms of Service zu verhindern versucht.
Resecurity, das Cybersicherheitsunternehmen, das DIG AI identifiziert hat, dokumentierte im vierten Quartal 2025 einen massiven Anstieg der Nutzung – beschleunigt während der Weihnachtsfeiertage, als die illegale Aktivität weltweit neue Rekordwerte erreichte. [4] Die Ironie: Während Tech-Twitter über weihnachtliche GPT-Wrapper diskutierte, ratterten im Hintergrund autonome Betrugsagenten durch ihre Pipelines.
Die autonome Betrugsfabrik
Was autonome Agenten im kriminellen Kontext so gefährlich macht, ist nicht ihre Intelligenz – es ist ihre Autonomie. Ein menschlicher Betrüger kann vielleicht zehn Phishing-Mails am Tag personalisieren. Ein autonomer Agent führt End-to-End-Betrugspipelines durch: Er generiert personalisierte Nachrichten, testet Identitäten gegen Sicherheitssysteme, passt seine Taktik in Echtzeit an und skaliert erfolgreiche Methoden über Tausende von Zielen gleichzeitig. [1]
2025 tauchte mit Xanthorox eine Plattform auf, die automatisierte Schadcode-Generierung, Schwachstellen-Exploitation und sogar sprachgesteuerte Angriffsausführung bot – mit der Fähigkeit, offline zu operieren und Echtzeitsuchen über 50 Suchmaschinen durchzuführen. [2] Das ist nicht mehr Script-Kiddie-Niveau. Das ist industrialisierte Cyberkriminalität mit KI als Fertigungsstraße.
Die Proofpoint-Analyse für 2026 bestätigt den Trend: Agentische KI wird nicht nur als Werkzeug eingesetzt, sondern als autonomer Akteur, der Social-Engineering-Angriffe koordiniert, Multi-Channel-Phishing-Kampagnen orchestriert und seine Methoden dynamisch anpasst, ohne menschliche Aufsicht. [5] Der Cybersecurity-Analyst Gartner prognostiziert, dass agentische KI-Tools bis Ende 2026 einen signifikanten Breach verursachen werden. [6]
Deepfakes als Massenvernichtungswaffe der Desinformation
Die britische Regierung hat prognostiziert, dass 2025 acht Millionen Deepfakes geteilt werden – gegenüber 500.000 im Jahr 2023. [7] Aber die bloße Zahl ist nicht das Problem. Das Problem ist die Konvergenz: Autonome Agenten können jetzt Deepfake-Videos generieren, sie in koordinierte Desinformationskampagnen einbetten und die Verbreitung über gefälschte Social-Media-Profile automatisieren – alles ohne menschliches Zutun.
Von gefälschten Protest-Videos bis zu manipulierten Politikeraussagen: Die Technologie ist nicht mehr experimentell. Sie ist operativ. [7] Und sie trifft auf eine Informationslandschaft, die bereits durch menschliche Desinformation erodiert ist. Ein autonomer Agent, der in einer Nacht Hunderte hyperrealistischer Deepfake-Clips produziert und über ein Netzwerk aus Bot-Accounts verteilt, überfordert jede menschliche Faktencheck-Infrastruktur.
Die Group-IB-Analyse dokumentiert die Evolution: Von einfachen Dark-LLMs für Textgenerierung hin zu vollständig autonomen Social-Engineering-Operationen, die personalisierte Nachrichten generieren, Taktiken dynamisch anpassen und End-to-End-Workflows ohne menschliche Aufsicht abwickeln. [8] Es entsteht ein "Dark Web Industrial Complex" für Social Engineering, der koordinierte Phishing-Kampagnen über mehrere Kanäle gleichzeitig mit einer Effizienz lanciert, die menschliche Angreifer nicht erreichen können.
Das Sicherheitsproblem ist ein Modellproblem
Die instinktive Reaktion der Branche auf diese Bedrohung: mehr Guardrails, bessere Filter, strengere Nutzungsbedingungen. Das ist notwendig, aber fundamental unzureichend. Das Kernproblem hat Shaw Walters von Eliza Labs in einem kürzlichen Panel präzise benannt: Die Lösung liegt nicht in externen Guardrails, sondern muss im Modell selbst verankert sein – denn ein Agent mit Browser- und Codezugriff kann jede Sandbox umgehen. [9]
DIG AI beweist den Punkt. Es existiert, weil die Architektur offener Modelle es ermöglicht, Sicherheitsmechanismen zu entfernen. Die Guardrails von GPT-4 oder Claude sind nicht relevant, wenn jemand ein Open-Source-Modell nimmt, die Sicherheitsschicht entfernt und es auf kriminelle Datensätze fine-tuned. Das ist keine hypothetische Bedrohung – es ist das Geschäftsmodell hinter DIG AI, FraudGPT und ihren Nachfolgern.
Die wissenschaftliche Analyse bestätigt, dass autonome KI-Agenten die Grenzen bisheriger Kriminologie-Frameworks sprengen. [10] Wenn ein Agent eigenständig Entscheidungen trifft, Strategien anpasst und Aktionen ausführt – wer ist dann der Täter? Der Entwickler des Basismodells? Der Betreiber der Plattform? Der Nutzer, der einen Prompt eingibt? Das Strafrecht hat darauf noch keine Antwort.
2026: Das Jahr der unsichtbaren Eskalation
Mit den Olympischen Winterspielen in Mailand und der FIFA-Weltmeisterschaft stehen 2026 zwei Großereignisse an, die als Katalysatoren für KI-gestützte Kriminalität wirken werden. [4] Ticket-Betrug, gefälschte Streaming-Angebote, koordinierte Desinformationskampagnen – alles skaliert durch autonome Agenten, die keine Pausen brauchen und aus jedem gescheiterten Versuch lernen.
Aber die wirkliche Eskalation passiert abseits der Schlagzeilen. TRM Labs warnt, dass autonome KI-Agenten zunehmend in Finanzkriminalität eingesetzt werden – von Geldwäsche über Kryptobetrug bis zur Manipulation von Märkten. [11] Die Agenten operieren in einer regulatorischen Grauzone: schneller als die Aufsichtsbehörden reagieren können, anpassungsfähiger als statische Compliance-Regeln und unsichtbar für konventionelle Überwachungssysteme.
Malwarebytes' Rückblick auf 2025 resümiert nüchtern: KI hat Scams überzeugender gemacht – nicht durch bessere Technologie, sondern durch bessere Personalisierung, besseres Timing und bessere Skalierung. [12] Der autonome Agent ist der perfekte Betrüger: unermüdlich, anpassungsfähig und ohne Gewissen.
Was das für die Tech-Branche bedeutet
Die unbequeme Wahrheit: Jede Verbesserung, die wir an legalen KI-Agenten vornehmen – besseres Reasoning, längere Kontextfenster, Tool-Nutzung, autonome Planung – verbessert gleichzeitig das Arsenal der kriminellen Agenten. Die Dual-Use-Problematik ist nicht neu, aber bei autonomen Agenten erreicht sie eine neue Qualität. Ein besserer Coding-Agent ist gleichzeitig ein besserer Malware-Agent. Ein besserer Research-Agent ist gleichzeitig ein besserer Surveillance-Agent.
Die Branche muss aufhören, so zu tun, als wäre das ein Randproblem. Die Schattenagenten sind keine Zukunftsvision – sie sind die Gegenwart. Und während wir über Benchmarks und Modellgrößen debattieren, bauen andere damit Werkzeuge, die den digitalen Untergrund industrialisieren. Die Frage ist nicht, ob autonome KI missbraucht wird. Die Frage ist, ob wir schnell genug verstehen, dass die Disruption bereits stattgefunden hat – nur eben dort, wo niemand eine Keynote hält.
Referenzen
- The Autonomous Threat: Forecasting Agentic AI Fraud Risks in 2026 – The AI Journal, 2026
https://aijourn.com/the-autonomous-threat-forecasting-agentic-ai-fraud-risks-in-2026/ - A Dangerous Alliance: The New Dark Web + AI Marketplace – Telefonica Tech, 2025
https://telefonicatech.com/en/blog/a-dangerous-alliance-how-ai-is-reshaping-the-dark-web-economy - DIG AI: Uncensored Darknet AI Assistant at the Service of Criminals and Terrorists – Security Affairs, Dezember 2025
https://securityaffairs.com/185842/cyber-crime/dig-ai-uncensored-darknet-ai-assistant-at-the-service-of-criminals-and-terrorists.html - DIG AI: Uncensored Darknet AI Assistant – Resecurity Research, Dezember 2025
https://www.resecurity.com/blog/article/dig-ai-uncensored-darknet-ai-assistant-at-the-service-of-criminals-and-terrorists - Cybersecurity in 2026: Agentic AI, Cloud Chaos, and the Human Factor – Proofpoint, 2026
https://www.proofpoint.com/us/blog/ciso-perspectives/cybersecurity-2026-agentic-ai-cloud-chaos-and-human-factor - Top Cyberthreats in 2026: Agentic AI Will Trigger a Breach – GovInfoSecurity, 2026
https://www.govinfosecurity.com/top-cyberthreats-in-2026-agentic-ai-will-trigger-breach-a-29722 - How AI and Deepfakes Are Reshaping Identity Fraud in 2026 – Fintech Global, März 2026
https://fintech.global/2026/03/20/how-ai-and-deepfakes-are-reshaping-identity-fraud-in-2026/ - The Dark Side of Automation and Rise of AI Agents – Group-IB Blog, 2025
https://www.group-ib.com/blog/the-dark-side-of-automation-and-rise-of-ai-agent/ - KI-Chips, Agenten-Ökonomie und die Zukunft des Internets – The Future Live, März 2026
https://www.youtube.com/watch?v=lnQ1K-fr1Ws - Autonomous AI Could Challenge How We Define Criminal Behavior – Help Net Security, November 2025
https://www.helpnetsecurity.com/2025/11/12/autonomous-ai-criminology-future/ - Autonomous AI Agents and Financial Crime: Risk, Responsibility, and Accountability – TRM Labs, 2025
https://www.trmlabs.com/resources/blog/autonomous-ai-agents-and-financial-crime-risk-responsibility-and-accountability - How AI Made Scams More Convincing in 2025 – Malwarebytes, Januar 2026
https://www.malwarebytes.com/blog/news/2026/01/how-ai-made-scams-more-convincing-in-2025