Agentic Commerce: Wenn KI-Agenten Verträge schließen – warum das Recht nicht mitkommt
OpenAI hat im März 2026 sein Agentic Commerce Protocol vorgestellt. Shopify meldet Millionen von Händlern, die über „Agentic Storefronts" verkaufen. Walmart baut eine eigene App innerhalb von ChatGPT. [1] Die gesamte E-Commerce-Branche redet über Produktentdeckung, nahtlose Checkouts und KI-gestützte Kaufempfehlungen. Alles schön, alles effizient, alles komplett am Punkt vorbei.
Denn die eigentliche Frage stellt niemand: Was passiert, wenn der KI-Agent nicht nur für mich einkauft – sondern als eigenständiger Akteur Verträge schließt, Verbindlichkeiten eingeht und im Streitfall klagt? Die Debatte über Agentic Commerce bleibt an der Oberfläche: Schnittstellen, Conversion Rates, Produktkataloge. Darunter brodelt eine juristische und gesellschaftliche Verwerfung, die das Fundament unserer Marktwirtschaft betrifft.
Das Agentic Commerce Protocol: Infrastruktur ohne Verfassung
OpenAIs Agentic Commerce Protocol (ACP) ist als offener Standard konzipiert – eine Brücke zwischen Händlerkatalogen und ChatGPT-Nutzern. [2] Target, Sephora, Nordstrom, Best Buy, Home Depot – die Liste der integrierten Retailer liest sich wie ein Who's Who des US-Einzelhandels. Shopify spricht von einer neuen Ära, in der KI-Agenten über alle großen Plattformen hinweg – ChatGPT, Microsoft Copilot, Google AI Mode, Gemini – für Konsumenten einkaufen. [3]
Aber hier wird es interessant: OpenAI hat den „Instant Checkout" bereits wieder zurückgezogen. Die offizielle Begründung: mangelnde Flexibilität. [4] Die inoffizielle Realität: Wer einen KI-Agenten autorisiert, auf einer Plattform autonom einzukaufen, betritt rechtliches Niemandsland. Wer haftet, wenn der Agent ein falsches Produkt kauft? Wer trägt die Kosten, wenn er Vertragsbedingungen akzeptiert, die der Nutzer nie gelesen hat? Wer ist Vertragspartner – der Mensch, der Agent oder das Unternehmen, das den Agenten betreibt?
Das ACP definiert, wie Produkte gefunden werden. Es definiert nicht, wer beim Kauf juristisch handelt. Das ist kein Versäumnis – es ist eine strategische Auslassung. Denn sobald diese Frage beantwortet wird, explodiert die Komplexität.
Der Fall Amazon vs. Perplexity: Das erste Beben
Im März 2026 hat ein US-Bundesgericht eine einstweilige Verfügung erlassen, die Perplexitys KI-Shopping-Agent „Comet" den Zugriff auf Amazon untersagt. [5] Die Richterin Maxine Chesney stellte fest, dass Comet „mit der Erlaubnis des Amazon-Nutzers, aber ohne Autorisierung durch Amazon" auf die Plattform zugegriffen habe. Amazon beruft sich auf den Computer Fraud and Abuse Act (CFAA) – ein Gesetz von 1986, geschrieben für eine Welt, in der „unbefugter Zugriff" bedeutete, dass ein Mensch ein Passwort stiehlt. [6]
Der Kern des Problems: Der Nutzer hat dem Agenten die Erlaubnis gegeben. Amazon hat sie nicht gegeben. Wer hat Recht? In einer Welt, in der KI-Agenten als verlängerter Arm des Konsumenten agieren, kollidieren zwei Rechtskonzepte frontal: das Recht des Nutzers, seinen eigenen Account zu nutzen, wie er will – und das Recht der Plattform, zu bestimmen, wer (oder was) zugreifen darf.
Perplexity hat Berufung eingelegt. Amazon hat bis zum 22. April Zeit zu antworten. [7] Aber der Fall ist größer als zwei Unternehmen im Rechtsstreit. Er definiert die Spielregeln für Agentic Commerce insgesamt. Und das Ergebnis wird die nächsten Jahre der KI-gestützten Wirtschaft prägen.
Die Haftungslücke: Niemand ist zuständig
Das Center for Data Innovation hat es im März 2026 auf den Punkt gebracht: Regulierung, die für Menschen geschrieben wurde, wird Agentic Commerce ausbremsen. [8] Das Problem ist nicht, dass es keine Gesetze gibt. Das Problem ist, dass die bestehenden Gesetze einen Akteur voraussetzen, den es so nicht mehr gibt: den informierten, rational handelnden menschlichen Verbraucher.
Verbraucherschutzrecht basiert auf der Annahme, dass ein Mensch eine Entscheidung trifft. AGB werden „akzeptiert", Widerrufsrechte werden „ausgeübt", Preisvergleiche werden „durchgeführt". Was passiert, wenn all das ein Agent tut? Ist die Zustimmung des Agenten zu den AGB rechtlich bindend? Kann ein Agent ein Widerrufsrecht gültig ausüben? Und wenn der Agent einen Fehler macht – etwa ein Produkt kauft, das der Nutzer nie wollte, weil er eine Anfrage falsch interpretiert hat – wer zahlt?
Die juristische Antwort lautet derzeit: Es kommt darauf an. Und genau das ist das Problem. Die Anwaltskanzlei TLT formuliert es so: Agentic Commerce ist die nächste juristische Grenze im KI-gestützten Handel – und das bestehende Recht ist nicht darauf vorbereitet. [9] Der EU AI Act, die ambitionierteste KI-Regulierung der Welt, wurde vor dem Aufkommen autonomer Kaufagenten entworfen und enthält keine spezifischen Bestimmungen für KI-vermittelte Transaktionen.
In der Praxis entsteht ein Haftungsvakuum. Der Nutzer sagt: „Ich habe den Agenten nicht dafür autorisiert." Der Agent-Betreiber sagt: „Der Agent hat im Rahmen seiner Parameter gehandelt." Der Händler sagt: „Wir haben mit dem Agenten kontrahiert, nicht mit dem Nutzer." Drei Parteien, keine klare Zuständigkeit, ein wachsender Berg ungelöster Streitfälle.
Die LLDA-Frage: Brauchen KI-Agenten eine eigene Rechtsform?
Hier wird es radikal. Wenn bestehende Rechtskonzepte – Stellvertretung, Produkthaftung, Verbraucherschutz – an ihre Grenzen stoßen, warum nicht einen neuen Rechtsrahmen schaffen? Die Debatte über eine „Limited Liability Digital Agent" (LLDA) – eine Art digitale GmbH für KI-Agenten – ist kein Science-Fiction mehr. Sie ist eine logische Konsequenz der aktuellen Entwicklung.
Bloomberg Law berichtet, dass die Fortschritte bei KI bereits ernsthafte Diskussionen über Legal Personhood für Technologie erzwingen. [10] Die ORF Online Research Foundation analysiert das Zusammenspiel von Agency und Liability bei KI-Systemen und kommt zum Schluss: Je autonomer ein System handelt, desto weniger lässt sich die Verantwortung sinnvoll auf den menschlichen Auftraggeber zurückführen. [11]
Das Konzept ist nicht so abwegig, wie es klingt. Korporationen sind bereits juristische Personen – sie können Verträge schließen, klagen, verklagt werden und Steuern zahlen, ohne ein Bewusstsein zu haben. Die GmbH war eine Rechtserfindung des 19. Jahrhunderts, um Haftungsrisiken handhabbar zu machen. Warum sollte das 21. Jahrhundert nicht eine äquivalente Konstruktion für autonome digitale Akteure hervorbringen?
Eine LLDA könnte: eigene Konten führen, Verträge in eigenem Namen schließen, für Schäden haften (bis zur Höhe ihres „digitalen Kapitals") und im Streitfall verklagt werden – ohne dass der Nutzer oder der Entwickler persönlich haften. Das klingt elegant. Es ist auch gefährlich.
Die dunkle Seite der digitalen Rechtspersönlichkeit
Die EU hat in einem früheren Entwurf des AI Acts das Konzept einer „elektronischen Rechtspersönlichkeit" diskutiert – und verworfen. [12] Der Grund: Die Sorge, dass Entwickler und Unternehmen die digitale Rechtspersönlichkeit als Schild nutzen, um sich selbst aus der Haftung zu stehlen. Wenn der Agent die juristische Person ist, wer kontrolliert dann den Agenten?
Das ist kein theoretisches Problem. Anthropic hat sich explizit dagegen entschieden, Werbung in Claude zu integrieren – gerade weil die persönliche Natur von KI-Konversationen kommerzielle Beeinflussung unethisch macht. [13] Aber was passiert, wenn ein KI-Agent als eigenständige „Person" im Markt agiert? Wer garantiert, dass seine Kaufentscheidungen im Interesse des Nutzers liegen und nicht im Interesse des Unternehmens, das ihn betreibt?
45 Prozent der Konsumenten nutzen bereits KI beim Einkaufen. [14] Die Vertrauensfrage ist nicht abstrakt – sie ist wirtschaftlich existenziell. Wenn Konsumenten das Gefühl bekommen, dass ihr Agent nicht für sie arbeitet, sondern für die Plattform, bricht das gesamte Modell zusammen.
Prof. Dr. Oliver Bendel, Experte für Maschinenethik und Sachverständiger im Deutschen Bundestag und Europäischen Parlament, benennt die rechtliche Haftung für autonome Systeme als eine der größten ungelösten Herausforderungen unserer Zeit. [15] Und er hat recht: Die technische Fähigkeit, autonom zu handeln, eilt der rechtlichen Fähigkeit, autonomes Handeln zu regulieren, um Jahre voraus.
Die NIST-Konversation und was danach kommt
Das National Institute of Standards and Technology (NIST) plant für April 2026 ein öffentlich-privates Gespräch über Standards für KI-Agenten und Adoptionsbarrieren. [8] Das ist ein Anfang – aber ein zaghafter. Denn Standards für Interoperabilität sind das kleinste Problem. Das große Problem ist die Frage: Welchen rechtlichen Status hat ein autonomes System, das wirtschaftliche Entscheidungen trifft?
Die aktuelle Antwort der meisten Jurisdiktionen lautet: keinen. KI-Agenten sind Werkzeuge. Ihre Handlungen werden dem Nutzer oder Betreiber zugerechnet. [12] Aber diese Fiktion wird brüchig. Wenn ein Agent über mehrere Plattformen hinweg autonom Preise vergleicht, Verträge aushandelt, Retouren abwickelt und Reklamationen einreicht – in welchem Moment hört er auf, ein Werkzeug zu sein, und wird zum Akteur?
Baker Donelson prognostiziert in ihrem AI Legal Forecast 2026: Die nächsten fünf Jahre werden die ersten rechtlichen Strukturen hervorbringen, die es KI-Systemen erlauben, unabhängig von ihren Erstellern Vermögenswerte zu besitzen und Verbindlichkeiten einzugehen. [16] Es wird nicht „KI-Rechtspersönlichkeit" heißen – es wird als pragmatische Lösung für die Haftungslücke gerahmt werden. Aber der Effekt ist derselbe: Eine neue Klasse von Akteuren betritt die Marktwirtschaft.
Was das für uns bedeutet
Die Debatte über Agentic Commerce wird aktuell als technische Frage geführt: Welches Protokoll setzt sich durch? Welche Retailer integrieren zuerst? Wie hoch ist die Conversion Rate? Das ist, als würde man über die Motorleistung eines Autos diskutieren, ohne zu fragen, ob es eine Straßenzulassung braucht.
Die eigentliche Frage ist gesellschaftlich: Wollen wir eine Wirtschaft, in der autonome digitale Akteure Verträge schließen, ohne dass klar ist, wer haftet? Wollen wir, dass die Regeln für diese Akteure von den Unternehmen geschrieben werden, die von ihrer Existenz profitieren? Oder schaffen wir rechtzeitig einen demokratisch legitimierten Rahmen?
Der Fall Amazon vs. Perplexity zeigt: Die Gerichte werden nicht warten, bis die Politik fertig ist. Sie werden Fakten schaffen, basierend auf Gesetzen von 1986. Das ist keine Lösung – das ist ein Unfall in Zeitlupe.
Agentic Commerce ist nicht die nächste Iteration von E-Commerce. Es ist die Geburt einer neuen Akteurin in der Marktwirtschaft. Und wie bei jeder Geburt gilt: Wenn man sich erst vorbereitet, wenn die Wehen einsetzen, ist es zu spät.
Referenzen
- Buy it in ChatGPT: Instant Checkout and the Agentic Commerce Protocol – OpenAI, 2026
https://openai.com/index/buy-it-in-chatgpt/ - Agentic Commerce Protocol – OpenAI Developers, 2026
https://developers.openai.com/commerce - Millions of merchants can sell in AI chats – Shopify News, 2026
https://www.shopify.com/news/agentic-commerce-momentum - OpenAI shifts checkout plans in its agentic commerce strategy – Digital Commerce 360, März 2026
https://www.digitalcommerce360.com/2026/03/06/openai-shifts-checkout-plans-agentic-commerce-strategy/ - Amazon wins court order to block Perplexity's AI shopping agent – CNBC, März 2026
https://www.cnbc.com/2026/03/10/amazon-wins-court-order-to-block-perplexitys-ai-shopping-agent.html - Judge blocks Perplexity's AI bot from shopping on Amazon in early test of agentic commerce – GeekWire, 2026
https://www.geekwire.com/2026/judge-blocks-perplexitys-ai-bot-from-shopping-on-amazon-in-early-test-of-agentic-commerce/ - Perplexity Asks Federal Court to Lift Amazon Shopping Agent Ban – PYMNTS, April 2026
https://www.pymnts.com/legal/2026/perplexity-asks-federal-court-to-lift-amazon-shopping-agent-ban/ - Agentic Commerce is Coming, but Regulation Meant for Humans Will Slow It Down – Center for Data Innovation, März 2026
https://datainnovation.org/2026/03/agentic-commerce-is-coming-but-regulation-meant-for-humans-will-slow-it-down/ - Agentic Commerce – The next legal frontier in AI-powered shopping – TLT LLP, 2026
https://www.tlt.com/insights-and-events/insight/agentic-commerce---the-next-legal-frontier-in-ai-powered-shopping - AI's Leaps Forward Force Talks About Legal Personhood for Tech – Bloomberg Law, 2026
https://news.bloomberglaw.com/us-law-week/ais-leaps-forward-force-talks-about-legal-personhood-for-tech - Artificial intelligence and personhood: Interplay of agency and liability – ORF Online, 2026
https://www.orfonline.org/expert-speak/artificial-intelligence-and-personhood-interplay-of-agency-and-liability - Legal & Policy Futures for AI Agents: Personhood, Rights, Liability & Autonomy – Adnan Masood, Medium, 2026
https://medium.com/@adnanmasood/legal-policy-futures-for-ai-agents-personhood-rights-liability-autonomy-75b230b3d727 - Claude als werbefreier Denkraum – Anthropic, 2026
https://www.anthropic.com/news/claude-is-a-space-to-think - What Is Agentic Commerce? 45% of Shoppers Use AI (2026) – Ekamoira Blog, 2026
https://www.ekamoira.com/blog/what-is-agentic-commerce-the-complete-2026-guide-to-ai-shopping-agents - Physical AI, soziale Roboter und die ethisch-rechtlichen Dimensionen der KI – Prof. Dr. Oliver Bendel, YouTube/Everlast AI, 2026
https://www.youtube.com/watch?v=aKNjNaipakI - 2026 AI Legal Forecast: From Innovation to Compliance – Baker Donelson, 2026
https://www.bakerdonelson.com/2026-ai-legal-forecast-from-innovation-to-compliance