Autonomous Driving und das Kontroll-Paradox - Mensch versus Maschine am Steuer

Waymo hat bis Dezember 2025 über 170 Millionen Kilometer ohne menschlichen Fahrer zurückgelegt. Die Daten zeigen: 91 Prozent weniger schwere Unfälle als menschliche Fahrer auf denselben Straßen. [1] Trotzdem besteht die Regulierung in Europa und den USA darauf, dass ein Mensch jederzeit bereit sein muss, das Steuer zu übernehmen. Das klingt nach gesundem Menschenverstand. Es ist das Gegenteil.

Die Debatte um autonomes Fahren wird seit Jahren falsch geführt. Die Frage lautet nicht: Ist die KI gut genug? Die Frage lautet: Ist der Mensch schlecht genug, um als Backup zu funktionieren? Die Antwort ist seit 1983 bekannt – und die Autoindustrie, die Regulierer und die Öffentlichkeit ignorieren sie systematisch.

Bainbridges Ironie: Eine 43 Jahre alte Warnung

1983 veröffentlichte die britische Kognitionswissenschaftlerin Lisanne Bainbridge einen Aufsatz mit dem Titel „Ironies of Automation". [2] Ihre zentrale These war so elegant wie verstörend: Je zuverlässiger ein automatisiertes System wird, desto weniger ist der menschliche Bediener in der Lage, dessen Fehler zu kompensieren. Der Grund ist simpel – Fähigkeiten, die nicht genutzt werden, verkümmern. Aufmerksamkeit, die nicht gefordert wird, verschwindet.

Bainbridge formulierte das für die Luftfahrt und die Prozessindustrie. Aber die Ironie ist universell. Wenn ein System 99,9 Prozent der Zeit fehlerfrei funktioniert, wird der menschliche Aufpasser nach Stunden, Tagen und Wochen der Untätigkeit genau die Kompetenzen verlieren, die er für die verbleibenden 0,1 Prozent braucht. Nicht weil er faul ist. Sondern weil sein Gehirn so funktioniert.

Die Forschung bestätigt das mit erschreckender Präzision. Eine Meta-Analyse aus 2025 zeigt, dass teilautomatisiertes Fahren die mentale Arbeitslast des Fahrers signifikant senkt – und damit seine Fähigkeit, auf unerwartete Situationen zu reagieren, systematisch untergräbt. [3] Die NHTSA dokumentierte, dass Fahrer in semi-autonomen Fahrzeugen bis zu 17 Sekunden brauchten, um die Kontrolle zurückzuerlangen. [4] Bei 100 km/h sind das über 470 Meter. Fast ein halber Kilometer, in dem niemand das Fahrzeug kontrolliert – weder die KI noch der Mensch.

Level 3: Die gefährlichste Stufe der Automatisierung

Die Automobilindustrie hat ein Klassifizierungssystem für Automatisierungsstufen, das von Level 0 (keine Automatisierung) bis Level 5 (vollständige Autonomie) reicht. Level 3 ist dabei die Stufe, die das Kontroll-Paradox auf die Spitze treibt.

Bei Level 2 – wo Tesla FSD heute offiziell eingestuft wird – muss der Fahrer jederzeit aufpassen und die Hände am Steuer halten. Bei Level 3 darf er sich abwenden. Er darf auf sein Handy schauen, ein Buch lesen, E-Mails beantworten. Aber – und hier liegt der tödliche Kompromiss – er muss innerhalb weniger Sekunden bereit sein, die Kontrolle zu übernehmen, wenn das System ihn dazu auffordert. [5]

Das ist kein Sicherheitskonzept. Das ist ein psychologisches Experiment mit tödlichem Ausgang. Forscher nennen es das „Out-of-the-Loop"-Problem: Wer nicht aktiv in einen Prozess eingebunden ist, verliert das Situationsbewusstsein. [6] Wer das Situationsbewusstsein verliert, kann nicht adäquat reagieren. Wer nicht adäquat reagiert, wird zur Gefahr – nicht die Maschine.

Eine Studie zur Situation Awareness bei Level-3-Übergaben zeigt das Dilemma in Zahlen: Die kognitive Last steigt beim Übergang von Nicht-Fahr-Aktivitäten zur aktiven Fahrzeugkontrolle sprunghaft an. Der Fahrer muss in Sekundenbruchteilen von einem Zustand minimaler Aufmerksamkeit in einen Zustand maximaler Wachsamkeit wechseln. [7] Das menschliche Gehirn ist dafür nicht gemacht. Es braucht Zeit, um ein mentales Modell der Umgebung aufzubauen – Geschwindigkeit, Position anderer Fahrzeuge, Straßenverlauf, Wetterbedingungen. Zeit, die bei einem echten Notfall nicht existiert.

Tesla, Waymo und die zwei Philosophien

Autonomes Fahrzeug-Cockpit mit abgelenktem Fahrer - das Übergabe-Problem

Die Industrie spaltet sich entlang einer fundamentalen Designentscheidung. Waymo hat den radikalen Weg gewählt: kein Lenkrad, kein Fahrer, kein Backup-Mensch. Level 4 von Anfang an. Das Fahrzeug operiert in einem definierten Bereich (Geofencing) vollständig autonom – oder gar nicht. [1]

Tesla verfolgt die entgegengesetzte Strategie. FSD (Full Self-Driving) ist ein Level-2-System, das sich wie Level 3 anfühlt. Elon Musk kündigte im April 2026 an, dass FSD Version 14.3 sich in der Mitarbeiter-Beta befindet. [8] In Europa laufen seit Ende 2025 Testfahrten in Städten wie Stuttgart, Frankfurt und Düsseldorf. [9] Aber die europäische Regulierung bleibt restriktiv: FSD Supervised wird auch nach einer möglichen Zulassung ein Level-2-System bleiben, das ständige Fahreraufmerksamkeit erfordert.

Die Ironie: Tesla baut ein System, das so gut ist, dass Fahrer aufhören aufzupassen – und nennt es offiziell Level 2, damit der Fahrer die Verantwortung trägt. Waymo baut ein System, das ohne Fahrer funktioniert – und übernimmt die volle Verantwortung. Die erste Strategie ist technologisch beeindruckend und regulatorisch ein Taschenspielertrick. Die zweite ist ehrlich.

Die Daten sprechen für Waymos Ansatz. Beim Vergleich von 7,1 Millionen gefahrenen Meilen ohne Fahrer zeigt Waymo signifikant bessere Sicherheitswerte als menschliche Fahrer auf denselben Strecken. [10] Nicht weil die KI perfekt ist. Sondern weil sie konsistent ist. Sie wird nicht müde, nicht abgelenkt, nicht wütend. Sie trinkt nicht, sie textet nicht, sie schläft nicht ein.

Das regulatorische Paradox: Sicherheit durch Unsicherheit

Die europäische Regulierung autonomer Fahrzeuge ist ein Meisterwerk bürokratischer Selbstsabotage. Die UNECE-Verordnung R79, die Lenkhilfesysteme in Europa reguliert, stammt aus einer Zeit, in der autonomes Fahren Science-Fiction war. Sie begrenzt die seitliche Beschleunigung von Lenkhilfen auf Werte, die moderne Autonomiesysteme effektiv kastrieren. [9]

Die Nachfolgeverordnung DCAS (Driver Control Assistance Systems) und die UN-R-171 für automatisiertes Fahren sind in Arbeit – aber sie reproduzieren das gleiche Grundproblem: die Annahme, dass ein menschlicher Fahrer als letztes Sicherheitsnetz fungieren kann und soll.

Diese Annahme ist nicht nur falsch. Sie ist gefährlich. Denn sie schafft ein System, in dem niemand wirklich die Kontrolle hat. Die KI hat die Kontrolle – außer wenn sie sie abgibt. Der Mensch hat die Kontrolle – außer wenn er sie übernehmen soll, es aber nicht kann. Das Ergebnis ist eine Verantwortungslücke, die breiter wird, je besser die Technologie funktioniert.

Die US-Regulierung geht einen anderen Weg. Das DOT hat 2026 Vorschriften gelockert, die bestimmte manuelle Steuerungselemente für zertifizierte Level-3-Fahrzeuge nicht mehr vorschreiben. [4] Das ist ein Schritt in die richtige Richtung – aber es löst das Kernproblem nicht. Solange ein System existiert, das einen Menschen als Backup vorsieht, existiert das Kontroll-Paradox.

Warum der Schnitt die einzige Lösung ist

Die Luftfahrt hat die Lektion gelernt – teilweise. Moderne Verkehrsflugzeuge sind hochautomatisiert. Aber Piloten trainieren regelmäßig in Simulatoren, um ihre manuellen Flugfähigkeiten zu erhalten. Es gibt strikte Protokolle für Übergaben. Und trotzdem zeigen Unfälle wie Air France 447 (2009) oder Ethiopian Airlines 302 (2019), wie schnell die Kombination aus Automatisierungsfehler und menschlicher Überforderung tödlich endet. [11]

Im Auto gibt es keine Simulatorpflicht. Es gibt keine regelmäßigen Überprüfungen der manuellen Fahrkompetenz für Nutzer autonomer Systeme. Es gibt keine standardisierten Übergabeprotokolle. Der durchschnittliche Fahrer eines Level-3-Fahrzeugs wird nach Monaten der Passivität in einer Notsituation schlechter reagieren als ein ungeübter Fahranfänger – weil er nicht nur ungeübt ist, sondern aktiv verlernt hat.

Die Konsequenz ist unbequem, aber logisch: Das Mischsystem muss enden. Entweder der Mensch fährt – mit voller Aufmerksamkeit, voller Verantwortung, vollen manuellen Kontrollen. Oder die KI fährt – ohne Lenkrad, ohne Fallback-Fahrer, mit voller Verantwortung des Herstellers. Ein Zwischenzustand, in dem niemand wirklich zuständig ist, ist keine Sicherheitsstrategie. Es ist eine Haftungsvermeidungsstrategie.

Der eigentliche Fortschritt: Verantwortung statt Technik

Die Debatte um autonomes Fahren wird dominiert von Technologie-Benchmarks. Wie viele Millionen Meilen ohne Unfall? Wie schnell erkennt das System einen Fußgänger? Wie robust ist die Sensorik bei Regen? Diese Fragen sind wichtig. Aber sie sind nicht die entscheidenden Fragen.

Die entscheidende Frage lautet: Wer haftet? Nicht theoretisch, sondern praktisch. Wenn ein Level-3-Fahrzeug eine Übergabe einleitet und der Fahrer nicht rechtzeitig reagiert – wer ist schuld? Der Fahrer, der nachweislich nicht aufpassen konnte? Der Hersteller, der ein System designt hat, das auf unmögliche menschliche Reaktionen setzt? Der Regulierer, der dieses Design zugelassen hat?

Waymos Modell beantwortet diese Frage eindeutig: Waymo haftet. Kein Ausweichen, keine Schuldzuweisung an einen nicht existierenden Fahrer. Das ist kein Altruismus. Es ist Systemdesign, das zur Technologie passt. Wenn du ein System baust, das keinen menschlichen Eingriff braucht, brauchst du keinen Menschen, dem du die Schuld geben kannst.

Die 170 Millionen fahrerlosen Kilometer von Waymo sind kein Beweis, dass KI perfekt fährt. Sie sind ein Beweis, dass das Konzept des menschlichen Notfallfahrers eine regulatorische Fiktion ist, die Menschenleben kostet. Nicht weil die KI so gut ist. Sondern weil das menschliche Gehirn für die Rolle des dauerhaften Standby-Piloten fundamental ungeeignet ist.

Lisanne Bainbridge wusste das 1983. Die Frage ist, wie viele Übergabe-Unfälle es braucht, bis die Regulierung es auch weiß.

Referenzen

  1. Waymo Safety Impact – 170,7 Mio. fahrerlose Meilen, 91% weniger schwere Unfälle als menschliche Fahrer, Waymo, Dezember 2025
    https://waymo.com/safety/impact/
  2. Ironies of Automation – Lisanne Bainbridge, 1983, Grundlagenarbeit zum Automatisierungs-Paradox
    https://humanfactors101.com/2020/05/24/the-ironies-of-automation/
  3. Effect of Partially Automated Driving on Mental Workload and Visual Behavior – Meta-Analyse zur kognitiven Belastung bei teilautomatisiertem Fahren, PMC, 2025
    https://pmc.ncbi.nlm.nih.gov/articles/PMC12329158/
  4. NHTSA Takeover-Daten und DOT-Regulierung 2026 – Bis zu 17 Sekunden Übernahmezeit bei semi-autonomen Fahrzeugen, NHTSA/DOT
    https://www.techtimes.com/articles/315245/20260318/are-self-driving-cars-safe-reliable-2026-what-experts-say-about-waiting.htm
  5. Autonomy Level-Up: What Level 3 Self-Driving Actually Means Today – Erklärung der Level-3-Klassifizierung und Fahrerverantwortung, Top Rated Dealers, 2025
    https://toprateddealers.com/2025/07/29/autonomy-level-up-what-level-3-self-driving-actually-means-today/
  6. The "Out-of-the-Loop" Concept in Automated Driving – Definition, Messgrößen und Implikationen des Out-of-the-Loop-Problems, Springer Nature, 2018
    https://link.springer.com/article/10.1007/s10111-018-0525-8
  7. From Distraction to Action: Elevating Situation Awareness in Level 3 Autonomous Driving – Studie zu Situation Awareness bei Übergabe-Szenarien, Taylor & Francis, 2024
    https://www.tandfonline.com/doi/full/10.1080/10447318.2024.2350840
  8. Elon Musk kündigt FSD v14.3 Mitarbeiter-Beta an – X/Twitter-Post zur neuen FSD-Version, April 2026
    https://x.com/elonmusk
  9. Tesla FSD Europe Tracker – Regulatorischer Zulassungsstatus und UNECE R79-Problematik in Europa, 2026
    https://fsdtracker.eu/
  10. Comparison of Waymo Rider-Only Crash Data to Human Benchmarks at 7.1 Million Miles – Peer-reviewed Sicherheitsvergleich, PubMed, 2024
    https://pubmed.ncbi.nlm.nih.gov/39485678/
  11. Automated to Death – IEEE Spectrum-Analyse zu Automatisierungsversagen in der Luftfahrt und anderen Branchen
    https://spectrum.ieee.org/automated-to-death