Artificial General Intelligence: Wie AGI vom Forschungsziel zum PR-Motiv verkam – Die große Entkernung
Jensen Huang steht im März 2026 vor Lex Fridmans Kamera und sagt: „I think we've achieved AGI." Nicht vielleicht. Nicht bald. Jetzt. Der CEO von Nvidia, dem Unternehmen, das die GPUs verkauft, auf denen die gesamte KI-Industrie läuft, erklärt das ehrgeizigste Ziel der Informatikgeschichte für erreicht. [1]
Wenige Wochen vorher hatte Sam Altman, CEO von OpenAI – dem Unternehmen, das AGI buchstäblich in seiner Satzung als Mission führt – gesagt, AGI sei „not a super useful term". [2] Der Mann, der Milliarden Dollar eingesammelt hat, um AGI zu bauen, findet den Begriff plötzlich nicht mehr hilfreich.
Diese beiden Aussagen widersprechen sich nicht nur oberflächlich. Sie markieren den Punkt, an dem Artificial General Intelligence aufgehört hat, ein Forschungsziel zu sein, und zu einem rhetorischen Werkzeug wurde – formbar genug für jede Pressemitteilung, hohl genug, um nie widerlegt zu werden.
Das Definitionsvakuum als Geschäftsmodell
AGI – Artificial General Intelligence – beschreibt theoretisch eine KI, die menschliche kognitive Fähigkeiten über alle Domänen hinweg erreicht oder übertrifft. Das Problem: Es gibt keine einheitliche, operationalisierbare Definition. Und genau das ist kein Versäumnis. Es ist ein Feature.
Fridman schlug Huang eine Definition vor: Könnte eine KI ein Technologieunternehmen gründen und auf eine Milliarde Dollar Bewertung bringen? Huang sagte ja, das sei bereits möglich. [1] Eine Definition, die zufällig perfekt in Nvidias Narrativ passt – schließlich verkauft man die Schaufeln im Goldrausch.
Google DeepMind operiert mit einer sechsstufigen Taxonomie, die von „Emerging" bis „Superhuman" reicht. [3] OpenAI nutzt intern fünf Level, von Chatbot bis Organisation. Anthropic spricht von „a country of geniuses in a datacenter". Jedes Unternehmen definiert AGI so, dass der eigene nächste Meilenstein zufällig direkt auf dem Weg dorthin liegt.
Das ist kein akademischer Streit über Taxonomie. Es ist eine bewusste Strategie. Solange AGI nicht klar definiert ist, kann niemand beweisen, dass man es nicht erreicht hat. Und solange man behaupten kann, auf dem Weg dorthin zu sein, fließen die Investitionen.
Andrew Ng, einer der einflussreichsten KI-Forscher weltweit, sieht das drastisch anders: AGI sei Jahrzehnte entfernt, und die eigentliche Blase liege in der Trainingsinfrastruktur – nicht in der Anwendungsschicht. [4] Aber solche Stimmen gehen im Stakkato der Produktankündigungen unter.
Stargate, Voice AI und die Ablenkungsmaschine
Wer die Pressemitteilungen von OpenAI im April und Mai 2026 liest, findet alles Mögliche: eine komplett neu aufgebaute WebRTC-Infrastruktur für Voice AI mit niedriger Latenz, phishing-resistente Anmeldeverfahren, FedRAMP-Moderate-Zertifizierung für US-Behörden, GPT-Modelle auf AWS, eine modifizierte Partnerschaftsvereinbarung mit Microsoft. [5]
Und dann, fast beiläufig: den massiven Ausbau der „Stargate"-Recheninfrastruktur, der die Grundlage für AGI legen soll. [6]
AGI taucht in diesen Kommunikationen auf wie ein Hintergrundbild. Es ist immer da, legitimiert alles, wird aber nie konkret. Man baut Rechenzentren „für AGI". Man investiert Milliarden „auf dem Weg zu AGI". Man braucht Partnerschaften „im Intelligence Age". Aber die eigentlichen Ankündigungen betreffen Voice-Latenz, Account-Sicherheit und Cloud-Verfügbarkeit.
Das ist nicht verwerflich – es sind sinnvolle Produkte. Aber es entlarvt die Funktion, die AGI in der Unternehmenskommunikation tatsächlich hat: ein Gravitationsfeld, das Aufmerksamkeit und Kapital bindet, während das operative Geschäft aus inkrementellen Produktverbesserungen besteht.
Die Meilenstein-Maschine: Immer fast da, nie angekommen
Die Tech-Industrie hat ein perfektes rhetorisches System gebaut: AGI ist immer zwei bis fünf Jahre entfernt. Nah genug, um Investoren bei der Stange zu halten. Fern genug, um keine Rechenschaft ablegen zu müssen.
Dario Amodei, CEO von Anthropic, prognostizierte „a country of geniuses in a datacenter" möglicherweise schon 2026. [7] Sam Altman sagte, AGI werde „wahrscheinlich während Trumps Amtszeit" entwickelt. Huang sagt, es sei bereits da. Andere, gleich qualifizierte Forscher, sagen: zehn bis zwanzig Jahre, bestenfalls. [3]
Diese Spannbreite ist kein Zeichen gesunder Debatte. Sie ist ein Zeichen dafür, dass der Begriff keine operationale Substanz hat. Wenn seriöse Experten gleichzeitig behaupten können, AGI existiere bereits und AGI sei Jahrzehnte entfernt – ohne dass einer von beiden widerlegt werden kann – dann ist der Begriff analytisch wertlos.
Was stattdessen passiert, ist die Produktion von Meilensteinen. GPT-5 war ein Meilenstein. GPT-5.5 ist ein Meilenstein. Claude Opus 4.7 ist ein Meilenstein. Jedes Modell ist „das klügste", jede Version „ein Durchbruch". [8] Die Narrative-Engine läuft perfekt: Man bewegt sich permanent vorwärts, erreicht permanent Meilensteine, und das Ziel bleibt permanent am Horizont.
Die Fusion-Analogie ist abgedroschen, aber sie passt: Kernfusion war auch immer zwanzig Jahre entfernt. Der Unterschied ist, dass Fusionsforscher ihre Meilensteine nicht an der Börse verwerten konnten.
Das Paradox: Warum echte AGI die Geschäftsmodelle bedroht
Hier liegt die eigentlich unbequeme Frage: Wollen die Tech-Giganten AGI überhaupt?
Das aktuelle Geschäftsmodell funktioniert exzellent ohne AGI. OpenAI verkauft API-Zugang. Anthropic verkauft Enterprise-Lizenzen. Google integriert KI in seine Werbeplattform. Nvidia verkauft Hardware. All das funktioniert, weil die aktuellen Modelle gut genug sind, um kommerziellen Mehrwert zu liefern, und begrenzt genug, um Upgrade-Zyklen zu rechtfertigen.
Eine echte AGI – eine Maschine, die autonom denkt, lernt und handelt wie ein Mensch – würde diese Ökonomie zerstören. Warum für ein GPT-6-Abo zahlen, wenn eine AGI das Modell selbst verbessern kann? Warum Nvidia-GPUs kaufen, wenn eine AGI effizientere Architekturen entwirft? Warum ein Anthropic-Enterprise-Paket, wenn eine AGI ihre eigenen Agenten baut?
Die Tech-Konzerne befinden sich in einem strukturellen Widerspruch: Sie müssen AGI als Ziel propagieren, um Investitionen zu legitimieren, aber sie profitieren davon, es nie zu erreichen. Der ewige Weg zum Ziel ist lukrativer als das Ziel selbst.
Das erklärt auch, warum „funktionale AGI" – der neue Branchenbegriff für 2026 – so beliebt ist. [9] Er erlaubt es, den AGI-Stempel auf existierende Produkte zu drücken, ohne die unbequemen Implikationen echter allgemeiner Intelligenz adressieren zu müssen. Agentische KI, die komplexe Aufgaben autonom erledigt, ist beeindruckend und kommerziell verwertbar. Aber sie ist keine allgemeine Intelligenz – sie ist spezialisierte Automatisierung mit besserem Marketing.
Die verschwundene Debatte
Was in der AGI-Diskussion 2026 fehlt, ist die Substanz. Die eigentlich relevanten Fragen werden von Produktankündigungen und Investorenrunden überlagert:
Bewusstsein und Verstehen: Aktuelle Modelle halluzinieren Fakten, scheitern an neuartigem Reasoning und bauen kein Verständnis auf, wie Menschen es durch Erfahrung tun. [1] Jensen Huangs AGI-Erklärung adressiert keines dieser Probleme. Sie definiert sie einfach weg.
Kontrolle und Governance: Wer kontrolliert eine AGI? OpenAI hat gerade seine Non-Profit-Struktur umgebaut. Anthropic operiert als Public Benefit Corporation. Google ist ein börsennotierter Werbekonzern. Keine dieser Strukturen ist für die Verantwortung konzipiert, die eine echte AGI mit sich bringen würde.
Verteilung und Zugang: Wenn AGI existiert – wem gehört sie? Das Stargate-Projekt allein verschlingt Milliarden. Die Infrastruktur für fortgeschrittene KI konzentriert sich bei einer Handvoll Unternehmen, die gleichzeitig die Definition dessen kontrollieren, was als „Fortschritt" gilt. [6]
Ökonomische Disruption: Demis Hassabis von DeepMind warnt vor massiven gesellschaftlichen Auswirkungen durch AGI. [8] Aber diese Warnungen bleiben abstrakt, solange das Konzept selbst abstrakt bleibt.
Was bleibt, wenn man die PR abzieht
Die ehrliche Bilanz: Die KI-Modelle von 2026 sind beeindruckend. Sie können Code schreiben, Dokumente analysieren, komplexe Workflows orchestrieren. Claude Codex arbeitet tagelang autonom an Projekten. GPT-5.5 löst Aufgaben, die vor zwei Jahren undenkbar waren. [8]
Aber nichts davon ist Artificial General Intelligence. Es ist hochgradig optimierte, domänenübergreifende Mustererkennung mit immer besserer Werkzeugnutzung. Der Unterschied ist nicht graduell – er ist kategorial.
Dass Jensen Huang trotzdem behauptet, AGI sei erreicht, und Sam Altman gleichzeitig den Begriff für nutzlos erklärt, zeigt nicht wissenschaftlichen Dissens. Es zeigt, dass AGI aufgehört hat, ein Forschungskonzept zu sein. Es ist zu einem Marketinginstrument geworden – elastisch genug für jede Keynote, substanzlos genug für jede Bilanzpressekonferenz.
Die Frage ist nicht, ob AGI kommt. Die Frage ist, ob die Unternehmen, die am lautesten davon sprechen, überhaupt ein Interesse daran haben, sie ehrlich zu definieren. Denn eine klare Definition hätte eine unangenehme Konsequenz: Man könnte scheitern. Und Scheitern ist im Silicon Valley nur dann akzeptabel, wenn es nicht auf einer Investorenfolie steht.
Referenzen
- Jensen Huang erklärt AGI für erreicht im Interview mit Lex Fridman, Fortune-Analyse der Definitionsdebatte, März 2026
https://fortune.com/2026/03/30/agi-definition-jensen-huang-lex-fridman-deepmind-turing-text-cognitive-taxonomy/ - Sam Altman bezeichnet AGI als „not a super useful term", CNBC-Interview, August 2025
https://www.cnbc.com/2025/08/11/sam-altman-says-agi-is-a-pointless-term-experts-agree.html - AGI-Definitionsdebatte und Expertenschätzungen, Analyse der divergierenden Zeitrahmen, 2026
https://webuildit.tech/what-is-artificial-general-intelligence-agi-and-why-is-it-still-a-debate-in-2026/ - Andrew Ng: AGI ist Jahrzehnte entfernt, die echte Blase liegt in der Trainingsinfrastruktur, Fast Company
https://www.fastcompany.com/91499247/andrew-ng-agi-decades-away-interview - OpenAI Produkt- und Strategieankündigungen: Voice AI, Account Security, FedRAMP, AWS-Verfügbarkeit, April/Mai 2026
https://openai.com/news/rss.xml - OpenAI Stargate-Infrastrukturprojekt für AGI-Entwicklung, Skalierung der Rechenkapazitäten, April 2026
https://openai.com/news/rss.xml - AGI-Prognosen von Tech-CEOs: Amodei, Altman und divergierende Zeitrahmen, Medium-Analyse, 2026
https://medium.com/@cognidownunder/agi-still-years-away-despite-tech-leaders-bold-promises-for-2026-146c9780af65 - KI-News: GPT-5.5, Claude Opus 4.7, Codex Goal und AGI-Debatte – Everlast AI, Mai 2026
https://www.youtube.com/watch?v=k_-AsnFqbqQ - Funktionale AGI vs. theoretische AGI: Die Verschiebung der Branchendefinition, 2026
https://www.timetrex.com/blog/artificial-general-intelligence-in-2026