xahead logoxahead

Moore’s Law für KI - Intelligenz zum Nulltarif

9 Min Lesezeit

Die Kosten pro Einheit „Intelligenz“ stürzen exponentiell ab – und werden praktisch gegen Null tendieren. Was wie eine gewagte Prognose klingt, lässt sich bereits an Zahlen ablesen: OpenAI senkte innerhalb weniger Monate die Kosten für ChatGPT um 90 %. Sam Altman, CEO von OpenAI, beobachtet gar einen Faktor 10 Preisreduktion pro Jahr – zwischen Anfang 2023 und Mitte 2024 fiel der Preis pro Token um das 150-Fache. Zum Vergleich: Das ursprüngliche Moore’sche Gesetz verdoppelte die Transistoren alle 18 Monate (×2); bei KI sprechen wir von ×10 alle 12 Monate. Diese dramatische Kostensenkung entfaltet eine Eigendynamik: Sinkende Preise führen zu sprunghaft mehr Nutzung. KI wird so schnell so billig, dass ihr Einsatz bald kaum mehr durch Budget limitiert ist, sondern fast nur noch durch Fantasie – und etwas Strom. Denn perspektivisch werden die Kosten für Intelligenz nahe an die reinen Energiekosten konvergieren.

Fallende Preise, steigende Leistung

Der Preisverfall ist kein Gefühl, sondern messbar. Stand 12.08.2025 listet OpenAI für Text folgendes: GPT‑5 kostet 1,25 $ pro 1 M Eingangstokens und 10,00 $ pro 1 M Ausgangstokens. GPT‑4o liegt bei 5,00 $ (Input) und 20,00 $ (Output) pro 1 M Tokens. GPT‑5 mini senkt die Schwelle weiter auf 0,10 $ (Input) und 0,60 $ (Output) pro 1 M Tokens; GPT‑4o mini liegt bei 0,60 $ und 2,40 $. GPT‑5 nano landet im Mikro‑Cent‑Bereich mit 0,006 $ (Input) und 0,024 $ (Output) pro 1 M Tokens. Quelle ist die offizielle Preisseite. Was bedeutet das in der Praxis. Gegenüber GPT‑4o sind die Textkosten bei GPT‑5 um 75 % (Eingabe) und 50 % (Ausgabe) gefallen. Gegenüber 4o mini sinken die Preise bei 5 mini um 83,3 % (Input) und 75 % (Output). In Stückkosten ausgedrückt: GPT‑5 kostet 0,00125 $ pro 1 k Eingangstokens und 0,010 $ pro 1 k Ausgangstokens; GPT‑5 mini liegt bei 0,00010 $ bzw. 0,00060 $ pro 1 k; GPT‑5 nano sogar bei 0,000006 $ bzw. 0,000024 $ pro 1 k. Damit sind einzelne Abfragen heute nur noch Bruchteile von Cent. Rechenweg und Tarife siehe Quelle. Zum Start von GPT‑4 lagen die Preise noch bei 30 $ pro Million Tokens. Altman bringt es auf den Punkt: „Die Kosten für eine bestimmte KI-Leistung fallen etwa 10× alle 12 Monate“. Eine einzelne Abfrage ist heute nur noch Bruchteile von Cents wert – vor kurzem hätte derselbe Compute noch Dollarbeträge gekostet. Effizienzgewinne in Algorithmen, Skaleneffekte in Rechenzentren und spezialisierte Hardware sorgen gemeinsam für diese kurvensturzartige Kostensenkung. OpenAI etwa berichtet, dass ein großer Teil der Einsparungen aus systemweiter Optimierung kam, nicht allein aus neuen GPUs. Und je mehr die Nutzung steigt, desto mehr lohnt es sich, weiter zu optimieren. Wir stehen hier erst am Anfang einer Lernkurve: Jede weitere Generation von Modellen und Infrastruktur dürfte den Preis pro KI-Abfrage nochmals drastisch drücken.

Daten: Treibstoff der KI-Revolution

Der wichtigste Rohstoff der KI: Daten. „Data is the fossil fuel of AI“, sagte Ilya Sutskever, Mitgründer von OpenAI, jetzt CEO von Safe Superintelligence Inc. – Daten sind das „fossile Brennmaterial“ der KI. Und wie fossile Brennstoffe sind auch die verfügbaren Internet-Daten endlich: „Wir haben den Peak Data erreicht, und es wird keinen Nachschub geben“, so Sutskever weiter. Modelle wie GPT-4 schöpfen bereits einen Großteil des frei verfügbaren Wissens aus dem Web ab. Die naheliegende Folge: Das bisherige Paradigma des Vortrainierens auf immer größeren Internet-Datenmengen stößt an Grenzen. Doch auch hier wirkt der KI-Fortschritt als Hebel, um Limitierungen zu überwinden. Erstens lässt sich immer mehr synthetische Daten erzeugen – also von KI selbst generierte Trainingsdaten. Und zweitens werden Modelle smarter im Umgang mit Information: Statt stupide immer mehr Daten zu verschlingen, beginnen neue Ansätze (z.B. OpenAIs „o1“-Modell) durch besseres Reasoning mehr aus weniger Daten herauszuholen. Mit KI lässt sich also nicht nur existierende Data cleverer nutzen, sondern auch neue Data produzieren – ein selbstnährender Zyklus. Je mehr Intelligenz wir haben, desto mehr Daten können wir erschaffen, und mit mehr (synthetisierten) Daten lassen sich wiederum bessere Modelle trainieren. Daten bleiben der kritische Input, aber KI lernt, sich ihren Treibstoff gewissermaßen selbst zu raffinieren.

KI-Fabriken und Hardware in neuen Dimensionen

Der rasante Preisverfall bei KI wäre undenkbar ohne eine ebenso rasante Entwicklung der Rechen-Infrastruktur. Künstliche Intelligenz verschmilzt mit dem Rechenzentrum – oder wie NVIDIA-CEO Jensen Huang sagt: „AI ist jetzt Infrastruktur“. Moderne KI-Rechenzentren nennt Huang lieber „AI-Factories“ statt Datenzentren. Warum? Man speist Energie ein und erhält etwas unglaublich Wertvolles heraus – Tokens. In diesen KI-Fabriken laufen spezialisierte KI-Chips, gigantische Netze von GPUs, High-Bandwidth-Memory und ultraschnelle Vernetzung auf Hochtouren, um Intelligenz am Fließband zu produzieren. Alle großen Tech-Unternehmen investieren derzeit massiv in solche Infrastruktur. Die jährlichen Kapitalausgaben für Cloud und KI der Top-4 (Amazon, Google, Meta, Microsoft) werden 2025 zusammen über 320 Mrd. $ erreichen. OpenAI selbst schmiedet gemeinsam mit Partnern (z.B. NVIDIA, Microsoft, Oracle) das Projekt “Stargate”: 500 Mrd. $ sollen in den nächsten vier Jahren in neue KI-Supercompute-Center in den USA fließen – ein KI-Infrastruktur-Invest von historischer Größenordnung und der erste seiner Art. Viele werden folgen. Huang prognostiziert, dass bis 2028 weltweit über 1 Bio. $ pro Jahr in KI-Rechenleistung fließen werden. Mit anderen Worten: Eine neue Industrie formiert sich, die den Bau und Betrieb von „Gehirnen in der Cloud“ zum Geschäft hat – und diese Industrie skaliert in die Billionen.

Diese Investitionslawine zielt natürlich darauf ab, immer mehr Output für weniger Kosten herauszuholen – also die Cost per Intelligence weiter zu senken. Moderne GPU-Server sind wahre Maschinen: NVIDIAs aktuelle Blackwell-Generation (B100/GB200) liefert je nach Konfiguration 30× bis 50× mehr KI-Leistung als die Vorgänger-Generation (H100). Gleichzeitig achtet Nvidia darauf, die Preise pro Leistungseinheit im Zaum zu halten: Konkurrenz durch AMD, Google TPU & Co. zwingt zu aggressiver, fast „wohlwollender“ Preisgestaltung. Das bedeutet: deutlich mehr Performance ohne entsprechend höhere Kosten – was den TCO pro KI-Inferenz drastisch drückt. Und weil Nachfrage ohne Ende in Sicht ist, rollen ständig neue Ausbaustufen vom Band: Immer mehr Parallelisierung, größere Speicherbandbreiten, spezialisierte Interconnects (siehe Nvidias NVLink Fusion) – all das erhöht die Effizienz, mit der Rechenzentren Intelligenz „produzieren“. Huang spricht von „gigantischen Fabrik-Investitionen“ und meint damit: Wer mehr GPUs kauft, kann mehr Intelligenz produzieren, was wiederum neue Anwendungen schafft, die noch mehr GPUs erfordern. Es ist ein sich selbst verstärkender Kreislauf aus Investition → Rechenpower → noch günstigere Intelligenz → noch mehr Bedarf. Diese Dynamik hat die Computerbranche in ähnlicher Form schon einmal erlebt – Stichwort Transistor-Ära – aber bei KI läuft sie nun in fast absurd anmutender Beschleunigung ab.

Was passiert mit einer Welt voll „kostenloser“ Intelligenz?

Wenn Rechenleistung, Daten und ausgeklügelte Modelle zusammen bewirken, dass KI allgegenwärtig und spottbillig wird, verändert das die Spielregeln der gesamten Wirtschaft. „In zehn Jahren kann vielleicht jeder Mensch mehr erreichen als heute die einflussreichste Person“, prognostiziert Sam Altman. KI wird zum großen Produktivitäts-Multiplikator für alle. Wir stehen vor einer Ära, in der Intelligenz im Überfluss vorhanden ist – so wie Elektrizität nach ihrer industriellen Verbreitung. Altman schreibt, in den 2030ern würden Ideen und die Fähigkeit, Ideen umzusetzen, im Überfluss verfügbar sein. Damit fallen fundamentale Beschränkungen weg: Was man sich ausdenken kann, kann man (mit Hilfe von KI) auch verwirklichen. Schon jetzt sehen wir erste Anzeichen – Forscher berichten, sie seien durch KI-Tools 2–3× produktiver als zuvor. Künftige Wissenschaftler, Entwickler, Unternehmer werden KI wie einen ständigen Begleiter einsetzen, der ihnen Routine abnimmt, Wissen beschafft, Entwürfe generiert und sogar beim Denken hilft. Der wissenschaftliche Fortschritt dürfte sich drastisch beschleunigen: Wenn KI es ermöglicht, ein Jahrzehnt Forschung in ein Jahr zu packen, sind bahnbrechende Entdeckungen im Schnellvorlauf zu erwarten – sei es bei Medikamenten, neuen Materialien oder Energie.

Ökonomisch bedeutet ultrabillige KI, dass die Herstellkosten vieler Güter und Dienste radikal sinken. Altman schreibt: „Der Preis vieler Dinge wird dramatisch fallen (derzeit begrenzen Kosten für Intelligenz und Energie vieles)“. Was passiert, wenn „Denkarbeit“ quasi nichts mehr kostet? Produkte und Services können wesentlich günstiger oder sogar umsonst angeboten werden, weil die ursprünglich teuren Komponenten – menschliche Arbeitszeit, Expertise – durch KI vervielfältigt und verbilligt wurden. Wir könnten in eine Ära eintreten, in der jedes Alltagsobjekt smart ist, personalisierte KI-Assistenten für jeden verfügbar sind und selbst komplexe Dienstleistungen (ärztliche Beratung, juristische Analysen, Softwareentwicklung) zu marginalen Kosten abrufbar werden. Eine solche deflationäre Wirkung der KI hat das Potenzial, Wohlstand breiter zu machen – solange die Früchte fair verteilt werden. Altman malt das Bild, dass am Ende jeder Mensch Zugriff auf „unbegrenztes Genie“ haben sollte. Stell dir vor: Jemand hat eine Idee für ein neues Produkt – er oder sie kann sofort auf das Äquivalent eines ganzen Forschungsteams an KI-Helfern zurückgreifen, um Prototypen, Businesspläne, Marketingtexte und mehr auszuarbeiten. Kreativität und Ausführung verschmelzen, weil Ideen direkt in umsetzbare Resultate übergehen können, gestützt von der allgegenwärtigen KI-Intelligenz.

Natürlich stellen sich auch Herausforderungen – etwa wie wir Bildung, Arbeit und gesellschaftliche Regeln anpassen, wenn Intelligenz zur frei verfügbaren Ressource wird. Doch die Chance ist riesig: Mit KI, Energie und Daten im Überfluss könnten wir jedes große Menschheitsproblem mit neuer Macht angehen. Krankheiten heilen, den Klimawandel eindämmen, Armut beseitigen – vieles, was heute an knappen Ressourcen oder begrenztem Expertenwissen scheitert, ließe sich neu denken. Beschleunigter Fortschritt bedeutet, dass Lösungen schneller gefunden und verbreitet werden können. Wichtig wird sein, die Zugangsoffenheit zu erhalten: Wenn am Ende jeder ein persönliches Kontingent an KI-Rechenzeit hätte – oder man die Kosten für Intelligenz einfach ins Bodenlose fallen lässt – kommt diese Power allen zugute. Altman betont, dass es neue Wege geben könnte, allen Menschen KI-Kapazität bereitzustellen, sei es durch Compute-Budgets oder durch radikale Kostensenkung. So oder so: Die Kurve zeigt nach unten – und zwar steil.

Am Horizont zeichnet sich eine Zukunft ab, in der „Intelligenz zu billig zum Messen“ ist (eine Anspielung auf das Zitat „too cheap to meter“ aus der Nuklearenergie-Ära). Was das Internet mit Information gemacht hat – Verfügbarkeit nahezu ohne Limit – könnte KI mit Intelligenz leisten. Für die meisten Anwendungen wird man die Kosten nicht mehr spüren: ob ich mein KI-Assistenzsystem eine Minute oder eine Stunde rechnen lasse, macht keinen nennenswerten Unterschied in der Geldbörse. Intelligenz wird zum Alltagsgut, so selbstverständlich und unbemerkt wie der Strom aus der Steckdose. Die echten Fragen verschieben sich dann weg von „Was kostet es?“ hin zu „Was machen wir damit?“. Die nächsten Jahre entscheiden, wie wir diese beispiellose Macht einsetzen. Doch eins ist klar: Die Eintrittsbarriere „Kosten“ fällt. Der Zugang zu hochwertiger KI wird universell. Was wir damit anfangen, liegt in unserer Hand – die Intelligenz an sich wird praktisch kostenlos sein. Wir müssen anfangen darüber nachzudenken, welche Faktoren in einer Welt mit unendlich viel Intelligenz zum limitierenden Faktor werden.

Nächster Schritt?

Lassen Sie uns Ihre Use Cases in 30 Minuten prüfen.

Erstgespräch buchen