KI ermöglicht Unternehmen, Kosten und Time-to-Market in erheblichem Tempo zu optimieren. Was für das einzelne Unternehmen rational erscheint, kann kollektiv zu einem Ergebnis führen, das niemand anstrebt: eine Abwärtsspirale aus strukturellen Anreizen, die durch die Geschwindigkeit der KI-Diffusion erheblich verschärft wird und aus der selbst weitsichtige Akteure keinen systematischen Ausweg finden.

Dies ist der erste Teil einer fünfteiligen Artikelserie über die gesellschaftlichen und wirtschaftlichen Konsequenzen der KI-Revolution. Die Serie fokussiert auf die Softwareindustrie und softwareintensive Produkte, weil dort die Mechanismen am deutlichsten sichtbar werden und die empirische Evidenz am stärksten ist — und weil immer mehr Branchen softwareintensiv werden: Was heute im Software-Kern geschieht, diffundiert morgen in Automotive, Medizintechnik und traditionelle Industrien. Dieser Artikel umreißt die Kernthese und benennt die wichtigsten Gegenargumente. Die Folgeartikel vertiefen die Analyse: wie die Erosion über Branchengrenzen wandert in Artikel 2, historischer Vergleich in Artikel 3, Regulierungsversagen in Artikel 4, Handlungsoptionen in Artikel 5.

Die Kernthese

Produktentwicklung navigiert im Spannungsfeld zwischen Qualität, Kosten, Zeit und Funktionsumfang, dem "magischen Viereck" des Projektmanagements. Keine Dimension lässt sich ohne Kompromisse bei einer anderen optimieren. Empirisch verliert Qualität systematisch: Software wird ausgeliefert, wenn das Veröffentlichungsdatum ansteht, nicht wenn sie fertig ist. Day-One-Patches sind Standard.

Drei strukturelle Zwänge treiben diese Priorisierung — auf der Firmenebene, der Marktebene und der gesamtwirtschaftlichen Ebene. Diese Zwänge sind verkoppelt: Jeder verstärkt die anderen.

Wie KI diese Dynamik verschärft

Etablierte Unternehmen setzen derzeit KI überwiegend ein, um bestehende Prozesse effizienter zu gestalten: gleiche Produkte und gleiche Services, nur mit schlankeren Teams und aggressiveren Timelines. Eine globale McKinsey-Studie dokumentiert, dass 63% der KI-Implementierungen primär auf Kostensenkung zielen.¹ Theoretisch könnte KI einen anderen Weg ermöglichen, bei gleichem Ressourceneinsatz deutlich hochwertigere Produkte entwickeln, aber in der Praxis folgt sie der etablierten Logik.

Neue Marktteilnehmer starten von Anfang an mit extrem schlanken Modellen. Sie operieren mit Teams von drei bis fünf Mitarbeitern statt der früher üblichen größeren Gründungsteams und werden mit 100.000–500.000 Euro finanziert statt mit mehreren Millionen.² Diese Startups entwickeln überwiegend keine grundlegenden Innovationen, sondern kombinieren bestehende Cloud-Infrastruktur und APIs mit besserer Oberfläche.

Hierbei entsteht eine gefährliche Zweiteilung. Während die Entwicklung der KI-Basismodelle Milliardeninvestitionen erfordert und sich in einem Oligopol weniger Tech-Giganten konzentriert, sinken die Eintrittsbarrieren auf der Anwendungsebene gegen Null. Weil die technologische Hürde so gering ist, wird Geschwindigkeit zum einzigen verbleibenden Unterscheidungsmerkmal. Wer keine eigene Technologie besitzt, muss schneller verkaufen und früher ausliefern als die vielen Klone, die eine Woche später starten. Die Demokratisierung des Zugangs führt paradoxerweise nicht zu besserer Qualität, sondern zu beschleunigter Homogenisierung auf niedrigem Niveau.

Das Ergebnis beider Wege ist identisch: erheblich weniger Beschäftigte pro Marktlösung bei deutlich kürzeren Entwicklungszyklen.

Firmenebene: Wie Unternehmen intern entscheiden

Manager werden nach kurzfristigen Quartalszielen bewertet. CEOs haben laut Russell Reynolds eine durchschnittliche Amtszeit von 6,8 Jahren.³ Kostensenkung und Zeitgewinn erscheinen direkt in Quartalszahlen; Aktienkurse reagieren sofort. Die Konsequenzen mangelnder Qualität hingegen zeigen sich verzögert — Reputationsschäden werden teilweise erst nach Jahren sichtbar, technische Schulden bleiben für Kunden unsichtbar.

Die zeitliche Asymmetrie ist kritisch: Ein Vorstand, der ein Release um drei Monate verzögert, verliert möglicherweise Marktanteile, während die Verbesserung sich erst nach seiner Amtszeit auszahlt. In den Quartalen der Verzögerung wird er für schlechtere Performance kritisiert.

Der Mechanismus ist keine Kognitionsfalle, sondern eine Rationalitätsfalle. Eine Kognitionsfalle entsteht durch Denkfehler — bessere Information könnte helfen. Eine Rationalitätsfalle entsteht, wenn rationales Handeln jedes Einzelnen zu einem kollektiv schlechten Ergebnis führt. Selbst Manager, die anders wollen, müssen sich den kurzfristigen Anreizen beugen oder ihre Karriere riskieren.

Aktuelle Daten illustrieren, wie KI diese Dynamik verschärft. Der Google DORA Report (DevOps Research and Assessment) 2025 zeigt: Je mehr Teams KI-Tools einsetzen, desto mehr Fehler landen in der fertigen Software — obwohl 59% der Entwickler glauben, bessere Arbeit zu liefern.⁴ Diese Diskrepanz zwischen Wahrnehmung und Messung ist selbst Teil des Problems. Eine Analyse von Millionen Codeänderungen fand 2024 achtmal so viele copy-paste-Duplikate wie zuvor — ein Zeichen, dass schneller produziert, aber weniger sorgfältig gearbeitet wird.⁵ Joe Magerramov, VP bei Amazon Web Services, bringt die Konsequenz auf den Punkt: "Was früher ein oder zwei schwere Fehler pro Jahr waren, kann bei zehnfach schnellerer Auslieferung wöchentlich passieren."⁶

Inhabergeführte Unternehmen und Mittelständler könnten theoretisch langfristiger denken, weil sie vom Prinzipal-Agent-Problem (dem Interessenkonflikt zwischen angestellten Managern und Eigentümern) befreit sind. Aber auch sie operieren nicht im Vakuum. Sie fallen einem zweiten Mechanismus zum Opfer, dem Koordinationsproblem auf Marktebene.

Marktebene: Wie Wettbewerb Entscheidungen bewertet

Der Markt reagiert asymmetrisch. Wer drei Monate später ausliefert, verliert den First-Mover-Vorteil. In schnellen Märkten wie Software-as-a-Service ist Verzögerung existenzbedrohend — Netzwerkeffekte verstärken die Dynamik: Wer zuerst da ist, gewinnt überproportional. Ähnlich hart bestraft der Markt überhöhte Kosten.

Mängel hingegen werden toleriert. Kunden haben über zwei Jahrzehnte gelernt, Bugs zu akzeptieren. "Bekannte Probleme" in Versionshinweisen gehören zum Standard.

Das Ergebnis gleicht dem der Firmenebene, aber der Mechanismus ist ein anderer: Nicht der einzelne Manager entscheidet so, sondern der aggregierte Markt erzwingt es. Selbst der langfristig denkende Familienunternehmer wird bestraft, wenn er langsamer oder teurer ist als die Konkurrenz.

Nun könnte man einwenden, dass Premium-Segmente anders funktionieren — Apple, Miele, deutsche Automobilhersteller. Das stimmt, allerdings mit Einschränkungen. Die Toleranz variiert zwischen Segmenten: In Consumer Software am höchsten, in Enterprise-B2B niedriger (SLAs und Vertragsstrafen erzwingen höhere Standards), in sicherheitskritischen Bereichen wie Aerospace oder Medizintechnik reguliert.

B2B-Unternehmen und Hidden Champions (mittelständische Weltmarktführer in Nischenmärkten)¹¹ haben strukturelle Vorteile. Aber auch diese Refugien bleiben anfällig. Zudem importieren selbst Premium-Hersteller zunehmend die "ausliefern und später patchen"-Logik: Tesla setzt Safety-Critical Features als Beta in Serienfahrzeugen ein — vor zehn Jahren in der Automobilindustrie undenkbar. Over-the-Air-Updates normalisieren das Prinzip auch für Hardware.

Gesamtwirtschaftliche Ebene: Wer überhaupt kaufen kann

Wenn Unternehmen Personal durch KI ersetzen, verschiebt sich Einkommen von Arbeitnehmern zu Kapitaleignern. Da Lohnempfänger einen höheren Anteil ihres Einkommens für Konsum ausgeben (US-Daten zeigen 80–90% im untersten Fünftel der Einkommensverteilung gegenüber 40–50% im obersten),⁷ sinkt die gesamtwirtschaftliche Konsumnachfrage.

Ein häufiger Einwand an dieser Stelle lautet: Wenn KI die Produktion verbilligt, sinken im Wettbewerb auch die Preise. Die reale Kaufkraft müsste also steigen, weil Konsumenten für ihr Geld mehr bekommen.

Dieser Mechanismus greift hier jedoch nicht, und zwar aus zwei Gründen:

  1. Die Entkopplung von Preisen und Löhnen: Während KI digitale Güter und Dienstleistungen deflationär verbilligt, bleiben die Kosten für physische Grundbedürfnisse — Wohnen, Energie, Lebensmittel — weitgehend unberührt, da sie nicht primär aus Software bestehen. Wenn jedoch KI-bedingte Lohnstagnation oder Arbeitsplatzverluste das verfügbare Einkommen drücken, nützt es dem Konsumenten wenig, dass Software-Abos oder generierte Medieninhalte 50 Prozent billiger sind. Seine reale Kaufkraft für den entscheidenden Warenkorb des täglichen Lebens sinkt.

  2. Die Verteilung der Effizienzgewinne: In einer monopolisierten Tech-Ökonomie werden Kostensenkungen nicht zwingend 1:1 an Konsumenten weitergegeben. Stattdessen erhöhen sie die Margen der Plattformanbieter. Das Einkommen verschiebt sich also von einer breiten Masse an Konsumenten (Löhne) zu einer kleinen Gruppe von Kapitaleignern (Dividenden/Aktienrückkäufe). Da diese Gruppe einen deutlich geringeren Anteil ihres Einkommens für Konsum ausgibt und Kapital eher anlegt als verkonsumiert, fehlt dieses Geld im realwirtschaftlichen Kreislauf als Nachfrage.

Bei KI ist diese Dynamik gegenüber früheren Automatisierungswellen verschärft. Die Geschwindigkeit ist beispiellos: 55% der Unternehmen nutzen KI produktiv nach nur achtzehn Monaten,¹ während frühere Automatisierungswellen sich über Jahrzehnte ausbreiteten. Hinzu kommt, dass KI primär hochbezahlte Wissensarbeiter trifft, während frühere Wellen hauptsächlich niedrigbezahlte Routinearbeit betrafen. Und anders als frühere Wellen, die regional und sektoral gestaffelt diffundierten, wirken KI-Modelle global ab Tag eins.

Sinkende aggregierte Kaufkraft verschiebt Nachfrage gestaffelt, von Premium zu Mainstream, von Mainstream zu Budget. In jedem Segment verstärkt sich der Preisdruck. Unternehmen, die bisher auf Qualitätsdifferenzierung setzten, müssen entweder Preise senken oder Marktanteile verlieren. Das verstärkt den Druck auf den anderen beiden Ebenen zusätzlich.

Hier meldet sich das stärkste Gegenargument: Technologischer Fortschritt hat historisch immer neue Jobs geschaffen. Computer ersetzten Schreibkräfte, schufen aber IT-Berufe, und Roboter verdrängten Fließbandarbeiter, aber der Service-Sektor expandierte. Die Ludditen fürchteten 1811 den Untergang durch mechanische Webstühle, doch zweihundert Jahre später gibt es mehr Jobs als je zuvor.

Dieses Argument verdient ausführliche Auseinandersetzung, denn es könnte auch diesmal richtig sein, aber drei Faktoren sprechen dafür, dass die historischen Muster bei KI möglicherweise nicht mehr gelten.

Erstens die Geschwindigkeit: ChatGPT erreichte hundert Millionen Nutzer in zwei Monaten, während frühere Technologiewellen Gesellschaften Jahrzehnte zur Anpassung gaben. Brynjolfsson et al. dokumentieren für die USA bereits messbare Verdrängungseffekte mit Copywriting minus 14%, Grafikdesign minus 8% und Programmierung minus 7% seit Ende 2022.⁹

Zweitens die Breite: Frühere Automatisierungswellen trafen primär Routineaufgaben, und die klassische Fluchtrichtung war mehr Bildung und höhere Qualifikation. KI erfasst nun kognitive Arbeit, gerade die qualifizierten Tätigkeiten, die bisher als sicher galten, was die Frage aufwirft, wohin man fliehen soll, wenn KI die Fluchtpunkte automatisiert.

Drittens die Gleichzeitigkeit: Frühere Wellen diffundierten gestaffelt, England vor Deutschland, Fertigung vor Dienstleistung, und diese Staffelung erlaubte Migration und schrittweise Anpassung. Ein ChatGPT-Update hingegen wirkt simultan in 180 Ländern und allen Branchen, wodurch räumliche und sektorale Fluchtwege eliminiert sind.

Acemoglu & Restrepo zeigen, dass historisch neue Technologien zwar alte Aufgaben verdrängten, aber auch neue Aufgaben schufen, in denen Menschen wieder eingesetzt wurden (sogenanntes Reinstatement).¹⁰ Bei KI fehlen bisher überzeugende Beispiele für neue, exklusiv menschliche Aufgaben in ausreichender Zahl. Prompt Engineering und ähnliche Rollen sind quantitativ vernachlässigbar. Artikel 3 prüft dieses Gegenargument ausführlich an historischer Evidenz.

Warum die Falle schwer zu durchbrechen ist

Die drei Zwänge sind nicht additiv, sondern verkoppelt — jeder verstärkt die anderen. Deshalb scheitern isolierte Lösungen: Der langfristig denkende CEO wird vom Markt bestraft, der geduldige Investor verliert gegen aggressivere Konkurrenten, und wenn Budgets schrumpfen, können selbst qualitätsbewusste Kunden nicht mehr Premium kaufen. Jeder operiert auf einer Ebene, während die anderen beiden ihn zurückziehen.

Die Politik könnte theoretisch eingreifen. Eine wirksame Lösung müsste allerdings alle drei Ebenen gleichzeitig adressieren — in verschiedenen Ländern koordiniert, schnell genug, gegen starke Lobby-Interessen. Die Wahrscheinlichkeit ist gering. Artikel 4 analysiert die strukturellen Barrieren: den Skalenmismatch zwischen globaler Technologie und nationaler Regulierung, Regulatory Capture (die systematische Vereinnahmung von Regulierungsbehörden durch die regulierte Industrie), und die Zeitasymmetrie zwischen exponentieller Technologieentwicklung und linearen demokratischen Prozessen.

Verzögerte Sichtbarkeit

Moderne Gesellschaften haben Resilienz-Mechanismen entwickelt, die individuelle Härten abfedern. Sozialversicherungen fangen Einkommensverluste auf, Haushalte können auf Ersparnisse zurückgreifen, Unternehmen kompensieren lokale Einbrüche durch globale Expansion. Diese Puffer sind zivilisatorische Errungenschaften, die Menschen vor den unmittelbaren Folgen wirtschaftlicher Umbrüche schützen.

Für strategische Entscheidungen entsteht daraus allerdings ein Sichtbarkeitsproblem: Die aggregierten Kennzahlen bleiben stabil, während sich unter der Oberfläche strukturelle Verschiebungen vollziehen. Entscheider, die sich auf Quartalszahlen und Arbeitsmarktstatistiken verlassen, erkennen die Dynamik möglicherweise erst, wenn die Puffer an ihre Grenzen stoßen.

Die verfügbaren Daten stammen überwiegend aus den USA, wo der Tech-Sektor früher und stärker von der KI-Transformation betroffen ist. Layoffs.fyi dokumentiert dort über 700.000 Entlassungen im Tech-Sektor seit 2022,¹² und Upwork verzeichnet auf dem überwiegend US-amerikanischen Markt einen Preisverfall von 23% für Copywriting und 18% für Grafikdesign.¹³ Für den europäischen und deutschen Markt fehlen vergleichbare systematische Erhebungen, aber die Richtung dürfte mit Verzögerung ähnlich verlaufen, weil dieselben Plattformen und Technologien zum Einsatz kommen. Die Mainstream-Wirtschaft bleibt in beiden Regionen bisher weitgehend stabil.

Die Heimtücke liegt im Timing-Dilemma: Wer in der frühen Phase handelt, wirkt übervorsichtig, weil die Zahlen ja gut sind. Wer später erkennt, dass strategische Repositionierung nötig ist, hat möglicherweise nicht mehr genug Zeit für Anpassungen, die Jahre brauchen.

Implikationen für Entscheider

Kurzfristig geht es um defensive Positionierung. Technische Schulden sollten nicht ignoriert werden, denn was heute bei Qualität gespart wird, akkumuliert und kostet später exponentiell mehr. Die eigene Marktposition verdient Evaluation. Operiert man in einem Segment mit hoher Fehlertoleranz wie Consumer Software, oder in einem mit niedrigerer wie Enterprise B2B oder regulierte Märkte? Die Spirale trifft ersteres deutlich härter. Leading Indicators wie Hiring-Trends im eigenen Sektor, Preisentwicklung und Qualitätsbeschwerden zeigen die Richtung früher als Quartalszahlen.

Mittelfristig stehen strategische Weichenstellungen an, denn eine Repositionierung zu qualitätsresilienten Segmenten, von Consumer zu B2B oder von Commodity zu Premium, braucht Jahre, weshalb der Beginn jetzt sein muss.

Langfristig gilt: Wer wartet, bis die Krise manifest ist, hat keine strategischen Optionen mehr.

Das unbequeme Fazit

Was sich durch KI ändert, ist nicht die Existenz dieser Mechanismen — sie existierten vor KI. Es ändert sich die Dynamik: Geschwindigkeit und Intensität nehmen erheblich zu, weil KI auf alle drei Ebenen annähernd gleichzeitig wirkt.

Die wichtigsten Gegenargumente sind benannt: Inhabergeführte Unternehmen, Premium-Segmente, historische Job-Schöpfung, politische Intervention. Die Folgeartikel prüfen sie an Empirie und Geschichte.

Wenn ich die Mechanismen zusammennehme, komme ich zu einem unbequemen Schluss: Es ist wahrscheinlich, dass wir in diese Abwärtsspirale rutschen. Der Ausgang ist nicht vorherbestimmt, aber die Hoffnung auf Selbstkorrektur ist trügerisch.

Das Zeitfenster schließt sich. Die nächsten drei bis fünf Jahre entscheiden, welche Ausprägung die Transformation nimmt. Wer jetzt strategische Weichenstellungen vornimmt, gestaltet; wer wartet, reagiert nur noch.

Die Artikelserie im Überblick

Die Logik der Optimierung — Warum KI rationales Handeln zum kollektiven Problem macht (dieser Artikel): Warum führt individuell rationales Handeln zu kollektiv schlechten Ergebnissen?

Die Abwärtsspirale — Wie Qualitätserosion durch Branchen diffundiert: Vier Bereiche mit unterschiedlicher Widerstandskraft, drei Phasen der Erosion, und die Kanäle, über die sie wandert.

Geschichte wiederholt sich — aber schneller: Warum die historischen Anpassungsmechanismen bei KI an ihre Grenzen stoßen.

Das Regulierungsversagen — Warum die Abwärtsspirale nicht verhindert werden kann: Koordinationsprobleme, Lobbying-Macht und die Zeitasymmetrie zwischen Technologie und Demokratie.

Was trotzdem tun — Handlungsoptionen trotz struktureller Ohnmacht: Pragmatische Antworten auf der mentalen, individuellen, organisationalen und kollektiven Ebene.

Quellen und Anmerkungen

¹ McKinsey Global Institute (2025). The State of AI in 2025: AI adoption accelerates as organizations focus on value creation. November 2025. Die Studie zeigt: 63% der befragten Unternehmen nennen Kostensenkung als primäres Ziel ihrer KI-Implementierungen; 55% nutzen KI bereits produktiv.

² Basierend auf Beobachtungen im IT-Sektor und Gesprächen mit Gründern und Investoren. Seed-Runden in KI-fokussierten Startups bewegen sich typischerweise zwischen €100.000–500.000, während vergleichbare Software-Startups vor zehn Jahren €1–3 Millionen benötigten.

³ Russell Reynolds Associates (2025). The Transformation of the CEO: Global CEO Turnover Index Annual Report. H1 2025 Report.

⁴ Google DORA Team (2025). Accelerate State of DevOps Report 2025. Die Studie korreliert KI-Adoption mit Qualitätsmetriken: 90% mehr KI-Nutzung korreliert mit 9% mehr Bugs, 91% längerer Code-Review-Zeit und 154% größeren Pull Requests.

⁵ GitClear (2024). Coding on Copilot: 2024 Data Suggests Downward Pressure on Code Quality. Analyse von Millionen Code-Änderungen zeigt Verachtfachung duplizierter Codeblöcke und 39,9% weniger Refactoring.

⁶ Magerramov, J. (2025). Zitiert in: Qodo/The New Stack (2025). AI Code Generation Creates More Work for Developers. 67% der Entwickler berichten, mehr Zeit mit Debugging von KI-generiertem Code zu verbringen.

⁷ Bureau of Labor Statistics (2023). Consumer Expenditure Survey 2022, Table 1202: Income before taxes — Quintiles of income before taxes. U.S. Department of Labor.

⁸ Brynjolfsson, E., Li, D., & Raymond, L. (2023). Generative AI at Work. NBER Working Paper 31161. Dokumentiert Produktivitätssteigerungen, aber auch Verdrängungseffekte.

⁹ Brynjolfsson, E., Chandar, B., & Chen, R. (2025). Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence. Stanford Digital Economy Lab / ADP Research Institute. Dokumentiert: Copywriting –14%, Grafikdesign –8%, Programmierung –7% seit Ende 2022.

¹⁰ Acemoglu, D. & Restrepo, P. (2019). Automation and New Tasks: How Technology Displaces and Reinstates Labor. Journal of Economic Perspectives, 33(2), 3–30.

¹¹ Simon, H. (2012). Hidden Champions — Aufbruch nach Globalia: Die Erfolgsstrategien unbekannter Weltmarktführer. Frankfurt/New York: Campus Verlag.

¹² Layoffs.fyi (2025). Tech Layoff Tracker. https://layoffs.fyi — Dokumentiert über 700.000 Entlassungen im Tech-Sektor seit 2022, mit stark steigender Tendenz: allein 2023 waren es rund 263.000.

¹³ Upwork (2025). Freelance Market Trends Report Q3 2025. Dokumentiert Preisverfall von 23% für Copywriting und 18% für Grafikdesign auf der Plattform.