Und warum sich Software plötzlich erstaunlich leer anfühlen kann
Vor einiger Zeit habe ich hier schon geschrieben, dass mich KI beim Programmieren gleichzeitig fasziniert und beängstigt.
Je besser die Modelle werden, desto mehr verschiebt sich nicht nur unser Werkzeugkasten – sondern auch unser Verhältnis zur eigenen Arbeit.
Und ich glaube inzwischen: Das betrifft nicht nur Entwickler. Aber dort merkt man es gerade zuerst.
Der „Easy Button“
Das eigentliche Problem ist nicht nur, dass KI schneller geworden ist.
Auf der Arbeit haben wir vor zwei Jahren immer halb im Scherz gesagt, dass wir eigentlich einen Mach-Mal-Geil-Knopf bräuchten.
Also etwas, das den nervigen Rest einfach wegmacht. Das aus einer groben Idee schnell etwas Vorzeigbares baut. Oder das Vorzeigbare eben „geil“ macht.
Naja. Jetzt haben wir ihn – kind of.
Das Problem ist, dass unser Gehirn sehr schnell lernt.
Wenn da ein Knopf ist, der in Sekunden ein brauchbares Ergebnis ausspuckt, dann fragt der Kopf irgendwann ganz automatisch: Warum soll ich mich da jetzt noch zwei Stunden durchbeißen?
Warum noch selbst bauen, wenn „gut genug“ sofort verfügbar ist?
Genau das macht diese Tools so mächtig. Und genau das macht sie auch gefährlich. Nicht, weil sie grundsätzlich schlecht wären. Sondern weil sie unsere Haltung verändern. Schritt für Schritt. Kaum merklich. Bis man irgendwann merkt, dass man den schweren Teil gar nicht mehr anfassen will.
Das Problem ist nicht nur falscher Code
Wenn über KI im Coding gesprochen wird, geht es meist um Halluzinationen, Sicherheitsprobleme oder schlechten Stil.
Alles berechtigt.
Aber das eigentliche Problem sitzt oft woanders: beim Geschwindigkeitsbruch zwischen Mensch und Maschine.
Die Modelle produzieren in kürzester Zeit riesige Mengen Code. Entwickler sollen das dann sauber reviewen, verstehen und verantworten. In der Theorie klingt das vernünftig. In der Praxis wird es schnell absurd.
Die Maschine rast.
Der Mensch liest hinterher.
Und irgendwann kippt die ganze Rolle: Du entwickelst nicht mehr wirklich. Du kontrollierst nur noch Symptome. Hauptsache, es läuft irgendwie. Hauptsache, die Tests sind grün. Hauptsache, Deployment steht.
Dass viele Entwickler genau da misstrauischer werden, obwohl sie die Tools längst nutzen, passt ins Bild: In der Stack Overflow Survey 2025 lag die Nutzung oder geplante Nutzung von AI-Tools bei 84 %, gleichzeitig vertrauten nur 33 % ihrer Genauigkeit und 46 % misstrauten ihr sogar.
Wenn das Produkt funktioniert – aber nicht mehr Deins ist
Das eigentlich Merkwürdige beginnt oft erst dann, wenn am Ende alles funktioniert.
Die App läuft.
Der Build ist durch.
Deployment klappt.
Die Registrierung funktioniert.
Alles sieht erstmal sauber aus.
Eigentlich müsste das der Moment sein, in dem man sich freut.
Stattdessen bleibt manchmal etwas ganz anderes zurück: Leere.
Und ich glaube, genau da wird es spannend. Denn gerade kleine Softwareprodukte sind am Anfang oft etwas sehr Direktes. Nicht bloß „ein Service“. Sondern etwas mit Handschrift. Mit Feedback-Schleife. Mit persönlichem Anspruch. Mit Nähe zu den Leuten, die das später nutzen.
Wenn dieser Prozess fast vollständig ausgelagert wird, bleibt am Ende vielleicht funktionierende Software übrig – aber keine Beziehung mehr dazu.
Für mich passt dazu ein hartes, aber irgendwie treffendes Bild: Hotdog-Software.
- Es erfüllt seinen Zweck.
- Es macht satt.
Aber niemand verbindet damit Handwerk, Sorgfalt oder Persönlichkeit.
Genau so kann sich KI-generierte Software plötzlich anfühlen: brauchbar, aber innerlich erstaunlich leer.
Reibung war nie nur lästig
Das Unbequeme daran ist: Der mühsame Teil war nicht nur Ballast.
Er war oft der Teil, an dem man gewachsen ist.
Man sitzt an einem Problem. Versteht es erst nicht. Probiert herum. Scheitert. Geht damit schlafen. Wacht auf – und plötzlich ist eine Idee da. Genau diese Reibung hat viele von uns überhaupt erst zu besseren Entwicklern gemacht.
Gerade wenn man sich Dinge selbst beigebracht hat.
Nicht durch perfekte Theorie.
Nicht durch die hundertste YouTube-Playlist.
Sondern durch echte Projekte. Echte Sackgassen. Echte Aha-Momente.
Und dass das kein reines Bauchgefühl ist, fand ich interessant: Eine Anthropic-Studie vom 29. Januar 2026 kam zu dem Ergebnis, dass Entwickler mit AI-Hilfe beim Erlernen einer neuen Library in einem anschließenden Quiz 17 % schlechter abschnitten. Die kleine Zeitersparnis war dabei statistisch nicht signifikant.
Wenn KI uns genau diese Reibung wegnimmt, spart sie nicht nur Zeit. Sie nimmt im Zweifel auch Lernweg, Stolz und Bindung zum Ergebnis mit.
Und das ist ein Preis, über den mir noch viel zu wenig gesprochen wird.
Und genau deshalb machen mir Junioren Sorgen
Denn wenn man ehrlich ist, waren viele der nervigen Einstiegstätigkeiten früher nicht einfach nur lästige Arbeit.
Sie waren Ausbildung.
- Kleine Bugfixes.
- Boilerplate.
- Tests.
- Formulare.
- Komische Randfälle.
- Legacy-Stellen, an denen man sich erstmal die Zähne ausbeißt.
Genau daran hat man gelernt, wie Software in der Realität kaputtgeht.
Wenn ausgerechnet diese Strecke jetzt zuerst automatisiert wird, dann verschwindet nicht nur Arbeit. Dann verschwindet auch ein Teil der Leiter, über die Junioren früher langsam besser geworden sind.
Das Problem ist also nicht nur: Finden Einsteiger noch irgendwo einen Platz?
Das Problem ist auch: Wie sollen daraus später gute Seniors werden, wenn immer mehr vom Lernweg direkt an die Maschine geht?
Die Ironie daran ist ziemlich bitter: Gerade in einer Welt, in der Menschen AI-Ausgaben prüfen, debuggen und verantworten sollen, werden genau diese Fähigkeiten noch wichtiger. Und trotzdem nehmen wir Anfängern gerade einen Teil der Strecke weg, auf der man genau das lernt. Genau davor warnt die Anthropic-Arbeit im Kern auch selbst: AI kann Produktivität erhöhen, ohne automatisch Kompetenz aufzubauen.
Dazu passt auch, dass ausgerechnet Lernende den Tools tendenziell etwas eher vertrauen, während erfahrene Entwickler am skeptischsten sind. Das ist menschlich. Aber eben auch riskant.
Warum sich das schnell wie eine Abhängigkeit anfühlt
Das Ganze hat etwas Tückisches.
Du machst einen schwierigen Teil selbst. Dann kommt der nervige Rest: Verkabeln, Fleißarbeit, Kleinkram. Du gibst genau das an die KI ab – und zehn Minuten später ist alles fertig. Natürlich merkt sich das Gehirn das. Natürlich fragt man sich beim nächsten Mal, warum man überhaupt noch selbst leiden soll.
Und damit sind wir beim eigentlichen Kern: Nicht jeder Missbrauch beginnt mit Faulheit. Vieles beginnt einfach damit, dass das Angebot zu gut ist.
- Schneller.
- Bequemer.
- Oft erstaunlich gut.
Genau deshalb ist die Versuchung so groß, immer mehr auszulagern. Bis irgendwann nicht nur die Fleißarbeit weg ist – sondern das eigene Denken Stück für Stück mit.
Und es bleibt nicht bei Entwicklern
Ich glaube nämlich, dass wir hier gerade nur den Anfang sehen.
Was KI heute mit Entwicklern macht, wird sie in den nächsten zwei bis fünf Jahren auch in vielen anderen Bereichen tun: im Support, im Consulting, im Vertrieb, in der Analyse, im Reporting, in der Prozesspflege und wahrscheinlich sogar in Teilen der klassischen Software-Bedienung selbst.
Genau deshalb fand ich den Titel „Tod der Software durch KI? Was der SAP-Schock wirklich bedeutet“ interessant. Nicht, weil ich glaube, dass Software jetzt plötzlich verschwindet. Sondern weil die Frage dahinter stimmt: Was bleibt von klassischen Softwarehäusern übrig, wenn KI nicht nur beim Bauen hilft, sondern selbst Teil von Bedienung, Auswertung und Wertschöpfung wird?
Ich glaube schon, dass sich Softwarehäuser und ihr direktes Umfeld enorm schnell anpassen müssen. Nicht irgendwann. Sondern jetzt.
Und genau da wird es für Softwarehäuser konkret
SAP ist dabei für mich eher Beispiel als Ausnahme.
Das ist für mich keine abstrakte Zukunftsfrage mehr. Man sieht gerade ziemlich konkret, wie selbst sehr große Softwarehäuser anfangen, sich neu zu sortieren.
Fast schon ironisch: SAP hat sich gefühlt erst vor zwei Jahren neu erfunden – und steht jetzt schon wieder vor der nächsten Neuerfindung.
Genau das zeigt ja, wie schnell sich das Ganze gerade verschiebt.
Bloomberg berichtete am 18. März 2026, dass SAP neue „forward deployed engineering“-Teams aufbauen will, die gemeinsam mit Kunden konkrete AI-Anwendungen entwickeln, und dass das Unternehmen perspektivisch stärker nach tatsächlicher AI-Nutzung statt nur nach klassischer Subscription abrechnen will. Fast zeitgleich hat SAP Vertrieb, Delivery, Services und Support organisatorisch enger zusammengerückt.
Für mich ist daran vor allem eines interessant: Selbst so ein großer Tanker baut gerade nicht nur ein paar neue KI-Funktionen, sondern gleich Rollen, Delivery und Erlöslogik um.
Dass am Ende dann ausgerechnet die neue Sales Cloud gezeigt wird, passt als Symbol eigentlich ganz gut. Nicht weil es um irgendein einzelnes Produkt ginge. Sondern weil man gerade an solcher klassischen Business-Software gut sieht, wohin die Reise geht: weniger klicken, mehr vorbereiten, mehr zusammenfassen, mehr automatisch anstoßen.
Und wenn Unternehmen wie SAP hier überhaupt einen Vorteil haben, dann aus meiner Sicht nicht wegen Hochglanzdemos. Sondern wegen Stammdaten, Integrationen, Berechtigungen, Freigaben und dem ganzen hässlichen Enterprise-Kram, den man eben nicht mal schnell mit einem netten Chatfenster ersetzt.
Heißt das jetzt: KI komplett weg?
Ich glaube nicht, dass die einzige Antwort darin liegt, alles zu deinstallieren und so zu tun, als wäre nichts passiert.
Dafür ist die Technik inzwischen zu gut. Und ja: auch zu nützlich.
Aber ich glaube, wir müssen ehrlicher darüber reden, was wir an diese Systeme abgeben – und was besser nicht.
Die eigentliche Gefahr ist aus meiner Sicht nämlich nicht nur schlechter Code.
Die eigentliche Gefahr ist Entfremdung.
Dass wir irgendwann zwar noch Produkte ausspucken, aber nichts mehr davon wirklich unsers ist.
Dass wir schneller werden – und uns gleichzeitig leerer fühlen.
Dass wir Features liefern – und dabei unmerklich die Fähigkeit verlieren, Probleme selbst noch tief genug zu durchdringen.
Und bei Unternehmen kommt noch etwas dazu: die Versuchung, KI einfach nur als neues Feature zu behandeln, obwohl sie in Wahrheit gerade das Modell darunter verändert.
Vielleicht braucht es gerade deshalb wieder bewusst gesetzte Grenzen: bestimmte Dinge selbst bauen, kritische Teile wirklich lesen, Probleme zuerst selbst strukturieren, und KI dort einsetzen, wo sie unterstützt – nicht dort, wo sie uns komplett ersetzt.
Nicht aus Nostalgie.
Sondern aus Selbsterhalt.
Fazit
KI kann heute Dinge, die vor kurzer Zeit noch absurd geklungen hätten. Das ist beeindruckend. Und es ist in vielen Situationen auch ein echter Gewinn.
Aber der Preis liegt nicht nur in Fehlern, Sicherheitsrisiken oder Jobangst.
Der Preis kann auch viel leiser sein:
weniger Bindung zum Produkt,
weniger Stolz auf die eigene Arbeit,
weniger Wachstum durch Reibung,
weniger echter Lernweg für Junioren,
weniger Zeit für Softwarehäuser, sich langsam anzupassen.
Wenn am Ende alles funktioniert, sich aber nichts mehr nach eigener Arbeit anfühlt, dann ist das kein kleines Detail.
Dann ist das ein Warnsignal.
Nicht gegen KI.
Sondern gegen das schleichende Verschwinden der eigenen Handschrift.
Erst im Code.
Dann im Produkt.
Und irgendwann vielleicht im ganzen Arbeitsleben.
21. März 2026 um 19:51 Uhr
Sehr interessant zu lesen, wie Du den Einsatz von KI siehts. Auch als „Nicht-Programmierer“ gut nachzuvollziehen. Wie Du schreibst – spannend zu sehen, wie sich der Umgang mit KI entwickelt und wie weitreichend und tiefgreifend die Gefahren sind, die damit verbunden sind.