KI Softwareentwicklung Bildung

Echte Experten entstehen nicht durch Abkürzungen

7 Min. Lesezeit

Wir erleben gerade eine Zeitenwende im Software Engineering. KI-Systeme schreiben Code, generieren Tests, schlagen Architekturen vor und refaktorieren bestehende Projekte in Minuten. Für viele Nachwuchsentwickler fühlt sich das wie eine Befreiung an. Weniger Syntax, weniger Boilerplate, weniger mühsames Debugging. Wer heute in die Branche einsteigt, wächst ganz selbstverständlich mit diesen Werkzeugen auf. KI ist kein Add-on, sondern Normalzustand.

Wie schnell sich diese Realität verändert, zeigt ein Beispiel aus der Praxis. Boris Cherny, der Entwickler hinter Claude Code, hat in einem Interview beschrieben, dass sein Team nie für das aktuelle Modell baut, sondern immer für das Modell in sechs Monaten. Anfang 2024 schrieb Claude etwa zehn Prozent seines Codes. Heute wird die gesamte Codebasis regelmäßig von Grund auf neu geschrieben. Kein einziges Stück Code überlebt länger als wenige Monate, weil sich die Fähigkeiten der Modelle so schnell weiterentwickeln, dass der bestehende Code permanent angepasst werden muss. Was heute als Limitierung erscheint, ist morgen gelöst. Die Geschwindigkeit dieser Entwicklung ist beispiellos.

Doch genau hier beginnt eine unbequeme Frage, die man nicht beanworten kann, aber die nächsten Jahrzehnte gewicht haben wird. Wie entstehen in einer Welt voller KI-Natives eigentlich noch echte Experten?

Der klassische Weg zum Experten

Früher war der Weg vom Junior zum erfahrenen Entwickler selten glamourös, aber effektiv. Man arbeitete sich durch Legacy-Code, suchte tagelang nach schwer reproduzierbaren Bugs, verstand irgendwann, warum eine Race Condition das System lahmlegte oder weshalb eine kleine Designentscheidung Jahre später zum Wartungsalbtraum wurde. Man lernte Architektur nicht aus Diagrammen, sondern aus den Konsequenzen schlechter Architektur. Dieses Lehrgeld war anstrengend, manchmal frustrierend, aber es schuf tiefes technisches Verständnis.

Dieser Prozess folgt einem Prinzip, das die Kompetenzforschung seit Jahrzehnten beschreibt. Echte Kompetenz entsteht durch bewusstes Üben, durch das wiederholte Konfrontieren mit Problemen, die knapp jenseits der eigenen Komfortzone liegen. Nicht durch Routine, sondern durch Reibung. Genau diese Reibung war das unsichtbare Fundament, auf dem erfahrene Entwickler ihre Urteilskraft aufgebaut haben.

Was passiert, wenn Reibung verschwindet

Heute kann ein Junior ein Feature beschreiben und erhält innerhalb weniger Sekunden eine lauffähige Implementierung. Das ist beeindruckend und produktiv. Doch wer den Code nicht selbst durchdrungen hat, kann ihn auch nicht wirklich beurteilen. KI verkürzt den Weg von der Problemstellung zur Lösung drastisch. Gleichzeitig verkürzt sie damit aber auch den Lernprozess. Lernen entsteht selten durch Bequemlichkeit, sondern durch Widerstand.

Eine aktuelle Studie von Anthropic bestätigt genau das. In einem randomisierten Experiment mit 52 professionellen Entwicklern schnitten diejenigen, die KI-Unterstützung nutzten, bei anschließenden Wissenstests rund 17 Prozentpunkte schlechter ab als die Kontrollgruppe ohne KI. ¹ Die Teilnehmenden berichteten selbst, dass sie sich „faul” fühlten und erhebliche Wissenslücken bei sich erkannten. KI-gestützte Produktivität ist eben keine Abkürzung zu Kompetenz.

Ein Blick zurück hilft, die Situation einzuordnen. Als der Taschenrechner in Schulen eingeführt wurde, war die Sorge groß, dass Kinder das Rechnen verlernen würden. Tatsächlich hat sich die mathematische Bildung verändert, aber sie ist nicht verschwunden. Niemand käme jedoch auf die Idee, einem Kind einen Taschenrechner zu geben, bevor es die Grundrechenarten verstanden hat. Zuerst lernt man, was Addition bedeutet, warum Division funktioniert und wie Zahlen aufgebaut sind. Erst wenn das Fundament steht, wird das Werkzeug zur sinnvollen Unterstützung.

Genau hier liegt die Parallele zur KI. Wenn angehende Entwickler nie verstanden haben, wie Speicherverwaltung funktioniert, warum Nebenläufigkeit komplex ist, wie Netzwerke kommunizieren oder weshalb bestimmte Architekturprinzipien existieren, dann wird KI nicht zum Produktivitätswerkzeug, sondern zur Abkürzung ohne Fundament. Das Ergebnis sind Systeme, die funktionieren. Bis sie es nicht mehr tun und dann fehlt das Verständnis, um sie nachhaltig zu reparieren.

Prompting ersetzt kein Systemverständnis

Die neue Generation von Entwicklern wird exzellent im Prompting sein, sie wird wissen, wie man Modelle steuert, wie man Kontext formuliert, nutzt und wie man Ergebnisse iterativ verbessert. Das ist zweifellos eine wichtige Kompetenz, aber Prompting ersetzt kein Systemverständnis. Ein großes Kontextfenster bedeutet nicht automatisch gute Architektur, weil ein lauffähiges Projekt ist noch lange keine wartbare Software und eine hohe Testabdeckung garantiert keine Sicherheit.

Eine Untersuchung von Microsoft Research zeigt, dass höheres Vertrauen in generative KI mit weniger kritischem Denken einhergeht. ² Je schlüssiger und „intelligenter” KI wirkt, desto größer wird die Gefahr, ihre Ergebnisse ungeprüft zu übernehmen. Gerade deshalb braucht es mehr Urteilskraft, nicht weniger.

Dabei verschiebt sich die Rolle des Entwicklers spürbar. Es geht immer weniger darum, jede Schleife selbst zu formulieren, und immer mehr darum, zu bewerten, ob das Ergebnis architektonisch sinnvoll, sicher, wartbar und skalierbar ist. Diese Bewertungs- und Einordnungskompetenz ist anspruchsvoller als das reine Implementieren. Man muss verstehen, welche Abhängigkeiten entstehen, wo Sicherheitsrisiken lauern, welche Designentscheidung zukünftige Erweiterungen erschwert oder erleichtert. Man muss Systemzusammenhänge begreifen, vom Code über Infrastruktur bis hin zum Betrieb.

In meinem letzten Artikel habe ich argumentiert, dass Denken sich nicht delegieren lässt. Das gilt hier in verschärfter Form. Denn wenn die Reibung fehlt, die das Denken überhaupt erst trainiert, dann entsteht ein grundlegendes Problem, denn es fehlen nicht nur die Antworten, sondern es fehlt die Fähigkeit, die richtigen Fragen zu stellen.

Niedrigere Einstiegshürden in die Softwareentwicklung

Natürlich gibt es Bereiche, in denen KI tatsächlich eine breiter, einfacher Enabler ist. Eine einfache Vereinswebsite ohne kritische Daten, ein kleines internes Tool oder eine persönliche App zur Organisation des Alltags. Solche Projekte können heute auch von Laien mit Unterstützung generativer Modelle umgesetzt werden. Das ist positiv und eröffnet neue Möglichkeiten.

Doch sobald es um hochqualitative Software geht, die sicher betrieben, langfristig gewartet und skaliert werden muss, steigen die Anforderungen erheblich. Hier beginnt die eigentliche Ingenieursarbeit. Und sie ist nicht trivialer geworden, sondern komplexer. Gleichzeitig fallen Einstiegspositionen weg, in denen Nachwuchsentwickler früher genau diese Tiefe entwickelt haben. Eine Stanford-Studie zeigt, dass die Beschäftigung von Softwareentwicklern zwischen 22 und 25 Jahren seit 2022 um fast 20 Prozent zurückgegangen ist. ³ Wenn der klassische Einstieg in die professionelle Softwareentwicklung schrumpft, schrumpft auch der Raum, in dem künftige Experten heranwachsen können.

Das Verschieben des Engpasses von der Implementierung zur Steuerung, das ich in einem früheren Beitrag beschrieben habe, setzt voraus, dass Entwickler das Gesteuerte überhaupt verstehen und ohne Fundament gibt es keine Steuerung, es gibt nur die Illusion davon.

Fazit. Das Fundament bleibt unverhandelbar

Die entscheidende Frage lautet nicht, ob KI das Coden gelöst hat. Vielmehr müssen wir fragen, wie wir in einer KI-geprägten Welt weiterhin Experten ausbilden. Wenn Einsteiger kaum noch Gelegenheit bekommen, sich durch schwierige Probleme zu arbeiten, wenn Debugging und Refactoring zunehmend automatisiert werden, wie entsteht dann das tiefe Verständnis, das für Architekturentscheidungen und Sicherheitsbewertungen notwendig ist?

Vielleicht braucht es bewusst gestaltete Lernräume, in denen KI nicht jede Aufgabe sofort übernimmt. Vielleicht müssen Ausbildung und Mentoring stärker auf Systemdenken, Betriebsverantwortung und Sicherheitsbewusstsein ausgerichtet werden. Sicher ist nur eines. Expertise entsteht nicht automatisch durch den Einsatz moderner Werkzeuge.

Wir sollten KI weder verteufeln noch unkritisch feiern. Sie ist ein mächtiges Instrument, das wir annehmen und sinnvoll nutzen müssen. Gleichzeitig dürfen wir uns nicht der Illusion hingeben, dass damit automatisch jeder zum Softwareentwickler wird. Softwareentwicklung war nie nur das Schreiben von Code,sie war immer Verantwortung für Systeme, für Daten, für Stabilität und für Menschen, die diesen Systemen vertrauen.

Wer das Fundament dem Komfort opfert, baut Systeme, die niemand mehr reparieren kann.

Ob wir uns in einigen Jahren an die heutigen Sorgen erinnern wie an die Debatten um den Taschenrechner, wird sich zeigen. Vielleicht verschieben sich Kompetenzen nur, vielleicht entstehen neue Formen von Expertise, aber entscheidend ist, dass wir den Übergang bewusst gestalten und die unbequemen Fragen stellen müssen.

Die Werkzeuge werden mächtiger. Die Frage ist, ob wir die Grundlagen lebendig halten, auf denen ihre sinnvolle Nutzung überhaupt erst aufbaut.


Quellen

  1. How AI Impacts Skill Formation — Anthropic Research
  2. The Impact of Generative AI on Critical Thinking — Microsoft Research, CHI 2025
  3. How AI Vibe Coding Is Destroying Junior Developers’ Careers — Final Round AI
  4. Boris Cherny (Creator of Claude Code) On How His Career Grew — The Developing Dev