KI Requirements Engineering Softwareentwicklung

Wer nur promptet, ersetzt Denken durch Wahrscheinlichkeit

6 Min. Lesezeit

Wer nur promptet, ersetzt Denken durch Wahrscheinlichkeit. Das klingt hart, aber die letzten Monate haben es unübersehbar gemacht. Ein Phänomen hat einen Namen bekommen, der es perfekt beschreibt: AI Slop. Minderwertige, massenhaft produzierte KI-Inhalte, die auf den ersten Blick professionell wirken, aber bei genauerem Hinsehen weder Substanz noch Tiefe haben. Das Problem ist längst nicht mehr eine Nische, es ist Mainstream.

Die Slop-Epidemie

Die Open-Source-Welt spürt es am deutlichsten. GitHub hat angekündigt, neue Werkzeuge gegen minderwertige KI-generierte Pull Requests einzuführen, darunter die Möglichkeit, PRs direkt zu löschen und automatische Triage-Filter, die offensichtlich substanzlose Beiträge herausfiltern sollen. ¹ Die Maintainer großer Projekte berichten übereinstimmend von einer Flut an Beiträgen, die auf den ersten Blick plausibel aussehen, bei näherer Betrachtung aber weder das Problem verstehen noch eine tragfähige Lösung liefern. Brecht Van Lommel vom Blender-Projekt beobachtet, dass die Autorinnen und Autoren solcher Beiträge „möglicherweise nicht vollständig verstehen, was sie beitragen”. Rémi Verschelde von Godot beschreibt die Situation als „immer anstrengender und demoralisierender”.

Das Problem hat eine fundamentale Asymmetrie. Es kostet praktisch nichts, einen KI-generierten Pull Request zu erstellen, aber es kostet echte Zeit und Energie, ihn zu prüfen, Feedback zu formulieren und letztlich abzulehnen. Curl hat aus genau diesem Grund sein Bug-Bounty-Programm eingestellt. Die Kosten des Filterns übersteigen mittlerweile den Nutzen der offenen Issues.

Aber AI Slop beschränkt sich nicht auf Code. Es zeigt sich überall dort, wo LLMs Textproduktion übernehmen, ohne dass ein denkender Mensch die Steuerung behält.

Wenn Anforderungen aufgebläht statt durchdacht werden

Die vielleicht tückischste Form von AI Slop versteckt sich nicht in Pull Requests, sondern in Anforderungsdokumenten. Immer mehr Teams lassen LLMs ihre Product Requirement Documents erstellen. Das Ergebnis sieht beeindruckend professionell aus, seitenlange Dokumente mit durchdachter Struktur und umfassender Abdeckung aller erdenklichen Aspekte. Doch genau hier liegt das Problem.

Was ein LLM liefert, sind aufgeblähte Feature-Listen, in denen alles gleich wichtig klingt und nichts wirklich priorisiert wird. Es sind generische Best Practices, die aus den Trainingsdaten reproduziert werden, statt aus dem konkreten Projektkontext abgeleitet zu sein. Es sind redundante Annahmen, die dieselbe Randbedingung in fünf verschiedenen Formulierungen wiederholen, und eine unnötige Detailtiefe, bei der ganze Absätze stehen, wo ein einziger Satz genügt hätte.

Das Resultat wirkt professionell, ist aber selten präzise. Und es führt zu einem Paradoxon, das die ganze Absurdität offenlegt, denn diese aufgeblähten PRDs sind häufig so umfangreich, dass sie das Kontextfenster genau jener LLMs sprengen, die sie anschließend umsetzen sollen. Die KI generiert Anforderungen, die die KI nicht vollständig verarbeiten kann. Das ist die Definition von Slop: viel Text, wenig Klarheit.

LLMs können keine guten Anforderungen für dich denken. Sie können nur Text produzieren, der danach aussieht.

Gute Anforderungen sind komprimierte Entscheidungen

Echtes Requirements Engineering ist das genaue Gegenteil dessen, was KI standardmäßig produziert. Es geht darum, Komplexität zu reduzieren statt aufzublähen. Es bedeutet, klare Prioritäten zu setzen und dabei explizit zu benennen, was nicht gebaut wird. Gute Anforderungen definieren bewusste Nicht-Ziele, machen Randbedingungen wie Budget, Zeit, Technologie und Regulatorik sichtbar und formulieren Sicherheitsanforderungen konkret, statt sich hinter Floskeln wie „das System soll sicher sein” zu verstecken.

Der vielleicht wichtigste Aspekt ist das Sichtbarmachen impliziter Annahmen. In der Erfahrung aus zahlreichen Projekten sind es genau diese unsichtbaren Annahmen, an denen Projekte am häufigsten scheitern. Nicht an fehlenden Features, sondern an Dingen, die alle für selbstverständlich hielten und die es nicht waren.

Das ist keine Textproduktion. Das ist Denkarbeit. Ein gutes Anforderungsdokument ist kein Roman. Es ist eine Verdichtung von Entscheidungen. Es sagt öfter Nein als Ja. Es ist kurz, weil es das Ergebnis harter Entscheidungen ist, nicht weil jemand zu faul war, mehr zu schreiben. Und genau deshalb kann es kein LLM für dich erstellen, es kann dich bestenfalls dabei unterstützen.

Der Experte der Zukunft

Der Skill, der bleibt und an Bedeutung gewinnt, ist nicht das Prompten. Es ist die Kombination aus präzisem Anforderungsdenken, technischem Verständnis, Architekturkompetenz und Sicherheitsbewusstsein, gepaart mit der Fähigkeit, LLMs gezielt und kontrolliert einzusetzen. Wer nur promptet, ersetzt Denken durch Wahrscheinlichkeit. Wer Anforderungen sauber formuliert, steuert das System.

In meinem letzten Artikel habe ich geschrieben, dass sich der Engpass von der Implementierung zur Steuerung verschiebt. AI Slop ist die konkrete Auswirkung davon, was passiert, wenn diese Steuerung fehlt. Wenn niemand präzise definiert, was gebaut werden soll und unter welchen Bedingungen, dann füllt das LLM die Lücke mit plausibel klingendem Rauschen. Die Zukunft gehört nicht dem Prompt Engineer. Sie gehört dem technischen Architekten, der weiß, was gebaut werden soll, und die KI als Werkzeug dafür gezielt einsetzt.

Mein persönliches Prinzip

KI ist großartig. KI bringt echten Mehrwert. Ich nutze sie täglich, zum Recherchieren, zum Strukturieren, zum Beschleunigen. Aber in der persönlichen Kommunikation bin ich radikal. Wenn mir jemand eine Nachricht schickt, die offensichtlich aus einem LLM stammt, oder mich eine KI anruft, was auch immer öfter passiert, dann signalisiert das für mich vor allem eines: Deine Zeit war es mir nicht wert, selbst nachzudenken, was ich dir eigentlich sagen will. Peter Steinberger hat im Lex Fridman Podcast davon gesprochen, dass er Kontakte sofort blockt, wenn er AI Slop erkennt. ² Ich kann das absolut nachvollziehen und handle genauso.

Das ist keine Anti-KI-Haltung. Es ist eine Frage der Intention. KI als Werkzeug einsetzen, um besser zu recherchieren, klarer zu formulieren, schneller zu iterieren, das ist das Werkzeug im Dienst des Denkenden. Aber KI als Ersatz fürs das Denken einzusetzen, eine Nachricht generieren zu lassen statt sich die Mühe zu machen, die eigenen Gedanken zu sortieren, das ist Slop. Und Slop in der persönlichen Kommunikation ist keine Zeitersparnis. Es ist das Gegenteil von Respekt.

Fazit: Substanz statt Slop

Das Problem ist nicht die KI. Das Problem ist, KI als Ersatz fürs Denken einzusetzen statt als Enabler. In Open-Source-Projekten, in Anforderungsdokumenten und in der persönlichen Kommunikation zeigt sich dasselbe Muster. Wo Steuerung fehlt, entsteht Slop. Wo jemand mitdenkt, entsteht Mehrwert.

Denken lässt sich nicht delegieren, nicht an Menschen und nicht an Modelle.

Die Modelle werden besser. Die Frage ist, ob wir mithalten. Nicht im Prompten, sondern im Denken.


Quellen

  1. AI Slop verstopft Open Source: GitHub kündigt Maßnahmen an — heise online
  2. Lex Fridman Podcast #491 — Peter Steinberger: OpenClaw