Ein neues Softwareprojekt steht an. Die Anforderungen sollen schnell entstehen, möglichst vollständig, möglichst früh. Also liegt die Idee nahe: KI einsetzen. Ein großes Sprachmodell kann Texte generieren, also auch Anforderungsdokumente. Die ersten Ergebnisse sehen brauchbar aus. Erst später zeigt sich, dass wesentliche Aspekte fehlen – solche, die nur im Unternehmen bekannt sind.
Dieses Muster wiederholt sich in vielen Organisationen. Nicht, weil die eingesetzte KI schlecht wäre. Sondern weil die Erwartung an sie falsch ist.
Warum KI bei Anforderungen an Grenzen stößt
Große Sprachmodelle wie GPT, Claude oder Gemini wurden mit enormen Textmengen trainiert. Diese Trainingsdaten enthalten Millionen von Dokumenten: technische Spezifikationen, Lehrbücher, Forenbeiträge, Open-Source-Projekte. Was in diesen Daten häufig vorkommt, kann das Modell gut reproduzieren. Was selten oder gar nicht vorkommt, kennt es nicht.
Das Problem bei Softwareanforderungen: Die wichtigsten Anforderungen eines Unternehmens sind oft genau die, die nirgendwo öffentlich dokumentiert sind. Interne Prozesse. Branchenspezifische Regularien. Gewachsene Schnittstellen zu Altsystemen. Implizites Wissen der Fachabteilungen.
Ein Sprachmodell kann diese Informationen nicht erfinden. Es kann sie auch nicht aus dem Kontext ableiten, wenn sie nie Teil seiner Trainingsdaten waren. Stattdessen füllt es Lücken mit Mustern, die statistisch plausibel erscheinen – aber für das konkrete Unternehmen falsch oder unvollständig sein können.
Das systemische Problem: Muster statt Verständnis
KI-Systeme verstehen keine Geschäftsprobleme. Sie erkennen Textmuster und erzeugen wahrscheinliche Fortsetzungen. Wenn Sie ein Sprachmodell bitten, Anforderungen für ein ERP-System zu schreiben, liefert es Anforderungen, die in ERP-Dokumentationen häufig vorkommen: Stammdatenverwaltung, Berechtigungskonzepte, Reportingfunktionen.
Diese Anforderungen sind nicht falsch. Aber sie sind generisch. Sie beschreiben ein durchschnittliches ERP-System, kein System, das die spezifischen Abläufe Ihres Unternehmens unterstützt.
Das Ergebnis sind Anforderungsdokumente, die auf den ersten Blick vollständig wirken. Alle erwarteten Kategorien sind abgedeckt. Die Formulierungen klingen professionell. Erst in der Entwicklung oder bei der Abnahme zeigt sich, dass zentrale Aspekte fehlen – solche, die nur Menschen mit Domänenwissen hätten einbringen können.
Typische Fehleinschätzungen
„Die KI versteht unser Geschäft, wenn wir genug Kontext liefern." Sprachmodelle können Kontext verarbeiten, aber nur in begrenztem Umfang. Selbst bei langen Kontextfenstern bleibt das Problem: Das Modell weiß nicht, welche Informationen fehlen. Es fragt nicht nach. Es füllt Lücken still mit plausiblen Annahmen.
„KI-generierte Anforderungen sind ein guter Startpunkt." Das stimmt nur, wenn jemand mit Domänenwissen die Ergebnisse systematisch prüft. Ohne diesen Review-Prozess werden generische Anforderungen zur Grundlage des Projekts – und ziehen sich durch Architektur, Entwicklung und Test.
„Wir sparen Zeit, wenn die KI die Anforderungen schreibt." Kurzfristig vielleicht. Langfristig entstehen Kosten durch Nacharbeit, Change Requests und Fehlentwicklungen. Die Zeit, die bei der Anforderungserstellung gespart wird, wird später mehrfach investiert.
„Unsere Anforderungen sind nicht so speziell." In manchen Fällen stimmt das. Standardprozesse lassen sich mit Standardanforderungen abbilden. Aber die meisten Unternehmen haben Besonderheiten, die sie von Wettbewerbern unterscheiden – und genau diese Besonderheiten fehlen in generischen KI-Anforderungen.
Wann KI bei Anforderungen helfen kann – und wann nicht
Die Frage ist nicht, ob KI bei Anforderungen eingesetzt werden kann. Die Frage ist, unter welchen Bedingungen der Einsatz sinnvoll ist.
KI kann unterstützen, wenn:
- Das Domänenwissen bereits gut dokumentiert ist und als Kontext bereitgestellt werden kann
- Standardprozesse abgebildet werden sollen, die keine unternehmensspezifischen Besonderheiten erfordern
- Ein strukturierter Review-Prozess existiert, in dem Fachexperten die generierten Anforderungen prüfen
- KI als Beschleuniger für Entwürfe genutzt wird, nicht als Ersatz für Anforderungsanalyse
KI ist ungeeignet, wenn:
- Das relevante Domänenwissen nur in den Köpfen einzelner Mitarbeiter existiert
- Die Anforderungen regulatorische oder compliance-relevante Aspekte betreffen, die nicht öffentlich dokumentiert sind
- Kein Review-Prozess etabliert ist
- Die Erwartung besteht, dass KI vollständige Anforderungen ohne menschliche Nacharbeit liefert
Was vor dem KI-Einsatz geklärt werden muss
Bevor KI bei der Anforderungsarbeit eingesetzt wird, braucht es Klarheit über die eigenen Voraussetzungen.
Wie gut ist das Domänenwissen dokumentiert? KI kann nur mit dem arbeiten, was sie erhält. Wenn Prozesse, Fachbegriffe und Geschäftsregeln nicht dokumentiert sind, kann sie diese nicht in Anforderungen übersetzen. Die Dokumentation des eigenen Wissens ist eine Voraussetzung für jeden sinnvollen KI-Einsatz – nicht nur bei Anforderungen.
Welche Anforderungen sind tatsächlich unternehmensspezifisch? Eine ehrliche Einschätzung hilft, den KI-Einsatz gezielt zu steuern. Für Standardfunktionen kann KI Entwürfe liefern. Für differenzierende Funktionen muss menschliche Expertise den Kern der Anforderung definieren.
Wer prüft die Ergebnisse? Ohne klare Verantwortung für den Review werden KI-generierte Anforderungen ungeprüft zur Grundlage des Projekts. Definieren Sie, wer die fachliche Prüfung übernimmt und welche Kriterien dabei gelten.
Wie werden Lücken erkannt? Das schwierigste Problem: KI zeigt nicht an, was sie nicht weiß. Ein systematischer Abgleich mit dokumentiertem Domänenwissen und Workshops mit Fachexperten sind notwendig, um Lücken zu identifizieren.
Anforderungsqualität entscheidet über Projekterfolg
Anforderungen sind die Grundlage jedes Softwareprojekts. Fehler in dieser Phase ziehen sich durch alle weiteren Schritte. Eine Anforderung, die fehlt oder falsch formuliert ist, führt zu einer Funktion, die fehlt oder falsch umgesetzt wird. Die Korrektur kostet umso mehr, je später sie erfolgt.
KI kann ein Werkzeug sein, um die Anforderungsarbeit zu beschleunigen. Aber sie kann die Verantwortung für vollständige und korrekte Anforderungen nicht übernehmen. Diese Verantwortung liegt bei Menschen, die das Geschäft verstehen – nicht bei einem System, das Textmuster reproduziert.
Die Entscheidung, ob und wie KI bei Anforderungen eingesetzt wird, ist eine strategische Entscheidung. Sie setzt voraus, dass Unternehmen ihre eigenen Voraussetzungen kennen: Was ist dokumentiert? Was ist implizit? Wo liegen die Risiken? Ohne diese Klarheit wird der KI-Einsatz zum Experiment mit ungewissem Ausgang.
Fazit
KI schreibt Anforderungen, die sie aus Trainingsdaten kennt. Was dort nicht vorkommt – und das ist oft das Entscheidende – kann sie nicht liefern. Unternehmen, die KI bei der Anforderungsarbeit einsetzen möchten, brauchen zunächst Klarheit über ihre eigenen Voraussetzungen: dokumentiertes Domänenwissen, definierte Review-Prozesse und eine realistische Einschätzung, welche Anforderungen tatsächlich unternehmensspezifisch sind.
Die Technologie ist nicht das Problem. Das Problem ist die Erwartung, dass Technologie Arbeit ersetzt, die nur Menschen mit Domänenwissen leisten können.
Häufig gestellte Fragen
Bereit für klare KI-Entscheidungen?
Lassen Sie uns gemeinsam herausfinden, wie klar | KI Sie bei Ihrem KI-Projekt unterstützen kann.
Erstgespräch anfragen


