Ein Projektleiter zeigt dem Vorstand einen Chatbot, der Kundenanfragen beantwortet. Die Demo läuft flüssig. Die Antworten klingen plausibel. Zwei Monate später steht das Projekt still: Die Datenqualität reicht nicht. Die Fachabteilung war nie eingebunden. Niemand weiß, wer bei falschen Antworten haftet.
Dieses Muster ist nicht neu. Es ist dasselbe Muster, an dem IT-Projekte seit Jahrzehnten scheitern. KI verändert die Technologie. An den Ursachen des Scheiterns ändert sie nichts.
Was KI-Projekte mit klassischen Softwareprojekten gemeinsam haben
Die Forschung zu gescheiterten IT-Projekten ist umfangreich. Seit den 1990er Jahren dokumentieren Studien dieselben Problemfelder: unklare Anforderungen, wechselnde Ziele, fehlende Abstimmung zwischen Fachbereich und Technik, diffuse Verantwortlichkeiten.
Bei KI-Projekten lassen sich dieselben Muster beobachten:
Unklare Ziele: „Wir wollen KI nutzen" ist kein Ziel. Es fehlt die Antwort auf die Frage, welches konkrete Problem gelöst werden soll und woran erkennbar ist, ob die Lösung funktioniert.
Fehlende Entscheidungsstrukturen: Wer entscheidet, ob ein KI-System produktiv gehen darf? Nach welchen Kriterien? Was passiert, wenn das System Fehler macht? Diese Fragen werden oft erst gestellt, wenn das Projekt bereits in Schieflage ist.
Verantwortungslücken: Die IT sieht sich als Dienstleister, der Fachbereich als Auftraggeber. Dazwischen entsteht eine Lücke, in der niemand die Verantwortung für das Gesamtergebnis trägt.
Diese Probleme sind organisatorisch, nicht technisch. Sie lassen sich nicht durch bessere Algorithmen oder leistungsfähigere Modelle lösen.
Warum ein KI-Projekt scheitert – schneller als früher
Klassische Softwareprojekte hatten eine natürliche Bremse: Die Entwicklung dauerte Monate. In dieser Zeit gab es Gelegenheiten, Fehlentwicklungen zu erkennen und zu korrigieren.
Bei KI-Projekten, insbesondere mit Large Language Models, fällt diese Bremse weg. Ein Prototyp lässt sich in Tagen erstellen. Ein funktionierendes Demo-System in Wochen. Das erzeugt Geschwindigkeit – aber auch eine trügerische Sicherheit.
Wenn ein System nach zwei Wochen plausible Antworten liefert, entsteht der Eindruck, das Problem sei gelöst. Die eigentlichen Fragen werden nicht gestellt: Wie zuverlässig sind die Antworten? Was passiert bei Grenzfällen? Wer prüft die Ergebnisse? Wie sieht der Betrieb aus?
Diese Fragen tauchen später auf – wenn bereits Erwartungen geweckt, Budgets verplant und Entscheidungen getroffen wurden. Das Projekt scheitert nicht trotz der schnellen Anfangserfolge. Es scheitert, weil die schnellen Anfangserfolge die notwendigen Entscheidungen übersprungen haben.
Die Illusion des „Funktioniert doch"
Ein besonders problematisches Muster bei KI-Projekten ist die Verwechslung von Funktion und Eignung.
Ein System funktioniert, wenn es tut, was es technisch tun soll. Ein Chatbot, der Antworten generiert, funktioniert. Eine Textanalyse, die Kategorien zuordnet, funktioniert. Ein Bilderkennungssystem, das Objekte identifiziert, funktioniert.
Ob ein System für den vorgesehenen Einsatzzweck geeignet ist, ist eine andere Frage. Geeignet ist es, wenn:
- Die Ergebnisse zuverlässig genug für den Anwendungsfall sind
- Die Fehlerquote bekannt und akzeptabel ist
- Klare Prozesse für den Umgang mit Fehlern existieren
- Die Verantwortlichkeiten geregelt sind
- Der Betrieb wirtschaftlich tragfähig ist
Diese Unterscheidung wird in der Praxis oft nicht gemacht. Ein funktionierender Prototyp wird als Beweis für die Machbarkeit interpretiert. Die Fragen nach Zuverlässigkeit, Verantwortung und Wirtschaftlichkeit werden auf später verschoben.
Später ist dann oft zu spät.
Was sich aus gescheiterten Projekten lernen lässt
Die Analyse gescheiterter KI-Projekte zeigt wiederkehrende Muster. Sie lassen sich in drei Kategorien einteilen:
Entscheidungsprobleme: Es fehlt eine klare Grundlage für die Entscheidung, ob und wie KI eingesetzt werden soll. Die Entscheidung wird implizit getroffen, durch die Wahl eines Tools, durch einen Pilotversuch, durch eine Demo. Ohne explizite Entscheidungskriterien gibt es keinen Maßstab für Erfolg oder Misserfolg.
Verantwortungsprobleme: Niemand trägt die Gesamtverantwortung für das Ergebnis. Die IT verantwortet die Technik, der Fachbereich die Anforderungen, die Geschäftsführung das Budget. Die Frage, wer für ein fehlerhaftes Ergebnis verantwortlich ist, bleibt offen.
Strukturprobleme: Es fehlen die organisatorischen Voraussetzungen für den Betrieb. Datenqualität, Prozesse, Zuständigkeiten, Monitoring – diese Themen werden als nachgelagert betrachtet, obwohl sie den Erfolg oder Misserfolg des Projekts bestimmen.
Was vor einem KI-Projekt geklärt sein sollte
Ein KI-Projekt beginnt nicht mit der Auswahl eines Tools oder dem Bau eines Prototyps. Es beginnt mit einer strukturierten Entscheidungsgrundlage.
Diese Grundlage sollte folgende Fragen beantworten:
Zum Ziel: Welches konkrete Problem soll gelöst werden? Woran ist erkennbar, dass das Problem gelöst ist? Welche Ergebnisqualität ist erforderlich?
Zur Organisation: Wer trägt die Verantwortung für das Gesamtergebnis? Wer entscheidet über den Produktivgang? Nach welchen Kriterien?
Zu den Voraussetzungen: Welche Daten werden benötigt? In welcher Qualität liegen sie vor? Welche Prozesse müssen angepasst werden?
Zum Betrieb: Wie wird das System überwacht? Wie werden Fehler erkannt und behandelt? Wer ist dauerhaft für den Betrieb verantwortlich?
Diese Fragen klingen selbstverständlich. In der Praxis werden sie erstaunlich selten beantwortet, bevor ein Projekt startet.
Der Unterschied zwischen Technologie und Entscheidung
KI ist eine Technologie mit spezifischen Eigenschaften. Sie kann Muster erkennen, Texte generieren, Prognosen erstellen. Diese Fähigkeiten sind real und in vielen Anwendungsfällen nützlich.
Aber die Frage, ob ein Unternehmen KI einsetzen sollte, ist keine technische Frage. Es ist eine Entscheidung, die von Zielen, Ressourcen, Risiken und organisatorischen Voraussetzungen abhängt.
Diese Entscheidung lässt sich nicht an die IT delegieren. Sie lässt sich nicht durch einen Prototyp ersetzen. Sie lässt sich nicht durch die Auswahl eines Tools umgehen.
Sie erfordert eine strukturierte Grundlage, die vor der technischen Umsetzung geschaffen wird.
Fazit
KI-Projekte scheitern aus denselben Gründen wie Softwareprojekte vor 20 Jahren: unklare Ziele, diffuse Verantwortlichkeiten, fehlende Entscheidungsstrukturen. Die Technologie hat sich verändert. Die organisatorischen Herausforderungen nicht.
Was sich geändert hat, ist die Geschwindigkeit. Prototypen entstehen schneller. Erwartungen werden früher geweckt. Fehlentscheidungen zeigen ihre Folgen nicht langsamer, sondern schneller.
Das bedeutet nicht, dass KI-Projekte zum Scheitern verurteilt sind. Es bedeutet, dass die Entscheidungsgrundlage stimmen muss, bevor das Projekt beginnt. Nicht weil das bei KI besonders kompliziert wäre. Sondern weil es bei allen Projekten so war – und bei KI besonders schnell sichtbar wird.
Häufig gestellte Fragen
Bereit für klare KI-Entscheidungen?
Lassen Sie uns gemeinsam herausfinden, wie klar | KI Sie bei Ihrem KI-Projekt unterstützen kann.
Erstgespräch anfragen


