Warum KI nicht delegiert werden kann
Viele Unternehmen behandeln KI wie eine IT-Beschaffungsentscheidung. Die Fachabteilung meldet Bedarf an, die IT bewertet Lösungen, ein Anbieter wird ausgewählt, das System geht in Betrieb. Die Geschäftsleitung nickt ab, und damit gilt die Angelegenheit als erledigt.
Dieses Vorgehen funktioniert für viele Technologien gut. Bei KI greift es zu kurz – nicht weil KI komplizierter wäre, sondern weil KI-Systeme Entscheidungen treffen oder vorbereiten, die direkte Auswirkungen auf Kunden, Mitarbeitende und das Unternehmen selbst haben. Wer diese Systeme einführt, übernimmt damit eine Verantwortung, die nicht an eine Abteilung oder einen externen Partner übertragen werden kann.
Der Unterschied zwischen Umsetzung und Verantwortung
Es gibt eine klare Trennung, die in der Praxis häufig verwischt wird: die Grenze zwischen technischer Umsetzung und strategischer Verantwortung.
Die IT-Abteilung kann ein KI-System einführen, betreiben und warten. Sie kann Schnittstellen konfigurieren, Sicherheitsstandards einhalten und technische Fehler beheben. Das ist ihr legitimer Zuständigkeitsbereich.
Was die IT nicht entscheiden kann: Welche Prozesse ein Unternehmen an KI übergeben will. Welche Risiken dabei akzeptabel sind. Welche Konsequenzen entstehen, wenn das System falsch liegt. Ob die Anforderungen aus Datenschutz, Recht und Unternehmensethik erfüllt sind. Und wer im Zweifelsfall die Verantwortung trägt.
Diese Fragen sind keine technischen Fragen. Sie sind unternehmerische Fragen – und sie können nur auf Führungsebene beantwortet werden.
Warum vollständige Delegation riskant ist
Das Muster, KI-Verantwortung vollständig zu delegieren, entsteht oft nicht aus Gleichgültigkeit. Es entsteht, weil Führungskräfte die Materie für zu technisch halten und sich deshalb heraushalten. Das ist verständlich, aber problematisch.
Wenn ein KI-System Entscheidungen trifft – über Kreditwürdigkeit, über Stellenbesetzungen, über Qualitätsbewertungen, über Kundenpreise – dann trägt das Unternehmen dafür die Konsequenzen. Nicht der Softwareanbieter. Nicht die IT-Abteilung. Das Unternehmen.
Konkret bedeutet das:
Haftungsrisiken bleiben beim Unternehmen. Wenn ein KI-System diskriminierende Muster erzeugt oder fehlerhafte Empfehlungen ausgibt, ist das Unternehmen verantwortlich – auch dann, wenn es das System von einem Drittanbieter bezogen hat.
Regulatorische Anforderungen richten sich an das Unternehmen. Die KI-Verordnung der EU (AI Act) verpflichtet Unternehmen als Betreiber von KI-Systemen zu bestimmten Transparenz- und Dokumentationspflichten. Diese Verantwortung liegt bei der Geschäftsleitung, nicht in der IT.
Strategische Fehlentscheidungen entstehen ohne Führungsbeteiligung. Wenn KI-Projekte am eigentlichen Geschäftsbedarf vorbeigehen, liegt das häufig daran, dass die Führungsebene nicht ausreichend eingebunden war. Technische Teams optimieren das, was sie kennen – nicht notwendigerweise das, was strategisch relevant ist.
Typische Missverständnisse über KI-Verantwortung
„Wir haben einen Anbieter, der für das System verantwortlich ist."
Anbieter sind für die Funktion ihrer Technologie verantwortlich. Sie sind nicht verantwortlich für die Art, wie ein Unternehmen diese Technologie einsetzt, oder für die Entscheidungen, die daraus resultieren. Diese Unterscheidung ist rechtlich relevant und wird in der Praxis oft übersehen.
„Unsere IT-Leitung kennt sich gut mit KI aus."
Technisches Verständnis ist keine hinreichende Voraussetzung für strategische Verantwortung. Die Frage, ob ein KI-System im Unternehmen eingesetzt werden soll und unter welchen Bedingungen, ist eine Führungsentscheidung – unabhängig vom technischen Kompetenzlevel einzelner Mitarbeitender.
„KI-Governance ist ein Thema für große Konzerne."
Governance bedeutet hier nicht Bürokratie oder aufwendige Prozesse. Es bedeutet, dass klar ist, wer welche Entscheidungen trifft, wer bei Problemen informiert wird, und wer für die Konsequenzen des Systems einsteht. Das ist für ein Unternehmen mit 30 Mitarbeitenden genauso relevant wie für ein Unternehmen mit 3.000.
„Wir setzen KI nur im Kleinen ein – das braucht keine besondere Aufmerksamkeit."
Die Größe des Systems ist kein verlässlicher Indikator für das Risikopotenzial. Ein Chatbot, der Kundenanfragen beantwortet, kann Fehlinformationen verbreiten. Ein Automatismus, der Dokumentenvorlagen befüllt, kann Fehler erzeugen, die schwer zu erkennen sind. Relevanz entsteht durch den Einsatzbereich, nicht durch die technische Komplexität.
Entscheidungs-, Risiko- und Haftungsebene strukturiert betrachten
Eine hilfreiche Unterscheidung, die in vielen Unternehmen fehlt, ist die zwischen drei Ebenen:
Entscheidungsebene: Wer legt fest, ob und wie KI in einem bestimmten Bereich eingesetzt wird? Wer definiert die Anforderungen und Grenzen? Diese Ebene liegt bei der Führung.
Umsetzungsebene: Wer wählt Systeme aus, integriert sie und betreibt sie? Wer überwacht die technische Funktionsfähigkeit? Diese Ebene liegt in der IT oder bei beauftragten Partnern.
Risikoebene: Wer ist verantwortlich, wenn das System unerwünschte Ergebnisse erzeugt? Wer meldet Vorfälle, wer kommuniziert nach außen, wer entscheidet über Korrekturen oder Abschaltungen? Diese Ebene liegt – rechtlich wie praktisch – beim Unternehmen und damit bei der Führung.
In der Praxis werden diese Ebenen oft vermischt. Die IT entscheidet de facto über Einsatzbereiche, weil die Führung sich nicht positioniert hat. Oder externe Anbieter setzen Standards, weil intern niemand eine klare Haltung formuliert hat. Das Ergebnis ist eine Governance-Lücke, die erst sichtbar wird, wenn Probleme entstehen.
Warum KI-Governance keine IT-Aufgabe allein ist
Es gibt gute Gründe, warum IT-Abteilungen in vielen Unternehmen de facto die KI-Steuerung übernehmen: Sie haben das technische Wissen, sie sind operativ eingebunden, und niemand sonst hat sich explizit zuständig erklärt.
Das schafft aber eine strukturelle Schieflage. IT-Abteilungen sind auf technische Qualität und Systemstabilität ausgerichtet. Sie sind nicht primär darauf ausgerichtet, strategische Risiken zu bewerten, regulatorische Anforderungen zu überwachen oder Haftungsfragen zu managen.
Governance bedeutet in diesem Kontext:
- Es gibt eine benannte Verantwortung auf Führungsebene für KI-bezogene Entscheidungen.
- Es gibt definierte Kriterien, nach denen bewertet wird, ob ein KI-Einsatz sinnvoll ist.
- Es gibt klare Eskalationswege, wenn Systeme unerwartete Ergebnisse liefern.
- Es gibt ein Grundverständnis auf Führungsebene darüber, was die eingesetzten Systeme tun.
Das ist kein aufwendiges Programm. Es ist eine strukturelle Voraussetzung für verantwortungsvollen KI-Einsatz.
Konkrete Empfehlungen für Führungskräfte
1. Klären Sie, wer für KI-Entscheidungen zuständig ist.
Nicht im Sinne einer formalen Stellenbezeichnung, sondern im Sinne einer echten Zuständigkeit: Wer ist die Person, die entscheidet, ob ein neues KI-System eingeführt wird? Wer wird bei Problemen informiert?
2. Verstehen Sie die Einsatzbereiche Ihrer KI-Systeme.
Sie müssen keine technischen Details kennen. Sie sollten aber wissen, welche Entscheidungen Ihre KI-Systeme beeinflussen, welche Daten dabei verarbeitet werden, und was passiert, wenn das System einen Fehler macht.
3. Prüfen Sie Ihre Verträge mit Anbietern.
Was garantiert der Anbieter? Was nicht? Wer trägt die Verantwortung, wenn das System fehlerhaft arbeitet? Diese Fragen sollten geklärt sein, bevor ein System produktiv eingesetzt wird.
4. Schaffen Sie interne Klarheit über Anforderungen.
Welche datenschutzrechtlichen Anforderungen gelten für Ihren Anwendungsfall? Welche regulatorischen Vorgaben sind relevant? Wer im Unternehmen hat das überprüft?
5. Definieren Sie, was Governance in Ihrem Unternehmen bedeutet.
Es muss keine aufwendige Struktur sein. Aber es sollte eine explizite Struktur sein – keine informelle, die funktioniert, solange alles gut geht, und zusammenbricht, sobald Probleme auftreten.
KI-Verantwortung ist keine Frage der Unternehmensgröße. Sie ist eine Frage der Haltung: Wer entscheidet, wer haftet, und wer hat das explizit übernommen? Solange diese Fragen nicht beantwortet sind, bleibt jeder KI-Einsatz strukturell fragil – unabhängig davon, wie gut die gewählte Technologie funktioniert.
Häufig gestellte Fragen
Bereit für klare KI-Entscheidungen?
Lassen Sie uns gemeinsam herausfinden, wie klar | KI Sie bei Ihrem KI-Projekt unterstützen kann.
Erstgespräch anfragen


