Je mehr KI kann, desto wichtiger wird der Mensch. Denn Verantwortung lässt sich nicht delegieren. Dieses Mal zeigt Kai Werner in seinem Innovation Briefing, was Teams in der Innovationsarbeit beachten müssen, wenn KI und Mensch immer mehr zusammenarbeiten.
Mensch und KI im Innovationsmanagement: Warum wir Verantwortung neu denken müssen
Es geht nur miteinander: Die Zukunft braucht KI und Mensch
Wir bei neosfer arbeiten täglich mit KI. Die Technologie bietet oft eine gute erste Grundlage und erleichtert damit vieles im Alltag, aber klar ist: Wir müssen diese Grundlage weiterhin einordnen und die Entscheidungen selbst treffen. Die Verantwortung bleibt bei uns.
Das Prinzip nennt man „Human in the loop“: KI-Systeme sollten nicht autark laufen, ohne dass jemand draufschaut. Je mehr Aufgaben generative KI übernimmt, desto zentraler wird die Rolle des Menschen sogar noch. Es braucht diejenigen, die ein Gespür dafür haben, was ein System leisten kann und wo man genauer hinschauen sollte, sei es durch stichprobenartige Überprüfung oder gezieltes Prompting, um bestimmte Fehlerquellen direkt auszuschließen.
In meinem letzten Innovation Briefing habe ich bereits beschrieben, wofür wir KI in unserer Innovationsarbeit nutzen. Dabei zeigt sich immer wieder: Nicht alle Anwendungen sind gleich. KI-Unterstützung beim Erstellen von E-Mails ist etwas ganz anderes als bei strategisch relevanten Prozessen wie Ideenclustering oder Marktanalysen. Sobald Kontext, Fingerspitzengefühl oder Urteilsvermögen gefragt sind, braucht es den Menschen im Loop, um intelligente Entscheidungen zu treffen.
Wir brauchen Künstliche Intelligenz, die ihre Entscheidungsfindung erklärt
Ein Beispiel aus unserer Praxis: Wenn wir Workshop-Ergebnisse mit KI-Hilfe clustern, macht das System das auf Basis semantischer Analysen und technischer Ähnlichkeiten. Das ist rein mathematisch plausibel, aber nicht unbedingt sinnvoll im Innovationskontext. Es kann sein, dass die KI eine Idee aussortiert, weil sie formal nicht passt, aber genau das ist vielleicht die eine besonders spannende Idee. Innovation lebt vom Bauchgefühl und vom Mut zum Ungewöhnlichen.
Was wir also mindestens brauchen, um KI erfolgreich in der Innovationsarbeit einzusetzen, ist Explainable AI. Das sind Systeme, die nicht nur sagen, was sie empfehlen, sondern auch warum. Leider ist das bislang eher Ausnahme als Regel. Die meisten Tools, mit denen wir heute arbeiten, sind im Gegenteil eine Black Box. Solange ein System aber nicht erklärt oder erklären kann, wie es zu einem Vorschlag kommt, kann der Mensch ihn häufig auch nicht verantworten.
Das betont auch das Humboldt Institut für Internet und Gesellschaft, das gerade intensiv zu „Human in the loop“ forscht: Wer Verantwortung übernehmen will, braucht Transparenz – von der Datenbasis über die Modelllogik bis zur Interpretation der Ergebnisse. Fehlt diese Nachvollziehbarkeit, droht eine gefährliche Scheinkontrolle und wir laufen Gefahr, in eine algorithmische Konformität zu rutschen. Das heißt: Wir folgen nur noch dem, was plausibel klingt, hinterfragen fehlerhafte Entscheidungen nicht mehr und büßen Kreativität und im schlimmsten Fall kritisches Denken ein.
Verantwortung braucht Fachlichkeit und menschliche Intelligenz
Genau deswegen dokumentieren wir bei uns nicht nur, welche KI wofür zum Einsatz kommt, sondern sprechen in internen Workshops auch offen über Fehler und Aha-Momente. Diese Lernprozesse helfen uns mehr als jeder Leitfaden. Und diese Zusammentreffen geben unseren Erfahrungen mit KI auch ausreichend Raum, was nötig ist, um überhaupt Verantwortung übernehmen zu können.
Gleichzeitig verändert sich unsere Rolle im Unternehmen durch Einsatz von KI. Die Forschung zeigt, dass es nicht reicht, wenn wir „im Loop“ sind. Wir müssen das Zusammenspiel der Tools und Outputs orchestrieren können. Genau darin sehe ich unsere Rolle als Innovationsverantwortliche: zu koordinieren, zu strukturieren und für Klarheit im Prozess zu sorgen. Nicht zuletzt müssen wir die richtigen Leute zusammenbringen. Um überhaupt heutige KI-Ergebnisse bewerten zu können, braucht es ein tiefes fachliches Verständnis, insbesondere wenn wir über einen regulierten Bereich wie Banking reden.
Verantwortung für Mensch und Maschine beginnt im Alltag
Verantwortung zeigt sich nicht in großen Theorien, sondern im Kleinen: im täglichen Umgang mit den Tools, in der Art, wie wir Ergebnisse prüfen, Entscheidungen treffen und über unsere Arbeit sprechen. Es ist bei uns ganz selbstverständlich zu sagen: „Das hat mir die KI vorbereitet.“ Ich finde, genau so soll es sein. Aber ich erwarte auch, dass wir das Ergebnis kritisch betrachten und verstehen, was dahintersteckt.
Denn Verantwortung entsteht nicht durch den letzten Klick, sondern durch ein gemeinsames Verständnis: Wer nutzt was? Wofür? Und mit welchem Ziel? Genau da liegt für mich der Schlüssel zur Zukunft der Innovationsarbeit. Wir brauchen Klarheit, Struktur und Menschen, die Verantwortung nicht nur annehmen, sondern weiterdenken und bereit sind, sich dafür aus der Deckung zu wagen.

Erfahre hier mehr über das Zusammenspiel von Mensch und KI!


