Deine KI hat nicht alleine 'lernen gelernt'
Nein, deine KI hat nicht alleine gelernt. Du hast ihr gesagt, was sie tun soll. Warum diese Unterscheidung gerade so wichtig ist.
Nein, deine KI hat nicht alleine „lernen gelernt". Du hast ihr gesagt, was sie tun soll. Ich finde es spannend, in welcher Zeit wir gerade leben, und zugleich ein bisschen irritierend, wie schnell wir bereit sind, einer Technologie Eigenschaften zuzuschreiben, die sie schlicht nicht hat. Ich lese auf LinkedIn und in Produkt-Pitches täglich Sätze wie „unsere KI hat von selbst gemerkt, dass…", „der Agent hat eigenständig entschieden, dass…", „das Modell hat sich selbst beigebracht, wie…". Und dabei wissen wir alle besser.
Ich bin kein KI-Skeptiker. Ich arbeite täglich mit Modellen und Agenten, ich halte sie für eines der nützlichsten Werkzeuge, die uns seit Jahren zur Verfügung stehen. Aber genau deshalb nervt mich die Sprache, in der gerade über sie gesprochen wird. Sie macht uns alle ein Stück dümmer im Umgang mit der Technik.
Was tatsächlich passiert, wenn eine KI „lernt"
Wenn eine KI in deinem Unternehmen Ergebnisse liefert, passiert in fast allen Fällen eine Kette aus sehr menschlichen Entscheidungen, bevor sie irgendetwas tut. Jemand hat das Modell ausgewählt. Jemand hat Trainingsdaten kuratiert oder eben genommen, wie sie zufällig lagen. Jemand hat einen Systemprompt geschrieben. Jemand hat Tools angebunden, mit denen das Modell in die Außenwelt greifen darf. Jemand hat Guardrails definiert oder vergessen. Jemand hat sich für diesen oder jenen RAG-Korpus entschieden.
Das Modell selbst lernt in der Nutzung meistens gar nicht mehr weiter. Das Basis-Modell ist eingefroren. Was sich ändert, sind die Prompts, das Retrieval, die Tool-Anbindungen, die Trainingsdaten für ein eventuelles Fine-Tuning. Alles Dinge, die Menschen entscheiden, konfigurieren und deployen. Wenn dein Agent plötzlich ein neues Verhalten zeigt, ist das in 99 Prozent der Fälle nicht „Lernen", sondern ein neuer Release, den jemand deployed hat. Oft ohne Changelog. Oft ohne Review. Manchmal ohne, dass das Team im Nebenzimmer davon weiß.
Warum „die KI hat entschieden" kein Argument ist
Ich sehe diese Wendung besonders oft, wenn es unangenehm wird. „Die KI hat entschieden, den Kunden abzulehnen." „Das Modell hat das Angebot so formuliert." „Der Agent hat die Mail rausgeschickt, bevor wir es stoppen konnten." In Wahrheit sind das immer Entscheidungen von Menschen. Jemand hat einen Agenten in einen Workflow eingehängt, der autonom Mails schreiben und versenden darf, ohne Review, ohne Kill-Switch. Das ist eine Entscheidung. Eine unbequeme vielleicht, aber eine Entscheidung.
Wer diese Entscheidung der „KI" in die Schuhe schiebt, entzieht sich der Verantwortung. Und genau darin liegt das eigentliche Problem. Wenn wir als Branche jetzt beginnen, KI-Verhalten zu anthropomorphisieren, dann verschieben wir damit auch die Haftung. Das wird juristisch, regulatorisch und menschlich Konsequenzen haben. Der AI Act ist ein erster Vorbote dieser Diskussion. Er wird nicht der letzte sein.
Meine Bitte an Teams, die KI einsetzen
Ich wünsche mir eine sehr einfache sprachliche Disziplin. Statt „die KI hat entschieden" gewöhnen wir uns an: „Unser System, das wir so konfiguriert haben, hat auf dieser Basis diese Ausgabe erzeugt." Das klingt umständlicher. Aber es ist präziser. Und Präzision ist in dieser Technologie gerade das wertvollste Gut.
Zweitens: Dokumentiert, wer was konfiguriert hat. Prompts sind Code. Tool-Anbindungen sind Code. Retrieval-Korpora sind Daten mit Quelle und Eigentümer. Wer das nicht sauber festhält, wird in zwei Jahren vor einem Auditor sitzen und nicht erklären können, warum sein System irgendwann angefangen hat, bestimmte Entscheidungen so zu treffen. „Die KI hat es gelernt" ist in diesem Gespräch keine Antwort.
Drittens: Bewerbt eure Produkte nicht mit Selbstlernfähigkeiten, die sie nicht haben. Die Menschen vertrauen euren Produkten nicht deshalb, weil sie „autonom lernen", sondern weil sie berechenbar gut sind. Berechenbar gut heißt: Menschen haben sorgfältig gebaut, gemessen und nachgebessert. Das ist weniger glamourös, aber es ist der Teil, der trägt.
Die Zeit, in der wir leben
Ich mag diese Zeit. Sie ist für Technologen wie mich spannender als alles, was ich in den letzten zehn Jahren gesehen habe. Aber sie verlangt von uns, genauer zu sprechen, nicht ungenauer. Die KI hat nicht alleine lernen gelernt. Jemand hat ihr sehr genau gesagt, was sie tun soll. Das ist gut. Das ist verantwortlich. Und das dürfen wir ruhig zugeben, auch wenn die Erzählung von der selbstlernenden Maschine gerade bessere Zahlen liefert als die Wahrheit.
Fragen, die ich oft dazu höre
Ein paar Dinge, die Leserinnen und Leser mich zu diesem Thema regelmäßig fragen.
Heißt das, ich soll KI gar nicht mehr autonom laufen lassen?+
Doch, durchaus. Autonomie ist sinnvoll, wenn Umfang, Rechte und Fehlerraum klar sind. Mein Punkt ist nur: diese Autonomie ist eine Gestaltungsentscheidung, keine Eigenschaft der KI. Das sollten wir auch so benennen.
Was sagst du Kollegen, die „die KI hat…" im Meeting sagen?+
Meistens frage ich freundlich zurück: „Wer hat das so konfiguriert?" Das ist kein Angriff, nur eine Rückkehr zur Realität. Nach zwei, drei Wiederholungen verschwindet die Formulierung im Team fast von selbst.
Wie dokumentierst du selbst Prompts und Tool-Anbindungen?+
Ich mache das so: Prompts liegen im Git-Repo wie Code, mit Reviews und Commit-History. Tool-Anbindungen und Datenquellen stehen in einer einfachen Tabelle pro System – wer hat angebunden, warum, mit welchen Rechten, wann überprüft. Klingt langweilig, reicht aber für ein Audit.
Gibt es nicht doch Systeme, die weiterlernen?+
Ja, Fine-Tuning, Online-Learning, RAG-Updates – all das gibt es. Aber in fast jedem Unternehmen sind das explizite Release-Schritte, die Menschen auslösen. „Selbst lernen" im Sinne von „ohne Zutun" ist in produktiven Setups sehr selten und meistens nicht das, was Marketing verspricht.
Ist das nicht nur Wortklauberei?+
Ich verstehe den Einwand, halte ihn aber für falsch. Sprache prägt, wie wir Verantwortung zuschreiben. Wer sagt „die KI hat entschieden", schiebt Haftung weg. Wer sagt „ich habe das System so gebaut, dass es so entscheidet", bleibt erwachsen.
Wenn du das tiefer besprechen willst
Ich berate einzelne IT-Verantwortliche unter OnlyOle — 1:1, ohne Agentur-Overhead. Wenn dich das hier länger beschäftigt und du es in deinem Kontext sortieren willst, ruf einfach an oder schreib mir eine kurze Nachricht.