kurz erklärt
Model Drift
KI-Workflows hängen oft an der Tagesform des Anbieters: die Modellleistung schwankt selbst innerhalb der Tageszeit, stille Updates oder spontane Abkündigungen sind kein verlässliches Fundament.
Model Drift ist der Oberbegriff für ein KI-System, das nicht mehr so funktioniert wie erwartet — ohne dass jemand etwas verändert hätte. Darunter fallen zwei grundverschiedene Phänomene. Model Degradation: die Welt verändert sich, das Modell bleibt stehen — Trainingsdaten veralten, Betrugsmuster ändern sich, Märkte drehen. Performance sinkt stetig und messbar. Provider Drift: der Anbieter verändert seine Infrastruktur, das Verhalten des Modells ändert sich von außen unsichtbar — durch Quantisierung unter Last, Hardware-Routing oder stille A/B-Tests. Von außen sehen beide gleich aus: Ergebnisse die nicht mehr stimmen. Die Ursachen — und damit die Gegenmittel — könnten verschiedener nicht sein.
Model Degradation folgt einer Logik: die Covid-Pandemie ließ nahezu alle Fraud-Detection- und Nachfragemodelle gleichzeitig driften — wer kein Monitoring hatte, merkte es erst an den Geschäftsergebnissen. Regelmäßiges Retraining und Daten-Monitoring sind bekannte Gegenmittel. Provider Drift entzieht sich dieser Logik. Das Ergebnis ist Infrastrukturlaune — niemand erklärt sie, niemand kündigt sie an. Der vermeintliche Ausweg — Versionsfixierung auf ein spezifisches Modell — ist eine Illusion: Anbieter können genau dieses Modell über Nacht aus dem Angebot streichen, ohne Vorwarnung und ohne vertragliche Verpflichtung. Wer darauf aufgebaut hat, steht von einem Tag auf den nächsten ohne Fundament.
Für Innovationsprozesse, die KI-gestützte Analyse, Zuordnung oder Entscheidungsunterstützung nutzen, ist Model Drift ein strategisches Risiko — nicht nur ein technisches. Das System funktioniert, aber liefert heute andere Prioritäten als gestern. Keine Fehlermeldung, kein Alarm. AI Governance muss deshalb beide Varianten adressieren: Bei Model Degradation braucht es Monitoring und Retraining-Zyklen. Bei Provider Drift braucht es Mehrfachanbieter-Strategien und systematische Regressionstests. Die Abhängigkeit von einem einzigen Anbieter wird dabei zum betrieblichen Klumpenrisiko.
Model Drift berührt KI-Alignment direkt: ein volatiles oder degradiertes Modell verliert seine Ausrichtung auf definierte Ziele — unbemerkt und ohne Fehlermeldung. Nachdenkende KI (Reasoning Models) sind besonders exponiert, weil ihre längeren Denkprozesse sensibler auf Modell-Anpassungen reagieren. Als Gegenmittel entwickeln sich Evaluierungs-Pipelines und Monitoring-Werkzeuge (Arize, Evidently AI). Die Leistungsvarianz verschiedener Anbieter systematisch zu vergleichen ist heute noch Ausnahme — wird aber zur Grundkompetenz für jeden, der KI in Produktion betreibt.
Je tiefer Foundation-Model-APIs in Geschäftsprozesse eingebettet sind, desto drängender wird die Frage nach belastbaren Garantien. Heute existieren Verfügbarkeits-SLAs — nicht jedoch SLAs für Modellverhalten. Das wird sich ändern: regulatorischer Druck (EU AI Act) und Enterprise-Kunden werden Anbieter zu mehr Transparenz bei Updates und zu stabilerem Versionsmanagement zwingen. Mittelfristig wird ein SLA für Modellverhalten zum Standard in KI-Verträgen — und Model Drift Management zu einem eigenen Kompetenzfeld zwischen Betrieb, AI Governance und Risikomanagement.
Siehe auch: Artificial Intelligence · Digitale Transformation · KI-Alignment · Nachdenkende KI · Vibe Coding