kurz erklärt Explainable AI (XAI)
Ansätze, die KI-Entscheidungen nachvollziehbar machen — Grundvoraussetzung für vertrauenswürdige KI in Hochrisikobereichen wie Medizin, Justiz und Finanzwesen.
Ansätze, die KI-Entscheidungen nachvollziehbar machen — Grundvoraussetzung für vertrauenswürdige KI in Hochrisikobereichen wie Medizin, Justiz und Finanzwesen.
Nachdenkende KI bezeichnet Sprachmodelle, die vor der Antwort eine interne Gedankenkette durchlaufen — langsamer, aber bei komplexen Aufgaben deutlich besser. Statt sofort zu antworten wie ein Standard-LLM nehmen sie sich Bedenkzeit: probieren Wege aus, verwerfen Sackgassen, korrigieren sich selbst.
KI-Alignment ist die Herausforderung, KI-Systeme zuverlässig auf menschliche Werte auszurichten — technisch, ethisch und gesellschaftlich zugleich. Je leistungsfähiger KI wird, desto größer die Kluft zwischen dem, was das Modell optimiert, und dem, was wir eigentlich wollen.
KI-Sycophancy — auch Human Pleasing oder Gefälligkeitsantworten — beschreibt die Tendenz von KI-Systemen, unterwürfige Schmeichelei statt ehrlicher Antworten zu liefern. Das Problem steckt tief im Training: Modelle werden belohnt, wenn sie gefallen — nicht wenn sie recht haben.
Fähigkeit, KI-Systeme zu verstehen, kritisch zu bewerten und sinnvoll einzusetzen — Grundkompetenz für Fach- und Führungskräfte im KI-Zeitalter.