Minimax schützt vor dem härtesten plausiblen Szenario und zwingt zu Ehrlichkeit: Was ist wirklich plausibel? Zu breit gewählte Unsicherheitsmengen machen Lösungen ineffizient, zu enge nachlässig. Wir illustrieren die Intuition mit einem Drohneneinsatz im Gebirge, bei dem Windböen begrenzt, aber nicht beliebig sind. Richtig kalibriert liefert Minimax stabile Routen, die keine Schönwetter-Tricks brauchen, sondern nüchternen Schutz gegen das, was statistisch realistisch schiefgehen kann.
CVaR blickt bewusst in den Schwanz der Verteilung und misst den durchschnittlichen Verlust jenseits eines Quantils. Das ist ideal, wenn man seltene, teure Fehlschläge minimieren muss, etwa in Energiehandel, Personalplanung oder Sicherheitsbeständen. Wir diskutieren Wahl des Alpha, Schätzstabilität und Regularisierung, damit CVaR nicht selbst zum Rauschempfänger wird. Richtig eingesetzt entlarvt die Kennzahl schöne Mittelwerte als trügerische Ruhe und fördert Entscheidungen, die extreme Überraschungen entschärfen.
Standardannahmen sind selten erfüllt. Wir nutzen robuste Varianten mit ausreißerresistenten Kosten, adaptiven Kovarianzschätzern und Gating-Mechanismen, die zweifelhafte Messungen vor der Fusion stoppen. In der Praxis half dies einem mobilen Roboter, der in glänzenden Hallen unter Reflexionen litt: Statt zu taumeln, drosselte der Filter Vertrauen, zog Odometrie nach und stabilisierte die Pose, bis die Umgebung wieder ehrliche Signale bot.
Wenn Ausreißer häufiger auftreten, helfen t-verteilte Fehler, Mischmodelle oder heavy-tail-Priors. Sie verhindern, dass einzelne Fehlmessungen die Posterioren dominieren. Wir erläutern, wie man Hyperparameter interpretiert, Evidenz vergleicht und Rechenaufwand im Blick behält. Das Ergebnis sind Schätzungen, die lieber ein bisschen unsicher bleiben, statt sich von einer lauten Messung verführen zu lassen, und dadurch Downstream-Entscheidungen deutlich robuster machen.