Bildquelle: extern
FinOps im IT-Management: Fünf Steuerungsgrößen, mit denen CIOs 2026 Cloud-Kosten endlich businessfähig machen
In vielen Unternehmen wird 2026 noch immer über Cloud-Kosten gesprochen, als ginge es nur um zu hohe Rechnungen. Genau das greift zu kurz. Moderne FinOps-Praxis ist kein Sparprogramm, sondern ein Führungsmodell für Technologieausgaben. Die FinOps Foundation beschreibt FinOps ausdrücklich als gemeinsame Verantwortung von Engineering, Finance, Product und Management, mit dem Ziel, den Geschäftswert von Technologie transparent zu machen. Auch Google, Microsoft und AWS argumentieren in ihren aktuellen Leitfäden ähnlich: Es geht um Kostenkontrolle, aber genauso um Verantwortlichkeit, Transparenz, TCO und bessere Entscheidungen.
Für IT-Leitungen heißt das: Ein CIO-Dashboard darf nicht bei Monatskosten pro Provider stehenbleiben. Wer Cloud-Ausgaben wirklich steuern will, braucht Kennzahlen, die Verantwortlichkeiten sichtbar machen, Überraschungen früh erkennen und Kosten mit dem gelieferten Nutzen verbinden. Fünf Steuerungsgrößen sind dafür im Alltag besonders relevant.
1. Kosten mit sauberer Ownership: Wie viel des Cloud-Spends ist eindeutig zuordenbar?
Die erste Managementfrage lautet nicht, ob die Rechnung hoch ist, sondern ob klar ist, wer sie verursacht. AWS betont in seinen Best Practices zur Kostenallokation, dass Kostenstrukturen entlang von Accounts, Teams, Business Units oder Tags aufgebaut werden müssen. Microsoft beschreibt ein belastbares Kostenmodell sogar als Voraussetzung für Forecasting und finanzielle Steuerung.
In der Praxis sollten IT-Leitungen deshalb eine einfache, aber harte Kennzahl etablieren: Welcher Anteil der monatlichen Cloud-Kosten ist einem verantwortlichen Team, Produkt oder Service eindeutig zugeordnet? Alles, was in Sammelkonten, Shared Services oder unsauberen Tagging-Strukturen verschwindet, ist kein kleiner Schönheitsfehler, sondern Governance-Verlust.
Ein brauchbarer Zielwert ist nicht bloß „mehr Transparenz“, sondern eine messbare Coverage, zum Beispiel 90 bis 95 Prozent klar zuordenbarer Kosten. Erst dann werden Showback, Chargeback oder auch nur seriöse Portfoliodiskussionen möglich. Wenn ein Team seine Kosten nicht wiedererkennt, wird es sie auch nicht aktiv optimieren.
2. Anomalien mit Reaktionszeit: Wie schnell erkennt das Unternehmen ungewöhnliche Kostenmuster?
Fast jede Organisation erlebt Kostenüberraschungen, obwohl Budgets und Reports existieren. Der Grund ist banal: Monatsberichte kommen zu spät. AWS Cost Anomaly Detection arbeitet deshalb fortlaufend mit Modellen auf Basis historischer Muster. Microsoft beschreibt ebenfalls Anomalieerkennung und Alerting als operatives Mittel, um atypische Entwicklungen früh zu sehen und zu untersuchen.
Für das IT-Management reicht es allerdings nicht, die Funktion technisch einzuschalten. Die relevante Kennzahl ist die Zeit zwischen Kostenabweichung, Erkennung und Reaktion. Ein CIO sollte wissen: Wie viele relevante Anomalien wurden im letzten Quartal erkannt, wie hoch war ihr finanzieller Impact, und wie lange dauerte es bis zur ersten qualifizierten Bewertung?
Ein gutes Dashboard zeigt deshalb nicht nur „Anomalien vorhanden“, sondern zum Beispiel Median-Zeit bis zur Erkennung und Median-Zeit bis zur Verantwortungsübernahme. Das trennt aktive Steuerung von bloßer Tool-Nutzung. Wer erst nach dem Rechnungsabschluss reagiert, betreibt kein FinOps, sondern Nachkalkulation.
3. Kosten pro Geschäftseinheit: Was kostet eine sinnvolle Leistungseinheit wirklich?
Die FinOps Foundation stellt den Geschäftswert von Technologie in den Mittelpunkt, nicht die absolute Einsparung. Google formuliert es ähnlich: Cloud-Ausgaben müssen am Business Value und an den gesamten Betriebskosten gemessen werden. Genau deshalb sind reine Infrastrukturkosten oft die falsche Managementsicht. Entscheidend ist, was eine geschäftlich relevante Einheit kostet.
Je nach Unternehmen kann das eine Transaktion, ein aktiver Kunde, ein bearbeitetes Ticket, ein Deployment, ein Gigabyte gesicherter Daten oder ein digitaler Vorgang sein. Erst solche Relationen machen sichtbar, ob steigende Kosten ein Problem oder Ausdruck von Wachstum sind. Wenn Cloud-Ausgaben um 15 Prozent steigen, aber der Output um 30 Prozent wächst, ist die Lage anders zu bewerten als bei gleichem Kostensprung ohne Mehrwert.
Für CIOs ist das die vielleicht wichtigste Steuerungsgröße, weil sie Technik- und Geschäftslogik verbindet. Teams sollten daher pro kritischem Service mindestens eine belastbare Unit-Cost-Kennzahl definieren. Ohne diese Übersetzung bleibt das Gespräch zwischen IT, Finance und Fachbereich zu abstrakt.
4. Commitment- und Laufzeitdisziplin: Wie viel Geld bleibt wegen schlechter Betriebsroutinen liegen?
Viele Unternehmen verlieren nicht deshalb Geld, weil Cloud grundsätzlich teuer ist, sondern weil sie Commitments falsch einsetzen und Ressourcen schlecht pflegen. Dazu gehören ungenutzte Reservierungen, dauerhaft überdimensionierte Umgebungen, vergessene Testsysteme oder unklare Non-Production-Flächen. Google empfiehlt im Cost-Optimization-Framework kontinuierliche Optimierung und den Abgleich von Ressourceneinsatz mit tatsächlichem Bedarf. Microsoft fordert wiederholbare Prozesse statt bloß punktueller Sparaktionen.
Im Dashboard sollte deshalb eine Kennzahl stehen, die operative Disziplin sichtbar macht. Das kann die Auslastung reservierter Kapazitäten sein, der Anteil stilllegbarer Ressourcen, die Quote zeitgesteuert abgeschalteter Nicht-Produktivsysteme oder der Anteil alter, unbegründet übergroßer Instanzen. Wichtig ist weniger die perfekte Metrik als die Managementlogik dahinter: Welche Kosten entstehen, weil Standards im Betrieb nicht konsequent umgesetzt werden?
Gerade hier zeigt sich, ob FinOps im Regelbetrieb angekommen ist. Einmal pro Jahr eine Rightsizing-Kampagne zu fahren, ist kein belastbares Betriebsmodell. CIOs sollten auf wiederkehrende Hygiene statt auf Rettungsaktionen steuern.
5. TCO statt nur Verbrauchskosten: Wo zahlt das Unternehmen für vermeintlich billige Technik doppelt?
Google weist im Well-Architected Framework ausdrücklich darauf hin, dass nicht nur Provisionierungs- und Nutzungskosten zählen, sondern auch Managementkosten, indirekte Kosten und der geschäftliche Nutzen. Ein scheinbar günstiger Workload auf virtuellen Maschinen kann in Summe teurer sein als ein Managed Service, wenn Patchen, Skalieren, Monitoring und Incident-Aufwand den Betrieb verteuern. Microsoft argumentiert ähnlich, wenn Kostenoptimierung mit ROI, Priorisierung und operativer Wiederholbarkeit verbunden wird.
Für das IT-Management folgt daraus eine oft vernachlässigte Kennzahl: Wo liegt der Vollkostenunterschied zwischen DIY-Betrieb und gemanagter Alternative? Diese Sicht ist besonders wichtig in Portfoliodiskussionen. Sonst spart die Organisation an der falschen Stelle, etwa bei direkten Plattformkosten, und bezahlt später mit höherem Personalaufwand, längeren Störungen oder langsamerer Delivery.
Ein CIO-Dashboard sollte deshalb für ausgewählte Kernservices nicht nur IaaS- oder PaaS-Kosten zeigen, sondern eine TCO-Näherung inklusive Betriebsaufwand. Das muss nicht mathematisch perfekt sein. Aber es muss gut genug sein, um Fehlentscheidungen zu verhindern.
Was IT-Leitungen jetzt konkret tun sollten
- Kostenmodell schärfen: Accounts, Tags, Kostenkategorien und Service-Verantwortung so strukturieren, dass mindestens 90 Prozent des Spends klar zuordenbar sind.
- Anomalieprozess definieren: Alerts einrichten, Schwellen festlegen und eine feste Reaktionsroutine mit Ownership und Eskalation etablieren.
- Unit Costs je Kernservice festlegen: Pro wichtigem Produkt oder Service mindestens eine belastbare Leistungseinheit mit monatlicher Entwicklung messen.
- Betriebshygiene messbar machen: Reservierungen, Non-Production-Laufzeiten, Überprovisionierung und Altlasten regelmäßig in FinOps-Reviews ziehen.
- TCO in Architekturentscheidungen einbauen: Managed Services und Eigenbetrieb nicht nur nach Preisliste, sondern nach Gesamtaufwand vergleichen.
FinOps wird im IT-Management genau dann wertvoll, wenn aus Rechnungsdaten echte Führungsdaten werden. Wer nur auf Gesamtkosten schaut, reagiert zu spät und meist an der falschen Stelle. Wer dagegen Ownership, Anomalien, Unit Costs, Betriebsdisziplin und TCO zusammenführt, bekommt eine deutlich bessere Antwort auf die eigentliche Managementfrage: Welche Technologieausgaben schaffen nachweisbar Wert und welche nicht?
Quellen
- FinOps Foundation: What is FinOps?
- Microsoft Azure Well-Architected Framework: Cost Optimization design principles
- Microsoft Cost Management: Identify anomalies and unexpected changes in cost
- Google Cloud Well-Architected Framework: Cost optimization pillar
- Google Cloud Well-Architected Framework: Align cloud spending with business value
- AWS: Building a cost allocation strategy
- AWS: Detecting unusual spend with AWS Cost Anomaly Detection
