Warum die meisten Systemauswahl-Projekte falsch starten
In meiner Beratungspraxis beobachte ich ein wiederkehrendes Muster: Unternehmen starten Systemauswahl-Projekte mit einer Marktrecherche. Sie googeln „beste ERP-Systeme 2025", lesen Vergleichsartikel, besuchen Messen und laden drei bis fünf Anbieter zu Demos ein. Das Problem: Zu diesem Zeitpunkt ist noch nicht klar definiert, welches Problem das neue System eigentlich lösen soll.
Tool-first statt Problem-first – das ist der Grundfehler. Wenn ein Unternehmen sagt „Wir brauchen ein neues ERP", verbirgt sich dahinter in der Regel ein Bündel von Problemen: unzuverlässige Lagerdaten, manuelle Rechnungsprozesse, fehlende Transparenz über Auftragsauslastung, keine durchgängige Nachverfolgung von der Bestellung bis zur Auslieferung. Jedes dieser Probleme hat unterschiedliche Lösungsansätze – und nicht jeder davon erfordert ein ERP-System.
Die erste Phase jeder seriösen Systemauswahl sollte daher eine Problemanalyse sein, nicht eine Marktanalyse. Das bedeutet: Die kritischen Geschäftsprozesse identifizieren, die aktuellen Schmerzpunkte dokumentieren und messbare Ziele definieren. „Wir wollen die Durchlaufzeit von Angeboten von 5 Tagen auf 1 Tag reduzieren" ist ein Ziel. „Wir wollen ein modernes System" ist keines.
Erst wenn das Problemstatement steht, kann die zweite Frage beantwortet werden: Welche Systemklasse löst dieses Problem? Muss es ein ERP sein – oder reicht ein spezialisiertes PIM-System, eine iPaaS-Plattform oder sogar eine Kombination aus Best-of-Breed-Lösungen? Diese Entscheidung hat massive Auswirkungen auf Budget, Komplexität und Betriebskosten.
Was herstellerunabhängige Beratung in der Praxis bedeutet
Herstellerunabhängigkeit ist in der Software-Beratung ein viel benutzter, aber selten eingelöster Begriff. Viele Beratungshäuser haben Partnerschaften mit Software-Herstellern – sie erhalten Provisionen, Leads oder Implementierungsaufträge. Das beeinflusst die Empfehlung, bewusst oder unbewusst. Wenn ein Berater 30 Prozent seines Umsatzes mit SAP-Implementierungen macht, wird er selten empfehlen, statt SAP eine Kombination aus kleineren, spezialisierten Systemen einzusetzen.
Echte Vendor-Neutralität bedeutet: Der Berater hat kein finanzielles Interesse am Ergebnis der Empfehlung. Er verdient gleich viel, ob das Ergebnis SAP, Haufe X360, Xentral, Akeneo oder eine Low-Code-Plattform ist. Nur so entsteht die Freiheit, die tatsächlich beste Lösung für den konkreten Anwendungsfall zu empfehlen.
In der Praxis zeigt sich Vendor-Neutralität an drei Stellen: Erstens bei der Longlist – werden auch unbekannte oder Nischen-Anbieter berücksichtigt, die für den konkreten Anwendungsfall besser passen? Zweitens bei der Bewertung – werden Demos mit denselben Use Cases durchgeführt und anhand derselben Kriterien bewertet? Drittens bei der Empfehlung – wird transparent dokumentiert, warum ein Anbieter empfohlen wird und welche Trade-offs damit verbunden sind?
Use Cases statt Feature-Listen: Der Unterschied zwischen Papier und Praxis
Die meisten Anforderungskataloge, die ich am Anfang eines Projekts sehe, sind Feature-Listen: „Das System muss Workflows unterstützen", „Dashboards müssen anpassbar sein", „API-Schnittstellen müssen vorhanden sein". Das Problem: Jeder Anbieter hakt diese Punkte ab. Ein Workflow in SAP, ein Workflow in Monday.com und ein Workflow in HubSpot sind fundamental unterschiedliche Dinge – aber auf einer Feature-Checkliste sehen sie identisch aus.
Use Cases machen den Unterschied. Ein Use Case beschreibt einen konkreten Geschäftsprozess von Anfang bis Ende: „Vertriebsmitarbeiter erfasst Opportunity → Angebot wird aus Produktkatalog generiert → Kunde bestätigt → Auftrag wird automatisch im ERP angelegt → Lager bekommt Kommissionierungsauftrag." Dieser Use Case testet nicht ein einzelnes Feature, sondern die Prozessfähigkeit des Systems.
In meinen Projekten arbeite ich mit einem Use-Case Backlog von 10 bis 25 Fällen, priorisiert nach Geschäftskritikalität. Jeder Use Case hat Akzeptanzkriterien – messbare Bedingungen, die erfüllt sein müssen, damit der Fall als „bestanden" gilt. Diese Use Cases werden in jeder Anbieter-Demo durchgespielt – mit denselben Daten, demselben Zeitrahmen und derselben Bewertungslogik.
Der Vorteil: Die Bewertung wird vergleichbar und nachvollziehbar. Statt „der Berater fand System A sympathischer" steht im Scoring: „System A löst 22 von 25 Use Cases, System B löst 19 von 25 Use Cases, aber System B ist bei den drei kritischsten Use Cases überlegen." Das ist die Basis für eine fundierte Entscheidung – keine Bauchentscheidung.
TCO ist kein Preisvergleich – sondern ein Steuerungsinstrument
Total Cost of Ownership (TCO) wird in den meisten Auswahlprojekten als Preisvergleich missverstanden: Lizenzkosten System A versus Lizenzkosten System B. In der Praxis machen Lizenzkosten aber nur 20 bis 30 Prozent der Gesamtkosten aus. Der Rest verteilt sich auf Implementierung (25–35 %), Integrationen (10–15 %), Datenmigration (5–10 %), Change Management und Training (5–10 %) sowie laufende Betriebskosten (15–25 %).
Ein sauber berechneter TCO über 5 Jahre dreht regelmäßig die Reihenfolge der Anbieter um. Das vermeintlich günstigste System mit niedrigen Lizenzkosten wird zum teuersten, wenn man Customizing-Aufwand, Integrationskomplexität und den laufenden Admin-Bedarf einrechnet. Umgekehrt kann ein System mit höheren Lizenzkosten günstiger sein, wenn es einen besseren Standard-Fit bietet und weniger Anpassungen erfordert.
Praxis-Beispiel: Ein mittelständisches Handelsunternehmen verglich zwei ERP-Systeme. System A: 80.000 EUR Lizenz/Jahr, System B: 120.000 EUR Lizenz/Jahr. Auf den ersten Blick war A günstiger. Die TCO-Analyse über 5 Jahre ergab jedoch: System A benötigte 180.000 EUR für Customizing und einen dedizierten Admin (60.000 EUR/Jahr), während System B mit Standardkonfiguration und einem 50-Prozent-Admin auskam. Ergebnis nach 5 Jahren: System A = 720.000 EUR, System B = 650.000 EUR – bei besserer Prozessqualität.
TCO ist daher kein einmaliger Vergleich, sondern ein Steuerungsinstrument für die gesamte Lebensdauer des Systems. Es sollte neben den harten Kosten auch qualitative Faktoren berücksichtigen: Vendor Lock-in Risiko, Verfügbarkeit von Fachkräften für das System, Release-Zyklen und die strategische Roadmap des Anbieters.
Warum "Systemklasse" der erste Hebel ist
Was ich mit Systemklasse meine
Eine Systemklasse beschreibt den Problemtyp, den eine Software löst (z.B. ERP für Kernprozesse, PIM für kanal-fähige Produktdaten, iPaaS für Integration/Betrieb). Wenn ihr die falsche Klasse wählt, sind Featurevergleiche irrelevant.
Deshalb starte ich Auswahlprojekte mit einer kurzen, harten Frage: Welches Problem lösen wir – und welcher Systemtyp ist dafür gebaut?
Typische Symptome falscher Systemklasse
- "Wir brauchen alles in einem Tool" ohne Ownership/Governance
- Demos wirken super – aber Kernfälle scheitern im Alltag
- Customizing wird Standardlösung (TCO explodiert)
- Go-Live klappt – Run wird zur Dauer-Feuerwehr
Beispiele: Systemklasse richtig einordnen
ERP Auswahl
Wenn end-to-end Kernprozesse (Order-to-Cash, Purchase-to-Pay, Produktion, Finance) und Datenkonsistenz im Zentrum stehen.
PIM Auswahl
Wenn Produktdaten kanal-fähig werden müssen (Taxonomie, Varianten, Content/Assets, Syndication).
MDM/Stammdatenmanagement
Wenn Golden Record, Governance, Audit und Konsistenz über Domänen (Kunde/Lieferant/Referenzen) im Fokus stehen.
iPaaS/Workflow Automatisierung
Wenn viele Systeme verbunden werden müssen und Betriebssicherheit (Monitoring, Reprocessing) ein TCO-Hebel ist.
CRM Auswahl
Wenn Lead→Deal→Kunde als Revenue-Prozess sauber geführt werden soll (Sales, Marketing, Service je nach Setup).
Vier Prinzipien, die Auswahlprozesse spürbar verbessern
Prinzip 1: Problem vor Tool
- Ein Tool löst keine unklaren Prozesse – es macht sie nur sichtbar.
- Schreibe das Problem-Statement so, dass ein Externer es versteht (1 Seite).
- Definiere, was ‘besser’ heißt: Durchlaufzeit, Qualität, Compliance, Wachstum.
Prinzip 2: Fit-to-Standard als Default
- Customizing ist häufig der größte TCO-Treiber.
- Gaps klassifizieren (Must/Should/Could) und No-Gos definieren.
- Baut Sonderlogiken nur dort, wo sie wirklich Differenzierung schaffen.
Prinzip 3: Vergleichbarkeit erzwingen
- Gleiche Demo-Skripte, gleiche Zeitbox, gleiche Testdaten.
- Bewertung nach Use-Case-Fit, nicht nach Präsentationsqualität.
- Trade-offs dokumentieren: Was gewinnt ihr, was gebt ihr auf?
Prinzip 4: Run ist Teil der Auswahl
- Monitoring, Alerts, Reprocessing und Runbooks sind Pflicht bei kritischen Flows.
- Operating Model definieren: Rollen, Releases, Support, Admin-Kapazitäten.
- TCO als Steuerungsinstrument nutzen, nicht als Preisvergleich.
Das Framework: 7 Schritte IT Systemauswahl Methodik
Das ist das Grundgerüst, das ich über Systemklassen hinweg nutze. Je nach Projekt (ERP/PIM/CRM/MDM/iPaaS) verschiebt sich die Gewichtung – die Logik bleibt.
1) Systemklasse klären (Problem → Systemtyp)
Bevor ihr Anbieter vergleicht, müsst ihr den richtigen Systemtyp wählen. Sonst optimiert ihr das Falsche.
- Problem-Statement (1 Seite)
- Systemlandkarte (Ist/Soll) + Integrationspunkte
- Hypothese Systemklasse (z.B. ERP, PIM, CRM, MDM, iPaaS)
- Tool wird gesucht, bevor Problem/Scope klar ist
- ‘All-in-one’ als Reflex ohne Governance
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
2) Zielbild & Scope (MVP + Roadmap)
Scope entscheidet Time-to-Value und Risiko. Ein MVP ist kein ‘Mini-Projekt’, sondern die erste stabile Wertkette.
- Zielbild (Capabilities statt Features)
- MVP-Definition (Prozesse/Standorte/Teams)
- Roadmap v2/v3 (Skalierung, weitere Channels, weitere Länder)
- Big Bang ohne MVP
- Jede Abteilung packt alles in Phase 1
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
3) Anforderungen als Use Cases (nicht Feature-Liste)
Use Cases machen Anbieter-Demos vergleichbar und verhindern Feature-Shopping.
- Use-Case Backlog (10–25 Fälle) inkl. Akzeptanzkriterien
- Priorisierung (Impact × Häufigkeit × Risiko)
- Datenanforderungen (Objekte, Felder, Ownership je Feld)
- Excel mit 700 Features ohne Kontext
- Keine echten Testdaten, keine Grenzfälle
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
4) Scoring-Modell (Gewichtung, Matrix, Trade-offs)
Eine Bewertungsmatrix ist nur dann nützlich, wenn Gewichtung und Trade-offs dokumentiert werden.
- Kriterienkatalog (z.B. Time-to-Value, Integrationen, Governance, TCO)
- Gewichtung (je Rolle/Team abgestimmt)
- Scoring + dokumentierte Trade-offs + No-Go Liste
- Ungewichtet scoren und ‘Summe’ als Wahrheit verkaufen
- Bewertung nach Präsentationsqualität statt Prozess-Fit
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
5) Vergleichbare Demos & Mini-PoC (Proof der kritischen Risiken)
Demos müssen die gleichen Prozessfälle lösen. PoC prüft die wenigen Dinge, die wirklich riskant sind (Integration, Datenmodell, Performance, Rechte).
- Demo-Skripte pro Anbieter (gleiches Format, gleiche Zeitbox)
- Mini-PoC Plan (10–20 Testfälle, echte Daten, Fehlerfälle)
- UAT-Kriterien (Definition of Done)
- Anbieter steuert Demo-Agenda
- PoC wird zu einem Nebenprojekt ohne klare Fragestellungen
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
6) TCO & Betriebsmodell (Run ist Teil der Auswahl)
Die Lizenz ist selten der größte Kostenblock. Betrieb, Admin, Integrationen, Weiterentwicklung bestimmen 3–5 Jahre TCO.
- TCO-Modell (3–5 Jahre): Lizenz + Implementierung + Betrieb + Integrationen + Wachstum
- Operating Model (Rollen, Releases, Support, Monitoring)
- SLA/SLO Anforderungen (kritische Flows, Integrationen)
- TCO nur als Lizenzvergleich
- Kein Plan für Monitoring/Reprocessing bei Integrationen
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
7) Vertrags- & Implementierungsdesign (Erfolg absichern)
Ein guter Vertrag ist ein Risikomanagement-Tool: Scope, Abnahmen, Change Requests, Exit, Datenportabilität.
- Meilensteine + Abnahmekriterien (Messbar, testbar)
- Change Request Prozess + Preislogik
- Exit-/Portabilitätsklauseln + Datenzugriff
- ‘Fixpreis’ ohne saubere Abnahme-Definition
- Lock-in ohne Exit-Plan
Wenn du nur eine Sache aus diesem Schritt machst: fokussiere auf Vergleichbarkeit (Use Cases, echte Daten, gleiche Zeitbox) und dokumentiere Trade-offs.
Artefakte: Was am Ende wirklich hilft (und wiederverwendbar ist)
Artefakte, die ich in Projekten fast immer nutze
- Problem-Statement (1 Seite) + Zielbild (Capabilities)
- Use-Case Backlog (10–25) inkl. Akzeptanzkriterien
- Demo-Skripte (vergleichbar) + Bewertungsmatrix (gewichtet)
- Mini-PoC Plan (kritische Risiken) + Definition of Done
- TCO-Modell (3–5 Jahre) + Operating Model (Run)
- Entscheidungslog (Trade-offs, No-Gos, Annahmen, Risiken)
Wenn ihr nur mit einem Dokument starten wollt
- Anforderungskatalog/Template – als Ausgangspunkt für Use Cases und Gewichtung
Shareable Insight: Eine gute Auswahl hinterlässt nicht nur eine Entscheidung, sondern ein Set an Artefakten, die Implementation und Betrieb beschleunigen (Use Cases, Datenhoheit, Testfälle, Runbooks).
Erstberatung: Methodik-Check für euren Auswahlprozess
Wenn ihr bereits mitten in der Auswahl seid (oder gerade startet), können wir in einem Kurzcheck prüfen: Systemklasse, Scope/MVP, Use Cases, Demo-Vergleichbarkeit, TCO/Run und PoC-Design. Systemunabhängig – ohne Vendor-Pitch.
Tipp: Bring eure Shortlist, 10 Kern-Use-Cases, Integrationsliste und Zieltermin mit.