Wie FastChangeCo aus seinem Datenchaos eine Maschine baut – das bringt anstelle des Untertitels „FastChangeCo’s journey towards a fully flexible data solution“ auf den Punkt, worum es in „Data Engine Thinking“ von Roelant Vos und Dirk Lerner geht.
FastChangeCo ist eine fiktive Firma mit einem echten Problem: Sie kämpft wie viele Unternehmen mit Berichten, denen niemand traut, wechselnden Anforderungen und einer IT, die nur noch hinterherräumt.
Roelant Vos ist ein Data‑Warehouse‑/Data‑Engineering‑Experte, der seit vielen Jahren als Berater, Trainer, Softwareanbieter und Entscheider an Datenlösungen mit starkem Fokus auf Automatisierung, Codegenerierung und modellbasiertem Design arbeitet. Dirk Lerner ist Datenmodellierer und Data‑Warehouse‑Spezialist, der insbesondere für seine Arbeiten zu Data Vault und zum Umgang mit „Zeit“ (Historisierung, uni‑/bitemporale Modelle) bekannt ist und in der Community als ausgewiesener Experte für diesen Aspekt von Datenarchitekturen gilt.

Auf der Basis erlebter Erfahrungen setzt „Data Engine Thinking“ an – nicht mit noch einem Tool‑Stack, sondern mit der Frage, wie man eine Datenlösung baut, die Änderungen nicht fürchtet, sondern frisst. Das Buch verspricht nichts weniger als den Weg von der fragilen Berichtslandschaft zur belastbaren Data Engine – und liefert dafür eine methodische Anleitung, die in dieser konkreten Tiefe selten ist.
Worum es geht
Im Mittelpunkt steht die Reise von FastChangeCo aus einer unübersichtlichen Datenwelt hin zu einer flexiblen, automatisierten Datenplattform. Die Story dient als roter Faden, an dem entlang typische Projektsituationen und Konflikte durchgespielt werden: wechselnde Anforderungen, neue Datenquellen, technische Schulden und Entscheidungsdruck.
Inhaltlich spannt das Buch den Bogen von der Vision und der Strategie über die Datenmodellierung und die Architektur (Data Vault, Persistent Staging Area, Historisierung) bis hin zur Code‑Generierung und Automatisierung.
Zentrale Botschaften
Eine zentrale These ist, dass die meisten Data‑Warehouse‑Desaster keine Technologieprobleme sind, sondern Folgen eines schwachen fachlichen Verständnisses. Entsprechend bestehen die Autoren darauf, dass ein solides fachliches Datenmodell die Grundlage darstellt, während Werkzeuge und Plattformen erst in einem nachgelagerten Schritt betrachtet werden. Gleichzeitig propagieren sie einen Wechsel weg von manuellen Einzelkonstruktionen hin zu Pattern‑basierten, automatisierten Lösungen, in denen klar zwischen Design‑Patterns („was“) und Solution‑Patterns („wie“) unterschieden wird.
Das Ziel ist eine Architektur, in der Änderungen – neue Quellen, neue Sichten, geänderte Regeln – zur Normalität gehören, ohne das System jedes Mal halb neu bauen zu müssen.
Wesentliche Stärken
Stark ist das Buch vor allem in der Verbindung von Konzept und Praxis. Die FastChangeCo‑Story sorgt für Orientierung, während einzelne Kapitel tief in Themen wie Data‑Vault‑Modellierung, bitemporale Historisierung oder Automatisierung mit Codebeispielen und konkreten Mustern einsteigen. Dadurch eignet es sich sowohl als Leitfaden für den Aufbau oder die Modernisierung einer Datenplattform als auch als Nachschlagewerk für konkrete Fragestellungen.
Glaubwürdige Rezensenten wie Dani Schnider und Shane Gibson bestätigen den Autoren, dass sie langjährige Projekterfahrung in eine konsistente Methodik gegossen haben, die sich deutlich von rein Tool‑getriebenen Sammlungen lose verteilter „Best Practices“ abhebt.
Schnider arbeitet als Principal Oracle & DWH Consultant bei Callista in der Schweiz und ist seit über 20 Jahren im Data‑Warehouse‑Umfeld tätig. Shane Gibson publiziert via Substack einen sehr speziellen Podcast zum Thema Agile Data, in dem er sich mit Mustern, Methoden und Praxis rund um moderne Datenarchitekturen beschäftigt. Dazu lädt er ausgewiesene Experten aus der Community ein. In einer ausführlichen Episode namens „Data Engine Thinking Patterns with Roelant Vos“ hinterfragt er die Muster und Ideen, die in „Data Engine Thinking“ von Vos und Lerner beschrieben werden.
Verzeihliche Schwächen
Die Kehrseite der Tiefe dieses Buches ist der Umfang: Mit beinahe 700 Seiten ist „Data Engine Thinking“ ein Schwergewicht, das wohl keiner am Stück lesen kann. Kritische Stimmen empfehlen, es themenbezogen und selektiv zu nutzen.
Für Einsteiger in die Datenmodellierung und Data‑Warehouse‑Architektur ist der Stoff einen Zacken zu anspruchsvoll, denn viele Konzepte (Data Vault, PSA, Bitemporalität) setzen sehr spezielle Erfahrung voraus. Zudem folgt das Buch einer klaren Architekturschule – wer sich strikt an minimalistischen Lakehouse‑Entwürfen oder rein dimensionalen Modellen orientiert, muss bereit sein, sich mit einem anderen Paradigma auseinanderzusetzen.
Fazit
Die bisher wenigen, aber substantiellen Besprechungen ziehen ein klares Fazit: „Data Engine Thinking“ ist sehr empfehlenswert für alle, die ernsthaft eine flexible, automatisierte Datenplattform aufbauen oder modernisieren wollen.
Das Buch erfordert Zeit, Vorwissen und Konzentration, bietet dafür aber eine geschlossene, praxisnahe Methodik, die deutlich über typische Übersichts‑ und Managementtitel hinausgeht. Wer bereit ist, sich auf Umfang und Tiefe einzulassen, findet hier eine Art Bauplan, wie aus einem instabilen Reporting‑Konglomerat eine belastbare Data Engine entstehen kann.
Transparenzhinweis: Selbstverständlich habe ich wesentliche Informationen zu dieser Rezension mit KI-Unterstützung recherchiert, mit unterschiedlichen LLMs hinterfragt und persönlich redigiert. Unverzichtbare Tools für meine Arbeit sind Perplexity Pro und heise I/O, die ich täglich für Deep Researches und/oder für Gegenproben nutze.