In unserem Data Platform Team im Bereich Data entwickeln und betreiben wir die zentrale Plattform, die es unseren Analyst:innen und anderen Data Practioners im Zeitverlag ermöglicht, Datenprodukte zu entwickeln und datengetriebene Entscheidungen durch aussagekräftige Reportings zu unterstützen. Dabei ist auch der direkte Austausch zu unseren Stakeholdern in Verlag und Redaktionen essenziell, um den maximalen Mehrwert unserer Plattform sicherzustellen.
Unser Techstack basiert primär auf der Google-Cloud-Plattform und Kubernetes, hier nutzen wir verschiedenste Dienste, wie z.B. dbt mit BigQuery (für Daten und Modellierung), Cloud Run und Dockercontainer (zum Laufen unserer Workloads), Terraform (für das Bereitstellen der Infrastruktur) und Snowplow (für das Sammeln von Tracking-Daten).
Wir suchen einen (Full-Stack) Data Engineer / Analytics Engineer mit Lust an einer gesamtheitlichen Betrachtung der Data Pipelines, von Infrastruktur-Themen über Python bis Modellierung in dbt.
Deine Rolle hat vier Komponenten:
- Infrastruktur & Architektur: Du nutzt die aktuelle Migration und Konsolidierung unserer Datenplattformen als Chance, neue Wege zu beschreiten und nachhaltige Infrastruktur- sowie Architektur-Entscheidungen zu treffen. Du bist maßgeblich an der Gestaltung einer zukunftssicheren Datenlandschaft beteiligt.
- Hands-on Data Integration: Du konzipierst und implementierst plattformübergreifende Datenschichten und Module, um einen optimalen Datenzugriff zu gewährleisten. Dies beinhaltet das Design, die Implementierung und das Deployment von Datentransformationsprozessen, Datenverarbeitungs-Pipelines und Datenmodellen.
- Data Modelling: Du modellierst unterschiedlichste Daten aus dem gesamten Verlagsumfeld, um eine konsistente Sicht auf Geschäftsprozesse zu schaffen und durch die Reduktion von Komplexität die Produktivität unserer Data Practioners zu unterstützen. Du unterstützt unseren Kolleg:innen des Data Collection Teams darin, Tracking zu konzipieren und zu testen.
- Data Lineage & Data Governance: Du schaffst Transparenz über den gesamten Datenfluss vom Quellsystem bis zur finalen Nutzung. Du stellst die notwendige Datenintegrität und -sicherheit sicher und übernimmst Verantwortung für die hohe Qualität unserer Daten, damit Menschen und KI-Agenten unsere Daten nutzen können.
Du musst aber kein/e ausgewiesene/r Expert:in in all diesen Bereichen sein. Sofern du in einigen Punkten Erfahrung gesammelt hast und Spaß hast an einer umfassendem Betrachtung des Daten-Lebenszyklus, lässt sich alles Andere erlernen.