meine.jobs Stellenmarkt
BUN
Bundesdruckerei Gruppe GmbH

(Senior) Data Engineer – KI und Datenanalyseplattform (m/w/d)

Vor 17 Tagen veröffentlicht
Vollzeit
Berlin
Unbefristet
Vor Ort
Jetzt bewerben
Ihre Aufgaben

Zum nächstmöglichen Zeitpunkt suchen wir Sie als (Senior) Data Engineer - KI und Datenanalyseplattform für den Standort Berlin.

Ihr Aufgabenbereich
  • Fachliche Anleitung und Mentoring von Data Engineers
  • Ausarbeitung und Mitwirkung an der technisch-strategischen Weiterentwicklung des Teams sowie der Produkte und Projekte
  • Verantwortung für den Entwurf und die (Weiter-) Entwicklung komplexer, anwendungsfallspezifischer Datenarchitekturen und Datenmodelle
  • Entwurf, Entwicklung, Test und Monitoring von Prozessen zur Extraktion, Transformation und Laden von Daten aus Quellsystemen in Data Warehouse, Data Lake (ETL-/ELT-Pipelines) und Data Lakehouse
  • Gestaltung automatisierter Qualitätsprozesse zur Sicherstellung der Software- und Datenqualität sowie der Datenverfügbarkeit zur Einhaltung von Service-Level-Agreements
  • Anleitung und Weiterentwicklung der technischen Fähigkeiten sowie Wissensweitergabe im Data-Engineering-Team
  • Mitarbeit und technische Führung in einem crossfunktionalen Team innerhalb eines agilen Projekts
Ihr Profil
  • Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Mathematik, Statistik oder eines vergleichbaren Studiengangs; alternativ eine Ausbildung in einem entsprechenden IT-Bereich mit relevanter Berufserfahrung
  • Berufserfahrung in der Konzeption und Implementierung von (agilen) Projekten und Produkten im Kontext Data Engineering
  • Umfassende Kenntnisse in der Python- und SQL-Entwicklung sowie in Softwareentwicklungsstandards, Best Practices und Testing (Unit-Tests, Test-Frameworks, Mocking)
  • Umfangreiches Fachwissen bzgl. Datenprozessen (z. B. ETL-Tools wie Apache Airflow, Argo Workflows und dbt), Data Warehousing und Datenmodellierung/-architektur (3NF, Kimball, Inmon, Data Vault 2.0, Lambda-/Kappa-Architekturen) sowie in Datenschnittstellen/APIs (u. a. REST, MQTT)
  • Erfahrung im Bereich analytische Datenbanken, Containerisierung, Kubernetes, Linux und Bash sowie in der Implementierung von Data Governance, insbesondere in den Bereichen Data Security und Data Privacy
  • Sichere Kenntnisse in der Aufsetzung und Optimierung von Enterprise-Data-Warehouse-/Data-Lake-Strukturen sowie in den Bereichen Big Data (HDFS, S3, Spark), Data Streaming (Kafka, Apache Beam) und ELT
  • Breites Data-Engineering-Markt- und Technologiewissen im Bereich Tools (Query Engines), Frameworks (z. B. Delta Lake, Kafka) und Konzepten (Lakehouse, Data Mesh)
  • Fließende Deutschkenntnisse in Wort und Schrift (C1) sowie gute Englischkenntnisse für den technischen Austausch (B2)
Dies ist eine auf dritten Jobbörsen gefundene Stellenanzeige. Wir bieten hierfür keinen Support, können diese aber jederzeit offline stellen. Für weitere Informationen: Datenschutzhinweise | Anzeige melden.
Ergebnisliste