Dateningestion und -verarbeitung großer Datensätze aus heterogenen Quellen, z. B. Dynamics, Dateien, SQL
Konzeption, Betrieb und Optimierung von Datenpipelines in Microsoft Fabric
Performance-Optimierung von Spark-Workloads in Bronze-, Silver- und Gold-Layern
Migration und Integration bestehender Power-BI-Reports in die Fabric-Lakehouse-Architektur
Analyse und Weiterentwicklung bestehender Notebooks wie Azure Databricks und PySpark
Modellierung und Pflege des Lakehouse-Datenmodells
Monitoring, Alerting und Weiterentwicklung der Datenarchitektur
this makes you so special to us:
Studium im Bereich Informatik, Statistik, Software Engineering, Wirtschaftsingenieurwesen oder eine vergleichbare Qualifikation
Erfahrung im Umgang mit Microsoft Fabric, SQL, PySpark, Power BI, Azure Data Factory und Azure Data Lake (ADLS Gen2)
Erfahrung im Umgang mit Python und Azure Databricks von Vorteil
zuverlässige, strukturierte und lösungsorientierte Arbeitsweise, sowie proaktiver Wissensaustausch und Eigeninitiative
sehr gute Deutsch- und Englischkenntnisse
ep is a vision in which people, ideas and technology come together. We offer our employees and applicants the best career prospects - with an equal focus on both sides.
We use cookies to offer you the best possible experience on our website. Using the statistical data collected, we provide you with content that matches your interests and optimise the website for future visitors. By clicking “Accept Cookies”, you agree to the use of all cookies we use. To customise your cookie settings, click “Customise Cookie Settings” and then click “Accept Cookies” after selecting your required settings. For more information on how we protect your data, please see our Datenschutzerklärung.