Wen wir suchen:
- Dein Hintergrund: Du solltest mindestens 8 Jahre Erfahrung im Data Engineering, in der BI-Entwicklung oder in einer ähnlichen Funktion haben. Außerdem solltest du umfassende Kenntnisse in SQL wie PostgreSQL, MySQL usw. angeeignet haben.
- Dein Fachwissen:
- Must-have: Du kannst dein Know-how mit der Data-Warehousing-Lösung BigQuery, ETL-Tools und -Frameworks wie Apache Airflow, Airbyte, Talend und mit Cloud-Plattformen demonstrieren.
- Must-have: Für unsere eigene Anwendung verwenden wir Python-Skripte mit Kubernetes und SQL-Logik mit BigQuery, daher solltest du Erfahrung damit sowie mit BI- und Datenvisualisierungstools (z. B. Tableau, Power BI, Looker usw.) haben.
- Must-have: Mindestens 2 Jahre Erfahrung in der Entwicklung und Optimierung von Datentransformations-Workflows mit dbt.
- Must-have: Tiefgehendes technisches Wissen und einen signifikanten eigenständigen Einfluss in früheren Projekten.
- Bonuspunkte: Kenntnisse über Data Governance und Compliance Frameworks (z.B. GDPR) und Vertrautheit mit ML-Konzepten
- Deine persönlichen Fähigkeiten: Du verfügst über ausgeprägte analytische und problemlösende Fähigkeiten und bist in der Lage, datenbezogene Probleme zu erkennen und zu lösen
Wir ermutigen dich, dich zu bewerben, auch wenn dein Profil noch nicht alle Anforderungen für die Stelle erfüllt. Bei Haiilo unterstützen wir deine persönliche Entwicklung und deine Individualität, ganz gleich, welchen Hintergrund du hast.
Was du bei uns machen wirst:
- Du bist die erste Ansprechperson für alle BI-Themen – von der Architektur bis zum Reporting, und spielst eine wichtige Rolle bei Datenprojekten. Außerdem sammelst du Anforderungen, um Datenlösungen zu liefern, die den Geschäftsanforderungen entsprechen.
- Entwerfe und implementiere robuste, skalierbare Datenpipelines, um Daten aus verschiedenen Quellen zu sammeln, zu verarbeiten und zu speichern
- Entwickle und pflege von ETL-Prozessen (Extrahieren, Transformieren, Laden) zur Gewährleistung der Datenintegrität und -verfügbarkeit
- Optimiere und pflege Data Warehouses und Datenbanken, um eine hohe Leistung und Zuverlässigkeit zu gewährleisten
- Implementiere und setze Data-Governance-Richtlinien und -Verfahren zur Gewährleistung von Datenqualität, -konsistenz, -sicherheit und -konformität durch
- Erstelle und pflege die Dokumentation für Datenprozesse, Systemarchitektur und Datenmodellen
- Überwache die Leistung der Datenpipeline um Fehler sowie Probleme umgehend zu identifizieren und zu beheben
Life at Haiilo
Wondering why we are looking for what we are looking for? Get up close with our company culture, find out what you can expect when working with us and dig up some additional info in our FAQs section. Come on! Do a quick deep-dive into Haiilo’s DNA!
More Jobs
Not exactly sure what you are looking for? Time to give the search-bar another try.