Jobbeschreibung
Die HanseMerkur Grundvermögen AG ist ein auf den deutschen Immobilienmarkt spezialisierter Asset- und Investment-Manager. Wir stehen für langfristig orientierte Immobilien-Investments und ganzheitliches Immobilienmanagement mit hanseatischer Handschrift. Fairness, Vertrauen und Zuverlässigkeit bestimmen den Umgang mit unseren Geschäftspartnern und Mitarbeitern. Rund 100 erfahrene Immobilien-Spezialisten in den Bereichen Asset- und Portfolio Management, Investment, Vermietung, Finanzierung / Beteiligungsmanagement, Controlling und Recht betreuen die Immobilien und Fonds gemeinsam, effizient und ganzheitlich. Aktuell verantworten wir ein Immobilienvermögen von über sechs Milliarden Euro.
- Konzeption, Entwicklung und Optimierung von ETL-/ELT-Prozessen zur Datenintegration in die Data Warehouse-Umgebung MS Fabric
- Enge Zusammenarbeit mit den Softwareanbietern unserer proprietären Software-Systeme für den Aufbau der Datenpipelines
- Aufbau und Pflege von Datenpipelines in der Microsoft Fabric-Umgebung
- Sicherstellung der Datenqualität und -konsistenz durch Implementierung von Validierungs- und Monitoring-Prozessen
- Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern, um datengetriebene Lösungen zu ermöglichen
- Design und Implementierung von Datenmodellen für Reporting- und Analysezwecke, insbesondere Power BI
- Performance-Tuning und Optimierung von Datenbank- und Data Warehouse-Abfragen
- Dokumentation von Prozessen, Systemen und Datenarchitekturen.
- Mitwirkung bei der Entwicklung von Sicherheitskonzepten: Datenzugriff, Berechtigung
- Verfolgung und Einordnung neuer Trends und Entwicklungen zu Business Intelligence, Cloud-Computing, Data Analytics und Machine Learning
- Abgeschlossenes Fach-/ Hochschulstudium - bevorzugt in (Wirtschafts-) Informatik, Mathematik oder vergleichbare Ausbildung
- Mindestens 3-5 Jahre Erfahrung in einem ähnlichen Job
- Erfahrung mit dem Azure Analytics Stack (Azure Synapse, Azure Data Factory, Azure Data Lake Storage, …) oder Microsoft Fabric
- Kenntnisse in der Umsetzung von Data- und Analytics-Lösungen
- Vertrautheit mit ETL-/ELT-Werkzeugen und -Methoden
- Verständnis von Datenmodellierungstechniken (z.B. DataVault, Star- oder Snowflake-Schema)
- Gute Programmierkenntnisse (SQL / T-SQL, Python, PySpark, R, KQL) sowie Erfahrungen mit Tools zur Visualisierung von Daten wie z.B. Power BI, Qlik Sense, Tableau
- Erfahrung mit Infrastructure-as-Code (IaC) wie bspw. Terraform
- Ausgeprägte Kompetenz in der Analyse von Daten und der Entwicklung von neuen Use Cases
- Verständnis für die Bedürfnisse und Anforderungen der relevanten Fachbereiche
- Know-how im Einsatz von agilen Arbeitsmethoden
- Neugier auf neue Technologien
- Wille, stetig zu lernen und zu optimieren
- Langfristiger und sicherer Arbeitsplatz
- Toller Teamgeist und gute Zusammenarbeit
- Flexible Arbeitszeitmodelle
- Jobrad-Leasing
- Zuschüsse für öffentliche Verkehrsmittel
- Vergünstigungen im Fitness- und Freizeitbereich
- Kostenlose betriebliche Krankenzusatzversicherung
- Marktgerechtes Vergütungspaket