Consultant Data Engineering / Data Architect (m/w/d)

Jobbeschreibung
Bei CANCOM erwartet dich ein innovatives, agiles und nachhaltiges Umfeld: Mehr als 5.600 Mitarbeiter arbeiten tagtäglich daran, mit Hilfe moderner IT-Lösungen die Zusammenarbeit und den Austausch in verschiedenen Lebensbereichen zu verbessern. Du hast Lust ein Teil davon zu sein und den nächsten Karriereschritt zu gehen? Dann werde Teil unserer Digital Journey. Wir freuen uns auf Menschen aus den unterschiedlichsten Fachrichtungen, die aufgeschlossen für Neues sind, innovative Einfälle haben und im Team gemeinsam Ziele voranbringen wollen.
  • Datenintegration & -bereitstellung: Aufbau und Pflege von skalierbaren ETL-Pipelines, um strukturierte und unstrukturierte Daten aus verschiedenen Quellen zu integrieren und für AI-Modelle bereitzustellen
  • Datenarchitektur & -management: Design und Implementierung von Datenbanken, Data Lakes und Data Warehouses (Azure)
  • Datenmodellierung: Entwicklung und Optimierung von Datenmodellen zur Unterstützung von ML- und AI-Anwendungen
  • Big Data & Streaming: Implementierung von Big Data- und Echtzeit-Datenlösungen (z.B. Apache Spark, Kafka), um hochvolumige Datenströme effizient zu verarbeiten
  • Datenqualität & -sicherheit: Sicherstellung der Datenqualität, Governance und Compliance (z.B. DSGVO), sowie Implementierung von Monitoring- und Sicherheitsmaßnahmen
  • Kollaboration & Beratung: Enge Zusammenarbeit mit AI Engineers, Data Scientists und Kunden, um Datenanforderungen zu verstehen und optimale Lösungen zu entwickeln

  • Abgeschlossenes Studium in Informatik, Data Engineering, Wirtschaftsinformatik oder einem vergleichbaren technischen Fachbereich
  • Mehrjährige Erfahrung (mind. 3 Jahre) in der Entwicklung von ETL-Prozessen, Datenintegration und Datenmanagement idealerweise in einer AI-nahen Umgebung.
  • Fundierte Kenntnisse in SQL, Python und Datenbanktechnologien (z.B. PostgreSQL, MongoDB, Snowflake)
  • Erfahrung mit Cloud-Plattformen (Azure) und Data Engineering Tools (z.B. Apache Airflow, dbt).
  • Kenntnisse in Big Data-Technologien wie Apache Spark, Hadoop oder Kafka sind von Vorteil
  • Starke analytische Fähigkeiten und Erfahrung in der Arbeit mit großen Datenmengen
  • Erfahrung im Bereich Datenmodellierung sowie Data Warehousing und BI-Tools (z.B. Power BI, Tableau)
  • Kommunikationsstärke und die Fähigkeit, komplexe Datenkonzepte verständlich zu vermitteln
  • Deutsch und Englisch fließend in Wort und Schrift

  • Flexible Arbeitszeiten und Mobile Office in Abstimmung mit dem Vorgesetzten
  • Rabatte dank dem Portal „Corporate Benefits“
  • Bike-Leasing
  • Kostenlose Getränke & Obst
  • Weiterbildungsmöglichkeiten
  • Mitarbeiterevents
Mehr