Tech Lead – Data Engineering (m/w/d) Azure und Databricks

SkelTech GmbH

  • Frechen
  • Veröffentlicht am: 21. Februar 2025
Jobbeschreibung

Die SkelTech GmbH, ein spezialisierter IT-Dienstleister mit Sitz in Frechen bei Köln, hat sich auf Software-Entwicklung, Data Engineering, UX/UI und Managed Services spezialisiert. Mit einem Fokus auf KI-Anwendungen und Datenarchitektur bietet SkelTech maßgeschneiderte Lösungen für digitale Projekte und arbeitet eng mit Kunden zusammen, um individuelle Systemarchitekturen höchster Qualität zu entwickeln. Von innovativen Webplattformen bis zur Digitalisierung von Vertragswesen kombiniert SkelTech kreatives Design mit datengetriebener UX-Entwicklung und legt großen Wert auf Benutzerakzeptanz.

Die SkelTech GmbH sucht einen engagierten Tech Lead - Data Engineering (m/w/d) mit Erfahrung in Azure und Databricks. Wenn du Teil eines kreativen Teams von Experten werden möchtest, um innovative Projekte für Start-ups, mittelständische Unternehmen und Großkonzerne umzusetzen, dann bewirb dich jetzt bei uns.


  • Du konzipierst und implementierst End-to-End-Lösungen auf Basis von Databricks in Kombination mit einem der führenden Hyperscaler (Azure, AWS, GCP) und entwickelst Best Practices sowie Standards für unsere Kunden.
  • Du führst ein Team aus Data Engineers, förderst deren Weiterentwicklung und agierst als Mentor, um Exzellenz im Data Engineering zu etablieren.
  • Du spielst eine zentrale Rolle neben der Geschäftsführung, mit der Möglichkeit, Personen zu entwickeln, Geschäftsfelder zu erweitern und Kundenbeziehungen aufzubauen. Dein Einfluss reicht über das Tagesgeschäft hinaus – du prägst aktiv unsere strategische Ausrichtung.
  • Du übernimmst eine zentrale Rolle in unserer internen Produktentwicklung mit Schwerpunkt Data Ingestion und Data Preparation und treibst Innovationen in diesem Bereich voran.

  • Analytisches Denkvermögen & technologische Neugier: Du hast ein abgeschlossenes Studium im MINT-Bereich oder in Wirtschaftsinformatik – oder eine vergleichbare Qualifikation. Neue Technologien und Geschäftsmodelle erschließt du dir schnell und mit Begeisterung.
  • Erfahrung: Du bringst mindestens fünf Jahre Berufserfahrung mit, insbesondere im Bereich Data Engineering
  • Expertise in Data Engineering & Architektur: Du hast bereits End-to-End-Lösungen konzipiert und umgesetzt, idealerweise mit Databricks und mindestens einem Hyperscaler (Azure, AWS oder GCP). Data Lakehouse-Architekturen, ETL/ELT-Pipelines, Streaming-Technologien und verteiltes Rechnen sind für dich vertraute Konzepte.
  • Effiziente technische Umsetzung: Die Anbindung von Quellsystemen, die Gestaltung einer Medallion-Architektur oder die Versorgung unterschiedlicher Nutzergruppen meisterst du mit Leichtigkeit. Dein Code ist nicht nur funktional, sondern auch nachhaltig und wartbar.
  • Programmier- & Datenverarbeitungsexpertise: Du verfügst über fundierte Kenntnisse in Python, SQL und gängigen Frameworks für Data Pipelines (Apache Spark, Delta Lake, dbt) und entwickelst robuste, skalierbare Lösungen.
  • DevOps & Automatisierung: Infrastructure as Code (z. B. Terraform) sowie die Implementierung von CI/CD-Pipelines für Data Workloads sind für dich eine Selbstverständlichkeit, um effiziente und nachhaltige Prozesse sicherzustellen. Außerdem Unterstützt du die Kollegen bei DataOps Themen.
  • Produktentwicklung & Innovation: Du entwickelst skalierbare Data Engineering Lösungen und setzt Standards für Data Ingestion und Pipeline-Automatisierung. Stetige Optimierung und Automatisierung sind für dich selbstverständlich.
  • Kommunikationsstärke & Teamgeist: Du vermittelst komplexe Sachverhalte verständlich und überzeugend – sowohl für technische als auch nicht-technische Stakeholder. Dein sicheres Auftreten ermöglicht es dir, Kunden und Teams zu gewinnen. Zusammenarbeit und Wissenstransfer sind für dich essenziell.
  • Lernbereitschaft & Weiterentwicklung: Du bildest dich kontinuierlich weiter – sei es durch Zertifizierungen, den Austausch mit Experten oder eigene Projekte. Deine Begeisterung für Technologie zeigt sich in deinem Drang, neue Frameworks oder Tools auszuprobieren und dein Wissen stetig zu erweitern.
  • Effektives Zeitmanagement: Du weißt, wann fokussierte Arbeit ausreicht und wann es sich lohnt, mehr zu investieren, um ein Projekt erfolgreich abzuschließen. Dein vorausschauendes Planen ermöglicht dir einen effizienten Umgang mit deiner Zeit.

  • Team & Unternehmenskultur: Kleines, engagiertes Team mit flachen Hierarchien & Regelmäßige Team-Events, Betriebsausflüge (auch mit Familie/Partnern) und gemeinsame Aktionen
  • Modernes Arbeitsumfeld & Flexibilität: Modern ausgestattetes Office und individuelles Wunsch-Setup & Kostenloses Job-Ticket und flexible Hybrid-Work-Optionen
  • Fachliche Spezialisierung & Weiterentwicklung: Arbeiten an spannenden Projekten im Bereich Data Ingestion & Data Preparation & Gezielte Zertifizierungen und Weiterbildungsmöglichkeiten
  • Netzwerken & Fachveranstaltungen: Teilnahme an Meetups und Messen zur Erweiterung deines beruflichen Netzwerks
  • Karriere & Vergütung: Möglichkeit, aktiv die Unternehmenszukunft mitzugestalten & Attraktives Festgehalt plus leistungsbezogene Gehalts-Upgrades (bis zu 200 %)
  • Starke Partnerschaften & Innovation: Zusammenarbeit mit führenden Technologiepartnern wie Databricks, Microsoft und dataiku
  • Sozialleistungen & Zukunftssicherung: Betriebliche Altersvorsorge und Urban Sports Club-Mitgliedschaft zur Förderung deiner Gesundheit
Mehr