remote-job.net Job-Zusammenfassung:
| 💶 Gehalt: | 83.700-111.600 |
| ⏰ Wöchentliche Arbeitszeit: | Vollzeit |
| 🔍 Empfohlene Erfahrung: | Senior |
| 🎓 Empfohlene Ausbildung: | Bachelor in Informatik, Information Systems, Data Science oder vergleichbar (Master bevorzugt) |
| 📋 Hauptaufgaben: |
|
| ✅ Hauptvoraussetzungen: |
|
| 🏭 Branche: | Healthcare |
Über das Unternehmen
Public Partnerships LLC (PPL) unterstützt Menschen mit Behinderungen, chronischen Erkrankungen und ältere Erwachsene dabei, in ihren Wohnungen und Gemeinschaften zu bleiben und ihre Langzeitpflege selbst zu steuern.
Als der landesweit größte und erfahrenste Anbieter von Financial Management Services assistiert PPL berechtigten Medicaid-Empfängern dabei, eigene Betreuer auszuwählen und zu bezahlen sowie staatlich genehmigte personalisierte Budgets zu verwalten. Das Unternehmen arbeitet im Auftrag von Bundesstaaten und Managed-Care-Organisationen, um die effiziente Nutzung öffentlich finanzierter Leistungen sicherzustellen.
PPL setzt auf eine ergebnisorientierte, kundenfokussierte Kultur in einem schnelllebigen, unternehmerischen Umfeld und betont Vielfalt, Gleichberechtigung und Inklusion.
Aufgaben
- Entwurf und Verwaltung skalierbarer Daten-Ingestion-Pipelines mit Azure Data Factory und Azure Service Bus für Batch- und Near-Real-Time-Verarbeitung
- Implementierung von Bronze/Silver/Gold-Transformationen in einer Lakehouse-Architektur mit Databricks (PySpark, SparkSQL)
- Integration strukturierter, semi-strukturierter und unstrukturierter Daten (Parquet, Avro, JSON) in ADLS Gen2
- Aufbau von Data-Quality-Frameworks und Validierungsprozessen mit Databricks und ADF
- Konfiguration von RBAC- und ACL-basierten Zugriffskontrollen sowie Verwaltung von Geheimnissen mit Azure Key Vault
- Automatisierung der Pipeline-Orchestrierung via Databricks Workflows und CI/CD (Azure DevOps, GitHub Actions, Terraform)
- Monitoring von Pipeline-Health und Leistung mit Azure Monitor, Logging und Alerting zur Einhaltung von SLAs
- Optimierung von ADLS-Speicherleistung und Cloud-Kosten mittels Azure Cost Management
- Sonstige zugewiesene Aufgaben zur Unterstützung der Datenplattform
Voraussetzungen
- Praktische Erfahrung mit Azure Data Factory, Azure Databricks (PySpark, SparkSQL) und ADLS Gen2
- Kenntnisse in Datenintegration (Parquet, Avro, JSON) sowie Umgang mit SQL Server, PostgreSQL und Cosmos DB
- Erfahrung in Data Governance, RBAC/ACL, Sicherheitskonfigurationen und Azure Key Vault
- Vertrautheit mit CI/CD-Tools (Azure DevOps, GitHub Actions) und Infrastruktur als Code (Terraform)
- Monitoring- und Alerting-Erfahrung mit Azure Monitor und Logging-Tools
- Fähigkeit, ML/AI-Techniken für Datenanalysen und Feature Engineering anzuwenden
- Mindestens 4–5 Jahre relevante Berufserfahrung; substanzielle Erfahrung kann ein formales Studium ersetzen
Benefits
- Remote-Arbeitsmöglichkeit
- Arbeiten in einem sinnstiftenden, gesellschaftsrelevanten Umfeld (Unterstützung von Menschen mit Pflegebedarf)
- Kultur mit Fokus auf Vielfalt, Inklusion und beruflicher Weiterentwicklung
Source ⇲
We Work Remotely: Copywriting Jobs