remote-job.net Job-Zusammenfassung:
💶 Gehalt: | keine Angabe |
⏰ Wöchentliche Arbeitszeit: | Vollzeit |
🔍 Empfohlene Erfahrung: | Senior |
🎓 Empfohlene Ausbildung: | nicht passend |
📋 Hauptaufgaben: |
|
✅ Hauptvoraussetzungen: |
|
🏭 Branche: | Healthcare |
Über das Unternehmen
Über Fullscript:
Bei Fullscript verändern wir nicht nur das Gesundheitswesen – wir machen es ganzheitlich.
Wir helfen über 100.000 Gesundheitspraktikern, 10 Millionen Patienten mit einer Plattform, die evidenzbasierte Gesundheitslösungen, diagnostische Unterstützung und Praktikertools – alles an einem Ort – bereitstellt.
Das Gesundheitswesen von heute ist disconnected. Wir beheben das. Fullscript erleichtert es Praktikern, den ganzen Menschen zu behandeln, nicht nur die Symptome, damit Patienten die Unterstützung erhalten, die sie brauchen – wann sie sie brauchen.
Wir bauen einen besseren Weg – einen, bei dem das Gesundheitswesen verbunden, vollständig und wirkungsvoll ist.
Aufgaben
- Arbeiten Sie funktionsübergreifend, um ein kommerzielles Data Warehouse zu warten, aufzubauen und bereitzustellen, das Reporting-, Analyse- und Self-Service-Bedürfnisse für wichtige Fullscript-Stakeholder erfüllt.
- Zusammenarbeit mit Ihrem Vorgesetzten und Team, um Initiativen in Bereichen wie Analytics, Commercial und RevOps zu verstehen und ihre Daten zu verbessern.
- Schreiben Sie Datenumwandlungscode in ELT-Pipelines, um diese Daten in unser Data Warehouse zu integrieren.
- Mentor und technische Anleitung für junior Mitglieder des Data Engineering-Teams geben.
- Mit anderen Data Engineers zusammenarbeiten, um Datenmodelle für nachgelagerte Nutzung zu erstellen und die notwendigen Tests zur Gewährleistung der Datenqualität zu schreiben.
- Fortgeschrittene Techniken der Datenverarbeitung anwenden, um die Leistung und Skalierbarkeit von Datenpipelines zu optimieren.
- AI und maschinelles Lernen nutzen, um Modelle zu erstellen, die auf Geschäftsanforderungen reagieren.
- Versionskontrolle, Tests und kontinuierliche Integration (CI) im Datenumwandlungscode anwenden.
- Daten-Dokumentation und -Definitionen erstellen und pflegen.
Voraussetzungen
- 5+ Jahre Erfahrung im Bereich Datenanalyse und/oder Data Engineering im Rahmen des ETL/ELT-Prozesses oder der Entwicklung von Dateninsights.
- Starke Kenntnisse in SQL und Erfahrung in der Verwendung von Python zur Datenumwandlung.
- Erfahrung im Umgang mit dbt (data build tool).
- Erfahrung mit Cloud-Datenlager wie Snowflake, BigQuery, Redshift und RDBMS (PostgreSQL, MySQL).
- Praktische Erfahrung in Datenmodellierung, Schema-Design und Optimierungstechniken.
- Nachweisliche Erfolge bei der Implementierung und Pflege von Datenumwandlungs-Pipelines mit Tools wie dbt, Argo, Airflow oder ähnlichen Workflow-Orchestrierungstools.
- Tiefes Verständnis der Best Practices im Bereich Data Engineering, einschließlich Versionskontrolle, Tests und CI/CD-Methoden.
- Fähigkeit, komplexe technische Konzepte effektiv an technische und nicht-technische Stakeholder zu kommunizieren.
- Streben nach kontinuierlichem Lernen mit einem ausgeprägten Interesse an neuen Technologien und Methoden im Bereich Data Engineering.
Benefits
- Generöse PTO und wettbewerbsfähige Vergütung.
- Fullscripts RRSP-Match-Programm für finanzielle Gesundheit.
- Flexibles Leistungspaket und Arbeitsplatz-Wellness-Programm.
- Schulungsbudget und unternehmensweite Lerninitiativen.
- Rabatt auf das Fullscript-Produktkatalog.
- Die Möglichkeit, wo auch immer Sie am besten arbeiten.