Data Engineer Specialist

HighLevel
Vollzeit
🗓

remote-job.net Job-Zusammenfassung:

💶 Gehalt: keine Angabe
⏰ Wöchentliche Arbeitszeit: Vollzeit
🔍 Empfohlene Erfahrung: Senior
🎓 Empfohlene Ausbildung: Bachelor- oder Masterabschluss in Informatik, Ingenieurwesen oder einem verwandten Bereich
📋 Hauptaufgaben:
  • Software Engineering Excellence
  • Design, Aufbau und Wartung von Systemen
  • Datenpipeline-Entwicklung
✅ Hauptvoraussetzungen:
  • 3+ Jahre Erfahrung in der Softwareentwicklung
  • Ausbildung: Bachelor- oder Masterabschluss in Informatik, Ingenieurwesen oder einem verwandten Bereich
  • Starke Problemlösungsfähigkeiten
🏭 Branche: SaaS

Über das Unternehmen

Über HighLevel:

HighLevel ist eine cloudbasierte, All-in-One White-Label-Marketing- und Vertriebsplattform, die Marketingagenturen, Unternehmern und Unternehmen hilft, ihre digitale Präsenz zu verbessern und Wachstum zu fördern. Mit dem Fokus auf die Optimierung von Marketinganstrengungen und umfassenden Lösungen unterstützt HighLevel Unternehmen jeder Größe dabei, ihre Marketingziele zu erreichen. Derzeit beschäftigen wir etwa 1200 Mitarbeiter in 15 Ländern, die sowohl remote als auch in unserem Hauptsitz in Dallas, Texas, arbeiten. Unser Ziel als Arbeitgeber ist es, eine starke Unternehmenskultur aufrechtzuerhalten, Kreativität und Zusammenarbeit zu fördern sowie ein gesundes Gleichgewicht zwischen Arbeit und Privatleben für unsere Mitarbeiter zu ermöglichen, wo auch immer sie leben.

Aufgaben

  • Software Engineering Excellence: Schreiben von sauberem, effizientem und wartbarem Code in JavaScript oder Python unter Einhaltung von Best Practices und Designmustern
  • Design, Aufbau und Wartung von Systemen: Entwickeln robuster Softwarelösungen und Implementierung von RESTful APIs, die hohe Datenvolumina in Echtzeit verarbeiten, unter Nutzung von Nachrichtenwarteschlangen (Google Cloud Pub/Sub, Kafka, RabbitMQ) und ereignisgesteuerten Architekturen
  • Datenpipeline-Entwicklung: Entwerfen, Entwickeln und Warten von Datenpipelines (ETL/ELT) zur Verarbeitung strukturierter und unstrukturierter Daten aus verschiedenen Quellen
  • Datenlagerung & -verwaltung: Aufbau und Optimierung von Datenbanken, Datenseen und Data Warehouses (z.B. Snowflake) für leistungsstarkes Abfragen
  • Datenintegration: Arbeiten mit APIs, Batch- und Streaming-Datenquellen zur Aufnahme und Transformation von Daten
  • Leistungsoptimierung: Optimierung von Abfragen, Indizierung und Partitionierung für effizienten Datenabruf
  • Zusammenarbeit: Zusammenarbeit mit Datenanalysten, Datenwissenschaftlern, Softwareentwicklern und Produktteams zur Erfassung von Anforderungen und Bereitstellung skalierbarer Lösungen
  • Überwachung & Debugging: Einrichten von Protokollierung, Überwachung und Alarmierung, um die zuverlässige Ausführung von Datenpipelines sicherzustellen
  • Eigenverantwortung & Problemlösung: Proaktive Identifizierung von Problemen oder Engpässen und Vorschlag innovativer Lösungen zur Behebung

Voraussetzungen

  • 3+ Jahre Erfahrung in der Softwareentwicklung
  • Ausbildung: Bachelor- oder Masterabschluss in Informatik, Ingenieurwesen oder einem verwandten Bereich
  • Starke Problemlösungsfähigkeiten: Fähigkeit zur Fehlersuche und Optimierung von Datenverarbeitungsworkflows
  • Programmiergrundlagen: Solides Verständnis von Datenstrukturen, Algorithmen und Software-Designmustern
  • Erfahrung in der Softwareentwicklung: Nachgewiesene Erfahrung (SDE II/III-Niveau) in der Gestaltung, Entwicklung und Bereitstellung von Softwarelösungen mit modernen Sprachen und Frameworks (Node.js, JavaScript, Python, TypeScript, SQL, Scala oder Java)
  • ETL-Tools & Frameworks: Erfahrung mit Airflow, dbt, Apache Spark, Kafka, Flink oder ähnlichen Technologien
  • Cloud-Plattformen: Praktische Erfahrung mit GCP (Pub/Sub, Dataflow, Cloud Storage) oder AWS (S3, Glue, Redshift)
  • Datenbanken & Lagerung: Starke Erfahrung mit PostgreSQL, MySQL, Snowflake und NoSQL-Datenbanken (MongoDB, Firestore, ES)
  • Versionskontrolle & CI/CD: Vertrautheit mit Git, Jenkins, Docker, Kubernetes und CI/CD-Pipelines für die Bereitstellung
  • Kommunikation: Ausgezeichnete mündliche und schriftliche Kommunikationsfähigkeiten mit der Fähigkeit, effektiv in einem kollaborativen Umfeld zu arbeiten
  • Erfahrung mit Datenvisualisierungstools (z.B. Superset, Tableau), Terraform, IaC, ML/AI-Datenpipelines und DevOps-Praktiken sind von Vorteil

Um dich für diesen Job zu bewerben, besuche bitte remoteOK.com.