Data Architect

HighLevel
Vollzeit
📍 Delhi
🗓

remote-job.net Job-Zusammenfassung:
💶 Gehalt: keine Angabe
⏰ Wöchentliche Arbeitszeit: Vollzeit
🔍 Empfohlene Erfahrung: Senior
🎓 Empfohlene Ausbildung: Bachelor oder Master in Informatik
📋 Hauptaufgaben:
  • Software Engineering Excellence
  • Design, Aufbau und Wartung von Systemen
  • Datenpipeline-Entwicklung
✅ Hauptvoraussetzungen:
  • 3+ Jahre Erfahrung in der Softwareentwicklung
  • Bachelor- oder Masterabschluss in Informatik
  • Starke Problemlösungsfähigkeiten
🏭 Branche: keine Angabe

Über das Unternehmen

Über HighLevel:

HighLevel ist eine cloudbasierte, umfassende White-Label-Marketing- und Vertriebsplattform, die Marketingagenturen, Unternehmern und Unternehmen hilft, ihre digitale Präsenz zu verbessern und Wachstum zu fördern. Mit einem Fokus auf die Optimierung von Marketingmaßnahmen und der Bereitstellung umfassender Lösungen unterstützt HighLevel Unternehmen jeder Größe dabei, ihre Marketingziele zu erreichen. Derzeit beschäftigen wir etwa 1200 Mitarbeiter in 15 Ländern, sowohl remote als auch in unserem Hauptsitz in Dallas, Texas. Unser Ziel als Arbeitgeber ist es, eine starke Unternehmenskultur aufrechtzuerhalten, Kreativität und Zusammenarbeit zu fördern und unseren Mitarbeitern ein gesundes Gleichgewicht zwischen Arbeit und Privatleben zu ermöglichen, egal wo sie leben.


Aufgaben
  • Software Engineering Excellence: Schreiben von sauberem, effizientem und wartbarem Code unter Verwendung von JavaScript oder Python unter Einhaltung von Best Practices und Entwurfsmustern.
  • Design, Aufbau und Wartung von Systemen: Entwicklung robuster Softwarelösungen und Implementierung von RESTful APIs, die hohe Datenvolumina in Echtzeit verarbeiten, unter Verwendung von Nachrichtenwarteschlangen (Google Cloud Pub/Sub, Kafka, RabbitMQ) und ereignisgesteuerten Architekturen.
  • Datenpipeline-Entwicklung: Entwurf, Entwicklung und Wartung von Datenpipelines (ETL/ELT) zur Verarbeitung strukturierter und unstrukturierter Daten aus verschiedenen Quellen.
  • Datenlagerung & Warehousing: Aufbau und Optimierung von Datenbanken, Data Lakes und Data Warehouses (z.B. Snowflake) für eine leistungsstarke Abfrage.
  • Datenintegration: Arbeiten mit APIs, Batch- und Streaming-Datenquellen zur Aufnahme und Transformation von Daten.
  • Leistungsoptimierung: Optimierung von Abfragen, Indizierung und Partitionierung für eine effiziente Datenabfrage.
  • Zusammenarbeit: Zusammenarbeit mit Datenanalysten, Datenwissenschaftlern, Softwareentwicklern und Produktteams zur Verständnis der Anforderungen und Bereitstellung skalierbarer Lösungen.
  • Überwachung & Debugging: Einrichtung von Protokollierung, Überwachung und Alarmierung, um sicherzustellen, dass Datenpipelines zuverlässig laufen.
  • Eigenverantwortung & Problemlösung: Proaktive Identifizierung von Problemen oder Engpässen und Vorschlag innovativer Lösungen zur Behebung dieser.

Voraussetzungen
  • 3+ Jahre Erfahrung in der Softwareentwicklung.
  • Bildung: Bachelor- oder Masterabschluss in Informatik, Ingenieurwesen oder einem verwandten Bereich.
  • Starke Problemlösungsfähigkeiten: Fähigkeit, Datenverarbeitungs-Workflows zu debuggen und zu optimieren.
  • Programmierungsgrundlagen: Solides Verständnis von Datenstrukturen, Algorithmen und Software-Entwurfsmustern.
  • Erfahrung in der Softwareentwicklung: Nachgewiesene Erfahrung (SDE II/III-Niveau) in der Gestaltung, Entwicklung und Bereitstellung von Softwarelösungen mit modernen Programmiersprachen und Frameworks (Node.js, JavaScript, Python, TypeScript, SQL, Scala oder Java).
  • ETL-Tools & Frameworks: Erfahrung mit Airflow, dbt, Apache Spark, Kafka, Flink oder ähnlichen Technologien.
  • Cloud-Plattformen: Praktische Erfahrung mit GCP (Pub/Sub, Dataflow, Cloud Storage) oder AWS (S3, Glue, Redshift).
  • Datenbanken & Warehousing: Starke Erfahrung mit PostgreSQL, MySQL, Snowflake und NoSQL-Datenbanken (MongoDB, Firestore, ES).
  • Versionskontrolle & CI/CD: Vertrautheit mit Git, Jenkins, Docker, Kubernetes und CI/CD-Pipelines für die Bereitstellung.
  • Kommunikation: Ausgezeichnete mündliche und schriftliche Kommunikationsfähigkeiten, mit der Fähigkeit, effektiv in einer kollaborativen Umgebung zu arbeiten.
  • Erfahrung mit Datenvisualisierungstools (z.B. Superset, Tableau), Terraform, IaC, ML/AI-Datenpipelines und DevOps-Praktiken sind von Vorteil.