7 días
Expira 27/03/2026
Data Engineer
Data Engineer
En Nisum serás parte de una cultura inclusiva y multicultural donde invertimos en tu desarrollo técnico con certificaciones constantes, valoramos tu conocimiento en tech talks y cuidamos tu bienestar con beneficios integrales que marcan la diferencia. Únete a nosotros y potencia tu talento mientras transformas organizaciones y comunidades.
Buscamos un Data Engineer con sólida experiencia en diseño e implementación de arquitecturas de datos en Google Cloud Platform (GCP) , capaz de construir pipelines end-to-end escalables y resilientes en entornos de alto volumen.
El perfil ideal cuenta con experiencia avanzada en ingeniería de datos, automatización, CI/CD y ecosistemas Big Data, combinando excelencia técnica con foco en calidad, gobernanza y optimización continua.
¿Qué desafíos te esperan como Data Engineer?
- Diseñar e implementar procesos de ingestión, transformación y exposición de datos utilizando BigQuery, Dataflow, Pub/Sub, Cloud Run y Cloud Functions.
- Construir pipelines batch y streaming robustos siguiendo buenas prácticas de ingeniería.
- Administrar, optimizar y monitorear flujos de datos en Airflow/Composer y Control-M.
- Desarrollar soluciones utilizando Python, SQL, Spark/Scala y frameworks Big Data.
- Crear integraciones CI/CD utilizando Jenkins, Bamboo y Git.
- Implementar modelos de datos, linaje y estándares de gobernanza.
- Construir reportes e insights utilizando Power BI y/o Looker.
- Participar activamente en ceremonias ágiles y colaborar en la planificación técnica.
- Proponer mejoras, refactorizaciones y optimizaciones de pipelines existentes.
- Asegurar la calidad, documentación y mantenibilidad del código y procesos.
- 5+ años de experiencia relevante.
- Dominio de arquitecturas y diseño de pipelines en GCP.
- Experiencia en diseño e implementación end-to-end de data pipelines escalables y resilientes.
- Expertise en:
- BigQuery (modelamiento, particionamiento, clustering, optimización de costos).
- Cloud Storage (estructuras de zonificación: raw/processed/curated).
- Dataflow / Apache Beam (pipelines batch y streaming, patrones avanzados).
- Pub/Sub (arquitecturas event-driven, QoS, DLQs).
- Cloud Run (microservicios serverless).
- Cloud Functions (orquestación y automatización).
- Composer / Airflow (diseño de DAGs complejos).
- Python avanzado (ETL, frameworks, estándares de calidad, testing).
- Spark / Scala (creación y optimización de jobs).
- SQL avanzado (ventanas, funciones complejas, tuning).
- CI/CD avanzado (Jenkins, Bamboo, GitOps).
- Diseño y automatización de flujos en Control-M.
- Shell scripting.
- Experiencia en HDFS, Hive, Datastage.
- Conocimiento en gobernanza, versionamiento y linaje de datos.
- Power BI (modelos semánticos).
- Looker (LookML, modelamiento dimensional).
- Capacidad para diseñar arquitecturas de datos escalables y resilientes en GCP.
- Criterio técnico para seleccionar patrones adecuados (batch, streaming, event-driven).
- Foco en eficiencia, optimización de costos y performance.
- Rigurosidad en gobernanza, versionamiento y linaje de datos.
- Proactividad en mejora continua y refactorización de pipelines.
- Trabajo colaborativo con equipos de analítica, BI y negocio.
- Pertenecer a una empresa internacional y multicultural que apoya la diversidad.
- Formar parte de proyectos internacionales con presencia en Norteamérica, Pakistán, India y Latam.
- Entorno de trabajo con amplia experiencia en trabajo remoto y distribuido, usando metodologías ágiles.
- Cultura de constante aprendizaje y desarrollo en tecnologías actuales.
- Ambiente agradable y colaborativo, con foco en el trabajo en equipo.
- Acceso a plataformas de aprendizaje, certificaciones Google Cloud, Databricks, Tech Talks, etc.
- Formar parte de diversas iniciativas y participación continua en actividades internas y externas de innovación, hackathon, tecnología, agilidad, charlas, webinars, bienestar y cultura con posibilidades no solo de participar sino de ser expositor.
- Además, al residir en Chile, Perú o Colombia podrás acceder a los beneficios correspondientes a nuestros centros.