Descripción del puesto
DÉJANOS CONTARTE LO QUE NOS HACE GENUINE
Buscamos profesionales que quieran reinventarse cada día, que enfrentarse a los retos vaya en su ADN y que sientan pasión por trabajar con la tecnología. Esto nos hace únicos, diferentes y auténticos.
¿QUÉ ESTAMOS BUSCANDO?
Buscamos profesionales Data Engineers Junior con foco en la nube AWS para participar en proyectos Big Data con un cliente del sector bancario. El rol abarca desde la análisis, ingesta y procesamiento de datos hasta su puesta en producción, con el objetivo de convertir grandes volúmenes de información en activos para la toma de decisiones.
Funciones:
-Diseño, construcción y mantenimiento de pipelines de datos utilizando servicios de AWS (Glue, Lambda, S3, etc.).
-Implementación de procesos ETL escalables para ingesta, transformación y carga de datos, preferentemente con PySpark o Scala.
-Procesamiento de grandes volúmenes de datos y monitoreo de flujos mediante herramientas como CloudWatch y otras soluciones de observabilidad.
-Participación en el desarrollo y despliegue de modelos de machine learning utilizando SageMaker Feature Store y Endpoints.
-Creación de visualizaciones y reportes en QuickSight para facilitar el análisis de datos por usuarios de negocio.
-Colaboración con equipos multidisciplinarios para asegurar la calidad, seguridad y gobernanza de los datos, documentando soluciones y buenas prácticas.
Requisitos:.
-Formación académica: Egresado, Bachiller o Titulado en Ciencia de la Computación
-Experiencia profesional: Mínimo 1 años como Analista de Datos, Data Engineer o roles similares, preferentemente en el sector bancario.
-Certificaciones: AWS Cloud Practitioner (Deseable) y Power BI (Valorable)
-Lenguajes de programación: Dominio de uno o más: Java, Python, Scala o R.
-Experiencia en procesamiento de datos con PySpark y/o Scala.
-Tecnologías de datos: Conocimientos sólidos en Hadoop, Apache Spark y buenas prácticas en diseño de pipelines escalables, manejo eficiente de datos y control de calidad.
-Herramientas CI/CD: Experiencia con Bitbucket-GIT, Jenkins y Jira.
-Familiaridad con metodologías ágiles como Scrum y Kanban.
-Experiencia en AWS: S3, Glue (ETL, catálogos, crawlers), EMR (Spark/Hive), CloudWatch (logs, alertas), Aurora DB (PostgreSQL), SageMaker (Feature Store, Endpoints), MLflow, QuickSight (deseable)
-Habilidades colaborativas: Capacidad para trabajar en equipos multidisciplinarios, documentar procesos y asegurar la calidad, seguridad y gobernanza de los datos.
POSTULA EN EL ENLACE UBICADO EN LAS PREGUNTAS, completa también tu postulación en Conecto