ENTELGY-Data Engineer AWS Junior

Publicado el 30 de Mar, 2026

Detalles

Tipo de oferta Empleo
Ubicación Presencial; Lima, Lima, Perú
Área de trabajo Jóvenes Profesionales
Tipo de cargo Jóvenes Profesionales
Jornada Completa
Contrato Plazo fijo

Requisitos

Experiencia: Junior (de 2 a 5 años de experiencia)
Carrera(s): Ciencia de la Computación

Descripción del puesto

DÉJANOS CONTARTE LO QUE NOS HACE GENUINE

Buscamos profesionales que quieran reinventarse cada día, que enfrentarse a los retos vaya en su ADN y que sientan pasión por trabajar con la tecnología. Esto nos hace únicos, diferentes y auténticos.

¿QUÉ ESTAMOS BUSCANDO?
Buscamos profesionales Data Engineers Junior con foco en la nube AWS para participar en proyectos Big Data con un cliente del sector bancario. El rol abarca desde la análisis, ingesta y procesamiento de datos hasta su puesta en producción, con el objetivo de convertir grandes volúmenes de información en activos para la toma de decisiones.

Funciones:
-Diseño, construcción y mantenimiento de pipelines de datos utilizando servicios de AWS (Glue, Lambda, S3, etc.).
-Implementación de procesos ETL escalables para ingesta, transformación y carga de datos, preferentemente con PySpark o Scala.
-Procesamiento de grandes volúmenes de datos y monitoreo de flujos mediante herramientas como CloudWatch y otras soluciones de observabilidad.
-Participación en el desarrollo y despliegue de modelos de machine learning utilizando SageMaker Feature Store y Endpoints.
-Creación de visualizaciones y reportes en QuickSight para facilitar el análisis de datos por usuarios de negocio.
-Colaboración con equipos multidisciplinarios para asegurar la calidad, seguridad y gobernanza de los datos, documentando soluciones y buenas prácticas.

Requisitos:.
-Formación académica: Egresado, Bachiller o Titulado en Ciencia de la Computación
-Experiencia profesional: Mínimo 1 años como Analista de Datos, Data Engineer o roles similares, preferentemente en el sector bancario.
-Certificaciones: AWS Cloud Practitioner (Deseable) y Power BI (Valorable)
-Lenguajes de programación: Dominio de uno o más: Java, Python, Scala o R.
-Experiencia en procesamiento de datos con PySpark y/o Scala.
-Tecnologías de datos: Conocimientos sólidos en Hadoop, Apache Spark y buenas prácticas en diseño de pipelines escalables, manejo eficiente de datos y control de calidad.
-Herramientas CI/CD: Experiencia con Bitbucket-GIT, Jenkins y Jira.
-Familiaridad con metodologías ágiles como Scrum y Kanban.
-Experiencia en AWS: S3, Glue (ETL, catálogos, crawlers), EMR (Spark/Hive), CloudWatch (logs, alertas), Aurora DB (PostgreSQL), SageMaker (Feature Store, Endpoints), MLflow, QuickSight (deseable)
-Habilidades colaborativas: Capacidad para trabajar en equipos multidisciplinarios, documentar procesos y asegurar la calidad, seguridad y gobernanza de los datos.



POSTULA EN EL ENLACE UBICADO EN LAS PREGUNTAS, completa también tu postulación en Conecto

Postular

Ingrese o cree su cuenta en Conecto para postular

Iniciar sesión