Data Engineer con AWS
NTT America, Inc.
💙 Con +190.000 Digital Lovers en 50 países, ayudamos a alcanzar el éxito transformando el futuro de la tecnología. Desde consultoría estratégica hasta tecnologías de vanguardia, superamos los 50 años ofreciendo experiencias que transforman organizaciones, revolucionan industrias y dan forma a una sociedad mejor para todas las personas.
La diversidad de nuestro equipo de profesionales nos permite aprovechar las fortalezas, habilidades y perspectivas de personas de variadas culturas, orígenes y trayectorias, brindando soluciones eficientes y efectivas.
Te invitamos a sumarte a una compañía reconocida por su ADN innovador 🚀, que marca la diferencia para nuestros clientes y para la sociedad. Una cultura certificada como GLOBAL TOP EMPLOYER 🏆, donde podés crecer y evolucionar siendo vos mismo.
Conoce más sobre NTT DATA y sumate al equipo de #NTTDATADigitalLovers 👉 nttdata.com.ar (https://ar.nttdata.com/)
En ** NTT DATA** nos encontramos en la búsqueda de un/a **Data Engineer con AWS** para sumarse a nuestro equipo!!
**¿Cuáles serán tus responsabilidades?**
+ Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando servicios de AWS como AWS Glue, EMR, Lambdas, Step Functions, APIs.
+ Implementar procesos de ETL y ELT para integrar datos de diversas fuentes así como el orquestamiento de los mismos en tiempo real y/o batch.
+ Seleccionar y administrar soluciones de almacenamiento de datos en AWS como AWS Redshift, AWS S3, etc.
+ Implementar prácticas de seguridad y cumplimiento en el manejo y transferencia de datos.
+ Colaborar con equipos multidisciplinarios con Data Scientists y Data Engineers para asegurar la integración de soluciones en la nube.
+ Monitorear la infraestructura existente con foco en optimización de tiempos y costos de procesos.
**¿Qué necesitamos de vos?**
Requisitos excluyentes
+ Conocimiento en al menos uno de los siguientes lenguajes de programación: Python, Bash, Java, Scala, R.
+ Conocimientos de bases de datos relacionales y no relacionales, SQL y NoSQL.
+ Conocimientos en modelado de datos y conceptos de Ciencia de datos.
+ Experiencia con servicios de AWS (Redshift, S3, Step Functions, EMR, Glue, Lambdas, ECR, Athena).
+ Experiencia construyendo pipelines de datos de tipo ETL/ELT.
+ Experiencia/Conocimientos construyendo y desplegando data pipelines en algunas de las siguientes plataformas Cloud: AWS, GCP, Azure.
Requisitos deseables
+ Ser estudiantes o egresados de Licenciatura en Ciencias de la computación, Ingeniería en informática, Sistemas y/o carreras a fines.
+ Certificaciones de AWS
+ Conocimientos del ecosistema Hadoop y framework Apache Spark.
+ Herramientas de integración continua: Gitlab, Bitbucket.
+ Experiencia con otras tecnologías de almacenamiento y procesamiento de datos en la nube u on-premises.
+ Conocimientos en prácticas DevOps y metodologías ágiles.
+ Experiencia trabajando con APIs, RestAPIs.
+ Experiencia trabajando con Docker y microservicios.
+ Experiencia con PowerCenter y Teradata.
**¿Qué te ofrecemos?**
+ Amplio plan de desarrollo y posibilidades de evolución profesional con desafíos constantes.
+ Cobertura médica de primer nivel para vos y tu grupo familiar.
+ Reintegro de gastos de home office.
+ Campañas con importantes descuentos en Gastronomía y Supermercados.
+ Beneficios asociados a la calidad de vida: horarios flex, homeoffice.
+ Wellhub (red de gimnasios y bienestar integral).
+ Descuentos educacionales.
+ Plataforma digital bonificada para estudiar inglés.
Por favor confirme su dirección de correo electrónico: Send Email