Tucuman, ARG
23 hours ago
Data Engineer con AWS
💙 Con +190.000 Digital Lovers en 50 países, ayudamos a alcanzar el éxito transformando el futuro de la tecnología. Desde consultoría estratégica hasta tecnologías de vanguardia, superamos los 50 años ofreciendo experiencias que transforman organizaciones, revolucionan industrias y dan forma a una sociedad mejor para todas las personas. La diversidad de nuestro equipo de profesionales nos permite aprovechar las fortalezas, habilidades y perspectivas de personas de variadas culturas, orígenes y trayectorias, brindando soluciones eficientes y efectivas. Te invitamos a sumarte a una compañía reconocida por su ADN innovador 🚀, que marca la diferencia para nuestros clientes y para la sociedad. Una cultura certificada como GLOBAL TOP EMPLOYER 🏆, donde podés crecer y evolucionar siendo vos mismo. Conoce más sobre NTT DATA y sumate al equipo de #NTTDATADigitalLovers 👉 nttdata.com.ar (https://ar.nttdata.com/) En ** NTT DATA**  nos encontramos en la búsqueda de un/a  **Data Engineer con AWS** para sumarse a nuestro equipo!! **¿Cuáles serán tus responsabilidades?** + Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando servicios de AWS como AWS Glue, EMR, Lambdas, Step Functions, APIs. + Implementar procesos de ETL y ELT para integrar datos de diversas fuentes así como el orquestamiento de los mismos en tiempo real y/o batch. + Seleccionar y administrar soluciones de almacenamiento de datos en AWS como AWS Redshift, AWS S3, etc. + Implementar prácticas de seguridad y cumplimiento en el manejo y transferencia de datos. + Colaborar con equipos multidisciplinarios con Data Scientists y Data Engineers para asegurar la integración de soluciones en la nube. + Monitorear la infraestructura existente con foco en optimización de tiempos y costos de procesos. **¿Qué necesitamos de vos?** Requisitos excluyentes + Conocimiento en al menos uno de los siguientes lenguajes de programación: Python, Bash, Java, Scala, R. + Conocimientos de bases de datos relacionales y no relacionales, SQL y NoSQL. + Conocimientos en modelado de datos y conceptos de Ciencia de datos. + Experiencia con servicios de AWS (Redshift, S3, Step Functions, EMR, Glue, Lambdas, ECR, Athena). + Experiencia construyendo pipelines de datos de tipo ETL/ELT. + Experiencia/Conocimientos construyendo y desplegando data pipelines en algunas de las siguientes plataformas Cloud: AWS, GCP, Azure. Requisitos deseables + Ser estudiantes o egresados de Licenciatura en Ciencias de la computación, Ingeniería en informática, Sistemas y/o carreras a fines. + Certificaciones de AWS + Conocimientos del ecosistema Hadoop y framework Apache Spark. + Herramientas de integración continua: Gitlab, Bitbucket. + Experiencia con otras tecnologías de almacenamiento y procesamiento de datos en la nube u on-premises. + Conocimientos en prácticas DevOps y metodologías ágiles. + Experiencia trabajando con APIs, RestAPIs. + Experiencia trabajando con Docker y microservicios. + Experiencia con PowerCenter y Teradata. **¿Qué te ofrecemos?** + Amplio plan de desarrollo y posibilidades de evolución profesional con desafíos constantes. + Cobertura médica de primer nivel para vos y tu grupo familiar. + Reintegro de gastos de home office. + Campañas con importantes descuentos en Gastronomía y Supermercados. + Beneficios asociados a la calidad de vida: horarios flex, homeoffice. + Wellhub (red de gimnasios y bienestar integral). + Descuentos educacionales. + Plataforma digital bonificada para estudiar inglés.
Por favor confirme su dirección de correo electrónico: Send Email