Architecte Senior Software - MLOps
GE Vernova
Job Description SummaryNous recherchons un Architecte Senior expérimenté pour rejoindre notre activité innovante des Systèmes d'Électrification – Grid Solutions pour diriger la conception, la mise en œuvre et le support de nos pratiques et outils MLOps / Data Lake, afin de soutenir les activités de R&D et d'exploitation en Machine Learning et Intelligence Artificielle.
Le candidat retenu jouera un rôle clé dans l’élaboration de notre stratégie MLOps visant à unifier et rationaliser le cycle de vie des activités IA/ML, afin d’améliorer la qualité et de réduire le time-to-market.Job Description
Expérience pratique avec des frameworks d'orchestration de flux de travail orientés données (SageMaker, KubeFlow, MLFlow, Airflow, Argo, etc.). Expérience avec des plateformes cloud comme AWS, Azure ou Google Cloud et leurs services en machine learning respectifs.Expérience avec des technologies Big Data (ex. : Amazon Redshift, Databricks, Airflow)Solide connaissance de la modélisation des données, des processus ETL et des techniques d'intégration de données.Expérience confirmée en architecture logicielle ou ingénierie des données, avec un focus sur les solutions Data Lake.Connaissances des pipelines CI/CD, des outils d'automatisation et des systèmes de gestion de versions comme Git.Familiarité avec la containerisation et les outils d'orchestration (Docker, Kubernetes) ainsi que l'infrastructure code.Expérience avec des frameworks et bibliothèques de machine learning tels que TensorFlow, PyTorch ou Scikit-learn.Maîtrise de langages de programmation tels que Python, Java ou Scala.Expérience avec des outils de traitement distribué des données : Map/Reduce, Hadoop, Hive, Spark, etc.Habitude de la collaboration réussie entre les équipes corporate et les parties prenantes métier.Excellentes compétences en résolution de problèmes, capacité à travailler de manière autonome et en équipe.Excellentes compétences en communication, prise de décision et relations interpersonnelles ; forte organisation, autonomie.Souhaité : Certifications dans les technologies ou plateformes concernées.Expérience dans les secteurs de l'énergie ou de l'IoT industriel
Le candidat retenu jouera un rôle clé dans l’élaboration de notre stratégie MLOps visant à unifier et rationaliser le cycle de vie des activités IA/ML, afin d’améliorer la qualité et de réduire le time-to-market.Job Description
Roles et Responsabilitées
Définir et piloter l’architecture, la stratégie et le plan de développement du MLOps / Data Lake.Concevoir des solutions Data Lake / MLOps évolutives, sécurisées, fiables et à haute performance, répondant aux besoins métier.Collaborer avec des équipes transversales et des parties prenantes métier pour comprendre les besoins et les traduire en spécifications techniques.Diriger le développement et l’intégration des composants, en assurant un flux de données fluide et une accessibilité optimale. Mettre en œuvre les meilleures pratiques en matière de gouvernance des données, qualité des données et gestion des métadonnées.Faciliter la communication et la collaboration entre les équipes IT corporate et les unités métiers pour faire avancer les initiatives autour des données.Évaluer et recommander des technologies et outils afin de créer un écosystème unifié qui rationalise le cycle de développement IA/ML, tout en optimisant la performance et les coûts.Apporter un leadership technique et un mentorat aux équipes de développement logiciel.Garantir la conformité avec les réglementations sur la confidentialité et la sécurité des données à l’échelle mondiale.Créer et maintenir une documentation complète de l’architecture des solutions, des spécifications de conception et des standards techniques, afin d’assurer le partage des connaissances, la compréhension des systèmes et la cohérence entre les équipes.Surveiller et résoudre les problèmes liés aux systèmes de données de manière proactive.Qualifications requises :
Diplôme de niveau Bac+3/5 en informatique, technologies de l'information ou domaine connexe.Expérience pratique avec des frameworks d'orchestration de flux de travail orientés données (SageMaker, KubeFlow, MLFlow, Airflow, Argo, etc.). Expérience avec des plateformes cloud comme AWS, Azure ou Google Cloud et leurs services en machine learning respectifs.Expérience avec des technologies Big Data (ex. : Amazon Redshift, Databricks, Airflow)Solide connaissance de la modélisation des données, des processus ETL et des techniques d'intégration de données.Expérience confirmée en architecture logicielle ou ingénierie des données, avec un focus sur les solutions Data Lake.Connaissances des pipelines CI/CD, des outils d'automatisation et des systèmes de gestion de versions comme Git.Familiarité avec la containerisation et les outils d'orchestration (Docker, Kubernetes) ainsi que l'infrastructure code.Expérience avec des frameworks et bibliothèques de machine learning tels que TensorFlow, PyTorch ou Scikit-learn.Maîtrise de langages de programmation tels que Python, Java ou Scala.Expérience avec des outils de traitement distribué des données : Map/Reduce, Hadoop, Hive, Spark, etc.Habitude de la collaboration réussie entre les équipes corporate et les parties prenantes métier.Excellentes compétences en résolution de problèmes, capacité à travailler de manière autonome et en équipe.Excellentes compétences en communication, prise de décision et relations interpersonnelles ; forte organisation, autonomie.Souhaité : Certifications dans les technologies ou plateformes concernées.Expérience dans les secteurs de l'énergie ou de l'IoT industriel
Por favor confirme su dirección de correo electrónico: Send Email