Quelles sont les missions ?

Au sein de l'équipe Data Science & Intelligence Artificielle, composée de data scientists et de data analysts, votre rôle sera celui de Lead Machine Learning Engineer.

Vous serez également membre du Data Lab.

En tant que Lead Machine Learning Engineer, vous êtes à la fois capable de concevoir de solides modèles de machine/deep learning, d'industrialiser, de mettre en production et d'assurer une gestion efficace des solutions data science et IA en production. Vos principales missions sont les suivantes :

Participer aux différentes étapes de déploiement des cas d'usage data science et IA répondant aux besoins métiers, du Proof Of Concept/Value à l'industrialisation, la mise en production et la gestion en run,
Concevoir, déployer et contribuer au passage à l'échelle des solutions d'IA développées en interne ou achetées, dans le respect du RGPD, des règles d'éthique et de la démarche responsable de Swiss Life
Concevoir, industrialiser et mettre en production des cas d'usage data science et IA dans des environnements cloud et on premise,
Concevoir, industrialiser des pipelines machine learning et deep learning de bout en bout,
Concevoir, industrialiser et assurer la gestion et le suivi des solutions d'IA en production,
Participer aux projets de data management, de gestion des flux de données et d'évolution du data lake,
Contribuer activement à la consolidation et à l'enrichissement du socle technique et technologique Big data,
Être en charge de la formalisation des méthodologies et des best practices de développement, en veillant à la capitalisation des connaissances,
Organiser la veille scientifique et technologique
Diffuser la culture data, data science et IA au sein de l'entreprise
Coordonner la résolution des incidents relatifs aux Use Case en production
Faire monter en compétence technique les membres de l'équipe
Vous travaillez en étroite collaboration avec la DSI, les métiers, la Data Protection Officer, d'autres directions et les partenaires.

Lire la suite

Quel est le profil idéal ?

S'il y a bien une chose qu'on ne choisit pas dans sa vie, c'est son prénom. En revanche, rien n'empêche de vouloir " s'en faire un " :



Vous êtes diplômé d'une école d'ingénieur ou équivalent universitaire ? Vous avez entre 4 et 12 ans d'expérience en Data Science / Big Data, avec au moins une expérience significative en industrialisation de pipelines machine learning ou en développement de produit data ?
En tant qu'expert technique reconnu, vous êtes passionné (e) par la data, les sujets technologiques et vous avez besoin d'apprendre en restant en veille permanente ?
Vous faites preuve de rigueur et de pédagogie, vous avez le sens des priorités, vous êtes bien organisé (e), vous êtes réactif (ve) et vous avez une bonne capacité d'analyse et un esprit de synthèse ?
Vous avez un bon niveau d'anglais opérationnel, à l'oral comme à l'écrit ?
Votre capacité d'adaptation, votre relationnel et votre esprit d'équipe sont des qualités indispensables pour le poste ?
Vous avez une culture MLOps DataOps, DevSecOps, GitOps et vous disposez des compétences suivantes :

Langages de programmation : Python, PySpark, Scala. A ce titre vous maitrisez : la culture TDD (test driven design) ou DDD (design driven development), le calcul distribué en parallèle ou en balance de charge, les concepts de programmation en Python (programmation orientée objet, programmation fonctionnelle, etc..)
Frameworks ML : Python scikit-learn, PySpark MLlib
Expertise en développement, intégration, monitoring : Technologies de conteneurisation et plus globalement vous êtes en mesure de gérer la scalabilité, la reprise sur erreur, le monitoring, l'alerting et la sécurité en ayant une vision 360
Expertise en implémentation de workflow : Orchestrateurs
Bases de données : SQL/NoSQL, KV (Key/Value)
Data visualisation : Tableau, Dash ou tout autre outil et technologie de data visualisation
Technologies cloud & Cloud Native : AWS et ses services managés orientés data (S3, EC2, RDS, ECS, EKS, ECR, Sagemaker, DynamoDB, Cloudformation, Cognito, etc...). Plus globalement vous êtes capable de déployer les composants Cloud en Infrastructure as a Code, platform as a service (PaaS) ou fonction as a service (FaaS)
CI/CD et contrôle de version : git, Jenkins
Gestion de données : catalogue, versionning, gouvernance
Connaissance des architectures Big Data
Autres : vous êtes capable de participer activement aux sujets liés à la Data et à l'IA

Pourquoi les rejoindre ?

Rejoindre Swiss Life, c¿est faire le choix d¿apporter votre motivation et votre expertise au service d¿un projet collectif et d¿une entreprise solide, de donner du sens à votre action et d¿agir pour construire votre parcours professionnel. #YourJobYourLife

 
Dépôt CV
Montrez vos talents, 15 000 recruteurs vous attendent

Je dépose mon CV dans la CV-thèque

Doc, Docx, rtf, pdf (3 Mo. max)

D'autres offres vous attendent sur Cadremploi
Continuez sur votre lancée ! Découvrez d'autres offres similaires à celle-ci
OU
Continuer ma recherche
Soyez le premier prévenu !

Recevez les offres similaires à cette annonce

En créant votre alerte, vous acceptez les conditions d'utilisation

Alerte active Vous recevrez par email les offres correspondant à la recherche

Gérer mes alertes