Job Specifications
En lien étroit avec les équipes Produit, DevOps, et Intégration, les principales missions sont :
1. Fiabilisation, traitement et automatisation des données :
Développer, maintenir et surveiller des pipelines de données robustes et scalables (batch ou temps réel avec Kafka)
Intégrer les flux de données issus des différentes solutions (ex. SQOOL, Salesforce) pour alimenter les analyses métiers
Garantir la qualité, la sécurité et la traçabilité des données traitées
Participer à la définition et à l’implémentation des processus de data ingestion, transformation, stockage et exposition
Contribuer à la constitution et à l’actualisation de l’entrepôt de données (data warehouse, DMP, etc.)
2. Industrialisation et mise en production des projets data :
Mettre en œuvre des pratiques CI/CD pour les projets data (tests, versioning, intégration, déploiement)
Conteneuriser les traitements via Docker/Kubernetes et assurer leur orchestration
Collaborer avec les autres intervenants Data pour mettre en production des modèles de machine learning ou d’analyse
Optimiser les performances des traitements et orchestrations en environnement cloud
Documenter les flux et procédures d’industrialisation
Faire le lien entre les équipes Data et Devops
3. Support, supervision et collaboration transverse :
Assurer la disponibilité et la fiabilité des données nécessaires aux analyses
Fournir un appui technique aux équipes Produit, Marketing ou SI pour l’accès ou l’exploitation des données
Participer à l’amélioration continue des bonnes pratiques data (documentation, tests, monitoring, sécurité)
Mettre en place des outils de supervision et d’alerte sur les traitements critiques
Profil recherché
Vous disposez au minimum d'une expérience de 3 ans sur un poste de DataOps, Data Engineer ou DevOps orienté data.
Vous maîtrisez la conception de pipelines de données et avez une bonne culture de la mise en production, ainsi que des notions en développement des modules en python (voir en Go serait un plus).
Vous êtes familier·ère avec les environnements cloud, l’automatisation et la conteneurisation.
Vous avez une bonne compréhension des problématiques de data quality et de supervision des traitements.
Vous êtes rigoureux·se, autonome, et doté·e d’un bon esprit d’analyse et de synthèse
Vous aimez travailler en transverse avec différents métiers : data science, produit, infrastructure, développement
Vous avez un intérêt pour les sujets d’impact, d’éducation ou d’expérience utilisateur.s
Poste basé à Neuilly-sur-Seine, en hybride : 3 jours en présentiel et 2 jours en télétravail.
Engagement en faveur de la diversité et de l'inclusion :
Chez UNOWHY, nous sommes convaincus que la diversité est une richesse et un atout pour notre entreprise. Nous encourageons donc toutes les candidatures, y compris celles des personnes en situation de handicap.
Si vous êtes titulaire de la Reconnaissance de la Qualité de Travailleur Handicapé (RQTH), nous mettrons tout en œuvre pour adapter votre poste de travail et vous accompagner dans votre intégration. Nous croyons fermement que chaque talent mérite une chance de s'exprimer et de contribuer à notre succès collectif.
About the Company
Notre mission ? Mettre le numérique à la portée de tous ! Créée en 2007, UNOWHY est une société française qui conçoit et développe des produits, services et contenus numériques à forte valeur ajoutée. En 2009, elle lance QOOQ : la 1ère tablette tactile culinaire au monde regroupant plus de 5000 recettes de Chefs. L'entreprise acquiert ainsi une expertise technologique et numérique unique qui lui permet d’élargir son activité à d’autres secteurs. En 2015, après 3 années de recherche et développement, UNOWHY lance SQOOL, la so...
Know more