cover image
JAKALA

Data Engineer Senior

Hybrid

Paris, France

Senior

Full Time

22-09-2025

Share this job:

Skills

Python Java Big Data Data Engineering PostgreSQL Kubernetes Architecture Azure AWS Marketing Pandas GCP Snowflake Spark Databricks PySpark Kafka Terraform Infrastructure as Code

Job Specifications

JAKALA est une société leader européenne dans les métiers du conseil de la transformation data, IA et stratégies marketing.

Fondée en Italie en 2000 par Matteo de Brabant, JAKALA se positionne dès ses débuts comme pionnière en combinant marketing et technologie pour révolutionner les domaines de l’engagement, de la fidélisation et des incentives collaborateurs.

Aujourd’hui présente dans 20 pays et comptant 3000 collaborateurs, JAKALA a étendu ses activités en France en 2023.

La mission de JAKALA est d’aider ses clients à tirer un avantage concurrentiel mesurable via une exploitation durable des données et des technologies.

Nous concevons et déployons des solutions qui visent à créer une valeur ajoutée tangible, optimiser les investissements marketing et technologiques et améliorer l’expérience client.

JAKALA déploie son offre sur 3 piliers :

Marketing & Data Consulting
Data & AI Tech
E-com & Plateforms

En interne, toutes les initiatives sont valorisées : les idées, les avancées techniques et la montée en compétences, le tout dans une ambiance challengeante et bienveillante.

Opportunités de carrière stimulantes

Rejoindre JAKALA en France, c’est bénéficier du meilleur des deux mondes : l’agilité et l’impact d’une scale-up, tout en s’appuyant sur la solidité d’un leader européen. Vous aurez l’opportunité de travailler sur des projets ambitieux et innovants, aux côtés d’experts reconnus, avec l’appui de partenariats technologiques de premier plan.

Les valeurs qui guident les #Jakalers

Embrace Data – Make it count – Grow Together – Deliver our best – Be Purpose Driven

Nous sommes engagés ! Pour le bien-être de chacun, pour construire des relations durables avec nos écosystèmes, pour enrichir et partager nos expertises.

Engagés dans l’inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptées et accessibles à tous.

Engagés pour le bien-être au travail, nous sommes convaincus que des équipes épanouies, dans un environnement respectueux et équilibré, sont la clé de la réussite.

Tes missions :

Au sein de notre practice Data & AI, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et tu es impliqué.e dans la prise de décisions liée aux solutions Data et à leur évolution.

A cet effet, tu es en charge de :

Contribuer au développement de notre offre Data et à l’industrialisation de plateformes data pour nos clients
Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
Définir l’architecture logiciel ETL / ELT en collaboration avec tes pairs
Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
Rédiger de la documentation technique (diagrammes UML, documentation d’API, …),
Partager ton savoir-faire avec les différents membres de l’équipe
Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
Assurer une veille technologique et savoir mener à bien un projet de R&D

Tu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :

Cartographier des données et des flux de données
Implémenter des algorithmes d’analyse de données pour l’industrialisation
Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
S’assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
Analyser les données web pour répondre aux questions métiers et participer à la construction de l’architecture Big Data
Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites

Compétences attendues

Bon niveau en développement :

De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
De script ELT : DBT (ex. Snowflake, PostgreSQL)
Connaissance conception et administration d’entrepôt de données : Snowflake, Big Query, PostgreSQL
LakeHouse : Delta Lake
Connaissance message broker : RabbitMQ, Kafka
Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
Expérience d’architecture et de dimensionnement d’une architecture cloud via des services managés
Cartographie des données

Profil recherché

Diplômé·e d’études supérieures dans le système d’information, computer sciences, big data (école d’ingénieurs, école spécialisée ou équivalent universitaire), tu justifies d’au moins 5 ans d'expérience en Data engineering.

Tu as une expertise reconnue sur la mise en place de pipelines complets de valorisation de données massives, de la collecte à la mise à disposition d’applications en pa

About the Company

We are a data, AI, and experiences company that creates meaningful and lasting impact, globally. Working closely with our clients, we design growth trajectories grounded in data and impact-driven insights to ensure we deliver concrete, measurable results. Our profound technological and architectural knowledge further allows us to consistently implement meaningful, integrated, and long-term solutions. Our focus is always to drive meaningful results; that's why we curate and deliver data-inspired activations that create tangib... Know more