cover image
LayerScale Advisory

LayerScale Advisory

www.layerscale-advisory.com

1 Job

3 Employees

About the Company

LayerScale Advisory est un cabinet spécialisé dans les technologies cloud et la gestion de données. Partenaire d’AWS et de Databricks, nous mettons notre expertise au service des projets de nos clients pour les accompagner dans toutes les étapes de leur transformation. Notre expertise : - Migration vers le cloud : Grâce à une expérience éprouvée et à des projets menés avec succès, nous vous aidons à effectuer une transition fluide et optimisée vers AWS et Azure, tout en répondant à des objectifs stratégiques et techniques. - Data Platform & Databricks : En tant que partenaire Databricks, nous réalisons des audits, concevons et mettons en œuvre des plateformes de données modernes, et accompagnons les équipes de nos clients dans leur montée en compétences pour tirer le meilleur parti de leurs solutions data. - Architecture Cloud Native : Nous concevons des solutions cloud natives, robustes et évolutives, parfaitement adaptées aux besoins de nos clients. Une approche sur mesure : Chez LayerScale Advisory, nous croyons en une compréhension approfondie des enjeux métier pour concevoir des solutions personnalisées et performantes. Notre mission : Aider à exploiter tout le potentiel du cloud et de des données pour créer une véritable valeur ajoutée.

Listed Jobs

Company background Company brand
Company Name
LayerScale Advisory
Job Title
Data Ingénieur F/H
Job Description
**Job Title** Senior Data Engineer (F/M) **Role Summary** Design, develop, and maintain large‑scale, distributed data pipelines using Scala and Spark. Orchestrate data workflows with Airflow, enforce CI/CD practices, and continuously improve code quality and system performance across complex cloud environments. **Expectations** - Deliver reliable, high‑performance Spark applications in Scala. - Build scalable Airflow DAGs that automate end‑to‑end data processing. - Optimize and standardize CI/CD pipelines for seamless deployment. - Communicate effectively with cross‑functional teams and document solutions clearly. **Key Responsibilities** - Develop, test, and tune Apache Spark jobs using DataFrame and Dataset APIs. - Design, implement, and maintain Airflow DAGs for data orchestration. - Build modular, maintainable code following best software‑engineering practices. - Engineer data pipelines that handle high‑volume, semi‑structured data streams. - Implement and monitor CI/CD workflows to ensure fast, reliable deployments. - Continuously refine code quality, maintainability, and performance metrics. - Collaborate with data architects to shape overall data strategy and architecture. - Provide technical guidance, code reviews, and knowledge transfer within the team. **Required Skills** - Advanced proficiency in Scala (compiler, collections, functional patterns). - Deep expertise in Apache Spark (optimizations, in‑memory caching, clustering). - Strong Python skills for development and Airflow orchestration. - Proven experience building and governing Airflow DAGs. - Solid understanding of software engineering fundamentals: modularity, testing, version control. - Ability to work effectively in complex, distributed environments. - Analytical mindset with architectural thinking. - Excellent communication and documentation skills. **Required Education & Certifications** - Minimum of a Master’s level engineering degree (Bac+5) or equivalent. - At least 4 years of professional experience in data engineering or a related role.
Paris, France
Hybrid
Junior
23-02-2026