Offre d'emploi
Data Engineer GCP (H/F) - CDI
Paris, France
A propos de SQLI
Notre mission depuis 30 ans ? Être présent au bon moment !
Notre expertise ? Accompagner nos clients à capter l’attention de l’utilisateur et transformer cette interaction furtive en une interaction mémorable. C’est dans cette optique que nous accompagnons les entreprises dans la mise en œuvre, et le pilotage de dispositifs digitaux pour une expérience utilisateur réinventée.
La juste interaction, c’est quoi ? C’est capter notre attention au bon moment, au bon endroit et la convertir en envie et en confiance. Un équilibre subtil entre le trop et le trop peu. Entre le trop tôt et le trop tard.
Devenez SQLien et faites partie de cette grande aventure au sein d’une société à taille humaine, mais avec de grandes ambitions. Nous sommes plus de 2200 talents sur plus de 13 pays et 3 continents.
Notre culture ?
Oser et créer.
Le Job
Vous souhaitez vivre une expérience unique au sein du pôle Data de SQLI en région Parisienne ?
Rejoignez notre équipe DATA et accompagnez notre croissance chez nos différents clients (notamment dans les secteurs des services financiers, de l'énergie, de l'industrie et du retail) !
Un poste de Data Engineer GCP (H/F) est ouvert à PARIS ou ROUEN (selon votre localisation), pour faire partie de l’équipe Data chez SQLI et vous investir dans un environnement technique innovant chez l'un de nos clients Grand Compte.
Vos missions seront :
- Analyse et compréhension des besoins métiers.
- Participation à la définition et à la conception de l’architecture.
- Réaliser des présentations, démonstrations, POC ou Pilotes pour mettre en lumière les recommandations technologiques.
- Développements de jobs d’alimentation (préparation, ingestion, traitement et contrôle qualité) et automatisation des flux d’alimentation du Data Lake et du Datawarehouse
- Tests de charge, tests unitaires…
- Maintenabilité de la solution Big Data/BI : Optimisation et performance des traitements.
Votre profil
Et vous dans tout ça ?
- Ingénieur(e) de formation, vous avez un minimum de 3 années d’expérience sur des projets Google Cloud Platform (BigQuery, Dataflow,…..)
- Vous maîtrisez au minimum un langage de programmation (Python, Java, R, Spark, Scala).
- Vous avez une expérience d’au moins un ETL/ELT : Talend, DBT
- Vous maîtrisez SQL
- Vous maitrisez des outils et framework d’industrialisation CI/CD et/ou gestion de version (Gitlab)
- Une expérience sur Power BI, TIBCO EBX et/ou BO DS serait un plus
- Gestion de Conteners et Kubernetes (GKE)
- Toujours en veille, à l’affut des nouveautés technologiques et vous aimez échanger (Events, conférences, meetups, etc…).
- Force de proposition, vous vous sentez libre d’oser et de vous surpassez en partageant vos idées.