Offre d'emploi

Ingénieur Data

Rabat, Maroc

Ingénieur Data

Rabat, Maroc

Découvrir l'agence
Type de contrat
CDI
Apply

About SQLI

Fondé en 1990,SQLI est un groupe européen de services digitaux présent dans 13 pays et implanté depuis déjà 20 ans au Maroc sur Rabat, Oujda et Casablanca. Ses équipes créatives et techniques s'engagent à offrir aux clients, consommateurs ou usagers, des expériences inédites et engageantes en s'appuyant sur le meilleur des technologies et méthodologies ainsi que sur leurs compétences et convictions. En 2021, le groupe SQLI a réalisé un chiffre d’affaires de 226 M€.

SQLI est un groupe à taille humaine qui a à cœur l’épanouissement de ses collaborateurs. Son réseau d’agences locales en France et à l’étranger, permet aux collaborateurs de travailler au sein d’équipes dont la taille est propice à la prise d’initiative, l’épanouissement individuel, l’apprentissage, la montée en compétences et offre des opportunités d’évolutions rapides et de parcours de carrière personnalisés. SQLI Maroc compte désormais plus de 700 collaborateurs passionnés du digital.  

Site web : www.sqli.com

The Job

Nous recherchons un ingénieur Data sénior pour rejoindre notre équipe et participer au développement et à la maintenance de nos solutions de Datawarehouse. Le candidat retenu sera responsable de la conception, du développement et de la mise en œuvre de pipelines de données.

Responsabilités :

  • Concevoir, développer et déployer des pipelines de données pour nos solutions Data en utilisant PySpark, Azure Data Factory et Azure Databricks, en garantissant la qualité et la fiabilité des données.
  • Optimiser les performances des traitements de données et des requêtes.
  • Collaborer étroitement avec les équipes métier pour comprendre les exigences et les besoins fonctionnels.
  • Participer à la veille technologique et proposer des améliorations continues pour optimiser les processus et les solutions de Datawarehouse.
  • Assurer la documentation complète des architectures, des solutions et des flux de données.

Your profile

  • 5 années d'expérience ou plus dans le développement de solutions Data.
  • Excellente maîtrise de PySpark.
  • Expérience pratique avec Azure Data Factory et Azure Databricks.
  • Solide compréhension des concepts de traitement de données distribuées.
  • Capacité à résoudre les problèmes de manière autonome et à déboguer efficacement.
  • Fortes compétences en communication et en travail d'équipe.

Compétences appréciées :

  • Expérience avec d'autres outils de Datawarehouse tels que Hadoop, Hive, Kafka, etc.
  • Maîtrise de Power BI pour la visualisation des données.
  • Connaissance de Terraform pour l'automatisation de l'infrastructure.
  • Familiarité avec Power Apps pour le développement d'applications métier.