Responsabilités principales :Concevoir, développer et maintenir des pipelines de données robustes en utilisant des technologies telles que Hadoop, Spark, Kafka et l'écosystème Big Data; Créer et optimiser des processus ETL/ELT pour extraire, transformer et charger ...