Mamoudou NDONGO

Data Engineer – Big Data & Streaming

Je conçois et déploie des pipelines de données robustes, du batch au temps réel. J’interviens sur toute la chaîne data : ingestion, transformation, stockage et orchestration.

Expérience concrète en architectures Big Data avec Spark, Kafka et mise en production de pipelines ETL sur environnement Cloud.

Stack : Spark • Kafka • Python • SQL • AWS • Airflow • Docker
Disponible immédiatement

À propos

Data Engineer spécialisé en conception de pipelines de données et architectures Big Data. J’ai travaillé sur des projets concrets en traitement distribué avec Spark et en ingestion temps réel avec Kafka, avec un objectif clair : construire des systèmes fiables, performants et scalables.

Mon approche est orientée production : comprendre le besoin métier, modéliser la donnée, puis concevoir et déployer des pipelines optimisés et maintenables.

Big Data & Streaming

Traitement de données à grande échelle et streaming en temps réel

Apache Spark Apache Kafka Hadoop HDFS
🛠️

Data Engineering

Conception de pipelines ETL, modélisation et orchestration

Python SQL Airflow dbt Snowflake Data Warehouse Streamlit
☁️

Cloud & Déploiement

Industrialisation et déploiement de solutions data

AWS GCP Docker CI/CD

Expériences & Projets

Une sélection de projets en Data Engineering, Big Data et traitement de données à grande échelle

Autres projets

Projets complémentaires en data engineering, automatisation et traitement analytique

Spark TensorFlow Flask React MariaDB Docker

Plateforme d’analyse et prédiction des performances olympiques

Développement d’une plateforme d’analyse et de prédiction autour des Jeux Olympiques 2024.

Traitement distribué des données avec Apache Spark, entraînement d’un modèle de prédiction avec TensorFlow, exposition via API Flask et visualisation avec React.

Stockage des données dans MariaDB et déploiement de l’application avec Docker.

Python Selenium BeautifulSoup SQLite ETL

Pipeline ETL de scraping et structuration de données

Développement d’un pipeline ETL de scraping pour collecter, nettoyer et structurer des avis clients depuis Trustpilot.

Extraction des données avec Selenium, parsing via BeautifulSoup, nettoyage des données et suppression des doublons.

Stockage final dans SQLite pour exploitation analytique.

Python SQL SQLite API ETL

Pipeline ETL API & SQL

Développement d’un pipeline ETL pour collecter et analyser des données météo via API.

Extraction, transformation et stockage des données dans une base SQL pour exploitation analytique.

Conception d’une base relationnelle et mise en place de requêtes analytiques pour structurer et exploiter les données.

Formation

Master Développement, Big Data & Intelligence Artificielle

IPSSI – Lyon, France

2023 – 2025
  • Data Engineering : pipelines ETL, traitement distribué
  • Big Data : Spark, Hadoop, Kafka (streaming)
  • Architecture Data : Data Lake & Data Warehouse
  • Orchestration : Apache Airflow, automatisation
  • Cloud : AWS (S3, EMR, Glue)
  • DevOps : Docker, CI/CD, Git
Python SQL Spark Kafka AWS Docker

Licence Sciences des Données & Développement Informatique

ESTEM – Casablanca, Maroc

2022 – 2023
  • Programmation : Python, Java
  • Bases de données : SQL, modélisation relationnelle
  • Analyse de données : statistiques, visualisation
  • Développement : applications web
Python SQL Data Analysis Java

Cycle scientifique (PCI)

Université Cheikh Anta Diop – Dakar, Sénégal

  • Formation en mathématiques, physique et informatique
Mathématiques Physique Informatique

Certifications

Contact

📱

Téléphone

07 60 67 95 44

📍

Localisation

Lyon, France