Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Toufik BENSEDDIK

Data Engineer / BI & Big Data

Situation professionnelle
En poste
En recherche active
Présentation
Passionné par la technologie et les données, je cumule plus de 15 ans d'expertise dans le domaine du BI & Big Data. Avec une expérience significative en modélisation et création de Data Warehouse, je possède une expertise dans ETL les plus utilisés du marché tels que SSIS et Talend, ainsi que dans les outils de DataViz comme Power BI et SSRS. J'ai une bonne connaissance des systèmes distribués et de leurs briques telles que Hadoop, Azure, GCP, Spark, Python et Scala. De plus, je suis également adepte des pratiques Agile
CV réalisé sur DoYouBuzz

MIAGE

Université Paris Dauphine

2007 à 2010
Master 2 MIAGE, mention systèmes d’information

Licence Informatique,

Sorbonne Université Campus Pierre et Marie Curie

2006 à 2007

DEUG mathématiques appliquées

Sorbonne Université Campus Pierre et Marie Curie

2004 à 2006
Sorbonne Université Campus Pierre et Marie Curie
  • ,SQL Server, PostgreSQL, Oracle
    Expert
  • TSQL , MongoDB, BigQuery
    Expert

ETL

  • SSIS ,Talend Azure Data Factory , Semarchy xDI (Stambia)
    Expert
  • Power BI, SSRS (Langage DAX )
    Expert
  • SSAS (tabulaire et multidimensionnel)
    Expert
  • Hadoop (HDFS, YARN ) ,Spark/Scala Python
    Avancé
  • Microsoft Azure AWS
    Bon niveau
  • Git (versioning ) , Agile et JIRA
    Expert
  • Anglais : J'ai déjà travaillé dans un environnement anglophone (mission Allianz Trade pendant 9 mois).
    Bon niveau
  • Analyse fonctionnelle et technique des flux de données métier (DSNSanté/Prévoyance).
  • Diagnostic de la qualité et de la conformité des données DSN.
  • Conception et implémentation des traitements de gestion des flux de données entre les composants du système d'information à l'aide de l'ELT Semarchy xDI (Stambia)
  • Développement de flux ELT avec Spark/Scala, Python, STAMBIA, MongoDB, SQLHive.
  • Refonte des flux ETL existants conformément au modèle défini.
  • Réalisation de tests informatiques et de tests automatisés dans différentsenvironnements.
  • Optimisation des performances des jobs ETL BIG DATA.
  • Accompagnement du changement et déploiement de la nouvellearchitecture.
  • Conception et développement de tableaux de bord interactifs pourvisualiser les données DSN, détecter les erreurs et les incohérences.
  • Analyse des besoins des utilisateurs métier en matière de vérification desDSN.
  • Sélection d'un outil de visualisation adapté, tel que Tableau, Power BI ouQlikView.
  • Évaluation de l'impact d'une migration de Cloudera vers la plateformeGoogle Cloud Platform (GCP).
  • Développement des nouveaux usages data : analyse des contrats d’adhésion/affiliation/mutuelle, et détection des fraudes ou erreurs
  • Participation au projet de migration Cloudera CP7 vers Google Cloud Platform (GCP)
  • Automatisation du processus de Migration sous l’ETL /AWS Talend ( diverses sources SQL Server, Oracle, DB2 et PostgreSQL.)
    Participation et Animation aux Ateliers Métiers et aux Cérémonies Agiles
  • Participation à la Réalisation de Scénarios et Tests
  • Résolution des Tickets JIRA (Anomalies ou Évolutions):
  • Paramétrage de l’Application: (Nouveaux Produits d’Assurance-Crédit et des Nouvelles BU , Gestion des Accès..)
  • Création de Tableaux de Bord et Visualisations sous Power BI et DAX, Python
  • Animation d'ateliers techniques
  • Coordination des actions de l’équipe de développeurs
  • Rédaction des documents techniques et relatifs à la conception
  • Analyse des besoins et des contraintes techniques
  • Modélisation, conception et implémentation des flux inter-applicatifs (Internet/externe, CRM, BCE)
  • Développement de rapports ou de tableaux de bord dynamiques via Power BI & SSRS
  • Optimisation des traitements SSIS /requêtes SQL.
  • Réalisation des traitements de reprise de données
  • Analyse et correction des anomalies (tickets JIRA)
  • Participation aux cérémonies agiles
  • Élaboration des planning prévisionnels des projets + chiffrage
  • Suivi de projet : estimation du reste à faire, planning de livraison
  • Environnement technique : SQL Server, Transact SQL (procédures stockées), MSBI (SSIS, SSRS, SSAS),Langage DAX et Power BI, Enterprise Architect
  • Conception et implémentation de datawarehouse pour le SIRH avec expertise dans SSIS, SSRS, SSAS et Power BI
  • Développement de rapports Power BI/SSRS pour visualiser et analyser les indicateurs RH clés
  • Création de membres calculés et mesures en DAX sous SSAS /Power BI en réponse aux besoins métier
  • Collaboration étroite avec les équipes métier pour proposer des solutions BI adaptées
  • Optimisation des requêtes SQL et des modèles de données pour améliorer les performances
  • Travaux sur Azure Cloud (Azure Data Factory, Azure Data Lake) pour la création de pipelines et la préparation des données
  • Participation aux ateliers de cadrage/planification avec les équipes métier
  • Vérification de l’exhaustivité, de la conformité et de la cohérence des données DSN, Paie et des charges sociales
  • Mise en place des exigences RGPD
  • Alimentation du Data Lake Azure et du Data Warehouse du groupe à partir de sources de données variées (fichiers, bases de données, API, etc.)
  • Création d’un modèle de données pour le Datalake, (Modélisation et Conception )
  • Création de flux ETL d’Alimentation du Datalake ( diverses sources Oracle, SQL Server, fichiers, etc.)
  • Conception de Requêtes SQL complexes (SQL Server) / NoSQL (MongoDB)
  • Évaluation et choix d’un outil de visualisation tel que Tableau, Power BI ou QlikView
  • Rédaction de Documentation Technique et de Conception
  • Construction du mapping de données
    Réalisation des jobs de paie et post paie en Batch (Shell Unix Shell Unix )
  • Développement des outils de reprise sous SSIS
  • Requêtes d’extraction des données importantes (données fiscales, absences, primes, temps de travail, etc.)
  • Relation entres les équipes MOE/MOA et métier
  • Modélisation et alimentation du DataWarehouse(jobs ETL Talend, BD Oracle, Shell Unix )
    Mise en place de processus de mise à jour et de synchronisation
  • Mise en œuvre d’un outil de contrôle de la paie ( tableau de bord interactif sous QlikView)
  • Animation d’ateliers de Cadrage des besoins avec le métier
  • Rédaction de documentation technique et de conception
  • Développement et suivi d’exploitation d’ETL sur SQL Server Integration Services (SSIS/SSAS/DAX)
  • Conception d’entrepôt de données : modélisation décisionnelle et optimisation du modèle existant
  • Développements et suivi d’exploitation de procédures stockées SQL Server
  • Développement de rapports SSRS
  • Automatisation de la génération et de la distribution des rapports SSRS
  • Rédaction des spécifications/Mapping détaillées des données
  • Réalisation de procédures stockées (T-SQL), Vue, fonctions
  • Écriture et maintenance des packages SSIS
  • Migrations de versions de bases de données SQL Server & Oracle
  • Reprise d’historique (SSIS, SSAS, SSRS)
  • Conception et développement des flux SSIS
  • rapprochement des données comptables/paie
  • Développement des rapports dynamiques SSRS