As a Big Data consultant for almost 10 years, I have acquired in-depth expertise by successfully completing the "Cloudera Administrator Training for Apache Hadoop" offered by a Cloudera partner institution. My passion for Big Data technologies and machine learning algorithms has led me to play a key role in numerous projects. My main objective has been to assist clients in efficiently migrating from traditional data management solutions to new Big Data solutions.
Within this scope, I have designed and developed innovative Big Data projects, utilizing technologies such as Hadoop, Spark, and Kafka. My role extended beyond design and development; I was also responsible for the administration and maintenance of Big Data platforms, ensuring their optimal health and performance.
Additionally, I keep abreast of the latest technological advancements in the Big Data field. That's why I actively participate in Meetups where I discuss the latest trends in Big Data, artificial intelligence, and open-source software.
Outside of my Big Data-focused professional career, I have a passionate interest in sports and activities such as cycling, motorcycling, skydiving, as well as photography, aviation and space exploration. This diversity of interests enriches my professional journey by bringing a holistic perspective to my projects and collaborations.
dans le cadre du développement d’un algorithme d’analyse de données tournant sur un dispositif de suivi de sommeil composé d'une multitude de capteurs, ma mission avait pour objectifs de :
Améliorer le code existant pour optimiser: -- La collecte des informations fournies par la multitude de capteurs -- fixer les conditions d’acquisition de données permettant d’améliorer l'exploitation de ces données enregistrées par les capteurs.
Exploiter en tant que "Data Analyst" les centaines de milliers de données pour déterminer au plus près de la réalité, les divers stades du sommeil.
Mesurer les performances de l’algorithme.
Présenter de manière graphique les résultats de ces analyses.
Dans le cadre de cette mission ponctuelle ; mes principales tâches se résument à :
Installer, configurer et mettre en oeuvre sur un serveur (Linux Red Hat) distant et sur la machine en local les différents outils de développement adéquats.
Gestion de sauvegarde, de transfert et de récupération des données enregistrées par les capteurs.
Lire et comprendre les différents scripts de l’algorithme.
Rédiger des documents décrivant l’architecture de l’algorithme.
Effectuer plusieurs tests de l’algorithme sur de nouvelles données.
Améliorer la visualisation des sorties pour une meilleure interprétation des résultats.
Générer de nouvelles sorties de l’algorithme pour une meilleure évaluation des performances de l’algorithme.
Contribuer à l’amélioration de l’algorithme par des méthodes d’apprentissage automatique.