Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Alexandre DIEUL

Alexandre DIEUL

Tech lead - Backend developer - DevOps - Freelance

Python
FastAPI
Java / J2EE
Spring
DevOps
38 ans
TOULOUSE (31500)
Freelance Ouvert aux opportunités
Bonjour, je suis ingénieur logiciel avec une forte expertise en développement backend et en data science. Ma spécialisation en Java/Spring et Python, combinée à mon expérience en data engineering et en machine learning, me permet d'aborder de manière compétente une large gamme de projets informatiques.

Mes dernières missions chez Airbus et Shadow illustrent bien ma capacité à gérer des projets complexes et techniques. Chez Airbus, j'ai travaillé sur des projets tels que l'Automated File Classification Tool en utilisant des techniques de machine learning, et j'ai également développé et optimisé des microservices pour des systèmes d'authentification et de gestion des accès. Mon rôle en tant que Tech Lead m'a permis de superviser et de former des équipes, garantissant ainsi la qualité et l'efficacité des projets.

En plus de mes compétences en développement, j'ai également une solide expérience en DevOps, notamment avec des outils tels que Docker, Helm, Kubernetes, et Openshift, ce qui me permet d'automatiser et d'optimiser les processus de déploiement et de gestion des applications.

Je suis passionné par l'innovation technologique et toujours désireux d'acquérir de nouvelles compétences. Que ce soit pour une start-up innovante ou une grande entreprise, je suis prêt à relever de nouveaux défis et à apporter ma contribution à des projets ambitieux.

Cordialement,
Alexandre DIEUL.
CV réalisé sur DoYouBuzz
  • - Reprise de l'existant - Décembre -> Février
    Au sein du département Business Intelligence, je suis intervenu pour reprendre la stack Data existante. Cette stack data permettait de faire remonter les données depuis nos datacenters, répartis en Europe et en Amérique du Nord, pour une analyse en temps réel par la BI.

    Data workflow:
    • extraction (Stripe collector, Zendesk scrapper, MongoDB scrapper, collecteurs internes basés sur Telegraf)
    • messages bus (Kafka)
    • data processing (stream processing en utilisant faust)
    • datalake storage (S3)
    • database storage (Clickhouse)
    • data visualization (Metabase, Grafana)

    Après un rapide transfert de connaissances du précédent Data engineer (~3 semaines), je suis passé seul responsable du bon fonctionnement de la stack Data jusqu'à l'embauche d'un interne en Février 2022.
    En vue d'un futur biseau, J'ai pris un maximum d'informations au jour le jour, j'ai cartographié et documenté mes sessions de debug afin de permettre à mon successeur de démarrer dans de meilleures conditions qu'à mon arrivée.

    Les briques internes à l'écosystème étaient développées en Python3. Nos solutions étaient versionnées sur gitlab. Le déploiement des briques (Docker) se faisait via des playbooks Ansible.
    En plus du monitoring et du debugging de la stack, j'assurais un support sur notre fork de Metabase (outil de visualisation et d’agrégation des données). Je mettais régulièrement à jour ce fork ainsi que je le déployais.
  • - Formation du nouvel interne- élaboration de la nouvelle stack data 2.0 - conception de logiciels sur-mesure pour la BI - Février -> Décembre

    • Formation du nouvel interne grace à la documentation (gitlab) ainsi qu'à mes tutoriels vidéos pédagogiques.

    • [Pour la BI] Conception et publication interne d'un plugin Sheets pour accéder aux données de metabase sur Google Sheet

    • [Pour la BI] Conception et développement (Python3) du projet product-tracking permettant d'extraire la donnée depuis Metabase (DB->Clickhouse) vers Amplitude, un outil d'analyse business avancée.

    • Conception et développement (Python3) du projet synapse-kafka-api. Ce projet expose des endpoints API REST. Il permet aux applications de notre écosystème ne pouvant pas s'interfacer avec le bus de messages Kafka de diffuser des events kafka grâce à de simples requêtes HTTP.

    • Participation à la conception de la nouvelle stack Data v2.
      Data workflow:

    • Pour les sources tierces (Stripe, Zendesk, MongoDB)
      ++ Data ingestion tool: Airbyte [-> Data Warehouse]
    • Pour les sources internes (applications JS, Python).
      ++ Data integration tools: Kapacitor, Kafka connect -> Kafka [-> Data Warehouse].
    • Data Warehouse: Snowflake, Amazon Redshift, BigQuery [-> Visualization tools / ML Tools]
    • Orchestrator: DBT.
    • Visualization tools: Metabase, Grafana.
Description de l'entreprise
Shadow est une société française spécialisée dans le cloud computing via son service « Shadow ».
Site web de l'entreprise