Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Alexandre DIEUL

Alexandre DIEUL

Tech lead - Backend developer - DevOps - Freelance

Python
FastAPI
Java / J2EE
Spring
DevOps
38 ans
TOULOUSE (31500)
Freelance Ouvert aux opportunités
Bonjour, je suis ingénieur logiciel avec une forte expertise en développement backend et en data science. Ma spécialisation en Java/Spring et Python, combinée à mon expérience en data engineering et en machine learning, me permet d'aborder de manière compétente une large gamme de projets informatiques.

Mes dernières missions chez Airbus et Shadow illustrent bien ma capacité à gérer des projets complexes et techniques. Chez Airbus, j'ai travaillé sur des projets tels que l'Automated File Classification Tool en utilisant des techniques de machine learning, et j'ai également développé et optimisé des microservices pour des systèmes d'authentification et de gestion des accès. Mon rôle en tant que Tech Lead m'a permis de superviser et de former des équipes, garantissant ainsi la qualité et l'efficacité des projets.

En plus de mes compétences en développement, j'ai également une solide expérience en DevOps, notamment avec des outils tels que Docker, Helm, Kubernetes, et Openshift, ce qui me permet d'automatiser et d'optimiser les processus de déploiement et de gestion des applications.

Je suis passionné par l'innovation technologique et toujours désireux d'acquérir de nouvelles compétences. Que ce soit pour une start-up innovante ou une grande entreprise, je suis prêt à relever de nouveaux défis et à apporter ma contribution à des projets ambitieux.

Cordialement,
Alexandre DIEUL.
CV réalisé sur DoYouBuzz
  • J'interviens sur le projet AFCT (Automated File Classification Tool). Notre but est de proposer un service permettant de déterminer automatiquement le degré de sensibilité de documents en utilisant des techniques de machine learning.

    L'équipe (Agile - SAFE) est composée de 8 personnes de côté d'Alten et d'à peu près 10 personnes du côté de Capgemini. Les ingénieurs qui composent cette grande équipe ont des profils de développeur et surtout de Data scientist.

    J'interviens en tant que Techlead. En plus de participer à l'architecture des différentes solutions ainsi que du développement comme n'importe quel développeur de l'équipe, je suis responsable de la codebase devant le PO, le client Airbusien ainsi que l'architecte solution qui nous accompagne.

    Je suis chargé de faire monter en compétences une équipe de niveau intermédiaire. Cette équipe comporte 4 développeurs python backend côté Alten et un peu plus côté Capgemini (3~7 personnes).
    Je suis chargé de faire respecter les bonnes pratiques de code (code quality, Definition of Done, Gitflow, python3 PEP8), les objectifs en matière de diminution de la dette technique accumulée par le passé (couverture de tests, documentation).
    Je fais ceci au travers de présentations techniques, de sessions de Shadowing, de workshops techniques qu'ils soient prévus ou commandés par les besoins des développeurs.
    Je produis beaucoup de contenus de documentation, souvent écrits, parfois en vidéos, en mettant toujours l'accent sur la pédagogie, la bienveillance et la pratique. Jamais un concept abstrait n'est abordé sans une application concrète "hands-on" dans leurs tâches quotidiennes. Ce fut notamment le cas quand j'ai vulgarisé pour eux le fonctionnement des API REST, le Gitflow et la création de la chaîne DevOps. Mon exigence vis-à-vis de mes développeurs est acceptée parce qu'ils constatent rapidement leur montée en compétences et ils sont conscients que j'ai largement défrichés des sujets épineux pour eux.
  • Stack technique:
    • Python 3.8/3.9
    • Pytest
    • FastAPI
    • Swagger
    • Alembic
    • Pydantic
    • SQLAlchemy
    • PostgreSQL
    • OAuth2/MobileSSO
    • Github
    • Jenkins
    • Openshift4
    • PyCharm
    • JupyterHub
    • Shell/bash (côté Linux)
    • PowerShell (coté Windows)
    • Confluence
    • Sonarqube
    • Artifactory / JFrog
  • Jalons:

    > Dès mon arrivée: audit de la codebase, shadowing des développeurs, estimations de la dette technique et du niveau de chacun. Après détermination du plan d'action avec le PO-proxy, écriture de contenus de formation (Gitflow, Coding rules, Git rules), présentation de ces contenus au travers de workshops et contrôle de la mise en application des bonnes pratiques ainsi que de la diminution de la dette technique.

    > Architecture, conception, développement et déploiement de la première API REST (batch API) de notre écosystème. Les premières APIs ont également été utilisées comme références afin d'illustrer comment architecturer une API REST (Design pattern MVCS), comment gérer l'évolution et le déploiement du modèle séparé, comment tester unitairement et fonctionnellement ces applications. Les autres développeurs ont rapidement été appelés à prendre en main ces projets et à se les approprier en ajoutant de nouveaux endpoints, ce qu'ils ont fait volontiers.

    > Création de la chaîne DevOps (une précédente chaîne existait mais elle était dysfonctionnelle et incomplète).
    Workflow:
    Les pipelines Jenkins réagissent par appel de webhook à des événements github en se lançant automatiquement. Ils récupèrent le code, exécutent les tests unitaires & fonctionnels, postent le résultat des tests sur la page de la Pull Request sur Github, calculent la couverture qu'ils envoient sur SonarQube, publient l'artefact de la solution sur Artifactory et déploient la solution sur OpenShift4.
    La création ainsi que le paramétrage de la chaîne DevOps sont intégralement documentés.
    Une première développeuse a déjà été appelée à s'aider de la documentation afin de monter la chaîne DevOps liée à une nouvelle brique de l'écosystème Api Reporting.
Description de l'entreprise
Airbus est un constructeur d’avion franco-allemand et une coopération industrielle internationale présente dans le secteur aéronautique et spatial civil et militaire.