Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Alexandre DIEUL

Alexandre DIEUL

Tech lead - Backend developer - DevOps - Freelance

Python
FastAPI
Java / J2EE
Spring
DevOps
38 ans
TOULOUSE (31500)
Freelance Ouvert aux opportunités
Bonjour, je suis ingénieur logiciel avec une forte expertise en développement backend et en data science. Ma spécialisation en Java/Spring et Python, combinée à mon expérience en data engineering et en machine learning, me permet d'aborder de manière compétente une large gamme de projets informatiques.

Mes dernières missions chez Airbus et Shadow illustrent bien ma capacité à gérer des projets complexes et techniques. Chez Airbus, j'ai travaillé sur des projets tels que l'Automated File Classification Tool en utilisant des techniques de machine learning, et j'ai également développé et optimisé des microservices pour des systèmes d'authentification et de gestion des accès. Mon rôle en tant que Tech Lead m'a permis de superviser et de former des équipes, garantissant ainsi la qualité et l'efficacité des projets.

En plus de mes compétences en développement, j'ai également une solide expérience en DevOps, notamment avec des outils tels que Docker, Helm, Kubernetes, et Openshift, ce qui me permet d'automatiser et d'optimiser les processus de déploiement et de gestion des applications.

Je suis passionné par l'innovation technologique et toujours désireux d'acquérir de nouvelles compétences. Que ce soit pour une start-up innovante ou une grande entreprise, je suis prêt à relever de nouveaux défis et à apporter ma contribution à des projets ambitieux.

Cordialement,
Alexandre DIEUL.
CV réalisé sur DoYouBuzz
  • Deep learning (Natural Language Processing): automatisation de la classification des tickets d'incidents
    Objectif: Diminuer le temps de traitement des incidents par les opérateurs, réduction les coûts
    Etapes Clefs:
    1- Définition de la problématique
    2- Collecte des données (diverses sources de données)
    3- Nettoyage des données
    4- Data augmentation
    5- Construction des hypothèses, Détermination des variables explicatives
    6- Construction du modèle
    7- Transfer learning (gagner du temps à l'entraînement afin de ré-utiliser le fruit des précédents entraînements)
    8- Entraînement du réseau de neurones
    9- Exposer le réseau de neurones de classification en l'encapsulant dans un web service REST (Docker, Python, Flask)
    10- Présentation, communication, documentation, automatisation des tâches 1, 2 et 3 de traitement des données (script python)
  • Outils: Python, Jupyter, Pytorch, Fast.ai, Numpi, Panda, Matplotlib, docker
Site web de l'entreprise