Benoit Cayla


A propos de Benoit Cayla

Ingénieur en informatique avec plus de 20 ans d’expérience dans la gestion et l’utilisation de données, Benoit CAYLA a mis son expertise au profit de projets très variés tels que l’intégration, la gouvernance, l’analyse, l’IA, la mise en place de MDM ou de solution PIM pour le compte de diverses entreprises spécialisées dans la donnée (dont IBM, Informatica et Tableau). Ces riches expériences l’ont naturellement conduit à intervenir dans des projets de plus grande envergure autour de la gestion et de la valorisation des données, et ce principalement dans des secteurs d’activités tels que l’industrie, la grande distribution, l’assurance et la finance. Également, passionné d’IA (Machine Learning, NLP et Deep Learning), l’auteur a rejoint Blue Prism en 2019 et travaille aujourd’hui en tant qu’expert data/IA et processus. Son sens pédagogique ainsi que son expertise l’ont aussi amené à animer un blog en français (datacorner.fr) ayant pour but de montrer comment comprendre, analyser et utiliser ses données le plus simplement possible.

Le « Citizen development » connaîtra-t-il le même sort que le moteur hybride ?

Qui n’a pas entendu parlé de « Citizen development » ? dans cet article j’essaye de prendre à contre-pied cette tendance en y positionnant surtout les limites actuelles tout en essayant d’y trouver les perspectives d’avenir. Alors demandez-vous si les utilisateurs métiers veulent réellement développer leurs applications ou processus ? cette initiative n’est-elle pas qu’une étape vers quelques chose de bien plus augmenté ?


YOLO (Partie 1) Introduction à YOLO avec Darknet 7

Nous allons voir dans cet article, comment avec le réseau de neurones YOLO nous pourrons très simplement détecter plusieurs objets dans une photo. L’objectif n’est pas d’entrer dans le détail de l’implémentation de ce réseau de neurones (beaucoup plus complexe qu’un simple CNN séquentiel) mais plutôt de montrer comment utiliser l’implémentation qui a été réalisée en C++ et qui se nomme Darknet.


Introduction à l’API NLP Cloud

NLPCloud.io est une API permettant de facilement utiliser le NLP en production. L’API se base sur les modèles pré-entrainés de spaCy et Hugging Face (basés sur les transformers). Dans et article nous verrons comment utiliser cet API en quelques lignes …


VGG et Transfer Learning 3

Dans cet article nous allons aborder le concept de Transfer Learning … ou comment éviter de refaire un apprentissage long et consommateur en réutilisant partiellement un réseau de neurones pré-entrainé. Pour ce faire nous utiliserons un réseau qui fait référence en la matière : VGG-Net (vgg16).


Fake news ?

Je vous propose dans cet article de créer un réseau de neurones à convolution pour faire du NLP, et pour les données j’utiliserai un jeu de données que vous pouvez trouver simplement dans les datasets Kaggle : FrenchFakeNewsDetector. Vous l’avez compris l’objectif est double: d’une part voir comment on pourra utiliser la technique de convolution avec des vecteurs (1 dimension au lieu d’images à 2+ dimensions) et d’autre part de faire du NLP avec des données en Français.


Descente de Gradient Stochastique (SGD) & Learning Rate 2

Une fois terminé l’article sur la descente de gradient, je me suis rendu compte qu’il manquait deux points important. Le premier concerne l’approche stochastique dés lors que l’on a des jeux de données trop importants, le second étant de voir très concrètement ce qui se produit quand on choisit mal la valeur du learning rate. Je vais donc profiter de cet article pour finalement continuer l’article précédent 😉


La descente de gradient 1

Comment parler de Machine Learning ou même de Deep Learning sans aborder la – fameuse – descente de gradient ? Il y a beaucoup d’articles sur ce sujet bien sur mais bien souvent il faut lire plusieurs afin de bien en comprendre tous les mécanismes. Souvent trop mathématiques ou pas assez, je vais essayer surtout ici d’expliquer son fonctionnement en douceur et pas à pas afin de tenter une démystification du sujet.


Récupérer les données historique météo 8

Pour une analyse que je voulais faire et après plusieurs recherches, je me suis rendu compte qu’il n’était pas si simple d’utiliser les données historiques de la météo. Bien sur je suis allé sur l’Open data de météo France, mais rien de vraiment exploitable ou alors semble-t-il sans une souscription payante. J’ai donc décidé de les récupérer par le biais d’un programme Python et de la technique de scraping.