Intelligence Artificielle

L’Intelligence Artificielle est au coeur de nos vies et de nos usages. Dans ces articles nous verrons comment cette fameuse IA fonctionne, quels sont ses mécanismes et ce que l’on peut en faire.


Mon livre sur la préparation des données est disponible en avant première (MEAP)!

Après des mois de travail acharné et de passion, je suis ravi(e) de partager une nouvelle exceptionnelle : le livre Data Preparation Handbook est maintenant disponible dans le programme MEAP (Manning Early Access Program) ! 🎉 📖 Pourquoi ce livre ? La préparation des données est une étape cruciale pour réussir tout projet de données, qu’il s’agisse de tableaux de bord, de modèles d’IA ou d’analyses avancées. Mais c’est aussi l’un des plus grands défis, un peu comme démêler une guirlande lumineuse pendant les fêtes 🎄. Avec ce livre, j’ai voulu rendre cette étape plus simple, plus claire, et surtout […]


Introduction au RAG (Retrieval Augmented Generation) 2

Suite à l’un de mes précédent article sur le RAG (Retrieval Augmented Generation), et quelques commentaires pertinents de lecteurs, je me dois d’aller plus dans le détail sur cette technologie. En fait je vais faire mieux que cela, et je vais décomposer pierre par pierre cette technique et vous montrer qu’elle n’est pas très complexe finalement.
Commençons par un article explicatif, et les prochain seront eux focalisés sur la mise en oeuvre étape par étape.


Document chunking !

Le document chunking est une pratique courante en intelligence artificielle qui prend de plus en plus d’importance avec la démocratisation des LLM et dutraitements de données textuelles via NLP en général. Son objectif est de permettre le découpage de vastes ensembles de documents en segments plus petits. Cette méthode ou technique facilite grandement l’analyse et le traitement des informations permettant aux algorithmes d’IA d’opérer de manière plus efficiente sur des portions de texte réduites. L’objectif est de réduire la surcharge d’informations et les problèmes de performance liés au traitement de documents entiers. De plus, cette segmentation permet de réduire la complexité des tâches d’analyse, en offrant une approche plus gérable pour les modèles d’IA.


Profiler vos données tout simplement avec Python et Pandas

Il existe bien sur beaucoup de librairies (comme Pandas Profiling ou plutôt ydata-profiling dorénavant) et surtout beaucoup d’outils qui permettent plus ou moins simplement d’effectuer une analyse structurelle de vos données (on se limitera ici d’un profiling de table).

Mais voilà, parfois une approche minimaliste suffit amplement. Rien ne nécessite la mise en place d’une artillerie lourde et couteuse en ressource ! L’idée de cet article est de vous montrer qu’avec la simple (mais très riche) librairie Pandas vous avez déjà de quoi vous satisfaire amplement.


Introduction à LIME (XAI)

Dans cet article je vous propose de découvrir l’outil de XAI (eXplainable AI) très utilisé qu’est LIME. Avec Google colab, et au travers d’un cas pratique guidé pas à pas vous allez voir comment il est simple et pratique d’utiliser cette librairie avec Python.


Evaluez l’importance des variables (« Feature Importance ») 2

Le Machine Learning fait sans doute peur aujourd’hui à cause de son coté boite noire. L’approche « mathématiques » (statistiques / Probabilités) fait peur car nous comprenons difficilement la raison des choix du modèle qui a été conçu. Dans cet article nous allons voir comment ces approches statistiques permettent de trouver quelles variables permettent de déterminer ce ou ces choix du modèle. Car c’est finalement bien là l’essence du Machine Learning: trouver les éléments/variables qui on conduit à faire un choix ou prendre une décision non ?