Formations
Comprendre ce que l'IA et la Data Science peuvent apporter à votre domaine, sans nécessairement apprendre à coder.
Des sessions courtes, ancrées dans votre réalité scientifique, pour identifier les opportunités concrètes et prendre des décisions éclairées.
Un chercheur n’a pas forcément besoin de savoir entraîner un réseau de neurones pour tirer parti du Deep Learning ou de l’IA générative. Il a besoin de comprendre ce que ces outils peuvent faire, dans quelles conditions ils fonctionnent bien, et où ils échouent.
Le but de cette prestation est de permettre à une équipe d’appréhender les concepts clefs de la Data Science et de l’IA, afin de collaborer efficacement avec des spécialistes, évaluer des prestataires, ou simplement orienter ses propres projets en connaissance de cause.
Ces formations sont calibrées sur votre profil, vos problématiques et vos questions — sans une ligne de code.
Data Science : Machine Learning & Deep Learning
Comprendre comment les modèles apprennent, décident, et sont évalués.
Les modèles de Machine Learning et de Deep Learning sont aujourd’hui au cœur d’une proportion croissante d’outils scientifiques, médicaux et industriels. Mais leur fonctionnement reste opaque pour la majorité des utilisateurs, ce qui rend difficile leur évaluation critique ou leur intégration dans un projet.
Ce que couvre cette session :
- Comment un modèle “apprend” à partir de données
- La différence entre Machine Learning classique et Deep Learning : quand utiliser l’un ou l’autre
- Les grands types de modèles et leurs domaines d’application : classification, régression, clustering, génération
- Ce que signifie “entraîner un modèle” : données, exemples, itérations
- Les limites : pourquoi un modèle précis en test peut échouer en production, le problème du surapprentissage, les biais dans les données
- Comment évaluer un modèle : les métriques clés, ce qu’elles disent et ce qu’elles cachent — pour ne pas se faire vendre un modèle sur-optimisé
- Comment l’exploiter : intégrer un modèle existant dans un workflow scientifique, comprendre ses sorties, savoir quand lui faire confiance
Exemples personnalisés selon votre domaine : prédiction d’activité moléculaire, classification de documents, détection d’anomalies dans des données expérimentales, etc.
Automatisation
Identifier ce qui peut être délégué à une machine … et ce qui ne devrait pas l’être !
Une grande partie du temps de travail scientifique est consacrée à des tâches répétitives : reformater des données, extraire des informations de documents, consolider des tableaux, générer des rapports.
Ce que couvre cette session :
- Cartographier les tâches répétitives de votre équipe et évaluer leur potentiel d’automatisation
- Les outils no-code disponibles : connecteurs, workflows visuels, scripts simples accessibles sans programmation
- Ce qui est automatisable sans risque et ce qui ne l’est pas
- Risques et bonnes pratiques
Exemples : extraction automatique de données depuis des PDFs de publications, consolidation de résultats expérimentaux, veille bibliographique automatisée.
IA générative, RAG et systèmes agentiques
Comprendre les LLMs (grands modèles de langage) au-delà du chatbot : leurs capacités réelles, leurs limites, et comment les déployer sur vos propres données.
Les grands modèles de langage (ChatGPT, Claude, Gemini…) sont devenus des outils du quotidien, mais leur utilisation reste souvent superficielle et opaque. Comprendre ce qui se passe “sous le capot” permet d’en tirer parti de façon beaucoup plus efficace, et d’éviter les erreurs coûteuses.
Ce que couvre cette session :
Les LLMs
- Comment fonctionne un grand modèle de langage : le principe de la prédiction de texte, l’attention, l’émergence des capacités
- Pourquoi les LLMs “hallucinent” : mécanisme, fréquence, conséquences, et comment s’en prémunir
- Ce qu’un LLM fait bien, et ce qu’il fait mal : tâches de synthèse, raisonnement, calcul, mémoire
- Modèles locaux vs API cloud : différences de performance, de coût et de confidentialité
RAG : Retrieval-Augmented Generation
- Le problème de la fenêtre de contexte : pourquoi un LLM ne peut pas “lire” toute votre bibliothèque
- Le principe du RAG : indexer vos documents, récupérer les passages pertinents, générer une réponse sourcée
- Forces et limites
- Risques et bonnes pratiques
Systèmes agentiques
- Au-delà du chatbot : qu’est-ce qu’un agent IA et en quoi il diffère d’un simple LLM
- Ce qu’un agent peut faire : planifier, chercher de l’information, exécuter des actions, itérer
- Applications concrètes en recherche
- Risques et bonnes pratiques
Format
- Durée : de 2h (sensibilisation sur un thème) à une journée (plusieurs modules combinés)
- Présentiel ou distanciel : déplacement possible, ou session en visio avec outils collaboratifs
- Taille de groupe : jusqu’à une dizaine de participants pour les sessions interactives
- Supports : slides et ressources pour aller plus loin, fournis après la session
Contact
Décrivez-moi votre contexte (domaine, profil de l’équipe, question ou objectif principal), pour recevoir un devis personnalisé.
Tarif : 50€/heure/personne