Exercices de Code

Pratique Python, IA Engineering et bien plus avec des exercices interactifs et des tests automatiques.

Tous niveaux Debutant Intermediaire Avance
Tous les sujets Les Bases Python (71) Structures de données (40) Fonctions & Modules (106) POO (53) Architecture & Patterns (57) Algorithmes (47) Concepts Web & Django (50) IA & Data Science (22) Prompt Engineering (15) Projets guidés (81) Django Avancé (18) AI Engineering (19) Machine Learning (30) Entraîner son LLM (15) Computer Vision (18)

Suivre un parcours

Python Fondamental 3 sections
Developpeur Python 6 sections
Algorithmes & Entretiens 3 sections
Web & Django 4 sections
IA & Machine Learning 4 sections
IA Generative & RAG 5 sections
Automatisation & Scripts 5 sections
Neurosciences & IA 5 sections
Vision par Ordinateur 4 sections
Débutant 🧠 Fondamentaux Entraîner son LLM GRATUIT

Créer un exemple d'entraînement

Quand tu veux fine-tuner un modèle comme GPT-4o-mini pour qu'il réponde d'une façon précise (ton style, tes règles, ton domaine), tu dois lui montrer des …

10 XP 0 réussites
Résoudre →
fine-tuning openai jsonl
Débutant 🧠 Fondamentaux Entraîner son LLM GRATUIT

Convertir des données brutes en JSONL

En pratique, tes données d'entraînement ne tombent jamais du ciel au bon format. Tu les récupères depuis un fichier CSV, une base de données, un …

10 XP 0 réussites
Résoudre →
fine-tuning jsonl csv
Intermédiaire 🧠 Fondamentaux Entraîner son LLM GRATUIT

Auditer la qualité d'un dataset

Avant d'envoyer ton dataset à OpenAI, tu ne vérifies pas juste le format. Tu vérifies la qualité. Un dataset qui passe la validation de format …

20 XP 0 réussites
Résoudre →
fine-tuning validation qualité
Débutant 🧠 Fondamentaux Entraîner son LLM GRATUIT

Nettoyer les données d'entraînement

Dans un vrai projet de fine-tuning, tes données brutes ne sont jamais propres. Tu récupères des conversations depuis un export Slack, un CRM ou un …

10 XP 0 réussites
Résoudre →
fine-tuning nettoyage dataset
Intermédiaire 🧠 Fondamentaux Entraîner son LLM

Calculer le coût du fine-tuning

Le fine-tuning n'est pas gratuit. Chaque token que le modèle traite pendant l'entraînement te coûte de l'argent. Avant de lancer un job, il faut estimer …

20 XP 0 réussites
Résoudre →
fine-tuning coût tokens
Intermédiaire 🧠 Fondamentaux Entraîner son LLM

Splitter train et validation

En machine learning, tu n'entraînes jamais un modèle sur 100% de tes données. Tu en gardes une partie de côté (le set de validation) pour …

20 XP 0 réussites
Résoudre →
fine-tuning split train
Intermédiaire 🧠 Fondamentaux Entraîner son LLM

Augmenter les données d'entraînement

Quand ton dataset de fine-tuning est trop petit (moins de 100 exemples), le modèle risque de sur-apprendre. Une technique classique c'est l'augmentation de données : …

20 XP 0 réussites
Résoudre →
fine-tuning augmentation données
Intermédiaire 🧠 Fondamentaux Entraîner son LLM

Évaluer avant et après fine-tuning

Fine-tuner un modèle sans l'évaluer, c'est comme cuisiner sans goûter. Comment tu sais si c'est mieux qu'avant ? Il faut comparer les réponses du modèle …

20 XP 0 réussites
Résoudre →
fine-tuning évaluation similarité
Avancé 🧠 Fondamentaux Entraîner son LLM

Distillation simulée

La distillation, c'est une technique où un gros modèle (le "professeur") génère des réponses de haute qualité, et un petit modèle (l'"élève") apprend à les …

30 XP 0 réussites
Résoudre →
fine-tuning distillation professeur
Avancé 🧠 Fondamentaux Entraîner son LLM

Créer un dataset de préférences (DPO)

Le DPO (Direct Preference Optimization) est une alternative au RLHF pour aligner un modèle sur les préférences humaines. Au lieu de former un modèle de …

30 XP 0 réussites
Résoudre →
fine-tuning dpo préférences
Avancé 🧠 Fondamentaux Entraîner son LLM

Pipeline complet de préparation fine-tuning

Tu es développeur IA dans une startup edtech. Ton boss te demande de fine-tuner GPT-4o-mini pour qu'il réponde aux questions des élèves sur Python, dans …

30 XP 0 réussites
Résoudre →
fine-tuning pipeline projet
Intermédiaire 🧠 Fondamentaux Entraîner son LLM

Compter les tokens d'un dataset avec tiktoken

Quand tu estimes le coût du fine-tuning en divisant le nombre de caractères par 4, tu obtiens une approximation. Parfois ça suffit pour une estimation …

20 XP 0 réussites
Résoudre →
fine-tuning tiktoken tokens
Intermédiaire 🧠 Fondamentaux Entraîner son LLM

Calculer le ROI du fine-tuning

Le fine-tuning coûte de l'argent à deux moments : l'entraînement (une seule fois) et l'inférence (à chaque requête). La question que ton manager va te …

20 XP 0 réussites
Résoudre →
fine-tuning roi coût
Avancé 🧠 Fondamentaux Entraîner son LLM

Évaluer un embedding fine-tuné

Quand tu fine-tunes un modèle d'embedding (comme text-embedding-3-small d'OpenAI), tu veux vérifier qu'il retrouve mieux les documents pertinents qu'avant. Pour ça, on utilise deux métriques …

30 XP 0 réussites
Résoudre →
fine-tuning embedding evaluation
Avancé 🧠 Fondamentaux Entraîner son LLM

Analyser les hyperparamètres de fine-tuning

Quand tu lances un fine-tuning, tu ne choisis pas seulement tes données. Tu choisis aussi des hyperparamètres qui contrôlent comment le modèle apprend. Les trois …

30 XP 0 réussites
Résoudre →
fine-tuning hyperparamètres overfitting