Pratique Python, IA Engineering et bien plus avec des exercices interactifs et des tests automatiques.
Un bon assistant ne se contente pas de repondre a une question et de quitter. Il reste disponible pour la suite. Tu lui poses une …
C'est ici que tout prend vie. Un agent, c'est un LLM qui tourne en boucle : il recoit une instruction, decide quoi faire, execute une …
Tu as maintenant quatre outils : lire un fichier, lister les fichiers, ecrire dans un fichier, et chercher du texte. Mais le LLM ne peut …
Quand tu demandes a Claude Code "trouve ou on utilise la variable API_KEY dans le projet", il fait un grep. Il parcourt tous les fichiers, …
La vraie puissance de Claude Code, c'est de pouvoir executer du code. Le LLM ecrit un script, le lance, voit les erreurs, corrige, relance. C'est …
Claude Code ne fait pas que lire du code : il en ecrit aussi. Quand tu lui dis "cree un fichier utils.py avec une fonction …
Ce qui fait la force de Perplexity par rapport a ChatGPT, c'est la transparence. Chaque affirmation est accompagnee d'une source. L'utilisateur peut verifier, approfondir, ou …
En production, tout peut echouer. L'API Tavily renvoie une erreur 429 (trop de requetes). Le serveur web que tu scrapes est en panne. L'API OpenAI …
Un agent intelligent ne traite pas toutes les questions de la meme facon. "Combien font 15% de 250 ?" devrait aller directement a la calculatrice, …
A l'exercice precedent, tu as construit une boucle agent "a la main". Ca marche, mais des que le flux devient complexe (plusieurs chemins possibles, des …
Imagine que tu demandes a ton agent "Quelles sont les nouveautes de Python 3.13 ?" puis "Et celles de Python 3.12 ?" puis "Compare les …
Tu as les briques : des outils (recherche web, lecture de page, calculatrice) et un mecanisme pour les appeler (function calling). Maintenant il faut le …
Ton agent sait maintenant chercher sur le web. Mais les resultats de recherche ne donnent qu'un court extrait. Pour vraiment comprendre un sujet, l'agent doit …
Ton agent a besoin d'yeux sur le web. Quand l'utilisateur demande "Quelles sont les dernieres nouvelles sur Python 3.13 ?", l'agent doit pouvoir chercher des …
Ton pipeline RAG fonctionne, mais est-ce qu'il repond bien ? En production, tu ne peux pas te contenter de "ca a l'air de marcher". Il …
Tu as toutes les briques : appel API, gestion de conversation, chargement de documents, chunking, base vectorielle, recherche. Maintenant tu vas les assembler en un …
Tu as tes chunks dans une base vectorielle. Quand l'utilisateur pose une question, tu dois trouver les chunks les plus pertinents. C'est la recherche semantique …
Tu as tes chunks. Maintenant il faut pouvoir retrouver les bons quand l'utilisateur pose une question. La recherche par mots-cles (comme un Ctrl+F) ne suffit …
Tu as tes documents charges, mais certains font 50 pages. Si tu envoies un document entier au LLM comme contexte, deux problemes : ca coute …
Tu as un chatbot qui marche, mais combien ca coute ? En production, c'est LA question que ton manager va te poser. "On a 500 …
Le fine-tuning coûte de l'argent à deux moments : l'entraînement (une seule fois) et l'inférence (à chaque requête). La question que ton manager va te …
Quand tu estimes le coût du fine-tuning en divisant le nombre de caractères par 4, tu obtiens une approximation. Parfois ça suffit pour une estimation …
Fine-tuner un modèle sans l'évaluer, c'est comme cuisiner sans goûter. Comment tu sais si c'est mieux qu'avant ? Il faut comparer les réponses du modèle …
Quand ton dataset de fine-tuning est trop petit (moins de 100 exemples), le modèle risque de sur-apprendre. Une technique classique c'est l'augmentation de données : …