Intermédiaire
🧠 Fondamentaux
20 XP
0 personnes ont réussi
Calculer le coût du fine-tuning
Le fine-tuning n'est pas gratuit. Chaque token que le modèle traite pendant l'entraînement te coûte de l'argent. Avant de lancer un job, il faut estimer combien ça va coûter pour éviter les mauvaises surprises sur ta facture OpenAI.
Un "token" c'est environ 4 caractères en anglais (un peu moins en français à cause des accents). Pour une estimation rapide, on divise le nombre de caractères par 4.
Un "epoch" c'est un passage complet du modèle sur tout le dataset. Par défaut, OpenAI utilise 3 epochs, mais tu peux en mettre plus si ton dataset est petit.
Le prix du fine-tuning dépend du modèle. Par exemple, pour GPT-4o-mini c'est environ 3 dollars par million de tokens d'entraînement, et pour GPT-4o c'est environ 25 dollars par million de tokens (vérifie les prix actuels sur la page OpenAI Pricing, car ils évoluent régulièrement).
Écris une fonction calculer_cout(exemples, prix_par_million=3.0, epochs=3) qui : 1. Calcule le nombre total de caractères dans tous les contenus de tous les messages 2. Estime le nombre de tokens en divisant par 4 3. Calcule le coût total : tokens * (prix_par_million / 1_000_000) * epochs 4. Renvoie un dictionnaire avec "total_caracteres", "tokens_estimes", "cout_par_epoch" et "cout_total" (arrondi à 4 décimales)