Intermédiaire
🧠 Fondamentaux
20 XP
0 personnes ont réussi
Accuracy et classification report
Ton modele est entraine, il fait des predictions. Mais sont-elles bonnes ? L'accuracy est la metrique la plus intuitive : le pourcentage de bonnes reponses. Mais attention, elle peut etre trompeuse. Si 95% de tes donnees sont de classe 0, un modele qui repond toujours 0 a 95% d'accuracy sans rien avoir appris.
Mais l'accuracy seule peut etre trompeuse. Si 95% de tes données sont de classe 0, un modèle qui predit toujours 0 aura 95% d'accuracy sans rien avoir appris. C'est pour ca qu'on utilise aussi le classification_report, qui donne : precision : parmi les predictions positives, combien sont correctes recall : parmi les vrais positifs, combien ont ete trouves f1-score : la moyenne harmonique de precision et recall
Écris une fonction evaluer_classification(y_vrai, y_predit) qui renvoie un dictionnaire avec : 'accuracy' : le taux de bonnes predictions (float entre 0 et 1) 'rapport' : le dictionnaire du classification_report (avec output_dict=True)