Résumé | La généralisation étant au cour de l'évaluation, nous estimons la performance d'un modèle à partir de données que nous n'avons jamais vues, mais que nous nous attendons à rencontrer plus tard. Nos procédures d'évaluation actuelles supposent que les données déjà vues constituent un échantillon aléatoire du domaine d'où seront tirées toutes les données futures. Malheureusement, en pratique, il en va rarement ainsi. Les probabilités sous-jacentes changeront, et nous devons évaluer la robustesse de nos modèles à de telles différences. Cet article part du principe que les modèles devraient être robustes à deux égards. Premièrement, les petits changements survenant dans les probabilités jointes ne devraient pas entraîner de grands changements de la performance. Deuxièmement, lorsque les dépendances entre les attributs et la classe sont constantes et que seules les marginales changent, de simples ajustements devraient suffire à restaurer la performance d'un modèle. Cet article vise à susciter un débat sur la façon dont les mesures de robustesse pourraient être intégrées à nos procédures d'évaluation normales. Des démonstrations claires de la robustesse amélioreraient certainement notre confiance dans la valeur pratique de nos modèles. |
---|