Je lis environ deux techniques d'interprétabilité de modèles post hoc populaires: LIME et SHAP
J'ai du mal à comprendre la principale différence entre ces deux techniques.
Pour citer Scott Lundberg , le cerveau derrière SHAP:
Les valeurs SHAP viennent avec les avantages d'estimation locale de la boîte noire de LIME, mais aussi avec des garanties théoriques sur la cohérence et la précision locale de la théorie des jeux (attributs d'autres méthodes que nous avons unifiées)
J'ai du mal à comprendre ce que sont ces « garanties théoriques sur la cohérence et la précision locale de la théorie des jeux ». Puisque SHAP a été développé après LIME, je suppose qu'il comble certaines lacunes que LIME ne parvient pas à combler. Quels sont ces?
Le livre de Christoph Molnar dans un chapitre sur l'estimation de Shapley déclare:
La différence entre la prédiction et la prédiction moyenne est équitablement répartie entre les valeurs des caractéristiques de l'instance - la propriété d'efficacité shapley. Cette propriété définit la valeur Shapley indépendamment des autres méthodes comme LIME. LIME ne garantit pas une distribution parfaite des effets. Cela pourrait faire de la valeur Shapley la seule méthode pour fournir une explication complète
En lisant ceci, j'ai l'impression que SHAP n'est pas une explication locale mais glocale du point de données. Je peux me tromper ici et avoir besoin d'un aperçu de ce que signifie cette citation ci-dessus. Pour résumer ma demande: LIME produit des explications locales. En quoi les explications de SHAP sont-elles différentes de celles de LIME?
la source
Réponses:
LIME crée un modèle de substitution localement autour de l'unité dont vous souhaitez comprendre la prédiction. Elle est donc intrinsèquement locale. Les valeurs galbées `` décomposent '' la prédiction finale en contribution de chaque attribut - c'est ce que certains entendent par `` cohérent '' (les valeurs s'additionnent à la prédiction réelle du vrai modèle, ce n'est pas quelque chose que vous obtenez avec LIME). Mais pour obtenir réellement les valeurs galbées, il faut prendre une décision quant à ce qu'il faut faire / comment gérer les valeurs des attributs «laissés de côté», c'est ainsi que les valeurs sont obtenues. Dans cette décision, il y a un choix qui pourrait changer l'interprétation. Si je «laisse de côté» un attribut, est-ce que je fais la moyenne de toutes les possibilités? Choisissez-vous une «ligne de base»?
Donc, Shapely vous dit en fait, de manière additive, comment vous avez obtenu votre score, mais il y a un certain choix quant au «point de départ» (c'est-à-dire la décision concernant les attributs omis).
LIME vous indique simplement, au sens local, quel est l'attribut le plus important autour du point de données concerné.
la source