39. Como utilizar
em Boosted
Trees?
Ao invés de tirar a média das
contribuições das árvores, só
precisamos somá-las.
Disponível no seguinte pacote:
● ELI5
e.g., XGBoost, LightGBM
40. ELI5 — XGBoost — Feature Importances (dataset do Titanic)
49. Mais casos de
uso
● Entender se o modelo aprende
com as features corretas /
sofre de overfitting com
features em específico
● Indentificar data leakage
● Dataset shift (dados de treino
diferentes de dados de teste)
● Caso de pneumunia/asma
● Caso Stripe
Amazon, Netflix
50. Mais casos de
uso
● Entender se o modelo aprende
com as features corretas /
sofre de overfitting com
features em específico
● Indentificar data leakage
● Dataset shift (dados de treino
diferentes de dados de teste)
● Caso de pneumunia/asma
● Caso Stripe
Amazon, Netflix
51. Mais casos de
uso
● Entender se o modelo aprende
com as features corretas /
sofre de overfitting com
features em específico
● Indentificar data leakage
● Dataset shift (dados de treino
diferentes de dados de teste)
● Caso de pneumunia/asma
● Caso Stripe
Amazon, Netflix
52. Mais casos de
uso
● Entender se o modelo aprende
com as features corretas /
sofre de overfitting com
features em específico
● Indentificar data leakage
● Dataset shift (dados de treino
diferentes de dados de teste)
● Caso de pneumunia/asma
● Caso Stripe
Amazon, Netflix
53. Mais casos de
uso
● Entender se o modelo aprende
com as features corretas /
sofre de overfitting com
features em específico
● Indentificar data leakage
● Dataset shift (dados de treino
diferentes de dados de teste)
● Caso de pneumunia/asma
● Caso Stripe
Amazon, Netflix
54. ● Não só útil quando as coisas não estão
funcionando bem
● Custos diferentes para tipos de erro
55. Referências
Interpreting Random Forests
Random forest interpretation with scikit-learn
Random forest interpretation – conditional feature contributions
Interpreting Decision Trees and Random Forests
XGBoost Decision Paths
Explaining XGBoost predictions on the Titanic dataset
“Why Should I Trust You?” Explaining the Predictions of Any Classifier
56. Referências (podcasts)
TWiML: Exploring Black Box Predictions with Sam Ritchie
TWiML: Carlos Guestrin – Explaining the Predictions of Machine Learning Models
Data Skeptic: Marco Ribeiro - Trusting Machine Learning Models With Lime