主要观点总结
本文主要介绍了如何使用randomForestExplainer对随机森林模型的结果进行解释,包括最小深度分布、变量重要性和交互作用解释等方面的内容。
关键观点总结
关键观点1: 最小深度分布
通过计算每个特征的深度分布,可以了解特征的重要性。使用min_depth_frame和plot_min_depth_distribution函数可以可视化每个特征的最小深度分布及平均值。
关键观点2: 变量重要性
通过计算多种衡量变量重要性的指标,如mean_min_depth、no_of_nodes、mse_increase等,可以评估每个变量对模型预测结果的影响。使用importance_frame和plot_multi_way_importance函数可以展示多个变量重要性指标。
关键观点3: 交互作用解释
在选择了重要的变量之后,可以探索它们之间的交互作用。使用interactions_frame和plot_min_depth_interactions函数可以了解变量间的交互作用及最小深度等信息。进一步探索特定交互作用对预测结果的影响,可以使用plot_predict_interaction函数。
文章预览
今天给大家介绍如何使用 randomForestExplainer 对随机森林模型的结果进行解释。 从名字就能看出来, randomForestExplainer 是专门为 randomForest 包开发的模型解释R包,也是 DrWhy.AI 系列工具的一部分。 相比于其他的通用的模型解释R包,这个包有一些独特的功能,可以对随机森林模型进行非常详尽的解释。 安装 # 2选1 install.packages( "randomForestExplainer" ) devtools::install_github( "ModelOriented/randomForestExplainer" ) 加载R包和数据 使用一个回归数据集进行演示。其中 medv 是结果变量(房价),其余是预测变量(13个预测变量) library (randomForest) library (randomForestExplainer) data(Boston, package = "MASS" ) Boston$chas str(Boston) ## 'data.frame': 506 obs. of 14 variables: ## $ crim : num 0.00632 0.02731 0.02729 0.03237 0.06905 ... ## $ zn : num 18 0 0 0 0 0 12.5 12.5 12.5 12.5 ... ## $
………………………………