问题标签 [xai]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - SHAP:shap_values 计算中的 XGBoost 和 LightGBM 差异
我在 Visual Studio 代码中有这个代码:
当我运行此代码时,我收到此错误:
上shap.summary_plot
线。
有什么问题,我该如何解决?
以上代码基于此代码示例:https ://github.com/slundberg/shap 。
数据集如下:
请注意,实际数据有 700 行,但我复制了其中的一小部分只是为了展示数据的外观。
编辑 1
这个问题的主要原因是要了解在使用不同的分类器时应该如何更改代码。
我最初有一个带有 lgmb 的示例代码,但当我将其更改为 xgboost 时,它会在摘要图上生成错误。
为了说明我的意思,我开发了以下示例代码:
如果我使用 LGBM 模型,它运行良好,如果我使用 XGBoost,它会失败。有什么区别以及我应该如何更改 XGBoost 行为类似于 LGBM 和应用程序工作的代码。
python - SHAP:dependence_plot 不适用于与函数内部相关的错误
我有这个代码:
我的数据是:
当我运行此代码时,我收到此错误:
错误在这个函数的深处,我不确定我的数据如何改变它。
我该如何解决这个问题?
deep-learning - 如何基于 XAI 方法提高模型的性能
我正在学习可解释的 AI (XAI),我读过的一些论文说我们可以使用 XAI 来提高模型的性能。这似乎是一个相当新的问题,因为我认为当模型已经收敛时,不可能找到新的全局最小值,这与上述说法相矛盾。我想问一下是否有任何方法可以改进与 XAI 方法相关的模型结果?如果有,它们是如何工作的?太感谢了!!
python - 我们如何在 Python 中提取 LIME 解释中提供的特征名称、使用的运算符和值的范围?
我想知道是否有办法提取 LIME 解释中提供的特征和值范围。例如,如果我使用:
我可以将 LIME 解释作为列表获取:
但我想提取这个解释,如下所示:<feature_name、运算符(例如 >、<= 等)和值> 这将允许使用 LIME 进行进一步分析。
faster-rcnn - 对于复杂的基于 CNN 的架构,例如 Mask R-CNN,是否有任何事后可解释的 AI 方法?
是否有任何事后易于应用且可解释的 AI 工具用于复杂的基于 CNN 的架构(例如 Mask R-CNN)进行的检测?
python - 我的损失值是 nan 和 accuracy: 0.0000e+00 on numeric data
我正在研究 XAI 模型并根据我的数据实现一个简单的模型。训练时,损失和准确性是难的,我无法找出问题所在。
[XAI] https://github.com/EthicalML/xai/blob/master/examples/XAI%20Tabular%20Data%20Example%20Usage.ipynb
以下是我的数据,请不要包含使用列,因为这些是预测列。
型号代码
错误
python - 是否有用于在 Python 中计算特征交互(Fridman 的 H 统计量)的库?
Christoph Molnar 关于可解释机器学习的书中对此进行了描述。https://christophm.github.io/interpretable-ml-book/interaction.html
它是一种与模型无关的事后可解释性工具,用于解释黑盒模型。