问题标签 [xgbclassifier]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 警告:C:/Users/Administrator/workspace/xgboost-win64_release_1.3.0/src/learner.cc:541:参数:{ xgb_model } 可能未使用
I want to do Incremental Learning using XGBClassifier. I found xgb_model parameter of XGB can achieve this.
As a 1st Step, I trained XGB Classifier on 1st Data Set. It trained well & Predictions were also made. code is as follows:
As a next step, On trying xgb_model parameter for XGB , some of the trials shows warning for below code snippet.
WARNING: C:/Users/Administrator/workspace/xgboost-win64_release_1.3.0/src/learner.cc:541: Parameters: { xgb_model } might not be used.
This may not be accurate due to some parameters are only used in language bindings but passed down to XGBoost core. Or some parameters are not used but slip through this verification. Please open an issue if you find above cases.
[Warning for above code snippet - 2nd time training for Incremental learning]
python - Python XGBoost 分类器无法“预测”:“TypeError: Not supported type for data”
我有一个像这样的数据集:
当我尝试对此数据集进行预测时,出现以下错误:
我搜索了一下,但只发现了object
导致问题的可变数据类型的讨论。我的数据还有其他问题还是其他问题?我查看了各种博客和 Kaggle 代码,但没有运气。
scikit-learn - 带有 Skear XGBoost 和 Sklearn 校准分类器 CV 的 TypeError
我正在尝试校准 XGBClassifier 的输出概率。
我提供了示例代码,
但是在运行 calibrated.fit() 函数时,出现以下错误:
我的理解是 calibratedclassifiercv 应该与 sklearn xgboost 包装器一起使用。
然而,校准后的分类器 cv 似乎将不正确的变量传递给 xgboost 的 predict_proba() 方法。
是否有任何原因可能会发生这种情况?
python - 如何使用 XGBoost 进行多类(不是 OvR)分类?apply() 和 n_estimators=1 的意外结果
在 scikit-learn 中,可以在多类问题上训练一棵树,并使用 apply() 来输出叶子。它执行标准的普通多类分类(不是 OvR),并将返回一个 Nx1 向量,显示每个输入一个叶子。
但是当我尝试在 XGBoost 中使用 来执行此操作时n_estimators=1
,XGBoost 似乎正在为每个类训练一个单独的树。
返回(150, 3)
。
有什么方法可以让 XGBoost 使用一棵树进行普通多类分类?
python - 参数:{ scale_pos_weight } 可能不会被使用
我正在处理这个警告:
在 Python 中训练 XGBoost 时。
我一直在研究它,这是由于分类类型(二进制或多类)。问题是我正在对不平衡数据(6483252 负 / 70659 正)进行二进制分类,所以我需要设置该参数以便在训练期间考虑这种不平衡,但我不明白为什么我会收到那个警告:(
这就是我初始化和训练 XGBoost 的方式:
dtrain 是熊猫数据框,y_train 是带有标签 (0,1) 的熊猫系列。
谢谢!
r - XGBoost Rstudio 错误(数据具有类“字符”和长度......)
我正在尝试在 Rstudio 中使用 XGBoost。我有很多因子变量,可以在数据描述中看到。
我使用 step_string2factor 和 step_dummy 将所有因子变量转换为虚拟变量,以便 XGBoost 可以工作。然而,在我的最后一块中,我得到了错误:
x Fold1:预处理器 1/1,模型 1/10:xgboost::xgb.DMatrix(x, label = y, missing = NA) 中的错误:'data' 具有类 'character' 和长度 3666440。'data' 接受一个数...
奇怪的是,XGBoost 在使用 step_dummy 时在其他配方中工作,我不理解给定的错误,因为我的数据没有字符类。
python - 用于 python 的 XGBoost 不接受我的目标的形状
由于目标的形状,我一直在努力让 python 的 xgboost 接受目标(我尝试过 (-1,1) 与 (-1,) 的形状,pandas 与 numpy 的格式,以及 LabelBinarizing 与 One-hot-encoding 目标)。有什么建议可以让这一切顺利进行吗?
classification - 如何在 xgb 分类中添加额外的 5k 树
我在使用 5k 树的地方运行了 XGBClassification -
模型 = XGBClassifier(learning_rate=0.01,max_depth=2, monotone_constraints=(0,0,0,0,0,0,0,0,0,1,1,0,1,1,1,0,0,0 ,1,1,1,1,1,0,1,0,0,0),n_estimators=5000,objective='binary:logistic',verbosity=1,model_out='test_5k.pickle.dat')
现在我想为 10k 树运行相同的模型,但我不想从头开始运行它,因为。有 5k 棵树,需要 24 小时。有什么办法可以使用旧模型并要求 XGBC 运行下一个 5k 树?
提前致谢。
xgboost - Suggest_int() 缺少 1 个必需的位置参数:Optuna 上的“高”错误
我有以下 Optuna 代码来为 Xgboost 分类器进行超参数调整。
它不断给我以下错误:
非常感谢