问题标签 [hyperopt]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - hyperopt中的N个目标函数参数
我正在尝试使用 hyperopt 来优化 SVC 模型的超参数。
这是空间的定义:
这是我的目标函数:
现在,我的疑问是:
函数my_space的参数名,也就是
ol
空间名应该和空间名一样gty
吗?我如何使用
**
, 以避免写
在目标函数myfunc
中,再次?我写的,对ol
吗?
python - 使用 SparkTrials 的 hyperopt 并行化
我需要优化模型的超参数,并且我想并行化代码以使其更快。运行此代码:
我收到此错误:
apache-spark - Hyperopt spark 3.0 问题
我正在运行运行时 8.1(包括 Apache Spark 3.1.1、Scala 2.12),试图让 hyperopt 按照定义的方式工作
当我尝试
我需要做些什么特别的事情才能让它工作吗?
这是我正在使用的集群
python - 如何使用 hyperopt 在 python 中为 Kernel PCA 选择超参数?
我正在研究应用内核主成分分析 (KPCA) 来降低我的特征矩阵集的维数,从而获得一组数据点。我浏览了 scikit learn 包中 KPCA 中使用的参数,并了解到如果选择其中一个参数应该起作用(例如,如果选择了 gamma,则不使用度数和系数)。此外,我通过以下链接查看了用于分类模型的超参数方法:
我尝试编写 hyperopt 代码并将其与 KPCA 结合起来,但是,在处理 PCA 模型评分的领域中,我不断遇到错误。我知道 KPCA 没有分数才能找到 PCA 模型的准确性,那么,我该如何克服这个错误呢?我尝试了几种评分方法,但我从 inverse_fit 或数组大小中得到错误。请在下面找到代码和错误消息。
代码:
错误信息:
错误信息 (1):
错误信息 (2):
python - 为什么最好的损失没有更新?
我正在尝试使用 HYPEROPT 运行参数优化,但我没有看到最佳损失值的打印有任何变化。
我试图更改精度符号,但没有帮助。我在自己的随机试验中尝试了测试模型,结果要好得多。如何优化参数?
我跟着这个笔记本。
最小代码示例:
结果在每次迭代开始时重复,例如:
azure-databricks - 使用 Hyperopt 禁用自动记录标签到 MLflow
我目前正在尝试在 Azure Databricks 上使用 Hyperopt 和 MLflow 进行超参数调整。在 Databricks 中使用默认跟踪 URI 没有错误,但在切换到本地(文件)MLflow 后端后,我遇到了一个烦人的问题。为了清楚起见,我已经切换到:
我运行以下代码块,用于使用 Hyperopt 和 SparkTrials 并行化运行:
...并以错误告终:
Hyperopt 无法在跟踪 URI 处登录 MLflow 服务器:file://dbfs/mnt/my_experiments/ 异常:标记值 {插入搜索空间} 的长度为 9393,超过了 5000 的长度限制
我开始明白这可以使用 Databricks MLflow 后端而不是本地后端,因为标签值大小有不同的限制(来自https://www.mlflow.org/docs/latest/rest-api.html) :
{tag value:} 正在记录的标签的字符串值。最大大小取决于存储后端。所有存储后端都保证支持最大 5000 字节的键值。这是必填栏。
由于 MLflow 在运行时会自动记录搜索空间fmin()
,因此我很难在这里找到解决方法。我已经尝试过从自动记录中禁用 MLflow,但还没有运气。那里有任何提示吗?
编辑:还是我误解了 Hyperopt 应该如何与 SparkTrials 一起使用?它可以与本地 MLflow 后端一起使用吗?我尝试减小搜索空间的大小,虽然上面提到的错误消失了,但运行fmin()
其中一个algo = tpe.suggest
或algo = rand.suggest
导致奇怪的行为和一条错误消息,指出不支持此操作...
python - Hyperopt:当我为 sklearn 加载保存的模型时,如何知道为最佳模型选择了哪些变量?
我训练了一个 sklearn Gradient Boosting 分类器并使用 Hyperopt 进行了优化。Hyperopt 仅选择 20 个变量,共 769 个。但是,当我尝试为 sklearn 加载权重时,在盲测中,不清楚选择了哪些变量。这是代码:
我如何知道 hyperopt 选择了哪些 20 个变量?我害怕使用保存超选择权重的卡方(选择 K 最佳 = 20),因为超选择可能没有使用卡方作为变量选择。
在result=loaded_model...
我收到以下错误:
我也不知道 Hyperopt 是否遵循sklearn
了之前保存 Hyperopt 最佳模型的特征重要性:
r - 如何使用 mlrMBO 和 mlr 进行超参数优化和调优
我试图在目标是多类分类的数据集上在 R 中训练 ML 算法(rf、adaboost、xgboost)。对于超参数调整,我使用 MLR 包。
下面代码的目标是调整参数 mtry 和 nodesize,但将 ntrees 保持在 128(使用 mlrMBO)。但是,我收到以下错误消息。如何以正确的方式定义它?
(function (fn, nvars, max = FALSE, pop.size = 1000, max.generations = 100, : Domains[,1] 必须小于或等于 Domains[,2]
提前致谢!
python - 使用 Optuna 进行微调时使超参数加起来为 1
我有一个看起来像这样的函数:
这个函数的问题是 h1+h2+h3 != 1。我将如何更改此函数以使超参数的总和 = 1?
python - How to generate SparkTrials with some initial solutions in hyperopt
I am using hyperopt in python. I wanted to create some solutions as a list and feed them to hyperopt as trials, So I used generate_trials_to_calculate method to create the trials:
This code runs only on one core of CPU. Now, I want to use "SparkTrials" in order to run it in parallel among the cores of CPU, but I don't know how to generate a "SparkTrials" with some initial solutions. Is there anybody to know how I can do it?