问题标签 [iris-dataset]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - 对 for 循环运行 x 次分析
我有以下代码选择 4 行 iris 1000x,并取每个 4 行样本的平均值:
我想计算每列相对于其真实总体参数的偏差。例如使用SimDesign
's bias()
:
在此代码中,参数的值是假设的真实弹出。数据框中每一列的值。我想以 100 倍的速度执行此过程,以获取数据框中每个变量的偏差估计分布。但是,我不确定如何将所有这些放入 for 循环中(我认为这是要走的路),所以最终输出是一个数据帧,每个 iris 变量都有 100 行偏差测量值。
对此的任何帮助将不胜感激。
#------------------------------------------
更新
尝试为分层样本而不是随机样本运行相同的代码会给我以下错误: *Error in [.data.table
(setDT(copy(iris)), as.vector(sapply(1:1000, function(X) stratified( iris, : i is invalid type (matrix). 也许将来 2 列矩阵可以返回 DT 的元素列表 * 我认为这可能与 setDT 有关?
这是以下代码的结果:
我研究了使用以下建议的代码:
我想我理解这个函数在做什么(选择 4 行分层的虹膜,按物种取每列的平均值),但我不知道如何将它应用于原来的问题(4 * 1000)* 100 来测试偏见(我对此很陌生,如果我遗漏了一些明显的东西,我深表歉意)。
python - 为什么我使用 iris 数据集训练的神经网络给出大致相同的输出?
我已经为 Iris 数据集实现了一个具有反向传播和 sigmoid 激活功能的 4 层神经网络。它有 4 个输入单元,2 个隐藏层,每个隐藏层 8 个单元,以及一个输出层,有 3 个单元。代码是使用 numpy 编写的,因为我想自己练习实现它。问题在于,在使用测试集对其进行训练和测试之后,它会产生大致相同的输出,因此它将所有测试用例分类为第二类。结果不完全相同的事实让我更加困惑。
这是我的导入和预处理代码:
这是我的主要代码:
这是培训部分:
所以当我运行测试集时,它会产生如下结果:
输出:
我真的被困住了,因为我想知道我在哪里错过了它。