4

我使用 pybrain 构建了这个示例:

from pybrain.tools.shortcuts import buildNetwork
from pybrain.datasets import SupervisedDataSet
from pybrain.supervised.trainers import BackpropTrainer

net = buildNetwork(3, 3, 1)

dataSet = SupervisedDataSet(3, 1)
dataSet.addSample((0, 0, 0), (0))
dataSet.addSample((1, 1, 1), (0))
dataSet.addSample((1, 0, 0), (1))
dataSet.addSample((0, 1, 0), (1))
dataSet.addSample((0, 0, 1), (1))

trainer = BackpropTrainer(net, dataSet)

trainer.trainUntilConvergence()

result = net.activate([0, 0, 0])
print result

输出为:[0.10563189]

我不明白activate() 的输出是什么。网络经过训练,我使用其中一个训练样本对其输出进行测试,因此我期望值与训练样本中的值完全相同。输入 [0, 0, 0] 应该得到输出 0。我在这里缺少什么?如何获得有效结果?

更令人困惑的是,每次我运行这段代码时,都会得到不同的结果。我显然做错了什么。它是什么?

4

1 回答 1

7

训练一个网络直到收敛并不意味着训练集被完美地记住了。原因有很多:隐藏层的大小、激活函数、学习率等。所有这些参数都需要调整。

于 2013-01-28T11:00:45.320 回答