我正在尝试实现 AdaBoost 算法,并且有两个问题。
1)在每次迭代中,必须根据概率分布对训练数据进行重新采样。重新采样的数据集的大小是否应该与原始数据集的大小相同。2)如果我根据概率分布对训练数据集进行重新采样,很有可能我可以获得单个数据点的多个副本。我是否应该在每次迭代训练弱分类器时保留所有这些冗余副本。
我正在尝试实现 AdaBoost 算法,并且有两个问题。
1)在每次迭代中,必须根据概率分布对训练数据进行重新采样。重新采样的数据集的大小是否应该与原始数据集的大小相同。2)如果我根据概率分布对训练数据集进行重新采样,很有可能我可以获得单个数据点的多个副本。我是否应该在每次迭代训练弱分类器时保留所有这些冗余副本。