考虑最终使用梯度下降优化方法的任何情况。假设您已经成功创建了一个适合您的训练集并且运行良好的假设。一段时间后,你的算法会收到越来越多的新数据,它必须从中学习。
问题:1)这个算法可以继续被认为是有监督的吗?
2)如果是这样,有没有办法从新数据中学习而无需再次遍历所有(新+旧)数据?
考虑最终使用梯度下降优化方法的任何情况。假设您已经成功创建了一个适合您的训练集并且运行良好的假设。一段时间后,你的算法会收到越来越多的新数据,它必须从中学习。
问题:1)这个算法可以继续被认为是有监督的吗?
2)如果是这样,有没有办法从新数据中学习而无需再次遍历所有(新+旧)数据?
您的问题没有通用答案,因为这是机器学习中一个非常广泛的问题/问题,您应该研究两个主题:
这两个问题有几十种方法(使用梯度下降并不重要,更重要的是您要拟合的确切模型),一切都取决于特定的数据集和应用程序。
所以总的来说:
是的,它仍然是监督学习,尽管也有用于处理概念漂移的半监督和非监督算法。