情况如下:
一系列远程工作站收集现场数据,并通过 ftp 将收集到的现场数据 ftp 到服务器。数据以 CSV 文件的形式发送,该文件存储在 FTP 服务器中每个工作站的唯一目录中。
每个工作站每 10 分钟发送一次新的更新,导致以前的数据被覆盖。我们想以某种方式自动连接或存储这些数据。工作站的处理能力有限,不能扩展,因为它是一个嵌入式系统。
提供的一个建议是在 FTP 服务器中运行 cronjob,但是有一个服务条款限制,因为它是共享主机,所以只允许 cronjobs 间隔 30 分钟。考虑到工作站上传的数量和上传之间的 10 分钟间隔,看起来 cronjob 调用之间的 30 分钟限制可能是个问题。
有没有其他方法可以建议?可用的服务器端脚本语言是 perl、php 和 python。
升级到专用服务器可能是必要的,但我仍然希望获得有关如何以最优雅的方式解决此问题的意见。