0

我有一个 Python 脚本,它收集源链接并将每个链接作为新行放入文本文件中。这个文件会不断更新,因为我通常会在一天的大部分时间里运行 Python 脚本。文本文件包含重复链接,因此我通常必须在下载之前手动删除重复链接。

现在我手动将文本文件放入 Jdownloader 并将下载保存到我的 PC 上的文件夹中,跳过任何重复项(以前的下载)。但是,这是一个手动过程,当我开始使用它时,一些链接已经失效。

有没有办法自动化这个?就像每隔几个小时它可以在那个时候使用文本文件,下载文件夹的所有链接(没有子文件夹),并跳过所有以前下载的内容(相同的文件名)?还是手动 Jdownloader 是我的最佳选择?

4

1 回答 1

0

我认为您需要使用 cron 作业。您可以使用 Windows 的任务计划程序来执行此操作。有了它,您可以安排您的脚本执行。

教程可能会对您有所帮助。

在您的脚本中,您可以使用请求库下载每个文件

于 2020-05-13T12:46:59.067 回答