我需要从数千个在线 JSON 中获取大约 300.000 行的最终行,等于 30MB。
作为编码的初学者,我更喜欢坚持使用 JS 来获取 $getJSON 数据,剪切它,将有趣的部分附加到我<body>
的 . 但我想知道:
- 我的网络浏览器可以处理 300.000 $getJSON 查询和生成的 30~50MB 网页而不会崩溃吗?
- 是否可以使用 JS 将结果写入文件,从而不断保存脚本的作品?
我希望我的脚本运行大约 24 小时。数字是估计。
编辑:我没有服务器端知识,只有 JS。
我需要从数千个在线 JSON 中获取大约 300.000 行的最终行,等于 30MB。
作为编码的初学者,我更喜欢坚持使用 JS 来获取 $getJSON 数据,剪切它,将有趣的部分附加到我<body>
的 . 但我想知道:
我希望我的脚本运行大约 24 小时。数字是估计。
编辑:我没有服务器端知识,只有 JS。
您的方法有一些不正确的地方:
我的建议是把这个任务拉出来,用你的后端基础设施来完成,把结果保存在一个数据库中,然后你的用户可以搜索、过滤和访问它。一些值得研究的选项:
Cron 将允许您重复和定期运行任务,例如每天或每小时。如果您想不断更新数据集,请使用此选项。
如果运行 Heroku,请将其从 dyno 中取出并使用单独的 worker,以免阻塞应用程序上的任何现有流量。