我正在编写一个小脚本来从 kickstarter.com 提取有关所有项目的数据 - 到目前为止它工作得很好,但是在网站本身的搜索引擎中,我只能获得 200 页 20 个项目。有没有人遇到过这个或类似的问题?我正在使用开源代码,这里是源代码:
while True:
r = requests.get('https://www.kickstarter.com/discover/advanced.json?sort=newest&seed=2478857&page=' + str(page))
#print r.status_code
if r.status_code!=200:
break
data = r.json()
print len(data["projects"])
total+=len(data["projects"])
for index in range(len(data["projects"])):
#print "%s,%f,%s,%f" % (data["projects"][index]["name"], data["projects"][index]["goal"], data["projects"][index]["currency"], data["projects"][index]["pledged"])
csv_output.write("\"%s\",%s,%.0f,%s,%.2f,%d,%s,%s,%s\n" % (data["projects"][index]["name"].encode('ascii', 'ignore'),
data["projects"][index]["category"]["slug"].split("/")[0],
data["projects"][index]["goal"],
data["projects"][index]["currency"],
data["projects"][index]["pledged"],
data["projects"][index]["backers_count"],
str(datetime.datetime.fromtimestamp(data["projects"][index]["created_at"])),
str(datetime.datetime.fromtimestamp(data["projects"][index]["launched_at"])),
str(datetime.datetime.fromtimestamp(data["projects"][index]["deadline"]))))
page+=1
print total
编辑 1:在第 201 页我得到 404 响应代码。