-1

希望有人可以帮助解决这个问题。

我有多个包含数百万个项目的表,我想用这些数据创建一个站点地图。

我被建议使用 array_chunk($dataArray, 50000);

然后 foreach( $dataArray ad $data){ 做 .... }

我遇到的问题是包含一百万个项目的数组可能会导致一些内存问题。我还希望每天使用 cronjob 更新我的站点地图。大多数主机对 cronjob 可以运行的时间都有限制。考虑到这一点,我想知道以下内容。

1)这是管理站点地图的有效方法吗?2) 是否有更有效的方式来频繁地创建/更新大型数据站点地图?

4

1 回答 1

0

Google 站点地图的最大大小为 10MB 或 50k 个项目,这就是为什么建议您将其分开的原因。

与其使用array_chunk,为什么不一次从 MySQL 获取 50,000 个项目?这将避免内存限制。

cron 作业的时间限制通常可以通过使用来覆盖[set_time_limit][1]- 但在我看来,如果您有一百万页并且您仍然在施加严格限制的主机上,您可能会考虑转向更严肃的产品。

您是否知道,要制作一百万个链接站点地图,您需要 20 个站点地图(每个 50k)和一个站点地图索引?

http://en.wikipedia.org/wiki/Sitemap_index

于 2013-01-19T23:20:04.703 回答