希望有人可以帮忙解决这个问题。
我有多个包含数百万个项目的表格,我想创建一个包含这些数据的站点地图。
我被建议使用array_chunk($ dataArray,50000);
然后foreach($ dataArray ad $ data){ 做.... }
我遇到的问题是一个包含一百万个项目的数组可能会导致一些内存问题。我也希望每天使用cronjob更新我的站点地图。大多数主机都限制了cronjob可以运行的时间。考虑到这一点,我想知道以下内容。
1)这是管理站点地图的有效方法吗? 2)是否有更频繁的方法来创建/更新大型数据站点地图?
答案 0 :(得分:0)
Google站点地图的最大大小为10MB或50k项目,这就是建议您将其拆分的原因。
为什么不一次从MySQL获取50,000件物品而不是array_chunk
?这样可以避免内存限制。
使用[set_time_limit][1]
通常可以覆盖cron作业的时间限制 - 但在我看来,如果你有一百万页并且你仍然在主机上施加严格的限制,你可能会考虑转移到更严肃的提供。
您是否知道,为了拥有一百万个站点映射链接,您需要20个站点地图(每个50k)和一个站点地图索引?