现在,我的sitemap.xml
由多个SQL查询组成,这些查询可获取所有资源并提供各自的URL。这种方法的优点是sitemap.xml
在所有应用服务器中看起来都是一样的。缺点是每次请求都会给数据库带来不必要的负担。
因此,我正在考虑安排一个运行相同代码的作业,并每隔X个小时将生成的sitemap.xml
保存到远程服务器(AWS)。然后在我的robots.txt
中,可以提供URL到托管在AWS上的sitemap.xml
。
听起来合理吗?如果没有,如何生成由多个应用服务器提供的静态站点地图?
答案 0 :(得分:0)
现在,我决定缓存响应。但是,这不是理想的。我认为,更好的方法是将其上传到AWS并将URL放入robots.txt
或仅在服务器上读取该文件(即file_get_contents()
。