在线生成工具往往过于笼统的加入某些网址,这也就是很多朋友查看GoogleSitemap帐户中的Robot爬行日志看到有很多网址无法抓取的原因,枫林认为如果一个站出现大量的Robot无法抓取的页面,这也就是很多朋友制作了xml的sitemap,千万不要笼统的把每个页面都加入到sitemap之中(里的除外),认真查看和修改在线生成的sitemap。如有sitemap的制作基础或者站点的内容比较少: