我一直在使用一些高级 javascript 应用程序,使用大量 ajax 请求来呈现我的页面。为了使应用程序可抓取(通过谷歌),我必须遵循https://developers.google.com/webmasters/ajax-crawling/?hl=fr。这告诉我们做一些类似的事情:重新设计我们的链接,创建 html 快照,......以使站点可搜索。
我想知道为什么爬虫不运行 javascript 来获取呈现的页面并在其上建立索引。这背后有什么原因吗?或者它是未来可能出现的搜索引擎的缺失功能?