我的网站使用了一些激进的缓存技术来将请求保持在最低限度,其中包括:
- .htaccess 重定向到缓存的 HTML 文件;
- 将内容图像自动合并到 CSS 精灵中。
这对人流量很有用,但是当一篇文章发布在 Facebook、Pinterest、Google+、Reddit 等上时,机器人无法找到合适的缩略图,因为页面图像都是大精灵 JPEG。
一种解决方案是当机器人发出请求时绕过缓存的 .htaccess 规则。最好不必专门命名每个可能的机器人用户代理。我不确定如何做到这一点。
另一种解决方案是在机器人会下载但真正的网络浏览器不会下载的每个页面上嵌入一个好的缩略图。任何想法如何做到这一点?
欢迎提出其他建议。如果一切都失败了,我将重新编写我的脚本以从自动精灵中排除每个帖子的第一张图片,但这将有效地使我可怜的过度劳累的服务器必须容纳的图片请求数量增加一倍。