0

我的网站使用了一些激进的缓存技术来将请求保持在最低限度,其中包括:

  • .htaccess 重定向到缓存的 HTML 文件;
  • 将内容图像自动合并到 CSS 精灵中。

这对人流量很有用,但是当一篇文章发布在 Facebook、Pinterest、Google+、Reddit 等上时,机器人无法找到合适的缩略图,因为页面图像都是大精灵 JPEG。

一种解决方案是当机器人发出请求时绕过缓存的 .htaccess 规则。最好不必专门命名每个可能的机器人用户代理。我不确定如何做到这一点。

另一种解决方案是在机器人会下载但真正的网络浏览器不会下载的每个页面上嵌入一个好的缩略图。任何想法如何做到这一点?

欢迎提出其他建议。如果一切都失败了,我将重新编写我的脚本以从自动精灵中排除每个帖子的第一张图片,但这将有效地使我可怜的过度劳累的服务器必须容纳的图片请求数量增加一倍。

4

1 回答 1

1

无论您要解决什么问题,向机器人展示与向人类展示不同的东西都是一种非常糟糕的方法。谷歌有时甚至会惩罚搜索排名较低的网站。更好的方法是访问每个机器人的网站,看看是否有办法告诉机器人显示与该页面相关的图像。

例如,Facebook 在head您的 html 中接受以下元标记,以告诉它与您的页面相关的图像:

<meta property="og:image" content="[url to the image]">
于 2012-11-06T16:50:56.343 回答