看起来我们将不得不很快在这里开始对我们的网络服务器进行负载平衡。
我们有一个动态编辑 robots.txt 的功能请求,这对一台主机来说不是问题——但是一旦我们启动负载均衡器并开始运行——听起来我必须将文件 scp 到另一台主机(s )。
这听起来非常“糟糕”。你会如何处理这种情况?
我已经让客户编辑元标记“机器人”(imo)应该有效地做他想要从robots.txt编辑中做的同样的事情,但我真的不太了解SEO。
也许有一种完全不同的处理方式?
更新
看起来我们现在将它存储在 s3 中并将它的内存缓存在前端......
我们现在如何做
所以我们正在使用 merb..我映射到我们的 robots.txt 的路线,如下所示:
match('/robots.txt').to(:controller => 'welcome', :action => 'robots')
那么相关代码如下所示:
def robots
@cache = MMCACHE.clone
begin
robot = @cache.get("/robots/robots.txt")
rescue
robot = S3.get('robots', "robots.txt")
@cache.set("/robots/robots.txt", robot, 0)
end
@cache.quit
return robot
end