我的任务是为一个客户开展一个项目,该客户拥有一个他估计每天将获得 1-2M 次点击的网站。他拥有一个包含 5800 万用户的现有数据库,这些用户需要在每次注册的基础上为新品牌播种。该网站的大部分内容都是由外部 API 提供的数据提供的,其中存储在我们的 Mongo 设置中的大部分数据是配置文件信息和保存的 API 参数。
NginX 将在端口 80 上,并在端口 8000 - 8010 上对节点集群进行负载平衡。
我的问题是如何处理缓存。我来自 LAMP 背景,所以我习惯于使用 PHP 编写静态 HTML 文件并提供这些文件以最小化 MySQL 负载,或者将 Memcached 用于需要更高级别缓存的站点。这个设置对我来说有点陌生。
就最小的响应时间和 CPU 负载而言,哪个是最理想的?
1:使用 NginX 进行页面级缓存
参考:http ://andytson.com/blog/2010/04/page-level-caching-with-nginx/
server {
listen 80;
servername mysite.com;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header Host $host;
location / {
proxy_pass http://localhost:8080/;
proxy_cache anonymous;
}
# don't cache admin folder, send all requests through the proxy
location /admin {
proxy_pass http://localhost:8080/;
}
# handle static files directly. Set their expiry time to max, so they'll
# always use the browser cache after first request
location ~* (css|js|png|jpe?g|gif|ico)$ {
root /var/www/${host}/http;
expires max;
}
}
2:Redis作为缓存桶
hash()
函数就是numbers()
这个页面的函数:http: //jsperf.com/hashing-strings
function hash(str) {
var res = 0,
len = str.length;
for (var i = 0; i < len; i++) {
res = res * 31 + str.charCodeAt(i);
}
return res;
}
var apiUrl = 'https://www.myexternalapi.com/rest/someparam/someotherparam/?auth=3dfssd6s98d7f09s8df98sdef';
var key = hash(apiUrl).toString(); // 1.8006908172911553e+136
myRedisClient.set(key,theJSONresponse, function(err) {...});
3:节点写入JSON文件
hash()
函数就是numbers()
这个页面的函数:http: //jsperf.com/hashing-strings
function hash(str) {
var res = 0,
len = str.length;
for (var i = 0; i < len; i++) {
res = res * 31 + str.charCodeAt(i);
}
return res;
}
var fs = require('fs');
var apiUrl = 'https://www.myexternalapi.com/rest/someparam/someotherparam/?auth=3dfssd6s98d7f09s8df98sdef';
var key = hash(apiUrl).toString(); // 1.8006908172911553e+136
fs.writeFile('/var/www/_cache/' + key + '.json', theJSONresponse, function(err) {...});
4:前面清漆
我做了一些研究和基准测试,就像这个网站上显示的那样让我远离这个解决方案,但如果它最有意义,我仍然愿意考虑它:http: //todsul.com/nginx-varnish