数以百万计的用户在谷歌、雅虎等网站上搜索这么多东西。服务器如何处理这么多并发搜索?我不知道他们是如何让它如此可扩展的。任何对他们架构的见解都会受到欢迎。
问问题
5033 次
4 回答
7
于 2010-05-29T17:04:06.127 回答
4
DNS 负载平衡是正确的,但它并不是问题的完整答案。Google 使用了多种技术,包括但不限于以下技术:
- DNS 负载平衡(建议)
- 聚类 - 如建议的那样,但请注意以下事项
- 集群数据库(数据库存储和检索分布在多台机器上)
- 集群 Web 服务(此处类似于 DNSLB)
- 内部开发的集群/分布式归档系统
- 高度优化的搜索索引和算法,使整个集群的存储高效和检索快速
- 缓存请求(squid)、响应(squid)、数据库(在内存中,见上篇文章中的分片)
于 2010-05-29T17:46:12.343 回答
3
我最近一直在搜索有关此主题的信息,而Wikipedia 的 Google Platform 文章是有关 Google 如何做到这一点的最佳全方位信息来源。然而,High Scalability 博客几乎每天都有关于可伸缩性的优秀文章。请务必查看他们的Google 架构文章。
于 2010-05-29T17:15:47.593 回答
1
大多数高度可扩展的应用程序的主要概念是集群。
关于不同搜索引擎的集群架构的一些资源。
- http://static.googleusercontent.com/external_content/untrusted_dlcp/labs.google.com/en//papers/googlecluster-ieee.pdf
- https://opencirrus.org/system/files/OpenCirrusHadoop2009.ppt
您还可以在Google Research和Yahoo Research阅读有趣的研究文章。
于 2010-05-29T17:26:43.717 回答