从我在 irc.freenode.net #appengine 上的一次对话来看,我显然不是唯一一个对 GAE 定价感到困惑的人,所以我想我会在 StackOverflow 上提出这个问题并要求澄清。本质上:给定一个具有以下数字的应用程序,它的“CPU 时间”账单每年应该是多少?
假设:
h = Google App Engine 每小时的 CPU 时间费用。目前,h = 0.10 美元
f = Google App Engine 的每日 CPU 小时免费配额。目前,我认为* f = 2853.5
t = 注册用户总数
s = 同时用户。假设 = t * 0.2
e = (请求数/秒)/同时用户。假设 = 0.5
r = requests/sec = s * e
R = requests/day = r * 3600 * 24
p = CPU hours/request。假设 150 毫秒/请求。即假设 p = 0.15/3600
c = CPU 小时/秒 = r * p
C = CPU 小时/天 = c * 3600 * 24
y = 一年中的平均天数 = 365.25 B = 每年的 CPU 时间费用 = (C - f) * h * y
因此,C = t * 0.2 * 0.5 * (0.15/3600) * 3600 * 24
所以假设我有 10000 个注册用户,这意味着 C = 3600。
在这种情况下:
B = (3600 - f) * h * y = 9146.5 * $0.10 * 365.25 = $40415 到最接近的美元
是这样吗,还是我误解了 CPU 时间是什么,它是如何定价的,或者配额是如何工作的?
*每日免费配额没有明确表示,但我认为一般使用 6.5 小时加上数据存储操作 2,487 小时:总共 2853.5 小时/天,假设我的应用程序主要通过使用控制器来处理请求来生成视图在数据存储中的模型上,并允许对这些模型进行 CRUD 操作。
注意。有关 IRC 讨论的记录,请参阅此问题的编辑历史。