问题标签 [cold-start]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
firebase - Firebase 功能的替代方案?可以在 VM 上运行它们吗?
我正在为 Uberlike 产品使用 firebase 功能。我无法获得预期的性能。特别是从 realtime-db 加载数据需要很长时间。长达 2-3 秒的读取时间。这可能是由于调用了 start ,这在此处进行了讨论。=>为什么 Cloud Functions for Firebase 需要 25 秒?
所以我决定将这些函数的功能转移到一个 VM 实例中。使用 firebaseonWrite
和 admin SDK,可以在虚拟机上实现类似的功能。
这样做可以吗?我会遇到任何可扩展性问题吗?
java - AWS Lambda Cold Start with java 耗时超过 10 秒
我在 java 中的 AWS 上有 lambda 函数,具有以下规格:
代码大小:35 MB 函数内存:3GB 超时:5 分钟 Cloudwatch 预热时间表:1 分钟
我正在使用JRestless Wrapper。
以下是我的 RequestHandler 方法:
尽管加热时间至少为 1 分钟,但 lambda 函数冷启动至少20 次在24 小时内,每次需要超过10 秒。
.net - Azure Functions 语言和运行时版本选择以最大限度地减少冷启动时间
我正在开始一个新项目,该项目有严格的要求,即冷启动时间必须最短。我们正在谈论亚秒级响应时间。我没有发现任何语言和运行时版本的冷启动时间比较。
有谁知道例如 C# 冷启动时间比 Node.js 更快的基准,反之亦然?运行时 v1 与 v2 怎么样?
在这里:https ://blogs.msdn.microsoft.com/appserviceteam/2018/02/07/understanding-serverless-cold-start/它说
此外,需要注意的是,在我们的 2.0 运行时中运行的任何语言都处于预览阶段,并且还没有完全优化。
但这实际上意味着什么?v1 快多少?这是否有可能在未来改变以有利于 v2?
azure - 如何测量 Azure Function 冷启动时间
我最近一直在围绕 Azure Function冷启动时间进行研究,该时间可能发生在基于消耗的计划中。我了解这些概念,但如何实际测量 Azure Functions 的冷启动时间?我似乎找不到任何好的文档。
在 Azure 门户中,我看到我的每个功能都有一个“监视器”选项卡,但显示的唯一统计数据是“持续时间 (MS)”,不清楚这是否包括启动时间。
一般来说,有没有更好的方法来监控这个?
performance - 如何保持所需数量的 AWS Lambda 函数容器温暖
在我的项目中,有在 AWS API Gateway 和 AWS Lambda 上实现的 REST API。由于 AWS Lambda 函数在我们调用它时是无服务器且无状态的,因此 AWS 使用处理我们调用的 Lambda 函数代码启动一个容器。根据lambda 函数执行完成后的AWS 文档,AWS 不会停止容器,我们可以在该容器中处理下一个调用。这种方法提高了服务的性能——只有在第一次调用 AWS 时才花时间启动容器(Lambda 函数的冷启动),并且所有下一次调用的执行速度更快,因为它们使用相同的容器(热启动)。
作为提高性能的下一步,我们创建了 cron 作业,它定期调用我们的 Lambda 函数(为此我们使用 Cloudwatch 规则)。这种方法允许保持 Lambda 函数“温暖”,从而避免停止和重新启动容器。即当真正的用户调用我们的 REST API 时,Lambda 不会花时间来启动一个新的容器。
但是我们遇到了这个问题——这种方法只允许保温一个 Lambda 函数容器,而来自不同用户的实际并行调用数量可能要大得多(在我们的例子中是数百甚至数千个用户)。有什么方法可以为 Lambda 函数实现预热功能,它不仅可以加热单个容器,还可以加热一些所需数量的容器?
我知道这种方法会影响 Lambda 函数的使用成本,并且可能使用好的旧应用程序服务器会更好,但我认为这些方法及其成本的比较将是下一步,目前我只想找到加热所需数量的 Lambda 函数容器的方法。
android - Android上的Firebase可调用函数socketTimeout
当调用需要很长时间(例如,冷启动后 - 5-10 秒)的可调用函数时,我们在 Android 上的可调用完整侦听器上遇到 SocketTimeOutException(我们希望在第一个函数完成后调用另一个函数)。
- 是否可以增加 android firebase sdk 上的套接字超时?
- 如何减少/检查冷启动?(了解哪个依赖项需要很长时间)?另外,我在 30 秒左右没有调用该函数后出现了冷启动......(这使得 firebase 函数无法用于用户群较小的早期初创公司)。
java - Using GraalVM to run Java on Heroku
Is there any ability to use GraalVM to run Java apps on Heroku? I read a lot articles about cold starts of Java applications with GraalVM AOT (ahead-of-time) compilation feature and how it decrease startup time and I'd like to try to use it in my projects deployed on Heroku.
amazon-web-services - AWS Lambda 何时创建 ENI?
我知道如果 lambda 想要访问 VPC 中的资源,它会创建 ENI(这反过来会创建更长的冷启动)。但是,我想知道lambda 函数何时创建 ENI?
是在容器的初始化上吗?(开发人员无法控制)
还是当我们db.Connect()
与其他资源(例如 RDS)建立连接(运行或类似的东西)时
python - 用于加热 AWS lambda 以解决冷启动问题的 Python 脚本
我按照 NodeJS 的 lambda-warmer https://github.com/jeremydaly/lambda-warmer为 python 创建了一个类似的脚本:
- 每隔几分钟预热一次 lambda 函数
- 如果我设置并发参数,则温暖多个 lambda 函数
这是我的python代码: https ://github.com/pafun/lambda-warmer-python/blob/master/lambda-warmer-python.py
这是一个典型的输入:
通常,除非我增加延迟时间,否则脚本不会为我预热确切数量的实例。像上面的示例输入一样,我通常会得到 6-8 个并发执行,正如我在 lambda AWS 监视器中观察到的那样。
如何确保正确数量的 lambda 实例被加热?