问题标签 [cost-management]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
amazon-web-services - AWS TCO 计算器是否不再活动?
AWS TCO 计算器服务不再可在任何 AWS 服务下找到。我找不到这样做的原因和解释,以及现在可以在哪里找到旧的 TCO 计算器。
sql - 从 Snowflake 表中查询 60 列会比查询 20 列花费更多吗?
我们正在尝试找到一种更便宜且更易于管理的方式来存储和执行我们的查询。一种方法是每次有人查询时从 60 列中检索信息,另一种选择是使用任何必要的列。会不会产生巨大的成本影响?
场景:我们有一个视图,它使用 60 列读取并执行一些计算,我们对假设 5 个指标执行选择,而这些指标仅使用 15 列计算。
另一种方法是,只选择这 15 列并提供结果。
前一种方法会比后一种方法花费更多吗?范围是什么?
tsql - T-SQL 中相互服务的单位之间的互惠成本分配(典型的管理会计问题)
我正在拼命寻找一种有效的方法 - 如果有的话 - 来解决 T-SQL 中的某种递归任务(我可以成功地在 excel 和纸上用迭代解决方案对其进行建模 - 就像许多 CMA 会举一个小例子一样,在迭代中相互服务的支持单元对之间重新分配成本份额,并将平衡单元的未分配成本剩余最小化到一个合理的小数量以停止迭代/递归)。
现在我试图找到一个好的可扩展解决方案(或至少是一种可行的方法)如何在 T-SQL 中为管理会计领域的这种典型计算任务实现相同的目标:当一些内部支持单位相互服务时(和产生定期成本,如工资等)最终生产 2 或 3 个最终产品作为一家公司,因此它们各自在内部产生的支持间接费用中的份额需要合理(根据一些物理基础分布,让比如说 - 在成本计算结束时分配给这些产品成本的每个人的小时数。
如果没有互惠服务,这将非常简单:一个支持单位在此期间向其他支持单位提供一些服务(并且需要在此服务数量流中分配相应的成本),第二个和第三个支持单位做同样的事情其他支持同行的事情,在他们的所有成本被适当地计入生产成本并在他们共同服务的各个产品之间分摊之前(并非所有支持单位都平等,我在这里使用基于活动的成本核算方法)......并且在实际情况可能不仅仅是 2-3 个单位,可以在 Excel 或纸上手动解决。所以,它确实需要一些动态参数算法(根据一些 qty-measure/% 方矩阵分配表在服务期内为 X-1 个同行提供服务的 X 个支持单元和 Y 个产品)将它们的周期成本分散到每个产品的一个单元上结束。最好是在 SQL 中以某种方式原生,而不使用外部 .NET 或其他程序集引用。
一些数字示例:
- 3 个支持单位 A、B、C 在此期间各自产生了 100 美元、200 美元、300 美元的费用,每个单位分别工作了 50 个工时
- A 单元服务 B 单元 10 小时和 C 单元 5 小时,B 单元服务 A 单元 5 小时,C 单元服务 A 单元 3 小时和 B 单元 10 小时
- 其余支持单位的工作时间(A 单位 35 小时:P1 30%,P2 70%,B 单位 45 小时:P1 35%,P2 65%,C 单位 37 小时 P2 100%)他们花费在服务于两种产品(P1 和 P2)的输出上;他们的这部分直接时间/精力很容易分配给产品——但由于相互提供服务,支持单位的部分成本需要转移到相应的产品成本池中,这与他们分配产品的直接时间不相等(需要调整步骤 2 效果的混合系数)。
我可以通过迭代算法和使用 VBA 数组在 excel 中解决这个问题:(a)每个支持单元的期间成本向量(最终重新分配给产品并保留 0),(b)自助服务系数的 2dim 数组/矩阵支持单位之间(基于人工 - 一个到另一个),(c) 支持单位为每个产品提供的直接 hrs 服务的 2dim 数组/矩阵,(d) 1 美元的最小可容忍误差(停止单位中未分配成本的剩余部分迭代)对于只有 2 或 3 个元素(虽然仍然可以在纸上手动证明),这是一种可行的方法,但是一旦我在矩阵中有 10-20 多个支持单元和许多产品,就不可能手动证明正确的解决方案;由于其他原因,我想从 excel 和 VBA 切换到 MS SQL server 和 t-sql。
由于这样的商业案例根本不是新的,我希望更有经验的同事能提出如何最好地解决这个问题的建议——我相信之前一定有解决这个任务的方法(不是在纯编程环境/外部代码中) . 我正在考虑结合 CTE(递归)、表变量和聚合窗口函数 - 但犹豫/挣扎如何最好/准确地将所有拼图元素放在一起,以便它真正可扩展以适应我潜在增长的单元/产品矩阵维度。对于我目前的水平,这有点令人兴奋,所以我会很感激你的建议。
azure - 在 Azure ACI(容器)或 AKS(Kubernetes)上部署 ML 模型
我正在探索以最具成本效益的方式为我训练有素的 ML 模型提供服务的方法。
我目前有 4 个不同的模型,其中第一个模型的输出构成第二个模型的输入的一部分,依此类推。
当前的用户群非常小,所需的推理数量很少且零星。IE。每隔几个小时 2 到 3 次,甚至有些日子 0 推理。
首先,我使用 ACI 进行部署,但由于某种原因,即使没有人访问端点,容器实例仍保持运行。我的印象是实例应该自行停止以避免对未使用的时间计费。
这与部署为实时端点的模型有关吗?当端点/模型未使用时,Kubernetes 部署是否会更合适(比如它会缩小到 0 个节点)吗?
google-cloud-platform - Cloud Composer $$$(获取 Firebase 文件的更好/更便宜的选择 > Cloud Storage > BigQuery > Few Python / SQL 查询)
我正在寻找一些关于最佳/最具成本效益的解决方案的建议,以用于我在 Google Cloud 上的用例(如下所述)。
目前,我正在使用 Cloud Composer,它太贵了。这似乎是作曲家一直在运行的结果,所以我正在寻找一些不是一直在运行或者运行起来更便宜/可以完成同样事情的东西。
用例/流程>>我有一个遵循以下步骤的流程设置:
- 有一个使用 Firebase 构建的站点,该站点具有文件拖放/上传 (CSV) 功能,可将数据导入 Google 存储
- 该文件删除会触发启动 Cloud Composer DAG 的云功能
- DAG 将 CSV 从 Cloud Storage 移动到 BigQuery,同时还使用 Python / SQL 查询对数据集执行大量修改。
关于什么可能是更好的解决方案的任何建议?
看起来 Dataflow 可能是一种选择,但很新,需要第二个意见。
感谢帮助!
azure - Azure 成本导出应用什么业务逻辑?
我想在 Azure 中获得最新的实际成本。似乎有 4 种方法可以得到不同的结果:
- 将成本导出到存储帐户
- 成本管理 API
- 计费接口
- 消费接口
1 号效果很好,但我需要一个 API,而不是文件转储。
2 号似乎是为了通过高速维度查询为成本管理 UI 提供动力
3 号似乎在预览版中,但旧版(!)
这将我带到第 4 位。我将此查询与 CSV 成本导出文件的输出进行了比较,并注意到这些黄色差异:
我的问题是:
- 导出文件是否与 API 具有相同的信息,或者它是否应用了我需要满足的其他业务逻辑?
- 此 API 调用是否高于最新成本?
- 我是否需要使用价目表做任何事情,或者考虑到天蓝色的交易或折扣,或者这一切都是独立的?
- 有一个更大的“使用”返回类型,包含更多列(称为现代,而不是旧版),但我需要一个帐单 ID 来访问它,但我找不到(我正在使用 VS MSDN 订阅) - 我如何使用现代返回类型?
google-bigquery - BigQuery 是否在子查询或查询的虚拟视图中优化 SELECT *?
BigQuery关于成本优化的文档指出:
BigQuery 可以提供令人难以置信的性能,因为它将数据存储为列式数据结构。这意味着 SELECT * 是查询数据最昂贵的方式。这是因为它将对表中存在的每一列执行完整的查询扫描,包括您可能不需要的列。
但是,我在文档中找不到讨论 BigQuery 引擎是否优化使用SELECT *
或不使用的子查询/虚拟视图的任何地方。例子:
(1)
(2)
所以问题是:BigQuery 是否优化子查询/视图 SELECT * 以最小化成本,如果是,它是否可靠地做到了?
connection - 空闲雪花连接是否使用云服务积分?
动机| 假设有人想要对 Snowflake DB 执行两个 SQL 查询,相隔约 20 分钟。
优化问题| 这将花费更少的云服务积分:
- 重新使用一个连接,并允许该连接在此期间空闲。
- 每个查询连接一次。
该文档表明身份验证会导致云服务信用使用,但没有说明空闲连接是否会导致信用使用。
问题| 有谁知道空闲连接是否会导致云服务信用使用?