问题标签 [processing-efficiency]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - 操作标记的有效方法
我正在创建一个有地图的网站(bing 地图或谷歌地图无关紧要),并且每秒从 ajax 请求标记并放置在地图中。我还有一个搜索输入,如果你输入一些东西,标记被该文本过滤。我用这段代码简要描述了:
这是最好的方法吗?标记可能对许多人来说可能是很多处理。有没有一种有效的方法来放置标记,过滤它们,性能?
algorithm - 从复杂度估计程序执行时间
我想知道,如果我估计了最坏情况的时间复杂度,我如何估计我的程序在我的机器(例如 2.5 Ghz 机器)上执行的时间? 例如: - 如果我有一个 O(n^2) 的程序,在最坏的情况下,并且 n<100000,我怎么能知道 /estimate 在编写实际的程序/过程之前,它需要执行的时间秒?
知道一个程序的实际执行情况不是很好吗,而且它还可以节省编写代码,最终证明是低效的!非常感谢帮助。
udp - 最可靠和最有效的udp数据包大小?
通过 UDP 发送大量小数据包会占用更多资源(cpu、zlib 压缩等)。我在这里读到,通过 UDP 发送一个约 65kBYTE 的大数据包可能会失败,所以我认为发送大量较小的数据包会更频繁地成功,但随之而来的是使用更多处理能力的计算开销(或者至少这就是我我假设)。问题基本上是这样的;发送最大成功数据包并将计算降至最低的最佳方案是什么?是否有在大多数情况下都有效的特定尺寸?我将 Erlang 用于服务器,将 Enet 用于客户端(用 C++ 编写)。也使用 Zlib 压缩,我向每个客户端发送相同的数据包(我猜是广播这个术语)。
wpf - 更高效的日志过滤器
我有一个程序可以显示日志文件中的行。
它们被解析并放入一个名为 LogLine 的类中,然后显示在数据网格中
这是我的过滤功能:
这个函数已经很慢了,在一个有 200000 行的日志上需要将近 5 秒。
可以做些什么来加快这个速度?
根据 HighCore 的建议,我实现了一个真正的 ViewModel。这稍微快了一点,但仍然需要 5-6 秒才能扔掉 ObservableCollection 的所有行
c# - 我将如何确定我的程序将处理器与服务器上的哪个位置挂钩?
快速背景,我编写了一个服务,它使用 IMAP 从 Exchange 服务器中提取电子邮件并对其进行处理。
问题(嗯,其中之一)是服务器管理员注意到程序间歇性地与处理器挂钩。
现在,这里的问题是...... 什么都不应该让这种情况发生。没有什么特别密集的,没有嵌套循环,老实说,测试停滞了,所以这个过程几乎没有什么可做的!
不,该服务每 30 秒运行一次……但处理器的事情每小时只发生大约 3 次。根据我收到的图表,它也比较规律。
我怀疑连接到邮件服务器时发生了一些事情,但我需要证明那是处理器被挂钩的时候。
唯一的问题是我不知道如何证明当我遇到特定代码时它正在发生......
python - Blender3D 中更高效的 Python 脚本
我基本上是在使用原始 UV 球体构建 3D 散点图,并且在尝试一次创建超过几百个点时遇到内存问题。我的笔记本电脑只有 2.1Ghz 处理器,但我想知道是否有更好的方法来写这个:
我意识到,使用如此简单的脚本,任何性能提升都可能微不足道,但无论如何都想试一试。
performance - 高效并行独立任务
我有 [;N;] 工作单元 [;w_n;],它们实际上是可并行化的,令人尴尬。每个都需要大约给定的时间长度,[;t_n;],这是我们事先知道的。
鉴于我可能需要处理工作单元的某些子集,以及我可能使用最多 [;P;] 进程的约束,每个进程都在单独的 CPU 上,我如何提前有效地分配工作单元,以使所有进程尽可能(及时)彼此接近地完成?
performance - 如何测量 Excel 计算时间
例如,我怎样才能找到更快的公式?
VS
Vs 将 2 个字段连接到一个新列中并做
与 VBA
data-structures - list-of-list vs. hash-of-hashes
设置:我需要存储与字符串对关联的特征向量。字符串-字符串对编码输入-输出关系。将有相对较少数量的输入X
(例如 5),并且对于每个输入x
,将有相对较少数量的输出Y|x
(例如 10)。
问题是,什么数据结构最快?
其他相关信息:
- 每个输入的输出通常不同,并且不能假设每个输入
X
具有相同数量的输出。 - 查找将进行“很多”次(可能是 1000 次)。
- 输入将被同样频繁地采样,但对于每个输入,通常会频繁访问一个或两个输出,其余的将不经常访问或根本不访问。
目前我在考虑三种可能:
- list-of-lists:使用索引访问外部列表(表示输入
X[i]
),使用索引访问内部列表(表示输出Y[i][j]
)。 - hash-of-hashes:与上面相同。
- 平散列:
key = (input,output)
。
java - 什么时候存储比较结果而不是根据速度重新计算比较?
我想对何时(忽略可用内存空间)存储比较结果而不是重新计算它是有意义的有一个深刻的理解。证明存储所产生的时间成本合理的临界点是什么?是 2 次、3 次还是 4 次比较?更多的?
例如,在这种特殊情况下,哪个选项(通常)在速度方面表现更好?
选项1:
选项 2:
我试图自己分析这两个选项以回答我自己的问题,但我对这种性能测试没有太多经验,因此,我宁愿从有更多经验的人那里得到更明确的答案更好地掌握所涉及的理论要素。
我知道这没什么大不了的,而且大多数时候差异可以忽略不计。但是,我是一个完美主义者,我真的很想解决这个特殊的问题,这样我就可以继续我的生活了,哈哈。
此外,我认为对于我将来可能遇到的类似情况,我认为答案可能会很有启发性,其中差异可能非常显着(例如,当比较或内存分配的成本无法产生或其他情况时)复杂到足以引起有关性能的真正问题)。
答案应该与使用 Java 而不是其他语言编程相关,请。
我知道我已经提到过几次了,但是请仅将答案集中在速度差异上!我很清楚在编写代码时可以而且应该考虑许多其他因素,但在这里我只想要一个直截了当的论点,即 FASTER。