问题标签 [batching]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
batch-file - 用于创建具有特定名称的 .txt 文件的批处理文件:String001.txt、String002.txt 等
我使用了下面的 for 循环,但只能让它输出一个递增的数字作为名称。它忽略字符串。(1.txt、2.txt 等)。
如何在 .txt 文件名中的每个递增数字前面添加静态字符串?
我认为它可能需要另一个变量来将整个字符串和数字存储在一起,然后将其重定向到文件名。但我被难住了...
感谢帮助。
android - SQLite Android 数据库的批处理实现
我的 android 应用程序表上的操作以 N 行的批次进行。我的表中有一个字段batch_id
,指示该行所属的批次(前 N 行有 X batch_id
,下一个 N 有 Y,依此类推)。批处理操作可能以成功或失败告终。根据操作的结果,我将status
使用 that 更新行的batch_id
。
假设batch_id
所有条目的字段最初都是空的,我如何有效地在 android 表上对 N 行进行批处理?
batching - 使用 cyclops-react 对异步队列流进行批处理
我正在尝试使用 cyclops-react 根据大小和时间对队列中的元素进行批处理,因此当没有元素时它不会阻塞
也许功能不是我所期望的,或者我做错了什么
完整的代码(Groovy)是这样的,生产者在另一个线程中:
输出是:
但我期待每批中有一个元素,因为提供的元素之间的延迟是 10 秒,但批处理是每半秒
我还尝试了异步流(Groovy 代码):
同样,它仅每 2 秒批处理一次,有时每批处理等待两个元素,即使批处理中的超时为半秒:
我对非未来非惰性流进行了第三次实验,这次它奏效了。
结果:
当您使用未来的流时,为什么批处理的行为似乎是错误的?
android - Unity 5.6.0 在简单场景下表现不佳
我刚刚创建了一个新项目并构建了一个带有一些精灵的开场场景,相同的场景在统一 4.7 中以 60FPS 运行,但我无法在统一 5.6 中获得它。我只有一个简单的脚本(fps 计数器)、一个简单的动画(1 个叶子)、一个场景中的 15 个精灵和带有文本的画布,只有 5 个绘制调用。我什至手动优化了精灵网格,因此它们的过度绘制更少。它发生在android和PC上。
使用我的 fps 脚本和内部分析器:
Unity4.7 > PC 450fps | Android 60fps
Unity5.6 > PC 110fps | 安卓35-50fps
这是 FPS 脚本
经过一些设置调整:关闭 32 位缓冲区,从图形 API 列表中删除 OpenGLES2,将质量设置设置为最快,我得到了一些性能提升,但还不够。无法获得 60FPS :( 这是调整后的内部分析器结果:
我做错了什么吗?
tensorflow - TensorFlow 批处理非常慢
我尝试使用 Estimator 设置一个非常简单的 Mnist 示例。
首先,我使用了估计器不推荐使用的 fit() 参数 x、y 和 batch_size。这执行得非常快,并且使用了我大约 100% 的 GPU,而对 CPU 的影响不大(大约 10% 的使用率)。所以它按预期工作。
因为不推荐使用 x、y 和 batch_size 参数,所以我想将 input_fn 参数用于 fit() 函数。为了构建 input_fn,我使用了 tf.slice_input_producer 并使用 tf.train.batch 对其进行批处理。这是我的代码https://gist.github.com/andreas-eberle/11f650fca0dce4c9d3d6c0955145e80d。您应该可以使用 tensorflow 1.0 运行它。
我的问题是训练现在运行得很慢,只使用了大约 30% 的 GPU(显示在 nvidia-smi 中)。
我还尝试增加 slice_input_producer 的队列容量并增加用于批处理的线程数。然而,这只有助于达到大约 45% 的 GPU 利用率,并导致 100% 的 GPU 利用率。
我究竟做错了什么?有没有更好的方法来提供输入并对其进行批处理?我不想手动创建批次(创建 numpy 输入数组的子数组),因为我想将此示例用于更复杂的输入队列,我将在其中读取和预处理图中的图像。
我不认为我的硬件应该是问题:
- 项目清单
- 视窗 10
- 英伟达 GTX 960M
- i7-6700HQ
- 32 GB 内存
skype-for-business - 400 Bad Request:“您的请求无法完成” - ucwa 与邮递员的批量请求
我用邮递员发送这个批处理请求:
并得到响应状态“400 Bad Request”和“您的请求无法完成”。信息。我错过了一些标题吗?如果您知道我收到此错误的任何原因,请告诉我。
mule - 批处理 - 无法反序列化对象
我最近一直在使用批处理处理器,并且在测试中它运行良好。
我已经将它添加到我们的主要项目流程中,但我遇到了一个奇怪的问题。
Batch 进程本身只包含一个 Logger,发送给它的有效负载是一个 LineIterator。
我遇到的问题是它抛出了 SerializationException。奇怪的是它第一次运行时会在运行时抛出异常。之后它不会编译,抛出相同的异常。
以下是构建失败时流程中的批处理和相关堆栈信息。完整的跟踪附在 Mule 论坛上的这篇文章中:https ://forums.mulesoft.com/questions/65671/batch-process-could-非反序列化-object.html
关于导致这种奇怪行为的任何想法?
更新
只是为了添加一点上下文。我正在尝试遍历从 SFTP 读取的文件中的行。
该端点本身是在 Java 组件的流程中创建的:
我刚刚检查过,我可以在本地批处理同一个文件,所以这是这个端点或其配置的问题。我可以将此端点配置为将文件放在临时目录中并从那里读取吗?
tensorflow - 使用张量流 contrib 进行批处理未按预期工作
我正在使用以下代码使用 Tensorflow contrib 库进行批处理。
我调用 fit 函数如下
由于某种原因,它只执行一个步骤。就好像它忽略了steps参数。
webgl - 动态精灵批处理
我已经实现了一个简单的 2d 渲染器,它可以工作但不适用于纹理或动态对象。
首先要说的是,我有 4 个classes
我认为是最重要的。Renderer
, Scene
, Sprite
, SpriteBatch
.
为了解释我在做什么,我将写一个简单的例子。
场景内部发生的事情new SpriteBatch
是在第一次将 a 添加到场景时创建的Sprite
,并且所有进一步Sprites
添加到场景的内容都将附加到同一场景中,SpriteBatch
直到SpriteBatch
已满。
所以我的问题是vertices
,
调用时计算scene.add(sprite1)
。这让我的动画非常不同,large vertexbuffer
因为SpriteBatch
. 所以打电话时sprite1.x+= 0.01
我只想更新vertices
那些属于sprite1
. 但是我看不到如何连接Sprite
,Scene
并SpriteBatch
一起实现“动态”批处理。
实现这一目标的常用技术是什么,或者你能想到一种实现我想要的方法吗?
python - Tensorflow MultivariateNormalDiag 形状张量 (None, output_dim, output_dim, output_dim) 给定 mu 和 sigma 形状 (None, 3)
所以我正在尝试使用 MultivariateNormalDiag 制作多元高斯的张量
我想为 mu 和 sigma 参数提供两个形状 (None, 3) 的张量,如下所示
这样我就可以提供一组点,在这种情况下
并检索一组密度正态分布在 mu 周围的点,如
举一个例子,例如。mu 和 sigma 具有形状 (3,) 和输出形状 (output_dim, output_dim, output_dim),如果在 3 维上可视化,我们得到
对于 output_dim = 16 和以半随机方式选择的 mu 和 sigma 以显示每个维度的差异。可以在此处找到完整的工作示例以及我在此处尝试实现的示例[编辑:对于 1.0 及更高版本,需要将 dist.pdf(points) 更改为 dist.prob(points)]
但是,如果对一批未知大小尝试相同的操作,例如输出将是 (None, output_dim, output_dim, output_dim),那么在解决问题的不同方法下,一切都会崩溃,并出现不同的、不一致的错误消息。
有谁知道如何针对不同的批次大小来实现这一点,其中每个批次元素在一批 mus 和一批 sigma 中都有对应的 mu 和 sigma?
提前致谢 :)
ps 这是使用 tensorflow 0.12,但如果 1.* 中有修复,我会考虑重建 tensorflow