问题标签 [timestep]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 熊猫:从 timedelta 中提取小时
这个答案解释了如何在 Pandas 中将整数转换为每小时时间步长。我需要做相反的事情。
我的数据框df1
:
我预期的数据框df1
:
我正在尝试什么:
这失败了,因为:
TypeError: cannot astype a timedelta from [timedelta64[ns]] to [int32]
做这个的最好方式是什么?
编辑
如果我尝试df['B'] = df['A'].dt.hour
,那么我得到:
AttributeError: 'TimedeltaProperties' object has no attribute 'hour'
python - LSTM 中的时间步长和特征有什么区别?
我有一个表示多个时间段的数值的数据框,并且我已经格式化了该数据框,以将其表示为先前值的串联。例如:
当我格式化数据集以使用 LSTM 时,我将其重塑为 3 维向量 [样本、时间步长、特征]。
但是,我必须为时间步长和特征赋予哪个值?特征应该是 3,因为我学习最后 3 个元素吗?
到那时我有这个:
r - R中的渐进式点对点步行绘图
如何绘制从点到点的渐进式步行?
让我们有 p1 =[1,0],p2=[0,1],p3=[1,1]。绘图应首先从 p1 到 p2 画一条线来显示方向,等待一秒钟,然后从 p2 到 p3 画另一条线,如果有更多数据,它会继续。
绘图大小应首先固定为 (0,1)^2。正确的输出应该类似于此图像: 示例图
我的代码现在是这样的:
deep-learning - LSTM 模型中的时间步长到底是什么?
作为一个整体,我是 LSTM 和 RNN 的新手,我一直在绞尽脑汁想了解什么是时间步长。我真的很感激对此的直观解释
matlab - 在 Simulink 导出的代码中将 step-time 设置为变量
我在 Simulink 中开发了一个控制器,并尝试使用 Simulink 编码器将其导出为纯 C 类,以便部署在我们的微控制器上。我们在模拟中使用固定步长求解器,但是,当导出的代码在我们的实际工厂中使用时,实际步长可能会根据处理器的负载而变化。
我担心的是:假设我在模拟中将固定时间步设置为 0.05 秒(因此导出的代码假定它每 0.05 秒执行一次),但是微处理器有时会在 0.1 秒后执行,有时会在 0.03 秒后执行,等等。我认为这会导致一些不受欢迎的行为。
有没有办法让 Simulink 编码器创建一个我们可以在运行时调整的步进时间变量?也就是测量自上次执行以来的时间,然后在每次执行时填写变量。
打个比方,在视频游戏编程中,更新函数通常包含一个dt
参数,因此我们知道它距离上一帧已经过去了多长时间。
我能找到的唯一解决方案是在生成代码后手动搜索和替换所有积分器块中的步长。然而,这似乎容易出错。
scipy - scipy.integrate.odeint 时间依赖步长
我有以下问题:
我必须使用 ode-solver 来求解化学反应方程。速率常数是时间的函数,可以突然变化(放电脉冲)。
解决这个问题的一种方法是保持步长非常小hmax < dt
。这导致高补偿。afort -> 耗时。我的问题是:有没有一种有效的方法来完成这项工作?我想过要def hmax(puls_ON)
与plus_ON=True
脉搏plus_ON=False
之间。然而,由于 dt 随时间增加,它甚至可能无法识别脉冲,因为时间间隔在增加 hmax=hmax(t)。
时间网格将是我瘦身的最佳选择,但我认为 odeint 不可能做到这一点?
或者是否有可能以某种方式强制求解器在特定时间点进行积分(例如 t0 ->(hmax=False)->tpuls_1_start->(hmax=dt)->tpuls_1_end->(hmax=False)->puls_2_start ......)?
谢谢
keras - 如何在分类 NN 中输出多个时间步?
我想预测未来的多个时间步长。我当前的 NN 输出 0、1 或 2 的稀疏分类。
通过具有 3 个神经元的 SoftMax Dense 层对输出进行稀疏分类,以对应于上述三个类别。
我将如何塑造输出层(softmaxed Dense)以使我能够预测未来的两个时间步长,同时将稀疏分类类别保持在 3 个?
现在,如果我将该 Dense 层设置为具有 6 个神经元(3 个类别 * 2 个时间步长),我将得到一个具有 6 个类别和 1 个时间步长的稀疏分类分类的输出。
tensorflow - Keras/Tensorflow 中 LSTM 的输入数据准备
LSTM 层的输入形状是 (batch_size, timesteps, features)。我目前有一个如下所示的输入:
我使用我的代码来重塑数据,使其看起来像这样
但是,在 Python 中重塑这些数据需要花费大量时间。Keras/Tensorflow 中的 LSTM 模型是否有某种方法可以纯粹从 [0,1,2,3,4,5,6,7,8,9,10] 中学习数据,其中我将时间步长定义为 4 Keras API。我试图寻找这样的选择,但没有找到。
这是我一直在使用的:
有没有人对如何重塑或如何使用 Keras 有更好的了解?
pytorch - 在 pytorch RNN 中的时间步之间添加 dropout
我正在训练内置的 pytorch rnn 模块(例如,torch.nn.LSTM),并希望在每个时间步之间添加固定的每小批量丢失(如果我理解正确,Gal 丢失)。
最简单的是,我可以展开网络并在单个批次上计算我的前向计算,如下所示:
但是,假设 python 中的循环非常慢,我宁愿利用 pytorch 的能力来完全处理一批多个序列,一次调用(如rnn(batch,state)
常规前向计算)。
即,我更喜欢看起来像这样的东西:
(注意:Pytorch 的 rnns 确实有一个dropout
参数,但它是用于层之间的辍学而不是时间步长之间的,所以不是我想要的)。
我的问题是:
我是否正确理解 Gal 辍学?
我想要的界面是否可用?
如果不是,是否会简单地实现一些
drop_neurons(rnn), return_dropped(rnn)
函数,将 rnn 的权重矩阵和偏置向量中的随机行归零,然后在更新步骤之后返回它们之前的值是否等效?(这会在层之间施加与步骤之间相同的丢失,即完全删除整个小批量的一些神经元,我不确定这样做是否“正确”)。
c++ - 如何设置执行特定代码片段的 timeStep?
我需要在特定持续时间/特定时间步之后执行特定代码。
例如,在 ROS 中,我们实现了 Service API,客户端可以在需要时调用服务请求。
因此,当客户端调用服务 API 时,应立即执行第一个代码块,然后在一定的持续时间/时间步之后执行第二个代码块(如 LED 闪烁)并重复循环,直到客户端发送停止请求。
现在我的问题是,我怎样才能实现这个循环?
例如,一旦客户端调用服务,第一个代码块应该被执行,并且在指定的时间步之后应该执行第二个代码块,然后在指定的时间步之后再次执行第一个代码块并循环重复。
有什么提示或建议吗?
提前致谢