问题标签 [mse]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-3.x - 手动和 cross_val_score 预测的 Python 不同结果
我有一个问题,我正在尝试实施KFold
and cross_val_score
。我的目标是计算mean_squared_error
,为此我使用了以下代码:
我认为这里没问题,我得到了以下结果:
结果:0.0828856459279
和 -0.083069435946
但是当我尝试在其他示例(来自 Kaggle 房价的数据)上执行此操作时,它无法正常工作,至少我认为是这样。
在这里,我得到以下结果:0.912874946869
和-6.16986926564e+16
显然,mean_squared_error
“手动”mean_squared_error
计算与通过KFold
.
我对我在哪里犯错感兴趣?
r - 弹性网络回归(前列腺数据)
在最初的 Elastic 网络论文中,Zou 和 Hastie,(2005) 检查了前列腺癌数据以进行比较。我想使用glmnet
package in重新生成结果R
。正如论文中提到的,响应是lpsa
。训练集和测试集由数据中的变量给出train
。我假设alpha = 0.26
(如论文中所述)并使用交叉验证来估计lambda
. 但我无法得到与论文中给出的相似的均方误差(即 0.381)。我的错误在哪里?
我使用的代码如下所示。
android - iOS 移动设备上不支持的 HLS 视频
一个简短的背景故事,我正在用 Raspberry Pi 构建一个婴儿监视器,并用 Node.JS 编写一个 Web 前端。我有几部旧手机,我打算把它们放在家里,这样婴儿监视器就可以散落一地。到目前为止,整个系统的大部分工作,除了 iPhone 上的 HLS 视频组件。
HLS 视频部分可以在我的桌面上使用 Linux/Chromium 和我的 Android/Chrome 手机。我还可以让 HLS 视频在带有 Chrome 的 MacBook (10.13.3) 上运行。但是,我真正的问题是我无法让 HLS 视频在任何iOS 移动设备上运行,特别是 iOS 版本 10.3.3 和 11.2.5。
我在客户端使用 HLS.js 来设置video
HTML 元素。我了解移动设备上的 iOS 不支持媒体源扩展 (MSE),这将解释为什么 HLS.js 不能在我的 iPhone 上运行。但是,移动设备上的“本机”HLS 支持似乎仍然不支持媒体文件的格式。
我正在使用这个picam代码(来自 iizukanao)从 Pi 的相机创建 m3u8 播放列表和相应的 .ts 文件。我怀疑 m3u8 文件没有移动 iOS 客户端想要的格式。我手动弄乱了 m3u8 文件,但没有看到任何积极的影响。我运行 picam 模块:
示例 m3u8 文件:
我认为我有基于此Apple FAQ和 ffprobe 输出的正确编解码器:
我使用 nginx 和此站点配置提供实际的 HLS 文件:
有没有人知道为什么我的 iPhone 认为视频格式不受支持?
如果有帮助,我的全部代码都在 Github 上:(暂时不要评判我的代码,它仍在进行中)
(我已经用“RPI”替换了各种 IP 地址、主机名和文件名)
html - 使用媒体源扩展遇到 DOMException:加载失败,因为找不到支持的源
我使用 ffmpeg 将 mp4 转换为 m3u8;并且它保持相同的编解码器值。当我使用 fetch 获取 ts 缓冲区并将其附加到 MSE 实例时。如此糟糕。它不起作用。
这里有一些代码:
neural-network - 训练keras模型;为什么mae减少而mse增加?
我正在使用 keras 在回归问题上训练模型。当我调查训练期间的损失和指标时,有时mean absolute error (mae)
会在一个时期结束时减少,而mean square error (mse)
增加。我设置mae
为损失和mse
度量。
可以吗?还是设置有问题?谢谢
mp4 - MFCreateFMPEG4MediaSink does not generate MSE-compatible MP4
I'm attempting to stream a H.264 video feed to a web browser. Media Foundation is used for encoding a fragmented MPEG4 stream (MFCreateFMPEG4MediaSink
with MFTranscodeContainerType_FMPEG4
, MF_LOW_LATENCY
and MF_READWRITE_ENABLE_HARDWARE_TRANSFORMS
enabled). The stream is then connected to a web server through IMFByteStream
.
Streaming of the H.264 video works fine when it's being consumed by a <video src=".."/>
tag. However, the resulting latency is ~2sec, which is too much for the application in question. My suspicion is that client-side buffering causes most of the latency. Therefore, I'm experimenting with Media Source Extensions (MSE) for programmatic control over the in-browser streaming. Chrome does, however, fail with the following error when consuming the same MPEG4 stream through MSE:
Failure parsing MP4: TFHD base-data-offset not allowed by MSE. See https://www.w3.org/TR/mse-byte-stream-format-isobmff/#movie-fragment-relative-addressing
mp4dump of a moof/mdat fragment in the MPEG4 stream. This clearly shows that the TFHD contains an "illegal" base data offset
parameter:
I'm using Chrome 65.0.3325.181 (Official Build) (32-bit), running on Win10 version 1709 (16299.309).
Is there any way of generating a MSE-compatible H.264/MPEG4 video stream using Media Foundation?
Status Update:
Based on roman-r advise, I managed to fix the problem myself by intercepting the generated MPEG4 stream and perform the following modifications:
- Modify Track Fragment Header Box (tfhd):
- remove
base_data_offset
parameter (reduces stream size by 8bytes)- set
default-base-is-moof
flag- Add missing Track Fragment Decode Time (tfdt) (increases stream size by 20bytes)
- set
baseMediaDecodeTime
parameter- Modify Track fragment Run box (trun):
- adjust
data_offset
parameter
The field descriptions are documented in https://www.iso.org/standard/68960.html (free download).
Switching to MSE-based video streaming reduced the latency from ~2.0 to 0.7 sec. The latency was furthermore reduced to 0-1 frames by calling IMFSinkWriter::NotifyEndOfSegment
after each IMFSinkWriter::WriteSample call.
There's a sample implementation available on https://github.com/forderud/AppWebStream
math - 均方根误差有什么问题?
我不明白我的 rMSE 实现有什么问题。我正在使用 MSE 作为损失函数和度量标准来训练我的模型。训练后,我使用evaluate
函数在测试集中评估我的模型,然后使用predict
函数获取值。然后我应用 rMSE。我的代码是:
我得到了这个结果:
但是 12.0075311661 的平方不是 2.90274470011。那么,有什么问题呢?
python - 在 tensorflow 中实现自定义 mse 损失函数
我正在尝试在 TensorFlow 上实现自定义损失函数来计算圆形均方误差损失。
我正在获取真实值和预测值的差异,y 和 yPredict 都是向量(1D)。我正在添加另一个变量 2*j*pi,其中 j 的范围从 -20 到 20。但是,计算这行代码似乎存在问题。
这是错误消息:
这是完整的函数和函数调用以及它如何链接到优化器。
功能:
函数调用:
有人可以帮我解决这个问题吗?谢谢!
keras - 当损失函数是自定义函数时,在 epoch 上绘制 MSE
我使用自定义损失函数,并希望在 epoch 内绘制 MSE(我使用 Keras 库)。这是我用来拟合我的神经网络并保存历史的代码。
当我尝试使用 plot 函数绘制 MSE
我收到这个错误
我怎样才能以正确的方式绘制它?