问题标签 [mse]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
323 浏览

python-3.x - 手动和 cross_val_score 预测的 Python 不同结果

我有一个问题,我正在尝试实施KFoldand cross_val_score。我的目标是计算mean_squared_error,为此我使用了以下代码:

我认为这里没问题,我得到了以下结果:

结果:0.0828856459279和 -0.083069435946

但是当我尝试在其他示例(来自 Kaggle 房价的数据)上执行此操作时,它无法正常工作,至少我认为是这样。

在这里,我得到以下结果:0.912874946869-6.16986926564e+16

显然,mean_squared_error“手动”mean_squared_error计算与通过KFold.

我对我在哪里犯错感兴趣?

0 投票
1 回答
238 浏览

r - 弹性网络回归(前列腺数据)

在最初的 Elastic 网络论文中,Zou 和 Hastie,(2005) 检查了前列腺癌数据以进行比较。我想使用glmnetpackage in重新生成结果R。正如论文中提到的,响应是lpsa。训练集和测试集由数据中的变量给出train。我假设alpha = 0.26(如论文中所述)并使用交叉验证来估计lambda. 但我无法得到与论文中给出的相似的均方误差(即 0.381)。我的错误在哪里?

我使用的代码如下所示。

0 投票
0 回答
873 浏览

android - iOS 移动设备上不支持的 HLS 视频

一个简短的背景故事,我正在用 Raspberry Pi 构建一个婴儿监视器,并用 Node.JS 编写一个 Web 前端。我有几部旧手机,我打算把它们放在家里,这样婴儿监视器就可以散落一地。到目前为止,整个系统的大部分工作,除了 iPhone 上的 HLS 视频组件。

HLS 视频部分可以在我的桌面上使用 Linux/Chromium 和我的 Android/Chrome 手机。我还可以让 HLS 视频在带有 Chrome 的 MacBook (10.13.3) 上运行。但是,我真正的问题是我无法让 HLS 视频在任何iOS 移动设备上运行,特别是 iOS 版本 10.3.3 和 11.2.5。

我在客户端使用 HLS.js 来设置videoHTML 元素。我了解移动设备上的 iOS 不支持媒体源扩展 (MSE),这将解释为什么 HLS.js 不能在我的 iPhone 上运行。但是,移动设备上的“本机”HLS 支持似乎仍然不支持媒体文件的格式。

我正在使用这个picam代码(来自 iizukanao)从 Pi 的相机创建 m3u8 播放列表和相应的 .ts 文件。我怀疑 m3u8 文件没有移动 iOS 客户端想要的格式。我手动弄乱了 m3u8 文件,但没有看到任何积极的影响。我运行 picam 模块:

示例 m3u8 文件:

我认为我有基于此Apple FAQ和 ffprobe 输出的正确编解码器:

我使用 nginx 和此站点配置提供实际的 HLS 文件:

有没有人知道为什么我的 iPhone 认为视频格式不受支持?

如果有帮助,我的全部代码都在 Github 上:(暂时不要评判我的代码,它仍在进行中)

(我已经用“RPI”替换了各种 IP 地址、主机名和文件名)

0 投票
1 回答
523 浏览

html - 使用媒体源扩展遇到 DOMException:加载失败,因为找不到支持的源

我使用 ffmpeg 将 mp4 转换为 m3u8;并且它保持相同的编解码器值。当我使用 fetch 获取 ts 缓冲区并将其附加到 MSE 实例时。如此糟糕。它不起作用。

这里有一些代码:

整个代码

在线测试页面:http ://events.jackpu.com/media-source/

0 投票
1 回答
2818 浏览

neural-network - 训练keras模型;为什么mae减少而mse增加?

我正在使用 keras 在回归问题上训练模型。当我调查训练期间的损失和指标时,有时mean absolute error (mae)会在一个时期结束时减少,而mean square error (mse)增加。我设置mae为损失和mse度量。

可以吗?还是设置有问题?谢谢

0 投票
4 回答
1286 浏览

mp4 - MFCreateFMPEG4MediaSink does not generate MSE-compatible MP4

I'm attempting to stream a H.264 video feed to a web browser. Media Foundation is used for encoding a fragmented MPEG4 stream (MFCreateFMPEG4MediaSink with MFTranscodeContainerType_FMPEG4, MF_LOW_LATENCY and MF_READWRITE_ENABLE_HARDWARE_TRANSFORMS enabled). The stream is then connected to a web server through IMFByteStream.

Streaming of the H.264 video works fine when it's being consumed by a <video src=".."/> tag. However, the resulting latency is ~2sec, which is too much for the application in question. My suspicion is that client-side buffering causes most of the latency. Therefore, I'm experimenting with Media Source Extensions (MSE) for programmatic control over the in-browser streaming. Chrome does, however, fail with the following error when consuming the same MPEG4 stream through MSE:

Failure parsing MP4: TFHD base-data-offset not allowed by MSE. See https://www.w3.org/TR/mse-byte-stream-format-isobmff/#movie-fragment-relative-addressing

mp4dump of a moof/mdat fragment in the MPEG4 stream. This clearly shows that the TFHD contains an "illegal" base data offset parameter:

I'm using Chrome 65.0.3325.181 (Official Build) (32-bit), running on Win10 version 1709 (16299.309).

Is there any way of generating a MSE-compatible H.264/MPEG4 video stream using Media Foundation?

Status Update:

Based on roman-r advise, I managed to fix the problem myself by intercepting the generated MPEG4 stream and perform the following modifications:

  • Modify Track Fragment Header Box (tfhd):
    • remove base_data_offset parameter (reduces stream size by 8bytes)
    • set default-base-is-moof flag
  • Add missing Track Fragment Decode Time (tfdt) (increases stream size by 20bytes)
    • set baseMediaDecodeTime parameter
  • Modify Track fragment Run box (trun):
    • adjust data_offset parameter

The field descriptions are documented in https://www.iso.org/standard/68960.html (free download).

Switching to MSE-based video streaming reduced the latency from ~2.0 to 0.7 sec. The latency was furthermore reduced to 0-1 frames by calling IMFSinkWriter::NotifyEndOfSegment after each IMFSinkWriter::WriteSample call.

There's a sample implementation available on https://github.com/forderud/AppWebStream

0 投票
1 回答
1220 浏览

math - 均方根误差有什么问题?

我不明白我的 rMSE 实现有什么问题。我正在使用 MSE 作为损失函数和度量标准来训练我的模型。训练后,我使用evaluate函数在测试集中评估我的模型,然后使用predict函数获取值。然后我应用 rMSE。我的代码是:

我得到了这个结果:

但是 12.0075311661 的平方不是 2.90274470011。那么,有什么问题呢?

0 投票
1 回答
801 浏览

python - 指定具有未知系数的函数以及数据并在python中查找系数

我有一个函数: f(theta) = a+b*cos(theta - c) 以及采样数据。我想找到最小化均方误差的系数 a、b 和 c。知道在 python 中是否有一种有效的方法可以做到这一点?

编辑:

这是一张显示曲线如何不真正适合点的图片。似乎幅度应该更高。当地的最小值和最大值似乎在正确的位置。

在此处输入图像描述

0 投票
0 回答
463 浏览

python - 在 tensorflow 中实现自定义 mse 损失函数

我正在尝试在 TensorFlow 上实现自定义损失函数来计算圆形均方误差损失。

我正在获取真实值和预测值的差异,y 和 yPredict 都是向量(1D)。我正在添加另一个变量 2*j*pi,其中 j 的范围从 -20 到 20。但是,计算这行代码似乎存在问题。

这是错误消息:

这是完整的函数和函数调用以及它如何链接到优化器。

功能:

函数调用:

有人可以帮我解决这个问题吗?谢谢!

0 投票
1 回答
1657 浏览

keras - 当损失函数是自定义函数时,在 epoch 上绘制 MSE

我使用自定义损失函数,并希望在 epoch 内绘制 MSE(我使用 Keras 库)。这是我用来拟合我的神经网络并保存历史的代码。

当我尝试使用 plot 函数绘制 MSE

我收到这个错误

我怎样才能以正确的方式绘制它?