问题标签 [sensor-fusion]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 根据设备的移动平滑移动图像
所以这里是交易。我想创建一个类似游戏的小应用程序(让我称之为游戏,从现在开始)。在开始之前,我想向您展示游戏的原始 UI。
所以,如你所见,我会:
- 中间有一个红球
- 两边有两堵墙
程序:
- 用户将设备移动到右侧并撞到右侧墙壁(模拟右侧的灰球)
- 设备向左移动,因此它也可以到达左壁。(像左边的灰球)
关于程序方面,我所知道的只是传感器,尤其是Accelerometers
. Stackoverflow 的大多数人都认为,使用传感器的工作并没有处于良好的阶段,也就是说,来自它们的数据非常嘈杂,处理它们可能很困难。但是,我认为很多游戏在某种程度上都在使用它们......
好吧,我尝试通过绘制来移动图像。我试图从gyroscope
,中获取数据accelerometer
,linear accelerometer
并使用该数据来绘制我的图像。问题是,如果我平稳而缓慢地移动设备,那么我在图纸上几乎没有移动。这给了可怕的用户体验。
问题是我如何实现我的游戏,以便即使我缓慢移动我的设备,它也能满足我上面的所有需求。欢迎任何方法。
wireless - WSN 开发从哪里开始
我想动手开发 WSN。到目前为止,我一直在使用 TinyOS 和 TOSSIM,并且对 WSN 领域涉及的基本概念有一定的了解。但是,我想慢慢地练习并真正开始使用物理微粒。我在哪里可以找到实用的入门/开发工具包/mote?Micaz、Mica-II和sun SPOT是其中的一些选项。你们还知道其他吗?
先感谢您
ios - Madgwick 在 iOS 上的传感器融合算法
我正在尝试在 iOS 上运行Madgwick 的传感器融合算法。由于代码是开源的,我已经将它包含在我的项目中,并使用提供的传感器值调用方法。
但似乎该算法期望传感器测量值在不同的坐标系中。Apple CoreMotion 传感器系统位于右侧,Madgewick 位于左侧。这是不同坐标系的图片。两个系统都遵循右手法则。对我来说,似乎围绕 z 轴旋转了 90 度。但这没有用。
我还尝试按照 WP 的其他 stackoverflow 帖子的建议翻转 x 和 y(并反转 z)轴,但这也不起作用。那你有提示吗?如果 Madgwick 的算法输出可以与 CoreMotion 输出 (CMAttitudeReferenceFrameXMagneticNorthZVertical) 在同一个系统中,那将是完美的。
此外,我正在寻找iPhone 上betaDef的良好工作价值。betaDef是一种比例增益,目前设置为 0.1f。
任何有关如何实现目标的帮助将不胜感激。
c# - 有效地将图像文件保存到磁盘 c#
我们正在开发一种多传感器采集工具,但在将图像(来自网络摄像头)保存到硬盘时遇到了问题。
为此,我们使用了三个线程:
- 一个线程不断地从网络摄像头收集捕获的图像。
- 一个计时器线程,它收集最后一张图像并将其发送到文件保存方法中。
- 定时器线程调用第三个线程进行保存,以免干扰主定时器线程的功能。
这适用于低频。当我们将 FPS 提高到 30 左右时,我们开始丢失图像。请注意,我们有多个传感器,而不仅仅是一个网络摄像头。这就是我们使用这种架构而不是直接从网络摄像头线程保存文件的原因(我们需要保持一切同步)
这是 save 方法的当前实现:
我们还尝试不使用任务线程(用于保存)并且不使用锁。这两个导致竞争条件,因为保存比计时器时间间隔花费更多的时间。
我确信在架构和 .NET 功能方面都有更好的方法来做到这一点。任何有助于提高性能的帮助将不胜感激!
android - 如何检测手持设备的手用户
我们正在考虑检测手,用户拿着他的移动设备,右手或左手或两者兼而有之。据我们所知,我们认为这在当前硬件上不可能达到 100% 的准确度,我们甚至认为它的准确度不会超过 90%,但是如果您尝试使用大多数智能手机拥有的可用传感器数据来实现这一点今天。您将如何处理这些传感器数据以及您将如何决定?
我们最初的想法是,
- 通过陀螺仪检查水平角度,
- 使用相机根据人脸识别和眼睛的角度来决定,
如果你问你为什么要做这样的事情,
随着设备变得越来越大(例如 samsung note-2、note-3),触摸屏幕的每一侧变得越来越困难,这会导致用户体验/人体工程学问题。我们认为,如果我们能够以合理的准确度自动检测到这一点,我们可能会调整我们的布局以提供更好的用户体验。
谢谢大家分享你的想法,
arm - 我可以在 ARM cortex M0 上运行多大的算法?
我希望将一些运动传感器与 ARM cortex M0 集成。之后我需要一些传感器融合算法并使用蓝牙 LE 发送数据。M0处理器有多强大?是否有可能我需要切换到 M3 或 M4 才能实现?任何帮助是极大的赞赏。
sensors - 什么是磁力计倾斜补偿,为什么需要它?
在阅读有关磁力计/磁场/“罗盘”传感器的信息时,通常会说需要传感器倾斜补偿,例如通过使用加速度计来获得正确的测量结果。(请注意,我在这里不是在谈论硬铁和软铁效果。)所有这些来源都使用二维指南针进行澄清,当倾斜时,它不起作用。
当使用 3D 磁力计(例如 HMC5883L)时,我的理解是它们提供指向(或沿)最强磁场方向的 3D 矢量,在地球的情况下,它应该指向磁北。
我的印象是,我可以使用加速度计测量的重力矢量和磁力计“北”矢量的叉积来获得确定参考系所需的所有轴,并由此获得局部方向。
那么,什么是倾斜补偿,为什么需要它?
orientation - 具有冗余状态测量的卡尔曼滤波器
我正在尝试实现用于方向检测的卡尔曼滤波器。就像我在网上找到的大多数其他实现一样,我将使用陀螺仪和加速度计来测量俯仰和滚动,但我还打算添加水平检测。这将使我对俯仰和滚动进行第二次阅读。这意味着我将有两种测量当前状态的方法,加速度计和水平检测,而陀螺仪将用于控制。
到目前为止,我已经根据本教程分别实现了传感器数据和水平检测的过滤器:http: //blog.tkjelectronics.dk/2012/09/a-practical-approach-to-kalman-filter-and-how-实现它/
我必须修改卡尔曼滤波器的哪一部分,以便算法在预测状态、加速度计读数和水平检测读数之间选择最佳读数?任何帮助、论文或网站的链接将不胜感激提前感谢您的帮助
ios - 从 Google Maps SDK for iOS 中提取航向(指南针)
在我的印象中,iOS 中的谷歌地图指南针运行得非常好。我说的是地图中小蓝色“我的位置”点的指南针箭头,请参阅Google Maps SDK - My Location。它已在最近的 1.7 版本中引入,请在此处输入链接描述。我不知道他们是如何获得如此准确和稳定的指南针的,但我希望我的应用程序也能做到这一点,因为它依赖于精确的航向信息。
因此问题是:是否可以从 Google Maps SDK 中提取航向角?
c# - 将偏航和俯仰转换为相对鼠标移动
我有传感器融合(Razor_AHRS)(陀螺仪、磁力计、加速度计)的输出作为偏航俯仰滚动。
我的目标是将它们转换为用于偏航和俯仰的鼠标移动。
不幸的是,Yaw 从 0 到 359,俯仰从 0 到 179(如果使用偏移)。所以在某些时候存在不连续性。
将这些偏航和俯仰值转换为我可以使用相对鼠标移动方法的最佳方法是什么?所以我需要相对运动作为 x 和 y 的 int。