问题标签 [haptic-feedback]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios10 - 如何在 ios 中以编程方式获取系统触觉设置的状态?
在我的应用程序中,我希望用户启用或禁用触觉反馈。当设备的触觉反馈关闭时,我将不允许用户启用它。我想知道设备中触觉设置的状态以及它是否开/关。
swift - 没有触觉反馈
我的 watchos 应用依赖于在后台工作的触觉反馈。我已经在互联网上搜索并搜索了如何执行此操作,并且只学习了如何将内容添加到我的 info.plist
我不想使用通知来提醒我的用户,因为它在 UI 方面很麻烦,因为这样做太频繁了。
我阅读了有关锻炼课程的信息,但无法使其发挥作用。
如何在手腕降低时允许触觉反馈起作用?最简单的方法就足够了,我不是最先进的 swift 所以请尝试充分解释!
我的代码示例如下。如果我想让背景触觉反馈起作用,请告诉我把它放在哪里:
我的计时器:
我的行动:
这就是我在 HKWorkout 会议上所做的,但完全不知道发生了什么。
看,我什至不需要心率数据或其他任何东西,除了在后台嗡嗡作响的 Taptic 引擎。
ios - UIImpactFeedbackGenerator ImpactOccurred 轻微延迟
我正在使用Apple 开发人员文档中描述的UIImpactFeedbackGenerator ,但是在我调用 ImpactOccurred 和您感觉到触觉之间似乎有一点延迟——可能是十分之一秒或类似的时间。当我同时播放声音时,这一点尤其明显——声音明显先于触觉。
其他人在Apple Developer Forums上写过同样的事情,但没有解决方案。
我用以下方法初始化 UIImpactFeedbackGenerator:
立即调用 prepare,并在影响发生前的几秒钟内重复调用:
然后最后播放触觉,使用:
不确定它是否相关,但我在同一个应用程序中使用 UISelectionFeedbackGenerator,但不是同时使用。
想法?谢谢!
react-native - 在 react-native 可触摸视图上启用触觉反馈
我正在编写一个 react-native 应用程序,我注意到虽然按钮在单击时看起来像本机按钮 - 它们的行为并不像一个(至少不像 android 按钮的行为)。
单击 android 应用程序按钮 - 发出声音并向用户提供触觉反馈。在声音上,我看到有 github 讨论和未解决的问题,但我在任何地方都找不到关于触觉反馈的任何信息。
如何使我的视图(任何可触摸的视图..)在点击时产生触觉反馈?这在应用程序中是非常重要的感觉。
我想要这样的东西(在android中)
这不需要应用程序获得Vibrate
.
并且我自己使用Vibrate
api 管理触觉反馈将导致全局禁用此选项的用户体验不良行为
谢谢
unity3d - 如何novint falcon与unity3d一起使用
我想让 nobint falcon 与 unity3d 一起工作。我搜索了很多页面,发现了一个开源项目 falconunity。但它不起作用,而不是我的项目现在没有进展。请帮忙....
ios - 触觉反馈与 AVFoundation 不兼容?(UIImpactFeedbackGenerator 等)
我正在尝试在后台显示视频/摄像头视图,同时我还允许在我的应用程序中为各种操作提供触觉反馈,但似乎 AVFoundation 在我正在进行的涉及触觉呼叫的任何呼叫中都表现不佳:
只要注释掉 AVFoundation 的东西,触觉反馈就可以很好地工作并且符合预期。有任何想法吗?
使用:
和:
swift - 如何在 AvCapture Session 运行时播放触觉反馈?
当我的 Avcapture 会话正在运行并准备录制视频时,我无法播放音频文件、振动或播放任何触觉反馈?我只找到了目标 c 的解决方案,但不是很快。
Objective C 解决方案:同时使用振动和 AVCaptureSession
ios - 在 Apple Watch 上连续播放两个触觉,第二个不触发
尝试在第一次触觉触发后进行第二次触觉触发。但是,由于某种原因,第二个没有触发。我添加了 DispatchQueue 函数,看看是不是因为它们开得太近了,但它仍然不起作用。
swift3 - 在 swift 3 中创建触觉反馈模式
我对 Swift 和编程非常陌生。我正在尝试创建由 UILongPressGestureRecognizer 触发的触觉反馈模式。当用户“长按”屏幕时,我希望手机振动 3 次,每次振动之间有 1 秒的延迟。我尝试使用“睡眠”来完成 1 秒的延迟,但这不起作用。正确执行此操作的最佳方法是什么?
c++ - 如何在 Visual Studio 2013 上使用 SDL 项目正确设置 CHAI3D
我目前正在开发一个使用以下库的项目:SDL2、SDL_ttf、SDL_image、SDL_mixer 和 CHAI3D。单独使用库,代码在 VS2013 上完美运行。但是,当我尝试在同一个项目中使用这两个库时,会出现许多错误。我设法通过将它们的 include& lib 文件添加到 VC++ 目录来设置 SDL 库。我尝试添加#include "chai3d.h"
到我放置在 chai3d-3.1.0\examples....\Project\c++files 下的这个项目中。返回:
致命错误 C1083:无法打开包含文件:'chai3d.h':没有这样的文件或目录
因此,我将包含“chai3d.h”文件的文件夹的路径(../chai3d/src)添加到“属性”>“配置属性”>“VC++ 目录”>“包含目录”。这会跳转到以下 2 个错误:
致命错误 C1083:无法打开包含文件:'Eigen/Eigen':没有这样的文件或目录
我在 chai3d/external/(Eigen/Eigen) 下找到了这个文件,并将它添加到包含目录中,这样就来了:
致命错误 C1083:无法打开包含文件:'GL/glew.h':没有这样的文件或目录
请注意,注释包含行或从外部文件夹添加路径可以解决 C1083,但会导致无法识别 chai3d 对象,例如 cHapticDeviceHandler
. 这是我的日志的一部分:
错误 C2062:键入“浮动”意外错误 C2146
错误 C4430:缺少类型说明符 - 假定为 int。注意:C++ 不支持默认整数
错误 C2086:“int cVector3d”:重新定义参见“cVector3d”的声明
错误 C2143:语法错误:在 '&' 之前缺少 ','
错误 C2146:语法错误:缺少“;” 在标识符“ch_computeForceSphere”之前
错误 C4430:缺少类型说明符 - 假定为 int。注意:C++ 不支持默认整数
错误 C2086:“int cVector3d”:重新定义
错误 C2143:语法错误:在 '&' 之前缺少 ','...
我将非常感谢有关如何解决此问题的任何提示。