我在一家表演艺术机构工作,并被要求考虑将可穿戴技术融入我们的顾客的可访问性中。我有兴趣了解有关在现场或预先录制的表演中使用 SmartEyeglasses 获得字幕(又名字幕)的更多信息。是否可以对多个眼镜进行编程以同时向用户显示相同的字幕?这个编程过程是如何工作的?多副 SmartEyeglasses 可以连接同一个主机设备吗?
非常感谢任何信息。我期待着您的回音!
我在一家表演艺术机构工作,并被要求考虑将可穿戴技术融入我们的顾客的可访问性中。我有兴趣了解有关在现场或预先录制的表演中使用 SmartEyeglasses 获得字幕(又名字幕)的更多信息。是否可以对多个眼镜进行编程以同时向用户显示相同的字幕?这个编程过程是如何工作的?多副 SmartEyeglasses 可以连接同一个主机设备吗?
非常感谢任何信息。我期待着您的回音!
您的问题过于宽泛,因此可能会被关闭,但我会咬一口:
SDK 的文档可在此处获得:https ://developer.sony.com/develop/wearables/smarteyeglass-sdk/api-overview/ - 它自称是基于 Android 的。可穿戴显示器的内容在“卡片”(Android UI 概念:https ://developer.android.com/training/material/lists-cards.html )中定义,软件在眼镜上本地运行。
诸如预先录制的和预先编写好的现场表演的字幕之类的东西可以使用诸如.srt
( http://www.matroska.org/technical/specs/subtitles/srt.html ) 之类的文件格式进行存储,这些文件格式易于使用并且已经拥有大量它们周围的生态系统,例如创建它们的免费工具和读取它们的软件库。
构建这样一个系统似乎很简单:每场演出都有一个.srt
文件存储在某处的网络服务器上。用户以某种方式选择性能,您将编写软件读取.srt
文件并Card
根据当前时间码显示文本,直到脚本结束。
...这种方法具有将服务器端要求降至最低的优点(只需一个静态网络服务器即可)。
如果您有更复杂的要求,例如实时转录、支持中断和无脚本事件,那么您必须编写一个自定义服务器,将“实时”字幕发送到眼镜,大概是通过 TCP,这会耗尽设备的电池寿命,因为Wi-Fi 无线电将激活更长时间。另一种选择可能是考虑蓝牙,但我不知道您将如何构建一个可以同时处理 100 多个远程蓝牙连接的系统。
一种折衷方案是使用.srt
文件,但让眼镜每 30 秒左右轮询一次服务器以检查是否有任何未编写脚本的事件。你如何处理这取决于你。
(顺便说一句,这看起来是一个有趣的项目——如果你想雇人来建造它,请联系我:D)
每部手机只能承载 1 个 SmartEyeglass。因此,每个 SmartEyeglass 都需要单独的主机电话。