SmartEyeglasses和Subtitles - 辅助功能

时间:2015-05-18 21:20:26

标签: subtitle sony-smarteyeglass

我为一家表演艺术机构工作,并被要求研究将可穿戴技术纳入我们顾客的可访问性。我有兴趣了解更多关于在现场或预录演出中使用SmartEyeglasses作为超级歌曲(又名字幕,字幕)的信息。是否可以对多个眼镜进行编程以同时向用户显示相同的字幕?这个编程过程如何工作?几对SmartEyeglasses可以连接同一个主机设备吗?

非常感谢任何信息。我期待着您的回复!

2 个答案:

答案 0 :(得分:0)

你的问题过于宽泛,可能会被关闭,但我会咬人:

SDK的文档可在此处获取:https://developer.sony.com/develop/wearables/smarteyeglass-sdk/api-overview/ - 它将自己描述为基于Android的。可穿戴显示器的内容在“卡片”(Android UI概念:https://developer.android.com/training/material/lists-cards.html)中定义,并且该软件在眼镜上本地运行。

预先录制和预先录制的现场表演的字幕等内容可以使用.srthttp://www.matroska.org/technical/specs/subtitles/srt.html)等文件格式存储,这些文件格式易于使用,并且已经拥有大型生态系统,例如免费提供的工具来创建它们和软件库来阅读它们。

构建这样的系统似乎很简单:每个性能都有一个.srt文件存储在某个Web服务器上。用户以某种方式选择性能,并且您编写的软件会读取.srt文件,并根据当前时间码显示Card上的文本,直到脚本结束。

......这种方法的优点是可以将服务器端要求保持在最低限度(只需要一个静态的Web服务器)。

如果您有更复杂的要求,例如实时转录,支持中断和无脚本事件,那么您必须编写一个自定义服务器,向眼镜发送“实时”字幕,大概是通过TCP,这会耗尽设备的电池寿命,因为Wi-Fi无线电将更长时间处于活动状态。另一种方法可能是考虑蓝牙,但我不知道你如何构建一个可以处理100多个同时远程蓝牙连接的系统。

折衷方案是使用.srt文件,但让眼镜每隔30秒左右轮询一次服务器以检查是否有任何未编写的事件。你如何处理这个取决于你。

(顺便说一下,这看起来像一个有趣的项目 - 如果你想聘请某人来建造它,请与我联系:D)

答案 1 :(得分:0)

每部手机只能托管1个SmartEyeglass。因此,每个SmartEyeglass都需要单独的主机电话。