我从下面的 github 下载了示例affectiva 相机测试 iOS 应用程序。
https://github.com/Affectiva/ios-sdk-samples
它工作得很好。除了“悲伤”情绪之外,我将能够查看诸如愤怒、蔑视、厌恶、恐惧、喜悦、惊讶等情绪的日志。
我想知道,这个示例项目是使用他们的云服务来检测情绪还是在 iOS 上原生工作?它在内部使用 OpenCV 吗?它在内部是如何工作的?我想稍微修改一下以查看功能,但我想知道这个程序如何检测情绪?
请解释。
我从下面的 github 下载了示例affectiva 相机测试 iOS 应用程序。
https://github.com/Affectiva/ios-sdk-samples
它工作得很好。除了“悲伤”情绪之外,我将能够查看诸如愤怒、蔑视、厌恶、恐惧、喜悦、惊讶等情绪的日志。
我想知道,这个示例项目是使用他们的云服务来检测情绪还是在 iOS 上原生工作?它在内部使用 OpenCV 吗?它在内部是如何工作的?我想稍微修改一下以查看功能,但我想知道这个程序如何检测情绪?
请解释。