问题标签 [sony-camera-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
sony-camera-api - 索尼 SDK 支持 DSCRX100 -2
刚刚从 Sony 网站下载了 Camera Remote API beta SDK。没有提到 DSCRX100-2 谁能告诉我 DSCRX100-2 是否与 SDK 文档中列出的任何其他型号兼容甚至部分兼容。
这个模型似乎可以从 PlayMemories 应用程序中进行基本控制。所以我有点假设发布的 API 也有一些兼容性。不幸的是,我无法从索尼找到任何关于这款相机和相关兼容性的文档。
sony-camera-api - 索尼相机 api 控制多个相机
我可以使用 Sony Camera API 同时或依次启动 5 个或 6 个(或更多)运动摄像头吗?然后从每个中获取图像?
我知道动作摄像头遥控器可以控制五个设备 - 但这可能使用非公共 API。
我已经扫描了文档,但不确定我是否可以一次连接到多个相机/同步它们同时拍照。
opencv - 使用 OpenCV 访问 Sony QX100 视频流
我想用 OpenCV 访问相机的视频流。
这样做,我通过 WLAN 将相机连接到我的 Win7 PC。此外,也许一种可能的方法是通过 http://ip:port/resource')。我试过例如 http://10.0.0.1:65534/videostream.cgi?user=admin&pwd=123456&resolution=32" 但没有成功。
有谁知道此特定摄像机的实时视频流的必要凭据 {IP、端口、用户、密码等。}?
提前致谢!
android - 在 ecplise 中运行 Sony 的 CameraRemoteSampleApp
我正在尝试按照本教程(https://developer.sony.com/2013/11/29/how-to-develop-an-app-using-the- camera-remote-api-2/)但不起作用。你能提供一个循序渐进的教程吗?
尝试#1:1.:文件->新建->创建一个新的Android应用程序项目2.:导入->“文件系统”->从目录“..\CameraRemoteAPIbeta_SDK_1.50\CameraRemoteSampleApp\Android”进入新的Android应用程序项目(选项:覆盖现有资源而不警告=是)
尝试#2: 1.:创建空项目 2.:将文件夹“res”和“src”以及文件清单复制到这个空项目中
两次尝试都以一长串错误结束,例如:“R 无法解析为变量”
提前致谢!
ios - ios远程摄像头图像处理崩溃
我已经使用 Sony CameraRemoteAPI SDK 连接了远程摄像机。相机已成功连接,我正在获取帧。以下代码获取传入的 UIImage 并分配给 UIImageView
- (void) liveviewPaint:(UIImage*)image
{
@synchronized(self)
{
[self.liveviewImageView setImage:image];
image = NULL;
}
}
然后我需要在这个 UIImage 中添加人脸识别。但是当我尝试这样做时,应用程序会耗尽内存并崩溃。如何使用这个远程摄像头有效地进行人脸识别?这是我当前的代码
- (void) liveviewPaint:(UIImage*)image
{
@synchronized(self)
{
[self performSelectorInBackground:@selector(getFaceDetectedImage:) withObject:image];
if ([[RecognitionAPI getSharedInstance] detectedImage]) {
[self.liveviewImageView setImage:[[RecognitionAPI getSharedInstance] detectedImage]];
} else {
[self.liveviewImageView setImage:image];
}
image = NULL;
}
}
这里使用一个单独的线程调用人脸识别函数(getFaceDetectedImage)。一旦人脸被识别,它就会被设置为 RecognitionAPI 类(detectedImage)中的实例变量。如果检测到人脸,我将其设置为 UIImageView(liveviewImageView) 的图像,如下所示
[self.liveviewImageView setImage:[[RecognitionAPI getSharedInstance] detectedImage]];
这是没有人脸检测的分配工具的输出。应用程序这次没有崩溃。
这是人脸检测分配工具的输出。应用程序这次
崩溃了。
我正在使用苹果内置的 CIDetector 进行人脸识别。我尝试使用opencv,但当时该应用程序也崩溃了。
这是我在控制台中遇到的错误
Recognition(483,0x6a51000) malloc: *** mach_vm_map(size=2691072) failed (error code=3)
*** error: can't allocate region
*** set a breakpoint in malloc_error_break to debug
Recognition(483,0x6a51000) malloc: *** mach_vm_map(size=675840) failed (error code=3)
*** error: can't allocate region
*** set a breakpoint in malloc_error_break to debug
Recognition(483,0x6a51000) malloc: *** mach_vm_map(size=2691072) failed (error code=3)
*** error: can't allocate region
*** set a breakpoint in malloc_error_break to debug
Recognition(483,0x6a51000) malloc: *** mach_vm_map(size=675840) failed (error code=3)
*** error: can't allocate region
*** set a breakpoint in malloc_error_break to debug
Recognition(483,0x6a51000) malloc: *** mach_vm_map(size=2691072) failed (error code=3)
*** error: can't allocate region
*** set a breakpoint in malloc_error_break to debug
Recognition(483,0x6a51000) malloc: ***
此外,我总共有 59 个线程无法完成。这是它的截图。
我想知道如何避免这种崩溃以及如何有效地进行图像处理。我想我需要一个好的设计。任何人都可以帮忙吗?
sony-camera-api - 索尼相机 API 和智能远程控制应用程序不允许访问互联网
我购买了一台索尼 A5000,目的是将索尼相机 API 集成到我们的 iPad 专业照相亭软件中。
我知道 Sony A5000 可以连接到现有的 Wi-Fi 接入点,该接入点可以连接到互联网,我已经测试过它并且它可以工作 - 但不能使用 API。
这是因为要使用 API,您必须在相机上运行智能远程控制应用程序才能识别它。但是,当您运行该相机应用程序时,它会为您提供来自相机的直接 Wi-Fi 接入点凭据,并且不允许您使用相机已连接到的现有接入点。我使用索尼为 iPhone/iPad 提供的示例代码对其进行了测试。因此,即使相机明显具有连接到现有 Wi-Fi 的能力,也无法连接互联网。
我的应用程序要求设备能够连接到互联网以进行社交共享,并将照片同步到显示图像的信息亭。
有没有办法绕过这个限制?亲爱的 Sony 工程师,您能否在相机连接的接入点上启用 API 的使用?我保证我们会卖出很多索尼相机。我们的客户期待能够将 DSLR 与基于 iPad 的照相亭结合使用。
android - Sony Camera Remote API Beta 如何设置快门速度?
我有一台安装了最新固件 (v3.00) 的 Sony DSC-QX100。当我使用任何参数向设备发送 API 调用“setShutterSpeed”时,我得到的结果是响应 JSONArray 的“result”对象中成功返回值为 0,这应该意味着调用成功。然而,当我使用 API 调用“getShutterSpeed”检查这一点时,它总是返回相同的值(“1/30”),就好像快门速度没有改变一样。此外,当我发送 API 调用“getAvailableShutterSpeed”时,它总是返回一个空列表。问题可能是什么?
android - 无法通过 Sony Camera API 将 Sony NEX 5T 连接到 iPhone
I am developing an iPhone and an Android app which will connect to the Sony Camera NEX 5T via the Sony Camera API and receive an image being sent from the camera. I downloaded the Sony tutorial from https://developer.sony.com/2013/11/29/how-to-develop-an-app-using-the-camera-remote-api-2/ and tried using it.
I am not able to connect to the camera via the demo app as well as it doesnt locate my camera at all. But if i use, play memories app by Sony, it locates and sends the image in a fraction on a second. I even tried to manually reach the camera via 10.0.0.1/sony/camera but it doesnt connect.
Any help will be greatly appreciated. A working demo from anyone would be highly helpful.
Thanks in Advance
android - Augmented Reality app for SONY Xperia Z2
We are building one Camera App especially for Sony Xperia Z2 and it’s going to be AR Camera app. below is the key features of the same.
"Need to allow selection of image and detect human once camera is open. User can adjust, rotate, and resize that selected image. Then he can take picture from camera."
So we tried to find some API/SDK for Sony Xperia camera app/AR feature, but did not find a perfect solution yet. So need technical feedback on below few queries. So need expert’s opinion and few sample code of AR if possible.
It’s clear to us that Sony is providing an SDK for its high end smart phone series - http://developer.sonymobile.com/knowledge-base/sony-add-on-sdk/camera-add-on-api/
- It says “The Camera Add-on API enables you to both add a shortcut to your imaging app from the camera apps mode selector, and you can add a shortcut to the smart social camera apps mode selector in your imaging app UI.”
- So does this adds on provide access to default core AR effect’s API of Z2?
- We have seen some third party apps are listed under Sony’s default camera mode selection like Evernote, vine etc.
Can we have access to core AR effect’s code? Or can we create new AR effects and add under the AR effect mode. Currently all such AR effects are available from Sony Itself.
If any AR API/Code access is not available from Sony, Can someone please suggest good third party solution or sample demo link for the camera AR feature?
Your prompt response is much more appreciated!
camera - 我可以将 Sony HDR-AS100 连接到现有接入点吗
我想使用相机 API 访问索尼 HDR-AS100V 相机的实时视图。我还需要我的 WIFI 适配器来连接到现有的接入点。我无法访问相机提供的 AP。我可以将相机连接到外部接入点并通过此网络连接访问 API 吗?