4

我正在使用以下代码来提取深度图(按照 Apple 自己的示例):

- (nullable AVDepthData *)depthDataFromImageData:(nonnull NSData *)imageData orientation:(CGImagePropertyOrientation)orientation {
    AVDepthData *depthData = nil;

    CGImageSourceRef imageSource = CGImageSourceCreateWithData((CFDataRef)imageData, NULL);
    if (imageSource) {
        NSDictionary *auxDataDictionary = (__bridge NSDictionary *)CGImageSourceCopyAuxiliaryDataInfoAtIndex(imageSource, 0, kCGImageAuxiliaryDataTypeDisparity);
        if (auxDataDictionary) {
            depthData = [[AVDepthData depthDataFromDictionaryRepresentation:auxDataDictionary error:NULL] depthDataByApplyingExifOrientation:orientation];
        }

        CFRelease(imageSource);
    }

    return depthData;
}

我称之为:

[[PHAssetResourceManager defaultManager] requestDataForAssetResource:[PHAssetResource assetResourcesForAsset:asset].firstObject options:nil dataReceivedHandler:^(NSData * _Nonnull data) {
    AVDepthData *depthData = [self depthDataFromImageData:data orientation:[self CGImagePropertyOrientationForUIImageOrientation:pickedUiImageOrientation]];
    CIImage *image = [CIImage imageWithDepthData:depthData];
    UIImage *uiImage = [UIImage imageWithCIImage:image];
    UIGraphicsBeginImageContext(uiImage.size);
    [uiImage drawInRect:CGRectMake(0, 0, uiImage.size.width, uiImage.size.height)];
    UIImage *newImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    NSData *pngData = UIImagePNGRepresentation(newImage);
    UIImage* pngImage = [UIImage imageWithData:pngData];    // rewrap
    UIImageWriteToSavedPhotosAlbum(pngImage, nil, nil, nil);
} completionHandler:^(NSError * _Nullable error) {

}];

结果如下:这是一个低质量的(并且旋转了,但我们暂时将方向放在一边)图像:

在此处输入图像描述

然后我转移了原始的 HEIC 文件,在 Photoshop 中打开,转到 Channels,然后选择深度图,如下所示:

在此处输入图像描述

结果如下:

在此处输入图像描述

这是一个分辨率/质量更高、方向正确的深度图。为什么代码(实际上是 Apple 在https://developer.apple.com/documentation/avfoundation/avdepthdata/2881221-depthdatafromdictionaryrepresent?language=objc上的代码)导致质量较低的结果?

4

1 回答 1

5

我发现了这个问题。实际上,它隐藏在视线之外。从该+[AVDepthData depthDataFromDictionaryRepresentation:error:]方法获得的内容返回 视差数据。我已使用以下代码将其转换为深度:

if(depthData.depthDataType != kCVPixelFormatType_DepthFloat32){
    depthData = [depthData depthDataByConvertingToDepthDataType:kCVPixelFormatType_DepthFloat32];
}

(没试过,但是 16-bit Depth, kCVPixelFormatType_DepthFloat16, 应该也可以)

将视差转换为深度后,图像与 Photoshop 中完全相同。我应该在使用时醒来CGImageSourceCopyAuxiliaryDataInfoAtIndex(imageSource, 0, kCGImageAuxiliaryDataTypeDisparity);(注意最后的“视差”),并且 Photoshop 清楚地说“深度图”,将视差转换为深度(或者只是以某种方式读取为深度,老实说,我不知道物理编码,也许当我首先复制辅助数据时,iOS正在将深度转换为视差)。

旁注:我还通过直接从[PHAsset requestContentEditingInputWithOptions:completionHandler:]方法创建图像源并传递contentEditingInput.fullSizeImageURLintoCGImageSourceCreateWithURL方法来解决方向问题。它照顾了方向。

于 2018-12-16T23:26:23.417 回答