6

我正在尝试在后台显示视频/摄像头视图,同时我还允许在我的应用程序中为各种操作提供触觉反馈,但似乎 AVFoundation 在我正在进行的涉及触觉呼叫的任何呼叫中都表现不佳:

if #available(iOS 10.0, *) {
    let generator = UIImpactFeedbackGenerator(style: .light)
    generator.prepare()
    generator.impactOccurred()
    
    // More:

    let feedbackGenerator  = UISelectionFeedbackGenerator()
    feedbackGenerator.selectionChanged()
}

只要注释掉 AVFoundation 的东西,触觉反馈就可以很好地工作并且符合预期。有任何想法吗?

使用:

captureSession = AVCaptureSession()

和:

previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
4

2 回答 2

3

从 iOS 13 开始,您可以设置setAllowHapticsAndSystemSoundsDuringRecording(_:)AVAudioSession

do {
    try AVAudioSession.sharedInstance().setAllowHapticsAndSystemSoundsDuringRecording(true)
} catch {
    print(error)
}

然后你可以使用:

let generator = UIImpactFeedbackGenerator(style: .light)
generator.prepare()
generator.impactOccurred()
于 2021-01-21T14:16:23.223 回答
2

我假设如果你使用 AVCaptureSession 那么你可能有这样的代码:

do {
    let audioDevice = AVCaptureDevice.default(for: .audio)
    let audioDeviceInput = try AVCaptureDeviceInput(device: audioDevice!)

    if captureSession.canAddInput(audioDeviceInput) {
        captureSession.addInput(audioDeviceInput)
    } else {
        print("Could not add audio device input to the session")
    }
} catch {
    print("Could not create audio device input: \(error)")
}

所以音频输入不能很好地与触觉引擎一起玩。在播放触觉之前,您必须从捕获会话中删除音频输入,然后再将其添加回来。

于 2018-04-24T19:39:13.543 回答