所以这是一个关于 ios 上的 openAl 实现的相当具体的问题。有2个部分。
1.) 当人类听到声音时,我们通常可以分辨出声音是从我们身后还是从我们前面传来,因为从后面传来的声音更加沉闷,并且以不同的方式到达我们的内耳。
这在 OpenAL 实施中是否考虑在内?我真的不知道玩弄它。
2.) 当人类听到声音时,声音到达我们的左耳和右耳的时间之间会有轻微的延迟,具体取决于声源的位置。
这在 OpenAL 实施中是否考虑在内?
所以这是一个关于 ios 上的 openAl 实现的相当具体的问题。有2个部分。
1.) 当人类听到声音时,我们通常可以分辨出声音是从我们身后还是从我们前面传来,因为从后面传来的声音更加沉闷,并且以不同的方式到达我们的内耳。
这在 OpenAL 实施中是否考虑在内?我真的不知道玩弄它。
2.) 当人类听到声音时,声音到达我们的左耳和右耳的时间之间会有轻微的延迟,具体取决于声源的位置。
这在 OpenAL 实施中是否考虑在内?