问题标签 [bit-depth]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - 如何用 libpng 写一个 16 位的 PNG_COLOR_TYPE_GRAY?
我编写了以下代码来生成黑白 PNG 图像,其中每个像素的值为 16 位(0 = 黑色,0xFFFF = 白色)。这是一个简单的 640x480 测试图像,其中所有线条都相同,并且左侧的每条线条都有最大的黑色,然后逐渐变为右侧的白色。由于每条线都是 640 像素宽,我本来希望看到一个几乎完全黑色的图像,右侧的白色最大达到 640/65535。相反,我得到的图像与值 0x00ff 和 0x01ff 相对应,达到纯白色 2 次。这表明 libpng 没有使用每个像素的最高有效字节。有人能告诉我哪里错了吗?总之谢谢大家。再见
系统和编译细节:
装有 OS X 10.11.6 的系统 MacBook Pro(Retina,15 英寸,2013 年底)
PNG > gcc --version
配置: --prefix = / Applications / Xcode.app / Contents / Developer / usr --with-gxx-include-dir = / Applications / Xcode.app / Contents / Developer / Platforms / MacOSX.platform / Developer / SDKs / MacOSX10.12.sdk /usr/include/c++/4.2.1 Apple LLVM 版本 8.0.0 (clang-800.0.42.1) 目标:x86_64-apple-darwin15.6.0 线程模型:posix InstalledDir: /Applications/Xcode。应用程序/内容/开发人员/工具链/XcodeDefault.xctoolchain/usr/bin
PNG> gcc -I /opt/X11/include/ -L /opt/X11/lib/ -l png -lz writeTest16bit.c
excel - 根据文件大小计算 aiff 音频的采样率和位深度
我在这里需要一些数学/逻辑方面的帮助。使用 aif 文件。
我写了以下内容:
ToCheck 是循环文件文件夹时的当前文件。
所以我根据文件大小以比特/通道/比特深度/采样率来查找音频的长度。这假设位深度和采样率是正确的(我需要文件为 24 位/48kHz)。
Time_Secs = 文件的长度(以秒为单位)。
FSize = 使用 Time_Secs 基于 24/48kHz 的文件大小
可能是因为 FSize 使用 Time_Secs,我不知道如何从中确定文件采样率和/或位深度是否确实正确......
假设 24/48k 应该每秒提供 144,000 字节
假设 16/48k 应该每秒提供 96,000 字节
如果我使用上面的代码检查一个 16 位/48 kHz 的文件,它会给出不正确的以秒为单位的时间(自然),但正确的文件大小......即使比特率为 1,152,000 也应该是错误的。- 似乎时间差异正在弥补比特率的差异 - 或者我看错了。
如果文件的采样率/位深度实际上是 48,000 Hz/24 位,我将如何调整我的公式,或者进行数学计算?还是有完全不同的方式?记住它们是 aif 文件,而不是 wavs。
希望这是有道理的。
提前谢谢了!
java - Java 是否支持大于 8 位深度的 BufferedImage?(深色)
我平均几百张图像,四舍五入的错误使它变成灰色的混乱。如果我可以使用每个通道具有 >8 位的 BufferedImages,我敢打赌四舍五入不会对我造成太大伤害。
有没有办法在高位深度图像的基础图像上使用 BufferedImage 代码?我的意思是>16m 颜色,>24bit,我相信这被称为“Deep Color”。
iphone - 如何使用 Swift 减少图像位深度(量化)?
iPhone上有没有办法减少图像位深度。我正在尝试将图像大小减小到 1 MB 以下,但我不想更改图像的宽度和高度。因此降低图像分辨率可能是正确的方法。任何人都知道如何使用 swift 做到这一点?
r - 我想更改 R 中图像的位深度
我一直在尝试让 autocad 以任何格式打印地理参考照片。每次我从一家私人公司得到一张照片时,它都不会绘图,但是,我当地政府的相同格式的 geotiff 就可以了。经过测试可能会有所不同,我的最新想法是位深度。政府照片的位深度为 32,而私人照片的位深度为 24。我想知道 R 中是否有一种方法,因为它是我知道的唯一语言,可以转换任何照片类型(因为我可以只更改照片类型很好)通过数学代码或包中的函数从 24 到 32 位深度。谢谢你。
audio - 采样率、比特率和比特深度之间的差异
这是一个基本问题,对你们中的许多人来说可能听起来太明显了,但我很困惑。
这是Quora 用户所说的。现在我很清楚什么是采样率 - 您从声音信号中获取的样本数(在一秒钟内)就是它的采样率。
现在我的疑问是 - 这个速率应该与量化无关,对吧?
关于位深度,量化是否取决于位深度?与 32 位(2^32 级)和 64 位(2^64 级)一样。或者是别的什么?
和比特率,是在一秒钟内传输的比特数吗?如果我的音频文件显示 320 kbps,这究竟意味着什么?
我假设读者对我对比特率和比特深度在哪里感到恐慌有一定的意义?
编辑:如果您使用过 linux OS 和 gstreamer 框架,也可以找到这个问题。
python-3.x - 如何将 int32 numpy 数组转换为 int16 numpy 数组?
我想将一个 numpy 数组从int32类型转换为int16类型。
我有一个int32
名为的数组array_int32
,我将其转换为int16
.
转换后,array_int16
变成一个零数组。我不知道我在做什么错误。有人可以帮我吗?
quartz-2d - CGImage 是否支持每通道 16 位?
bitsPerComponent说最多 8 个,但有几个 Stack Overflow 问题暗示支持16 个。
video - 使用 ffmpeg 或 ffprobe 获取视频的像素位深度
是否可以使用 ffprobe 或 ffmpeg 来计算视频文件的位深度?我特别想知道我的视频每个通道 (bpc) 有多少位。8 是典型的,但一些更高级的编解码器可以使用更高的位深度,我不确定如何使用 ffprobe 获取此信息,或者是否有可能。具体来说,我有使用 AVC-Intra Class 100 1080p 59.94 fps 编解码器编码的视频,但我不确定 ffprobe 是否可以从那种文件中获取位深度。如果是这样,你会怎么做?