问题标签 [photography]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
image - 使用 OpenCV 或任何其他软件从像素中获取真实的 RAW 值
根据我对数码相机规格表的理解,每个输出颜色像素都由 CCD 上的 4 个真实像素组成。但是,当从相机读取数据时,例如使用 OpenCV,可以获得多达 NxMx3 像素。两个绿色像素得到平均。
据我了解,OpenCV 让您从 RGB 图像转换为灰度图像,但找不到从 CCD 获取原始值的方法。当然,可能存在较低级别的限制(即颜色空间的转换发生在电子设备上,而不是在计算机上)。或者说存在一些插值,因此实际上相机中有 NxM 像素而不是 NxMx4 像素。
有什么方法可以从带有 OpenCV 的相机中获取 RAW 数据,或者是否有任何信息存储在使用商业相机获取的 RAW 文件中?
python - Python程序Airnef在下载图像时卡住了
我正在使用Airnef通过 python 从我的佳能数码单反相机下载图片。
我可以毫无问题地下载一张图片,因此整个设置似乎可以正常工作。但是,只要我想下载另一个图像,软件就会挂起。对我来说,代码看起来很复杂。
两个月前,我确实在 TestCams.com 上发布了一个帖子。由于我没有得到回复,我将其作为与 python 相关的问题发布在这里。
线程
我从命令行启动 airnef。
我连接了相机,我看到了一些关于我的连接的信息:
已建立到 192.168.188.84:15740
相机型号“Canon EOS 200D”,序列号“XXXXXXXXX”的连接</p>
现在airnef告诉我:
等待从相机下载实时照片。
按退出 |
我拍照并按预期下载:
下载“IMG_0084.JPG”:96%
Airnef 然后显示有关此图像的更多信息:
/Users/besi/Desktop/IMG_0084.JPG [大小 = 4,602,357] 在 1.94 秒内 (2.26 MB/s)
我又拍了一些照片,但没有下载,软件卡在提示符下:
等待从相机下载实时照片。按退出\
源代码
源代码可在 Airnef 网站上获得。我创建了一个 github 存储库来解决这个问题:https ://github.com/besi/airnef
代码卡住的地方在airnefcmd.py:3203
更新:论坛帖子
更新:调试
第一个名为 IMG_0182 的图像已成功下载 。
在调试输出中,我可以看到正在拍摄一张新照片,但由于先前的图像已经下载,因此跳过了下载:
请参阅airnef.log:433:
找到了一个名为的新图像IMG_0183.JPG
。
旧下载的图像似乎阻止了对当前图像的进一步处理。
现在我们再次进入循环等待更多图片。拍摄新照片时,会再次发生相同的过程。
imagemagick - 使用 ImageMagick 从 RAW 图像中删除背景
我有两张图片——为简单起见,假设一张包含花园里的盆栽植物(我们称之为potplant.nef
),第二张包含相同的场景,但减去了盆栽植物(即只是背景——我们称之为garden.nef
)。我想从带有盆栽植物的图片中删除背景,这样我就只有盆栽植物,这样我就可以把它举起来放到不同的背景中。
我想用 ImageMagick 做到这一点。
现在我知道这里有各种问题、答案以及不同程度的成功,但在这种情况下,我将照片作为 RAW(不是 PNG,不是 JPG,特别是为了避免其他问题中提出的一些问题)。这样做的最佳方法是什么?
virtual-reality - 是否有可探索的虚拟现实场景的术语?
对于可以通过四处走动探索的摄影(以及尽可能接近的)场景,是否有技术界商定的术语?显然,在一定范围内。比如说,博物馆可以用激光扫描雕塑,并使其在具有正确映射纹理的 vr、3d 网格上可用。这种东西有名字吗?所谓的 360 VR 照片,肯定是达不到这样的细节的。
camera - 尼康D3400图片出现黑线
我有一个二手尼康 d3400,我拍了一些照片,但底部都有一条黑线(覆盖了大约 20% 的图像)。这怎么可能解决?
screenshot - 截图背后的技术
我想指出相机和截图之间的区别——但我对后者的技术方面了解得不够多,无法胜任。
截图是如何工作的?它会“冻结”像素吗?是显卡还是它的驱动程序起作用?其他一些硬件或软件组件?
在摄影中,光线被传感器捕获,而计算机则通过屏幕发出光线 - 但我认为屏幕截图本身是在数据转换为像素之前发生的?
python - 在非矩形形状的表面(外壳)上生成 3D 光栅扫描
所以我有一个爱好项目,将 USB 显微镜绑在 3D 打印机上,在不同的 X、Y 和 Z 位置拍摄物体的照片,然后将它们拼接成完整的图像。我从这个堆栈中的代码开始生成一个 2D 矩形光栅图案,然后通过在每次 2D 扫描后重复循环移动 Z 轴来升级它以进行 2.5D 成像(堆叠和拼接),最后用一个第 4 轴启用 3D 成像。
问题是大多数东西都不是矩形,扫描最终会变得非常浪费,停下来在不是物体或明显失焦的区域拍照。我希望能够 1:移动“扫描平面”,例如扫描向上倾斜的平面物体,以及 2:通常能够生成任意扫描图案,或者至少是简单的理想形状。
您将如何获取有关 3 维形状的信息(例如,来自 STL),并在表面(或至少指向上方的部分)周围包裹其他 2D“点阵”光栅图案?
camera - 一加6T的FOV?
我想知道一加 6T 的后置摄像头的视野是什么。
到目前为止我已经能够收集到的信息,但我不确定这些信息是否 100% 正确。
全画幅 4.25mm 焦距(相当于 25mm)固定镜头至 35/50mm
手机有一个 1/2.6 英寸的传感器尺寸所以我应该能够使用一个简单的公式来计算它,但我似乎无法弄清楚
索尼 IMX519 MP 有效分辨率:16 MP
有效分辨率(以像素为单位):4656 x 3496 像素
传感器尺寸:6.828 毫米
传感器对角线尺寸:1/2.6 英寸
单个像素尺寸:1.22 微米
感谢任何能提供帮助的人。
编辑*:为了进一步解释,我正在使用从手机拍摄的照片创建 3d 场景,然后在 3DS MAX 中设置场景。
参考资料: https ://www.xda-developers.com/oneplus-6t-camera-review/