问题标签 [nsbitmapimagerep]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - Objective-C: NSBitmapImageRep SetColor
我正在尝试将 NSImage 读入 NSBitmapImageRep,以更改某些像素的颜色。程序应该读取每个像素的颜色值,并检查它是否等于颜色井选择的颜色。我有一个名为“MainImageView”的 ImageView 和一个名为“MainColor”的 ColorWell。那是我的代码:
但是代码在图片上没有任何改变!有什么问题?还是有另一种方法来改变像素的颜色?
谢谢您的帮助!大日
objective-c - NSBitmapImageRep:不一致的值集
我正在尝试读取 12 位灰度 (DICOM:MONOCHROME2) 图像。我可以很好地读取 DICOM RGB 文件。当我尝试将灰度图像加载到 NSBitmapImageRep 中时,我收到以下错误消息:
我有以下代码片段:
使用这些值:
对我来说似乎没有什么不一致的。我已经验证了图像的长度是:宽*高*2。所以我很确定它是 2 字节灰度格式。我尝试了许多参数的变体,但没有任何效果。如果我将“bitsPerSample”更改为 16,错误消息就会消失,但我会得到一个纯黑色图像。我能够取得的最接近的成功是将“bitsPerPixel”设置为零。当我这样做时,我成功地生成了一个图像,但它显然被错误地渲染了(你几乎无法辨认出原始图像)。请给点建议!!我已经尝试了很长时间才能使其正常工作,并检查了堆栈溢出和网络(很多次)。非常感谢您的帮助!
解决方案:
在 LEADTOOLS Support 提供了非常有用的建议之后,我能够解决我的问题。这是有效的代码片段(假设是 MONOCHROME2 DICOM 图像):
nsdata - writeToFile:返回正确的路径,但没有文件?
我有这段代码可以从我为 NSImage 获得的 NSData 制作 PNG,但在 Downloads 文件夹中没有创建文件?
swift - CGImage 到 NSData 太慢了
我正在创建一个应用程序,其中拍摄了许多屏幕截图,转换为 NSData 并保存。使用我拥有的当前代码,一切正常,没有错误,但是正在运行
需要很长时间。
这是代码:
有没有更有效或更快的方法来实现这一点?
objective-c - 在 Objective-C 中加速计算的方法?
我正在编写一个简单的程序,它可以在图像中找到最亮的像素,将来可以实现它来找到视频帧中最亮的像素。对于小图像,它可以正常工作。在我的 8x8 测试图像上,全黑和一个白色像素似乎可以实时找到白色像素,但是当我升级到 1000x1000 图像时,需要几秒钟才能找到它。我的目标是能够让它在高于 1000x1000 的物体上每秒定位 15 次以上。这甚至可能吗?这是我正在使用的代码。
objective-c - NSBitmapImageRep -initWithFocusedViewRect 是图像大小的两倍
我有以下目标 C 函数,旨在将 NSBitmapImageRep 调整为指定大小。
目前,当处理大小为 2048x1536 的图像并尝试将其调整为 300x225 时,此函数不断返回大小为 600x450 的 NSBitmapImageRep。
调试它,我发现 theTargetRect 的大小合适,但是对 initWithFocusedRec 的调用返回一个 600x450 像素(高 x 宽)的位图
我完全不知道为什么会发生这种情况。有没有人有任何见解?
ios - 我可以在 iOS 中使用什么来代替 NSBitmapImageRep?(水波纹示例)
我发现这篇关于水波纹模拟的有趣帖子。它包括一个Xcode 项目和一个用于 OSX 的小可可应用程序。我尝试使用 Swift 让应用程序在 iOS 中运行,但我找不到以下问题的解决方案:
OSX 应用程序用于NSBitmapImageRep
将位图数据从数组绘制到屏幕上(这发生在 BBRippleView.m 中)。不幸的是,NSBitmapImageRep
在 iOS 中不可用。我尝试使用 aCGImage
代替,这是“一种工作”:我可以看到某种水波纹,但它们以某种奇怪的方式分开,并且它们没有按照应有的方式移动。我猜 CGImage 期望以与当前获取的格式不同的格式获取位图数据。
编辑:这是我的 iOS RippleView 类:RippleView.swift
编辑 2:修改后的 RippleView.swift
使用 Swift 在 iOS 中实现以下 OSX 代码段的正确方法是什么?
和
objective-c - NSBitmapImageRep 加载图片
我对目标 C 很陌生,并按照我找到的一些说明进行操作,但此刻我被卡住了。
我正在尝试使用以下代码加载图像:
“文件名”是一个有效的指针。但是编译器告诉我:
我错过了什么或做错了什么?
cocoa - 使用解码数组创建 CGImage 时,输出的所有像素都会有少量偏移
非常奇怪的行为,但我认为我已经尽可能缩小了问题的范围
我有一个NSImage
,我们就叫它吧inputImage
。它由 aNSBitmapImageRep
中的 a表示CGColorSpaceCreateDeviceGray
,如果这很重要的话
我想从中创建一个CGImageRef
,但颜色倒置。
问题是当我查看时testImage
,所有像素都从原始图像向右略微偏移。
查看是否保存图片要容易得多,但您会注意到其中的所有内容都testImage
向右偏移了大约 5 个像素左右。您会在中的黑色内容左侧看到一个白色间隙testImage
在我的 5 行代码中的某处,我以某种方式移动了我的图像。有人知道这是怎么发生的吗?我目前怀疑TIFFRepresentation