我正在 OS X 10.8.2 上用 Python 构建自动化游戏机器人,在研究 Python GUI 自动化的过程中,我发现了 autopy。鼠标操作 API 很棒,但屏幕捕获方法似乎依赖于已弃用的 OpenGL 方法......
是否有任何有效的方法可以在 OS X 中获取像素的颜色值?我现在能想到的唯一方法是使用os.system("screencapture foo.png")
,但这个过程似乎有不必要的开销,因为我会很快轮询。
我正在 OS X 10.8.2 上用 Python 构建自动化游戏机器人,在研究 Python GUI 自动化的过程中,我发现了 autopy。鼠标操作 API 很棒,但屏幕捕获方法似乎依赖于已弃用的 OpenGL 方法......
是否有任何有效的方法可以在 OS X 中获取像素的颜色值?我现在能想到的唯一方法是使用os.system("screencapture foo.png")
,但这个过程似乎有不必要的开销,因为我会很快轮询。
一个小的改进,但使用 TIFF 压缩选项screencapture
会更快一些:
$ time screencapture -t png /tmp/test.png
real 0m0.235s
user 0m0.191s
sys 0m0.016s
$ time screencapture -t tiff /tmp/test.tiff
real 0m0.079s
user 0m0.028s
sys 0m0.026s
正如您所说,这确实有很多开销(子进程创建,从磁盘写入/读取,压缩/解压缩)。
相反,您可以使用 PyObjC 使用CGWindowListCreateImage
. 我发现捕获一个 1680x1050 像素的屏幕大约需要 70 毫秒(~14fps),并且可以在内存中访问这些值
一些随机的笔记:
Quartz.CoreGraphics
模块是最慢的部分,大约 1 秒。导入大多数 PyObjC 模块也是如此。在这种情况下不太重要,但对于短暂的进程,您可能最好在 ObjC 中编写该工具CGDataProviderCopyData
调用上——我想知道是否有办法直接访问数据,因为我们不需要修改它?ScreenPixel.pixel
功能非常快,但访问大量像素仍然很慢(因为0.01ms * 1650*1050
大约需要 17 秒) - 如果您需要访问大量像素,可能struct.unpack_from
一次性更快地访问它们。这是代码:
import time
import struct
import Quartz.CoreGraphics as CG
class ScreenPixel(object):
"""Captures the screen using CoreGraphics, and provides access to
the pixel values.
"""
def capture(self, region = None):
"""region should be a CGRect, something like:
>>> import Quartz.CoreGraphics as CG
>>> region = CG.CGRectMake(0, 0, 100, 100)
>>> sp = ScreenPixel()
>>> sp.capture(region=region)
The default region is CG.CGRectInfinite (captures the full screen)
"""
if region is None:
region = CG.CGRectInfinite
else:
# TODO: Odd widths cause the image to warp. This is likely
# caused by offset calculation in ScreenPixel.pixel, and
# could could modified to allow odd-widths
if region.size.width % 2 > 0:
emsg = "Capture region width should be even (was %s)" % (
region.size.width)
raise ValueError(emsg)
# Create screenshot as CGImage
image = CG.CGWindowListCreateImage(
region,
CG.kCGWindowListOptionOnScreenOnly,
CG.kCGNullWindowID,
CG.kCGWindowImageDefault)
# Intermediate step, get pixel data as CGDataProvider
prov = CG.CGImageGetDataProvider(image)
# Copy data out of CGDataProvider, becomes string of bytes
self._data = CG.CGDataProviderCopyData(prov)
# Get width/height of image
self.width = CG.CGImageGetWidth(image)
self.height = CG.CGImageGetHeight(image)
def pixel(self, x, y):
"""Get pixel value at given (x,y) screen coordinates
Must call capture first.
"""
# Pixel data is unsigned char (8bit unsigned integer),
# and there are for (blue,green,red,alpha)
data_format = "BBBB"
# Calculate offset, based on
# http://www.markj.net/iphone-uiimage-pixel-color/
offset = 4 * ((self.width*int(round(y))) + int(round(x)))
# Unpack data from string into Python'y integers
b, g, r, a = struct.unpack_from(data_format, self._data, offset=offset)
# Return BGRA as RGBA
return (r, g, b, a)
if __name__ == '__main__':
# Timer helper-function
import contextlib
@contextlib.contextmanager
def timer(msg):
start = time.time()
yield
end = time.time()
print "%s: %.02fms" % (msg, (end-start)*1000)
# Example usage
sp = ScreenPixel()
with timer("Capture"):
# Take screenshot (takes about 70ms for me)
sp.capture()
with timer("Query"):
# Get pixel value (takes about 0.01ms)
print sp.width, sp.height
print sp.pixel(0, 0)
# To verify screen-cap code is correct, save all pixels to PNG,
# using http://the.taoofmac.com/space/projects/PNGCanvas
from pngcanvas import PNGCanvas
c = PNGCanvas(sp.width, sp.height)
for x in range(sp.width):
for y in range(sp.height):
c.point(x, y, color = sp.pixel(x, y))
with open("test.png", "wb") as f:
f.write(c.dump())
我在寻找在 Mac OS X 中用于实时处理的屏幕截图的解决方案时遇到了这篇文章。我已尝试按照其他一些帖子中的建议使用 PIL 的 ImageGrab,但无法足够快地获取数据(只有大约 0.5 fps)。
这篇文章中使用 PyObjC的答案https://stackoverflow.com/a/13024603/3322123拯救了我的一天!谢谢@dbr!
但是,我的任务需要获取所有像素值而不仅仅是单个像素,并且还要评论@dbr 的第三个注释,我在此类中添加了一个新方法来获取完整图像,以防其他人可能需要它.
图像数据以维度为 (height, width, 3) 的 numpy 数组返回,可直接用于 numpy 或 opencv 等中的后处理……使用 numpy 索引从中获取单个像素值也变得非常简单。
我用 1600 x 1000 的屏幕截图测试了代码——在我的 Macbook 上,使用 capture() 获取数据大约需要 30 毫秒,然后将其转换为 np 数组 getimage() 只需大约 50 毫秒。所以现在我有 >10 fps 并且对于较小的区域甚至更快。
import numpy as np
def getimage(self):
imgdata=np.fromstring(self._data,dtype=np.uint8).reshape(len(self._data)/4,4)
return imgdata[:self.width*self.height,:-1].reshape(self.height,self.width,3)
请注意,我从 BGRA 4 通道中丢弃了“alpha”通道。
这一切都非常有帮助,我不得不回来发表评论/但是我没有声誉。但是,我确实有一个示例代码,它结合了上述答案,可以快速截屏/保存,这要归功于@dbr 和 @qqg!
import time
import numpy as np
from scipy.misc import imsave
import Quartz.CoreGraphics as CG
image = CG.CGWindowListCreateImage(CG.CGRectInfinite, CG.kCGWindowListOptionOnScreenOnly, CG.kCGNullWindowID, CG.kCGWindowImageDefault)
prov = CG.CGImageGetDataProvider(image)
_data = CG.CGDataProviderCopyData(prov)
width = CG.CGImageGetWidth(image)
height = CG.CGImageGetHeight(image)
imgdata=np.fromstring(_data,dtype=np.uint8).reshape(len(_data)/4,4)
numpy_img = imgdata[:width*height,:-1].reshape(height,width,3)
imsave('test_fast.png', numpy_img)