我想使用多处理来分离 pygame 中的两个任务:从网络摄像头中提取图像并在屏幕上显示图像。我想这样做的原因是因为
- 我想要花哨的图像处理
- 我想将网络摄像头轮询与屏幕和用户输入分开
并希望将两者的时间延迟分开,理想情况下优化负载。使用线程我没有问题将图像从一个线程发送到另一个线程。但是,我得到一个滞后的图像。我想测试使用多处理是否可以减少图像的延迟。
这是障碍:将图像从相机进程发送到屏幕进程后出现错误。使用从队列中拉出图像后
imgmsg = img_q.get()
我检查图像的大小
imgmsg.img.get_width()
如前所述,使用线程可以返回正确的图像宽度。但是使用多处理我得到以下错误
Process Process-1: Traceback (most recent call last): File "/usr/lib/python3.2/multiprocessing/process.py", line 267, in
_bootstrap
self.run() File "/usr/lib/python3.2/multiprocessing/process.py", line 116, in run
self._target(*self._args, **self._kwargs) File "test_photoBoothMultiProc.py", line 21, in consumer
photoBoothScreen.screenThread(in_q, img_q) File "/home/pi/pyBooth/thread_photoBoothScreen.py", line 68, in screenThread
print(imgmsg.img.get_width()) pygame.error: display Surface quit
所以看起来图像在队列中丢失了?我试图阅读这个,并且在通过队列传输较大的对象时似乎存在问题。这个对吗?我将如何规避或解决这个问题?