编辑:如果有人对提高屏幕捕获性能还有任何其他建议,请随时分享,因为它可能会完全解决我的问题!
各位开发者您好,
我正在为自己开发一些基本的屏幕捕捉软件。截至目前,我已经获得了一些使用 java.awt.Robot 将屏幕捕获为 BufferedImage 的概念证明/修补代码。然后我在指定的时间内进行此捕获,然后将所有图片转储到磁盘。根据我的测试,我每秒获得大约 17 帧。
试验#1
时长:15 秒拍摄的图像:255
试验#2
时长:15 秒拍摄的图像:229
显然,这对于真正的屏幕捕获应用程序来说还不够好。特别是因为这些捕获只是我在我的 IDE 中选择了一些文本,而没有任何图形密集型。
我现在有两个课程,一个主课程和一个“监视器”课程。Monitor 类包含捕获屏幕的方法。我的 Main 类有一个基于时间的循环,它调用 Monitor 类并将它返回的 BufferedImage 存储到 BufferedImages 的 ArrayList 中。如果我修改我的主类以生成多个线程,每个线程都执行该循环并收集有关捕获图像时的系统时间的信息,我可以提高性能吗?我的想法是使用共享数据结构,它会在我插入帧时根据捕获时间自动对帧进行排序,而不是使用单个循环将连续图像插入到数组列表中。
代码:
监视器
public class Monitor {
/**
* Returns a BufferedImage
* @return
*/
public BufferedImage captureScreen() {
Rectangle screenRect = new Rectangle(Toolkit.getDefaultToolkit().getScreenSize());
BufferedImage capture = null;
try {
capture = new Robot().createScreenCapture(screenRect);
} catch (AWTException e) {
e.printStackTrace();
}
return capture;
}
}
主要的
public class Main {
public static void main(String[] args) throws InterruptedException {
String outputLocation = "C:\\Users\\ewillis\\Pictures\\screenstreamer\\";
String namingScheme = "image";
String mediaFormat = "jpeg";
DiscreteOutput output = DiscreteOutputFactory.createOutputObject(outputLocation, namingScheme, mediaFormat);
ArrayList<BufferedImage> images = new ArrayList<BufferedImage>();
Monitor m1 = new Monitor();
long startTimeMillis = System.currentTimeMillis();
long recordTimeMillis = 15000;
while( (System.currentTimeMillis() - startTimeMillis) <= recordTimeMillis ) {
images.add( m1.captureScreen() );
}
output.saveImages(images);
}
}