事实上,QScreen::grabWindow 使用Windows GDI来捕获图像。这是一个相当古老的 API,由没有硬件加速(由处理器绘制)的程序使用。而chrome——这个软件并不古老,早就借助Windows DXGI绘制出来了。
我已经编写了使用这种技术的软件。在此处发布示例代码。打算用Qt 5.10库上的MSVC编译器编译,貌似没区别,2015还是2017。我的机器是64位的,可能这个也很重要。
里面有两个类:FrameBroadcast 和 FrameCapturer。FrameBroadcast 从 FrameCapturer 请求具有特定时间间隔的屏幕截图并通过信号发送订阅者void frameCaptured (QSharedPointer <Frame> frame);
QSharedPointer 一旦超出所有插槽处理程序的范围,就会自动删除为屏幕内容分配的内存。
#include <QApplication>
#include <QObject>
#include <QPixmap>
#include <QImage>
#include <QDialog>
#include <QLabel>
#include "framebroadcast.h"
/*static Frame* CopyFrame(const Frame *incomingFrame)
{
Frame *frame = new Frame();
frame->width=incomingFrame->width;
frame->height=incomingFrame->height;
frame->lenght=incomingFrame->lenght;
frame->buffer=new unsigned char[frame->lenght];
std::memcpy(frame->buffer,incomingFrame->buffer,frame->lenght);
return frame;
}
static Frame* CopyFrame(const QSharedPointer<Frame> &incomingFrame)
{
return CopyFrame(incomingFrame.data());
}*/
int main(int argc, char *argv[])
{
QApplication app(argc, argv);
QDialog *dialog = new QDialog();
QLabel *label = new QLabel(dialog);
FrameBroadcast *cast = new FrameBroadcast();
QObject::connect(cast, &FrameBroadcast::frameCaptured, [=](const QSharedPointer<Frame> &frame) {
int w = static_cast<int>(frame.data()->width);
int h = static_cast<int>(frame.data()->height);
QImage img(frame.data()->buffer,w,h,QImage::Format_RGBA8888);
label->setPixmap(QPixmap::fromImage(img));
label->resize(w,h);
qDebug() << "Update";
});
cast->startCapture();
dialog->show();
return app.exec();
}
在 main.cpp 中,创建了一个简单的对话框,显示捕获的结果。以防万一,如果无法将所有操作放在一个插槽中,我附上了一个代码,可以从 QSharedPointer 解开屏幕内容。它是在包含后立即被注释掉的。
#pragma comment(lib,"dxgi.lib")
#pragma comment(lib,"D3D11.lib")
#pragma comment(lib,"Shcore.lib")
#pragma comment(lib,"winmm.lib")
#pragma comment(lib,"windowscodecs.lib")
#pragma comment (lib, "user32.lib")
#pragma comment (lib, "dxguid.lib")
详细解析代码是没有意义的。它太大了,但根据您的需要进行重新调整并不难。值得注意的是,使用了“自动链接”——微软编译器功能:必要的库会在编译时自行拉起(查看 framecapturer.h)