在 OpenCV 2.0 中,他们从具有单独的图像和矩阵类转换为一个统一的类,称为cv::Mat
. 那里的设计决定是什么?对我来说,我每天都使用图像和矩阵,它们是非常不同的对象,只是碰巧有一个共同点:它们都可以在网格中访问。但是,在我看来,使矩阵成为矩阵的事情是您可以做到y = A*x
,其中 A 是 m x n,x 是 n x 1,y 是 m x 1。当 A 是图像时,这几乎没有意义会想做这个操作。
CV_32FC3
合并这些类也有需要模板和奇数矩阵类型(如3 通道浮点矩阵/图像)的讨厌的副作用。既然我知道从事 OpenCV 工作的人并不疯狂,那么让他们合并图像和矩阵类的设计决策是什么?是代码重用吗?不知何故是效率吗?