我正在尝试编写一袋特征系统图像识别系统。该算法的一个步骤是获取大量的小图像块(例如 7x7 或 11x11 像素),并尝试将它们聚集成看起来相似的组。我从图像中获取我的补丁,将它们转换为灰度浮点图像补丁,然后尝试让 cvKMeans2 为我聚类它们。我认为我在格式化输入数据时遇到问题,以便 KMeans2 返回一致的结果。我之前使用 KMeans 进行 2D 和 3D 聚类,但 49D 聚类似乎是另一种野兽。
我不断获取返回的集群向量的垃圾值,所以显然这是一个垃圾输入/垃圾输出类型的问题。此外,对于如此庞大的数据集,该算法的运行速度比我认为的要快得多。
在下面的代码中,直接 memcpy 只是我最近一次尝试以正确格式获取输入数据,我花了一段时间使用内置的 OpenCV 函数,但是当您的基本类型是 CV_32FC(49) 时,这很困难。
OpenCV 1.1 的 KMeans 算法能否支持这种高维分析?
有人知道从图像复制到 K-Means 输入矩阵的正确方法吗?
有人可以指出我可以使用的免费非 GPL KMeans 算法吗?
这不是最好的代码,因为我现在只是想让事情正常工作:
std::vector<int> DoKMeans(std::vector<IplImage *>& chunks){
// the size of one image patch, CELL_SIZE = 7
int chunk_size = CELL_SIZE*CELL_SIZE*sizeof(float);
// create the input data, CV_32FC(49) is 7x7 float object (I think)
CvMat* data = cvCreateMat(chunks.size(),1,CV_32FC(49) );
// Create a temporary vector to hold our data
// we'll copy into the matrix for KMeans
int rdsize = chunks.size()*CELL_SIZE*CELL_SIZE;
float * rawdata = new float[rdsize];
// Go through each image chunk and copy the
// pixel values into the raw data array.
vector<IplImage*>::iterator iter;
int k = 0;
for( iter = chunks.begin(); iter != chunks.end(); ++iter )
{
for( int i =0; i < CELL_SIZE; i++)
{
for( int j=0; j < CELL_SIZE; j++)
{
CvScalar val;
val = cvGet2D(*iter,i,j);
rawdata[k] = (float)val.val[0];
k++;
}
}
}
// Copy the data into the CvMat for KMeans
// I have tried various methods, but this is just the latest.
memcpy( data->data.ptr,rawdata,rdsize*sizeof(float));
// Create the output array
CvMat* results = cvCreateMat(chunks.size(),1,CV_32SC1);
// Do KMeans
int r = cvKMeans2(data, 128,results, cvTermCriteria(CV_TERMCRIT_EPS+CV_TERMCRIT_ITER, 1000, 0.1));
// Copy the grouping information to our output vector
vector<int> retVal;
for( int y = 0; y < chunks.size(); y++ )
{
CvScalar cvs = cvGet1D(results, y);
int g = (int)cvs.val[0];
retVal.push_back(g);
}
return retVal;}
提前致谢!