我编写了这个测试应用程序:它经历了从 0 到 9999 的迭代,对于范围内的每个整数,它都会计算一些无用但计算密集型的函数。结果,程序输出函数值的总和。为了让它在多个线程上运行,我使用了 InterlockedIncrement - 如果在增量之后迭代次数 <10000,那么一个线程处理这个迭代,否则它终止。
我想知道为什么它没有像我希望的那样缩放。使用 5 个线程,它运行 8 秒,而单线程运行 36 秒。这提供了约 4.5 的可扩展性。在我对 OpenMP 的实验中(在稍微不同的问题上),我得到了更好的可扩展性。
源代码如下所示。
我在 Phenom II X6 桌面上运行 Windows7 操作系统。不知道其他哪些参数可能是相关的。
你能帮我解释一下这种次优的可扩展性吗?非常感谢。
#include <boost/thread.hpp>
#include <boost/shared_ptr.hpp>
#include <boost/make_shared.hpp>
#include <vector>
#include <windows.h>
#include <iostream>
#include <cmath>
using namespace std;
using namespace boost;
struct sThreadData
{
sThreadData() : iterCount(0), value( 0.0 ) {}
unsigned iterCount;
double value;
};
volatile LONG g_globalCounter;
const LONG g_maxIter = 10000;
void ThreadProc( shared_ptr<sThreadData> data )
{
double threadValue = 0.0;
unsigned threadCount = 0;
while( true )
{
LONG iterIndex = InterlockedIncrement( &g_globalCounter );
if( iterIndex >= g_maxIter )
break;
++threadCount;
double value = iterIndex * 0.12345777;
for( unsigned i = 0; i < 100000; ++i )
value = sqrt( value * log(1.0 + value) );
threadValue += value;
}
data->value = threadValue;
data->iterCount = threadCount;
}
int main()
{
const unsigned threadCount = 1;
vector< shared_ptr<sThreadData> > threadData;
for( unsigned i = 0; i < threadCount; ++i )
threadData.push_back( make_shared<sThreadData>() );
g_globalCounter = 0;
DWORD t1 = GetTickCount();
vector< shared_ptr<thread> > threads;
for( unsigned i = 0; i < threadCount; ++i )
threads.push_back( make_shared<thread>( &ThreadProc, threadData[i] ) );
double sum = 0.0;
for( unsigned i = 0; i < threadData.size(); ++i )
{
threads[i]->join();
sum += threadData[i]->value;
}
DWORD t2 = GetTickCount();
cout << "T=" << static_cast<double>(t2 - t1) / 1000.0 << "s\n";
cout << "Sum= " << sum << "\n";
for( unsigned i = 0; i < threadData.size(); ++i )
cout << threadData[i]->iterCount << "\n";
return 0;
}
编辑:附加此测试程序的示例输出(1 和 5 个线程):