我正在研究内在函数对性能的影响,我有点困惑:它们似乎根本没有影响!我试图用两个不同的函数填充一个双精度数组,但我看不出有什么区别。我通过调用 _aligned_malloc 并将对齐参数设置为 8 来分配数组。我使用 Visual Studio 2008 并在发布模式下编译,包括优化和不优化 (/O2 - /Od) 以及有和没有内在函数 (/Oi) - 所有四种组合。以下是两个不同的版本:
#ifdef _NO_INTRIN
void my_fill(double* vett, double value, int N)
{
double* last = vett + N;
while( vett != last)
{
*vett++ = value;
}
}
#else
void my_fill(double* vett, double value, int N)
{
double* last = vett + N;
// set "classically" unaligned data, if any
while( (0xF & (uintptr_t)vett) && vett != last )
*vett++ = value;
__m128d* vett_ = (__m128d*)vett;
uintptr_t fff0 = ~0 << 4;
// round address to nearest aligned data setting to zero least significant 4 bits
__m128d* last_ = (__m128d*)( fff0 & (uintptr_t)last);
// process until second-last element to manage odd values of N
for( ; vett_ < last_-1; vett_++ )
{
*vett_ = _mm_set1_pd(value);
}
vett = (double*)vett_;
while(vett != last)
*vett++ = value;
}
#endif
作为最后一个规范,我将数据对齐到 8B 而不是 16,因为我计划在数组的不同部分以多线程方式执行此函数。所以,同样将数据对齐到 16B 我不能确定数组的所有部分都会对齐(例如 303 个元素,3 个线程,每个线程 101 个元素,第 1 部分对齐到 16B,第 2 部分从 @vett+101 开始*8 ==> 未对齐)。这就是我尝试实现与对齐无关的功能的原因。我试图在我的 Intel Atom CPU N570 @ 1.66 GHz 上填充一个 1M 元素的数组,我总是得到相同的执行时间。那么......我的方法有什么问题?为什么我看不出差异?谢谢大家。