Я пытаюсь получить представление о влиянии наличия массива в кеше L1 против памяти, задав процедуру, которая масштабирует и суммирует элементы массива, используя следующий код (я знаю, что я должен просто масштабировать результат "a" в конце: точка состоит в том, чтобы сделать как умножение, так и добавление в цикле - пока компилятор не вычислил, чтобы разделить "a" ):
double sum(double a,double* X,int size)
{
double total = 0.0;
for(int i = 0; i < size; ++i)
{
total += a*X[i];
}
return total;
}
#define KB 1024
int main()
{
//Approximately half the L1 cache size of my machine
int operand_size = (32*KB)/(sizeof(double)*2);
printf("Operand size: %d\n", operand_size);
double* X = new double[operand_size];
fill(X,operand_size);
double seconds = timer();
double result;
int n_iterations = 100000;
for(int i = 0; i < n_iterations; ++i)
{
result = sum(3.5,X,operand_size);
//result += rand();
}
seconds = timer() - seconds;
double mflops = 2e-6*double(n_iterations*operand_size)/seconds;
printf("Vector size %d: mflops=%.1f, result=%.1f\n",operand_size,mflops,result);
return 0;
}
Обратите внимание, что процедуры таймера() и fill() не включены для краткости; их полный источник можно найти здесь, если вы хотите запустить код:
Теперь, вот где это становится интересным. Это результат:
Operand size: 2048
Vector size 2048: mflops=588.8, result=-67.8
Это полностью не кэшированная производительность, несмотря на то, что все элементы X должны храниться в кеше между итерациями цикла. Посмотрите на код сборки, сгенерированный:
g++ -O3 -S -fno-asynchronous-unwind-tables register_opt_example.cpp
Я замечаю одну странность в цикле функций суммы:
L55:
movsd (%r12,%rax,8), %xmm0
mulsd %xmm1, %xmm0
addsd -72(%rbp), %xmm0
movsd %xmm0, -72(%rbp)
incq %rax
cmpq $2048, %rax
jne L55
Инструкции:
addsd -72(%rbp), %xmm0
movsd %xmm0, -72(%rbp)
указывает, что он хранит значение "total" в sum() в стеке и считывает и записывает его на каждой итерации цикла. Я изменил сборку так, чтобы этот операнд хранился в регистре:
...
addsd %xmm0, %xmm3
...
Это небольшое изменение создает повышение огромного:
Operand size: 2048
Vector size 2048: mflops=1958.9, result=-67.8
TL;DR Мой вопрос: почему замена одного места доступа к памяти с помощью регистра, так сильно ускоряет его, учитывая, что одно место должно храниться в кеше L1? Какие архитектурные факторы делают это возможным? Кажется очень странным, что запись одного места в стеке неоднократно полностью разрушала бы эффективность кеша.
Приложение
Моя версия gcc:
Target: i686-apple-darwin10
Configured with: /var/tmp/gcc/gcc-5646.1~2/src/configure --disable-checking --enable-werror --prefix=/usr --mandir=/share/man --enable-languages=c,objc,c++,obj-c++ --program-transform-name=/^[cg][^.-]*$/s/$/-4.2/ --with-slibdir=/usr/lib --build=i686-apple-darwin10 --with-gxx-include-dir=/include/c++/4.2.1 --program-prefix=i686-apple-darwin10- --host=x86_64-apple-darwin10 --target=i686-apple-darwin10
Thread model: posix
gcc version 4.2.1 (Apple Inc. build 5646) (dot 1)
Мой процессор:
Intel Xeon X5650