Каска эффективная программа преобразования матриц?

Таким образом, очевидным способом транспонирования матрицы является использование:

  for( int i = 0; i < n; i++ )

    for( int j = 0; j < n; j++ )

      destination[j+i*n] = source[i+j*n];

но я хочу что-то, что позволит использовать локальность и блокировку кеша. Я искал его и не могу найти код, который бы это сделал, но мне сказали, что это будет очень простая модификация оригинала. Есть идеи?

Изменить: у меня есть матрица 2000x2000, и я хочу знать, как изменить код с помощью двух циклов for, в основном разбивая матрицу на блоки, которые я переношу отдельно, скажем, 2x2 блоков или 40x40 блоков, и см. размер блока которого наиболее эффективен.

Edit2: Матрицы хранятся в главном порядке столбца, то есть для матрицы

a1 a2    
a3 a4

хранится как a1 a3 a2 a4.

Ответ 1

Вероятно, вам понадобится четыре петли - два для перебора блоков, а затем еще два для выполнения транспонирования копии одного блока. Предполагая для простоты размер блока, который делит размер матрицы, я думаю, что-то вроде этого, хотя я бы хотел сделать некоторые снимки на обратной стороне конвертов:

for (int i = 0; i < n; i += blocksize) {
    for (int j = 0; j < n; j += blocksize) {
        // transpose the block beginning at [i,j]
        for (int k = i; k < i + blocksize; ++k) {
            for (int l = j; l < j + blocksize; ++l) {
                dst[k + l*n] = src[l + k*n];
            }
        }
    }
}

Важным дополнительным пониманием является то, что на самом деле для этого нет кэш-алгоритма (см. http://en.wikipedia.org/wiki/Cache-oblivious_algorithm, который использует эту точную проблему как пример). Неофициальное определение "кэша-забывания" заключается в том, что вам не нужно экспериментировать с настройкой любых параметров (в данном случае блоками) для достижения хорошей/оптимальной производительности кеша. Решением в этом случае является транспонирование путем рекурсивного деления матрицы пополам и переноса половин в их правильное положение в пункте назначения.

Независимо от размера кэша, эта рекурсия использует его. Я ожидаю, что там будет немного лишних затрат на управление по сравнению с вашей стратегией, которая заключается в том, чтобы использовать эксперименты с производительностью, чтобы, по сути, перейти прямо к точке рекурсии, в которой кеш действительно заводится, и не идти дальше. С другой стороны, ваши эксперименты по производительности могут дать вам ответ, который будет работать на вашем компьютере, но не на компьютерах ваших клиентов.

Ответ 2

У меня была такая же проблема вчера. Я закончил с этим решением:

void transpose(double *dst, const double *src, size_t n, size_t p) noexcept {
    THROWS();
    size_t block = 32;
    for (size_t i = 0; i < n; i += block) {
        for(size_t j = 0; j < p; ++j) {
            for(size_t b = 0; b < block && i + b < n; ++b) {
                dst[j*n + i + b] = src[(i + b)*p + j];
            }
        }
    }
}

Это на 4 раза быстрее, чем очевидное решение на моей машине.

Это решение заботится о прямоугольной матрице с размерами, которые не кратно размеру блока.

если dst и src являются одной и той же квадратной матрицей, вместо этого следует использовать функцию:

void transpose(double*m,size_t n)noexcept{
    size_t block=0,size=8;
    for(block=0;block+size-1<n;block+=size){
        for(size_t i=block;i<block+size;++i){
            for(size_t j=i+1;j<block+size;++j){
                std::swap(m[i*n+j],m[j*n+i]);}}
        for(size_t i=block+size;i<n;++i){
            for(size_t j=block;j<block+size;++j){
                std::swap(m[i*n+j],m[j*n+i]);}}}
    for(size_t i=block;i<n;++i){
        for(size_t j=i+1;j<n;++j){
            std::swap(m[i*n+j],m[j*n+i]);}}}

Я использовал С++ 11, но это было легко перевести на другие языки.

Ответ 3

Вместо того, чтобы переносить матрицу в памяти, почему бы не свернуть операцию транспонирования в следующую операцию, которую вы собираетесь делать на матрице?

Ответ 4

Стив Джессоп упомянул алгоритм транспонирования кэша забытых матриц. Для записи я хочу поделиться возможной реализацией кэша забываемой матрицы транспонирования.

public class Matrix {
    protected double data[];
    protected int rows, columns;

    public Matrix(int rows, int columns) {
        this.rows = rows;
        this.columns = columns;
        this.data = new double[rows * columns];
    }

    public Matrix transpose() {
        Matrix C = new Matrix(columns, rows);
        cachetranspose(0, rows, 0, columns, C);
        return C;
    }

    public void cachetranspose(int rb, int re, int cb, int ce, Matrix T) {
        int r = re - rb, c = ce - cb;
        if (r <= 16 && c <= 16) {
            for (int i = rb; i < re; i++) {
                for (int j = cb; j < ce; j++) {
                    T.data[j * rows + i] = data[i * columns + j];
                }
            }
        } else if (r >= c) {
            cachetranspose(rb, rb + (r / 2), cb, ce, T);
            cachetranspose(rb + (r / 2), re, cb, ce, T);
        } else {
            cachetranspose(rb, re, cb, cb + (c / 2), T);
            cachetranspose(rb, re, cb + (c / 2), ce, T);
        }
    }
}

Более подробную информацию о забытых алгоритмах кэша можно найти здесь.

Ответ 5

"Матричное умножение" пришло в голову, но проблема с кешем там гораздо более выражена, потому что каждый элемент читается N раз.

С транспонированием матрицы вы читаете в одном линейном проходе, и нет возможности оптимизировать это. Но вы можете одновременно обрабатывать несколько строк, чтобы писать несколько столбцов и заполнять все строки кеша. Вам понадобятся только три цикла.

Или делайте это наоборот и читайте в столбцах при линейной записи.

Ответ 6

С большой матрицей, возможно, с большой разреженной матрицей, может возникнуть идея разложить ее на более мелкие кешированные части (Say, 4x4 sub matrices). Вы также можете пометить подматрицы как личность, которые помогут вам в создании оптимизированных путей кода.