У нас есть около 500 ГБ изображений в разных каталогах, которые нам нужно обрабатывать. Каждое изображение имеет размер около 4 МБ, и у нас есть python script для обработки каждого изображения по одному (он считывает метаданные и сохраняет их в базе данных). Каждый каталог может занимать 1-4 часа для обработки в зависимости от размера.
У нас в распоряжении 2,2 ГГц четырехъядерный процессор и 16 ГБ оперативной памяти на ОС GNU/Linux. Текущий script использует только один процессор. Какой лучший способ использовать другие ядра и оперативную память для ускорения обработки изображений? Будет ли запуск нескольких процессов Python для запуска script использовать другие ядра?
Другой вариант - использовать что-то вроде Gearman или Beanstalk для фермы вне зависимости от работы с другими машинами. Я взглянул на многопроцессорную библиотеку, но не уверен, как я могу ее использовать.