Нам нужно как можно быстрее передавать 15 15TB
данных с одного сервера на другой. В настоящее время мы используем rsync
но мы получаем скорость около 150Mb/s
, когда наша сеть способна 900+Mb/s
(протестирована с помощью iperf
). Я тестировал диски, сеть и т.д., И понял, что rsync переносит только один файл за раз, что вызывает замедление.
Я нашел сценарий для запуска другого rsync для каждой папки в дереве каталогов (позволяя вам ограничить число x), но я не могу заставить его работать, он по-прежнему просто запускает один rsync за раз.
Я нашел script
здесь (скопирован ниже).
Дерево нашей каталогов выглядит так:
/main
- /files
- /1
- 343
- 123.wav
- 76.wav
- 772
- 122.wav
- 55
- 555.wav
- 324.wav
- 1209.wav
- 43
- 999.wav
- 111.wav
- 222.wav
- /2
- 346
- 9993.wav
- 4242
- 827.wav
- /3
- 2545
- 76.wav
- 199.wav
- 183.wav
- 23
- 33.wav
- 876.wav
- 4256
- 998.wav
- 1665.wav
- 332.wav
- 112.wav
- 5584.wav
Поэтому я хотел бы создать rsync для каждого из каталогов в /main/files, максимум до 5, за раз. Таким образом, в этом случае будет запущено 3 rsyncs для /main/files/1
, /main/files/2
и /main/files/3
.
Я пробовал с этим так, но он просто запускает 1 rsync за один раз для папки /main/files/2
:
#!/bin/bash
# Define source, target, maxdepth and cd to source
source="/main/files"
target="/main/filesTest"
depth=1
cd "${source}"
# Set the maximum number of concurrent rsync threads
maxthreads=5
# How long to wait before checking the number of rsync threads again
sleeptime=5
# Find all folders in the source directory within the maxdepth level
find . -maxdepth ${depth} -type d | while read dir
do
# Make sure to ignore the parent folder
if [ 'echo "${dir}" | awk -F'/' '{print NF}'' -gt ${depth} ]
then
# Strip leading dot slash
subfolder=$(echo "${dir}" | sed '[email protected]^\./@@g')
if [ ! -d "${target}/${subfolder}" ]
then
# Create destination folder and set ownership and permissions to match source
mkdir -p "${target}/${subfolder}"
chown --reference="${source}/${subfolder}" "${target}/${subfolder}"
chmod --reference="${source}/${subfolder}" "${target}/${subfolder}"
fi
# Make sure the number of rsync threads running is below the threshold
while [ 'ps -ef | grep -c [r]sync' -gt ${maxthreads} ]
do
echo "Sleeping ${sleeptime} seconds"
sleep ${sleeptime}
done
# Run rsync in background for the current subfolder and move one to the next one
nohup rsync -a "${source}/${subfolder}/" "${target}/${subfolder}/" </dev/null >/dev/null 2>&1 &
fi
done
# Find all files above the maxdepth level and rsync them as well
find . -maxdepth ${depth} -type f -print0 | rsync -a --files-from=- --from0 ./ "${target}/"