Я знаю, что HDFS хранит данные, используя обычную файловую систему Linux в узлах данных. Размер блока HDFS 128 MB
. Допустим, что у меня есть 10 GB
дискового пространства в моем кластере hadoop, что означает, что HDFS изначально имеет 80 blocks
в качестве доступного хранилища.
Если я создам небольшой файл, скажем, 12.8 MB
, #доступные блоки HDFS станут 79. Что произойдет, если я создам еще один небольшой файл из 12.8 MB
? Будут ли блокировку #availbale находиться на отметке 79 или она снизится до 78? В первом случае HDFS в основном пересчитывает #доступные блоки после каждого распределения блоков на основе свободного свободного места на диске, поэтому #доступные блоки становятся 78 только после того, как потребляется более 128 МБ дискового пространства. Просьба уточнить.