Мы все знаем, что размер блока в HDFS довольно большой (64M или 128M) по сравнению с размером блока в традиционных файловых системах. Это делается для того, чтобы уменьшить процент времени поиска по сравнению с временем передачи (улучшения скорости передачи были намного выше, чем улучшения времени поиска диска, поэтому цель при разработке файловой системы всегда сводить количество запросов по сравнению с объемом данных, подлежащих передаче). Но это связано с дополнительным недостатком внутренней фрагментации (поэтому традиционные размеры блоков файловой системы не так высоки и составляют порядка нескольких КБ - обычно 4 КБ или 8 КБ).
Я просматривал книгу - Hadoop, The Definitive Guide и нашел, что это где-то написано, что файл размером меньше размера блока HDFS не занимает полный блок и не учитывает полное пространство блока, но не может понять как? Может кто-нибудь, пожалуйста, пролил свет на это.