Я читаю книгу Введение в алгоритмы Томаса Х. Кормена, Чарльза Э. Лейзерсона, Рональда Л. Ривеста, Клиффорда Штаина. Во второй главе в разделе "Анализ алгоритмов" упоминается, что:
Мы также предполагаем ограничение на размер каждого слова данных. Например, при работе с входами размера n мы обычно предполагаем, что целые числа представлены c lg n битами для некоторой константы c >= 1. Нам нужно c >= 1, так что каждое слово может содержать значение n, что позволяет нам индексировать отдельные элементы ввода, и мы ограничиваем c константой, чтобы размер слова не увеличивался произвольно. (Если размер слова может расти произвольно, мы можем хранить огромное количество данных одним словом и работать на нем все в постоянное время - явно нереалистичный сценарий.)
Мои вопросы - почему это предположение о том, что каждое целое число должно быть представлено c lg n битами, а также, как c >= 1 является случаем, позволяет нам индексировать отдельные входные элементы?