Im все еще довольно новый, так что несите меня на этом, мой вопрос не должен быть спорным или мелочным, но во время чтения кое-что показалось мне странным.
Im в предположении, что когда компьютеры были медленными, а память была дорогой, используя правильный тип переменной, была гораздо более необходима, чем сегодня. Теперь, когда память немного легче пришла, люди, похоже, немного расслабились. Например, вы видите этот пример кода везде:
for (int i = 0; i < length; i++)
Int? (-2,147,483,648 до 2,147,483,648) для длины? Is not byte (0-255) лучший выбор?
Итак, мне интересно ваше мнение и то, что вы считаете лучшей практикой, мне не нравится думать, что это будет использоваться только потому, что аббревиатура "int" более понятна для новичка... или память просто стала настолько дешевой, что нам действительно не нужно беспокоиться о таких мелочных вещах, и поэтому мы должны просто использовать долго, чтобы мы могли быть уверены, что любые другие числа/типы (в пределах разумного), которые могут быть использованы, могут быть автоматизированы?
... или я просто глупо относиться к себе такими вещами?