Когда я читаю некоторый код, для целого числа они используют кучу разного типа, например size_t, uint32, uint64 и т.д.
Какова мотивация или цель этого?
Почему бы просто не использовать int?
Что касается платформы-креста? Или низкий уровень релевантности.
Иногда код имеет смысл для меня, потому что они просто хотят 32 бит int или что-то в этом роде.
Но что такое size_t?
Пожалуйста, помогите мне сделать это ясно.