Когда я читаю некоторый код, для целого числа они используют кучу разного типа, например size_t, uint32, uint64
и т.д.
Какова мотивация или цель этого?
Почему бы просто не использовать int
?
Что касается платформы-креста? Или низкий уровень релевантности.
Иногда код имеет смысл для меня, потому что они просто хотят 32 бит int
или что-то в этом роде.
Но что такое size_t
?
Пожалуйста, помогите мне сделать это ясно.