Во многих программах a #define
выполняет ту же задачу, что и константа. Например.
#define FIELD_WIDTH 10
const int fieldWidth = 10;
Я обычно вижу, что первая форма предпочтительнее другой, полагаясь на предварительный процессор для обработки того, что в основном является решением приложения. Есть ли причина для этой традиции?