Учитывая, что MSDN содержит сведения о хранении SQL Server 2008 R2 с точностью NUMERIC/DECIMAL.
Точность от 1 до 9 - 5 байт
Точность от 10 до 19 составляет 9 байт.
Итак, если для моего бизнес-логики логически требуется тип данных с 2 десятичными знаками и точность 5 цифр, он не делает реальной разницы в производительности или хранении, если я определяю его как ЧИСЛО (5, 2) или ЧИСЛО (9, 2).
Учитывая, что я намеренно игнорирую это подразумеваемое ограничение проверки, поскольку я, скорее всего, поставил бы фактическое ограничение проверки на столбец, ограничивающий фактический разрешенный диапазон.
Это имеет значение, когда дело доходит до индексов, производительности запросов или любого другого аспекта системы?