Во время разговора в IRC кто-то указал на следующее:
decimal.Parse("1.0000").ToString() // 1.0000
decimal.Parse("1.00").ToString() // 1.00
Как/почему тип decimal
сохраняет точность (или, скорее, значимые цифры) как это? У меня создалось впечатление, что эти два значения равны, а не разные.
Это также вызывает дополнительные вопросы:
- Как определяется количество значимых цифр во время математических операций?
- Сохраняется ли количество значимых цифр во время сериализации?
- Влияет ли текущая культура на то, как это обрабатывается?