"Денормалы" , как известно, сильно сокращаются, 100 раз или около того, по сравнению с нормалями. Это часто вызывает проблемы неожиданные .
Мне любопытно, с точки зрения архитектуры процессора, почему денормалы должны быть , что значительно медленнее? Является ли отсутствие производительности неотъемлемой частью их неудачного представления? Или, может быть, архитекторы ЦП пренебрегают им, чтобы снизить стоимость аппаратного обеспечения при ошибочном допущении, что денормалы не имеют значения?
В первом случае, если денормалы по своей сути являются аппаратно-недружественными, существуют ли известные представления, отличные от IEEE-754 с плавающей запятой, которые также безразличны вблизи нуля, но более удобны для аппаратной реализации?