Я не пытаюсь ничего оптимизировать, но я все время слышу это от программистов, что я воспринимаю это как правду. В конце концов, они должны знать это.
Но мне интересно, почему деление действительно медленнее, чем умножение? Разве это не просто прославленное вычитание, а умножение - это прославленное дополнение? Поэтому математически я не понимаю, почему идти так или иначе имеет вычислительно разные затраты.
Кто-нибудь может прояснить причину/причину этого, поэтому я знаю, вместо того, что я слышал от другого программиста, который я спросил, перед чем: "потому что".