Если я введу значение, например, 1234567 ^ 98787878 в Wolfram Alpha, оно может предоставить мне ряд подробностей. Это включает десятичное приближение, общую длину, последние цифры и т.д. Как вы оцениваете такие большие числа? Насколько я понимаю, язык программирования должен был иметь специальный тип данных для хранения номера, не говоря уже о его добавлении к чему-то другому. Хотя я могу видеть, как можно приблизиться к добавлению двух очень больших чисел, я не вижу, как оцениваются огромные числа.
10 ^ 2 можно было бы рассчитать с помощью повторного добавления. Однако такое число, как приведенный выше пример, потребует гигантский цикл. Может ли кто-нибудь объяснить, как оцениваются такие большие числа? Кроме того, как может кто-то создать настраиваемый большой тип данных для поддержки больших чисел в С#, например?