Мне интересно, можно ли выразить временную сложность алгоритма, который опирается на конвергенцию с использованием записи Big O.
В большинстве алгоритмических анализов, которые я видел, мы оцениваем нашу скорость роста производительности на основе размера ввода.
В случае алгоритма, который имеет некоторые критерии сходимости (где мы повторяем операцию до тех пор, пока определенная метрика ошибки не будет ниже порога, или скорость изменения метрики ошибки ниже некоторого порога), как мы можем измерить временную сложность? Количество итераций, необходимых для схождения и выхода из этого цикла, кажется трудным объяснить, поскольку способ сходимости алгоритма имеет тенденцию зависеть от содержимого ввода, а не от его размера.
Как мы можем представить временную сложность алгоритма, который полагается на сходимость в нотации Big O?