Definido de manera similar a la convergencia de secuencias. Criterio de convergencia de Cauchy: definición de convergencia de la función f(x) en el punto x0. Para cualquier número real b gt0, c > existe 0, para cualquier x1, x2 satisface 0
Convergencia y divergencia del algoritmo iterativo
1, convergencia global
Para cualquier X0∈[a, b], la secuencia de puntos generada por la fórmula iterativa Xk 1=φ(Xk) converge, es decir, cuando k→∞, el límite de Xk tiende a X*, entonces Xk 1=φ (Xk ) se llama en [a, b].
2. Convergencia local
Si X* existe en una vecindad, r = {x || x-x *|| La convergencia enumerada en φ(Xk) se llama Xk 1=φ(Xk) converge a x *.