Todos métodos numéricos para solução de EDOs apresentados nos posts anteriores utilizam passos de tamanho constante. Conforme ilustrado nesses posts, para diversos problemas essa abordagem é satisfatória. Contudo, algumas funções podem ter taxas de variações muito diferentes ao longo do espaço em que estão definidas, o que pode limitar seriamente a escolha do tamanho do passo.

Sendo assim, alguns algoritmos ajustam o tamanho do passo de acordo com a trajetória da solução. Dessa forma, chamam-se tais métodos de “adaptativos”, pois eles adaptam o tamanho do passo de acordo com a taxa de crescimento local da função. Portanto, a implementação dessas abordagens adaptativas requer que uma estimativa do erro de aproximação local seja obtida em cada passo, servindo de base para a estimativa do novo tamanho de passo.

Há duas abordagens para calcular o tamanho do passo de forma adaptativa. A primeira delas calcula o erro entre duas previsões, usando um dado método de Runge-Kutta de mesma ordem, mas com tamanho de passos diferentes. A outra abordagem consiste em estimar o erro de truncamento local a partir da diferença entre duas previsões, usando métodos de Runge-Kutta de ordens diferentes.

 

1. Runge-Kutta Adaptativo

O método de RK adaptativo consiste em fazer cada passo duas vezes, uma com um passo completo e outra com dois meio-passos. A diferença dos dois resultados fornece uma estimativa do erro local. Assim, sendo a previsão de passo único e a previsão a partir de dois meio-passos, o erro é obtido como a diferença simples entre essas previsões,


$$\Delta = y_2 – y_1$$ .

Além de fornecer um critério para o controle do tamanho do passo, a equação acima também é usada para correção na previsão de . Em outras palavras, para métodos de Runge-Kutta de até quinta ordem, pode ser corrigida por


$$y2 = y2 + \dfrac{\Delta}{15} $$ .

 

2. Runge-Kutta-Fehlberg

Uma outra abordagem para obter a estimativa do erro consiste em calcular duas previsões, usando métodos de Runge-Kutta de ordens diferentes. Os resultados podem então ser subtraídos para obtenção do erro local.

Como em cada passo deve-se utilizar um método de RK duas vezes (duas ordens diferentes), essa abordagem tem como desvantagem o alto consumo de recursos computacionais. Utilizando, por exemplo, o método de Butcher como RK de quinta ordem e o método de Ralston como RK de quarta ordem, as previsões equivaleriam a um cálculo de dez valores de função por passo, o que representa um significante gasto computacional.

O método de Fehlberg contorna esse problema, uma vez que os coeficientes calculados na interpolação da função de ajuste desse método podem ser aproveitados tanto na versão de quinta ordem quanto na versão de quarta ordem. Assim, a abordagem de Fehlberg fornece uma estimativa do erro de truncamento com apenas seis cálculos de função.

Dessa forma, o método de Fehlberg estima a partir da seguinte RK de quarta ordem


$$y_{i+1} = y_i + \left(\frac{37}{378} k_1 + \frac{250}{621} k_3 + \frac{125}{594} k_4 + \frac{512}{1771} k_6 \right) h $$ ,

junto com a RK de quinta ordem


$$y_{i+1} = y_i + \left( \frac{2825}{27648} k_1 + \frac{18575}{48384} k_3 + \frac{13525}{55296} k_4 + \frac{255}{14336} k_5 + \frac{1}{4} k_6 \right) h $$ ,

onde,


$$k_1 = f(x_i, y_i) $$

$$k_2 = f\left(x_i + \frac{1}{5} h, y_i + \frac{1}{5} k_1 h \right) $$

$$k_3 = f\left( x_i + \frac{3}{10} h, y_i + \frac{3}{40} k_1 h + \frac{9}{40} k_2 h \right) $$

$$k_4 = f\left( x_i + \frac{3}{5} h, y_i + \frac{3}{10} k_1 h – \frac{9}{10} k_2 h + \frac{6}{5} k_3 h \right) $$

$$k_5 = f\left( x_i + h, y_i – \frac{11}{54} k_1 h + \frac{5}{2} k_2 h – \frac{70}{27} k_3 h + \frac{35}{27} k_4 h \right) $$

$$k_6 = f\left( x_i + \frac{7}{8} h, y_i + \frac{1631}{55296} k1 h + \frac{175}{512} k2 h + \frac{575}{13824} k3 h + \frac{44275}{110592} k4 h + \frac{253}{4096} k5 h \right) $$ .

Assim, a estimativa de erro pode ser obtida a partir da diferença das equações de quarta e quinta ordens. Além disso, esses coeficientes foram obtidos por Cash e Karp, o que faz com que esse método seja também conhecido como Runge-Kutta de Cash-Karp.

 

2.1. Ajuste do Tamanho do Passo

Após determinado o erro de truncamento local, ele pode ser utilizado no ajuste do tamanho do passo. A ideia é aumentar o tamanho do passo se o erro for menor que um valor tolerável ou diminuir o tamanho do passo se o erro for maior que esse valor. Press et. al (1992), sugerem o seguinte critério de ajuste do passo:


$$h_{i+1} = h_i \left| \dfrac{\Delta_{i+1}}{\Delta_i} \right|^\alpha $$ ,

onde e são o tamanho dos passos na iteração atual e ajustado, respectivamente, é a acurácia atual e é a acurácia

desejada, e é uma potência constante que é igual a quando o tamanho do passo aumenta ( ) e igual a quando o tamanho do passo diminui ( ).

Assim, o parâmetro-chave na estimativa do tamanho do novo passo é . Para isso, relaciona-se a um erro relativo. Isso irá funcionar bem para valores positivos, embora cause alguns problemas em soluções que passem pelo valor zero, o que requer que um pequeno ajuste de segurança seja tomado nessa situação. Assim, a forma proposta por Press et al. para determinar é


$$\Delta_{i+1} = \epsilon y_{c} $$ ,

onde é um erro tolerável, é definido como


$$y_c = \left| y \right| + \left| h \dfrac{dy}{dx} \right| $$ .

 

3. Implementação

Os códigos abaixo implementam o método de Runge-Kutta-Fehlberg utilizando os coeficientes propostos por Cash-Karp. A primeira função (fehlberg) computa a solução local utilizando o método de Runge-Kutta de quarta e quinta ordem pela abordagem de Fehlberg. O retorno dessa função é justamente a solução numérica na EDO no instante , aproximada conforme essas duas ordens.

A função integral_adapt delineia a função principal que resolve o problema, utilizando a adaptação do tamanho dos passos calculadas pela função adapt_folberg.

Um exemplo de utilização dessas funções pode ser obtido em http://www.sawp.com.br/code/ode/fehlberg_adaptativo.py.

def fehlberg(f, x, y, h):
    """
    Solve unique step using 4th and 5th order of Fehlberg's method

    (y_5ordem, y_4ordem) = fehlberg(f, x, y, h)

    INPUT:
      * f: derivative function f(x, y) = dy/dx
      * x: local x position
      * y: partially computed y
      * h: previous partition size

    return: (y_5ordem, y_4ordem)

    Author: Pedro Garcia [sawp@sawp.com.br]
    see: http://www.sawp.com.br

    License: Creative Commons
             http://creativecommons.org/licenses/by-nc-nd/2.5/br/

    Mar 2013
    """
    def compute_coeffs(f, x, y, h):
        k1 = f(x, y)
        k2 = f(x + 1.0/5.0 * h, y + 1.0/5.0 * k1 * h)
        k3 = f(x + 3.0/10.0 * h, y + 3.0/40.0 * k1 * h + 9.0/40.0 * k2 * h)
        k4 = f(x + 3.0/5.0 * h,
               y + 3.0/10.0 * k1 * h - 9.0/10.0 * k2 * h + 6.0/5.0 * k3 * h)
        k5 = f(x + h, y - 11.0/54.0 * k1 * h + 5.0 / 2.0 * k2 * h -
               70.0 / 27 * k3 * h + 35.0 / 27.0 * k4 * h)
        k6 = f(x + 7.0 / 8.0 * h, y + 1631.0 / 55296 * k1 * h +
               175.0 / 512 * k2 * h + 575.0 / 13824 * k3 * h +
               44275.0 / 110592 * k4 * h + 253.0 / 4096 * k5 * h)
        return (k1, k2, k3, k4, k5, k6)

    def fehlberg5order(f, x, y, h, coeffs):
        (k1, k2, k3, k4, k5, k6) = coeffs
        delta = 0.102 * k1 + 0.384 * k3 + 0.244 * k4 + 0.019 * k5 + 0.25 * k6
        y1_5ordem = y + delta * h
        return y1_5ordem

    def fehlberg4order(f, x, y, h, coeffs):
        (k1, k2, k3, k4, k5, k6) = coeffs
        delta = 0.097 * k1 + 0.402 * k3 + 0.210 * k4 + 0.289 * k6
        y1_4ordem = y + delta * h
        return y1_4ordem

    coeffs = compute_coeffs(f, x, y, h)
    y1_5ordem = fehlberg5order(f, x, y, h, coeffs)
    y1_4ordem = fehlberg4order(f, x, y, h, coeffs)
    return (y1_5ordem, y1_4ordem)
def adapt_folberg(f, x, y, h, errto=1e-6, safety=0.5):
    """
    Solve each point and find partial y, adjusting h

    (x, y, h) = adapt_folberg(f, x, y, h, errto=1e-6, safety=0.5)

    INPUT:
      * f: derivative function f(x, y) = dy/dx
      * x: local x position
      * y: partially computed y
      * h: previous partition size
      * errto: acceptable approximation error
      * safety: control the h rescaling

    return: (x, y, h)

    Author: Pedro Garcia [sawp@sawp.com.br]
    see: http://www.sawp.com.br

    License: Creative Commons
             http://creativecommons.org/licenses/by-nc-nd/2.5/br/

    Mar 2013
    """
    err = errto + 1
    while err > 1:
        (y1_5ordem, y1_4ordem) = fehlberg(f, x, y, h)
        y = y1_5ordem
        yscal = abs(y) + abs(h * f(x, y)) + 1e-30
        yerr = abs(y1_5ordem - y1_4ordem)
        err = abs(yerr / yscal / errto)
        h = max(abs(safety * h * err ** (-0.25)), 0.25 * abs(h))
    if err > errto:
        h = safety * h * err ** (-0.2)
    else:
        h = 4 * h
    x = x + h
def integral_adapt(f, xi, xe, y0, n=1e10, method=adapt_folberg):
    """
    Numerical integration for solve ODE's using Runge-Kuta (adaptative)

    integral = integral_adapt(f, xi, xe, n=1e6)

    INPUT:
      * f: derivative function f(x, y) = dy/dx
      * xi: beginning of integration interval
      * xe: end of integration interval
      * y0: initial estimative for y
      * n: number of points used
      * method: method used to solve a unique step (adapt_folberg)

    return: \int_{xi}^{xe} f(x)

    Author: Pedro Garcia [sawp@sawp.com.br]
    see: http://www.sawp.com.br

    License: Creative Commons
             http://creativecommons.org/licenses/by-nc-nd/2.5/br/

    Mar 2013
    """
    def integrator(x, y, h, n):
        i = 0
        while i < = n and x <= xe:
            i += 1
            if x + h > xe:
                h = xe - x
            (x, y, h) = adapt_folberg(f, x, y, h)
        return y

    (y, x) = (y0, xi)
    h = abs(xe - xi) / n
    return integrator(x, y, h, int(n))

 

Este documento é disponível sob a licença Creative Commons. As regras dos direitos de cópia deste conteúdo estão acessíveis em http://creativecommons.org/licenses/by-nc-nd/2.5/br/.

Referências


[1] Anthony Ralston and Philip Rabinowitz, A First Course in Numerical Analysis (2nd ed.), McGraw-Hill and Dover, (2001).
[2] N.B Franco, Cálculo Numérico, Pearson Prentice Hall, (2006).
[3] J.R Cash and A. H. Karp, Transactions on Mathematical Software, v.16, p. 201-222, (1990).
[4] W. H. Press, Numerical Recipes, Cambridge University Press, (1992).