Problema de valor inicial

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Em matemática, um problema de valor inicial ou problema de condições iniciais ou problema de Cauchy é uma equação diferencial que é acompanhada do valor da função objetivo em um determinado ponto, chamado de valor inicial ou condição inicial. Em física, biologia e outras áreas, a modelagem de um sistema frequentemente resulta em um problema de valor inicial (também chamado de P.V.I.) a ser solucionado; nesse contexto, a equação diferencial é uma equação evolutiva especificando como o sistema evoluirá ao longo do tempo dadas condições iniciais.

Definição

Um problema de valor inicial (P.V.I.) é uma equação diferencial da forma

{y(t)=f(t,y(t))y(t0)=y0

Uma solução para um P.V.I. é uma função y que é solução da equação diferencial e satisfaz y(t0)=y0.

Em dimensões superiores, a equação diferencial é substituída por uma família de equações yi(t)=fi(t,y1(t),y2(t),,yn(t)), e y(t) é um vetor n-dimensional da forma (y1(t),y2(t),,yn(t)). Mais geralmente, y pode assumir valores em espaços de dimensão infinita, como o Espaço de Banach ou o espaço de distribuições.

P.V.I.s podem ser analisados em ordens superiores tratando as derivadas como uma função independente, e.g. y(t)=f(t,y(t),y(t)).

Existência e unicidade de soluções

Para uma grande classe de P.V.I.s, a existência e unicidade de uma solução pode ser ilustrada através do uso de uma calculadora.

O teorema de Picard-Lindelöf garante a unicidade da solução em um intervalo que contém t0 se f é continua em uma região contendo t0 e y0 e satisfaz a condição de Lipschitz na variável y.

A prova desse teorema provem de uma reformulação do problema como uma equação integral equivalente. A integral pode ser considerada como um operador que transforma uma função em outra, de modo que a solução é um ponto fixo do operador. O teorema do ponto fixo de Banach é evocado para mostrar que existe um único ponto fixo que é solução do P.V.I..

Uma prova antiga do teorema de Picard–Lindelöf constrói uma sequência de funções que convergem para a solução da equação integral, e assim, para a solução do P.V.I.. Essa construção é chamada às vezes de "método de Picard" ou "método de aproximações sucessivas".

Hiroshi Okamura obteve uma condição necessária e suficiente para a solução do P.V.I. ser única. Essa condição tem a ver com a existência de uma função de Lyapunov para o sistema de EDOs.

Em algumas situações, a função f não é de classe C1, ou mesmo Lipschitz continua, então o resultado usual garantindo a existência local de uma solução única não se aplica. No entanto, o teorema de existência de Peano prova que mesmo para f meramente contínua, existem soluções locais; porém não há garantia de unicidade.[1][2]

Exemplos

O problema de condição inicial

{dydx=yy(0)=2

Resolução

dydx=y
dydxy=0

Pelo método do fator integrante, multiplica-se esta equação por ex:

exdydxexy=ex0

O primeiro lado da equação pode ser simplificado usando a regra da cadeia d(f×g)dx=dfdx×g+f×dgdx

d(yex)dx=0

Integrando os dois lados da equação, obtém-se:

yex=c1

com c1 constante.

Isolando y, obtém-se então infinitas soluções para a equação diferencial, por causa da arbitrariedade de c1:

y(x)=c1ex

Porém, só existe uma única solução que satisfaz as condições iniciais:

y(0)=c1e0
2=c1

Portanto, a solução (única) do P.V.I. é:

y(x)=2ex

Oscilador harmônico

No caso de um sistema massa-mola sem atrito e sem força externa atuando, ao aplicar-se a segunda lei de Newton, obtém-se a seguinte relação:

ma(t)=kx(t)

Ou seja:

md2x(t)dt2=kx(t)

Onde m é a massa do oscilador, x é o deslocamento dessa massa em relação ao ponto de equilíbrio e k é a constante da mola.

Um dos métodos de se achar a solução dessa equação diferencial é usar transformada de Laplace. Aplicando a transformada de Laplace em ambos os lados da equação, obtém-se o seguinte:

m{d2x(t)dt2}=k{x(t)}

Usando as propriedades da transformada de Laplace, a equação segue escrita como:

m(s2{x(t)}sx(0)dxdt(0))=k{x(t)}

De onde pode-se isolar o termo {x(t)}:

ms2{x(t)}msx(0)mdxdt(0)=k{x(t)}
ms2{x(t)}+k{x(t)}=msx(0)+mdxdt(0)
(ms2+k){x(t)}=msx(0)+mdxdt(0)
{x(t)}=msx(0)+mdxdt(0)ms2+k
{x(t)}(ms2+k)=msx(0)+mdxdt(0)
{x(t)}=msx(0)+mdxdt(0)ms2+k

Aplicando a transformada inversa de Laplace, obtém-se:

1{{x(t)}}=1{msx(0)+mdxdt(0)ms2+k}
x(t)=x(0)1{msms2+k}+dxdt(0)1{mms2+k}
x(t)=x(0)1{ss2+km}+dxdt(0)1{1s2+km}

Utilizando uma tabela de transformadas, a equação se escreve:

x(t)=x(0)cos(kmt)+mkdxdt(0)sin(kmt)

Logo, é necessário definir as condições iniciais x(0) e dxdt(0).

Circuito RLC com pulso de amplitude V0

A equação que descreve tal circuito é dada por:

Potencial a um pulso unitário de amplitude 100V
V(t)=V0(u(ta)u(tb))

Onde u(t) é a função de heaviside

V(t) é dada pela Lei das malhas Kirchhoff como:
V(t)=Ldi(t)dt+Ri(t)+1Cq(t)

Dados L=1H, R=2Ω e C=1F temos:

di(t)dt+2i(t)+q(t)=V0(u(ta)u(tb))

Derivando ambos os lados da equação em relação ao tempo, obtemos:

d2i(t)dt2+2di(t)dt+i(t)=V0(δ(ta)δ(tb))

No passo anterior utilizamos o fato de que a derivada da função de heaviside u(t) é a função delta de Dirac δ(t), ou seja:

du(t)dt=δ(t)

Também lançamos mão dos seguintes conceitos de eletromagnetismo:

q(t)=0ti(t)dt
dq(t)dt=i(t)i(0)=i(t)

Onde utilizamos nossa primeira condição inicial: i(0)=0.

Aplicando a transformada de Laplace em ambos os lados da equação:

{d2i(t)dt2}+2{di(t)dt}+{i(t)}=V0({δ(ta)}{δ(tb)})
s2{i(t)}si(0)didt(0)+2s{i(t)}2i(0)+{i(t)}=V0(easebs)

Devido as condições iniciais, i(0)=0 e didt(0)=0 a equação se reduz a:

s2{i(t)}+2s{i(t)}+{i(t)}=V0(easebs)

Isolando {i(t)}:

{i(t)}(s2+2s+1)=V0(easebs)
{i(t)}=V0(easebs)(s2+2s+1)

Manipulamos a equação de modo a chegar no formato de uma expressão tabelada:

Corrente devido a um pulso unitário entre t = 1 e t = 2 com V0 = 100V

{i(t)}=V0eas1(s+1)2V0ebs1(s+1)2

Aplicando a transformada inversa:

i(t)=V01{eas1(s+1)2}V01{ebs1(s+1)2}

Consultando uma tabela de transformadas de Laplace, obtemos o resultado:

i(t)=V0u(ta)(ta)e(ta)V0u(tb)(tb)e(tb)

Onde utilizamos a propriedade do deslocamento no eixo t e deslocamento no eixo s

Ver também

Predefinição:Referências

  1. Coddington, Earl A.; Levinson, Norman (1955). Theory of ordinary differential equations. New York-Toronto-London: McGraw-Hill Book Company, Inc. (Teorema 1.3)
  2. Robinson, James C. (2001). Infinite-dimensional dynamical systems: An introduction to dissipative parabolic PDEs and the theory of global attractors. Cambridge: Cambridge University Press. (Teorema 2.6)