Sistema de equações diferenciais

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Em situações reais sobre quantidade da vida e sua taxa de variação depende mais de uma variável. Por exemplo, a população de coelhos, embora possa ser representado por um número único, depende do tamanho das populações de predadores e a disponibilidade de alimento. Para representar e estudar esses problemas complicados, precisamos usar mais de uma variável dependente e mais de uma equação. Sistemas de equações diferenciais são as ferramentas para se usar. Tal como acontece com equações diferenciais de primeira ordem.[1]

Propriedades

Um sistema de n equações diferenciais de primeira ordem é um conjunto de n equações diferenciais, com uma variável independente t e n variáveis dependentes x1,x2,,xn, que podem ser escritas da seguinte forma

dx1dt=F1(x1,,xn,x1,,xn,t)dx2dt=F2(x1,,xn,x1,,xn,t)dxndt=Fn(x1,,xn,x1,,xn,t)

onde F1,F2,,Fn são quaisquer funções de (2n+1) variáveis reais, que definem o sistema. Não será necessário considerar sistemas de equações de ordem superior a 1, devido a que se alguma das equações diferencias for de ordem superior, poderá ser escrita como um sistema de equações de primeira ordem como veremos no exemplo que se segue.[1].

Exemplo

Escreva a equação diferencial de segunda ordem

cosxd2xdt2+xtdxdt+sint=0

como um sistema de equações de primeira ordem.

Podemos definir duas variáveis x1 e x2, dependentes de t, a partir da função x(t) e da sua derivada

x1xx2dxdt

a primeira definição é uma simples mudança do nome da variável, mas a segunda definição é uma equação diferencial de primeira ordem. Temos também uma segunda equação diferencial - a equação dada - que em termos das variáveis definidas é

cosx1dx2dt+x1x2t+sint=0

O sistema de equações, escrito na forma padrão é

dx1dt=x2dx2dt=x1x2tcosx1sintcosx1

Como podemos ver, os sistemas de equações diferenciais de primeira ordem são muito importantes por incluir como casos particulares as equações diferencias de ordem superior e os sistemas delas. De fato, os métodos numéricos para resolver equações diferenciais de ordem superior baseiam-se, geralmente, na resolução de sistemas de equações de primeira ordem.[1]

O sistema de equações pode ser escrito numa forma mais compacta, usando a notação vetorial:

d𝐱dt=𝐅(t,𝐱,d𝐱dt)


onde 𝐱 é um vetor com n componentes, cada uma delas função de t, e 𝐅 é um vetor com n componentes, funções de t, 𝐱 e 𝐱.

Sistemas de equações lineares

Um caso especial e importante na teoria das equações diferenciais é quando o vetor de funções 𝐅, no sistema de equações acima, tem a forma:

𝐅=𝔸𝐱+𝐟

onde 𝔸 é uma matriz quadrada n×n de funções que dependem unicamente de t, 𝐟 é um vetor com n componentes dependentes de t, e optamos por trabalhar a representação dos vetores com matrizes com uma única coluna, ficando assim bem definido o produto entre uma matriz n×n e um vetor (à direita da matriz) de dimensão n, dando como resultado outro vetor da mesma dimensão.[1]

O sistema de equações diferenciais lineares é o sistema:

d𝐱dt=𝔸𝐱+𝐟

Quando os coeficientes da matriz 𝔸 sejam todos constantes, o sistema diz-se de coeficientes constantes; e quando o vetor 𝐟 seja nulo, o sistema será homogêneo.

Exemplo

Escreva o sistema de equações lineares, de coeficientes constantes,

x1=x1+x2x2=4x1+x2

na forma vetorial.

O sistema pode ser escrito assim:

[x1x2]=[1141][x1x2]=

Que tem a forma da equação, com vetor 𝐟 nulo e matriz 𝔸 igual a:

𝔸=[1141]

Método de eliminação

Um método para resolver sistemas de equações diferenciais consiste em usar n1 das equações para eliminar n1 das variáveis xi, na outra equação, ficando com uma equação diferencial ordinária para a função xi que não foi eliminada. A melhor forma de explicar o método é através de um exemplo. Consideremos o sistema e usemos a notação de Operador diferencial para representar as derivadas x1 e x2:

x1Dx1x2Dx2

onde D é o operador que deriva em função do tempo a função que estiver à sua direita. O sistema de equações é reescrito então como:

Dx1=x1+x2Dx2=4x1+x2

Podemos tratar os operadores D como polinômios da mesma forma que usamos polinômios de funções convencionais, assim, o sistema anterior pode ser visto como um sistema de duas equações, com duas incógnitas x1 e x2 e com coeficientes que dependem de D

(D1)x1x2=04x1+(1D)x2=0

o sistema é, neste caso, homogêneo, mas para sistemas não homogêneos segue-se o mesmo procedimento, mantendo as funções de t nos lados direitos, sendo consideradas como coeficientes que dependem de t. Para eliminar x2 no sistema anterior, multiplicamos a primeira equação por (1D), e a somamos com a segunda equação:

(1D)(D1)x1+4x1=0

o produto (1D)(D1) pode ser calculado como uma multiplicação convencional de polinômios, já que quando não há funções envolvidas não há perigo de trocar a ordem das funções e dos operadores

(1D)(D1)=(D1)2=D2+2D1

onde D2 é a segunda derivada em relação ao tempo. [1]

Substituindo na equação, obtemos uma equação diferencial linear homogênea de segunda ordem

x1+2x1+3x1=0

cuja equação característica é

α2+2α+3=0,

logo, as raízes são α1=3 e α2=1, portanto

x1(t)=C1e3t+C2et.

Substituindo-se x1(t) na primeira equação do sistema e isolando x2(t), obtemos

x2(t)=2C1e3t2C2et.

Atenção: Em exemplos mais complexos, cujos polinômios D dos sistemas de equações formam matrizes n×n com n >1, o número de constantes livres encontradas na resolução do sistema de equações (neste exemplo representadas por C1 e C2) pode ser maior que o número de constantes que a resposta final deve conter. Trata-se de uma falha no método.

Nesses casos, a quantidade de constantes livres da resposta final será igual ao grau do polinômio formado pelo determinante da matriz n×n dos polinômios D. A determinação de quais constantes são na verdade dependentes (múltiplos) de outras se dará através da substituição das funções obtidas no sistema de equações original, a fim de se determinar possíveis relações entre as constantes.

O método de eliminação consiste realmente no processo inverso, quando transformamos uma equação de ordem superior num sistema de equações de primeira ordem. Existem sistemas de equações mais complicados, nos quais o método de eliminação não é útil; realmente o processo de eliminação de variáveis é igual do que num sistema de equações algébricas, e como o leitor deverá saber existem métodos simples para resolver sistemas de equações algébricas lineares, mas não existem métodos gerais para as equações não lineares. Inclusivamente no caso de sistemas lineares, quando o número de variáveis for elevado, a eliminação das variáveis pode tornar-se complicada; alguns dos métodos usados no caso de equações algébricas lineares, por exemplo a regra de Cramer, introduzem divisão por operadores que implicam ter que calcular o inverso de um operador diferencial, que não é uma tarefa fácil.

Método matricial

O método matricial é útil para resolver sistemas de equações lineares, de coeficientes constantes, homogêneos e com valores iniciais.[1] A forma geral desses sistemas é

d𝐱dt=𝔸𝐱𝐱(0)=𝐱0

onde o vetor constante 𝐱0 dá o valor inicial do vetor 𝐱, em t=0.

Vamos encontrar a solução do sistema começando pelo caso mais simples n=1, e generalizando o resultado para qualquer n. No caso n=1, a matriz 𝔸 e o vetor 𝐱 têm uma única componente, e o sistema é uma única equação diferencial:

dxdt=axx(0)=x0

onde a é uma constante real. Já vimos vários métodos para resolver essa equação nos capítulos anteriores.[1] A solução é

x=x0eat

A generalização para n>1 é fácil: substituímos x pelo vetor 𝐱, e a pela matriz 𝔸, mas para ser consistentes com a representação de vetores como matrizes de uma coluna, a constante x0 deverá vir depois e não antes da função exponencial

𝐱=e𝔸t𝐱0

Mas o que quer dizer a exponencial de uma matriz? Para o nosso objetivo exp(𝔸t) deverá ser uma matriz que quando derivada em ordem a t dá a mesma matriz multiplicada (à esquerda) por 𝔸.

Partindo da definição do produto entre matrizes e de matrizes por números, podemos definir qualquer função analítica de uma matriz, generalizando a partir da série de McClaurin da função; nomeadamente,

e𝔸t=n=0(𝔸t)nn!=𝕀+𝔸+t2𝔸2+

onde 𝕀 é a matriz identidade, com 1 na diagonal e zero fora dela; a partir desta definição podemos demonstrar, derivando cada membro na série, que

de𝔸tdt=𝔸e𝔸t

Do ponto de vista prático, a série de McClaurin não é útil para calcular a matriz exp(𝔸t), pois inclusivamente o cálculo dos primeiros termos na série torna-se tedioso. Para calcular a solução do sistema exp(𝔸t)𝐱0, calcularemos primeiro um sistema de n soluções particulares simples que formam uma base para o espaço vetorial das soluções 𝐱 e encontraremos as coordenadas da solução particular nessa base. Antes de abordar o problema são precisas algumas definições.

Autovetores e autovalores

Dada uma matriz 𝔸 de dimensões n×n, Qualquer vetor 𝐯 de dimensão n que verifique a propriedade

𝔸𝐯=λ𝐯

é designado vetor próprio, onde λ é um número designado valor próprio. A condição anterior não é trivial; implica que a multiplicação da matriz pelo vetor próprio dá um vetor que é paralelo ao próprio vetor.

Se 𝐯 for um vetor próprio, qualquer vetor na mesma direção (c𝐯) também será um vetor próprio, correspondente ao mesmo valor próprio; portanto, os vetores próprios correspondentes ao mesmo valor próprio formam um subespaço do espaço dos vetores de dimensão n. O vetor nulo, 𝟎, obviamente verifica a condição de vetor próprio para qualquer matriz e qualquer valor λ, mas não o consideraremos entre os vetores próprios. [1]

Também pode-se mostrar que dois vetores próprios correspondentes a valores próprios diferentes são linearmente independentes. Como o número máximo de vetores linearmente independentes é n, o número máximo de valores próprios diferentes também será n.

Para encontrar os vetores e valores próprios da matriz 𝔸, re-escrevemos a equação numa outra forma

(𝔸λ𝕀)𝐯=𝟎

Este é um sistema de equações lineares, homogéneo. Para que existam soluções diferentes da solução trivial, é necessário que o determinante do sistema homogêneo seja igual a zero

|𝔸λ𝕀|=0

esta condição é um polinômio de grau n polinómio caraterístico da matriz) e poderá ter, no máximo, n raízes (valores próprios) diferentes.

No caso de existirem n raízes do polinômio caraterístico, reais e diferentes, os vetores próprios correspondentes a cada valor próprio formam subespaços de dimensão 1 (não podem ter dimensão maior), e escolhendo um vetor próprio por cada valor próprio obtemos uma base do espaço de dimensão n. Quando existe uma raiz repetida m vezes, os vetores próprios correspondentes a esse valor próprio formam um subespaço com dimensão compreendida entre 1 e m; se a dimensão for m, será ainda possível selecionar m vetores próprios linearmente independentes e completar a base de vetores próprios para o espaço todo. Para o nosso objetivo, no caso de valores próprios complexos será ainda possível selecionar um vetor por cada valor próprio, só que os vetores selecionados já não serão vetores próprios.[1]

Soluções fundamentais

Dado um vetor qualquer 𝐱0, o produto exp(𝔸t)𝐱0 é uma solução particular do sistema

d𝐱dt=𝔸𝐱

Se 𝐱0 for um vetor próprio 𝐯 da matriz 𝔸, a solução particular

e𝔸t𝐯

designa-se solução fundamental. Dois vetores próprios linearmente independentes dão origem a duas soluções particulares linearmente independentes. Assim, quando existirem n vetores próprios linearmente independentes, {𝐯1,𝐯2,,𝐯n}, as respetivas soluções, {𝐱1,𝐱2,,𝐱n}, constituirão um conjunto fundamental de soluções, e qualquer outra solução pode ser escrita como combinação linear das soluções fundamentais

𝐱=c1𝐱1+c2𝐱2++cn𝐱n

Ou, em forma mais compacta

𝐱=𝕏𝐜

onde a matriz 𝕏 define-se como a matriz em que cada coluna é uma das soluções fundamentais 𝐱i, e as componentes do vetor 𝐜 são as constantes ci. As soluções fundamentais 𝐱i calculam-se facilmente a partir do seguinte teorema.

  • Se 𝐯 é um vetor próprio da matriz 𝔸, correspondente ao valor próprio λ, então

e𝔸t𝐯=eλt𝐯

Demonstração: usando a série de McClaurin da função exp(𝔸t), obtemos

e𝔸t𝐯=m=0tmm!𝔸m𝐯

aplicando m vezes à equação que define o vetor próprio, 𝔸m𝐯=λm𝐯

e substituindo na série anterior, chegamos ao resultado

e𝔸t𝐯=m=0(λt)mm!𝐯=eλt𝐯

O resultado do teorema anterior é importante porque permite substituir uma função matricial exp(𝔸t), por uma função ordinária exp(λt); é preciso ter em conta que a dita substituição é apenas possível quando a função estiver a multiplicar a um vetor próprio da matriz 𝔸.

As componentes da matriz fundamental do sistema, 𝕏, são funções do tempo. No instante t=0, a solução deverá ser igual ao vetor de condições iniciais, 𝐱(0)=𝐱0, e cada solução fundamental é igual ao correspondente vetor próprio.

𝐱i(0)=e0𝐯i=𝐯i

Substituindo na equação, obtemos um sistema linear de equações algébricas

𝕍𝐜=𝐱0

onde a matriz 𝕍 é a matriz em que cada coluna é um dos vetores próprios 𝐯i. A resolução desse sistema permite encontrar as constantes ci

𝐜=𝕍1𝐱0

e a solução da equação é igual a

𝐱=𝕏𝕍1𝐱0

Comparando as duas últimas equações anteriores, que são duas formas diferentes de escrever a solução particular, válidas para qualquer vetor 𝐱0, obtemos um resultado importante

e𝔸t=𝕏𝕍1

Esta equação permite calcular a exponencial de qualquer matriz 𝔸, a partir dos seus vetores e valores próprios.

Valores próprios complexos

Quando existem valores próprios complexos, procuramos um vetor próprio complexo, 𝐰=𝐚+i𝐛, e as partes real (𝐚) e imaginária (𝐛) desse vetor serão usados como vetores da base. [1]As correspondentes soluções fundamentais já não serão dadas pelo teorema visto na seção passada, pois os dois vetores não são vetores próprios, mas como (𝐚+i𝐛) sim é vetor próprio, usamos a equação

e𝔸t(𝐚+i𝐛)=eλt(𝐚+i𝐛)

Comparando as partes reais e imaginárias nos dois lados da equação, é possível calcular as duas soluções fundamentais exp(𝔸t)𝐚 e exp(𝔸t)𝐛.[1]

Exemplo

Encontre a solução geral do sistema de equações diferenciais 𝐱=𝔸𝐱, onde 𝔸 é a seguinte matriz:

𝔸=[101020101]

O polinômio caraterístico é:

|(1λ) 010(2λ)010(1λ)|=(2λ)[(λ1)2+1]=0

e, portanto, os valores próprios são

λ1=2λ2=1+iλ3=1i

um vetor próprio (𝐯1) correspondente a λ1=2 obtém-se a partir da solução do sistema

[101000101|000]𝐯1=[010]

e a solução particular correspondente a 𝐯1 é

e𝔸t𝐯1=[0e2t0]

Outras duas soluções linearmente independentes podem ser obtidas a partir de λ2 ou λ3. Para λ3=1i obtemos:

[i010(1+i)010i|000]𝐰=[10i]

A partir de 𝐰 pode obter-se uma solução particular complexa:

e𝔸t𝐰=e(1i)t[10i]=et[costisint0sint+icost]

As partes real e imaginária desta solução são também soluções, e junto com a solução obtida a partir de λ1, constituem um conjunto fundamental de soluções do sistema:

[0e2t0],et[cost0sint],et[sint0cost]

A solução geral do sistema é qualquer combinação linear do conjunto fundamental de soluções:

𝐱(t)=[0etcostetsinte2t000etsintetcost][c1c2c3]

Vetores próprios generalizados

Falta-nos considerar o caso em que aparecem raízes do polinômio caraterístico com multiplicidade m>1. No caso das raízes não repetidas, o sistema de equações lineares que permitem calcular o vetor próprio correspondente é sempre um sistema com uma variável livre (subespaço de dimensão igual a um) que pode ser arbitrada. No caso da raiz de multiplicidade m, o sistema de equações lineares que definem os vetores próprios poderá ter entre uma e m variáveis livres. Se existirem m variáveis livres, obtêm-se m vetores próprios arbitrando valores linearmente independentes para elas (o mais fácil será usar conjuntos de variáveis onde unicamente uma delas é diferente de zero). [1]Se o sistema tiver menos do que m variáveis livres, para completar m vetores fundamentais usaremos vetores próprios generalizados.

Um vetor próprio generalizado da matriz 𝔸, correspondente ao valor próprio λ e ao vetor próprio 𝐯, é um vetor 𝐮 que verifica a seguinte condição

(𝔸λ𝕀)𝐮=𝐯

Para construir a solução fundamental correspondente a um vetor próprio generalizado, usa-se o seguinte teorema.[1]

Teorema

  • Se 𝐮 é um vetor próprio generalizado da matriz 𝔸,

correspondente ao valor próprio λ e ao vetor próprio 𝐯, então

e𝔸t𝐮=eλt(𝐮+t𝐯)

Demonstração: usando a série de McClaurin de exp(𝔸t),

e𝔸t𝐮=m=0tmm!𝔸m𝐮

a partir da definição do vetor próprio generalizado, obtemos

𝔸𝐮=λ𝐮+𝐯

e multiplicando repetidas vezes pela matriz 𝔸 vemos que

𝔸m𝐮=λm𝐮+mλm1𝐯

substituindo na série de McClaurin,

e𝔸t𝐮=m=0(λt)mm!𝐮+m=1t(λt)m1(m1)!𝐯

As duas séries dão o resultado que pretendemos encontrar.

O sistema que define os vetores generalizados poderá ter variáveis livres, dando origem a vários vetores próprios generalizados linearmente independentes, ou poderá não ter solução quando não existirem vetores próprios generalizados correspondentes a um determinado vetor próprio. Se depois de procurar vetores próprios generalizados não existirem suficientes vetores para completar uma base, será preciso procurar vetores próprios generalizados, de segunda ordem, que são vetores próprios generalizados, associados a um outro vetor próprio generalizado.[1]

Predefinição:Referências

Ver também

Predefinição:Equações diferenciais