Estabilidade assimptótica

Fonte: testwiki
Revisão em 01h42min de 10 de janeiro de 2023 por imported>Chicocvenancio (Removendo interwikis manuais)
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Predefinição:Formatar referências Predefinição:Sem-notas Na teoria dos sistemas dinâmicos, a estabilidade de um sistema é a capacidade que um sistema possui de esquecer o seu passado conforme o tempo tende a infinito. Mais precisamente, um sistema dinâmico é dito assimptoticamente estável se tende ao seu(s) ponto(s) de equilíbrio(s) quando submetido à ingresso constante. No caso dos sistemas lineares isto significa que o movimento livre do sistema tende para zero com o passar do tempo. Quando um sistema atinge o ponto de equilibrio se diz entrou em regime estacionário.

Sistemas lineares

O movimento de um sistema linear invariante no tempo descrito pela quaterna (A,B,C,D) é dado pela fórmula de Lagrange:

𝐱(𝐭)=Φ(𝐭)𝐱(𝟎)+Ψ(𝐭)𝐮[𝟎,𝐭)()=𝐱𝐋+𝐱𝐅

onde:

x(t) é o movimento do sistema

𝐱𝐋 é o movimento livre do sistema
𝐱𝐅 é o movimento forçado do sistema
Φ(𝐭)=𝐞𝐀𝐭 para sistemas a tempo continuo e Φ(𝐭)=𝐀𝐭 para sistemas a tempo discreto e se chama matriz de transição
𝐮[𝟎,𝐭)() é a função de ingresso do sistema definida do intervalo [0,t)
Ψ(𝐭) é 1 operador linear aplicado à função de ingresso

Um sistema linear é dito assimptoticamente estável quando:

x(0);limt+Φ(𝐭)𝐱(𝟎)=0

Ou seja o movimento livre do sistema tende a zero quando o tempo tende a infinito para toda condição inicial x(0). Isso só é possível se a matriz de transição tender a zero para o tempo tendente a infinito.

Estabilidade segundo Lyapunov

Considere um sistema do tipo 𝐱˙=𝐟(𝐱,𝐮) ou 𝐱(𝐭+𝟏)=𝐟(𝐱,𝐮), isto é um sistema não-linear ou linear com ingresso nulo. Seja x¯ um ponto de equilibrio e Ix¯ uma sua vizinhança. Um ponto de equilíbrio x¯ é local e assimptoticamente estável se:

x(0)Ix¯;δ>0/x(t)Ix¯,δx(t)x¯p/t+

onde Ix¯,δ é uma vizinhança pequena quanto se queira de x¯ . Nos sistemas lineares, se existe um ponto de equilíbrio ou é único ou existe um infinidade não enumerável destes. As vizinhanças de tais equilíbrios podem ser todo o espaço 𝐑𝐧. Assim sendo, a definição de estabilidade segundo Lyapunov para sistemas lineares coincide com a definição anterior. Isso implica que em sistemas lineares o comportamento global do sistema pode ser estudado a partir do comportamento local, algo que muitas vezes não é possível em sistemas não-lineares devido à presença de um conjunto enumerável de equilíbrios.

Ver também

Bibliografia

  • S. Rinaldi e C. Piccardi. I sistemi lineari: teoria, modelli, applicazioni. CittàStudi Edizioni, 1998. Predefinição:ISBN

Predefinição:Esboço-matemática