Condições de Karush-Kuhn-Tucker

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Em otimização, as Condições de Karush-Kuhn-Tucker (também conhecidas como Condições de Kuhn-Tucker ou condições KKT) são condições de primeira ordem para que uma solução de um problema de programação não linear seja ótima, desde que valham condições chamadas de condições de qualificação ou, em inglês, constraint qualifications. Permitindo restrições de desigualdade, as condições KKT generalizam, na programação não linear, o método de multiplicadores de Lagrange, que permite somente restrições de igualdade. O sistema de equações e inequações correspondente às condições KKT em geral não é resolvido diretamente, exceto em alguns casos especiais onde uma solução pode ser obtida analiticamente. Nos demais casos, diversos algoritmos de otimização podem ser usados para resolver numericamente o sistema.

As condições KKT foram originalmente nomeadas após Harold W. Kuhn e Albert W. Tucker, que primeiro publicaram essas condições em 1951.[1] Porém, estudiosos posteriores descobriram que as condições necessárias para esse problema já haviam sido ditadas por William Karush em sua tese de mestrado em 1939.[2][3]

O problema

Seja o seguinte problema de otimização não-linear (também conhecido como PNL):

(PNL){min\limits xf(x)sujeito agi(x)0hj(x)=0

onde

xn é a variável de otimização,
f(x) é a função a ser minimizada (chamada também de função objetivo),
gi(x), com i=1,2,...,m são as restrições de desigualdade,
hj(x), com j=1,2,...,l são restrições de igualdade,

sendo m e l as quantidades de restrições de desigualdade e igualdade, respectivamente.

Condições necessárias

Seja um PNL definido como na seção acima. Seja também o operador Lagrangeano L:n×m×l definido como:

L(x,μ,λ)=f(x)+i=1mμigi(x)+j=1lλjhj(x)

Suponha que a função objetivo f:n e as restrições gi:n e hj:n sejam continuamente diferenciáveis em um ponto x*.

Se x* é um mínimo local para f e o PNL satisfaz algumas condições de regularidade então existem constantes μi com i=1,2,...,m e λj com j=1,2,...,l, chamadas de multiplicadores KKT tais que[4]:

Estacionariedade

f(x*)+i=1mμigi(x*)+j=1lλjhj(x*)=0 [Demonstração 1][5]

Folga complementar

μigi(x*)=0 para todo i=1,2,...,m [Demonstração 2][5]

Viabilidade primal

gi(x*)0 para todo i=1,2,...,m
hj(x*)=0 para todo j=1,2,...,l[5]

Viabilidade dual

μi0 para todo i=1,2,...,m[5]

As restrições gi(x) em que gi(x*)=0 são chamadas restrições ativas em x*.

No caso particular em que m=0, isto é, não há nenhuma restrição de desigualdade, as condições KKT se transformam nas condições de Lagrange e os multiplicadores KKT são chamados multiplicadores de Lagrange.

Se algumas das funções não são diferenciáveis, versões subdiferenciáveis das condições KKT estão disponíveis.[6]

Condições suficientes

Em alguns casos, as condições necessárias são também suficientes para otimalidade, mas em geral, isso não ocorre e informações adicionais são necessárias, como as condições suficientes de segunda ordem. Para funções suaves, essas condições envolvem as segundas derivadas, o que explica seu nome.

As condições necessárias são suficientes para otimalidade se a função objetivo f de um problema de maximização é uma função côncava, as restrições de desigualdade gj são funções convexas continuamente diferenciáveis e as restrições de igualdade hi são funções afim.

H.D. Martin provou em 1985 que a ampla classe de funções em que as condições KKT garantem a otimalidade global é chamada funções invexas tipo 1.[7][8]

Condições suficientes de segunda ordem

Para problemas não-lineares suaves, uma condição suficiente de segunda ordem é dada como segue:

Considere x*, λ*, ρ* que achem um mínimo local usando as condições KKT. Com ρ* tal que a complementaridade estrita é mantida em x* (i.e. todo ρi>0), então para todo s0 tal que

[δg(x*)δx,δh(x*)δx]Ts=0

A seguinte equação deve se manter: sxx2L(x*,λ*,ρ*)s0

Se a condição acima é satisfeita estritamente, a função é estritamente restrita a um mínimo local.

Demonstrações

  1. Se x* é um minimizador local para f (e consequentemente para L), então o gradiente de L deve ser nulo em x*. Isto é:
    L(x*,μ,λ)=0
    f(x*)+i=1mμigi(x*)+j=1lλjhj(x*)=0
  2. Com as suposições e resultados da primeira condição de KKT obtém-se que:
    • f(x*)=0 (o gradiente da função objetivo no mínimo local é nulo) e;
    • j=1lλjhj(x*)=0 (por conta da viabilidade primal).
    Portanto:
    • f(x*)+i=1mμigi(x*)+j=1lλjhj(x*)=0i=1mμigi(x*)=0
    Como gi(x*)0 e μi0 (viabilidade dual), μigi(x*)0 para todo i=1,2,...,m.
    Logo, j=1lλjhj(x*)=0 só é verdadeiro se μigi(x*)=0 para todo i=1,2,...,m.

Referências

Predefinição:Reflist