Núcleo (álgebra linear)

Fonte: testwiki
Saltar para a navegação Saltar para a pesquisa

Predefinição:Outrosusos

Em matemática, mais especificamente em álgebra linear e análise funcional, o núcleo (kernel, em inglês) ou espaço nulo de uma transformação linear Predefinição:Nowrap entre dois espaços vetoriais V e W, é o conjunto de todos os elementos v de V para os quais Predefinição:Nowrap, em que 0 denota o vetor nulo de W.[1] Em outras palavras,

ker(L)={𝐯VL(𝐯)=𝟎}.

Propriedades

O núcleo (Ker) e a imagem de uma transformação L.

O núcleo de L é um subespaço vetorial do domínio V.[2] Para uma transformação linear Predefinição:Nowrap, dois elementos de V têm a mesma imagem em W se, e somente se, a sua diferença reside no núcleo de L: L(𝐯1)=L(𝐯2)L(𝐯1𝐯2)=𝟎. Segue-se que a imagem de L é isomorfa ao quociente de V pelo núcleo: im(L)V/ker(L). Predefinição:AnchorIsto implica o teorema do posto e nulidade: dim(kerL)+dim(imL)=dim(V). onde, por posto entende-se a dimensão da imagem de L, e por nulidade, a dimensão do núcleo de L.

Quando V é um espaço com produto interno, o quociente Predefinição:Nowrap pode ser identificado com o complemento ortogonal de ker(L) em V. Esta é a generalização para operadores lineares do espaço linha, ou coimagem, de uma matriz.

Aplicação aos módulos

A noção de núcleo aplica-se aos homomorfismos de módulos, sendo estes últimos uma generalização dos espaços vetoriais sobre um corpo para um anel. O domínio da função passa a ser um módulo, e o núcleo constitui um "submódulo". Aqui, os conceitos de posto e de nulidade, não se aplicam necessariamente.

Na análise funcional

Se V e W são espaços vetoriais topológicos (e, W é de dimensão finita) então um operador linear L: VW é contínuo se, e somente se, o núcleo de L é um subespaço fechado de V.

Representação como a multiplicação de matrizes

Considere uma transformação linear representada como uma matriz A de ordem m × n com coeficientes em um corpo K (normalmente o corpo dos números reais ou dos números complexos) e atuando sobre vetores coluna x com n componentes sobre K. O núcleo desta transformação linear é o conjunto de soluções para a equação Predefinição:Nowrap, em que 0 é entendido como o vetor nulo. A dimensão do núcleo de A é chamada de nulidade de A. Em notação de conjuntos, N(A)=Null(A)=ker(A)={𝐱Kn|A𝐱=𝟎}. A equação matricial é equivalente a um sistema de equações lineares homogêneas:

A𝐱=𝟎a11x1+a12x2++a1nxn=0a21x1+a22x2++a2nxn=0am1x1+am2x2++amnxn=0.

Assim, o núcleo de A é o mesmo que o conjunto solução para o sistema homogêneo acima.

Propriedades de subespaço

O núcleo de uma matriz A de ordem Predefinição:Nowrap sobre um corpo K é um subespaço vetorial de Kn. Isto é, o núcleo de A, o conjunto Ker(A), tem as seguintes três propriedades:

  1. Ker(A) sempre contém o vetor nulo, uma vez que Predefinição:Nowrap.
  2. Se Predefinição:Nowrap e Predefinição:Nowrap, então Predefinição:Nowrap. Isso decorre da distributividade da multiplicação de matrizes sobre a adição.
  3. Se Predefinição:Nowrap e Predefinição:Nowrap é um escalar, então Predefinição:Nowrap, uma vez que Predefinição:Nowrap.

O espaço linha de uma matriz

O produto Ax pode ser escrito em termos do produto escalar de vetores da seguinte forma: A𝐱=[𝐚1𝐱𝐚2𝐱𝐚m𝐱]. Aqui a1, ... , am indicam as linhas da matriz A. Segue-se que x está no núcleo de A se, e somente se, x é ortogonal (ou perpendicular) a cada um dos vetores linha de A (porque quando o produto escalar de dois vetores é igual a zero, eles são, por definição, ortogonais).

O espaço linha, ou coimagem, de uma matriz A é o espaço gerado pelos vetores linha de A. Pelo raciocínio acima, o núcleo de A é o complemento ortogonal para o espaço linha, ou seja, um vetor x está no núcleo de A se, e somente se, ele é perpendicular a cada vetor no espaço linha de A.

A dimensão do espaço linha de A é chamada de posto de A e a dimensão do núcleo de A é chamada de nulidade de A. Estas grandezas estão relacionadas pelo teorema do posto e da nulidade: rank(A)+nullity(A)=n.

Espaço nulo à esquerda

O espaço nulo à esquerda, ou conúcleo, de uma matriz A consiste de todos os vetores x tais que xTA = 0T, em que T denota a transposição de um vetor coluna. O espaço nulo à esquerda de A é o mesmo que o núcleo de AT. O espaço nulo à esquerda de A é o complemento ortogonal do espaço de coluna de A, e é dual do conúcleo da transformação linear associada. O núcleo, o espaço linha, o espaço coluna, e o espaço nulo à esquerda de A são os quatro subespaços fundamentais associados à matriz A.

Sistemas de equações lineares não homogêneas

O núcleo também desempenha um papel na solução de um sistema linear não homogêneo:

A𝐱=𝐛ora11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm

Se u e v são duas soluções possíveis da equação acima, então,

A(𝐮𝐯)=A𝐮A𝐯=𝐛𝐛=𝟎

Assim, a diferença entre duas soluções da equação Ax = b pertence ao núcleo de A.

Disto resulta que qualquer solução da equação Ax = b pode ser expressa como a soma de uma soluço fixa v e um elemento arbitrário do núcleo, isto é, o conjunto solução para a equação Ax = b é

{𝐯+𝐱A𝐯=𝐛𝐱Null(A)},

Geometricamente, isto diz que o conjunto solução de Ax = b é a translação do núcleo de A pelo vetor v. Ver também a alternativa de Fredholm e flat (geometria).

Ilustração

Nesta seção, é exemplificado o processo para determinar o núcleo de uma matriz (ver a seção sobre o Cálculo por eliminação gaussiana abaixo para métodos mais adequados para cálculos mais complexos). Também é mencionado o espaço linha e a sua relação com o núcleo.

Considere a matriz A=[235423]. O núcleo desta matriz consiste de todos os vetores (x, y, z) ∈ R3 para os quais

[235423][xyz]=[00],

o que pode ser expresso como um sistema de equações lineares homogêneas envolvendo x, y, e z:

2x+3y+5z=0,4x+2y+3z=0,

o que pode ser escrito em forma de matriz, como: [23504230].

A eliminação de Gauss–Jordan reduz esta matriz a: [101/1600113/80].

Reescrevendo, obtém-se: x=116zy=138z.

Agora podemos expressar um elemento do núcleo: [xyz]=c[1/1613/81]. em que c é um escalar.

Como c é uma variável livre, a solução também pode ser expressa como [xyz]=c[12616].

O núcleo de A é, precisamente, o conjunto de soluções para estas equações (neste caso, uma reta que passa pela origem em R3); o vetor (-1,-26,16)T constitui uma base do núcleo de A. Assim, a nulidade de A é igual a 1.

Note também que os seguintes produtos escalares são nulos:

[235][12616]=0and[423][12616]=0,

o que ilustra que os vetores no núcleo de A são ortogonais a cada um dos vetores linha de A.

Esses dois vetores linha (linearmente independentes) geram o espaço linha de A, um plano ortogonal ao vetor (-1,-26,16)T.

Com o posto de A sendo 2, a nulidade de A sendo 1, e a dimensão de A sendo 3, tem-se a ilustração do teorema do posto e da nulidade.

Exemplos

  • Se L: RmRn, então o núcleo de L é o conjunto solução de um sistema de equações lineares homogêneas. Como na ilustração acima, se L é o operador:

L(x1,x2,x3)=(2x1+3x2+5x3,4x1+2x2+3x3)

então o núcleo de L é o conjunto de soluções das equações

2x1+3x2+5x3=04x1+2x2+3x3=0

  • Seja C[0,1] o espaço vetorial de todas as funções contínuas do intervalo [0,1] a valores reais, e defina L: C[0,1] → R pela regra

L(f)=f(0.3).

Então o núcleo de L consiste de todas as funções fC[0,1] para as quais f(0.3) = 0.
  • Deixe C(R) o espaço vetorial de todas as funções RR infinitamente diferenciáveis, e seja D: C(R) → C(R) o operador diferencial:

D(f)=dfdx.

Então o núcleo de D consiste de todas as funções em C(R) cujas derivadas são nulas, ou seja, o conjunto de todas funções constantes.
  • Seja R o produto direto de um número infinito de cópias de R, e seja s: RR o operador shift

s(x1,x2,x3,x4,)=(x2,x3,x4,).

Então o núcleo de s é o subespaço unidimensional que consiste de todos os vetores (x1, 0, 0, ...).
  • Se V é um espaço com produto interno e W é um subespaço, o núcleo da projeção ortogonal de VW é o complemento ortogonal de W em V.

Cálculo por eliminação gaussiana

Uma base do núcleo de uma matriz pode ser calculada por meio da eliminação de Gauss.

Para este efeito, dada uma matriz A de ordem m × n, pode-se construir a matriz aumentada por linhas [AI], em que Predefinição:Math é a matriz identidade de ordem n × n.

Calculando-se sua forma escalonada reduzida por colunas através da eliminação de Gauss (ou qualquer outro método apropriado), obtém-se uma matriz [BC]. Uma base do núcleo de A consiste nas colunas não-nulas de C tais que a coluna correspondente de B é uma coluna nula.

Na verdade, o cálculo também pode ser interrompido assim que a matriz superior estiver na forma escalonada por colunas: o restante do cálculo consiste em alterar a base do espaço vetorial gerado pelas colunas cuja parte superior é zero.

Por exemplo, suponha que A=[103028015014000179000000]. Então [AI]=[103028015014000179000000100000010000001000000100000010000001]. Colocando-se a parte superior na forma escalonada por colunas por meio de operações sobre as colunas de toda a matriz resulta que [BC]=[100000010000001000000000100328010514000100001079000010000001].

As três últimas colunas de B são nulas. Portanto, os três últimos vetores de C,

[351000],[210710],[840901]

formam uma base do núcleo de A.

A demonstração de que o método fornece o núcleo é a seguinte: Como as operações sobre as colunas correspondem a multiplicação à direita por matrizes invertíveis, o fato de que [AI] se reduz a [BC] significa que existe uma matriz invertível P tal que [AI]P=[BC], com B na forma escalonada por colunas. Assim, AP=B, IP=C, e consequentemente AC=B. Um vetor coluna v pertence ao núcleo de A (ou seja, Av=0) se, e somente se, Bw=0, onde w=P1v=C1v. Como B está na forma escalonada por colunas, Bw=0, se, e somente se, as entradas de wdiferentes de zero correspondem às colunas nulas de B. Multiplicando por Cpode-se deduzir que este é o caso se, e somente se, v=Cw é uma combinação linear das colunas correspondentes de C.

Cálculo numérico

O problema de calcular o núcleo em um computador depende da natureza dos coeficientes.

Coeficientes exatos

Se os coeficientes da matriz são números exatos, a forma escalonada reduzida por colunas da matriz pode ser calculada pelo algoritmo de Bareiss mais eficientemente do que com a eliminação de Gauss. É ainda mais eficiente usar a aritmética modular e o teorema chinês do resto, que reduz o problema a vários similares sobre corpos finitos (isso evita a sobrecarga induzida pela não-linearidade da complexidade computacional da multiplicação de inteiros). Predefinição:Carece de fontes

Para coeficientes em um corpo finito, a eliminação de Gauss funciona bem, mas para as matrizes grandes que ocorrem em criptografia e no cálculo de bases de Gröbner, são conhecidos algoritmos melhores, que têm aproximadamente a mesma complexidade computacional, mas são mais rápidos e comportar-se melhor no hardware de computadores modernos. Predefinição:Carece de fontes

Cálculo em ponto flutuante

Para matrizes cujas entradas são números de ponto flutuante, o problema de calcular o núcleo só faz sentido para matrizes em que o número de linhas é igual ao seu posto: devido aos erros de arredondamento, uma matriz de ponto flutuante quase sempre tem um posto cheio, mesmo quando é uma aproximação de uma matriz com um posto muito menor. Mesmo para uma matriz de posto cheio, só é possível calcular o seu núcleo se ela for bem condicionada, ou seja, se tem um número de condicionamento baixo.[3]

Mesmo para uma matriz de posto completo bem condicionada, a eliminação gaussiana não se comporta corretamente: ela introduz erros de arredondamento que são grandes demais para a obtenção de um resultado significativo. Como o cálculo do núcleo de uma matriz é um caso especial da solução de um sistema homogêneo de equações lineares, o núcleo pode ser calculado por qualquer um dos vários algoritmos projetados para resolver sistemas homogêneos. Um software do estado da arte para esta finalidade é a biblioteca Lapack. Predefinição:Carece de fontes

Ver também

Predefinição:Div col

Predefinição:-fim

Notas

  1. Predefinição:Citar web
  2. A Álgebra Linear, como discutida neste artigo, é uma disciplina matemática muito bem estabelecida para a qual há muitas fontes. Praticamente todo o material deste artigo pode ser encontrado em Predefinição:Harvnb, Predefinição:Harvnb, e nas aulas de Strang.

Referências

Ligações externas

Predefinição:Álgebra linear Predefinição:Portal3