Núcleo (álgebra linear)
Em matemática, mais especificamente em álgebra linear e análise funcional, o núcleo (kernel, em inglês) ou espaço nulo de uma transformação linear L : V → W entre dois espaços vetoriais V e W, é o conjunto de todos os elementos v de V para os quais L(v) = 0, em que 0 denota o vetor nulo de W.[1] Em outras palavras,
Propriedades
[editar | editar código-fonte]O núcleo de L é um subespaço vetorial do domínio V.[2] Para uma transformação linear L : V → W, dois elementos de V têm a mesma imagem em W se, e somente se, a sua diferença reside no núcleo de L: Segue-se que a imagem de L é isomorfa ao quociente de V pelo núcleo: Isto implica o teorema do posto e nulidade: onde, por posto entende-se a dimensão da imagem de L, e por nulidade, a dimensão do núcleo de L.
Quando V é um espaço com produto interno, o quociente V / ker(L) pode ser identificado com o complemento ortogonal de ker(L) em V. Esta é a generalização para operadores lineares do espaço linha, ou coimagem, de uma matriz.
Aplicação aos módulos
[editar | editar código-fonte]A noção de núcleo aplica-se aos homomorfismos de módulos, sendo estes últimos uma generalização dos espaços vetoriais sobre um corpo para um anel. O domínio da função passa a ser um módulo, e o núcleo constitui um "submódulo". Aqui, os conceitos de posto e de nulidade, não se aplicam necessariamente.
Na análise funcional
[editar | editar código-fonte]Se V e W são espaços vetoriais topológicos (e, W é de dimensão finita) então um operador linear L: V → W é contínuo se, e somente se, o núcleo de L é um subespaço fechado de V.
Representação como a multiplicação de matrizes
[editar | editar código-fonte]Considere uma transformação linear representada como uma matriz A de ordem m × n com coeficientes em um corpo K (normalmente o corpo dos números reais ou dos números complexos) e atuando sobre vetores coluna x com n componentes sobre K. O núcleo desta transformação linear é o conjunto de soluções para a equação A x = 0, em que 0 é entendido como o vetor nulo. A dimensão do núcleo de A é chamada de nulidade de A. Em notação de conjuntos, A equação matricial é equivalente a um sistema de equações lineares homogêneas:
Assim, o núcleo de A é o mesmo que o conjunto solução para o sistema homogêneo acima.
Propriedades de subespaço
[editar | editar código-fonte]O núcleo de uma matriz A de ordem m × n sobre um corpo K é um subespaço vetorial de Kn. Isto é, o núcleo de A, o conjunto Ker(A), tem as seguintes três propriedades:
- Ker(A) sempre contém o vetor nulo, uma vez que A0 = 0.
- Se x ∈ Ker(A) e y ∈ Ker(A), então x + y ∈ Ker(A). Isso decorre da distributividade da multiplicação de matrizes sobre a adição.
- Se x ∈ Ker(A) e c ∈ K é um escalar, então cx ∈ Ker(A), uma vez que A(cx) = c(Ax) = c0 = 0.
O espaço linha de uma matriz
[editar | editar código-fonte]O produto Ax pode ser escrito em termos do produto escalar de vetores da seguinte forma: Aqui a1, ... , am indicam as linhas da matriz A. Segue-se que x está no núcleo de A se, e somente se, x é ortogonal (ou perpendicular) a cada um dos vetores linha de A (porque quando o produto escalar de dois vetores é igual a zero, eles são, por definição, ortogonais).
O espaço linha, ou coimagem, de uma matriz A é o espaço gerado pelos vetores linha de A. Pelo raciocínio acima, o núcleo de A é o complemento ortogonal para o espaço linha, ou seja, um vetor x está no núcleo de A se, e somente se, ele é perpendicular a cada vetor no espaço linha de A.
A dimensão do espaço linha de A é chamada de posto de A e a dimensão do núcleo de A é chamada de nulidade de A. Estas grandezas estão relacionadas pelo teorema do posto e da nulidade:
Espaço nulo à esquerda
[editar | editar código-fonte]O espaço nulo à esquerda, ou conúcleo, de uma matriz A consiste de todos os vetores x tais que xTA = 0T, em que T denota a transposição de um vetor coluna. O espaço nulo à esquerda de A é o mesmo que o núcleo de AT. O espaço nulo à esquerda de A é o complemento ortogonal do espaço de coluna de A, e é dual do conúcleo da transformação linear associada. O núcleo, o espaço linha, o espaço coluna, e o espaço nulo à esquerda de A são os quatro subespaços fundamentais associados à matriz A.
Sistemas de equações lineares não homogêneas
[editar | editar código-fonte]O núcleo também desempenha um papel na solução de um sistema linear não homogêneo:
Se u e v são duas soluções possíveis da equação acima, então,
Assim, a diferença entre duas soluções da equação Ax = b pertence ao núcleo de A.
Disto resulta que qualquer solução da equação Ax = b pode ser expressa como a soma de uma soluço fixa v e um elemento arbitrário do núcleo, isto é, o conjunto solução para a equação Ax = b é
Geometricamente, isto diz que o conjunto solução de Ax = b é a translação do núcleo de A pelo vetor v. Ver também a alternativa de Fredholm e flat (geometria).
Ilustração
[editar | editar código-fonte]Nesta seção, é exemplificado o processo para determinar o núcleo de uma matriz (ver a seção sobre o Cálculo por eliminação gaussiana abaixo para métodos mais adequados para cálculos mais complexos). Também é mencionado o espaço linha e a sua relação com o núcleo.
Considere a matriz O núcleo desta matriz consiste de todos os vetores (x, y, z) ∈ R3 para os quais
o que pode ser expresso como um sistema de equações lineares homogêneas envolvendo x, y, e z:
o que pode ser escrito em forma de matriz, como:
A eliminação de Gauss–Jordan reduz esta matriz a:
Reescrevendo, obtém-se:
Agora podemos expressar um elemento do núcleo: em que c é um escalar.
Como c é uma variável livre, a solução também pode ser expressa como
O núcleo de A é, precisamente, o conjunto de soluções para estas equações (neste caso, uma reta que passa pela origem em R3); o vetor (-1,-26,16)T constitui uma base do núcleo de A. Assim, a nulidade de A é igual a 1.
Note também que os seguintes produtos escalares são nulos:
o que ilustra que os vetores no núcleo de A são ortogonais a cada um dos vetores linha de A.
Esses dois vetores linha (linearmente independentes) geram o espaço linha de A, um plano ortogonal ao vetor (-1,-26,16)T.
Com o posto de A sendo 2, a nulidade de A sendo 1, e a dimensão de A sendo 3, tem-se a ilustração do teorema do posto e da nulidade.
Exemplos
[editar | editar código-fonte]- Se L: Rm → Rn, então o núcleo de L é o conjunto solução de um sistema de equações lineares homogêneas. Como na ilustração acima, se L é o operador:
- então o núcleo de L é o conjunto de soluções das equações
- Seja C[0,1] o espaço vetorial de todas as funções contínuas do intervalo [0,1] a valores reais, e defina L: C[0,1] → R pela regra
- Então o núcleo de L consiste de todas as funções f ∈ C[0,1] para as quais f(0.3) = 0.
- Deixe C∞(R) o espaço vetorial de todas as funções R → R infinitamente diferenciáveis, e seja D: C∞(R) → C∞(R) o operador diferencial:
- Então o núcleo de D consiste de todas as funções em C∞(R) cujas derivadas são nulas, ou seja, o conjunto de todas funções constantes.
- Seja R∞ o produto direto de um número infinito de cópias de R, e seja s: R∞ → R∞ o operador shift
- Então o núcleo de s é o subespaço unidimensional que consiste de todos os vetores (x1, 0, 0, ...).
- Se V é um espaço com produto interno e W é um subespaço, o núcleo da projeção ortogonal de V → W é o complemento ortogonal de W em V.
Cálculo por eliminação gaussiana
[editar | editar código-fonte]Uma base do núcleo de uma matriz pode ser calculada por meio da eliminação de Gauss.
Para este efeito, dada uma matriz A de ordem m × n, pode-se construir a matriz aumentada por linhas em que I é a matriz identidade de ordem n × n.
Calculando-se sua forma escalonada reduzida por colunas através da eliminação de Gauss (ou qualquer outro método apropriado), obtém-se uma matriz Uma base do núcleo de A consiste nas colunas não-nulas de C tais que a coluna correspondente de B é uma coluna nula.
Na verdade, o cálculo também pode ser interrompido assim que a matriz superior estiver na forma escalonada por colunas: o restante do cálculo consiste em alterar a base do espaço vetorial gerado pelas colunas cuja parte superior é zero.
Por exemplo, suponha que Então Colocando-se a parte superior na forma escalonada por colunas por meio de operações sobre as colunas de toda a matriz resulta que
As três últimas colunas de B são nulas. Portanto, os três últimos vetores de C,
formam uma base do núcleo de A.
A demonstração de que o método fornece o núcleo é a seguinte: Como as operações sobre as colunas correspondem a multiplicação à direita por matrizes invertíveis, o fato de que se reduz a significa que existe uma matriz invertível tal que com na forma escalonada por colunas. Assim, e consequentemente Um vetor coluna pertence ao núcleo de (ou seja, ) se, e somente se, onde Como está na forma escalonada por colunas, se, e somente se, as entradas de diferentes de zero correspondem às colunas nulas de Multiplicando por pode-se deduzir que este é o caso se, e somente se, é uma combinação linear das colunas correspondentes de
Cálculo numérico
[editar | editar código-fonte]O problema de calcular o núcleo em um computador depende da natureza dos coeficientes.
Coeficientes exatos
[editar | editar código-fonte]Se os coeficientes da matriz são números exatos, a forma escalonada reduzida por colunas da matriz pode ser calculada pelo algoritmo de Bareiss mais eficientemente do que com a eliminação de Gauss. É ainda mais eficiente usar a aritmética modular e o teorema chinês do resto, que reduz o problema a vários similares sobre corpos finitos (isso evita a sobrecarga induzida pela não-linearidade da complexidade computacional da multiplicação de inteiros). [carece de fontes]
Para coeficientes em um corpo finito, a eliminação de Gauss funciona bem, mas para as matrizes grandes que ocorrem em criptografia e no cálculo de bases de Gröbner, são conhecidos algoritmos melhores, que têm aproximadamente a mesma complexidade computacional, mas são mais rápidos e comportar-se melhor no hardware de computadores modernos. [carece de fontes]
Cálculo em ponto flutuante
[editar | editar código-fonte]Para matrizes cujas entradas são números de ponto flutuante, o problema de calcular o núcleo só faz sentido para matrizes em que o número de linhas é igual ao seu posto: devido aos erros de arredondamento, uma matriz de ponto flutuante quase sempre tem um posto cheio, mesmo quando é uma aproximação de uma matriz com um posto muito menor. Mesmo para uma matriz de posto cheio, só é possível calcular o seu núcleo se ela for bem condicionada, ou seja, se tem um número de condicionamento baixo.[3]
Mesmo para uma matriz de posto completo bem condicionada, a eliminação gaussiana não se comporta corretamente: ela introduz erros de arredondamento que são grandes demais para a obtenção de um resultado significativo. Como o cálculo do núcleo de uma matriz é um caso especial da solução de um sistema homogêneo de equações lineares, o núcleo pode ser calculado por qualquer um dos vários algoritmos projetados para resolver sistemas homogêneos. Um software do estado da arte para esta finalidade é a biblioteca Lapack. [carece de fontes]
Ver também
[editar | editar código-fonte]Notas
[editar | editar código-fonte]- ↑ «Núcleo e Imagem». UFMG. Consultado em 12 de outubro de 2018
- ↑ A Álgebra Linear, como discutida neste artigo, é uma disciplina matemática muito bem estabelecida para a qual há muitas fontes. Praticamente todo o material deste artigo pode ser encontrado em Lay 2005, Meyer 2001, e nas aulas de Strang.
- ↑
Referências
[editar | editar código-fonte]- Axler, Sheldon Jay (1997), Linear Algebra Done Right, ISBN 0-387-98259-0 2nd ed. , Springer-Verlag.
- Lay, David C. (2005), Linear Algebra and Its Applications, ISBN 978-0-321-28713-7 3rd ed. , Addison Wesley.
- Meyer, Carl D. (2001), Matrix Analysis and Applied Linear Algebra, ISBN 978-0-89871-454-8, Society for Industrial and Applied Mathematics (SIAM), cópia arquivada em 31 de outubro de 2009.
- Poole, David (2006), Linear Algebra: A Modern Introduction, ISBN 0-534-99845-3 2nd ed. , Brooks/Cole.
- Anton, Howard (2005), Elementary Linear Algebra (Applications Version) 9th ed. , Wiley International.
- Leon, Steven J. (2006), Linear Algebra With Applications 7th ed. , Pearson Prentice Hall.
- Lang, Serge. Linear Algebra. [S.l.: s.n.] ISBN 9780387964126
- Trefethen, Lloyd N.; Bau, David III (1997), Numerical Linear Algebra, ISBN 978-0-89871-361-9, SIAM.
Ligações externas
[editar | editar código-fonte]- Hazewinkel, Michiel, ed. (2001), «Núcleo (álgebra linear)», Enciclopédia de Matemática, ISBN 978-1-55608-010-4 (em inglês), Springer
- Gilbert Strang, Aula de Álgebra Linear do MIT Sobre Os Quatro Fundamental Subspaces no Google Vídeo, do MIT OpenCourseWare
- A Khan Academy, Introdução para o Espaço Nulo de uma Matriz