Teorema do núcleo e da imagem
Em matemática, mais especificamente em álgebra linear, o teorema do núcleo e da imagem, em sua forma mais simples, afirma que o posto e a nulidade de uma matriz têm como soma o número de colunas da matriz. Especificamente, se A é uma matriz m-por-n (com m linhas e n colunas) sobre um corpo, então: Isto também se aplica a transformações lineares. Sejam V e W espaços vetoriais sobre algum corpo e seja T : V → W uma transformação linear. Então o posto de T é a dimensão da imagem de T e a nulidade de T é a dimensão do núcleo de T. Tem-se: ou, equivalentemente, Pode-se refinar esta afirmação (por meio do lema de splitting ou a prova abaixo) para que seja sobre um isomorfismo de espaços, em vez de apenas sobre as respectivas dimensões.
Mais geralmente, pode-se considerar a imagem, o núcleo, a co-imagem e o co-núcleo, que estão relacionados pelo teorema fundamental da álgebra linear.
Demonstrações
[editar | editar código-fonte]Serão apresentadas duas demonstrações. A primeira utiliza a notação das transformações lineares, mas pode ser facilmente adaptada para matrizes escrevendo T(x) = Ax, onde A é m × n. A segunda prova examina o sistema homogêneo Ax = 0 associado a uma matriz A m × n de posto r e mostra explicitamente que existe um conjunto de n − r soluções linearmente independentes que geram o espaço nulo de A. Essas provas também estão disponíveis no livro de Banerjee e Roy (2014)[1]
Primeira demonstração: Suponha que forma uma base de ker T. Pode-se estender esta base para formar uma base de V: Como a dimensão de ker T é m e a dimensão de V é m + n, é suficiente mostrar que a dimensão da image of T (im T) é n.
Para ver que é uma base de im T, seja v um vetor arbitrário em V. Existe uma única sequência de escalares tais que: Assim, gera im T.
Agora, é preciso mostrar que esta lista não tem redundâncias; isto é, que é linearmente independente. Pode-se fazer isso mostrando que uma combinação linear destes vetores é zero se, e somente se, os coeficientes de cada vetor são zero. Seja: Então, como ui geram ker T, existe um conjunto de escalares di tais que: Mas, como é uma base de V, todos os ci, di devem ser zero. Portanto, é linearmente independente e de fato uma base de im T. Isto prova que a dimensão de im T é n, como desejado.
Em termos mais abstratos, a aplicação T : V → im T cinde.
Segunda demonstração: Seja A uma matriz m × n com r colunas linearmente independentes (isto é o posto de A é r). Será mostrado que: (i) existe um conjunto de n − r soluções linearmente independentes para o sistema homogêneo Ax = 0, e (ii) que toda outra solução é uma combinação linear destas n − r soluções. Em outras palavras, será produzida uma matriz X de ordem n × (n − r) cujas colunas formam uma base do espaço nulo de A.
Sem perda de generalidade, assuma que as primeiras r colunas de A são linearmente independentes. Então, pode-se escrever A = [A1:A2], em que A1 é m × r com r vetores colunas linearmente independentes e A2 é m × (n − r), sendo cada uma de suas n − r colunas combinações lineares das colunas de A1. Isto significa que A2 = A1 B para alguma matriz B (ver fatoração de posto) e, assim, A = [A1:A1B]. Seja em que é a matriz matriz identidade (n − r) × (n − r). Note que X é uma matriz n × (n − r) que satisfaz Portanto, cada uma das n − r colunas de X são soluções particulares de Ax = 0. Além disso, as n − r colunas de X são linearmente independentes, pois Xu = 0 implica u = 0: Portanto, os vetores coluna de X constituem um conjunto de n − r soluções linearmente independentes de Ax = 0.
A seguir será provado que qualquer solução de Ax = 0 tem de ser uma combinação linear das colunas de X. Para isso, seja qualquer vetor tal que Au = 0. Note que como as colunas de A1 são linearmente independentes, A1x = 0 implica x = 0. Portanto, Isso prova que qualquer vetor u que é uma solução de Ax = 0 tem de ser uma combinação linear das n − r soluções especiais dadas pelas colunas de X. E já foi mostrado que as colunas de X são linearmente independentes. Assim, as colunas de X constituem uma base para o espaço nulo de A. Por conseguinte, a nulidade de A é n − r. Como r é igual ao posto de A, segue-se que rk(A) + nul(A) = n. QED.
Reformulações e generalizações
[editar | editar código-fonte]Este teorema é uma instância do primeiro teorema de isomorfismo da álgebra para o caso de espaços vetoriais; ele se generaliza para o splitting lemma.
Em uma linguagem mais moderna, o teorema também pode ser expresso como segue:
- 0 → U → V → R → 0
é uma sequência exata curta de espaços vetoriais, então
- dim(U) + dim(R) = dim(V).
Aqui R desempenha o papel de im T e U é o ker T, isto é No caso de dimensão finita, esta formulação é suscetível a uma generalização: se
- 0 → V1 → V2 → ... → Vr → 0
é uma sequência exata de espaços vetoriais de dimensão finita, então [2] O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita também podem ser formulado em termos do índice de uma transformação linear. O índice de uma transformação linear T : V → W, em que V e W têm dimensão finita, é definido por
- índice T = dim(ker T) − dim(coker T).
Intuitivamente, dim(ker T) é o número de soluções independentes x da equação Tx = 0 e dim(coker T) é o número de restrições independentes que devem ser impostas sobre y que Tx = y tenha solução. O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita é equivalente à afirmação de que
- índice T = dim(V) − dim(W).
Pode-se obter o índice da transformação linear T a partir dos espaços envolvidos, sem a necessidade de se analisar T em detalhe. Este efeito também ocorre em um resultado muito mais profundo: o teorema do índice de Atiyah–Singer afirma que o índice de certos operadores diferenciais pode ser obtido da geometria dos espaços envolvidos.
Notas
[editar | editar código-fonte]- ↑ Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- ↑ Zaman, Ragib. «Dimensions of vector spaces in an exact sequence». Mathematics Stack Exchange. Consultado em 27 de outubro de 2015
Referências
[editar | editar código-fonte]- Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- Meyer, Carl D. (2000), Matrix Analysis and Applied Linear Algebra, ISBN 978-0-89871-454-8, SIAM.