domingo, 1 de junio de 2014

MATRICES

En matemática, una matriz es un arreglo bidimensional de números, y en su mayor generalidad de elementos de un anillo. Las matrices se usan generalmente para describirsistemas de ecuaciones linealessistemas de ecuaciones diferenciales o representar una aplicación lineal (dada una base). Las matrices se describen en el campo de la teoría de matrices.
Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para representar los coeficientes de los sistemas de ecuaciones lineales o para representar lasaplicaciones lineales; en este último caso las matrices desempeñan el mismo papel que los datos de un vector para las aplicaciones lineales.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el campo del álgebra lineal.

Definiciones y notacioneS

Una matriz es un arreglo bidimensional de números (llamados entradas de la matriz) ordenados en filas (o renglones) y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con n filas y m columnas se le denomina matriz n-por-m (escrito n\times m) donde n,m\in \mathbb{N}-\{0\}. El conjunto de las matrices de tamaño n\times m se representa como \mathcal{M}_{n\times m}(\mathbb{K}), donde \mathbb{K} es el campo al cual pertenecen las entradas. El tamaño de una matriz siempre se da con el número de filas primero y el número de columnas después. Dos matrices se dice que son iguales si tienen el mismo tamaño y los mismos elementos en las mismas posiciones.
A la entrada de una matriz que se encuentra en la fila i-\,\!ésima y la columna j-\,\!ésima se le llama entrada i,j\,\! o entrada (i,j)\,\!-ésimo de la matriz. En estas expresiones también se consideran primero las filas y después las columnas.
Casi siempre se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en minúsculas para denotar las entradas de las mismas. Por ejemplo, al elemento de una matriz A de tamaño n\times m que se encuentra en la fila i-\,\!ésima y la columna j-\,\!ésima se le denota como a_{ij}\,\!, donde 1\leq i\leq n y 1\leq j\leq m. Cuando se va a representar explícitamente una entrada la cuál está indexada con un i\,\! o un j\,\! con dos cifras se introduce una coma entre el índice de filas y de columnas. Así por ejemplo, la entrada que está en la primera fila y la segunda columna de la matriz A\,\! de tamaño 50\times 100 se representa como a_{1,2}\,\! mientras que la entrada que está en la fila número 23 y la columna 100 se representa como a_{23,100}\,\!.
Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros objetos matemáticos. Así \mathbf{A} es una matriz, mientras que A\,\! es un escalar en esa notación. Sin embargo ésta notación generalmente se deja para libros y publicaciones, donde es posible hacer ésta distinción tipográfica con facilidad. En otras notaciones se considera que el contexto es lo suficientemente claro como para no usar negritas.
Otra notación, en si un abuso de notación, representa a la matriz por sus entradas, i.e. A:=(a_{ij})\,\! o incluso A:=a_{ij}\,\!.
Otra definición, muy usada en la solución de sistemas de ecuaciones lineales, es la de vectores fila y vectores columna. Un vector fila o vector renglón es cualquier matriz de tamaño 1\times n mientras que un vector columna es cualquier matriz de tamaño m\times 1.
A las matrices que tienen el mismo número de filas que de columnas, m=n\,\!, se les llama matrices cuadradas y el conjunto se denota \mathcal{M}_{n\times n}(\mathbb{K}) o alternativamente \mathcal{M}_{n}(\mathbb{K}).

Ejemplo

Dada la matriz A\in\mathcal{M}_{4\times 3}(\mathbb{R})

   A =
   \begin{bmatrix}
      1 & 2 & 3 \\
      1 & 2 & 7 \\
      4 & 9 & 2 \\
      6 & 0 & 5
   \end{bmatrix}
es una matriz de tamaño 4\times 3. La entrada a_{23}\,\! es 7.
La matriz R\in\mathcal{M}_{1\times 9}(\mathbb{R})

   R =
   \begin{bmatrix}
    1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9
   \end{bmatrix}
es una matriz de tamaño 1\times 9: un vector fila con 9 entradas.

Operaciones básicaS

Las operaciones que se pueden hacer con matrices provienen de sus aplicaciones, sobre todo de las aplicaciones en álgebra lineal. De ese modo las operaciones, o su forma muy particular de ser implementadas, no son únicas.

Suma o adicióN

Sean A,B\in\mathcal{M}_{n\times m}(\mathbb{K}). Se define la operación de suma o adición de matrices como una operación binaria +:\mathcal{M}_{n\times m}(\mathbb{K})\times\mathcal{M}_{n\times m}(\mathbb{K})\longrightarrow\mathcal{M}_{n\times m}(\mathbb{K}) tal que (A,B)\mapsto C=A+B y donde c_{ij}=a_{ij}+b_{ij}\,\! en el que la operación de suma en la última expresión es la operación binaria correspondiente pero en el campo \mathbb{K}. Por ejemplo, la entrada c_{12}\,\! es igual a la suma de los elementos a_{12}\,\! y b_{12}\,\! lo cual es a_{12}+b_{12}\,\!.
Veamos un ejemplo más explícito. Sea A,B\in\mathcal{M}_{3}(\mathbb{R})

  \begin{bmatrix}
    1 & 3 & 2 \\
    1 & 0 & 0 \\
    1 & 2 & 2
  \end{bmatrix}
  +
  \begin{bmatrix}
    1 & 0 & 5 \\
    7 & 5 & 0 \\
    2 & 1 & 1
  \end{bmatrix}
  =
  \begin{bmatrix}
    1+1 & 3+0 & 2+5 \\
    1+7 & 0+5 & 0+0 \\
    1+2 & 2+1 & 2+1
  \end{bmatrix}
  =
  \begin{bmatrix}
    2 & 3 & 7 \\
    8 & 5 & 0 \\
    3 & 3 & 3
  \end{bmatrix}
No es necesario que las matrices sean cuadradas:

\begin{bmatrix}  2 & 2 & 1 \\  3 & 2 & 1 \\  2 & 3 & 2 \\  2 & 0 & 4 \end{bmatrix} 
\quad + \quad  \begin{bmatrix}  0 & 1 & 4 \\  1 & 4 & 0 \\  2 & 1 & 1 \\  0 & 2 & 2 \end{bmatrix} 
 \quad = \quad  
\begin{bmatrix}  2 & 3 & 5 \\  4 & 6 & 1 \\  4 & 4 & 3 \\  2 & 2 & 6 \end{bmatrix}
A la luz de éstos ejemplos es inmediato ver que dos matrices se pueden sumar solamente si ambas tienen el mismo tamaño. La suma de matrices en el caso de que las entradas estén en un campo serán la asociatividad, la conmutatividad, existencia de elemento neutro aditivo y existencia de inverso aditivo. Ésto es así ya que éstas son propiedades de los campos en los que están las entradas de la matriz. A continuación se presentan las propiedades.

Propiedades

Sean A,B,C\in\mathcal{M}_{n\times m}(\mathbb{K}), donde \mathbb{K} es un campo entonces se cumplen las siguientes propiedades para la operación binaria +
  • Asociatividad

 (A+B)+C=A+(B+C)\,\!
Demostración. Dada la definición de la operación binaria +\,\! se sigue el resultado ya que (a_{ij}+b_{ij})+c_{ij}=a_{ij}+(b_{ij}+c_{ij})\,\! debido a que a_{ij},b_{ij},c_{ij}\in\mathbb{K} para todo i,j\,\!.
  • Conmutatividad

 (A+B)=(B+A)\,\!
Demostración Dada la definición de la operación binaria +\,\! se sigue el resultado ya que a_{ij}+b_{ij}=b_{ij}+a_{ij}\,\! debido a que a_{ij},b_{ij}\in\mathbb{K} para todo i,j\,\!.
  • Existencia del elemento neutro aditivo
Existe 0\in\mathcal{M}_{n\times m}(\mathbb{K}) tal que

 A+0=0+A=A\,\!
Demostración Tómese 0\in\mathcal{M}_{n\times m}(\mathbb{K}) tal que 0_{ij}=0_{\mathbb{K}}\in\mathbb{K} para cualquier i,j\,\! (dónde este último es el elemento neutro aditivo en el campo, el cual existe necesariamente). Entonces para cualquier A\in\mathcal{M}_{n\times m}(\mathbb{K}) se sigue que A+0=A\,\! ya que a_{ij}+0_{ij}=a_{ij}+0_{\mathbb{K}}=a_{ij} para cualquier i,j\,\!, dado que las entradas están en un campo.
  • Existencia del inverso aditivo
Existe D\in\mathcal{M}_{n\times m}(\mathbb{K}) tal que

 A+D=0\,\!
a esta matriz D\,\! se le denota por -A\,\!.
Demostración Dada A\in\mathcal{M}_{n\times m}(\mathbb{K}) tómese D\in\mathcal{M}_{n\times m}(\mathbb{K}) tal que A+D=0\,\!. Entonces a_{ij}+d_{ij}=0_{ij}=0_{\mathbb{K}}; luego, por las propiedades de campo d_{ij}=-a_{ij}\,\! donde -a_{ij}\,\! es el inverso aditivo de a_{ij}\,\! en el campo para cualquier i,j\,\!.

En efecto, éstas propiedades dependen el conjunto en el que estén las entradas, como se ha dicho antes, aunque en las aplicaciones generalmente los campos usados son \mathbb{R}(los números reales) y \mathbb{C} (los números complejos).
Por como se definió la operación binaria adición se dice que ésta operación es una operación interna por lo que se cumple intrínsecamente la propiedad de que \mathcal{M}_{n\times m}(\mathbb{K}) es cerrado bajo adición. Con éstas propiedades se tiene que (\mathcal{M}_{n\times m}(\mathbb{K}),+) es un grupo abeliano.
En el caso en que el conjunto al que pertenecen las entradas de la matriz sea un anillo (A,+_{A},\cdot_{A}), la operación de adición de matrices continúa dotando de estructura degrupo abeliano a (\mathcal{M}_{n\times m}(A),+), ya que bajo un anillo (A,+_{A},\cdot_{A}) se tiene que (A,+_{A})\,\! es un grupo abeliano. En el caso de que las entradas estén en un grupo (G,+_{G})\,\!, éste necesita ser un grupo abeliano para que la adición de matrices siga dotando de estructura de grupo abeliano a (\mathcal{M}_{n\times m}(G),+).

Producto por un escalar

Sean A\in\mathcal{M}_{n\times m}(\mathbb{K}) y \lambda\in\mathbb{K}. Se define la operación de producto por un escalar como una función \mathbb{K}\times\mathcal{M}_{n\times m}(\mathbb{K})\longrightarrow\mathcal{M}_{n\times m}(\mathbb{K}) tal que (\lambda,A)\mapsto B=\lambda A y donde b_{ij}=\lambda a_{ij}\,\! en donde el producto es la operación binaria correspondiente pero en el campo \mathbb{K}. Por ejemplo, la entrada b_{12}\,\! es igual al producto\lambda a_{12}\,\!.
Veamos un ejemplo más explícito. Sea A\in\mathcal{M}_{2\times 3}(\mathbb{R}) y 2\in\mathbb{R}

  2
  \begin{bmatrix}
    1 &  8 & -3 \\
    4 & -2 & 6
  \end{bmatrix}
  =
  \begin{bmatrix}
    2(1) & 2(8) & 2(-3) \\
    2(4) & 2(-2) & 2(6)
  \end{bmatrix}
  =
  \begin{bmatrix}
    2 & 16 & -6 \\
    8 & -4 & 12
  \end{bmatrix}
También es inmediato observar que el producto por un escalar da como resultado una matriz del mismo tamaño que la original. También el producto por un escalar dependerá de la estructura algebraica en la que las entradas están. En el caso de que estén en un campo serán dos distributividades (una respecto de suma de matrices y otra respecto de suma en el campo), asociatividad y una propiedad concerniente al producto por el elemento neutro multiplicativo del campo. A continuación se presentan las propiedades.

Propiedades

Sean A,B\in\mathcal{M}_{n\times m}(\mathbb{K}) y \lambda,\mu\in\mathbb{K}, donde \mathbb{K} es un campo, entonces se cumplen las siguientes propiedades para la operación producto por un escalar
  • Asociatividad

 (\lambda\mu)A=\lambda(\mu A)\,\!
Demostración. Dada la definición de la operación se sigue el resultado ya que (\lambda\mu)a_{ij}=\lambda(\mu a_{ij})\,\! debido a que a_{ij}\in\mathbb{K} para todo i,j\,\!.
  • Distributividad respecto de la suma de matrices

 \lambda(A+B)=\lambda A+\lambda B\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que \lambda(a_{ij}+b_{ij})=\lambda a_{ij}+\lambda b_{ij}\,\! debido a que a_{ij},b_{ij}\in\mathbb{K} para todo i,j\,\!.
  • Distributividad respecto de la suma en el campo

 (\lambda+\mu)A=\lambda A+\mu A\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que (\lambda+\mu)a_{ij}=\lambda a_{ij}+\mu a_{ij}\,\! debido a que a_{ij}\in\mathbb{K} para todo i,j\,\!.
  • Producto por el neutro multiplicativo del campo

 1_{\mathbb{K}}A=A\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que 1_{\mathbb{K}}(a_{ij})=a_{ij} debido a que a_{ij}\in\mathbb{K} para todo i,j\,\!.

Por como se definió la operación de producto por escalares se dice que \mathcal{M}_{n\times m}(\mathbb{K}) es cerrado bajo producto por escalares. Con éstas propiedades y las de la adición se tiene que \mathcal{M}_{n\times m}(\mathbb{K}) es un espacio vectorial con las operaciones de suma y producto por escalares definidas antes.
En el caso de que las entradas y los escalares no estén en un campo sino en un anillo entonces no necesariamente existe el neutro multiplicativo. En caso de que exista, con lo cual el anillo es un anillo con uno, se dice que \mathcal{M}_{n\times m}(A) es un módulo sobre A\,\!.

Ahora, a partir de las propiedades básicas se puede demostrar inmediatamente que

 \lambda 0=0\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que c_{ij}=\lambda(0_{ij})=\lambda(0_{\mathbb{K}})=0_{\mathbb{K}} para todo i,j\,\!.

 0_{\mathbb{K}}A=0
Demostración Dada la definición de la operación se sigue el resultado ya que c_{ij}=0_{\mathbb{K}}(a_{ij})=0_{\mathbb{K}} para todo i,j\,\! debido a que a_{ij}\in\mathbb{K} para todo i,j\,\!.

 \lambda A=0\longrightarrow \lambda=0_{\mathbb{K}}\text{ o }A=0
Demostración Dada la definición de la operación se sigue el resultado ya que como en un campo no hay divisores de cero entonces \lambda(a_{ij})=0_{\mathbb{K}} para todo i,j\,\! implica que \lambda=0_{\mathbb{K}} o a_{ij}=0_{\mathbb{K}}para todo i,j\,\!, i.e. A=0\,\!. No es posible un caso en el que sólo algunas entradas de la matriz sean cero y el escalar sea no nulo ya que en esos casos estaríamos diciendo que hay divisores de cero y llegaríamos a una contradicción, ya que la suposición es que las entradas y los escalares están en un campo.

 (-\lambda)A=\lambda(-A)\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que (-\lambda)(a_{ij})=(-1_{\mathbb{K}}(\lambda))a_{ij}=(\lambda(-1_{\mathbb{K}}))a_{ij}=\lambda(-1_{\mathbb{K}}(a_{ij}))=\lambda(-a_{ij}) debido a que a_{ij}\in\mathbb{K} para todo i,j\,\!.
Este último resultado permite usar la notación -\lambda A\,\! sin riesgo de ambigüedad.

Producto


Diagrama esquemático que ilustra el producto de dos matrices A\,\! y B\,\! dando como resultado la matriz AB\,\!.
El producto de matrices se define de una manera muy peculiar y hasta caprichosa cuando no se conoce su origen. El origen proviene del papel de las matrices como representaciones de aplicaciones lineales. Así el producto de matrices, como se define, proviene de la composición de aplicaciones lineales. En este contexto, el tamaño de la matriz corresponde con las dimensiones de los espacios vectorialesentre los cuales se establece la aplicación lineal. De ese modo el producto de matrices, representa la composición de aplicaciones lineales.
En efecto, en ciertas bases tenemos que f:V\longrightarrow W se puede representar como f(x)=Ax\,\! donde x\,\! es la representación de un vector de V\,\! en la base que se ha elegido para V\,\! en forma de vector columna. Si tenemos dos aplicaciones lineales f:V\longrightarrow W y g:W\longrightarrow U entonces f(x)=Bx\,\! y g(x)=Ax\,\!, luego la aplicación g\circ f:V\longrightarrow U se representará como g\circ f(x)=g(f(x))=g(Bx)=ABx donde AB\,\! es el producto de las representaciones matriciales de f,g\,\!. Nótese que la composición no se puede dar entre cualquier aplicación sino entre aplicaciones que vayan de V\rightarrow W\rightarrow U\,\!, en particular debe de haber una relación entre las dimensiones de los espacios vectoriales. Una vez dicho ésto podemos definir el producto de la siguiente manera.
Sean A\in\mathcal{M}_{n\times m}(\mathbb{K}) y B\in\mathcal{M}_{m\times p}(\mathbb{K}). Se define el producto de matrices como una función \mathcal{M}_{n\times m}(\mathbb{K})\times\mathcal{M}_{m\times p}(\mathbb{K})\longrightarrow \mathcal{M}_{n\times p}(\mathbb{K}) tal que (A,B)\mapsto C=AB y donde c_{ij}=\sum_{k=1}^{m}a_{ik}b_{kj} para toda i,j\,\!, es decir c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+a_{i3}b_{3j}+\dots+a_{im}b_{mj}\,\!. Por ejemplo, la entrada c_{12}=a_{11}b_{12}+a_{12}b_{22}+a_{13}b_{2j}+\dots+a_{1m}b_{m2}.
Veamos un ejemplo más explícito. Sean A\in\mathcal{M}_{2\times 3}(\mathbb{R}) y B\in\mathcal{M}_{3\times 2}(\mathbb{R})

 \begin{bmatrix}
    1 & 0 & 2 \\
    -1 & 3 & 1
  \end{bmatrix}
  \begin{bmatrix}
    3 & 1 \\
    2 & 1 \\
    1 & 0
  \end{bmatrix}
=
  \begin{bmatrix}
     1(3)+0(2)+2(1) & 1(1)+0(1)+2(0) \\
    -1(3)+3(2)+1(1) & -1(1)+3(1)+1(0) \\
  \end{bmatrix}
=
  \begin{bmatrix}
    5 & 1 \\
    4 & 2 \\
  \end{bmatrix}
dónde la matriz producto es como habíamos establecido en la definición: una matriz C\in\mathcal{M}_{2\times 2}(\mathbb{R}).
Sin tomar en cuenta la motivación que viene desde las aplicaciones lineales, es evidente ver que si ignoramos la definición de la función de producto de matrices y sólo se toma en cuenta la definición de las entradas, el producto no estará bien definido, ya que si A\,\! no tiene el mismo número de columnas que B\,\! de filas entonces no podremos establecer en donde acaba la suma: si la acabamos en el mayor de éstos números habrá sumandos que no están definidos ya que una de las matrices no tendrá mas entradas, mientras que si tomamos el menor habrá entradas de alguna de las matrices que no se tomen en cuenta. Así es necesario que A\,\! tenga el mismo número de columnas que B\,\! de filas para que AB\,\! exista.
Como se puede suponer también, las propiedades de ésta operación serán más limitadas en la generalidad ya que además de las limitaciones impuestas por la naturaleza de las entradas está esta limitación respecto a tamaño. Es claro, además, que el producto de matrices no siempre es una operación interna.

Propiedades

Sean A,B,C\,\! matrices con entradas en \mathbb{K}, donde \mathbb{K} es un campo, entonces se cumplen las siguientes propiedades para el producto de matrices (considerando que los productos existan)
  • Asociatividad

 A(BC)=(AB)C\,\!
Demostración. Dada la definición de la operación se sigue el resultado ya que, si A(BC)=AH=R\,\!r_{ij}=\sum_{k=1}^{m}a_{ik}h_{kj}\,\! y h_{ij}=\sum_{\ell=1}^{p}b_{i\ell}c_{\ell j}\,\! por lo que r_{ij}=\sum_{k=1}^{m}a_{ik}\sum_{\ell=1}^{p}b_{k\ell}c_{\ell j}=\sum_{\ell=1}^{p}\sum_{k=1}^{m}a_{ik}b_{k\ell}c_{\ell j}=\sum_{\ell=1}^{p}s_{i\ell}c_{\ell j}=t_{ij}\,\! donde (AB)C=SC=T\,\! debido a que a_{ij},b_{ij},c_{ij}\in\mathbb{K} para todo i,j\,\!. Aquí estamos considerando que A\,\! es n\times mB\,\! es m\times p y C\,\! es p\times q.
  • Distributividad respecto de la suma de matrices por la derecha

 (A+B)C=AC+BC\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que \sum_{k=1}^{m}(a_{ik}+b_{ik})c_{kj}=\sum_{k=1}^{m}a_{ik}c_{kj}+b_{ik}c_{kj}=\sum_{k=1}^{m}a_{ik}c_{kj}+\sum_{k=1}^{m}b_{ik}c_{kj}\,\! debido a que a_{ij},b_{ij},c_{ij}\in\mathbb{K} para todo i,j\,\!. Aquí estamos considerando que A\,\! es n\times mB\,\! es n\times m y C\,\! es m\times p.
  • Distributividad respecto de la suma de matrices por la izquierda

 A(B+C)=AB+AC\,\!
Demostración Dada la definición de la operación se sigue el resultado ya que \sum_{k=1}^{m}a_{ik}(b_{kj}+c_{kj})=\sum_{k=1}^{m}a_{ik}b_{kj}+a_{ik}c_{kj}=\sum_{k=1}^{m}a_{ik}b_{kj}+\sum_{k=1}^{m}a_{ik}c_{kj}\,\! debido a que a_{ij},b_{ij},c_{ij}\in\mathbb{K} para todo i,j\,\!. Aquí estamos considerando que A\,\! es n\times mB\,\! es m\times p y C\,\! es m\times p.

El producto de matrices no es conmutativo, si lo fuera la composición de funciones lineales sería conmutativa y eso en general no sucede. Obviamente existen casos particulares de algunos tipos de matrices en los que si hay conmutatividad. En el caso en que tengamos \mathcal{M}_{n}(\mathbb{K}) tendremos que el producto entre matrices en \mathcal{M}_{n}(\mathbb{K}) también está en \mathcal{M}_{n}(\mathbb{K}). En ese caso \mathcal{M}_{n}(\mathbb{K}) además de espacio vectorial es un álgebra sobre un campo. En el caso de que el conjunto al que pertenecen las entradas sea un anillo conmutativo con uno entonces \mathcal{M}_{n}(A) además de módulo es un álgebra sobre un anillo. Mas aún (\mathcal{M}_{n}(\mathbb{K}),+,\cdot) con \cdot el producto de matrices es un anillo.

Rango

El rango de una matriz A\,\! es la dimensión de la imagen de la aplicación lineal representada por A\,\!, que coincide con la dimensión de los espacios vectoriales generados por las filas o columnas de A\,\!.

Traspuesta

La traspuesta de una matriz A\in\mathcal{M}_{n\times m}(X)\,\!, donde X\,\! no es necesariamente un campo, es una matriz B\in\mathcal{M}_{m\times n}(X)\,\! tal que b_{ij}=a_{ji}\,\!. Por ejemplo la entrada b_{12}=a_{21}\,\!.
Veamos un ejemplo más explícito. Sea A\in\mathcal{M}_{2\times 3}(\mathbb{R})

  \begin{bmatrix}
    1 &  8 & -3 \\
    4 & -2 & 6
  \end{bmatrix}
entonces su traspuesta es

  \begin{bmatrix}
    1 &  4 \\
    8 & -2 \\
    -3& 6
  \end{bmatrix}
Así, informalmente podríamos decir que la traspuesta es aquella matriz que se obtiene de la original cambiando filas por columnas. Las notaciones usuales para denotar la traspuesta de una matriz son A^{T}, A^{t}\,\!.
La trasposición de matrices tiene las siguientes propiedades (donde ahora si el conjunto de entradas debe ser al menos un anillo conmutativo):
 \begin{align}
& (A^{T})^{T}=A, \\
& (A+B)^{T}=A^{T}+B^{T}, \\
& (AB)^{T}=B^{T}A^{T}, \\
\end{align}
Si A\in\mathcal{M}_{n\times m}(X)\,\! representa una aplicación lineal, entonces la matriz A^{T}\,\! describe la traspuesta de la aplicación lineal.

Matrices cuadradas y definiciones relacionadas

Una matriz cuadrada es una matriz que tiene el mismo número de filas que de columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicación de matrices, es un anillo que generalmente no es conmutativo.
M(n,R), el anillo de las matrices cuadradas reales, es un álgebra asociativa real unitaria. M(n,C), el anillo de las matrices cuadradas complejas, es un álgebra asociativa compleja.
La matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0. La matriz identidad se denomina así porque satisface las ecuaciones MIn = M y InN = N para cualquier matriz M m por n y N n por k. Por ejemplo, si n = 3:


\mathbf{I}_3 =
\begin{bmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{bmatrix}
.
La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.
Los elementos invertibles de este anillo se llaman matrices invertiblesregulares o no singulares. Una matriz A n por n es invertible si y sólo si existe una matriz B tal que
AB = In = BA.
En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices invertibles n por n forma un grupo (concretamente un grupo de Lie) bajo la multiplicación de matrices, el grupo lineal general.
Si λ es un número y v es un vector no nulo tal que Av = λv, entonces se dice que v es un vector propio de A y que λ es su valor propio asociado. El número λ es un valor propio de A si y sólo si A−λIn no es invertible, lo que sucede si y sólo si pA(λ) = 0, donde pA(x) es el polinomio característico de ApA(x) es un polinomio de grado n y por lo tanto, tiene nraíces complejas múltiples raíces si se cuentan de acuerdo a su multiplicidad. Cada matriz cuadrada tiene como mucho n valores propios complejos.
El determinante de una matriz cuadrada A es el producto de sus n valores propios, pero también puede ser definida por la fórmula de Leibniz. Las matrices invertibles son precisamente las matrices cuyo determinante es distinto de cero.
El algoritmo de eliminación gaussiana puede ser usado para calcular el determinante, el rango y la inversa de una matriz y para resolver sistemas de ecuaciones lineales.
La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a la suma de sus n valores propios.
Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de un número. Su determinante es fácil de calcular.

No hay comentarios:

Publicar un comentario