Menu
¿Necesitas ayuda con las matemáticas? ¿Piensas que nunca serás capaz de entenderlas?

¿Necesitas ayuda con las matemática…

Ahora puedes tener un pro...

Completando cuadrados. Aplicación al cálculo de primitivas o integrales indefinidas

Completando cuadrados. Aplicación a…

Supongamos que me piden c...

La Universidad Europea de Madrid (UEM)

La Universidad Europea de Madrid (U…

La Universidad Europea de...

Cuadratura de un segmento de parábola

Cuadratura de un segmento de parábo…

Una forma de acercarse al...

Ejercicios de aplicaciones de las derivadas y del teorema del valor medio

Ejercicios de aplicaciones de las d…

Se proponen a continuaci&...

Aplicaciones de las derivadas. El teorema del valor medio

Aplicaciones de las derivadas. El t…

Ya hemos hablado en un pa...

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. R…

Cuando en las matem&aacut...

Series infinitas de números reales. Series convergentes

Series infinitas de números reales.…

Las sucesiones de n&uacut...

La paradoja de Zenón

La paradoja de Zenón

El filósofo griego...

Prev Next

Sobre vectores y matrices. Independencia lineal. Rango de una matriz

Transformación de una matriz para obtener su rango Transformación de una matriz para obtener su rango

Espacios vectoriales

Llamaremos \(\mathbb{R}^2\) al conjunto de todos los pares ordenados de la forma \((a_1,a_2)\) tal que \(a_1,a_2\in\mathbb{R}\). Es decir:

\[\mathbb{R}^2=\{(a_1,a_2):a_1,a_2\in\mathbb{R}\}\]

De la misma forma:

\[\mathbb{R}^3=\{(a_1,a_2,a_3):a_1,a_2,a_3\in\mathbb{R}\}\]

\[\mathbb{R}^4=\{(a_1,a_2,a_3,a_4):a_1,a_2,a_3,a_4\in\mathbb{R}\}\]

Y, en general:

\[\mathbb{R}^n=\{(a_1,a_2,\ldots,a_n):a_1,a_2,\ldots,a_n\in\mathbb{R}\}\]

Si vemos los elementos de \(\mathbb{R}^n\) como matrices fila podemos identificar este conjunto con el conjunto de las matrices de una fila y \(n\) columnas: \(\mathcal{M}_{1\times n}\). Recordemos que dados dos elementos cualesquiera de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), \((a_1,a_2,\ldots,a_n)\), \((b_1,b_2,\ldots,b_n)\), y un número real cualquiera \(\lambda\) (un escalar), tenemos definida una suma y un producto de la siguiente manera:

\[(a_1,a_2,\ldots,a_n)+(b_1,b_2,\ldots,b_n)=(a_1+b_1,a_2+b_2,\ldots,a_n+b_n)\]

\[\lambda(a_1,a_2,\ldots,a_n)=(\lambda a_1,\lambda a_2,\ldots,\lambda a_n)\]

Estas dos operaciones cumplen unas propiedades que vamos a recordar a continuación. Supongamos que \(\vec{a}=(a_1,a_2,\ldots,a_n)\), \(\vec{b}=(b_1,b_2,\ldots,b_n)\) y \(\vec{c}=(c_1,c_2,\ldots,c_n)\) son elementos cualesquiera de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), y que \(\lambda\) y \(\mu\) son números reales.

Propiedades de la suma

  • Asociativa. \((\vec{a}+\vec{b})+\vec{c}=\vec{a}+(\vec{b}+\vec{c})\).
  • Conmutativa. \(\vec{a}+\vec{b}=\vec{b}+\vec{a}\).
  • Existencia de elemento neutro. El elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)) en el que todos sus elementos son cero, es decir, \(\vec{0}=(0,0,\ldots,0)\), cumple la siguiente propiedad: \(\vec{0}+\vec{a}=\vec{a}+\vec{0}=\vec{a}\).
  • Existencia de elemento opuesto o simétrico. Para cada elemento \(\vec{a}\), existe otro elemento \(-\vec{a}\) de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), dado por \(-\vec{a}=(-a_1,-a_2,\ldots,-a_n)\), tal que \(\vec{a}+(-\vec{a})=(-\vec{a})+\vec{a}=\vec{0}\).

Propiedades del producto por un escalar

  • Asociativa. \((\lambda\mu)\cdot\vec{a}=\lambda\cdot(\mu\cdot \vec{a})\).
  • Distributiva I. \((\lambda+\mu)\cdot\vec{a}=\lambda\cdot\vec{a}+\mu\cdot\vec{a}\).
  • Distributiva II. \(\lambda\cdot(\vec{a}+\vec{b})=\lambda\cdot\vec{a}+\lambda\cdot\vec{b}\).
  • Existencia de elemento unidad. Existe un número real, el escalar \(1\), tal que \(1\cdot\vec{a}=\vec{a}\cdot1=\vec{a}\).

La cuatro primeras propiedades son conocidas y ya las cumple el conjunto \(\mathbb{R}\) de los números reales. Un conjunto que con una operación suma cumple estas cuatro propiedades se dice que es un grupo abeliano.

Las cuatro últimas propiedades se refieren al producto por un escalar. Se ha diferenciado el producto de números reales (o escalares) entre sí, que hemos denotado por yuxtaposición (\(\lambda \mu\)), del producto de un escalar por un elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), que hemos denotado con un punto (\(\lambda\cdot\vec{a}\)). Es importante darse cuenta de que no se trata de la misma operación, son dos operaciones distintas. Por cierto, si todos los elementos fueran números reales estas cuatro propiedades también se cumplen y las dos operaciones son una: el producto de números reales.

Un conjunto con las operaciones suma y producto por un escalar, que cumpla las ocho propiedades anteriores, se dice que tiene estructura de espacio vectorial. Sus elementos reciben el nombre de vectores. Por eso hemos puesto una flecha encima de cada elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)): \(\vec{a}\). Sin embargo, esto no quiere decir que los elementos de un espacio vectorial tengan que ser vectores como los que se tratan en la Física (con su módulo, dirección y sentido), sino que pueden ser objetos diferentes. De hecho, en las líneas anteriores se ha hecho hincapié en que nuestros elementos de \(\mathbb{R}^n\) son también matrices fila. Pero es que las ocho propiedades anteriores también las cumplen el conjunto de las matrices de orden \(m\times n\): \(\mathcal{M}_{m\times n}\). Es decir, que el conjunto \(\mathcal{M}_{m\times n}\) es un espacio vectorial y, por tanto, una matriz es un vector.

Combinación lineal de vectores

Supongamos que tenemos un espacio vectorial \(E\). Sean \(\vec{e}_1,\vec{e}_2,\ldots,\vec{e}_n\in E\) y \(\lambda_1,\lambda_2,\ldots,\lambda_n\in\mathbb{R}\). Al vector construido de la siguiente manera

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n\]

se le llama combinación lineal de los vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\). A los números \(\lambda_1,\lambda_2,\ldots,\lambda_n\) se les llama coeficientes de la combinación lineal. Si todos los coeficientes son nulos entonces claramente la combinación lineal es igual al vector \(\vec{0}\), y se llama combinación lineal trivial.

Ejemplo 1

En \(\mathbb{R}^2\), el vector \(\vec{u}=(4,-5)\) es combinación lineal de los vectores \(\vec{v}=(-2,1)\) y \(\vec{w}=(5,-4)\), ya que, como se puede fácilmente comprobar, \(\vec{u}=3\vec{v}+2\vec{w}\).

Ejemplo 2

Consideremos el espacio vectorial formado por las matrices cuadradas de orden \(2\): \(\mathcal{M}_2\). Supongamos que queremos saber si la matriz

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)\]

es combinación lineal de las matrices

\[\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)\,,\,\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)\,,\,\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

Es decir, queremos saber si existen \(x,\,y,\,z\in\mathbb{R}\) de tal manera que

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)=x\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)+y\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)+z\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

La igualdad anterior nos lleva al sistema de ecuaciones lineales siguiente:

\[\left\{ \begin{array}{l}
 - 2x + y =  - 4\\
5x + 7y - 5z = 9\\
8x + 3y - z = 34\\
4x - y - 2z = 18
\end{array} \right.\]

Resolviéndolo por el método de Gauss tenemos:

\[\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
5&7&5&9\\
8&3&{ - 1}&{34}\\
4&{ - 1}&{ - 2}&{18}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{2{f_2} + 5{f_1}}\\
{2{f_3} + 8{f_1}}\\
{2{f_4} + 4{f_1}}
\end{array}\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
0&{19}&{10}&{ - 2}\\
0&{14}&{ - 2}&{36}\\
0&2&{ - 4}&{20}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{19{f_3} - 14{f_2}}\\
{19{f_4} - 2{f_2}}
\end{array}\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
0&{19}&{10}&{ - 2}\\
0&0&{ - 178}&{712}\\
0&0&{ - 96}&{384}
\end{array}} \right)\]

El sistema asociado a la última matriz es:

\[\left\{ \begin{array}{l}
 - 2x + y =  - 4\\
19y + 10z =  - 2\\
 - 178z = 712\\
 - 96z = 384
\end{array} \right.\]

cuyas soluciones son, como fácilmente se puede comprobar, \(x=3\), \(y=2\), \(z=-4\).

Entonces la primera matriz se puede poner como combinación lineal de las tres últimas. Concretamente:

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)=3\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)+2\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)+(-4)\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

Dependencia e independencia lineal

La idea de dependencia lineal entre unos vectores dados, \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\), es que uno de esos vectores es una combinación lineal de los otros, lo cual expresamos diciendo que uno de ellos depende linealmente de los otros. Por ejemplo, entre los vectores \(\vec{u}=(1,0)\), \(\vec{v}=(0,1)\) y \(w=(-3,2)\), el último es una combinación lineal de los otros dos, pues claramente

\[\vec{w}=-3\vec{u}+2\vec{v}\qquad(1)\]

Por eso decimos que el vector \(\vec{w}\) depende linealmente de los vectores \(\vec{u}\) y \(\vec{v}\). Pero esta relación de dependencia no se queda aquí. Observemos que de la igualdad anterior se pueden deducir fácilmente estas dos:

\[\vec{u}=\frac{2}{3}\vec{v}-\frac{1}{3}\vec{w}\quad,\quad\vec{v}=\frac{3}{2}\vec{u}+\frac{1}{2}\vec{w}\]

O sea, que no solamente \(\vec{w}\) depende linealmente de \(\vec{u}\) y \(\vec{v}\), sino que \(\vec{u}\) depende linealmente de \(\vec{v}\) y \(\vec{w}\), y también \(\vec{v}\) depende linealmente de \(\vec{u}\) y \(\vec{w}\). Lo que realmente ocurre es que los tres vectores tienen una relación de dependencia lineal. Esta relación de dependencia queda reflejada en la siguiente igualdad (que se deduce rápidamente de la igualdad \(1\)):

\[3\vec{u}-2\vec{v}+\vec{w}=\vec{0}\qquad(2)\]

Es decir, podemos escribir el vector \(\vec{0}\) como una combinación lineal no trivial de esos vectores. Esta forma de expresar la dependencia lineal es preferible a la forma \((1)\) porque en esta última no se señala a ninguno de los vectores como responsable de la dependencia lineal, es decir, cualquier vector con coeficiente distinto de cero se puede despejar en términos de los otros. Tomaremos pues la forma \((2)\) como definición de dependencia lineal.

Se dice que los vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) son linealmente dependientes o que existe una relación de dependencia lineal entre ellos si el vector \(\vec{0}\) se puede escribir como una combinación lineal no trivial de ellos, es decir, podemos escribir

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n=\vec{0}\]

en la que los coeficientes o escalares \(\lambda_1\,,\lambda_2,\ldots,\lambda_n\) no son todos cero.

Un conjunto de vectores linealmente dependientes o entre los que existe una relación de dependencia lineal también se dice que es ligado. Un conjunto de vectores entre los que no existe una relación de dependencia lineal es un conjunto libre y los propios vectores se dice que son linealmente independientes. Así, en este caso, si tenemos un conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) linealmente independientes, entonces una combinación lineal de ellos igualada al vector cero implicará que todos los coeficientes o escalares son nulos:

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n=\vec{0}\Rightarrow \lambda_1=\lambda_2=\ldots=\lambda_n=0\]

Ejemplo 3

En \(\mathbb{R}^3\), para averiguar si los vectores \(\vec{e}_1=(-1,1,2)\), \(\vec{e}_2=(3,-4,1)\) y \(\vec{e}_3=(-2,6,-3)\) son o no linealmente independientes, igualamos una combinación lineal de ellos al vector cero y resolvemos el sistema correspondiente.

\[x\vec{e}_1+y\vec{e}_2+\vec{e}_3=\vec{0}\Rightarrow x(-1,1,2)+y(3,-4,1)+z(-2,6,-3)=(0,0,0)\Rightarrow\]

\[\Rightarrow(-x,x,2x)+(3y,-4y,y)+(-2z,6z,-3z)=(0,0,0)\Rightarrow\]

\[\Rightarrow(-x+3y-2z,x-4y+6z,2x+y-3z)=(0,0,0)\Rightarrow\left\{ \begin{array}{l}
 - x + 3y - 2z = 0\\
x - 4y + 6z = 0\\
2x + y - 3z = 0
\end{array} \right.\]

En este último sistema hay dos posibilidades:

  • Es compatible determinado (solución única), con lo que \(x=y=z=0\) y los vectores son linealmente independientes (conjunto libre de vectores).
  • Es compatible indeterminado (infinitas soluciones), con lo que habrá soluciones distintas de la trivial y los vectores serán linealmente dependientes (conjunto de vectores ligado).

Usando el método de Gauss es fácil darse cuenta de que el sistema de nuestro ejemplo tiene solución única, es decir, \(x=y=z=0\), con lo que los vectores \(\vec{e}_1=(-1,1,2)\), \(\vec{e}_2=(3,-4,1)\) y \(\vec{e}_3=(-2,6,-3)\) son linealmente independientes.

En general, dado un conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) podemos formar el sistema anterior mediante la ecuación matricial

\[AX=O\]

donde \(A\) es la matriz formada por los vectores anteriores escritos en columna, \(X\) es la matriz de los coeficientes o escalares de la combinación lineal (que en nuestro ejemplo hemos llamado \(x\), \(y\), \(z\)) y \(O\) es el vector cero escrito en forma de columna. En el ejemplo anterior podríamos haber escrito directamente:

\[AX = O \Rightarrow \left( {\begin{array}{*{20}{c}}
{ - 1}&3&{ - 2}\\
1&{ - 4}&6\\
2&1&{ - 3}
\end{array}} \right)\left( {\begin{array}{*{20}{c}}
x\\
y\\
z
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
0\\
0\\
0
\end{array}} \right) \Rightarrow \left\{ \begin{array}{l}
 - x + 3y - 2z = 0\\
x - 4y + 6z = 0\\
2x + y - 3z = 0
\end{array} \right.\]

Ahora, aplicando transformaciones elementales (método de Gauss) en la matriz \(A\) se deducirá rápidamente si el conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) es libre o ligado.

Ejemplo 4

Supongamos que queremos determinar si en \(\mathbb{R}^4\), los vectores \((1,-2,3,0)\), \((4,3,-1,-2)\), \((-2,0,2,1)\), \((1,1,6,0)\) forman un conjunto libre o ligado. Para ello los escribimos en forma de columna y aplicamos transformaciones elementales:

\[\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
{ - 2}&3&0&1\\
3&{ - 1}&2&6\\
0&{ - 2}&1&0
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{{f_2} + 2{f_1}}\\
{{f_3} - 3{f_1}}\\
{}
\end{array}\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&{ - 13}&8&3\\
0&{ - 2}&1&0
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{11{f_3} + 13{f_2}}\\
{11{f_4} + 2{f_2}}
\end{array}\]

\[\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&0&{36}&{72}\\
0&0&3&6
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{}\\
{12{f_4} - {f_3}}
\end{array}\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&0&{36}&{72}\\
0&0&0&0
\end{array}} \right)\]

La última fila, cuyos términos son todos cero, advierte ya de que el sistema asociado va a tener infinitas soluciones, es decir, que los vectores \((1,-2,3,0)\), \((4,3,-1,-2)\), \((-2,0,2,1)\), \((1,1,6,0)\) son linealmente dependientes, tienen relación de dependencia lineal o forman un conjunto ligado de vectores. De hecho el sistema al que nos referimos es el siguiente:

\[\left\{ \begin{array}{l}
x + 4y - 2z + t = 0\\
\,\,\,\,\,\,11y - 4z + 3t = 0\\
\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,36z + 72t = 0
\end{array} \right.\]

No es difícil comprobar que sus soluciones son \(x=-\lambda\), \(y=-\lambda\), \(z=-2\lambda\), \(t=\lambda\). Esto quiere decir que todas las combinaciones lineales con estos coeficientes son iguales al vector cero, es decir:

\[-\lambda(1,-2,3,0)-\lambda(4,3,-1,-2)-2\lambda(-2,0,2,1)+\lambda(1,1,6,0)=(0,0,0,0)\]

Por cierto, en el ejemplo 2 se comprobó que una matriz cuadrada de orden 2 era combinación lineal de otras tres, o lo que es lo mismo, que las cuatro matrices formaban un conjunto ligado. Obsérvese ahora que las matrices cuadradas de orden 2 se pueden ver, como en este último ejemplo, como vectores de \(\mathbb{R}^4\). Se dice que ambos conjuntos son isomorfos y se escribe \(\mathcal{M}_2\cong\mathbb{R}^4\). De hecho, y en general, el conjunto de las matrices de orden \(m\times n\) es isomorfo a \(\mathbb{R}^{nm}\): \(\mathcal{M}_{m\times n}\cong\mathbb{R}^{nm}\).

Rango de una matriz

Ya sabemos que las filas (o las columnas) de una matriz cualquiera pueden ser consideradas como vectores. Las filas de una matriz pueden formar un sistema libre o ligado. Pues bien, llamamos rango de una matriz al número de filas que son linealmente independientes. Así, el rango de la matriz del ejemplo 4 es \(3\). En general, para hallar el rango de una matriz se aplican transformaciones elementales en la misma según el método de Gauss, de tal manera que, una vez finalizado el proceso, el rango de la matriz coincide con el número de filas no nulas. Al rango de una matriz \(A\) lo denotaremos abreviadamente así: \(r(A)\).

También las columnas de una matriz pueden ser consideradas vectores. Y se podría definir el rango de una matriz como el número de columnas linealmente independientes. Esto es porque, según un importante teorema, en una matriz, el número de filas linealmente independientes es igual al número de columnas linealmente independientes. De aquí se deduce que, en general, el rango de una matriz de orden \(m\times n\) es, a lo sumo, el menor de los números \(m\) o \(n\). Así, el rango de una matriz de orden \(4\times7\) es, a lo sumo, igual a \(4\).

Ejemplo 5

Hallaremos el rango de la matriz de orden \(4\times5\) siguiente:

\[A = \left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
{ - 1}&1&3&2&0\\
0&8&7&9&4
\end{array}} \right)\]

Como hemos visto, el rango no puede ser mayor que \(4\). Apliquemos transformaciones elementales por el método de Gauss.

\[\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
{ - 1}&1&3&2&0\\
0&8&7&9&4
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{{f_3} + {f_1}}\\
{}
\end{array}\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
0&1&5&3&{ - 1}\\
0&8&7&9&4
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{2{f_3} - {f_2}}\\
{{f_4} - 4{f_2}}
\end{array}\]

\[\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 2}\\
0&2&{ - 1}&1&2\\
0&0&{11}&5&{ - 4}\\
0&0&{11}&5&{ - 4}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{}\\
{{f_4} - {f_3}}
\end{array}\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 2}\\
0&2&{ - 1}&1&2\\
0&0&{11}&5&{ - 6}\\
0&0&0&0&0
\end{array}} \right)\]

Por tanto \(r(A)=3\). Esto es lo mismo que decir que los vectores de \(\mathbb{R}^5\): \((1,0,2,1,-1)\), \((0,2,-1,1,2)\), \((-1,1,3,2,0)\), \((0,8,7,9,4)\), son linealmente dependientes, es decir, forman un sistema ligado de vectores, con lo que cualquiera de ellos se puede poner como combinación lineal de los otros tres.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


 

volver arriba

lasmatematicas.eu

Aplicaciones

Sígueme

webs de matemáticas