Menu
Distancia entre dos rectas que se cruzan. Perpendicular común

Distancia entre dos rectas que se c…

En un espacio de tres dim...

La regla de Cramer

La regla de Cramer

Consideremos un sistema d...

¿Necesitas ayuda con las matemáticas? ¿Piensas que nunca serás capaz de entenderlas?

¿Necesitas ayuda con las matemática…

Ahora puedes tener un pro...

Completando cuadrados. Aplicación al cálculo de primitivas o integrales indefinidas

Completando cuadrados. Aplicación a…

Supongamos que me piden c...

La Universidad Europea de Madrid (UEM)

La Universidad Europea de Madrid (U…

La Universidad Europea de...

Cuadratura de un segmento de parábola

Cuadratura de un segmento de parábo…

Una forma de acercarse al...

Ejercicios de aplicaciones de las derivadas y del teorema del valor medio

Ejercicios de aplicaciones de las d…

Se proponen a continuaci&...

Aplicaciones de las derivadas. El teorema del valor medio

Aplicaciones de las derivadas. El t…

Ya hemos hablado en un pa...

Prev Next

Elementos filtrados por fecha: Marzo 2016

Sobre vectores y matrices. Independencia lineal. Rango de una matriz

Espacios vectoriales

Llamaremos \(\mathbb{R}^2\) al conjunto de todos los pares ordenados de la forma \((a_1,a_2)\) tal que \(a_1,a_2\in\mathbb{R}\). Es decir:

\[\mathbb{R}^2=\{(a_1,a_2):a_1,a_2\in\mathbb{R}\}\]

De la misma forma:

\[\mathbb{R}^3=\{(a_1,a_2,a_3):a_1,a_2,a_3\in\mathbb{R}\}\]

\[\mathbb{R}^4=\{(a_1,a_2,a_3,a_4):a_1,a_2,a_3,a_4\in\mathbb{R}\}\]

Y, en general:

\[\mathbb{R}^n=\{(a_1,a_2,\ldots,a_n):a_1,a_2,\ldots,a_n\in\mathbb{R}\}\]

Si vemos los elementos de \(\mathbb{R}^n\) como matrices fila podemos identificar este conjunto con el conjunto de las matrices de una fila y \(n\) columnas: \(\mathcal{M}_{1\times n}\). Recordemos que dados dos elementos cualesquiera de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), \((a_1,a_2,\ldots,a_n)\), \((b_1,b_2,\ldots,b_n)\), y un número real cualquiera \(\lambda\) (un escalar), tenemos definida una suma y un producto de la siguiente manera:

\[(a_1,a_2,\ldots,a_n)+(b_1,b_2,\ldots,b_n)=(a_1+b_1,a_2+b_2,\ldots,a_n+b_n)\]

\[\lambda(a_1,a_2,\ldots,a_n)=(\lambda a_1,\lambda a_2,\ldots,\lambda a_n)\]

Estas dos operaciones cumplen unas propiedades que vamos a recordar a continuación. Supongamos que \(\vec{a}=(a_1,a_2,\ldots,a_n)\), \(\vec{b}=(b_1,b_2,\ldots,b_n)\) y \(\vec{c}=(c_1,c_2,\ldots,c_n)\) son elementos cualesquiera de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), y que \(\lambda\) y \(\mu\) son números reales.

Propiedades de la suma

  • Asociativa. \((\vec{a}+\vec{b})+\vec{c}=\vec{a}+(\vec{b}+\vec{c})\).
  • Conmutativa. \(\vec{a}+\vec{b}=\vec{b}+\vec{a}\).
  • Existencia de elemento neutro. El elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)) en el que todos sus elementos son cero, es decir, \(\vec{0}=(0,0,\ldots,0)\), cumple la siguiente propiedad: \(\vec{0}+\vec{a}=\vec{a}+\vec{0}=\vec{a}\).
  • Existencia de elemento opuesto o simétrico. Para cada elemento \(\vec{a}\), existe otro elemento \(-\vec{a}\) de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), dado por \(-\vec{a}=(-a_1,-a_2,\ldots,-a_n)\), tal que \(\vec{a}+(-\vec{a})=(-\vec{a})+\vec{a}=\vec{0}\).

Propiedades del producto por un escalar

  • Asociativa. \((\lambda\mu)\cdot\vec{a}=\lambda\cdot(\mu\cdot \vec{a})\).
  • Distributiva I. \((\lambda+\mu)\cdot\vec{a}=\lambda\cdot\vec{a}+\mu\cdot\vec{a}\).
  • Distributiva II. \(\lambda\cdot(\vec{a}+\vec{b})=\lambda\cdot\vec{a}+\lambda\cdot\vec{b}\).
  • Existencia de elemento unidad. Existe un número real, el escalar \(1\), tal que \(1\cdot\vec{a}=\vec{a}\cdot1=\vec{a}\).

La cuatro primeras propiedades son conocidas y ya las cumple el conjunto \(\mathbb{R}\) de los números reales. Un conjunto que con una operación suma cumple estas cuatro propiedades se dice que es un grupo abeliano.

Las cuatro últimas propiedades se refieren al producto por un escalar. Se ha diferenciado el producto de números reales (o escalares) entre sí, que hemos denotado por yuxtaposición (\(\lambda \mu\)), del producto de un escalar por un elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), que hemos denotado con un punto (\(\lambda\cdot\vec{a}\)). Es importante darse cuenta de que no se trata de la misma operación, son dos operaciones distintas. Por cierto, si todos los elementos fueran números reales estas cuatro propiedades también se cumplen y las dos operaciones son una: el producto de números reales.

Un conjunto con las operaciones suma y producto por un escalar, que cumpla las ocho propiedades anteriores, se dice que tiene estructura de espacio vectorial. Sus elementos reciben el nombre de vectores. Por eso hemos puesto una flecha encima de cada elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)): \(\vec{a}\). Sin embargo, esto no quiere decir que los elementos de un espacio vectorial tengan que ser vectores como los que se tratan en la Física (con su módulo, dirección y sentido), sino que pueden ser objetos diferentes. De hecho, en las líneas anteriores se ha hecho hincapié en que nuestros elementos de \(\mathbb{R}^n\) son también matrices fila. Pero es que las ocho propiedades anteriores también las cumplen el conjunto de las matrices de orden \(m\times n\): \(\mathcal{M}_{m\times n}\). Es decir, que el conjunto \(\mathcal{M}_{m\times n}\) es un espacio vectorial y, por tanto, una matriz es un vector.

Combinación lineal de vectores

Supongamos que tenemos un espacio vectorial \(E\). Sean \(\vec{e}_1,\vec{e}_2,\ldots,\vec{e}_n\in E\) y \(\lambda_1,\lambda_2,\ldots,\lambda_n\in\mathbb{R}\). Al vector construido de la siguiente manera

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n\]

se le llama combinación lineal de los vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\). A los números \(\lambda_1,\lambda_2,\ldots,\lambda_n\) se les llama coeficientes de la combinación lineal. Si todos los coeficientes son nulos entonces claramente la combinación lineal es igual al vector \(\vec{0}\), y se llama combinación lineal trivial.

Ejemplo 1

En \(\mathbb{R}^2\), el vector \(\vec{u}=(4,-5)\) es combinación lineal de los vectores \(\vec{v}=(-2,1)\) y \(\vec{w}=(5,-4)\), ya que, como se puede fácilmente comprobar, \(\vec{u}=3\vec{v}+2\vec{w}\).

Ejemplo 2

Consideremos el espacio vectorial formado por las matrices cuadradas de orden \(2\): \(\mathcal{M}_2\). Supongamos que queremos saber si la matriz

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)\]

es combinación lineal de las matrices

\[\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)\,,\,\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)\,,\,\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

Es decir, queremos saber si existen \(x,\,y,\,z\in\mathbb{R}\) de tal manera que

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)=x\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)+y\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)+z\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

La igualdad anterior nos lleva al sistema de ecuaciones lineales siguiente:

\[\left\{ \begin{array}{l}
 - 2x + y =  - 4\\
5x + 7y - 5z = 9\\
8x + 3y - z = 34\\
4x - y - 2z = 18
\end{array} \right.\]

Resolviéndolo por el método de Gauss tenemos:

\[\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
5&7&5&9\\
8&3&{ - 1}&{34}\\
4&{ - 1}&{ - 2}&{18}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{2{f_2} + 5{f_1}}\\
{2{f_3} + 8{f_1}}\\
{2{f_4} + 4{f_1}}
\end{array}\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
0&{19}&{10}&{ - 2}\\
0&{14}&{ - 2}&{36}\\
0&2&{ - 4}&{20}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{19{f_3} - 14{f_2}}\\
{19{f_4} - 2{f_2}}
\end{array}\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
0&{19}&{10}&{ - 2}\\
0&0&{ - 178}&{712}\\
0&0&{ - 96}&{384}
\end{array}} \right)\]

El sistema asociado a la última matriz es:

\[\left\{ \begin{array}{l}
 - 2x + y =  - 4\\
19y + 10z =  - 2\\
 - 178z = 712\\
 - 96z = 384
\end{array} \right.\]

cuyas soluciones son, como fácilmente se puede comprobar, \(x=3\), \(y=2\), \(z=-4\).

Entonces la primera matriz se puede poner como combinación lineal de las tres últimas. Concretamente:

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)=3\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)+2\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)+(-4)\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

Dependencia e independencia lineal

La idea de dependencia lineal entre unos vectores dados, \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\), es que uno de esos vectores es una combinación lineal de los otros, lo cual expresamos diciendo que uno de ellos depende linealmente de los otros. Por ejemplo, entre los vectores \(\vec{u}=(1,0)\), \(\vec{v}=(0,1)\) y \(w=(-3,2)\), el último es una combinación lineal de los otros dos, pues claramente

\[\vec{w}=-3\vec{u}+2\vec{v}\qquad(1)\]

Por eso decimos que el vector \(\vec{w}\) depende linealmente de los vectores \(\vec{u}\) y \(\vec{v}\). Pero esta relación de dependencia no se queda aquí. Observemos que de la igualdad anterior se pueden deducir fácilmente estas dos:

\[\vec{u}=\frac{2}{3}\vec{v}-\frac{1}{3}\vec{w}\quad,\quad\vec{v}=\frac{3}{2}\vec{u}+\frac{1}{2}\vec{w}\]

O sea, que no solamente \(\vec{w}\) depende linealmente de \(\vec{u}\) y \(\vec{v}\), sino que \(\vec{u}\) depende linealmente de \(\vec{v}\) y \(\vec{w}\), y también \(\vec{v}\) depende linealmente de \(\vec{u}\) y \(\vec{w}\). Lo que realmente ocurre es que los tres vectores tienen una relación de dependencia lineal. Esta relación de dependencia queda reflejada en la siguiente igualdad (que se deduce rápidamente de la igualdad \(1\)):

\[3\vec{u}-2\vec{v}+\vec{w}=\vec{0}\qquad(2)\]

Es decir, podemos escribir el vector \(\vec{0}\) como una combinación lineal no trivial de esos vectores. Esta forma de expresar la dependencia lineal es preferible a la forma \((1)\) porque en esta última no se señala a ninguno de los vectores como responsable de la dependencia lineal, es decir, cualquier vector con coeficiente distinto de cero se puede despejar en términos de los otros. Tomaremos pues la forma \((2)\) como definición de dependencia lineal.

Se dice que los vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) son linealmente dependientes o que existe una relación de dependencia lineal entre ellos si el vector \(\vec{0}\) se puede escribir como una combinación lineal no trivial de ellos, es decir, podemos escribir

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n=\vec{0}\]

en la que los coeficientes o escalares \(\lambda_1\,,\lambda_2,\ldots,\lambda_n\) no son todos cero.

Un conjunto de vectores linealmente dependientes o entre los que existe una relación de dependencia lineal también se dice que es ligado. Un conjunto de vectores entre los que no existe una relación de dependencia lineal es un conjunto libre y los propios vectores se dice que son linealmente independientes. Así, en este caso, si tenemos un conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) linealmente independientes, entonces una combinación lineal de ellos igualada al vector cero implicará que todos los coeficientes o escalares son nulos:

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n=\vec{0}\Rightarrow \lambda_1=\lambda_2=\ldots=\lambda_n=0\]

Ejemplo 3

En \(\mathbb{R}^3\), para averiguar si los vectores \(\vec{e}_1=(-1,1,2)\), \(\vec{e}_2=(3,-4,1)\) y \(\vec{e}_3=(-2,6,-3)\) son o no linealmente independientes, igualamos una combinación lineal de ellos al vector cero y resolvemos el sistema correspondiente.

\[x\vec{e}_1+y\vec{e}_2+\vec{e}_3=\vec{0}\Rightarrow x(-1,1,2)+y(3,-4,1)+z(-2,6,-3)=(0,0,0)\Rightarrow\]

\[\Rightarrow(-x,x,2x)+(3y,-4y,y)+(-2z,6z,-3z)=(0,0,0)\Rightarrow\]

\[\Rightarrow(-x+3y-2z,x-4y+6z,2x+y-3z)=(0,0,0)\Rightarrow\left\{ \begin{array}{l}
 - x + 3y - 2z = 0\\
x - 4y + 6z = 0\\
2x + y - 3z = 0
\end{array} \right.\]

En este último sistema hay dos posibilidades:

  • Es compatible determinado (solución única), con lo que \(x=y=z=0\) y los vectores son linealmente independientes (conjunto libre de vectores).
  • Es compatible indeterminado (infinitas soluciones), con lo que habrá soluciones distintas de la trivial y los vectores serán linealmente dependientes (conjunto de vectores ligado).

Usando el método de Gauss es fácil darse cuenta de que el sistema de nuestro ejemplo tiene solución única, es decir, \(x=y=z=0\), con lo que los vectores \(\vec{e}_1=(-1,1,2)\), \(\vec{e}_2=(3,-4,1)\) y \(\vec{e}_3=(-2,6,-3)\) son linealmente independientes.

En general, dado un conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) podemos formar el sistema anterior mediante la ecuación matricial

\[AX=O\]

donde \(A\) es la matriz formada por los vectores anteriores escritos en columna, \(X\) es la matriz de los coeficientes o escalares de la combinación lineal (que en nuestro ejemplo hemos llamado \(x\), \(y\), \(z\)) y \(O\) es el vector cero escrito en forma de columna. En el ejemplo anterior podríamos haber escrito directamente:

\[AX = O \Rightarrow \left( {\begin{array}{*{20}{c}}
{ - 1}&3&{ - 2}\\
1&{ - 4}&6\\
2&1&{ - 3}
\end{array}} \right)\left( {\begin{array}{*{20}{c}}
x\\
y\\
z
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
0\\
0\\
0
\end{array}} \right) \Rightarrow \left\{ \begin{array}{l}
 - x + 3y - 2z = 0\\
x - 4y + 6z = 0\\
2x + y - 3z = 0
\end{array} \right.\]

Ahora, aplicando transformaciones elementales (método de Gauss) en la matriz \(A\) se deducirá rápidamente si el conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) es libre o ligado.

Ejemplo 4

Supongamos que queremos determinar si en \(\mathbb{R}^4\), los vectores \((1,-2,3,0)\), \((4,3,-1,-2)\), \((-2,0,2,1)\), \((1,1,6,0)\) forman un conjunto libre o ligado. Para ello los escribimos en forma de columna y aplicamos transformaciones elementales:

\[\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
{ - 2}&3&0&1\\
3&{ - 1}&2&6\\
0&{ - 2}&1&0
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{{f_2} + 2{f_1}}\\
{{f_3} - 3{f_1}}\\
{}
\end{array}\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&{ - 13}&8&3\\
0&{ - 2}&1&0
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{11{f_3} + 13{f_2}}\\
{11{f_4} + 2{f_2}}
\end{array}\]

\[\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&0&{36}&{72}\\
0&0&3&6
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{}\\
{12{f_4} - {f_3}}
\end{array}\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&0&{36}&{72}\\
0&0&0&0
\end{array}} \right)\]

La última fila, cuyos términos son todos cero, advierte ya de que el sistema asociado va a tener infinitas soluciones, es decir, que los vectores \((1,-2,3,0)\), \((4,3,-1,-2)\), \((-2,0,2,1)\), \((1,1,6,0)\) son linealmente dependientes, tienen relación de dependencia lineal o forman un conjunto ligado de vectores. De hecho el sistema al que nos referimos es el siguiente:

\[\left\{ \begin{array}{l}
x + 4y - 2z + t = 0\\
\,\,\,\,\,\,11y - 4z + 3t = 0\\
\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,36z + 72t = 0
\end{array} \right.\]

No es difícil comprobar que sus soluciones son \(x=-\lambda\), \(y=-\lambda\), \(z=-2\lambda\), \(t=\lambda\). Esto quiere decir que todas las combinaciones lineales con estos coeficientes son iguales al vector cero, es decir:

\[-\lambda(1,-2,3,0)-\lambda(4,3,-1,-2)-2\lambda(-2,0,2,1)+\lambda(1,1,6,0)=(0,0,0,0)\]

Por cierto, en el ejemplo 2 se comprobó que una matriz cuadrada de orden 2 era combinación lineal de otras tres, o lo que es lo mismo, que las cuatro matrices formaban un conjunto ligado. Obsérvese ahora que las matrices cuadradas de orden 2 se pueden ver, como en este último ejemplo, como vectores de \(\mathbb{R}^4\). Se dice que ambos conjuntos son isomorfos y se escribe \(\mathcal{M}_2\cong\mathbb{R}^4\). De hecho, y en general, el conjunto de las matrices de orden \(m\times n\) es isomorfo a \(\mathbb{R}^{nm}\): \(\mathcal{M}_{m\times n}\cong\mathbb{R}^{nm}\).

Rango de una matriz

Ya sabemos que las filas (o las columnas) de una matriz cualquiera pueden ser consideradas como vectores. Las filas de una matriz pueden formar un sistema libre o ligado. Pues bien, llamamos rango de una matriz al número de filas que son linealmente independientes. Así, el rango de la matriz del ejemplo 4 es \(3\). En general, para hallar el rango de una matriz se aplican transformaciones elementales en la misma según el método de Gauss, de tal manera que, una vez finalizado el proceso, el rango de la matriz coincide con el número de filas no nulas. Al rango de una matriz \(A\) lo denotaremos abreviadamente así: \(r(A)\).

También las columnas de una matriz pueden ser consideradas vectores. Y se podría definir el rango de una matriz como el número de columnas linealmente independientes. Esto es porque, según un importante teorema, en una matriz, el número de filas linealmente independientes es igual al número de columnas linealmente independientes. De aquí se deduce que, en general, el rango de una matriz de orden \(m\times n\) es, a lo sumo, el menor de los números \(m\) o \(n\). Así, el rango de una matriz de orden \(4\times7\) es, a lo sumo, igual a \(4\).

Ejemplo 5

Hallaremos el rango de la matriz de orden \(4\times5\) siguiente:

\[A = \left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
{ - 1}&1&3&2&0\\
0&8&7&9&4
\end{array}} \right)\]

Como hemos visto, el rango no puede ser mayor que \(4\). Apliquemos transformaciones elementales por el método de Gauss.

\[\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
{ - 1}&1&3&2&0\\
0&8&7&9&4
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{{f_3} + {f_1}}\\
{}
\end{array}\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
0&1&5&3&{ - 1}\\
0&8&7&9&4
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{2{f_3} - {f_2}}\\
{{f_4} - 4{f_2}}
\end{array}\]

\[\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 2}\\
0&2&{ - 1}&1&2\\
0&0&{11}&5&{ - 4}\\
0&0&{11}&5&{ - 4}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{}\\
{{f_4} - {f_3}}
\end{array}\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 2}\\
0&2&{ - 1}&1&2\\
0&0&{11}&5&{ - 6}\\
0&0&0&0&0
\end{array}} \right)\]

Por tanto \(r(A)=3\). Esto es lo mismo que decir que los vectores de \(\mathbb{R}^5\): \((1,0,2,1,-1)\), \((0,2,-1,1,2)\), \((-1,1,3,2,0)\), \((0,8,7,9,4)\), son linealmente dependientes, es decir, forman un sistema ligado de vectores, con lo que cualquiera de ellos se puede poner como combinación lineal de los otros tres.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


 

Leer más ...

Determinantes

Determinante de una matriz cuadrada

Toda matriz cuadrada \(A\) lleva asociado un número, llamado determinante de \(A\), y que denotaremos mediante el símbolo \(|A|\). Este número, entre otras cosas, permite saber cuándo una matriz cuadrada tiene inversa y, caso de que ésta exista, también se utiliza para su cálculo utilizando otro método alternativo al método de Gauss, método que ya se vio en un artículo dedicado a las matrices.

Determinante de una matriz cuadrada de orden 2

Dada una matriz cuadrada de orden \(2\),

\[A = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}\\
{{a_{21}}}&{{a_{22}}}
\end{array}} \right)\]

el determinante de la matriz \(A\) viene dado por

\[\left| A \right| = \left| {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}\\
{{a_{21}}}&{{a_{22}}}
\end{array}} \right| = {a_{11}}{a_{22}} - {a_{12}}{a_{21}}\]

Por ejemplo, el determinante de la matriz

\[A = \left( {\begin{array}{*{20}{c}}
{ - 3}&{ - 4}\\
7&{ - 5}
\end{array}} \right)\]

es

\[\left| A \right| = \left| {\begin{array}{*{20}{c}}
{ - 3}&{ - 4}\\
7&{ - 5}
\end{array}} \right| = \left( { - 3} \right) \cdot \left( { - 5} \right) - \left( { - 4} \right) \cdot 7 = 15 - \left( { - 28} \right) = 15 + 28 = 43\]

Determinante de una matriz cuadrada de orden 3

Dada una matriz cuadrada de orden \(3\),

\[A = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\
{{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\
{{a_{31}}}&{{a_{32}}}&{{a_{33}}}
\end{array}} \right)\]

el determinante de \(A\) viene dado por la fórmula siguiente:

\[\left| A \right| = \left| {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\
{{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\
{{a_{31}}}&{{a_{32}}}&{{a_{33}}}
\end{array}} \right| = \left( {{a_{11}}{a_{22}}{a_{23}} + {a_{12}}{a_{23}}{a_{31}} + {a_{13}}{a_{21}}{a_{32}}} \right) - \left( {{a_{13}}{a_{22}}{a_{31}} + {a_{12}}{a_{21}}{a_{33}} + {a_{11}}{a_{23}}{a_{32}}} \right)\]

Por ejemplo, el determinante de la matriz

\[A = \left( {\begin{array}{*{20}{c}}
1&{ - 2}&5\\
{ - 3}&4&1\\
{ - 1}&1&2
\end{array}} \right)\]

viene dado por

\[\left| A \right| = \left| {\begin{array}{*{20}{c}}
1&{ - 2}&5\\
{ - 3}&4&1\\
{ - 1}&1&2
\end{array}} \right| =\]

\[=\left( {1 \cdot 4 \cdot 2 + \left( { - 2} \right) \cdot 1 \cdot \left( { - 1} \right) + \left( { - 3} \right) \cdot 5 \cdot 1} \right) - \left( {5 \cdot 4 \cdot \left( { - 1} \right) + \left( { - 2} \right) \cdot \left( { - 3} \right) \cdot 2 + 1 \cdot 1 \cdot 1} \right) = \]

\[ = \left( {8 + 2 - 15} \right) - \left( { - 20 + 12 + 1} \right) =  - 5 - \left( { - 7} \right) =  - 5 + 7 = 2\]

Como esta fórmula es bastante engorrosa y complicada de aprender, propondremos una regla mnemotécnica para su uso. Se recurre a la estrategia siguiente. Copiamos la matriz y debajo la primera y segunda filas. Los términos positivos corresponden a la diagonal principal y a las otras dos que van por debajo. Los términos negativos son los que corresponden a la diagonal secundaria y a las otras dos que van por debajo.

determinantes01

Como se puede ver en la figura anterior, a la izquierda se encuentran los términos positivos y a la derecha los términos negativos, con lo que

\[|A|=(8-15+2)-(-20+1+12)=(-5)-(-7)=-5+7=2\]

Esta regla se conoce con el nombre de regla de Sarrus.

Menor complementario. Matriz adjunta de una matriz cuadrada

Para el cálculo de la inversa de una matriz cuadrada utilizando determinantes necesitamos introducir los conceptos de adjunto de un elemento de una matriz cuadrada, y de matriz adjunta de una matriz cuadrada.

Menor complementario y adjunto de un elemento de una matriz cuadrada

Dada una matriz cuadrada \(A\) de orden \(n\), el menor complementario del elemento \(a_{ij}\) de la matriz \(A\), es el determinante de la matriz cuadrada de orden \(n-1\) que se obtiene al suprimir la fila \(i\) y la columna \(j\) en la matriz \(A\). Se representa por \(\Delta_{ij}\). Se llama adjunto \(A_{ij}\) del elemento \(a_{ij}\), al número dado por la fórmula

\[A_{ij}=(-1)^{i+j}\cdot\Delta_{ij}\]

Por ejemplo, si consideramos la matriz \(A\) del ejemplo visto anteriormente, el menor complementario del elemento \(a_{21}=-3\), es el determinante de la matriz cuadrada de orden \(2\) que resulta de suprimir la fila \(2\) y la columna \(1\):

\[{\Delta _{21}} = \left| {\begin{array}{*{20}{c}}
1&{ - 2}&5\\
{ - 3}&4&1\\
{ - 1}&1&2
\end{array}} \right| = \left| {\begin{array}{*{20}{c}}
{ - 2}&5\\
1&2
\end{array}} \right| =  - 2 \cdot 2 - 5 \cdot 1 =  - 4 - 5 =  - 9\]

El adjunto del mismo elemento \(a_{21}=-3\) es, por tanto:

\[{A_{21}} = {\left( { - 1} \right)^{2 + 1}} \cdot {\Delta _{21}} = {\left( { - 1} \right)^3} \cdot \left( { - 9} \right) = \left( { - 1} \right) \cdot \left( { - 9} \right) = 9\]

Calculemos como ejemplo los ocho adjuntos restantes de la matriz \(A\):

\[{A_{11}} = {\left( { - 1} \right)^{1 + 1}} \cdot {\Delta _{11}} = {\left( { - 1} \right)^2} \cdot \left| {\begin{array}{*{20}{c}}
4&1\\
1&2
\end{array}} \right| = 1 \cdot \left( {8 - 1} \right) = 1 \cdot 7 = 7\]

\[{A_{12}} = {\left( { - 1} \right)^{1 + 2}} \cdot {\Delta _{12}} = {\left( { - 1} \right)^3} \cdot \left| {\begin{array}{*{20}{c}}
{ - 3}&1\\
{ - 1}&2
\end{array}} \right| =  - 1 \cdot \left( { - 6 - \left( { - 1} \right)} \right) =  - 1 \cdot \left( { - 5} \right) = 5\]

\[{A_{13}} = {\left( { - 1} \right)^{1 + 3}} \cdot {\Delta _{13}} = {\left( { - 1} \right)^4} \cdot \left| {\begin{array}{*{20}{c}}
{ - 3}&4\\
{ - 1}&1
\end{array}} \right| = 1 \cdot \left( { - 3 - \left( { - 4} \right)} \right) = 1 \cdot 1 = 1\]

\[{A_{22}} = {\left( { - 1} \right)^{2 + 2}} \cdot {\Delta _{22}} = {\left( { - 1} \right)^4} \cdot \left| {\begin{array}{*{20}{c}}
1&5\\
{ - 1}&2
\end{array}} \right| = 1 \cdot \left( {2 - \left( { - 5} \right)} \right) = 1 \cdot 7 = 7\]

\[{A_{23}} = {\left( { - 1} \right)^{2 + 3}} \cdot {\Delta _{23}} = {\left( { - 1} \right)^5} \cdot \left| {\begin{array}{*{20}{c}}
1&{ - 2}\\
{ - 1}&1
\end{array}} \right| =  - 1 \cdot \left( {1 - 2} \right) =  - 1 \cdot \left( { - 1} \right) = 1\]

\[{A_{31}} = {\left( { - 1} \right)^{3 + 1}} \cdot {\Delta _{31}} = {\left( { - 1} \right)^4} \cdot \left| {\begin{array}{*{20}{c}}
{ - 2}&5\\
4&1
\end{array}} \right| = 1 \cdot \left( { - 2 - 20} \right) = 1 \cdot \left( { - 22} \right) =  - 22\]

\[{A_{32}} = {\left( { - 1} \right)^{3 + 2}} \cdot {\Delta _{32}} = {\left( { - 1} \right)^5} \cdot \left| {\begin{array}{*{20}{c}}
1&5\\
{ - 3}&1
\end{array}} \right| =  - 1 \cdot \left( {1 - \left( { - 15} \right)} \right) =  - 1 \cdot 16 =  - 16\]

\[{A_{33}} = {\left( { - 1} \right)^{3 + 3}} \cdot {\Delta _{33}} = {\left( { - 1} \right)^6} \cdot \left| {\begin{array}{*{20}{c}}
1&{ - 2}\\
{ - 3}&4
\end{array}} \right| = 1 \cdot \left( {4 - 6} \right) = 1 \cdot \left( { - 2} \right) =  - 2\]

Matriz adjunta de una matriz cuadrada

La matriz adjunta de una matriz cuadrada \(A\), que denotaremos por \(A^d\), es la formada por los adjuntos de la matriz \(A\):

\[{A^d} = \left( {\begin{array}{*{20}{c}}
{{A_{11}}}&{{A_{12}}}&{{A_{13}}}\\
{{A_{21}}}&{{A_{22}}}&{{A_{23}}}\\
{{A_{31}}}&{{A_{32}}}&{{A_{33}}}
\end{array}} \right)\]

Así, la matriz adjunta de la matriz \(A\) del ejemplo anterior, es

\[{A^d} = \left( {\begin{array}{*{20}{c}}
7&5&1\\
9&7&1\\
{ - 22}&{ - 16}&{ - 2}
\end{array}} \right)\]

Matriz inversa de una matriz cuadrada utilizando determinantes

Un resultado muy importante sobre matrices cuadradas y determinantes es el siguiente

Teorema

Una matriz cuadrada \(A\) tiene inversa si, y solamente si, su determinante es distinto de cero. Simbólicamente:

\[A\in\mathcal{M}_n\ ,\exists\ {A^{ - 1}}\Leftrightarrow\left| A \right| \ne 0\]

Cálculo de la matriz inversa utilizando determinantes

Supongamos que una matriz cuadrada \(A\) tiene inversa. Es decir, según el teorema anterior, \(|A|\neq0\). Entonces la inversa de \(A\), \(A^{-1}\), viene dada por la siguiente fórmula:

\[{A^{ - 1}} = \frac{1}{{\left| A \right|}} \cdot {\left( {{A^d}} \right)^t}\]

La matriz \(\left(A^d\right)^t\) es la traspuesta de la adjunta de \(A\) (recuerda que la traspuesta de una matriz es otra matriz que se obtiene intercambiando las filas por las columnas).

Calculemos como ejemplo la matriz inversa de la matriz que hemos venido utilizando para los ejemplos anteriores.

\[{A^{ - 1}} = \frac{1}{{\left| A \right|}} \cdot {\left( {{A^d}} \right)^t} = \frac{1}{2} \cdot {\left( {\begin{array}{*{20}{c}}
7&5&1\\
9&7&1\\
{ - 22}&{ - 16}&{ - 2}
\end{array}} \right)^t} = \frac{1}{2} \cdot \left( {\begin{array}{*{20}{c}}
7&9&{ - 22}\\
5&7&{ - 16}\\
1&1&{ - 2}
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
{\frac{7}{2}}&{\frac{9}{2}}&{ - 11}\\
{\frac{5}{2}}&{\frac{7}{2}}&{ - 8}\\
{\frac{1}{2}}&{\frac{1}{2}}&{ - 1}
\end{array}} \right)\]

En el caso de matrices cuadradas de orden \(2\) la fórmula anterior es muy sencilla de recordar.

Supongamos que tenemos una matriz cuadrada de orden \(2\)

\[A = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}\\
{{a_{21}}}&{{a_{22}}}
\end{array}} \right)\]

Entonces es fácil darse cuenta de que la matriz adjunta de \(A\) y la traspuesta de la adjunta de \(A\), son las matrices

\[{A^d} = \left( {\begin{array}{*{20}{c}}
{{a_{22}}}&{ - {a_{21}}}\\
{ - {a_{12}}}&{{a_{11}}}
\end{array}} \right)\,,\,{\left( {{A^d}} \right)^t} = \left( {\begin{array}{*{20}{c}}
{{a_{22}}}&{ - {a_{12}}}\\
{ - {a_{21}}}&{{a_{11}}}
\end{array}} \right)\]

Por tanto:

\[{A^{ - 1}} = \frac{1}{{\left| A \right|}} \cdot \left( {\begin{array}{*{20}{c}}
{{a_{22}}}&{ - {a_{12}}}\\
{ - {a_{21}}}&{{a_{11}}}
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
{\dfrac{{{a_{22}}}}{{\left| A \right|}}}&{\dfrac{{ - {a_{12}}}}{{\left| A \right|}}}\\
{\dfrac{{ - {a_{21}}}}{{\left| A \right|}}}&{\dfrac{{{a_{11}}}}{{\left| A \right|}}}
\end{array}} \right)\]

Por ejemplo, dada la matriz

\[A = \left( {\begin{array}{*{20}{c}}
2&{ - 3}\\
1&4
\end{array}} \right)\]

tenemos que su determinante es

\[\left| A \right| = \left| {\begin{array}{*{20}{c}}
2&{ - 3}\\
1&4
\end{array}} \right| = 8 - ( - 3) = 8 + 3 = 11\]

Por tanto, la inversa de \(A\) será la matriz

\[{A^{ - 1}} = \left( {\begin{array}{*{20}{c}}
{\dfrac{{{a_{22}}}}{{\left| A \right|}}}&{\dfrac{{ - {a_{12}}}}{{\left| A \right|}}}\\
{\dfrac{{ - {a_{21}}}}{{\left| A \right|}}}&{\dfrac{{{a_{11}}}}{{\left| A \right|}}}
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
{\frac{4}{{11}}}&{\frac{3}{{11}}}\\
{ - \frac{1}{{11}}}&{\frac{2}{{11}}}
\end{array}} \right)\]

Propiedades de los determinantes

En la enumeración de estas propiedades daremos por hecho que nos referimos siempre a una matriz cuadrada de cualquier orden.

1. El determinante de una matriz es igual que el de su traspuesta: \(|A|=|A^t|\).

2. Si una matriz tiene una fila o una columna de ceros, su determinante es cero.

3. Si se intercambian dos filas o dos columnas de una matriz, su determinante cambia de signo.

4. Si una matriz tiene dos filas o dos columnas iguales, su determinante es cero.

5. Si multiplicamos por el mismo número todos los elementos de una fila o de una columna de una matriz, su determinante queda multiplicado por ese número. Consecuentemente, el determinante de una matriz cuadra \(A\) de orden \(n\) multiplicada por un número real \(\lambda\) es igual a \(\lambda^n\) veces el determinante de \(A\), es decir, \(|\lambda A|=\lambda^n|A|\).

6. Si una matriz tiene dos filas o dos columnas proporcionales, su determinante es cero.

7. Si denotamos por \(c_1,\ldots,c_i,\ldots,c_n\) a las \(n\) columnas de una matriz cuadrada de orden \(n\), tenemos:

\[|c_1,\ldots,c_i+c_i',\ldots,c_n|=|c_1,\ldots,c_i,\ldots,c_n|+|c_1,\ldots,c_i',\ldots,c_n|\]

Esta descomposición es válida cualesquiera sean la fila o la columna en la que se encuentren los sumandos.

8. Si a una fila o una columna de una matriz le sumamos una combinación lineal de las demás filas o columnas, su determinante no varía.

9. Si una matriz tiene una fila o una columna que es combinación lineal de las demás filas o columnas, entonces su determinante es cero. Y, recíprocamente, si un determinante es cero, es porque una fila o una columna es combinación de las demás.

10. El determinante del producto de dos matrices es igual al producto de sus determinantes: \(|A\cdot B|=|A|\cdot|B|\).

11. El determinante de una matriz triangular es igual al producto de los elementos situados en la diagonal principal. En particular \(|I|=1\), donde \(I\) es la matriz identidad de orden \(n\).

Cálculo de un determinante desarrollando por los elementos de una fila o de una columna

Sea \(A=(a_{ij})\in\mathcal{M}_n\). El determinante de la matriz \(A\) se puede calcular usando la siguiente fórmula:

\[|A|=a_{i1}A_{i1}+a_{i2}A_{i2}+\cdots+a_{in}A_{in}\]

si desarrollamos por los elementos de la fila \(i\)-ésima, o bien

\[|A|=a_{1j}A_{1j}+a_{2j}A_{2j}+\cdots+a_{nj}A_{nj}\]

si desarrollamos por los elementos de la columna \(j\)-ésima.

Usando el desarrollo de por los elementos de una fila o de una columna podemos calcular un determinante de orden superior a tres. Veamos un ejemplo de cálculo de un determinante de orden \(4\).

\[\left| {\begin{array}{*{20}{c}}
2&{ - 1}&3&1\\
{ - 2}&4&5&0\\
1&{ - 6}&0&2\\
3&{ - 3}&2&1
\end{array}} \right| = 1 \cdot {A_{31}} + \left( { - 6} \right) \cdot {A_{32}} + 0 \cdot {A_{33}} + 2 \cdot {A_{34}} = \]

\[= 1 \cdot \left| {\begin{array}{*{20}{c}}
{ - 1}&3&1\\
4&5&0\\
{ - 3}&2&1
\end{array}} \right| + 6 \cdot \left| {\begin{array}{*{20}{c}}
2&3&1\\
{ - 2}&5&0\\
3&2&1
\end{array}} \right| - 2 \cdot \left| {\begin{array}{*{20}{c}}
2&{ - 1}&3\\
{ - 2}&4&5\\
3&{ - 3}&2
\end{array}} \right| =\]

\[= 1 \cdot 6 + 6 \cdot \left( { - 3} \right) - 2 \cdot 9 = 6 - 18 - 18 =  - 30\]

Donde se ha desarrollado por los elementos de la tercera fila. Se deja al lector el cálculo de los determinantes de orden tres que aparecen el desarrollo anterior.

Usando las propiedades de los determinantes y el desarrollo por los elementos de una fila o de una columna se pueden calcular algunos determinantes con cierta facilidad. Veamos un ejemplo.

Supongamos que queremos resolver la ecuación

\[\left| {\begin{array}{*{20}{c}}
{2x - 1}&{3x}&{x - 2}\\
{2x + 1}&x&{2x + 1}\\
{2x - 1}&{3x}&{3x - 2}
\end{array}} \right| = 0\]

Si en el determinante le restamos a la segunda fila la primera y a la tercera también la primera nos queda un determinante más sencillo. Posteriormente desarrollamos por lo elementos de la tercera fila.

\[\left| {\begin{array}{*{20}{c}}
{2x - 1}&{3x}&{x - 2}\\
{2x + 1}&x&{2x + 1}\\
{2x - 1}&{3x}&{3x - 2}
\end{array}} \right| = \left| {\begin{array}{*{20}{c}}
{2x - 1}&{3x}&{x - 2}\\
2&{ - 2x}&{x + 3}\\
0&0&{2x}
\end{array}} \right| = 2x\left| {\begin{array}{*{20}{c}}
{2x - 1}&{3x}\\
2&{ - 2x}
\end{array}} \right| =\]

\[= 2x\left( { - 4{x^2} + 2x - 6x} \right) = 2x\left( { - 4{x^2} - 4x} \right) =  - 8{x^2}\left( {x + 1} \right)\]

Por tanto la ecuación inicial es equivalente a \(- 8{x^2}\left( {x + 1} \right) = 0\), cuyas soluciones son claramente \(x=0\) y \(x=-1\).

Como se podrá observar para calcular un determinante a veces conviene "hacer ceros" en alguna fila o columna, usando la propiedad \(8\) y desarrollar posteriormente por la fila o por la columna elegida.

En el enlace puedes ver algunos ejercicios resueltos de cálculo de determinantes usando las propiedades y el desarrollo por una fila o por una columna.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Matrices. Álgebra de matrices

Primeras definiciones

Una matriz es un conjunto de elementos (números) ordenado en filas y columnas. En general una matriz se nombra con una letra mayúscula y a sus elementos con letras minúsculas indicando en subíndices la fila y la columna que ocupan.

\[A = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{{a_{13}}}&{.....}&{{a_{1n}}}\\
{{a_{21}}}&{{a_{22}}}&{{a_{33}}}&{.....}&{{a_{2n}}}\\
{.....}&{.....}&{.....}&{.....}&{.....}\\
{{a_{m1}}}&{{a_{m2}}}&{{a_{m3}}}&{.....}&{{a_{mn}}}
\end{array}} \right) = \left( {{a_{i\,j}}} \right)\quad{\begin{cases}i=1,2,\ldots,m\\j=1,2,\ldots,n\end{cases}}\]

La matriz anterior tiene \(m\) filas y \(n\) columnas. Se suele decir que es de orden o dimensión \(m\times n\) . Los elementos \(a_{ij}\) son números reales \(a_{ij}\in\mathbb{R}\). El primer subíndice, \(i\), indica la fila y el segundo, \(j\), indica la columna que ocupa el término \(a_{ij}\).

Dos matrices son iguales cuando son del mismo orden y coinciden término a término. O sea, si \(A = {\left( {{a_{i\,j}}} \right)_{m \times n}}\) y \(B = {\left( {{b_{i\,j}}} \right)_{m \times n}}\), entonces

\[A = B \Leftrightarrow {a_{ij}} = {b_{ij}}\ , \forall i = 1,...,m\ \text{;}\ \forall j = 1,...,n\]

Dada una matriz \(A = {\left( {{a_{i\,j}}} \right)_{m \times n}}\), se llama traspuesta de \(A\), a otra matriz que denotaremos por \(A^t\) y que se obtiene al cambiar en \(A\) las filas por las columnas y las columnas por las filas. Es decir, \({A^t} = {\left( {{a_{ji}}} \right)_{n \times m}}\). Por ejemplo:

\[A = \left( {\begin{array}{*{20}{c}}
1&{ - 2}&0&3\\
{ - 5}&4&6&{ - 7}\\
0&2&{ - 1}&{ - 4}
\end{array}} \right) \Rightarrow {A^t} = \left( {\begin{array}{*{20}{c}}
1&{ - 5}&0\\
{ - 2}&4&2\\
0&6&{ - 1}\\
3&{ - 7}&{ - 4}
\end{array}} \right)\]

Obsérvese que, sea quién sea la matriz \(A\), siempre se cumple que \((A^t)^t=A\).

Una matriz es cuadrada si tiene tantas filas como columnas. En este caso, en vez de decir que es de orden \(n\times n\), diremos que es de orden \(n\). Dada una matriz cuadrada \(A\) de orden \(n\), se llama diagonal principal de la matriz \(A\) a los elementos \(a_{11}\), \(a_{22}\), ..., \(a_{nn}\).

Una matriz cuadrada \(A\) es simétrica si coincide con su traspuesta, es decir, si \(A=A^t\). Por ejemplo, la matriz

\[C = \left( {\begin{array}{*{20}{c}}
1&{ - 7}&6\\
{ - 7}&4&3\\
6&3&{ - 2}
\end{array}} \right)\]

es simétrica pues \(C=C^t\). En este caso, además, los elementos de la diagonal principal son \(1\), \(4\), \(-2\).

Una matriz cuadrada recibe el nombre de matriz triangular si los elementos situados por encima o por debajo de los que ocupan la diagonal principal son nulos. Por ejemplo, son matrices triangulares

\[\left( {\begin{array}{*{20}{c}}
1&2&{ - 3}&6\\
0&{ - 4}&1&0\\
0&0&2&{ - 5}\\
0&0&0&{ - 1}
\end{array}} \right)\,\,;\,\,\left( {\begin{array}{*{20}{c}}
8&0&0&0\\
7&{ - 6}&0&0\\
5&{ - 3}&2&0\\
{ - 4}&3&{ - 2}&1
\end{array}} \right)\]

Una matriz cuadrada se dice que es diagonal si los únicos elementos no nulos que puede tener son los de la diagonal principal. Por ejemplo, la matriz

\[\left( {\begin{array}{*{20}{c}}
1&0&0\\
0&{ - 2}&0\\
0&0&4
\end{array}} \right)\]

es diagonal.

Operaciones con matrices

Hay tres operaciones básicas con matrices: producto de un número real por una matriz, suma de matrices y producto de matrices. Veremos con detenimiento cada una de ellas, pues no es posible sumar o multiplicar dos matrices cualesquiera.

Producto de un número por una matriz

Para multiplicar un número real \(k\) por una matriz \(A = {\left( {{a_{i\,j}}} \right)_{m \times n}}\), se multiplica el número \(k\) por todos y cada uno de los términos de la matriz \(A\): \(kA = {\left( {k{a_{i\,j}}} \right)_{m \times n}}\). Por ejemplo:

\[A = \left( {\begin{array}{*{20}{c}}
1&{ - 1}&2\\
8&{ - 7}&{ - 3}\\
4&5&{ - 9}
\end{array}} \right) \Rightarrow  - 3A = \left( {\begin{array}{*{20}{c}}
{ - 3}&3&{ - 6}\\
{ - 24}&{21}&9\\
{ - 12}&{ - 15}&{27}
\end{array}} \right)\]

Suma de matrices

Para que dos matrices \(A\) y \(B\) puedan sumarse, es necesario que sean del mismo orden. En este caso, la suma se efectúa término a término: dadas \(A = {\left( {{a_{i\,j}}} \right)_{m \times n}}\) y \(B = {\left( {{b_{i\,j}}} \right)_{m \times n}}\), entonces \(A + B = {\left( {{a_{ij}} + {b_{ij}}} \right)_{m \times n}}\). Por ejemplo:

\[A = \left( {\begin{array}{*{20}{c}}
1&{ - 3}&{ - 5}\\
{ - 2}&4&6
\end{array}} \right)\,,\, B = \left( {\begin{array}{*{20}{c}}
4&5&{ - 3}\\
1&8&{ - 5}
\end{array}} \right)\Rightarrow\]

\[\Rightarrow A + B = \left( {\begin{array}{*{20}{c}}
1&{ - 3}&{ - 5}\\
{ - 2}&4&6
\end{array}} \right) + \left( {\begin{array}{*{20}{c}}
4&5&{ - 3}\\
1&8&{ - 5}
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
5&2&{ - 8}\\
{ - 1}&{12}&1
\end{array}} \right)\]

Producto de una matriz fila por una matriz columna

Ni que decir tiene que una matriz fila es la formada por una sola fila y una matriz columna es la formada por una sola columna. Una matriz fila se puede multiplicar por una matriz columna si ambas tienen el mismo número de términos. Es decir si

\[A = {\left( {{a_{1j}}} \right)_{1 \times n}} = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{...}&{{a_{1n}}}
\end{array}} \right)\,,\,B = {\left( {{b_{i1}}} \right)_{n \times 1}} = \left( {\begin{array}{*{20}{c}}
{{b_{11}}}\\
{{b_{21}}}\\
{...}\\
{{b_{n1}}}
\end{array}} \right)\]

el producto de ambas es

\[AB = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{.....}&{{a_{1n}}}
\end{array}} \right)\left( {\begin{array}{*{20}{c}}
{{b_{11}}}\\
{{b_{21}}}\\
{...}\\
{{b_{n1}}}
\end{array}} \right) = a{}_{11}b{}_{11} + {a_{12}}{b_{21}} + ..... + {a_{1n}}{b_{n1}} = \sum\limits_{i = 1}^n {{a_{1i}}{b_{i1}}}\]

Obsérvese que el resultado de multiplicar una matriz fila por una matriz columna es un número real. Por ejemplo:

\[A = \left( {\begin{array}{*{20}{c}}
1&{ - 2}&3&5
\end{array}} \right)\,,\,B = \left( {\begin{array}{*{20}{c}}
{ - 4}\\
{ - 2}\\
{ - 5}\\
7
\end{array}} \right)\Rightarrow\]

\[\Rightarrow AB = \left( {\begin{array}{*{20}{c}}
1&{ - 2}&3&5
\end{array}} \right)\left( {\begin{array}{*{20}{c}}
{ - 4}\\
{ - 2}\\
{ - 5}\\
7
\end{array}} \right) = 1 \cdot \left( { - 4} \right) + \left( { - 2} \right) \cdot \left( { - 2} \right) + 3 \cdot \left( { - 5} \right) + 5 \cdot 7 =  - 4 + 4 - 15 + 35 = 20\]

Producto de matrices

Para que dos matrices puedan multiplicarse es necesario que el número de columnas de la primera coincida con el número de filas de la segunda. Concretamente, dadas \(A = {\left( {{a_{ik}}} \right)_{m \times p}}\) y \(B = {\left( {{b_{kj}}} \right)_{p \times n}}\) (observa que el número de columnas de la primera coincide con el número de filas de la segunda), se define el producto de \(A\) por \(B\), de la siguiente forma:\(A \cdot B = C = {\left( {{c_{ij}}} \right)_{m \times n}}\), donde \(c_{ij}\) es el producto de la fila \(i\) por la columna \(j\), tal y como se vio en el apartado anterior:

\[{c_{ij}} = \left( {\begin{array}{*{20}{c}}
{{a_{i1}}}&{{a_{i2}}}&{.....}&{{a_{ip}}}
\end{array}} \right)\left( {\begin{array}{*{20}{c}}
{{b_{1j}}}\\
{{b_{2j}}}\\
{...}\\
{{b_{pj}}}
\end{array}} \right) = a{}_{i1}b{}_{1j} + {a_{i2}}{b_{2j}} + ..... + {a_{ip}}{b_{pj}} = \sum\limits_{k = 1}^p {{a_{ik}}{b_{kj}}}\]

La matriz producto \(C\) tiene tantas filas como la matriz \(A\) (\(m\)) y tantas columnas como la matriz \(B\) (\(n\)).

Un ejemplo ilustrará muy bien la definición de producto de matrices. Sean

\[A = \left( {\begin{array}{*{20}{c}}
{ - 2}&{ - 3}&0&1\\
3&{ - 4}&2&{ - 1}\\
0&1&6&2
\end{array}} \right)\,,\,B = \left( {\begin{array}{*{20}{c}}
1&{ - 3}\\
5&0\\
6&{ - 2}\\
{ - 1}&2
\end{array}} \right)\]

El producto \(A\cdot B\) puede realizarse porque la matriz \(A\) tiene tantas columnas como filas tiene la matriz \(B\) (\(4\)). Entonces:

\[A \cdot B = \left( {\begin{array}{*{20}{c}}
{ - 2}&{ - 3}&0&1\\
3&{ - 4}&2&{ - 1}\\
0&1&6&2
\end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}}
1&{ - 3}\\
5&0\\
6&{ - 2}\\
{ - 1}&2
\end{array}} \right) = \]

\[= \left( {\begin{array}{*{20}{c}}
{ - 2 \cdot 1 + \left( { - 3} \right) \cdot 5 + 0 \cdot 6 + 1 \cdot \left( { - 1} \right)}&{ - 2 \cdot \left( { - 3} \right) + \left( { - 3} \right) \cdot 0 + 0 \cdot \left( { - 2} \right) + 1 \cdot 2}\\
{3 \cdot 1 + \left( { - 4} \right) \cdot 5 + 2 \cdot 6 + \left( { - 1} \right) \cdot \left( { - 1} \right)}&{3 \cdot \left( { - 3} \right) + \left( { - 4} \right) \cdot 0 + 2 \cdot \left( { - 2} \right) + \left( { - 1} \right) \cdot 2}\\
{0 \cdot 1 + 1 \cdot 5 + 6 \cdot 6 + 2 \cdot \left( { - 1} \right)}&{0 \cdot \left( { - 3} \right) + 1 \cdot 0 + 6 \cdot \left( { - 2} \right) + 2 \cdot 2}
\end{array}} \right) =\]

\[=\left( {\begin{array}{*{20}{c}}
{ - 18}&8\\
{ - 4}&{ - 15}\\
{39}&{ - 8}
\end{array}} \right)\]

Observa que la matriz producto es de orden \(3\times2\).

Propiedades de las operaciones con matrices

Denotaremos por \(\mathcal{M}_{m\times n}\) al conjunto formado por todas las matrices de orden \(m\times n\). La estructura de este conjunto depende de las propiedades de las operaciones con matrices.

Propiedades del producto de números por matrices

Si \(a,b\in\mathbb{R}\) y \(A,B\in\mathcal{M}_{m\times n}\), se cumplen las siguientes propiedades.

  • Asociativa: \(a\left( {bA} \right) = \left( {ab} \right)A\)
  • Distributiva I: \(\left( {a + b} \right)A = aA + bA\)
  • Distributiva II: \(a\left( {A + B} \right) = aA + aB\)
  • Producto por el número \(1\): \(1A=A\)

Propiedades de la suma de matrices

Sean \(A,B,C\in\mathcal{M}_{m\times n}\). Entonces se cumplen las siguientes propiedades:

  • Asociativa: \((A+B)+C=A+(B+C)\)
  • Conmutativa: \(A+B=B+A\)
  • Elemento neutro: la matriz \(O_{m\times n}\), cuyos elementos son todos 0, sumada con cualquier otra matriz de orden \(m\times n\), la deja igual, es decir: \(A+O=O+A=A\)
  • Elemento opuesto: la opuesta de la matriz \(A\) es otra matriz del mismo orden, \(-A\), cuyos elementos son los opuestos de los elementos de la matriz A, es decir, si \(A = \left( {{a_{ij}}} \right)\) entonces \(-A = \left( {{-a_{ij}}} \right)\). En este caso se cumple que \(A + \left( { - A} \right) = A - A = O\) ; \(- A + A = O\), ya que \(\left( {{a_{ij}}} \right) + \left( { - {a_{ij}}} \right) = \left( {{a_{ij}} - {a_{ij}}} \right) = \left( 0 \right) = O\)

Propiedades del producto de matrices

  • Asociativa: \(\left( {{A_{m \times n}} \cdot {B_{n \times p}}} \right) \cdot {C_{p \times q}} = {A_{m \times n}} \cdot \left( {{B_{n \times p}} \cdot {C_{p \times q}}} \right)\)
  • El producto de matrices no es conmutativo, es decir, en general el producto \(A\cdot B\) no es igual al producto \(B\cdot A\) (siempre que ambos productos puedan hacerse) \(A \cdot B \ne B \cdot A\).

Propiedades distributivas

Si \(A\), \(B\), \(C\), \(D\) son matrices cuyas dimensiones permiten efectuar las operaciones que se indican, se cumplen las siguientes propiedades:

  • \(A\cdot(B+C)=A\cdot B+A\cdot C\)
  • \((B+C)\cdot D=B\cdot D+C\cdot D\)

Matrices cuadradas

Designaremos por \(\mathcal{M_n}\) al conjunto de las matrices cuadradas de orden \(n\). Además de poder sumarse y multiplicarse por números, pueden claramente multiplicarse entre sí (si multiplicamos dos matrices de orden \(n\) el resultado es otra matriz de orden \(n\)). Estas operaciones cumplen todas las propiedades estudiadas hasta ahora. Pero el conjunto \(\mathcal{M_n}\) tiene algunas otras peculiaridades.

Matriz identidad o matriz unidad

La matriz identidad o matriz unidad es una matriz diagonal en la que los elementos de la diagonal principal son todos "unos". Se denota por I. Por tanto la matriz identidad de orden \(n\) será

\[{I_n} = {\left( {\begin{array}{*{20}{c}}
1&0&0&{...}&0\\
0&1&0&{...}&0\\
0&0&1&{...}&0\\
{...}&{...}&{...}&{...}&{...}\\
0&0&0&{...}&1
\end{array}} \right)_{n \times n}}\]

Dada una matriz \(A\in\mathcal{M_n}\) se cumple que \(A\cdot I_n=I_n\cdot A=A\). En general se escribe \(A\cdot I=I\cdot A=A\), suponiendo que \(A\) e \(I\) son matrices cuadradas del mismo orden. Es esta razón por la que a \(I\) se le llama matriz identidad o unidad. Es el elemento neutro para el producto de matrices, como el \(1\) en el producto de números reales.

Matriz inversa

Dada una matriz \(A\in\mathcal{M_n}\), se llama matriz inversa de \(A\), a otra matriz \(A^{-1}\in\mathcal{M_n}\), cumpliendo que \(A\cdot A^{-1}=I\); \(A^{-1}\cdot A=I\). Obsérvese que si la matriz \(A\) tiene inversa \(A^{-1}\), entonces al multiplicarlas sí que se cumple la propiedad conmutativa y el resultado es la matriz identidad. Puede comprobarse con facilidad, realizando el producto de ambas, que las dos siguientes matrices son inversas una de la otra.

\[A = \left( {\begin{array}{*{20}{c}}
1&2&3\\
0&1&2\\
1&2&4
\end{array}} \right)\,,\,{A^{ - 1}} = \left( {\begin{array}{*{20}{c}}
0&{ - 2}&1\\
2&1&{ - 2}\\
{ - 1}&0&1
\end{array}} \right)\]

Cálculo de la inversa de una matriz por el método de Gauss

Para hallar la inversa, \(A^{-1}\), de una matriz \(A\), impondremos a la matriz identidad \(I\) los mismos cambios a los que hay que someter a la matriz \(A\) para obtener la matriz identidad.

En la práctica, se coloca la matriz \(A\), y a su derecha, la matriz \(I\). Se realizan las transformaciones necesarias para que \(A\) se transforme en \(I\). Como consecuencia, la matriz que se obtiene a la derecha de \(I\) es \(A^{-1}\). Todas las transformaciones que se realicen serán idénticas a las que utilizamos para resolver un sistema de ecuaciones por el método de Gauss. Si, al final del proceso, en la parte de la izquierda aparece una fila de ceros, entonces la matriz \(A\) no tiene inversa.

Calculemos por este método, por ejemplo, la matriz inversa de la matriz

\[A = \left( {\begin{array}{*{20}{c}}
1&1&3\\
1&2&1\\
2&0&0
\end{array}} \right)\]

\[\left( {\begin{array}{*{20}{c}}
1&1&3&1&0&0\\
1&2&1&0&1&0\\
2&0&0&0&0&1
\end{array}} \right) \to \left( {\begin{array}{*{20}{c}}
1&1&3&1&0&0\\
0&1&{ - 2}&{ - 1}&1&0\\
0&{ - 2}&{ - 6}&{ - 2}&0&1
\end{array}} \right) \to \left( {\begin{array}{*{20}{c}}
1&1&3&1&0&0\\
0&1&{ - 2}&{ - 1}&1&0\\
0&0&{ - 10}&{ - 4}&2&1
\end{array}} \right) \to\]

\[\to \left( {\begin{array}{*{20}{c}}
{10}&{10}&0&{ - 2}&6&3\\
0&{ - 5}&0&1&{ - 3}&1\\
0&0&{ - 10}&{ - 4}&2&1
\end{array}} \right) \to \left( {\begin{array}{*{20}{c}}
{10}&0&0&0&0&5\\
0&{ - 5}&0&1&{ - 3}&1\\
0&0&{ - 10}&{ - 4}&2&1
\end{array}} \right)\]

Como se puede apreciar se han realizado cuatro transformaciones. Si a las filas de la matriz las llamamos \(f_1\), \(f_2\) y \(f_3\), las transformaciones realizadas son las siguientes:

  • \(f_2-f_1\) y \(f_3-2f_1\)
  • \(f_3+2f_2\)
  • \(-5f_2+f_3\) y \(10f_1+3f_3\)
  • \(f_1+2f_2\)

Finalmente dividimos la primera fila entre \(10\), la segunda entre \(-5\) y la tercera entre \(-10\), obteniendo:

\[\left( {\begin{array}{*{20}{c}}
1&0&0&0&0&{\frac{1}{2}}\\
0&1&0&{ - \frac{1}{5}}&{\frac{3}{5}}&{ - \frac{1}{5}}\\
0&0&1&{\frac{2}{5}}&{ - \frac{1}{5}}&{ - \frac{1}{{10}}}
\end{array}} \right)\]

Por tanto la inversa de \(A\) es:

\[{A^{ - 1}} = \left( {\begin{array}{*{20}{c}}
0&0&{\frac{1}{2}}\\
{ - \frac{1}{5}}&{\frac{3}{5}}&{ - \frac{1}{5}}\\
{\frac{2}{5}}&{ - \frac{1}{5}}&{ - \frac{1}{{10}}}
\end{array}} \right)\]

Forma matricial de un sistema de ecuaciones

Todo sistema de ecuaciones lleva asociado tres matrices: la de los coeficientes, \(A\), la de las incógnitas, \(X\), y la de los términos independientes, que llamaremos \(C\). Por ejemplo, el sistema

\[\left\{ \begin{array}{l}
2x - 3y + z = 1\\
x + y - 2z =  - 2\\
 - 3x - y + 3z = 2
\end{array} \right.\]

lleva asociadas las matrices

\[A = \left( {\begin{array}{*{20}{c}}
2&{ - 3}&1\\
1&1&{ - 2}\\
{ - 3}&{ - 1}&3
\end{array}} \right)\,,\,X = \left( {\begin{array}{*{20}{c}}
x\\
y\\
z
\end{array}} \right)\,,\,C = \left( {\begin{array}{*{20}{c}}
1\\
{ - 2}\\
{ - 2}
\end{array}} \right)\]

Por tanto el sistema se puede expresar matricialmente de la forma:

\[\left( {\begin{array}{*{20}{c}}
2&{ - 3}&1\\
1&1&{ - 2}\\
{ - 3}&{ - 1}&3
\end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}}
x\\
y\\
z
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
1\\
{ - 2}\\
{ - 2}
\end{array}} \right)\]

es decir, \(A\cdot X=C\). Si la matriz \(A\) tuviera inversa, \(A^{-1}\), podríamos despejar \(X\) del siguiente modo: multiplicamos por la izquierda los dos miembros de la igualdad \(A \cdot X = C\) por \(A^{-1}\): \({A^{ - 1}} \cdot \left( {A \cdot X} \right) = {A^{ - 1}} \cdot C\). Aplicando la propiedad asociativa \(\left( {{A^{ - 1}} \cdot A} \right) \cdot X = {A^{ - 1}} \cdot C\). Entonces \(I \cdot X = {A^{ - 1}} \cdot C\), con lo que se obtiene \(X = {A^{ - 1}} \cdot C\).

Si quieres puedes hacer la experiencia con el sistema anterior. Si todo va bien al calcular la matriz incógnita \(X\) debes obtener

\[X = \left( {\begin{array}{*{20}{c}}
x\\
y\\
z
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
1\\
1\\
2
\end{array}} \right)\]

Es decir \(x=1\), \(y=1\), \(z=2\).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Problemas de optimización. Optimización en economía

Muchos problemas requieren buscar un valor que haga mínima o máxima una cantidad. Esta cantidad puede venir dada en una fórmula, en otras ocasiones deberemos plantear nosotros la fórmula. En este artículo puedes ver con detalle de qué tratan este tipo de problemas.

En todo caso recordaremos algunas pautas para resolver problemas de optimización.

  1. Leer el problema hasta comprenderlo. Localizar la cantidad se ha de hacer máxima o mínima, es decir, aquella cantidad que tenemos que optimizar.
  2. Si procede, realizar algún dibujo de la situación que muestre como se relacionan los elementos que varían. Escoger nombres a las variables de interés. Si hay varias variables involucradas, estudiar cómo se relacionan. Hay que plantear una ecuación donde se hagan patentes las relaciones entre las variables. Esta ecuación se suele llamar de ligadura (porque establece la relación entre las variables) o ecuación de restricción.
  3. Expresar la cantidad que se quiere optimizar como función de una de las variables. Esta función se conoce con el nombre de función objetivo. Si hay dos o más variables, despejar las variables en términos de una sola, usando la ecuación de ligadura (o restricción) y sustituirla en la función objetivo. Determinar el dominio de la función resultante de acuerdo a la naturaleza del problema.
  4. Determinar los máximos o mínimos de la función a optimizar. Hay que garantizar que el extremo sea absoluto.
  5. Por último, es conveniente responder con palabras cada pregunta del problema.

Para el cálculo de los extremos (máximos y mínimos) de una función recomendamos la lectura de estos apuntes sobre derivadas.

Optimización en economía

Hay una gran variedad de problemas en administración y economía donde se emplea la derivada para encontrar máximos y mínimos. En particular, a una empresa le interesa el nivel de producción donde se alcanza la máxima utilidad o el máximo ingreso; o a un empresario le interesaría saber el nivel de producción al que el coste promedio por unidad es mínimo. Veamos algunos ejercicios que nos sirvan de ejemplo.

Ejercicio 1

El coste total de producir \(q\) unidades de un artículo está dado por

\[c(q)=5000+4q+\frac{1}{2}q^2\]

¿Cuántas unidades deberán producirse a fin de obtener el mínimo coste promedio por unidad? ¿Cuál es ese mínimo coste promedio?

 

En primer lugar hemos de obtener el coste promedio, que se calcula dividiendo el coste total entre el número de unidades \(q\):

\[\overline{c}(q)=\frac{5000+4q+\frac{1}{2}q^2}{q}=\frac{5000}{q}+4+\frac{1}{2}q\]

Derivando \(\overline{c}\) tenemos:

\[\overline{c}'(q)=-\frac{5000}{q^2}+\frac{1}{2}\]

Igualamos la derivada a cero para encontrar los posibles máximos o mínimos (valores críticos):

\[-\frac{5000}{q^2}+\frac{1}{2}=0\Leftrightarrow-10000+q^2=0\Leftrightarrow\begin{cases}q=100\\q=-100\end{cases}\]

Eliminamos la solución negativa pues carece de sentido.

Para saber qué clase de punto es \(q=100\) volvemos a derivar la función coste promedio y evaluamos precisamente en \(q=100\):

\[\overline{c}''(q)=\frac{10000}{q^3}\Rightarrow\overline{c}''(100)=\frac{10000}{100^3}>0\]

De lo anterior se deduce que en \(q=100\) se alcanza un mínimo relativo, con lo que podemos concluir que cuando se producen 100 unidades tendremos el coste promedio mínimo.

Además, el mínimo coste promedio es:

\[\overline{c}(100)=\frac{c(100)}{100}=\frac{5000+4\cdot100+(100)^2/2}{100}=\frac{5000+400+5000}{100}=104\ \text{um}\]

Ejercicio 2

El coste total de producir \(q\) unidades de un artículo está dado por

\[c(q)=1000+300q+\frac{1}{20}q^2\]

Si la ecuación de demanda está dada por \(p=400-0,1q\), ¿Cuántas unidades deberán producirse a fin de obtener la máxima utilidad? ¿Cuál es el precio en que se tiene la máxima utilidad? ¿Cuál es la utilidad máxima posible? Si el gobierno impone un impuesto de 10 euros por unidad, ¿cuál es el nuevo nivel de producción que maximiza la utilidad?

 

En primer lugar se debe conseguir la función utilidad \(U=I-C\) (ingresos menos costes). En este caso, como \(I=pq=(400-0,1q)q=400q-0,1q^2\), tenemos:

\[U(q)=(400q-0,1q^2)-\left(1000+300q-\frac{1}{20}q^2\right)=400q-0,1q^2-1000-300q-\frac{1}{20}q^2\Rightarrow\]

\[\Rightarrow U(q)=-\frac{3}{20}q^2+100q-1000\]

Derivando e igualando a cero tenemos:

\[U'(q)=-\frac{6}{20}q+100=0\Rightarrow q=\frac{1000}{3}\]

Tenemos pues un único punto crítico (posible máximo o mínimo). Volviendo a derivar:

\[U''(q)=-\frac{6}{20}\]

Como \(U''(q)\) es siempre negativa, se tiene que \(q=\dfrac{1000}{3}\) es un máximo relativo y por existir un único extremo, este es absoluto (podíamos haber hecho esto teniendo en cuenta que la función \(U\) es una parábola que se abre "hacia abajo" y que, por tanto, el vértice es su único máximo absoluto).

Sustituyendo en la ecuación de demanda obtenemos el precio de venta máximo:

\[p=400-0,1\frac{1000}{3}=\frac{1100}{3}\approx367\ \text{UM}\]

Y ahora conseguimos el valor máximo de la función de utilidad:

\[U\left(\frac{1000}{3}\right)=-\frac{3}{20}\left(\frac{1000}{3}\right)^2+100\frac{1000}{3}-100\approx16567\ \text{UM}\]

Ejercicio 3

Un gimnasio tiene la cuota mensual en 100 euros. A ese precio se inscriben mensualmente un promedio de 550 clientes. Se quiere subir los precios y se estima que por cada aumento de 2 euros se pierden 5 clientes ¿Qué precio se deberá fijar a fin de que el gimnasio obtenga el máximo ingreso?

Leer más ...

Sistemas de ecuaciones lineales. El método de Gauss

En los artículos anteriores se ha analizado la ecuación lineal de primer grado con dos incógnitas, y la ecuación lineal de primer grado con tres incógnitas, así como su interpretación geométrica en el plano y en el espacio afín. En otro artículo, dedicado a los sistemas de dos ecuaciones lineales de primer grado con dos incógnitas, ya se ha hecho uso de un método para resolver sistemas de ecuaciones lineales: el método de Gauss. En este artículo se expone con detalle este método. Pero comenzaremos por el principio, explicando algunos conceptos previos.

Ecuación lineal

Es una ecuación polinómica de grado uno con una o varias incógnitas.

Por ejemplo, son ecuaciones lineales: \(2x - 3y + 4z = 8\), \(2\left( {3x - 6y + z} \right) - 5 = 7y + z - 1\). Sin embargo, no son ecuaciones lineales: \({x^2} - y + 3z = 1\), \(2x - xy + 3xyz = 6\).

O sea, que para que una ecuación sea lineal, en cada término ha de haber a lo sumo una incógnita como mucho elevada a uno. Se llaman ecuaciones lineales porque una ecuación lineal con dos incógnitas geométricamente representa una recta (línea), y una ecuación lineal con tres incógnitas representa un plano.

Ecuaciones equivalentes

Dos ecuaciones son equivalentes cuando tienen la misma solución (o las mismas soluciones). Si se les suma o se les resta a los dos miembros de una ecuación un mismo número se obtiene una ecuación equivalente a la primera. Si se multiplican o dividen los dos miembros de una ecuación por un mismo número distinto de cero, también se obtiene una ecuación equivalente a la primera.

Por ejemplo: \(\dfrac{{ - 3\left( {2x - y} \right)}}{3} - \frac{{y - z}}{4} = \frac{1}{2} + x\) es equivalente a \(- 12\left( {2x - y} \right) - \left( {y - z} \right) = 6 + 12x\) (se han multiplicado todos los términos por 12), que es equivalente a \(- 24x + 12y - y + z = 6 + 12x\), que también es equivalente a \(- 36x + 11y + z = 6\). El razonamiento anterior, en lenguaje simbólico, se escribe así:

\[\frac{{ - 3\left( {2x - y} \right)}}{3} - \frac{{y - z}}{4} = \frac{1}{2} + x\Leftrightarrow - 12\left( {2x - y} \right) - \left( {y - z} \right) = 6 + 12x\Leftrightarrow\]

\[\Leftrightarrow - 24x + 12y - y + z = 6 + 12x\Leftrightarrow - 36x + 11y + z = 6\]

Por cierto, la ecuación anterior es un plano en el espacio afín tridimensional.

Sistemas de ecuaciones lineales

Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que se dan con el objetivo de determinar la solución o soluciones comunes a todas ellas.

Un sistema de ecuaciones lineales con dos incógnitas representa un conjunto de rectas. Se trata de saber si se cortan o no en algún punto (que sería la solución del sistema). Si, en cambio, las ecuaciones tienen tres incógnitas, se trataría de un conjunto de planos y habría que determinar si tiene un punto en común, o una recta común (haz de planos), o no tienen ningún punto en común.

Sistemas de ecuaciones equivalentes

Son aquellos que tienen las mismas soluciones. Es posible que dos sistemas sean equivalentes sin que lo sean las ecuaciones que los forman. Por ejemplo, los sistemas 

\[\left\{ \begin{array}{l}
2x - 3y = - 7\\
- x + y = - 1
\end{array} \right.\quad \text{y}\quad
\left\{ \begin{array}{l}
4x + 5y = - 3\\
- 3x - 2y = 4
\end{array} \right.\]

tienen ambos por solución \(x=-2\), \(y=1\), es decir, son equivalentes. Sin embargo, las ecuaciones que los forman no son para nada equivalentes las de uno con las del otro.

Transformaciones para obtener sistemas equivalentes

Un sistema se puede transformar en otro que sea equivalente, es decir, que tenga la mismas soluciones. Estas transformaciones pretenden reducir el primer sistema a otro más sencillo y a su vez a otro más simple, con el objetivo de obtener las soluciones del último de manera fácil. Estas soluciones también lo serán del primero, pues todos ellos eran equivalentes. Las transformaciones para obtener sistemas equivalentes son:

  • Multiplicar o dividir los dos miembros de una de las ecuaciones por un número distinto de cero.
  • Añadir una ecuación que sea combinación  lineal de las otras o, al contrario, suprimir una ecuación que sea combinación lineal de las otras.
  • Sustituir una ecuación por el resultado de sumarle otra multiplicada previamente por un número.

Veamos un ejemplo.

\[\left\{ \begin{array}{l}
2x - 5y = - 1\\
- 3x + y = - 5\\
5x - 6y = 4
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
2x - 5y = - 1\\
- 3x + y = - 5
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
6x - 15y = - 3\\
- 6x + 2y = - 10
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
6x - 15y = - 3\\
\,\,\,\,\,\,\,\,\, - 13y = - 13
\end{array} \right.\]

En la primera transformación se ha suprimido la tercera ecuación pues es el resultado de restar la primera menos la segunda. En la segunda transformación se ha multiplicado la primera por \(3\) y la segunda por \(2\). Y en la tercera transformación a la segunda ecuación se le ha sumado la primera. Obsérvese que el último sistema es fácil de resolver.

Clasificación de los sistemas según el número de soluciones. Ejemplos

Un sistema de ecuaciones se dice que es compatible si tiene solución. Si no tiene solución se dice que es incompatible. Los sistemas compatibles pueden ser de dos tipos: compatible determinado si el sistema tiene una única solución, y compatible indeterminado si tiene infinitas soluciones.

Por ejemplo, el sistema del ejemplo anterior es compatible determinado, pues tiene una única solución (\(x=2\), \(y=1\)). Ya sabemos que geométricamente significa que las rectas \(2x - 5y =  - 1\), \(-3x+y=-5\), \(5x-6y=4\) son secantes, es decir, se cortan en un punto, el punto de coordenadas \(\left( {2,1} \right)\).

Veamos otro ejemplo.

\[\left\{ \begin{array}{l}
x - 3y = 5\\
- 2x + 6y = 1
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
2x - 6y = 10\\
- 2x + 6y = 1
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
2x - 6y = 10\\
0 = 11
\end{array} \right.\]

Supongo que serás capaz de interpretar las transformaciones realizadas. Observa que finalmente se obtiene la igualdad \(0=11\), que es contradictoria. Esto quiere decir que el sistema no tiene solución: es un sistema incompatible. Geométricamente significa que las rectas \(x-3y=5\), \(-2x+6y=10\), son paralelas.

Hagamos ahora un par de ejemplos de sistemas de tres ecuaciones con tres incógnitas.

En primer lugar veamos un ejemplo de un sistema con solución única.

\[\left\{ \begin{array}{l}
- 3x + y - 2z = 1\\
2x - 3y + z = - 1\\
x + 5y - z = - 2
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
- 3x + y - 2z = 1\\
\,\,\,\,\,\,\,\,\,\,\,\, - 7y - z = - 1\\
\,\,\,\,\,\,\,\,\,\,\,16y - 5z = - 5
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
- 3x + y - 2z = 1\\
\,\,\,\,\,\,\,\,\,\,\,\, - 7y - z = - 1\\
\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\, - 51z = - 51
\end{array} \right.\]

Si llamamos \(f_1\), \(f_2\) y \(f_3\) a las filas del sistema podemos abreviar las operaciones realizadas en cada una de las transformaciones del sistema. En la primera transformación se han hecho las siguientes operaciones:

\[3f_2+2f_1\quad\text{;}\quad3f_3+f_1\]

Y en la segunda transformación se ha realizado la siguiente operación:

\[7f_3+16f_2\]

Es fácil deducir del último sistema que la solución del sistema es \(x=-1\), \(y=0\), \(z=1\) y que, por tanto, el sistema es compatible determinado. Geométricamente quiere decir que los tres planos son secantes en un punto, es decir, que se tocan en un único punto de coordenadas \(\left( { - 1,0,1} \right)\).

Veamos a continuación otro ejemplo de sistema que tiene infinitas soluciones.

\[\left\{ \begin{array}{l}
2x + 3y - z = 5\\
- x - y + z = 0\\
- 4x - 7y + z = - 15
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
2x + 3y - z = 5\\
\,\,\,\,\,\,\,\,\,\,\,\,\,y + z = 5\\
\,\,\,\,\,\,\,\,\, - y - z = - 5
\end{array} \right.\longrightarrow
\left\{ \begin{array}{l}
2x + 3y - z = 5\\
\,\,\,\,\,\,\,\,\,\,\,\,\,y + z = 5
\end{array} \right.\]

En este segundo ejemplo la primera transformación ha consistido en realizar las siguientes operaciones:

\[2f_2+f_1\quad\text{;}\quad f_3+2f_2\]

Y en la segunda transformación hemos realizado la siguiente operación:

\[f_3+f_2\]

Observa que al realizar la última transformación desaparece la última ecuación pues se obtiene \(0x + 0y + 0z = 0\Leftrightarrow 0=0\), que no aporta nada. En este caso (cuando al final el número de incógnitas es mayor que el número de ecuaciones) hay infinitas soluciones: el sistema es compatible indeterminado. Para calcularlas se procede de la siguiente manera: a una de las dos incógnitas de la última ecuación se le nombra con otra letra (generalmente la letra griega \(\lambda\), que recibe el nombre de parámetro). Este parámetro se pasa al segundo miembro y se resuelve el sistema de dos ecuaciones con dos incógnitas resultante. Llamemos pues \(z=\lambda\). Entonces:

\[\left\{ \begin{array}{l}
2x + 3y - \lambda = 5\\
\,\,\,\,\,\,\,\,\,\,\,\,\,y + \lambda = 5
\end{array} \right. \Rightarrow \left\{ \begin{array}{l}
2x + 3y = 5 + \lambda \\
\,\,\,\,\,\,\,\,\,\,\,\,\,y = 5 - \lambda
\end{array} \right.\]

Sustituyendo el valor de \(y\) en la primera ecuación, operando y despejando la incógnita \(x\), se obtiene:

\[2x - 3\left( {5 - \lambda } \right) = 5 + \lambda  \Rightarrow 2x - 15 + 3\lambda  = 5 + \lambda  \Rightarrow 2x = 20 - 2\lambda  \Rightarrow x = 10 - \lambda \]

Por tanto las infinitas soluciones del sistema son \(x = 10 - \lambda\), \(y=5-\lambda\), \(z=\lambda\). O mediante la terna \(\left( {10 - \lambda ,\,\,5 - \lambda ,\,\,\lambda } \right)\). Geométricamente significa que los planos \(2x + 3y - z = 5\), \(- x - y + z = 0\), \(- 4x - 7y + z = 15\) son secantes según una recta, o bien que forman un haz de planos de base la recta

\[\left( {10 - \lambda ,\,\,5 - \lambda ,\,\,\lambda } \right)=\left( {10,\,\,5,\,\,0} \right) + \lambda \left( { - 1,\,\, - 1,\,\,1} \right)\]

Vamos, que los tres planos se cortan en una recta (ver figura de más abajo). Obsérvese que la recta anterior pasa por el punto \(\left( {10,\,\,5,\,\,0} \right)\) y un vector director suyo es \(\left( { - 1,\,\, - 1,\,\,1} \right)\).

sistemas gauss 01

Sistemas escalonados

En los ejemplos anteriores, después de hacer las transformaciones pertinentes, se obtienen sistemas muy fáciles de resolver pues, desde abajo hacia arriba, vamos obteniendo el valor de cada incógnita por el método de sustitución. Este tipo de sistemas se llaman sistemas escalonados.

Obsérvese que en el caso del ejemplo anterior, donde el sistema era compatible indeterminado, el procedimiento de sustituir \(z\) por el parámetro \(lambda\) nos lleva a un sistema escalonado

\[\left\{ \begin{array}{l}
2x + 3y - \lambda = 5\\
\,\,\,\,\,\,\,\,\,\,\,\,\,y + \lambda = 5
\end{array} \right. \Rightarrow \left\{ \begin{array}{l}
2x + 3y = 5 + \lambda \\
\,\,\,\,\,\,\,\,\,\,\,\,\,y = 5 - \lambda
\end{array} \right.\]

que como vimos, también es muy fácil de resolver aunque las soluciones sean infinitas.

Hay sistemas que son escalonados, aunque a simple vista parece que no lo son.

Veamos otro par de ejemplos.

El sistema

\[\left\{ \begin{array}{l}
2x - 3y = - 1\\
2y = 2\\
3x - 2y + 5z = 6
\end{array} \right.\]

no parece, aparentemente, escalonado. Pero observemos lo que ocurre si intercambiamos sus ecuaciones adecuadamente:

\[\left\{ \begin{array}{l}
3x - 2y + 5z = 6\\
2x - 3y = - 1\\
2y = 2
\end{array} \right.\]

Además, si la incógnita \(z\) la ponemos en primer lugar, la incógnita \(x\) en segundo y la incógnita \(y\) en tercer lugar, el sistema queda así:

\[\left\{ \begin{array}{l}
5z + 3x - 2y = 6\\
\,\,\,\,\,\,\,\,\,2x - 3y = - 1\\
\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,2y = 2
\end{array} \right.\]

Ahora si se ve claramente que es escalonado y fácil de resolver (la solución es \(x=1\), \(y=1\), \(z=1\)).

Matriz asociada a un sistema de ecuaciones lineales

Un sistema, por ejemplo, de tres ecuaciones con tres incógnitas se puede escribir genéricamente así:

\[\left\{ \begin{array}{l}
{a_{11}}x + {a_{12}}y + {a_{13}}z = {b_1}\\
{a_{21}}x + {a_{22}}y + {a_{23}}z = {b_2}\\
{a_{31}}x + {a_{32}}y + {a_{33}}z = {b_3}
\end{array} \right.\]

 donde \(a_{ij}\) son números reales llamados coeficientes; \(b_1\), \(b_2\), \(b_3\) también son números reales llamados términos independientes; y las incógnitas son \(x\), \(y\), \(z\). Si escribimos los coeficientes en filas y columnas obtenemos una expresión de la forma:

\[\left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{{a_{13}}}\\
{{a_{21}}}&{{a_{22}}}&{{a_{23}}}\\
{{a_{31}}}&{{a_{32}}}&{{a_{33}}}
\end{array}} \right)\]

a la que llamaremos matriz de los coeficientes. A veces se designa con la letra mayúscula \(A\). Si a la matriz de los coeficientes le añadimos una columna con los términos independientes tendremos la expresión:

\[\left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{{a_{13}}}&{{b_1}}\\
{{a_{21}}}&{{a_{22}}}&{{a_{23}}}&{{b_2}}\\
{{a_{31}}}&{{a_{32}}}&{{a_{33}}}&{{b_3}}
\end{array}} \right)\]

que recibe el nombre de matriz ampliada o matriz asociada al sistema. A veces se designa con la letra mayúscula \(B\), o mediante la expresión \(A|b\).

Método de Gauss

El proceso de transformación de un sistema de ecuaciones en otro equivalente, pero escalonado recibe el nombre de método de Gauss. En la práctica el método no se aplica con las ecuaciones, sino que se trabaja con la matriz asociada al sistema, con lo que se simplifica bastante el proceso de transformaciones sucesivas. Por tanto, una vez expresado el sistema mediante su matriz asociada, el método consiste en "hacer ceros", hasta llegar a una matriz asociada a un sistema escalonado. Para ello podemos hacer dos tipos de transformaciones, que nos llevarán a matrices asociadas a sistemas equivalentes:

  • Multiplicar o dividir una fila por un número distinto de cero.
  • Sumar a una fila otra, previamente multiplicada por un número distinto de cero.

Al aplicar el método de Gauss, ¿qué ocurre al finalizar el proceso, o incluso en algún paso intermedio? Podemos distinguir los siguientes casos.

  1. Que salga una fila de ceros. Entonces esta fila se corresponderá con una ecuación trivial y podremos prescindir de ella (ya hemos visto un ejemplo anteriormente).
  2. Que obtengamos dos filas iguales o proporcionales. Entonces podemos eliminar una de las dos, pues se corresponden con ecuaciones equivalentes.
  3. Que obtengamos una fila de ceros, salvo el último número, que es distinto de cero. Entonces se trata de una ecuación imposible y, en este caso, el sistema es incompatible.

Conclusión: una vez finalizado el proceso llegaremos a una de las tres posibilidades siguientes, o equivalentes, a alguna de ellas:

  1. \(\left( {\begin{array}{*{20}{c}}
    {{a_{11}}}&{{a_{12}}}&{{a_{13}}}&{{b_1}}\\
    0&{{a_{22}}}&{{a_{23}}}&{{b_2}}\\
    0&0&{{a_{33}}}&{{b_3}}
    \end{array}} \right)\), donde \(a_{33}\) es un número distinto de cero y \(b_3\) un número real cualquiera. En este caso tenemos tantas ecuaciones como incógnitas. Se obtiene un sistema escalonado, del que es muy fácil obtener la única solución. El sistema es compatible determinado.
  2. \(\left( {\begin{array}{*{20}{c}}
    {{a_{11}}}&{{a_{12}}}&{{a_{13}}}&{{b_1}}\\
    0&{{a_{22}}}&{{a_{23}}}&{{b_2}}\\
    0&0&0&0
    \end{array}} \right) \to \left( {\begin{array}{*{20}{c}}
    {{a_{11}}}&{{a_{12}}}&{{a_{13}}}&{{b_1}}\\
    0&{{a_{22}}}&{{a_{23}}}&{{b_2}}
    \end{array}} \right)\), donde \(a_{22}\) es un número distinto de cero. En este caso hay menos ecuaciones que incógnitas. Ya hemos resuelto anteriormente un sistema de este tipo y así se procede. Hay infinitas soluciones: el sistema es compatible indeterminado.
  3. \(\left( {\begin{array}{*{20}{c}}
    {{a_{11}}}&{{a_{12}}}&{{a_{13}}}&{{b_1}}\\
    0&{{a_{22}}}&{{a_{23}}}&{{b_2}}\\
    0&0&0&{{b_3}}
    \end{array}} \right)\), donde \(b_3\) es distinto de cero. Esto es imposible y el sistema es incompatible, es decir, no tiene soluciones.

Veamos otro par de ejemplos.

Apliquemos el método de Gauss a la resolución del sistema

\[\left\{ \begin{array}{l}
- x + y + 3z = - 2\\
4x + 2y - z = 5\\
2x + 4y - 7z = 1
\end{array} \right.\]

Transformando la matriz asociada al sistema:

\[\left( {\begin{array}{*{20}{c}}
{ - 1}&1&3&{ - 2}\\
4&2&{ - 1}&5\\
2&4&{ - 7}&1
\end{array}} \right)\longrightarrow
\left( {\begin{array}{*{20}{c}}
{ - 1}&1&3&{ - 2}\\
0&6&{11}&{ - 3}\\
0&6&{ - 13}&{ - 3}
\end{array}} \right)\longrightarrow
\left( {\begin{array}{*{20}{c}}
{ - 1}&1&3&{ - 2}\\
0&6&{11}&{ - 3}\\
0&0&{ - 24}&0
\end{array}} \right)\]

En la primera transformación hemos hecho las operaciones \(f_2+4f_1\) y \(2f_3-f_2\). En la segunda transformación hemos hecho la operación \(f_3-f_2\). Nos encontramos en el caso 1: el sistema es compatible determinado. El sistema asociado es:

\[\left\{ \begin{array}{l}
- x + y + 3z = - 2\\
\,\,\,\,\,\,\,6y + 11z = - 3\\
\,\,\,\,\,\,\,\,\,\,\,\,\, - 24z = 0
\end{array} \right.\]

sistema escalonado cuyas soluciones son muy fáciles de obtener: \(z=0\), \(y=-\dfrac{1}{2}\), \(x=\dfrac{3}{2}\).

Resolvamos ahora el sistema

\[\left\{ \begin{array}{l}
x - y + 2z = 1\\
2x + 3y - z = - 1\\
- x - 4y + 3z = 5
\end{array} \right.\]

Escribamos la matriz asociada y hagamos las transformaciones oportunas (transformaciones que no son difíciles de descubrir):

\[\left( {\begin{array}{*{20}{c}}
1&{ - 1}&2&1\\
2&3&{ - 1}&{ - 1}\\
{ - 1}&{ - 4}&3&5
\end{array}} \right)\longrightarrow
\left( {\begin{array}{*{20}{c}}
1&{ - 1}&2&1\\
0&5&{ - 5}&{ - 3}\\
0&{ - 5}&5&9
\end{array}} \right)\longrightarrow
\left( {\begin{array}{*{20}{c}}
1&{ - 1}&2&1\\
0&5&{ - 5}&{ - 3}\\
0&0&0&6
\end{array}} \right)\]

Estamos en el caso 3. Por tanto el sistema es incompatible y no tiene solución. Obsérvese que el sistema asociado es

\[\left\{ \begin{array}{l}
x - y + 2z = 1\\
\,\,\,\,\,5y - 5z = - 3\\
\,\,\,\,\,\,\,\,\,\,\,\,\,0z = 6
\end{array} \right.\]

La última de las ecuaciones no tiene sentido. Por eso el sistema es incompatible.

Discusión de sistemas dependientes de un parámetro

Hay sistemas que dependen de un parámetro. Por ejemplo

\[\left\{ \begin{array}{l}
x + y + z = 6\\
2x - y - z = - 3\\
x + ky - 3z = 0
\end{array} \right.\]

Este tipo de sistemas son en realidad "muchos sistemas". Hay uno para cada valor del parámetro \(k\). De todos ellos algunos serán compatibles y otros incompatibles. Por tanto, discutir un sistema dependiente de un parámetro consiste en encontrar los valores del parámetro para los que el sistema es compatible o no y, caso de ser compatible, distinguir cuándo es determinado o indeterminado. Para ello se procede igual que en los ejemplos anteriores, utilizando el método de Gauss y tomando el parámetro como si fuera un número. Como ejemplo, discutamos el sistema anterior.

Tomemos la matriz asociada y apliquemos las transformaciones oportunas:

\[\left( {\begin{array}{*{20}{c}}
1&1&1&6\\
2&{ - 1}&{ - 1}&{ - 3}\\
1&k&{ - 3}&0
\end{array}} \right)\longrightarrow
\left( {\begin{array}{*{20}{c}}
1&1&1&6\\
0&{ - 3}&{ - 3}&{ - 15}\\
0&{k - 1}&{ - 4}&{ - 6}
\end{array}} \right)\longrightarrow\]

\[\longrightarrow
\left( {\begin{array}{*{20}{c}}
1&1&1&6\\
0&1&1&5\\
0&{k - 1}&{ - 4}&{ - 6}
\end{array}} \right)\longrightarrow
\left( {\begin{array}{*{20}{c}}
1&1&1&6\\
0&1&1&5\\
0&0&{ - 3 - k}&{ - 1 - 5k}
\end{array}} \right)\]

Obsérvese que hemos realizado tres transformaciones. En la primera se han hecho las siguientes operaciones: \(f_2-2f_1\) y \(f_3-f_1\). En la segunda hemos dividido la segunda fila entre \(-3\). Y en la tercera hemos realizado la operación \(f_3-(k-1)f_2\).

Analicemos lo que pasa ahora.

Si \(-3-k=0\), es decir, si \(k=3\), entonces estamos en el caso 3 y el sistema es incompatible: la última matriz es, en este caso

\[\left( {\begin{array}{*{20}{c}}
1&1&1&6\\
0&1&1&5\\
0&0&0&{14}
\end{array}} \right)\]

con lo que la última ecuación (\(0=14\)) es imposible.

Ahora bien, si \(k\neq3\), estamos en el caso 1, pues \(-3-k\neq0\), y el sistema será compatible determinado (solución única). En este caso el sistema asociado a la última matriz es

\[\left\{ \begin{array}{l}
x + y + z = 6\\
\,\,\,\,\,\,\,\,y + z = 5\\
\left( { - 3 - k} \right)z = - 1 - 5k
\end{array} \right.\]

De aquí se deduce que

\[z = \frac{{ - 1 - 5k}}{{ - 3 - k}} = \frac{{\left( { - 1} \right)\left( {5k + 1} \right)}}{{\left( { - 1} \right)\left( {k + 3} \right)}} \Rightarrow z = \frac{{5k + 1}}{{k + 3}}\]

Sustituyendo en la segunda ecuación:

\[y + \frac{{5k + 1}}{{k + 3}} = 5 \Rightarrow y = 5 - \frac{{5k + 1}}{{k + 3}} = \frac{{5\left( {k + 3} \right)}}{{k + 3}} - \frac{{5k + 1}}{{k + 3}} = \frac{{5k + 15 - 5k - 1}}{{k + 3}} \Rightarrow y = \frac{{14}}{{k + 3}}\]

Finalmente, sustituyendo en la primera:

\[x + \frac{{14}}{{k + 3}} + \frac{{5k + 1}}{{k + 3}} = 6 \Rightarrow x + \frac{{5k + 15}}{{k + 3}} = 6 \Rightarrow \]

\[\Rightarrow x = 6 - \frac{{5k + 15}}{{k + 3}} = \frac{{6\left( {k + 3} \right)}}{{k + 3}} - \frac{{5k + 15}}{{k + 3}} = \frac{{6k + 18 - 5k - 15}}{{k + 3}} = \frac{{k + 3}}{{k + 3}} \Rightarrow x = 1\]

Resumiendo:

Si \(k=-3\) el sistema es incompatible: no tiene solución. Es el caso del sistema

\[\left\{ \begin{array}{l}
x + y + z = 6\\
2x - y - z = - 3\\
x - 3y - 3z = 0
\end{array} \right.\]

donde se ha sustituido \(k\) por \(-3\).

Si \(k\neq-3\), el sistema es compatible es determinado: solución única, una para cada valor de \(k\). Tal solución única es

\[x=1\quad\text{;}\quad y=\frac{14}{k+3}\quad\text{;}\quad z=\frac{5k+1}{k+3}\]

Por ejemplo, si \(k=-1\), el sistema se convierte en

\[\left\{ \begin{array}{l}
x + y + z = 6\\
2x - y - z = - 3\\
x - y - 3z = 0
\end{array} \right.\]

y la única solución es \(x=1\), \(y=7\), \(z=2\). Es conveniente insistir en que para cada \(k\neq-3\) hay un sistema y una única solución para ése valor de \(k\).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...
Suscribirse a este canal RSS

lasmatematicas.eu

Aplicaciones

Sígueme

webs de matemáticas