Menu
Cuadratura de un segmento de parábola

Cuadratura de un segmento de parábo…

Una forma de acercarse al...

Ejercicios de aplicaciones de las derivadas y del teorema del valor medio

Ejercicios de aplicaciones de las d…

Se proponen a continuaci&...

Aplicaciones de las derivadas. El teorema del valor medio

Aplicaciones de las derivadas. El t…

Ya hemos hablado en un pa...

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. R…

Cuando en las matem&aacut...

Series infinitas de números reales. Series convergentes

Series infinitas de números reales.…

Las sucesiones de n&uacut...

La paradoja de Zenón

La paradoja de Zenón

El filósofo griego...

Funciones continuas e inyectivas

Funciones continuas e inyectivas

Nuestro último teo...

El problema de la velocidad. Derivada de una función. Ejemplos de derivadas

El problema de la velocidad. Deriva…

Un problema relativo a ve...

Prev Next

Producto vectorial. Producto mixto de tres vectores. Aplicaciones

Producto vectorial

Para una lectura comprensiva de este artículo se recomienda leer antes este otro: "Proyecciones. Producto escalar de vectores. Aplicaciones".

Dados dos vectores de distinta dirección podemos construir, trasladando cada vector al extremo del otro, un paralelogramo. Fíjate en la figura siguiente

 producto vectorial 01

Su área es el producto de la base por la altura y, con un poco de trigonometría básica, tenemos:

\[A = \left| {\vec u} \right|h = \left| {\vec u} \right|\,\,\left| {\vec v} \right|{\rm{sen}}\,\alpha\]

El producto vectorial de dos vectores \(\vec u\) y \(\vec v\), que notaremos \(\vec u \times \vec v\) (en este orden), se define como otro vector que tiene por módulo el área del paralelogramo formado por ambos, por dirección la de la recta perpendicular al plano que contiene a este paralelogramo, y el sentido de girar desde \(\vec u\) hacia \(\vec v\) (regla del sacacorchos).

producto vectorial 02

Es conveniente insistir en que el producto vectorial de dos vectores \(\vec u = \left( {{u_1},{u_2},{u_3}} \right)\) y \(\vec v = \left( {{v_1},{v_2},{v_3}} \right)\), a diferencia del producto escalar, es un vector \(\vec w = \vec u \times \vec v\). Vamos a obtener a continuación la expresión analítica del vector \(\vec w = \left( {z,y,z} \right)\) que será de gran utilidad en la resolución de diversos tipos de problemas.

Como \(\vec u \bot \vec w\) y \(\vec v \bot \vec w\), entonces \(\vec u \cdot \vec w = 0\) y \(\vec v \cdot \vec w = 0\), con lo que podemos formar el siguiente sistema:

\[\left\{ \begin{array}{l}
{u_1}x + {u_2}y + {u_3}z = 0\\
{v_1}x + {v_2}y + {v_3}z = 0
\end{array} \right.\]

El sistema anterior es claramente compatible indeterminado ya que si suponemos que los vectores \(\vec u\) y \(\vec v\) tienen distinta dirección, el rango de la matriz \(\left( {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}&{{u_3}}\\
{{v_1}}&{{v_2}}&{{v_3}}
\end{array}} \right)\) es dos y el número de incógnitas es tres.

Vamos a resolver el sistema anterior. Para ello vamos a suponer, ya que el rango es dos, que el determinante de orden dos \(\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|\) es distinto de cero. Ahora llamamos \(z=\lambda\), con lo  que el sistema se convierte en

\[\left\{ \begin{array}{l}
{u_1}x + {u_2}y =  - {u_3}\lambda \\
{v_1}x + {v_2}y =  - {v_3}\lambda
\end{array} \right.\]

cuyas soluciones son, aplicando la regla de Cramer, las siguientes:

\[x = \frac{{\left| {\begin{array}{*{20}{c}}
{ - {u_3}\lambda }&{{u_2}}\\
{ - {v_3}\lambda }&{{v_2}}
\end{array}} \right|}}{{\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|}} =  - \lambda \frac{{\,\left| {\begin{array}{*{20}{c}}
{{u_3}}&{{u_2}}\\
{{v_3}}&{{v_2}}
\end{array}} \right|\,}}{{\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|}} = \lambda \frac{{\,\left| {\begin{array}{*{20}{c}}
{{u_2}}&{{u_3}}\\
{{v_2}}&{{v_3}}
\end{array}} \right|\,}}{{\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|}}\ ;\ y = \frac{{\left| {\begin{array}{*{20}{c}}
{{u_1}}&{ - {u_3}\lambda }\\
{{v_1}}&{ - {v_3}\lambda }
\end{array}} \right|}}{{\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|}} =  - \lambda \frac{{\,\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_3}}\\
{{v_1}}&{{v_3}}
\end{array}} \right|{\kern 1pt} }}{{\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|}}\ ;\ z=\lambda\]

Tomando \(\lambda  = \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|\), las soluciones anteriores las podemos escribir así:

\[x = \left| {\begin{array}{*{20}{c}}
{{u_2}}&{{u_3}}\\
{{v_2}}&{{v_3}}
\end{array}} \right|\ ;\ y =  - \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_3}}\\
{{v_1}}&{{v_3}}
\end{array}} \right|\ ;\ z = \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|\]

Esto quiere decir que el producto vectorial de \(\vec u = \left( {{u_1},{u_2},{u_3}} \right)\) y \(\vec v = \left( {{v_1},{v_2},{v_3}} \right)\), \(\vec u \times \vec v\), es otro vector cuyas coordenadas son

\[\vec u \times \vec v = \left( {\left| {\begin{array}{*{20}{c}}
{{u_2}}&{{u_3}}\\
{{v_2}}&{{v_3}}
\end{array}} \right|, - \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_3}}\\
{{v_1}}&{{v_3}}
\end{array}} \right|,\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|} \right)\]

Estas coordenadas coinciden exactamente con el desarrollo del siguiente determinante por los elementos de la primera fila:

\[\vec u \times \vec v = \left| {\begin{array}{*{20}{c}}
i&j&k\\
{{u_1}}&{{u_2}}&{{u_3}}\\
{{v_1}}&{{v_2}}&{{v_3}}
\end{array}} \right|\]

La expresión anterior es fácil de recordar y usando la misma podemos hallar con facilidad las coordenadas del producto vectorial de dos vectores dados.

Algunas aplicaciones del producto vectorial

Distancia de un punto a una recta

Dados un punto \(P\) y una recta \(r\), se llama distancia de \(P\) a \(r\), que denotaremos \(d\left( {P,r} \right)\), a la distancia de \(P\) a \(M\), donde \(M\) es el punto de intersección de \(r\) con el plano que pasa por \(P\) y es perpendicular a \(r\). Si \(P\left( {{p_1},{p_2},{p_3}} \right)\) y la recta \(r\) tiene ecuaciones continuas \(r \equiv \frac{{x - {a_1}}}{{{u_1}}} = \frac{{y - {a_2}}}{{{u_2}}} = \frac{{z - {a_3}}}{{{u_3}}}\), entonces la distancia de   a   viene dada por:

\[d(P,\,\,r) = \frac{{\left| {\left( {{p_1} - {a_1},\,\,{p_2} - {a_2},\,\,{p_3} - {a_3}} \right) \times \left( {{u_1},\,\,{u_2},\,\,{u_3}} \right)} \right|}}{{\sqrt {{u_1}^2 + {u_2}^2 + {u_3}^2} }}\]

producto vectorial 03

Para demostrarlo sean \(M\left( {{m_1},\,\,{m_2},\,\,{m_3}} \right)\), \(\vec u = \left( {{u_1},\,\,{u_2},\,\,{u_3}} \right)\), y \(\overrightarrow {AP}\) el vector que une un punto cualquiera \(A\) de la recta con el punto \(P\): \(\overrightarrow {AP}  = \left( {{p_1} - {a_1},\,\,{p_2} - {a_2},\,\,{p_3} - {a_3}} \right)\). Hagamos el producto vectorial de ambos vectores y hallemos su módulo: \(\left| {\overrightarrow {AP}  \times \vec u} \right| = \left| {\overrightarrow {AP} } \right|\left| {\vec u} \right|\,{\rm{sen}}\,\alpha\). En la figura anterior se observa que la distancia buscada es \(d(P,r) = \left| {\overrightarrow {AP} } \right|{\rm{sen}}\,\alpha\), y sustituyendo en la expresión anterior tenemos \(\left| {\overrightarrow {AP}  \times \vec u} \right| = d(P,r)\left| {\vec u} \right|\), luego

\[d(P,r) = \frac{{\left| {\overrightarrow {AP}  \times \vec u} \right|}}{{\left| {\vec u} \right|}} = \frac{{\left| {\left( {{p_1} - {a_1},\,\,{p_2} - {a_2},\,\,{p_3} - {a_3}} \right) \times \left( {{u_1},\,\,{u_2},\,\,{u_3}} \right)} \right|}}{{\sqrt {{u_1}^2 + {u_2}^2 + {u_3}^2} }}\]

Distancia entre dos rectas paralelas

Se define esta distancia como la distancia de un punto de cualquiera de una recta a la otra. Así, si las rectas tienen ecuaciones continuas: \(r \equiv \frac{{x - {a_1}}}{{{u_1}}} = \frac{{y - {a_2}}}{{{u_2}}} = \frac{{z - {a_3}}}{{{u_3}}}\) y \(s \equiv \frac{{x - {b_1}}}{{{u_1}}} = \frac{{y - {b_2}}}{{{u_2}}} = \frac{{z - {b_3}}}{{{u_3}}}\) (obsérvese que, por ser paralelas, tienen el mismo vector director), basta aplicar la fórmula de la distancia del punto \(\left( {{a_1},\,\,{a_2},\,\,{a_3}} \right)\) a la segunda recta.

Área de un paralelogramo y de un triángulo

producto vectorial 04

Ya se ha comentado al principio que el módulo del producto vectorial de dos vectores es igual al área del paralelogramo correspondiente. En particular, dado un paralelogramo \(ABCD\) en el espacio, supongamos que las coordenadas de tres vértices son \(A\left( {{a_1},{a_2},{a_3}} \right)\), \(B\left( {{b_1},{b_2},{b_3}} \right)\) y \(C\left( {{c_1},{c_2},{c_3}} \right)\). Si llamamos \(S\) al área o superficie del paralelogramo, entonces:

\[\overrightarrow {AB}  \times \overrightarrow {AC}  = \left| {\begin{array}{*{20}{c}}
{\overrightarrow i }&{\overrightarrow j }&{\overrightarrow k }\\
{{b_1} - {a_1}}&{{b_2} - {a_2}}&{{b_3} - {a_3}}\\
{{c_1} - {a_1}}&{{c_2} - {a_2}}&{{c_3} - {a_3}}
\end{array}} \right| \Rightarrow S = \left| {\overrightarrow {AB}  \times \overrightarrow {AC} } \right|\]

El área o superficie del triángulo será la mitad de la del paralelogramo (cualesquiera de las dos diagonales del paralelogramo dividen al mismo en dos triángulos de igual área). Por tanto la superficie \(S\) del triángulo, conocidos sus tres vértices \(A\), \(B\) y \(C\) es:

\[S = \frac{1}{2}\left| {\overrightarrow {AB}  \times \overrightarrow {AC} } \right|\]

Producto mixto de vectores

Dados tres vectores \(\vec u\), \(\vec v\) y \(\vec w\) se llama producto mixto de dichos vectores al número obtenido así:

\[\vec u \cdot \left( {\vec v \times \vec w} \right)\]

El producto mixto se denota así: \(\left( {\vec u,\vec v,\vec w} \right)\). Si las coordenadas de los vectores son \(\vec u = \left( {{u_1},{u_2},{u_3}} \right)\), \(\vec v = \left( {{v_1},{v_2},{v_3}} \right)\) y \(\vec w = \left( {{w_1},{w_2},{w_3}} \right)\), entonces:

\[\vec u \cdot \left( {\vec v \times \vec w} \right) = \left( {{u_1},\,\,{u_2},\,\,{u_3}} \right) \cdot \left( {\left| {\begin{array}{*{20}{c}}
{{u_2}}&{{u_3}}\\
{{v_2}}&{{v_3}}
\end{array}} \right|, - \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_3}}\\
{{v_1}}&{{v_3}}
\end{array}} \right|,\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right|} \right)=\]

\[={u_1}\left| {\begin{array}{*{20}{c}}
{{u_2}}&{{u_3}}\\
{{v_2}}&{{v_3}}
\end{array}} \right| - {u_2}\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_3}}\\
{{v_1}}&{{v_3}}
\end{array}} \right| + {u_3}\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}\\
{{v_1}}&{{v_2}}
\end{array}} \right| = \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}&{{u_3}}\\
{{v_1}}&{{v_2}}&{{v_3}}\\
{{w_1}}&{{w_2}}&{{w_3}}
\end{array}} \right|\]

Por tanto, el producto mixto de tres vectores viene dado por la siguiente expresión:

\[\left( {\vec u,\,\,\vec v,\,\,\vec w} \right) = \vec u \cdot \left( {\vec v \times \vec w} \right) = \left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}&{{u_3}}\\
{{v_1}}&{{v_2}}&{{v_3}}\\
{{w_1}}&{{w_2}}&{{w_3}}
\end{array}} \right|\]

El producto mixto se usa, por ejemplo, en el cálculo de volúmenes. A continuación vamos a deducir un par de fórmulas mediante las cuales podamos obtener el volumen de un tetraedro y el volumen de un paralelepípedo o prisma rectangular.

Volumen de un paralelepípedo o prisma rectangular

Observemos la siguiente figura

producto vectorial 05

Sabemos, por la definición de producto escalar que \(\vec u \cdot \left( {\vec v \times \vec w} \right) = \left| {\vec u} \right| \cdot \left| {\vec v \times \vec w} \right| \cdot \cos \alpha\). Pero, tal y como hemos visto, \(\left| {\vec u \times \vec w} \right|\), representa el área \(A\) sombreada en la figura anterior. Además, también tenemos que \(\cos \alpha  = \frac{h}{{\left| {\vec u} \right|}}\), con lo que \(h = \vec u \cdot \cos \alpha\), que representa la altura \(h\) del paralelepípedo dibujado. Resulta por consiguiente que

\[\vec u \cdot \left( {\vec v \times \vec w} \right) = \left| {\vec u} \right| \cdot \left| {\vec v \times \vec w} \right| \cdot \cos \alpha  = A \cdot h\]

Es decir, que el producto mixto \(\vec u \cdot \left( {\vec v \times \vec w} \right)\), representa geométricamente el volumen \(A\cdot h\) del paralelepípedo de lados \(\vec u\), \(\vec v\) y \(\vec w\). En coordenadas, si \(\vec u = \left( {{u_1},{u_2},{u_3}} \right)\), \(\vec v = \left( {{v_1},{v_2},{v_3}} \right)\) y \(\vec w = \left( {{w_1},{w_2},{w_3}} \right)\), el volumen \(V\) lo podemos expresar así:

\[V = \vec u \cdot \left( {\vec v \times \vec w} \right) = \left( {\vec u,\vec v,\vec w} \right) = \left| {\,\left| {\begin{array}{*{20}{c}}
{{u_1}}&{{u_2}}&{{u_3}}\\
{{v_1}}&{{v_2}}&{{v_3}}\\
{{w_1}}&{{w_2}}&{{w_3}}
\end{array}} \right|\,} \right|\]

Obsérvese que escribimos valor absoluto para asegurarnos de que el volumen es positivo.

Si lo que conocemos son los vértices \(A\left( {{a_1},\,\,{a_2},\,\,{a_3}} \right)\), \(B\left( {{b_1},\,\,{b_2},\,\,{b_3}} \right)\), \(C\left( {{c_1},\,\,{c_2},\,\,{c_3}} \right)\) y \(D\left( {{d_1},\,\,{d_2},\,\,{d_3}} \right)\), del prisma rectangular de tal manera que \(\overrightarrow {AB}  = \vec u\), \(\overrightarrow {AC}  = \vec v\) y \(\overrightarrow {AD}  = \vec w\), entonces la fórmula del volumen \(V\) del paralelepípedo viene dada por

\[V = \left| {\,\left| {\begin{array}{*{20}{c}}
{{b_1} - {a_1}}&{{b_2} - {a_2}}&{{b_3} - {a_3}}\\
{{c_1} - {a_1}}&{{c_2} - {a_2}}&{{c_3} - {a_3}}\\
{{d_1} - {a_1}}&{{d_2} - {a_2}}&{{d_3} - {a_3}}
\end{array}} \right|\,} \right|\]

Volumen de un tetraedro

Sean \(A\left( {{a_1},\,\,{a_2},\,\,{a_3}} \right)\), \(B\left( {{b_1},\,\,{b_2},\,\,{b_3}} \right)\), \(C\left( {{c_1},\,\,{c_2},\,\,{c_3}} \right)\) y \(D\left( {{d_1},\,\,{d_2},\,\,{d_3}} \right)\) cuatro puntos del espacio. Al unirlos entre sí de todas las maneras posibles, determinan un tetraedro cuyo volumen \(V\) es igual a la sexta parte del valor absoluto del producto mixto \(\left( {\overrightarrow {AB} ,\,\,\overrightarrow {AC} \,\,\overrightarrow {AD} } \right)\), es decir:

\[V = \frac{1}{6}\,\,\left| {\,\,\left| {\begin{array}{*{20}{c}}
{{b_1} - {a_1}}&{{b_2} - {a_2}}&{{b_3} - {a_3}}\\
{{c_1} - {a_1}}&{{c_2} - {a_2}}&{{c_3} - {a_3}}\\
{{d_1} - {a_1}}&{{d_2} - {a_2}}&{{d_3} - {a_3}}
\end{array}} \right|\,\,} \right|\]

La demostración se basa en que el volumen de un tetraedro es la tercera parte del área de la base por la altura:

\[V = \frac{1}{3}\left( {{\rm{Área}}\,ACD} \right) \cdot h\]

producto vectorial 06

Por un lado, el área del triángulo \(ACD\) sabemos que es igual a \(\frac{1}{2}\left| {\overrightarrow {AC}  \times \overrightarrow {AD} } \right|\) y, por otro (ver figura anterior), \({\rm{sen}}\,\alpha  = \frac{h}{{\left| {\overrightarrow {AB} } \right|}}\), es decir, \(h = \left| {\overrightarrow {AB} } \right|\,{\rm{sen}}\,\alpha  = \left| {\overrightarrow {AB} } \right|\cos \left( {\frac{\pi }{2} - \alpha } \right)\). Sustituyendo estos valores en la fórmula del volumen tenemos:

\[V = \frac{1}{3} \cdot \frac{1}{2}\left| {\overrightarrow {AC}  \times \overrightarrow {AD} } \right| \cdot \left| {\overrightarrow {AB} } \right|\,\cos \left( {\frac{\pi }{2} - \alpha } \right) =\]

\[=\frac{1}{6}\overrightarrow {AB}  \cdot \left( {\overrightarrow {AC}  \times \overrightarrow {AD} } \right) = \frac{1}{6}\left( {\overrightarrow {AB} ,\overrightarrow {AC} ,\overrightarrow {AD} } \right) = \frac{1}{6}\left| {\begin{array}{*{20}{c}}
{{b_1} - {a_1}}&{{b_2} - {a_2}}&{{b_3} - {a_3}}\\
{{c_1} - {a_1}}&{{c_2} - {a_2}}&{{c_3} - {a_3}}\\
{{d_1} - {a_1}}&{{d_2} - {a_2}}&{{d_3} - {a_3}}
\end{array}} \right|\]

Según el orden en que tomemos los vectores ese determinante puede salir positivo o negativo. Por lo tanto, para que el volumen sea positivo, en la fórmula pondremos el valor absoluto del determinante.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Proyecciones. Producto escalar de vectores. Aplicaciones

Proyecciones

La proyección de un punto \(A\) sobre una recta \(r\) es el punto \(B\) donde la recta perpendicular a \(r\) que pasa por \(A\) corta a la recta \(r\). Con un dibujo se entiende muy bien.

producto escalar 01

La proyección de un segmento \(\overline {AB}\) sobre una recta \(r\) es otro segmento \(\overline {CD}\) contenido en la recta \(r\), cuyos extremos son, respectivamente, las proyecciones de los puntos \(A\) y \(B\) sobre la recta \(r\). Veámoslo con otro dibujo.

producto escalar 02

Un vector es un segmento orientado. Por tanto, la proyección de un vector \(\vec u\) sobre una recta se hace, tal y como hemos visto anteriormente, exactamente igual que la proyección de un segmento sobre una recta.

Se define la proyección de un vector \(\vec u\) sobre un vector \(\vec v\) como la proyección del vector \(\vec u\) sobre la recta que contiene al vector \(\vec v\). A la proyección de un vector \(\vec u\) sobre un vector \(\vec v\) la notaremos \({p_{\vec v}}\left( {\vec u} \right)\).

producto escalar 03

En la figura anterior se ha realizado la proyección de un vector \(\vec v\) sobre un vector \(\vec u\). Como se puede observar, la proyección es la misma si hacemos coincidir el origen de ambos vectores. Evidentemente, la proyección del vector \(\vec v\) sobre el vector \(\vec u\) no es la misma que la proyección del vector \(\vec u\) sobre el vector \(\vec v\): \({p_{\vec u}}\left( {\vec v} \right) \ne {p_{\vec v}}\left( {\vec u} \right)\) (ver figura siguiente).

producto escalar 04

Obsérvese también que todo par de vectores \(\vec u\) y \(\vec v\) forman entre sí un ángulo \(\alpha\). Recordando que a la longitud o módulo de un vector \(\vec u\) la denotamos por \(|\vec u|\), y haciendo uso de trigonometría básica (razones trigonométricas en un triángulo rectángulo), podemos escribir, si nos fijamos en las dos figuras anteriores, las dos siguientes relaciones:

\[\cos \alpha  = \frac{{{p_{\vec u}}\left( {\vec v} \right)}}{{\left| {\vec v} \right|}} \Rightarrow {p_{\vec u}}\left( {\vec v} \right) = \left| {\vec v} \right|\cos \alpha\quad;\quad\cos \alpha  = \frac{{{p_{\vec v}}\left( {\vec u} \right)}}{{\left| {\vec u} \right|}} \Rightarrow {p_{\vec v}}\left( {\vec u} \right) = \left| {\vec u} \right|\cos \alpha\qquad(1)\]

Producto escalar de vectores

El producto escalar de vectores está íntimamente relacionado con la proyección de un vector sobre otro. De hecho, se define el producto escalar de dos vectores como el producto del módulo de uno de ellos, por la proyección del otro sobre el primero. Es decir:

\[\vec u \cdot \vec v = \left| {\vec u} \right|{p_{\vec u}}\left( {\vec v} \right)\quad;\quad\vec u \cdot \vec v = \left| {\vec v} \right|{p_{\vec v}}\left( {\vec u} \right)\qquad(2)\]

Obsérvese que si el vector sobre el que hacemos la proyección tiene longitud o módulo igual a uno, entonces el producto escalar es justamente la proyección. De este modo:

\[\left| {\vec u} \right| = 1 \Rightarrow \vec u \cdot \vec v = {p_{\vec u}}\left( {\vec v} \right)\quad;\quad\left| {\vec v} \right| = 1 \Rightarrow \vec u \cdot \vec v = {p_{\vec v}}\left( {\vec u} \right)\]

Es más habitual definir el producto escalar de dos vectores de la siguiente manera:

\[\vec u \cdot \vec v = \left| {\vec u} \right|\left| {\vec v} \right|\cos \alpha\qquad(3)\]

donde lo único que se ha hecho es sustituir en \((2)\) las relaciones dadas en \((1)\).

Propiedades del producto escalar de vectores

El producto escalar de dos vectores es un número real (por eso recibe el nombre de escalar). Además, el producto escalar de dos vectores es, a la vista de la fórmula (3), claramente conmutativo. Esto nos lleva, por (2), a que la razón entre los módulos de dos vectores es igual a la razón entre sus proyecciones:

\[\left| {\vec u} \right|{p_{\vec u}}\left( {\vec v} \right) = \left| {\vec v} \right|{p_{\vec v}}\left( {\vec u} \right) \Leftrightarrow \frac{{\left| {\vec u} \right|}}{{\left| {\vec v} \right|}} = \frac{{{p_{\vec v}}\left( {\vec u} \right)}}{{{p_{\vec u}}\left( {\vec v} \right)}}\]

De aquí se deduce que módulos iguales y proyecciones iguales son cosas equivalentes (como es natural):

\[\left| {\vec u} \right| = \left| {\vec v} \right| \Leftrightarrow \frac{{\left| {\vec u} \right|}}{{\left| {\vec v} \right|}} = 1 \Leftrightarrow 1 = \frac{{{p_{\vec v}}\left( {\vec u} \right)}}{{{p_{\vec u}}\left( {\vec v} \right)}} \Leftrightarrow {p_{\vec u}}\left( {\vec v} \right) = {p_{\vec v}}\left( {\vec u} \right)\]

El producto escalar de un vector por sí mismo es igual a su módulo al cuadrado, pues el ángulo de un vector consigo mismo es cero. O bien porque la proyección de un vector sobre sí mismo es igual a la longitud o módulo de ese vector.

\[\vec u \cdot \vec u = \left| {\vec u} \right|\left| {\vec u} \right|\cos 0 = {\left| {\vec u} \right|^2}\quad;\quad\vec u \cdot \vec u = \left| {\vec u} \right|{p_{\vec u}}\left( {\vec u} \right) = \left| {\vec u} \right|\left| {\vec u} \right| = {\left| {\vec u} \right|^2}\qquad(4)\]

El producto escalar de dos vectores perpendiculares es igual a cero, ya que el coseno de un ángulo recto es cero. O bien porque la proyección de uno sobre el otro es un punto, que tiene longitud cero.

\[\vec u \bot \vec v \Rightarrow \vec u \cdot \vec v = \left| {\vec u} \right|\left| {\vec v} \right|\cos 90 = 0\quad;\quad\vec u \bot \vec v \Rightarrow \vec u \cdot \vec v = \left| {\vec u} \right|{p_{\vec u}}\left( {\vec v} \right) = \left| {\vec u} \right| \cdot 0 = 0\]

Recíprocamente, si el producto escalar de dos vectores no nulos es cero, entonces los vectores son perpendiculares.

\[\vec u,\vec v \ne 0\,\,,\,\,\vec u \cdot \vec v = 0 \Rightarrow \left| {\vec u} \right|\left| {\vec v} \right|\cos \alpha  = 0 \Rightarrow \cos \alpha  = 0 \Rightarrow \alpha  = 90 \Rightarrow \vec u \bot \vec v\]

Observa ahora la siguiente figura.

producto escalar 05

De ella se deduce que la proyección de la suma de dos vectores sobre otro es igual a la suma de las proyecciones de los dos vectores por separado. Entonces, usando la fórmula (2):

\[\vec u \cdot \left( {\vec v + \vec w} \right) = \left| {\vec u} \right|{p_{\vec u}}\left( {\vec v + \vec w} \right) = \left| {\vec u} \right|\left( {{p_{\vec u}}\left( {\vec v} \right) + {p_{\vec u}}\left( {\vec w} \right)} \right) = \left| {\vec u} \right|{p_{\vec u}}\left( {\vec v} \right) + \left| {\vec u} \right|{p_{\vec u}}\left( {\vec w} \right) = \vec u \cdot \vec v + \vec u \cdot \vec w\]

Lo que demuestra que el producto escalar cumple la propiedad distributiva respecto de la suma de vectores.

Una última propiedad del producto escalar es la llamada asociativa mixta, que relaciona el producto de números reales con el producto escalar:

\[k\left( {\vec u \cdot \vec v} \right) = k\left( {\left| {\vec u} \right|{p_{\vec v}}\left( {\vec u} \right)} \right) = \left( {k\left| {\vec u} \right|} \right){p_{\vec v}}\left( {\vec u} \right) = \left| {k\vec u} \right|{p_{\vec v}}\left( {\vec u} \right) = \left( {k\vec u} \right) \cdot \vec v\]

Fijemos ahora en el espacio vectorial \(\mathbb{R}^3\) un sistema de referencia ortonormal \(\left\{ {O\,;\,\left\{ {{\rm{i}}\,{\rm{,}}\,{\rm{j}}\,{\rm{,}}\,{\rm{k}}} \right\}} \right\}\), es decir, un origen de coordenadas en \(O\left( {0,0,0} \right)\), y una base de vectores \(\left\{ {{\rm{i}}\,{\rm{,}}\,{\rm{j}}\,{\rm{,}}\,{\rm{k}}} \right\}\) de módulo uno y perpendiculares dos a dos. Observemos que el producto escalar de dos vectores distintos de la base es cero, y que el producto escalar de un vector de la base consigo mismo es igual a uno.

\[{\rm{i}} \cdot {\rm{j}} = {\rm{i}} \cdot {\rm{k}} = {\rm{j}} \cdot {\rm{k}} = 0\ ;\ {\rm{i}} \cdot {\rm{i}} = {\left| {\rm{i}} \right|^2} = 1\ ;\ {\rm{j}} \cdot {\rm{j}} = {\left| {\rm{j}} \right|^2} = 1\ ;\ {\rm{k}} \cdot {\rm{k}} = {\left| {\rm{k}} \right|^2} = 1\]

Entonces, dados dos vectores \(\vec u\) y \(\vec v\), los podemos escribir como combinación lineal de los vectores de la base, es decir, existen \({u_1},{u_2},{u_3} \in \mathbb{R}\), \({v_1},{v_2},{v_3} \in \mathbb{R}\) tales que

\[\vec u = {u_1}{\rm{i}} + {u_2}{\rm{j}} + {u_3}{\rm{k}}\ ,\ \vec v = {v_1}{\rm{i}} + {v_2}{\rm{j}} + {v_3}{\rm{k}}\]

O lo que es lo mismo, un sistema de referencia nos permite escribir los vectores \(\vec u\) y \(\vec v\) en coordenadas respecto de la base:

\[\vec u = \left( {{u_1},{u_2},{u_3}} \right)\ ,\ \vec v = \left( {{v_1},{v_2},{v_3}} \right)\]

Vamos a hacer uso de la propiedad distributiva y de la asociativa mixta para obtener la expresión del producto escalar en función de las coordenadas de los vectores.

\[\vec u \cdot \vec v = \left( {{u_1}{\rm{i}} + {u_2}{\rm{j}} + {u_3}{\rm{k}}} \right) \cdot \left( {{v_1}{\rm{i}} + {v_2}{\rm{j}} + {v_3}{\rm{k}}} \right) =\]

\[= \left( {{u_1}{\rm{i}}} \right) \cdot \left( {{v_1}{\rm{i}}} \right) + \left( {{u_1}{\rm{i}}} \right) \cdot \left( {{v_2}{\rm{j}}} \right) + \left( {{u_1}{\rm{i}}} \right) \cdot \left( {{v_3}{\rm{k}}} \right) + \]

\[+ \left( {{u_2}{\rm{j}}} \right) \cdot \left( {{v_1}{\rm{i}}} \right) + \left( {{u_2}{\rm{j}}} \right) \cdot \left( {{v_2}{\rm{j}}} \right) + \left( {{u_2}{\rm{j}}} \right) \cdot \left( {{v_3}{\rm{k}}} \right) +\]

\[+ \left( {{u_3}{\rm{k}}} \right) \cdot \left( {{v_1}{\rm{i}}} \right) + \left( {{u_3}{\rm{k}}} \right) \cdot \left( {{v_2}{\rm{j}}} \right) + \left( {{u_3}{\rm{k}}} \right) \cdot \left( {{v_3}{\rm{k}}} \right) = \]

\[= \left( {{u_1}{v_1}} \right)\left( {{\rm{i}} \cdot {\rm{i}}} \right) + \left( {{u_1}{v_2}} \right)\left( {{\rm{i}} \cdot {\rm{j}}} \right) + \left( {{u_1}{v_3}} \right)\left( {{\rm{i}} \cdot {\rm{k}}} \right) + \]

\[+ \left( {{u_2}{v_1}} \right)\left( {{\rm{j}} \cdot {\rm{i}}} \right) + \left( {{u_2}{v_2}} \right)\left( {{\rm{j}} \cdot {\rm{j}}} \right) + \left( {{u_2}{v_3}} \right)\left( {{\rm{j}} \cdot {\rm{k}}} \right) + \]

\[+ \left( {{u_3}{v_1}} \right)\left( {{\rm{k}} \cdot {\rm{i}}} \right) + \left( {{u_3}{v_2}} \right)\left( {{\rm{k}} \cdot {\rm{j}}} \right) + \left( {{u_3}{v_3}} \right)\left( {{\rm{k}} \cdot {\rm{k}}} \right)\]

Seis de los nueve términos anteriores son cero pues los vectores de la base del sistema de referencia son perpendiculares. Además, el producto escalar de un elemento de la base consigo mismo es igual a uno. Por tanto:

\[\vec u \cdot \vec v = {u_1}{v_1} + {u_2}{v_2} + {u_3}{v_3}\qquad (5)\]

Ahora también podemos escribir el módulo de un vector dependiendo de sus coordenadas:

\[{\left| {\vec u} \right|^2} = \vec u \cdot \vec u \Rightarrow \left| {\vec u} \right| =  + \sqrt {\vec u \cdot \vec u}  \Rightarrow \left| {\vec u} \right| =  + \sqrt {u_1^2 + u_2^2 + u_3^2}\]

Algunas aplicaciones del producto escalar de vectores

Ángulo de dos rectas

De la definición de producto escalar de dos vectores podemos deducir el ángulo que forman ambos.

\[\vec u \cdot \vec v = \left| {\vec u} \right|\,\,\left| {\vec v} \right|\cos \alpha  \Rightarrow \cos \alpha  = \frac{{\vec u \cdot \vec v}}{{\left| {\vec u} \right|\,\,\left| {\vec v} \right|}} \Rightarrow \cos \alpha  = \frac{{{u_1}{v_1} + {u_2}{v_2} + {u_3}{v_3}}}{{\sqrt {u_1^2 + u_2^2 + u_3^2} \sqrt {v_1^2 + v_2^2 + v_3^2} }}\]

Si se trata de dos rectas, el ángulo formado entre ellas será el mismo que el que formen sus vectores directores.

Es posible que al hacer los cálculos el valor de   salga positivo o bien su valor sea negativo. En el primer caso el ángulo obtenido es agudo, y en el segundo es obtuso. Por convenio tomaremos como ángulo entre dos vectores o entre dos rectas el ángulo agudo. Para ello reescribiremos nuestra fórmula así:

\[\cos \alpha  = \frac{{\left| {{u_1}{v_1} + {u_2}{v_2} + {u_3}{v_3}} \right|}}{{\sqrt {u_1^2 + u_2^2 + u_3^2} \sqrt {v_1^2 + v_2^2 + v_3^2} }}\]

Al tomar el valor absoluto en el numerador, el valor de \(\cos\alpha\) siempre será positivo y, por tanto, \(\alpha\) será un ángulo agudo.

Observemos también que dos vectores serán perpendiculares (o dos rectas serán perpendiculares) cuando \(\cos\alpha=0\), es decir, cuando \({u_1}{v_1} + {u_2}{v_2} + {u_3}{v_3} = 0\). Simbólicamente:

\[r \bot s \Leftrightarrow \vec u \bot \vec v \Leftrightarrow \vec u \cdot \vec v = 0 \Leftrightarrow {u_1}{v_1} + {u_2}{v_2} + {u_3}{v_3} = 0\]

Vector perpendicular a un plano

Un vector \(\vec u\) es perpendicular a un plano \(\pi\) cuando \(\vec u\) es perpendicular a cualquier vector contenido en \(\pi\).

producto escalar 06

Dado el plano \(\pi\) de ecuación \(Ax + By + Cz + D = 0\) se tiene que \(\vec u = \left( {A,B,C} \right)\) son las coordenadas del un vector perpendicular al plano. Es decir: \(\vec u = \left( {A,B,C} \right) \bot \pi\).

Para demostrar que lo anterior es cierto se toman dos puntos cualesquiera \(M\left( {{m_1},{m_2},{m_3}} \right)\) y \(P\left( {{p_1},{p_2},{p_3}} \right)\) del plano \(\pi\), y efectuamos el producto escalar del vector \(\vec u = \left( {A,B,C} \right)\) con el vector \(\overrightarrow {MP}\). Si el resultado es cero, entonces \(\vec u \bot \overrightarrow {MP}\), con lo que \(\vec u \bot \pi\).

\[\vec u \cdot \overrightarrow {MP}  = \left( {A,B,C} \right) \cdot \left( {{p_1} - {m_1},{p_2} - {m_2},{p_3} - {m_3}} \right) = A\left( {{p_1} - {m_1}} \right) + B\left( {{p_2} - {m_2}} \right) + C\left( {{p_3} - {m_3}} \right) =\]

\[= \left( {A{p_1} + B{p_2} + C{p_3}} \right) - \left( {A{m_1} + B{m_2} + C{m_3}} \right) =  - D - \left( { - D} \right) = 0\]

La última igualdad es cierta porque tanto \(M\left( {{m_1},{m_2},{m_3}} \right)\) como \(P\left( {{p_1},{p_2},{p_3}} \right)\) son puntos del plano \(\pi\).

Ángulo de dos planos

Dados dos planos \(\pi\) y \(\pi'\), el ángulo formado por ambos es el que forman dos vectores contenidos en cada uno de los planos respectivos que sean perpendiculares a la recta intersección de los dos planos, es decir, el ángulo de los dos planos es el formado por los vectores \(\vec v\) y \(\vec v'\) de la figura.

Si \(\vec u\) y \(\vec u'\) son dos vectores perpendiculares a cada uno de los planos respectivos, podemos observar que el ángulo que forman  \(\vec u\) y \(\vec u'\) es el mismo que el de \(\vec v\) y \(\vec v'\).

producto escalar 07

Por lo tanto, si las ecuaciones de ambos planos son \(\pi  \equiv Ax + By + Cz + D = 0\) y \(\pi ' \equiv A'x + B'y + C'z + D' = 0\), entonces los vectores \(\vec u = \left( {A,B,C} \right)\) y \(\vec u' = \left( {A',B',C'} \right)\) son perpendiculares a los planos respectivos, luego:

\[\cos \alpha  = \frac{{\left| {AA' + BB' + CC'} \right|}}{{\sqrt {{A^2} + {B^2} + {C^2}} \sqrt {A'{\,^2} + B'{\,^2} + C'{\,^2}} }}\]

Hemos tomado valor absoluto para obtener el ángulo agudo.

En particular dos planos serán perpendiculares cuando \(\cos\alpha=0\), es decir, cuando \(AA' + BB' + CC' = 0\):

\[\pi  \bot \pi ' \Leftrightarrow \vec u \bot \vec u' \Leftrightarrow \vec u \cdot \vec u' = 0 \Leftrightarrow AA' + BB' + CC' = 0\]

Ángulo entre recta y plano

Dada una recta \(r\) y un plano \(\pi\), el ángulo formado por ambos es aquel que forman \(r\) y \(r'\), donde \(r'\) es la proyección ortogonal de \(r\) sobre \(\pi\). La recta \(r'\) se obtiene como intersección de \(\pi\) con el plano que contiene a la recta \(r\) y es perpendicular a \(\pi\).

producto escalar 08

Si \(\vec v\) y \(\vec v'\) son dos vectores de \(r\) y \(r'\), el ángulo formado por \(r\) y \(\pi\) es el que forman \(\vec v\) y \(\vec v'\). Si \(\vec u\) es un vector perpendicular a \(\pi\), ese ángulo es complementario del formado por \(\vec u\) y \(\vec v\). Por lo tanto, si las ecuaciones de la recta son \(r \equiv \frac{{x - {a_1}}}{{{v_1}}} = \frac{{y - {a_2}}}{{{v_2}}} = \frac{{z - {a_3}}}{{{v_3}}}\), y la ecuación general o implícita del plano es \(\pi  \equiv Ax + By + Cz + D = 0\), tenemos que \(\text{sen}\,\alpha  = \cos \left( {\frac{\pi }{2} - \alpha } \right)\), luego

\[\text{sen}\,\alpha  = \frac{{\left| {A{v_1} + B{v_2} + C{v_3}} \right|}}{{\sqrt {{A^2} + {B^2} + {C^2}} \sqrt {{v_1}^2 + {v_2}^2 + {v_3}^2} }}\]

Distancia de un punto a un plano, distancia entre dos planos paralelos y distancia entre una recta y un plano paralelos

Dados un punto \(P\) y un plano \(\pi\), se llama distancia de \(P\) a \(\pi\), \(d(P,\pi)\), a la distancia de \(P\) a \(M\), donde \(M\) es el punto de intersección de \(\pi\) con la recta que pasa por \(P\) y es perpendicular a \(\pi\).

producto escalar 09

Supongamos que el punto \(P\) tiene coordenadas \(P\left( {{p_1},\,\,{p_2},\,\,{p_3}} \right)\) y que el plano \(\pi\) tiene ecuación implícita \(\pi  \equiv Ax + By + Cz + D = 0\). Entonces la distancia de \(P\) a \(\pi\) viene dada por:

\[d\left( {P,\pi } \right) = \frac{{\left| {A{p_1} + B{p_2} + C{p_3} + D} \right|}}{{\sqrt {{A^2} + {B^2} + {C^2}} }}\]

Para demostrarlo supongamos que \(M\left( {{m_1},\,\,{m_2},\,\,{m_3}} \right)\), \(\overrightarrow {MP}  = \left( {{p_1} - {m_1},\,\,{p_2} - {m_2},\,\,{p_3} - {m_3}} \right)\) y que \(\vec u = \left( {A,B,C} \right)\) es el vector perpendicular al plano. Obviamente \(d\left( {P,\,\,\pi } \right) = \left| {\overrightarrow {MP} } \right|\).

Pero, por un lado

\[\vec u \cdot \overrightarrow {MP}  = A\left( {{p_1} - {m_1}} \right) + B\left( {{p_2} - {m_2}} \right) + C\left( {{p_3} - {m_3}} \right)\]

y, por otro,

\[\vec u \cdot \overrightarrow {MP}  = \left| {\vec u} \right|\left| {\overrightarrow {MP} } \right|\cos \alpha  = \sqrt {{A^2} + {B^2} + {C^2}} \left| {\overrightarrow {MP} } \right|\left( { \pm 1} \right)\]

(el ángulo \(\alpha\) que forman \(\vec u\) y \(\overrightarrow {MP}\) es \(0\) o \(180\)).

Entonces, igualando ambas expresiones:

\[\pm \sqrt {{A^2} + {B^2} + {C^2}} \left| {\overrightarrow {MP} } \right| = A\left( {{p_1} - {m_1}} \right) + B\left( {{p_2} - {m_2}} \right) + C\left( {{p_3} - {m_3}} \right) \Rightarrow\]

\[\Rightarrow \left| {\overrightarrow {MP} } \right| =  \pm \frac{{A\left( {{p_1} - {m_1}} \right) + B\left( {{p_2} - {m_2}} \right) + C\left( {{p_3} - {m_3}} \right)}}{{\sqrt {{A^2} + {B^2} + {C^2}} }} =  \pm \frac{{A{p_1} + B{p_2} + C{p_3} - \left( {A{m_1} + B{m_2} + C{m_3}} \right)}}{{\sqrt {{A^2} + {B^2} + {C^2}} }}\]

Pero \(M \in \pi\), por lo que

\[A{m_1} + B{m_2} + C{m_3} + D = 0 \Rightarrow A{m_1} + B{m_2} + C{m_3} =  - D \Rightarrow \left| {\overrightarrow {MP} } \right| =  \pm \frac{{A{p_1} + B{p_2} + C{p_3} + D}}{{\sqrt {{A^2} + {B^2} + {C^2}} }}\]

y como la distancia es siempre un número no negativo, entonces

\[\left| {\overrightarrow {MP} } \right| = d(P,\pi ) = \frac{{\left| {A{p_1} + B{p_2} + C{p_3} + D} \right|}}{{\sqrt {{A^2} + {B^2} + {C^2}} }}\]

Si dos planos son paralelos la distancia entre ambos será la distancia de un punto cualquiera de uno de ellos al otro. Del mismo modo, si una recta un plano son paralelos, la distancia de la recta al plano será la distancia de un punto cualquiera de la recta al plano.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Sobre vectores y matrices. Independencia lineal. Rango de una matriz

Espacios vectoriales

Llamaremos \(\mathbb{R}^2\) al conjunto de todos los pares ordenados de la forma \((a_1,a_2)\) tal que \(a_1,a_2\in\mathbb{R}\). Es decir:

\[\mathbb{R}^2=\{(a_1,a_2):a_1,a_2\in\mathbb{R}\}\]

De la misma forma:

\[\mathbb{R}^3=\{(a_1,a_2,a_3):a_1,a_2,a_3\in\mathbb{R}\}\]

\[\mathbb{R}^4=\{(a_1,a_2,a_3,a_4):a_1,a_2,a_3,a_4\in\mathbb{R}\}\]

Y, en general:

\[\mathbb{R}^n=\{(a_1,a_2,\ldots,a_n):a_1,a_2,\ldots,a_n\in\mathbb{R}\}\]

Si vemos los elementos de \(\mathbb{R}^n\) como matrices fila podemos identificar este conjunto con el conjunto de las matrices de una fila y \(n\) columnas: \(\mathcal{M}_{1\times n}\). Recordemos que dados dos elementos cualesquiera de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), \((a_1,a_2,\ldots,a_n)\), \((b_1,b_2,\ldots,b_n)\), y un número real cualquiera \(\lambda\) (un escalar), tenemos definida una suma y un producto de la siguiente manera:

\[(a_1,a_2,\ldots,a_n)+(b_1,b_2,\ldots,b_n)=(a_1+b_1,a_2+b_2,\ldots,a_n+b_n)\]

\[\lambda(a_1,a_2,\ldots,a_n)=(\lambda a_1,\lambda a_2,\ldots,\lambda a_n)\]

Estas dos operaciones cumplen unas propiedades que vamos a recordar a continuación. Supongamos que \(\vec{a}=(a_1,a_2,\ldots,a_n)\), \(\vec{b}=(b_1,b_2,\ldots,b_n)\) y \(\vec{c}=(c_1,c_2,\ldots,c_n)\) son elementos cualesquiera de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), y que \(\lambda\) y \(\mu\) son números reales.

Propiedades de la suma

  • Asociativa. \((\vec{a}+\vec{b})+\vec{c}=\vec{a}+(\vec{b}+\vec{c})\).
  • Conmutativa. \(\vec{a}+\vec{b}=\vec{b}+\vec{a}\).
  • Existencia de elemento neutro. El elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)) en el que todos sus elementos son cero, es decir, \(\vec{0}=(0,0,\ldots,0)\), cumple la siguiente propiedad: \(\vec{0}+\vec{a}=\vec{a}+\vec{0}=\vec{a}\).
  • Existencia de elemento opuesto o simétrico. Para cada elemento \(\vec{a}\), existe otro elemento \(-\vec{a}\) de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), dado por \(-\vec{a}=(-a_1,-a_2,\ldots,-a_n)\), tal que \(\vec{a}+(-\vec{a})=(-\vec{a})+\vec{a}=\vec{0}\).

Propiedades del producto por un escalar

  • Asociativa. \((\lambda\mu)\cdot\vec{a}=\lambda\cdot(\mu\cdot \vec{a})\).
  • Distributiva I. \((\lambda+\mu)\cdot\vec{a}=\lambda\cdot\vec{a}+\mu\cdot\vec{a}\).
  • Distributiva II. \(\lambda\cdot(\vec{a}+\vec{b})=\lambda\cdot\vec{a}+\lambda\cdot\vec{b}\).
  • Existencia de elemento unidad. Existe un número real, el escalar \(1\), tal que \(1\cdot\vec{a}=\vec{a}\cdot1=\vec{a}\).

La cuatro primeras propiedades son conocidas y ya las cumple el conjunto \(\mathbb{R}\) de los números reales. Un conjunto que con una operación suma cumple estas cuatro propiedades se dice que es un grupo abeliano.

Las cuatro últimas propiedades se refieren al producto por un escalar. Se ha diferenciado el producto de números reales (o escalares) entre sí, que hemos denotado por yuxtaposición (\(\lambda \mu\)), del producto de un escalar por un elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)), que hemos denotado con un punto (\(\lambda\cdot\vec{a}\)). Es importante darse cuenta de que no se trata de la misma operación, son dos operaciones distintas. Por cierto, si todos los elementos fueran números reales estas cuatro propiedades también se cumplen y las dos operaciones son una: el producto de números reales.

Un conjunto con las operaciones suma y producto por un escalar, que cumpla las ocho propiedades anteriores, se dice que tiene estructura de espacio vectorial. Sus elementos reciben el nombre de vectores. Por eso hemos puesto una flecha encima de cada elemento de \(\mathbb{R}^n\) (o de \(\mathcal{M}_{1\times n}\)): \(\vec{a}\). Sin embargo, esto no quiere decir que los elementos de un espacio vectorial tengan que ser vectores como los que se tratan en la Física (con su módulo, dirección y sentido), sino que pueden ser objetos diferentes. De hecho, en las líneas anteriores se ha hecho hincapié en que nuestros elementos de \(\mathbb{R}^n\) son también matrices fila. Pero es que las ocho propiedades anteriores también las cumplen el conjunto de las matrices de orden \(m\times n\): \(\mathcal{M}_{m\times n}\). Es decir, que el conjunto \(\mathcal{M}_{m\times n}\) es un espacio vectorial y, por tanto, una matriz es un vector.

Combinación lineal de vectores

Supongamos que tenemos un espacio vectorial \(E\). Sean \(\vec{e}_1,\vec{e}_2,\ldots,\vec{e}_n\in E\) y \(\lambda_1,\lambda_2,\ldots,\lambda_n\in\mathbb{R}\). Al vector construido de la siguiente manera

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n\]

se le llama combinación lineal de los vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\). A los números \(\lambda_1,\lambda_2,\ldots,\lambda_n\) se les llama coeficientes de la combinación lineal. Si todos los coeficientes son nulos entonces claramente la combinación lineal es igual al vector \(\vec{0}\), y se llama combinación lineal trivial.

Ejemplo 1

En \(\mathbb{R}^2\), el vector \(\vec{u}=(4,-5)\) es combinación lineal de los vectores \(\vec{v}=(-2,1)\) y \(\vec{w}=(5,-4)\), ya que, como se puede fácilmente comprobar, \(\vec{u}=3\vec{v}+2\vec{w}\).

Ejemplo 2

Consideremos el espacio vectorial formado por las matrices cuadradas de orden \(2\): \(\mathcal{M}_2\). Supongamos que queremos saber si la matriz

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)\]

es combinación lineal de las matrices

\[\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)\,,\,\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)\,,\,\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

Es decir, queremos saber si existen \(x,\,y,\,z\in\mathbb{R}\) de tal manera que

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)=x\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)+y\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)+z\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

La igualdad anterior nos lleva al sistema de ecuaciones lineales siguiente:

\[\left\{ \begin{array}{l}
 - 2x + y =  - 4\\
5x + 7y - 5z = 9\\
8x + 3y - z = 34\\
4x - y - 2z = 18
\end{array} \right.\]

Resolviéndolo por el método de Gauss tenemos:

\[\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
5&7&5&9\\
8&3&{ - 1}&{34}\\
4&{ - 1}&{ - 2}&{18}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{2{f_2} + 5{f_1}}\\
{2{f_3} + 8{f_1}}\\
{2{f_4} + 4{f_1}}
\end{array}\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
0&{19}&{10}&{ - 2}\\
0&{14}&{ - 2}&{36}\\
0&2&{ - 4}&{20}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{19{f_3} - 14{f_2}}\\
{19{f_4} - 2{f_2}}
\end{array}\left( {\begin{array}{*{20}{c}}
{ - 2}&1&0&{ - 4}\\
0&{19}&{10}&{ - 2}\\
0&0&{ - 178}&{712}\\
0&0&{ - 96}&{384}
\end{array}} \right)\]

El sistema asociado a la última matriz es:

\[\left\{ \begin{array}{l}
 - 2x + y =  - 4\\
19y + 10z =  - 2\\
 - 178z = 712\\
 - 96z = 384
\end{array} \right.\]

cuyas soluciones son, como fácilmente se puede comprobar, \(x=3\), \(y=2\), \(z=-4\).

Entonces la primera matriz se puede poner como combinación lineal de las tres últimas. Concretamente:

\[\left( {\begin{array}{*{20}{c}}
{ - 4}&9\\
{34}&{18}
\end{array}} \right)=3\left( {\begin{array}{*{20}{c}}
{ - 2}&5\\
8&4
\end{array}} \right)+2\left( {\begin{array}{*{20}{c}}
1&7\\
3&{ - 1}
\end{array}} \right)+(-4)\left( {\begin{array}{*{20}{c}}
0&5\\
{ - 1}&{ - 2}
\end{array}} \right)\]

Dependencia e independencia lineal

La idea de dependencia lineal entre unos vectores dados, \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\), es que uno de esos vectores es una combinación lineal de los otros, lo cual expresamos diciendo que uno de ellos depende linealmente de los otros. Por ejemplo, entre los vectores \(\vec{u}=(1,0)\), \(\vec{v}=(0,1)\) y \(w=(-3,2)\), el último es una combinación lineal de los otros dos, pues claramente

\[\vec{w}=-3\vec{u}+2\vec{v}\qquad(1)\]

Por eso decimos que el vector \(\vec{w}\) depende linealmente de los vectores \(\vec{u}\) y \(\vec{v}\). Pero esta relación de dependencia no se queda aquí. Observemos que de la igualdad anterior se pueden deducir fácilmente estas dos:

\[\vec{u}=\frac{2}{3}\vec{v}-\frac{1}{3}\vec{w}\quad,\quad\vec{v}=\frac{3}{2}\vec{u}+\frac{1}{2}\vec{w}\]

O sea, que no solamente \(\vec{w}\) depende linealmente de \(\vec{u}\) y \(\vec{v}\), sino que \(\vec{u}\) depende linealmente de \(\vec{v}\) y \(\vec{w}\), y también \(\vec{v}\) depende linealmente de \(\vec{u}\) y \(\vec{w}\). Lo que realmente ocurre es que los tres vectores tienen una relación de dependencia lineal. Esta relación de dependencia queda reflejada en la siguiente igualdad (que se deduce rápidamente de la igualdad \(1\)):

\[3\vec{u}-2\vec{v}+\vec{w}=\vec{0}\qquad(2)\]

Es decir, podemos escribir el vector \(\vec{0}\) como una combinación lineal no trivial de esos vectores. Esta forma de expresar la dependencia lineal es preferible a la forma \((1)\) porque en esta última no se señala a ninguno de los vectores como responsable de la dependencia lineal, es decir, cualquier vector con coeficiente distinto de cero se puede despejar en términos de los otros. Tomaremos pues la forma \((2)\) como definición de dependencia lineal.

Se dice que los vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) son linealmente dependientes o que existe una relación de dependencia lineal entre ellos si el vector \(\vec{0}\) se puede escribir como una combinación lineal no trivial de ellos, es decir, podemos escribir

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n=\vec{0}\]

en la que los coeficientes o escalares \(\lambda_1\,,\lambda_2,\ldots,\lambda_n\) no son todos cero.

Un conjunto de vectores linealmente dependientes o entre los que existe una relación de dependencia lineal también se dice que es ligado. Un conjunto de vectores entre los que no existe una relación de dependencia lineal es un conjunto libre y los propios vectores se dice que son linealmente independientes. Así, en este caso, si tenemos un conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) linealmente independientes, entonces una combinación lineal de ellos igualada al vector cero implicará que todos los coeficientes o escalares son nulos:

\[\lambda_1\vec{e}_1+\lambda_2\vec{e}_2+\ldots+\lambda_n\vec{e}_n=\vec{0}\Rightarrow \lambda_1=\lambda_2=\ldots=\lambda_n=0\]

Ejemplo 3

En \(\mathbb{R}^3\), para averiguar si los vectores \(\vec{e}_1=(-1,1,2)\), \(\vec{e}_2=(3,-4,1)\) y \(\vec{e}_3=(-2,6,-3)\) son o no linealmente independientes, igualamos una combinación lineal de ellos al vector cero y resolvemos el sistema correspondiente.

\[x\vec{e}_1+y\vec{e}_2+\vec{e}_3=\vec{0}\Rightarrow x(-1,1,2)+y(3,-4,1)+z(-2,6,-3)=(0,0,0)\Rightarrow\]

\[\Rightarrow(-x,x,2x)+(3y,-4y,y)+(-2z,6z,-3z)=(0,0,0)\Rightarrow\]

\[\Rightarrow(-x+3y-2z,x-4y+6z,2x+y-3z)=(0,0,0)\Rightarrow\left\{ \begin{array}{l}
 - x + 3y - 2z = 0\\
x - 4y + 6z = 0\\
2x + y - 3z = 0
\end{array} \right.\]

En este último sistema hay dos posibilidades:

  • Es compatible determinado (solución única), con lo que \(x=y=z=0\) y los vectores son linealmente independientes (conjunto libre de vectores).
  • Es compatible indeterminado (infinitas soluciones), con lo que habrá soluciones distintas de la trivial y los vectores serán linealmente dependientes (conjunto de vectores ligado).

Usando el método de Gauss es fácil darse cuenta de que el sistema de nuestro ejemplo tiene solución única, es decir, \(x=y=z=0\), con lo que los vectores \(\vec{e}_1=(-1,1,2)\), \(\vec{e}_2=(3,-4,1)\) y \(\vec{e}_3=(-2,6,-3)\) son linealmente independientes.

En general, dado un conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) podemos formar el sistema anterior mediante la ecuación matricial

\[AX=O\]

donde \(A\) es la matriz formada por los vectores anteriores escritos en columna, \(X\) es la matriz de los coeficientes o escalares de la combinación lineal (que en nuestro ejemplo hemos llamado \(x\), \(y\), \(z\)) y \(O\) es el vector cero escrito en forma de columna. En el ejemplo anterior podríamos haber escrito directamente:

\[AX = O \Rightarrow \left( {\begin{array}{*{20}{c}}
{ - 1}&3&{ - 2}\\
1&{ - 4}&6\\
2&1&{ - 3}
\end{array}} \right)\left( {\begin{array}{*{20}{c}}
x\\
y\\
z
\end{array}} \right) = \left( {\begin{array}{*{20}{c}}
0\\
0\\
0
\end{array}} \right) \Rightarrow \left\{ \begin{array}{l}
 - x + 3y - 2z = 0\\
x - 4y + 6z = 0\\
2x + y - 3z = 0
\end{array} \right.\]

Ahora, aplicando transformaciones elementales (método de Gauss) en la matriz \(A\) se deducirá rápidamente si el conjunto de vectores \(\vec{e}_1,\,\vec{e}_2,\ldots,\vec{e}_n\) es libre o ligado.

Ejemplo 4

Supongamos que queremos determinar si en \(\mathbb{R}^4\), los vectores \((1,-2,3,0)\), \((4,3,-1,-2)\), \((-2,0,2,1)\), \((1,1,6,0)\) forman un conjunto libre o ligado. Para ello los escribimos en forma de columna y aplicamos transformaciones elementales:

\[\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
{ - 2}&3&0&1\\
3&{ - 1}&2&6\\
0&{ - 2}&1&0
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{{f_2} + 2{f_1}}\\
{{f_3} - 3{f_1}}\\
{}
\end{array}\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&{ - 13}&8&3\\
0&{ - 2}&1&0
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{11{f_3} + 13{f_2}}\\
{11{f_4} + 2{f_2}}
\end{array}\]

\[\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&0&{36}&{72}\\
0&0&3&6
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{}\\
{12{f_4} - {f_3}}
\end{array}\left( {\begin{array}{*{20}{c}}
1&4&{ - 2}&1\\
0&{11}&{ - 4}&3\\
0&0&{36}&{72}\\
0&0&0&0
\end{array}} \right)\]

La última fila, cuyos términos son todos cero, advierte ya de que el sistema asociado va a tener infinitas soluciones, es decir, que los vectores \((1,-2,3,0)\), \((4,3,-1,-2)\), \((-2,0,2,1)\), \((1,1,6,0)\) son linealmente dependientes, tienen relación de dependencia lineal o forman un conjunto ligado de vectores. De hecho el sistema al que nos referimos es el siguiente:

\[\left\{ \begin{array}{l}
x + 4y - 2z + t = 0\\
\,\,\,\,\,\,11y - 4z + 3t = 0\\
\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,36z + 72t = 0
\end{array} \right.\]

No es difícil comprobar que sus soluciones son \(x=-\lambda\), \(y=-\lambda\), \(z=-2\lambda\), \(t=\lambda\). Esto quiere decir que todas las combinaciones lineales con estos coeficientes son iguales al vector cero, es decir:

\[-\lambda(1,-2,3,0)-\lambda(4,3,-1,-2)-2\lambda(-2,0,2,1)+\lambda(1,1,6,0)=(0,0,0,0)\]

Por cierto, en el ejemplo 2 se comprobó que una matriz cuadrada de orden 2 era combinación lineal de otras tres, o lo que es lo mismo, que las cuatro matrices formaban un conjunto ligado. Obsérvese ahora que las matrices cuadradas de orden 2 se pueden ver, como en este último ejemplo, como vectores de \(\mathbb{R}^4\). Se dice que ambos conjuntos son isomorfos y se escribe \(\mathcal{M}_2\cong\mathbb{R}^4\). De hecho, y en general, el conjunto de las matrices de orden \(m\times n\) es isomorfo a \(\mathbb{R}^{nm}\): \(\mathcal{M}_{m\times n}\cong\mathbb{R}^{nm}\).

Rango de una matriz

Ya sabemos que las filas (o las columnas) de una matriz cualquiera pueden ser consideradas como vectores. Las filas de una matriz pueden formar un sistema libre o ligado. Pues bien, llamamos rango de una matriz al número de filas que son linealmente independientes. Así, el rango de la matriz del ejemplo 4 es \(3\). En general, para hallar el rango de una matriz se aplican transformaciones elementales en la misma según el método de Gauss, de tal manera que, una vez finalizado el proceso, el rango de la matriz coincide con el número de filas no nulas. Al rango de una matriz \(A\) lo denotaremos abreviadamente así: \(r(A)\).

También las columnas de una matriz pueden ser consideradas vectores. Y se podría definir el rango de una matriz como el número de columnas linealmente independientes. Esto es porque, según un importante teorema, en una matriz, el número de filas linealmente independientes es igual al número de columnas linealmente independientes. De aquí se deduce que, en general, el rango de una matriz de orden \(m\times n\) es, a lo sumo, el menor de los números \(m\) o \(n\). Así, el rango de una matriz de orden \(4\times7\) es, a lo sumo, igual a \(4\).

Ejemplo 5

Hallaremos el rango de la matriz de orden \(4\times5\) siguiente:

\[A = \left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
{ - 1}&1&3&2&0\\
0&8&7&9&4
\end{array}} \right)\]

Como hemos visto, el rango no puede ser mayor que \(4\). Apliquemos transformaciones elementales por el método de Gauss.

\[\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
{ - 1}&1&3&2&0\\
0&8&7&9&4
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{{f_3} + {f_1}}\\
{}
\end{array}\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 1}\\
0&2&{ - 1}&1&2\\
0&1&5&3&{ - 1}\\
0&8&7&9&4
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{2{f_3} - {f_2}}\\
{{f_4} - 4{f_2}}
\end{array}\]

\[\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 2}\\
0&2&{ - 1}&1&2\\
0&0&{11}&5&{ - 4}\\
0&0&{11}&5&{ - 4}
\end{array}} \right)\begin{array}{*{20}{c}}
{}\\
{}\\
{}\\
{{f_4} - {f_3}}
\end{array}\left( {\begin{array}{*{20}{c}}
1&0&2&1&{ - 2}\\
0&2&{ - 1}&1&2\\
0&0&{11}&5&{ - 6}\\
0&0&0&0&0
\end{array}} \right)\]

Por tanto \(r(A)=3\). Esto es lo mismo que decir que los vectores de \(\mathbb{R}^5\): \((1,0,2,1,-1)\), \((0,2,-1,1,2)\), \((-1,1,3,2,0)\), \((0,8,7,9,4)\), son linealmente dependientes, es decir, forman un sistema ligado de vectores, con lo que cualquiera de ellos se puede poner como combinación lineal de los otros tres.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


 

Leer más ...

Sistemas de dos ecuaciones lineales de primer grado con dos incógnitas

Un sistema de dos ecuaciones lineales de primer grado con dos incógnitas tiene la siguiente forma

\[\left\{ \begin{array}{l}
Ax + By + C = 0\\
A'x + B\,'y + C' = 0
\end{array} \right.\quad(1)\]

Ya sabemos que una ecuación lineal de primer grado con dos incógnitas es, desde el punto de vista geométrico, una recta en el plano. En este caso tenemos dos en su forma general:

\[r \equiv Ax + By + C = 0\quad\text{;}\quad  s \equiv A'x + B\,'y + C' = 0\]

Las posibles posiciones relativas de dos rectas en el plano son tres: coincidentes, paralelas y secantes.

Si son coincidentes es porque una recta es la misma que la otra salvo un factor numérico, es decir,

\[Ax + By + C = k\left( {A'x + B\,'y + C'} \right) = 0 \Rightarrow Ax + By + C = kA'x + kB\,'y + kC' = 0\,\,,\,\,k \in \mathbb{R}\]

De aquí se deduce que \(A = kA'\,\,,\,\,B = kB\,'\,\,,\,\,C = kC'\) y despejando \(k\) obtenemos una condición para que las dos rectas coincidan:

\[r \equiv s \Leftrightarrow \frac{A}{{A'}} = \frac{B}{{B\,'}} = \frac{C}{{C'}}\]

Si las dos rectas son paralelas tienen la misma dirección, con lo que los vectores directores de \(r\) y \(s\) son iguales o proporcionales. Es decir, llamando \(\vec u\) al vector director de \(r\), y \(\vec v\) al vector director de \(s\), tenemos que \(\vec u = k\vec v\), donde \(k\) es un número real. Pero recordemos que los vectores directores se podían obtener fácilmente de la ecuación general de la recta: \(\vec u = \left( { - B,A} \right)\) y \(\vec v = \left( { - B\,',A'} \right)\), con lo que:

\[\vec u = k\vec v \Leftrightarrow \left( { - B,A} \right) = k\left( { - B\,',A'} \right) \Leftrightarrow \left( { - B,A} \right) = \left( { - kB\,',kA'} \right) \Leftrightarrow\]

\[\Leftrightarrow \left\{ \begin{array}{l}
- B = - kB\,'\\
A = kA'
\end{array} \right. \Leftrightarrow \left\{ \begin{array}{l}
k = \frac{B}{{B\,'}}\\
k = \frac{A}{{A'}}
\end{array} \right. \Leftrightarrow \frac{A}{{A'}} = \frac{B}{{B\,'}}\]

Así pues para que dos rectas sean paralelas tenemos la siguiente condición:

\[r\,|\,|\,s \Leftrightarrow \frac{A}{{A'}} = \frac{B}{{B\,'}} \ne \frac{C}{{C'}}\]

En este caso el sistema \((1)\) no tienen ninguna solución (claro: dos rectas paralelas no tienen ningún punto en común, no se cortan en ningún punto).

Por último, si las dos rectas son secantes, han de tener distinta dirección, con lo que sus vectores directores no serán proporcionales. Esto nos lleva a la siguiente condición:

\[r \cap s = \left\{ P \right\} \Leftrightarrow \frac{A}{{A'}} \ne \frac{B}{{B\,'}}\]

En este caso el sistema \((1)\) tienen una única solución. Esta solución es el punto de corte de las rectas \(r\) y \(s\): \(P\left( {a,b} \right)\).

Veamos un ejemplo.

Consideremos el sistema de ecuaciones \(\displaystyle\left\{ \begin{array}{l}
2x - 3y - 7 = 0\\
- 5x - y + 3 = 0
\end{array} \right.\). Este sistema está formado por las rectas \(r \equiv 2x - 3y - 7 = 0\) y \(s \equiv - 5x - y + 3 = 0\). Como tenemos que \(\dfrac{2}{{ - 5}} \ne \dfrac{{ - 3}}{{ - 1}}\), entonces las rectas son secantes. Si queremos saber el punto de corte basta resolver el sistema. Por reducción es muy sencillo. Multiplicando la segunda ecuación por \(-3\) tenemos: \(\displaystyle\left\{ \begin{array}{l}
2x - 3y - 8 = 0\\
15x + 3y - 9 = 0
\end{array} \right.\) y sumando ambas ecuaciones obtenemos \(17x - 17 = 0 \Rightarrow x = 1\). Sustituyendo en la primera ecuación podemos despejar \(y\): \(2 - 3y - 8 = 0 \Rightarrow - 3y - 6 = 0 \Rightarrow y = - 2\). Entonces el punto de corte de las rectas es \(P\left( {1, - 2} \right)\).

sistemas01

Puede que ahora sea un buen momento de hablar de independencia lineal. Es un concepto muy sencillo. Para ello vamos a pensar en dimensión tres, en un espacio tridimensional como en el que vivimos. Es decir, vamos a fijar un sistema de referencia afín donde cada punto y cada vector tiene tres coordenadas. Este sistema de referencia afín lo podemos escribir así: \(R = \left\{ {O\,,\,\left\{ {{\rm{i}},{\rm{j}},{\rm{k}}} \right\}} \right\}\) donde \({\rm{i}} = \left( {1,0,0} \right)\), \({\rm{j}} = \left( {0,1,0} \right)\) y \({\rm{k}} = \left( {0,0,1} \right)\). Algo así como decir que \(\text{i}\) mide la anchura, \(\text{j}\) la profundidad y \(\text{k}\) la altura. De modo que, por ejemplo, el vector \(\vec u\left( {3,4,2} \right)\) tiene tres unidades de anchura, cuatro de profundidad y dos de altura.

Pues bien, un vector es siempre linealmente independiente y genera una recta (la recta que lo contiene, que es un espacio de dimensión uno). Dos vectores son linealmente independientes si tienen distinta dirección, en cuyo caso generan todo un plano (el plano que los contiene, que es de dimensión dos). Si dos vectores no tienen distinta dirección serán proporcionales (uno se puede poner como el otro multiplicado por un número) y no son linealmente independientes. Tres vectores son linealmente independientes si no están situados en un mismo plano (no coplanarios) y generan todo el espacio, que es de dimensión tres.

¿Qué queremos decir cuando hablamos de que dos vectores linealmente independientes generan el plano que los contiene? Pues que, combinando adecuadamente los dos vectores, podemos llegar a cualquier otro vector del plano.

Veamos un ejemplo. Para ello volvamos a la dimensión dos. Consideremos los vectores \(\left( {1,3} \right)\) y \(\left( {-2,1} \right)\), que tienen distinta dirección. Por tanto, según hemos definido anteriormente, son linealmente independientes, y generan todo el plano de dimensión dos. Esto quiere decir que cualquier otro vector se puede poner como combinación de ellos. Pensemos, por ejemplo en el vector \(\left( {3,-5} \right)\). ¿Podremos llegar a él usando los vectores \(\left( {1,3} \right)\) y \(\left( {-2,1} \right)\)? Es decir, ¿existirán números reales \(x\), \(y\) tales que \(x\left( {1,3} \right) + y\left( { - 2,1} \right) = \left( {3, - 5} \right)\)? Seguro que sí. Veamos:

\[x\left( {1,3} \right) + y\left( { - 2,1} \right) = \left( {3, - 5} \right) \Leftrightarrow \left( {x,3x} \right) + \left( { - 2y,y} \right) = \left( {3, - 5} \right) \Leftrightarrow\]

\[\Leftrightarrow\left( {x - 2y,3x + y} \right) = \left( {3, - 5} \right) \Leftrightarrow \left\{ \begin{array}{l}
x - 2y = 3\\
3x + y = - 5
\end{array} \right.\]

Resolviendo el sistema anterior se obtiene \(x =  - 1\), \(y=-2\). Esto quiere decir que si el vector \(\left( {1,3} \right)\) lo multiplicamos por \(-1\) (o sea, le cambiamos el sentido), el vector \(\left( {-2,1} \right)\) lo multiplicamos por \(-2\) (o sea, lo duplicamos en longitud y le cambiamos el sentido) y, finalmente, sumamos ambos resultados, obtenemos como resultado el vector \(\left( {3,-5} \right)\). Esto, en matemáticas, se resume diciendo que el vector \(\left( {3,-5} \right)\) se puede poner como combinación lineal de los vectores \(\left( {1,3} \right)\) y \(\left( {-2,1} \right)\):

\[\left( {3, - 5} \right) =  - 1\left( {1,3} \right) + \left( { - 2} \right)\left( { - 2,1} \right)\]

Podemos ver el resultado en la figura siguiente:

sistemas02

Si en el sistema \(\left\{ \begin{array}{l}
Ax + By + C = 0\\
A'x + B\,'y + C' = 0
\end{array} \right.\) escribimos los términos independientes en el segundo miembro, lo podemos reescribir así:

\[\left\{ \begin{array}{l}
{a_{11}}x + {a_{12}}y = {b_1}\\
{a_{21}}x + {a_{22}}y = {b_2}
\end{array} \right.\]

Una vez escrito así vamos incluso a disponer de una forma más cómoda el sistema. Llamaremos \(A = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}\\
{{a_{21}}}&{{a_{22}}}
\end{array}} \right)\) matriz de los coeficientes del sistema y \(A|b = \left( {\begin{array}{*{20}{c}}
{{a_{11}}}&{{a_{12}}}&{{b_1}}\\
{{a_{21}}}&{{a_{22}}}&{{b_2}}
\end{array}} \right)\) a la matriz ampliada del sistema. No descubrimos nada nuevo si pensamos en una matriz como una disposición de elementos en filas y en columnas. Obsérvese que al escribir la matriz ampliada \(A|b\) tenemos completamente definido el sistema sin necesidad de escribir las incógnitas.
Ahora, la posición relativa de las dos rectas depende del carácter de la matriz de los coeficientes \(A\) y del de la matriz ampliada \(A|b\), en el siguiente sentido:

  • Si las rectas son coincidentes, las filas de la matriz \(A\) son proporcionales y las de la matriz \(A|b\) también.
  • Si las rectas son paralelas, las filas de la matriz \(A\) son proporcionales, pero no los son las de la matriz \(A|b\).
  • Si las rectas son secantes, las filas de la matriz \(A\) no son proporcionales y, por tanto, tampoco lo son los de la matriz \(A|b\).

Este carácter de las matrices en matemáticas se conoce con el nombre de rango de una matriz. Hemos de observar que las filas de las matrices las podemos ver como vectores (con dos, tres, cuatro,\(\ldots\,\) coordenadas). Se define el rango de una matriz como el número de filas (vectores) linealmente independientes. Esto nos lleva a reescribir la posición relativa de dos rectas, en función de los rangos de la matriz de los coeficientes \(A\) y de la matriz ampliada \(A|b\), del siguiente modo:

  • Si las rectas son coincidentes, entonces \(\text{rango}A=\text{rango}A|b=1\).
  • Si las rectas son paralelas, entonces \(\text{rango}A=1\neq\text{rango}A|b=2\).
  • Si las rectas son secantes, entonces \(\text{rango}A=\text{rango}A|b=2\).

Estas ideas se pueden generalizar a un sistema de \(m\) ecuaciones y \(n\) incógnitas. Según el teorema de Rouché-Frobenius, para que un sistema del tipo anterior tenga solución se ha de cumplir que el rango de la matriz de los coeficientes ha de ser igual al rango de la matriz ampliada: \(\text{rango}A=\text{rango}A|b\). Además, si este número es igual al número de incógnitas \(n\), el sistema tiene solución única (sistema compatible determinado). Sin embargo, si este número es menor que el número de incógnitas, el sistema tiene infinitas soluciones (sistema compatible indeterminado). Por último, si \(\text{rango}A\neq\text{rango}A|b\). el sistema no tiene solución (sistema incompatible).

Seguiremos dándole vueltas a todo esto en un artículo que dedicaremos a los sistemas de ecuaciones lineales de primer grado con tres incógnitas.


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

2. Distancias entre puntos

En primer lugar veamos la distancia de un punto \(A(x,\,y)\) al origen de una referencia ortonormal \((O\,;\,\{i,\,j\})\).

distpuntos01

En la figura 2, la distancia \(OA\) es el módulo del vector de posición \(OA=(x,\,y)\); es decir:

 distpuntos03

o sea:

 distpuntos04

Obsérvese cómo se obtiene lo mismo que al aplicar el teorema de Pitágoras en el triángulo de la figura 2.

Ahora calculamos, sobre la figura 3, la distancia \(AB\):

distpuntos02

distpuntos05

O sea:

distpuntos06

Obsérvese que se ha obtenido otra vez el mismo resultado que se obtiene al aplicar el teorema de Pitágoras en el triángulo de la figura 3.

Ejemplo 4

Calcula el perímetro \(P\) de un rombo, uno de cuyos lados es \(AB\), con \(A(2,\,15)\) y \(B(7,\,3)\).


distpuntos07

distpuntos08

← 1. Repaso de la recta en el plano afín

3. Ángulo de dos rectas →

Leer más ...
Suscribirse a este canal RSS

lasmatematicas.eu

Aplicaciones

Sígueme

webs de matemáticas