Menu
La regla de Cramer

La regla de Cramer

Consideremos un sistema d...

¿Necesitas ayuda con las matemáticas? ¿Piensas que nunca serás capaz de entenderlas?

¿Necesitas ayuda con las matemática…

Ahora puedes tener un pro...

Completando cuadrados. Aplicación al cálculo de primitivas o integrales indefinidas

Completando cuadrados. Aplicación a…

Supongamos que me piden c...

La Universidad Europea de Madrid (UEM)

La Universidad Europea de Madrid (U…

La Universidad Europea de...

Cuadratura de un segmento de parábola

Cuadratura de un segmento de parábo…

Una forma de acercarse al...

Ejercicios de aplicaciones de las derivadas y del teorema del valor medio

Ejercicios de aplicaciones de las d…

Se proponen a continuaci&...

Aplicaciones de las derivadas. El teorema del valor medio

Aplicaciones de las derivadas. El t…

Ya hemos hablado en un pa...

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. R…

Cuando en las matem&aacut...

Prev Next

Elementos filtrados por fecha: Noviembre 2016

Los 5 mejores masters en Ciencia, Tecnología e Ingenieria según "El Mundo"

El Periódico "El Mundo" cada año publica el ranking de los mejores Masters en España por cada categoría o especialidades. En este caso para el ejercicio del año 2016/2017, los mejores master publicados en Ciencia, Tecnología, Biotecnología y Ciencias Experimentales los puedes consultar aquí:

http://www.mastercomunicacion.org/los-5-mejores-master-ciencia-tecnologia-ingenieria/

 Es de destacar el tercer puesto del Master en Ingeniería Matemática UAM Madrid.

Si deseas consultar más información sobre los mejores Masters existentes en el mercado impartidos por las diferentes Universidades especializadas en cada uno de los temas haz clic en el siguiente enlace

http://www.mastercomunicacion.org/

En la Web anterior les informarán, etre otras cosas, de a quienes van dirigidos cada uno de los masters, posibles salidas de empleo una vez obtenido el título, el precio del master, las ventajas e inconvenientes de cada uno de los estudios analizados, etc. Además, se pueden dejar dudas y consultas mediante los comentarios en cada una de las páginas o artículos de la Web anterior o enviando la consulta mediante un formulario de contacto.

Espero que les sirva.

Leer más ...

Aplicaciones de las derivadas. El teorema del valor medio

Ya hemos hablado en un par de artículos anteriores del concepto de derivada y de su interpretación tanto desde el punto de vista geométrico como desde el punto de vista físico. Son los siguientes:

En este artículo desarrollaremos las propiedades de las funciones derivables y se pondrá de manifiesto la importancia y utilidad del concepto de derivada.

Los resultados más destacados harán referencia a funciones derivables en un intervalo, tal y como ocurría con las funciones continuas.

Comenzaremos introduciendo el concepto de extremo relativo.

Definición.

Sea \(f:A\rightarrow \mathbb{R}\) una función real de variable real y \(a\) un punto de \(A\). Diremos que \(f\) alcanza un máximo relativo (respectivamente, mínimo relativo) en el punto \(a\) si existe un número real positivo \(\delta\) tal que el intervalo abierto \((a-\delta,a+\delta)\) está contenido en \(A\) y para todo \(x\) de dicho intervalo se tiene: \(f(x)\leqslant f(a)\) (respectivamente, \(f(x)\geqslant f(a)\)).

Diremos que \(f\) alcanza un extremo relativo en el punto \(a\) cuando \(f\) alcance un máximo relativo o un mínimo relativo en \(a\).

Al intervalo abierto del tipo \((a-\delta,a+\delta)\), centrado en el punto \(a\), se le llama también entorno del punto \(a\) y se le suele designar mediante la notación \(V_\delta(a)\).

Podríamos decir incluso que \(f\) alcanza un máximo relativo en el punto \(a\) de \(A\) si existe un cierto intervalo abierto \(I\) que contiene al punto \(a\) y tal que \(f(x)\leqslant f(a)\) para todo \(x\) situado en \(I\cap A\) (análoga definición para mínimo relativo invirtiendo la desigualdad).

Es conveniente analizar con detalle la definición anterior y, sobre todo, compararla con la noción de máximo o mínimo absoluto (que se vio en el artículo dedicado a la propiedad de compacidad para funciones continuas). La relación entre ambos conceptos se puede clarificar con el siguiente ejemplo.

Sea \(f:[0,3]\rightarrow\mathbb{R}\) definida por

\[f(x)=\left\{\begin{array}{ccc}
                x & \text{si} & 0\leqslant x\leqslant 1 \\
                2-x & \text{si} & 1<x\leqslant 2 \\
                2x-4 & \text{si} & 2<x\leqslant 3 \\
              \end{array}
\right.\]

cuya representación gráfica es

teorema valor medio 01

Es inmediato comprobar que la imagen de \(f\) es el intervalo \([0,2]\). Resulta por tanto que \(f\) alcanza su mínimo absoluto en los puntos \(0\) y \(2\). Es claro que \(f\) alcanza un mínimo relativo en \(2\), pues basta tomar \(\delta=1\) en la definición anterior; sin embargo \(f\) no alcanza un mínimo relativo en cero, pues no hay ningún intervalo abierto de centro cero contenido en \([0,3]\). Tomando también \(\delta=1\) en la definición, comprobamos fácilmente que \(f\) alcanza un máximo relativo en el punto \(1\), pero no alcanza su máximo absoluto en \(1\), ya que \(f(1)=1\neq2\). Finalmente \(f\) alcanza su máximo absoluto en \(3\), pero no alcanza un máximo relativo en \(3\).

Resumiendo, si una función \(f:A\rightarrow \mathbb{R}\) alcanza un máximo (respectivamente, mínimo) absoluto en un punto \(a\in A\), \(f\) no tiene por qué alcanzar un extremo relativo en \(a\), de hecho lo alcanza si, y solo si, existe un intervalo abierto de centro \(a\) contenido en \(A\). Además, si \(f\) alcanza un extremo relativo en \(a\), puede ocurrir que \(f\) no alcance en \(a\) ni su máximo ni su mínimo absolutos, de hecho \(f\) no tiene por qué tener máximo ni mínimo absolutos y puede incluso no estar acotada.

La siguiente proposición nos da una condición necesaria para que una función derivable en un punto alcance un extremo relativo en él.

Proposición 1.

Sea \(f:A\rightarrow \mathbb{R}\) una función real de variable real y supongamos que \(f\) alcanza un extremo relativo en un punto \(a\) de \(A\) en el que \(f\) es derivable. Entonces \(f'(a)=0\).

Sea la función \(h\) definida de la siguiente manera:

\[h(x)=\left\{\begin{array}{ccc}
                \displaystyle\frac{f(x)-f(a)}{x-a} & \text{si} & x\neq a \\
                f'(a) & \text{si} & x=a
              \end{array}
\right.\]

Como \(f\) es derivable en \(a\), entonces \(\displaystyle\lim_{x\rightarrow a}h(x)=f'(a)=h(a)\), con lo que \(h\) es continua en \(a\). Supongamos que \(h(a)>0\). Según el lema de conservación del signo, existe \(\delta>0\) tal que \(h(x)>0\) para todo \(x\) del intervalo \((a-\delta,a+\delta)\). Esto quiere decir que el numerador y el denominador de \(h(x)\) tienen el mismo signo, para todo \(x\neq a\) en ese intervalo. Dicho de otro modo, \(f(x)>f(a)\) cuando \(x>a\), y \(f(x)<f(a)\) cuando \(x<a\). Esto contradice la hipótesis de que \(f\) alcanza un extremo relativo en \(a\). Luego, la desigualdad \(h(a)>0\) es imposible. De manera similar se demuestra que tampoco puede ser \(h(a)<0\). Por consiguiente ha de ser \(h(a)=0\), o sea, \(f'(a)=0\), tal y como se quería demostrar.

Es importante notar que el hecho de que la derivada se anule en \(a\) no implica que \(f\) alcance un extremo relativo en \(a\) (la condición anterior era necesaria, pero no es suficiente). Por ejemplo, sea la función \(f(x)=x^3\). Puesto que \(f'(x)=3x^2\), tenemos que \(f'(0)=0\). Sin embargo, esta función es creciente en todo intervalo que contenga al origen, por lo que 0 no es extremo relativo.

Por poner otro ejemplo, la función \(f(x)=|x|\) demuestra que un cero de la derivada no siempre se presenta en un extremo. Aquí hay un mínimo relativo en \(0\), pero en el mismo punto \(0\) la función no es derivable (\(0\) es un punto "anguloso" y en este tipo de puntos no existe la derivada). Lo que dice la proposición anterior es que cuando la gráfica es "suave" (o lo que es lo mismo, en ausencia de puntos "angulosos"), la derivada necesariamente debe anularse en un extremo, si éste se presenta en el interior de un intervalo.

El teorema del valor medio

El teorema del valor medio para derivadas es importante en Análisis Matemático porque muchas de las propiedades de las funciones pueden deducirse fácilmente a partir de él. Antes de establecer el teorema del valor medio, examinaremos uno de los casos particulares a partir del cual puede deducirse el teorema general. Este caso particular lo descubrió Michel Rolle (1652-1719), matemático francés.

Teorema 1 (de Rolle).

Sea \(f:[a,b]\rightarrow\mathbb{R}\) una función continua en \([a,b]\) y derivable en \((a,b)\) verificando que \(f(a)=f(b)\). Entonces existe un punto \(c\) del intervalo \((a,b)\) tal que \(f'(c)=0\).

Razonando por reducción al absurdo, supongamos que \(f'(x)\neq0\) para todo \(x\) en el intervalo abierto \((a,b)\). Como \(f\) es una una función continua en \([a,b]\), la propiedad de compacidad nos asegura que \(f\) debe alcanzar su máximo absoluto \(M\) y su mínimo absoluto \(m\) en algún punto del intervalo cerrado \([a,b]\). Además, la proposición anterior nos dice que ningún extremo puede ser alcanzado en puntos interiores (de otro modo sería nula la derivada allí). Luego, ambos valores extremos son alcanzados en los extremos \(a\) y \(b\). Pero como \(f(a)=f(b)\), esto significa que \(m=M\), y por tanto \(f\) es constante en \([a,b]\). Esto contradice el hecho de que \(f'(x)\neq0\) para todo \(x\) en \((a,b)\). Resulta pues que \(f'(c)=0\) por lo menos en un punto \(c\) que satisfaga \(a<c<b\), lo que demuestra el teorema.

El significado geométrico del teorema de Rolle está representado en la figura siguiente. En este teorema se afirma tan sólo que la curva debe tener al menos una tangente horizontal en algún punto entre \(a\) y \(b\).

teorema valor medio 02

El teorema de Rolle se utiliza para demostrar el teorema del valor medio. Antes de enunciarlo, vamos a examinar su significado geométrico. Observemos la figura siguiente.

teorema valor medio 03

La curva dibujada es la gráfica de una función \(f\) continua con tangente en cada punto del intervalo \((a,b)\). En el punto \(c\) indicado, la tangente es paralela a la cuerda \(AB\). El teorema del valor medio asegura que existirá \emph{por lo menos un punto} con esta propiedad.

Para traducir al lenguaje matemático esta propiedad geométrica, tan sólo necesitamos observar que el paralelismo de dos rectas significa la igualdad de sus pendientes. Puesto que la pendiente de la cuerda es el cociente \(\frac{f(b)-f(a)}{b-a}\) y ya que la pendiente de la tangente en \(c\) es la derivada \(f'(c)\), la afirmación anterior puede expresarse así:

\[\frac{f(b)-f(a)}{b-a}=f'(c)\]

para algún \(c\) del intervalo abierto \((a,b)\).

Para hacer más intuitiva la validez de la fórmula anterior, podemos imaginar \(f(t)\) como el camino recorrido por una partícula móvil en el tiempo \(t\). Entonces el cociente del primer miembro de la fórmula representa la velocidad media en el intervalo de tiempo \([a,b]\), y la derivada \(f'(t)\) representa la velocidad instantánea en el tiempo \(t\) (ver artículo dedicado al problema de la velocidad). La igualdad afirma que debe existir un momento en que la velocidad instantánea es igual a la velocidad media. Por ejemplo, si la velocidad media de un automóvil en un viaje es de 90 km por hora, el velocímetro debe registrar 90 km por hora por lo menos una vez durante el viaje.

Teorema 2 (del valor medio).

Sea \(f:[a,b]\rightarrow\mathbb{R}\) una función continua en \([a,b]\) y derivable en \((a,b)\). Entonces existe un punto \(c\) del intervalo abierto \((a,b)\) tal que

\[f(b)-f(a)=f'(c)(b-a)\]

Sea \(g:[a,b]\rightarrow\mathbb{R}\) la función definida por

\[g(x)=(f(b)-f(a))x-(b-a)f(x)\,,\forall\,x\in[a,b]\]

Claramente \(g\) es continua en \([a,b]\) y derivable en \((a,b)\) con

\[g'(x)=(f(b)-f(a))-(b-a)f'(x)\,,\forall\,x\in(a,b)\]

Además, es fácil comprobar que \(g(a)=g(b)\). Por el teorema de Rolle existe \(c\in(a,b)\) tal que \(g'(c)=0\), esto es, tal que

\[f(b)-f(a)=f'(c)(b-a)\]

Obsérvese que el teorema anterior no concreta nada acerca de la posición exacta del "valor o valores medios" \(c\), y sólo indica que todos pertenecen al intervalo abierto \((a,b)\). Para algunas funciones se puede especificar con exactitud la posición de los valores medios, pero en la mayoría de los casos es muy difícil hacer una determinación precisa de estos puntos. Sin embargo, la utilidad real del teorema está en el hecho de que se pueden sacar muchas conclusiones del mero conocimiento de la existencia de un valor medio por lo menos.

También es importante comprobar que el teorema del valor medio puede dejar de cumplirse si hay algún punto entre \(a\) y \(b\) en el que la derivada no exista. Por ejemplo, la función \(f\) definida por la ecuación \(f(x)=|x|\) es continua en todo \(\mathbb{R}\) y tiene derivada en todos los puntos del mismo excepto en \(0\) (obsérvese en la figura siguiente que en \(0\) hay un punto anguloso y por tanto no es derivable en él).

teorema valor medio 04

La pendiente de la cuerda que une el punto \((2,f(2))\) con el punto \((-1,f(1))\) es

\[\frac{f(2)-f(-1)}{2-(-1)}=\frac{2-1}{3}=\frac{1}{3}\]

pero la derivada no es igual a \(\frac{1}{3}\) en ningún punto.

Teorema 3.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función derivable en \(I\).

i) \(f\) es creciente si, y sólo si, \(f'(a)\geqslant0\,,\forall\,a\in I\).

ii) \(f\) es decreciente si, y sólo si, \(f'(a)\leqslant0\,,\forall\,a\in I\).

iii) Si \(f'(a)=0\,,\forall\,a\in I\), entonces \(f\) es constante.

iv) Supongamos que \(f'(a)\neq0\,,\forall\,a\in I\). Entonces \(f\) es estrictamente monótona y ocurre una de las dos posibilidades siguientes:

\[f'(a)>0\,,\forall\,a\in I\quad\text{o bien}\quad f'(a)<0\,,\forall\,a\in I\]

v) El conjunto \(f'(I)=\{f'(x)\,:\,x\in I\}\) es un intervalo (teorema del valor intermedio para las derivadas).

i) Supongamos que \(f\) es creciente. Para cualesquiera \(a,x\in I\) con \(x\neq a\) se tiene

\[f_a(x)=\frac{f(x)-f(a)}{x-a}\geqslant0\]

de donde \(f'(a)\geqslant0\,,\forall\,a\in I\).

Recíprocamente, supongamos que \(f'(a)\geqslant0\,,\forall\,a\in I\) y sean \(x,y\in I\) con \(x<y\). Aplicando el teorema del valor medio a la restricción de \(f\) al intervalo \([x,y]\) tenemos

\[\exists\,a\in(x,y)\,:\,f(y)-f(x)=f'(a)(y-x)\]

con lo que \(f(x)\leqslant f(y)\) por ser \(f'(a)\geqslant0\).

ii) Basta aplicar i) a la función \(-f\).

iii) Consecuencia directa de i) y ii).

iv) Sean \(x,y\in I\) con \(x\neq y\) y supongamos que fuese \(f(x)=f(y)\). Por el teorema de Rolle existiría un punto \(a\) del intervalo abierto de extremos \(x\) e \(y\) tal que \(f'(a)=0\), lo cual es una contradicción. Así pues \(f\) es inyectiva, pero también es continua, luego es estrictamente monótona en virtud del teorema 1 del artículo dedicado al estudio de las funciones continuas e inyectivas. Finalmente, aplicando i) y ii) tenemos que, o bien \(f'(a)\geqslant0\,,\forall\,a\in I\) o bien \(f'(a)\leqslant0\,,\forall\,a\in I\) lo que, junto con \(f'(a)\neq0\,,\forall\,a\in I\), concluye la demostración.

v) Sean \(a,b\in f'(I)\) con \(a<b\) y sea \(c\in(a,b)\). Supongamos, razonando por reducción al absurdo, que \(c\notin f'(I)\). Sea \(g:I\rightarrow\mathbb{R}\) la función definida por \(g(x)=f(x)-cx\,,\forall\,x\in I\). Es claro que \(g\) es derivable en \(I\) y como \(f'(x)\neq0\,,\forall\,x\in I\), se tiene \(g'(x)\neq0\,,\forall\,x\in I\). Aplicando iv) a la función \(g\) obtenemos que, o bien \(f'(x)-c=g'(c)>0\,,\forall\,x\in I\) o bien \(f'(x)-c=g'(c)<0\,,\forall\,x\in I\). En el primer caso, al ser \(f'(x)>c\,,\forall\,x\in I\), llegaríamos a que \(a\notin f'(I)\) y, en el segundo, al ser \(f'(x)<c\,,\forall\,x\in I\), obtendríamos que \(b\notin f'(I)\). En ambos casos llegamos a una contradicción. Por tanto \(c\in f'(I)\) y hemos probado que \([a,b]\subset f'(I)\), luego \(f'(I)\) es un intervalo.

La hipótesis de que \(I\) sea un intervalo en el teorema anterior es esencial. Por ejemplo, consideremos el conjunto \(A=[0,1]\cup[2,3]\) y \(f:A\rightarrow\mathbb{R}\) la función definida por

\[f(x)=\left\{\begin{array}{ccc}
    0 & \text{si} & x\in[0,1] \\
    1 & \text{si} & x\in[2,3]
  \end{array}\right.
\]

Claramente \(f\) es derivable en \(A\) con \(f'(a)=0\,,\forall\,a\in A\); sin embargo \(f\) no es constante. No es difícil dar contraejemplos para ver que el resto de las afirmaciones del teorema son falsas si I no es un intervalo.

Hagamos notar también que la afirmación recíproca de iv) no es cierta. La función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por \(f(x)=x^3\,,\forall\,x\in\mathbb{R}\), es estrictamente creciente y derivable en \(\mathbb{R}\) pero \(f'(0)=0\). Por tanto, si \(f\) es una función estrictamente creciente y derivable en un intervalo \(I\), sólo podemos afirmar (parte i) del teorema) que \(f'(x)\geqslant0\,,\forall\,x\in I\), pero no que \(f'(x)>0\,,\forall\,x\in I\). Semejante comentario puede hacerse de las funciones estrictamente decrecientes.

A continuación vamos a dar interesantes aplicaciones del teorema anterior. La primera es una condición suficiente para que una función alcance un extremo relativo en un punto, utilizada muy a menudo en la práctica.

Corolario 1.

Sea \(a\) un número real, \(\delta\) un número real positivo, \(I=(a-\delta,a+\delta)\) y \(f:I\rightarrow\mathbb{R}\) una función continua en \(I\) y derivable en \(I-\{a\}\). Entonces:

i) Supongamos que \(x\in I\,,x<a\Rightarrow f'(x)\geqslant0\) y que \(x\in I\,,x>a\Rightarrow f'(x)\leqslant0\). Entonces \(f\) alcanza su máximo absoluto en \(a\). Por tanto cualquier extensión de \(f\) alcanza un máximo relativo en \(a\).

ii) Supongamos que \(x\in I\,,x<a\Rightarrow f'(x)\leqslant0\) y que \(x\in I\,,x>a\Rightarrow f'(x)\geqslant0\). Entonces \(f\) alcanza su mínimo absoluto en \(a\). Por tanto cualquier extensión de \(f\) alcanza un mínimo relativo en \(a\).

i) Aplicando el teorema anterior, la restricción de \(f\) al intervalo \((a-\delta,a)\) (respectivamente, \((a,a+\delta)\)) es creciente (respectivamente, decreciente). Sea \(x\in(a-\delta,a)\) y sea la sucesión \(\{x_n\}=\{a-\frac{a-x}{n+1}\}\). Claramente \(x<x_n<a\,,\forall\,n\in\mathbb{N}\) y \(\{x_n\}\rightarrow a\), con lo que se tiene que \(f(x)\leqslant f(x_n)\,,\forall\,n\in\mathbb{N}\) y \(\{f(x_n)\}\rightarrow f(a)\) (por ser \(f\) continua en \(a\)). Así, \(f(x)\leqslant f(a)\,,\forall\,x\in(a-\delta,a)\). Razonando de manera similar, se demuestra que si \(x\in I\) y \(x>a\), entonces \(f(x)\leqslant f(a)\). En suma, \(f(x)\leqslant f(a)\,,\forall\,x\in I\), como se quería.

ii) Aplíquese i) a la función \(-f\).

La afirmación iii) del teorema anterior es de gran utilidad. Un enunciado, evidentemente equivalente, de la misma es el siguiente: si \(f,g:I\rightarrow\mathbb{R}\) son funciones derivables en el intervalo \(I\) y ser verifica que \(f'(x)=g'(x)\,,\forall x\in I\), entonces existe una constante \(C\in\mathbb{R}\) tal que \(f(x)=g(x)+C\,,\forall\,x\in I\). O sea, que el conocimiento de la función derivada de una función derivable en un intervalo determina a dicha función salvo una constante aditiva.

Una consecuencia muy interesante de lo anterior es que si la derivada de una función es ella misma, entonces dicha función es la función exponencial de base el número \(\text{e}\), más conocida simplemente por función exponencial.

Corolario 2.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función derivable en \(I\). Supongamos que existe un número real \(k\) tal que

\[f'(x)=kf(x)\,,\forall\,x\in I\]

Entonces existe un número real \(C\) tal que

\[f(x)=C\text{e}^{kx}\,,\forall\,x\in I\]

En particular, si \(I=\mathbb{R}\), \(k=1\) y suponemos \(f(0)=1\), entonces \(f\) es la función exponencial.

Sea \(g:I\rightarrow\mathbb{R}\) definida por \(g(x)=\text{e}^{-kx}f(x)\,,\forall\,x\in I\). Se tiene que \(g\) es derivable en \(I\) y que, dado \(x\in I\):

\[g'(x)=-k\text{e}^{-kx}f(x)+\text{e}^{-kx}f'(x)=-k\text{e}^{-kx}f(x)+k\text{e}^{-kx}f(x)=0\]

Por la parte iii) del teorema anterior existe \(C\in\mathbb{R}\) tal que \(g(x)=C\,,\forall x\in I\), tal y como se quería.

Ya habíamos demostrado en otro artículo el teorema de la función inversa para funciones derivables. Sin embargo volvemos a enunciarlo aquí como una consecuencia o corolario, pues la parte iv) del teorema 3 facilita, en la mayoría de los casos, la comprobación de las hipótesis del citado teorema de la función inversa.

Corolario 3 (teorema de la función inversa).

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función derivable en \(I\) con \(f'(a)\neq0\,,\forall\,a\in I\). Entonces \(f\) es estrictamente monótona, \(f^{-1}\) es derivable en \(f(I)\) y

\[(f^{-1})'(f(a))=\frac{1}{f'(a)}\,,\forall\,a\in I\]

Por el apartado iv) del teorema 3, \(f\) es estrictamente monótona. Por el corolario 2 del artículo dedicado a las funciones continuas e inyectivas, \(f^{-1}\) es continua en \(f(I)\), con lo que basta aplicar el teorema de la función inversa para funciones derivables.

Para poner en práctica todo el desarrollo teórico visto en este artículo puedes visitar este otro: ejercicios de aplicaciones de las derivadas y del teorema del valor medio.

Referencias bibliográficas.

Aparicio C., Payá R. (1985) Análisis Matemático I (Secretariado de Publicaciones. Universidad de Granada).

Apostol T. M. (1990. Reimpresión digital 2015): Calculus I. Cálculo con funciones de una variable, con una introducción al álgebra lineal (Reverté Ediciones).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Derivada de la función compuesta. Regla de la cadena

Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de la derivada de una función en un punto usando la definición y aprovechando el cálculo de límites. A continuación, se introducen inmediatamente las reglas de derivación: de un número por una función, de la suma y la resta, del producto y del cociente, así como la derivada de la función compuesta o regla de la cadena. También se dan las derivadas de las funciones elementales (puedes consultar este artículo), generalmente mediante una tabla de derivadas, que suele aparecer dividida en dos: la derivada de la función directamente y la derivada de la función compuesta en la que se hace uso de la regla de la cadena.

Es probable que en bachillerato también se demuestren, usando la definición de derivada de una función en un punto, algunas de las reglas de derivación (por ejemplo la derivada de la suma o del producto de dos funciones), pero lo que no se suele hacer es la demostración de la derivada de la función compuesta, conocida más habitualmente por regla de la cadena. Aprovechando que en esta Web hemos dedicado artículos a hablar sobre la composición de funciones, función inversa de una función y sobre el concepto de convergencia de una sucesión, vamos a proceder a la demostración de la regla de la cadena. Aprovecharemos también para enunciar y demostrar el teorema de la función inversa. Finalmente, y como consecuencia de lo anterior, demostraremos un resultado conocido por todos los estudiantes de matemáticas en bachillerato: de todas las funciones exponenciales, la de base el número \(\text{e}\) es la única que coincide con su función derivada. Este resultado justifica que la función exponencial de base \(\text{e}\) sea la función exponencial por excelencia. De hecho, a la función exponencial de base \(\text{e}\) se la llama, simplemente, función exponencial.

Teorema 1 (de la función compuesta o regla de la cadena)

Sean \(f:A\rightarrow\mathbb{R}\), \(f:B\rightarrow\mathbb{R}\) funciones reales de variable real verificando que \(f(A)\subset B\) y sea \(h=g\circ f\). Sea también \(a\in A\) y supongamos que \(f\) es derivable en \(a\) y que \(g\) es derivable en \(f(a)\). Entonces \(h\) es derivable en \(a\) y se verifica que

\[h'(a)=g'(f(a))f'(a)\]

Sea \(\phi:B\rightarrow\mathbb{R}\) la función definida por

\[\phi(y)=\left\{\begin{array}{ccc}
                   \displaystyle\frac{g(y)-g(f(a))}{y-f(a)} & \text{si} & y\in B-\{f(a)\} \\
                   g'(f(a)) & \text{si} & y=f(a)
                 \end{array}
\right.\]

La derivabilidad de \(g\) en \(f(a)\) hace que \(\phi\) sea continua en \(f(a)\). Se tiene además:

\[g(y)-g(f(a))=\phi(y)(y-f(a))\,,\forall\, y\in B\]

igualdad que, para \(y\neq f(a)\), se deduce de la definición de \(\phi\), mientras que, para \(y=f(a)\), es evidente por ser nulos sus dos miembros.

Dado \(x\in A\) tenemos, tomando \(y=f(x)\),

\[h(x)-h(a)=\phi(f(x))(f(x)-f(a))\]

de donde, si además es \(x\neq a\),

\[\frac{h(x)-h(a)}{x-a}=\phi(f(x))\frac{f(x)-f(a)}{x-a}\]

Por ser \(f\) continua en \(a\) y \(\phi\) continua en \(f(a)\) tenemos que \(\phi\circ f\) es continua en \(f(a)\) (ver proposición 3 del artículo dedicado a las propiedades de las funciones continuas), luego

\[\lim_{x\rightarrow a}\phi(f(x))=\phi(f(a))=g'(f(a))\]

Finalmente, como el límite del producto es el producto de los límites tenemos

\[\lim_{x\rightarrow a}\frac{h(x)-h(a)}{x-a}=\lim_{x\rightarrow a}\phi(f(x))\lim_{x\rightarrow a}\frac{f(x)-f(a)}{x-a}\Rightarrow h'(a)=g'(f(a))f'(a)\]tal y como queríamos demostrar.

El siguiente teorema nos permitirá estudiar la posible derivabilidad de la inversa de una función derivable e inyectiva.

Teorema 2 (de la función inversa)

Sea \(f:A\rightarrow\mathbb{R}\) una función real de variable real y \(a\) un punto de \(A\). Supongamos que \(f\) es inyectiva y que es derivable en el punto \(a\). Entonces las siguientes afirmaciones son equivalentes.

i) \(f'(a)\neq0\) y \(f^{-1}\) es continua en \(f(a)\).

ii) \(f^{-1}\) es derivable en \(f(a)\).

Además, en caso de que se cumplan i) y ii) se tiene:

\[(f^{-1})'(f(a))=\frac{1}{f'(a)}\]

i) \(\Rightarrow\) ii) Sea \(\{y_n\}\) una sucesión de puntos de \(f(A)-\{b\}\) con \(\{y_n\}\rightarrow f(a)\) y consideremos la sucesión \(x_n=f^{-1}(y_n)\,,\forall\,n\in\mathbb{N}\). Por ser \(f^{-1}\) continua en \(f(a)\) tenemos \(\{x_n\}\rightarrow f^{-1}(f(a))=a\), luego, por ser \(f\) derivable en \(a\):

\[\left\{\frac{f(x_n)-f(a)}{x_n-a}\right\}=\left\{\frac{y_n-f(a)}{f^{-1}(y_n)-f^{-1}(f(a))}\right\}\rightarrow f'(a)\]

Finalmente, siendo \(f'(a)\neq0\) obtenemos

\[\left\{\frac{f^{-1}(y_n)-f^{-1}(f(a))}{y_n-b}\right\}\rightarrow\frac{1}{f'(a)}\]

lo que demuestra que \(f^{-1}\) es derivable en \(f(a)\) con derivada \(\frac{1}{f'(a)}\).

ii) \(\Rightarrow\) i) Desde luego, si \(f^{-1}\) es derivable en \(f(a)\) será continua en \(f(a)\). Además, aplicando el teorema anterior con \(B=f(A)\) y \(g=f^{-1}\) tenemos: \(1=(f^{-1}\circ f)'(a)=(f^{-1})'(f(a))f'(a)\), lo que demuestra que \(f'(a)\neq0\) y nos da nuevamente la igualdad \((f^{-1})'(f(a))=\frac{1}{f'(a)}\).

Finalmente, vamos a probar la derivabilidad de las funciones exponencial y logaritmo neperiano y la de las funciones relacionadas con ellas.

Teorema 3

i) La función exponencial es derivable en todo \(\mathbb{R}\) y su función derivada es la propia función exponencial.

ii) Si \(f:A\rightarrow\mathbb{R}\) es derivable en un punto \(a\in A\), entonces la función \(g:A\rightarrow\mathbb{R}\) definida por

\[g(x)=\text{e}^{f(x)}\,,\forall\,x\in A\]

es derivable en \(a\) con \(g'(a)=f'(a)\text{e}^{f(a)}\). En particular, si \(\alpha\) es un número real positivo y tomamos \(A=\mathbb{R}\), \(f(x)=x\ln\alpha\,,\forall\,x\in\mathbb{R}^+\), obtenemos que la función exponencial de base \(\alpha\) es derivable en todo \(\mathbb{R}\) siendo su función derivada el producto del número real \(\ln\alpha\) por la propia función exponencial de base \(\alpha\).

iii) La función logaritmo neperiano es derivable en \(\mathbb{R}^+\) con

\[\ln'(x)=\frac{1}{x}\,,\forall\,x\in\mathbb{R}^+\]

iv) Si \(f:A\rightarrow\mathbb{R}^+\) es derivable en un punto \(a\in A\), la función \(g:A\rightarrow\mathbb{R}\) definida por

\[g(x)=\ln f(x)\,,\forall\,x\in A\]

es derivable en \(a\) con \(g'(a)=\frac{f'(a)}{f(a)}\) (derivada logarítmica de \(f\) en el punto \(a\)).

v) Si  \(f:A\rightarrow\mathbb{R}^+\) y \(g:A\rightarrow\mathbb{R}\) son derivables en un punto \(a\in A\), la función \(h:A\rightarrow\mathbb{R}^+\) definida por

\[h(x)=f(x)^{g(x)}\,,\forall\,x\in A\]

es derivable en \(a\) con

\[h'(a)=h(a)\left(g'(x)\ln f(a)+g(a)\frac{f'(a)}{f(a)}\right)\]

En particular, tomando \(A=\mathbb{R}^+\), \(f(x)=x\,,\forall\,x\in\mathbb{R}^+\) y \(g(x)=b\,,\forall\,x\in\mathbb{R}^+\) donde \(b\) es un número real fijo, se obtiene que la función potencia de exponente \(b\) es derivable en \(\mathbb{R}^+\) y su derivada es el producto del número real \(b\) por la función potencia de exponente \(b-1\).

i) Sea \(\{t_n\}\) una sucesión de números reales no nulos, convergente a cero. Y sean \(y_n=\frac{1}{t_n}\), \(x_n=\text{e}^{t_n}\), \(\forall\,n\in\mathbb{N}\). Claramente \(\{x_n\}\rightarrow1\) y \(\{x_n^{y_n}\}\rightarrow\text{e}\), luego tenemos \(\{y_n(x_n-1)\}\rightarrow1\) (ver el artículo dedicado a ciertos límites funcionales de interés), esto es que \(\{\frac{1}{t_n}(\text{e}^{t_n-1})\}\rightarrow1\).

Sea ahora \(a\in\mathbb{R}\) arbitrario y \(\{a_n\}\) una sucesión de números reales distintos de \(a\) tal que \(\{a_n\}\rightarrow a\). Podemos entonces aplicar lo anteriormente probado a la sucesión \(\{a_n-a\}\), sucesión de números reales no nulos que converge a cero, y obtener:

\[\left\{\frac{\text{e}^{a_n}-\text{e}^a}{a_n-a}\right\}=\left\{\text{e}^a\frac{\text{e}^{a_n-a}-1}{a_n-a}\right\}\rightarrow \text{e}^a\]

Hemos probado así que

\[f'(a)=\lim_{x\rightarrow a}\frac{\text{e}^x-\text{e}^a}{x-a}=\text{e}^a\]

y esto, cualquiera que sea el número real \(a\).

ii) Basta aplicar i) y la regla de la cadena.

iii) La función logaritmo neperiano es continua en \(\mathbb{R}^+\) y, por i), la función exponencial es derivable en \(\mathbb{R}\) con derivada distinto de cero en todo punto. Por el teorema de la función inversa tenemos, para todo número real \(a\):

\[\ln'(\text{e}^a)=\frac{1}{\text{e}^a}\]

y dado \(x\in\mathbb{R}^+\), podemos tomar \(a=\ln x\) para obtener

\[\ln'(x)=\frac{1}{x}\]

iv) Basta aplicar iii) y la regla de la cadena.

v) Sea \(\phi:A\rightarrow\mathbb{R}\) definida por

\[\phi(x)=\ln h(x)=g(x)\ln f(x)\,,\forall\,x\in A\]

Usando iv) y la regla de derivación de un producto, \(\phi\) es derivable en \(a\) con

\[\phi'(a)=g'(a)\ln f(a)+g(a)\frac{f'(a)}{f(a)}\]

Como quiera que

\[h(x)=\text{e}^{\phi(x)}\,,\forall\,x\in A\]

usando ii) obtenemos que \(h\) es derivable en \(a\) con

\[h'(a)=\text{e}^{\phi(a)}\phi'(a)=h(a)\left(g'(x)\ln f(a)+g(a)\frac{f'(a)}{f(a)}\right)\]

Ejercicios

1. Sea \(f:A\rightarrow\mathbb{R}\), \(a\in A\) y supongamos que \(f\) es derivable en \(a\) con \(f(a)\neq0\). Probar que las funciones \(|f|\,,f^+\,,f^-\,:A\rightarrow\mathbb{R}\) dadas por:

\[|f|(x)=|f(x)|\,,\ f^+(x)=\max\{f(x),0\}\,,\ f^-(x)=\max\{-f(x),0\}\,,\forall x\in A\]

son derivables en \(a\). ¿Es cierta la misma afirmación sin suponer \(f(a)\neq0\)?

La función \(|f|\) es la composición de la función \(f\) con la función valor absoluto: \(|f|=f\circ |\cdot|\). Como \(f\) es derivable en \(a\) y la función valor absoluto es derivable en \(f(a)\neq0\), la regla de la cadena nos asegura que \(|f|\) es derivable en \(a\). Si \(f(a)=0\) la afirmación no es cierta pues la función valor absoluto no es derivable en cero. Sea por ejemplo la función

\[f(x)=x^2-1\Rightarrow|f(x)|=\left\{\begin{array}{ccc}
                  x^2-1 & \text{si} & x\in(-\infty,-1]\cup[1,+\infty) \\
                  -x^2+1 & \text{si} & x\in(-1,1)
                \end{array}
  \right.\]

En el punto \(a=1\) se tiene

\[\frac{f(x)-f(1)}{x-1}=\left\{\begin{array}{ccc}
                  x+1 & \text{si} & x\in(-\infty,-1]\cup[1,+\infty) \\
                  -x-1 & \text{si} & x\in(-1,1)
                \end{array}
  \right.\]

De esta manera

\[\lim_{x\rightarrow1^+}\frac{f(x)-f(1)}{x-1}=2\quad;\quad\lim_{x\rightarrow1^-}\frac{f(x)-f(1)}{x-1}=-2\]

y por tanto \(|f|\) no es derivable en \(a=1\).

Por otro lado, se tiene que

\[f^+(x)=\max\{f(x),0\}=\frac{f(x)+|f(x)|}{2}\ ;\ f^-(x)=\max\{-f(x),0\}=\frac{-f(x)+|f(x)|}{2}\]

Entonces, por lo demostrado anteriormente, tanto \(f^+\) como \(f^-\) son derivables en \(a\in A\) con \(f(a)\neq0\). Del mismo modo que antes, esta afirmación no tiene por qué ser cierta si \(f(a)=0\).

2. Estudiar la continuidad y derivabilidad de la función \(f:A\rightarrow\mathbb{R}\) en cada uno de los siguientes casos:

a) \(A=[-1,1]\) ; \(f(x)=\sqrt{1-x^2}\,,\forall\,x\in A\).

b) \(A=\mathbb{R}\) ; \(f(x)=\sqrt[3]{|x|}\,,\forall\,x\in\mathbb{R}\).

c) \(A=\mathbb{R}\) ; \(f(x)=\frac{2x}{1+|x|}\,,\forall\,x\in\mathbb{R}\).

d) \(A=\mathbb{R}_0^+\) ; \(f(x)=x^x\,,\forall\,x\in\mathbb{R}^+\), \(f(0)=1\).

e) \(A=[0,1]\) ; \(f(x)=\max\{x,1-x\}\,,\forall\,x\in A\).

a) Sean \(g:\mathbb{R}\rightarrow\mathbb{R}\) y \(h:[0,+\infty)\rightarrow\mathbb{R}\) definidas respectivamente por \(g(x)=1-x^2\) y \(h(x)=\sqrt{x}\). \(g\) es continua y derivable en todo \(\mathbb{R}\), y \(h\) es continua en \([0,+\infty)\) y derivable en \((0,+\infty)\).

\(h\) no es derivable en cero porque

\[\lim_{x\rightarrow0}\frac{h(x)-h(0)}{x-0}=\lim_{x\rightarrow0^+}\frac{\sqrt{x}}{x}=\lim_{x\rightarrow0}\frac{1}{\sqrt{x}}=+\infty\]

Las derivadas de las funciones \(g(x)=1-x^2\) y \(h(x)=\sqrt{x}=x^{1/2}\) son, respectivamente, \(g'(x)=-2x\) y \(h'(x)=\frac{1}{2}x^{-1/2}\), donde se ha utilizado que la derivada de la función constante es igual a cero, que la derivada de la suma es la suma de las derivadas y el apartado v) del teorema 3, según el cual la derivada de la función potencia de exponente \(b\in\mathbb{R}^+\) es el producto del número real \(b\) por la función potencia de exponente \(b-1\).

Por otro lado tenemos que \((h\circ g)(x)=h(g(x))=h(1-x^2)=\sqrt{1-x^2}\), con lo que \(f=h\circ g\). Por la regla de la cadena \(f\) es derivable en \((-1,1)\), ya que si \(a\in(-1,1)\), entonces \(1-a^2\in(0,1)\) y \(f(a)=h(g(a))=h(1-a^2)\). Además, \(f\) no es derivable ni en \(x=-1\), ni en \(x=-1\) porque, tal y como hemos comprobado, no lo es \(h\) en cero y \(f(-1)=f(1)=(h\circ g)(1)=h(g(1))=h(0)\). Dado \(x\in(-1,1)\), la regla de la cadena nos proporciona la derivada de la función \(f\) en \(x\):

\[f'(x)=(h\circ g)'(x)=h'(g(x))g'(x)=\frac{1}{2}(1-x^2)^{-1/2}(-2x)=\frac{-x}{\sqrt{1-x^2}}\]

 

b) La función \(f(x)=\sqrt[3]{|x|}=|x|^{1/3}\) la podemos escribir así:

\[f(x)=\left\{\begin{array}{ccc}
                    x^{1/3} & \text{si} & x\geqslant0 \\
                    (-x)^{1/3} & \text{si} & x<0
                  \end{array}
    \right.\]

Si \(a\in\mathbb{R}^+\), \(f\) es derivable en \(a\) por el apartado 5 del teorema 3, con \(f'(a)=\frac{1}{3}a^{-2/3}\). Por la misma razón, si \(a\in\mathbb{R}^-\), \(f\) también es derivable en \(a\) con derivada \(f'(a)=-\frac{1}{3}a^{-2/3}\).

Si \(a=0\), \(f\) no es derivable en \(a\) pues tomando \(x>0\)

\[\frac{f(x)-f(0)}{x-0}=\frac{\sqrt[3]{x}}{x}=\frac{1}{\sqrt[3]{x^2}}\]

que no tiene límite finito cuando \(x\rightarrow0\).

 

c) La función la podemos escribir del siguiente modo:

\[f(x)=\left\{\begin{array}{ccc}
                    \displaystyle\frac{2x}{1+x} & \text{si} & x\geqslant0 \\
                    \displaystyle\frac{2x}{1-x} & \text{si} & x<0
                  \end{array}
    \right.\]

Esta función es claramente continua y derivable en \(\mathbb{R}-\{0\}\) con derivada

\[f'(x)=\left\{\begin{array}{ccc}
                    \displaystyle\frac{2}{(1+x)^2} & \text{si} & x>0 \\
                    \displaystyle\frac{2}{(1-x)^2} & \text{si} & x<0
                  \end{array}
    \right.\]

Veamos qué ocurre en cero.

Tomando \(x>0\):

\[\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0}\frac{\frac{2x}{1+x}}{x}=\lim_{x\rightarrow0}\frac{2}{1+x}=2\]

Tomando \(x<0\):

\[\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0}\frac{\frac{2x}{1-x}}{x}=\lim_{x\rightarrow0}\frac{2}{1-x}=2\]

Las derivadas laterales existen y son iguales. Por tanto, \(f\) es derivable en cero con \(f'(0)=2\).

 

d) Si \(a\in\mathbb{R}^+\) el apartado v) del teorema iii) nos asegura que \(f\) es derivable en \(a\) con derivada

\[f'(a)=a^a\left(\ln a+1\right)\]

Estudiemos ahora la derivabilidad de \(f\) en cero. Sea \(\phi\) la función definida de la siguiente manera:

\[\phi(x)=\left\{\begin{array}{ccc}
                    x\ln x & \text{si} & x>0 \\
                    0 & \text{si} & x=0
                  \end{array}
    \right.\]

Puesto que

\[\lim_{x\rightarrow0}\frac{\phi(x)-\phi(0)}{x-0}=\lim_{x\rightarrow0}\frac{x\ln x}{x}=\lim_{x\rightarrow0}\ln x=-\infty\]

la función \(\phi\) no es derivable en cero.

Supongamos que \(f\) fuera derivable en cero. Como \(f(x)=\text{e}^{\phi(x)}\), haciendo uso de la regla de la cadena, tendríamos que \(f'(0)=e^{\phi(0)}\phi'(0)=\phi'(0)\), lo cual es contradictorio pues \(\phi\) no es derivable en cero. Por tanto, acabamos de demostrar que \(f\) no es derivable en cero.

 

e) Observemos que \(x=1-x\Leftrightarrow x=\frac{1}{2}\), \(x<1-x\Leftrightarrow x<\frac{1}{2}\) y \(x>1-x\Leftrightarrow x>\frac{1}{2}\). Por tanto podemos escribir la función \(f(x)=\max\{x,1-x\}\) del siguiente modo:

\[f(x)=\left\{\begin{array}{ccc}
                    1-x & \text{si} & 0\leqslant x\leqslant\frac{1}{2} \\
                    x & \text{si} & \frac{1}{2}<x\leqslant1
                  \end{array}
    \right.\]

Claramente, si \(x\neq0\), \(x\neq1\) y \(x\neq\frac{1}{2}\), \(f\) es derivable con derivada

\[f'(x)=\left\{\begin{array}{ccc}
                    -1 & \text{si} & 0<x<\frac{1}{2} \\
                    1 & \text{si} & \frac{1}{2}<x<1
                  \end{array}
    \right.\]

Si \(x=0\) existe la derivada lateral por la derecha, cuyo valor es \(f'_+(0)=-1\). Análogamente, si \(x=1\) existe la derivada lateral por la izquierda y \(f'_-(1)=1\) (estos resultados se pueden obtener también con facilidad aplicando la definición de derivada lateral de una función en un punto). Finalmente, \(f\) no es derivable en \(x=\frac{1}{2}\) pues las derivadas laterales por la izquierda y por la derecha de \(\frac{1}{2}\) no coinciden: \(f'_-\left(\frac{1}{2}\right)=-1\neq1=f'_+\left(\frac{1}{2}\right)\).

3. Estudiar la continuidad y derivabilidad de la función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por:

\[f(x)=\left\{\begin{array}{ccc}
                  x^2 & \text{si} & x\in\mathbb{Q} \\
                  x^3 & \text{si} & x\in\mathbb{R}-\mathbb{Q}
                \end{array}
  \right.\]

Sea \(a\in\mathbb{R}\) y \(\{x_n\}\) una sucesión de racionales convergente al punto \(a\). Entonces tenemos que \(\{f(x_n)\}=\{x_n^2\}\rightarrow a^2\). Sea ahora una sucesión \(\{y_n\}\) de irracionales que converja también al punto \(a\). En este caso \(\{f(y_n)\}=\{y_n^3\}\rightarrow a^3\). Para que \(f\) sea continua en \(a\) debe ser \(a^2=a^3\), es decir, \(a=0\) o \(a=1\). Si \(a=0\Rightarrow\{f(x_n)\}\rightarrow0=f(0)\), sea quien sea la sucesión \(\{x_n\}\). Si \(a=1\Rightarrow\{f(x_n)\}\rightarrow1=f(1)\). Entonces \(f\) es continua en \(0\) y en \(1\). En los demás puntos no es continua y, por tanto, tampoco es derivable.

Estudiemos la derivabilidad en el punto \(a=0\). En este caso

\[\frac{f(x)-f(0)}{x-0}=\left\{\begin{array}{ccc}
                                   x & \text{si} & x\in\mathbb{Q} \\
                                   x^2 & \text{si} & x\in\mathbb{R}-\mathbb{Q}
                                 \end{array}
  \right.\]

Entonces es claro que \(\displaystyle\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=0\), con lo que \(f\) es derivable en \(0\) y \(f'(0)=0\).

Veamos ahora qué ocurre en \(a=1\).

\[\frac{f(x)-f(1)}{x-1}=\left\{\begin{array}{ccc}
                                   x+1 & \text{si} & x\in\mathbb{Q} \\
                                   x^2+x+1 & \text{si} & x\in\mathbb{R}-\mathbb{Q}
                                 \end{array}
  \right.\]

En este caso \(\displaystyle\frac{f(x)-f(1)}{x-1}\) no tiene límite en \(1\), pues si \(x\rightarrow1\) por racionales \(\displaystyle\frac{f(x)-f(1)}{x-1}\rightarrow2\) y si \(x\rightarrow1\) por irracionales \(\displaystyle\frac{f(x)-f(1)}{x-1}\rightarrow3\). Por tanto, \(f\) no es derivable en \(a=1\).

4. Probar que la función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por:

\[f(x)=\left\{\begin{array}{ccc}
                  x & \text{si} & x\in\mathbb{R}_0^- \\
                  \ln(1+x) & \text{si} & x\in\mathbb{R}^+
                \end{array}
  \right.\]

es derivable en \(\mathbb{R}\) y encontrar su función derivada.

La función es claramente continua y derivable en \(\mathbb{R}-\{0\}\), con

\[f'(x)=\left\{\begin{array}{ccc}
                                   1 & \text{si} & x<0 \\
                                   \frac{1}{1+x} & \text{si} & x>0
                                 \end{array}
  \right.\]

Como \(\displaystyle\lim_{x\rightarrow0^+}f(x)=\lim_{x\rightarrow0^-}f(x)=0\), entonces \(\displaystyle\lim_{x\rightarrow0}f(x)=0=f(0)\), \(f\) es continua en \(0\).

Además:

\[\lim_{x\rightarrow0^-}\frac{f(x)-f(0)}{x-0}=1\ ;\ \lim_{x\rightarrow0^+}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0^+}\frac{\ln(1+x)}{x}=1\]

Para demostrar que este último límite es igual a \(1\), demostraremos que \(\displaystyle\lim_{x\rightarrow0^+}(1+x)^{1/x}=\text{e}\). Sea \(y=\frac{1}{x}\). Entonces, \(x\rightarrow0^+\Rightarrow y\rightarrow+\infty\) y tenemos:

\[\lim_{x\rightarrow0^+}(1+x)^{1/x}=\lim_{y\rightarrow+\infty}\left(1+\frac{1}{y}\right)^y=\text{e}\]

Y de aquí, por la continuidad de la función logaritmo neperiano, se deduce que

\[\lim_{x\rightarrow0^+}\ln(1+x)^{1/x}=\lim_{x\rightarrow0^+}\frac{1}{x}\ln(1+x)=\lim_{x\rightarrow0^+}\frac{\ln(1+x)}{x}=\ln\text{e}=1\]

Por tanto, hemos demostrado que

\[\lim_{x\rightarrow0^-}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0^+}\frac{f(x)-f(0)}{x-0}=1\]

Así, \(f\) es derivable en cero con \(f'(0)=1\).

5. Estudiar la continuidad y derivabilidad de la función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por:

\[f(x)=\left\{\begin{array}{ccc}
                  x^p\ln|x| & \text{si} & x\in\mathbb{R}-\{0\} \\
                  0 & \text{si} & x=0
                \end{array}
  \right.\]

donde \(p\) es un número entero.

La función es continua y derivable en \(\mathbb{R}-\{0\}\) y tenemos que

\[f'(x)=\left\{\begin{array}{ccc}
                                   x^{p-1}(p+\ln x) & \text{si} & x>0 \\
                                   x^{p-1}(p-\ln(-x)) & \text{si} & x<0
                                 \end{array}
  \right.\]

Como \(|x^p\ln|x||\leqslant|x^{p+1}|\), entonces \(\forall\,\varepsilon>0\,,\exists\,\delta>0\,:\,x\in\mathbb{R}\,,\,0<|x|<\delta\Rightarrow|f(x)|<\varepsilon\). Basta tomar \(\delta=\sqrt[p+1]{\varepsilon}\). Entonces

\[\lim_{x\rightarrow0}f(x)=\lim_{x\rightarrow0}\left(x^p\ln|x|\right)=0=f(0)\]

y, por tanto, \(f\) es continua en cero.

Usando lo demostrado anteriormente tenemos también

\[\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0}\frac{x^p\ln|x|}{x}=\lim_{x\rightarrow0}\left(x^{p-1}\ln|x|\right)=0\]

lo que demuestra que \(f\) es derivable en \(0\) con \(f'(0)=0\).

6. Sea \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por \(f(x)=x+\text{e}^x\,,\forall\,x\in\mathbb{R}\). Probar que \(f\) es biyectiva y que \(f^{-1}\) es derivable en todo \(\mathbb{R}\). Calcular \((f^{-1})'(1)\) y \((f^{-1})'(1+\text{e})\).

La función \(f\) es continua y derivable en todo \(\mathbb{R}\) por ser suma de continuas y derivables. Por otro lado, \(f(x)\rightarrow-\infty\) cuando \(x\rightarrow-\infty\) y \(f(x)\rightarrow+\infty\) cuando \(x\rightarrow+\infty\), lo que demuestra que \(f(\mathbb{R})=\mathbb{R}\) y \(f\) es sobreyectiva. Además, \(f\) es estrictamente creciente pues si \(x<y\), entonces \(x+\text{e}^x<y+\text{e}^y\) (la función exponencial es estrictamente creciente). Así, \(f\) es inyectiva y, por tanto, \(f^{-1}\) es continua (ver el artículo dedicado a las funciones continuas e inyectivas).

La derivada de la función \(f\) es \(f'(x)=1+\text{e}^x\neq0\,,\forall\,x\in\mathbb{R}\). Por el teorema de la función inversa \(f^{-1}\) es derivable en todo \(\mathbb{R}\) y se tiene que \((f^{-1})'(f(a))=\frac{1}{f'(a)}\). Así:

\(f(a)=1\Leftrightarrow a+\text{e}^a=1\Leftrightarrow a=0\) y entonces \((f^{-1})'(1)=\frac{1}{f'(0)}=\frac{1}{2}\).

\(f(a)=1+\text{e}\Leftrightarrow a+\text{e}^a\Leftrightarrow1+\text{e}\Leftrightarrow a=1\) y entonces \((f^{-1})'(1+\text{e})=\frac{1}{f'(1)}=\frac{1}{1+\text{e}}\).

Referencia bibliográfica. Aparicio C., Payá R. (1985) Análisis Matemático I (Secretariado de Publicaciones. Universidad de Granada).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Series infinitas de números reales. Series convergentes

Las sucesiones de números reales se introdujeron con la intención de poder considerar posteriormente sus "sumas"

\[a_1+a_2+a_3+a_4+\ldots+a_n+\ldots\]

Ya vimos un ejemplo de esta situación en el artículo dedicado a la paradoja de Zenón. Vimos también que se hablaba de "suma infinita" en el sentido de convergencia de una sucesión muy especial: la sucesión de sumas parciales. Vamos a formalizar esta idea.

Definición.

Una serie infinita de números reales (o simplemente, serie de números reales) es un par \(\left(\{a_n\},\{s_n\}\right)\), donde \(\{a_n\}\) es una sucesión de números reales y \(\{s_n\}\) es la sucesión definida por

\[s_n=a_1+a_2+a_3+\ldots+a_n\,,\forall\,n\in\mathbb{N}\]

La sucesión \(\{a_n\}\) recibe el nombre de término general de la serie, mientras que la sucesión \(\{s_n\}\) se llama sucesión de sumas parciales de la serie. Obsérvese que, según la definición anterior,

\[a_{n+1}=s_{n+1}-s_n\,,\forall\,n\in\mathbb{N}\]

También usaremos la escritura \(\sum a_n\) para designar la serie de números reales de término general \(\{a_n\}\).

Ejemplo 1.

La expresión

\[\sum\frac{1}{n(n+1)}\]

designa la serie infinita de término general \(\{\frac{1}{n(n+1)}\}\). La sucesión de sumas parciales es

\[\{s_n\}=\left\{\frac{1}{2}+\frac{1}{2\cdot3}+\ldots+\frac{1}{n(n+1)}\right\}=\left\{1-\frac{1}{n+1}\right\}\]

puesto que para todo número natural \(k\)

\[\frac{1}{k(k+1)}=\frac{1}{k}-\frac{1}{k+1}\]

Parece natural asignar el número \(1\) a la "suma" de la serie anterior, es decir,

\[\sum_{n=1}^\infty\frac{1}{n(n+1)}=\frac{1}{2}+\frac{1}{2\cdot3}+\frac{1}{3\cdot4}+\frac{1}{4\cdot5}+\ldots=1\]

ya que la sucesión de sumas parciales \(\{s_n\}\) converge a \(1\).

Ejemplo 2.

Consideremos ahora la serie infinita

\[\sum\ln\left(1+\frac{1}{n}\right)\]

Ahora tenemos que la sucesión de sumas parciales es

\[\{s_n\}=\left\{\ln2+\ln\frac{3}{2}+\ldots+\ln\frac{n+1}{n}\right\}=\{\ln(n+1)\}\]

puesto que, usando las propiedades de los logaritmos, para todo número natural \(k\)

\[\ln\frac{k+1}{k}=\ln(k+1)-\ln k\]

Observemos ahora que la sucesión de sumas parciales, \(\{s_n\}=\{\ln(n+1)\}\) no es convergente (no está acotada). Por tanto también será natural decir que la serie anterior no tiene "suma finita" o que no es sumable.

Vamos a expresar con rigor las ideas vistas en los ejemplos anteriores.

Definición 2.

Se dice que la serie de números reales \(\sum a_n\) es convergente cuando su sucesión de sumas parciales \(\{s_n\}\) es convergente, en cuyo caso el límite de la sucesión de sumas parciales recibe el nombre de suma de la serie y se representa por

\[\sum_{n=1}^\infty a_n\]

Así pues, simbólicamente

\[\sum_{n=1}^\infty a_n=\lim s_n=\lim\{a_1+a_2+a_3+\ldots+a_n\}\]

La serie del primer ejemplo anterior es convergente de suma \(1\), y la serie del segundo ejemplo no es convergente. Veamos un par de ejemplos más.

Ejemplo 3.

Dado un número real \(x\), la serie \(\sum x^{n-1}\) recibe el nombre de serie geométrica de razón \(x\). Si \(x=1\) dicha serie no es convergente, pues la sucesión de sumas parciales es \(\{n\}\). Para \(x\neq1\) tenemos

\[\{s_n\}=\{1+x+x^2+\ldots+x^{n-1}\}=\left\{\frac{x^n-1}{x-1}\right\}\]

donde hemos utilizado la fórmula de la suma de los \(n\) primeros términos de una progresión geométrica.

Si \(|x|<1\) tenemos \(\{x^n\}\rightarrow0\) y por tanto \(\{s_n\}\rightarrow\frac{1}{1-x}\). Si \(|x|>1\) tenemos que \(\{|x^n|\}\rightarrow+\infty\) luego en este caso la serie no es convergente.

Resumiendo, la serie geométrica de razón \(x\), \(\sum x^{n-1}\), es convergente si, y sólo si, \(|x|<1\), en cuyo caso se tiene:

\[\sum_{n=1}^\infty x^{n-1}=\frac{1}{1-x}\]

Ejemplo 4.

En la discusión de la paradoja de Zenón se vio que las sumas parciales \(s_n\) de la serie \(\sum\frac{1}{n}\) satisfacen la igualdad

\[s_n=1+\frac{1}{2}+\frac{1}{3}+\ldots+\frac{1}{n}=\sum_{k=0}^n\frac{1}{k}\geqslant\ln(n+1)\]

Puesto que \(\{\ln(n+1)\}\rightarrow+\infty\) lo mismo ocurre con \(\{s_n\}\) y por tanto la serie \(\sum\frac{1}{n}\) no es convergente. Esta serie se denomina serie armónica.

Hemos de resaltar que estudiar la convergencia de una serie infinita de números reales consiste en estudiar la convergencia de una sucesión de números reales, la sucesión de sumas parciales de la serie. Por otra parte, cualquier sucesión de números reales es la sucesión de sumas parciales de una serie; en efecto, si \(\{x_n\}\) es cualquier sucesión de números reales, tomando

\[a_1=x_1\ ,\ a_{n+1}=x_{n+1}-x_n\ ,\forall\,n\in\mathbb{N}\]

es inmediato comprobar por inducción que la sucesión de sumas parciales de la serie \(\sum a_n\) es \(\{x_n\}\). Resulta por tanto que los conceptos de serie convergente y suma de una serie están en correspondencia biunívoca con los de sucesión de números reales convergente y límite de una tal sucesión. La razón para el estudio específico de las series infinitas de números reales estriba en que, dada una serie \(\sum a_n\), a diferencia de lo que ocurría en los ejemplos 1 o 3, la sucesión \(\{s_n\}\) de sumas parciales se conoce de forma recurrente y no es fácil encontrar una expresión de \(s_n\) en función de \(n\) que permita estudiar con comodidad la convergencia de la sucesión \(\{s_n\}\). Lo que interesa, por tanto, es encontrar criterios de convergencia para series infinitas de números reales \(\sum a_n\) que vengan dados en términos de la sucesión \(\{a_n\}\) que es perfectamente conocida. A continuación obtenemos de manera inmediata una condición necesaria de este tipo.

Proposición 1.

Sea \(\sum a_n\) una serie infinita de números reales convergente. Entonces la sucesión \(\{a_n\}\) converge a cero.

Sea \(\{s_n\}\) la sucesión de sumas parciales de la serie, sucesión que, por hipótesis, es convergente. Entonces resulta que \(\{a_{n+1}\}=\{s_{n+1}-s_n\}\) converge a cero y, por tanto, \(\{a_n\}\) converge a cero.

El recíproco de la proposición anterior no es cierto. Los términos generales de las series de los ejemplos 2 y 4, convergen a cero, pero las series no son convergentes. Parece ser pues que, para que una serie sea convergente no sólo debe ocurrir que su término general \(\{a_n\}\) converja a cero, sino que lo debe de hacer "lo suficientemente deprisa". Esto es porque para que una serie converja es necesario que la sucesión de sumas parciales \(\{s_n\}\) sea convergente y, por tanto, acotada. Si consideramos una serie convergente de números reales positivos, es decir, \(a_n>0\) para todo \(n\); tenemos que \(s_{n+1}=s_n+a_n\) para cada \(n\); de forma que, para que \(\{s_n\}\) esté acotada, es necesario que los términos de la sucesión \(\{a_n\}\) se hagan pequeños "lo suficientemente deprisa". Así, los términos generales de las series de los ejemplos 2 y 4, respectivamente \(\{\ln\left(1+\frac{1}{n}\right)\}=\) y \(\{\frac{1}{n}\}\), no tienden a cero con la suficiente rapidez pues las series correspondientes no son convergentes. Sin embargo el término general de la serie del ejemplo 1, \(\{\frac{1}{n(n+1)}\}\), sí que debe de converger a cero lo suficientemente rápido, lo que hace que la serie \(\sum\frac{1}{n(n+1)}\) sea convergente.

Presentamos a continuación dos resultados que nos dan propiedades elementales de las series convergentes.

Proposición 2.

Sean \(\sum a_n\), \(\sum b_n\) dos series de números reales convergentes y \(\alpha\), \(\beta\) dos números reales cualesquiera. Entonces la serie \(\sum (\alpha a_n+\beta b_n)\) es convergente y se verifica que

\[\sum_{n=0}^\infty (\alpha a_n+\beta b_n)=\alpha\sum_{n=0}^\infty a_n+\beta\sum_{n=0}^\infty b_n\]

Si \(\{s_n\}\), \(\{t_n\}\) y \(\{u_n\}\) son las sucesiones de sumas parciales de las series \(\sum a_n\), \(\sum b_n\) y \(\sum (\alpha a_n+\beta b_n)\) respectivamente, es evidente que:

\[u_n=\alpha s_n+\beta t_n\,,\forall\,n\in\mathbb{N}\]

Proposición 3.

Sea \(\sum a_n\) una serie de números reales y \(k\) un número natural. Entonces la serie \(\sum a_n\) es convergente si, y sólo si, la serie \(\sum a_{k+n}\) es convergente, en cuyo caso se tiene:

\[\sum_{n=1}^\infty a_n=(a_1+a_2+\ldots+a_k)+\sum_{n=1}^\infty a_{k+n}\]

Notando \(\{s_n\}\) y \(\{t_n\}\) a las sucesiones de sumas parciales de \(\sum a_n\) y \(\sum a_{k+n}\), para todo natural \(n\), tenemos:

\[s_n=(a_1+a_2+\ldots+a_k)+(a_{k+1}+a_{k+2}+\ldots+a_{k+n})=(a_1+a_2+\ldots+a_k)+t_n\]

La serie \(\sum a_{k+n}\) que aparece en la proposición anterior recibe el nombre de serie de resto k-ésimo de la serie \(\sum a_n\), se la suele notar \(\sum_{n>k} a_n\), y en caso de que sea convergente se suele notar \(\sum_{n=k+1}^\infty a_n\) a su suma. La proposición anterior nos dice por tanto que una serie es convergente si, y solo si, lo es cualquiera de sus restos, en cuyo caso las sumas de ambas series están relacionadas por:

\[\sum_{n=0}^\infty a_n=(a_1+a_2+\ldots+a_k)+\sum_{n=k+1}^\infty a_n\]

Conviene observar que los términos \(a_1\), \(a_2\),\(\ldots\), \(a_k\) no intervienen para nada en la serie \(\sum_{n>k} a_n\); ello permite referirnos a la serie aunque no se conozcan los términos aludidos o, más concretamente, aunque la expresión general de \(a_n\) no tenga sentido para \(n=1,2,\ldots,k\). Así por ejemplo \(\sum_{n>1}\frac{1}{\ln n}\) denota inequívocamente a la serie \(\sum\frac{1}{\ln(n+1)}\) y para nada nos interesa que la expresión \(\frac{1}{\ln n}\) no tenga sentido para \(n=1\). Cualquiera que sea el valor que asignemos al término \(a_1\), la proposición anterior nos dice que \(\sum_{n>1}\frac{1}{\ln n}\) es convergente si, y sólo si, lo es \(\sum a_n\) siempre que \(a_n=\frac{1}{\ln n}\,,\forall\,n\in\mathbb{N}-\{1\}\).

En el mismo orden de cosas, se utilizan también con frecuencia series con subíndice inicial cero. Si \(\{a_n\}\) es una sucesión de números reales y \(a_0\) es un número real se denota \(\sum_{n\geqslant0}a_n\) a la serie \(\sum a_{n-1}\) y cuando dicha serie es convergente notamos \(\sum_{n=0}^\infty a_n\) a su suma. Puesto que \(\sum a_n\) es el primer resto de la serie \(\sum_{n\geqslant0}a_n\), la proposición anterior nos garantiza que la serie \(\sum_{n\geqslant0}a_n\) es convergente si, y sólo si, los es \(\sum a_n\), en cuyo caso tenemos:

\[\sum_{n=0}^\infty a_n=a_0+\sum_{n=1}^\infty a_n\]

Así por ejemplo, la serie geométrica de razón \(x\), \(\sum x^{n-1}\), suele denotarse por \(\sum_{n\geqslant0}x^n\), y cuando \(|x|<1\), la serie es convergente y escribiremos:

\[\sum_{n=0}^\infty x^n=\frac{1}{1-x}\]

Ejercicios

1. Probar que \(\displaystyle\sum_{n=1}^\infty\frac{1}{(n+1)\sqrt{n}+n\sqrt{n+1}}=1\).

Si multiplicamos y dividimos por el conjugado de la expresión del denominador obtenemos:

\[\frac{1}{(n+1)\sqrt{n}+n\sqrt{n+1}}=\frac{(n+1)\sqrt{n}-n\sqrt{n+1}}{n(n+1)}=\frac{\sqrt{n}}{n}-\frac{\sqrt{n+1}}{n+1}\]

Entonces la sucesión de sumas parciales viene dada por:

\[\{s_n\}=\left\{\left(1-\frac{\sqrt{2}}{2}\right)+\left(\frac{\sqrt{2}}{2}-\frac{\sqrt{3}}{3}\right)+\ldots+\left(\frac{\sqrt{n}}{n}-\frac{\sqrt{n+1}}{n+1} \right)\right\}=\]

\[=\left\{1-\frac{\sqrt{n+1}}{n+1}\right\}=\left\{1-\frac{1}{\sqrt{n+1}}\right\}\rightarrow1\]

Por tanto, \(\displaystyle\sum_{n=1}^\infty\frac{1}{(n+1)\sqrt{n}+n\sqrt{n+1}}=1\).

2. Probar que \(\displaystyle\sum_{n=0}^\infty\frac{3^{n+1}+2^{n+1}}{6^n}=9\).

Vamos a estudiar el término n-ésimo de la sucesión de sumas parciales \(\{s_n\}\).

\[s_n=\frac{3+2}{1}+\frac{3^2+2^2}{6}+\frac{3^3+2^3}{6^2}+\ldots+\frac{3^{n+1}+2^{n+1}}{6^n}=\]

\[=3\left(1+\frac{1}{2}+\left(\frac{1}{2}\right)^2+\ldots+\left(\frac{1}{2}\right)^n\right)+ 2\left(1+\frac{1}{3}+\left(\frac{1}{3}\right)^2+\ldots+\left(\frac{1}{3}\right)^n\right)=(*)\]

Usando ahora la fórmula de la suma de los términos de una progresión geométrica tenemos:

\[(*)=3\frac{\left(\frac{1}{2}\right)^n\frac{1}{2}-1}{\frac{1}{2}-1}+2\frac{\left(\frac{1}{3}\right)^n\frac{1}{3}-1}{\frac{1}{3}-1}= 3\frac{1-\left(\frac{1}{2}\right)^{n+1}}{\frac{1}{2}}+2\frac{1-\left(\frac{1}{3}\right)^{n+1}}{\frac{1}{3}}=\]

\[=6\left(1-\left(\frac{1}{2}\right)^{n+1}\right)+3\left(1-\left(\frac{1}{3}\right)^{n+1}\right)\]

Así pues, finalmente

\[\{s_n\}=\left\{6\left(1-\left(\frac{1}{2}\right)^{n+1}\right)+3\left(1-\left(\frac{1}{3}\right)^{n+1}\right)\right\}\rightarrow6+3=9\]

Por tanto, \(\displaystyle\sum_{n=0}^\infty\frac{3^{n+1}+2^{n+1}}{6^n}=9\).

3. Probar que \(\displaystyle\sum_{n=2}^\infty\frac{\ln\left(1+\frac{1}{n}\right)}{\ln\left((n+1)^{\ln n}\right)}=\frac{1}{\ln2}\).

Obsérvese en primer lugar que

\[\frac{\ln\left(1+\frac{1}{n}\right)}{\ln\left((n+1)^{\ln n}\right)}=\frac{\ln(n+1)-\ln n}{\ln n \ln(n+1)}=\frac{1}{\ln n}-\frac{1}{\ln(n+1)}\]

Así pues

\[s_n=\left(\frac{1}{\ln2}-\frac{1}{\ln3}\right)+\left(\frac{1}{\ln3}-\frac{1}{\ln4}\right)+\ldots+\left(\frac{1}{\ln(n-1)}-\frac{1}{\ln n}\right)+\left(\frac{1}{\ln n}-\frac{1}{\ln(n+1)}\right)\]

Por tanto

\[\{s_n\}=\left\{\frac{1}{\ln 2}-\frac{1}{\ln(n+1)}\right\}\rightarrow\frac{1}{\ln 2}\]

y entonces \(\displaystyle\sum_{n=2}^\infty\frac{\ln\left(1+\frac{1}{n}\right)}{\ln\left((n+1)^{\ln n}\right)}=\frac{1}{\ln2}\).

4. Sean \(\sum a_n\) y \(\sum b_n\) series de números reales tales que \(\sum (a_n+b_n)\) es convergente. ¿Qué puede afirmarse sobre la convergencia de las series \(\sum a_n\) y \(\sum b_n\)?

Que, o son las dos convergentes, o ninguna lo es. Para verlo llamemos, respectivamente, \(\{s_n\}\), \(\{t_n\}\) y \(\{u_n\}\) a las sucesiones de sumas parciales de las series \(\sum a_n\), \(\sum b_n\) y \(\sum (a_n+b_n)\). Entonces es obvio que \(\{u_n\}=\{s_n\}+\{t_n\}\). Por hipótesis, \(\{u_n\}\) es convergente. Si \(\{s_n\}\) fuera convergente debería de serlo \(\{t_n\}\) pues \(\{t_n\}=\{u_n\}-\{s_n\}\). Este ejercicio es una reformulación del ejercicio 3 del artículo dedicado a las sucesiones acotadas y a las propiedades de las sucesiones convergentes.

5. Sean \(\sum a_n\) y \(\sum b_n\) dos series de números reales. Supongamos que \(\exists\,k\in\mathbb{N}\,:\,n>k\Rightarrow a_n=b_n\). Probar que \(\sum a_n\) es convergente si, y solo si, lo es \(\sum b_n\), en cuyo caso

\[\sum_{n=1}^\infty a_n=(a_1+a_2+\ldots+a_k)-(b_1+b_2+\ldots+b_k)+\sum_{n=1}^\infty b_n\]

Llamemos, respectivamente, \(\{s_n\}\) y \(\{t_n\}\) a las sucesiones de sumas parciales de las series \(\sum a_n\) y \(\sum b_n\). Entonces, utilizando la hipótesis según la cual \(\exists\,k\in\mathbb{N}\,:\,n>k\Rightarrow a_n=b_n\), tenemos:

\[s_n=a_1+a_2+\ldots+a_k+a_{k+1}+\ldots+a_n=a_1+a_2+\ldots+a_k+b_{k+1}+\ldots+b_n=\]

\[=a_1+a_2+\ldots+a_k-(b_1+b_2+\ldots+b_k)+(b_1+b_2+\ldots+b_k)+b_{k+1}+\ldots+b_n=\]

\[=(a_1+a_2+\ldots+a_k)-(b_1+b_2+\ldots+b_k)+(b_1+b_2+\ldots+b_k+b_{k+1}+\ldots+b_n)=\]

\[=(a_1+a_2+\ldots+a_k)-(b_1+b_2+\ldots+b_k)+t_n\]

De aquí se deduce claramente que \(\sum a_n\) es convergente si, y sólo si, lo es \(\sum a_n\) y, además se cumple la igualdad

\[\sum_{n=1}^\infty a_n=(a_1+a_2+\ldots+a_k)-(b_1+b_2+\ldots+b_k)+\sum_{n=1}^\infty b_n\]

Referencias bibliográficas.

Aparicio C., Payá R. (1985): Análisis Matemático I (Secretariado de Publicaciones. Universidad de Granada).

Apostol T. M. (1990. Reimpresión digital 2015): Calculus I. Cálculo con funciones de una variable, con una introducción al álgebra lineal (Reverté Ediciones).

Gaughan E. (1972): Introducción al análisis (Editorial Alhambra).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

La paradoja de Zenón

El filósofo griego Zenón de Elea (495-435 a. de C.) precipitó una crisis en la Matemática antigua estableciendo algunas paradojas ingeniosas. Una de ellas, llamada frecuentemente la paradoja del corredor, se puede exponer de la manera siguiente:

Un corredor no puede alcanzar nunca la meta porque siempre ha de recorrer la mitad de una distancia antes de recorrer la distancia total. Es decir, cuando haya recorrido la primera mitad, tendrá que recorrer la otra mitad. Cuando haya recorrido la mitad de ésta, le quedará todavía la cuarta parte y así sucesiva e indefinidamente.

paradoja zenon 01

Zenón pensó, evidentemente, en una situación ideal en la que el corredor es una partícula o punto que se mueve de un extremo a otro de un segmento de recta. Para analizar el razonamiento de Zenón con más detalle se supone que el corredor parte del punto marcado con 1 (ver figura anterior) y corre hacia la meta marcada con 0. Las posiciones indicadas por \(\frac{1}{2}\), \(\frac{1}{4}\), \(\frac{1}{8}\), \(\ldots\), etc., señalan la fracción de carrera que se ha de recorrer todavía cuando se alcanza el punto marcado. Estas fracciones (cada una de las cuales es la mitad de la anterior) subdividen todo el trayecto en un número indefinido de partes cada vez más pequeñas. Puesto que para recorrer por separado cada una de estas partes se necesita una cantidad positiva de tiempo, parece natural afirmar que el tiempo necesario para el trayecto total ha de ser la suma total de todas estas cantidades de tiempo. Decir que el corredor nunca puede alcanzar la meta equivale a decir que nunca llega a ella en un tiempo finito; o, dicho de otro modo, que la suma de un número finito de intervalos positivos de tiempo no puede ser finita.

La afirmación de Zenón de que un número ilimitado de cantidades positivas no puede tener suma finita, fue contradicha 2000 años más tarde con la creación de la teoría de series infinitas. En los siglos XVII y XVIII algunos matemáticos empezaron a pensar que era posible extender la idea de suma ordinaria de conjuntos finitos de números a conjuntos infinitos, de manera que en algunos casos la "suma" de un conjunto de infinitos números sea finita. Para ver cómo se puede hacer esta extensión y tener una idea de las dificultades que pueden presentarse para ello, conviene analizar la paradoja de Zenón con más detalle.

Supongamos que el corredor antes mencionado, corre a velocidad constante y que necesita \(t\) segundos para la primera mitad del recorrido. Para el siguiente cuarto de recorrido necesitará \(\frac{t}{2}\) segundos, para el octavo siguiente \(\frac{t}{4}\) segundos y en general para la parte comprendida entre \(\frac{1}{2^n}\) y \(\frac{1}{2^{n+1}}\) necesitará \(\frac{t}{2^n}\) segundos. La "suma" de todos estos intervalos se puede indicar simbólicamente escribiendo la siguiente expresión:

\[t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^n}+\ldots\]

Este es un ejemplo de las llamadas series infinitas y el problema aquí está en decidir su es posible encontrar una forma natural de asignarle un número que se pueda llamar suma de la serie.

La experiencia física dice que el corredor que corre a velocidad constante alcanzará su meta en un tiempo doble del que necesitaba para alcanzar su punto medio. Puesto que necesita \(t\) segundos para la mitad del recorrido, tendrá que emplear \(2t\) segundos para el recorrido completo. Este razonamiento sugiere que se debe asignar la "suma" \(2t\) a la serie anterior, esperando que la igualdad

\[t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^n}+\ldots=2t\]

pueda ser "valida" en algún sentido.

La teoría de las series infinitas precisa cómo se ha de interpretar esta igualdad. La idea es la siguiente: primero se suman un número finito de términos, los \(n\) primeros, indicando esta suma por \(\{s_n\}\). Así se tiene:

\[\{s_n\}=\left\{t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^{n-1}}\right\}\]

y esta suma se denomina suma parcial n-sima o sucesión de sumas parciales. Se estudia después el comportamiento de \(\{s_n\}\) cuando \(n\) toma valores cada vez más grandes. En particular se trata de determinar si la sucesión de sumas parciales \(\{s_n\}\) es convergente, es decir, si tiende a un límite finito.

En este caso es fácil ver que el valor límite de las sumas parciales es \(2t\). En efecto, calculando algunas de estas sumas parciales se tiene:

\[s_1=t\ ,\quad s_2=t+\frac{t}{2}=\frac{3}{2}t\ ,\quad s_3=t+\frac{t}{2}+\frac{t}{4}=\frac{7}{4}t\ ,\quad s_4=t+\frac{t}{2}+\frac{t}{4}+\frac{t}{8}=\frac{15}{8}t\]

Se observa que estos resultados se pueden expresar como sigue:

\[s_1=(2-1)t\ ,\quad s_2=\left(2-\frac{1}{2}\right)t\ ,\quad s_3=\left(2-\frac{1}{4}\right)t\ ,\quad s_4=\left(2-\frac{1}{8}\right)t\]

lo cual conduce a pensar en una fórmula general de la forma

\[\{s_n\}=\left\{\left(2-\frac{1}{2^{n-1}}\right)t\right\}\,,\forall\,n\in\mathbb{N}\qquad(1)\]

La fórmula anterior se comprueba fácilmente por inducción. Puesto que \(\{\frac{1}{2^{n-1}}\}\rightarrow0\), resulta que \(\{s_n\}\rightarrow2t\). Por tanto, la igualdad anterior es "cierta" si se interpreta que \(2t\) es el límite de la sucesión de sumas parciales \(\{s_n\}\). Este proceso de límite parece invalidar la objeción de Zenón que la suma de un número infinito de intervalos de tiempo no puede ser nunca finita.

Ahora daremos un argumento que proporciona un apoyo considerable al punto de vista de Zenón. Supongamos que en el anterior análisis de la paradoja del corredor se hace un pequeño pero importante cambio. En vez de considerar la velocidad constante, supongamos que decrece gradualmente de manera que necesita \(t\) segundos para de \(1\) a \(\frac{1}{2}\), \(\frac{t}{2}\) para ir de \(\frac{1}{2}\) a \(\frac{1}{4}\), \(\frac{t}{3}\) segundos para ir de \(\frac{1}{4}\) a \(\frac{1}{8}\), y en general \(\frac{t}{n}\) segundos para ir de \(\frac{1}{2^{n-1}}\) a \(\frac{1}{2^n}\). El tiempo total que necesitará para la carrera, vendrá ahora representado por la siguiente serie infinita:

\[t+\frac{t}{2}+\frac{t}{3}+\ldots+\frac{t}{n}+\ldots\]

En este caso, la experiencia física no sugiera ninguna "suma" obvia o natural para asignar a dicha serie y por tanto este ejemplo hay que estudiarlo desde un punto de vista completamente matemático.

Igual que antes, se introduce la sucesión de sumas parciales \(\{s_n\}\), es decir:

\[\{s_n\}=\left\{t+\frac{t}{2}+\frac{t}{3}+\ldots+\frac{t}{n}\right\}\qquad(2)\]

y se trata de ver qué ocurre a \(\{s_n\}\) cuando \(n\) crece indefinidamente. Esta suma parcial no es tan fácil de estudiar como la anterior, pues no existe una fórmula análoga a la fórmula \((1)\) que simplifique la expresión del segundo miembro de \((2)\). Sin embargo, por comparación de estas sumas parciales con una integral apropiada se puede ver que toman valores tan grandes como se quiera.

En la figura siguiente se ve parte de la hipérbola \(f(x)=\frac{1}{x}\) para \(x>0\). Los rectángulos dibujados, tienen un área total igual a la suma

\[1+\frac{1}{2}+\frac{1}{3}+\ldots+\frac{1}{n}\]

paradoja zenon 02

El área de la región determinada por la hipérbola y el intervalo \([1,n+1]\) es

\[\int_1^{n+1}\frac{1}{x}\,dx=\ln(n+1)\]

y puesto que esta área no puede exceder la suma de las áreas de los rectángulos, se tiene la desigualdad

\[1+\frac{1}{2}+\frac{1}{3}+\ldots+\frac{1}{n}\geqslant\ln(n+1)\]

Multiplicando ambos miembros por \(t\) se obtiene \(s_n\geqslant t\ln(n+1)\). Es decir, si la velocidad del corredor decrece tal como se ha indicado anteriormente, el tiempo necesario para alcanzar el punto \(\frac{1}{2^n}\) es por lo menos \(t\ln(n+1)\) segundos. Puesto que \(\ln(n+1)\) al crecer \(n\) toma valores tan grandes como se quiera (\(\{\ln(n+1)\}\rightarrow+\infty\)), se cumple en este caso la paradoja de Zenón, es decir, que el corredor no alcanzará la meta en un tiempo finito.

La teoría general de series infinitas hace una distinción entre series como

\[t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^n}+\ldots\]

cuyas sucesión de sumas parciales tiende a un límite finito, y series como

\[t+\frac{t}{2}+\frac{t}{3}+\ldots+\frac{t}{n}+\ldots\]

cuyas sucesión de sumas parciales no tiene límite finito (no es convergente).

Las primeras se denominan convergentes y las segundas divergentes. Los primeros investigadores en este dominio ponían poca o ninguna atención en las cuestiones de convergencia y divergencia. Trataban las series infinitas como si fueran sumas ordinarias finitas, sujeta a las leyes usuales del Álgebra sin tener en cuenta que estas leyes no pueden extenderse universalmente a las series infinitas. Por eso no es sorprendente que se haya visto más tarde que algunos de los primeros resultados obtenidos fueran incorrectos. Afortunadamente, muchos de aquellos pioneros tenían una intuición y destreza poco frecuentes, que les evitaba llegar a conclusiones falsas, aunque ellos no pudieran justificar sus métodos. Entre los primeros matemáticos que se ocuparon de las series ocupa un lugar preeminente Leonard Euler. Euler descubría fórmula tras fórmula, a cual más interesante, y a la vez utilizaba las series infinitas como concepto unificador de diversas ramas de la Matemática que hasta entonces estaban sin relacionar. La gran cantidad de trabajos de Euler que han sobrevivido al paso del tiempo es un tributo a su notabilísimo instinto de lo matemáticamente correcto.

La extensión del uso de las series infinitas empezó más tarde en el siglo XVII, cerca de cincuenta años después del nacimiento de Euler, coincidiendo con el principio del desarrollo del Cálculo Integral, Nicholas Mercator (1620-1687) y William Brouncker (1620-1684) descubrieron en 1668 una serie infinita para el logaritmo al intentar calcular el área de un segmento hiperbólico. Poco después, Newton descubrió la serie binómica. Estos descubrimientos constituyen un punto fundamental de la historia de la Matemática. Un caso particular de la serie binómica es el conocido teorema del binomio que afirma que:

\[(1+x)^n=\sum_{k=0}^n\binom{n}{k}x^k\]

donde \(x\) es un número real arbitrario, \(n\) un entero no negativo, y \(\binom{n}{k}\) es el coeficiente binomial. Newton encontró que esta fórmula, válida para valores enteros de \(n\) se podía extender a exponentes reales cualesquiera, sustituyendo la suma finita del segundo miembro, por una serie finita conveniente, si bien no lo demostró. Efectivamente, en un estudio cuidadoso de la serie binomial surgen algunas cuestiones bastante delicadas de convergencia a las que no se podía responder en la época de Newton.

Poco después de la muerte de Euler en 1783, el caudal de nuevos descubrimientos empezó a disminuir y el período formal en las historia de las series llegó a su término. Un nuevo período, y más crítico, empezó en 1812 cuando Gauss publicó la célebre memoria que contenía, por primera vez en la historia, un estudio riguroso de la convergencia de algunas series infinitas. Pocos años más tarde, Cauchy introdujo una definición analítica del concepto del límite en su tratado Curso de Análisis algebraico (publicado en 1821), y expuso los fundamentos de la teoría moderna de convergencia y divergencia. Dedicaremos algunos artículos a exponer los aspectos básicos de esta teoría.

Referencia bibliográfica. Apostol T. M. (1990. Reimpresión digital 2015): Calculus I. Cálculo con funciones de una variable, con una introducción al álgebra lineal (Reverté Ediciones).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Funciones continuas e inyectivas

Nuestro último teorema afirmaba que toda función continua en un intervalo cerrado y acotado tiene máximo y mínimo absolutos, pero nada nos informa sobre los puntos en los que se alcanzan. Bajo la hipótesis adicional de que la función es inyectiva vamos a ver enseguida que el máximo y el mínimo se alcanzan en los extremos del intervalo, pero esto no es más que el punto de partida para resultados más importantes.

Lema 1.

Sean \(a\) y \(b\) números reales con \(a<b\), sea \(f:[a,b]\rightarrow\mathbb{R}\) una función continua e inyectiva y supongamos que \(f(a)<f(b)\). Entonces, para todo número real \(t\) verificando \(a<t<b\) se tiene que \(f(a)<f(t)<f(b)\).

Sea \(t\in(a,b)\) y supongamos, razonando por reducción al absurdo, que se tenga \(f(t)<f(a)\). Entonces, podemos aplicar el teorema del valor intermedio a la restricción de \(f\) al intervalo \([t,b]\), que es una función continua, obteniendo un punto \(c\) del intervalo \([t,b]\) tal que \(f(c)=f(a)\); por ser \(f\) inyectiva tenemos \(c=a\) y \(a\geqslant b\), lo cual es absurdo.

Si suponemos \(f(t)>f(b)\) y aplicamos el teorema del valor intermedio a la restricción de \(f\) al intervalo \([a,t]\), obtenemos un punto \(d\) del intervalo \([a,t]\) tal que \(f(d)=f(b)\), con lo que, otra vez, por ser \(f\) inyectiva tenemos \(b=d\leqslant t\) lo que también es absurdo.

Hemos probado así que \(f(a)\leqslant f(t)\leqslant f(b)\), pero, siendo \(f\) inyectiva, ambas desigualdades han de ser estrictas, como queríamos demostrar.

Nótese que el lema anterior puede aplicarse sucesivamente. Si \(c\in(a,b)\), tenemos, según el lema, \(f(a)<f(c)<f(b)\), pero podemos volver a aplicar el lema a las restricciones de \(f\) a los intervalos \([a,c]\) y \([c,b]\), obteniendo que

\[a<x<c<y<b\Rightarrow f(a)<f(x)<f(c)<f(y)<f(b)\]

y así sucesivamente. Observamos entonces que \(f\) tiene un comportamiento muy concreto, crece al crecer la variable. Este comportamiento se obtendrá de manera rigurosa en el próximo teorema, incluso en un ambiente más general, pero necesitamos concretar algunos conceptos para el enunciado de dicho teorema.

Definición.

Sea \(f:A\rightarrow\mathbb{R}\) una función real de variable real. Diremos que \(f\) es creciente (respectivamente, decreciente) cuando para cualesquiera dos puntos de \(A\), \(x\) e \(y\), en la situación \(x<y\), se tenga \(f(x)\leqslant f(y)\) (respectivamente, \(f(x)\geqslant f(y)\)). Nótese que las anteriores definiciones extienden a las dadas para sucesiones de números reales. Diremos que \(f\) es estrictamente creciente (respectivamente, estrictamente decreciente), cuando para cualesquiera dos puntos, \(x\) e \(y\), de \(A\), en la situación \(x<y\), se tenga \(f(x)<f(y)\) (respectivamente, \(f(x)>f(y)\)). Finalmente, diremos que \(f\) es monótona cuando sea creciente o decreciente y estrictamente monótona cuando sea estrictamente creciente o estrictamente decreciente.

Nótese que toda función estrictamente monótona es inyectiva, de hecho, una función monótona es estrictamente monótona si y sólo si es inyectiva. El recíproco de la primera afirmación anterior no es cierto. Por ejemplo, la función \(f:[0,2]\rightarrow\mathbb{R}\) definida por

\[f(x)=\left\{\begin{array}{ccc}
    x & \text{si} & 0\leqslant x<1 \\
    3-x & \text{si} & 1\leqslant x \leqslant 2
  \end{array}\right.
\]

es inyectiva pero no es estrictamente monótona.

Teorema 1.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función continua e inyectiva. Entonces \(f\) es estrictamente monótona.

Supongamos primeramente que \(I\) es un intervalo cerrado y acotado \([a,b]\), con \(a<b\) (si \(a=b\) no hay nada que demostrar). Supongamos también que \(f(a)<f(b)\) (no puede ser \(f(a)=f(b)\) por ser \(f\) inyectiva). Sean \(x,y\in[a,b]\), con \(x<y\). Si \(x=a\) se tiene, aplicando el lema anterior, \(f(x)<f(y)\), e igual ocurre si \(y=b\). Sean entonces \(x,y\in(a,b)\); aplicando el lema anterior tenemos \(f(x)<f(b)\) y aplicando otra vez el lema a la restricción de \(f\) al intervalo \([x,b]\) obtenemos \(f(x)<f(y)<f(b)\). Así pues hemos probado en este caso que \(f\) es estrictamente creciente. Si fuese \(f(a)>f(b)\), el razonamiento anterior, aplicado a la función \(-f\), demuestra que \(-f\) es estrictamente creciente, de donde \(f\) es estrictamente decreciente. Queda así demostrado el teorema en el caso particular de que \(I\) esa un intervalo cerrado y acotado.

Sea ahora \(I\) un intervalo cualquiera y supongamos que \(f\) no es estrictamente monótona, para llegar a una contradicción. Entonces existen \(x_1,\,y_1,\,x_2,\,y_2\in I\) tales que \(x_1<y_1\), \(f(x_1)>f(y_1)\), \(x_2<y_2\), \(f(x_2)<f(y_2)\). Sean \(a=\min\{x_1,x_2\}\) y \(b=\max\{y_1,y_2\}\); claramente \([a,b]\subset I\) y la restricción de \(f\) a \([a,b]\) es continua en inyectiva, luego por lo ya demostrado, es estrictamente monótona. Ello es absurdo pues \(x_1,\,y_1,\,x_2,\,y_2\in[a,b]\).

Como se dijo anteriormente, una función estrictamente monótona es siempre inyectiva. Sin embargo, una función estrictamente monótona no tiene por qué ser continua. Por ejemplo, la función \(g:[0,2]\rightarrow\mathbb{R}\)

\[g(x)=\left\{\begin{array}{ccc}
    x & \text{si} & 0\leqslant x\leqslant1 \\
    1+x & \text{si} & 1<x\leqslant 2
  \end{array}\right.
\]

es estrictamente creciente y no es continua. Damos a continuación un importante teorema que garantiza la continuidad de una función monótona con una hipótesis adicional.

Teorema 2.

Sea \(A\) un conjunto no vacío de números reales y \(f:A\rightarrow\mathbb{R}\) una función monótona tal que \(f(A)\) es un intervalo. Entonces \(f\) es continua.

Supongamos por ejemplo que \(f\) es creciente. Sea \(x_0\) un punto de \(A\) y \(\{x_n\}\) una sucesión creciente de puntos de \(A\), convergente a \(x_0\). Para cada natural \(n\) se tiene entonces \(x_n\leqslant x_{n+1}\leqslant x_0\) y, por ser \(f\) creciente, \(f(x_n)\leqslant f(x_{n+1})\leqslant f(x_0)\). Así, \(\{f(x_n)\}\) es una sucesión creciente y mayorada, luego convergente (véase el teorema 1 del artículo dedicado a las sucesiones monótonas). Sea \(l=\lim f(x_n)\); por ser \(f(x_n)\leqslant f(x_0)\,,\forall\,n\in\mathbb{N}\), se tendrá \(l\leqslant f(x_0)\) (ver el corolario 3 del artículo dedicado a las sucesiones acotada y a las propiedades de las sucesiones convergentes). Supongamos que fuese \(l<f(x_0)\) y sea \(\frac{l+f(x_0)}{2}=y\); se tiene \(f(x_n)<y<f(x_0)\,,\forall\,n\in\mathbb{N}\). Por ser \(f(A)\) un intervalo, existirá un punto \(x\) en \(A\) tal que \(f(x)=y\). Si fuese \(x<x_n\) para algún natural \(n\), se tendría, por ser \(f\) creciente, que \(y=f(x)\leqslant f(x_n)\), cosa que no ocurre, luego \(x\geqslant x_n\) para todo natural \(n\). Entonces \(x\geqslant x_0\), de donde \(f(x)\geqslant f(x_0)\), lo cual es una contradicción. Así, \(L=f(x_0)\) y \(\{f(x_n)\}\rightarrow f(x_0)\), como queríamos.

Un razonamiento enteramente análogo al anterior nos demostraría que si \(\{x_n\}\) es una sucesión decreciente de puntos de \(A\), convergente a \(x_0\), entonces \(\{f(x_n)\}\) converge a \(f(x_0)\). Así pues, para toda sucesión \(\{x_n\}\) monótona, de puntos de \(A\), convergente a \(x_0\) se tiene que \(\{f(x_n)\}\) converge a \(f(x_0)\). Por la caracterización de la continuidad, \(f\) es continua en \(x_0\) y, como \(x_0\) era un punto arbitrario de \(A\), \(f\) es continua en \(A\).

Finalmente, si \(f\) es decreciente, \(-f\) es creciente y \((-f)(A)=\{-y\,:\,y\in f(A)\}\) es, claramente, un intervalo, luego, por lo ya demostrado \(-f\) es continua, esto es, \(f\) es continua.

Lema 2.

Si \(f:A\rightarrow\mathbb{R}\) es una función estrictamente creciente (respectivamente, estrictamente decreciente), entonces \(f^{-1}:f(A)\rightarrow\mathbb{R}\) es también estrictamente creciente (respectivamente, estrictamente decreciente).

Sean \(x\,,y\in f(A)\) con \(x<y\). Si fuese \(f^{-1}(x)\geqslant f^{-1}(y)\), se tendría, por ser \(f\) creciente, \(f(f^{-1}(x))\geqslant f(f^{-1}(y))\), esto es, \(x\geqslant y\), contra lo supuesto. Luego \(f^{-1}(x)<f^{-1}(y)\) y \(f^{-1}\) es estrictamente creciente. Análogo razonamiento se usa para demostrar el caso en que \(f\) sea estrictamente decreciente.

Corolario 1.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función estrictamente monótona. Entonces \(f^{-1}\) es continua.

Por el lema anterior, \(f^{-1}\) es monótona y su imagen es el intervalo \(I\), luego \(f^{-1}\) es continua por el teorema 2.

Corolario 2.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función continua e inyectiva. Entonces \(f^{-1}\) es continua.

Por el teorema 1, \(f\) es estrictamente monótona luego, por el corolario anterior, \(f^{-1}\) es continua.

Ejercicios

1. Sea \(f:[-1,1]\rightarrow\mathbb{R}\) la función definida por

\[f(x)=\frac{2x}{1+|x|}\,,\forall\,x\in[-1,1]\]

Determínese la imagen de \(f\).

La función también la podemos escribir así:

\[f(x)=\left\{\begin{array}{ccc}
                  \displaystyle \frac{2x}{1-x} & \text{si} & -1\leqslant x<0\\
                  \displaystyle \frac{2x}{1+x} & \text{si} & 0\leqslant x\leqslant 1
                \end{array}
  \right.\]

Las restricciones de \(f\) a los intervalos \([-1,0)\) y \([0,1)\) son claramente continuas por ser funciones racionales. Así, \(f\) es continua en todo punto excepto, eventualmente, en cero. Pero si \(\{x_n\}\) es una sucesión de puntos de \([-1,1]\) convergente a cero, cualquiera de las sucesiones \(\{\frac{2x_n}{1-x_n}\}\), \(\{\frac{2x_n}{1+x_n}\}\) también convergen a cero. Por tanto, \(f\) es continua en todo punto del intervalo \([-1,1]\).

Sea ahora \(x\,,y\in[-1,0)\). Entonces

\[f(x)=f(y)\Leftrightarrow\frac{2x}{1-x}=\frac{2y}{1-y}\Leftrightarrow2x(1-y)=2y(1-x)\Leftrightarrow x-xy=y-yx\Leftrightarrow x=y\]

De la misma forma, dados \(x\,,y\in[0,1]\) se tiene que

\[f(x)=f(y)\Leftrightarrow\frac{2x}{1+x}=\frac{2y}{1+y}\Leftrightarrow2x(1+y)=2y(1+x)\Leftrightarrow x+xy=y+yx\Leftrightarrow x=y\]

Lo anterior demuestra que las restricciones de \(f\) a los intervalos \([-1,0)\) y \([0,1)\) son inyectivas, luego ambas estrictamente monótonas (teorema 1). Pero \(f(-1)=-1\), \(f(0)=0\), \(f(1)=1\). Esto indica que \(f\) es estrictamente creciente en el intervalo \([-1,1]\) y que la imagen de la función \(f\) es también el intervalo \([-1,1]\).

2. Sea \(f:\mathbb{R}\rightarrow\mathbb{R}\) una función continua en \(\mathbb{R}\). Probar que si la restricción de \(f\) a \(\mathbb{Q}\) es monótona, entonces \(f\) es monótona.

Supongamos que la restricción de \(f\) a \(\mathbb{Q}\) es creciente. Sean \(x\,,y\in\mathbb{R}\) en la situación \(x<y\). Entonces existen sucesiones \(\{x_n\}\), \(\{y_n\}\) convergentes a \(x\) e \(y\) respectivamente y cumpliendo que \(x_n\,,y_n\in\mathbb{Q}\,,x_n<x<y<y_n\,,\forall\,n\in\mathbb{N}\). Entonces \(f(x_n)\leqslant f(y_n)\,,\forall\,n\in\mathbb{N}\). Al ser \(f\) continua, la restricción de \(f\) a \(\mathbb{Q}\) también lo es y por tanto \(\{f(x_n)\}\rightarrow f(x)\) y \(\{f(y_n)\}\rightarrow f(y)\). Entonces \(f(x)\leqslant f(y)\) (ver proposición 5 del artículo dedicado a las sucesiones acotadas y a las propiedades de las sucesiones convergentes) y, por tanto, \(f\) es creciente.

3. Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función inyectiva. Analícese la relación entre las siguientes afirmaciones.

i) \(f\) es continua.

ii) \(f(I)\) es un intervalo.

iii) \(f\) es estrictamente monótona.

iv) \(f^{-1}\) es continua.

i) \(\Rightarrow\) ii) por el teorema del valor intermedio.

i) \(\Rightarrow\) iii) por el teorema 1.

i) \(\Rightarrow\) iv) por el corolario 2.

La afirmación ii) no implica necesariamente la i) pues la función \(f:[0,2]\rightarrow\mathbb{R}\) definida por

\[f(x)=\left\{\begin{array}{ccc}
                  x & \text{si} & 0\leqslant x<1\\
                  3-x & \text{si} & 1\leqslant x\leqslant 2
                \end{array}
  \right.\]

es inyectiva y su imagen es el intervalo \([0,2]\), pero no es continua en \(x_0=1\) (ver figura siguiente).

trozos 01

La afirmación ii) no implica necesariamente la iii). La misma función anterior puede servir de contraejemplo.

La afirmación ii) tampoco implica la iv) y sigue sirviendo la misma función anterior como contraejemplo. Es fácil comprobar que \(f^{-1}=f\), que no es continua en \(x_0=1\).

De iii) no se deduce i). La función \(g:[0,2]\rightarrow\mathbb{R}\) definida por

\[g(x)=\left\{\begin{array}{ccc}
                  x & \text{si} & 0\leqslant x<1\\
                  1+x & \text{si} & 1\leqslant x\leqslant 2
                \end{array}
  \right.\]

es estrictamente creciente (luego inyectiva) y no es continua en el punto \(x_0=1\) (ver figura siguiente).

trozos 02

De iii) tampoco se deduce ii) y la misma función anterior sirve de contraejemplo: obsérvese que la imagen de la función \(g\) es el conjunto \([0.1]\cup[2,3]\), que no es un intervalo.

iii) \(\Rightarrow\) iv) por el corolario 1.

La afirmación iv) no implica ninguna de las afirmaciones anteriores.

De las afirmaciones ii) y iii) se deduce la afirmación i) por el teorema 2 y, por tanto, también la afirmación iv), pues i) \(\Rightarrow iv)\).

De las afirmaciones ii) y iv) se deduce la afirmación i) pues si \(f\) es inyectiva también lo es \(f^{-1}\) y al ser ésta continua y estar definida en \(f(I)\), que es un intervalo, se tiene que la inversa de \(f^{-1}\), o sea \(f\), es continua (corolario 1). De estas dos afirmaciones se deduce también iii) ya que i) \(\Rightarrow\) iii).

De iii) y iv) no se deduce necesariamente ni i) ni ii).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...
Suscribirse a este canal RSS

lasmatematicas.eu

Aplicaciones

Sígueme

webs de matemáticas