Menu
¿Necesitas ayuda con las matemáticas? ¿Piensas que nunca serás capaz de entenderlas?

¿Necesitas ayuda con las matemática…

Ahora puedes tener un pro...

Completando cuadrados. Aplicación al cálculo de primitivas o integrales indefinidas

Completando cuadrados. Aplicación a…

Supongamos que me piden c...

La Universidad Europea de Madrid (UEM)

La Universidad Europea de Madrid (U…

La Universidad Europea de...

Cuadratura de un segmento de parábola

Cuadratura de un segmento de parábo…

Una forma de acercarse al...

Ejercicios de aplicaciones de las derivadas y del teorema del valor medio

Ejercicios de aplicaciones de las d…

Se proponen a continuaci&...

Aplicaciones de las derivadas. El teorema del valor medio

Aplicaciones de las derivadas. El t…

Ya hemos hablado en un pa...

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. R…

Cuando en las matem&aacut...

Series infinitas de números reales. Series convergentes

Series infinitas de números reales.…

Las sucesiones de n&uacut...

La paradoja de Zenón

La paradoja de Zenón

El filósofo griego...

Prev Next

Derivada de la función compuesta. Regla de la cadena

Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de la derivada de una función en un punto usando la definición y aprovechando el cálculo de límites. A continuación, se introducen inmediatamente las reglas de derivación: de un número por una función, de la suma y la resta, del producto y del cociente, así como la derivada de la función compuesta o regla de la cadena. También se dan las derivadas de las funciones elementales (puedes consultar este artículo), generalmente mediante una tabla de derivadas, que suele aparecer dividida en dos: la derivada de la función directamente y la derivada de la función compuesta en la que se hace uso de la regla de la cadena.

Es probable que en bachillerato también se demuestren, usando la definición de derivada de una función en un punto, algunas de las reglas de derivación (por ejemplo la derivada de la suma o del producto de dos funciones), pero lo que no se suele hacer es la demostración de la derivada de la función compuesta, conocida más habitualmente por regla de la cadena. Aprovechando que en esta Web hemos dedicado artículos a hablar sobre la composición de funciones, función inversa de una función y sobre el concepto de convergencia de una sucesión, vamos a proceder a la demostración de la regla de la cadena. Aprovecharemos también para enunciar y demostrar el teorema de la función inversa. Finalmente, y como consecuencia de lo anterior, demostraremos un resultado conocido por todos los estudiantes de matemáticas en bachillerato: de todas las funciones exponenciales, la de base el número \(\text{e}\) es la única que coincide con su función derivada. Este resultado justifica que la función exponencial de base \(\text{e}\) sea la función exponencial por excelencia. De hecho, a la función exponencial de base \(\text{e}\) se la llama, simplemente, función exponencial.

Teorema 1 (de la función compuesta o regla de la cadena)

Sean \(f:A\rightarrow\mathbb{R}\), \(f:B\rightarrow\mathbb{R}\) funciones reales de variable real verificando que \(f(A)\subset B\) y sea \(h=g\circ f\). Sea también \(a\in A\) y supongamos que \(f\) es derivable en \(a\) y que \(g\) es derivable en \(f(a)\). Entonces \(h\) es derivable en \(a\) y se verifica que

\[h'(a)=g'(f(a))f'(a)\]

Sea \(\phi:B\rightarrow\mathbb{R}\) la función definida por

\[\phi(y)=\left\{\begin{array}{ccc}
                   \displaystyle\frac{g(y)-g(f(a))}{y-f(a)} & \text{si} & y\in B-\{f(a)\} \\
                   g'(f(a)) & \text{si} & y=f(a)
                 \end{array}
\right.\]

La derivabilidad de \(g\) en \(f(a)\) hace que \(\phi\) sea continua en \(f(a)\). Se tiene además:

\[g(y)-g(f(a))=\phi(y)(y-f(a))\,,\forall\, y\in B\]

igualdad que, para \(y\neq f(a)\), se deduce de la definición de \(\phi\), mientras que, para \(y=f(a)\), es evidente por ser nulos sus dos miembros.

Dado \(x\in A\) tenemos, tomando \(y=f(x)\),

\[h(x)-h(a)=\phi(f(x))(f(x)-f(a))\]

de donde, si además es \(x\neq a\),

\[\frac{h(x)-h(a)}{x-a}=\phi(f(x))\frac{f(x)-f(a)}{x-a}\]

Por ser \(f\) continua en \(a\) y \(\phi\) continua en \(f(a)\) tenemos que \(\phi\circ f\) es continua en \(f(a)\) (ver proposición 3 del artículo dedicado a las propiedades de las funciones continuas), luego

\[\lim_{x\rightarrow a}\phi(f(x))=\phi(f(a))=g'(f(a))\]

Finalmente, como el límite del producto es el producto de los límites tenemos

\[\lim_{x\rightarrow a}\frac{h(x)-h(a)}{x-a}=\lim_{x\rightarrow a}\phi(f(x))\lim_{x\rightarrow a}\frac{f(x)-f(a)}{x-a}\Rightarrow h'(a)=g'(f(a))f'(a)\]tal y como queríamos demostrar.

El siguiente teorema nos permitirá estudiar la posible derivabilidad de la inversa de una función derivable e inyectiva.

Teorema 2 (de la función inversa)

Sea \(f:A\rightarrow\mathbb{R}\) una función real de variable real y \(a\) un punto de \(A\). Supongamos que \(f\) es inyectiva y que es derivable en el punto \(a\). Entonces las siguientes afirmaciones son equivalentes.

i) \(f'(a)\neq0\) y \(f^{-1}\) es continua en \(f(a)\).

ii) \(f^{-1}\) es derivable en \(f(a)\).

Además, en caso de que se cumplan i) y ii) se tiene:

\[(f^{-1})'(f(a))=\frac{1}{f'(a)}\]

i) \(\Rightarrow\) ii) Sea \(\{y_n\}\) una sucesión de puntos de \(f(A)-\{b\}\) con \(\{y_n\}\rightarrow f(a)\) y consideremos la sucesión \(x_n=f^{-1}(y_n)\,,\forall\,n\in\mathbb{N}\). Por ser \(f^{-1}\) continua en \(f(a)\) tenemos \(\{x_n\}\rightarrow f^{-1}(f(a))=a\), luego, por ser \(f\) derivable en \(a\):

\[\left\{\frac{f(x_n)-f(a)}{x_n-a}\right\}=\left\{\frac{y_n-f(a)}{f^{-1}(y_n)-f^{-1}(f(a))}\right\}\rightarrow f'(a)\]

Finalmente, siendo \(f'(a)\neq0\) obtenemos

\[\left\{\frac{f^{-1}(y_n)-f^{-1}(f(a))}{y_n-b}\right\}\rightarrow\frac{1}{f'(a)}\]

lo que demuestra que \(f^{-1}\) es derivable en \(f(a)\) con derivada \(\frac{1}{f'(a)}\).

ii) \(\Rightarrow\) i) Desde luego, si \(f^{-1}\) es derivable en \(f(a)\) será continua en \(f(a)\). Además, aplicando el teorema anterior con \(B=f(A)\) y \(g=f^{-1}\) tenemos: \(1=(f^{-1}\circ f)'(a)=(f^{-1})'(f(a))f'(a)\), lo que demuestra que \(f'(a)\neq0\) y nos da nuevamente la igualdad \((f^{-1})'(f(a))=\frac{1}{f'(a)}\).

Finalmente, vamos a probar la derivabilidad de las funciones exponencial y logaritmo neperiano y la de las funciones relacionadas con ellas.

Teorema 3

i) La función exponencial es derivable en todo \(\mathbb{R}\) y su función derivada es la propia función exponencial.

ii) Si \(f:A\rightarrow\mathbb{R}\) es derivable en un punto \(a\in A\), entonces la función \(g:A\rightarrow\mathbb{R}\) definida por

\[g(x)=\text{e}^{f(x)}\,,\forall\,x\in A\]

es derivable en \(a\) con \(g'(a)=f'(a)\text{e}^{f(a)}\). En particular, si \(\alpha\) es un número real positivo y tomamos \(A=\mathbb{R}\), \(f(x)=x\ln\alpha\,,\forall\,x\in\mathbb{R}^+\), obtenemos que la función exponencial de base \(\alpha\) es derivable en todo \(\mathbb{R}\) siendo su función derivada el producto del número real \(\ln\alpha\) por la propia función exponencial de base \(\alpha\).

iii) La función logaritmo neperiano es derivable en \(\mathbb{R}^+\) con

\[\ln'(x)=\frac{1}{x}\,,\forall\,x\in\mathbb{R}^+\]

iv) Si \(f:A\rightarrow\mathbb{R}^+\) es derivable en un punto \(a\in A\), la función \(g:A\rightarrow\mathbb{R}\) definida por

\[g(x)=\ln f(x)\,,\forall\,x\in A\]

es derivable en \(a\) con \(g'(a)=\frac{f'(a)}{f(a)}\) (derivada logarítmica de \(f\) en el punto \(a\)).

v) Si  \(f:A\rightarrow\mathbb{R}^+\) y \(g:A\rightarrow\mathbb{R}\) son derivables en un punto \(a\in A\), la función \(h:A\rightarrow\mathbb{R}^+\) definida por

\[h(x)=f(x)^{g(x)}\,,\forall\,x\in A\]

es derivable en \(a\) con

\[h'(a)=h(a)\left(g'(x)\ln f(a)+g(a)\frac{f'(a)}{f(a)}\right)\]

En particular, tomando \(A=\mathbb{R}^+\), \(f(x)=x\,,\forall\,x\in\mathbb{R}^+\) y \(g(x)=b\,,\forall\,x\in\mathbb{R}^+\) donde \(b\) es un número real fijo, se obtiene que la función potencia de exponente \(b\) es derivable en \(\mathbb{R}^+\) y su derivada es el producto del número real \(b\) por la función potencia de exponente \(b-1\).

i) Sea \(\{t_n\}\) una sucesión de números reales no nulos, convergente a cero. Y sean \(y_n=\frac{1}{t_n}\), \(x_n=\text{e}^{t_n}\), \(\forall\,n\in\mathbb{N}\). Claramente \(\{x_n\}\rightarrow1\) y \(\{x_n^{y_n}\}\rightarrow\text{e}\), luego tenemos \(\{y_n(x_n-1)\}\rightarrow1\) (ver el artículo dedicado a ciertos límites funcionales de interés), esto es que \(\{\frac{1}{t_n}(\text{e}^{t_n-1})\}\rightarrow1\).

Sea ahora \(a\in\mathbb{R}\) arbitrario y \(\{a_n\}\) una sucesión de números reales distintos de \(a\) tal que \(\{a_n\}\rightarrow a\). Podemos entonces aplicar lo anteriormente probado a la sucesión \(\{a_n-a\}\), sucesión de números reales no nulos que converge a cero, y obtener:

\[\left\{\frac{\text{e}^{a_n}-\text{e}^a}{a_n-a}\right\}=\left\{\text{e}^a\frac{\text{e}^{a_n-a}-1}{a_n-a}\right\}\rightarrow \text{e}^a\]

Hemos probado así que

\[f'(a)=\lim_{x\rightarrow a}\frac{\text{e}^x-\text{e}^a}{x-a}=\text{e}^a\]

y esto, cualquiera que sea el número real \(a\).

ii) Basta aplicar i) y la regla de la cadena.

iii) La función logaritmo neperiano es continua en \(\mathbb{R}^+\) y, por i), la función exponencial es derivable en \(\mathbb{R}\) con derivada distinto de cero en todo punto. Por el teorema de la función inversa tenemos, para todo número real \(a\):

\[\ln'(\text{e}^a)=\frac{1}{\text{e}^a}\]

y dado \(x\in\mathbb{R}^+\), podemos tomar \(a=\ln x\) para obtener

\[\ln'(x)=\frac{1}{x}\]

iv) Basta aplicar iii) y la regla de la cadena.

v) Sea \(\phi:A\rightarrow\mathbb{R}\) definida por

\[\phi(x)=\ln h(x)=g(x)\ln f(x)\,,\forall\,x\in A\]

Usando iv) y la regla de derivación de un producto, \(\phi\) es derivable en \(a\) con

\[\phi'(a)=g'(a)\ln f(a)+g(a)\frac{f'(a)}{f(a)}\]

Como quiera que

\[h(x)=\text{e}^{\phi(x)}\,,\forall\,x\in A\]

usando ii) obtenemos que \(h\) es derivable en \(a\) con

\[h'(a)=\text{e}^{\phi(a)}\phi'(a)=h(a)\left(g'(x)\ln f(a)+g(a)\frac{f'(a)}{f(a)}\right)\]

Ejercicios

1. Sea \(f:A\rightarrow\mathbb{R}\), \(a\in A\) y supongamos que \(f\) es derivable en \(a\) con \(f(a)\neq0\). Probar que las funciones \(|f|\,,f^+\,,f^-\,:A\rightarrow\mathbb{R}\) dadas por:

\[|f|(x)=|f(x)|\,,\ f^+(x)=\max\{f(x),0\}\,,\ f^-(x)=\max\{-f(x),0\}\,,\forall x\in A\]

son derivables en \(a\). ¿Es cierta la misma afirmación sin suponer \(f(a)\neq0\)?

La función \(|f|\) es la composición de la función \(f\) con la función valor absoluto: \(|f|=f\circ |\cdot|\). Como \(f\) es derivable en \(a\) y la función valor absoluto es derivable en \(f(a)\neq0\), la regla de la cadena nos asegura que \(|f|\) es derivable en \(a\). Si \(f(a)=0\) la afirmación no es cierta pues la función valor absoluto no es derivable en cero. Sea por ejemplo la función

\[f(x)=x^2-1\Rightarrow|f(x)|=\left\{\begin{array}{ccc}
                  x^2-1 & \text{si} & x\in(-\infty,-1]\cup[1,+\infty) \\
                  -x^2+1 & \text{si} & x\in(-1,1)
                \end{array}
  \right.\]

En el punto \(a=1\) se tiene

\[\frac{f(x)-f(1)}{x-1}=\left\{\begin{array}{ccc}
                  x+1 & \text{si} & x\in(-\infty,-1]\cup[1,+\infty) \\
                  -x-1 & \text{si} & x\in(-1,1)
                \end{array}
  \right.\]

De esta manera

\[\lim_{x\rightarrow1^+}\frac{f(x)-f(1)}{x-1}=2\quad;\quad\lim_{x\rightarrow1^-}\frac{f(x)-f(1)}{x-1}=-2\]

y por tanto \(|f|\) no es derivable en \(a=1\).

Por otro lado, se tiene que

\[f^+(x)=\max\{f(x),0\}=\frac{f(x)+|f(x)|}{2}\ ;\ f^-(x)=\max\{-f(x),0\}=\frac{-f(x)+|f(x)|}{2}\]

Entonces, por lo demostrado anteriormente, tanto \(f^+\) como \(f^-\) son derivables en \(a\in A\) con \(f(a)\neq0\). Del mismo modo que antes, esta afirmación no tiene por qué ser cierta si \(f(a)=0\).

2. Estudiar la continuidad y derivabilidad de la función \(f:A\rightarrow\mathbb{R}\) en cada uno de los siguientes casos:

a) \(A=[-1,1]\) ; \(f(x)=\sqrt{1-x^2}\,,\forall\,x\in A\).

b) \(A=\mathbb{R}\) ; \(f(x)=\sqrt[3]{|x|}\,,\forall\,x\in\mathbb{R}\).

c) \(A=\mathbb{R}\) ; \(f(x)=\frac{2x}{1+|x|}\,,\forall\,x\in\mathbb{R}\).

d) \(A=\mathbb{R}_0^+\) ; \(f(x)=x^x\,,\forall\,x\in\mathbb{R}^+\), \(f(0)=1\).

e) \(A=[0,1]\) ; \(f(x)=\max\{x,1-x\}\,,\forall\,x\in A\).

a) Sean \(g:\mathbb{R}\rightarrow\mathbb{R}\) y \(h:[0,+\infty)\rightarrow\mathbb{R}\) definidas respectivamente por \(g(x)=1-x^2\) y \(h(x)=\sqrt{x}\). \(g\) es continua y derivable en todo \(\mathbb{R}\), y \(h\) es continua en \([0,+\infty)\) y derivable en \((0,+\infty)\).

\(h\) no es derivable en cero porque

\[\lim_{x\rightarrow0}\frac{h(x)-h(0)}{x-0}=\lim_{x\rightarrow0^+}\frac{\sqrt{x}}{x}=\lim_{x\rightarrow0}\frac{1}{\sqrt{x}}=+\infty\]

Las derivadas de las funciones \(g(x)=1-x^2\) y \(h(x)=\sqrt{x}=x^{1/2}\) son, respectivamente, \(g'(x)=-2x\) y \(h'(x)=\frac{1}{2}x^{-1/2}\), donde se ha utilizado que la derivada de la función constante es igual a cero, que la derivada de la suma es la suma de las derivadas y el apartado v) del teorema 3, según el cual la derivada de la función potencia de exponente \(b\in\mathbb{R}^+\) es el producto del número real \(b\) por la función potencia de exponente \(b-1\).

Por otro lado tenemos que \((h\circ g)(x)=h(g(x))=h(1-x^2)=\sqrt{1-x^2}\), con lo que \(f=h\circ g\). Por la regla de la cadena \(f\) es derivable en \((-1,1)\), ya que si \(a\in(-1,1)\), entonces \(1-a^2\in(0,1)\) y \(f(a)=h(g(a))=h(1-a^2)\). Además, \(f\) no es derivable ni en \(x=-1\), ni en \(x=-1\) porque, tal y como hemos comprobado, no lo es \(h\) en cero y \(f(-1)=f(1)=(h\circ g)(1)=h(g(1))=h(0)\). Dado \(x\in(-1,1)\), la regla de la cadena nos proporciona la derivada de la función \(f\) en \(x\):

\[f'(x)=(h\circ g)'(x)=h'(g(x))g'(x)=\frac{1}{2}(1-x^2)^{-1/2}(-2x)=\frac{-x}{\sqrt{1-x^2}}\]

 

b) La función \(f(x)=\sqrt[3]{|x|}=|x|^{1/3}\) la podemos escribir así:

\[f(x)=\left\{\begin{array}{ccc}
                    x^{1/3} & \text{si} & x\geqslant0 \\
                    (-x)^{1/3} & \text{si} & x<0
                  \end{array}
    \right.\]

Si \(a\in\mathbb{R}^+\), \(f\) es derivable en \(a\) por el apartado 5 del teorema 3, con \(f'(a)=\frac{1}{3}a^{-2/3}\). Por la misma razón, si \(a\in\mathbb{R}^-\), \(f\) también es derivable en \(a\) con derivada \(f'(a)=-\frac{1}{3}a^{-2/3}\).

Si \(a=0\), \(f\) no es derivable en \(a\) pues tomando \(x>0\)

\[\frac{f(x)-f(0)}{x-0}=\frac{\sqrt[3]{x}}{x}=\frac{1}{\sqrt[3]{x^2}}\]

que no tiene límite finito cuando \(x\rightarrow0\).

 

c) La función la podemos escribir del siguiente modo:

\[f(x)=\left\{\begin{array}{ccc}
                    \displaystyle\frac{2x}{1+x} & \text{si} & x\geqslant0 \\
                    \displaystyle\frac{2x}{1-x} & \text{si} & x<0
                  \end{array}
    \right.\]

Esta función es claramente continua y derivable en \(\mathbb{R}-\{0\}\) con derivada

\[f'(x)=\left\{\begin{array}{ccc}
                    \displaystyle\frac{2}{(1+x)^2} & \text{si} & x>0 \\
                    \displaystyle\frac{2}{(1-x)^2} & \text{si} & x<0
                  \end{array}
    \right.\]

Veamos qué ocurre en cero.

Tomando \(x>0\):

\[\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0}\frac{\frac{2x}{1+x}}{x}=\lim_{x\rightarrow0}\frac{2}{1+x}=2\]

Tomando \(x<0\):

\[\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0}\frac{\frac{2x}{1-x}}{x}=\lim_{x\rightarrow0}\frac{2}{1-x}=2\]

Las derivadas laterales existen y son iguales. Por tanto, \(f\) es derivable en cero con \(f'(0)=2\).

 

d) Si \(a\in\mathbb{R}^+\) el apartado v) del teorema iii) nos asegura que \(f\) es derivable en \(a\) con derivada

\[f'(a)=a^a\left(\ln a+1\right)\]

Estudiemos ahora la derivabilidad de \(f\) en cero. Sea \(\phi\) la función definida de la siguiente manera:

\[\phi(x)=\left\{\begin{array}{ccc}
                    x\ln x & \text{si} & x>0 \\
                    0 & \text{si} & x=0
                  \end{array}
    \right.\]

Puesto que

\[\lim_{x\rightarrow0}\frac{\phi(x)-\phi(0)}{x-0}=\lim_{x\rightarrow0}\frac{x\ln x}{x}=\lim_{x\rightarrow0}\ln x=-\infty\]

la función \(\phi\) no es derivable en cero.

Supongamos que \(f\) fuera derivable en cero. Como \(f(x)=\text{e}^{\phi(x)}\), haciendo uso de la regla de la cadena, tendríamos que \(f'(0)=e^{\phi(0)}\phi'(0)=\phi'(0)\), lo cual es contradictorio pues \(\phi\) no es derivable en cero. Por tanto, acabamos de demostrar que \(f\) no es derivable en cero.

 

e) Observemos que \(x=1-x\Leftrightarrow x=\frac{1}{2}\), \(x<1-x\Leftrightarrow x<\frac{1}{2}\) y \(x>1-x\Leftrightarrow x>\frac{1}{2}\). Por tanto podemos escribir la función \(f(x)=\max\{x,1-x\}\) del siguiente modo:

\[f(x)=\left\{\begin{array}{ccc}
                    1-x & \text{si} & 0\leqslant x\leqslant\frac{1}{2} \\
                    x & \text{si} & \frac{1}{2}<x\leqslant1
                  \end{array}
    \right.\]

Claramente, si \(x\neq0\), \(x\neq1\) y \(x\neq\frac{1}{2}\), \(f\) es derivable con derivada

\[f'(x)=\left\{\begin{array}{ccc}
                    -1 & \text{si} & 0<x<\frac{1}{2} \\
                    1 & \text{si} & \frac{1}{2}<x<1
                  \end{array}
    \right.\]

Si \(x=0\) existe la derivada lateral por la derecha, cuyo valor es \(f'_+(0)=-1\). Análogamente, si \(x=1\) existe la derivada lateral por la izquierda y \(f'_-(1)=1\) (estos resultados se pueden obtener también con facilidad aplicando la definición de derivada lateral de una función en un punto). Finalmente, \(f\) no es derivable en \(x=\frac{1}{2}\) pues las derivadas laterales por la izquierda y por la derecha de \(\frac{1}{2}\) no coinciden: \(f'_-\left(\frac{1}{2}\right)=-1\neq1=f'_+\left(\frac{1}{2}\right)\).

3. Estudiar la continuidad y derivabilidad de la función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por:

\[f(x)=\left\{\begin{array}{ccc}
                  x^2 & \text{si} & x\in\mathbb{Q} \\
                  x^3 & \text{si} & x\in\mathbb{R}-\mathbb{Q}
                \end{array}
  \right.\]

Sea \(a\in\mathbb{R}\) y \(\{x_n\}\) una sucesión de racionales convergente al punto \(a\). Entonces tenemos que \(\{f(x_n)\}=\{x_n^2\}\rightarrow a^2\). Sea ahora una sucesión \(\{y_n\}\) de irracionales que converja también al punto \(a\). En este caso \(\{f(y_n)\}=\{y_n^3\}\rightarrow a^3\). Para que \(f\) sea continua en \(a\) debe ser \(a^2=a^3\), es decir, \(a=0\) o \(a=1\). Si \(a=0\Rightarrow\{f(x_n)\}\rightarrow0=f(0)\), sea quien sea la sucesión \(\{x_n\}\). Si \(a=1\Rightarrow\{f(x_n)\}\rightarrow1=f(1)\). Entonces \(f\) es continua en \(0\) y en \(1\). En los demás puntos no es continua y, por tanto, tampoco es derivable.

Estudiemos la derivabilidad en el punto \(a=0\). En este caso

\[\frac{f(x)-f(0)}{x-0}=\left\{\begin{array}{ccc}
                                   x & \text{si} & x\in\mathbb{Q} \\
                                   x^2 & \text{si} & x\in\mathbb{R}-\mathbb{Q}
                                 \end{array}
  \right.\]

Entonces es claro que \(\displaystyle\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=0\), con lo que \(f\) es derivable en \(0\) y \(f'(0)=0\).

Veamos ahora qué ocurre en \(a=1\).

\[\frac{f(x)-f(1)}{x-1}=\left\{\begin{array}{ccc}
                                   x+1 & \text{si} & x\in\mathbb{Q} \\
                                   x^2+x+1 & \text{si} & x\in\mathbb{R}-\mathbb{Q}
                                 \end{array}
  \right.\]

En este caso \(\displaystyle\frac{f(x)-f(1)}{x-1}\) no tiene límite en \(1\), pues si \(x\rightarrow1\) por racionales \(\displaystyle\frac{f(x)-f(1)}{x-1}\rightarrow2\) y si \(x\rightarrow1\) por irracionales \(\displaystyle\frac{f(x)-f(1)}{x-1}\rightarrow3\). Por tanto, \(f\) no es derivable en \(a=1\).

4. Probar que la función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por:

\[f(x)=\left\{\begin{array}{ccc}
                  x & \text{si} & x\in\mathbb{R}_0^- \\
                  \ln(1+x) & \text{si} & x\in\mathbb{R}^+
                \end{array}
  \right.\]

es derivable en \(\mathbb{R}\) y encontrar su función derivada.

La función es claramente continua y derivable en \(\mathbb{R}-\{0\}\), con

\[f'(x)=\left\{\begin{array}{ccc}
                                   1 & \text{si} & x<0 \\
                                   \frac{1}{1+x} & \text{si} & x>0
                                 \end{array}
  \right.\]

Como \(\displaystyle\lim_{x\rightarrow0^+}f(x)=\lim_{x\rightarrow0^-}f(x)=0\), entonces \(\displaystyle\lim_{x\rightarrow0}f(x)=0=f(0)\), \(f\) es continua en \(0\).

Además:

\[\lim_{x\rightarrow0^-}\frac{f(x)-f(0)}{x-0}=1\ ;\ \lim_{x\rightarrow0^+}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0^+}\frac{\ln(1+x)}{x}=1\]

Para demostrar que este último límite es igual a \(1\), demostraremos que \(\displaystyle\lim_{x\rightarrow0^+}(1+x)^{1/x}=\text{e}\). Sea \(y=\frac{1}{x}\). Entonces, \(x\rightarrow0^+\Rightarrow y\rightarrow+\infty\) y tenemos:

\[\lim_{x\rightarrow0^+}(1+x)^{1/x}=\lim_{y\rightarrow+\infty}\left(1+\frac{1}{y}\right)^y=\text{e}\]

Y de aquí, por la continuidad de la función logaritmo neperiano, se deduce que

\[\lim_{x\rightarrow0^+}\ln(1+x)^{1/x}=\lim_{x\rightarrow0^+}\frac{1}{x}\ln(1+x)=\lim_{x\rightarrow0^+}\frac{\ln(1+x)}{x}=\ln\text{e}=1\]

Por tanto, hemos demostrado que

\[\lim_{x\rightarrow0^-}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0^+}\frac{f(x)-f(0)}{x-0}=1\]

Así, \(f\) es derivable en cero con \(f'(0)=1\).

5. Estudiar la continuidad y derivabilidad de la función \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por:

\[f(x)=\left\{\begin{array}{ccc}
                  x^p\ln|x| & \text{si} & x\in\mathbb{R}-\{0\} \\
                  0 & \text{si} & x=0
                \end{array}
  \right.\]

donde \(p\) es un número entero.

La función es continua y derivable en \(\mathbb{R}-\{0\}\) y tenemos que

\[f'(x)=\left\{\begin{array}{ccc}
                                   x^{p-1}(p+\ln x) & \text{si} & x>0 \\
                                   x^{p-1}(p-\ln(-x)) & \text{si} & x<0
                                 \end{array}
  \right.\]

Como \(|x^p\ln|x||\leqslant|x^{p+1}|\), entonces \(\forall\,\varepsilon>0\,,\exists\,\delta>0\,:\,x\in\mathbb{R}\,,\,0<|x|<\delta\Rightarrow|f(x)|<\varepsilon\). Basta tomar \(\delta=\sqrt[p+1]{\varepsilon}\). Entonces

\[\lim_{x\rightarrow0}f(x)=\lim_{x\rightarrow0}\left(x^p\ln|x|\right)=0=f(0)\]

y, por tanto, \(f\) es continua en cero.

Usando lo demostrado anteriormente tenemos también

\[\lim_{x\rightarrow0}\frac{f(x)-f(0)}{x-0}=\lim_{x\rightarrow0}\frac{x^p\ln|x|}{x}=\lim_{x\rightarrow0}\left(x^{p-1}\ln|x|\right)=0\]

lo que demuestra que \(f\) es derivable en \(0\) con \(f'(0)=0\).

6. Sea \(f:\mathbb{R}\rightarrow\mathbb{R}\) definida por \(f(x)=x+\text{e}^x\,,\forall\,x\in\mathbb{R}\). Probar que \(f\) es biyectiva y que \(f^{-1}\) es derivable en todo \(\mathbb{R}\). Calcular \((f^{-1})'(1)\) y \((f^{-1})'(1+\text{e})\).

La función \(f\) es continua y derivable en todo \(\mathbb{R}\) por ser suma de continuas y derivables. Por otro lado, \(f(x)\rightarrow-\infty\) cuando \(x\rightarrow-\infty\) y \(f(x)\rightarrow+\infty\) cuando \(x\rightarrow+\infty\), lo que demuestra que \(f(\mathbb{R})=\mathbb{R}\) y \(f\) es sobreyectiva. Además, \(f\) es estrictamente creciente pues si \(x<y\), entonces \(x+\text{e}^x<y+\text{e}^y\) (la función exponencial es estrictamente creciente). Así, \(f\) es inyectiva y, por tanto, \(f^{-1}\) es continua (ver el artículo dedicado a las funciones continuas e inyectivas).

La derivada de la función \(f\) es \(f'(x)=1+\text{e}^x\neq0\,,\forall\,x\in\mathbb{R}\). Por el teorema de la función inversa \(f^{-1}\) es derivable en todo \(\mathbb{R}\) y se tiene que \((f^{-1})'(f(a))=\frac{1}{f'(a)}\). Así:

\(f(a)=1\Leftrightarrow a+\text{e}^a=1\Leftrightarrow a=0\) y entonces \((f^{-1})'(1)=\frac{1}{f'(0)}=\frac{1}{2}\).

\(f(a)=1+\text{e}\Leftrightarrow a+\text{e}^a\Leftrightarrow1+\text{e}\Leftrightarrow a=1\) y entonces \((f^{-1})'(1+\text{e})=\frac{1}{f'(1)}=\frac{1}{1+\text{e}}\).

Referencia bibliográfica. Aparicio C., Payá R. (1985) Análisis Matemático I (Secretariado de Publicaciones. Universidad de Granada).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

La paradoja de Zenón

El filósofo griego Zenón de Elea (495-435 a. de C.) precipitó una crisis en la Matemática antigua estableciendo algunas paradojas ingeniosas. Una de ellas, llamada frecuentemente la paradoja del corredor, se puede exponer de la manera siguiente:

Un corredor no puede alcanzar nunca la meta porque siempre ha de recorrer la mitad de una distancia antes de recorrer la distancia total. Es decir, cuando haya recorrido la primera mitad, tendrá que recorrer la otra mitad. Cuando haya recorrido la mitad de ésta, le quedará todavía la cuarta parte y así sucesiva e indefinidamente.

paradoja zenon 01

Zenón pensó, evidentemente, en una situación ideal en la que el corredor es una partícula o punto que se mueve de un extremo a otro de un segmento de recta. Para analizar el razonamiento de Zenón con más detalle se supone que el corredor parte del punto marcado con 1 (ver figura anterior) y corre hacia la meta marcada con 0. Las posiciones indicadas por \(\frac{1}{2}\), \(\frac{1}{4}\), \(\frac{1}{8}\), \(\ldots\), etc., señalan la fracción de carrera que se ha de recorrer todavía cuando se alcanza el punto marcado. Estas fracciones (cada una de las cuales es la mitad de la anterior) subdividen todo el trayecto en un número indefinido de partes cada vez más pequeñas. Puesto que para recorrer por separado cada una de estas partes se necesita una cantidad positiva de tiempo, parece natural afirmar que el tiempo necesario para el trayecto total ha de ser la suma total de todas estas cantidades de tiempo. Decir que el corredor nunca puede alcanzar la meta equivale a decir que nunca llega a ella en un tiempo finito; o, dicho de otro modo, que la suma de un número finito de intervalos positivos de tiempo no puede ser finita.

La afirmación de Zenón de que un número ilimitado de cantidades positivas no puede tener suma finita, fue contradicha 2000 años más tarde con la creación de la teoría de series infinitas. En los siglos XVII y XVIII algunos matemáticos empezaron a pensar que era posible extender la idea de suma ordinaria de conjuntos finitos de números a conjuntos infinitos, de manera que en algunos casos la "suma" de un conjunto de infinitos números sea finita. Para ver cómo se puede hacer esta extensión y tener una idea de las dificultades que pueden presentarse para ello, conviene analizar la paradoja de Zenón con más detalle.

Supongamos que el corredor antes mencionado, corre a velocidad constante y que necesita \(t\) segundos para la primera mitad del recorrido. Para el siguiente cuarto de recorrido necesitará \(\frac{t}{2}\) segundos, para el octavo siguiente \(\frac{t}{4}\) segundos y en general para la parte comprendida entre \(\frac{1}{2^n}\) y \(\frac{1}{2^{n+1}}\) necesitará \(\frac{t}{2^n}\) segundos. La "suma" de todos estos intervalos se puede indicar simbólicamente escribiendo la siguiente expresión:

\[t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^n}+\ldots\]

Este es un ejemplo de las llamadas series infinitas y el problema aquí está en decidir su es posible encontrar una forma natural de asignarle un número que se pueda llamar suma de la serie.

La experiencia física dice que el corredor que corre a velocidad constante alcanzará su meta en un tiempo doble del que necesitaba para alcanzar su punto medio. Puesto que necesita \(t\) segundos para la mitad del recorrido, tendrá que emplear \(2t\) segundos para el recorrido completo. Este razonamiento sugiere que se debe asignar la "suma" \(2t\) a la serie anterior, esperando que la igualdad

\[t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^n}+\ldots=2t\]

pueda ser "valida" en algún sentido.

La teoría de las series infinitas precisa cómo se ha de interpretar esta igualdad. La idea es la siguiente: primero se suman un número finito de términos, los \(n\) primeros, indicando esta suma por \(\{s_n\}\). Así se tiene:

\[\{s_n\}=\left\{t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^{n-1}}\right\}\]

y esta suma se denomina suma parcial n-sima o sucesión de sumas parciales. Se estudia después el comportamiento de \(\{s_n\}\) cuando \(n\) toma valores cada vez más grandes. En particular se trata de determinar si la sucesión de sumas parciales \(\{s_n\}\) es convergente, es decir, si tiende a un límite finito.

En este caso es fácil ver que el valor límite de las sumas parciales es \(2t\). En efecto, calculando algunas de estas sumas parciales se tiene:

\[s_1=t\ ,\quad s_2=t+\frac{t}{2}=\frac{3}{2}t\ ,\quad s_3=t+\frac{t}{2}+\frac{t}{4}=\frac{7}{4}t\ ,\quad s_4=t+\frac{t}{2}+\frac{t}{4}+\frac{t}{8}=\frac{15}{8}t\]

Se observa que estos resultados se pueden expresar como sigue:

\[s_1=(2-1)t\ ,\quad s_2=\left(2-\frac{1}{2}\right)t\ ,\quad s_3=\left(2-\frac{1}{4}\right)t\ ,\quad s_4=\left(2-\frac{1}{8}\right)t\]

lo cual conduce a pensar en una fórmula general de la forma

\[\{s_n\}=\left\{\left(2-\frac{1}{2^{n-1}}\right)t\right\}\,,\forall\,n\in\mathbb{N}\qquad(1)\]

La fórmula anterior se comprueba fácilmente por inducción. Puesto que \(\{\frac{1}{2^{n-1}}\}\rightarrow0\), resulta que \(\{s_n\}\rightarrow2t\). Por tanto, la igualdad anterior es "cierta" si se interpreta que \(2t\) es el límite de la sucesión de sumas parciales \(\{s_n\}\). Este proceso de límite parece invalidar la objeción de Zenón que la suma de un número infinito de intervalos de tiempo no puede ser nunca finita.

Ahora daremos un argumento que proporciona un apoyo considerable al punto de vista de Zenón. Supongamos que en el anterior análisis de la paradoja del corredor se hace un pequeño pero importante cambio. En vez de considerar la velocidad constante, supongamos que decrece gradualmente de manera que necesita \(t\) segundos para de \(1\) a \(\frac{1}{2}\), \(\frac{t}{2}\) para ir de \(\frac{1}{2}\) a \(\frac{1}{4}\), \(\frac{t}{3}\) segundos para ir de \(\frac{1}{4}\) a \(\frac{1}{8}\), y en general \(\frac{t}{n}\) segundos para ir de \(\frac{1}{2^{n-1}}\) a \(\frac{1}{2^n}\). El tiempo total que necesitará para la carrera, vendrá ahora representado por la siguiente serie infinita:

\[t+\frac{t}{2}+\frac{t}{3}+\ldots+\frac{t}{n}+\ldots\]

En este caso, la experiencia física no sugiera ninguna "suma" obvia o natural para asignar a dicha serie y por tanto este ejemplo hay que estudiarlo desde un punto de vista completamente matemático.

Igual que antes, se introduce la sucesión de sumas parciales \(\{s_n\}\), es decir:

\[\{s_n\}=\left\{t+\frac{t}{2}+\frac{t}{3}+\ldots+\frac{t}{n}\right\}\qquad(2)\]

y se trata de ver qué ocurre a \(\{s_n\}\) cuando \(n\) crece indefinidamente. Esta suma parcial no es tan fácil de estudiar como la anterior, pues no existe una fórmula análoga a la fórmula \((1)\) que simplifique la expresión del segundo miembro de \((2)\). Sin embargo, por comparación de estas sumas parciales con una integral apropiada se puede ver que toman valores tan grandes como se quiera.

En la figura siguiente se ve parte de la hipérbola \(f(x)=\frac{1}{x}\) para \(x>0\). Los rectángulos dibujados, tienen un área total igual a la suma

\[1+\frac{1}{2}+\frac{1}{3}+\ldots+\frac{1}{n}\]

paradoja zenon 02

El área de la región determinada por la hipérbola y el intervalo \([1,n+1]\) es

\[\int_1^{n+1}\frac{1}{x}\,dx=\ln(n+1)\]

y puesto que esta área no puede exceder la suma de las áreas de los rectángulos, se tiene la desigualdad

\[1+\frac{1}{2}+\frac{1}{3}+\ldots+\frac{1}{n}\geqslant\ln(n+1)\]

Multiplicando ambos miembros por \(t\) se obtiene \(s_n\geqslant t\ln(n+1)\). Es decir, si la velocidad del corredor decrece tal como se ha indicado anteriormente, el tiempo necesario para alcanzar el punto \(\frac{1}{2^n}\) es por lo menos \(t\ln(n+1)\) segundos. Puesto que \(\ln(n+1)\) al crecer \(n\) toma valores tan grandes como se quiera (\(\{\ln(n+1)\}\rightarrow+\infty\)), se cumple en este caso la paradoja de Zenón, es decir, que el corredor no alcanzará la meta en un tiempo finito.

La teoría general de series infinitas hace una distinción entre series como

\[t+\frac{t}{2}+\frac{t}{4}+\ldots+\frac{t}{2^n}+\ldots\]

cuyas sucesión de sumas parciales tiende a un límite finito, y series como

\[t+\frac{t}{2}+\frac{t}{3}+\ldots+\frac{t}{n}+\ldots\]

cuyas sucesión de sumas parciales no tiene límite finito (no es convergente).

Las primeras se denominan convergentes y las segundas divergentes. Los primeros investigadores en este dominio ponían poca o ninguna atención en las cuestiones de convergencia y divergencia. Trataban las series infinitas como si fueran sumas ordinarias finitas, sujeta a las leyes usuales del Álgebra sin tener en cuenta que estas leyes no pueden extenderse universalmente a las series infinitas. Por eso no es sorprendente que se haya visto más tarde que algunos de los primeros resultados obtenidos fueran incorrectos. Afortunadamente, muchos de aquellos pioneros tenían una intuición y destreza poco frecuentes, que les evitaba llegar a conclusiones falsas, aunque ellos no pudieran justificar sus métodos. Entre los primeros matemáticos que se ocuparon de las series ocupa un lugar preeminente Leonard Euler. Euler descubría fórmula tras fórmula, a cual más interesante, y a la vez utilizaba las series infinitas como concepto unificador de diversas ramas de la Matemática que hasta entonces estaban sin relacionar. La gran cantidad de trabajos de Euler que han sobrevivido al paso del tiempo es un tributo a su notabilísimo instinto de lo matemáticamente correcto.

La extensión del uso de las series infinitas empezó más tarde en el siglo XVII, cerca de cincuenta años después del nacimiento de Euler, coincidiendo con el principio del desarrollo del Cálculo Integral, Nicholas Mercator (1620-1687) y William Brouncker (1620-1684) descubrieron en 1668 una serie infinita para el logaritmo al intentar calcular el área de un segmento hiperbólico. Poco después, Newton descubrió la serie binómica. Estos descubrimientos constituyen un punto fundamental de la historia de la Matemática. Un caso particular de la serie binómica es el conocido teorema del binomio que afirma que:

\[(1+x)^n=\sum_{k=0}^n\binom{n}{k}x^k\]

donde \(x\) es un número real arbitrario, \(n\) un entero no negativo, y \(\binom{n}{k}\) es el coeficiente binomial. Newton encontró que esta fórmula, válida para valores enteros de \(n\) se podía extender a exponentes reales cualesquiera, sustituyendo la suma finita del segundo miembro, por una serie finita conveniente, si bien no lo demostró. Efectivamente, en un estudio cuidadoso de la serie binomial surgen algunas cuestiones bastante delicadas de convergencia a las que no se podía responder en la época de Newton.

Poco después de la muerte de Euler en 1783, el caudal de nuevos descubrimientos empezó a disminuir y el período formal en las historia de las series llegó a su término. Un nuevo período, y más crítico, empezó en 1812 cuando Gauss publicó la célebre memoria que contenía, por primera vez en la historia, un estudio riguroso de la convergencia de algunas series infinitas. Pocos años más tarde, Cauchy introdujo una definición analítica del concepto del límite en su tratado Curso de Análisis algebraico (publicado en 1821), y expuso los fundamentos de la teoría moderna de convergencia y divergencia. Dedicaremos algunos artículos a exponer los aspectos básicos de esta teoría.

Referencia bibliográfica. Apostol T. M. (1990. Reimpresión digital 2015): Calculus I. Cálculo con funciones de una variable, con una introducción al álgebra lineal (Reverté Ediciones).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Funciones continuas e inyectivas

Nuestro último teorema afirmaba que toda función continua en un intervalo cerrado y acotado tiene máximo y mínimo absolutos, pero nada nos informa sobre los puntos en los que se alcanzan. Bajo la hipótesis adicional de que la función es inyectiva vamos a ver enseguida que el máximo y el mínimo se alcanzan en los extremos del intervalo, pero esto no es más que el punto de partida para resultados más importantes.

Lema 1.

Sean \(a\) y \(b\) números reales con \(a<b\), sea \(f:[a,b]\rightarrow\mathbb{R}\) una función continua e inyectiva y supongamos que \(f(a)<f(b)\). Entonces, para todo número real \(t\) verificando \(a<t<b\) se tiene que \(f(a)<f(t)<f(b)\).

Sea \(t\in(a,b)\) y supongamos, razonando por reducción al absurdo, que se tenga \(f(t)<f(a)\). Entonces, podemos aplicar el teorema del valor intermedio a la restricción de \(f\) al intervalo \([t,b]\), que es una función continua, obteniendo un punto \(c\) del intervalo \([t,b]\) tal que \(f(c)=f(a)\); por ser \(f\) inyectiva tenemos \(c=a\) y \(a\geqslant b\), lo cual es absurdo.

Si suponemos \(f(t)>f(b)\) y aplicamos el teorema del valor intermedio a la restricción de \(f\) al intervalo \([a,t]\), obtenemos un punto \(d\) del intervalo \([a,t]\) tal que \(f(d)=f(b)\), con lo que, otra vez, por ser \(f\) inyectiva tenemos \(b=d\leqslant t\) lo que también es absurdo.

Hemos probado así que \(f(a)\leqslant f(t)\leqslant f(b)\), pero, siendo \(f\) inyectiva, ambas desigualdades han de ser estrictas, como queríamos demostrar.

Nótese que el lema anterior puede aplicarse sucesivamente. Si \(c\in(a,b)\), tenemos, según el lema, \(f(a)<f(c)<f(b)\), pero podemos volver a aplicar el lema a las restricciones de \(f\) a los intervalos \([a,c]\) y \([c,b]\), obteniendo que

\[a<x<c<y<b\Rightarrow f(a)<f(x)<f(c)<f(y)<f(b)\]

y así sucesivamente. Observamos entonces que \(f\) tiene un comportamiento muy concreto, crece al crecer la variable. Este comportamiento se obtendrá de manera rigurosa en el próximo teorema, incluso en un ambiente más general, pero necesitamos concretar algunos conceptos para el enunciado de dicho teorema.

Definición.

Sea \(f:A\rightarrow\mathbb{R}\) una función real de variable real. Diremos que \(f\) es creciente (respectivamente, decreciente) cuando para cualesquiera dos puntos de \(A\), \(x\) e \(y\), en la situación \(x<y\), se tenga \(f(x)\leqslant f(y)\) (respectivamente, \(f(x)\geqslant f(y)\)). Nótese que las anteriores definiciones extienden a las dadas para sucesiones de números reales. Diremos que \(f\) es estrictamente creciente (respectivamente, estrictamente decreciente), cuando para cualesquiera dos puntos, \(x\) e \(y\), de \(A\), en la situación \(x<y\), se tenga \(f(x)<f(y)\) (respectivamente, \(f(x)>f(y)\)). Finalmente, diremos que \(f\) es monótona cuando sea creciente o decreciente y estrictamente monótona cuando sea estrictamente creciente o estrictamente decreciente.

Nótese que toda función estrictamente monótona es inyectiva, de hecho, una función monótona es estrictamente monótona si y sólo si es inyectiva. El recíproco de la primera afirmación anterior no es cierto. Por ejemplo, la función \(f:[0,2]\rightarrow\mathbb{R}\) definida por

\[f(x)=\left\{\begin{array}{ccc}
    x & \text{si} & 0\leqslant x<1 \\
    3-x & \text{si} & 1\leqslant x \leqslant 2
  \end{array}\right.
\]

es inyectiva pero no es estrictamente monótona.

Teorema 1.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función continua e inyectiva. Entonces \(f\) es estrictamente monótona.

Supongamos primeramente que \(I\) es un intervalo cerrado y acotado \([a,b]\), con \(a<b\) (si \(a=b\) no hay nada que demostrar). Supongamos también que \(f(a)<f(b)\) (no puede ser \(f(a)=f(b)\) por ser \(f\) inyectiva). Sean \(x,y\in[a,b]\), con \(x<y\). Si \(x=a\) se tiene, aplicando el lema anterior, \(f(x)<f(y)\), e igual ocurre si \(y=b\). Sean entonces \(x,y\in(a,b)\); aplicando el lema anterior tenemos \(f(x)<f(b)\) y aplicando otra vez el lema a la restricción de \(f\) al intervalo \([x,b]\) obtenemos \(f(x)<f(y)<f(b)\). Así pues hemos probado en este caso que \(f\) es estrictamente creciente. Si fuese \(f(a)>f(b)\), el razonamiento anterior, aplicado a la función \(-f\), demuestra que \(-f\) es estrictamente creciente, de donde \(f\) es estrictamente decreciente. Queda así demostrado el teorema en el caso particular de que \(I\) esa un intervalo cerrado y acotado.

Sea ahora \(I\) un intervalo cualquiera y supongamos que \(f\) no es estrictamente monótona, para llegar a una contradicción. Entonces existen \(x_1,\,y_1,\,x_2,\,y_2\in I\) tales que \(x_1<y_1\), \(f(x_1)>f(y_1)\), \(x_2<y_2\), \(f(x_2)<f(y_2)\). Sean \(a=\min\{x_1,x_2\}\) y \(b=\max\{y_1,y_2\}\); claramente \([a,b]\subset I\) y la restricción de \(f\) a \([a,b]\) es continua en inyectiva, luego por lo ya demostrado, es estrictamente monótona. Ello es absurdo pues \(x_1,\,y_1,\,x_2,\,y_2\in[a,b]\).

Como se dijo anteriormente, una función estrictamente monótona es siempre inyectiva. Sin embargo, una función estrictamente monótona no tiene por qué ser continua. Por ejemplo, la función \(g:[0,2]\rightarrow\mathbb{R}\)

\[g(x)=\left\{\begin{array}{ccc}
    x & \text{si} & 0\leqslant x\leqslant1 \\
    1+x & \text{si} & 1<x\leqslant 2
  \end{array}\right.
\]

es estrictamente creciente y no es continua. Damos a continuación un importante teorema que garantiza la continuidad de una función monótona con una hipótesis adicional.

Teorema 2.

Sea \(A\) un conjunto no vacío de números reales y \(f:A\rightarrow\mathbb{R}\) una función monótona tal que \(f(A)\) es un intervalo. Entonces \(f\) es continua.

Supongamos por ejemplo que \(f\) es creciente. Sea \(x_0\) un punto de \(A\) y \(\{x_n\}\) una sucesión creciente de puntos de \(A\), convergente a \(x_0\). Para cada natural \(n\) se tiene entonces \(x_n\leqslant x_{n+1}\leqslant x_0\) y, por ser \(f\) creciente, \(f(x_n)\leqslant f(x_{n+1})\leqslant f(x_0)\). Así, \(\{f(x_n)\}\) es una sucesión creciente y mayorada, luego convergente (véase el teorema 1 del artículo dedicado a las sucesiones monótonas). Sea \(l=\lim f(x_n)\); por ser \(f(x_n)\leqslant f(x_0)\,,\forall\,n\in\mathbb{N}\), se tendrá \(l\leqslant f(x_0)\) (ver el corolario 3 del artículo dedicado a las sucesiones acotada y a las propiedades de las sucesiones convergentes). Supongamos que fuese \(l<f(x_0)\) y sea \(\frac{l+f(x_0)}{2}=y\); se tiene \(f(x_n)<y<f(x_0)\,,\forall\,n\in\mathbb{N}\). Por ser \(f(A)\) un intervalo, existirá un punto \(x\) en \(A\) tal que \(f(x)=y\). Si fuese \(x<x_n\) para algún natural \(n\), se tendría, por ser \(f\) creciente, que \(y=f(x)\leqslant f(x_n)\), cosa que no ocurre, luego \(x\geqslant x_n\) para todo natural \(n\). Entonces \(x\geqslant x_0\), de donde \(f(x)\geqslant f(x_0)\), lo cual es una contradicción. Así, \(L=f(x_0)\) y \(\{f(x_n)\}\rightarrow f(x_0)\), como queríamos.

Un razonamiento enteramente análogo al anterior nos demostraría que si \(\{x_n\}\) es una sucesión decreciente de puntos de \(A\), convergente a \(x_0\), entonces \(\{f(x_n)\}\) converge a \(f(x_0)\). Así pues, para toda sucesión \(\{x_n\}\) monótona, de puntos de \(A\), convergente a \(x_0\) se tiene que \(\{f(x_n)\}\) converge a \(f(x_0)\). Por la caracterización de la continuidad, \(f\) es continua en \(x_0\) y, como \(x_0\) era un punto arbitrario de \(A\), \(f\) es continua en \(A\).

Finalmente, si \(f\) es decreciente, \(-f\) es creciente y \((-f)(A)=\{-y\,:\,y\in f(A)\}\) es, claramente, un intervalo, luego, por lo ya demostrado \(-f\) es continua, esto es, \(f\) es continua.

Lema 2.

Si \(f:A\rightarrow\mathbb{R}\) es una función estrictamente creciente (respectivamente, estrictamente decreciente), entonces \(f^{-1}:f(A)\rightarrow\mathbb{R}\) es también estrictamente creciente (respectivamente, estrictamente decreciente).

Sean \(x\,,y\in f(A)\) con \(x<y\). Si fuese \(f^{-1}(x)\geqslant f^{-1}(y)\), se tendría, por ser \(f\) creciente, \(f(f^{-1}(x))\geqslant f(f^{-1}(y))\), esto es, \(x\geqslant y\), contra lo supuesto. Luego \(f^{-1}(x)<f^{-1}(y)\) y \(f^{-1}\) es estrictamente creciente. Análogo razonamiento se usa para demostrar el caso en que \(f\) sea estrictamente decreciente.

Corolario 1.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función estrictamente monótona. Entonces \(f^{-1}\) es continua.

Por el lema anterior, \(f^{-1}\) es monótona y su imagen es el intervalo \(I\), luego \(f^{-1}\) es continua por el teorema 2.

Corolario 2.

Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función continua e inyectiva. Entonces \(f^{-1}\) es continua.

Por el teorema 1, \(f\) es estrictamente monótona luego, por el corolario anterior, \(f^{-1}\) es continua.

Ejercicios

1. Sea \(f:[-1,1]\rightarrow\mathbb{R}\) la función definida por

\[f(x)=\frac{2x}{1+|x|}\,,\forall\,x\in[-1,1]\]

Determínese la imagen de \(f\).

La función también la podemos escribir así:

\[f(x)=\left\{\begin{array}{ccc}
                  \displaystyle \frac{2x}{1-x} & \text{si} & -1\leqslant x<0\\
                  \displaystyle \frac{2x}{1+x} & \text{si} & 0\leqslant x\leqslant 1
                \end{array}
  \right.\]

Las restricciones de \(f\) a los intervalos \([-1,0)\) y \([0,1)\) son claramente continuas por ser funciones racionales. Así, \(f\) es continua en todo punto excepto, eventualmente, en cero. Pero si \(\{x_n\}\) es una sucesión de puntos de \([-1,1]\) convergente a cero, cualquiera de las sucesiones \(\{\frac{2x_n}{1-x_n}\}\), \(\{\frac{2x_n}{1+x_n}\}\) también convergen a cero. Por tanto, \(f\) es continua en todo punto del intervalo \([-1,1]\).

Sea ahora \(x\,,y\in[-1,0)\). Entonces

\[f(x)=f(y)\Leftrightarrow\frac{2x}{1-x}=\frac{2y}{1-y}\Leftrightarrow2x(1-y)=2y(1-x)\Leftrightarrow x-xy=y-yx\Leftrightarrow x=y\]

De la misma forma, dados \(x\,,y\in[0,1]\) se tiene que

\[f(x)=f(y)\Leftrightarrow\frac{2x}{1+x}=\frac{2y}{1+y}\Leftrightarrow2x(1+y)=2y(1+x)\Leftrightarrow x+xy=y+yx\Leftrightarrow x=y\]

Lo anterior demuestra que las restricciones de \(f\) a los intervalos \([-1,0)\) y \([0,1)\) son inyectivas, luego ambas estrictamente monótonas (teorema 1). Pero \(f(-1)=-1\), \(f(0)=0\), \(f(1)=1\). Esto indica que \(f\) es estrictamente creciente en el intervalo \([-1,1]\) y que la imagen de la función \(f\) es también el intervalo \([-1,1]\).

2. Sea \(f:\mathbb{R}\rightarrow\mathbb{R}\) una función continua en \(\mathbb{R}\). Probar que si la restricción de \(f\) a \(\mathbb{Q}\) es monótona, entonces \(f\) es monótona.

Supongamos que la restricción de \(f\) a \(\mathbb{Q}\) es creciente. Sean \(x\,,y\in\mathbb{R}\) en la situación \(x<y\). Entonces existen sucesiones \(\{x_n\}\), \(\{y_n\}\) convergentes a \(x\) e \(y\) respectivamente y cumpliendo que \(x_n\,,y_n\in\mathbb{Q}\,,x_n<x<y<y_n\,,\forall\,n\in\mathbb{N}\). Entonces \(f(x_n)\leqslant f(y_n)\,,\forall\,n\in\mathbb{N}\). Al ser \(f\) continua, la restricción de \(f\) a \(\mathbb{Q}\) también lo es y por tanto \(\{f(x_n)\}\rightarrow f(x)\) y \(\{f(y_n)\}\rightarrow f(y)\). Entonces \(f(x)\leqslant f(y)\) (ver proposición 5 del artículo dedicado a las sucesiones acotadas y a las propiedades de las sucesiones convergentes) y, por tanto, \(f\) es creciente.

3. Sea \(I\) un intervalo y \(f:I\rightarrow\mathbb{R}\) una función inyectiva. Analícese la relación entre las siguientes afirmaciones.

i) \(f\) es continua.

ii) \(f(I)\) es un intervalo.

iii) \(f\) es estrictamente monótona.

iv) \(f^{-1}\) es continua.

i) \(\Rightarrow\) ii) por el teorema del valor intermedio.

i) \(\Rightarrow\) iii) por el teorema 1.

i) \(\Rightarrow\) iv) por el corolario 2.

La afirmación ii) no implica necesariamente la i) pues la función \(f:[0,2]\rightarrow\mathbb{R}\) definida por

\[f(x)=\left\{\begin{array}{ccc}
                  x & \text{si} & 0\leqslant x<1\\
                  3-x & \text{si} & 1\leqslant x\leqslant 2
                \end{array}
  \right.\]

es inyectiva y su imagen es el intervalo \([0,2]\), pero no es continua en \(x_0=1\) (ver figura siguiente).

trozos 01

La afirmación ii) no implica necesariamente la iii). La misma función anterior puede servir de contraejemplo.

La afirmación ii) tampoco implica la iv) y sigue sirviendo la misma función anterior como contraejemplo. Es fácil comprobar que \(f^{-1}=f\), que no es continua en \(x_0=1\).

De iii) no se deduce i). La función \(g:[0,2]\rightarrow\mathbb{R}\) definida por

\[g(x)=\left\{\begin{array}{ccc}
                  x & \text{si} & 0\leqslant x<1\\
                  1+x & \text{si} & 1\leqslant x\leqslant 2
                \end{array}
  \right.\]

es estrictamente creciente (luego inyectiva) y no es continua en el punto \(x_0=1\) (ver figura siguiente).

trozos 02

De iii) tampoco se deduce ii) y la misma función anterior sirve de contraejemplo: obsérvese que la imagen de la función \(g\) es el conjunto \([0.1]\cup[2,3]\), que no es un intervalo.

iii) \(\Rightarrow\) iv) por el corolario 1.

La afirmación iv) no implica ninguna de las afirmaciones anteriores.

De las afirmaciones ii) y iii) se deduce la afirmación i) por el teorema 2 y, por tanto, también la afirmación iv), pues i) \(\Rightarrow iv)\).

De las afirmaciones ii) y iv) se deduce la afirmación i) pues si \(f\) es inyectiva también lo es \(f^{-1}\) y al ser ésta continua y estar definida en \(f(I)\), que es un intervalo, se tiene que la inversa de \(f^{-1}\), o sea \(f\), es continua (corolario 1). De estas dos afirmaciones se deduce también iii) ya que i) \(\Rightarrow\) iii).

De iii) y iv) no se deduce necesariamente ni i) ni ii).


Puedes descargar el artículo completo en pdf haciendo clic aquí.


Leer más ...

Problemas de optimización. Optimización en economía

Muchos problemas requieren buscar un valor que haga mínima o máxima una cantidad. Esta cantidad puede venir dada en una fórmula, en otras ocasiones deberemos plantear nosotros la fórmula. En este artículo puedes ver con detalle de qué tratan este tipo de problemas.

En todo caso recordaremos algunas pautas para resolver problemas de optimización.

  1. Leer el problema hasta comprenderlo. Localizar la cantidad se ha de hacer máxima o mínima, es decir, aquella cantidad que tenemos que optimizar.
  2. Si procede, realizar algún dibujo de la situación que muestre como se relacionan los elementos que varían. Escoger nombres a las variables de interés. Si hay varias variables involucradas, estudiar cómo se relacionan. Hay que plantear una ecuación donde se hagan patentes las relaciones entre las variables. Esta ecuación se suele llamar de ligadura (porque establece la relación entre las variables) o ecuación de restricción.
  3. Expresar la cantidad que se quiere optimizar como función de una de las variables. Esta función se conoce con el nombre de función objetivo. Si hay dos o más variables, despejar las variables en términos de una sola, usando la ecuación de ligadura (o restricción) y sustituirla en la función objetivo. Determinar el dominio de la función resultante de acuerdo a la naturaleza del problema.
  4. Determinar los máximos o mínimos de la función a optimizar. Hay que garantizar que el extremo sea absoluto.
  5. Por último, es conveniente responder con palabras cada pregunta del problema.

Para el cálculo de los extremos (máximos y mínimos) de una función recomendamos la lectura de estos apuntes sobre derivadas.

Optimización en economía

Hay una gran variedad de problemas en administración y economía donde se emplea la derivada para encontrar máximos y mínimos. En particular, a una empresa le interesa el nivel de producción donde se alcanza la máxima utilidad o el máximo ingreso; o a un empresario le interesaría saber el nivel de producción al que el coste promedio por unidad es mínimo. Veamos algunos ejercicios que nos sirvan de ejemplo.

Ejercicio 1

El coste total de producir \(q\) unidades de un artículo está dado por

\[c(q)=5000+4q+\frac{1}{2}q^2\]

¿Cuántas unidades deberán producirse a fin de obtener el mínimo coste promedio por unidad? ¿Cuál es ese mínimo coste promedio?

 

En primer lugar hemos de obtener el coste promedio, que se calcula dividiendo el coste total entre el número de unidades \(q\):

\[\overline{c}(q)=\frac{5000+4q+\frac{1}{2}q^2}{q}=\frac{5000}{q}+4+\frac{1}{2}q\]

Derivando \(\overline{c}\) tenemos:

\[\overline{c}'(q)=-\frac{5000}{q^2}+\frac{1}{2}\]

Igualamos la derivada a cero para encontrar los posibles máximos o mínimos (valores críticos):

\[-\frac{5000}{q^2}+\frac{1}{2}=0\Leftrightarrow-10000+q^2=0\Leftrightarrow\begin{cases}q=100\\q=-100\end{cases}\]

Eliminamos la solución negativa pues carece de sentido.

Para saber qué clase de punto es \(q=100\) volvemos a derivar la función coste promedio y evaluamos precisamente en \(q=100\):

\[\overline{c}''(q)=\frac{10000}{q^3}\Rightarrow\overline{c}''(100)=\frac{10000}{100^3}>0\]

De lo anterior se deduce que en \(q=100\) se alcanza un mínimo relativo, con lo que podemos concluir que cuando se producen 100 unidades tendremos el coste promedio mínimo.

Además, el mínimo coste promedio es:

\[\overline{c}(100)=\frac{c(100)}{100}=\frac{5000+4\cdot100+(100)^2/2}{100}=\frac{5000+400+5000}{100}=104\ \text{um}\]

Ejercicio 2

El coste total de producir \(q\) unidades de un artículo está dado por

\[c(q)=1000+300q+\frac{1}{20}q^2\]

Si la ecuación de demanda está dada por \(p=400-0,1q\), ¿Cuántas unidades deberán producirse a fin de obtener la máxima utilidad? ¿Cuál es el precio en que se tiene la máxima utilidad? ¿Cuál es la utilidad máxima posible? Si el gobierno impone un impuesto de 10 euros por unidad, ¿cuál es el nuevo nivel de producción que maximiza la utilidad?

 

En primer lugar se debe conseguir la función utilidad \(U=I-C\) (ingresos menos costes). En este caso, como \(I=pq=(400-0,1q)q=400q-0,1q^2\), tenemos:

\[U(q)=(400q-0,1q^2)-\left(1000+300q-\frac{1}{20}q^2\right)=400q-0,1q^2-1000-300q-\frac{1}{20}q^2\Rightarrow\]

\[\Rightarrow U(q)=-\frac{3}{20}q^2+100q-1000\]

Derivando e igualando a cero tenemos:

\[U'(q)=-\frac{6}{20}q+100=0\Rightarrow q=\frac{1000}{3}\]

Tenemos pues un único punto crítico (posible máximo o mínimo). Volviendo a derivar:

\[U''(q)=-\frac{6}{20}\]

Como \(U''(q)\) es siempre negativa, se tiene que \(q=\dfrac{1000}{3}\) es un máximo relativo y por existir un único extremo, este es absoluto (podíamos haber hecho esto teniendo en cuenta que la función \(U\) es una parábola que se abre "hacia abajo" y que, por tanto, el vértice es su único máximo absoluto).

Sustituyendo en la ecuación de demanda obtenemos el precio de venta máximo:

\[p=400-0,1\frac{1000}{3}=\frac{1100}{3}\approx367\ \text{UM}\]

Y ahora conseguimos el valor máximo de la función de utilidad:

\[U\left(\frac{1000}{3}\right)=-\frac{3}{20}\left(\frac{1000}{3}\right)^2+100\frac{1000}{3}-100\approx16567\ \text{UM}\]

Ejercicio 3

Un gimnasio tiene la cuota mensual en 100 euros. A ese precio se inscriben mensualmente un promedio de 550 clientes. Se quiere subir los precios y se estima que por cada aumento de 2 euros se pierden 5 clientes ¿Qué precio se deberá fijar a fin de que el gimnasio obtenga el máximo ingreso?

Leer más ...

3. El teorema fundamental del cálculo

En el artículo anterior hemos visto que el concepto de integral definida de una función \(f\) en un intervalo \([a,\,b]\), \(\int_a^b f(x)dx\), viene a representar el área comprendida entre la curva (gráfica de \(f\)), el eje \(X\) y las rectas verticales \(x=a\) y \(x=b\), tal y como se representa en la siguiente figura.

th fdtal calculo 01

Existe una estrecha relación entre la integral definida o, lo que es lo mismo, el cálculo del área bajo la curva, y la derivación. Esto, en principio, es bastante sorprendente. El teorema fundamental del cálculo pone de manifiesto la relación mencionada. Antes de enunciarlo demostraremos un resultado de interés, el teorema del valor medio para integrales. También introduciremos el concepto de función área de una función \(f\) en un intervalo cerrado.

Teorema del valor medio para integrales

Si \(f(x)\) es continua en \([a,\,b]\), entonces existe un punto \(c\in(a,\,b)\) tal que

\[\int_a^b f(x)dx=f(c)\cdot(b-a)\]

Demostración:

Sean \(m\) y \(M\) el mínimo y el máximo de \(f(x)\) en \([a,\,b]\). Entonces

\[m(b-a)\leq\int_a^b f(x)dx\leq M(b-a)\]

th fdtal calculo 03

Es decir:

\[m\leq\frac{1}{b-a}\int_a^b f(x)dx\leq M\]

Sean \(x_1\), \(x_2\) los puntos de \([a,\,b]\) tales que \(f(x_1)=m\), \(f(x_2)=M\). Entonces la igualdad anterior también se puede escribir así:

\[f(x_1)\leq\frac{1}{b-a}\int_a^b f(x)dx\leq f(x_2)\]

Aplicando el teorema de los valores intermedios existirá un punto \(c\in(x_1,\,x_2)\) tal que

\[f(c)=\frac{1}{b-a}\int_a^b f(x)dx\]

O lo que es lo mismo, hemos demostrado que existe \(c\in(a,\,b)\) tal que

\[\int_a^b f(x)dx=f(c)\cdot(b-a)\]

como queríamos demostrar.

El teorema del valor medio para integrales puede interpretarse geométricamente de la siguiente manera: existe un punto \(c\in(a,\,b)\) tal que el rectángulo de base \(b-a\) y altura \(f(c)\) tienen la misma área que la encerrada por la curva \(f\), el eje \(X\) y las rectas \(x=a\), \(x=b\).

th fdtal calculo 02

La función área

Dada una función \(f\), continua en un intervalo \([a,\,b]\), podemos calcular \(\int_a^c f\) para todo número \(c\in[a,\,b]\). Podemos entonces considerar una nueva función:

\[F(x)=\int_a^x f\, ,\ \forall\,x\in[a,\,b]\]

La función anterior es el área encerrada bajo la gráfica de \(f\) entre \(a\) y un punto variable \(x\).

Cuanto mayor sea la ordenada de \(f\), más rápidamente crece el área bajo ella, \(F\), y por tanto, mayor es \(F'\). Cuando \(f\) es negativa, lo es el área. Por tanto, \(F\) decrece y su derivada es negativa. Estas consideraciones intuitivas entre las funciones \(f\) y \(F'\) quedan patentes con mayor precisión en el siguiente teorema.

Teorema fundamental del cálculo

Si \(f\) es una función continua en \([a,\,b]\), entonces la función \(\displaystyle F(x)=\int_a^x f\), \(x\in[a,\,b]\), es derivable y se verifica que \(F'(x)=f(x)\).

Demostración:

Para hallar \(F'(x)\) calcularemos

\[\lim_{h\to0}\frac{F(x+h)-F(x)}{h}\]

El numerador es

\[F(x+h)-F(x)=\int_a^{x+h}f-\int_a^x f=\int_a^{x+h}f-\left(-\int_x^a f\right)=\int_x^a f+\int_a^{x+h}f=\int_x^{x+h}f\]

th fdtal calculo 04

Por el teorema del valor medio para integrales, al ser \(f\) continua en \([x,\,x+h]\), existe \(c\in[x,\,x+h]\) tal que

\[\int_x^{x+h}f=f(c)\cdot(x+h-x)=f(c)\cdot h\]

Por tanto:

\[F'(x)=\lim_{h\to0}\frac{F(x+h)-F(x)}{h}=\lim_{h\to0}\left[\frac{1}{h}\int_x^{x+h}f\right]=\lim_{h\to0}\left[\frac{1}{h}f(c)\cdot h\right]=\lim_{h\to0}f(c)\]

Como \(c\in[x,\,x+h]\), el límite \(\displaystyle\lim_{h\to0}f(c)=f(x)\), pues \(f\) es continua.

Por tanto, \(F'(x)=f(x)\), que es lo queríamos demostrar.

Veamos algunos ejemplos del uso del teorema fundamental del cálculo

Ejemplo 1

Podemos aplicar el teorema fundamental del cálculo para calcular la derivada de la función \(F(x)=\int_1^x(\ln t-2)dt\). Puesto que la función \(f(t)=\ln t-2\) es continua en todo su dominio, se tiene que \(F'(x)=\ln x-2\). Por otro lado, como \(F'(x)=0\Rightarrow\ln x-2=0\Rightarrow x=e^2\) y, además, \(F''(e^2)>0\), la función \(F\) tiene en el punto \(x=e^2\) un mínimo. Obsérvese que gracias al teorema fundamental del cálculo hemos obtenido el mínimo de la función sin necesidad de resolver la integral.

Ejemplo 2

Supongamos que queremos calcular el área encerrada por la gráfica de la función seno entre \(0\) y \(\pi\). Es decir, queremos hallar \(\int_0^\pi \text{sen}\,x\,dx\). Para ello llamaremos \(F(x)=\int_a^x\text{sen}\,t\,dt\)

th fdtal calculo 05

Por el teorema fundamental del cálculo, \(F'(x)=\text{sen}\,x\). Por tanto, al ser \(F\) una primitiva de la función seno:

\[F(x)=\int \text{sen}\,x\,dx=-\cos x+C\]

Como \(F(0)=\int_0^0\text{sen}\,t\,dt=0\), entonces \(-\cos0+C=0\), es decir, \(C=\cos0=1\). Por tanto tenemos que \(F(x)=-\cos x+1\). De este modo, el área que queremos calcular es:

\[\int_0^\pi\text{sen}\,x\,dx=F(\pi)=-\cos\pi+1=-(-1)+1=2\]

Por tanto el área que se buscaba es de \(2\ \text{u}^2\).

En el artículo siguiente veremos otro método (el que se usa habitualmente) para el cálculo de áreas: la regla de Barrow.

Finalmente reseñar que el teorema fundamental del cálculo afirma que la función área bajo la gráfica de \(f\), \(F(x)=\int_a^x f\), es una primitiva de \(f(x)\), ya que \(F'(x)=f(x)\). Esta es la razón por la que al cálculo de primitivas se le llama integración o cálculo de integrales, y se utiliza la expresión \(\int f(x)dx\) para designar una primitiva de la función \(f(x)\).

Obsérvese en la siguiente figura la relación entre \(F\) y \(f\) (haz clic sobre la figura para ver el movimiento):

En este ejemplo la gráfica de color rojo es \(f(x)=(x-3)^3+3(x-3)^2\) en el intervalo \([1,\,4]\). De manera similar a como se ha hecho en el ejemplo anterior, se puede comprobar con facilidad que \(F(x)=\dfrac{(x-3)^4}{4}+(x-3)^3+4\) (la gráfica de color azul). La ordenada de esta última función (el punto de color azul) nos da el área encerrada por la gráfica de \(f\), el eje \(X\) y las rectas verticales que pasan por las abscisas \(1\) y \(x\) (en color verde).


← 2. Integral definida

4. La regla de Barrow →

Leer más ...
Suscribirse a este canal RSS

lasmatematicas.eu

Aplicaciones

Sígueme

webs de matemáticas