3.8: Opcional— Integrales en Coordenadas Generales
( \newcommand{\kernel}{\mathrm{null}\,}\)
Una de las herramientas más importantes utilizadas en el tratamiento de integrales de una sola variable es la regla de cambio de variable (sustitución)
x=f(u)dx=f′(u)du
Ver Teoremas 1.4.2 y 1.4.6 en el texto CLP-2. Expresar integrales multivariables usando coordenadas polares o cilíndricas o esféricas son realmente sustituciones multivariables. Por ejemplo, cambiar a coordenadas esféricas equivale a reemplazar las coordenadasx,y,z con las coordenadasρ,θ,φ usando la sustitución
X=r(ρ,θ,φ)dxdydz=ρ2sinφdρdθdφ
donde
X=⟨x,y,z⟩andr(ρ,θ,φ)=⟨ρcosθsinφ,ρsinθsinφ,ρcosφ⟩
Ahora derivaremos una generalización de la regla de sustitución 3.8.1 a dos dimensiones. Incluirá coordenadas polares como caso especial. Posteriormente, declararemos (sin pruebas) su generalización a tres dimensiones. Incluirá coordenadas cilíndricas y esféricas como casos especiales.
Supongamos que deseamos integrarnos sobre una región,R, enR2 y que también deseamos 1 usar dos nuevas coordenadas, que llamaremosu yv, en lugar dex yy. Las nuevas coordenadasu,v están relacionadas con las coordenadas antiguas x,y,por las funciones 2
x=x(u,v)y=y(u,v)
Para que las fórmulas sean más compactas, definiremos la función de valor vectorialr(u,v) mediante
r(u,v)=⟨x(u,v),y(u,v)⟩
Como ejemplo, si las nuevas coordenadas son coordenadas polares, conr renombrado au yθ renombrado av, entoncesx(u,v)=ucosv yy=usinv.
Tenga en cuenta que si mantenemosv fijos y variamosu, entoncesr(u,v) barre una curva. Por ejemplo, six(u,v)=ucosv yy=usinv, entonces, si mantenemosv fijos y variamosu,→r(u,v) barre una línea recta (que hace que el ángulov con elx eje -), mientras que, si mantenemosu>0 fijos y variamosv,r(u,v) barre un círculo (de radio ucentrado en el origen).
Comenzamos cortandoR (la región sombreada en la figura de abajo) hacia arriba en pequeños trozos dibujando un manojo de curvas de constanteu (las curvas azules en la figura de abajo) y un manojo de curvas de constantev (las curvas rojas en la figura de abajo).
Concéntrate en cualquiera de las piezas pequeñas. Aquí hay un boceto muy magnificado.
Por ejemplo, la curva roja inferior se construyó manteniendov fija en el valorv0, variableu y bosquejandor(u,v0), y la curva roja superior se construyó manteniendov fija en el valor ligeramente mayorv0+dv, variandou y dibujandor(u,v0+dv). Así que el cuatro puntos de intersección en la figura son
P2=r(u0,v0+dv)P3=r(u0+du,v0+dv)P0=r(u0,v0)P1=r(u0+du,v0)
Ahora, para cualquier constante pequeñadU ydV, tenemos la aproximación lineal 3
r(u0+dU,v0+dV)≈r(u0,v0)+∂r∂u(u0,v0)dU+∂r∂v(u0,v0)dV
Aplicando esto tres veces, una condU=du,dV=0 (para aproximarP1), una condU=0,dV=dv (para aproximarP2), y una vez condU=du,dV=dv (para aproximarP3),
P0=r(u0,v0)P1=r(u0+du,v0)≈r(u0,v0)+∂r∂u(u0,v0)duP2=r(u0,v0+dv)≈r(u0,v0)+∂r∂v(u0,v0)dvP3=r(u0+du,v0+dv)≈r(u0,v0)+∂r∂u(u0,v0)du+∂r∂v(u0,v0)dv
Hemos bajado todos los términos de expansión de Taylor que son de grado dos o superior endu,dv. La razón es que, al definir la integral, tomamos el límitedu,dv→0. Debido a ese límite, todos los términos caídos contribuyen exactamente0 a la integral. Esto no lo probaremos. Pero vamos a mostrar, en la optativa §3.8.1, por qué es así.
La pequeña pieza deR superficie con esquinasP0,P1,P2,P3 es aproximadamente un paralelogramo con lados
→P0P1≈→P2P3≈∂r∂u(u0,v0)du=⟨∂x∂u(u0,v0),∂y∂u(u0,v0)⟩du→P0P2≈→P1P3≈∂ r∂v(u0,v0)dv=⟨∂x∂v(u0,v0),∂y∂v(u0,v0)⟩dv
Aquí la notación, por ejemplo,→P0P1 se refiere al vector cuya cola está en el puntoP0 y cuya cabeza está en el puntoP1. Recall, de 1.2.17 que
area of parallelogram with sides ⟨a,b⟩ and ⟨c,d⟩=|det[abcd]|=|ad−bc|
Así que el área de nuestro pequeño trozo deR es esencialmente
dA=|det[∂x∂u∂y∂u∂x∂v∂y∂v]|dudv
Recordemos quedetM denota el determinante de la matrizM. También recordemos que realmente no necesitamos determinantes para este texto, aunque sí hace para una buena notación compacta.
La fórmula (3.8.2) es el corazón del siguiente teorema, que nos dice cómo traducir una integral en un sistema de coordenadas en una integral en otro sistema de coordenadas.
Dejar que las funcionesx(u,v) yy(u,v) tener primeras derivadas parciales continuas y dejar que la funciónf(x,y) sea continua. Supongamos quex=x(u,v),y=y(u,v) proporciona una correspondencia uno a uno entre los puntos(u,v) de la regiónU en eluv plano y los puntos(x,y) de la regiónR en elxy plano. Entonces
∬
El determinante
\begin{align*} \det\left[\begin{matrix} \frac{\partial x}{\partial u}(u,v)&\frac{\partial y}{\partial u}(u,v) \\ \frac{\partial x}{\partial v}(u,v)&\frac{\partial y}{\partial v}(u,v) \end{matrix}\right] \end{align*}
que aparece en (3.8.2) y Teorema 3.8.3 se conoce como el jacobiano 4.
Empezaremos con un ejemplo bastante trivial en el que simplemente renombramosx aY yy aX\text{.} Eso es
\begin{align*} x(X,Y) &= Y\\ y(X,Y) &= X \end{align*}
Desde
\begin{align*} \frac{\partial x}{\partial X}&=0 &\frac{\partial y}{\partial X}&=1\\ \frac{\partial x}{\partial Y}&=1 &\frac{\partial y}{\partial Y}&=0 \end{align*}
(3.8.2), pero conu renombrado aX yv renombrado aY\text{,} da
\begin{align*} \mathrm{d}A &= \left|\det\left[\begin{matrix}0 & 1 \\ 1 & 0 \end{matrix}\right]\right| \mathrm{d}X\,\mathrm{d}Y = \mathrm{d}X\,\mathrm{d}Y \end{align*}
lo que realmente no debería ser un shock.
Las coordenadas polares tienen
\begin{align*} x(r,\theta) &= r\cos\theta\\ y(r,\theta) &= r\sin\theta \end{align*}
Desde
\begin{align*} \frac{\partial x}{\partial r}&=\cos\theta &\frac{\partial y}{\partial r}&=\sin\theta\\ \frac{\partial x}{\partial \theta}&=-r\sin\theta &\frac{\partial y}{\partial \theta}&=r\cos\theta \end{align*}
(3.8.2), pero conu renombrado ar yv renombrado a\theta\text{,} da
\begin{align*} \mathrm{d}A &= \left|\det\left[\begin{matrix}\cos\theta &\sin\theta \\ -r\sin\theta & r\cos\theta \end{matrix}\right]\right| \mathrm{d}r \mathrm{d}{\theta} =\big(r\cos^2\theta + r\sin^2\theta\big)\,\mathrm{d}r \mathrm{d}{\theta} \\ &= r\,\mathrm{d}r\, \mathrm{d}{\theta} \end{align*}
que es exactamente lo que encontramos en 3.2.5.
Las 5 coordenadas parabólicas están definidas por
\begin{align*} x(u,v) &= \frac{u^2-v^2}{2}\\ y(u,v) &= uv \end{align*}
Desde
\begin{align*} \frac{\partial x}{\partial u}&= u &\frac{\partial y}{\partial u}&=v\\ \frac{\partial x}{\partial v}&=-v &\frac{\partial y}{\partial v}&=u \end{align*}
(3.8.2) da
\begin{align*} \mathrm{d}A &= \left|\det\left[\begin{matrix} u & v \\ -v & u \end{matrix}\right]\right| \mathrm{d}u\mathrm{d}v = (u^2+v^2)\,\mathrm{d}u\,\mathrm{d}v \end{align*}
En la práctica aplicar el cambio de variables Teorema 3.8.3 puede ser bastante complicado. Aquí hay solo un ejemplo simple (y amañado).
Evaluar
\iint_\mathcal{R}\frac{y}{1+x}\ \mathrm{d}{x} \, \mathrm{d}{y} \qquad\text{where } \mathcal{R}=\left \{(x,y)|0\le x\le 1,\ 1+x\le y\le 2+2x\right \} \nonumber
Solución
Podemos simplificar el integrando considerablemente haciendo el cambio de variables
\begin{align*} s&=x & x&=s\\ t&=\frac{y}{1+x} & y&=t(1+x) = t(1+s) \end{align*}
Por supuesto para evaluar la integral dada aplicando el Teorema 3.8.3 también necesitamos saber
- [\circ] el dominio de la integración en términos des yt y
- [\circ] \mathrm{d}{x} \, \mathrm{d}{y} en términos de\mathrm{d}s\,\mathrm{d}t\text{.}
Por (3.8.2), recordando quex(s,t)=s yy(s,t)=t(1+s)\text{,}
\begin{align*} \mathrm{d}{x} \, \mathrm{d}{y} &= \left|\det\left[\begin{matrix}\frac{\partial x}{\partial s}&\frac{\partial y}{\partial s}\\ \frac{\partial x}{\partial t}&\frac{\partial y}{\partial t} \end{matrix}\right]\right| \mathrm{d}s\,\mathrm{d}t = \left|\det\left[\begin{matrix}1&t\\ 0&1+s \end{matrix}\right]\right| \mathrm{d}s\,\mathrm{d}t = (1+s)\,\mathrm{d}s\,\mathrm{d}t \end{align*}
Para determinar qué hace el cambio de variables al dominio de la integración, esbozaremos\mathcal{R} y luego reexpresaremos el límite de\mathcal{R} en términos de las nuevas coordenadass yt\text{.} Aquí está el boceto de\mathcal{R} en las coordenadas originales(x,y)\text{.}
La región\mathcal{R} es un cuadrilátero. Tiene cuatro lados.
- El lado izquierdo es parte de la líneax=0\text{.} Recordemos quex=s\text{.} Así, en términos des yt\text{,} esta línea ess=0\text{.}
- El lado derecho es parte de la líneax=1\text{.} En términos des yt\text{,} esta línea ess=1\text{.}
- El lado inferior es parte de la líneay=1+x\text{,} o\frac{y}{1+x}=1\text{.} Recordemos quet=\frac{y}{1+x}\text{.} Así, en términos des yt\text{,} esta línea est=1\text{.}
- El lado superior es parte de la líneay=2(1+x)\text{,} o\frac{y}{1+x}=2\text{.} En términos des yt\text{,} esta línea est=2\text{.}
Aquí hay otra copia del boceto de\mathcal{R}\text{.} Pero esta vez las ecuaciones de sus cuatro lados se expresan en términos des yt\text{.}
Entonces, expresado en términos des yt\text{,} el dominio de la integración\mathcal{R} es mucho más sencillo:
\left \{(s,t)|0\le s\le 1,\ 1\le t\le 2\right \} \nonumber
Como \mathrm{d}{x} \, \mathrm{d}{y} = (1+s)\,\mathrm{d}s\,\mathrm{d}t y el integrando\frac{y}{1+x}=t\text{,} la integral es, por Teorema 3.8.3,
\begin{align*} \iint_\mathcal{R}\frac{y}{1+x}\ \mathrm{d}{x} \, \mathrm{d}{y} &=\int_0^1\mathrm{d}s\int_1^2\mathrm{d}t\ (1+s)t =\int_0^1\mathrm{d}s\ (1+s)\ \left[\frac{t^2}{2}\right]_1^2\\ &=\frac{3}{2}\left[s+\frac{s^2}{2}\right]_0^1\\ &=\frac{3}{2}\times \frac{3}{2}\\ &=\frac{9}{4} \end{align*}
Hay generalizaciones naturales de (3.8.2) y Teorema 3.8.3 a tres (y también a mayores) dimensiones, que se derivan precisamente de la misma manera que se derivó (3.8.2). La derivación se basa en el hecho, discutido en la optativa Sección 1.2.4, de que el volumen del paralelepípedo (paralelogramo tridimensional)
determinado por los tres vectores\textbf{a}=\left \langle a_1,a_2,a_3 \right \rangle ,\ \textbf{b}=\left \langle b_1,b_2,b_3 \right \rangle y\textbf{c}=\left \langle c_1,c_2,c_3 \right \rangle viene dado por la fórmula
\begin{align*} \text{volume of parallelepiped with edges } \textbf{a}, \textbf{b}, \textbf{c} &= \left| \det\left[\begin{matrix}a_1&a_2&a_3 \\ b_1&b_2&b_3\\ c_1&c_2&c_3\end{matrix}\right] \right| \end{align*}
donde el determinante de una3\times 3 matriz puede definirse en términos de algunos2\times 2 determinantes por
Si usamos
\begin{align*} x&=x(u,v,w)\\ y&=y(u,v,w)\\ z&=z(u,v,w) \end{align*}
para cambiar de coordenadas antiguasx,y,z a nuevas coordenadasu,v,w\text{,} entonces
\begin{align*} \mathrm{d}V = \left|\det\left[\begin{matrix} \frac{\partial x}{\partial u}&\frac{\partial y}{\partial u}&\frac{\partial z}{\partial u}\\ \frac{\partial x}{\partial v}&\frac{\partial y}{\partial v}&\frac{\partial z}{\partial v}\\ \frac{\partial x}{\partial w}&\frac{\partial y}{\partial w}&\frac{\partial z}{\partial w} \end{matrix}\right]\right| \mathrm{d}u\,\mathrm{d}v\,\mathrm{d}w \end{align*}
Las coordenadas cilíndricas tienen
\begin{align*} x(r,\theta,z) &= r\cos\theta\\ y(r,\theta,z) &= r\sin\theta\\ z(r,\theta,z) & = z \end{align*}
Desde
\begin{align*} \frac{\partial x}{\partial r}&=\cos\theta &\frac{\partial y}{\partial r}&=\sin\theta &\frac{\partial z}{\partial r}&=0\\ \frac{\partial x}{\partial \theta}&=-r\sin\theta &\frac{\partial y}{\partial \theta}&=r\cos\theta &\frac{\partial z}{\partial \theta}&=0\\ \frac{\partial x}{\partial z}&= 0 &\frac{\partial y}{\partial z}&=0 &\frac{\partial z}{\partial z}&=1 \end{align*}
(3.8.8), pero conu renombrado ar yv renombrado a\theta\text{,} da
\begin{align*} \mathrm{d}V &= \left|\det\left[\begin{matrix}\cos\theta &\sin\theta&0 \\ -r\sin\theta & r\cos\theta&0 \\ 0 & 0 & 1 \end{matrix}\right]\right| \mathrm{d}r\, \mathrm{d}{\theta} \, \mathrm{d}{z} \\ &= \left|\cos\theta\det\left[\begin{matrix} r\cos\theta&0 \\ 0 & 1 \end{matrix}\right] -\sin\theta\det\left[\begin{matrix} -r\sin\theta&0 \\ 0 & 1 \end{matrix}\right]\right.\\ &\hskip2.3in+0\left.\det\left[\begin{matrix} -r\sin\theta & r\cos\theta \\ 0 & 0 \end{matrix}\right] \right| \mathrm{d}r\, \mathrm{d}{\theta} \, \mathrm{d}{z} \\ &=\big(r\cos^2\theta + r\sin^2\theta\big)\,\mathrm{d}r\, \mathrm{d}{\theta} \, \mathrm{d}{z} \\ &= r\,\mathrm{d}r\, \mathrm{d}{\theta} \, \mathrm{d}{z} \end{align*}
que es exactamente lo que encontramos en (3.6.3).
Las coordenadas esféricas tienen
\begin{align*} x(\rho,\theta,\varphi) &= \rho\,\cos\theta\,\sin\varphi\\ y(\rho,\theta,\varphi) &= \rho\,\sin\theta\,\sin\varphi\\ z(\rho,\theta,\varphi) & = \rho\,\cos\varphi \end{align*}
Desde
\begin{align*} \frac{\partial x}{\partial \rho}&=\cos\theta\,\sin\varphi &\frac{\partial y}{\partial \rho}&=\sin\theta\,\sin\varphi &\frac{\partial z}{\partial \rho}&=\cos\varphi\\ \frac{\partial x}{\partial \theta}&=-\rho\,\sin\theta\,\sin\varphi &\frac{\partial y}{\partial \theta}&=\rho\,\cos\theta\,\sin\varphi &\frac{\partial z}{\partial \theta}&=0\\ \frac{\partial x}{\partial \varphi}&= \rho\,\cos\theta\,\cos\varphi &\frac{\partial y}{\partial \varphi}&=\rho\,\sin\theta\,\cos\varphi &\frac{\partial z}{\partial \varphi}&=-\rho\,\sin\varphi \end{align*}
(3.8.8), pero conu renombrado a\rho\text{,}v renombrado\theta yw renombrado a\varphi\text{,} gives
\begin{align*} \mathrm{d}V &= \left|\det\left[\begin{matrix}\cos\theta\,\sin\varphi & \sin\theta\,\sin\varphi &\cos\varphi \\ -\rho\,\sin\theta\,\sin\varphi &\rho\,\cos\theta\,\sin\varphi &0 \\ \rho\,\cos\theta\,\cos\varphi &\rho\,\sin\theta\,\cos\varphi &-\rho\,\sin\varphi \end{matrix}\right]\right| \mathrm{d}\rho\, \mathrm{d}{\theta} \,\mathrm{d}\varphi\\ &= \left|\cos\theta\,\sin\varphi\det\left[\begin{matrix} \rho\,\cos\theta\,\sin\varphi&0 \\ \rho\,\sin\theta\,\cos\varphi &-\rho\,\sin\varphi \end{matrix}\right] \right.\\ &\hskip1in\left. -\sin\theta\,\sin\varphi\det\left[\begin{matrix} -\rho\,\sin\theta\,\sin\vec{a}rphi &0 \\ \rho\,\cos\theta\,\cos\varphi &-\rho\,\sin\varphi \end{matrix}\right] \right.\\ &\hskip1in\left. +\cos\varphi\det\left[\begin{matrix} -\rho\,\sin\theta\,\sin\varphi &\rho\,\cos\theta\,\sin\varphi \\ \rho\,\cos\theta\,\cos\varphi &\rho\,\sin\theta\,\cos\varphi \end{matrix}\right] \right| \mathrm{d}\rho\, \mathrm{d}{\theta} \,\mathrm{d}\varphi\\ &=\rho^2 \big|-\cos^2\theta \sin^3\varphi - \sin^2\theta\sin^3\varphi -\sin\varphi\cos^2\varphi \big|\,\mathrm{d}\rho\, \mathrm{d}{\theta} \,\mathrm{d}\varphi\\ &=\rho^2 \big|-\sin\varphi \sin^2\varphi -\sin\varphi\cos^2\varphi \big|\,\mathrm{d}\rho\, \mathrm{d}{\theta} \,\mathrm{d}\varphi\\ &= \rho^2\sin\varphi\,\mathrm{d}\rho\, \mathrm{d}{\theta} \,\mathrm{d}\varphi \end{align*}
que es exactamente lo que encontramos en (3.7.3).
Opcional — Dejar caer términos de orden superior en\mathrm{d}u,\mathrm{d}v
En el curso de derivar (3.8.2), es decir, la\mathrm{d}A fórmula para
aproximamos, por ejemplo, los vectores
\begin{alignat*}{2} \overrightarrow{P_0P_1} &=\textbf{r}(u_0+\mathrm{d}u, v_0) -\textbf{r}(u_0\,,\,v_0) &= \frac{\partial \textbf{r}}{\partial u}(u_0\,,\,v_0)\,\mathrm{d}u + E_1 &\approx \frac{\partial \textbf{r}}{\partial u}(u_0\,,\,v_0)\,\mathrm{d}u\\ \overrightarrow{P_0P_2} &=\textbf{r}(u_0, v_0+\mathrm{d}v)-\textbf{r}(u_0\,,\,v_0) &= \frac{\partial \textbf{r}}{\partial v}(u_0\,,\,v_0)\,\mathrm{d}v + E_2 &\approx \frac{\partial \textbf{r}}{\partial v}(u_0\,,\,v_0)\,\mathrm{d}v \end{alignat*}
donde\textbf{E}_1 está delimitado 6 por unos tiempos constantes(\mathrm{d}u)^2 yE_2 está delimitado por unos tiempos constantes Es(\mathrm{d}v)^2\text{.} decir, asumimos que podríamos simplemente ignorar los errores y caerE_1 yE_2 poniéndolos a cero.
Así que aproximamos
\begin{align*} \left|\overrightarrow{P_0P_1}\times\overrightarrow{P_0P_2}\right| &=\left|\Big[\frac{\partial \textbf{r}}{\partial u}(u_0\,,\,v_0)\,\mathrm{d}u + \textbf{E}_1\Big] \times\Big[\frac{\partial \textbf{r}}{\partial v}(u_0\,,\,v_0)\,\mathrm{d}v + \textbf{E}_2\Big] \right|\\ &=\left|\frac{\partial \textbf{r}}{\partial u}(u_0\,,\,v_0)\,\mathrm{d}u \times\frac{\partial \textbf{r}}{\partial v}(u_0\,,\,v_0)\,\mathrm{d}v + \textbf{E}_3 \right|\\ &\approx \left|\frac{\partial \textbf{r}}{\partial u}(u_0\,,\,v_0)\,\mathrm{d}u \times\frac{\partial \textbf{r}}{\partial v}(u_0\,,\,v_0)\,\mathrm{d}v \right| \end{align*}
donde la longitud del vector\textbf{E}_3 está delimitada por tiempos constantes Ahora(\mathrm{d}u)^2\,\mathrm{d}v+\mathrm{d}u\,(\mathrm{d}v)^2\text{.} veremos por qué caer términos como\textbf{E}_3 no cambia el valor de la integral en absoluto 7. Supongamos que nuestro dominio de integración consiste en(u,v) todos's en un rectángulo de anchoW y altoH\text{,} como en la siguiente figura.
Subdivida el rectángulo en una cuadrícula den\times n pequeños subrectángulos dibujando líneas de constantev (las líneas rojas en la figura) y líneas de constanteu (las líneas azules en la figura). Cada subrectángulo tiene ancho\mathrm{d}u = \frac{W}{n} y alto\mathrm{d}v = \frac{H}{n}\text{.} Ahora supongamos que al configurar la integral hacemos, para cada subrectángulo, un error que está delimitado por algunos tiempos constantes
(\mathrm{d}u)^2\,\mathrm{d}v+\mathrm{d}u\,(\mathrm{d}v)^2 =\Big(\frac{W}{n}\Big)^2 \frac{H}{n} + \frac{W}{n}\Big(\frac{H}{n}\Big)^2 =\frac{WH(W+H)}{n^3} \nonumber
Debido a que hay un total den^2 subrectángulos, el error total que hemos introducido, para todos estos subrectángulos, no es mayor que un tiempo constante
n^2 \times \frac{WH(W+H)}{n^3} = \frac{WH(W+H)}{n} \nonumber
Cuando definimos nuestra integral tomando el límiten\rightarrow 0 de las sumas de Riemann, este error converge a exactamente0\text{.} Como consecuencia, fue seguro para nosotros ignorar los términos de error cuando establecimos el cambio de fórmulas variables.
- Mantendremos nuestro tercer deseo en reserva.
- Estamos abusando un poco de la notación aquí usandox yy tanto como coordenadas y como funciones. Podríamos escribirx=f(u,v) yy=g(u,v)\text{,} pero es más fácil de recordarx=x(u,v) yy=y(u,v)\text{.}
- Recordar 2.6.1.
- No lleva el nombre del Club Jacobino, un movimiento político de la revolución francesa. No lleva el nombre de las rebeliones jacobitas que tuvieron lugar en Gran Bretaña e Irlanda entre 1688 y 1746. No lleva el nombre de la era jacobea de la historia inglesa y escocesa. Lleva el nombre del matemático alemán Carl Gustav Jacob Jacobi (1804 — 1851). Murió de viruela.
- El nombre proviene del hecho de que tanto las curvas de constante comou las curvas de constantev son parábolas.
- Recuerda el error en las aproximaciones del polinomio de Taylor. Ver 2.6.13 y 2.6.14.
- Véase el opcional § 1.1.6 del texto CLP-2 para un argumento análogo relativo a las sumas de Riemann.