10.4: temp
( \newcommand{\kernel}{\mathrm{null}\,}\)
[rn:capítulo] [seq:capítulo] [lim:capítulo] [der:capítulo] [int:capítulo] [fs:capítulo] [ms:capítulo]
Tipografía en LaTeX.
Derechos de autor ©2012—2017 Ji ř í Lebl
Esta obra tiene licencia dual bajo la Licencia Creative Commons Reconocimiento-NoComercial-Compartir Igual 4.0 Internacional y la Licencia Creative Commons Reconocimiento-Compartir Igual 4.0 Internacional. Para ver una copia de estas licencias, visite http://creativecommons.org/licenses/by-nc-sa/4.0/ o http://creativecommons.org/licenses/by-sa/4.0/ o envíe una carta a Creative Commons PO Box 1866, Mountain View, CA 94042, USA.
Puedes usar, imprimir, duplicar, compartir este libro tanto como quieras. Puedes basar tus propias notas en él y reutilizar piezas si mantienes la misma licencia. Puedes asumir que la licencia es la CC-BY-NC-SA o CC-BY-SA, la que sea compatible con lo que desees hacer, tus obras derivadas deben usar al menos una de las licencias.
Durante la redacción de estas notas, el autor fue apoyado en parte por la subvención NSF DMS-1362337.
La fecha es el identificador principal de la versión. El número mayor de versión/ edición se eleva sólo si se han producido cambios sustanciales. Por ejemplo, la versión 1.0 es la primera edición, la 0ª actualización (aún no hay actualizaciones).
Consulte http://www.jirka.org/ra/ para obtener más información (incluida la información de contacto).
Introducción
Acerca de este libro
Este libro es la continuación de “Análisis Básico”. El libro está destinado a ser una continuación sin fisuras, por lo que los capítulos están numerados para comenzar donde lo dejó el primer volumen. El libro comenzó con mis notas para un análisis de licenciatura de segundo semestre en la Universidad de Wisconsin—Madison en 2012, donde utilicé mis notas junto con el libro de Rudin. En 2016, enseñé un análisis de licenciatura de segundo semestre en la Universidad Estatal de Oklahoma y modificé y limpié fuertemente las notas, esta vez usándolas como texto principal.
Planeo eventualmente agregar más temas sobre todo al final. Intentaré conservar la numeración actual en ediciones posteriores como siempre. Los nuevos temas que he planeado agregarían secciones y capítulos al final del libro en lugar de insertarse en el medio.
En su mayor parte, este segundo volumen depende de las partes no opcionales del volumen I, sin embargo, a veces se utilizan los bits opcionales como las derivadas de orden superior, por ejemplo en 6, 3, 6. Este libro no es necesariamente todo el curso del segundo semestre. Lo que tenía en mente para un curso de dos semestres es que algunos bits del primer volumen, como los espacios métricos, se cubren en el segundo semestre, mientras que algunos de los temas optativos del volumen I se cubren en el primer semestre. Dejar espacios métricos para el segundo semestre tiene más sentido ya que entonces el segundo semestre es la parte “multivariable” del curso.
Varias posibilidades para el material en este libro son:
1) 1 — 5, (quizás 1), 1 y 2.
2) 1 — 6, 1 — 3, 1 y 2.
3) Todo.
Cuando dirigí el curso en OSU, cubrí el primer libro menos espacios métricos y un par de secciones opcionales en el primer semestre. Entonces, en el segundo semestre, cubrí la mayor parte de lo que me salté del volumen I, incluidos los espacios métricos, y tomé la opción 2) anterior.
Varias variables y derivadas parciales
Espacios vectoriales, asignaciones lineales y convexidad
Nota: 2—3 conferencias
Espacios vectoriales
El espacio euclidiano yaRn ha hecho una aparición en el capítulo del espacio métrico. En este capítulo, extenderemos el cálculo diferencial que creamos para una variable a varias variables. La idea clave en el cálculo diferencial es aproximar funciones por líneas y funciones lineales. En varias variables debemos introducir un poco de álgebra lineal antes de poder seguir adelante. Así que comencemos con espacios vectoriales y funciones lineales sobre espacios vectoriales.
Si bien es común usar→x o el negritax para elementos deRn, especialmente en las ciencias aplicadas, usamos simplemente llanox, que es común en las matemáticas. Es decir,v∈Rn es un vector, lo que significa quev=(v1,v2,…,vn) es unan -tupla de números reales. 1
Es común escribir y tratar vectores como vectores de columna, es decir,n×1 matrices:\ [v = (v_1, v_2,\ ldots, v_n) = \ mbox {\ scriptsize $\ begin {bmatrix} v_1\\ v_2\\ vdots\\ vdots\\ v_n \ end {bmatrix} $}.\] Lo haremos cuando sea conveniente. Llamamos escalares de números reales para distinguirlos de los vectores.
El conjuntoRn tiene una denominada estructura de espacio vectorial definida en él. Sin embargo, a pesar de que vamos a estar viendo funciones definidas enRn, no todos los espacios que deseamos tratar son iguales aRn. Por lo tanto, definamos la noción abstracta del espacio vectorial.
DejarX ser un conjunto junto con operaciones de suma,+:X×X→X, y multiplicación,⋅:R×X→X, (usualmente escribimosax en lugar de\ (a \ cdot x\)). Xse denomina espacio vectorial (o espacio vectorial real) si se cumplen las siguientes condiciones:
- (La suma es asociativa) Siu,v,w∈X, entoncesu+(v+w)=(u+v)+w.
- (La adición es conmutativa) Siu,v∈X, entoncesu+v=v+u.
- (Identidad aditiva) Hay0∈X tal quev+0=v para todosv∈X.
- (Aditivo inverso) Para cadav∈X, hay un−v∈X, tal quev+(−v)=0.
- (Derecho distributivo) Sia∈R,u,v∈X, entoncesa(u+v)=au+av.
- (Derecho distributivo) Sia,b∈R,v∈X, entonces(a+b)v=av+bv.
- (La multiplicación es asociativa) Sia,b∈R,v∈X, entonces(ab)v=a(bv).
- (Identidad multiplicativa)1v=v para todosv∈X.
Los elementos de un espacio vectorial suelen llamarse vectores, aunque no sean elementos deRn (vectores en el sentido “tradicional”).
SiY⊂X es un subconjunto que es un espacio vectorial en sí mismo con las mismas operaciones, entoncesY se denomina subespacio o subespacio vectorial deX.
Un ejemplo de espacio vectorial esRn, donde la suma y la multiplicación por un escalar se realiza por componentes: ifa∈Rv=(v1,v2,…,vn)∈Rn,, y\ (w = (w_1, w_2,\ ldots, w_n)\ in {\ mathbb {R}} ^n\), entonces\ [\ begin {aligned} & v+w: = (v_1, v_2,\ ldots, v_n) + (w_1, w_2,\ lpuntos, w_n) = (v_1+w_1, v_2+w_2 ,\ ldots, v_n+w_n),\\ & a v: = a (v_1, v_2,\ ldots, v_n) = (a v_1, a v_2,\ ldots, a v_n). \ end {alineado}\]
En este libro nos ocupamos principalmente de espacios vectoriales que a menudo se pueden considerar como subconjuntos deRn, pero hay otros espacios vectoriales útiles en el análisis. Demos un par de ejemplos.
Un ejemplo trivial de un espacio vectorial (el más pequeño de hecho) es justoX={0}. Las operaciones se definen de la manera obvia. Siempre se necesita un vector cero para existir, así que todos los espacios vectoriales son conjuntos no vacíos.
El espacioC([0,1],R) de funciones continuas en el intervalo[0,1] es un espacio vectorial. Para dos funcionesf yg enC([0,1],R) ya∈R, hacemos las definiciones obvias def+g yaf:(f+g)(x):=f(x)+g(x),(af)(x):=a(f(x)). El 0 es la función que es idénticamente cero. Lo dejamos como un ejercicio para comprobar que se cumplen todas las condiciones del espacio vectorial.
El espacio de polinomiosc0+c1t+c2t2+⋯+cmtm es un espacio vectorial, denotémoslo porR[t] (los coeficientes son reales y la variable est). Las operaciones se definen de la misma manera que para las funciones anteriores. Supongamos que hay dos polinomios, uno de gradom y otro de gradon. Asumir\ (n \ geq m\) por simplicidad. Entonces\ [\ comienzan {reunidos} (c_0 + c_1 t + c_2 t^2 +\ cdots + c_m t^m) + (d_0 + d_1 t + d_2 t^2 +\ cdots + d_n t^n) =\\ (c_0+d_0) + (c_1+d_1) t + (c_2 + d_2) t^2 +\ puntos + (c_m+d_m) t^m + d_ {m+1} t^ {m+1} +\ cdots + d_n t^n\ end {reunidos}\] y\ [a (c_0 + c_1 t + c_2 t^2 +\ cdots + c_m t^m) = (ac_0) + (ac_1) t + (ac_2) t^2 +\ cdots + (ac_m) t^m.\] A pesar de lo que parece, noR[t] es equivalente aRn para ningunan. En particular, no es “dimensional finita”, vamos a hacer esta noción precisa en sólo un poquito. Se puede hacer un subespacio vectorial dimensional finito restringiendo el grado. Por ejemplo, si decimos quePn es el conjunto de polinomios de gradon o menos, entoncesPn es un espacio vectorial dimensional finito.
El espacioR[t] puede pensarse como un subespacio deC(R,R). Si restringimos el rango det a[0,1], seR[t] puede identificar con un subespacio deC([0,1],R).
A menudo es mejor pensar en espacios vectoriales “dimensionales finitos” aún más simples usando la noción abstracta en lugar de siempreRn. Es posible usar otros campos que no seanR en la definición (por ejemplo, es común usar los números complejosC), pero sigamos con los números reales 2.
Combinaciones lineales y dimensiones
Supongamos queX es un espacio vectorial,x1,x2,…,xk∈X son vectores ya1,a2,…,ak∈R son escalares. Entonces\ [a_1 x_1 + a_2 x_2 +\ cdots + a_k x_k\] se llama una combinación lineal de los vectores\ (x_1, x_2, \ ldots, x_k\).
SiY⊂X es un conjunto, entonces el lapso deY, o en notaciónspan(Y), es el conjunto de todas las combinaciones lineales de todos los subconjuntos finitos deY. También decimosY vanosspan(Y).
VamosY:={(1,1)}⊂R2. Entonces\ [\ operatorname {span} (Y) = \ {(x, x)\ in {\ mathbb {R}} ^2: x\ in {\ mathbb {R}}\}.\] Es decir,span(Y) es la línea que atraviesa el origen y el punto(1,1).
[ejemplo:vecspr2span] VamosY:={(1,1),(0,1)}⊂R2. Entonces\ [\ operatorname {span} (Y) = {\ mathbb {R}} ^2,\] como cualquier punto se(x,y)∈R2 puede escribir como una combinación lineal(x,y)=x(1,1)+(y−x)(0,1).
Una suma de dos combinaciones lineales es nuevamente una combinación lineal, y un múltiplo escalar de una combinación lineal es una combinación lineal, lo que demuestra la siguiente proposición.
DejarX ser un espacio vectorial. Para cualquieraY⊂X, el conjuntospan(Y) es un espacio vectorial en sí mismo. Es decir,span(Y) es un subespacio deX.
Si yaY es un espacio vectorial, entoncesspan(Y)=Y.
Un conjunto de vectores{x1,x2,…,xk}⊂X es linealmente independiente, si la única solución a\ [\ label {eq:lincomb} a_1 x_1 + a_2 x_2 +\ cdots + a_k x_k = 0\] es la solución triviala1=a2=⋯=ak=0. Un conjunto que no es linealmente independiente, es linealmente dependiente.
Un conjunto linealmente independienteB de vectores tal quespan(B)=X se llama una base deX. Por ejemplo, el conjuntoY de los dos vectores en es una base deR2.
Si un espacio vectorialX contiene un conjunto linealmente independiente ded vectores, pero ningún conjunto linealmente independiente ded+1 vectores, entonces decimos la dimensión odimX:=d. Si por todod∈N el espacio vectorialX contiene un conjunto de vectoresd linealmente independientes, decimos queX es infinito dimensional y escribirdimX:=∞.
Claramente para el espacio vectorial trivial,dim{0}=0. Veremos en un momento que cualquier subespacio vectorial deRn tiene una dimensión finita, y esa dimensión es menor o igual an.
Si un conjunto es linealmente dependiente, entonces uno de los vectores es una combinación lineal de los otros. En otras palabras, en [eq:lincomb] ifaj≠0, entonces resolvemos paraxj\ [x_j =\ frac {a_1} {a_j} x_1 +\ cdots + \ frac {a_ {j-1}} {a_j} x_ {j-1} + \ frac {a_ {j+1}} {a_j} x_ {j+1} + \ cdots + \ frac {a_k} {a_k} x_k.\] El vectorxj tiene al menos dos representaciones diferentes como combinaciones lineales de{x1,x2,…,xk}. El de arriba yxj en sí mismo.
SiB={x1,x2,…,xk} es una base de un espacio vectorialX, entonces cada puntoy∈X tiene una representación única de la formay=k∑j=1ajxj para algunos escalaresa1,a2,…,ak.
Caday∈X es una combinación lineal de elementos deB ya queX es el lapso deB. Por singularidad supongamosy=k∑j=1ajxj=k∑j=1bjxj, entoncesk∑j=1(aj−bj)xj=0. Por independencia lineal de la baseaj=bj para todosj.
ParaRn definimos\ [e_1: = (1,0,0,\ ldots,0),\ quad e_2: = (0,1,0,\ ldots,0),\ quad\ ldots,\ quad e_n: = (0,0,0,\ ldots,1),\] y llamamos a esto la base estándar deRn. Usamos las mismas letrasej para cualquieraRn, y en qué espacioRn estamos trabajando se entiende desde el contexto. Un cálculo directo muestra que{e1,e2,…,en} es realmente una base deRn; abarcaRn y es linealmente independiente. De hecho,x=(x1,x2,…,xn)=n∑j=1xjej.
[mv:dimprop] LetX ser un espacio vectorial yd un entero no negativo.
- [mv:dimprop:i] SiX está abarcado pord vectores, entoncesdimX≤d.
- [mv:dimprop:ii]dimX=d si y solo siX tiene una base ded vectores (y así cada base tiened vectores).
- [mv:dimprop:iii] En particular,dimRn=n.
- [mv:dimprop:iv] SiY⊂X es un subespacio vectorial ydimX=d, entoncesdimY≤d.
- [mv:dimprop:v] SidimX=d y un conjuntoT ded vectores abarcaX, entoncesT es linealmente independiente.
- [mv:dimprop:vi] SidimX=d y un conjuntoT dem vectores es linealmente independiente, entonces hay un conjuntoS ded−m vectores tal queT∪S es una base deX.
Empecemos con [mv:dimprop:i]. SupongamosS={x1,x2,…,xd} abarcaX, yT={y1,y2,…,ym} es un conjunto de vectores linealmente independientes deX. Eso queremos demostrarlom≤d. Escribiry1=d∑k=1ak,1xk, para algunos númerosa1,1,a2,1,…,ad,1, que podemos hacer comoS spansX. Uno de losak,1 es distinto de cero (de lo contrarioy1 sería cero), así que supongamos sin pérdida de generalidad que esto esa1,1. Entonces resolvemosx1=1a1,1y1−d∑k=2ak,1a1,1xk. En particular,{y1,x2,…,xd} spanX, ya que sex1 puede obtener de{y1,x2,…,xd}. Por lo tanto, hay algunos números para algunos númerosa1,2,a2,2,…,ad,2, de tal manera quey2=a1,2y1+d∑k=2ak,2xk. AsT es linealmente independiente, uno de losak,2 fork≥2 debe ser distinto de cero. Sin pérdida de generalidad supongamosa2,2≠0. Proceder a resolver para\ [x_2 =\ frac {1} {a_ {2,2}} y_2 -\ frac {a_ {1,2}} {a_ {2,2}} y_1 -\ sum_ {k=3} ^d \ frac {a_ {k,2}} {a_ {2,2}} x_k.\] En particular,{y1,y2,x3,…,xd} abarcaX.
Continuamos con este procedimiento. Sim<d, entonces ya terminamos. Entonces supongamosm≥d. Después ded los pasos obtenemos esos{y1,y2,…,yd} vanosX. Cualquier otro vectorv enX es una combinación lineal de{y1,y2,…,yd}, y por lo tanto no puede estar en,T yaT que es linealmente independiente. Entoncesm=d.
Veamos [mv:dimprop:ii]. Primero, siT es un conjunto de vectoresk linealmente independientes que no abarcanX, es decir\ (X\ setmenos \ operatorname {span} (T)\ not=\ emptyset\), luego elige un vector\ (v\ in X\ setmenos \ operatorname {span} (T)\). El conjuntoT∪{v} es linealmente independiente (ejercicio). SidimX=d, entonces debe existir algún conjunto linealmente independiente ded vectoresT, y éste debe abarcarX, de lo contrario podríamos elegir un conjunto mayor de vectores linealmente independientes. Entonces tenemos una base ded vectores. Por otro lado si tenemos una base ded vectores, es linealmente independiente y abarcaX por definición. Por [mv:dimprop:i] sabemos que no hay un conjunto de vectoresd+1 linealmente independientes, así que la dimensión debe serd.
Para [mv:dimprop:iii] aviso que{e1,e2,…,en} es una base deRn.
Para ver [mv:dimprop:iv], supongamos queY es un espacio vectorial yY⊂X, dondedimX=d. ComoX no puede contener vectoresd+1 linealmente independientes, tampoco puedeY.
Para [mv:dimprop:v] supongamos queT es un conjunto dem vectores que es linealmente dependiente y abarcaX. Entonces uno de los vectores es una combinación lineal de los otros. Por lo tanto si loT eliminamos obtenemos un conjunto dem−1 vectores que aún abarcanX ydimX≤m−1 por lo tanto por [mv:dimprop:i].
Para [mv:dimprop:vi] supongamos queT={x1,x2,…,xm} es un conjunto linealmente independiente. Seguimos el procedimiento anterior en la prueba de [mv:dimprop:ii] para seguir agregando vectores manteniendo el conjunto linealmente independiente. Como es la dimensiónd podemos agregar un vector exactamented−m veces.
Mappings lineales
Una funciónf:X→Y, cuando no loY esR, a menudo se llama un mapeo o un mapa en lugar de una función.
Un mapeoA:X→Y de espacios vectorialesX yY es lineal (o una transformación lineal) si para todosa∈R y cada unox,y∈X,A(ax)=aA(x),andA(x+y)=A(x)+A(y). solemos escribirAx en lugar deA(x) siA es lineal. SiA es uno a uno y sobre, entonces decimos queA es invertible, y denotamos la inversa porA−1. SiA:X→X es lineal, entonces decimos queA es un operador lineal encendidoX.
EscribimosL(X,Y) para el conjunto de todas las transformaciones lineales deX aY, y soloL(X) para el conjunto de operadores lineales enX. Sia∈R yA,B∈L(X,Y), defina las transformacionesaA yA+B por\ [(aA) (x) := AAx, \ qquad (A+B) (x) := Ax + Bx.\]
SiA∈L(Y,Z) yB∈L(X,Y), definir la transformaciónAB como la composiciónA∘B, es decir,ABx:=A(Bx).
Finalmente denotar porI∈L(X) la identidad: el operador lineal tal queIx=x para todosx.
No es difícil ver esoaA∈L(X,Y) yA+B∈L(X,Y), y esoAB∈L(X,Z). En particular,L(X,Y) es un espacio vectorial. Como el conjunto noL(X) es sólo un espacio vectorial, sino que también admite un producto, a menudo se le llama álgebra.
Una consecuencia inmediata de la definición de un mapeo lineal es: siA es lineal, entoncesA0=0.
SiA∈L(X,Y) es invertible, entoncesA−1 es lineal.
Dejara∈R yy∈Y. ComoA está en, entonces hay unx tal quey=Ax, y además ya que también es uno a unoA−1(Az)=z para todosz∈X. Entonces\ [A^ {-1} (ay) = A^ {-1} (AAx) = A^ {-1}\ bigl (A (ax)\ bigr) = ax = AA^ {-1} (y).\] Del mismo modo vamosy1,y2∈Y, yx1,x2∈X tal queAx1=y1 yAx2=y2, entonces\ [A^ {-1} (y_1+y_2) = A^ {-1} (Ax_1+Ax_2) = A^ {-1}\ bigl (A (x_1+x_2)\ bigr) = x_1+x_2 = A^ {-1} (y_1) + A^ {-1 } (y_2). \ qedhere\]
[mv:lindefonbasis] SiA∈L(X,Y) es lineal, entonces está completamente determinado por sus valores sobre una base deX. Además, siB es una base deX, entonces cualquier función˜A:B→Y se extiende a una función lineal enX.
Sólo probaremos esta propuesta para espacios dimensionales finitos, ya que no necesitamos espacios dimensionales infinitos. Para espacios dimensionales infinitos, la prueba es esencialmente la misma, pero un poco más difícil de escribir, así que sigamos con muchas dimensiones finitamente.
Seamos{x1,x2,…,xn} una base y supongamosAxj=yj. Cada unox∈X tiene una representación únicax=n∑j=1bjxj para algunos númerosb1,b2,…,bn. Por linealidad\ [Ax = A\ sum_ {j=1} ^n b_j x_j = \ sum_ {j=1} ^n b_j\, Ax_j = \ sum_ {j=1} ^n b_j\, y_j.\] El “además” sigue estableciendoyj:=˜A(xj), y definiendo la extensión comoAx:=∑nj=1bjyj. La función está bien definida por la singularidad de la representación dex. Dejamos que el lector compruebe queA es lineal.
La siguiente proposición solo funciona para espacios vectoriales de dimensiones finitas. Se trata de un caso especial del llamado teorema de rango-nulidad a partir del álgebra lineal.
[mv:prop:lin11onto] SiX es un espacio vectorial dimensional finito yA∈L(X), entoncesA es uno a uno si y solo si está en.
Dejemos{x1,x2,…,xn} ser una base paraX. Supongamos queA es uno a uno. Ahora supongamos\ [\ sum_ {j=1} ^n c_j\, ax_j = A\ sum_ {j=1} ^n c_j\, x_j = 0.\] ComoA es uno a uno, el único vector que se toma a 0 es el mismo 0. De ahí,\ [0 = \ sum_ {j=1} ^n c_j x_j\] ycj=0 para todosj. Así{Ax1,Ax2,…,Axn} es un conjunto linealmente independiente. Por y el hecho de que la dimensión esn, concluimos{Ax1,Ax2,…,Axn} lapsoX. Cualquier puntox∈X puede escribirse como\ [x =\ suma_ {j=1} ^n a_j\, Ax_j = A\ sum_ {j=1} ^n a_j\, x_j,\] asíA es sobre.
Ahora supongamos queA está en. Como loA determina la acción sobre la base vemos que cada elemento deX tiene que estar en el lapso de{Ax1,Ax2,…,Axn}. Supongamos que\ [A\ sum_ {j=1} ^n c_j\, x_j = \ sum_ {j=1} ^n c_j\, ax_j = 0.\] Por como{Ax1,Ax2,…,Axn} spanX, el conjunto es independiente, y por lo tantocj=0 para todosj. En otras palabras siAx=0, entoncesx=0. Esto quiere decir queA es uno a uno: SiAx=Ay, entoncesA(x−y)=0 y asíx=y.
Dejamos como ejercicio la prueba de la proposición siguiente.
[PROP:lxyfiniteDim] SiX yY son espacios vectoriales de dimensiones finitas, entonces tambiénL(X,Y) es dimensional finita.
Finalmente notemos que a menudo identificamos un espacio vectorial dimensional finitoX de dimensiónn conRn, siempre que fijemos una base\ (\ {x_1, x_2,\ ldots, x_n\}\) enX. Es decir, definimos un mapa lineal biyectivaA∈L(X,Rn) porAxj=ej, donde{e1,e2,…,en}. Entonces tenemos la correspondencia\ [\ sum_ {j=1} ^n c_j\, x_j\,\ in X \ quad \ overset {A} {\ mapsto} \ quad (c_1, c_2,\ ldots, c_n)\,\ in {\ mathbb {R}} ^n.\]
Convexidad
Un subconjuntoU de un espacio vectorial es convexo si siemprex,y∈U, el segmento de línea dex ay se encuentra enU. Es decir, si la combinación convexa(1−t)x+ty está enU para todost∈[0,1]. Ver.
Tenga en cuenta que enR, cada intervalo conectado es convexo. EnR2 (o dimensiones superiores) hay muchos conjuntos conectados no convexos. Por ejemplo el conjunto noR2∖{0} es convexo sino que está conectado. Para ver esto simplemente toma cualquierax∈R2∖{0} y dejay:=−x. Entonces(\nicefrac12)x+(\nicefrac12)y=0, que no está en el set. Por otro lado, la bolaB(x,r)⊂Rn (usando la métrica estándar onRn) es convexa por la desigualdad triangular.
Demostrar que enRn cualquier bolaB(x,r) parax∈Rn yr>0 es convexa.
Cualquier subespacioV de un espacio vectorialX es convexo.
Un ejemplo algo más complicado lo da el siguiente. DejarC([0,1],R) ser el espacio vectorial de funciones continuas de valor real enR. DejarX⊂C([0,1],R) ser el conjunto de aquellosf tales que\ [\ int_0^1 f (x) ~dx\ leq 1\ qquad\ text {y}\ qquad f (x)\ geq 0\ text {para todos $x\ in [0,1] $}.\] EntoncesX es convexo. Tomat∈[0,1], y toma nota de que sif,g∈X, entoncestf(x)+(1−t)g(x)≥0 para todosx. Además\ [\ int_0^1\ bigl (tf (x) + (1-t) g (x)\ bigr) ~dx = t\ int_0^1 f (x) ~dx + (1-t)\ int_0^1 g (x) ~dx\ leq 1.\] Tenga en cuenta que noX es un subespacio deC([0,1],R).
La intersección de dos conjuntos convexos es convexa. De hecho, si{Cλ}λ∈I es una colección arbitraria de conjuntos convexos, entoncesC:=⋂λ∈ICλ es convexa.
Six,y∈C, entoncesx,y∈Cλ para todosλ∈I, y por lo tanto sit∈[0,1], entonces\ (tx + (1-t) y\ en C_\ lambda\) para todosλ∈I. Por lo tantotx+(1−t)y∈C yC es convexa.
DejarT:V→W ser un mapeo lineal entre dos espacios vectoriales y dejarC⊂V ser un conjunto convexo. EntoncesT(C) es convexo.
Toma dos puntos cualquierap,q∈T(C). Escogex,y∈C tal queTx=p yTy=q. ComoC es convexo, entoncestx+(1−t)y∈C para todost∈[0,1], así\ [tp+ (1-t) q = TTx+ (1-t) Ty = T\ bigl (tx+ (1-t) y\ bigr) \ en T (C). \ qedhere\]
Para completar, una construcción muy útil es el casco convexo. Dado cualquier conjuntoS⊂V de un espacio vectorial, defina el casco convexo deS, por\ [\ operatorname {co} (S) := \ bigcap\ {C\ subconjunto V: S\ subconjunto C,\ text {y $C$ es convexo}\}.\] Es decir, el casco convexo es el conjunto convexo más pequeño que contieneS. Por una proposición anterior, la intersección de conjuntos convexos es convexa y por lo tanto, el casco convexo es convexo.
El casco convexo de 0 y 1 inR es[0,1]. Prueba: Cualquier conjunto convexo que contenga 0 y 1 debe contener[0,1]. El conjunto[0,1] es convexo, por lo tanto debe ser el casco convexo.
Ejercicios
Verifica queRn sea un espacio vectorial.
DejarX ser un espacio vectorial. Demostrar que un conjunto finito de vectores{x1,…,xn}⊂X es linealmente independiente si y solo si por cadaj=1,2,…,n\ [\ operatorname {span} (\ {x_1,\ ldots, x_ {j-1}, x_ {j+1},\ ldots, x_n\}) \ subsetneq\ operatorname {span} (\ {x_1,\ ldots, x_n\}). Es decir, el lapso del conjunto con un vector eliminado es estrictamente menor.
Mostrar que el conjuntoX⊂C([0,1],R) de esas funciones tal que∫10f=0 es un subespacio vectorial.
ProbarC([0,1],R) es un espacio vectorial dimensional infinito donde las operaciones se definen de la manera obvia:s=f+g ym=fg se definen comos(x):=f(x)+g(x) ym(x):=f(x)g(x). Pista: para la dimensión, piense en funciones que solo son distintas de cero en el intervalo(\nicefrac1n+1,\nicefrac1n).
Dejark:[0,1]2→R ser continuo. Mostrar queL:C([0,1],R)→C([0,1],R) definido porLf(y):=∫10k(x,y)f(x) dx es un operador lineal. Es decir, mostrar queL está bien definido (queLf es continuo), y esoL es lineal.
DejarPn ser el espacio vectorial de polinomios en una variable de gradon o menos. Mostrar quePn es un espacio vectorial de dimensiónn+1.
DejarR[t] ser el espacio vectorial de polinomios en una variablet. DejarD:R[t]→R[t] ser el operador derivado (derivado ent). Mostrar queD es un operador lineal.
Demostremos que sólo funciona en dimensiones finitas. TomarR[t] y definir el operadorA:R[t]→R[t] porA(P(t))=tP(t). Mostrar queA es lineal y uno a uno, pero demuestra que no es sobre.
Terminar la prueba de en el caso de dimensiones finitas. Es decir, supongamos,{x1,x2,…xn} es una base deX,{y1,y2,…yn}⊂Y y definimos una funciónAx:=n∑j=1bjyj,ifx=n∑j=1bjxj. Entonces probaremos queA:X→Y es lineal.
Demostrar. Pista: Un operador lineal está determinado por su acción sobre una base. Así que dadas dos bases{x1,…,xn} y{y1,…,ym} paraX yY respectivamente, consideremos los operadores linealesAjk que envíanAjkxj=yk, yAjkxℓ=0 siℓ≠j.
SupongamosX yY son espacios vectoriales yA∈L(X,Y) es un operador lineal.
a) Mostrar que el espacio nullspaceN:={x∈X:Ax=0} es un vectorspace.
b) Mostrar que el rango\boldsymbol{R := \{ y \in Y : Ax = y \text{ for some} x X\boldsymbol{} \}} es un vectorespacio.
Mostrar con el ejemplo que una unión de conjuntos convexos no necesita ser convexa.
Calcular el casco convexo del conjunto de 3 puntos{(0,0),(0,1),(1,1)} pulgR2.
Mostrar que el conjunto{(x,y)∈R2:y>x2} es un conjunto convexo.
Mostrar que el conjuntoX⊂C([0,1],R) de esas funciones tal que∫10f=1 es un conjunto convexo, pero no un subespacio vectorial.
Demuestre que cada conjunto convexo enRn está conectado usando la topología estándar enRn.
Supongamos queK⊂R2 es un conjunto convexo tal que el único punto de la forma(x,0) enK es el punto(0,0). Además supongamos que ahí(0,1)∈K y(1,1)∈K. Entonces demuéstralo si(x,y)∈K, entoncesy>0 a menos quex=0.
Análisis con espacios vectoriales
Nota: 2-3 conferencias
Normas
Empecemos a medir la distancia.
SiX es un espacio vectorial, entonces decimos que una función‖⋅‖:X→R es una norma si:
- [defn:norm:i]‖x‖≥0, con‖x‖=0 si y solo six=0.
- [defn:norm:ii]‖cx‖=|c|‖x‖ para todosc∈R yx∈X.
- [defn:norm:iii]‖x+y‖≤‖x‖+‖y‖ para todosx,y∈X (Desigualdad triangular).
Antes de definir la norma estándar enRn, definamos el producto escalar estándar de punto enRn. Para dos vectores six=(x1,x2,…,xn)∈Rn yy=(y1,y2,…,yn)∈Rn, definirx⋅y:=n∑j=1xjyj. Es fácil ver que el producto punto es lineal en cada variable por separado, es decir, es un mapeo lineal cuando se mantiene constante una de las variables. La norma euclidiana se define como‖x‖:=‖x‖Rn:=√x⋅x=√(x1)2+(x2)2+⋯+(xn)2. Normalmente solo usamos‖x‖, pero a veces será necesario enfatizar que estamos hablando de la norma euclidiana y el uso‖x‖Rn. Es fácil ver que la norma euclidiana satisface [defn:norm:i] y [defn:norm:ii]. Para probar que [defn:norm:iii] sostiene, la desigualdad clave es la llamada desigualdad de Cauchy-Schwarz que vimos antes. Como esta desigualdad es tan importante, reafirmémosla y reprobémosla usando la notación de este capítulo.
Vamosx,y∈Rn, entonces|x⋅y|≤‖x‖‖y‖=√x⋅x√y⋅y, con igualdad si y sólo si los vectores son múltiplos escalares entre sí.
Six=0 oy=0, entonces el teorema sostiene trivialmente. Así quex≠0 asumamos yy≠0.
Six es un múltiplo escalar dey, eso esx=λy para algunosλ∈R, entonces el teorema se sostiene con igualdad:\ [\ izquierda\ lvert {\ lambda y\ cdot y}\ derecha\ rvert =\ izquierda\ lvert {\ lambda}\ derecha\ rvert\,\ izquierda\ lvert {y\ cdot y}\ derecha\ rvert = \ izquierda\ lvert {\ lambda}\ derecha\ rvert\,\ LVert {y}\ RVert^2 =\ lVert {\ lambda y}\ rVert\ lVert {y}\ rVert.\]
Siguiente tomax+ty, encontramos que‖x+ty‖2 es un polinomio cuadrático ent:\ [\ lVert {x+ty}\ rVert^2 = (x+ty)\ cdot (x+ty) = x\ cdot x + x\ cdot ty + ty\ cdot x + ty\ cdot ty = \ lVert {x}\ rVert^2 + 2t (x\ cdot y) + t^2\ lVert {y}\ rVert^2.\] Si nox es un múltiplo escalar dey, entonces‖x+ty‖2>0 para todost. Entonces el polinomio nunca‖x+ty‖2 es cero. El álgebra elemental dice que el discriminante debe ser negativo:4(x⋅y)2−4‖x‖2‖y‖2<0, o en otras palabras(x⋅y)2<‖x‖2‖y‖2.
El ítem [defn:norm:iii], la desigualdad del triángulo, sigue a través de un simple cálculo:\ [\ lVert {x+y}\ rVert^2 = x\ cdot x + y\ cdot y + 2 (x\ cdot y) \ leq \ lVert {x}\ rVert^2 +\ lVert^2 + 2 (\ lVert {x}\ rVert\ lVert {y}\ rVert) = {(\ lVert {x}\ RVert +\ lVert {y}\ RVert) } ^2.\]
La distanciad(x,y):=‖x−y‖ es la función de distancia estándarRn que usamos cuando hablamos de espacios métricos.
De hecho, en cualquier espacio vectorialX, una vez que tenemos una norma (cualquier norma), definimos una distanciad(x,y):=‖x−y‖ queX se convierte en un espacio métrico (un ejercicio fácil).
VamosA∈L(X,Y). Definir\ [\ lVert {A}\ rVert: = \ sup\ {\ lVert {Ax}\ rVert: x\ in X ~\ texto {con} ~\ lVert {x}\ rVert = 1\}.\] El número‖A‖ se llama la norma del operador. Veremos a continuación que efectivamente es una norma (al menos para espacios dimensionales finitos). Nuevamente, cuando sea necesario enfatizar de qué norma estamos hablando, podemos escribirla como‖A‖L(X,Y).
Por linealidad,‖Ax‖x‖‖=‖Ax‖‖x‖, para cualquier distinto de cerox∈X. El vectorx‖x‖ es de norma 1. Por lo tanto,\ [\ lVert {A}\ rVert = \ sup\ {\ lVert {Ax}\ rVert: x\ in X ~\ texto {con} ~\ lVert {x}\ rVert = 1 \} =\ sup_ {\ suback {x\ en X\\ x\ neq 0}}\ frac {\ lVert {Ax}\ rVert} {\ lVert {x}\ rVert}.\] Esto implica que‖Ax‖≤‖A‖‖x‖.
No es difícil ver por la definición que‖A‖=0 si y solo siA=0, es decir, siA lleva cada vector al vector cero.
Tampoco es difícil ver la norma del operador de identidad:\ [\ lVert {I}\ rVert =\ sup_ { \ suback {x\ in X\\ x\ neq 0}}\ frac {\ lVert {Ix}\ rVert} {\ lVert {x}\ rVert} = \ sup_ {\ subestack {x\ in X\ x\ neq 0}\ frac {\ lVert {x}\ rVert} {\ lVert {x}\ rVert} = 1.\]
Para espacios dimensionales finitos, siempre‖A‖ es finito como probamos a continuación. Esto también implica queA es continuo. Para espacios dimensionales infinitos ninguna declaración necesita ser verdadera. Para un ejemplo simple, tome el espacio vectorial de funciones continuamente diferenciables[0,1] y como norma use la norma uniforme. Las funcionessin(nx) tienen norma 1, pero las derivadas tienen norman. Entonces la diferenciación (que es un operador lineal) tiene una norma sin límites en este espacio. Pero apegémonos ahora a los espacios dimensionales finitos.
Cuando hablamos de espacio vectorial dimensional finito, a menudo se piensa en elloRn, aunque si tenemos una norma, quizás la norma podría no ser la norma euclidiana estándar. En los ejercicios, se puede demostrar que cada norma es “equivalente” a la norma euclidiana en que la topología que genera es la misma. Por simplicidad, solo probamos la siguiente proposición para el espacio euclidiano, y la prueba de un espacio dimensional finito general se deja como ejercicio.
[prop:finitedimpropnormfin] DejarX yY ser espacios vectoriales dimensionales finitos con una norma. SiA∈L(X,Y), entonces‖A‖<∞, yA es uniformemente continuo (Lipschitz con constante‖A‖).
Como dijimos solo probamos la proposición para el espacio euclidiano así que supongamos queX=RnY=Rm y y la norma es la norma euclidiana estándar. El caso general se deja como ejercicio.
Dejar{e1,e2,…,en} ser la base estándar deRn. Escribex∈Rn, con‖x‖=1, comox=n∑j=1cjej. Desdeej⋅eℓ=0 siemprej≠ℓ yej⋅ej=1, entoncescj=x⋅ej y\ [\ izquierda\ lvert {c_j}\ derecha\ rvert =\ izquierda\ lvert {x\ cdot e_j}\ derecha\ rvert\ leq \ lVert {x}\ rVert\ lVert {e_j}\ rVert = 1.\] Entonces\ [\ lVert {Ax}\ rVert = \ izquierda\ lVert {\ suma_ {j=1 } ^n c_j AE_j}\ derecha\ rVert \ leq \ suma_ {j=1} ^n\ izquierda\ lvert {c_j}\ derecha\ rvert\ lVert {AE_j}\ rVert \ leq \ suma_ {j=1} ^n\ lVert {AE_j}\ rVert.\] El lado derecho no depende dex. Encontramos un límite superior finito independiente dex, entonces‖A‖<∞.
Ahora para cualquier espacio vectorialX yY, yA∈L(X,Y), supongamos que‖A‖<∞. Parav,w∈X,‖A(v−w)‖≤‖A‖‖v−w‖. As‖A‖<∞, entonces esto diceA es Lipschitz con constante‖A‖.
[prop:finitedimpropnorm] DejarX,Y, yZ ser espacios vectoriales dimensionales finitos con una norma.
- [item:finitedimpropnorm:i] SiA,B∈L(X,Y) yc∈R, entonces‖A+B‖≤‖A‖+‖B‖,‖cA‖=|c|‖A‖. En particular, la norma del operador es una norma sobre el espacio vectorialL(X,Y).
- [item:finitedimpropnorm:ii] SiA∈L(X,Y) yB∈L(Y,Z), entonces‖BA‖≤‖B‖‖A‖.
Para [item:finitedimpropnorm:i],\ [\ lVert {(A+B) x}\ rVert = \ lVert {Ax+Bx}\ rVert\ leq \ lVert {Ax}\ rVert+\ lVert {Bx}\ rVert\ leq \ lVert {A}\ rVert\ lVert {x}\ rVert+\ lVert {B {}\ rVert\ lVert {x}\ rVert = (\ lVert {A}\ rVert+\ lVert {B}\ rVert)\ lVert {x}\ rVert.\] Así‖A+B‖≤‖A‖+‖B‖.
Del mismo modo,\ [\ lVert {(cA) x}\ rVert = \ izquierda\ lvert {c}\ derecha\ rvert\ lVert {Ax}\ rVert\ leq (\ izquierda\ lvert {c}\ derecha\ rVert\ lVert {A}\ rVert)\ lVert {x}\ rVert.\] Así‖cA‖≤|c|‖A‖. A continuación,\ [\ izquierda\ lvert {c}\ derecha\ rvert\ lVert {Ax}\ rVert = \ lVert {caX}\ rVert\ leq\ lVert {cA}\ rVert\ lVert {x}\ rVert.\] De ahí|c|‖A‖≤‖cA‖.
Para [item:finitedimpropnorm:ii] escribe\ [\ lVert {baX}\ rVert\ leq\ lVert {B}\ rVert\ lVert {Ax}\ rVert\ leq\ lVert {B}\ rVert\ lVert {A}\ RVert\ lVert {x}\ rVert. \ qedhere\]
Como una norma define una métrica, hay una topología espacial métrica encendidaL(X,Y), por lo que podemos hablar de conjuntos abiertos/cerrados, continuidad y convergencia.
[prop:finitedimpropinv] LetX Ser un espacio vectorial dimensional finito con una norma. DejarU⊂L(X) ser el conjunto de operadores lineales invertibles.
[finitedimpropinv:i] SiA∈U yB∈L(X), y\ [\ label {eqcontineq} \ lVert {A-B}\ rVert <\ frac {1} {\ lVert {A^ {-1}}\ rVert},\] entoncesB es invertible.
- [finitedimpropinv:ii]U está abierto yA↦A−1 es una función continua enU.
Demos sentido a esto en un ejemplo sencillo. Piense enR1, donde los operadores lineales son solo númerosa y la norma del operador dea es simplemente|a|. El operadora es invertible (a−1=\nicefrac1a) cuando seaa≠0. De hecho, la condición|a−b|<1|a−1| implica que nob es cero. Ya↦\nicefrac1a es un mapa continuo. Cuandon>1, entonces hay otros operadores no invertibles que solo cero, y en general las cosas son un poco más difíciles.
Demostremos [finitedimpropinv:i]. Sabemos algo sobreA−1 y algo sobreA−B. Se trata de operadores lineales así que vamos a aplicarlos a un vector. \ [A^ {-1} (A-B) x = X-a^ {-1} Bx.\] Por lo tanto,\ [\ comenzar {dividir} \ lVert {x}\ rVert & = \ lVert {A^ {-1} (A-B) x + A^ {-1} Bx}\ rVert\\ & \ leq \ lVert {A^ {-1}}\ rVert\ lVert {B}\ rVert\ lVert {x}\ RVert +\ lVert {A^ {-1}}\ RVert\ lVert {Bx}\ RVert. \ end {split}\] Ahora asumax≠0 y así‖x‖≠0. Usando [eqcontineq] obtenemos‖x‖<‖x‖+‖A−1‖‖Bx‖, o en otras palabras‖Bx‖≠0 para todos los distintos de cerox, y por lo tantoBx≠0 para todos los distintos de cerox. Esto es suficiente para ver queB es uno a uno (siBx=By, entoncesB(x−y)=0, asíx=y). ComoB es operador uno a uno desdeX elX cual es dimensional finito y por lo tanto es invertible.
Veamos [finitedimpropinv:ii]. Arreglar algunosA∈U. QueB sea invertible y cercaA, es decir‖A−B‖‖A−1‖<\nicefrac12. Entonces [eqcontineq] queda satisfecho. Hemos mostrado arriba (usandoB−1y en lugar dex)\ [\ lVert {B^ {-1} y}\ rVert\ leq \ lVert {A^ {-1}}\ RVert\ lVert {A-B}\ RVert\ lVert {B^ {-1} y}\ RVert +\ lVert {A^ {-1}}\ RVert\ lVert {y}\ RVert \ leq \ nicefrac {1} {2}\ lVert {B^ {-1} y}\ rVert +\ lVert {A^ {-1}}\ rVert\ lVert {y}\ rVert,\] o\ [\ LVert {B^ {-1} y}\ rVert\ leq %\ frac {1} {1-\ snorm {A^ {-1}}\ snorm {A-B})\ snorm {A^ {-1}}\ snorm {y}. 2\ lVert {A^ {-1}}\ rVert\ lVert {y}\ rVert.\] Entonces\ (\ lVert {B^ {-1}}\ rVert\ leq 2\ lVert {A^ {-1}}\ rVert %\ frac {\ snorm {A^ {-1}}} {1-\ snorm {A^ {-1}}\ snorm {A-B})}.\).
Ahora\ [A^ {-1} (A-B) B^ {-1} = A^ {-1} (AB^ {-1} -I) = B^ {-1} -A^ {-1},\] y\ [\ lVert {B^ {-1} -A^ {-1}}\ rVert = \ lVert {A^ {-1} (A-B) B^ {-1}}\ rVert\ leq \ lVert {A^ {-1}}\ rVert\ lVert {A-B}\ rVert\ lVert {B^ {-1}} \ rVert\ leq %\ frac {\ snorm {A^ {-1}} ^2} {1-\ snorm {A^ {-1}}\ snorm {A-B})} %\ snorm {A-B} % \ leq 2\ lVert {A^ {-1}}\ rVert^2 \ lVert {A-B}\ rVert.\] Por lo tanto, si comoB tiende aA,‖B−1−A−1‖ tiende a 0, y así la operación inversa es una función continua enA.
Matrices
Como señalamos anteriormente, una vez que fijamos una base en un espacio vectorial dimensional finitoX, podemos representar un vector deX como unan -tupla de números, es decir, un vector enRn. Lo mismo se puede hacer conL(X,Y), lo que nos lleva a matrices, que son una manera conveniente de representar transformaciones lineales finito-dimensionales. Supongamos{x1,x2,…,xn} y{y1,y2,…,ym} son bases para espacios vectorialesX yY respectivamente. Un operador lineal está determinado por sus valores sobre la base. DadoA∈L(X,Y),Axj es un elemento deY. Por lo tanto, define los números{ai,j} de la siguiente maneraAxj=m∑i=1ai,jyi, y escríbelos como una matriz \ [A =\ begin {bmatrix} a_ {1,1} & a_ {1,2} &\ cdots & a_ {1, n}\\ a_ {2,1} & a_ {2,2} & \ cdots & a_ {2, n}\\\ vdots &\ ddots\\ a_ {,1} y amp; a_ {m,2} &\ cdots & a_ {m, n} \ end {bmatrix}.\] Y decimos queA es unan matrizm -by-. Las columnas de la matriz son precisamente los coeficientes que representanAxj. Derivamos la regla familiar para la multiplicación matricial.
Cuandoz=n∑j=1cjxj, entonces\ [A z = \ suma_ {j=1} ^n c_j\, A x_j = \ suma_ {j=1} ^n c_j\ izquierda (\ suma_ {i=1} ^m a_ {i, j}\, y_i\ derecha) = \ suma_ {i=1} ^m\ izquierda (suma_ {j=1} ^n a_ {i, j}\, c_j\ right) y_i,\] que da lugar a la regla familiar para la multiplicación matricial.
Hay una correspondencia uno a uno entre matrices y operadores lineales enL(X,Y). Es decir, una vez que fijamos una base enX y enY. Si escogiéramos una base diferente, obtendríamos diferentes matrices. Esto es importante, el operadorA actúa sobre elementos deX, la matriz es algo que funciona conn -tuplas de números, es decir, vectores deRn.
SiB es unar matrizn -by- con entradasbj,k, entonces la matriz paraC=AB es unar matrizm -by- cuyai,k ésima entradaci,k es\ [c_ {i, k} = \ sum_ {j=1} ^n a_ {i, j}\, b_ {j, k}.\] Una manera de recordarlo es si ordenas los índices como nosotros, es decir fila, columna, y poner los elementos en el mismo orden que las matrices, entonces es el “índice medio” que es “resumido”.
Un mapeo lineal que cambia una base a otra es una matriz cuadrada en la que las columnas representan elementos base de la segunda base en términos de la primera base. Llamamos a tal mapeo lineal un cambio de base.
Supongamos que todas las bases son solo las bases estándar yX=Rn yY=Rm. Recordemos la desigualdad Cauchy-Schwarz y computa\ [\ lVert {Az} \ rVert^2 =\ sum_ {i=1} ^m {\ left (\ sum_ {j=1} ^n a_ {i, j} c_j\ right)} ^2 \ leq\ sum_ {i=1} ^m {\ left (\ sum_ {j=1} ^n {(c_j)} ^2\ derecha)\ izquierda (\ suma_ {j=1} ^n {(a_ {i, j})} ^2\ derecha)} = \ suma_ {i=1} ^m\ izquierda (\ suma_ {j=1} ^n {(a_ {i, j})} ^2\ derecha) \ lVert {z}\ rVert^2.\] En otras palabras, tenemos un límite en la norma del operador (tenga en cuenta que la igualdad rara vez ocurre)\ [\ lVert {A}\ rVert \ leq\ sqrt {\ sum_ {i=1} ^m\ sum_ {j=1} ^n {(a_ {i, j})} ^2}.\] Si las entradas van a cero, luego‖A‖ va a cero. En particular, siA es fijo yB está cambiando de tal manera que las entradas deA−B van a cero, luegoB va aA en norma de operador. Es decir,B va aA en la topología espacial métrica inducida por la norma del operador. Demostramos la primera parte de:
Sif:S→Rnm es una función continua para un espacio métricoS, entonces tomar los componentes def como las entradas de una matriz,f es un mapeo continuo deS aL(Rn,Rm). Por el contrario, sif:S→L(Rn,Rm) es una función continua, entonces las entradas de la matriz son funciones continuas.
La prueba de la segunda parte es bastante fácil. Tomaf(x)ej y nota que es una función continua aRm con norma euclidiana estándar:\ (\ lVert {f (x) e_j - f (y) e_j}\ rVert = \ lVert {\ bigl (f (x) - f (y)\ bigr) e_j}\ rVert\ leq \ lVert {f (x) - f (y)}\ rVert\), así comox→y, entonces‖f(x)−f(y)‖→0 y así‖f(x)ej−f(y)ej‖→0. Tal función es continua si y sólo si sus componentes son continuos y estos son los componentes de laj ésima columna de la matrizf(x).
Determinantes
Un cierto número se puede asignar a matrices cuadradas que miden cómo el mapeo lineal correspondiente estira el espacio. En particular, este número, llamado el determinante, puede ser utilizado para probar la invertibilidad de una matriz.
Primero define el símbolosgn(x) para un número es definido por\ [\ operatorname {sgn} (x) : = \ begin {cases} -1 &\ text {if $x < 0$},\\ 0 &\ text {if $x = 0$},\\ 1 &\ text {if $x > 0$}. \ end {cases}\] Supongamos queσ=(σ1,σ2,…,σn) es una permutación de los enteros(1,2,…,n), es decir, un reordenamiento de(1,2,…,n). Cualquier permutación se puede obtener mediante una secuencia de transposiciones (conmutaciones de dos elementos). Llamar a una permutación incluso (resp. impar) si se necesita un número par (resp. impar) de transposiciones para llegar deσ a(1,2,…,n). Se puede demostrar que esto está bien definido (ejercicio). De hecho, define\ [\ label {eq:sgndef} \ operatorname {sgn} (\ sigma) :=\ operatorname {sgn} (\ sigma_1,\ ldots,\ sigma_n) = \ prod_ {p < q}\ operatorname {sgn} (\ sigma_q-\ sigma_p).\] Entonces se puede mostrarsgn(σ) es decir1 siσ es par y−1 siσ es impar. Este hecho se puede probar al señalar que aplicar una transposición cambia el signo. Entonces tenga en cuenta que el signo de(1,2,…,n) es 1.
DejarSn ser el conjunto de todas las permutaciones sobren los elementos (el grupo simétrico). DejarA=[ai,j] ser unan×n matriz cuadrada. Definir el determinante deA\ [\ det (A) := \ sum_ {\ sigma\ in s_n} \ nombreoperador {sgn} (\ sigma)\ prod_ {i=1} ^n a_ {i,\ sigma_i}.\]
- [prop:det:i]\det(I) = 1.
- [prop:det:ii]\det([x_1 ~~ x_2 ~~ \cdots ~~ x_n ]) como función de vectores de columnax_j es lineal en cada variablex_j por separado.
- [prop:det:iii] Si se intercambian dos columnas de una matriz, entonces el determinante cambia de signo.
- [prop:det:iv] Si dos columnas deA son iguales, entonces\det(A) = 0.
- [prop:det:v] Si una columna es cero, entonces\det(A) = 0.
- [prop:det:vi]A \mapsto \det(A) es una función continua.
[prop:det:vii]\ (\ det\ left [\ begin {smallmatrix} a & b\\ c &d\ end {smallmatrix}\ right] = ad-bc\), y\det [a] = a.
De hecho, el determinante es la función única que satisface [prop:det:i], [prop:det:ii] y [prop:det:iii]. Pero nosotros digremos. Por [prop:det:ii], queremos decir que si arreglamos todos los vectoresx_1,\ldots,x_n exceptox_j y pensamos en el determinante como función dex_j, es una función lineal. Es decir, siv,w \in {\mathbb{R}}^n son dos vectores, ya,b \in {\mathbb{R}} son escalares, entonces\ [\ begin {reunió} \ det ([x_1 ~~\ cdots ~~ x_ {j-1} ~~ (av+bw) ~~ x_ {j+1} ~~\ cdots ~~ x_n]) = \\ a\ det ([x_1 ~~\ cdots ~~ x_ {j-1} v ~~ x_ {j+1} ~~\ cdots ~~ x_n]) + b \ det ([x_1 ~~\ cdots ~~ x_ {j-1} ~~ w ~~ x_ {j+1} ~~\ cdots ~~ x_n]). \ end {reunido}\]
Pasamos por la prueba rápidamente, como es probable que hayas visto esto antes.
[prop:det:i] es trivial. Para [prop:det:ii], observe que cada término en la definición del determinante contiene exactamente un factor de cada columna.
Parte [prop:det:iii] sigue señalando que cambiar dos columnas es como cambiar los dos números correspondientes en cada elemento enS_n. De ahí que se cambien todos los signos. Parte [prop:det:iv] sigue porque si dos columnas son iguales y las cambiamos obtenemos la misma matriz de vuelta y así parte [prop:det:iii] dice que el determinante debe haber sido 0.
Parte [prop:det:v] sigue porque el producto en cada término en la definición incluye un elemento de la columna cero. Parte [prop:det:vi] sigue como\det es un polinomio en las entradas de la matriz y por lo tanto continuo. Hemos visto que una función definida en matrices es continua en la norma del operador si es continua en las entradas. Por último, la parte [prop:det:vii] es un cómputo directo.
El determinante nos habla de áreas y volúmenes, y cómo cambian. Por ejemplo, en el1 \times 1 caso, una matriz es solo un número, y el determinante es exactamente este número. Dice cómo el mapeo lineal “estira” el espacio. De manera similar para{\mathbb{R}}^2 (y de hecho para{\mathbb{R}}^n). Supongamos queA \in L({\mathbb{R}}^2) es una transformación lineal. Se puede comprobar directamente que el área de la imagen de la unidad cuadradaA([0,1]^2) es precisa\left\lvert {\det(A)} \right\rvert. El signo del determinante nos dice si la imagen está volteada o no. Esto funciona con figuras arbitrarias, no sólo con la unidad cuadrada. El determinante nos dice el tramo en la zona. En{\mathbb{R}}^3 ella nos hablará sobre el volumen tridimensional, y enn -dimensiones sobre el volumenn -dimensional. Reclamamos esto sin pruebas.
SiA yB sonn\times n matrices, entonces\det(AB) = \det(A)\det(B). En particular,A es invertible si y sólo si\det(A) \not= 0 y en este caso,\det(A^{-1}) = \frac{1}{\det(A)}.
b_1,b_2,\ldots,b_nDejen ser las columnas deB. Entonces esAB = [ Ab_1 \quad Ab_2 \quad \cdots \quad Ab_n ] . decir, las columnas deAB sonAb_1,Ab_2,\ldots,Ab_n.
Dejarb_{j,k} denotar los elementos deB ya_j las columnas deA. Tenga en cuenta queAe_j = a_j. Por linealidad del determinante como se demostró anteriormente tenemos\ [\ begin {split} \ det (AB) & = \ det ([Ab_1\ quad Ab_2\ quad\ cdots\ quad Ab_n]) = \ det\ left (\ left [\ sum_ {j=1} ^n b_ {j,1} a_j\ quad Ab_2\ quad\ cdots\ quad Ab_n\ right]\ derecha)\\ & = \ suma_ {j=1} ^n b_ {j,1} \ det ([a_j\ quad Ab_2\ quad\ cdots\ quad AB_n])\\ & = \ sum_ {1\ leq j_1, j_2,\ ldots, j_n\ leq n} b_ {j_1,1} b_ {j_2,2} \ cdots b_ {j_n, n} \ det ([a_ {j_1} quad\ a_ {j_2}\ cdots\ quad a_ {j_n}])\\ & = \ izquierda ( \ sum_ {(j_1, j_2,\ ldots, j_n)\ en s_n} b_ {j_1,1} b_ {j_2,2} \ cdots b_ {j_n, n} \ operatorname {sgn} (j_1, j_2,\ ldots, j_n) \ derecha) \ det ([a_ {1}\ quad a_ {2}\ quad\ cdots\ quad a_ {n}]). \ end {split}\] En lo anterior, pasar de todos los enteros entre 1 yn, a solo elementos deS_n señalando que cuando dos columnas en el determinante son iguales, entonces el determinante es cero. Luego reordenamos las columnas al orden original y obtenemos el sgn.
La conclusión que\det(AB) = \det(A)\det(B) sigue al reconocer el determinante deB. Esto lo obtenemos enchufándoloA=I. La expresión que obtuvimos para el determinante deB tiene filas y columnas intercambiadas, así como nota al margen, también acabamos de demostrar que el determinante de una matriz y su transposición son iguales.
Para probar la segunda parte del teorema, supongamos queA es invertible. EntoncesA^{-1}A = I y consecuentemente\det(A^{-1})\det(A) = \det(A^{-1}A) = \det(I) = 1. Si noA es invertible, entonces las columnas son linealmente dependientes. Es decir, supongamos\sum_{j=1}^n \gamma_j a_j = 0 , donde no todos\gamma_j son iguales a 0. Sin pérdida de generalidad supongamos\gamma_1\neq 1. Toma\ [B: = \ begin {bmatrix} \ gamma_1 & 0 & 0 &\ cdots & 0\\ \ gamma_2 & 1 & 0 &\ cdots & 0\ \ gamma_3 & 0 & 1 &\ cdots & 0 &\ vdots & \ vdots &\ vdots &\ ddots &\ vdots &\ vdots\\ vdots \\ gamma_n & 0 & 0 &\ cdots & 1 \ end {bmatrix}.\] Aplicando la definición del determinante que vemos\det(B) = \gamma_1 \not= 0. Entonces\det(AB) = \det(A)\det(B) = \gamma_1\det(A). La primera columna deAB es cero, y por lo tanto\det(AB) = 0. Por lo tanto\det(A) = 0.
Determinante es independiente de la base. En otras palabras, siB es invertible, entonces\det(A) = \det(B^{-1}AB) .
La prueba sigue señalando\ (\ det (B^ {-1} AB) = \ frac {1} {\ det (B)}\ det (A)\ det (B) =\ det (B) =\ det (A)\). Si en una baseA está la matriz representando un operador lineal, entonces para otra base podemos encontrar una matrizB tal que la matriz nosB^{-1}AB lleve a la primera base, apliqueA en la primera base, y nos lleve de vuelta a la base con la que empezamos. Elegimos una base sobreX, y representamos un mapeo lineal usando una matriz con respecto a esta base. Obtenemos el mismo determinante que si hubiéramos utilizado cualquier otra base. De ello se deduce que\det \colon L(X) \to {\mathbb{R}} es una función bien definida (no solo en matrices).
Existen tres tipos de las llamadas matrices elementales. Recordemos nuevamente quee_j son la base estándar de{\mathbb{R}}^n. Primero para algunos\ (j = 1,2,\ ldots, n\) y algunos\lambda \in {\mathbb{R}},\lambda \neq 0, unan \times n matrizE definida por\ [EE_i = \ begin {cases} e_i &\ text {if $i\ neq j$},\ \ lambda e_i &\ text {if $i = j$}. \ end {cases}\] Dada cualquiern \times m matrizM la matrizEM es la misma matriz queM excepto con la filak th multiplicada por\lambda. Es un cómputo fácil (ejercicio) que\det(E) = \lambda.
Segundo, para algunosj yk conj\neq k, y\lambda \in {\mathbb{R}} unan \times n matrizE definida por\ [EE_i = \ begin {cases} e_i &\ text {if $i\ neq j$},\\ e_i +\ lambda e_k &\ text {if $i = j$}. \ end {cases}\] Dada cualquiern \times m matrizM la matrizEM es la misma matriz queM excepto con\lambda veces la filak th agregada a la filaj th. Es un cómputo fácil (ejercicio) que\det(E) = 1.
Finalmente, para algunosj yk conj\neq k unan \times n matrizE definida por\ [EE_i = \ begin {cases} e_i &\ text {if $i\ neq j$ y $i\ neq k$},\\ e_k &\ text {if $i = j$},\\ e_j &\ text {if $i = k$}. \ end {cases}\] Dada cualquiern \times m matriz,M la matrizEM es la misma matriz con las filasjk th y th intercambiadas. Es un cómputo fácil (ejercicio) que\det(E) = -1.
Las matrices elementales son útiles para computar el determinante. Se deja como ejercicio la prueba de la siguiente proposición.
[prop:elemmatrixdecomp] DejarT ser una matrizn \times n invertible. Luego existe una secuencia finita de matrices elementalesE_1, E_2, \ldots, E_k tales queT = E_1 E_2 \cdots E_k , y\det(T) = \det(E_1)\det(E_2)\cdots \det(E_k) .
Ejercicios
SiX es un espacio vectorial con una norma\lVert {\cdot} \rVert, entonces muestra qued(x,y) := \lVert {x-y} \rVert haceX un espacio métrico.
Demostrar eso para matrices cuadradasA yB,\det(AB) = \det(BA).
Para{\mathbb{R}}^n definir\lVert {x} \rVert_{\infty} := \max \{ \left\lvert {x_1} \right\rvert, \left\lvert {x_2} \right\rvert, \ldots, \left\lvert {x_n} \right\rvert \} , a veces se llama el sup o la norma máxima.
a) Demostrar que\lVert {\cdot} \rVert_\infty es una norma sobre{\mathbb{R}}^n (definiendo una distancia diferente).
b) ¿Cuál es la bola unitariaB(0,1) en esta norma?
Para{\mathbb{R}}^n definir\lVert {x} \rVert_{1} := \sum_{j=1}^n \lvert {x_j} \rvert, a veces se llama la1 -norma (oL^1 norma).
a) Mostrar que\lVert {\cdot} \rVert_1 es una norma en{\mathbb{R}}^n (definiendo una distancia diferente, a veces llamada distancia taxicab).
b) ¿Cuál es la bola unitariaB(0,1) en esta norma?
Usando la norma euclidiana en{\mathbb{R}}^2. Calcular la norma de operador de los operadores enL({\mathbb{R}}^2) dada por las matrices:
a)\ (\ left [
\ begin {smallmatrix}
1 & 0\\
0 & 2
\ end {smallmatrix}
\ right]\) b)\ (\ left [
\ begin {smallmatrix}
0 & 1\\
-1 & 0
\ end {smallmatrix}
\ right]\) c)\ (\ left [
\ begin {smallmatrix}
1 & 1\\
0 & 1
\ end {smallmatrix}
\ right]\) d)\ (\ left [
\ begin {smallmatrix}
0 & 1\\
0 & 0 & 0
\ end {smallmatrix}
\ right]\)
[ejercicio:normonedim] Usando la norma euclidiana estándar{\mathbb{R}}^n. Mostrar
a) Supongamos queA \in L({\mathbb{R}},{\mathbb{R}}^n) se define parax \in {\mathbb{R}} porAx = xa para un vectora \in {\mathbb{R}}^n. Entonces la norma del operador\lVert {A} \rVert_{L({\mathbb{R}},{\mathbb{R}}^n)} = \lVert {a} \rVert_{{\mathbb{R}}^n}. (esa es la norma operadora deA es la norma euclidiana dea).
b) Supongamos queB \in L({\mathbb{R}}^n,{\mathbb{R}}) se define parax \in {\mathbb{R}}^n porBx = b \cdot x para un vectorb \in {\mathbb{R}}^n. Entonces la norma del operador\lVert {B} \rVert_{L({\mathbb{R}}^n,{\mathbb{R}})} = \lVert {b} \rVert_{{\mathbb{R}}^n}
Supongamos que\sigma = (\sigma_1,\sigma_2,\ldots,\sigma_n) es una permutación de(1,2,\ldots,n).
a) Demostrar que podemos hacer un número finito de transposiciones (conmutación de dos elementos) para llegar a(1,2,\ldots,n).
b) Usando la definición [eq:sgndef] mostrar que\sigma es par si\operatorname{sgn}(\sigma) = 1 y\sigma es impar si\operatorname{sgn}(\sigma) = -1. En particular, mostrar que ser impar o par está bien definido.
Verificar el cálculo del determinante para los tres tipos de matrices elementales.
Demostrar.
a) Supongamos queD = [d_{i,j}] es una matrizn -por-n diagonal, es decir,d_{i,j} = 0 siempre que\ (i
\ not= j\). \det(D) = d_{1,1}d_{2,2} \cdots d_{n,n}Demuéstralo.
b) Supongamos queA es una matriz diagonalizable. Es decir, existe una matrizB tal queB^{-1}AB = D para una matriz diagonalD = [d_{i,j}]. \det(A) = d_{1,1}d_{2,2} \cdots d_{n,n}Demuéstralo.
Tomamos el espacio vectorial de polinomios{\mathbb{R}}[t] y el operador lineal\ (D\ en
L ({\ mathbb {R}} [t])\) que es la diferenciación (probamos en un ejercicio anterior queD es un operador lineal). Definir la norma en\ (P (t) = c_0 + c_1 t +\ cdots + c_n
t^n\) como\lVert {P} \rVert := \sup \{ \left\lvert {c_j} \right\rvert : j = 0,1,\ldots,n \}.
a) Demostrar que\lVert {P} \rVert es una norma sobre{\mathbb{R}}[t].
b) Mostrar queD no tiene norma de operador acotado, es decir\ (\ lVert {D}\ rVert =
\ infty\). Pista: considerar los polinomiost^n comon tiende al infinito.
En este ejercicio terminamos la prueba de. DejarX ser cualquier espacio vectorial dimensional finito con una norma. Que\ (\ {x_1, x_2,\ ldots, x_n
\}\) sea una base paraX.
a) Mostrar que la funciónf \colon {\mathbb{R}}^n \to {\mathbb{R}}\ [f (c_1, c_2,\ ldots, c_n) =
\ lVert {c_1 x_1 + c_2 x_2 +\ cdots + c_n x_n}\ rVert\] es continua.
b) Demostrar que existen númerosm yM tal que sic = (c_1,c_2,\ldots,c_n) \in {\mathbb{R}}^n con\lVert {c} \rVert = 1 (norma euclidiana estándar), entoncesm \leq \lVert {c_1 x_1 + c_2 x_2 + \cdots + c_n x_n} \rVert \leq M (aquí la norma está encendidaX).
c) Demostrar que existe un númeroB tal que si\lVert {c_1 x_1 + c_2 x_2 + \cdots + c_n x_n} \rVert=1, entonces\left\lvert {c_j} \right\rvert \leq B.
d) Utilice la parte (c) para mostrar que siX yY son espacios vectoriales dimensionales finitos yA \in L(X,Y), entonces\lVert {A} \rVert < \infty.
DejarX ser cualquier espacio vectorial dimensional finito con una norma\lVert {\cdot} \rVert y base\ (\ {x_1, x_2,\ ldots, x_n
\}\). Dejarc = (c_1,\ldots,c_n) \in {\mathbb{R}}^n y\lVert {c} \rVert ser la norma euclidiana estándar en{\mathbb{R}}^n.
a) Encontrar que existen números positivosm,M > 0 tales que para\ [m\ lVert {c}\ rVert
\ leq
\ lVert {c_1 x_1 + c_2 +\ cdots + c_n x_n}\ rVert
\ leq
M\ lVert {c}\ rVert.\] Pista: Ver ejercicio anterior.
b) Usa la parte (a) para mostrar que de\lVert {\cdot} \rVert_1 y\lVert {\cdot} \rVert_2 son dos normas sobreX, entonces existen números positivosm,M > 0 (quizás diferentes a los anteriores) tal que para todosx \in X tenemos\ [m\ lVert {x}\ rVert_1
\ leq
\ lVert {x}\ rVert_2
\ leq
M\ lVert {x}\ rVert _1.\] c) Ahora mostrar queU \subset X está abierto en la métrica definida por\left\lVert {x-y} \right\rVert_1 si y sólo si está abierta en la métrica definida por\left\lVert {x-y} \right\rVert_2. Es decir, la convergencia de secuencias, la continuidad de las funciones es la misma en cualquiera de las dos normas.
El derivado
Nota: 2—3 conferencias
El derivado
Recordemos que para una funciónf \colon {\mathbb{R}}\to {\mathbb{R}}, definimos la derivadax como\lim_{h \to 0} \frac{f(x+h)-f(x)}{h} . En otras palabras, había un númeroa (la derivada def atx) tal que\ [\ lim_ {h\ a 0}\ left\ lvert {\ frac {f (x+h) -f (x)} {h} - a}\ right\ rvert = \ lim_ {h\ to 0}\ left\ lvert {\ frac {f (x+ h) -f (x) - ah} {h}}\ derecha\ rvert = \ lim_ {h\ a 0}\ frac {\ izquierda\ lvert {f (x+h) -f (x) - ah}\ derecha\ rvert} {\ izquierda\ lvert {h}\ derecha\ rvert} = 0.\]
Multiplicar pora es un mapa lineal en una dimensión. Es decir, pensamos ena \in L({\mathbb{R}}^1,{\mathbb{R}}^1) cuál es la mejor aproximación lineal def cercax. Utilizamos esta definición para extender la diferenciación a más variables.
DejarU \subset {\mathbb{R}}^n ser un subconjunto abierto yf \colon U \to {\mathbb{R}}^m. Decimos quef es diferenciable enx \in U si existeA \in L({\mathbb{R}}^n,{\mathbb{R}}^m) tal que\ [\ lim_ {\ subpila {h\ a 0\\ h\ in {\ mathbb {R}} ^n}} \ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} = 0.\] EscribimosDf(x) := Af'(x) := A, o, y decimosA es el derivado def atx. Cuandof es diferenciable en absolutox \in U, decimos simplemente quef es diferenciable.
Para una función diferenciable, la derivada def es una función deU aL({\mathbb{R}}^n,{\mathbb{R}}^m). Comparar con el caso unidimensional, donde la derivada es una función deU a{\mathbb{R}}, pero realmente queremos pensar{\mathbb{R}} aquí comoL({\mathbb{R}}^1,{\mathbb{R}}^1).
Las normas anteriores deben estar en los espacios adecuados por supuesto. La norma en el numerador está{\mathbb{R}}^m encendida, y la norma en el denominador está en{\mathbb{R}}^n dondeh vive. Normalmente se entiende esoh \in {\mathbb{R}}^n desde el contexto. No lo vamos a decir explícitamente a partir de ahora.
Hemos vuelto a hacer trampa un poco y hemos dicho queA es el derivado. Aún no hemos demostrado que sólo hay uno, hagámoslo ahora.
DejarU \subset {\mathbb{R}}^n ser un subconjunto abierto yf \colon U \to {\mathbb{R}}^m. Supongamosx \in U y existeA,B \in L({\mathbb{R}}^n,{\mathbb{R}}^m) tal que\ [\ lim_ {h\ a 0} \ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} = 0 \ qquad\ text {y}\ qquad \ lim_ {h\ a 0} \ frac {\ lVert {f (x+h) -f (x) - Bh}\ rVert} {\ lVert {h}\ rVert} = 0.\] EntoncesA=B.
\ [\ comenzar {dividir} \ frac {\ lVert {(A-B) h}\ rVert} {\ lVert {h}\ rVert} & = \ frac {\ lVert {f (x+h) -f (x) - Ah - (f (x+h) -f (x) - Bh)}\ rVert} {\ lVert {h}\ rVert}\ &\ leq \ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} +\ frac {\ lVert {f (x+h) -f (x) - Bh}\ rVert} {\ lVert} {\ lVert}. \ end {dividir}\]
Así\frac{\lVert {(A-B)h} \rVert}{\lVert {h} \rVert} \to 0 comoh \to 0. Es decir, dado\epsilon > 0, entonces para todosh en alguna\delta -bola alrededor del origen\ [\ épsilon > \ frac {\ lVert {(A-B) h}\ rVert} {\ lVert {h}\ rVert} = \ izquierda\ lVert {(A-B)\ frac {h} {\ lVert {h}\ rVert}}\ derecha\ rVert.\] Para cualquierax con\lVert {x} \rVert=1, leth = (\nicefrac{\delta}{2}) \, x, entonces\lVert {h} \rVert < \delta y \frac{h}{\lVert {h} \rVert} = x. Entonces\lVert {(A-B)x} \rVert < \epsilon. Tomando lo supremo sobre todox con\lVert {x} \rVert = 1 obtenemos la norma del operador\lVert {A-B} \rVert \leq \epsilon. Como\epsilon > 0 fue arbitrario\lVert {A-B} \rVert = 0 o en otras palabrasA = B.
Sif(x) = Ax para un mapeo linealA, entoncesf'(x) = A. Esto se ve fácilmente:\ [\ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} = \ frac {\ lVert {A (x+h) -Ax - Ah}\ rVert} {\ lVert {h}\ rVert} = \ frac {0} {\ lVert {h}\ RVert} = 0.\]
Dejarf \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 ser definido porf(x,y) = \bigl(f_1(x,y),f_2(x,y)\bigr) := (1+x+2y+x^2,2x+3y+xy). Demostremos quef es diferenciable en el origen y calculemos la derivada, directamente usando la definición. La derivada está enL({\mathbb{R}}^2,{\mathbb{R}}^2) por lo que puede ser representada por una2\times 2 matriz\left[\begin{smallmatrix}a&b\\c&d\end{smallmatrix}\right]. Supongamos\ (h = (h_1, h_2)\). Necesitamos la siguiente expresión para ir a cero. \ [\ begin {reunió} \ frac {\ lVert { f (h_1, h_2) -f (0,0) - (ah_1 +bh_2, ch_1+dh_2)}\ rVert } {\ lVert {(h_1, h_2)}\ rVert} = \\ frac {\ sqrt
Callstack:
at (Matematicas/Analisis/Introducción_al_Análisis_Real_(Lebl)/10:_Integrales_unidimensionales_en_varias_variables/10.04:_temp), /content/body/div[4]/div/div[1]/p[11]/span[7], line 1, column 1
DejemosU \subset {\mathbb{R}}^n ser abiertos yf \colon U \to {\mathbb{R}}^m ser diferenciables enp \in U. Entoncesf es continuo enp.
Otra forma de escribir la diferenciabilidad def atp es escribir primeror(h) := f(p+h)-f(p) - f'(p) h , y\frac{\lVert {r(h)} \rVert}{\lVert {h} \rVert} debe ir a cero comoh \to 0. Por lo quer(h) sí mismo debe ir a cero. El mapeoh \mapsto f'(p) h es un mapeo lineal entre espacios dimensionales finitos, por lo tanto es continuo y va a cero comoh \to 0. Por lo tanto,f(p+h) debe ir af(p) comoh \to 0. Es decir,f es continuo enp.
U \subset {\mathbb{R}}^nDéjese abrir y dejarf \colon U \to {\mathbb{R}}^m ser diferenciable enp \in U. V \subset {\mathbb{R}}^mDéjese abrir,f(U) \subset V y dejar queg \colon V \to {\mathbb{R}}^\ell sea diferenciable enf(p). EntoncesF(x) = g\bigl(f(x)\bigr) es diferenciable enp yF'(p) = g'\bigl(f(p)\bigr) f'(p) .
Sin los puntos donde se evalúan las cosas, esto a veces se escribe comoF' = {(f \circ g)}' = g' f'. La manera de entenderlo es que el derivado de la composicióng \circ f es la composición de los derivados deg yf. Es decir, sif'(p) = A yg'\bigl(f(p)\bigr) = B, entoncesF'(p) = BA.
DejarA := f'(p) yB := g'\bigl(f(p)\bigr). Tomah \in {\mathbb{R}}^n y escribeq = f(p),k = f(p+h)-f(p). Dejar(h) := f(p+h)-f(p) - A h . %= k - Ah. Entoncesr(h) = k-Ah oAh = k-r(h). Miramos la cantidad que necesitamos para ir a cero:\ [\ begin {split} \ frac {\ lVert {F (p+h) -F (p) - BaH}\ rVert} {\ lVert} {\ rVert} & = \ frac {\ lVert {g\ bigl (f (p+h)\ bigr) -g\ bigl (f (p)\ bigr) - BaH}\ rVert} {\ lVert {h}\ rVert} \\ & = \ frac {\ lVert {g (q+k) -g (q) - B\ bigl (k-r (h)\ bigr)}\ rVert} {\ LVert {h}\ rVert} \\ %& = %\ frac % {\ snorm {g (q+k) -g (q) - B\ bigl (k-r (h)\ bigr)}} % {\ snorm {k}} %\ frac % {\ snorm {f (p+h) -f (p)} % {\ snorm {h} %}\\ &\ leq\ frac { \ lVert {g (q+k) -g (q) - Bk}\ rVert} {\ lVert {h}\ rVert} + \ lVert {B}\ rVert \ frac {\ lVert {r (h)}\ rVert} {\ lVert {h}\ rVert} \\ & = \ frac {\ lVert {g (q+k) -g (q) - Bk}\ rVert} {\ lVert}\ rVert} \ frac {\ lVert {f (p+h) -f (p)}\ rVert} {\ lVert {h}\ rVert} + \ lVert {B}\ rVert \ frac {\ lVert {r (h)}\ rVert} {\ lVert} {\ lVert}. \ end {split}\] Primero,\lVert {B} \rVert es constante yf es diferenciable enp, por lo que el término\lVert {B} \rVert\frac{\lVert {r(h)} \rVert}{\lVert {h} \rVert} va a 0. Siguiente comof es continuo enp, tenemos eso comoh va a 0, luegok va a 0. Por lo tanto\ (\ frac {\ lVert {g (q+k) -g (q) - Bk}\ rVert} {\ lVert {k}\ rVert}\) va a 0 porqueg es diferenciable enq. Finalmente\ [\ frac {\ lVert {f (p+h) -f (p)}\ rVert} {\ lVert {h}\ rVert} \ leq \ frac {\ lVert {f (p+h) -f (p) -ah}\ rVert} {\ lVert {h}\ rVert} + \ frac {\ lVert {Ah}\ rVert} \ lVert {h}\ rVert} \ leq \ frac {\ lVert {f (p+h) -f (p) -Ah}\ rVert} {\ lVert {h}\ rVert} + \ LVert {A}\ rVert.\] Comof es diferenciable enp, para lo suficientemente pequeñoh\ ({\ lVert {f (p+h) -f (p) -Ah}\ rVert} {\ lVert {h}\ rVert}\) está acotado. Por lo tanto el término\ (\ frac {\ lVert {f (p+h) -f (p)}\ rVert} {\ lVert {h}\ rVert}\) permanece acotado comoh va a 0. Por lo tanto,\frac{\lVert {F(p+h)-F(p) - BAh} \rVert}{\lVert {h} \rVert} va a cero, yF'(p) = BA, que es lo que se reclamó.
Derivados parciales
Hay otra manera de generalizar la derivada desde una dimensión. Mantenemos todas las variables menos una constante y tomamos la derivada regular.
Dejarf \colon U \to {\mathbb{R}} ser una función en un conjunto abiertoU \subset {\mathbb{R}}^n. Si existe el siguiente límite escribimos\ [\ frac {\ parcial f} {\ parcial x_j} (x) := \ lim_ {h\ a 0}\ frac {f (x_1,\ ldots, x_ {j-1}, x_j+h, x_ {j+1},\ ldots, x_n) -f (x)} {h} = \ lim_ {h\ a 0}\ frac {f (x+h e_j) -f (x)} {h}.\] Llamamos a\frac{\partial f}{\partial x_j} (x) la derivada parcial def con respecto ax_j. A veces escribimosD_j f en su lugar.
Para un mapeof \colon U \to {\mathbb{R}}^m escribimosf = (f_1,f_2,\ldots,f_m), dondef_k están las funciones de valor real. Después definimos\frac{\partial f_k}{\partial x_j} (o lo escribimos comoD_j f_k).
Las derivadas parciales son más fáciles de calcular con toda la maquinaria del cálculo, y proporcionan una manera de calcular la derivada de una función.
[mv:prop:jacobianmatrix] DejarU \subset {\mathbb{R}}^n ser abierto y dejarf \colon U \to {\mathbb{R}}^m ser diferenciable enp \in U. Entonces todas las derivadas parciales enp existen y en términos de la base estándar de{\mathbb{R}}^n y{\mathbb{R}}^m,f'(p) se representa por la matriz\ [\ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial x_1} (p) & \ frac {\ parcial f_1} {\ parcial x_2} (p) &\ ldots & \ frac {\ parcial f_1} {\ x_n parcial} (p) \\ \ frac {\ parcial f_2} {\ parcial x_1} (p) & \ frac {\ parcial f_2} {\ parcial x_2} (p) &\ ldots &\ frac { \ parcial f_2} {\ parcial x_n} (p)\\ vdots & \ vdots & \ ddots &\ vdots &\ vdots &\ ddots & \ puntos \\\ frac {\ parcial f_m} {\ parcial x_1} (p) & \ frac {\ parcial f_m} {\ parcial x_2} (p) &\ ldots & \ frac {\ parcial f_m} {\ parcial x_n} (p) \ end {bmatrix}.\]
En otras palabras\ [f' (p)\, e_j = \ suma_ {k=1} ^m \ frac {\ parcial f_k} {\ parcial x_j} (p)\, e_k.\] Siv = \sum_{j=1}^n c_j e_j = (c_1,c_2,\ldots,c_n), entonces\ [f' (p)\, v = \ sum_ {j=1} ^n \ suma_ {k=1} ^m c_j \ frac {\ parcial f_k} {\ parcial x_j} (p)\, e_k = \ suma_ {k=1} ^m \ izquierda ( \ suma_ {j=1} ^n c_j \ frac {\ parcial f_k} {\ parcial x_j} (p)\ derecha)\, e_k.\]
Fije aj y tenga en cuenta que\ [\ begin {split} \ left\ lVert {\ frac {f (p+h e_j) -f (p)} {h} - f' (p) e_j}\ right\ rVert & = \ left\ lVert {\ frac {f (p+h e_j) -f (p) - f' (p) h e_j} {h}} derecha\\ rVert\\ & = \ frac {\ lVert {f (p+h e_j) -f (p) - f' (p) h e_j}\ rVert} {\ lVert {h e_j}\ rVert}. \ end {split}\] Comoh va a 0, el lado derecho va a cero por diferenciabilidad def, y por lo tanto\ [\ lim_ {h\ a 0} \ frac {f (p+h e_j) -f (p)} {h} = f' (p) e_j.\] Tenga en cuenta quef es vector valorado. Así que representanf por componentesf = (f_1,f_2,\ldots,f_m), y tenga en cuenta que tomar un límite en{\mathbb{R}}^m es lo mismo que tomar el límite en cada componente por separado. Por lo tanto para cualquierak la derivada parcial\ [\ frac {\ parcial f_k} {\ parcial x_j} (p) = \ lim_ {h \ a 0}\ frac {f_k (p+h e_j) -f_k (p)} {h}\] existe y es igual alk th componente def'(p) e_j, y estamos hechos.
Lo contrario de la proposición no es cierto. El hecho de que existan las derivadas parciales, no significa que la función sea diferenciable. Ver los ejercicios. Sin embargo, cuando las derivadas parciales sean continuas, demostraremos que lo contrario se mantiene. Una de las consecuencias de la proposición es que sif es diferenciable onU, entonces\ (f'\ colon U\ a L ({\ mathbb {R}} ^n, {\ mathbb {R}} ^m)\) es una función continua si y solo si todas las\frac{\partial f_k}{\partial x_j} son funciones continuas.
Degradado y derivados direccionales
DejarU \subset {\mathbb{R}}^n ser abierto yf \colon U \to {\mathbb{R}} es una función diferenciable. Definimos el gradiente como\nabla f (x) := \sum_{j=1}^n \frac{\partial f}{\partial x_j} (x)\, e_j . Notar que el gradiente nos da una manera de representar la acción de la derivada como un producto punto:f'(x)v = \nabla f(x) \cdot v.
Supongamos que\gamma \colon (a,b) \subset {\mathbb{R}}\to {\mathbb{R}}^n es una función diferenciable y la imagen\gamma\bigl((a,b)\bigr) \subset U. Tal función y su imagen a veces se llama curva, o curva diferenciable. Escribe\ (\ gamma = (\ gamma_1,\ gamma_2,\ ldots,\ gamma_n)\). Dejarg(t) := f\bigl(\gamma(t)\bigr) . La funcióng es diferenciable. Para fines de cálculo nos identificamosL({\mathbb{R}}^1) con{\mathbb{R}}, y por lo tanto seg'(t) puede calcular como un número:\ [g' (t) = f'\ bigl (\ gamma (t)\ bigr)\ gamma^ {\:\ prime} (t) = \ sum_ {j=1} ^n \ frac {\ parcial f} {\ parcial x_j}\ bigl (\ gamma (t)\ bigr) \ frac {d\ gamma_j} {dt} (t) = \ suma_ {j=1} ^n \ frac {\ parcial f} {\ parcial x_j} \ frac {d\ gamma_j} {dt}.\] Para mayor comodidad, a veces dejamos fuera los puntos donde estamos evaluando como en el lado derecho arriba. Reescribamos esto con la notación del degradado y el producto punto:\ [g' (t) = (\ nabla f)\ bigl (\ gamma (t)\ bigr)\ cdot\ gamma^ {\:\ prime} (t) =\ nabla f\ cdot\ gamma^ {\:\ prime}.\]
Utilizamos esta idea para definir derivados en una dirección específica. Una dirección es simplemente un vector que apunta en esa dirección. Así que escoge un vectoru \in {\mathbb{R}}^n tal que\lVert {u} \rVert = 1. Arreglarx \in U. Después definir una curva\gamma(t) := x + tu . Es fácil computar eso\gamma^{\:\prime}(t) = u para todost. Por regla de cadena\ [\ frac {d} {dt}\ Big|_ {t=0}\ bigl [f (x+tu)\ bigr] = (\ nabla f) (x)\ cdot u,\] donde la notación\frac{d}{dt}\big|_{t=0} representa la derivada evaluada ent=0. También calculamos directamente\ [\ frac {d} {dt}\ Big|_ {t=0}\ bigl [f (x+tu)\ bigr] = \ lim_ {h\ a 0} \ frac {f (x+hu) -f (x)} {h}.\] Obtenemos la derivada direccional, denotada por laD_u f (x) := \frac{d}{dt}\Big|_{t=0} \bigl[ f(x+tu) \bigr] , cual se puede computar por uno de los métodos anteriores.
Supongamos(\nabla f)(x) \neq 0. Por Cauchy-Schwarz la desigualdad que tenemos La\left\lvert {D_u f(x)} \right\rvert \leq \lVert {(\nabla f)(x)} \rVert . igualdad se logra cuandou es un múltiplo escalar de(\nabla f)(x). Es decir, cuando\ [u = \ frac {(\ nabla f) (x)} {\ lVert {(\ nabla f) (x)}\ rVert},\] obtenemosD_u f(x) = \lVert {(\nabla f)(x)} \rVert. El gradiente apunta en la dirección en la que la función crece más rápido, es decir, en la dirección en la queD_u f(x) es máxima.
El jacobiano
DejarU \subset {\mathbb{R}}^n yf \colon U \to {\mathbb{R}}^n ser un mapeo diferenciable. Luego definir el jacobiano, o determinante jacobiano 3, def alx comoJ_f(x) := \det\bigl( f'(x) \bigr) . A veces esto se escribe como\frac{\partial(f_1,f_2,\ldots,f_n)}{\partial(x_1,x_2,\ldots,x_n)} .
Esta última pieza de notación puede parecer algo confusa, pero es útil cuando es necesario especificar las variables exactas y los componentes de función utilizados.
El jacobianoJ_f es una función valorada real, y cuandon=1 es simplemente la derivada. De la regla de la cadena y el hecho de que\det(AB) = \det(A)\det(B), se deduce que:J_{f \circ g} (x) = J_f\bigl(g(x)\bigr) J_g(x) .
Como mencionamos el determinante nos dice qué sucede con el área/volumen. Del mismo modo, el jacobiano mide cuánto un mapeo diferenciable estira las cosas localmente, y si cambia la orientación. En particular, si el jacobiano es distinto de cero entonces supondríamos que localmente el mapeo es invertible (y estaríamos en lo correcto como veremos más adelante).
Ejercicios
Supongamos\gamma \colon (-1,1) \to {\mathbb{R}}^n y\alpha \colon (-1,1) \to {\mathbb{R}}^n sean dos curvas diferenciables tal que\gamma(0) = \alpha(0) y\gamma^{\:\prime}(0) = \alpha'(0). Supongamos queF \colon {\mathbb{R}}^n \to {\mathbb{R}} es una función diferenciable. Mostrar que\ [\ frac {d} {dt}\ Big|_ {t=0} F\ bigl (\ gamma (t)\ bigr) = \ frac {d} {dt}\ Big|_ {t=0} F\ bigl (\ alpha (t)\ bigr) .\]
Dejarf \colon {\mathbb{R}}^2 \to {\mathbb{R}} ser dado por\ (f (x, y) = \ sqrt {x^2+y^2}\). Demostrar que nof es diferenciable en el origen.
Utilizando únicamente la definición de la derivada, mostrar que los siguientesf \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 son diferenciables en el origen y encuentran su derivada.
a)f(x,y) := (1+x+xy,x),
b)f(x,y) := (y-y^{10},x),
c)f(x,y) := \bigl( (x+y+1)^2 , (x-y+2)^2 \bigr).
Supongamosf \colon {\mathbb{R}}\to {\mathbb{R}} yg \colon {\mathbb{R}}\to {\mathbb{R}} son funciones diferenciables. Usando sólo la definición de la derivada, mostrar queh \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 definida por\ (h (x, y) : =\ bigl (f (x), g (y)\ bigr)\) es una función diferenciable y encontrar la derivada en cualquier punto(x,y).
[exercise:noncontpartialsexist] Define una funciónf \colon {\mathbb{R}}^2 \to {\mathbb{R}} por\ [f (x, y)
: =
\ begin {cases}
\ frac {xy} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $},\\
0 &\ text {if $ (x, y) = (0,0) $}.
\ end {cases}\] a) Mostrar que las derivadas parciales\frac{\partial f}{\partial x} y\frac{\partial f}{\partial y} existen en todos los puntos (incluyendo el origen).
b) Demostrar que nof es continuo en el origen (y por lo tanto no diferenciable).
Define una funciónf \colon {\mathbb{R}}^2 \to {\mathbb{R}} por\ [f (x, y)
: =
\ begin {cases}
\ frac {x^2y} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $},\\
0 &\ text {if $ (x, y) = (0,0) $}.
\ end {cases}\] a) Mostrar que las derivadas parciales\frac{\partial f}{\partial x} y\frac{\partial f}{\partial y} existen en todos los puntos.
b) Demostrar que para todosu \in {\mathbb{R}}^2 con\lVert {u} \rVert=1, la derivada direccionalD_u f existe en todos los puntos.
c) Demostrar quef es continuo en el origen.
d) Demostrar que nof es diferenciable en el origen.
Supongamos quef \colon {\mathbb{R}}^n \to {\mathbb{R}}^n es uno a uno, sobre, diferenciable en todos los puntos, y tal que tambiénf^{-1} es diferenciable en todos los puntos.
a) Mostrar quef'(p) es invertible en todos los puntosp y cómpule{(f^{-1})}'\bigl(f(p)\bigr). Pista: considerarp = f^{-1}\bigl(f(p)\bigr).
b) Dejarg \colon {\mathbb{R}}^n \to {\mathbb{R}}^n ser una función diferenciable enq \in {\mathbb{R}}^n y tal queg(q)=q. Supongamosf(p) = q para algunosp \in {\mathbb{R}}^n. MostrarJ_g(q) = J_{f^{-1} \circ g \circ f}(p) dóndeJ_g está el determinante jacobiano.
Supongamos quef \colon {\mathbb{R}}^2 \to {\mathbb{R}} es diferenciable y tal quef(x,y) = 0 si y sólo siy=0 y tal que\nabla f(0,0) = (1,1). y > 0Demuéstralof(x,y) > 0 cuando yf(x,y) < 0 cuando seay < 0.
[exercise:mv:maximumcritical] Supongamos queU \subset {\mathbb{R}}^n es abierto yf \colon U \to {\mathbb{R}} es diferenciable. Supongamos quef tiene un máximo local enp \in U. Demostrar esof'(p) = 0, ese es el mapeo cero enL({\mathbb{R}}^n,{\mathbb{R}}). Esep es un punto crítico def.
Supongamos quef \colon {\mathbb{R}}^2 \to {\mathbb{R}} es diferenciable y supongamos que cuando seax^2+y^2 = 1, entoncesf(x,y) = 0. Demostrar que existe al menos un punto(x_0,y_0) tal que\ (\ frac {\ parcial f} {\ parcial x} (x_0, y_0) =\ frac {\ parcial f} {\ parcial y} (x_0, y_0) = 0\).
Definirf(x,y) := ( x-y^2 ) ( 2 y^2 - x). Mostrar
a)(0,0) es un punto crítico, es decirf'(0,0) = 0, que es el mapa lineal cero enL({\mathbb{R}}^2,{\mathbb{R}}).
b) Por cada dirección, es decir(x,y) tal quex^2+y^2=1 la “restricción def a la línea que contiene los puntos(0,0) y(x,y)”, es decir una funcióng(t) := f(tx,ty) tiene un máximo local att=0.
c)f no tiene un máximo local al(0,0).
Supongamos quef \colon {\mathbb{R}}\to {\mathbb{R}}^n es diferenciable y\lVert {f(t)} \rVert = 1 para todost (es decir, tenemos una curva en la esfera unitaria). Entonces mostrar que para todost, tratandof' como vector tenemos,f'(t) \cdot f(t) = 0.
Definirf \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 por\ (f (x, y) := \ bigl (x, y+\ varphi (x)\ bigr)\) para alguna función diferenciable\varphi de una variable. Showf es diferenciable y encontrarf'.
Continuidad y derivada
Nota: 1—2 conferencias
Limitando la derivada
Demostremos un “teorema del valor medio” para las funciones de valor vectorial.
Si\varphi \colon [a,b] \to {\mathbb{R}}^n es diferenciable encendido(a,b) y continuo en[a,b], entonces existet_0 \in (a,b) tal que\lVert {\varphi(b)-\varphi(a)} \rVert \leq (b-a) \lVert {\varphi'(t_0)} \rVert .
Por teorema de valor medio sobre la función\bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi(t) (el punto es el producto escalar de nuevo) obtenemos hayt_0 \in (a,b) tal que\ [\ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi (b) - \ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi (a) = \ lVert {\ varphi (b) -\ varphi (a)}\ rVert^2 = (b-a) \ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi' (t_0)\] donde tratamos\varphi' como un simple vector de columna de números por abuso de notación. Tenga en cuenta que en este caso, si pensamos en simplemente\varphi'(t) como un vector, entonces por,\lVert {\varphi'(t)} \rVert_{L({\mathbb{R}},{\mathbb{R}}^n)} = \lVert {\varphi'(t)} \rVert_{{\mathbb{R}}^n}. Es decir, la norma euclidiana del vector es la misma que la norma operadora de\varphi'(t).
Por Cauchy-Schwarz desigualdad\ [\ lVert {\ varphi (b) -\ varphi (a)}\ rVert^2 = (b-a)\ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi' (t_0) \ leq (b-a) \ lVert {\ varphi (b) -\ varphi (a)}\ rVert\ lVert {\ varphi' (t_0)}\ rVert. \ qedhere\]
Recordemos que un conjuntoU es convexo si siemprex,y \in U, el segmento de línea dex ay se encuentra enU.
[mv:prop:convexlip] DejarU \subset {\mathbb{R}}^n ser un conjunto abierto convexo,f \colon U \to {\mathbb{R}}^m una función diferenciable, yM tal que\lVert {f'(x)} \rVert \leq M para todosx \in U. Entoncesf está Lipschitz con constanteM, eso es\lVert {f(x)-f(y)} \rVert \leq M \lVert {x-y} \rVert para todosx,y \in U.
Fijarx yy adentroU y anotar eso(1-t)x+ty \in U para todost \in [0,1] por convexidad. Siguiente\ [\ frac {d} {dt}\ Bigl [f\ bigl ((1-t) x+ty\ bigr)\ Bigr] = f'\ bigl ((1-t) x+ty\ bigr) (y-x).\] Por el teorema del valor medio anterior obtenemos para algunost_0 \in (0,1)\ [\ lVert {f (x) -f (y)}\ rVert\ leq \ izquierda\ lVert {\ frac {d} {dt}\ Big|_ {t=t_0}\ Bigl [f\ bigl ((1-t) x+ty\ bigr)\ Bigr]}\ derecha\ rVert\ leq \ lVert {f'\ bigl (( 1-t_0) x+t_0y\ bigr)}\ rVert\ lVert {y-x}\ rVert\ leq M\ lVert {y-x}\ rVert. \ qedhere\]
Si noU es convexa la proposición no es cierta. Para ver este hecho, toma el conjuntoU = \{ (x,y) : 0.9 < x^2+y^2 < 1.1 \} \setminus \{ (x,0) : x < 0 \} . Letf(x,y) be el ángulo que la línea desde el origen hasta(x,y) hace con elx eje positivo. Incluso puedes escribir la fórmula paraf:f(x,y) = 2 \operatorname{arctan}\left( \frac{y}{x+\sqrt{x^2+y^2}}\right) . Piense en escalera de caracol con espacio en el medio. Ver.
La función es diferenciable, y la derivada está acotadaU, lo cual no es difícil de ver. Pensando en lo que sucede cerca de donde elx eje negativo corta el anillo por la mitad, vemos que la conclusión de la proposición no puede sostenerse.
Resolvamos la ecuación diferencialf' = 0.
SiU \subset {\mathbb{R}}^n está conectado yf \colon U \to {\mathbb{R}}^m es diferenciable yf'(x) = 0, para todosx \in U, entoncesf es constante.
Para cualquierax \in U, hay una pelotaB(x,\delta) \subset U. La bolaB(x,\delta) es convexa. Ya que\lVert {f'(y)} \rVert \leq 0 para todosy \in B(x,\delta), entonces por el teorema,\lVert {f(x)-f(y)} \rVert \leq 0 \lVert {x-y} \rVert = 0. Entoncesf(x) = f(y) para todos\ (y\ en B (x,\ delta)\).
Esto significa quef^{-1}(c) está abierto para cualquierc \in {\mathbb{R}}^m. Supongamos que nof^{-1}(c) está vacío. Los dos conjuntos\ [U' = f^ {-1} (c),\ qquad U” = f^ {-1} ({\ mathbb {R}} ^m\ setmenos\ {c\}) = \ bigcup_ {\ substack {a\ in {\ mathbb {R}} ^m\\ a\ neq c}} f^ {-1} (a)\] son abiertos disjuntos, y ademásU = U' \cup U''. Entonces como noU' está vacío, yU está conectado, tenemos esoU'' = \emptyset. Entoncesf(x) = c para todosx \in U.
Funciones continuamente diferenciables
Decimos quef \colon U \subset {\mathbb{R}}^n \to {\mathbb{R}}^m es continuamente diferenciable, oC^1(U) sif es diferenciable yf' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m) es continuo.
[mv:prop:contdiffpartials] QueU \subset {\mathbb{R}}^n sean abiertos yf \colon U \to {\mathbb{R}}^m. La funciónf es continuamente diferenciable si y sólo si todas las derivadas parciales existen y son continuas.
Sin continuidad el teorema no se sostiene. El hecho de que existan derivados parciales no significa que esof sea diferenciable, de hecho,f puede que ni siquiera sea continuo. Consulta los ejercicios para la última sección y también para esta sección.
Hemos visto que sif es diferenciable, entonces existen las derivadas parciales. Además, las derivadas parciales son las entradas de la matriz def'(x). Entonces sif' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m) es continuo, entonces las entradas son continuas, de ahí que las derivadas parciales sean continuas.
Para probar la dirección opuesta, supongamos que las derivadas parciales existen y son continuas. Arreglarx \in U. Si demostramos quef'(x) existe estamos hechos, porque las entradas de la matrizf'(x) son entonces las derivadas parciales y si las entradas son funciones continuas, la función valorada en matrizf' es continua.
Hagamos inducción sobre la dimensión. Primero señalemos que la conclusión es cierta cuandon=1. En este caso la derivada es solo la derivada regular (ejercicio: debes comprobar que el hecho de que la función sea valorada por vector no es un problema).
Supongamos que la conclusión es cierta para{\mathbb{R}}^{n-1}, es decir, si nos restringimos a las primerasn-1 variables, la conclusión es verdadera. Es fácil ver que las primeras derivadasn-1 parciales def restringidas al conjunto donde se fija la última coordenada son las mismas que las def. En lo siguiente pensamos{\mathbb{R}}^{n-1} como un subconjunto de{\mathbb{R}}^n, ese es el conjunto en{\mathbb{R}}^n dondex_n = 0. Dejar\ [A = \ comenzar {bmatrix} \ frac {\ parcial f_1} {\ parcial x_1} (x) &\ ldots & \ frac {\ parcial f_1} {\ parcial x_n} (x) \ \ vdots &\ ddots &\ vdots\ \ vdots \\ frac {\ parcial f_m} {\ parcial x_1} (x) & l\ puntos & \ frac {\ parcial f_m} {\ parcial x_n} (x) \ end {bmatrix}, \ qquad A_1 = \ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial x_1} (x) &\ ldots & \ frac {\ parcial f_1} {\ parcial x_ {n-1}} (x) \\ \ vdots &\ ddots &\ vdots \\ vdots \\ frac {\ parcial f_m} {\ parcial x_1} (x) &\ ldots & \ frac {\ parcial f_m} {\ parcial x_ {n-1}} (x) \ end {bmatrix}, \ qquad v = %\ frac {\ parcial f} {\ parcial x_n} (x) = \ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial x_n} (x) \ \\ vdots \ \ frac {\ parcial f_m} {\ parcial x_n} (x) \ end {bmatrix}. Dejemos que\epsilon > 0 se den. \delta > 0Sea tal que para cualquierak \in {\mathbb{R}}^{n-1} con\lVert {k} \rVert < \delta tenemos\frac{\lVert {f(x+k) - f(x) - A_1k} \rVert}{\lVert {k} \rVert} < \epsilon . Por continuidad de las derivadas parciales, supongamos que\delta es lo suficientemente pequeño para que\ [\ izquierda\ lvert {\ frac {\ parcial f_j} {\ parcial x_n} (x+h) -\ frac {\ parcial f_j} {\ parcial x_n} (x)}\ derecha\ rvert <\ épsilon,\] para todosj y todosh con\lVert {h} \rVert < \delta.
Dejarh = h_1 + t e_n ser un vector en{\mathbb{R}}^n dondeh_1 \in {\mathbb{R}}^{n-1} tal que\lVert {h} \rVert < \delta. Entonces\lVert {h_1} \rVert \leq \lVert {h} \rVert < \delta. Tenga en cuenta queAh = A_1h_1 + tv. \ [\ begin {split} \ lVert {f (x+h) - f (x) - Ah}\ rVert & =\ lVert {f (x+h_1 + t e_n) - f (x+h_1) - tv + f (x+h_1) - f (x) - a_1h_1}\ rVert\ \ &\ leq\ lVert {f (x+h) +h_1 + t e_n) - f (x+h_1) -tv}\ rVert +\ lVert {f (x+h_1) - f (x) - a_1h_1}\ rVert \\ &\ leq\ lVert {f (x+h_1 + t e_n) - f (x+h _1) -tv}\ rVert +\ épsilon\ lVert {h_1}\ rVert. \ end {split}\] Como existen todas las derivadas parciales, por el teorema del valor medio, para cada unoj hay alguna\theta_j \in [0,t] (o[t,0] sit < 0), tal que\ [f_j (x+h_1 + t e_n) - f_j (x+h_1) = t\ frac {\ parcial f_j} {\ parcial x_n} (x+h_1+\ theta_j e_n).\] Tenga en cuenta que si\lVert {h} \rVert < \delta, entonces\ (\ lVert {h_1+\ theta_j e_n}\ rVert\ leq\ lVert {h}\ rVert <\ delta\). Así que para terminar la estimación\ [\ begin {split} \ lVert {f (x+h) - f (x) - Ah}\ rVert &\ leq\ lVert {f (x+h_1 + t e_n) - f (x+h_1) -tv}\ rVert +\ epsilon\ lVert {h_1} \ rVert\\ &\ leq\ sqrt\ suma_ {j=1} ^m {\ izquierda (t\ frac {\ parcial f_j} {\ parcial x_n} (x+h_1+\ theta_j e_n) - t\ frac {\ parcial f_j} {\ parcial x_n} (x)\ derecha)} ^2} +\ épsilon\ lVert {h_1}\ rVert \\ &\ leq\ sqrt {m}\,\ épsilon\ izquierda\ lvert {t}\ derecha\ rvert +\ épsilon\ lVert {h_1}\ rVert \\ &\ leq (\ sqrt {m} +1)\ épsilon\ lVert {h}\ rVert. \ end {dividir}\]
Ejercicios
Definirf \colon {\mathbb{R}}^2 \to {\mathbb{R}} como\ [f (x, y) := \ begin {cases} (x^2+y^2)\ sin\ bigl ({(x^2+y^2)} ^ {-1}\ bigr) &\ text {if $ (x, y) \ not= (0,0) $,}\\ 0 &\ text {else.} \ end {cases}\] Mostrar quef es diferenciable en el origen, pero que no es continuamente diferenciable.
f \colon {\mathbb{R}}^2 \to {\mathbb{R}}Sea la función from, es decir,\ [f (x, y) : = \ begin {cases} \ frac {xy} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $},\\ 0 &\ text {if $ (x, y) = (0,0) $}. \ end {cases}\] Calcular las derivadas parciales\frac{\partial f}{\partial x} y\frac{\partial f}{\partial y} en todos los puntos y mostrar que estas no son funciones continuas.
DejarB(0,1) \subset {\mathbb{R}}^2 ser la bola unitaria (disco), es decir, el conjunto dado porx^2 + y^2 < 1. Supongamos quef \colon B(0,1) \to {\mathbb{R}} es una función diferenciable tal que\left\lvert {f(0,0)} \right\rvert \leq 1,\left\lvert {\frac{\partial f}{\partial x}} \right\rvert \leq 1 y\left\lvert {\frac{\partial f}{\partial y}} \right\rvert \leq 1 para todos los puntos enB(0,1).
a) Encontrar unM \in {\mathbb{R}} tal que\lVert {f'(x,y)} \rVert \leq M para todos\ ((x, y)\ en
B (0,1)\).
b) Encontrar unB \in {\mathbb{R}} tal que\left\lvert {f(x,y)} \right\rvert \leq B para todos\ ((x, y)\ en
B (0,1)\).
Definir\varphi \colon [0,2\pi] \to {\mathbb{R}}^2 por\ (\ varphi (t) = \ bigl (\ sin (t),\ cos (t)\ bigr)\). Calcular\varphi'(t) para todost. Calcular\lVert {\varphi'(t)} \rVert para todost. Observe que nunca\varphi'(t) es cero, sin embargo\varphi(0) = \varphi(2\pi), por lo tanto, el teorema de Rolle no es cierto en más de una dimensión.
Dejarf \colon {\mathbb{R}}^2 \to {\mathbb{R}} ser una función tal que\frac{\partial f}{\partial x} y\frac{\partial f}{\partial y} existir en todos los puntos y existe una\ (M \ in {\ mathbb {R}}\) tal que\left\lvert {\frac{\partial f}{\partial x}} \right\rvert \leq M y\left\lvert {\frac{\partial f}{\partial y}} \right\rvert \leq M en todos los puntos. Demostrar quef es continuo.
Dejarf \colon {\mathbb{R}}^2 \to {\mathbb{R}} ser una función yM \in R, tal que para cada(x,y) \in {\mathbb{R}}^2, la funcióng(t) := f(xt,yt) es diferenciable y\left\lvert {g'(t)} \right\rvert \leq M.
a) Demostrar quef es continuo en(0,0).
b) Encontrar un ejemplo de talf que no es continuo en cualquier otro punto de{\mathbb{R}}^2 (Pista: Piense en cómo construimos una función continua en ninguna parte[0,1]).
Teorema de función inversa e implícita
Nota: 2—3 conferencias
Para probar el teorema de la función inversa utilizamos el principio de mapeo de contracción que hemos visto en y que hemos utilizado para probar el teorema de Picard. Recordemos que un mapeof \colon X \to X' entre dos espacios métricos(X,d) y(X',d') se llama contracción si existek < 1 tal que\ [d'\ bigl (f (x), f (y)\ bigr)\ leq k d (x, y) \\\\ text {para todos} x, y\ in X.\] El principio de mapeo de contracción dice que sif \colon X \to X es una contracción y Xes un espacio métrico completo, entonces existe un punto fijo único, es decir, existe un únicox \in X tal quef(x) = x.
Intuitivamente si una función es diferenciable, entonces localmente “se comporta como” la derivada (que es una función lineal). La idea del teorema de la función inversa es que si una función es diferenciable y la derivada es invertible, la función es (localmente) invertible.
[thm:inverse] DejarU \subset {\mathbb{R}}^n ser un conjunto y dejarf \colon U \to {\mathbb{R}}^n ser una función continuamente diferenciable. También supongamosp \in Uf(p) = q,, yf'(p) es invertible (es decir,J_f(p) \not=0). Entonces existen conjuntos abiertos deV, W \subset {\mathbb{R}}^n tal manera quep \in V \subset U,f(V) = W yf|_V es uno a uno y sobre. Además, la inversag(y) = (f|_V)^{-1}(y) es continuamente diferenciable yg'(y) = {\bigl(f'(x)\bigr)}^{-1}, \qquad \text{ for all $x \in V$, $y = f(x)$.}
EscribirA = f'(p). Comof' es continuo, existe una bola abiertaV alrededorp tal que\ [\ lVert {a-f' (x)}\ rVert <\ frac {1} {2\ lVert {A^ {-1}}\ rVert} \ qquad\ text {para todos $x\ in V$.}\] Tenga en cuenta quef'(x) es invertible para todosx \in V.
Dadoy \in {\mathbb{R}}^n definimos\varphi_y \colon C \to {\mathbb{R}}^n\varphi_y (x) = x + A^{-1}\bigl(y-f(x)\bigr) . ComoA^{-1} es uno-a-uno, entonces\varphi_y(x) = x (xes un punto fijo) si sólo siy-f(x) = 0, o en otras palabrasf(x)=y. Usando regla de cadena obtenemos\varphi_y'(x) = I - A^{-1} f'(x) = A^{-1} \bigl( A-f'(x) \bigr) . Así que parax \in V tenemos\lVert {\varphi_y'(x)} \rVert \leq \lVert {A^{-1}} \rVert \lVert {A-f'(x)} \rVert < \nicefrac{1}{2} . ComoV es una bola es convexa, y por lo tanto\ [\ lVert {\ varphi_y (x_1) -\ varphi_y (x_2)}\ rVert\ leq\ frac {1} {2}\ lVert {x_1-x_2}\ rVert \ qquad \ text {para todos $x_1, x_2\ in V$}.\] En otras palabras\varphi_y es una contracción definido enV, aunque hasta ahora no sabemos cuál es el rango de\varphi_y. No podemos aplicar el teorema de punto fijo, pero podemos decir que\varphi_y tiene como máximo un punto fijo (nota prueba de unicidad en el principio de mapeo de contracción). Es decir, existe a lo sumo unox \in V tal quef(x) = y, y así lof|_V es uno a uno.
VamosW = f(V). Tenemos que demostrar queW está abierto. Toma unay_1 \in W, entonces hay una únicax_1 \in V tal quef(x_1) = y_1. Dejarr > 0 ser lo suficientemente pequeña como para que la bola cerradaC(x_1,r) \subset V (talr > 0 existe comoV está abierta).
Supongamos quey es tal que\ [\ lVert {y-y_1} \ rVert <\ frac {r} {2\ lVert {A^ {-1}}\ rVert}.\] Si mostramos esoy \in W, entonces hemos demostrado queW está abierto. Definir\varphi_y(x) = x+A^{-1}\bigl(y-f(x)\bigr) como antes. Si\ (x\ en C (x_1, r)\), entonces\ [\ begin {split} \ lVert {\ varphi_y (x) -x_1}\ rVert &\ leq \ lVert {\ varphi_y (x) -\ varphi_y (x_1)}\ rVert + \ lVert {\ varphi_y (x_1) -x_1}\ rVert\\ &\ leq \ frac {1} {2}\ lVert {x-x_1}\ rVert + \ lVert {A^ {-1} (y-y_1)}\ rVert\\ &\ leq \ frac {1} {2} r + \ lVert {A^ {-1}}\ rVert\ lVert {y-y_1}\ rVert\\ & < \ frac {1} {2} r + \ lVert {A^ {-1}}\ rVert \ frac {r} {2\ lVert {A^ {-1}}\ rVert} = r. \ end {split}\] Así\varphi_y tomaC(x_1,r) enB(x_1,r) \subset C(x_1,r). Es una contracciónC(x_1,r) yC(x_1,r) es completa (subconjunto cerrado de{\mathbb{R}}^n es completo). Aplicar el principio de mapeo de contracción para obtener un punto fijox, i.e\varphi_y(x) = x. Eso esf(x) = y. Así\ (y\ en f\ bigl (C (x_1, r)\ bigr)\ subconjunto f (V) = W\). Por lo tantoW está abierto.
A continuación tenemos que demostrar queg es continuamente diferenciable y computar su derivada. Primero demostremos que es diferenciable. Dejary \in W yk \in {\mathbb{R}}^n,k\not= 0, tal quey+k \in W. Luego hay únicosx \in V yh \in {\mathbb{R}}^n,h \not= 0 yx+h \in V, tal quef(x) = y yf(x+h) = y+k comof|_V es un uno-a-uno y en mapeo deV sobreW. En otras palabras,g(y) = x yg(y+k) = x+h. Todavía podemos exprimir alguna información del hecho de que\varphi_y es una contracción. \varphi_y(x+h)-\varphi_y(x) = h + A^{-1} \bigl( f(x)-f(x+h) \bigr) = h - A^{-1} k .Entonces\ [\ lVert {h-a^ {-1} k}\ rVert =\ lVert {\ varphi_y (x+h) -\ varphi_y (x)}\ rVert\ leq \ frac {1} {2}\ lVert {x+h-x}\ rVert =\ frac {\ lVert {h}\ rVert} {2}.\] Por la inversa triángulo desigualdad\ (\ lVert {h}\ rVert -\ lVert {A^ {-1} k}\ rVert\ leq \ frac {1} {2}\ lVert {h}\ rVert\) así que\lVert {h} \rVert \leq 2 \lVert {A^{-1}k} \rVert \leq 2 \lVert {A^{-1}} \rVert \lVert {k} \rVert. En particular, comok va a 0, también lo haceh.
Comox \in V, entoncesf'(x) es invertible. VamosB = \bigl(f'(x)\bigr)^{-1}, que es lo que pensamos quey es el derivado deg at. Entonces\ [\ comenzar {dividir} \ frac {\ lVert {g (y+k) -g (y) -Bk}\ rVert} {\ lVert {k}\ rVert} & =\ frac { \ lVert {h-bk}\ rVert} {\ lVert {k}\ rVert}\\ rVert} \\ rVert} \\ rVert}\\ rVert {k}\ rVert}\\ rVert}\\ rVert}\ +h) -f (x)\ bigr)}\ rVert} {\ lVert {k} \ rVert}\\ & = \ frac {\ lVert {B\ bigl (f (x+h) -f (x) -f' (x) h\ bigr)}\ rVert} {\ lVert {k}\ rVert} \\ &\ leq \ lVert {B}\ rVert \ frac {\ lVert {h}\ rVert} {\ lVert}\,\ frac { \ lVert {f (x+h) -f (x) -f' (x) h}\ rVert} {\ lVert {h}\ rVert}\\ & \ leq 2\ lVert {B}\ rVert\ lVert {A^ {-1}}\ rVert \ frac {\ lVert {f (x+h) -f (x) -f' (x) h}\ rVert} {\ lVert {h}\ rVert}. \ end {split}\] Comok va a 0, también lo haceh. Entonces el lado derecho va a 0 comof es diferenciable, y de ahí el lado izquierdo también va a 0. YB es precisamente lo queg'(y) queríamos ser.
Tenemosg es diferenciable, demostremos que esC^1(W). Ahora,g \colon W \to V es continuo (es diferenciable),f' es una función continua deV aL({\mathbb{R}}^n), yX \to X^{-1} es una función continua. g'(y) = {\bigl( f'\bigl(g(y)\bigr)\bigr)}^{-1}es la composición de estas tres funciones continuas y por lo tanto es continua.
Supongamos queU \subset {\mathbb{R}}^nf \colon U \to {\mathbb{R}}^n es abierto y es un mapeo continuamente diferenciable tal quef'(x) es invertible para todosx \in U. Entonces dado cualquier conjunto abiertoV \subset U,f(V) está abierto. (fes un mapeo abierto).
Sin pérdida de generalidad, supongamosU=V. Para cada puntoy \in f(V), elegimosx \in f^{-1}(y) (podría haber más de uno de esos puntos), luego por el teorema de la función inversa hay un vecindario dex enV ese mapas sobre un vecindario dey. De ahíf(V) que esté abierto.
El teorema, y el corolario, no es cierto si nof'(x) es invertible para algunosx. Por ejemplo, el mapaf(x,y) = (x,xy),{\mathbb{R}}^2 se mapea al conjunto{\mathbb{R}}^2 \setminus \{ (0,y) : y \neq 0 \}, que no está ni abierto ni cerrado. De hechof^{-1}(0,0) = \{ (0,y) : y \in {\mathbb{R}}\}. Este mal comportamiento solo ocurre en ely eje -, en todas partes la función es localmente invertible. Si evitamos ely -eje,f es incluso uno a uno.
También tenga en cuenta que solo porquef'(x) sea invertible en todas partes no significa quef sea uno a uno a nivel global. Es “localmente” uno a uno pero quizás no “globalmente”. Por ejemplo, tomemos el mapaf \colon {\mathbb{R}}^2 \setminus \{ 0 \} \to {\mathbb{R}}^2 definido porf(x,y) = (x^2-y^2,2xy). Se deja al estudiante demostrar quef es diferenciable y la derivada es invertible
Por otro lado, el mapeo es de 2 a 1 a nivel global. Por cada(a,b) que no es el origen, hay exactamente dos soluciones ax^2-y^2=a y2xy=b. Dejamos que el alumno demuestre que hay al menos una solución, para luego notar que reemplazandox yy con-x y-y obtenemos otra solución.
La invertibilidad de la derivada no es una condición necesaria, solo suficiente, para tener una inversa continua y ser un mapeo abierto. Por ejemplo, la funciónf(x) = x^3 es un mapeo abierto de{\mathbb{R}} a{\mathbb{R}} y es globalmente uno a uno con una inversa continua, aunque la inversa no es diferenciable enx=0.
Teorema de la función implícita
El teorema de la función inversa es realmente un caso especial del teorema de la función implícita que probamos a continuación. Aunque algo irónicamente probamos el teorema de la función implícita usando el teorema de la función inversa. Lo que estábamos mostrando en el teorema de la función inversa era que la ecuaciónx-f(y) = 0 era solucionabley en términos dex si la derivada en términos dey era invertible, es decir, sif'(y) era invertible. Es decir, había localmente una funcióng tal quex-f\bigl(g(x)\bigr) = 0.
Bien, entonces, ¿qué tal si miramos la ecuaciónf(x,y) = 0? Obviamente esto no es solucionabley en términos dex en todos los casos. Por ejemplo, cuando en realidadf(x,y) no depende dey. Para un ejemplo un poco más complicado, observe quex^2+y^2-1 = 0 define el círculo unitario, y podemos resolverlo localmentey en términos dex cuando 1) estamos cerca de un punto que se encuentra en el círculo unitario y 2) cuando no estamos en un punto donde el círculo tenga una tangencia vertical, o en otras palabras donde \frac{\partial f}{\partial y} = 0.
Para simplificar las cosas arreglamos alguna notación. Dejamos\ ((x, y)\ in {\ mathbb {R}} ^ {n+m}\) denotar las coordenadas(x_1,\ldots,x_n,y_1,\ldots,y_m). EntoncesA \in L({\mathbb{R}}^{n+m},{\mathbb{R}}^m) se puede escribir una transformación lineal de talA = [ A_x ~ A_y ] manera queA(x,y) = A_x x + A_y y, dóndeA_x \in L({\mathbb{R}}^n,{\mathbb{R}}^m) yA_y \in L({\mathbb{R}}^m).
VamosA = [A_x~A_y] \in L({\mathbb{R}}^{n+m},{\mathbb{R}}^m) y supongamos queA_y es invertible. SiB = - {(A_y)}^{-1} A_x, entonces0 = A ( x, Bx) = A_x x + A_y Bx .
La prueba es obvia. Simplemente resolvemos y obtenemosy = Bx. Demostremos que lo mismo se puede hacer paraC^1 las funciones.
[thm:implicit] DejarU \subset {\mathbb{R}}^{n+m} ser un conjunto abierto y dejarf \colon U \to {\mathbb{R}}^m ser unC^1(U) mapeo. (p,q) \in USea un punto tal quef(p,q) = 0 y tal que\frac{\partial(f_1,\ldots,f_m)}{\partial(y_1,\ldots,y_m)} (p,q) \neq 0 . Entonces existe un conjunto abiertoW \subset {\mathbb{R}}^n conp \in W, un conjunto abiertoW' \subset {\mathbb{R}}^m conq \in W', conW \times W' \subset U, y unC^1(W) mapeog \colon W \to W', cong(p) = q, y para todosx \in W, el puntog(x) es el punto único enW' tal quef\bigl(x,g(x)\bigr) = 0 . Además, si[ A_x ~ A_y ] = f'(p,q), entoncesg'(p) = -{(A_y)}^{-1}A_x .
La condición\ (\ frac {\ parcial (f_1,\ ldots, f_m)} {\ parcial (y_1,\ ldots, y_m)} (p, q) = \ det (a_y)\ neq 0\) simplemente significa queA_y es invertible.
DefinirF \colon U \to {\mathbb{R}}^{n+m} porF(x,y) := \bigl(x,f(x,y)\bigr). Es claro queF esC^1, y queremos demostrar que el derivado at(p,q) es invertible.
Calculemos la derivada. Sabemos que\frac{\lVert {f(p+h,q+k) - f(p,q) - A_x h - A_y k} \rVert}{\lVert {(h,k)} \rVert} va a cero como\lVert {(h,k)} \rVert = \sqrt{\lVert {h} \rVert^2+\lVert {k} \rVert^2} va a cero. Pero entonces también lo hace\ [\ frac {\ lVert {\ bigl (h, f (p+h, q+k) -f (p, q)\ bigr) - (h, a_x h+a_y k)}\ rVert} {\ lVert {(h, k)}\ rVert} = \ frac {\ lVert {f (p+h, q+k) - f (p, q) - a_x h - a_Y k}\ rVert} {\ lVert {(h, k)}\ rVert}.\] Así que la derivada deF at(p,q) lleva(h,k) a(h,A_x h+A_y k). Si(h,A_x h+A_y k) = (0,0), entoncesh=0, y asíA_y k = 0. ComoA_y es uno a uno, entoncesk=0. Por lo tanto,F'(p,q) es uno a uno o en otras palabras invertible y aplicamos el teorema de la función inversa.
Es decir, existe algún conjunto abiertoV \subset {\mathbb{R}}^{n+m} con(p,0) \in V, y un mapeo inversoG \colon V \to {\mathbb{R}}^{n+m}, es decirF\bigl(G(x,s)\bigr) = (x,s) para todos(x,s) \in V (dóndex \in {\mathbb{R}}^n ys \in {\mathbb{R}}^m). EscribirG = (G_1,G_2) (el primeron y el segundom componentes deG). Entonces\ [F\ bigl (G_1 (x, s), G_2 (x, s)\ bigr) =\ bigl (G_1 (x, s), f (G_1 (x, s), G_2 (x, s))\ bigr) = (x, s).\] Asíx = G_1(x,s) yf\bigl(G_1(x,s),G_2(x,s)\bigr) = f\bigl(x,G_2(x,s)\bigr) = s. Conectandos=0 obtenemosf\bigl(x,G_2(x,0)\bigr) = 0 . El conjuntoG(V) contiene todo un vecindario del punto(p,q) y por lo tanto hay algunos abiertos El conjuntoV está abierto y de ahí existen algunos conjuntos abiertos\widetilde{W} yW' tal que\widetilde{W} \times W' \subset G(V) con\ (p \ in\ anchotilde {W}\) y q \in W'. Entonces tomaW = \{ x \in \widetilde{W} : G_2(x,0) \in W' \}. La función que llevax aG_2(x,0) es continua y por lo tantoW es abierta. Definimosg \colon W \to {\mathbb{R}}^m porg(x) := G_2(x,0) cual es elg en el teorema. El hecho de queg(x) es el punto único enW' sigue porque\ (W\ veces W'\ subconjunto G (V)\) yG es uno a uno y sobreG(V).
Siguiente diferenciarx\mapsto f\bigl(x,g(x)\bigr) , enp, que debería ser el mapa cero. La derivada se realiza de la misma manera que anteriormente. Lo conseguimos para todosh \in {\mathbb{R}}^{n}0 = A\bigl(h,g'(p)h\bigr) = A_xh + A_yg'(p)h , y también obtenemos el derivado deseado parag.
Es decir, en el contexto del teorema tenemosm ecuaciones enn+m incógnitas. \ [\ begin {aligned} & f_1 (x_1,\ ldots, x_n, y_1,\ ldots, y_m) = 0\\ &\ qquad\ qquad\ qquad\ vdots\\ & f_m (x_1,\ ldots, x_n, y_1,\ ldots, y_m) = 0\ end {alineado}\] Y la condición que garantiza un solución es que se trata de unC^1 mapeo (que todos los componentes sonC^1, o en otros palabras todas las derivadas parciales existen y son continuas), y la matriz\ [\ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial y_1} &\ ldots & \ frac {\ parcial f_1} {\ y_m parcial} \ \ vdots &\ ddots &\ vdots \\ \ frac {\ parcial f_m} {\ parcial y_1} &\ ldots & \ frac {\ parcial f_m} {\ y_m parcial} \ end {bmatrix}\] es invertible en(p,q).
Considera el conjuntox^2+y^2-{(z+1)}^3 = -1,e^x+e^y+e^z = 3 cerca del punto(0,0,0). La función que estamos viendo esf(x,y,z) = (x^2+y^2-{(z+1)}^3+1,e^x+e^y+e^z-3) . Encontramos que\ [f' = \ begin {bmatrix} 2x & 2y & -3 {(z+1)} ^2\\ e^x & e^y & e^z \ end {bmatrix}.\] La matriz\ [\ begin {bmatrix} 2 (0) & -3 {(0+1)} ^2\\ e^0 & e^0 \ end {matriz} = \ comenzar {bmatrix} 0 y -3\\ 1 & 1 \ end {bmatrix}\] es invertible. De ahí que cerca(0,0,0) podamos encontrary yz comoC^1 funciones dex tal manera que parax cerca 0 tenemos\ [x^2+y (x) ^2- {\ bigl (z (x) +1\ bigr)} ^3 = -1, \ qquad e^x+e^ {y (x)} +e^ {z (x)} = 3.\] El teorema no nos dice como encontrary(x) yz(x) explícitamente, solo nos dice que existen. Es decir, cerca del origen el conjunto de soluciones es una curva suave en{\mathbb{R}}^3 que pasa por el origen.
Observamos que existen versiones del teorema para arbitrariamente muchos derivados. Sif tiene derivadosk continuos, entonces la solución también tiene derivadosk continuos.
Ejercicios
VamosC = \{ (x,y) \in {\mathbb{R}}^2 : x^2+y^2 = 1 \}.
a) Resolver pory en cuantox a cerca(0,1).
b) Resolver pory en cuantox a cerca(0,-1).
c) Resolver porx en cuantoy a cerca(-1,0).
Definirf \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 por\ (f (x, y) :=
\ bigl (x, y+h (x)\ bigr)\) para alguna función continuamente diferenciableh de una variable.
a) Demostrar quef es uno a uno y sobre.
b) Cómpiatef'.
c) Mostrar quef' es invertible en todos los puntos, y computar su inversa.
Definirf \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 \setminus \{ (0,0) \} por\ (f (x, y) :=
\ bigl (e^x\ cos (y), e^x\ sin (y)\ bigr)\).
a) Demostrar quef está en.
b) Demostrar quef' es invertible en todos los puntos.
c) Mostrar que nof es uno-a-uno, de hecho para cada\ ((a, b)\ in {\ mathbb {R}} ^2
\ setmenos\ {(0,0)\}\), existen infinitamente muchos puntos diferentes(x,y) \in {\mathbb{R}}^2 tales quef(x,y) = (a,b).
Por lo tanto, el derivado invertible en cada punto no significa quef sea invertible globalmente.
Encuentra un mapaf \colon {\mathbb{R}}^n \to {\mathbb{R}}^n que sea uno a uno, en, continuamente diferenciable, perof'(0) = 0. Pista: Generalizarf(x) = x^3 de uno an dimensiones.
Considerarz^2 + xz + y =0 en{\mathbb{R}}^3. Encontrar una ecuaciónD(x,y)=0, tal que siD(x_0,y_0) \not= 0 yz^2+x_0z+y_0 = 0 para algunosz \in {\mathbb{R}}, entonces para los puntos cercanos(x_0,y_0) existen exactamente dos funciones distintas continuamente diferenciablesr_1(x,y) yr_2(x,y) tal quez=r_1(x,y) yz=r_2(x,y) resolverz^2 + xz + y =0. ¿Reconoces la expresiónD del álgebra?
Supongamos quef \colon (a,b) \to {\mathbb{R}}^2 es continuamente diferenciable y\frac{\partial f}{\partial x}(t) \not= 0 para todost \in (a,b). Demostrar que existe un intervalo(c,d) y una función continuamente diferenciableg \colon (c,d) \to {\mathbb{R}} tal que(x,y) \in f\bigl((a,b)\bigr) si y sólo six \in (c,d) yy=g(x). En otras palabras, el conjuntof\bigl((a,b)\bigr) es una gráfica deg.
Definef \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\ [f (x, y) :=
\ begin {cases}
(x^2\ sin\ bigl (\ nicefrac {1} {x}\ bigr) +\ frac {x} {2}, y) &\ text {si $x\ no= 0$,}\\
(0, y) &\ text {if $x=0$.}
\ end {cases}\] a) Mostrar quef es diferenciable en todas partes.
b) Demostrar quef'(0,0) es invertible.
c) Demostrar que nof es uno-a-uno en ningún vecindario del origen (no es localmente invertible, es decir, el teorema inverso no funciona).
d) Demostrar que nof es continuamente diferenciable.
[mv:exercise:polarcoordinates] Definir un mapeoF(r,\theta) := \bigl(r \cos(\theta), r \sin(\theta) \bigr).
a) Mostrar queF es continuamente diferenciable (para todos\ ((r,\ theta)\ in
{\ mathbb {R}} ^2\)).
b) CalculaF'(0,\theta) para cualquier\theta.
c) Demostrar que sir \not= 0, entoncesF'(r,\theta) es invertible, por lo tanto una inversa deF existe localmente siempre y cuandor \not= 0.
d) Mostrar queF \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 es onto, y para cada punto\ ((x, y)\ in
{\ mathbb {R}} ^2\), el conjuntoF^{-1}(x,y) es infinito.
e) Mostrar queF \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 es un mapa abierto, a pesar de no satisfacer la condición del teorema de la función inversa.
f) Demostrar queF|_{(0,\infty) \times [0,2\pi)} es uno a uno y sobre{\mathbb{R}}^2 \setminus \{ (0,0) \}.
Derivados de orden superior
Nota: menos de 1 conferencia, depende de la optativa §4.3 del tomo I
DejarU \subset {\mathbb{R}}^n ser un conjunto abierto yf \colon U \to {\mathbb{R}} una función. Denote porx = (x_1,x_2,\ldots,x_n) \in {\mathbb{R}}^n nuestras coordenadas. Supongamos que\frac{\partial f}{\partial x_j} existe en todas partesU, entonces notamos que también es una función\ (\ frac {\ parcial f} {\ parcial x_j} \ colon U\ a {\ mathbb {R}}\). Por lo tanto, tiene sentido hablar de sus derivados parciales. Denotamos la derivada parcial de\frac{\partial f}{\partial x_j} con respecto ax_k por\ [\ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j} : = \ frac {\ parcial\ bigl (\ frac {\ parcial f} {\ parcial x_j}\ bigr)} {\ parcial x_k}.\] Sik=j, entonces escribimos\frac{\partial^2 f}{\partial x_j^2} por simplicidad.
Definimos derivados de orden superior inductivamente. Supongamos quej_1,j_2,\ldots,j_\ell son enteros entre1 yn, y supongamos que\frac{\partial^{\ell-1} f}{\partial x_{j_{\ell-1}} \partial x_{j_{\ell-2}} \cdots \partial x_{j_1}} existe y es diferenciable en la variablex_{j_{\ell}}, entonces la derivada parcial con respecto a esa variable se denota por\ [\ frac {\ parcial^ {\ ell} f} {\ parcial x_ {j_ {\ ell}}\ parcial x_ {j_ {\ ell-1}} \ cdots\ parcial x_ {j_1}} : = \ frac {\ parcial\ bigl (\ frac {\ parcial^ {\ ell-1} f} {\ parcial x_ {j_ {\ ell-1}}\ parcial x_ {j_ {\ ell-2}}\ cdots\ x_ parcial {j_1}}\ bigr)} {\ parcial x_ {j_ {\ ell}}.\] Tal derivada se llama derivada parcial de orden\ell.
Observación que a vecesf_{x_j x_k} se utiliza la notación para\frac{\partial^2 f}{\partial x_k \partial x_j}. Esta notación intercambia el orden de las derivadas, lo que puede ser importante.
SiU \subset {\mathbb{R}}^n es un conjunto abierto yf \colon U \to {\mathbb{R}} una función. Decimosf es k-veces función continuamente diferenciable, o unaC^k función, si todas las derivadas parciales de todas las órdenes hasta e incluyendo ordenk existen y son continuas.
Entonces una función continuamente diferenciable, oC^1, es aquella en la que todas las derivadas parciales existen y son continuas, lo que concuerda con nuestra definición anterior debido a. Podríamos haber requerido solo que las derivadas parciales de ordenk th existan y sean continuas, ya que la existencia de derivadas de orden inferior es claramente necesaria para definir incluso las derivadas parciales de ordenk th, y estas derivadas de orden inferior serán continuas ya que serán diferenciables funciones.
Cuando las derivadas parciales son continuas, podemos intercambiar su orden.
[mv:prop:swapders] Supongamos queU \subset {\mathbb{R}}^nf \colon U \to {\mathbb{R}} está abierto y es unaC^2 función,j y yk son dos enteros entre1 yn. Entonces\ [\ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k}.\]
Fijar un puntop \in U, y dejare_j ye_k ser los vectores base estándar y dejars yt ser dos pequeños números reales distintos de cero. Escogemoss y lo suficientementet pequeñosp+s_0e_j +t_0e_k \in U para que para todoss_0 yt_0 con\left\lvert {s_0} \right\rvert \leq \left\lvert {s} \right\rvert y\left\lvert {t_0} \right\rvert \leq \left\lvert {t} \right\rvert. Esto es posible ya queU está abierto y por lo tanto contiene una bola pequeña (o una caja si lo deseas).
Usando el teorema del valor medio sobre la derivada parcial inx_k de la funciónf(p+se_j)-f(p), encontramos unt_0 entre0 yt tal que\ [\ frac {f (p+se_j + te_k) - f (p+t e_k) - f (p+s e_j) +f (p)} {t} = \ frac {\ parcial f} {\ parcial x_k} (p + s e_j + t_0) - \ frac {\ parcial f} {\ parcial x_k} (p + t_0 e_k).\] A continuación existe un números_0 entre0 ys tal que\ [\ frac {\ frac {\ frac {\ parcial f} {\ parcial x_k} (p + s e_j + t_0 e_k) - \ frac {\ parcial f} {\ parcial x_k} (p + t_0 e_k)} {s} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} (p + s_0 e_j + t_0 e_k).\] En otras palabras\ [g (s, t) := \ frac {f (p+se_j + te_k) - f (p+t e_k) - f (p+s e_j) +f (p)} {st} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} (p + s_0 e_j + t_0 e_k).\] Tomando un límite como(s,t) \in {\mathbb{R}}^2 va a cero encontramos que(s_0,t_0) también va a cero y por continuidad del segundo parcial derivados encontramos que\ [\ lim_ {(s, t)\ a 0} g (s, t) = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} (p).\] Ahora invertimos el orden, comenzando con la funciónf(p+te_k)-f(p) encontramos uns_1 entre0 ys tal que\ [\ frac {f (p+te_k + se_j) - (f (p+te_k + se_j) - f (p+s e_j) - f (p+t e_k) +f (p)} {s} = \ frac {\ parcial f} {\ parcial x_j} (p + t e_k + s_1 e_j) - \ frac {\ parcial f} {\ parcial x_j} (p + s_1 e_j).\] Y encontramos unt_1 entre0 yt\ [\ frac {\ frac {\ frac {\ parcial f} {\ parcial x_j} (p + t e_k + s_1) - \ frac {\ parcial f} {\ parcial x_j} (p + s_1 e_j)} {t} = \ frac {\ parcial^2 f} {\ x_k parcial\ x_j parcial} (p + t_1 e_k + s_1 e_j).\] Nuevamente encontramos que\ (g (s, t) =\ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j parcial} (p + t_1 e_k + s_1 e_j)\) y por lo tanto\\ lim_ {(s, t)\ a 0} g (s, t) = \ frac {\ parcial^2 f} {\ x_k parcial\ x_j parcial} (p).\] Y por lo tanto los dos las derivadas parciales son iguales.
La proposición no se mantiene si los derivados no son continuos. Ver los ejercicios. Observe también que realmente no necesitábamos unaC^2 función solo necesitábamos las dos derivadas parciales de segundo orden involucradas para ser funciones continuas.
Ejercicios
Supongamos quef \colon U \to {\mathbb{R}} es unaC^2 función para algunos open\ (U\ subset {\ mathbb {R}} ^n\) yp \in U. Utilice la prueba de para encontrar una expresión en términos de solo los valores def (análogo del cociente de diferencia para la primera derivada), cuyo límite es\frac{\partial^2 f}{ \partial x_j \partial x_k}(p).
Definir\ [f (x, y) :=
\ begin {cases}
\ frac {xy (x^2-y^2)} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $,}\\
0 &\ text {if $ (x, y) = (0,0) $.}
\ end {cases}\] Demostrar que
a) Las derivadas parciales de primer orden existen y son continuas.
b) Las derivadas parciales\frac{\partial^2 f}{\partial x \partial y} y\frac{\partial^2 f}{\partial y \partial x} existen, pero no son continuas en el origen, y\ (\ frac {\ parcial^2 f} {\ parcial x\ parcial y} (0,0)\ not=
\ frac {\ parcial^2 f} {\ parcial y\ parcial x} (0,0)\).
Supongamos quef \colon U \to {\mathbb{R}} es unaC^k función para algunos open\ (U\ subset {\ mathbb {R}} ^n\) yp \in U. Supongamos quej_1,j_2,\ldots,j_k son enteros entre1 yn, y supongamos que\sigma=(\sigma_1,\sigma_2,\ldots,\sigma_k) es una permutación de(1,2,\ldots,k). Demostrar\ [\ frac {\ parcial^ {k} f} {\ parcial x_ {j_ {k}}\ parcial x_ {j_ {k-1}} \ cdots\ parcial x_ {j_1}} (p) = \ frac {\ parcial^ {k} f} {\ parcial x_ {j_ {\ sigma_k}}\ parcial x_ {j_\ sigma_ {k-1}}} \ cdots\ parcial x_ {j_ {\ sigma_1}}} (p).\]
Supongamos\varphi \colon {\mathbb{R}}^2 \to {\mathbb{R}} ser unaC^k función tal que\varphi(0,\theta) = \varphi(0,\psi) para todos\theta,\psi \in {\mathbb{R}} y\varphi(r,\theta) = \varphi(r,\theta+2\pi) para todosr,\theta \in {\mathbb{R}}. DejarF(r,\theta) = \bigl(r \cos(\theta), r \sin(\theta) \bigr) de. Mostrar que una funcióng \colon {\mathbb{R}}^2 \to {\mathbb{R}}, dadag(x,y) := \varphi \bigl(F^{-1}(x,y)\bigr) está bien definida (aviso que sólo seF^{-1}(x,y) puede definir localmente), y cuando se restringe a{\mathbb{R}}^2 \setminus \{ 0 \} ella es unaC^k función.
Integrales unidimensionales en varias variables
Diferenciación bajo la integral
Nota: menos de 1 conferencia
Dejarf(x,y) ser una función de dos variables y definirg(y) := \int_a^b f(x,y) ~dx . Supongamosf es diferenciable eny. La pregunta que hacemos es cuándo podemos “diferenciarnos bajo lo integral”, es decir, cuándo es cierto queg es diferenciable y su derivada Lag'(y) \overset{?}{=} \int_a^b \frac{\partial f}{\partial y}(x,y) ~dx . diferenciación es un límite y por lo tanto realmente nos estamos preguntando cuándo se desplazan las dos operaciones limitantes de integración y diferenciación. Como hemos visto, esto no siempre es posible, se necesita algún tipo de uniformidad. En particular, la primera pregunta que nos enfrentaríamos es la integrabilidad de\frac{\partial f}{\partial y}, pero la fórmula puede fallar aunque\frac{\partial f}{\partial y} sea integrable para todosy.
Demostremos una versión sencilla, pero la más útil de este teorema.
Supongamos quef \colon [a,b] \times [c,d] \to {\mathbb{R}} es una función continua, tal que\frac{\partial f}{\partial y} existe para todos\ ((x, y)\ in [a, b] \ times [c, d]\) y es continua. Definirg(y) := \int_a^b f(x,y) ~dx . Entoncesg \colon [c,d] \to {\mathbb{R}} es diferenciable yg'(y) = \int_a^b \frac{\partial f}{\partial y}(x,y) ~dx .
Los requisitos de continuidad paraf y\frac{\partial f}{\partial y} pueden debilitarse, pero no bajarse de plano. El punto principal es\frac{\partial f}{\partial y} que exista y sea continuo por un pequeño intervalo en lay dirección. En aplicaciones, el[c,d] puede ser un pequeño intervalo alrededor del punto donde se necesita diferenciar.
Arreglary \in [c,d] y dejar que\epsilon > 0 se le dé. Como\frac{\partial f}{\partial y} es continuo en[a,b] \times [c,d] él es uniformemente continuo. En particular, existe\delta > 0 tal que siempre quey_1 \in [c,d] con\left\lvert {y_1-y} \right\rvert < \delta y todosx \in [a,b] tenemos\left\lvert {\frac{\partial f}{\partial y}(x,y_1)-\frac{\partial f}{\partial y}(x,y)} \right\rvert < \epsilon .
Supongamos queh es tal quey+h \in [c,d] y\left\lvert {h} \right\rvert < \delta. Fijarx por un momento y aplicar el teorema del valor medio para encontrar uny_1 entrey yy+h tal que\ [\ frac {f (x, y+h) -f (x, y)} {h} = \ frac {\ parcial f} {\ parcial y} (x, y_1).\] Si\left\lvert {h} \right\rvert < \delta, entonces\ [\ left\ lvert { \ frac {f (x, y+h) -f (x, y, y)} {h} - \ frac {\ parcial f} {\ parcial y} (x, y) }\ derecha\ rvert = \ izquierda\ lvert { \ frac {\ parcial f} {\ parcial y} (x, y_1) - \ frac {\ parcial f} {\ parcial y} (x, y) }\ derecha\ rvert <\ épsilon.\] Este argumento funcionó para cadax \in [a,b]. Por lo tanto, en función dex\ [x\ mapsto\ frac {f (x, y+h) -f (x, y)} {h} \ qquad \ text {converge uniformemente a} \ qquad x\ mapsto\ frac {\ parcial f} {\ parcial y} (x, y) \ qquad \ text {como $h\ a 0$}.\] Solo definimos convergencia uniforme para secuencias aunque la idea es la misma. Si lo deseas puedes reemplazarh\nicefrac{1}{n} por arriba y dejarn \to \infty.
Ahora considera el cociente de diferencia\ [\ frac {g (y+h) -g (y)} {h} = \ frac {\ int_a^b f (x, y+h) ~dx - \ int_a^b f (x, y) ~dx} {h} = \ int_a^b\ frac {f (x, y+h) -f (x, y)} {h} ~dx.\] La convergencia uniforme se puede tomar debajo de la integral y por lo tanto\ [\ lim_ {h\ a 0} \ frac {g (y+h) -g (y)} {h} = \ int_a^ b \ lim_ {h\ a 0} \ frac {f (x, y+h) -f (x, y)} {h} ~dx = \ int_a^b \ frac {\ parcial f} {\ parcial y} (x, y) ~dx. \ qedhere\]
Vamosf(y) = \int_0^1 \sin(x^2-y^2) ~dx . Entoncesf'(y) = \int_0^1 -2y\cos(x^2-y^2) ~dx .
Supongamos que comenzamos con\int_0^{1} \frac{x-1}{\ln(x)} ~dx . La función bajo la integral se extiende para ser continua en[0,1], y de ahí la integral existe, ver ejercicio a continuación. El problema es encontrarlo. Introducir un parámetroy y definir una función:g(y) := \int_0^{1} \frac{x^y-1}{\ln(x)} ~dx . La función\frac{x^y-1}{\ln(x)} también se extiende a una función continua dex yy para(x,y) \in [0,1] \times [0,1]. Por lo tantog es una función continua de on[0,1]. En particular,g(0) = 0. Para cualquiera\epsilon > 0, lay derivada del integrandox^y, es continua en[0,1] \times [\epsilon,1]. Por lo tanto, puesy >0 podemos diferenciar bajo el signo integral\ [g' (y) = \ int_0^ {1}\ frac {\ ln (x) x^y} {\ ln (x)} ~dx = \ int_0^ {1} x^y ~dx = \ frac {1} {y+1}.\] Necesitamos averiguarg(1), conocerg'(y) = \frac{1}{y+1} y\ (g (0) = 0\). Por cálculo elemental nos encontramosg(1) = \int_0^1 g'(y)~dy = \ln(2). Por lo tanto\int_0^{1} \frac{x-1}{\ln(x)} ~dx = \ln(2).
Demostrar las dos afirmaciones que se hicieron valer en el ejemplo.
a) Probar\frac{x-1}{\ln(x)} se extiende a una función continua de[0,1].
b) Demostrar\frac{x^y-1}{\ln(x)} se extiende para ser una función continua en[0,1] \times [0,1].
Ejercicios
Supongamos queh \colon {\mathbb{R}}\to {\mathbb{R}} es una función continua. Supongamos que \ (g\ colon {\ mathbb {R}}\ to {\ mathbb {R}}\) es el cual es continuamente diferenciable y soportado de forma compacta. Eso es que existe algunaM > 0 tal queg(x) = 0 siempre que\left\lvert {x} \right\rvert \geq M. Definirf(x) := \int_{-\infty}^\infty h(y)g(x-y)~dy . Espectáculo quef sea diferenciable.
Supongamos quef \colon {\mathbb{R}}\to {\mathbb{R}} es una función infinitamente diferenciable (existen todas las derivadas) tal quef(0) = 0. Entonces mostrar que existe otra función infinitamente diferenciableg(x) tal quef(x) = xg(x). Por último mostrar que sif'(0) \not= 0, entoncesg(0) \not= 0. Pista: primero escribef(x) = \int_0^x f'(s) ds y luego reescribe la integral para pasar de0 a 1.
\int_0^1 e^{tx} ~dxCómpiate. Derivar la fórmula para\int_0^1 x^n e^{x} ~dx no usar integración por partes, sino por diferenciación debajo de la integral.
DejarU \subset {\mathbb{R}}^n ser un conjunto abierto y supongamos quef(x,y_1,y_2,\ldots,y_n) es una función continua definida en[0,1] \times U \subset {\mathbb{R}}^{n+1}. Supongamos que\ (\ frac {\ parcial f} {\ parcial y_1}, \ frac {\ parcial f} {\ parcial y_2},\ ldots, \ frac {\ parcial f} {\ parcial y_n}\) existen y son continuos en[0,1] \times U. Entonces prueba queF \colon U \to {\mathbb{R}} definido por\ [F (y_1, y_2,\ ldots, y_n) := \ int_0^1 f (x, y_1, y_2,\ ldots, y_n) \, dx\] es continuamente diferenciable.
Elaborar el siguiente contraejemplo: Let\ [f (x, y) :=
\ begin {cases}
\ frac {xy^3} {{(x^2+y^2)} ^2} &\ text {if $x\ not=0$ o $y\ not= 0$,}\\
0 &\ text {if $x=0$ y $y=0$.}
\ end {cases}\] a) Demostrar que para cualquier fijoy la funciónx \mapsto f(x,y) es Riemann integrable on[0,1] yg(y) = \int_0^1 f(x,y) \, dx = \frac{y}{2y^2+2} . Por lo tantog'(y) existe y obtenemos la función continuag'(y) = \frac{1-y^2}{2{(y^2+1)}^2} . b) Demostrar\frac{\partial f}{\partial y} existe en absolutox yy y computarla.
c) Demostrar que para todosy\int_0^1 \frac{\partial f}{\partial y} (x,y) \, dx existe perog'(0) \not= \int_0^1 \frac{\partial f}{\partial y} (x,0) \, dx .
Elaborar el siguiente contraejemplo: Let\ [f (x, y) :=
\ begin {cases}
xy^2\ sin\ bigl (\ frac {1} {x^3y}\ bigr) &\ text {if $x\ not=0$ y $y\ not= 0$,}\\
0 &\ text {if $x=0$ o $y=0$.}
\ end {cases}\] a)f La prueba es continua en[0,1] \times [a,b] cualquier intervalo[a,b]. Por lo tanto la siguiente función está bien definida en[a,b]g(y) = \int_0^1 f(x,y) \, dx . b) Probar\frac{\partial f}{\partial y} existe para todos(x,y) en[0,1] \times [a,b], pero no es continua.
c) Demostrar que\int_0^1 \frac{\partial f}{\partial y}(x,y) \, dx no existe siy \not= 0 aunque tomemos integrales inadecuadas.
Integrales de ruta
Nota: 2—3 conferencias
Trayectorias lisas por piezas
Una función continuamente diferenciable\gamma \colon [a,b] \to {\mathbb{R}}^n se denomina trayectoria suave o trayectoria continuamente diferenciable 4 si\gamma es continuamente diferenciable y\gamma^{\:\prime}(t) \not= 0 para todost \in [a,b].
La función\gamma se denomina trayectoria lisa por tramos o trayectoria continuamente diferenciable por tramos si existen finitamente muchos puntos det_0 = a < t_1 < t_2 < \cdots < t_k = b tal manera que la restricción de la función\gamma|_{[t_{j-1},t_j]} es trayectoria suave.
Decimos que\gamma es un camino simple si\gamma|_{(a,b)} es una función uno a uno. A\gamma es un camino cerrado si\gamma(a) = \gamma(b), es decir si el camino comienza y termina en el mismo punto.
Ya que\gamma es una función de una variable, hemos visto antes que tratar\gamma^{\:\prime}(t) como una matriz equivale a tratarla como un vector ya que es unan \times 1 matriz, es decir, un vector de columna. De hecho, por un ejercicio anterior, incluso la norma operadora de\gamma^{\:\prime}(t) es igual a la norma euclidiana. Por lo tanto, vamos a escribir\gamma^{\:\prime}(t) como vector como es habitual, y entonces\gamma^{\:\prime}(t) es solo el vector de las derivadas de sus componentes, así que si\ (\ gamma (t) = \ bigl (\ gamma_1 (t),\ gamma_2 (t),\ ldots,\ gamma_n (t)\ bigr)\), entonces\ (\ gamma^ {\:\ prime} (t) = bigl (\ gamma_1^ {\:\ prime} (t),\ gamma_2^ {\:\ prime} (t) ,\ ldots, \ gamma_n^ {\:\ prime} (t)\ bigr)\).
A menudo, uno puede arreglárselas solo con rutas suaves, pero para los cálculos, las rutas más simples para escribir suelen ser suaves por partes. Tenga en cuenta que una función suave por partes (o ruta) es automáticamente continua (ejercicio).
Generalmente, es la imagen directa la\gamma\bigl([a,b]\bigr) que es lo que nos interesa, aunque también\gamma es importante hasta cierto punto cómo la parametrizamos con. Hablamos informalmente de una curva, y muchas veces nos referimos realmente al conjunto\gamma\bigl([a,b]\bigr), igual que antes dependiendo del contexto.
[mv:ejemplo:unitsquarepath] Dejar\gamma \colon [0,4] \to {\mathbb{R}}^2 ser definido por\ [\ gamma (t) := \ begin {cases} (t,0) &\ text {if $t\ in [0,1] $,}\\ (1, t-1) &\ text {if $t\ in (1,2] $,}\\ (3-t,1) &\ text {si $t\ in (2,3] $,}\\ (0,4-t) &\ texto {si $t\ in (3,4] $.} \ end {cases}\] Entonces el lector puede comprobar que la ruta es la unidad cuadrada atravesada en sentido antihorario. Podemos comprobarlo por ejemplo\gamma|_{[1,2]}(t) = (1,t-1) y por lo tanto(\gamma|_{[1,2]})'(t) = (0,1) \not= 0. Es bueno notar en este punto que(\gamma|_{[1,2]})'(1) = (0,1),(\gamma|_{[0,1]})'(1) = (1,0), y\gamma^{\:\prime}(1) no existe. Es decir, en las esquinas por supuesto no\gamma es diferenciable, a pesar de que las restricciones son diferenciables y la derivada depende de qué restricción tomes.
La condición que\gamma^{\:\prime}(t) \not= 0 significa que la imagen de no\gamma tiene “esquinas” donde\gamma es continuamente diferenciable. Por ejemplo, tome la función\ [\ gamma (t) := \ begin {cases} (t^2,0) &\ text {if $t < 0$,}\\ (0, t^2) &\ text {if $t\ geq 0$.} \ end {cases}\] Se deja que el lector compruebe que\gamma es continuamente diferenciable, sin embargo la imagen\ (\ gamma ({\ mathbb {R}}) =\ {(x, y)\ in {\ mathbb {R}} ^2: (x, y) = (s,0)\ text {o} (x, y) = (0, s)\ text {para algunos\ s 0} \} tiene una “esquina” en el origen. Y eso es porque\gamma^{\:\prime}(0) = (0,0). Existen ejemplos más complicados con incluso infinitamente muchos rincones, ver los ejercicios.
La condición de que\gamma^{\:\prime}(t) \not= 0 incluso en los puntos finales garantice no solo que no haya esquinas, sino que también que el camino termine bien, es decir, pueda extenderse un poco más allá de los puntos finales. Nuevamente, vea los ejercicios.
Un gráfico de una función continuamente diferenciablef \colon [a,b] \to {\mathbb{R}} es un camino suave. Es decir, definir\gamma \colon [a,b] \to {\mathbb{R}}^2 por\gamma(t) := \bigl(t,f(t)\bigr) . Entonces\gamma^{\:\prime}(t) = \bigl( 1 , f'(t) \bigr), que nunca es cero.
Hay otras formas de parametrizar el camino. Es decir, tener un camino diferente con la misma imagen. Por ejemplo, la función que llevat a(1-t)a+tb, toma el intervalo[0,1] a[a,b]. Así que\alpha \colon [0,1] \to {\mathbb{R}}^2 déjese definir por\alpha(t) := \bigl((1-t)a+tb,f((1-t)a+tb)\bigr) . Entonces\alpha'(t) = \bigl( b-a , (b-a)f'((1-t)a+tb) \bigr), que nunca es cero. Además como conjuntos\ (\ alpha\ bigl ([0,1]\ bigr) =\ gamma\ bigl ([a, b]\ bigr) =\ {(x, y)\ in {\ mathbb {R}} ^2: x\ in [a, b]\ text {y} f (x) = y\}\), que es solo la gráfica def.
El último ejemplo nos lleva a una definición.
Dejar\gamma \colon [a,b] \to {\mathbb{R}}^n ser un camino suave yh \colon [c,d] \to [a,b] una función biyectiva continuamente diferenciable tal queh'(t) \not= 0 para todost \in [c,d]. Entonces la composición\gamma \circ h se llama una reparametrización suave de\gamma.
Dejar\gamma ser un camino liso por partes, yh ser una función biyectiva lisa por partes. Entonces la composición\gamma \circ h se llama una reparametrización suave por partes de\gamma.
Sih es estrictamente creciente, entoncesh se dice que preserva la orientación. Sih no conserva la orientación, entoncesh se dice que invierte la orientación.
Una reparametrización es otro camino para el mismo conjunto. Es decir,\ (\ gamma\ circ h)\ bigl ([c, d]\ bigr) = \ gamma\ bigl ([a, b]\ bigr)\).
Comentemos que parah, poco a poco suave significa que hay alguna particiónt_0 = c < t_1 < t_2 < \cdots < t_k = d, tal queh|_{[t_{j-1},t_j]} es continuamente diferenciable y(h|_{[t_{j-1},t_j]})'(t) \not= 0 para todost \in [t_{j-1},t_j]. Dado queh es biyectiva, o bien es estrictamente creciente o estrictamente decreciente. Por lo tanto, ya sea(h|_{[t_{j-1},t_j]})'(t) > 0 para todost o(h|_{[t_{j-1},t_j]})'(t) < 0 para todost.
[prop:reparamapiecewisesmooth] Si\gamma \colon [a,b] \to {\mathbb{R}}^n es un camino liso por partes, y\gamma \circ h \colon [c,d] \to {\mathbb{R}}^n es una reparametrización suave por partes, entonces\gamma \circ h es un camino liso por partes.
Supongamos queh conserva la orientación, es decir,h es estrictamente creciente. Sih \colon [c,d] \to [a,b] da una reparametrización suave por partes, entonces para alguna particiónr_0 = c < r_1 < r_2 < \cdots < r_\ell = d, tenemosh|_{[t_{j-1},t_j]} es continuamente diferenciable con derivado positivo.
Dejart_0 = a < t_1 < t_2 < \cdots < t_k = b ser la partición a partir de la definición de pieza lisa para\gamma junto con los puntos\{ h(r_0), h(r_1), h(r_2), \ldots, h(r_\ell) \}. Vamoss_j := h^{-1}(t_j). Entoncess_0 = c < s_1 < s_2 < \cdots < s_k = d. Parat \in [s_{j-1},s_j] advertir queh(t) \in [t_{j-1},t_j],h|_{[s_{j-1},s_j]} es continuamente diferenciable, y también\varphi|_{[t_{j-1},t_j]} es continuamente diferenciable. Entonces\ [(\ gamma\ circ h) |_ {[s_ {j-1}, s_ {j}]} (t) = \ gamma|_ {[t_ {j-1}, t_ {j}]}\ bigl (h|_ {[s_ {j-1}, s_j]} (t)\ bigr).\] La función(\gamma \circ h)|_{[s_{j-1},s_{j}]} es, por lo tanto, continuamente diferenciable y por el regla de cadena\ [\ bigl ((\ gamma\ circ h) |_ {[s_ {j-1}, s_ {j}]}\ bigr) '(t) = \ bigl (\ gamma|_ {[t_ {j-1}, t_ {j}]}\ bigr) '\ bigl (h (t)\ bigr) (h|_ {[s_ {j-1}, s_j]})' (t)\ not= 0.\] Por lo tanto\gamma \circ h es un camino liso por partes. El caso de una marcha atrás de orientaciónh se deja como ejercicio.
Si dos caminos son simples y sus imágenes son iguales, se deja como ejercicio que existe una reparametrización.
Trayectoria integral de una sola forma
Si(x_1,x_2,\ldots,x_n) \in {\mathbb{R}}^n son nuestras coordenadas, y dadas las funciones continuas den valor realf_1,f_2,\ldots,f_n definidas en algún conjuntoS \subset {\mathbb{R}}^n definimos una llamada de una forma:\omega = \omega_1 dx_1 + \omega_2 dx_2 + \cdots \omega_n dx_n . Podríamos representar\omega como una función continua deS a{\mathbb{R}}^n, aunque es mejor pensar de ella como un objeto diferente.
Por ejemplo,\omega(x,y) = \frac{-y}{x^2+y^2} dx + \frac{x}{x^2+y^2} dy es una forma única definida en{\mathbb{R}}^2 \setminus \{ (0,0) \}.
Dejar\gamma \colon [a,b] \to {\mathbb{R}}^n ser un trazado suave y\omega = \omega_1 dx_1 + \omega_2 dx_2 + \cdots \omega_n dx_n , una forma única definida en la imagen directa\gamma\bigl([a,b]\bigr). \gamma = (\gamma_1,\gamma_2,\ldots,\gamma_n)Dejen ser los componentes de\gamma. Definir:\ [\ begin {split} \ int_ {\ gamma}\ omega &: = \ int_a^b \ Bigl ( \ omega_1\ bigl (\ gamma (t)\ bigr)\ gamma_1^ {\:\ prime} (t) + \ omega_2\ bigl (\ gamma (t)\ bigr)\ gamma_2^ {\: prime\} (t) +\ cdots + \ omega_n\ bigl (\ gamma (t)\ bigr)\ gamma_n^ {\:\ prime} (t)\ Bigr)\, dt \\ &\ fantasma {:} = \ int_a^b \ izquierda ( \ suma_ {j=1} ^n \ omega_j\ bigl (\ gamma (t)\ bigr)\ gamma_j^ {\:\ prime} (t)\ derecha)\, dt. \ end {split}\] Si\gamma es por partes suave, tomar la partición correspondientet_0 = a < t_1 < t_2 < \ldots < t_k = b, donde asumimos que la partición es la mínima, es decir no\gamma es diferenciable ent_2,t_3,\ldots,t_{k-1}. Cada uno\gamma|_{[t_{j-1},t_j]} es un camino suave y definimos\ [\ int_ {\ gamma}\ omega : = \ int_ {\ gamma|_ {[t_0, t_1]}} \ omega\, + \,\ int_ {\ gamma|_ {[t_1, t_2]}} \ omega\, +\ cdots\, +\, \ int_ {\ gamma|_ {[t_ {n-1}, t_n]}}\ omega.\]
La notación tiene sentido a partir de la fórmula que recuerdas del cálculo, vamos a expresarla de manera algo informal: six_j(t) = \gamma_j(t), entoncesdx_j = \gamma_j^{\:\prime}(t) dt.
Los caminos se pueden cortar o concatenar de la siguiente manera. La prueba es una aplicación directa de la aditividad de la integral Riemann, y se deja como ejercicio. La proposición también justifica por qué definimos la integral sobre un camino suave por partes en la forma en que lo hicimos, y justifica además que bien podríamos haber tomado cualquier partición, no solo la mínima en la definición.
[mv:prop:pathconcat] Dejar\gamma \colon [a,c] \to {\mathbb{R}}^n ser un camino liso por partes. Para algunosb \in (a,c), defina los caminos lisos por tramos\alpha = \gamma|_{[a,b]} y\beta = \gamma|_{[b,c]}. Para una forma única\omega definida en la imagen de\gamma tenemos\ [\ int_ {\ gamma}\ omega = \ int_ {\ alpha}\ omega + \ int_ {\ beta}\ omega.\]
[example:mv:irrotoneformint] Que la forma única\omega y la ruta\gamma \colon [0,2\pi] \to {\mathbb{R}}^2 sean definidas por\ [\ omega (x, y) :=\ frac {-y} {x^2+y^2} dx +\ frac {x} {x^2+y^2} dy, \ qquad \ gamma (t) :=\ bigl (\ cos (t),\ sin (t)\ bigr).\] Entonces\ [\ begin {split} \ int_ {\ gamma}\ omega & = \ int_0^ {2\ pi} \ Biggl ( \ frac {-\ sin (t)} {{\ bigl (\ cos (t)\ bigr)} ^2+ {\ bigl (\ sin (t)\ bigr)} ^2} \ bigl (-\ sin (t)\ bigr) + \ frac {\ cos (t)} {{\ bigl (\ cos (t)\ bigr)} ^2+ {\ bigl (\ sin (t)\ bigr)} ^2} \ bigl (\ cos (t)\ bigr)\ Biggr) \ Biggr)\, dt \\ & = \ int_0^ {2\ pi} 1\, dt = 2\ pi. \ end {split}\] A continuación, vamos a parametrizar la misma curva\alpha \colon [0,1] \to {\mathbb{R}}^2 definida por\ (\ alpha (t) :=\ bigl (\ cos (2\ pi t),\ sin (2\ pi t)\ bigr)\),\alpha es decir una reparametrización suave de\gamma. Entonces\ [\ begin {split} \ int_ {\ alpha}\ omega & = \ int_0^ {1} \ Biggl ( \ frac {-\ sin (2\ pi t)} {{\ bigl (\ cos (2\ pi t)\ bigr)} ^2+ {\ bigl (\ sin (2\ pi t)\ bigr)} ^2} \ bigl (-2\ pi\ sin (2\ pi t)\ bigr) \\ &\ fantasma {=\ int_0^1\ Biggl (~} + \ frac {\ cos (2\ pi t)} {{\ bigl (\ cos (2\ pi t)\ bigr)} ^2+ {\ bigl (\ sin (2\ pi t)\ bigr)} ^2} \ bigl (2\ pi\ cos (2\ pi t)\ bigr) \ Biggr)\, dt \\ & = \ int_0^ {1} 2\ pi\, dt = 2\ pi. \ end {split}\] Ahora vamos a reparametrizar con\beta \colon [0,2\pi] \to {\mathbb{R}}^2 as\beta(t) := \bigl(\cos(-t),\sin(-t)\bigr). Entonces\ [\ begin {split} \ int_ {\ beta}\ omega & = \ int_0^ {2\ pi} \ Biggl ( \ frac {-\ sin (-t)} {{\ bigl (\ cos (-t)\ bigr)} ^2+ {\ bigl (\ sin (-t)\ bigr)} ^2} \ bigl (\ sin (-t)\ bigr) + \ frac {\ cos (-t)} {{\ bigl (\ cos (-t)\ bigr)} ^2+ {\ bigl (\ sin (-t)\ bigr)} ^2} \ bigl (-\ cos (-t)\ bigr)\ Biggr) \ Biggr)\, dt \\ & = \ int_0^ {2\ pi} (-1)\, dt = -2\ pi. \ end {split}\] Ahora,\alpha era una orientación preservando la reparametrización de\gamma, y la integral era la misma. Por otro lado\beta es una orientación que invierte la reparametrización y la integral fue menos la original.
El ejemplo anterior no es una suerte. La integral de trayectoria no depende de la parametrización de la curva, lo único que importa es la dirección en la que se recorre la curva.
[mv:prop:pathintrepararam] Dejar\gamma \colon [a,b] \to {\mathbb{R}}^n ser un camino liso por partes y\gamma \circ h \colon [c,d] \to {\mathbb{R}}^n una reparametrización suave por partes. Supongamos que\omega es una forma definida en el conjunto\gamma\bigl([a,b]\bigr). Entonces\ [\ int_ {\ gamma\ circ h}\ omega = \ begin {cases} \ int_ {\ gamma}\ omega &\ text {si $h$ conserva la orientación,}\\ -\ int_ {\ gamma}\ omega &\ text {si $h$ invierte la orientación.} \ end {casos}\]
Asumir primero eso\gamma y ambosh son suaves. Escribe la forma única como\ (\ omega =\ omega_1 dx_1 +\ omega_2 dx_2 +\ cdots + \ omega_n dx_n\). Supongamos primero queh es conservar la orientación. Usando la definición de la integral path y la fórmula de cambio de variables para la integral Riemann,\ [\ begin {split} \ int_ {\ gamma}\ omega & = \ int_a^b \ left ( \ sum_ {j=1} ^n \ omega_j\ bigl (\ gamma (t)\ bigr)\ gamma_j^ {\:\ prime} (t) \ right)\, dt %\ left ( %\ omega_1\ bigl (\ gamma (t) \ bigr)\ gamma_1^ {\:\ prime} (t) + %\ omega_2\ bigl (\ gamma (t)\ bigr)\ gamma_2^ {\:\ prime} (t) +\ cdots + %\ omega_n\ bigl (\ gamma (t)\ bigr)\ gamma_n^ {\:\ prime} (t)\ derecha)\, dt \\ & = \ int_c^d \ izquierda ( \ suma_ {j=1} ^n \ omega_j\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr)\ gamma_j^ {\:\ prime}\ bigl (h (\ tau)\ bigr) \ derecha) h' (\ tau)\, d\ tau %\ izquierda ( %\ omega_1\ bigl (\ gamma (h (\ tau))\ bigr)\ gamma_1^ {\:\ prime} (h (\ tau)) + %\ omega_2\ bigl (\ gamma (h (\ tau))\ bigr)\ gamma_2^ {\:\ prime} (h (\ tau)) +\ cdots + %\ omega_n\ bigl (\ gamma (h (\ tau))\ bigr)\ gamma_n^ {\:\ prime} (h (\ tau))\ derecha) h' (\ tau)\, d\ tau \\ & = \ int_c^d \ izquierda ( \ suma_ {j=1} ^n \ omega_j\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr) (\ gamma_j\ circ h) '(\ tau) \ derecha)\, d\ tau %\ izquierda ( %\ omega_1\ bigl (\ gamma (h (\ tau)\ bigr) (\ gamma_1\ circ h)' (\ tau) + %\ omega_2\ bigl (\ gamma (h (\ tau))\ bigr) (\ gamma_2\ circ h) '(\ tau) +\ cdots + %\ omega_n\ bigl (\ gamma (h (\ tau))\ bigr) (\ gamma_n\ circ h) '(\ tau)\ derecha)\, d\ tau %\ %& = = \ int_ {\ gamma\ circ h}\ omega. \ end {split}\] Sih se invierte la orientación cambiará el orden de los límites en la integral introduciendo un signo menos. Los detalles, junto con el acabado de la prueba para caminos lisos por piezas se deja al lector como.
Debido a esta proposición (y a los ejercicios), si tenemos un conjunto\ (\ Gamma \ subconjunto {\ mathbb {R}} ^n\) esa es la imagen de un camino sencillo y liso por tramos\gamma\bigl([a,b]\bigr), entonces si de alguna manera indicamos la orientación, es decir, en qué dirección atravesamos la curva, en otras palabras dónde empezamos y dónde terminamos. Entonces solo escribimos\int_{\Gamma} \omega , sin mencionar lo específico\gamma. Además, para un simple camino cerrado, ni siquiera importa dónde iniciemos la parametrización. Ver los ejercicios.
Recordemos que simple significa que\gamma restringido a(a,b) es uno a uno, es decir, es uno a uno excepto quizás en los puntos finales. También a menudo relajamos un poco la condición de camino simple. Por ejemplo, siempre y cuando\gamma \colon [a,b] \to {\mathbb{R}}^n sea uno a uno excepto en finitamente muchos puntos. Es decir, sólo hay finitamente muchos puntosp \in {\mathbb{R}}^n tal que\gamma^{-1}(p) es más de un punto. Ver los ejercicios. El tema sobre el problema de la inyectividad se ilustra con el siguiente ejemplo.
Supongamos que\gamma \colon [0,2\pi] \to {\mathbb{R}}^2 viene dado por\ (\ gamma (t) := \ bigl (\ cos (t),\ sin (t)\ bigr)\) y\beta \colon [0,2\pi] \to {\mathbb{R}}^2 está dado por\ (\ beta (t) := \ bigl (\ cos (2t),\ sin (2t)\ bigr)\). Observe que\gamma\bigl([0,2\pi]\bigr) = \beta\bigl([0,2\pi]\bigr), y viajamos alrededor de la misma curva, el círculo unitario. Pero\gamma va alrededor del círculo de la unidad una vez en el sentido contrario a las agujas del reloj, y\beta va alrededor del círculo de la unidad dos veces (en la misma dirección). Entonces\ [\ comenzar {alineado} &\ int_ {\ gamma} -y\, dx + x\, dy = \ int_0^ {2\ pi} \ bigl (\ bigl (-\ sin (t)\ bigr)\ bigl (-\ sin (t)\ bigr) +\ cos (t)\ cos (t)\ Bigr) dt = 2\ pi,\ &\ int_ {\ beta} -y\, dx + x\, dy = \ int_0^ {2\ pi} \ bigl (\ bigl (-\ sin (2t)\ bigr)\ bigl (-2\ sin (2t)\ bigr) +\ cos (t) \ bigl (2\ cos (t)\ bigr)\ Bigr) dt = 4\ pi. \ end {alineado}\]
A veces es conveniente definir una integral de ruta sobre\ (\ gamma\ colon [a, b]\ a {\ mathbb {R}} ^n\) que no es una ruta. Definimos\ [\ int_ {\ gamma}\ omega: =\ int_a^b \ left ( \ sum_ {j=1} ^n \ omega_j\ bigl (\ gamma (t)\ bigr)\ gamma_j^ {\:\ prime} (t) \ right)\, dt\] para cualquiera\gamma que sea continuamente diferenciable. Un caso que surge naturalmente es cuando\gamma es constante. En este caso\gamma^{\:\prime}(t) = 0 para todost y\gamma\bigl([a,b]\bigr) es un punto único, que consideramos como una “curva” de longitud cero. Entonces,\int_{\gamma} \omega = 0.
Línea integral de una función
A veces queremos simplemente integrar una función contra la llamada medida de longitud de arco.
Supongamos que\gamma \colon [a,b] \to {\mathbb{R}}^n es un camino suave, yf es una función continua definida en la imagen\gamma\bigl([a,b]\bigr). Luego define\ [\ int_ {\ gamma} f\, ds: = \ int_a^b f\ bigl (\ gamma (t)\ bigr)\ lVert {\ gamma^ {\:\ prime} (t)}\ rVert\, dt.\]
La definición de un camino liso por tramos es similar a la anterior y se deja al lector.
La idea geométrica de esta integral es encontrar el “área bajo la gráfica de una función” a medida que nos movemos por el camino\gamma. La integral lineal de una función también es independiente de la parametrización, y en este caso, la orientación no importa.
[mv:prop:lineintrepararam] Dejar\gamma \colon [a,b] \to {\mathbb{R}}^n ser un camino liso por partes y\gamma \circ h \colon [c,d] \to {\mathbb{R}}^n una reparametrización suave por partes. Supongamos quef es una función continua definida en el conjunto\gamma\bigl([a,b]\bigr). Entonces\int_{\gamma \circ h} f\, ds = \int_{\gamma} f\, ds .
Supongamos primero queh es la orientación conservando\gamma y yh son ambos lisos. Entonces como antes\ [\ comenzar {dividir} \ int_ {\ gamma} f\, ds & = \ int_a^b f\ bigl (\ gamma (t)\ bigr)\ lVert {\ gamma^ {\:\ prime} (t)}\ rVert\, dt \ & = \ int_c^d f\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr)\ lVert {\ gamma^ {\:\ prime}\ bigl (h (\ tau)\ bigr)}\ rVert h' (\ tau)\, d\ tau \\ & amp; = \ int_c^d f\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr)\ lVert {\ gamma^ {\:\ prime}\ bigl (h (\ tau)\ bigr) h' (\ tau)}\ rVert\, d \ tau\ & = \ int_c^d f\ bigl ((\ gamma\ circ h) (\ tau)\ bigr)\ lVert {(\ gamma\ circ h) '(\ tau)}\ rVert\, d \ tau\ & = \ int_ {\ gamma\ circ h} f\, ds. \ end {split}\] Sih es orientación invirtiendo cambiará el orden de los límites en la integral pero también hay que introducir un signo menos para poder tomarh' dentro de la norma. Los detalles, junto con el acabado de la prueba para caminos lisos por piezas se deja al lector como.
Del mismo modo que antes, por esta proposición (y los ejercicios), si\gamma es simple, no importa qué parametrización usemos. Por lo tanto, si\Gamma = \gamma\bigl( [a,b] \bigr) podemos simplemente escribir\int_\Gamma f\, ds . En este caso tampoco necesitamos preocuparnos por la orientación, de cualquier manera obtenemos lo mismo.
Vamosf(x,y) = x. DejarC \subset {\mathbb{R}}^2 ser la mitad del círculo unitario para\ (x \ geq 0\). Deseamos computar\int_C f \, ds . Parametrizar la curvaC vía\ (\ gamma\ colon [\ nicefrac {-\ pi} {2},\ nicefrac {\ pi} {2}]\ a {\ mathbb {R}} ^2\) definido como\gamma(t) := \bigl(\cos(t),\sin(t)\bigr). Entonces\gamma^{\:\prime}(t) = \bigl(-\sin(t),\cos(t)\bigr), y\ [\ int_c f\, ds = \ int_\ gamma f\, ds = \ int_ {-\ pi/2} ^ {\ pi/2}\ cos (t)\ sqrt {{\ bigl (-\ sin (t)\ bigr)} ^2 + {\ bigl (\ cos (t)\ bigr)} ^2}\, dt = \ int_ {-\ pi/2} ^ {\ pi/2}\ cos (t)\, dt = 2.\]
Supongamos que\Gamma \subset {\mathbb{R}}^n está parametrizado por un simple camino liso por piezas\gamma \colon [a,b] \to {\mathbb{R}}^n, es decir\gamma\bigl( [a,b] \bigr) = \Gamma. El definimos la longitud por\ [\ ell (\ Gamma) :=\ int_ {\ Gamma} ds =\ int_ {\ gamma} ds =\ int_a^b \ lVert {\ gamma^ {\:\ prime} (t)}\ rVert\, dt.\]
Dejarx,y \in {\mathbb{R}}^n ser dos puntos y escribir[x,y] como el segmento de línea recta entre los dos puntosx yy. Parametrizamos[x,y] por\gamma(t) := (1-t)x + ty parat correr entre0 y1. Encontramos\gamma^{\:\prime}(t) = y-x y por lo tanto\ [\ ell\ bigl ([x, y]\ bigr) = \ int_ {[x, y]} ds = \ int_0^1\ lVert {y-x}\ rVert\, dt = \ lVert {y-x}\ rVert.\] Entonces la longitud de[x,y] es la distancia entrex yy en la métrica euclidiana.
Se dice que una ruta lisa simple por partes\gamma \colon [0,r] \to {\mathbb{R}}^n es una parametrización de longitud de arco si\ [\ ell\ bigl (\ gamma\ bigl ([0, t]\ bigr)\ bigr) =\ int_0^t \ lVert {\ gamma^ {\:\ prime} (\ tau)}\ rVert \, d\ tau = t.\] Puedes pensar en tal parametrización como moverse alrededor de su curva a velocidad 1.
Ejercicios
Demostrar que si\varphi \colon [a,b] \to {\mathbb{R}}^n es por partes suave como lo definimos, entonces\varphi es una función continua.
Terminar la prueba de reparametrizaciones de inversión de orientación.
Demostrar.
[mv:exercise:pathpiece] Terminar la prueba de a) reparametrizaciones de inversión de orientación, y b) caminos suaves y reparametrizaciones por partes.
[mv:exercise:lineepiece] Terminar la prueba de a) reparametrizaciones de inversión de orientación, y b) caminos lisos y reparametrizaciones por tramos.
Supongamos que\gamma \colon [a,b] \to {\mathbb{R}}^n es un camino suave por partes, yf es una función continua definida en la imagen\gamma\bigl([a,b]\bigr). Proporcionar una definición de\int_{\gamma} f \,ds.
Directamente usando las definiciones computa:
a) la longitud del arco de la unidad cuadrada a partir del uso de la parametrización dada.
b) la longitud del arco del círculo unitario utilizando la parametrización\gamma \colon [0,1] \to {\mathbb{R}}^2,\gamma(t) := \bigl(\cos(2\pi t),\sin(2\pi t)\bigr).
c) la longitud del arco del círculo unitario utilizando la parametrización\beta \colon [0,2\pi] \to {\mathbb{R}}^2,\beta(t) := \bigl(\cos(t),\sin(t)\bigr).
Supongamos que\gamma \colon [0,1] \to {\mathbb{R}}^n es una trayectoria suave, y\omega es una forma única definida en la imagen\gamma\bigl([a,b]\bigr). Parar \in [0,1],\gamma_r \colon [0,r] \to {\mathbb{R}}^n déjese definir como simplemente la restricción de\gamma a[0,r]. Demostrar que la funciónh(r) := \int_{\gamma_r} \omega es una función continuamente diferenciable en[0,1].
Supongamos que\gamma \colon [a,b] \to {\mathbb{R}}^n es un camino suave. Mostrar que existe una\epsilon > 0 y una función suave\tilde{\gamma} \colon (a-\epsilon,b+\epsilon) \to {\mathbb{R}}^n con\tilde{\gamma}(t) = \gamma(t) para todost \in [a,b] y\tilde{\gamma}'(t) \not= 0 para todos\ (t\ in (a-\ épsilon, b+\ épsilon)\). Es decir, demostrar que un camino suave se extiende una pequeña distancia más allá de los puntos finales.
Supongamos\alpha \colon [a,b] \to {\mathbb{R}}^n y\beta \colon [c,d] \to {\mathbb{R}}^n son caminos lisos por tramos de tal manera que\Gamma := \alpha\bigl([a,b]\bigr) = \beta\bigl([c,d]\bigr). Mostrar que existen finitamente muchos puntos\{ p_1,p_2,\ldots,p_k\} \in \Gamma, tal que los conjuntos\alpha^{-1}\bigl( \{ p_1,p_2,\ldots,p_k\} \bigr) y\beta^{-1}\bigl( \{ p_1,p_2,\ldots,p_k\} \bigr) son particiones de[a,b] y[c,d], tal que en cualquier subintervalo los caminos son suaves (es decir, son particiones como en la definición de camino liso por tramos).
a) Supongamos\gamma \colon [a,b] \to {\mathbb{R}}^n y\alpha \colon [c,d] \to {\mathbb{R}}^n son dos caminos lisos que son uno a uno y\gamma\bigl([a,b]\bigr) = \alpha\bigl([c,d]\bigr). Entonces existe una reparametrización suaveh \colon [a,b] \to [c,d] tal que\gamma = \alpha \circ h. Pista: No debería ser difícil encontrar algunosh. El truco es demostrar que es continuamente diferenciable con un derivado que no se desvanece. Querrás aplicar el teorema de la función implícita y puede parecer que al principio las dimensiones no parecen funcionar.
b) Demostrar lo mismo como parte a, pero ahora para caminos simples cerrados con la suposición adicional de que\gamma(a) = \gamma(b) = \alpha(c) = \alpha(d).
c) Proprobar las partes a) y b) pero para caminos lisos por tramos, obteniendo reparametrizaciones lisas por tramos. Pista: El truco es encontrar dos particiones de manera que cuando se restringen a un subintervalo de la partición ambas rutas tengan la misma imagen y sean suaves, vea el ejercicio anterior.
Supongamos\alpha \colon [a,b] \to {\mathbb{R}}^n y\beta \colon [b,c] \to {\mathbb{R}}^n son caminos lisos por tramos con\alpha(b)=\beta(b). \gamma \colon [a,c] \to {\mathbb{R}}^nSea definido por\ [\ gamma (t) := \ begin {cases} \ alpha (t) &\ text {if $t\ in [a, b] $,}\ \ beta (t) &\ text {if $t\ in (b, c] $.} \ end {cases}\] Mostrar que\gamma es un camino liso por partes, y que si\omega es una forma única definida en la curva dada por\gamma, entonces\ [\ int_ {\ gamma}\ omega = \ int_ {\ alpha}\ omega + \ int_ {\ beta}\ omega.\]
[mv:ejercicio:cerradocurveintegral] Supongamos\gamma \colon [a,b] \to {\mathbb{R}}^n y\beta \colon [c,d] \to {\mathbb{R}}^n son dos simples caminos cerrados lisos por tramos. Eso es\gamma(a)=\gamma(b) y\beta(c) = \beta(d) y las restricciones\gamma|_{(a,b)} y\beta|_{(c,d)} son uno a uno. Supongamos\Gamma = \gamma\bigl([a,b]\bigr) = \beta\bigl([c,d]\bigr) y\omega es una forma única definida en\Gamma \subset {\mathbb{R}}^n. Mostrar que o bien\ [\ int_\ gamma\ omega = \ int_\ beta\ omega, \ qquad\ text {o}\ qquad \ int_\ gamma\ omega = -\ int_\ beta\ omega.\] En particular, la notación tiene\int_{\Gamma} \omega sentido si indicamos la dirección en la que se evalúa la integral. Pista: ver tres ejercicios anteriores.
[mv:exercise:curveintegral] Supongamos que\gamma \colon [a,b] \to {\mathbb{R}}^n y\beta \colon [c,d] \to {\mathbb{R}}^n son dos caminos suaves por partes que son uno a uno excepto en muchos puntos finitamente. Es decir, hay a lo sumo finitamente muchos puntosp \in {\mathbb{R}}^n tales que\gamma^{-1}(p) o\beta^{-1}(p) contiene más de un punto. Supongamos\Gamma = \gamma\bigl([a,b]\bigr) = \beta\bigl([c,d]\bigr) y\omega es una forma única definida en\Gamma \subset {\mathbb{R}}^n. Mostrar que o bien\ [\ int_\ gamma\ omega =
\ int_\ beta\ omega,
\ qquad\ text {o}\ qquad
\ int_\ gamma\ omega =
-\ int_\ beta\ omega.\] En particular, la notación tiene\int_{\Gamma} \omega sentido si indicamos la dirección en la que se evalúa la integral.
Pista: la misma pista que el último ejercicio.
Definir\gamma \colon [0,1] \to {\mathbb{R}}^2 por\ (\ gamma (t) :=\ Bigl (t^3\ sin (\ nicefrac {1} {t}),
t {\ bigl (3t^2\ sin (\ nicefrac {1} {t}) -t\ cos (\ nicefrac {1} {t})\ bigr)} ^2\ Bigr)\) parat \not= 0 y\gamma(0) = (0,0). Demostrar que:
a)\gamma es continuamente diferenciable en[0,1].
b) Demostrar que existe una secuencia infinita\{ t_n \} en[0,1] converger a 0, tal que\gamma^{\:\prime}(t_n) = (0,0).
c) Demostrar que los puntos se\gamma(t_n) encuentran en la líneay=0 y tal que lax -coordenada de\gamma(t_n) alterna entre positivo y negativo (si no se alternan solo encontraste una subsecuencia y necesitas encontrarlos todos).
d) Demostrar que no hay ningún liso por partes\alpha cuya imagen sea igual\gamma\bigl([0,1]\bigr). Pista: mira la parte c) y muestra que\alpha' debe ser cero donde llega al origen.
e) (Computadora) si conoces un software de trazado que te permita trazar curvas paramétricas, haz una gráfica de la curva, pero solo parat en el rango de[0,0.1] lo contrario no verás el comportamiento. En particular, debes notar que\gamma\bigl([0,1]\bigr) tiene infinitamente muchos “rincones” cerca del origen.
Independencia del camino
Nota: 2 conferencias
Integrales independientes de ruta
LetU \subset {\mathbb{R}}^n be a set and\omega a one-form defined onU, The integral of\omega is said to be path independent if for any two pointsx,y \in U and any two piecewise smooth paths\gamma \colon [a,b] \to U and\beta \colon [c,d] \to U such that\gamma(a) = \beta(c) = x and\gamma(b) = \beta(d) = y we have\int_\gamma \omega = \int_\beta \omega . In this caso simplemente escribimos\int_x^y \omega := \int_\gamma \omega = \int_\beta \omega . No todas las formas únicas dan un camino integral independiente. De hecho, la mayoría no.
Que\gamma \colon [0,1] \to {\mathbb{R}}^2 sea el camino\gamma(t) = (t,0) que va de(0,0) a(1,0). Que\beta \colon [0,1] \to {\mathbb{R}}^2 sea el camino\beta(t) = \bigl(t,(1-t)t\bigr) también yendo entre los mismos puntos. Entonces\ [\ comenzar {alineado} &\ int_\ gamma y\, dx = \ int_0^1\ gamma_2 (t)\ gamma_1^ {\:\ prime} (t)\, dt = \ int_0^1 0 (1)\, dt = 0,\\ &\ int_\ beta y\, dx = \ int_0^1\ beta_2 (t)\ beta_1' (t)\, dt = \ int_0^1 (1-t) t (1)\, dt =\ frac {1} {6}. \ end {aligned}\] Así que la integral de noy\,dx es independiente del camino. En particular,\int_{(0,0)}^{(1,0)} y\,dx no tiene sentido.
DejarU \subset {\mathbb{R}}^n ser un conjunto abierto yf \colon U \to {\mathbb{R}} una función continuamente diferenciable. Entonces la única forma\ [df: = \ frac {\ parcial f} {\ parcial x_1}\, dx_1 + \ frac {\ parcial f} {\ parcial x_2}\, dx_2 +\ cdots + \ frac {\ parcial f} {\ parcial x_n}\, dx_n\] se llama la derivada total def.
Se dice que un conjunto abiertoU \subset {\mathbb{R}}^n es la ruta conectada 5 si por cada dos puntosx yy enU, existe una trayectoria suave por tramos que comienza enx y termina eny.
Dejaremos como ejercicio que cada conjunto abierto conectado es camino conectado.
[mv:prop:pathinddf] LetU \subset {\mathbb{R}}^n ser un path conectado open set y\omega un one-form definido onU. Entonces\int_x^y \omega es camino independiente (para todosx,y \in U) si y sólo si existe un continuamente diferenciablef \colon U \to {\mathbb{R}} tal que\omega = df.
De hecho, si talf existe, entonces para dos puntos cualesquierax,y \in U\int_{x}^y \omega = f(y)-f(x) .
En otras palabras, si arreglamosp \in U, entoncesf(x) = C + \int_{p}^x \omega.
Primero supongamos que la integral es camino independiente. Escojap \in U y definaf(x) := \int_{p}^x \omega . Escribir\omega = \omega_1 dx_1 + \omega_2 dx_2 + \cdots + \omega_n dx_n. Deseamos demostrar que para cadaj = 1,2,\ldots,n, la derivada parcial\frac{\partial f}{\partial x_j} existe y es igual a\omega_j.
Lete_j Ser un vector base estándar arbitrario. Calcular\ [\ frac {f (x+h e_j) - f (x)} {h} = \ frac {1} {h}\ izquierda (\ int_ {p} ^ {x+he_j}\ omega -\ int_ {p} ^x\ omega\ derecha) = \ frac {1} {h}\ int_ {x} ^ {x+he_j}\ omega,\] que sigue por e indepdendence ruta como\ (\ int_ {p} ^ {x+he_j}\ omega = \ int_ {p} ^ {x}\ omega + \ int_ {x} ^ {x+he_j}\ omega\), porque podríamos han escogido un camino dep ax+he_j que también pasa pasar porx, y luego cortar este camino en dos.
Ya queU está abierto, supongamos queh es tan pequeño para que todos los puntos de distancia\left\lvert {h} \right\rvert o menos dex estén adentroU. Como la integral es independiente del camino, elija el camino más simple posible dex ax+he_j, es decir\gamma(t) = x+t he_j parat \in [0,1]. El camino está enU. Notice\gamma^{\:\prime}(t) = h e_j tiene solo un componente distinto de cero y ese es el componentej th, que esh. Por lo tanto\ [\ frac {1} {h}\ int_ {x} ^ {x+he_j}\ omega = \ frac {1} {h}\ int_ {\ gamma}\ omega = \ frac {1} {h}\ int_0^1\ omega_j (x+el_j) h\, dt = \ int_0^1\ omega_j (x+el_j)\, dt.\] Deseamos tomar el límite comoh \to 0. La función\omega_j es continua. Así dado\epsilon > 0,h puede ser lo suficientemente pequeño como para que\left\lvert {\omega(x)-\omega(y)} \right\rvert < \epsilon, cuando sea\lVert {x-y} \rVert \leq \left\lvert {h} \right\rvert. Por lo tantot \in [0,1],\left\lvert {\omega_j(x+the_j)-\omega_j(x)} \right\rvert < \epsilon para todos, y estimamos\ [\ izquierda\ lvert {\ int_0^1\ omega_j (x+the_j)\, dt -\ omega (x)}\ right\ rvert = \ left\ lvert {\ int_0^1\ bigl (\ omega_j (x+the_j) -\ omega (x)\ bigr)\, dt}\ right\ rvert \ leq \ épsilon.\] Es decir,\lim_{h\to 0}\frac{f(x+h e_j) - f(x)}{h} = \omega_j(x) , que es lo que queríamos que es df = \omega. Como\omega_j son continuos para todosj, encontramos quef tiene derivadas parciales continuas y por lo tanto es continuamente diferenciable.
Para la otra dirección supongamos quef existe tal quedf = \omega. Supongamos que tomamos un camino suave\gamma \colon [a,b] \to U tal que\gamma(a) = x y\gamma(b) = y, entonces\ [\ begin {split} \ int_\ gamma df & = \ int_a^b \ biggl ( \ frac {\ parcial f} {\ parcial x_1}\ bigl (\ gamma (t)\ bigr)\ gamma_1^ {\:\ prime} (t) + \ frac {\ parcial f} {\ parcial x_2}\ bigl (\ gamma (t)\ bigr)\ gamma_2^ {\:\ prime } (t) +\ cdots + \ frac {\ parcial f} {\ parcial x_n}\ bigl (\ gamma (t)\ bigr)\ gamma_n^ {\:\ prime} (t) \ bigr)\, dt \\ & = \ int_a^b \ frac {d} {dt}\ left [f\ bigl (\ gamma (t)\ bigr)\ derecha]\, dt \\ & = f (y) -f (x). \ end {split}\] El valor de la integral solo depende dex yy, no del camino tomado. Por lo tanto, la integral es camino independiente. Dejamos verificando esto para un camino suave por partes como ejercicio para el lector.
LetU \subset {\mathbb{R}}^n Ser un path conectado conjunto abierto y\omega un 1-form definido enU. Entonces\omega = df para algunos continuamente diferenciables\ (f\ colon U\ a {\ mathbb {R}}\) si y solo si\int_{\gamma} \omega = 0 por cada camino cerrado suave por tramos\gamma \colon [a,b] \to U.
Supongamos primero eso\omega = df y dejar que\gamma sea un camino cerrado liso por tramos. Entonces nosotros desde arriba tenemos eso\int_{\gamma} \omega = f\bigl(\gamma(b)\bigr) - f\bigl(\gamma(a)\bigr) = 0 , porque\gamma(a) = \gamma(b) para un camino cerrado.
Ahora supongamos que por cada camino cerrado liso por tramos\gamma,\int_{\gamma} \omega = 0. Dejarx,y ser dos puntos adentroU y dejar\alpha \colon [0,1] \to U y\beta \colon [0,1] \to U ser dos caminos lisos por partes con\alpha(0) = \beta(0) = x y\alpha(1) = \beta(1) = y. Entonces deja\gamma \colon [0,2] \to U ser definido por\ [\ gamma (t) := \ begin {cases} \ alpha (t) &\ text {if $t\ in [0,1] $,}\\ \ beta (2-t) &\ text {if $t\ in (1,2] $.} \ end {cases}\] Este es un camino cerrado liso por partes y así0 = \int_{\gamma} \omega = \int_{\alpha} \omega - \int_{\beta} \omega . Esto sigue primero por, y luego notando que la segunda parte se\beta viaja hacia atrás para que obtengamos menos la\beta integral. Así, la integral de\omega onU es independiente del camino.
Existe un criterio local, una ecuación diferencial, que garantiza la independencia del camino. Es decir, bajo la condición correcta existe una antiderivadaf cuya derivada total es la monoforma dada\omega. No obstante, dado que el criterio es local, solo obtenemos el resultado localmente. Podemos definir la antiderivada en cualquier dominio llamado simplemente conectado, que informalmente es un dominio donde cualquier camino entre dos puntos puede ser “deformado continuamente” en cualquier otro camino entre esos dos puntos. Para hacer las cosas simples, la forma habitual de probar este resultado es para los llamados dominios en forma de estrella.
DejarU \subset {\mathbb{R}}^n ser un conjunto abierto yp \in U. Decimos queU es un dominio en forma de estrella con respecto ap si para cualquier otro puntox \in U, el segmento de línea entrep yx está enU, es decir, si(1-t)p + tx \in U para todost \in [0,1]. Si decimos simplemente en forma de estrella, entoncesU tiene forma de estrella con respecto a algunosp \in U.
Observe la diferencia entre forma de estrella y convexa. Un dominio convexo tiene forma de estrella, pero un dominio en forma de estrella no necesita ser convexo.
LetU \subset {\mathbb{R}}^n Ser un dominio en forma de estrella y\omega una forma continuamente diferenciable definida enU. Es decir, si\ [\ omega = \ omega_1 dx_1 + \ omega_2 dx_2 +\ cdots + \ omega_n dx_n,\] entonces\omega_1,\omega_2,\ldots,\omega_n son funciones continuamente diferenciables. Supongamos que para cadaj yk\frac{\partial \omega_j}{\partial x_k} = \frac{\partial \omega_k}{\partial x_j} , entonces existe una función dos veces continuamente diferenciable\ (f\ colon U \ to {\ mathbb {R}}\) tal quedf = \omega.
La condición sobre las derivadas de\omega es precisamente la condición de que las segundas derivadas parciales conmuten. Es decir, sidf = \omega, yf es dos veces continuamente diferenciable, entonces\ [\ frac {\ parcial\ omega_j} {\ parcial x_k} = \ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} = \ frac {\ parcial\ omega_k}\ parcial x_j}.\] La condición es por lo tanto claramente necesario. El lema dice que es suficiente para una estrella en forma deU.
SupongamosU que tiene forma de estrella con respecto ay=(y_1,y_2,\ldots,y_n) \in U.
Dadox = (x_1,x_2,\ldots,x_n) \in U, definir el camino\gamma \colon [0,1] \to U como\gamma(t) := (1-t)y + tx, así\gamma^{\:\prime}(t) = x-y. Entonces vamos\ [f (x) :=\ int_ {\ gamma}\ omega = \ int_0^1 \ left ( \ sum_ {k=1} ^n \ omega_k\ bigl ((1-t) y + tx\ bigr) (x_k-y_k) \ derecha)\, dt.\] Diferenciamos enx_j debajo de la integral. Eso podemos hacer ya que todo, incluidos los propios parciales son continuos. \ [\ comenzar {dividir} \ frac {\ parcial f} {\ parcial x_j} (x) & = \ int_0^1 \ izquierda ( \ izquierda ( \ suma_ {k=1} ^n \ frac {\ parcial\ omega_k} {\ parcial x_j}\ bigl ((1-t) y + tx\ bigr) t (x_k-y_k) \ derecha) + \ omega_j\ bigl ((1-t) y + tx\ bigr) \ derecha) \, dt \\ & = \ int_0^1 \ izquierda ( \ izquierda ( \ sum_ {k=1} ^n \ frac {\ parcial\ omega_j} {\ parcial x_k}\ bigl ((1-t) y + tx\ bigr) t (x_k-y_k) \ derecha) + \ omega_j\ bigl ((1-t) y + tx\ bigr) \ derecha)\, dt \\ & = \ int_0^1 \ frac {d} {dt} \ izquierda [ t\ omega_j\ bigl ((1-t) y + tx\ bigr) \ derecha] \, dt \\ &=\ omega_j (x). \ end {split}\] Y esto es precisamente lo que queríamos.
Sin alguna hipótesis sobreU el teorema no es cierto. Dejar que\omega(x,y) := \frac{-y}{x^2+y^2} dx + \frac{x}{x^2+y^2} dy se defina el{\mathbb{R}}^2 \setminus \{ 0 \}. Es fácil ver que\ [\ frac {\ parcial} {\ parcial y}\ izquierda [ \ frac {-y} {x^2+y^2}\ derecha] =\ frac { \ parcial} {\ parcial} {\ parcial x}\ izquierda [ \ frac {x} {x^2+y^2}\ derecha].\] Sin embargo, no hayf \colon {\mathbb{R}}^2 \setminus \{ 0 \} \to {\mathbb{R}} tal quedf = \omega. Vimos en si integramos de(1,0) a(1,0) lo largo del círculo unitario, eso es\gamma(t) = \bigl(\cos(t),\sin(t)\bigr) para quet \in [0,2\pi] obtuvimos2\pi y no 0 como debería ser si la integral es camino independiente o en otras palabras si existiríaf tal quedf = \omega.
Campos vectoriales
Un objeto común a integrar es el llamado campo vectorial. Eso es una asignación de un vector en cada punto de un dominio.
U \subset {\mathbb{R}}^nDéjese ser un conjunto. Una función continuav \colon U \to {\mathbb{R}}^n se llama campo vectorial. Escribirv = (v_1,v_2,\ldots,v_n).
Dado un camino suave\gamma \colon [a,b] \to {\mathbb{R}}^n con\gamma\bigl([a,b]\bigr) \subset U definimos la ruta integral del vectorfieldv como\ [\ int_ {\ gamma} v\ cdot d\ gamma : = \ int_a^b v\ bigl (\ gamma (t)\ bigr)\ cdot\ gamma^ {\:\ prime} (t)\, dt,\] donde el punto en la definición es el producto punto estándar. Nuevamente, la definición de un camino suave por tramos se realiza integrando sobre cada intervalo suave y agregando el resultado.
Si desentrañamos la definición nos encontramos con que\ [\ int_ {\ gamma} v\ cdot d\ gamma = \ int_ {\ gamma} v_1 dx_1 + v_2 dx_2 +\ cdots + v_n dx_n.\] Por lo tanto lo que sabemos de integración de formas únicas se traslada a la integración de campos vectoriales. Por ejemplo, la independencia de ruta para la integración de campos vectoriales\int_x^y v \cdot d\gamma es simplemente eso es independiente de ruta (así para cualquier\gamma) si y solo siv = \nabla f, ese es el gradiente de una función. A la funciónf se le llama entonces el potencial parav.
Un campo vectorialv cuyas integrales de ruta son independientes de ruta se denomina campo vectorial conservador. El naming viene del hecho de que tales campos vectoriales surgen en sistemas físicos donde se conserva una cierta cantidad, la energía.
Ejercicios
Encuentra unf \colon {\mathbb{R}}^2 \to {\mathbb{R}} tal que\ (df = xe^ {x^2+y^2} dx + ye^ {x^2+y^2} dy\).
Encontrar un\omega_2 \colon {\mathbb{R}}^2 \to {\mathbb{R}} tal que exista un continuamente diferenciablef \colon {\mathbb{R}}^2 \to {\mathbb{R}} para el cualdf = e^{xy} dx + \omega_2 dy.
Terminar la prueba de, es decir, solo probamos la segunda dirección para un camino suave, no un camino liso por tramos.
Demuestre que un dominio en forma de estrellaU \subset {\mathbb{R}}^n está conectado por ruta.
DemuestreU := {\mathbb{R}}^2 \setminus \{ (x,y) \in {\mathbb{R}}^2 : x \leq 0, y=0 \} que tenga forma de estrella y encuentre todos los puntos(x_0,y_0) \in U talU que tenga forma de estrella con respecto a(x_0,y_0).
SupongamosU_1 yU_2 son dos conjuntos abiertos adentro{\mathbb{R}}^n conU_1 \cap U_2 nonempty y conectados. Supongamos que existe unf_1 \colon U_1 \to {\mathbb{R}} yf_2 \colon U_2 \to {\mathbb{R}}, ambos dos veces continuamente diferenciables de tal manera qued f_1 = d f_2 enU_1 \cap U_2. Entonces existe una función dos veces diferenciable\ (F\ colon U_1\ copa U_2\ to {\ mathbb {R}}\) tal quedF = df_1 unaU_1 y otradF = df_2 vezU_2.
Dejar\gamma \colon [a,b] \to {\mathbb{R}}^n ser un simple camino liso por partes no cerrado (así\gamma es uno a uno). Supongamos que\omega es una forma continuamente diferenciable definida en algún conjunto abiertoV con\gamma\bigl([a,b]\bigr) \subset V y\ (\ frac {\ parcial\ omega_j} {\ parcial x_k} =\ frac {\ parcial\ omega_k} {\ parcial
x_j}\) para todosj yk. Demostrar que existe un conjunto abiertoU con\gamma\bigl([a,b]\bigr) \subset U \subset V y una función dos veces continuamente diferenciablef \colon U \to {\mathbb{R}} tal quedf = \omega.
Pista 1:\gamma\bigl([a,b]\bigr) es compacto.
Pista 2: Demuestre que puede cubrir la curva por finitamente muchas bolas en secuencia para que la bolak th solo se cruce con la bola(k-1) th.
Pista 3: Ver ejercicio anterior.
a) Mostrar que un conjunto abierto conectado es path connected. Pista: Comience con dos puntosx yy en un conjunto conectadoU, y letU_x \subset U es el conjunto de puntos que son alcanzables por un camino desdex y de manera similar paraU_y. Demostrar que ambos conjuntos están abiertos, ya que no están vacíos (x \in U_xyy \in U_y) debe ser esoU_x = U_y = U.
b) Demostrar lo contrario es decir, un conjunto conectado de rutaU \subset {\mathbb{R}}^n está conectado. Pista: para contradicción supongamos que existen dos conjuntos abiertos abiertos no vacíos abiertos y disjuntos y luego asumir que hay un camino por partes suave (y por lo tanto continuo) entre un punto en uno a un punto en el otro.
Por lo general, la conexión de ruta se define usando solo caminos continuos en lugar de caminos suaves por tramos. Demostrar que las definiciones son equivalentes, es decir probar la siguiente afirmación:
Supongamos queU \subset {\mathbb{R}}^n es tal que para cualquierax,y \in U, existe una función continua\gamma \colon [a,b] \to U tal que\gamma(a) = x y\gamma(b) = y. EntoncesU se conecta el camino (en otras palabras, entonces existe un camino suave por tramos).
Tomar\omega(x,y) = \frac{-y}{x^2+y^2} dx + \frac{x}{x^2+y^2} dy definido en{\mathbb{R}}^2 \setminus \{ (0,0) \}. Deje que\ (\ gamma\ dos puntos [a, b]\ a {\ mathbb {R}} ^2
\ setmenos\ {(0,0)\}\) sea un camino suave por partes cerrado. VamosR:=\{ (x,y) \in {\mathbb{R}}^2 : x \leq 0 \text{ and } y=0 \}. Supongamos queR \cap \gamma\bigl([a,b]\bigr) es un conjunto finito dek puntos. Entonces\int_{\gamma} \omega = 2 \pi \ell para algún entero\ell con\left\lvert {\ell} \right\rvert \leq k.
Pista 1: Primero prueba que para un camino\beta que comienza y terminaR pero no lo cruza de otra manera, encuentras que\int_{\beta} \omega es-2\pi, 0, o2\pi. Pista 2: Demostraste arriba que{\mathbb{R}}^2 \setminus R tiene forma de estrella.
Nota: El número\ell se llama el número de bobinado que mide cuántas veces se enrolla alrededor\gamma del origen en el sentido de las agujas del reloj.
Integral multivariable
Riemann integral sobre rectángulos
Nota: 2—3 conferencias
Al igual que en, definimos la integral de Riemann utilizando las integrales superior e inferior de Darboux. Las ideas de esta sección son muy similares a la integración en una dimensión. La complicación es mayoritariamente notacional. Las diferencias entre una y varias dimensiones crecerán más pronunciadas en las secciones siguientes.
Rectángulos y particiones
Dejar(a_1,a_2,\ldots,a_n) y(b_1,b_2,\ldots,b_n) ser tal quea_k \leq b_k para todosk. Un conjunto de la forma\ ([a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\) se llama rectángulo cerrado. En esta configuración a veces es útil permitira_k = b_k, en cuyo caso pensamos[a_k,b_k] = \{ a_k \} como de costumbre. Sia_k < b_k para todosk, entonces un conjunto de la forma\ ((a_1, b_1)\ times (a_2, b_2)\ times\ cdots\ times (a_n, b_n)\) se llama rectángulo abierto.
Para un rectángulo abierto o cerrado\ (R: = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\ subconjunto {\ mathbb {R}} ^n\) o\ (R: = (a_1, b_1)\ times (a_2, b_2)\ times\ cdots\ times (a_n, b_n)\ subconjunto {\ mathbb {R}} ^n\), definimos el volumenn -dimensional por\ [V (R) := (b_1-a _1) (b_2-a_2) \ cdots (b_n-a_n).\]
Una particiónP del rectángulo cerrado\ (R = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\) es un conjunto finito de particionesP_1,P_2,\ldots,P_n de los intervalos[a_1,b_1], [a_2,b_2],\ldots, [a_n,b_n]. EscribimosP=(P_1,P_2,\ldots,P_n). Es decir, por cadak hay un entero\ell_k y el conjunto finito de númerosP_k = \{ x_{k,0},x_{k,1},x_{k,2},\ldots,x_{k,\ell_k} \} tal quea_k = x_{k,0} < x_{k,1} < x_{k,2} < \cdots < x_{k,{\ell_k}-1} < x_{k,\ell_k} = b_k . Escogiendo un conjunto den enterosj_1,j_2,\ldots,j_n dondej_k \in \{ 1,2,\ldots,\ell_k \} obtenemos el subrectángulo\ [[x_ {1, j_1-1} ~, ~ x_ {1, j_1}] \ times [x_ {2, j_2-1} ~, ~ x_ {2, j_2}] \ times \ cdots \ times [x_ {n, j_n-1} ~, ~ x_ {n, j_n}].\] Por simplicidad, ordenamos los subrectángulos de alguna manera y decimos\{R_1,R_2,\ldots,R_N\} son los subrectángulos correspondientes a la particiónP deR. Más simplemente, decimos que son los subrectángulos deP. En otras palabras, subdividimos el rectángulo original en muchos subrectángulos más pequeños. Ver. No es difícil ver que estos subrectángulos cubren nuestro originalR, y su volumen se suma al deR. Es decir,\ [R=\ bigcup_ {j=1} ^N R_j,\ qquad\ texto {y}\ qquad V (R) =\ suma_ {j=1} ^N V (R_j).\]
Cuando\ [r_k = [x_ {1, j_1-1} ~, ~ x_ {1, j_1}] \ veces [x_ {2, j_2-1} ~, ~ x_ {2, j_2}] \ veces \ cdots \ veces [x_ {n, j_n-1} ~, ~ x_ {n, j_n}],\] entonces\ [V (_k) = \ Delta x_ {1, j_1} \ Delta x_ {2, j_2} \ cdots \ Delta x_ {n, j_n} = (x_ {1, j_1} -x_ {1, j_1-1}) (x_ {2, j_2} -x_ {2, j_2-1}) \ cdots (x_ {n, j_n} -x_ {n, j_n-1}).\]
DejarR \subset {\mathbb{R}}^n ser un rectángulo cerrado y dejarf \colon R \to {\mathbb{R}} ser una función acotada. DejarP ser una partición de[a,b] y supongamos que hayN subrectángulosR_1,R_2,\ldots,R_N. Definir\ [\ begin {alineado} & m_i: =\ inf\ {f (x): x\ en R_i\},\\ & m_i: =\ sup\ {f (x): x\ in R_i\},\\ & L (P, f) := \ sum_ {i=1} ^N m_i V (R_i),\\ & U (P, f) := \ sum_ {i=1} ^N M_i V (R_i). \ end {aligned}\] Llamamos aL(P,f) la suma inferior de Darboux y aU(P,f) la suma superior de Darboux.
La indexación en la definición puede ser complicada, pero afortunadamente generalmente no necesitamos volver directamente a la definición a menudo. Comenzamos a probar hechos sobre las sumas de Darboux análogas a los resultados de una variable.
[mv:sumulbound:prop] Supongamos queR \subset {\mathbb{R}}^n es un rectángulo cerrado yf \colon R \to {\mathbb{R}} es una función acotada. Seamos talesm, M \in {\mathbb{R}} que por todox \in R lo que tenemosm \leq f(x) \leq M. Para cualquier particiónP deR tenemos\ [%\ label {mv:sumulbound:eq} m V (R)\ leq L (P, f)\ leq U (P, f) \ leq M\, V (R).\]
DejarP ser una partición. Entonces por todoi lo que tenemosm \leq m_i yM_i \leq M. Tambiénm_i \leq M_i para todosi. Por último\sum_{i=1}^N V(R_i) = V(R). Por lo tanto,\ [\ comenzar {reunido} m V (R) = m\ izquierda (\ suma_ {i=1} ^N V (R_i)\ derecha) = \ suma_ {i=1} ^N m V (R_i) \ leq\ suma_ {i=1} ^N m_i V (R_i) \ leq \\ leq \ sum_ {i=1} ^N m_i V (R_i) \ leq \ suma_ {i=1} ^N M\, V (R_i) = M\ izquierda (\ suma_ {i=1} ^N V (R_i)\ derecha) = M\, V (R). \ qedhere\ fin {reunidos}\]
Integrales superiores e inferiores
Por el conjunto de superior e inferior Darboux las sumas son conjuntos acotados y podemos tomar su infima y suprema. Como antes, ahora hacemos la siguiente definición.
Sif \colon R \to {\mathbb{R}} es una función delimitada en un rectángulo cerrado\ (R\ subconjunto {\ mathbb {R}} ^n\). Define\ [\ subrayado {\ int_r} f: =\ sup\ {L (P, f): P\ text {una partición de $R$}\}, \ qquad \ overline {\ int_r} f: =\ inf\ {U (P, f): P\ text {una partición de $R$}\}.\] Llamamos a\underline{\int} la integral inferior de Darboux y\overline{\int} la superior Darboux integral.
Al igual que en una dimensión tenemos refinamientos de particiones.
DejarR \subset {\mathbb{R}}^n ser un rectángulo cerrado. DejarP = ( P_1, P_2, \ldots, P_n ) y\widetilde{P} = ( \widetilde{P}_1, \widetilde{P}_2, \ldots, \widetilde{P}_n ) ser particiones deR. Decimos\widetilde{P} un refinamiento deP si, como conjuntos,P_k \subset \widetilde{P}_k para todosk = 1,2,\ldots,n.
No es difícil ver que si\widetilde{P} es un refinamiento deP, entonces subrectángulos deP son uniones de subrectángulos de\widetilde{P}. En pocas palabras, en un refinamiento tomamos los subrectángulos deP, y los cortamos en subrectángulos más pequeños. Ver.
[mv:prop:refinement] Supongamos queR \subset {\mathbb{R}}^n es un rectángulo cerrado,P es una partición deR y\widetilde{P} es un refinamiento deP. Si esf \colon R \to {\mathbb{R}} una función acotada, entonces\ [L (P, f)\ leq L (\ Widetilde {P}, f) \ qquad\ text {y}\ qquad U (\ Widetilde {P}, f)\ leq U (P, f).\]
Demostramos la primera desigualdad, la segunda sigue de manera similar. R_1,R_2,\ldots,R_NDejen ser los subrectángulos deP y\widetilde{R}_1,\widetilde{R}_2,\ldots,\widetilde{R}_{\widetilde{N}} ser los subrectángulos de\widetilde{R}. I_kSea el conjunto de todos los índicesj tales que\widetilde{R}_j \subset R_k. Por ejemplo, usando los ejemplos en las figuras [mv:figrect] y [mv:figrectpart],I_4 = \{ 6, 7, 8, 9 \} y\ (R_4 = \ Widetilde {R} _6\ cup\ Widetilde {R} _7\ cup \ Widetilde {R} _8\ cup\ Widetilde {R} _9\). Notamos en general que\ [R_k =\ bigcup_ {j\ in i_k}\ Widetilde {R} _j, \ qquad V (R_k) =\ suma_ {j\ in i_k} V (\ Widetilde {R} _j).\]
Vamosm_j := \inf \{ f(x) : x \in R_j \}, y\widetilde{m}_j := \inf \{ f(x) : \in \widetilde{R}_j \} como de costumbre. Observe también que sij \in I_k, entoncesm_k \leq \widetilde{m}_j. Entonces\ [L (P, f) = \ suma_ {k=1} ^N m_k V (R_k) = \ suma_ {k=1} ^N\ suma_ {j\ en i_k} m_k V (\ Widetilde {R} _j) \ leq \ suma_ {k=1} ^N\ suma_ {j\ en i_k}\ Widetilde {m} _j V (\ Widetilde {R} _j) = \ sum_ {j=1} ^ {\ Widetilde {N}}\ Widetilde {m} _j V (\ Widetilde {R} _j) = L (\ Widetilde {P}, f). \ qedhere\]
El punto clave de esta proposición siguiente es que la integral inferior de Darboux es menor o igual que la integral superior de Darboux.
[mv:intulbound:prop] LetR \subset {\mathbb{R}}^n ser un rectángulo cerrado yf \colon R \to {\mathbb{R}} una función acotada. Seamos talesm, M \in {\mathbb{R}} que por todox \in R lo que tenemosm \leq f(x) \leq M. Entonces\ [\ label {mv:intulbound:eq} m V (R)\ leq \ subrayado {\ int_r} f\ leq\ overline {\ int_r} f \ leq M\, V (R).\]
Para cualquier particiónP, vía,mV(R) \leq L(P,f) \leq U(P,f) \leq M\,V(R). Tomando supremum deL(P,f) e infimum deU(P,f) sobre todoP, obtenemos la primera y la última desigualdad.
La desigualdad clave en [mv:intulbound:eq] es la del medio. DejarP=(P_1,P_2,\ldots,P_n) yQ=(Q_1,Q_2,\ldots,Q_n) ser particiones deR. Definir\widetilde{P} = ( \widetilde{P}_1,\widetilde{P}_2,\ldots,\widetilde{P}_n ) dejando\widetilde{P}_k = P_k \cup Q_k. Entonces\widetilde{P} es una partición deR como se puede verificar fácilmente, y\widetilde{P} es un refinamiento deP y un refinamiento deQ. Por,L(P,f) \leq L(\widetilde{P},f) yU(\widetilde{P},f) \leq U(Q,f). Por lo tanto,L(P,f) \leq L(\widetilde{P},f) \leq U(\widetilde{P},f) \leq U(Q,f) . en otras palabras, para dos particiones arbitrariasP yQ tenemosL(P,f) \leq U(Q,f). Vía la Proposición 1.2.7 del volumen I, obtenemos\ [\ sup\ {L (P, f):\ text {$P$ una partición de $R$}\} \ leq \ inf\ {U (P, f):\ text {$P$ una partición de $R$}\}.\] En otras palabras\underline{\int_R} f \leq \overline{\int_R} f.
La integral de Riemann
Tenemos todo lo que necesitamos para definir la integral de Riemann enn dimensiones sobre rectángulos. Nuevamente, la integral de Riemann solo se define en una cierta clase de funciones, llamadas funciones integrables de Riemann.
DejarR \subset {\mathbb{R}}^n ser un rectángulo cerrado. Quef \colon R \to {\mathbb{R}} sea una función acotada tal que\underline{\int_R} f(x)~dx = \overline{\int_R} f(x)~dx . Entoncesf se dice que es Riemann integrable, y a veces decimos simplemente integrable. El conjunto de funciones integrables de Riemann enR se denota por{\mathcal{R}}(R). Cuandof \in {\mathcal{R}}(R) definimos la integral de Riemann\ [\ int_r f: = \ subrayado {\ int_r} f =\ overline {\ int_r} f.\]
Cuando la variablex \in {\mathbb{R}}^n necesita ser enfatizada escribimos\ [\ int_r f (x) ~dx, \ qquad \ int_r f (x_1,\ ldots, x_n) ~dx_1\ cdots dx_n, \ qquad \ text {or} \ qquad \ int_r f (x) ~dv.\] SiR \subset {\mathbb{R}}^2, entonces a menudo en lugar de volumen decimos area, y de ahí escribimos\int_R f(x)~dA .
implica inmediatamente la siguiente proposición.
[mv:intbound:prop] Letf \colon R \to {\mathbb{R}} Ser una función integrable de Riemann en un rectángulo cerradoR \subset {\mathbb{R}}^n. Seamosm, M \in {\mathbb{R}} tal quem \leq f(x) \leq M para todosx \in R. Entonces\ [m V (R)\ leq \ int_ {R} f \ leq M\, V (R).\]
Una función constante es Riemann integrable. Supongamosf(x) = c para todosx enR. c V(R) \leq \underline{\int_R} f \leq \overline{\int_R} f \leq cV(R) .Entonces Sof es integrable, y además\int_R f = cV(R).
Las pruebas de linealidad y monotonicidad son casi completamente idénticas a las pruebas de una variable. Por lo tanto, lo dejamos como un ejercicio para probar las dos proposiciones siguientes.
[mv:intlinearidad:prop] DejarR \subset {\mathbb{R}}^n ser un rectángulo cerrado y dejarf yg estar en{\mathcal{R}}(R) y\alpha \in {\mathbb{R}}.
- \alpha festá en{\mathcal{R}}(R) y\int_R \alpha f = \alpha \int_R f .
f+gestá en{\mathcal{R}}(R) y\ [\ int_r (f+g) = \ int_r f + \ int_r g.\]
DejarR \subset {\mathbb{R}}^n ser un rectángulo cerrado, dejarf yg estar dentro{\mathcal{R}}(R), y supongamosf(x) \leq g(x) para todosx \in R. Entonces\ [\ int_r f \ leq \ int_r g.\]
Comprobando la integrabilidad usando la definición a menudo implica la siguiente técnica, como en el caso de una sola variable.
[mv:prop:upperlowerepsilon] LetR \subset {\mathbb{R}}^n ser un rectángulo cerrado yf \colon R \to {\mathbb{R}} una función acotada. Entoncesf \in {\mathcal{R}}(R) si y solo si por cada\epsilon > 0, existe una particiónP deR tal queU(P,f) - L(P,f) < \epsilon .
Primero, sif es integrable, entonces claramente el supremo deL(P,f) y el infimum deU(P,f) deben ser iguales y de ahí el infimum deU(P,f)-L(P,f) es cero. Por lo tanto para cada debe\epsilon > 0 haber alguna particiónP tal queU(P,f) - L(P,f) < \epsilon.
Para la otra dirección, dado un\epsilon > 0 hallazgoP tal queU(P,f) - L(P,f) < \epsilon. \ [\ overline {\ int_r} f - \ subrayado {\ int_r} f \ leq U (P, f) - L (P, f) <\ épsilon.\] Como\overline{\int_R} f \geq \underline{\int_R} f y lo anterior sostiene para cada\epsilon > 0, concluimos\overline{\int_R} f = \underline{\int_R} f yf \in {\mathcal{R}}(R).
Por simplicidad sif \colon S \to {\mathbb{R}} es una función yR \subset S es un rectángulo cerrado, entonces si la restricciónf|_R es integrable decimos quef es integrable enR, of \in {\mathcal{R}}(R) y escribimos\int_R f := \int_R f|_R .
[mv:prop:integralsmallerset] Para un rectángulo cerradoS \subset {\mathbb{R}}^n, sif \colon S \to {\mathbb{R}} es integrable yR \subset S es un rectángulo cerrado, entoncesf es integrable sobreR.
Dado\epsilon > 0, nos encontramos con una particiónP deS tal queU(P,f)-L(P,f) < \epsilon. Al hacer un refinamiento deP si es necesario, asumimos que los puntos finales deR están enP. En otras palabras,R es una unión de subrectángulos deP. Los subrectángulos de seP dividen en dos colecciones, unas que son subconjuntos deR y otras cuya intersección con el interior deR está vacía. Supongamos queR_1,R_2\ldots,R_K son los subrectángulos que son subconjuntos deR y dejanR_{K+1},\ldots, R_N ser el resto. Dejar\widetilde{P} ser la partición deR compuesta de esos subrectángulos deP contenidos enR. Usando la misma notación que antes,\ [\ begin {split} \ epsilon & > U (P, f) -L (P, f) = \ sum_ {k=1} ^K (m_k-m_k) V (R_k) + \ suma_ {k=k+1} ^N (m_k-m_k) V (R_k) \ & \ geq \ sum_ {k=1} ^K (M_K-M_k) V (R_k) = U (\ Widetilde {P}, F|_R) -L (\ Widetilde {P}, F|_R). \ end {split}\] Por lo tanto,f|_R es integrable.
Integrales de funciones continuas
Aunque más adelante demostraremos un resultado mucho más general, es útil comenzar con la integrabilidad de funciones continuas. Primero queremos medir la finura de los tabiques. En una variable medimos la longitud de un subintervalo, en varias variables, de manera similar medimos los lados de un subrectángulo. Decimos un rectángulo\ (R = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\) tiene lado más largo como mucho\alpha si esb_k-a_k \leq \alpha para todosk=1,2,\ldots,n.
[prop:diameterrectangle] Si un rectánguloR \subset {\mathbb{R}}^n tiene el lado más largo como máximo\alpha. Entonces para cualquierx,y \in R,\lVert {x-y} \rVert \leq \sqrt{n} \, \alpha .
\ [\ begin {split} \ lVert {x-y}\ rVert & = \ sqrt {{(x_1-y_1)} ^2 + {(x_2-y_2)} ^2 +\ cdots + {(x_n-y_n)} ^2 } \\ &\ leq \ sqrt {{(b_1-a_1)} ^2 + {(b_2-a_2)} ^2 +\ cdots + {(b_n-a_n)} ^2 } \\ &\ leq \ sqrt { {\ alpha} ^2 + {\ alpha} ^2 +\ cdots + {\ alpha} ^2 } = \ sqrt {n}\,\ alfa. \ qedhere \ fin {dividir}\]
[mv:thm:contintrect] LetR \subset {\mathbb{R}}^n ser un rectángulo cerrado yf \colon R \to {\mathbb{R}} una función continua, entoncesf \in {\mathcal{R}}(R).
La prueba es análoga a la prueba de una variable con algunas complicaciones. El conjuntoR es un subconjunto cerrado y delimitado de{\mathbb{R}}^n, y por lo tanto compacto. Así que no sólof es continuo, sino de hecho uniformemente continuo por el Teorema 7.5 del volumen I.\epsilon > 0 Déjese dar. Encontrar un\delta > 0 tal que\lVert {x-y} \rVert < \delta implique\left\lvert {f(x)-f(y)} \right\rvert < \frac{\epsilon}{V(R)}.
DejarP ser una partición deR, tal que el lado más largo de cualquier subrectángulo es estrictamente menor que\frac{\delta}{\sqrt{n}}. Six, y \in R_k por algún subrectánguloR_k deP tenemos, por la proposición anterior,\lVert {x-y} \rVert < \sqrt{n} \frac{\delta}{\sqrt{n}} = \delta. Por lo tantof(x)-f(y) \leq \left\lvert {f(x)-f(y)} \right\rvert < \frac{\epsilon}{V(R)} . Comof es continuo enR_k, alcanza un máximo y un mínimo en este subrectángulo. Dejarx ser un puntof donde alcance el máximo yy ser un puntof donde alcance el mínimo. Entoncesf(x) = M_k yf(y) = m_k en la notación a partir de la definición de la integral. Por lo tanto,\ [M_i-M_i = f (x) -f (y) < \ frac {\ épsilon} {V (R)}.\] Y así\ [\ begin {split} U (P, f) - L (P, f) & = \ left (\ sum_ {k=1} ^N m_k V (R_k) \ derecha) - \ izquierda ( \ sum_ {k=1} ^N m_k V (R_k) \ derecha) \\ & = \ suma_ {k=1} ^N (m_k-m_k) V (R_k) \\ & < \ frac {\ épsilon} {V (R)} \ suma_ {k=1} ^N V (R_k) =\ épsilon. \ end {split}\] Vía aplicación de encontramos que\ (f\ in {\ mathcal {R}} (R)\).
Integración de funciones con soporte compacto
DejarU \subset {\mathbb{R}}^n ser un conjunto abierto yf \colon U \to {\mathbb{R}} ser una función. Decimos que el soporte def es el conjunto\ [\ operatorname {supp} (f) := \ overline { \ {x\ in U: f (x)\ not= 0\} },\] donde el cierre es con respecto a la topología subespacial enU. Recordemos que tomar el cierre con respecto a la topología subespacial es lo mismo que\ (\ overline { \ {x\ in U: f (x)\ not= 0\ }}\ cap U\), tomando ahora el cierre con respecto al espacio euclídeo ambiental{\mathbb{R}}^n. En particular,\operatorname{supp} (f) \subset U. Es decir, el soporte es el cierre (inU) del conjunto de puntos donde la función es distinta de cero. Su complemento enU es abierto. Six \in U y nox está en el apoyo def, entoncesf es constantemente cero en todo un barrio dex.
fSe dice que una función tiene soporte compacto si\operatorname{supp}(f) es un conjunto compacto.
Supongamos queB(0,1) \subset {\mathbb{R}}^2 es el disco unitario. La funciónf \colon B(0,1) \to {\mathbb{R}} definida por\ [f (x, y) := \ begin {cases} 0 &\ text {if $\ sqrt {x^2+y^2} >\ nicefrac {1} {2} $},\ \ nicefrac {1} {2} -\ sqrt {x^2+y^2} &\ text {si $\ sqrt {x^2+y^2}\ leq\ nicefrac {1} {2} $}, \ end {cases}\] es continuoB(0,1) y su soporte es la bola cerrada más pequeña C(0,\nicefrac{1}{2}). Como ese es un conjunto compacto,f tiene soporte compacto.
Similarmenteg \colon B(0,1) \to {\mathbb{R}} definido por\ [g (x, y) := \ begin {cases} 0 &\ text {if $x\ leq 0$},\\ x &\ text {if $x > 0$}, \ end {cases}\] es continuo encendidoB(0,1), pero su soporte es el conjunto\{ (x,y) \in B(0,1) : x \geq 0 \}. En particular, nog se soporta de forma compacta.
Consideraremos principalmente el caso cuandoU={\mathbb{R}}^n. A la luz del siguiente ejercicio, no se trata de una simplificación exagerada.
Supongamos queU \subset {\mathbb{R}}^nf \colon U \to {\mathbb{R}} es abierto y es continuo y de soporte compacto. Mostrar que la función\widetilde{f} \colon {\mathbb{R}}^n \to {\mathbb{R}}\ [\ Widetilde {f} (x) := \ begin {cases} f (x) &\ text {if $x\ in U$,}\\ 0 &\ text {de lo contrario,} \ end {cases}\] es continua.
Por otro lado para el disco unitarioB(0,1) \subset {\mathbb{R}}^2, la función continuaf \colon B(0,1) \to {\mathbb{R}} definida por\ (f (x, y) := \ sin\ bigl (\ frac {1} {1-x^2-y^2}\ bigr)\), no tiene soporte compacto; como nof es constantemente cero en vecindad de cualquier punto enB(0,1), sabemos que el soporte es todo el disco B(0,1). La función claramente no se extiende como anteriormente a una función continua. De hecho, no es difícil demostrar que no se puede extender de ninguna manera para que sea continuo en todos{\mathbb{R}}^2 (el límite del disco es el problema).
[mv:prop:rectanglessupp] Supongamosf \colon {\mathbb{R}}^n \to {\mathbb{R}} que es una función continua con soporte compacto. SiR yS son rectángulos cerrados de tal manera que\operatorname{supp}(f) \subset R y\operatorname{supp}(f) \subset S, entonces\int_S f = \int_R f .
Comof es continuo, es integrable automáticamente en los rectángulosR,S, y\ (R \ cap S\). Entonces dice\int_S f = \int_{S \cap R} f = \int_R f.
Debido a esta proposición, cuandof \colon {\mathbb{R}}^n \to {\mathbb{R}} tiene soporte compacto y es integrable sobre un rectánguloR que contiene el soporte escribimos\ [\ int f: =\ int_r f\ qquad\ text {o}\ qquad \ int_ {{\ mathbb {R}} ^n} f: =\ int_r f.\] Por ejemplo, sif es continuo y de soporte compacto, entonces \int_{{\mathbb{R}}^n} fexiste.
Ejercicios
Demostrar.
Supongamos queR es un rectángulo con la longitud de uno de los lados igual a 0. Para cualquier función acotadaf, muestra esof \in {\mathcal{R}}(R) y\int_R f = 0.
[mv:zerosiderectangle] Supongamos queR es un rectángulo con la longitud de uno de los lados igual a 0, y supongamos queS es un rectángulo conR \subset S. Sif es una función acotada tal quef(x) = 0 parax \in R \setminus S, mostrar esof \in {\mathcal{R}}(R) y\int_R f = 0.
Supongamos quef\colon {\mathbb{R}}^n \to {\mathbb{R}} es tal quef(x) := 0 six\not= 0 yf(0) := 1. Mostrar quef es integrable en el usoR := [-1,1] \times [-1,1] \times \cdots \times [-1,1] directo de la definición, y encontrar\int_R f.
[mv:zeroinside] Supongamos queR es un rectángulo cerrado yh \colon R \to {\mathbb{R}} es una función acotada tal queh(x) = 0 ifx \notin \partial R (el límite deR). DejarS ser cualquier rectángulo cerrado. Mostrar esoh \in {\mathcal{R}}(S) y\int_{S} h = 0 . Pista: Escribirh como una suma de funciones como en.
[mv:ceroexterior] SupongamosR yR' son dos rectángulos cerrados conR' \subset R. Supongamos quef \colon R \to {\mathbb{R}} está en{\mathcal{R}}(R') yf(x) = 0 parax \in R \setminus R'. \int_{R'} f = \int_R f .Demuéstralof \in {\mathcal{R}}(R) y Haz esto en los siguientes pasos.
a) Primero haga la prueba asumiendo que ademásf(x) = 0 siempre que\ (x
\ in\ overline {R\ setmenos R'}\).
b) Escribef(x) = g(x) + h(x) dondeg(x) = 0 siempre que\ (x
\ in\ overline {R\ setmenos R'}\), yh(x) es cero excepto quizás on\partial R'. Después mostrar\int_R h = \int_{R'} h = 0 (ver).
c) Mostrar\int_{R'} f = \int_R f.
SupongamosR' \subset {\mathbb{R}}^n yR'' \subset {\mathbb{R}}^n son dos rectángulos tal queR = R' \cup R'' es un rectángulo, yR' \cap R'' es rectángulo con uno de los lados teniendo longitud 0 (es decirV(R' \cap R'') = 0). Quef \colon R \to {\mathbb{R}} sea una función tal quef \in {\mathcal{R}}(R') yf \in {\mathcal{R}}(R''). \int_{R} f = \int_{R'} f + \int_{R''} f .Demuéstralof \in {\mathcal{R}}(R) y Pista: ver ejercicio anterior.
Demostrar una versión más fuerte de. Supongamosf \colon {\mathbb{R}}^n \to {\mathbb{R}} ser una función con soporte compacto pero no necesariamente continuo. Demostrar que siR es un rectángulo cerrado tal que\operatorname{supp}(f) \subset R yf es integrable sobreR, entonces para cualquier otro rectángulo cerradoS con\operatorname{supp}(f) \subset S, la funciónf es integrable sobreS y\int_S f = \int_R f. Pista: Ver.
SupongamosR yS son rectángulos cerrados de{\mathbb{R}}^n. Definirf \colon {\mathbb{R}}^n \to {\mathbb{R}} comof(x) := 1 six \in R, y def(x) := 0 otra manera. Provef es integrableS y computar\int_S f. Pista: ConsidereS \cap R.
VamosR = [0,1] \times [0,1] \subset {\mathbb{R}}^2.
a) Supongamos quef \colon R \to {\mathbb{R}} está definido por\ [f (x, y) :=
\ begin {cases}
1 &\ text {if $x = y$,}\\
0 &\ text {else.}
\ end {cases}\] Muéstralof \in {\mathcal{R}}(R) y computa\int_R f.
b) Supongamos quef \colon R \to {\mathbb{R}} está definido por\ [f (x, y) :=
\ begin {cases}
1 &\ text {if $x\ in {\ mathbb {Q}} $ o $y\ in {\ mathbb {Q}} $,}\\
0 &\ text {else.}
\ end {cases}\] Demuéstralof \notin {\mathcal{R}}(R).
Supongamos queR es un rectángulo cerrado, y supongamos queS_j son rectángulos cerrados tal queS_j \subset R yS_j \subset S_{j+1} para todosj. Supongamos quef \colon R \to {\mathbb{R}} está acotado yf \in {\mathcal{R}}(S_j) para todosj. Demuestre esof \in {\mathcal{R}}(R) y\lim_{j\to\infty} \int_{S_j} f = \int_R f .
Supongamos quef\colon [-1,1] \times [-1,1] \to {\mathbb{R}} es una función integrable Riemann talf(x) = -f(-x). Usando la definición probar\int_{[-1,1] \times [-1,1]} f = 0 .
Integrales iteradas y teorema de Fubini
Nota: 1—2 conferencias
La integral de Riemann en varias variables es difícil de calcular a partir de la definición. Para la integral unidimensional de Riemann tenemos el teorema fundamental del cálculo y podemos calcular muchas integrales sin tener que apelar a la definición de la integral. Reescribiremos una integral de Riemann en varias variables en varias integrales unidimensionales de Riemann iterando. Sin embargo, sif \colon [0,1]^2 \to {\mathbb{R}} es una función integrable de Riemann, no queda inmediatamente claro si las tres expresiones\ [\ int_ {[0,1] ^2} f, \ qquad \ int_0^1\ int_0^1 f (x, y)\, dx\, dy, \ qquad\ text {y} \ qquad \ int_0^1\ int_0^1 f (x, y)\, dy\, dx\] son iguales, o si los dos últimos están incluso bien definidos.
Define\ [f (x, y) := \ begin {cases} 1 &\ text {if $x=\ nicefrac {1} {2} $ y $y\ in {\ mathbb {Q}} $,}\\ 0 &\ text {de lo contrario.} \ end {cases}\] Entonces Riemannf es integrable enR := [0,1]^2 y\int_R f = 0. Además,\int_0^1 \int_0^1 f(x,y) \, dx \, dy = 0. Sin embargo\int_0^1 f(\nicefrac{1}{2},y) \, dy no existe, así que ni siquiera podemos escribir\ (\ int_0^1\ int_0^1 f (x, y)\, dy\, dx\).
Prueba: Empecemos con la integrabilidad def. Simplemente tomamos la partición de[0,1]^2 donde está la partición en lax dirección\ (\ {0,\ nicefrac {1} {2} -\ epsilon, \ nicefrac {1} {2} +\ epsilon,1\}\) y en lay dirección\{ 0, 1 \}. Los subrectángulos de la partición son\ [R_1: = [0, \ nicefrac {1} {2} -\ epsilon]\ times [0,1], \ qquad R_2: = [\ nicefrac {1} {2} -\ epsilon, \ nicefrac {1} {2} +\ epsilon]\ times [0,1], \ qquad R_3: = [\ nicefrac {1} {2} +\ epsilon,1]\ veces [0,1].\] Tenemosm_1 = M_1 = 0,m_2 =0,M_2 = 1, y m_3 = M_3 = 0. Por lo tanto,\ [L (P, f) = m_1 V (R_1) + m_2 V (R_2) + m_3 V (R_3) = 0 (\ nicefrac {1} {2} -\ épsilon) + 0 (2\ épsilon) + 0 (\ nicefrac {1} {2} -\ épsilon) = 0,\] y\ [U (P, f) = M_1 V (R_1) + M_2 V (R_2) + M_3 V (R_3) = 0 (\ nicefrac {1} {2} -\ épsilon) + 1 (2\ épsilon) + 0 (\ nicefrac {1} {2} -\ épsilon) = 2\ épsilon.\] La suma superior e inferior son arbitrariamente cercanas y la suma inferior siempre es cero, por lo que la función es integrable y\int_R f = 0.
Para cualquieray, la función que llevax af(x,y) es cero excepto quizás en un solo puntox=\nicefrac{1}{2}. Sabemos que tal función es integrable y\int_0^1 f(x,y) \, dx = 0. Por lo tanto,\int_0^1 \int_0^1 f(x,y) \, dx \, dy = 0.
Sin embargo six=\nicefrac{1}{2}, la función que llevay af(\nicefrac{1}{2},y) es la función no integrable que es 1 en los racionales y 0 en los irracionales. Ver Ejemplo 5.1.4 del volumen I.
Vamos a resolver este problema de integrales indefinidas dentro mediante el uso de las integrales superiores e inferiores, que siempre están definidas.
Dividimos las coordenadas de{\mathbb{R}}^{n+m} en dos partes. Es decir, escribimos las coordenadas en{\mathbb{R}}^{n+m} = {\mathbb{R}}^n \times {\mathbb{R}}^m como(x,y) dóndex \in {\mathbb{R}}^n yy \in {\mathbb{R}}^m. Para una funciónf(x,y) escribimosf_x(y) := f(x,y) cuandox se fija y deseamos hablar de la función en términos dey. Escribimosf^y(x) := f(x,y) cuandoy se fija y deseamos hablar de la función en términos dex.
[MV:Fubiniva] DejarR \times S \subset {\mathbb{R}}^n \times {\mathbb{R}}^m ser un rectángulo cerrado yf \colon R \times S \to {\mathbb{R}} ser integrable. Las funcionesg \colon R \to {\mathbb{R}} yh \colon R \to {\mathbb{R}} definidas por\ [g (x) :=\ subrayado {\ int_s} f_x\ qquad \ text {y}\ qquad h (x) :=\ overline {\ int_s} f_x\] son integrables sobreR y\int_R g = \int_R h = \int_{R \times S} f .
En otras palabras\ [\ int_ {R\ veces S} f = \ int_r\ izquierda ( \ subrayado {\ int_s} f (x, y)\, dy \ derecha)\, dx = \ int_r\ izquierda ( \ overline {\ int_s} f (x, y)\, dy \ derecha)\, dx.\] Si resulta quef_x es integrable para todosx, para ejemplo cuandof es continuo, entonces obtenemos el más familiar\ [\ int_ {R\ veces S} f = \ int_r\ int_s f (x, y)\, dy\, dx.\]
Cualquier partición deR \times S es una concatenación de una partición deR y una partición deS. Es decir, escribir una partición deR \times S as(P,P') = (P_1,P_2,\ldots,P_n,P'_1,P'_2,\ldots,P'_m), dóndeP = (P_1,P_2,\ldots,P_n) yP' = (P'_1,P'_2,\ldots,P'_m) son particiones deR yS respectivamente. R_1,R_2,\ldots,R_NDejen ser los subrectángulos deP yR'_1,R'_2,\ldots,R'_K ser los subrectángulos deP'. Entonces los subrectángulos de(P,P') sonR_j \times R'_k dónde1 \leq j \leq N y1 \leq k \leq K.
Vamos\ [m_ {j, k} := \ inf_ {(x, y)\ en R_j\ veces R'_k} f (x, y).\] Nos damos cuenta de queV(R_j \times R'_k) = V(R_j)V(R'_k) y por lo tanto\ [L\ bigl ((P, P'), f\ bigr) = \ sum_ {j=1} ^N \ sum_ {k=1} ^K m_ {j, k}\, V (R_j\ veces R'_k) = \ suma_ {j=1} ^N \ izquierda ( \ suma_ {k=1} ^K m_ {j, k}\, V (R'_k)\ derecha) V (R_j).\] Si dejamosm_k(x) := \inf_{y \in R'_k} f(x,y) = \inf_{y \in R'_k} f_x(y) , entonces claro six \in R_j, entoncesm_{j,k} \leq m_k(x). Por lo tanto\ [\ sum_ {k=1} ^K m_ {j, k}\, V (R'_k) \ leq\ sum_ {k=1} ^K m_k (x)\, V (R'_k) = L (P', f_x) \ leq\ subrayamos {\ int_s} f_x = g (x).\] Como tenemos la desigualdad para todosx \in R_j tenemos\ [\ sum_ {k=1} ^K m_ {j, k}\, V (R'_k) \ leq\ inf_ {x\ in R_j} g (x).\] Así obtenemos\ [L\ bigl ((P, P'), f\ bigr) \ leq \ suma_ {j=1} ^N \ izquierda ( \ inf_ {x\ en R_j} g (x) \ derecha) V (R_j) = L (P, g).\]
De igual maneraU\bigl((P,P'),f) \geq U(P,h), y la prueba de esta desigualdad se deja como ejercicio.
Armando esto tenemos\ [L\ bigl ((P, P'), f\ bigr) \ leq L (P, g)\ leq U (P, g)\ leq U (P, h)\ leq U\ bigl ((P, P'), f\ bigr).\] Y comof es es integrable, debe ser queg sea integrable como\ [U (P, P, g) - L (P, g) \ leq U\ bigl ((P, P'), f\ bigr) - L\ bigl ((P, P'), f\ bigr),\] y nosotros puede hacer que el lado derecho sea arbitrariamente pequeño. En cuanto a cualquier partición queL\bigl((P,P'),f\bigr) \leq L(P,g) \leq U\bigl((P,P'),f\bigr) tengamos debemos tener eso\int_R g = \int_{R \times S} f.
De igual manera tenemos\ [L\ bigl ((P, P'), f\ bigr) \ leq L (P, g)\ leq L (P, h)\ leq U (P, h)\ leq U\ bigl ((P, P'), f\ bigr),\] y por lo tanto\ [U (P, h) - L (P, h) \ leq U\ bigl ((P, P'), f\ bigr) - L\ bigl ((P, P'), f\ bigr).\] Entonces sif es integrable así esh, y comoL\bigl((P,P'),f\bigr) \leq L(P,h) \leq U\bigl((P,P'),f\bigr) debemos tener eso \int_R h = \int_{R \times S} f.
También podemos hacer la integración iterada en orden opuesto. La prueba de esta versión es casi idéntica a la versión A, y la dejamos como ejercicio al lector.
[MV:FubiniVB] DejarR \times S \subset {\mathbb{R}}^n \times {\mathbb{R}}^m ser un rectángulo cerrado yf \colon R \times S \to {\mathbb{R}} ser integrable. Las funcionesg \colon S \to {\mathbb{R}} yh \colon S \to {\mathbb{R}} definidas por\ [g (y) :=\ subrayado {\ int_r} f^y\ qquad \ text {y}\ qquad h (y) :=\ overline {\ int_r} f^y\] son integrables sobreS y\int_S g = \int_S h = \int_{R \times S} f .
Es decir también tenemos\ [\ int_ {R\ veces S} f = \ int_s\ izquierda ( \ subrayado {\ int_r} f (x, y)\, dx \ derecha)\, dy = \ int_s\ izquierda ( \ overline {\ int_r} f (x, y)\, dx \ derecha)\, dy.\]
Siguiente supongamos quef_x yf^y son integrables por simplicidad. Por ejemplo, supongamos que esof es continuo. Entonces juntando las dos versiones obtenemos el familiar\ [\ int_ {R\ times S} f = \ int_r \ int_s f (x, y)\, dy\, dx = \ int_s \ int_r f (x, y)\, dx\, dy.\]
A menudo el teorema de Fubini se afirma en dos dimensiones para una función continua\ (f\ colon R\ a {\ mathbb {R}}\) sobre un rectánguloR = [a,b] \times [c,d]. Entonces el teorema de Fubini establece que\ [\ int_r f =\ int_a^b\ int_c^d f (x, y)\, dy\, dx = \ int_c^d\ int_a^b f (x, y)\, dx\, dy.\] Y el teorema de Fubini se piensa comúnmente como el teorema que nos permite intercambiar el orden de iterado integrales.
Aplicando repetidamente el teorema de Fubini nos consigue el siguiente corolario: Vamos\ (R: = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\ subconjunto {\ mathbb {R}} ^n\) ser un rectángulo cerrado y dejar quef \colon R \to {\mathbb{R}} sea continuo. Entonces\ [\ int_r f = \ int_ {a_1} ^ {b_1} \ int_ {a_2} ^ {b_2} \ cdots \ int_ {a_n} ^ {b_n} f (x_1, x_2,\ ldots, x_n) \, dx_n \, dx_ {n-1} \ cdots dx_1.\]
Claramente también podemos cambiar el orden de integración a cualquier orden que nos plazca. También podemos relajar el requisito de continuidad asegurándonos de que todas las funciones intermedias sean integrables, o mediante el uso de integrales superiores o inferiores.
Ejercicios
Calcular\int_{0}^1 \int_{-1}^1 xe^{xy} \, dx \, dy de una manera sencilla.
Demostrar la aseveraciónU\bigl((P,P'),f\bigr) \geq U(P,h) a partir de la prueba de.
Demostrar.
LetR=[a,b] \times [c,d] yf(x,y) es una función integrable enR tal que tal que para cualquier fijoy, la función que llevax af(x,y) es cero excepto en finitamente muchos puntos. Mostrar\int_R f = 0 .
LetR=[a,b] \times [c,d] yf(x,y) := g(x)h(y) para dos funciones continuasg \colon [a,b] \to {\mathbb{R}} yh \colon [a,b] \to {\mathbb{R}}. Demostrar\int_R f = \left(\int_a^b g\right)\left(\int_c^d h\right) .
Calcular\ [\ int_0^1\ int_0^1\ frac {x^2-y^2} {{(x^2+y^2)} ^2}\, dx\, dy \ qquad\ texto {y}\ qquad \ int_0^1\ int_0^1\ frac {x^2-y^2} {{(x^2+y^2)} ^2}\, dy\, dx.\] Necesitarás interpretar las integrales como impropias, es decir, el límite de\int_\epsilon^1 as\epsilon \to 0.
Supongamosf(x,y) := g(x) dóndeg \colon [a,b] \to {\mathbb{R}} es Riemann integrable. Demostrar quef es Riemann integrable para cualquierR = [a,b] \times [c,d] y\int_R f = (d-c) \int_a^b g .
Definirf \colon [-1,1] \times [0,1] \to {\mathbb{R}} por\ [f (x, y) :=
\ begin {cases}
x &\ text {if $y\ in {\ mathbb {Q}} $,}\\
0 &\ text {else.}
\ end {cases}\] Mostrar
a)\int_0^1 \int_{-1}^1 f(x,y) \, dx \, dy existe, pero no\int_{-1}^1 \int_0^1 f(x,y) \, dy \, dx lo hace.
b) Cómputos\int_{-1}^1 \overline{\int_0^1} f(x,y) \, dy \, dx y\int_{-1}^1 \underline{\int_0^1} f(x,y) \, dy \, dx.
c) Show nof es Riemann integrable en[-1,1] \times [0,1] (use Fubini).
Definirf \colon [0,1] \times [0,1] \to {\mathbb{R}} por\ [f (x, y) :=
\ begin {cases}
\ nicefrac {1} {q} &\ text {if $x\ in {\ mathbb {Q}} $, $y\ in {\ mathbb {Q}} $, y $y=\ nicefrac {p} {q} $ en términos más bajos,}\\
0 &\ text {else.}
\ end {cases}\] Mostrar
a) Showf es Riemann integrable en[0,1] \times [0,1].
b) Encontrar\overline{\int_0^1} f(x,y) \, dx y\underline{\int_0^1} f(x,y) \, dx para todosy \in [0,1], y demostrar que son desiguales para todos\ (y
\ in {\ mathbb {Q}}\).
c)\int_0^1 \int_0^1 f(x,y) \, dy \, dx existe, pero\int_0^1 \int_0^1 f(x,y) \, dx \, dy no lo hace.
Nota: Por Fubini,\int_0^1 \overline{\int_0^1} f(x,y) \, dy \, dx y\int_0^1 \underline{\int_0^1} f(x,y) \, dy \, dx sí existen e igualan la integral def onR.
Conjuntos de medidas externas y nulos
Nota: 2 conferencias
Conjuntos de medidas externas y nulos
Antes de caracterizar todas las funciones integrables de Riemann, necesitamos hacer un ligero desvío. Introducimos una forma de medir el tamaño de los conjuntos en{\mathbb{R}}^n.
DejarS \subset {\mathbb{R}}^n ser un subconjunto. Definir la medida externa deS como\ [m^* (S) : = \ inf\, \ sum_ {j=1} ^\ infty V (R_j),\] donde el infimum se toma sobre todas las secuencias\{ R_j \} de rectángulos abiertos tal queS \subset \bigcup_{j=1}^\infty R_j. En particular,S es de medida cero o un conjunto nulo sim^*(S) = 0.
La teoría de las medidas sobre{\mathbb{R}}^n es un tema muy complicado. Solo requeriremos conjuntos de medida-cero y así nos enfocamos en estos. El conjuntoS es de medida cero si por cada\epsilon > 0 existe una secuencia de rectángulos abiertos\{ R_j \} tal que\ [\ label {mv:eq:nullr} S\ subconjunto\ bigcup_ {j=1} ^\ infty R_j\ qquad\ text {y}\ qquad \ sum_ {j=1} ^\ infty V (R_j) <\ épsilon.\] Además, siS es medida cero y S' \subset S, entoncesS' es de medida cero. De hecho podemos usar exactamente los mismos rectángulos.
A veces es más conveniente usar bolas en lugar de rectángulos. De hecho podemos elegir bolas no mayores que un radio fijo.
[mv:prop:ballsnull] Dejar\delta > 0 ser dado. Un conjuntoS \subset {\mathbb{R}}^n es medida cero si y solo si por cada\ (\ épsilon > 0\), existe una secuencia de bolas abiertas\{ B_j \}, donde el radio deB_j esr_j < \delta tal que\ [S\ subconjunto\ bigcup_ {j=1} ^\ infty b_j\ qquad\ text {y}\ qquad \ sum_ {j=1} ^\ infty r_j^n <\ épsilon.\]
Tenga en cuenta que el “volumen” deB_j es proporcional ar_j^n.
SiR es un cubo (cerrado o abierto) (rectángulo con todos los lados iguales) de lados, entoncesR está contenido en una bola cerrada de radio\sqrt{n}\, s por, y por lo tanto en una bola abierta de tamaño2 \sqrt{n}\, s.
Dejars ser un número que es menor que el lado más pequeño deR y también para que2\sqrt{n} \, s < \delta. AfirmamosR está contenido en una unión de cubos cerradosC_1, C_2, \ldots, C_k de ladoss tal que\sum_{j=1}^k V(C_j) \leq 2^n V(R) . es claramente cierto (sin el2^n) siR tiene lados que son múltiplos enteros des. Entonces si un lado es de longitud(\ell+\alpha) s, para\ell \in {\mathbb{N}} y0 \leq \alpha < 1, entonces(\ell+\alpha)s \leq 2\ell s. Al aumentar el lado a2\ell s obtenemos un nuevo rectángulo de volumen más grande en la mayoría de las2^n veces más grande, pero cuyos lados son múltiplos des.
Entonces supongamos que existen\{ R_j \} como en la definición tal que [MV:EQ:NullR] es cierto. Como hemos visto anteriormente, podemos elegir cubos cerrados\{ C_k \} conC_k de lados_k como arriba que cubran todos los rectángulos\{ R_j \} y para que\ [\ sum_ {k=1} ^\ infty s_k^n = \ sum_ {k=1} ^\ infty V (C_k)\ leq 2^n\ sum_ {j=1} ^\ infty V (R_k) < 2^n\ epsilon.\] RecubrimientoC_k con bolas B_kde radior_k = 2\sqrt{n} \, s_k obtenemos\ [\ sum_ {k=1} ^\ infty r_k^n < 2^ {2n} n\ epsilon.\] Y como\ (S\ subconjunto\ bigcup_ {j} R_j\ subconjunto\ bigcup_ {k} c_k\ subconjunto\ bigcup_ {k} b_k\), estamos terminados.
Supongamos que tenemos la condición de bola arriba para algunos\epsilon > 0. Sin pérdida de generalidad supongamos que todosr_j < 1. Cada unoB_j está contenido un en un cuboR_j de lado2r_j. EntoncesV(R_j) = {(2 r_j)}^n < 2^n r_j. Por lo tanto\ [S\ subconjunto\ bigcup_ {j=1} ^\ infty R_j\ qquad\ texto {y}\ qquad \ sum_ {j=1} ^\ infty V (R_j) < \ sum_ {j=1} ^\ infty 2^n r_j < 2^n\ epsilon. \ qedhere\]
La definición de medida exterior podría haberse hecho también con bolas abiertas, no solo conjuntos nulos. Dejamos esta generalización al lector.
Ejemplos y propiedades básicas
El conjunto{\mathbb{Q}}^n \subset {\mathbb{R}}^n de puntos con coordenadas racionales es un conjunto de medida cero.
Prueba: El conjunto{\mathbb{Q}}^n es contable y por lo tanto vamos a escribirlo como una secuenciaq_1,q_2,\ldots. Para cada unoq_j encontrar un rectángulo abiertoR_j conq_j \in R_j yV(R_j) < \epsilon 2^{-j}. Entonces\ [{\ mathbb {Q}} ^n\ subconjunto\ bigcup_ {j=1} ^\ infty R_j\ qquad\ texto {y}\ qquad \ suma_ {j=1} ^\ infty V (R_j) < \ sum_ {j=1} ^\ infty\ épsilon 2^ {-j} =\ épsilon.\]
El ejemplo apunta a un resultado más general.
Una unión contable de conjuntos de cero de medida es de medida cero.
SupongamosS = \bigcup_{j=1}^\infty S_j , dondeS_j están todos los conjuntos de cero de medida. Dejemos\epsilon > 0 que se den. Para cada unoj existe una secuencia de rectángulos abiertos\{ R_{j,k} \}_{k=1}^\infty tal queS_j \subset \bigcup_{k=1}^\infty R_{j,k} y\sum_{k=1}^\infty V(R_{j,k}) < 2^{-j} \epsilon . EntoncesS \subset \bigcup_{j=1}^\infty \bigcup_{k=1}^\infty R_{j,k} . Como siempreV(R_{j,k}) es positivo, la suma sobre todoj y sek puede hacer en cualquier orden. En particular, se puede hacer como\ [\ sum_ {j=1} ^\ infty\ sum_ {k=1} ^\ infty V (R_ {j, k}) < \ sum_ {j=1} ^\ infty 2^ {-j}\ épsilon =\ épsilon. \ qedhere\]
El siguiente ejemplo no sólo es interesante, será útil más adelante.
[mv:ejemplo:planenull] LetP := \{ x \in {\mathbb{R}}^n : x_k = c \} para una constante fijak=1,2,\ldots,n y una fijac \in {\mathbb{R}}. EntoncesP es de medida cero.
Prueba: Primero arreglas y probemos queP_s := \{ x \in {\mathbb{R}}^n : x_k = c, \left\lvert {x_j} \right\rvert \leq s \text{ for all $j\not=k$} \} es de medida cero. Dado cualquiera\epsilon > 0 define el rectángulo abierto\ [R: =\ {x\ in {\ mathbb {R}} ^n: c-\ epsilon < x_k < c+\ épsilon,\ left\ lvert {x_j}\ right\ rvert < s+1 \ text {para todos $j\ not=k$}\}.\] Es claro queP_s \subset R. AdemásV(R) = 2\epsilon {\bigl(2(s+1)\bigr)}^{n-1} . Comos se fija, podemos hacerV(R) arbitrariamente pequeños recogiendo lo suficientemente\epsilon pequeños.
A continuación observamos queP = \bigcup_{j=1}^\infty P_j y una unión contable de conjuntos de medidas cero es la medida cero.
Sia < b, entoncesm^*([a,b]) = b-a.
Prueba: En el caso de{\mathbb{R}}, los rectángulos abiertos son intervalos abiertos. Ya que[a,b] \subset (a-\epsilon,b+\epsilon) para todos\epsilon > 0. De ahí,m^*([a,b]) \leq b-a.
Demostremos la otra desigualdad. Supongamos que\{ (a_j,b_j) \} son intervalos abiertos de tal manera que[a,b] \subset \bigcup_{j=1}^\infty (a_j,b_j) . deseamos encuadernar\sum (b_j-a_j) desde abajo. Dado que[a,b] es compacto, entonces solo hay finitamente muchos intervalos abiertos que aún cubren[a,b]. Como tirar algunos de los intervalos solo hace que la suma sea más pequeña, solo necesitamos tomar el número finito de intervalos que aún cubren[a,b]. Si(a_i,b_i) \subset (a_j,b_j), entonces podemos tirar(a_i,b_i) también. Por lo tanto tenemos[a,b] \subset \bigcup_{j=1}^k (a_j,b_j) para algunosk, y suponemos que los intervalos están ordenados de tal manera que\ (a_1 < a_2 <\ cdots < a_k\). Tenga en cuenta que ya que no(a_2,b_2) está contenido en eso(a_1,b_1) tenemosa_1 < a_2 < b_1 < b_2. De igual maneraa_j < a_{j+1} < b_j < b_{j+1}. Además,a_1 < a yb_k > b. Así,\ [m^* ([a, b])\ geq \ suma_ {j=1} ^k (b_j-a_j) \ geq \ suma_ {j=1} ^ {k-1} (a_ {j+1} -a_j) + (b_k-a_k) = b_k-a_1 > b-a.\]
[mv:prop:compactnull] Supongamos queE \subset {\mathbb{R}}^n es un conjunto compacto de medida cero. Entonces para cada\epsilon > 0, existen finitamente muchos rectángulos abiertosR_1,R_2,\ldots,R_k tales que\ [E\ subconjunto R_1\ copa R_2\ copa\ cdots\ copa R_k \ qquad\ text {and}\ qquad \ sum_ {j=1} ^k V (R_j) <\ épsilon.\] También para cualquiera\delta > 0, existen finitamente muchas bolas abiertasB_1,B_2,\ldots,B_k de radiosr_1,r_2,\ldots,r_k < \delta tales que \ [E\ subconjunto B_1\ copa B_2\ copa\ cdots\ copa B_k \ qquad\ texto {y}\ qquad \ sum_ {j=1} ^k r_j^n <\ épsilon.\]
Encuentra una secuencia de rectángulos abiertos\{ R_j \} tal que\ [E\ subconjunto\ bigcup_ {j=1} ^\ infty R_j \ qquad\ text {y}\ qquad \ sum_ {j=1} ^\ infty V (R_j) <\ épsilon.\] Por compacidad, hay finitamente muchos de estos rectángulos que aún contienenE. Es decir, hay algunosk tales queE \subset R_1 \cup R_2 \cup \cdots \cup R_k. De ahí\ [\ sum_ {j=1} ^k V (R_j)\ leq \ suma_ {j=1} ^\ infty V (R_j) <\ épsilon.\]
La prueba de que podemos elegir bolas en lugar de rectángulos se deja como ejercicio.
[ejemplo:cantor] Para que el lector no tenga la impresión de que sólo hay muy pocos conjuntos de cero de medida y que estos son simples, demos un subconjunto incontable, compacto, de medida cero en[0,1]. Para cualquierx \in [0,1] escribir la representación en notación ternariax = \sum_{j=1}^\infty d_n 3^{-n} . Ver §1.5 en el tomo I, en particular Ejercicio 1.5.4. Definir el conjunto CantorC como\ [C: =\ Bigl\ {x\ in [0,1]: x =\ sum_ {j=1} ^\ infty d_n 3^ {-n},\ text {donde $d_j = 0$ o $d_j = 2$ para todos $j$}\ Bigr\}.\] Es decir,x está adentroC si tiene una expansión ternaria en only0's y2's. Six tiene dos expansiones, siempre y cuando una de ellas no tenga ninguna1, entoncesx está adentroC. DefinirC_0 := [0,1] y\ [C_k: =\ Bigl\ {x\ in [0,1]: x =\ sum_ {j=1} ^\ infty d_n 3^ {-n},\ text {donde $d_j = 0$ o $d_j = 2$ para todos $j=1,2,\ ldots, k$}\ Bigr\}.\] Claramente,C = \bigcap_{k=1}^\infty C_k . dejamos como ejercicio para demostrar que:
- Cada unoC_k es una unión finita de intervalos cerrados. Se obtiene tomandoC_{k-1}, y de cada intervalo cerrado eliminando el “tercio medio”.
- Por lo tanto, cada unoC_k está cerrado.
- Además,m^*(C_k) =1 - \sum_{n=1}^k \frac{2^n}{3^{n+1}}.
- De ahí,m^*(C) = 0.
- El conjuntoC está en correspondencia uno a uno con[0,1], es decir, incontable.
Ver.
Imágenes de null sets
Antes de mirar imágenes de conjuntos de medida cero, veamos qué le hace una función continuamente diferenciable a una pelota.
[lemma:ballmapder] Supongamos queU \subset {\mathbb{R}}^n es un conjunto abierto,B \subset U es una bola abierta o cerrada de radio a lo sumor,f \colon B \to {\mathbb{R}}^n es continuamente diferenciable y supongamos\lVert {f'(x)} \rVert \leq M para todosx \in B. Entoncesf(B) \subset B', dondeB' está una bola de radio como máximoMr.
Sin pérdida de generalidad asuma queB es una bola cerrada. La bolaB es convexa, y por lo tanto vía, eso\lVert {f(x)-f(y)} \rVert \leq M \lVert {x-y} \rVert para todosx,y adentroB. En particular, supongamosB = C(y,r), entoncesf(B) \subset C\bigl(f(y),M r \bigr).
La imagen de un conjunto de cero de medida usando un mapa continuo no es necesariamente un conjunto de cero de medida. Sin embargo, si asumimos que el mapeo es continuamente diferenciable, entonces el mapeo no puede “estirar” demasiado el conjunto.
[prop:imagenull] Supongamos queU \subset {\mathbb{R}}^n es un conjunto abierto yf \colon U \to {\mathbb{R}}^n es un mapeo continuamente diferenciable. SiE \subset U es una medida cero establecida, entoncesf(E) es la medida cero.
Dejamos la prueba para un conjunto de cero de medida general como ejercicio, y ahora probamos la propuesta de un conjunto de cero de medida compacta. Por lo tanto, supongamos queE es compacto.
Primero vamos a reemplazarU por un conjunto abierto más pequeño para hacer\lVert {f'(x)} \rVert acotado. En cada punto\ (x\ en E\) recoger una bola abierta deB(x,r_x) tal manera que la bola cerrada\ (C (x, r_x)\ subconjunto U\). Por compacidad sólo necesitamos tomar finitamente muchos puntosx_1,x_2,\ldots,x_q para seguir cubriendoE. Definir\ [U': =\ bigcup_ {j=1} ^q B (x_j, r_ {x_j}),\ qquad K: =\ bigcup_ {j=1} ^q C (x_j, r_ {x_j}).\] TenemosE \subset U' \subset K \subset U. El conjuntoK es compacto. La función que llevax a\lVert {f'(x)} \rVert es continua, y por lo tanto existeM > 0 tal que\lVert {f'(x)} \rVert \leq M para todosx \in K. Entonces sin pérdida de generalidad podemos sustituirU porU' y a partir de ahora supongamos eso\lVert {f'(x)} \rVert \leq M para todosx \in U.
En cada puntox \in E escoge una bolaB(x,\delta_x) de radio máximo para queB(x,\delta_x) \subset U. Vamos\delta = \inf_{x\in E} \delta_x. Toma una secuencia\{ x_j \} \subset E para que\delta_{x_j} \to \delta. ComoE es compacto, podemos escoger la secuencia para ser convergentes a algunos\ (y\ en E\). Una vez\lVert {x_j-y} \rVert < \frac{\delta_y}{2}, luego\delta_{x_j} > \frac{\delta_y}{2} por la desigualdad triangular. Por lo tanto\delta > 0.
Dado\epsilon > 0, existen bolasB_1,B_2,\ldots,B_k de radiosr_1,r_2,\ldots,r_k < \delta tales que\ [E\ subconjunto B_1\ copa B_2\ copa\ cdots\ copa B_k\ qquad \ text {y}\ qquad \ sum_ {j=1} ^k r_j^n <\ épsilon.\] Supongamos queB_1', B_2', \ldots, B_k' son las bolas de radioMr_1, Mr_2, \ldots, Mr_k desde, tal quef(B_j) \subset B_j' para todosj. \ [f (E)\ subconjunto f (B_1)\ copa f (B_2)\ copa\ cdots\ copa f (B_k) \ subconjunto B_1'\ copa B_2'\ copa\ cdots\ copa B_k' \ qquad\ texto {y}\ qquad \ sum_ {j=1} ^k mr_j^n %= %M %\ sum_ {j=1} ^k Mr_j^n < M\ épsilon. \ qedhere\]
Ejercicios
Terminar la prueba de, es decir, demostrar que se pueden usar bolas en lugar de rectángulos.
SiA \subset B, entoncesm^*(A) \leq m^*(B).
Supongamos queX \subset {\mathbb{R}}^n es un conjunto tal que para cada\epsilon > 0 existe un conjuntoY tal queX \subset Y ym^*(Y) \leq \epsilon. Demostrar queX es un conjunto de medidas cero.
Mostrar que siR \subset {\mathbb{R}}^n es un rectángulo cerrado, entoncesm^*(R) = V(R).
El cierre de un conjunto de medidas cero puede ser bastante grande. Encuentra un conjunto de ejemploS \subset {\mathbb{R}}^n que sea de medida cero, pero cuyo cierre\overline{S} = {\mathbb{R}}^n.
Demostrar el caso general de sin usar compacidad:
a) Imita la prueba para probar primero que la proposición se mantiene siE es relativamente compacta; un conjuntoE \subset U es relativamente compacto si el cierre deE en la topología subespacial onU es compacto, o en otro palabras si existe un conjunto compactoK conK \subset U yE \subset K.
Pista: El límite en el tamaño de la derivada aún se mantiene, pero es necesario usar contablemente muchas bolas en la segunda parte de la prueba. Tenga cuidado ya que el cierre de ya noE necesita ser medida cero.
b) Ahora demuéstralo para cualquier conjunto nuloE.
Pista: Primero muestra que\ (\ {x\ in U: d (x, y)\ geq
\ nicefrac {1} {m}\ text {para todos\) y Uand } d(0,x) \leq m \} es un conjunto compacto para cualquieram > 0.
DejarU \subset {\mathbb{R}}^n ser un conjunto abierto y dejarf \colon U \to {\mathbb{R}} ser una función continuamente diferenciable. G := \{ (x,y) \in U \times {\mathbb{R}}: y = f(x) \}Déjese ser la gráfica def. Mostrar quef es de medida cero.
Dado un rectángulo cerradoR \subset {\mathbb{R}}^n, mostrar que para cualquiera\epsilon > 0 existe un números > 0 y finitamente muchos cubos abiertosC_1,C_2,\ldots,C_k de lados tal queR \subset C_1 \cup C_2 \cup \cdots \cup C_k y\sum_{j=1}^k V(C_j) \leq V(R) + \epsilon .
Demostrar que existe un númerok = k(n,r,\delta) dependiendo sólo den,r y\delta tal lo que sigue sostiene. DadoB(x,r) \subset {\mathbb{R}}^n y\delta > 0, existen bolask abiertasB_1,B_2,\ldots,B_k de radio a lo sumo\delta tal queB(x,r) \subset B_1 \cup B_2 \cup \cdots \cup B_k. Tenga en cuenta que puede encontrark que realmente solo depende den y la proporción\nicefrac{\delta}{r}.
Demostrar las declaraciones de. Es decir, probar:
a) Cada unoC_k es una unión finita de intervalos cerrados, y asíC está cerrada.
b)m^*(C_k) =1 - \sum_{n=1}^k \frac{2^n}{3^{n+1}}.
c)m^*(C) = 0.
d) El conjuntoC está en correspondencia uno a uno con[0,1].
El conjunto de funciones integrables de Riemann
Nota: 1 conferencia
Oscilación y continuidad
DejarS \subset {\mathbb{R}}^n ser un conjunto yf \colon S \to {\mathbb{R}} una función. En lugar de simplemente decir quef es o no es continuo en un puntox \in S, necesitamos ser capaces de cuantificar cuán discontinuof es en una función está enx. Para cualquier\delta > 0 definir la oscilación def on the\delta -ball en la topología de subconjunto que esB_S(x,\delta) = B_{{\mathbb{R}}^n}(x,\delta) \cap S como\ [o (f, x,\ delta) := {\ sup_ {y\ in B_S (x,\ delta)} f (y)} - {\ inf_ {y\ in B_S (x,\ delta)} f (y)} = \ sup_ {y_1, y_2\ en B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr).\] Es decir, o(f,x,\delta)es la longitud del intervalo más pequeño que contiene la imagenf\bigl(B_S(x,\delta)\bigr). Claramenteo(f,x,\delta) \geq 0 y avisoo(f,x,\delta) \leq o(f,x,\delta') cuando sea\delta < \delta'. Por lo tanto, el límite como\delta \to 0 desde la derecha existe y definimos la oscilación de una funciónf enx como\ [o (f, x) := \ lim_ {\ delta\ a 0^+} o (f, x,\ delta) = \ inf_ {\ delta > 0} o (f, x,\ delta).\]
f \colon S \to {\mathbb{R}}es continuo enx \in S si y solo sio(f,x) = 0.
Primero supongamos quef es continuo enx \in S. Entonces dado alguno\epsilon > 0, existe\delta > 0 tal que paray \in B_S(x,\delta) nosotros tenemos\left\lvert {f(x)-f(y)} \right\rvert < \epsilon. Por lo tanto si\ (y_1, y_2\ en B_S (x,\ delta)\), entonces\ [f (y_1) -f (y_2) = f (y_1) -f (x) -\ bigl (f (y_2) -f (x)\ bigr) <\ épsilon +\ épsilon = 2\ épsilon.\] Tomamos la supremay_1 yy_2\ [o (f, x,\ delta) = \ sup_ {y_1, y_2\ en B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr) \ leq 2\ épsilon. \] Por lo tanto,o(x,f) = 0.
Por otro lado supongamos queo(x,f) = 0. Dado alguno\epsilon > 0, encuentra un\delta > 0 tal queo(f,x,\delta) < \epsilon. Siy \in B_S(x,\delta), entonces\ [\ izquierda\ lvert {f (x) -f (y)}\ derecha\ rvert \ leq \ sup_ {y_1, y_2\ in B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr) = o (f, x,\ delta) <\ épsilon. \ qedhere\]
[prop:seclosed] DejarS \subset {\mathbb{R}}^n ser cerrado,f \colon S \to {\mathbb{R}}, y\epsilon > 0. El conjunto\{ x \in S : o(f,x) \geq \epsilon \} está cerrado.
Equivalentemente queremos mostrar queG = \{ x \in S : o(f,x) < \epsilon \} está abierto en la topología del subconjunto. Como\inf_{\delta > 0} o(f,x,\delta) < \epsilon, encuentra un\delta > 0 tal queo(f,x,\delta) < \epsilon tome cualquiera\xi \in B_S(x,\nicefrac{\delta}{2}). Observe esoB_S(\xi,\nicefrac{\delta}{2}) \subset B_S(x,\delta). Por lo tanto,\ [o (f,\ xi,\ nicefrac {\ delta} {2}) = \ sup_ {y_1, y_2\ in B_S (\ xi,\ nicefrac {\ delta} {2})}\ bigl (f (y_1) -f (y_2)\ bigr) \ leq \ sup_ {y_1, y_2\ en B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr) = o (f, x,\ delta) < \ épsilon.\] Asío(f,\xi) < \epsilon también. Como esto es cierto para todos\ (\ xi\ in B_S (x,\ nicefrac {\ delta} {2})\) obtenemos queG está abierto en la topología subconjunto yS \setminus G está cerrado como se reclama.
El conjunto de funciones integrables de Riemann
Hemos visto que las funciones continuas son integrables por Riemann, pero también sabemos que se permiten ciertos tipos de discontinuidades. Resulta que mientras las discontinuidades sucedan en un conjunto de medida cero, la función es integrable y viceversa.
DejarR \subset {\mathbb{R}}^n ser un rectángulo cerrado yf \colon R \to {\mathbb{R}} una función acotada. Entonces Riemannf es integrable si y solo si el conjunto de discontinuidades def es de medida cero (un conjunto nulo).
S \subset RSea el conjunto de discontinuidades def. Eso esS = \{ x \in R : o(f,x) > 0 \}. El truco para esta prueba es aislar el mal conjunto en un pequeño conjunto de subrectángulos de una partición. Solo hay finitamente muchos subrectángulos de una partición, por lo que desearemos usar compacidad. SiS está cerrado, entonces sería compacto y podríamos cubrirlo por pequeños rectángulos ya que es de medida cero. Desafortunadamente, en general noS está cerrado por lo que necesitamos trabajar un poco más duro.
Para cada uno\epsilon > 0, defineS_\epsilon := \{ x \in R : o(f,x) \geq \epsilon \} . ByS_\epsilon está cerrado y como es un subconjunto deR, el cual está acotado,S_\epsilon es compacto. Además,S_\epsilon \subset S yS es de medida cero. Vía hay finitamente muchos rectángulos abiertosO_1,O_2,\ldots,O_k que cubrenS_\epsilon y\sum V(O_j) < \epsilon.
El conjuntoT = R \setminus ( O_1 \cup \cdots \cup O_k ) es cerrado, acotado y, por lo tanto, compacto. Además parax \in T, tenemos\ (o (f, x) < \ épsilon\). De ahí que para cada unox \in T, existe un pequeño rectángulo cerradoT_x conx en el interior deT_x, tal que\sup_{y\in T_x} f(y) - \inf_{y\in T_x} f(y) < 2\epsilon. Los interiores de los rectángulosT_x cubrenT. ComoT es compacto existen finitamente muchos de esos rectángulosT_1, T_2, \ldots, T_m que cubrenT.
Toma los rectángulosT_1,T_2,\ldots,T_mO_1,O_2,\ldots,O_k y construye una partición a partir de sus puntos finales. Es decir construir una particiónP deR con subrectángulosR_1,R_2,\ldots,R_p tales que cada unoR_j esté contenido enT_\ell para algunos\ell o el cierre deO_\ell para algunos\ell. Ordene los rectángulos para queR_1,R_2,\ldots,R_q sean los que están contenidos en algunosT_\ell, yR_{q+1},R_{q+2},\ldots,R_{p} son el resto. En particular,\ [\ sum_ {j=1} ^q V (R_j)\ leq V (R) \ qquad\ text {y}\ qquad \ sum_ {j=q+1} ^p V (R_j)\ leq\ epsilon.\] Dejarm_j yM_j ser el inf y sup def másR_j como antes. SiR_j \subset T_\ell para algunos\ell, entonces(M_j-m_j) < 2 \epsilon. B \in {\mathbb{R}}Sea tal que\left\lvert {f(x)} \right\rvert \leq B para todosx \in R, así(M_j-m_j) < 2B sobre todos los rectángulos. Entonces\ [\ begin {split} U (P, f) -L (P, f) & = \ suma_ {j=1} ^p (m_J-m_j) V (R_j) \\ & = \ izquierda ( \ suma_ {j=1} ^q (m_j-m_j) V (R_j) \ derecha) + \ izquierda ( \ suma_ {j=q+1} ^p (m_j-m_j) j) V (R_j) \ derecha) \\ &\ leq \ izquierda ( \ suma_ {j=1} ^q 2\ épsilon V (R_j) \ derecha) + \ izquierda ( \ sum_ {j=q+1} ^p 2 B V (R_j) \ derecha) \\ &\ leq 2\ épsilon V (R) + 2B\ épsilon =\ épsilon\ bigl (2V (R) +2B\ bigr). \ end {split}\] Claramente, podemos hacer que el lado derecho sea tan pequeño como queramos y por lo tantof sea integrable.
Para la otra dirección, supongamos quef es Riemann integrable sobreR. Que vuelva aS ser el conjunto de discontinuidades y ahora dejeS_k := \{ x \in R : o(f,x) \geq \nicefrac{1}{k} \}. Fijar ak \in {\mathbb{N}}. Dado un\epsilon > 0, encontrar una particiónP con subrectángulosR_1,R_2,\ldots,R_p tales que\ [U (P, f) -L (P, f) = \ sum_ {j=1} ^p (m_J-m_j) V (R_j) <\ épsilon\] Supongamos queR_1,R_2,\ldots,R_p están ordenados para que los interiores de seR_1,R_2,\ldots,R_{q} crucenS_k, mientras que los interiores deR_{q+1},R_{q+2},\ldots,R_p están disjuntos de S_k. Six \in R_j \cap S_k yx está en el interior de bolasR_j tan suficientemente pequeñas están completamente dentroR_j, entonces por definición deS_k tenemosM_j-m_j \geq \nicefrac{1}{k}. Entonces\ [\ épsilon > \ suma_ {j=1} ^p (m_J-m_j) V (R_j) \ geq \ suma_ {j=1} ^q (m_J-m_j) V (R_j) \ geq \ frac {1} {k} \ sum_ {j=1} ^q V (R_j)\] En otras palabras\sum_{j=1}^q V(R_j) < k \epsilon. DejarG ser el conjunto de todos los límites de todos los subrectángulos deP. El conjuntoG es de medida cero (ver). DejarR_j^\circ denotar el interior deR_j, entoncesS_k \subset R_1^\circ \cup R_2^\circ \cup \cdots \cup R_q^\circ \cup G . AsG puede ser cubierto por rectángulos abiertos arbitrariamente pequeño volumen,S_k debe ser de medida cero. AsS = \bigcup_{k=1}^\infty S_k y una unión contable de conjuntos de medidas cero es de medida cero,S es de medida cero.
Ejercicios
Supongamos quef \colon (a,b) \times (c,d) \to {\mathbb{R}} es una función continua acotada. Demostrar que la integral def over tieneR = [a,b] \times [c,d] sentido y se define de manera única. Es decir, configuradof para ser cualquier cosa en el límite deR y calcular la integral.
Supongamos queR \subset {\mathbb{R}}^n es un rectángulo cerrado. Demostrar que{\mathcal{R}}(R), el conjunto de funciones integrables de Riemann, es un álgebra. Es decir, mostrar que sif,g \in {\mathcal{R}}(R) ya \in {\mathbb{R}}, entoncesaf \in {\mathcal{R}}(R),f+g \in {\mathcal{R}}(R) yfg \in {\mathcal{R}}(R).
Supongamos queR \subset {\mathbb{R}}^n es un rectángulo cerrado yf \colon R \to {\mathbb{R}} es una función delimitada que es cero excepto en un conjunto cerrado\ (E \ subconjunto R\) de medida cero. Demuestre que\int_R f existe y cómplelo.
Supongamos queR \subset {\mathbb{R}}^n es un rectángulo cerradof \colon R \to {\mathbb{R}} y yg \colon R \to {\mathbb{R}} son dos funciones integrables de Riemann. Supongamos af = g excepción de un conjunto cerradoE \subset R de medida cero. \int_R f = \int_R gDemuéstralo.
Supongamos queR \subset {\mathbb{R}}^n es un rectángulo cerrado yf \colon R \to {\mathbb{R}} es una función acotada.
a) Supongamos que existe un conjunto cerradoE \subset R de medida cero tal quef|_{R\setminus E} es continuo. Entoncesf \in {\mathcal{R}}(R).
b) Encontrar am ejemplo dondeE \subset R es un conjunto de medida cero (pero no cerrado) tal quef|_{R\setminus E} es continuo yf \not\in {\mathcal{R}}(R).
Jordania sets medibles
Nota: 1 conferencia
Conjuntos medibles de volumen y Jordania
Dado un conjunto acotadoS \subset {\mathbb{R}}^n su función característica o función indicadora es\ [\ Chi_s (x) := \ begin {cases} 1 &\ text {if $x\ in S$},\\ 0 &\ text {if $x\ notin S$}. \ end {cases}\] Un conjunto acotadoS es Jordan medible si para algún rectángulo cerradoR tal queS \subset R, la función\chi_S está en{\mathcal{R}}(R). Tomar dos rectángulos cerradosR yR' conS \subset R yS \subset R', despuésR \cap R' es un rectángulo cerrado que también contieneS. Por y,\chi_S \in {\mathcal{R}}(R \cap R') y así\chi_S \in {\mathcal{R}}(R'). Por lo tanto,\int_R \chi_S = \int_{R'} \chi_S = \int_{R \cap R'} \chi_S. definimos el volumenn -dimensional del conjunto medible de Jordania acotadoS comoV(S) := \int_R \chi_S , dondeR se encuentra cualquier rectángulo cerrado que contengaS.
Un conjunto delimitadoS \subset {\mathbb{R}}^n es Jordania medible si y solo si el límite\partial S es un conjunto de medidas cero.
Supongamos queR es un rectángulo cerrado tal queS está contenido en el interior deR. Six \in \partial S, entonces para cada\delta > 0, los conjuntosS \cap B(x,\delta) (donde\chi_S es 1) y los conjuntos(R \setminus S) \cap B(x,\delta) (donde\chi_S es 0) son ambos no vacíos. Entonces no\chi_S es continuo enx. Six está en el interiorS o en el complemento del cierre\overline{S}, entonces\chi_S es idéntico 1 o idénticamente 0 en un vecindario completo dex y por lo tanto\chi_S es continuo enx. Por lo tanto, el conjunto de discontinuidades de\chi_S es precisamente el límite\partial S. A continuación sigue la proposición.
[prop:jordanmeas] SupongamosS yT son conjuntos mensurables de Jordania acotados. Entonces
- El cierre\overline{S} es Jordania medible.
- El interiorS^\circ es Jordania medible.
- S \cup Tes Jordania medible.
- S \cap Tes Jordania medible.
- S \setminus Tes Jordania medible.
La prueba de la proposición se deja como ejercicio. A continuación, encontramos que el volumen que definimos anteriormente coincide con la medida exterior que definimos anteriormente.
Si JordaniaS \subset {\mathbb{R}}^n es medible, entoncesV(S) = m^*(S).
Dado\epsilon > 0, dejaR ser un rectángulo cerrado que contieneS. DejarP ser una partición deR tal que\ [U (P,\ Chi_s)\ leq\ int_r\ Chi_s +\ épsilon = V (S) +\ épsilon \ qquad\ text {y}\ qquad L (P,\ Chi_s)\ geq\ int_r\ Chi_s -\ épsilon = V (S) -\ épsilon.\] VamosR_1,\ldots,R_k ser todos los subrectángulos deP tal que no\chi_S sea idénticamente cero en cada unoR_j. Es decir, hay algún puntox \in R_j tal quex \in S. DejarO_j ser un rectángulo abierto tal queR_j \subset O_j yV(O_j) < V(R_j) + \nicefrac{\epsilon}{k}. Observe que\ (S\ subconjunto \ bigcup_j o_j\). Entonces\ [U (P,\ Chi_s) =\ suma_ {j=1} ^k V (R_j) > \ left (\ sum_ {j=1} ^k V (o_j)\ derecha) -\ épsilon\ geq m^* (S) -\ épsilon.\] ComoU(P,\chi_S) \leq V(S) + \epsilon, entoncesm^*(S) - \epsilon \leq V(S) + \epsilon, o en otras palabrasm^*(S) \leq V(S).
R'_1,\ldots,R'_\ellDejen ser todos los subrectángulos deP tal que\chi_S sea idénticamente uno en cada unoR'_j. En otras palabras, estos son los subrectángulos contenidos enS. Los interiores de los subrectángulosR'^\circ_j son disjuntos yV(R'^\circ_j) = V(R'_j). Es fácil ver por definición que\ [m^*\ Bigl (\ bigcup_ {j=1} ^\ ell R'^\ circ_j\ Bigr) = \ sum_ {j=1} ^\ ell V (R'^\ circ_j).\] De ahí\ [m^* (S)\ geq m^*\ Bigl (\ bigcup_ {j=1} ^\ ell '_j\ Bigr) \ geq m^*\ Bigl (\ bigcup_ {j=1} ^\ ell R'^\ circ_j\ Bigr) %= %\ suma_ {j=1} ^\ ell %m^* (R'^\ circ_j) = \ sum_ {j=1} ^\ ell V (R'^\ circ_j) = \ suma_ {j=1} ^\ ell V (R'_j) = L (P, f)\ geq V (S) -\ épsilon.\] Por tanto también.\] Porm^*(S) \geq V(S) lo tanto también.
Integración sobre conjuntos medibles de Jordania
En una variable realmente solo hay un tipo de conjunto razonable para integrar: un intervalo. En varias variables tenemos muchos tipos comunes de conjuntos sobre los que podríamos querer integrar y estos no se describen tan fácilmente.
SeamosS \subset {\mathbb{R}}^n un conjunto mensurable acotado de Jordania. Se dice que una función delimitadaf \colon S \to {\mathbb{R}} es Riemann integrable enS, of \in {\mathcal{R}}(S), si para un rectángulo cerradoR tal queS \subset R, la función\ (\ Widetilde {f}\ colon R \ a {\ mathbb {R}}\) definida por\ [\ Widetilde {f} (x) = \ begin {cases} f (x) &\ text {if $x\ in S$},\\ 0 &\ text {de lo contrario}, \ end {cases}\] está en{\mathcal{R}}(R). En este caso escribimos\int_S f := \int_R \widetilde{f}.
Cuandof se define en un conjunto más grande y deseamos integrar sobreS, entonces aplicamos la definición a la restricciónf|_S. En particular, sif \colon R \to {\mathbb{R}} para un rectángulo cerradoR, yS \subset R es un subconjunto medible de Jordania, entonces\int_S f = \int_R f \chi_S .
SiS \subset {\mathbb{R}}^n es un conjunto medible de Jordania yf \colon S \to {\mathbb{R}} es una función continua acotada, entoncesf es integrable enS.
Defina la función\widetilde{f} como arriba para algún rectángulo cerradoR con\ (S \ subconjunto R\). Six \in R \setminus \overline{S}, entonces\widetilde{f} es idénticamente cero en un barrio dex. Del mismo modo six está en el interior deS, entonces\widetilde{f} = f en un barrio dex yf es continuo enx. Por lo tanto, sólo\widetilde{f} es posible que sea discontinuo en\partial S, que es un conjunto de medida cero, y estamos acabados.
Imágenes de Jordan mensurable subsets
Por último, las imágenes de conjuntos medibles de Jordania son Jordan medibles bajo mapeos lo suficientemente agradables. Por simplicidad, supongamos que el jacobiano nunca desaparece.
Supongamos queS \subset {\mathbb{R}}^n es un conjunto medible Jordan delimitado cerrado, yS \subset U para un conjunto abiertoU \subset {\mathbb{R}}^n. Supongamos queg \colon U \to {\mathbb{R}}^n es un mapeo uno a uno continuamente diferenciable tal que nuncaJ_g es cero encendidoS. Entonces Jordaniag(S) es mensurable.
VamosT = g(S). Afirmamos que el límite\partial T está contenido en el conjuntog(\partial S). Supongamos que se prueba el reclamo. ComoS es medible Jordania, entonces\partial S es la medida cero. Entoncesg(\partial S) se mide cero por. Como\ (\ parcial T\ subconjunto g (\ parcial S)\), entonces JordaniaT es medible.
Por lo tanto, queda para acreditar la pretensión. Primero,S es cerrado y acotado y por lo tanto compacto. Por Lemma 7.5.4 del volumen I, tambiénT = g(S) es compacto y por lo tanto cerrado. En particular,\partial T \subset T. Supongamosy \in \partial T, entonces debe existirx \in S tal queg(x) = y, y por hipótesisJ_g(x) \not= 0.
Ahora usamos el teorema de la función inversa. Encontramos un vecindarioV \subset U dex y un conjunto abiertoW tal que la restricciónf|_V es una función uno-a-uno y onto deV aW con una inversa continuamente diferenciable. En particular,g(x) = y \in W. Comoy \in \partial T, existe una secuencia\{ y_k \} enW con\lim y_k = y yy_k \notin T. Comog|_V es invertible y en particular tiene una inversa continua, existe una secuencia\{ x_k \} enV tal queg(x_k) = y_k y\lim x_k = x. Ya quey_k \notin T = g(S), claramentex_k \notin S. Ya quex \in S, concluimos quex \in \partial S. Se prueba el reclamo,\ (\ T parcial\ subconjunto g (\ S parcial)\).
Ejercicios
Demostrar.
Demostrar que un conjunto convexo acotado es Jordania medible. Pista: inducción en la dimensión.
[ejercicio:IntoverTypeIset] Dejarf \colon [a,b] \to {\mathbb{R}} yg \colon [a,b] \to {\mathbb{R}} ser funciones continuas y tal que para todosx \in (a,b),f(x) < g(x). DejemosU := \{ (x,y) \in {\mathbb{R}}^2 : a < x < b \text{ and } f(x) < y < g(x) \} . a) Demostrar queU es Jordania medible.
b) Si Riemannf \colon U \to {\mathbb{R}} es integrable enU, entonces\ [\ int_u f =
\ int_a^b\ int_ {g (x)} ^ {f (x)} f (x, y)\, dy\, dx.\]
Construyamos un ejemplo de un conjunto abierto medible no Jordano. Por simplicidad trabajamos primero en una dimensión. \{ r_j \}Sea una enumeración de todos los números racionales en(0,1). Que(a_j,b_j) sean intervalos abiertos de tal manera que(a_j,b_j) \subset (0,1) para todosj,r_j \in (a_j,b_j), y\sum_{j=1}^\infty (b_j-a_j) < \nicefrac{1}{2}. Ahora vamos\ (U: =
\ bigcup_ {j=1} ^\ infty (a_j, b_j)\). Mostrar que
a) Los intervalos abiertos(a_j,b_j) como los anteriores realmente existen.
b)\partial U = [0,1] \setminus U.
c) no\partial U es de medida cero, por lo que Jordania noU es mensurable.
d) Mostrar que\ (W: =\ bigl ((0,1)\ times (0,2)\ bigr)\ setmenos\ bigl (U
\ times [0,1]\ bigr)\ subconjunto {\ mathbb {R}} ^2\) es un conjunto abierto acotado conectado en{\mathbb{R}}^2 que no es Jordan medible.
Teorema de Green
Nota: 1 conferencia
Uno de los teoremas de análisis más importantes en varias variables es el denominado teorema generalizado de Stokes, una generalización del teorema fundamental del cálculo. Quizás la versión más utilizada es la versión en dos dimensiones, llamada teorema de Green, que aquí probamos.
LetU \subset {\mathbb{R}}^2 Ser un conjunto abierto conectado acotado. Supongamos que el límite\partial U es una unión finita de (las imágenes de) caminos suaves simples por tramos de tal manera que cerca de cada puntop \in \partial U cada vecindarioV dep contiene puntos de{\mathbb{R}}^2 \setminus \overline{U}. EntoncesU se llama un dominio delimitado con un límite liso por partes en{\mathbb{R}}^2.
La condición sobre los puntos fuera del cierre significa que localmente{\mathbb{R}}^2 se\partial U separa en “dentro” y “afuera”. La condición\partial U evita que sea solo un “corte” en su interiorU. Por lo tanto, a medida que recorremos el camino en cierta orientación, hay una izquierda y una derecha bien definidas, y o bien estáU a la izquierda y el complemento deU a la derecha, o viceversa. Así, por orientación enU nos referimos a la dirección por la que viajamos por los caminos. Es fácil cambiar la orientación si es necesario reparametrizando el camino.
SiU \subset {\mathbb{R}}^2 es un dominio acotado con límite liso por partes,\partial U déjese orientar y\gamma \colon [a,b] \to {\mathbb{R}}^2 es una parametrización de\partial U dar la orientación. Escribir\gamma(t) = \big(x(t),y(t)\bigr). Si el vectorn(t) := \bigl(-y'(t),x'(t)\bigr) apunta al dominio, es decir,\epsilon n(t) + \gamma(t) está adentroU para todo lo suficientemente pequeño\epsilon > 0, entonces\partial U está orientado positivamente. De lo contrario se orienta negativamente.
El vectorn(t) gira en sentido contrario a\gamma^{\:\prime}(t) las agujas del reloj90^\circ, es decir, a la izquierda. Un límite está orientado positivamente, si cuando viajamos a lo largo del límite en la dirección de su orientación, el dominio está “a nuestra izquierda”. Por ejemplo, siU es un dominio delimitado con “sin agujeros”, es decir,\partial U está conectado, entonces la orientación positiva significa que estamos viajando en sentido contrario a las agujas del reloj\partial U. Si tenemos “agujeros”, entonces viajamos alrededor de ellos en el sentido de las agujas del reloj.
U \subset {\mathbb{R}}^2Sea un dominio acotado con un límite liso por partes, entoncesU es Jordania medible.
Necesitamos que\partial U sea de medida cero. Al igual\partial U que una unión finita de caminos lisos simples por piezas, que a su vez son uniones finitas de caminos lisos, solo necesitamos mostrar que un camino suave es de medida cero adentro{\mathbb{R}}^2.
Dejar\gamma \colon [a,b] \to {\mathbb{R}}^2 ser un camino suave. Basta con mostrar que\gamma\bigl((a,b)\bigr) es de medida cero, ya que sumar dos puntos, es decir los puntos\gamma(a) y\gamma(b), a una medida cero conjunto todavía da como resultado una medida cero conjunto. Define\ [f\ dos puntos (a, b)\ veces (-1,1)\ a {\ mathbb {R}} ^2, \ qquad\ text {as}\ qquad f (x, y) :=\ gamma (x).\] El conjunto(a,b) \times \{ 0 \} es de medida cero en{\mathbb{R}}^2 y\gamma\bigl((a,b)\bigr) = f\bigl( (a,b) \times \{ 0 \} \bigr). De ahí por,\gamma\bigl((a,b)\bigr) es medir cero en{\mathbb{R}}^2 y así también lo\gamma\bigl([a,b]\bigr) es medir cero, y así finalmente también\partial U se mide cero.
Supongamos queU \subset {\mathbb{R}}^2 es un dominio limitado con un límite liso por partes con el límite orientado positivamente. SupongamosP yQ son funciones continuamente diferenciables definidas en algún conjunto abierto que contiene el cierre\overline{U}. Entonces\ [\ int_ {\ U parcial} P\, dx + Q\, dy = \ int_ {U} \ izquierda (\ frac {\ parcial Q} {\ parcial x} -\ frac {\ parcial P} {\ parcial y}\ derecha) . %dx dy.\]
Declaramos el teorema de Green en general, aunque sólo vamos a probar una versión especial del mismo. Es decir, sólo lo demostraremos para un tipo especial de dominio. La versión general se desprende del caso especial por aplicación de geometría adicional, y cortando el dominio general en dominios más pequeños sobre los que aplicar el caso especial. No vamos a probar el caso general.
DejarU \subset {\mathbb{R}}^2 ser un dominio con límite liso por partes. DecimosU es de tipo I si existen númerosa < b, y funciones continuasf \colon [a,b] \to {\mathbb{R}} yg \colon [a,b] \to {\mathbb{R}}, tal que deU := \{ (x,y) \in {\mathbb{R}}^2 : a < x < b \text{ and } f(x) < y < g(x) \} . igual manera,U es de tipo II si existen númerosc < d, y funciones continuash \colon [c,d] \to {\mathbb{R}} yk \colon [c,d] \to {\mathbb{R}}, tal que U := \{ (x,y) \in {\mathbb{R}}^2 : c < y < d \text{ and } h(y) < x < k(y) \} .Por último,U \subset {\mathbb{R}}^2 es de tipo III si es tanto de tipo I como de tipo II.
Solo probaremos el teorema de Green para dominios tipo III.
f,g,h,kDejen ser las funciones definidas anteriormente. Por,U es Jordan medible y comoU es de tipo I, entonces\ [\ comenzar {dividir} \ int_u \ izquierda (-\ frac {\ parcial P} {\ parcial y}\ derecha) & = \ int_a^b\ int_ {g (x)} ^ {f (x)} \ izquierda (-\ frac {\ parcial P} {\ parcial y} (x, y)\ derecha) \, dy\, dx \\ & = \ int_a^b\ Bigl ( - P\ bigl (x, f (x)\ bigr) + P\ bigl (x, g (x)\ bigr) \ Bigr)\, dx \\ & = \ int_a^b P\ bigl (x, g (x)\ bigr)\, dx - \ int_a^b P\ bigl (x, f (x)\ bigr)\, dx. \ end {split}\] Ahora deseamos integrarnos aP\,dx lo largo del límite. La forma únicaP\,dx se integra a cero cuando se integra a lo largo de las líneas verticales rectas en el límite. Por lo tanto solo se integra a lo largo de la parte superior y a lo largo de la Como parámetro,x se ejecuta de izquierda a derecha. Si usamos las parametrizaciones que llevanx a\bigl(x,f(x)\bigr) y a\bigl(x,g(x)\bigr) reconocemos las integrales de ruta arriba. Sin embargo la segunda integral de camino está en la dirección equivocada, la parte superior debe ir de derecha a izquierda, y así debemos cambiar de orientación. \ [\ int_ {\ U parcial} P\, dx = \ int_a^b P\ bigl (x, g (x)\ bigr)\, dx + \ int_b^a P\ bigl (x, f (x)\ bigr)\, dx = \ int_u \ izquierda (-\ frac {\ P parcial} {\ y parcial}\ derecha).\]
De igual manera, tambiénU es de tipo II. La formaQ\,dy se integra a cero a lo largo de líneas horizontales. Así\ [\ int_u \ frac {\ parcial Q} {\ parcial x} = \ int_c^d\ int_ {k (y)} ^ {h (y)} \ frac {\ parcial Q} {\ parcial x} (x, y) \, dx\, dy = \ int_a^b\ Bigl ( Q\ bigl (y, h (y)\ bigr) - Q\ bigl (y, k (y)\ bigr) \ Bigr)\, dx = \ int_ {\ parcial U} Q\, dy.\] Juntando los dos obtenemos \ [\ int_ {\ U parcial} P\, dx + Q\, dy = \ int_ {\ U parcial} P\, dx +\ int_ {\ U parcial} Q\, dy = \ int_u \ Bigl (-\ frac {\ parcial P} {\ parcial y}\ Bigr) + \ int_U \ frac {\ parcial Q} {\ parcial x} = \ int_U \ Bigl ( \ frac {\ parcial Q} {\ parcial x} -\ frac {\ parcial P} {\ parcial y} \ Bigr). \ qedhere\]
Ilustremos la utilidad del teorema de Green sobre un resultado fundamental sobre las funciones armónicas.
Supongamos queU \subset {\mathbb{R}}^2 es un conjunto abierto yf \colon U \to {\mathbb{R}} es armónico,f es decir, es dos veces continuamente diferenciable y\ (\ frac {\ parcial^2 f} {\ parcial x^2} + \ frac {\ parcial^2 f} {\ parcial y^2} = 0\). Demostraremos una de las propiedades más fundamentales de las funciones armónicas.
Dejar queD_r = B(p,r) se cierre el disco de tal manera que su cierreC(p,r) \subset U. Escribirp = (x_0,y_0). Orientamos\partial D_r positivamente. Ver. Entonces\ [\ begin {split} 0 & = \ frac {1} {2\ pi r} \ int_ {d_R} \ left ( \ frac {\ parcial^2 f} {\ parcial x^2} + \ frac {\ parcial^2 f} {\ parcial y^2} \ derecha) \\ & = \ frac {1} {2\ pi r} \ int_ {D_r parcial} -\ frac {\ parcial f} {\ parcial y}\, dx + \ frac {\ parcial f} {\ parcial x}\, dy \\ & = \ frac {1} {2\ pi r} \ int_0^ {2\ pi} \ biggl ( -\ frac {\ parcial f} {\ parcial y}\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\ bigl (-r\ sin (t)\ bigr) \\ &\ hspace {1.2in} +\ frac {\ parcial f} {\ parcial x}\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr) r\ cos (t) \ biggr) \, dt \\ & = \ frac {d} {dr} \ izquierda [ \ frac {1} {2\ pi} \ int_0^ {2\ pi} f\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\, dt \ derecha]. \ end {split}\] Dejar\ (g (r) := \ frac {1} {2\ pi} \ int_0^ {2\ pi} f\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\, dt\). Entoncesg'(r) = 0 para todosr > 0. La función es constanter >0 y continua enr=0 (ejercicio). Por lo tantog(0) = g(r) para todosr > 0. Por lo tanto,\ [g (r) = g (0) = \ frac {1} {2\ pi} \ int_0^ {2\ pi} f\ bigl (x_0+0\ cos (t), y_0+0\ sin (t)\ bigr)\, dt = f (x_0, y_0).\] Demostramos la propiedad de valor medio de las funciones armónicas:\ [f (x_0, y_0) = \ frac {1} {2 \ pi}\ int_0^ {2\ pi} f\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\, dt = \ frac {1} {2\ pi r} \ int_ {\ d_R parcial} f\, ds.\] Es decir, el valor atp = (x_0,y_0) es el promedio sobre un círculo de cualquier radior centrado en(x_0,y_0).
Ejercicios
[green:balltype3orient] Demostrar que un discoB(p,r) \subset {\mathbb{R}}^2 es un dominio tipo III, y probar que la orientación dada por la parametrización\ (\ gamma (t) = \ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\) dondep = (x_0,y_0) está la orientación positiva del límite\partial B(p,r).
Demostrar que cualquier dominio delimitado con un límite liso por partes que sea convexo es un dominio tipo III.
Supongamos queV \subset {\mathbb{R}}^2 es un dominio con límite liso por partes que es un dominio de tipo III y supongamos queU \subset {\mathbb{R}}^2 es un dominio tal que\overline{V} \subset U. Supongamos quef \colon U \to {\mathbb{R}} es una función dos veces diferenciable continuamente. Demostrar que\ (\ int_ {\ parcial V} \ frac {\ parcial f} {\ parcial x} dx + \ frac {\ parcial f} {\ parcial y} dy = 0\).
Para un discoB(p,r) \subset {\mathbb{R}}^2, orientar el límite\partial B(p,r) positivamente:
a) Calcular\displaystyle \int_{\partial B(p,r)} -y \, dx.
b) Cómputar\displaystyle \int_{\partial B(p,r)} x \, dy.
c) Cómputar\displaystyle \int_{\partial B(p,r)} \frac{-y}{2} \, dy + \frac{x}{2} \, dy.
Usando el teorema de Green muestran que el área de un triángulo con vértices(x_1,y_1),(x_2,y_2),(x_3,y_3) es\frac{1}{2}\left\lvert {x_1y_2 + x_2 y_3 + x_3 y_1 - y_1x_2 - y_2x_3 - y_3x_1} \right\rvert. Pista: ver ejercicio anterior.
El uso de la propiedad value mean prove the maximum principle for harmonic functions: Supongamos queU \subset {\mathbb{R}}^2 es un conjunto abierto conectado yf \colon U \to {\mathbb{R}} es armónico. Demostrar que sif alcanza un máximo enp \in U, entoncesf es constante.
Vamosf(x,y) := \ln \sqrt{x^2+y^2}.
a)f El espectáculo es armónico donde se define.
b) Mostrar\lim_{(x,y) \to 0} f(x,y) = -\infty.
c) Usando un círculoC_r de radior alrededor del origen, cómpule\frac{1}{2\pi r} \int_{\partial C_r} f ds. ¿Qué pasa comor \to 0?
d) ¿Por qué no puedes usar el teorema de Green?
- Los subíndices se utilizan para muchos fines, por lo que a veces podemos tener varios vectores que también pueden identificarse por subíndice, como una secuencia finita o infinita de vectoresy_1,y_2,\ldots. ↩
- Si quieres un espacio vectorial muy funky sobre un campo diferente,{\mathbb{R}} en sí mismo es un espacio vectorial sobre los números racionales. ↩
- La matriz de representar a vecesf'(x) se llama la matriz jacobiana. ↩
- La palabra “suave” se utiliza a veces para funciones continuamente diferenciables y otras infinitamente diferenciables en la literatura. ↩
- Normalmente solo se usa una ruta continua en esta definición, pero para conjuntos abiertos las dos definiciones son equivalentes. Ver los ejercicios. ↩