Saltar al contenido principal
LibreTexts Español

10.4: temp

  • Page ID
    111640
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    [rn:capítulo] [seq:capítulo] [lim:capítulo] [der:capítulo] [int:capítulo] [fs:capítulo] [ms:capítulo]

    Tipografía en LaTeX.

    Derechos de autor ©2012—2017 Ji ř í Lebl

    imagenimagen

    Esta obra tiene licencia dual bajo la Licencia Creative Commons Reconocimiento-NoComercial-Compartir Igual 4.0 Internacional y la Licencia Creative Commons Reconocimiento-Compartir Igual 4.0 Internacional. Para ver una copia de estas licencias, visite http://creativecommons.org/licenses/by-nc-sa/4.0/ o http://creativecommons.org/licenses/by-sa/4.0/ o envíe una carta a Creative Commons PO Box 1866, Mountain View, CA 94042, USA.

    Puedes usar, imprimir, duplicar, compartir este libro tanto como quieras. Puedes basar tus propias notas en él y reutilizar piezas si mantienes la misma licencia. Puedes asumir que la licencia es la CC-BY-NC-SA o CC-BY-SA, la que sea compatible con lo que desees hacer, tus obras derivadas deben usar al menos una de las licencias.

    Durante la redacción de estas notas, el autor fue apoyado en parte por la subvención NSF DMS-1362337.

    La fecha es el identificador principal de la versión. El número mayor de versión/ edición se eleva sólo si se han producido cambios sustanciales. Por ejemplo, la versión 1.0 es la primera edición, la 0ª actualización (aún no hay actualizaciones).

    Consulte http://www.jirka.org/ra/ para obtener más información (incluida la información de contacto).

    Introducción

    Acerca de este libro

    Este libro es la continuación de “Análisis Básico”. El libro está destinado a ser una continuación sin fisuras, por lo que los capítulos están numerados para comenzar donde lo dejó el primer volumen. El libro comenzó con mis notas para un análisis de licenciatura de segundo semestre en la Universidad de Wisconsin—Madison en 2012, donde utilicé mis notas junto con el libro de Rudin. En 2016, enseñé un análisis de licenciatura de segundo semestre en la Universidad Estatal de Oklahoma y modificé y limpié fuertemente las notas, esta vez usándolas como texto principal.

    Planeo eventualmente agregar más temas sobre todo al final. Intentaré conservar la numeración actual en ediciones posteriores como siempre. Los nuevos temas que he planeado agregarían secciones y capítulos al final del libro en lugar de insertarse en el medio.

    En su mayor parte, este segundo volumen depende de las partes no opcionales del volumen I, sin embargo, a veces se utilizan los bits opcionales como las derivadas de orden superior, por ejemplo en 6, 3, 6. Este libro no es necesariamente todo el curso del segundo semestre. Lo que tenía en mente para un curso de dos semestres es que algunos bits del primer volumen, como los espacios métricos, se cubren en el segundo semestre, mientras que algunos de los temas optativos del volumen I se cubren en el primer semestre. Dejar espacios métricos para el segundo semestre tiene más sentido ya que entonces el segundo semestre es la parte “multivariable” del curso.

    Varias posibilidades para el material en este libro son:
    1) 15, (quizás 1), 1 y 2.
    2) 16, 13, 1 y 2.
    3) Todo.

    Cuando dirigí el curso en OSU, cubrí el primer libro menos espacios métricos y un par de secciones opcionales en el primer semestre. Entonces, en el segundo semestre, cubrí la mayor parte de lo que me salté del volumen I, incluidos los espacios métricos, y tomé la opción 2) anterior.

    Varias variables y derivadas parciales

    Espacios vectoriales, asignaciones lineales y convexidad

    Nota: 2—3 conferencias

    Espacios vectoriales

    El espacio euclidiano ya\({\mathbb{R}}^n\) ha hecho una aparición en el capítulo del espacio métrico. En este capítulo, extenderemos el cálculo diferencial que creamos para una variable a varias variables. La idea clave en el cálculo diferencial es aproximar funciones por líneas y funciones lineales. En varias variables debemos introducir un poco de álgebra lineal antes de poder seguir adelante. Así que comencemos con espacios vectoriales y funciones lineales sobre espacios vectoriales.

    Si bien es común usar\(\vec{x}\) o el negrita\(\mathbf{x}\) para elementos de\({\mathbb{R}}^n\), especialmente en las ciencias aplicadas, usamos simplemente llano\(x\), que es común en las matemáticas. Es decir,\(v \in {\mathbb{R}}^n\) es un vector, lo que significa que\(v = (v_1,v_2,\ldots,v_n)\) es una\(n\) -tupla de números reales. 1

    Es común escribir y tratar vectores como vectores de columna, es decir,\(n \times 1\) matrices:\ [v = (v_1, v_2,\ ldots, v_n) = \ mbox {\ scriptsize $\ begin {bmatrix} v_1\\ v_2\\ vdots\\ vdots\\ v_n \ end {bmatrix} $}.\] Lo haremos cuando sea conveniente. Llamamos escalares de números reales para distinguirlos de los vectores.

    El conjunto\({\mathbb{R}}^n\) tiene una denominada estructura de espacio vectorial definida en él. Sin embargo, a pesar de que vamos a estar viendo funciones definidas en\({\mathbb{R}}^n\), no todos los espacios que deseamos tratar son iguales a\({\mathbb{R}}^n\). Por lo tanto, definamos la noción abstracta del espacio vectorial.

    Dejar\(X\) ser un conjunto junto con operaciones de suma,\(+ \colon X \times X \to X\), y multiplicación,\(\cdot \colon {\mathbb{R}}\times X \to X\), (usualmente escribimos\(ax\) en lugar de\ (a \ cdot x\)). \(X\)se denomina espacio vectorial (o espacio vectorial real) si se cumplen las siguientes condiciones:

    1. (La suma es asociativa) Si\(u, v, w \in X\), entonces\(u+(v+w) = (u+v)+w\).
    2. (La adición es conmutativa) Si\(u, v \in X\), entonces\(u+v = v+u\).
    3. (Identidad aditiva) Hay\(0 \in X\) tal que\(v+0=v\) para todos\(v \in X\).
    4. (Aditivo inverso) Para cada\(v \in X\), hay un\(-v \in X\), tal que\(v+(-v)=0\).
    5. (Derecho distributivo) Si\(a \in {\mathbb{R}}\),\(u,v \in X\), entonces\(a(u+v) = au+av\).
    6. (Derecho distributivo) Si\(a,b \in {\mathbb{R}}\),\(v \in X\), entonces\((a+b)v = av+bv\).
    7. (La multiplicación es asociativa) Si\(a,b \in {\mathbb{R}}\),\(v \in X\), entonces\((ab)v = a(bv)\).
    8. (Identidad multiplicativa)\(1v = v\) para todos\(v \in X\).

    Los elementos de un espacio vectorial suelen llamarse vectores, aunque no sean elementos de\({\mathbb{R}}^n\) (vectores en el sentido “tradicional”).

    Si\(Y \subset X\) es un subconjunto que es un espacio vectorial en sí mismo con las mismas operaciones, entonces\(Y\) se denomina subespacio o subespacio vectorial de\(X\).

    Un ejemplo de espacio vectorial es\({\mathbb{R}}^n\), donde la suma y la multiplicación por un escalar se realiza por componentes: if\(a \in {\mathbb{R}}\)\(v = (v_1,v_2,\ldots,v_n) \in {\mathbb{R}}^n\),, y\ (w = (w_1, w_2,\ ldots, w_n)\ in {\ mathbb {R}} ^n\), entonces\ [\ begin {aligned} & v+w: = (v_1, v_2,\ ldots, v_n) + (w_1, w_2,\ lpuntos, w_n) = (v_1+w_1, v_2+w_2 ,\ ldots, v_n+w_n),\\ & a v: = a (v_1, v_2,\ ldots, v_n) = (a v_1, a v_2,\ ldots, a v_n). \ end {alineado}\]

    En este libro nos ocupamos principalmente de espacios vectoriales que a menudo se pueden considerar como subconjuntos de\({\mathbb{R}}^n\), pero hay otros espacios vectoriales útiles en el análisis. Demos un par de ejemplos.

    Un ejemplo trivial de un espacio vectorial (el más pequeño de hecho) es justo\(X = \{ 0 \}\). Las operaciones se definen de la manera obvia. Siempre se necesita un vector cero para existir, así que todos los espacios vectoriales son conjuntos no vacíos.

    El espacio\(C([0,1],{\mathbb{R}})\) de funciones continuas en el intervalo\([0,1]\) es un espacio vectorial. Para dos funciones\(f\) y\(g\) en\(C([0,1],{\mathbb{R}})\) y\(a \in {\mathbb{R}}\), hacemos las definiciones obvias de\(f+g\) y\(af\):\[(f+g)(x) := f(x) + g(x), \qquad (af) (x) := a\bigl(f(x)\bigr) .\] El 0 es la función que es idénticamente cero. Lo dejamos como un ejercicio para comprobar que se cumplen todas las condiciones del espacio vectorial.

    El espacio de polinomios\(c_0 + c_1 t + c_2 t^2 + \cdots + c_m t^m\) es un espacio vectorial, denotémoslo por\({\mathbb{R}}[t]\) (los coeficientes son reales y la variable es\(t\)). Las operaciones se definen de la misma manera que para las funciones anteriores. Supongamos que hay dos polinomios, uno de grado\(m\) y otro de grado\(n\). Asumir\ (n \ geq m\) por simplicidad. Entonces\ [\ comienzan {reunidos} (c_0 + c_1 t + c_2 t^2 +\ cdots + c_m t^m) + (d_0 + d_1 t + d_2 t^2 +\ cdots + d_n t^n) =\\ (c_0+d_0) + (c_1+d_1) t + (c_2 + d_2) t^2 +\ puntos + (c_m+d_m) t^m + d_ {m+1} t^ {m+1} +\ cdots + d_n t^n\ end {reunidos}\] y\ [a (c_0 + c_1 t + c_2 t^2 +\ cdots + c_m t^m) = (ac_0) + (ac_1) t + (ac_2) t^2 +\ cdots + (ac_m) t^m.\] A pesar de lo que parece, no\({\mathbb{R}}[t]\) es equivalente a\({\mathbb{R}}^n\) para ninguna\(n\). En particular, no es “dimensional finita”, vamos a hacer esta noción precisa en sólo un poquito. Se puede hacer un subespacio vectorial dimensional finito restringiendo el grado. Por ejemplo, si decimos que\({\mathcal{P}}_n\) es el conjunto de polinomios de grado\(n\) o menos, entonces\({\mathcal{P}}_n\) es un espacio vectorial dimensional finito.

    El espacio\({\mathbb{R}}[t]\) puede pensarse como un subespacio de\(C({\mathbb{R}},{\mathbb{R}})\). Si restringimos el rango de\(t\) a\([0,1]\), se\({\mathbb{R}}[t]\) puede identificar con un subespacio de\(C([0,1],{\mathbb{R}})\).

    A menudo es mejor pensar en espacios vectoriales “dimensionales finitos” aún más simples usando la noción abstracta en lugar de siempre\({\mathbb{R}}^n\). Es posible usar otros campos que no sean\({\mathbb{R}}\) en la definición (por ejemplo, es común usar los números complejos\({\mathbb{C}}\)), pero sigamos con los números reales 2.

    Combinaciones lineales y dimensiones

    Supongamos que\(X\) es un espacio vectorial,\(x_1, x_2, \ldots, x_k \in X\) son vectores y\(a_1, a_2, \ldots, a_k \in {\mathbb{R}}\) son escalares. Entonces\ [a_1 x_1 + a_2 x_2 +\ cdots + a_k x_k\] se llama una combinación lineal de los vectores\ (x_1, x_2, \ ldots, x_k\).

    Si\(Y \subset X\) es un conjunto, entonces el lapso de\(Y\), o en notación\(\operatorname{span}(Y)\), es el conjunto de todas las combinaciones lineales de todos los subconjuntos finitos de\(Y\). También decimos\(Y\) vanos\(\operatorname{span}(Y)\).

    Vamos\(Y := \{ (1,1) \} \subset {\mathbb{R}}^2\). Entonces\ [\ operatorname {span} (Y) = \ {(x, x)\ in {\ mathbb {R}} ^2: x\ in {\ mathbb {R}}\}.\] Es decir,\(\operatorname{span}(Y)\) es la línea que atraviesa el origen y el punto\((1,1)\).

    [ejemplo:vecspr2span] Vamos\(Y := \{ (1,1), (0,1) \} \subset {\mathbb{R}}^2\). Entonces\ [\ operatorname {span} (Y) = {\ mathbb {R}} ^2,\] como cualquier punto se\((x,y) \in {\mathbb{R}}^2\) puede escribir como una combinación lineal\[(x,y) = x (1,1) + (y-x) (0,1) .\]

    Una suma de dos combinaciones lineales es nuevamente una combinación lineal, y un múltiplo escalar de una combinación lineal es una combinación lineal, lo que demuestra la siguiente proposición.

    Dejar\(X\) ser un espacio vectorial. Para cualquiera\(Y \subset X\), el conjunto\(\operatorname{span}(Y)\) es un espacio vectorial en sí mismo. Es decir,\(\operatorname{span}(Y)\) es un subespacio de\(X\).

    Si ya\(Y\) es un espacio vectorial, entonces\(\operatorname{span}(Y) = Y\).

    Un conjunto de vectores\(\{ x_1, x_2, \ldots, x_k \} \subset X\) es linealmente independiente, si la única solución a\ [\ label {eq:lincomb} a_1 x_1 + a_2 x_2 +\ cdots + a_k x_k = 0\] es la solución trivial\(a_1 = a_2 = \cdots = a_k = 0\). Un conjunto que no es linealmente independiente, es linealmente dependiente.

    Un conjunto linealmente independiente\(B\) de vectores tal que\(\operatorname{span}(B) = X\) se llama una base de\(X\). Por ejemplo, el conjunto\(Y\) de los dos vectores en es una base de\({\mathbb{R}}^2\).

    Si un espacio vectorial\(X\) contiene un conjunto linealmente independiente de\(d\) vectores, pero ningún conjunto linealmente independiente de\(d+1\) vectores, entonces decimos la dimensión o\(\dim \, X := d\). Si por todo\(d \in {\mathbb{N}}\) el espacio vectorial\(X\) contiene un conjunto de vectores\(d\) linealmente independientes, decimos que\(X\) es infinito dimensional y escribir\(\dim \, X := \infty\).

    Claramente para el espacio vectorial trivial,\(\dim \, \{ 0 \} = 0\). Veremos en un momento que cualquier subespacio vectorial de\({\mathbb{R}}^n\) tiene una dimensión finita, y esa dimensión es menor o igual a\(n\).

    Si un conjunto es linealmente dependiente, entonces uno de los vectores es una combinación lineal de los otros. En otras palabras, en [eq:lincomb] if\(a_j \not= 0\), entonces resolvemos para\(x_j\)\ [x_j =\ frac {a_1} {a_j} x_1 +\ cdots + \ frac {a_ {j-1}} {a_j} x_ {j-1} + \ frac {a_ {j+1}} {a_j} x_ {j+1} + \ cdots + \ frac {a_k} {a_k} x_k.\] El vector\(x_j\) tiene al menos dos representaciones diferentes como combinaciones lineales de\(\{ x_1,x_2,\ldots,x_k \}\). El de arriba y\(x_j\) en sí mismo.

    Si\(B = \{ x_1, x_2, \ldots, x_k \}\) es una base de un espacio vectorial\(X\), entonces cada punto\(y \in X\) tiene una representación única de la forma\[y = \sum_{j=1}^k a_j \, x_j\] para algunos escalares\(a_1, a_2, \ldots, a_k\).

    Cada\(y \in X\) es una combinación lineal de elementos de\(B\) ya que\(X\) es el lapso de\(B\). Por singularidad supongamos\[y = \sum_{j=1}^k a_j x_j = \sum_{j=1}^k b_j x_j ,\] entonces\[\sum_{j=1}^k (a_j-b_j) x_j = 0 .\] Por independencia lineal de la base\(a_j = b_j\) para todos\(j\).

    Para\({\mathbb{R}}^n\) definimos\ [e_1: = (1,0,0,\ ldots,0),\ quad e_2: = (0,1,0,\ ldots,0),\ quad\ ldots,\ quad e_n: = (0,0,0,\ ldots,1),\] y llamamos a esto la base estándar de\({\mathbb{R}}^n\). Usamos las mismas letras\(e_j\) para cualquiera\({\mathbb{R}}^n\), y en qué espacio\({\mathbb{R}}^n\) estamos trabajando se entiende desde el contexto. Un cálculo directo muestra que\(\{ e_1, e_2, \ldots, e_n \}\) es realmente una base de\({\mathbb{R}}^n\); abarca\({\mathbb{R}}^n\) y es linealmente independiente. De hecho,\[x = (x_1,x_2,\ldots,x_n) = \sum_{j=1}^n x_j e_j .\]

    [mv:dimprop] Let\(X\) ser un espacio vectorial y\(d\) un entero no negativo.

    1. [mv:dimprop:i] Si\(X\) está abarcado por\(d\) vectores, entonces\(\dim \, X \leq d\).
    2. [mv:dimprop:ii]\(\dim \, X = d\) si y solo si\(X\) tiene una base de\(d\) vectores (y así cada base tiene\(d\) vectores).
    3. [mv:dimprop:iii] En particular,\(\dim \, {\mathbb{R}}^n = n\).
    4. [mv:dimprop:iv] Si\(Y \subset X\) es un subespacio vectorial y\(\dim \, X = d\), entonces\(\dim \, Y \leq d\).
    5. [mv:dimprop:v] Si\(\dim \, X = d\) y un conjunto\(T\) de\(d\) vectores abarca\(X\), entonces\(T\) es linealmente independiente.
    6. [mv:dimprop:vi] Si\(\dim \, X = d\) y un conjunto\(T\) de\(m\) vectores es linealmente independiente, entonces hay un conjunto\(S\) de\(d-m\) vectores tal que\(T \cup S\) es una base de\(X\).

    Empecemos con [mv:dimprop:i]. Supongamos\(S = \{ x_1 , x_2, \ldots, x_d \}\) abarca\(X\), y\(T = \{ y_1, y_2, \ldots, y_m \}\) es un conjunto de vectores linealmente independientes de\(X\). Eso queremos demostrarlo\(m \leq d\). Escribir\[y_1 = \sum_{k=1}^d a_{k,1} x_k ,\] para algunos números\(a_{1,1},a_{2,1},\ldots,a_{d,1}\), que podemos hacer como\(S\) spans\(X\). Uno de los\(a_{k,1}\) es distinto de cero (de lo contrario\(y_1\) sería cero), así que supongamos sin pérdida de generalidad que esto es\(a_{1,1}\). Entonces resolvemos\[x_1 = \frac{1}{a_{1,1}} y_1 - \sum_{k=2}^d \frac{a_{k,1}}{a_{1,1}} x_k .\] En particular,\(\{ y_1 , x_2, \ldots, x_d \}\) span\(X\), ya que se\(x_1\) puede obtener de\(\{ y_1 , x_2, \ldots, x_d \}\). Por lo tanto, hay algunos números para algunos números\(a_{1,2},a_{2,2},\ldots,a_{d,2}\), de tal manera que\[y_2 = a_{1,2} y_1 + \sum_{k=2}^d a_{k,2} x_k .\] As\(T\) es linealmente independiente, uno de los\(a_{k,2}\) for\(k \geq 2\) debe ser distinto de cero. Sin pérdida de generalidad supongamos\(a_{2,2} \not= 0\). Proceder a resolver para\ [x_2 =\ frac {1} {a_ {2,2}} y_2 -\ frac {a_ {1,2}} {a_ {2,2}} y_1 -\ sum_ {k=3} ^d \ frac {a_ {k,2}} {a_ {2,2}} x_k.\] En particular,\(\{ y_1 , y_2, x_3, \ldots, x_d \}\) abarca\(X\).

    Continuamos con este procedimiento. Si\(m < d\), entonces ya terminamos. Entonces supongamos\(m \geq d\). Después de\(d\) los pasos obtenemos esos\(\{ y_1 , y_2, \ldots, y_d \}\) vanos\(X\). Cualquier otro vector\(v\) en\(X\) es una combinación lineal de\(\{ y_1 , y_2, \ldots, y_d \}\), y por lo tanto no puede estar en,\(T\) ya\(T\) que es linealmente independiente. Entonces\(m = d\).

    Veamos [mv:dimprop:ii]. Primero, si\(T\) es un conjunto de vectores\(k\) linealmente independientes que no abarcan\(X\), es decir\ (X\ setmenos \ operatorname {span} (T)\ not=\ emptyset\), luego elige un vector\ (v\ in X\ setmenos \ operatorname {span} (T)\). El conjunto\(T \cup \{ v \}\) es linealmente independiente (ejercicio). Si\(\dim \, X = d\), entonces debe existir algún conjunto linealmente independiente de\(d\) vectores\(T\), y éste debe abarcar\(X\), de lo contrario podríamos elegir un conjunto mayor de vectores linealmente independientes. Entonces tenemos una base de\(d\) vectores. Por otro lado si tenemos una base de\(d\) vectores, es linealmente independiente y abarca\(X\) por definición. Por [mv:dimprop:i] sabemos que no hay un conjunto de vectores\(d+1\) linealmente independientes, así que la dimensión debe ser\(d\).

    Para [mv:dimprop:iii] aviso que\(\{ e_1, e_2, \ldots, e_n \}\) es una base de\({\mathbb{R}}^n\).

    Para ver [mv:dimprop:iv], supongamos que\(Y\) es un espacio vectorial y\(Y \subset X\), donde\(\dim \, X = d\). Como\(X\) no puede contener vectores\(d+1\) linealmente independientes, tampoco puede\(Y\).

    Para [mv:dimprop:v] supongamos que\(T\) es un conjunto de\(m\) vectores que es linealmente dependiente y abarca\(X\). Entonces uno de los vectores es una combinación lineal de los otros. Por lo tanto si lo\(T\) eliminamos obtenemos un conjunto de\(m-1\) vectores que aún abarcan\(X\) y\(\dim \, X \leq m-1\) por lo tanto por [mv:dimprop:i].

    Para [mv:dimprop:vi] supongamos que\(T = \{ x_1, x_2, \ldots, x_m \}\) es un conjunto linealmente independiente. Seguimos el procedimiento anterior en la prueba de [mv:dimprop:ii] para seguir agregando vectores manteniendo el conjunto linealmente independiente. Como es la dimensión\(d\) podemos agregar un vector exactamente\(d-m\) veces.

    Mappings lineales

    Una función\(f \colon X \to Y\), cuando no lo\(Y\) es\({\mathbb{R}}\), a menudo se llama un mapeo o un mapa en lugar de una función.

    Un mapeo\(A \colon X \to Y\) de espacios vectoriales\(X\) y\(Y\) es lineal (o una transformación lineal) si para todos\(a \in {\mathbb{R}}\) y cada uno\(x,y \in X\),\[A(a x) = a A(x), \qquad \text{and} \qquad A(x+y) = A(x)+A(y) .\] solemos escribir\(Ax\) en lugar de\(A(x)\) si\(A\) es lineal. Si\(A\) es uno a uno y sobre, entonces decimos que\(A\) es invertible, y denotamos la inversa por\(A^{-1}\). Si\(A \colon X \to X\) es lineal, entonces decimos que\(A\) es un operador lineal encendido\(X\).

    Escribimos\(L(X,Y)\) para el conjunto de todas las transformaciones lineales de\(X\) a\(Y\), y solo\(L(X)\) para el conjunto de operadores lineales en\(X\). Si\(a \in {\mathbb{R}}\) y\(A,B \in L(X,Y)\), defina las transformaciones\(aA\) y\(A+B\) por\ [(aA) (x) := AAx, \ qquad (A+B) (x) := Ax + Bx.\]

    Si\(A \in L(Y,Z)\) y\(B \in L(X,Y)\), definir la transformación\(AB\) como la composición\(A \circ B\), es decir,\[ABx := A(Bx) .\]

    Finalmente denotar por\(I \in L(X)\) la identidad: el operador lineal tal que\(Ix = x\) para todos\(x\).

    No es difícil ver eso\(aA \in L(X,Y)\) y\(A+B \in L(X,Y)\), y eso\(AB \in L(X,Z)\). En particular,\(L(X,Y)\) es un espacio vectorial. Como el conjunto no\(L(X)\) es sólo un espacio vectorial, sino que también admite un producto, a menudo se le llama álgebra.

    Una consecuencia inmediata de la definición de un mapeo lineal es: si\(A\) es lineal, entonces\(A0 = 0\).

    Si\(A \in L(X,Y)\) es invertible, entonces\(A^{-1}\) es lineal.

    Dejar\(a \in {\mathbb{R}}\) y\(y \in Y\). Como\(A\) está en, entonces hay un\(x\) tal que\(y = Ax\), y además ya que también es uno a uno\(A^{-1}(Az) = z\) para todos\(z \in X\). Entonces\ [A^ {-1} (ay) = A^ {-1} (AAx) = A^ {-1}\ bigl (A (ax)\ bigr) = ax = AA^ {-1} (y).\] Del mismo modo vamos\(y_1,y_2 \in Y\), y\(x_1, x_2 \in X\) tal que\(Ax_1 = y_1\) y\(Ax_2 = y_2\), entonces\ [A^ {-1} (y_1+y_2) = A^ {-1} (Ax_1+Ax_2) = A^ {-1}\ bigl (A (x_1+x_2)\ bigr) = x_1+x_2 = A^ {-1} (y_1) + A^ {-1 } (y_2). \ qedhere\]

    [mv:lindefonbasis] Si\(A \in L(X,Y)\) es lineal, entonces está completamente determinado por sus valores sobre una base de\(X\). Además, si\(B\) es una base de\(X\), entonces cualquier función\(\widetilde{A} \colon B \to Y\) se extiende a una función lineal en\(X\).

    Sólo probaremos esta propuesta para espacios dimensionales finitos, ya que no necesitamos espacios dimensionales infinitos. Para espacios dimensionales infinitos, la prueba es esencialmente la misma, pero un poco más difícil de escribir, así que sigamos con muchas dimensiones finitamente.

    Seamos\(\{ x_1, x_2, \ldots, x_n \}\) una base y supongamos\(A x_j = y_j\). Cada uno\(x \in X\) tiene una representación única\[x = \sum_{j=1}^n b_j \, x_j\] para algunos números\(b_1,b_2,\ldots,b_n\). Por linealidad\ [Ax = A\ sum_ {j=1} ^n b_j x_j = \ sum_ {j=1} ^n b_j\, Ax_j = \ sum_ {j=1} ^n b_j\, y_j.\] El “además” sigue estableciendo\(y_j := \widetilde{A}(x_j)\), y definiendo la extensión como\(Ax := \sum_{j=1}^n b_j y_j\). La función está bien definida por la singularidad de la representación de\(x\). Dejamos que el lector compruebe que\(A\) es lineal.

    La siguiente proposición solo funciona para espacios vectoriales de dimensiones finitas. Se trata de un caso especial del llamado teorema de rango-nulidad a partir del álgebra lineal.

    [mv:prop:lin11onto] Si\(X\) es un espacio vectorial dimensional finito y\(A \in L(X)\), entonces\(A\) es uno a uno si y solo si está en.

    Dejemos\(\{ x_1,x_2,\ldots,x_n \}\) ser una base para\(X\). Supongamos que\(A\) es uno a uno. Ahora supongamos\ [\ sum_ {j=1} ^n c_j\, ax_j = A\ sum_ {j=1} ^n c_j\, x_j = 0.\] Como\(A\) es uno a uno, el único vector que se toma a 0 es el mismo 0. De ahí,\ [0 = \ sum_ {j=1} ^n c_j x_j\] y\(c_j = 0\) para todos\(j\). Así\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\) es un conjunto linealmente independiente. Por y el hecho de que la dimensión es\(n\), concluimos\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\) lapso\(X\). Cualquier punto\(x \in X\) puede escribirse como\ [x =\ suma_ {j=1} ^n a_j\, Ax_j = A\ sum_ {j=1} ^n a_j\, x_j,\] así\(A\) es sobre.

    Ahora supongamos que\(A\) está en. Como lo\(A\) determina la acción sobre la base vemos que cada elemento de\(X\) tiene que estar en el lapso de\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\). Supongamos que\ [A\ sum_ {j=1} ^n c_j\, x_j = \ sum_ {j=1} ^n c_j\, ax_j = 0.\] Por como\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\) span\(X\), el conjunto es independiente, y por lo tanto\(c_j = 0\) para todos\(j\). En otras palabras si\(Ax = 0\), entonces\(x=0\). Esto quiere decir que\(A\) es uno a uno: Si\(Ax = Ay\), entonces\(A(x-y) = 0\) y así\(x=y\).

    Dejamos como ejercicio la prueba de la proposición siguiente.

    [PROP:lxyfiniteDim] Si\(X\) y\(Y\) son espacios vectoriales de dimensiones finitas, entonces también\(L(X,Y)\) es dimensional finita.

    Finalmente notemos que a menudo identificamos un espacio vectorial dimensional finito\(X\) de dimensión\(n\) con\({\mathbb{R}}^n\), siempre que fijemos una base\ (\ {x_1, x_2,\ ldots, x_n\}\) en\(X\). Es decir, definimos un mapa lineal biyectiva\(A \in L(X,{\mathbb{R}}^n)\) por\(Ax_j = e_j\), donde\(\{ e_1, e_2, \ldots, e_n \}\). Entonces tenemos la correspondencia\ [\ sum_ {j=1} ^n c_j\, x_j\,\ in X \ quad \ overset {A} {\ mapsto} \ quad (c_1, c_2,\ ldots, c_n)\,\ in {\ mathbb {R}} ^n.\]

    Convexidad

    Un subconjunto\(U\) de un espacio vectorial es convexo si siempre\(x,y \in U\), el segmento de línea de\(x\) a\(y\) se encuentra en\(U\). Es decir, si la combinación convexa\((1-t)x+ty\) está en\(U\) para todos\(t \in [0,1]\). Ver.

    Tenga en cuenta que en\({\mathbb{R}}\), cada intervalo conectado es convexo. En\({\mathbb{R}}^2\) (o dimensiones superiores) hay muchos conjuntos conectados no convexos. Por ejemplo el conjunto no\({\mathbb{R}}^2 \setminus \{0\}\) es convexo sino que está conectado. Para ver esto simplemente toma cualquiera\(x \in {\mathbb{R}}^2 \setminus \{0\}\) y deja\(y:=-x\). Entonces\((\nicefrac{1}{2})x + (\nicefrac{1}{2})y = 0\), que no está en el set. Por otro lado, la bola\(B(x,r) \subset {\mathbb{R}}^n\) (usando la métrica estándar on\({\mathbb{R}}^n\)) es convexa por la desigualdad triangular.

    Demostrar que en\({\mathbb{R}}^n\) cualquier bola\(B(x,r)\) para\(x \in {\mathbb{R}}^n\) y\(r > 0\) es convexa.

    Cualquier subespacio\(V\) de un espacio vectorial\(X\) es convexo.

    Un ejemplo algo más complicado lo da el siguiente. Dejar\(C([0,1],{\mathbb{R}})\) ser el espacio vectorial de funciones continuas de valor real en\({\mathbb{R}}\). Dejar\(X \subset C([0,1],{\mathbb{R}})\) ser el conjunto de aquellos\(f\) tales que\ [\ int_0^1 f (x) ~dx\ leq 1\ qquad\ text {y}\ qquad f (x)\ geq 0\ text {para todos $x\ in [0,1] $}.\] Entonces\(X\) es convexo. Toma\(t \in [0,1]\), y toma nota de que si\(f,g \in X\), entonces\(t f(x) + (1-t) g(x) \geq 0\) para todos\(x\). Además\ [\ int_0^1\ bigl (tf (x) + (1-t) g (x)\ bigr) ~dx = t\ int_0^1 f (x) ~dx + (1-t)\ int_0^1 g (x) ~dx\ leq 1.\] Tenga en cuenta que no\(X\) es un subespacio de\(C([0,1],{\mathbb{R}})\).

    La intersección de dos conjuntos convexos es convexa. De hecho, si\(\{ C_\lambda \}_{\lambda \in I}\) es una colección arbitraria de conjuntos convexos, entonces\[C := \bigcap_{\lambda \in I} C_\lambda\] es convexa.

    Si\(x, y \in C\), entonces\(x,y \in C_\lambda\) para todos\(\lambda \in I\), y por lo tanto si\(t \in [0,1]\), entonces\ (tx + (1-t) y\ en C_\ lambda\) para todos\(\lambda \in I\). Por lo tanto\(tx + (1-t)y \in C\) y\(C\) es convexa.

    Dejar\(T \colon V \to W\) ser un mapeo lineal entre dos espacios vectoriales y dejar\(C \subset V\) ser un conjunto convexo. Entonces\(T(C)\) es convexo.

    Toma dos puntos cualquiera\(p,q \in T(C)\). Escoge\(x,y \in C\) tal que\(Tx = p\) y\(Ty=q\). Como\(C\) es convexo, entonces\(tx+(1-t)y \in C\) para todos\(t \in [0,1]\), así\ [tp+ (1-t) q = TTx+ (1-t) Ty = T\ bigl (tx+ (1-t) y\ bigr) \ en T (C). \ qedhere\]

    Para completar, una construcción muy útil es el casco convexo. Dado cualquier conjunto\(S \subset V\) de un espacio vectorial, defina el casco convexo de\(S\), por\ [\ operatorname {co} (S) := \ bigcap\ {C\ subconjunto V: S\ subconjunto C,\ text {y $C$ es convexo}\}.\] Es decir, el casco convexo es el conjunto convexo más pequeño que contiene\(S\). Por una proposición anterior, la intersección de conjuntos convexos es convexa y por lo tanto, el casco convexo es convexo.

    El casco convexo de 0 y 1 in\({\mathbb{R}}\) es\([0,1]\). Prueba: Cualquier conjunto convexo que contenga 0 y 1 debe contener\([0,1]\). El conjunto\([0,1]\) es convexo, por lo tanto debe ser el casco convexo.

    Ejercicios

    Verifica que\({\mathbb{R}}^n\) sea un espacio vectorial.

    Dejar\(X\) ser un espacio vectorial. Demostrar que un conjunto finito de vectores\(\{ x_1,\ldots,x_n \} \subset X\) es linealmente independiente si y solo si por cada\(j=1,2,\ldots,n\)\ [\ operatorname {span} (\ {x_1,\ ldots, x_ {j-1}, x_ {j+1},\ ldots, x_n\}) \ subsetneq\ operatorname {span} (\ {x_1,\ ldots, x_n\}). Es decir, el lapso del conjunto con un vector eliminado es estrictamente menor.

    Mostrar que el conjunto\(X \subset C([0,1],{\mathbb{R}})\) de esas funciones tal que\(\int_0^1 f = 0\) es un subespacio vectorial.

    Probar\(C([0,1],{\mathbb{R}})\) es un espacio vectorial dimensional infinito donde las operaciones se definen de la manera obvia:\(s=f+g\) y\(m=fg\) se definen como\(s(x) := f(x)+g(x)\) y\(m(x) := f(x)g(x)\). Pista: para la dimensión, piense en funciones que solo son distintas de cero en el intervalo\((\nicefrac{1}{n+1},\nicefrac{1}{n})\).

    Dejar\(k \colon [0,1]^2 \to {\mathbb{R}}\) ser continuo. Mostrar que\(L \colon C([0,1],{\mathbb{R}}) \to C([0,1],{\mathbb{R}})\) definido por\[Lf(y) := \int_0^1 k(x,y)f(x)~dx\] es un operador lineal. Es decir, mostrar que\(L\) está bien definido (que\(Lf\) es continuo), y eso\(L\) es lineal.

    Dejar\({\mathcal{P}}_n\) ser el espacio vectorial de polinomios en una variable de grado\(n\) o menos. Mostrar que\({\mathcal{P}}_n\) es un espacio vectorial de dimensión\(n+1\).

    Dejar\({\mathbb{R}}[t]\) ser el espacio vectorial de polinomios en una variable\(t\). Dejar\(D \colon {\mathbb{R}}[t] \to {\mathbb{R}}[t]\) ser el operador derivado (derivado en\(t\)). Mostrar que\(D\) es un operador lineal.

    Demostremos que sólo funciona en dimensiones finitas. Tomar\({\mathbb{R}}[t]\) y definir el operador\(A \colon {\mathbb{R}}[t] \to {\mathbb{R}}[t]\) por\(A\bigl(P(t)\bigr) = tP(t)\). Mostrar que\(A\) es lineal y uno a uno, pero demuestra que no es sobre.

    Terminar la prueba de en el caso de dimensiones finitas. Es decir, supongamos,\(\{ x_1, x_2,\ldots x_n \}\) es una base de\(X\),\(\{ y_1, y_2,\ldots y_n \} \subset Y\) y definimos una función\[Ax := \sum_{j=1}^n b_j y_j, \qquad \text{if} \quad x=\sum_{j=1}^n b_j x_j .\] Entonces probaremos que\(A \colon X \to Y\) es lineal.

    Demostrar. Pista: Un operador lineal está determinado por su acción sobre una base. Así que dadas dos bases\(\{ x_1,\ldots,x_n \}\) y\(\{ y_1,\ldots,y_m \}\) para\(X\) y\(Y\) respectivamente, consideremos los operadores lineales\(A_{jk}\) que envían\(A_{jk} x_j = y_k\), y\(A_{jk} x_\ell = 0\) si\(\ell \not= j\).

    Supongamos\(X\) y\(Y\) son espacios vectoriales y\(A \in L(X,Y)\) es un operador lineal.
    a) Mostrar que el espacio nullspace\(N := \{ x \in X : Ax = 0 \}\) es un vectorspace.
    b) Mostrar que el rango\(R := \{ y \in Y : Ax = y \text{ for some\) x X\(} \}\) es un vectorespacio.

    Mostrar con el ejemplo que una unión de conjuntos convexos no necesita ser convexa.

    Calcular el casco convexo del conjunto de 3 puntos\(\{ (0,0), (0,1), (1,1) \}\) pulg\({\mathbb{R}}^2\).

    Mostrar que el conjunto\(\{ (x,y) \in {\mathbb{R}}^2 : y > x^2 \}\) es un conjunto convexo.

    Mostrar que el conjunto\(X \subset C([0,1],{\mathbb{R}})\) de esas funciones tal que\(\int_0^1 f = 1\) es un conjunto convexo, pero no un subespacio vectorial.

    Demuestre que cada conjunto convexo en\({\mathbb{R}}^n\) está conectado usando la topología estándar en\({\mathbb{R}}^n\).

    Supongamos que\(K \subset {\mathbb{R}}^2\) es un conjunto convexo tal que el único punto de la forma\((x,0)\) en\(K\) es el punto\((0,0)\). Además supongamos que ahí\((0,1) \in K\) y\((1,1) \in K\). Entonces demuéstralo si\((x,y) \in K\), entonces\(y > 0\) a menos que\(x=0\).

    Análisis con espacios vectoriales

    Nota: 2-3 conferencias

    Normas

    Empecemos a medir la distancia.

    Si\(X\) es un espacio vectorial, entonces decimos que una función\(\lVert {\cdot} \rVert \colon X \to {\mathbb{R}}\) es una norma si:

    1. [defn:norm:i]\(\lVert {x} \rVert \geq 0\), con\(\lVert {x} \rVert=0\) si y solo si\(x=0\).
    2. [defn:norm:ii]\(\lVert {cx} \rVert = \left\lvert {c} \right\rvert\lVert {x} \rVert\) para todos\(c \in {\mathbb{R}}\) y\(x \in X\).
    3. [defn:norm:iii]\(\lVert {x+y} \rVert \leq \lVert {x} \rVert+\lVert {y} \rVert\) para todos\(x,y \in X\) (Desigualdad triangular).

    Antes de definir la norma estándar en\({\mathbb{R}}^n\), definamos el producto escalar estándar de punto en\({\mathbb{R}}^n\). Para dos vectores si\(x=(x_1,x_2,\ldots,x_n) \in {\mathbb{R}}^n\) y\(y=(y_1,y_2,\ldots,y_n) \in {\mathbb{R}}^n\), definir\[x \cdot y := \sum_{j=1}^n x_j y_j .\] Es fácil ver que el producto punto es lineal en cada variable por separado, es decir, es un mapeo lineal cuando se mantiene constante una de las variables. La norma euclidiana se define como\[\lVert {x} \rVert := \lVert {x} \rVert_{{\mathbb{R}}^n} := \sqrt{x \cdot x} = \sqrt{(x_1)^2+(x_2)^2 + \cdots + (x_n)^2}.\] Normalmente solo usamos\(\lVert {x} \rVert\), pero a veces será necesario enfatizar que estamos hablando de la norma euclidiana y el uso\(\lVert {x} \rVert_{{\mathbb{R}}^n}\). Es fácil ver que la norma euclidiana satisface [defn:norm:i] y [defn:norm:ii]. Para probar que [defn:norm:iii] sostiene, la desigualdad clave es la llamada desigualdad de Cauchy-Schwarz que vimos antes. Como esta desigualdad es tan importante, reafirmémosla y reprobémosla usando la notación de este capítulo.

    Vamos\(x, y \in {\mathbb{R}}^n\), entonces\[\left\lvert {x \cdot y} \right\rvert \leq \lVert {x} \rVert\lVert {y} \rVert = \sqrt{x\cdot x}\, \sqrt{y\cdot y},\] con igualdad si y sólo si los vectores son múltiplos escalares entre sí.

    Si\(x=0\) o\(y = 0\), entonces el teorema sostiene trivialmente. Así que\(x\not= 0\) asumamos y\(y \not= 0\).

    Si\(x\) es un múltiplo escalar de\(y\), eso es\(x = \lambda y\) para algunos\(\lambda \in {\mathbb{R}}\), entonces el teorema se sostiene con igualdad:\ [\ izquierda\ lvert {\ lambda y\ cdot y}\ derecha\ rvert =\ izquierda\ lvert {\ lambda}\ derecha\ rvert\,\ izquierda\ lvert {y\ cdot y}\ derecha\ rvert = \ izquierda\ lvert {\ lambda}\ derecha\ rvert\,\ LVert {y}\ RVert^2 =\ lVert {\ lambda y}\ rVert\ lVert {y}\ rVert.\]

    Siguiente toma\(x+ty\), encontramos que\(\lVert {x+ty} \rVert^2\) es un polinomio cuadrático en\(t\):\ [\ lVert {x+ty}\ rVert^2 = (x+ty)\ cdot (x+ty) = x\ cdot x + x\ cdot ty + ty\ cdot x + ty\ cdot ty = \ lVert {x}\ rVert^2 + 2t (x\ cdot y) + t^2\ lVert {y}\ rVert^2.\] Si no\(x\) es un múltiplo escalar de\(y\), entonces\(\lVert {x+ty} \rVert^2 > 0\) para todos\(t\). Entonces el polinomio nunca\(\lVert {x+ty} \rVert^2\) es cero. El álgebra elemental dice que el discriminante debe ser negativo:\[4 {(x \cdot y)}^2 - 4 \lVert {x} \rVert^2\lVert {y} \rVert^2 < 0,\] o en otras palabras\({(x \cdot y)}^2 < \lVert {x} \rVert^2\lVert {y} \rVert^2\).

    El ítem [defn:norm:iii], la desigualdad del triángulo, sigue a través de un simple cálculo:\ [\ lVert {x+y}\ rVert^2 = x\ cdot x + y\ cdot y + 2 (x\ cdot y) \ leq \ lVert {x}\ rVert^2 +\ lVert^2 + 2 (\ lVert {x}\ rVert\ lVert {y}\ rVert) = {(\ lVert {x}\ RVert +\ lVert {y}\ RVert) } ^2.\]

    La distancia\(d(x,y) := \lVert {x-y} \rVert\) es la función de distancia estándar\({\mathbb{R}}^n\) que usamos cuando hablamos de espacios métricos.

    De hecho, en cualquier espacio vectorial\(X\), una vez que tenemos una norma (cualquier norma), definimos una distancia\(d(x,y) := \lVert {x-y} \rVert\) que\(X\) se convierte en un espacio métrico (un ejercicio fácil).

    Vamos\(A \in L(X,Y)\). Definir\ [\ lVert {A}\ rVert: = \ sup\ {\ lVert {Ax}\ rVert: x\ in X ~\ texto {con} ~\ lVert {x}\ rVert = 1\}.\] El número\(\lVert {A} \rVert\) se llama la norma del operador. Veremos a continuación que efectivamente es una norma (al menos para espacios dimensionales finitos). Nuevamente, cuando sea necesario enfatizar de qué norma estamos hablando, podemos escribirla como\(\lVert {A} \rVert_{L(X,Y)}\).

    Por linealidad,\(\left\lVert {A \frac{x}{\lVert {x} \rVert}} \right\rVert = \frac{\lVert {Ax} \rVert}{\lVert {x} \rVert}\), para cualquier distinto de cero\(x \in X\). El vector\(\frac{x}{\lVert {x} \rVert}\) es de norma 1. Por lo tanto,\ [\ lVert {A}\ rVert = \ sup\ {\ lVert {Ax}\ rVert: x\ in X ~\ texto {con} ~\ lVert {x}\ rVert = 1 \} =\ sup_ {\ suback {x\ en X\\ x\ neq 0}}\ frac {\ lVert {Ax}\ rVert} {\ lVert {x}\ rVert}.\] Esto implica que\[\lVert {Ax} \rVert \leq \lVert {A} \rVert \lVert {x} \rVert .\]

    No es difícil ver por la definición que\(\lVert {A} \rVert = 0\) si y solo si\(A = 0\), es decir, si\(A\) lleva cada vector al vector cero.

    Tampoco es difícil ver la norma del operador de identidad:\ [\ lVert {I}\ rVert =\ sup_ { \ suback {x\ in X\\ x\ neq 0}}\ frac {\ lVert {Ix}\ rVert} {\ lVert {x}\ rVert} = \ sup_ {\ subestack {x\ in X\ x\ neq 0}\ frac {\ lVert {x}\ rVert} {\ lVert {x}\ rVert} = 1.\]

    Para espacios dimensionales finitos, siempre\(\lVert {A} \rVert\) es finito como probamos a continuación. Esto también implica que\(A\) es continuo. Para espacios dimensionales infinitos ninguna declaración necesita ser verdadera. Para un ejemplo simple, tome el espacio vectorial de funciones continuamente diferenciables\([0,1]\) y como norma use la norma uniforme. Las funciones\(\sin(nx)\) tienen norma 1, pero las derivadas tienen norma\(n\). Entonces la diferenciación (que es un operador lineal) tiene una norma sin límites en este espacio. Pero apegémonos ahora a los espacios dimensionales finitos.

    Cuando hablamos de espacio vectorial dimensional finito, a menudo se piensa en ello\({\mathbb{R}}^n\), aunque si tenemos una norma, quizás la norma podría no ser la norma euclidiana estándar. En los ejercicios, se puede demostrar que cada norma es “equivalente” a la norma euclidiana en que la topología que genera es la misma. Por simplicidad, solo probamos la siguiente proposición para el espacio euclidiano, y la prueba de un espacio dimensional finito general se deja como ejercicio.

    [prop:finitedimpropnormfin] Dejar\(X\) y\(Y\) ser espacios vectoriales dimensionales finitos con una norma. Si\(A \in L(X,Y)\), entonces\(\lVert {A} \rVert < \infty\), y\(A\) es uniformemente continuo (Lipschitz con constante\(\lVert {A} \rVert\)).

    Como dijimos solo probamos la proposición para el espacio euclidiano así que supongamos que\(X = {\mathbb{R}}^n\)\(Y={\mathbb{R}}^m\) y y la norma es la norma euclidiana estándar. El caso general se deja como ejercicio.

    Dejar\(\{ e_1,e_2,\ldots,e_n \}\) ser la base estándar de\({\mathbb{R}}^n\). Escribe\(x \in {\mathbb{R}}^n\), con\(\lVert {x} \rVert = 1\), como\[x = \sum_{j=1}^n c_j e_j .\] Desde\(e_j \cdot e_\ell = 0\) siempre\(j\not=\ell\) y\(e_j \cdot e_j = 1\), entonces\(c_j = x \cdot e_j\) y\ [\ izquierda\ lvert {c_j}\ derecha\ rvert =\ izquierda\ lvert {x\ cdot e_j}\ derecha\ rvert\ leq \ lVert {x}\ rVert\ lVert {e_j}\ rVert = 1.\] Entonces\ [\ lVert {Ax}\ rVert = \ izquierda\ lVert {\ suma_ {j=1 } ^n c_j AE_j}\ derecha\ rVert \ leq \ suma_ {j=1} ^n\ izquierda\ lvert {c_j}\ derecha\ rvert\ lVert {AE_j}\ rVert \ leq \ suma_ {j=1} ^n\ lVert {AE_j}\ rVert.\] El lado derecho no depende de\(x\). Encontramos un límite superior finito independiente de\(x\), entonces\(\lVert {A} \rVert < \infty\).

    Ahora para cualquier espacio vectorial\(X\) y\(Y\), y\(A \in L(X,Y)\), supongamos que\(\lVert {A} \rVert < \infty\). Para\(v,w \in X\),\[\lVert {A(v-w)} \rVert \leq \lVert {A} \rVert \lVert {v-w} \rVert .\] As\(\lVert {A} \rVert < \infty\), entonces esto dice\(A\) es Lipschitz con constante\(\lVert {A} \rVert\).

    [prop:finitedimpropnorm] Dejar\(X\),\(Y\), y\(Z\) ser espacios vectoriales dimensionales finitos con una norma.

    1. [item:finitedimpropnorm:i] Si\(A,B \in L(X,Y)\) y\(c \in {\mathbb{R}}\), entonces\[\lVert {A+B} \rVert \leq \lVert {A} \rVert+\lVert {B} \rVert, \qquad \lVert {cA} \rVert = \left\lvert {c} \right\rvert\lVert {A} \rVert .\] En particular, la norma del operador es una norma sobre el espacio vectorial\(L(X,Y)\).
    2. [item:finitedimpropnorm:ii] Si\(A \in L(X,Y)\) y\(B \in L(Y,Z)\), entonces\[\lVert {BA} \rVert \leq \lVert {B} \rVert \lVert {A} \rVert .\]

    Para [item:finitedimpropnorm:i],\ [\ lVert {(A+B) x}\ rVert = \ lVert {Ax+Bx}\ rVert\ leq \ lVert {Ax}\ rVert+\ lVert {Bx}\ rVert\ leq \ lVert {A}\ rVert\ lVert {x}\ rVert+\ lVert {B {}\ rVert\ lVert {x}\ rVert = (\ lVert {A}\ rVert+\ lVert {B}\ rVert)\ lVert {x}\ rVert.\] Así\(\lVert {A+B} \rVert \leq \lVert {A} \rVert+\lVert {B} \rVert\).

    Del mismo modo,\ [\ lVert {(cA) x}\ rVert = \ izquierda\ lvert {c}\ derecha\ rvert\ lVert {Ax}\ rVert\ leq (\ izquierda\ lvert {c}\ derecha\ rVert\ lVert {A}\ rVert)\ lVert {x}\ rVert.\] Así\(\lVert {cA} \rVert \leq \left\lvert {c} \right\rvert\lVert {A} \rVert\). A continuación,\ [\ izquierda\ lvert {c}\ derecha\ rvert\ lVert {Ax}\ rVert = \ lVert {caX}\ rVert\ leq\ lVert {cA}\ rVert\ lVert {x}\ rVert.\] De ahí\(\left\lvert {c} \right\rvert\lVert {A} \rVert \leq \lVert {cA} \rVert\).

    Para [item:finitedimpropnorm:ii] escribe\ [\ lVert {baX}\ rVert\ leq\ lVert {B}\ rVert\ lVert {Ax}\ rVert\ leq\ lVert {B}\ rVert\ lVert {A}\ RVert\ lVert {x}\ rVert. \ qedhere\]

    Como una norma define una métrica, hay una topología espacial métrica encendida\(L(X,Y)\), por lo que podemos hablar de conjuntos abiertos/cerrados, continuidad y convergencia.

    [prop:finitedimpropinv] Let\(X\) Ser un espacio vectorial dimensional finito con una norma. Dejar\(U \subset L(X)\) ser el conjunto de operadores lineales invertibles.

    1. [finitedimpropinv:i] Si\(A \in U\) y\(B \in L(X)\), y\ [\ label {eqcontineq} \ lVert {A-B}\ rVert <\ frac {1} {\ lVert {A^ {-1}}\ rVert},\] entonces\(B\) es invertible.

    2. [finitedimpropinv:ii]\(U\) está abierto y\(A \mapsto A^{-1}\) es una función continua en\(U\).

    Demos sentido a esto en un ejemplo sencillo. Piense en\({\mathbb{R}}^1\), donde los operadores lineales son solo números\(a\) y la norma del operador de\(a\) es simplemente\(\left\lvert {a} \right\rvert\). El operador\(a\) es invertible (\(a^{-1} = \nicefrac{1}{a}\)) cuando sea\(a \not=0\). De hecho, la condición\(\left\lvert {a-b} \right\rvert < \frac{1}{\left\lvert {a^{-1}} \right\rvert}\) implica que no\(b\) es cero. Y\(a \mapsto \nicefrac{1}{a}\) es un mapa continuo. Cuando\(n > 1\), entonces hay otros operadores no invertibles que solo cero, y en general las cosas son un poco más difíciles.

    Demostremos [finitedimpropinv:i]. Sabemos algo sobre\(A^{-1}\) y algo sobre\(A-B\). Se trata de operadores lineales así que vamos a aplicarlos a un vector. \ [A^ {-1} (A-B) x = X-a^ {-1} Bx.\] Por lo tanto,\ [\ comenzar {dividir} \ lVert {x}\ rVert & = \ lVert {A^ {-1} (A-B) x + A^ {-1} Bx}\ rVert\\ & \ leq \ lVert {A^ {-1}}\ rVert\ lVert {B}\ rVert\ lVert {x}\ RVert +\ lVert {A^ {-1}}\ RVert\ lVert {Bx}\ RVert. \ end {split}\] Ahora asuma\(x \neq 0\) y así\(\lVert {x} \rVert \neq 0\). Usando [eqcontineq] obtenemos\[\lVert {x} \rVert < \lVert {x} \rVert + \lVert {A^{-1}} \rVert\lVert {Bx} \rVert ,\] o en otras palabras\(\lVert {Bx} \rVert \not= 0\) para todos los distintos de cero\(x\), y por lo tanto\(Bx \not= 0\) para todos los distintos de cero\(x\). Esto es suficiente para ver que\(B\) es uno a uno (si\(Bx = By\), entonces\(B(x-y) = 0\), así\(x=y\)). Como\(B\) es operador uno a uno desde\(X\) el\(X\) cual es dimensional finito y por lo tanto es invertible.

    Veamos [finitedimpropinv:ii]. Arreglar algunos\(A \in U\). Que\(B\) sea invertible y cerca\(A\), es decir\(\lVert {A-B} \rVert \lVert {A^{-1}} \rVert < \nicefrac{1}{2}\). Entonces [eqcontineq] queda satisfecho. Hemos mostrado arriba (usando\(B^{-1}y\) en lugar de\(x\))\ [\ lVert {B^ {-1} y}\ rVert\ leq \ lVert {A^ {-1}}\ RVert\ lVert {A-B}\ RVert\ lVert {B^ {-1} y}\ RVert +\ lVert {A^ {-1}}\ RVert\ lVert {y}\ RVert \ leq \ nicefrac {1} {2}\ lVert {B^ {-1} y}\ rVert +\ lVert {A^ {-1}}\ rVert\ lVert {y}\ rVert,\] o\ [\ LVert {B^ {-1} y}\ rVert\ leq %\ frac {1} {1-\ snorm {A^ {-1}}\ snorm {A-B})\ snorm {A^ {-1}}\ snorm {y}. 2\ lVert {A^ {-1}}\ rVert\ lVert {y}\ rVert.\] Entonces\ (\ lVert {B^ {-1}}\ rVert\ leq 2\ lVert {A^ {-1}}\ rVert %\ frac {\ snorm {A^ {-1}}} {1-\ snorm {A^ {-1}}\ snorm {A-B})}.\).

    Ahora\ [A^ {-1} (A-B) B^ {-1} = A^ {-1} (AB^ {-1} -I) = B^ {-1} -A^ {-1},\] y\ [\ lVert {B^ {-1} -A^ {-1}}\ rVert = \ lVert {A^ {-1} (A-B) B^ {-1}}\ rVert\ leq \ lVert {A^ {-1}}\ rVert\ lVert {A-B}\ rVert\ lVert {B^ {-1}} \ rVert\ leq %\ frac {\ snorm {A^ {-1}} ^2} {1-\ snorm {A^ {-1}}\ snorm {A-B})} %\ snorm {A-B} % \ leq 2\ lVert {A^ {-1}}\ rVert^2 \ lVert {A-B}\ rVert.\] Por lo tanto, si como\(B\) tiende a\(A\),\(\lVert {B^{-1}-A^{-1}} \rVert\) tiende a 0, y así la operación inversa es una función continua en\(A\).

    Matrices

    Como señalamos anteriormente, una vez que fijamos una base en un espacio vectorial dimensional finito\(X\), podemos representar un vector de\(X\) como una\(n\) -tupla de números, es decir, un vector en\({\mathbb{R}}^n\). Lo mismo se puede hacer con\(L(X,Y)\), lo que nos lleva a matrices, que son una manera conveniente de representar transformaciones lineales finito-dimensionales. Supongamos\(\{ x_1, x_2, \ldots, x_n \}\) y\(\{ y_1, y_2, \ldots, y_m \}\) son bases para espacios vectoriales\(X\) y\(Y\) respectivamente. Un operador lineal está determinado por sus valores sobre la base. Dado\(A \in L(X,Y)\),\(A x_j\) es un elemento de\(Y\). Por lo tanto, define los números\(\{ a_{i,j} \}\) de la siguiente manera\[A x_j = \sum_{i=1}^m a_{i,j} \, y_i ,\] y escríbelos como una matriz \ [A =\ begin {bmatrix} a_ {1,1} & a_ {1,2} &\ cdots & a_ {1, n}\\ a_ {2,1} & a_ {2,2} & \ cdots & a_ {2, n}\\\ vdots &\ ddots\\ a_ {,1} y amp; a_ {m,2} &\ cdots & a_ {m, n} \ end {bmatrix}.\] Y decimos que\(A\) es una\(n\) matriz\(m\) -by-. Las columnas de la matriz son precisamente los coeficientes que representan\(A x_j\). Derivamos la regla familiar para la multiplicación matricial.

    Cuando\[z = \sum_{j=1}^n c_j \, x_j ,\] entonces\ [A z = \ suma_ {j=1} ^n c_j\, A x_j = \ suma_ {j=1} ^n c_j\ izquierda (\ suma_ {i=1} ^m a_ {i, j}\, y_i\ derecha) = \ suma_ {i=1} ^m\ izquierda (suma_ {j=1} ^n a_ {i, j}\, c_j\ right) y_i,\] que da lugar a la regla familiar para la multiplicación matricial.

    Hay una correspondencia uno a uno entre matrices y operadores lineales en\(L(X,Y)\). Es decir, una vez que fijamos una base en\(X\) y en\(Y\). Si escogiéramos una base diferente, obtendríamos diferentes matrices. Esto es importante, el operador\(A\) actúa sobre elementos de\(X\), la matriz es algo que funciona con\(n\) -tuplas de números, es decir, vectores de\({\mathbb{R}}^n\).

    Si\(B\) es una\(r\) matriz\(n\) -by- con entradas\(b_{j,k}\), entonces la matriz para\(C = AB\) es una\(r\) matriz\(m\) -by- cuya\(i,k\) ésima entrada\(c_{i,k}\) es\ [c_ {i, k} = \ sum_ {j=1} ^n a_ {i, j}\, b_ {j, k}.\] Una manera de recordarlo es si ordenas los índices como nosotros, es decir fila, columna, y poner los elementos en el mismo orden que las matrices, entonces es el “índice medio” que es “resumido”.

    Un mapeo lineal que cambia una base a otra es una matriz cuadrada en la que las columnas representan elementos base de la segunda base en términos de la primera base. Llamamos a tal mapeo lineal un cambio de base.

    Supongamos que todas las bases son solo las bases estándar y\(X={\mathbb{R}}^n\) y\(Y={\mathbb{R}}^m\). Recordemos la desigualdad Cauchy-Schwarz y computa\ [\ lVert {Az} \ rVert^2 =\ sum_ {i=1} ^m {\ left (\ sum_ {j=1} ^n a_ {i, j} c_j\ right)} ^2 \ leq\ sum_ {i=1} ^m {\ left (\ sum_ {j=1} ^n {(c_j)} ^2\ derecha)\ izquierda (\ suma_ {j=1} ^n {(a_ {i, j})} ^2\ derecha)} = \ suma_ {i=1} ^m\ izquierda (\ suma_ {j=1} ^n {(a_ {i, j})} ^2\ derecha) \ lVert {z}\ rVert^2.\] En otras palabras, tenemos un límite en la norma del operador (tenga en cuenta que la igualdad rara vez ocurre)\ [\ lVert {A}\ rVert \ leq\ sqrt {\ sum_ {i=1} ^m\ sum_ {j=1} ^n {(a_ {i, j})} ^2}.\] Si las entradas van a cero, luego\(\lVert {A} \rVert\) va a cero. En particular, si\(A\) es fijo y\(B\) está cambiando de tal manera que las entradas de\(A-B\) van a cero, luego\(B\) va a\(A\) en norma de operador. Es decir,\(B\) va a\(A\) en la topología espacial métrica inducida por la norma del operador. Demostramos la primera parte de:

    Si\(f \colon S \to {\mathbb{R}}^{nm}\) es una función continua para un espacio métrico\(S\), entonces tomar los componentes de\(f\) como las entradas de una matriz,\(f\) es un mapeo continuo de\(S\) a\(L({\mathbb{R}}^n,{\mathbb{R}}^m)\). Por el contrario, si\(f \colon S \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es una función continua, entonces las entradas de la matriz son funciones continuas.

    La prueba de la segunda parte es bastante fácil. Toma\(f(x) e_j\) y nota que es una función continua a\({\mathbb{R}}^m\) con norma euclidiana estándar:\ (\ lVert {f (x) e_j - f (y) e_j}\ rVert = \ lVert {\ bigl (f (x) - f (y)\ bigr) e_j}\ rVert\ leq \ lVert {f (x) - f (y)}\ rVert\), así como\(x \to y\), entonces\(\lVert {f(x)- f(y)} \rVert \to 0\) y así\(\lVert {f(x) e_j - f(y) e_j} \rVert \to 0\). Tal función es continua si y sólo si sus componentes son continuos y estos son los componentes de la\(j\) ésima columna de la matriz\(f(x)\).

    Determinantes

    Un cierto número se puede asignar a matrices cuadradas que miden cómo el mapeo lineal correspondiente estira el espacio. En particular, este número, llamado el determinante, puede ser utilizado para probar la invertibilidad de una matriz.

    Primero define el símbolo\(\operatorname{sgn}(x)\) para un número es definido por\ [\ operatorname {sgn} (x) : = \ begin {cases} -1 &\ text {if $x < 0$},\\ 0 &\ text {if $x = 0$},\\ 1 &\ text {if $x > 0$}. \ end {cases}\] Supongamos que\(\sigma = (\sigma_1,\sigma_2,\ldots,\sigma_n)\) es una permutación de los enteros\((1,2,\ldots,n)\), es decir, un reordenamiento de\((1,2,\ldots,n)\). Cualquier permutación se puede obtener mediante una secuencia de transposiciones (conmutaciones de dos elementos). Llamar a una permutación incluso (resp. impar) si se necesita un número par (resp. impar) de transposiciones para llegar de\(\sigma\) a\((1,2,\ldots,n)\). Se puede demostrar que esto está bien definido (ejercicio). De hecho, define\ [\ label {eq:sgndef} \ operatorname {sgn} (\ sigma) :=\ operatorname {sgn} (\ sigma_1,\ ldots,\ sigma_n) = \ prod_ {p < q}\ operatorname {sgn} (\ sigma_q-\ sigma_p).\] Entonces se puede mostrar\(\operatorname{sgn}(\sigma)\) es decir\(1\) si\(\sigma\) es par y\(-1\) si\(\sigma\) es impar. Este hecho se puede probar al señalar que aplicar una transposición cambia el signo. Entonces tenga en cuenta que el signo de\((1,2,\ldots,n)\) es 1.

    Dejar\(S_n\) ser el conjunto de todas las permutaciones sobre\(n\) los elementos (el grupo simétrico). Dejar\(A= [a_{i,j}]\) ser una\(n \times n\) matriz cuadrada. Definir el determinante de\(A\)\ [\ det (A) := \ sum_ {\ sigma\ in s_n} \ nombreoperador {sgn} (\ sigma)\ prod_ {i=1} ^n a_ {i,\ sigma_i}.\]

    1. [prop:det:i]\(\det(I) = 1\).
    2. [prop:det:ii]\(\det([x_1 ~~ x_2 ~~ \cdots ~~ x_n ])\) como función de vectores de columna\(x_j\) es lineal en cada variable\(x_j\) por separado.
    3. [prop:det:iii] Si se intercambian dos columnas de una matriz, entonces el determinante cambia de signo.
    4. [prop:det:iv] Si dos columnas de\(A\) son iguales, entonces\(\det(A) = 0\).
    5. [prop:det:v] Si una columna es cero, entonces\(\det(A) = 0\).
    6. [prop:det:vi]\(A \mapsto \det(A)\) es una función continua.
    7. [prop:det:vii]\ (\ det\ left [\ begin {smallmatrix} a & b\\ c &d\ end {smallmatrix}\ right] = ad-bc\), y\(\det [a] = a\).

    De hecho, el determinante es la función única que satisface [prop:det:i], [prop:det:ii] y [prop:det:iii]. Pero nosotros digremos. Por [prop:det:ii], queremos decir que si arreglamos todos los vectores\(x_1,\ldots,x_n\) excepto\(x_j\) y pensamos en el determinante como función de\(x_j\), es una función lineal. Es decir, si\(v,w \in {\mathbb{R}}^n\) son dos vectores, y\(a,b \in {\mathbb{R}}\) son escalares, entonces\ [\ begin {reunió} \ det ([x_1 ~~\ cdots ~~ x_ {j-1} ~~ (av+bw) ~~ x_ {j+1} ~~\ cdots ~~ x_n]) = \\ a\ det ([x_1 ~~\ cdots ~~ x_ {j-1} v ~~ x_ {j+1} ~~\ cdots ~~ x_n]) + b \ det ([x_1 ~~\ cdots ~~ x_ {j-1} ~~ w ~~ x_ {j+1} ~~\ cdots ~~ x_n]). \ end {reunido}\]

    Pasamos por la prueba rápidamente, como es probable que hayas visto esto antes.

    [prop:det:i] es trivial. Para [prop:det:ii], observe que cada término en la definición del determinante contiene exactamente un factor de cada columna.

    Parte [prop:det:iii] sigue señalando que cambiar dos columnas es como cambiar los dos números correspondientes en cada elemento en\(S_n\). De ahí que se cambien todos los signos. Parte [prop:det:iv] sigue porque si dos columnas son iguales y las cambiamos obtenemos la misma matriz de vuelta y así parte [prop:det:iii] dice que el determinante debe haber sido 0.

    Parte [prop:det:v] sigue porque el producto en cada término en la definición incluye un elemento de la columna cero. Parte [prop:det:vi] sigue como\(\det\) es un polinomio en las entradas de la matriz y por lo tanto continuo. Hemos visto que una función definida en matrices es continua en la norma del operador si es continua en las entradas. Por último, la parte [prop:det:vii] es un cómputo directo.

    El determinante nos habla de áreas y volúmenes, y cómo cambian. Por ejemplo, en el\(1 \times 1\) caso, una matriz es solo un número, y el determinante es exactamente este número. Dice cómo el mapeo lineal “estira” el espacio. De manera similar para\({\mathbb{R}}^2\) (y de hecho para\({\mathbb{R}}^n\)). Supongamos que\(A \in L({\mathbb{R}}^2)\) es una transformación lineal. Se puede comprobar directamente que el área de la imagen de la unidad cuadrada\(A([0,1]^2)\) es precisa\(\left\lvert {\det(A)} \right\rvert\). El signo del determinante nos dice si la imagen está volteada o no. Esto funciona con figuras arbitrarias, no sólo con la unidad cuadrada. El determinante nos dice el tramo en la zona. En\({\mathbb{R}}^3\) ella nos hablará sobre el volumen tridimensional, y en\(n\) -dimensiones sobre el volumen\(n\) -dimensional. Reclamamos esto sin pruebas.

    Si\(A\) y\(B\) son\(n\times n\) matrices, entonces\(\det(AB) = \det(A)\det(B)\). En particular,\(A\) es invertible si y sólo si\(\det(A) \not= 0\) y en este caso,\(\det(A^{-1}) = \frac{1}{\det(A)}\).

    \(b_1,b_2,\ldots,b_n\)Dejen ser las columnas de\(B\). Entonces es\[AB = [ Ab_1 \quad Ab_2 \quad \cdots \quad Ab_n ] .\] decir, las columnas de\(AB\) son\(Ab_1,Ab_2,\ldots,Ab_n\).

    Dejar\(b_{j,k}\) denotar los elementos de\(B\) y\(a_j\) las columnas de\(A\). Tenga en cuenta que\(Ae_j = a_j\). Por linealidad del determinante como se demostró anteriormente tenemos\ [\ begin {split} \ det (AB) & = \ det ([Ab_1\ quad Ab_2\ quad\ cdots\ quad Ab_n]) = \ det\ left (\ left [\ sum_ {j=1} ^n b_ {j,1} a_j\ quad Ab_2\ quad\ cdots\ quad Ab_n\ right]\ derecha)\\ & = \ suma_ {j=1} ^n b_ {j,1} \ det ([a_j\ quad Ab_2\ quad\ cdots\ quad AB_n])\\ & = \ sum_ {1\ leq j_1, j_2,\ ldots, j_n\ leq n} b_ {j_1,1} b_ {j_2,2} \ cdots b_ {j_n, n} \ det ([a_ {j_1} quad\ a_ {j_2}\ cdots\ quad a_ {j_n}])\\ & = \ izquierda ( \ sum_ {(j_1, j_2,\ ldots, j_n)\ en s_n} b_ {j_1,1} b_ {j_2,2} \ cdots b_ {j_n, n} \ operatorname {sgn} (j_1, j_2,\ ldots, j_n) \ derecha) \ det ([a_ {1}\ quad a_ {2}\ quad\ cdots\ quad a_ {n}]). \ end {split}\] En lo anterior, pasar de todos los enteros entre 1 y\(n\), a solo elementos de\(S_n\) señalando que cuando dos columnas en el determinante son iguales, entonces el determinante es cero. Luego reordenamos las columnas al orden original y obtenemos el sgn.

    La conclusión que\(\det(AB) = \det(A)\det(B)\) sigue al reconocer el determinante de\(B\). Esto lo obtenemos enchufándolo\(A=I\). La expresión que obtuvimos para el determinante de\(B\) tiene filas y columnas intercambiadas, así como nota al margen, también acabamos de demostrar que el determinante de una matriz y su transposición son iguales.

    Para probar la segunda parte del teorema, supongamos que\(A\) es invertible. Entonces\(A^{-1}A = I\) y consecuentemente\(\det(A^{-1})\det(A) = \det(A^{-1}A) = \det(I) = 1\). Si no\(A\) es invertible, entonces las columnas son linealmente dependientes. Es decir, supongamos\[\sum_{j=1}^n \gamma_j a_j = 0 ,\] donde no todos\(\gamma_j\) son iguales a 0. Sin pérdida de generalidad supongamos\(\gamma_1\neq 1\). Toma\ [B: = \ begin {bmatrix} \ gamma_1 & 0 & 0 &\ cdots & 0\\ \ gamma_2 & 1 & 0 &\ cdots & 0\ \ gamma_3 & 0 & 1 &\ cdots & 0 &\ vdots & \ vdots &\ vdots &\ ddots &\ vdots &\ vdots\\ vdots \\ gamma_n & 0 & 0 &\ cdots & 1 \ end {bmatrix}.\] Aplicando la definición del determinante que vemos\(\det(B) = \gamma_1 \not= 0\). Entonces\(\det(AB) = \det(A)\det(B) = \gamma_1\det(A)\). La primera columna de\(AB\) es cero, y por lo tanto\(\det(AB) = 0\). Por lo tanto\(\det(A) = 0\).

    Determinante es independiente de la base. En otras palabras, si\(B\) es invertible, entonces\[\det(A) = \det(B^{-1}AB) .\]

    La prueba sigue señalando\ (\ det (B^ {-1} AB) = \ frac {1} {\ det (B)}\ det (A)\ det (B) =\ det (B) =\ det (A)\). Si en una base\(A\) está la matriz representando un operador lineal, entonces para otra base podemos encontrar una matriz\(B\) tal que la matriz nos\(B^{-1}AB\) lleve a la primera base, aplique\(A\) en la primera base, y nos lleve de vuelta a la base con la que empezamos. Elegimos una base sobre\(X\), y representamos un mapeo lineal usando una matriz con respecto a esta base. Obtenemos el mismo determinante que si hubiéramos utilizado cualquier otra base. De ello se deduce que\[\det \colon L(X) \to {\mathbb{R}}\] es una función bien definida (no solo en matrices).

    Existen tres tipos de las llamadas matrices elementales. Recordemos nuevamente que\(e_j\) son la base estándar de\({\mathbb{R}}^n\). Primero para algunos\ (j = 1,2,\ ldots, n\) y algunos\(\lambda \in {\mathbb{R}}\),\(\lambda \neq 0\), una\(n \times n\) matriz\(E\) definida por\ [EE_i = \ begin {cases} e_i &\ text {if $i\ neq j$},\ \ lambda e_i &\ text {if $i = j$}. \ end {cases}\] Dada cualquier\(n \times m\) matriz\(M\) la matriz\(EM\) es la misma matriz que\(M\) excepto con la fila\(k\) th multiplicada por\(\lambda\). Es un cómputo fácil (ejercicio) que\(\det(E) = \lambda\).

    Segundo, para algunos\(j\) y\(k\) con\(j\neq k\), y\(\lambda \in {\mathbb{R}}\) una\(n \times n\) matriz\(E\) definida por\ [EE_i = \ begin {cases} e_i &\ text {if $i\ neq j$},\\ e_i +\ lambda e_k &\ text {if $i = j$}. \ end {cases}\] Dada cualquier\(n \times m\) matriz\(M\) la matriz\(EM\) es la misma matriz que\(M\) excepto con\(\lambda\) veces la fila\(k\) th agregada a la fila\(j\) th. Es un cómputo fácil (ejercicio) que\(\det(E) = 1\).

    Finalmente, para algunos\(j\) y\(k\) con\(j\neq k\) una\(n \times n\) matriz\(E\) definida por\ [EE_i = \ begin {cases} e_i &\ text {if $i\ neq j$ y $i\ neq k$},\\ e_k &\ text {if $i = j$},\\ e_j &\ text {if $i = k$}. \ end {cases}\] Dada cualquier\(n \times m\) matriz,\(M\) la matriz\(EM\) es la misma matriz con las filas\(j\)\(k\) th y th intercambiadas. Es un cómputo fácil (ejercicio) que\(\det(E) = -1\).

    Las matrices elementales son útiles para computar el determinante. Se deja como ejercicio la prueba de la siguiente proposición.

    [prop:elemmatrixdecomp] Dejar\(T\) ser una matriz\(n \times n\) invertible. Luego existe una secuencia finita de matrices elementales\(E_1, E_2, \ldots, E_k\) tales que\[T = E_1 E_2 \cdots E_k ,\] y\[\det(T) = \det(E_1)\det(E_2)\cdots \det(E_k) .\]

    Ejercicios

    Si\(X\) es un espacio vectorial con una norma\(\lVert {\cdot} \rVert\), entonces muestra que\(d(x,y) := \lVert {x-y} \rVert\) hace\(X\) un espacio métrico.

    Demostrar eso para matrices cuadradas\(A\) y\(B\),\(\det(AB) = \det(BA)\).

    Para\({\mathbb{R}}^n\) definir\[\lVert {x} \rVert_{\infty} := \max \{ \left\lvert {x_1} \right\rvert, \left\lvert {x_2} \right\rvert, \ldots, \left\lvert {x_n} \right\rvert \} ,\] a veces se llama el sup o la norma máxima.
    a) Demostrar que\(\lVert {\cdot} \rVert_\infty\) es una norma sobre\({\mathbb{R}}^n\) (definiendo una distancia diferente).
    b) ¿Cuál es la bola unitaria\(B(0,1)\) en esta norma?

    Para\({\mathbb{R}}^n\) definir\[\lVert {x} \rVert_{1} := \sum_{j=1}^n \lvert {x_j} \rvert,\] a veces se llama la\(1\) -norma (o\(L^1\) norma).
    a) Mostrar que\(\lVert {\cdot} \rVert_1\) es una norma en\({\mathbb{R}}^n\) (definiendo una distancia diferente, a veces llamada distancia taxicab).
    b) ¿Cuál es la bola unitaria\(B(0,1)\) en esta norma?

    Usando la norma euclidiana en\({\mathbb{R}}^2\). Calcular la norma de operador de los operadores en\(L({\mathbb{R}}^2)\) dada por las matrices:
    a)\ (\ left [ \ begin {smallmatrix} 1 & 0\\ 0 & 2 \ end {smallmatrix} \ right]\) b)\ (\ left [ \ begin {smallmatrix} 0 & 1\\ -1 & 0 \ end {smallmatrix} \ right]\) c)\ (\ left [ \ begin {smallmatrix} 1 & 1\\ 0 & 1 \ end {smallmatrix} \ right]\) d)\ (\ left [ \ begin {smallmatrix} 0 & 1\\ 0 & 0 & 0 \ end {smallmatrix} \ right]\)

    [ejercicio:normonedim] Usando la norma euclidiana estándar\({\mathbb{R}}^n\). Mostrar
    a) Supongamos que\(A \in L({\mathbb{R}},{\mathbb{R}}^n)\) se define para\(x \in {\mathbb{R}}\) por\(Ax = xa\) para un vector\(a \in {\mathbb{R}}^n\). Entonces la norma del operador\(\lVert {A} \rVert_{L({\mathbb{R}},{\mathbb{R}}^n)} = \lVert {a} \rVert_{{\mathbb{R}}^n}\). (esa es la norma operadora de\(A\) es la norma euclidiana de\(a\)). b) Supongamos que\(B \in L({\mathbb{R}}^n,{\mathbb{R}})\) se define para\(x \in {\mathbb{R}}^n\) por\(Bx = b \cdot x\) para un vector\(b \in {\mathbb{R}}^n\). Entonces la norma del operador\(\lVert {B} \rVert_{L({\mathbb{R}}^n,{\mathbb{R}})} = \lVert {b} \rVert_{{\mathbb{R}}^n}\)

    Supongamos que\(\sigma = (\sigma_1,\sigma_2,\ldots,\sigma_n)\) es una permutación de\((1,2,\ldots,n)\).
    a) Demostrar que podemos hacer un número finito de transposiciones (conmutación de dos elementos) para llegar a\((1,2,\ldots,n)\).
    b) Usando la definición [eq:sgndef] mostrar que\(\sigma\) es par si\(\operatorname{sgn}(\sigma) = 1\) y\(\sigma\) es impar si\(\operatorname{sgn}(\sigma) = -1\). En particular, mostrar que ser impar o par está bien definido.

    Verificar el cálculo del determinante para los tres tipos de matrices elementales.

    Demostrar.

    a) Supongamos que\(D = [d_{i,j}]\) es una matriz\(n\) -por-\(n\) diagonal, es decir,\(d_{i,j} = 0\) siempre que\ (i \ not= j\). \(\det(D) = d_{1,1}d_{2,2} \cdots d_{n,n}\)Demuéstralo.
    b) Supongamos que\(A\) es una matriz diagonalizable. Es decir, existe una matriz\(B\) tal que\(B^{-1}AB = D\) para una matriz diagonal\(D = [d_{i,j}]\). \(\det(A) = d_{1,1}d_{2,2} \cdots d_{n,n}\)Demuéstralo.

    Tomamos el espacio vectorial de polinomios\({\mathbb{R}}[t]\) y el operador lineal\ (D\ en L ({\ mathbb {R}} [t])\) que es la diferenciación (probamos en un ejercicio anterior que\(D\) es un operador lineal). Definir la norma en\ (P (t) = c_0 + c_1 t +\ cdots + c_n t^n\) como\(\lVert {P} \rVert := \sup \{ \left\lvert {c_j} \right\rvert : j = 0,1,\ldots,n \}\).
    a) Demostrar que\(\lVert {P} \rVert\) es una norma sobre\({\mathbb{R}}[t]\).
    b) Mostrar que\(D\) no tiene norma de operador acotado, es decir\ (\ lVert {D}\ rVert = \ infty\). Pista: considerar los polinomios\(t^n\) como\(n\) tiende al infinito.

    En este ejercicio terminamos la prueba de. Dejar\(X\) ser cualquier espacio vectorial dimensional finito con una norma. Que\ (\ {x_1, x_2,\ ldots, x_n \}\) sea una base para\(X\).
    a) Mostrar que la función\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}\)\ [f (c_1, c_2,\ ldots, c_n) = \ lVert {c_1 x_1 + c_2 x_2 +\ cdots + c_n x_n}\ rVert\] es continua.
    b) Demostrar que existen números\(m\) y\(M\) tal que si\(c = (c_1,c_2,\ldots,c_n) \in {\mathbb{R}}^n\) con\(\lVert {c} \rVert = 1\) (norma euclidiana estándar), entonces\(m \leq \lVert {c_1 x_1 + c_2 x_2 + \cdots + c_n x_n} \rVert \leq M\) (aquí la norma está encendida\(X\)).
    c) Demostrar que existe un número\(B\) tal que si\(\lVert {c_1 x_1 + c_2 x_2 + \cdots + c_n x_n} \rVert=1\), entonces\(\left\lvert {c_j} \right\rvert \leq B\).
    d) Utilice la parte (c) para mostrar que si\(X\) y\(Y\) son espacios vectoriales dimensionales finitos y\(A \in L(X,Y)\), entonces\(\lVert {A} \rVert < \infty\).

    Dejar\(X\) ser cualquier espacio vectorial dimensional finito con una norma\(\lVert {\cdot} \rVert\) y base\ (\ {x_1, x_2,\ ldots, x_n \}\). Dejar\(c = (c_1,\ldots,c_n) \in {\mathbb{R}}^n\) y\(\lVert {c} \rVert\) ser la norma euclidiana estándar en\({\mathbb{R}}^n\).
    a) Encontrar que existen números positivos\(m,M > 0\) tales que para\ [m\ lVert {c}\ rVert \ leq \ lVert {c_1 x_1 + c_2 +\ cdots + c_n x_n}\ rVert \ leq M\ lVert {c}\ rVert.\] Pista: Ver ejercicio anterior.
    b) Usa la parte (a) para mostrar que de\(\lVert {\cdot} \rVert_1\) y\(\lVert {\cdot} \rVert_2\) son dos normas sobre\(X\), entonces existen números positivos\(m,M > 0\) (quizás diferentes a los anteriores) tal que para todos\(x \in X\) tenemos\ [m\ lVert {x}\ rVert_1 \ leq \ lVert {x}\ rVert_2 \ leq M\ lVert {x}\ rVert _1.\] c) Ahora mostrar que\(U \subset X\) está abierto en la métrica definida por\(\left\lVert {x-y} \right\rVert_1\) si y sólo si está abierta en la métrica definida por\(\left\lVert {x-y} \right\rVert_2\). Es decir, la convergencia de secuencias, la continuidad de las funciones es la misma en cualquiera de las dos normas.

    El derivado

    Nota: 2—3 conferencias

    El derivado

    Recordemos que para una función\(f \colon {\mathbb{R}}\to {\mathbb{R}}\), definimos la derivada\(x\) como\[\lim_{h \to 0} \frac{f(x+h)-f(x)}{h} .\] En otras palabras, había un número\(a\) (la derivada de\(f\) at\(x\)) tal que\ [\ lim_ {h\ a 0}\ left\ lvert {\ frac {f (x+h) -f (x)} {h} - a}\ right\ rvert = \ lim_ {h\ to 0}\ left\ lvert {\ frac {f (x+ h) -f (x) - ah} {h}}\ derecha\ rvert = \ lim_ {h\ a 0}\ frac {\ izquierda\ lvert {f (x+h) -f (x) - ah}\ derecha\ rvert} {\ izquierda\ lvert {h}\ derecha\ rvert} = 0.\]

    Multiplicar por\(a\) es un mapa lineal en una dimensión. Es decir, pensamos en\(a \in L({\mathbb{R}}^1,{\mathbb{R}}^1)\) cuál es la mejor aproximación lineal de\(f\) cerca\(x\). Utilizamos esta definición para extender la diferenciación a más variables.

    Dejar\(U \subset {\mathbb{R}}^n\) ser un subconjunto abierto y\(f \colon U \to {\mathbb{R}}^m\). Decimos que\(f\) es diferenciable en\(x \in U\) si existe\(A \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) tal que\ [\ lim_ {\ subpila {h\ a 0\\ h\ in {\ mathbb {R}} ^n}} \ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} = 0.\] Escribimos\(Df(x) := A\)\(f'(x) := A\), o, y decimos\(A\) es el derivado de\(f\) at\(x\). Cuando\(f\) es diferenciable en absoluto\(x \in U\), decimos simplemente que\(f\) es diferenciable.

    Para una función diferenciable, la derivada de\(f\) es una función de\(U\) a\(L({\mathbb{R}}^n,{\mathbb{R}}^m)\). Comparar con el caso unidimensional, donde la derivada es una función de\(U\) a\({\mathbb{R}}\), pero realmente queremos pensar\({\mathbb{R}}\) aquí como\(L({\mathbb{R}}^1,{\mathbb{R}}^1)\).

    Las normas anteriores deben estar en los espacios adecuados por supuesto. La norma en el numerador está\({\mathbb{R}}^m\) encendida, y la norma en el denominador está en\({\mathbb{R}}^n\) donde\(h\) vive. Normalmente se entiende eso\(h \in {\mathbb{R}}^n\) desde el contexto. No lo vamos a decir explícitamente a partir de ahora.

    Hemos vuelto a hacer trampa un poco y hemos dicho que\(A\) es el derivado. Aún no hemos demostrado que sólo hay uno, hagámoslo ahora.

    Dejar\(U \subset {\mathbb{R}}^n\) ser un subconjunto abierto y\(f \colon U \to {\mathbb{R}}^m\). Supongamos\(x \in U\) y existe\(A,B \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) tal que\ [\ lim_ {h\ a 0} \ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} = 0 \ qquad\ text {y}\ qquad \ lim_ {h\ a 0} \ frac {\ lVert {f (x+h) -f (x) - Bh}\ rVert} {\ lVert {h}\ rVert} = 0.\] Entonces\(A=B\).

    \ [\ comenzar {dividir} \ frac {\ lVert {(A-B) h}\ rVert} {\ lVert {h}\ rVert} & = \ frac {\ lVert {f (x+h) -f (x) - Ah - (f (x+h) -f (x) - Bh)}\ rVert} {\ lVert {h}\ rVert}\ &\ leq \ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} +\ frac {\ lVert {f (x+h) -f (x) - Bh}\ rVert} {\ lVert} {\ lVert}. \ end {dividir}\]

    Así\(\frac{\lVert {(A-B)h} \rVert}{\lVert {h} \rVert} \to 0\) como\(h \to 0\). Es decir, dado\(\epsilon > 0\), entonces para todos\(h\) en alguna\(\delta\) -bola alrededor del origen\ [\ épsilon > \ frac {\ lVert {(A-B) h}\ rVert} {\ lVert {h}\ rVert} = \ izquierda\ lVert {(A-B)\ frac {h} {\ lVert {h}\ rVert}}\ derecha\ rVert.\] Para cualquiera\(x\) con\(\lVert {x} \rVert=1\), let\(h = (\nicefrac{\delta}{2}) \, x\), entonces\(\lVert {h} \rVert < \delta\) y \(\frac{h}{\lVert {h} \rVert} = x\). Entonces\(\lVert {(A-B)x} \rVert < \epsilon\). Tomando lo supremo sobre todo\(x\) con\(\lVert {x} \rVert = 1\) obtenemos la norma del operador\(\lVert {A-B} \rVert \leq \epsilon\). Como\(\epsilon > 0\) fue arbitrario\(\lVert {A-B} \rVert = 0\) o en otras palabras\(A = B\).

    Si\(f(x) = Ax\) para un mapeo lineal\(A\), entonces\(f'(x) = A\). Esto se ve fácilmente:\ [\ frac {\ lVert {f (x+h) -f (x) - Ah}\ rVert} {\ lVert {h}\ rVert} = \ frac {\ lVert {A (x+h) -Ax - Ah}\ rVert} {\ lVert {h}\ rVert} = \ frac {0} {\ lVert {h}\ RVert} = 0.\]

    Dejar\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) ser definido por\(f(x,y) = \bigl(f_1(x,y),f_2(x,y)\bigr) := (1+x+2y+x^2,2x+3y+xy)\). Demostremos que\(f\) es diferenciable en el origen y calculemos la derivada, directamente usando la definición. La derivada está en\(L({\mathbb{R}}^2,{\mathbb{R}}^2)\) por lo que puede ser representada por una\(2\times 2\) matriz\(\left[\begin{smallmatrix}a&b\\c&d\end{smallmatrix}\right]\). Supongamos\ (h = (h_1, h_2)\). Necesitamos la siguiente expresión para ir a cero. \ [\ begin {reunió} \ frac {\ lVert { f (h_1, h_2) -f (0,0) - (ah_1 +bh_2, ch_1+dh_2)}\ rVert } {\ lVert {(h_1, h_2)}\ rVert} = \\ frac {\ sqrt

    ParseError: invalid DekiScript (click for details)
    Callstack:
        at (Matematicas/Analisis/Introducción_al_Análisis_Real_(Lebl)/10:_Integrales_unidimensionales_en_varias_variables/10.04:_temp), /content/body/div[4]/div/div[1]/p[11]/span[7], line 1, column 1
    
    {\ sqrt {h_1^2+h_2^2}}. \ end {reunió}\] Si elegimos\(a=1\),\(b=2\),\(c=2\)\(d=3\), la expresión se convierte en\ [\ frac {\ sqrt { h_1^4 + h_1^2h_2^2}} {\ sqrt {h_1^2+h_2^2}} = \ left\ lvert {h_1}\ right\ rvert \ frac {\ sqrt { h_1^2 + h_2 + h_2^2}} {\ sqrt {h_1^2+h_2^2}} =\ izquierda\ lvert {h_1}\ derecha\ rvert.\] Y esto expresión de hecho va a cero como\(h \to 0\). Por lo tanto, la función es diferenciable en el origen y la derivada puede ser representada por la matriz\(\left[\begin{smallmatrix}1&2\\2&3\end{smallmatrix}\right]\).

    Dejemos\(U \subset {\mathbb{R}}^n\) ser abiertos y\(f \colon U \to {\mathbb{R}}^m\) ser diferenciables en\(p \in U\). Entonces\(f\) es continuo en\(p\).

    Otra forma de escribir la diferenciabilidad de\(f\) at\(p\) es escribir primero\[r(h) := f(p+h)-f(p) - f'(p) h ,\] y\(\frac{\lVert {r(h)} \rVert}{\lVert {h} \rVert}\) debe ir a cero como\(h \to 0\). Por lo que\(r(h)\) sí mismo debe ir a cero. El mapeo\(h \mapsto f'(p) h\) es un mapeo lineal entre espacios dimensionales finitos, por lo tanto es continuo y va a cero como\(h \to 0\). Por lo tanto,\(f(p+h)\) debe ir a\(f(p)\) como\(h \to 0\). Es decir,\(f\) es continuo en\(p\).

    \(U \subset {\mathbb{R}}^n\)Déjese abrir y dejar\(f \colon U \to {\mathbb{R}}^m\) ser diferenciable en\(p \in U\). \(V \subset {\mathbb{R}}^m\)Déjese abrir,\(f(U) \subset V\) y dejar que\(g \colon V \to {\mathbb{R}}^\ell\) sea diferenciable en\(f(p)\). Entonces\[F(x) = g\bigl(f(x)\bigr)\] es diferenciable en\(p\) y\[F'(p) = g'\bigl(f(p)\bigr) f'(p) .\]

    Sin los puntos donde se evalúan las cosas, esto a veces se escribe como\(F' = {(f \circ g)}' = g' f'\). La manera de entenderlo es que el derivado de la composición\(g \circ f\) es la composición de los derivados de\(g\) y\(f\). Es decir, si\(f'(p) = A\) y\(g'\bigl(f(p)\bigr) = B\), entonces\(F'(p) = BA\).

    Dejar\(A := f'(p)\) y\(B := g'\bigl(f(p)\bigr)\). Toma\(h \in {\mathbb{R}}^n\) y escribe\(q = f(p)\),\(k = f(p+h)-f(p)\). Deja\[r(h) := f(p+h)-f(p) - A h . %= k - Ah.\] Entonces\(r(h) = k-Ah\) o\(Ah = k-r(h)\). Miramos la cantidad que necesitamos para ir a cero:\ [\ begin {split} \ frac {\ lVert {F (p+h) -F (p) - BaH}\ rVert} {\ lVert} {\ rVert} & = \ frac {\ lVert {g\ bigl (f (p+h)\ bigr) -g\ bigl (f (p)\ bigr) - BaH}\ rVert} {\ lVert {h}\ rVert} \\ & = \ frac {\ lVert {g (q+k) -g (q) - B\ bigl (k-r (h)\ bigr)}\ rVert} {\ LVert {h}\ rVert} \\ %& = %\ frac % {\ snorm {g (q+k) -g (q) - B\ bigl (k-r (h)\ bigr)}} % {\ snorm {k}} %\ frac % {\ snorm {f (p+h) -f (p)} % {\ snorm {h} %}\\ &\ leq\ frac { \ lVert {g (q+k) -g (q) - Bk}\ rVert} {\ lVert {h}\ rVert} + \ lVert {B}\ rVert \ frac {\ lVert {r (h)}\ rVert} {\ lVert {h}\ rVert} \\ & = \ frac {\ lVert {g (q+k) -g (q) - Bk}\ rVert} {\ lVert}\ rVert} \ frac {\ lVert {f (p+h) -f (p)}\ rVert} {\ lVert {h}\ rVert} + \ lVert {B}\ rVert \ frac {\ lVert {r (h)}\ rVert} {\ lVert} {\ lVert}. \ end {split}\] Primero,\(\lVert {B} \rVert\) es constante y\(f\) es diferenciable en\(p\), por lo que el término\(\lVert {B} \rVert\frac{\lVert {r(h)} \rVert}{\lVert {h} \rVert}\) va a 0. Siguiente como\(f\) es continuo en\(p\), tenemos eso como\(h\) va a 0, luego\(k\) va a 0. Por lo tanto\ (\ frac {\ lVert {g (q+k) -g (q) - Bk}\ rVert} {\ lVert {k}\ rVert}\) va a 0 porque\(g\) es diferenciable en\(q\). Finalmente\ [\ frac {\ lVert {f (p+h) -f (p)}\ rVert} {\ lVert {h}\ rVert} \ leq \ frac {\ lVert {f (p+h) -f (p) -ah}\ rVert} {\ lVert {h}\ rVert} + \ frac {\ lVert {Ah}\ rVert} \ lVert {h}\ rVert} \ leq \ frac {\ lVert {f (p+h) -f (p) -Ah}\ rVert} {\ lVert {h}\ rVert} + \ LVert {A}\ rVert.\] Como\(f\) es diferenciable en\(p\), para lo suficientemente pequeño\(h\)\ ({\ lVert {f (p+h) -f (p) -Ah}\ rVert} {\ lVert {h}\ rVert}\) está acotado. Por lo tanto el término\ (\ frac {\ lVert {f (p+h) -f (p)}\ rVert} {\ lVert {h}\ rVert}\) permanece acotado como\(h\) va a 0. Por lo tanto,\(\frac{\lVert {F(p+h)-F(p) - BAh} \rVert}{\lVert {h} \rVert}\) va a cero, y\(F'(p) = BA\), que es lo que se reclamó.

    Derivados parciales

    Hay otra manera de generalizar la derivada desde una dimensión. Mantenemos todas las variables menos una constante y tomamos la derivada regular.

    Dejar\(f \colon U \to {\mathbb{R}}\) ser una función en un conjunto abierto\(U \subset {\mathbb{R}}^n\). Si existe el siguiente límite escribimos\ [\ frac {\ parcial f} {\ parcial x_j} (x) := \ lim_ {h\ a 0}\ frac {f (x_1,\ ldots, x_ {j-1}, x_j+h, x_ {j+1},\ ldots, x_n) -f (x)} {h} = \ lim_ {h\ a 0}\ frac {f (x+h e_j) -f (x)} {h}.\] Llamamos a\(\frac{\partial f}{\partial x_j} (x)\) la derivada parcial de\(f\) con respecto a\(x_j\). A veces escribimos\(D_j f\) en su lugar.

    Para un mapeo\(f \colon U \to {\mathbb{R}}^m\) escribimos\(f = (f_1,f_2,\ldots,f_m)\), donde\(f_k\) están las funciones de valor real. Después definimos\(\frac{\partial f_k}{\partial x_j}\) (o lo escribimos como\(D_j f_k\)).

    Las derivadas parciales son más fáciles de calcular con toda la maquinaria del cálculo, y proporcionan una manera de calcular la derivada de una función.

    [mv:prop:jacobianmatrix] Dejar\(U \subset {\mathbb{R}}^n\) ser abierto y dejar\(f \colon U \to {\mathbb{R}}^m\) ser diferenciable en\(p \in U\). Entonces todas las derivadas parciales en\(p\) existen y en términos de la base estándar de\({\mathbb{R}}^n\) y\({\mathbb{R}}^m\),\(f'(p)\) se representa por la matriz\ [\ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial x_1} (p) & \ frac {\ parcial f_1} {\ parcial x_2} (p) &\ ldots & \ frac {\ parcial f_1} {\ x_n parcial} (p) \\ \ frac {\ parcial f_2} {\ parcial x_1} (p) & \ frac {\ parcial f_2} {\ parcial x_2} (p) &\ ldots &\ frac { \ parcial f_2} {\ parcial x_n} (p)\\ vdots & \ vdots & \ ddots &\ vdots &\ vdots &\ ddots & \ puntos \\\ frac {\ parcial f_m} {\ parcial x_1} (p) & \ frac {\ parcial f_m} {\ parcial x_2} (p) &\ ldots & \ frac {\ parcial f_m} {\ parcial x_n} (p) \ end {bmatrix}.\]

    En otras palabras\ [f' (p)\, e_j = \ suma_ {k=1} ^m \ frac {\ parcial f_k} {\ parcial x_j} (p)\, e_k.\] Si\(v = \sum_{j=1}^n c_j e_j = (c_1,c_2,\ldots,c_n)\), entonces\ [f' (p)\, v = \ sum_ {j=1} ^n \ suma_ {k=1} ^m c_j \ frac {\ parcial f_k} {\ parcial x_j} (p)\, e_k = \ suma_ {k=1} ^m \ izquierda ( \ suma_ {j=1} ^n c_j \ frac {\ parcial f_k} {\ parcial x_j} (p)\ derecha)\, e_k.\]

    Fije a\(j\) y tenga en cuenta que\ [\ begin {split} \ left\ lVert {\ frac {f (p+h e_j) -f (p)} {h} - f' (p) e_j}\ right\ rVert & = \ left\ lVert {\ frac {f (p+h e_j) -f (p) - f' (p) h e_j} {h}} derecha\\ rVert\\ & = \ frac {\ lVert {f (p+h e_j) -f (p) - f' (p) h e_j}\ rVert} {\ lVert {h e_j}\ rVert}. \ end {split}\] Como\(h\) va a 0, el lado derecho va a cero por diferenciabilidad de\(f\), y por lo tanto\ [\ lim_ {h\ a 0} \ frac {f (p+h e_j) -f (p)} {h} = f' (p) e_j.\] Tenga en cuenta que\(f\) es vector valorado. Así que representan\(f\) por componentes\(f = (f_1,f_2,\ldots,f_m)\), y tenga en cuenta que tomar un límite en\({\mathbb{R}}^m\) es lo mismo que tomar el límite en cada componente por separado. Por lo tanto para cualquiera\(k\) la derivada parcial\ [\ frac {\ parcial f_k} {\ parcial x_j} (p) = \ lim_ {h \ a 0}\ frac {f_k (p+h e_j) -f_k (p)} {h}\] existe y es igual al\(k\) th componente de\(f'(p) e_j\), y estamos hechos.

    Lo contrario de la proposición no es cierto. El hecho de que existan las derivadas parciales, no significa que la función sea diferenciable. Ver los ejercicios. Sin embargo, cuando las derivadas parciales sean continuas, demostraremos que lo contrario se mantiene. Una de las consecuencias de la proposición es que si\(f\) es diferenciable on\(U\), entonces\ (f'\ colon U\ a L ({\ mathbb {R}} ^n, {\ mathbb {R}} ^m)\) es una función continua si y solo si todas las\(\frac{\partial f_k}{\partial x_j}\) son funciones continuas.

    Degradado y derivados direccionales

    Dejar\(U \subset {\mathbb{R}}^n\) ser abierto y\(f \colon U \to {\mathbb{R}}\) es una función diferenciable. Definimos el gradiente como\[\nabla f (x) := \sum_{j=1}^n \frac{\partial f}{\partial x_j} (x)\, e_j .\] Notar que el gradiente nos da una manera de representar la acción de la derivada como un producto punto:\(f'(x)v = \nabla f(x) \cdot v\).

    Supongamos que\(\gamma \colon (a,b) \subset {\mathbb{R}}\to {\mathbb{R}}^n\) es una función diferenciable y la imagen\(\gamma\bigl((a,b)\bigr) \subset U\). Tal función y su imagen a veces se llama curva, o curva diferenciable. Escribe\ (\ gamma = (\ gamma_1,\ gamma_2,\ ldots,\ gamma_n)\). Dejar\[g(t) := f\bigl(\gamma(t)\bigr) .\] La función\(g\) es diferenciable. Para fines de cálculo nos identificamos\(L({\mathbb{R}}^1)\) con\({\mathbb{R}}\), y por lo tanto se\(g'(t)\) puede calcular como un número:\ [g' (t) = f'\ bigl (\ gamma (t)\ bigr)\ gamma^ {\:\ prime} (t) = \ sum_ {j=1} ^n \ frac {\ parcial f} {\ parcial x_j}\ bigl (\ gamma (t)\ bigr) \ frac {d\ gamma_j} {dt} (t) = \ suma_ {j=1} ^n \ frac {\ parcial f} {\ parcial x_j} \ frac {d\ gamma_j} {dt}.\] Para mayor comodidad, a veces dejamos fuera los puntos donde estamos evaluando como en el lado derecho arriba. Reescribamos esto con la notación del degradado y el producto punto:\ [g' (t) = (\ nabla f)\ bigl (\ gamma (t)\ bigr)\ cdot\ gamma^ {\:\ prime} (t) =\ nabla f\ cdot\ gamma^ {\:\ prime}.\]

    Utilizamos esta idea para definir derivados en una dirección específica. Una dirección es simplemente un vector que apunta en esa dirección. Así que escoge un vector\(u \in {\mathbb{R}}^n\) tal que\(\lVert {u} \rVert = 1\). Arreglar\(x \in U\). Después definir una curva\[\gamma(t) := x + tu .\] Es fácil computar eso\(\gamma^{\:\prime}(t) = u\) para todos\(t\). Por regla de cadena\ [\ frac {d} {dt}\ Big|_ {t=0}\ bigl [f (x+tu)\ bigr] = (\ nabla f) (x)\ cdot u,\] donde la notación\(\frac{d}{dt}\big|_{t=0}\) representa la derivada evaluada en\(t=0\). También calculamos directamente\ [\ frac {d} {dt}\ Big|_ {t=0}\ bigl [f (x+tu)\ bigr] = \ lim_ {h\ a 0} \ frac {f (x+hu) -f (x)} {h}.\] Obtenemos la derivada direccional, denotada por la\[D_u f (x) := \frac{d}{dt}\Big|_{t=0} \bigl[ f(x+tu) \bigr] ,\] cual se puede computar por uno de los métodos anteriores.

    Supongamos\((\nabla f)(x) \neq 0\). Por Cauchy-Schwarz la desigualdad que tenemos La\[\left\lvert {D_u f(x)} \right\rvert \leq \lVert {(\nabla f)(x)} \rVert .\] igualdad se logra cuando\(u\) es un múltiplo escalar de\((\nabla f)(x)\). Es decir, cuando\ [u = \ frac {(\ nabla f) (x)} {\ lVert {(\ nabla f) (x)}\ rVert},\] obtenemos\(D_u f(x) = \lVert {(\nabla f)(x)} \rVert\). El gradiente apunta en la dirección en la que la función crece más rápido, es decir, en la dirección en la que\(D_u f(x)\) es máxima.

    El jacobiano

    Dejar\(U \subset {\mathbb{R}}^n\) y\(f \colon U \to {\mathbb{R}}^n\) ser un mapeo diferenciable. Luego definir el jacobiano, o determinante jacobiano 3, de\(f\) al\(x\) como\[J_f(x) := \det\bigl( f'(x) \bigr) .\] A veces esto se escribe como\[\frac{\partial(f_1,f_2,\ldots,f_n)}{\partial(x_1,x_2,\ldots,x_n)} .\]

    Esta última pieza de notación puede parecer algo confusa, pero es útil cuando es necesario especificar las variables exactas y los componentes de función utilizados.

    El jacobiano\(J_f\) es una función valorada real, y cuando\(n=1\) es simplemente la derivada. De la regla de la cadena y el hecho de que\(\det(AB) = \det(A)\det(B)\), se deduce que:\[J_{f \circ g} (x) = J_f\bigl(g(x)\bigr) J_g(x) .\]

    Como mencionamos el determinante nos dice qué sucede con el área/volumen. Del mismo modo, el jacobiano mide cuánto un mapeo diferenciable estira las cosas localmente, y si cambia la orientación. En particular, si el jacobiano es distinto de cero entonces supondríamos que localmente el mapeo es invertible (y estaríamos en lo correcto como veremos más adelante).

    Ejercicios

    Supongamos\(\gamma \colon (-1,1) \to {\mathbb{R}}^n\) y\(\alpha \colon (-1,1) \to {\mathbb{R}}^n\) sean dos curvas diferenciables tal que\(\gamma(0) = \alpha(0)\) y\(\gamma^{\:\prime}(0) = \alpha'(0)\). Supongamos que\(F \colon {\mathbb{R}}^n \to {\mathbb{R}}\) es una función diferenciable. Mostrar que\ [\ frac {d} {dt}\ Big|_ {t=0} F\ bigl (\ gamma (t)\ bigr) = \ frac {d} {dt}\ Big|_ {t=0} F\ bigl (\ alpha (t)\ bigr) .\]

    Dejar\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) ser dado por\ (f (x, y) = \ sqrt {x^2+y^2}\). Demostrar que no\(f\) es diferenciable en el origen.

    Utilizando únicamente la definición de la derivada, mostrar que los siguientes\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) son diferenciables en el origen y encuentran su derivada.
    a)\(f(x,y) := (1+x+xy,x)\),
    b)\(f(x,y) := (y-y^{10},x)\),
    c)\(f(x,y) := \bigl( (x+y+1)^2 , (x-y+2)^2 \bigr)\).

    Supongamos\(f \colon {\mathbb{R}}\to {\mathbb{R}}\) y\(g \colon {\mathbb{R}}\to {\mathbb{R}}\) son funciones diferenciables. Usando sólo la definición de la derivada, mostrar que\(h \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) definida por\ (h (x, y) : =\ bigl (f (x), g (y)\ bigr)\) es una función diferenciable y encontrar la derivada en cualquier punto\((x,y)\).

    [exercise:noncontpartialsexist] Define una función\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) por\ [f (x, y) : = \ begin {cases} \ frac {xy} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $},\\ 0 &\ text {if $ (x, y) = (0,0) $}. \ end {cases}\] a) Mostrar que las derivadas parciales\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) existen en todos los puntos (incluyendo el origen).
    b) Demostrar que no\(f\) es continuo en el origen (y por lo tanto no diferenciable).

    Define una función\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) por\ [f (x, y) : = \ begin {cases} \ frac {x^2y} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $},\\ 0 &\ text {if $ (x, y) = (0,0) $}. \ end {cases}\] a) Mostrar que las derivadas parciales\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) existen en todos los puntos.
    b) Demostrar que para todos\(u \in {\mathbb{R}}^2\) con\(\lVert {u} \rVert=1\), la derivada direccional\(D_u f\) existe en todos los puntos.
    c) Demostrar que\(f\) es continuo en el origen.
    d) Demostrar que no\(f\) es diferenciable en el origen.

    Supongamos que\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}^n\) es uno a uno, sobre, diferenciable en todos los puntos, y tal que también\(f^{-1}\) es diferenciable en todos los puntos.
    a) Mostrar que\(f'(p)\) es invertible en todos los puntos\(p\) y cómpule\({(f^{-1})}'\bigl(f(p)\bigr)\). Pista: considerar\(p = f^{-1}\bigl(f(p)\bigr)\).
    b) Dejar\(g \colon {\mathbb{R}}^n \to {\mathbb{R}}^n\) ser una función diferenciable en\(q \in {\mathbb{R}}^n\) y tal que\(g(q)=q\). Supongamos\(f(p) = q\) para algunos\(p \in {\mathbb{R}}^n\). Mostrar\(J_g(q) = J_{f^{-1} \circ g \circ f}(p)\) dónde\(J_g\) está el determinante jacobiano.

    Supongamos que\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) es diferenciable y tal que\(f(x,y) = 0\) si y sólo si\(y=0\) y tal que\(\nabla f(0,0) = (1,1)\). \(y > 0\)Demuéstralo\(f(x,y) > 0\) cuando y\(f(x,y) < 0\) cuando sea\(y < 0\).

    [exercise:mv:maximumcritical] Supongamos que\(U \subset {\mathbb{R}}^n\) es abierto y\(f \colon U \to {\mathbb{R}}\) es diferenciable. Supongamos que\(f\) tiene un máximo local en\(p \in U\). Demostrar eso\(f'(p) = 0\), ese es el mapeo cero en\(L({\mathbb{R}}^n,{\mathbb{R}})\). Ese\(p\) es un punto crítico de\(f\).

    Supongamos que\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) es diferenciable y supongamos que cuando sea\(x^2+y^2 = 1\), entonces\(f(x,y) = 0\). Demostrar que existe al menos un punto\((x_0,y_0)\) tal que\ (\ frac {\ parcial f} {\ parcial x} (x_0, y_0) =\ frac {\ parcial f} {\ parcial y} (x_0, y_0) = 0\).

    Definir\(f(x,y) := ( x-y^2 ) ( 2 y^2 - x)\). Mostrar
    a)\((0,0)\) es un punto crítico, es decir\(f'(0,0) = 0\), que es el mapa lineal cero en\(L({\mathbb{R}}^2,{\mathbb{R}})\).
    b) Por cada dirección, es decir\((x,y)\) tal que\(x^2+y^2=1\) la “restricción de\(f\) a la línea que contiene los puntos\((0,0)\) y\((x,y)\)”, es decir una función\(g(t) := f(tx,ty)\) tiene un máximo local at\(t=0\).
    c)\(f\) no tiene un máximo local al\((0,0)\).

    Supongamos que\(f \colon {\mathbb{R}}\to {\mathbb{R}}^n\) es diferenciable y\(\lVert {f(t)} \rVert = 1\) para todos\(t\) (es decir, tenemos una curva en la esfera unitaria). Entonces mostrar que para todos\(t\), tratando\(f'\) como vector tenemos,\(f'(t) \cdot f(t) = 0\).

    Definir\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) por\ (f (x, y) := \ bigl (x, y+\ varphi (x)\ bigr)\) para alguna función diferenciable\(\varphi\) de una variable. Show\(f\) es diferenciable y encontrar\(f'\).

    Continuidad y derivada

    Nota: 1—2 conferencias

    Limitando la derivada

    Demostremos un “teorema del valor medio” para las funciones de valor vectorial.

    Si\(\varphi \colon [a,b] \to {\mathbb{R}}^n\) es diferenciable encendido\((a,b)\) y continuo en\([a,b]\), entonces existe\(t_0 \in (a,b)\) tal que\[\lVert {\varphi(b)-\varphi(a)} \rVert \leq (b-a) \lVert {\varphi'(t_0)} \rVert .\]

    Por teorema de valor medio sobre la función\(\bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi(t)\) (el punto es el producto escalar de nuevo) obtenemos hay\(t_0 \in (a,b)\) tal que\ [\ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi (b) - \ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi (a) = \ lVert {\ varphi (b) -\ varphi (a)}\ rVert^2 = (b-a) \ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi' (t_0)\] donde tratamos\(\varphi'\) como un simple vector de columna de números por abuso de notación. Tenga en cuenta que en este caso, si pensamos en simplemente\(\varphi'(t)\) como un vector, entonces por,\(\lVert {\varphi'(t)} \rVert_{L({\mathbb{R}},{\mathbb{R}}^n)} = \lVert {\varphi'(t)} \rVert_{{\mathbb{R}}^n}\). Es decir, la norma euclidiana del vector es la misma que la norma operadora de\(\varphi'(t)\).

    Por Cauchy-Schwarz desigualdad\ [\ lVert {\ varphi (b) -\ varphi (a)}\ rVert^2 = (b-a)\ bigl (\ varphi (b) -\ varphi (a)\ bigr)\ cdot\ varphi' (t_0) \ leq (b-a) \ lVert {\ varphi (b) -\ varphi (a)}\ rVert\ lVert {\ varphi' (t_0)}\ rVert. \ qedhere\]

    Recordemos que un conjunto\(U\) es convexo si siempre\(x,y \in U\), el segmento de línea de\(x\) a\(y\) se encuentra en\(U\).

    [mv:prop:convexlip] Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto convexo,\(f \colon U \to {\mathbb{R}}^m\) una función diferenciable, y\(M\) tal que\[\lVert {f'(x)} \rVert \leq M\] para todos\(x \in U\). Entonces\(f\) está Lipschitz con constante\(M\), eso es\[\lVert {f(x)-f(y)} \rVert \leq M \lVert {x-y} \rVert\] para todos\(x,y \in U\).

    Fijar\(x\) y\(y\) adentro\(U\) y anotar eso\((1-t)x+ty \in U\) para todos\(t \in [0,1]\) por convexidad. Siguiente\ [\ frac {d} {dt}\ Bigl [f\ bigl ((1-t) x+ty\ bigr)\ Bigr] = f'\ bigl ((1-t) x+ty\ bigr) (y-x).\] Por el teorema del valor medio anterior obtenemos para algunos\(t_0 \in (0,1)\)\ [\ lVert {f (x) -f (y)}\ rVert\ leq \ izquierda\ lVert {\ frac {d} {dt}\ Big|_ {t=t_0}\ Bigl [f\ bigl ((1-t) x+ty\ bigr)\ Bigr]}\ derecha\ rVert\ leq \ lVert {f'\ bigl (( 1-t_0) x+t_0y\ bigr)}\ rVert\ lVert {y-x}\ rVert\ leq M\ lVert {y-x}\ rVert. \ qedhere\]

    Si no\(U\) es convexa la proposición no es cierta. Para ver este hecho, toma el conjunto\[U = \{ (x,y) : 0.9 < x^2+y^2 < 1.1 \} \setminus \{ (x,0) : x < 0 \} .\] Let\(f(x,y)\) be el ángulo que la línea desde el origen hasta\((x,y)\) hace con el\(x\) eje positivo. Incluso puedes escribir la fórmula para\(f\):\[f(x,y) = 2 \operatorname{arctan}\left( \frac{y}{x+\sqrt{x^2+y^2}}\right) .\] Piense en escalera de caracol con espacio en el medio. Ver.

    La función es diferenciable, y la derivada está acotada\(U\), lo cual no es difícil de ver. Pensando en lo que sucede cerca de donde el\(x\) eje negativo corta el anillo por la mitad, vemos que la conclusión de la proposición no puede sostenerse.

    Resolvamos la ecuación diferencial\(f' = 0\).

    Si\(U \subset {\mathbb{R}}^n\) está conectado y\(f \colon U \to {\mathbb{R}}^m\) es diferenciable y\(f'(x) = 0\), para todos\(x \in U\), entonces\(f\) es constante.

    Para cualquiera\(x \in U\), hay una pelota\(B(x,\delta) \subset U\). La bola\(B(x,\delta)\) es convexa. Ya que\(\lVert {f'(y)} \rVert \leq 0\) para todos\(y \in B(x,\delta)\), entonces por el teorema,\(\lVert {f(x)-f(y)} \rVert \leq 0 \lVert {x-y} \rVert = 0\). Entonces\(f(x) = f(y)\) para todos\ (y\ en B (x,\ delta)\).

    Esto significa que\(f^{-1}(c)\) está abierto para cualquier\(c \in {\mathbb{R}}^m\). Supongamos que no\(f^{-1}(c)\) está vacío. Los dos conjuntos\ [U' = f^ {-1} (c),\ qquad U” = f^ {-1} ({\ mathbb {R}} ^m\ setmenos\ {c\}) = \ bigcup_ {\ substack {a\ in {\ mathbb {R}} ^m\\ a\ neq c}} f^ {-1} (a)\] son abiertos disjuntos, y además\(U = U' \cup U''\). Entonces como no\(U'\) está vacío, y\(U\) está conectado, tenemos eso\(U'' = \emptyset\). Entonces\(f(x) = c\) para todos\(x \in U\).

    Funciones continuamente diferenciables

    Decimos que\(f \colon U \subset {\mathbb{R}}^n \to {\mathbb{R}}^m\) es continuamente diferenciable, o\(C^1(U)\) si\(f\) es diferenciable y\(f' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es continuo.

    [mv:prop:contdiffpartials] Que\(U \subset {\mathbb{R}}^n\) sean abiertos y\(f \colon U \to {\mathbb{R}}^m\). La función\(f\) es continuamente diferenciable si y sólo si todas las derivadas parciales existen y son continuas.

    Sin continuidad el teorema no se sostiene. El hecho de que existan derivados parciales no significa que eso\(f\) sea diferenciable, de hecho,\(f\) puede que ni siquiera sea continuo. Consulta los ejercicios para la última sección y también para esta sección.

    Hemos visto que si\(f\) es diferenciable, entonces existen las derivadas parciales. Además, las derivadas parciales son las entradas de la matriz de\(f'(x)\). Entonces si\(f' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es continuo, entonces las entradas son continuas, de ahí que las derivadas parciales sean continuas.

    Para probar la dirección opuesta, supongamos que las derivadas parciales existen y son continuas. Arreglar\(x \in U\). Si demostramos que\(f'(x)\) existe estamos hechos, porque las entradas de la matriz\(f'(x)\) son entonces las derivadas parciales y si las entradas son funciones continuas, la función valorada en matriz\(f'\) es continua.

    Hagamos inducción sobre la dimensión. Primero señalemos que la conclusión es cierta cuando\(n=1\). En este caso la derivada es solo la derivada regular (ejercicio: debes comprobar que el hecho de que la función sea valorada por vector no es un problema).

    Supongamos que la conclusión es cierta para\({\mathbb{R}}^{n-1}\), es decir, si nos restringimos a las primeras\(n-1\) variables, la conclusión es verdadera. Es fácil ver que las primeras derivadas\(n-1\) parciales de\(f\) restringidas al conjunto donde se fija la última coordenada son las mismas que las de\(f\). En lo siguiente pensamos\({\mathbb{R}}^{n-1}\) como un subconjunto de\({\mathbb{R}}^n\), ese es el conjunto en\({\mathbb{R}}^n\) donde\(x_n = 0\). Dejar\ [A = \ comenzar {bmatrix} \ frac {\ parcial f_1} {\ parcial x_1} (x) &\ ldots & \ frac {\ parcial f_1} {\ parcial x_n} (x) \ \ vdots &\ ddots &\ vdots\ \ vdots \\ frac {\ parcial f_m} {\ parcial x_1} (x) & l\ puntos & \ frac {\ parcial f_m} {\ parcial x_n} (x) \ end {bmatrix}, \ qquad A_1 = \ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial x_1} (x) &\ ldots & \ frac {\ parcial f_1} {\ parcial x_ {n-1}} (x) \\ \ vdots &\ ddots &\ vdots \\ vdots \\ frac {\ parcial f_m} {\ parcial x_1} (x) &\ ldots & \ frac {\ parcial f_m} {\ parcial x_ {n-1}} (x) \ end {bmatrix}, \ qquad v = %\ frac {\ parcial f} {\ parcial x_n} (x) = \ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial x_n} (x) \ \\ vdots \ \ frac {\ parcial f_m} {\ parcial x_n} (x) \ end {bmatrix}. Dejemos que\(\epsilon > 0\) se den. \(\delta > 0\)Sea tal que para cualquiera\(k \in {\mathbb{R}}^{n-1}\) con\(\lVert {k} \rVert < \delta\) tenemos\[\frac{\lVert {f(x+k) - f(x) - A_1k} \rVert}{\lVert {k} \rVert} < \epsilon .\] Por continuidad de las derivadas parciales, supongamos que\(\delta\) es lo suficientemente pequeño para que\ [\ izquierda\ lvert {\ frac {\ parcial f_j} {\ parcial x_n} (x+h) -\ frac {\ parcial f_j} {\ parcial x_n} (x)}\ derecha\ rvert <\ épsilon,\] para todos\(j\) y todos\(h\) con\(\lVert {h} \rVert < \delta\).

    Dejar\(h = h_1 + t e_n\) ser un vector en\({\mathbb{R}}^n\) donde\(h_1 \in {\mathbb{R}}^{n-1}\) tal que\(\lVert {h} \rVert < \delta\). Entonces\(\lVert {h_1} \rVert \leq \lVert {h} \rVert < \delta\). Tenga en cuenta que\(Ah = A_1h_1 + tv\). \ [\ begin {split} \ lVert {f (x+h) - f (x) - Ah}\ rVert & =\ lVert {f (x+h_1 + t e_n) - f (x+h_1) - tv + f (x+h_1) - f (x) - a_1h_1}\ rVert\ \ &\ leq\ lVert {f (x+h) +h_1 + t e_n) - f (x+h_1) -tv}\ rVert +\ lVert {f (x+h_1) - f (x) - a_1h_1}\ rVert \\ &\ leq\ lVert {f (x+h_1 + t e_n) - f (x+h _1) -tv}\ rVert +\ épsilon\ lVert {h_1}\ rVert. \ end {split}\] Como existen todas las derivadas parciales, por el teorema del valor medio, para cada uno\(j\) hay alguna\(\theta_j \in [0,t]\) (o\([t,0]\) si\(t < 0\)), tal que\ [f_j (x+h_1 + t e_n) - f_j (x+h_1) = t\ frac {\ parcial f_j} {\ parcial x_n} (x+h_1+\ theta_j e_n).\] Tenga en cuenta que si\(\lVert {h} \rVert < \delta\), entonces\ (\ lVert {h_1+\ theta_j e_n}\ rVert\ leq\ lVert {h}\ rVert <\ delta\). Así que para terminar la estimación\ [\ begin {split} \ lVert {f (x+h) - f (x) - Ah}\ rVert &\ leq\ lVert {f (x+h_1 + t e_n) - f (x+h_1) -tv}\ rVert +\ epsilon\ lVert {h_1} \ rVert\\ &\ leq\ sqrt\ suma_ {j=1} ^m {\ izquierda (t\ frac {\ parcial f_j} {\ parcial x_n} (x+h_1+\ theta_j e_n) - t\ frac {\ parcial f_j} {\ parcial x_n} (x)\ derecha)} ^2} +\ épsilon\ lVert {h_1}\ rVert \\ &\ leq\ sqrt {m}\,\ épsilon\ izquierda\ lvert {t}\ derecha\ rvert +\ épsilon\ lVert {h_1}\ rVert \\ &\ leq (\ sqrt {m} +1)\ épsilon\ lVert {h}\ rVert. \ end {dividir}\]

    Ejercicios

    Definir\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) como\ [f (x, y) := \ begin {cases} (x^2+y^2)\ sin\ bigl ({(x^2+y^2)} ^ {-1}\ bigr) &\ text {if $ (x, y) \ not= (0,0) $,}\\ 0 &\ text {else.} \ end {cases}\] Mostrar que\(f\) es diferenciable en el origen, pero que no es continuamente diferenciable.

    \(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\)Sea la función from, es decir,\ [f (x, y) : = \ begin {cases} \ frac {xy} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $},\\ 0 &\ text {if $ (x, y) = (0,0) $}. \ end {cases}\] Calcular las derivadas parciales\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) en todos los puntos y mostrar que estas no son funciones continuas.

    Dejar\(B(0,1) \subset {\mathbb{R}}^2\) ser la bola unitaria (disco), es decir, el conjunto dado por\(x^2 + y^2 < 1\). Supongamos que\(f \colon B(0,1) \to {\mathbb{R}}\) es una función diferenciable tal que\(\left\lvert {f(0,0)} \right\rvert \leq 1\),\(\left\lvert {\frac{\partial f}{\partial x}} \right\rvert \leq 1\) y\(\left\lvert {\frac{\partial f}{\partial y}} \right\rvert \leq 1\) para todos los puntos en\(B(0,1)\).
    a) Encontrar un\(M \in {\mathbb{R}}\) tal que\(\lVert {f'(x,y)} \rVert \leq M\) para todos\ ((x, y)\ en B (0,1)\).
    b) Encontrar un\(B \in {\mathbb{R}}\) tal que\(\left\lvert {f(x,y)} \right\rvert \leq B\) para todos\ ((x, y)\ en B (0,1)\).

    Definir\(\varphi \colon [0,2\pi] \to {\mathbb{R}}^2\) por\ (\ varphi (t) = \ bigl (\ sin (t),\ cos (t)\ bigr)\). Calcular\(\varphi'(t)\) para todos\(t\). Calcular\(\lVert {\varphi'(t)} \rVert\) para todos\(t\). Observe que nunca\(\varphi'(t)\) es cero, sin embargo\(\varphi(0) = \varphi(2\pi)\), por lo tanto, el teorema de Rolle no es cierto en más de una dimensión.

    Dejar\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) ser una función tal que\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) existir en todos los puntos y existe una\ (M \ in {\ mathbb {R}}\) tal que\(\left\lvert {\frac{\partial f}{\partial x}} \right\rvert \leq M\) y\(\left\lvert {\frac{\partial f}{\partial y}} \right\rvert \leq M\) en todos los puntos. Demostrar que\(f\) es continuo.

    Dejar\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) ser una función y\(M \in R\), tal que para cada\((x,y) \in {\mathbb{R}}^2\), la función\(g(t) := f(xt,yt)\) es diferenciable y\(\left\lvert {g'(t)} \right\rvert \leq M\).
    a) Demostrar que\(f\) es continuo en\((0,0)\).
    b) Encontrar un ejemplo de tal\(f\) que no es continuo en cualquier otro punto de\({\mathbb{R}}^2\) (Pista: Piense en cómo construimos una función continua en ninguna parte\([0,1]\)).

    Teorema de función inversa e implícita

    Nota: 2—3 conferencias

    Para probar el teorema de la función inversa utilizamos el principio de mapeo de contracción que hemos visto en y que hemos utilizado para probar el teorema de Picard. Recordemos que un mapeo\(f \colon X \to X'\) entre dos espacios métricos\((X,d)\) y\((X',d')\) se llama contracción si existe\(k < 1\) tal que\ [d'\ bigl (f (x), f (y)\ bigr)\ leq k d (x, y) \\\\ text {para todos} x, y\ in X.\] El principio de mapeo de contracción dice que si\(f \colon X \to X\) es una contracción y \(X\)es un espacio métrico completo, entonces existe un punto fijo único, es decir, existe un único\(x \in X\) tal que\(f(x) = x\).

    Intuitivamente si una función es diferenciable, entonces localmente “se comporta como” la derivada (que es una función lineal). La idea del teorema de la función inversa es que si una función es diferenciable y la derivada es invertible, la función es (localmente) invertible.

    [thm:inverse] Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto y dejar\(f \colon U \to {\mathbb{R}}^n\) ser una función continuamente diferenciable. También supongamos\(p \in U\)\(f(p) = q\),, y\(f'(p)\) es invertible (es decir,\(J_f(p) \not=0\)). Entonces existen conjuntos abiertos de\(V, W \subset {\mathbb{R}}^n\) tal manera que\(p \in V \subset U\),\(f(V) = W\) y\(f|_V\) es uno a uno y sobre. Además, la inversa\(g(y) = (f|_V)^{-1}(y)\) es continuamente diferenciable y\[g'(y) = {\bigl(f'(x)\bigr)}^{-1}, \qquad \text{ for all $x \in V$, $y = f(x)$.}\]

    Escribir\(A = f'(p)\). Como\(f'\) es continuo, existe una bola abierta\(V\) alrededor\(p\) tal que\ [\ lVert {a-f' (x)}\ rVert <\ frac {1} {2\ lVert {A^ {-1}}\ rVert} \ qquad\ text {para todos $x\ in V$.}\] Tenga en cuenta que\(f'(x)\) es invertible para todos\(x \in V\).

    Dado\(y \in {\mathbb{R}}^n\) definimos\(\varphi_y \colon C \to {\mathbb{R}}^n\)\[\varphi_y (x) = x + A^{-1}\bigl(y-f(x)\bigr) .\] Como\(A^{-1}\) es uno-a-uno, entonces\(\varphi_y(x) = x\) (\(x\)es un punto fijo) si sólo si\(y-f(x) = 0\), o en otras palabras\(f(x)=y\). Usando regla de cadena obtenemos\[\varphi_y'(x) = I - A^{-1} f'(x) = A^{-1} \bigl( A-f'(x) \bigr) .\] Así que para\(x \in V\) tenemos\[\lVert {\varphi_y'(x)} \rVert \leq \lVert {A^{-1}} \rVert \lVert {A-f'(x)} \rVert < \nicefrac{1}{2} .\] Como\(V\) es una bola es convexa, y por lo tanto\ [\ lVert {\ varphi_y (x_1) -\ varphi_y (x_2)}\ rVert\ leq\ frac {1} {2}\ lVert {x_1-x_2}\ rVert \ qquad \ text {para todos $x_1, x_2\ in V$}.\] En otras palabras\(\varphi_y\) es una contracción definido en\(V\), aunque hasta ahora no sabemos cuál es el rango de\(\varphi_y\). No podemos aplicar el teorema de punto fijo, pero podemos decir que\(\varphi_y\) tiene como máximo un punto fijo (nota prueba de unicidad en el principio de mapeo de contracción). Es decir, existe a lo sumo uno\(x \in V\) tal que\(f(x) = y\), y así lo\(f|_V\) es uno a uno.

    Vamos\(W = f(V)\). Tenemos que demostrar que\(W\) está abierto. Toma una\(y_1 \in W\), entonces hay una única\(x_1 \in V\) tal que\(f(x_1) = y_1\). Dejar\(r > 0\) ser lo suficientemente pequeña como para que la bola cerrada\(C(x_1,r) \subset V\) (tal\(r > 0\) existe como\(V\) está abierta).

    Supongamos que\(y\) es tal que\ [\ lVert {y-y_1} \ rVert <\ frac {r} {2\ lVert {A^ {-1}}\ rVert}.\] Si mostramos eso\(y \in W\), entonces hemos demostrado que\(W\) está abierto. Definir\(\varphi_y(x) = x+A^{-1}\bigl(y-f(x)\bigr)\) como antes. Si\ (x\ en C (x_1, r)\), entonces\ [\ begin {split} \ lVert {\ varphi_y (x) -x_1}\ rVert &\ leq \ lVert {\ varphi_y (x) -\ varphi_y (x_1)}\ rVert + \ lVert {\ varphi_y (x_1) -x_1}\ rVert\\ &\ leq \ frac {1} {2}\ lVert {x-x_1}\ rVert + \ lVert {A^ {-1} (y-y_1)}\ rVert\\ &\ leq \ frac {1} {2} r + \ lVert {A^ {-1}}\ rVert\ lVert {y-y_1}\ rVert\\ & < \ frac {1} {2} r + \ lVert {A^ {-1}}\ rVert \ frac {r} {2\ lVert {A^ {-1}}\ rVert} = r. \ end {split}\] Así\(\varphi_y\) toma\(C(x_1,r)\) en\(B(x_1,r) \subset C(x_1,r)\). Es una contracción\(C(x_1,r)\) y\(C(x_1,r)\) es completa (subconjunto cerrado de\({\mathbb{R}}^n\) es completo). Aplicar el principio de mapeo de contracción para obtener un punto fijo\(x\), i.e\(\varphi_y(x) = x\). Eso es\(f(x) = y\). Así\ (y\ en f\ bigl (C (x_1, r)\ bigr)\ subconjunto f (V) = W\). Por lo tanto\(W\) está abierto.

    A continuación tenemos que demostrar que\(g\) es continuamente diferenciable y computar su derivada. Primero demostremos que es diferenciable. Dejar\(y \in W\) y\(k \in {\mathbb{R}}^n\),\(k\not= 0\), tal que\(y+k \in W\). Luego hay únicos\(x \in V\) y\(h \in {\mathbb{R}}^n\),\(h \not= 0\) y\(x+h \in V\), tal que\(f(x) = y\) y\(f(x+h) = y+k\) como\(f|_V\) es un uno-a-uno y en mapeo de\(V\) sobre\(W\). En otras palabras,\(g(y) = x\) y\(g(y+k) = x+h\). Todavía podemos exprimir alguna información del hecho de que\(\varphi_y\) es una contracción. \[\varphi_y(x+h)-\varphi_y(x) = h + A^{-1} \bigl( f(x)-f(x+h) \bigr) = h - A^{-1} k .\]Entonces\ [\ lVert {h-a^ {-1} k}\ rVert =\ lVert {\ varphi_y (x+h) -\ varphi_y (x)}\ rVert\ leq \ frac {1} {2}\ lVert {x+h-x}\ rVert =\ frac {\ lVert {h}\ rVert} {2}.\] Por la inversa triángulo desigualdad\ (\ lVert {h}\ rVert -\ lVert {A^ {-1} k}\ rVert\ leq \ frac {1} {2}\ lVert {h}\ rVert\) así que\[\lVert {h} \rVert \leq 2 \lVert {A^{-1}k} \rVert \leq 2 \lVert {A^{-1}} \rVert \lVert {k} \rVert.\] En particular, como\(k\) va a 0, también lo hace\(h\).

    Como\(x \in V\), entonces\(f'(x)\) es invertible. Vamos\(B = \bigl(f'(x)\bigr)^{-1}\), que es lo que pensamos que\(y\) es el derivado de\(g\) at. Entonces\ [\ comenzar {dividir} \ frac {\ lVert {g (y+k) -g (y) -Bk}\ rVert} {\ lVert {k}\ rVert} & =\ frac { \ lVert {h-bk}\ rVert} {\ lVert {k}\ rVert}\\ rVert} \\ rVert} \\ rVert}\\ rVert {k}\ rVert}\\ rVert}\\ rVert}\ +h) -f (x)\ bigr)}\ rVert} {\ lVert {k} \ rVert}\\ & = \ frac {\ lVert {B\ bigl (f (x+h) -f (x) -f' (x) h\ bigr)}\ rVert} {\ lVert {k}\ rVert} \\ &\ leq \ lVert {B}\ rVert \ frac {\ lVert {h}\ rVert} {\ lVert}\,\ frac { \ lVert {f (x+h) -f (x) -f' (x) h}\ rVert} {\ lVert {h}\ rVert}\\ & \ leq 2\ lVert {B}\ rVert\ lVert {A^ {-1}}\ rVert \ frac {\ lVert {f (x+h) -f (x) -f' (x) h}\ rVert} {\ lVert {h}\ rVert}. \ end {split}\] Como\(k\) va a 0, también lo hace\(h\). Entonces el lado derecho va a 0 como\(f\) es diferenciable, y de ahí el lado izquierdo también va a 0. Y\(B\) es precisamente lo que\(g'(y)\) queríamos ser.

    Tenemos\(g\) es diferenciable, demostremos que es\(C^1(W)\). Ahora,\(g \colon W \to V\) es continuo (es diferenciable),\(f'\) es una función continua de\(V\) a\(L({\mathbb{R}}^n)\), y\(X \to X^{-1}\) es una función continua. \(g'(y) = {\bigl( f'\bigl(g(y)\bigr)\bigr)}^{-1}\)es la composición de estas tres funciones continuas y por lo tanto es continua.

    Supongamos que\(U \subset {\mathbb{R}}^n\)\(f \colon U \to {\mathbb{R}}^n\) es abierto y es un mapeo continuamente diferenciable tal que\(f'(x)\) es invertible para todos\(x \in U\). Entonces dado cualquier conjunto abierto\(V \subset U\),\(f(V)\) está abierto. (\(f\)es un mapeo abierto).

    Sin pérdida de generalidad, supongamos\(U=V\). Para cada punto\(y \in f(V)\), elegimos\(x \in f^{-1}(y)\) (podría haber más de uno de esos puntos), luego por el teorema de la función inversa hay un vecindario de\(x\) en\(V\) ese mapas sobre un vecindario de\(y\). De ahí\(f(V)\) que esté abierto.

    El teorema, y el corolario, no es cierto si no\(f'(x)\) es invertible para algunos\(x\). Por ejemplo, el mapa\(f(x,y) = (x,xy)\),\({\mathbb{R}}^2\) se mapea al conjunto\({\mathbb{R}}^2 \setminus \{ (0,y) : y \neq 0 \}\), que no está ni abierto ni cerrado. De hecho\(f^{-1}(0,0) = \{ (0,y) : y \in {\mathbb{R}}\}\). Este mal comportamiento solo ocurre en el\(y\) eje -, en todas partes la función es localmente invertible. Si evitamos el\(y\) -eje,\(f\) es incluso uno a uno.

    También tenga en cuenta que solo porque\(f'(x)\) sea invertible en todas partes no significa que\(f\) sea uno a uno a nivel global. Es “localmente” uno a uno pero quizás no “globalmente”. Por ejemplo, tomemos el mapa\(f \colon {\mathbb{R}}^2 \setminus \{ 0 \} \to {\mathbb{R}}^2\) definido por\(f(x,y) = (x^2-y^2,2xy)\). Se deja al estudiante demostrar que\(f\) es diferenciable y la derivada es invertible

    Por otro lado, el mapeo es de 2 a 1 a nivel global. Por cada\((a,b)\) que no es el origen, hay exactamente dos soluciones a\(x^2-y^2=a\) y\(2xy=b\). Dejamos que el alumno demuestre que hay al menos una solución, para luego notar que reemplazando\(x\) y\(y\) con\(-x\) y\(-y\) obtenemos otra solución.

    La invertibilidad de la derivada no es una condición necesaria, solo suficiente, para tener una inversa continua y ser un mapeo abierto. Por ejemplo, la función\(f(x) = x^3\) es un mapeo abierto de\({\mathbb{R}}\) a\({\mathbb{R}}\) y es globalmente uno a uno con una inversa continua, aunque la inversa no es diferenciable en\(x=0\).

    Teorema de la función implícita

    El teorema de la función inversa es realmente un caso especial del teorema de la función implícita que probamos a continuación. Aunque algo irónicamente probamos el teorema de la función implícita usando el teorema de la función inversa. Lo que estábamos mostrando en el teorema de la función inversa era que la ecuación\(x-f(y) = 0\) era solucionable\(y\) en términos de\(x\) si la derivada en términos de\(y\) era invertible, es decir, si\(f'(y)\) era invertible. Es decir, había localmente una función\(g\) tal que\(x-f\bigl(g(x)\bigr) = 0\).

    Bien, entonces, ¿qué tal si miramos la ecuación\(f(x,y) = 0\)? Obviamente esto no es solucionable\(y\) en términos de\(x\) en todos los casos. Por ejemplo, cuando en realidad\(f(x,y)\) no depende de\(y\). Para un ejemplo un poco más complicado, observe que\(x^2+y^2-1 = 0\) define el círculo unitario, y podemos resolverlo localmente\(y\) en términos de\(x\) cuando 1) estamos cerca de un punto que se encuentra en el círculo unitario y 2) cuando no estamos en un punto donde el círculo tenga una tangencia vertical, o en otras palabras donde \(\frac{\partial f}{\partial y} = 0\).

    Para simplificar las cosas arreglamos alguna notación. Dejamos\ ((x, y)\ in {\ mathbb {R}} ^ {n+m}\) denotar las coordenadas\((x_1,\ldots,x_n,y_1,\ldots,y_m)\). Entonces\(A \in L({\mathbb{R}}^{n+m},{\mathbb{R}}^m)\) se puede escribir una transformación lineal de tal\(A = [ A_x ~ A_y ]\) manera que\(A(x,y) = A_x x + A_y y\), dónde\(A_x \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) y\(A_y \in L({\mathbb{R}}^m)\).

    Vamos\(A = [A_x~A_y] \in L({\mathbb{R}}^{n+m},{\mathbb{R}}^m)\) y supongamos que\(A_y\) es invertible. Si\(B = - {(A_y)}^{-1} A_x\), entonces\[0 = A ( x, Bx) = A_x x + A_y Bx .\]

    La prueba es obvia. Simplemente resolvemos y obtenemos\(y = Bx\). Demostremos que lo mismo se puede hacer para\(C^1\) las funciones.

    [thm:implicit] Dejar\(U \subset {\mathbb{R}}^{n+m}\) ser un conjunto abierto y dejar\(f \colon U \to {\mathbb{R}}^m\) ser un\(C^1(U)\) mapeo. \((p,q) \in U\)Sea un punto tal que\(f(p,q) = 0\) y tal que\[\frac{\partial(f_1,\ldots,f_m)}{\partial(y_1,\ldots,y_m)} (p,q) \neq 0 .\] Entonces existe un conjunto abierto\(W \subset {\mathbb{R}}^n\) con\(p \in W\), un conjunto abierto\(W' \subset {\mathbb{R}}^m\) con\(q \in W'\), con\(W \times W' \subset U\), y un\(C^1(W)\) mapeo\(g \colon W \to W'\), con\(g(p) = q\), y para todos\(x \in W\), el punto\(g(x)\) es el punto único en\(W'\) tal que\[f\bigl(x,g(x)\bigr) = 0 .\] Además, si\([ A_x ~ A_y ] = f'(p,q)\), entonces\[g'(p) = -{(A_y)}^{-1}A_x .\]

    La condición\ (\ frac {\ parcial (f_1,\ ldots, f_m)} {\ parcial (y_1,\ ldots, y_m)} (p, q) = \ det (a_y)\ neq 0\) simplemente significa que\(A_y\) es invertible.

    Definir\(F \colon U \to {\mathbb{R}}^{n+m}\) por\(F(x,y) := \bigl(x,f(x,y)\bigr)\). Es claro que\(F\) es\(C^1\), y queremos demostrar que el derivado at\((p,q)\) es invertible.

    Calculemos la derivada. Sabemos que\[\frac{\lVert {f(p+h,q+k) - f(p,q) - A_x h - A_y k} \rVert}{\lVert {(h,k)} \rVert}\] va a cero como\(\lVert {(h,k)} \rVert = \sqrt{\lVert {h} \rVert^2+\lVert {k} \rVert^2}\) va a cero. Pero entonces también lo hace\ [\ frac {\ lVert {\ bigl (h, f (p+h, q+k) -f (p, q)\ bigr) - (h, a_x h+a_y k)}\ rVert} {\ lVert {(h, k)}\ rVert} = \ frac {\ lVert {f (p+h, q+k) - f (p, q) - a_x h - a_Y k}\ rVert} {\ lVert {(h, k)}\ rVert}.\] Así que la derivada de\(F\) at\((p,q)\) lleva\((h,k)\) a\((h,A_x h+A_y k)\). Si\((h,A_x h+A_y k) = (0,0)\), entonces\(h=0\), y así\(A_y k = 0\). Como\(A_y\) es uno a uno, entonces\(k=0\). Por lo tanto,\(F'(p,q)\) es uno a uno o en otras palabras invertible y aplicamos el teorema de la función inversa.

    Es decir, existe algún conjunto abierto\(V \subset {\mathbb{R}}^{n+m}\) con\((p,0) \in V\), y un mapeo inverso\(G \colon V \to {\mathbb{R}}^{n+m}\), es decir\(F\bigl(G(x,s)\bigr) = (x,s)\) para todos\((x,s) \in V\) (dónde\(x \in {\mathbb{R}}^n\) y\(s \in {\mathbb{R}}^m\)). Escribir\(G = (G_1,G_2)\) (el primero\(n\) y el segundo\(m\) componentes de\(G\)). Entonces\ [F\ bigl (G_1 (x, s), G_2 (x, s)\ bigr) =\ bigl (G_1 (x, s), f (G_1 (x, s), G_2 (x, s))\ bigr) = (x, s).\] Así\(x = G_1(x,s)\) y\(f\bigl(G_1(x,s),G_2(x,s)\bigr) = f\bigl(x,G_2(x,s)\bigr) = s\). Conectando\(s=0\) obtenemos\[f\bigl(x,G_2(x,0)\bigr) = 0 .\] El conjunto\(G(V)\) contiene todo un vecindario del punto\((p,q)\) y por lo tanto hay algunos abiertos El conjunto\(V\) está abierto y de ahí existen algunos conjuntos abiertos\(\widetilde{W}\) y\(W'\) tal que\(\widetilde{W} \times W' \subset G(V)\) con\ (p \ in\ anchotilde {W}\) y \(q \in W'\). Entonces toma\(W = \{ x \in \widetilde{W} : G_2(x,0) \in W' \}\). La función que lleva\(x\) a\(G_2(x,0)\) es continua y por lo tanto\(W\) es abierta. Definimos\(g \colon W \to {\mathbb{R}}^m\) por\(g(x) := G_2(x,0)\) cual es el\(g\) en el teorema. El hecho de que\(g(x)\) es el punto único en\(W'\) sigue porque\ (W\ veces W'\ subconjunto G (V)\) y\(G\) es uno a uno y sobre\(G(V)\).

    Siguiente diferenciar\[x\mapsto f\bigl(x,g(x)\bigr) ,\] en\(p\), que debería ser el mapa cero. La derivada se realiza de la misma manera que anteriormente. Lo conseguimos para todos\(h \in {\mathbb{R}}^{n}\)\[0 = A\bigl(h,g'(p)h\bigr) = A_xh + A_yg'(p)h ,\] y también obtenemos el derivado deseado para\(g\).

    Es decir, en el contexto del teorema tenemos\(m\) ecuaciones en\(n+m\) incógnitas. \ [\ begin {aligned} & f_1 (x_1,\ ldots, x_n, y_1,\ ldots, y_m) = 0\\ &\ qquad\ qquad\ qquad\ vdots\\ & f_m (x_1,\ ldots, x_n, y_1,\ ldots, y_m) = 0\ end {alineado}\] Y la condición que garantiza un solución es que se trata de un\(C^1\) mapeo (que todos los componentes son\(C^1\), o en otros palabras todas las derivadas parciales existen y son continuas), y la matriz\ [\ begin {bmatrix} \ frac {\ parcial f_1} {\ parcial y_1} &\ ldots & \ frac {\ parcial f_1} {\ y_m parcial} \ \ vdots &\ ddots &\ vdots \\ \ frac {\ parcial f_m} {\ parcial y_1} &\ ldots & \ frac {\ parcial f_m} {\ y_m parcial} \ end {bmatrix}\] es invertible en\((p,q)\).

    Considera el conjunto\(x^2+y^2-{(z+1)}^3 = -1\),\(e^x+e^y+e^z = 3\) cerca del punto\((0,0,0)\). La función que estamos viendo es\[f(x,y,z) = (x^2+y^2-{(z+1)}^3+1,e^x+e^y+e^z-3) .\] Encontramos que\ [f' = \ begin {bmatrix} 2x & 2y & -3 {(z+1)} ^2\\ e^x & e^y & e^z \ end {bmatrix}.\] La matriz\ [\ begin {bmatrix} 2 (0) & -3 {(0+1)} ^2\\ e^0 & e^0 \ end {matriz} = \ comenzar {bmatrix} 0 y -3\\ 1 & 1 \ end {bmatrix}\] es invertible. De ahí que cerca\((0,0,0)\) podamos encontrar\(y\) y\(z\) como\(C^1\) funciones de\(x\) tal manera que para\(x\) cerca 0 tenemos\ [x^2+y (x) ^2- {\ bigl (z (x) +1\ bigr)} ^3 = -1, \ qquad e^x+e^ {y (x)} +e^ {z (x)} = 3.\] El teorema no nos dice como encontrar\(y(x)\) y\(z(x)\) explícitamente, solo nos dice que existen. Es decir, cerca del origen el conjunto de soluciones es una curva suave en\({\mathbb{R}}^3\) que pasa por el origen.

    Observamos que existen versiones del teorema para arbitrariamente muchos derivados. Si\(f\) tiene derivados\(k\) continuos, entonces la solución también tiene derivados\(k\) continuos.

    Ejercicios

    Vamos\(C = \{ (x,y) \in {\mathbb{R}}^2 : x^2+y^2 = 1 \}\).
    a) Resolver por\(y\) en cuanto\(x\) a cerca\((0,1)\).
    b) Resolver por\(y\) en cuanto\(x\) a cerca\((0,-1)\).
    c) Resolver por\(x\) en cuanto\(y\) a cerca\((-1,0)\).

    Definir\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) por\ (f (x, y) := \ bigl (x, y+h (x)\ bigr)\) para alguna función continuamente diferenciable\(h\) de una variable.
    a) Demostrar que\(f\) es uno a uno y sobre.
    b) Cómpiate\(f'\).
    c) Mostrar que\(f'\) es invertible en todos los puntos, y computar su inversa.

    Definir\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2 \setminus \{ (0,0) \}\) por\ (f (x, y) := \ bigl (e^x\ cos (y), e^x\ sin (y)\ bigr)\).
    a) Demostrar que\(f\) está en.
    b) Demostrar que\(f'\) es invertible en todos los puntos.
    c) Mostrar que no\(f\) es uno-a-uno, de hecho para cada\ ((a, b)\ in {\ mathbb {R}} ^2 \ setmenos\ {(0,0)\}\), existen infinitamente muchos puntos diferentes\((x,y) \in {\mathbb{R}}^2\) tales que\(f(x,y) = (a,b)\).
    Por lo tanto, el derivado invertible en cada punto no significa que\(f\) sea invertible globalmente.

    Encuentra un mapa\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}^n\) que sea uno a uno, en, continuamente diferenciable, pero\(f'(0) = 0\). Pista: Generalizar\(f(x) = x^3\) de uno a\(n\) dimensiones.

    Considerar\(z^2 + xz + y =0\) en\({\mathbb{R}}^3\). Encontrar una ecuación\(D(x,y)=0\), tal que si\(D(x_0,y_0) \not= 0\) y\(z^2+x_0z+y_0 = 0\) para algunos\(z \in {\mathbb{R}}\), entonces para los puntos cercanos\((x_0,y_0)\) existen exactamente dos funciones distintas continuamente diferenciables\(r_1(x,y)\) y\(r_2(x,y)\) tal que\(z=r_1(x,y)\) y\(z=r_2(x,y)\) resolver\(z^2 + xz + y =0\). ¿Reconoces la expresión\(D\) del álgebra?

    Supongamos que\(f \colon (a,b) \to {\mathbb{R}}^2\) es continuamente diferenciable y\(\frac{\partial f}{\partial x}(t) \not= 0\) para todos\(t \in (a,b)\). Demostrar que existe un intervalo\((c,d)\) y una función continuamente diferenciable\(g \colon (c,d) \to {\mathbb{R}}\) tal que\((x,y) \in f\bigl((a,b)\bigr)\) si y sólo si\(x \in (c,d)\) y\(y=g(x)\). En otras palabras, el conjunto\(f\bigl((a,b)\bigr)\) es una gráfica de\(g\).

    Define\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\)\ [f (x, y) := \ begin {cases} (x^2\ sin\ bigl (\ nicefrac {1} {x}\ bigr) +\ frac {x} {2}, y) &\ text {si $x\ no= 0$,}\\ (0, y) &\ text {if $x=0$.} \ end {cases}\] a) Mostrar que\(f\) es diferenciable en todas partes.
    b) Demostrar que\(f'(0,0)\) es invertible.
    c) Demostrar que no\(f\) es uno-a-uno en ningún vecindario del origen (no es localmente invertible, es decir, el teorema inverso no funciona).
    d) Demostrar que no\(f\) es continuamente diferenciable.

    [mv:exercise:polarcoordinates] Definir un mapeo\(F(r,\theta) := \bigl(r \cos(\theta), r \sin(\theta) \bigr)\).
    a) Mostrar que\(F\) es continuamente diferenciable (para todos\ ((r,\ theta)\ in {\ mathbb {R}} ^2\)).
    b) Calcula\(F'(0,\theta)\) para cualquier\(\theta\).
    c) Demostrar que si\(r \not= 0\), entonces\(F'(r,\theta)\) es invertible, por lo tanto una inversa de\(F\) existe localmente siempre y cuando\(r \not= 0\).
    d) Mostrar que\(F \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) es onto, y para cada punto\ ((x, y)\ in {\ mathbb {R}} ^2\), el conjunto\(F^{-1}(x,y)\) es infinito.
    e) Mostrar que\(F \colon {\mathbb{R}}^2 \to {\mathbb{R}}^2\) es un mapa abierto, a pesar de no satisfacer la condición del teorema de la función inversa.
    f) Demostrar que\(F|_{(0,\infty) \times [0,2\pi)}\) es uno a uno y sobre\({\mathbb{R}}^2 \setminus \{ (0,0) \}\).

    Derivados de orden superior

    Nota: menos de 1 conferencia, depende de la optativa §4.3 del tomo I

    Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto y\(f \colon U \to {\mathbb{R}}\) una función. Denote por\(x = (x_1,x_2,\ldots,x_n) \in {\mathbb{R}}^n\) nuestras coordenadas. Supongamos que\(\frac{\partial f}{\partial x_j}\) existe en todas partes\(U\), entonces notamos que también es una función\ (\ frac {\ parcial f} {\ parcial x_j} \ colon U\ a {\ mathbb {R}}\). Por lo tanto, tiene sentido hablar de sus derivados parciales. Denotamos la derivada parcial de\(\frac{\partial f}{\partial x_j}\) con respecto a\(x_k\) por\ [\ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j} : = \ frac {\ parcial\ bigl (\ frac {\ parcial f} {\ parcial x_j}\ bigr)} {\ parcial x_k}.\] Si\(k=j\), entonces escribimos\(\frac{\partial^2 f}{\partial x_j^2}\) por simplicidad.

    Definimos derivados de orden superior inductivamente. Supongamos que\(j_1,j_2,\ldots,j_\ell\) son enteros entre\(1\) y\(n\), y supongamos que\[\frac{\partial^{\ell-1} f}{\partial x_{j_{\ell-1}} \partial x_{j_{\ell-2}} \cdots \partial x_{j_1}}\] existe y es diferenciable en la variable\(x_{j_{\ell}}\), entonces la derivada parcial con respecto a esa variable se denota por\ [\ frac {\ parcial^ {\ ell} f} {\ parcial x_ {j_ {\ ell}}\ parcial x_ {j_ {\ ell-1}} \ cdots\ parcial x_ {j_1}} : = \ frac {\ parcial\ bigl (\ frac {\ parcial^ {\ ell-1} f} {\ parcial x_ {j_ {\ ell-1}}\ parcial x_ {j_ {\ ell-2}}\ cdots\ x_ parcial {j_1}}\ bigr)} {\ parcial x_ {j_ {\ ell}}.\] Tal derivada se llama derivada parcial de orden\(\ell\).

    Observación que a veces\(f_{x_j x_k}\) se utiliza la notación para\(\frac{\partial^2 f}{\partial x_k \partial x_j}\). Esta notación intercambia el orden de las derivadas, lo que puede ser importante.

    Si\(U \subset {\mathbb{R}}^n\) es un conjunto abierto y\(f \colon U \to {\mathbb{R}}\) una función. Decimos\(f\) es \(k\)-veces función continuamente diferenciable, o una\(C^k\) función, si todas las derivadas parciales de todas las órdenes hasta e incluyendo orden\(k\) existen y son continuas.

    Entonces una función continuamente diferenciable, o\(C^1\), es aquella en la que todas las derivadas parciales existen y son continuas, lo que concuerda con nuestra definición anterior debido a. Podríamos haber requerido solo que las derivadas parciales de orden\(k\) th existan y sean continuas, ya que la existencia de derivadas de orden inferior es claramente necesaria para definir incluso las derivadas parciales de orden\(k\) th, y estas derivadas de orden inferior serán continuas ya que serán diferenciables funciones.

    Cuando las derivadas parciales son continuas, podemos intercambiar su orden.

    [mv:prop:swapders] Supongamos que\(U \subset {\mathbb{R}}^n\)\(f \colon U \to {\mathbb{R}}\) está abierto y es una\(C^2\) función,\(j\) y y\(k\) son dos enteros entre\(1\) y\(n\). Entonces\ [\ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k}.\]

    Fijar un punto\(p \in U\), y dejar\(e_j\) y\(e_k\) ser los vectores base estándar y dejar\(s\) y\(t\) ser dos pequeños números reales distintos de cero. Escogemos\(s\) y lo suficientemente\(t\) pequeños\(p+s_0e_j +t_0e_k \in U\) para que para todos\(s_0\) y\(t_0\) con\(\left\lvert {s_0} \right\rvert \leq \left\lvert {s} \right\rvert\) y\(\left\lvert {t_0} \right\rvert \leq \left\lvert {t} \right\rvert\). Esto es posible ya que\(U\) está abierto y por lo tanto contiene una bola pequeña (o una caja si lo deseas).

    Usando el teorema del valor medio sobre la derivada parcial in\(x_k\) de la función\(f(p+se_j)-f(p)\), encontramos un\(t_0\) entre\(0\) y\(t\) tal que\ [\ frac {f (p+se_j + te_k) - f (p+t e_k) - f (p+s e_j) +f (p)} {t} = \ frac {\ parcial f} {\ parcial x_k} (p + s e_j + t_0) - \ frac {\ parcial f} {\ parcial x_k} (p + t_0 e_k).\] A continuación existe un número\(s_0\) entre\(0\) y\(s\) tal que\ [\ frac {\ frac {\ frac {\ parcial f} {\ parcial x_k} (p + s e_j + t_0 e_k) - \ frac {\ parcial f} {\ parcial x_k} (p + t_0 e_k)} {s} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} (p + s_0 e_j + t_0 e_k).\] En otras palabras\ [g (s, t) := \ frac {f (p+se_j + te_k) - f (p+t e_k) - f (p+s e_j) +f (p)} {st} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} (p + s_0 e_j + t_0 e_k).\] Tomando un límite como\((s,t) \in {\mathbb{R}}^2\) va a cero encontramos que\((s_0,t_0)\) también va a cero y por continuidad del segundo parcial derivados encontramos que\ [\ lim_ {(s, t)\ a 0} g (s, t) = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} (p).\] Ahora invertimos el orden, comenzando con la función\(f(p+te_k)-f(p)\) encontramos un\(s_1\) entre\(0\) y\(s\) tal que\ [\ frac {f (p+te_k + se_j) - (f (p+te_k + se_j) - f (p+s e_j) - f (p+t e_k) +f (p)} {s} = \ frac {\ parcial f} {\ parcial x_j} (p + t e_k + s_1 e_j) - \ frac {\ parcial f} {\ parcial x_j} (p + s_1 e_j).\] Y encontramos un\(t_1\) entre\(0\) y\(t\)\ [\ frac {\ frac {\ frac {\ parcial f} {\ parcial x_j} (p + t e_k + s_1) - \ frac {\ parcial f} {\ parcial x_j} (p + s_1 e_j)} {t} = \ frac {\ parcial^2 f} {\ x_k parcial\ x_j parcial} (p + t_1 e_k + s_1 e_j).\] Nuevamente encontramos que\ (g (s, t) =\ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j parcial} (p + t_1 e_k + s_1 e_j)\) y por lo tanto\\ lim_ {(s, t)\ a 0} g (s, t) = \ frac {\ parcial^2 f} {\ x_k parcial\ x_j parcial} (p).\] Y por lo tanto los dos las derivadas parciales son iguales.

    La proposición no se mantiene si los derivados no son continuos. Ver los ejercicios. Observe también que realmente no necesitábamos una\(C^2\) función solo necesitábamos las dos derivadas parciales de segundo orden involucradas para ser funciones continuas.

    Ejercicios

    Supongamos que\(f \colon U \to {\mathbb{R}}\) es una\(C^2\) función para algunos open\ (U\ subset {\ mathbb {R}} ^n\) y\(p \in U\). Utilice la prueba de para encontrar una expresión en términos de solo los valores de\(f\) (análogo del cociente de diferencia para la primera derivada), cuyo límite es\(\frac{\partial^2 f}{ \partial x_j \partial x_k}(p)\).

    Definir\ [f (x, y) := \ begin {cases} \ frac {xy (x^2-y^2)} {x^2+y^2} &\ text {if $ (x, y)\ not= (0,0) $,}\\ 0 &\ text {if $ (x, y) = (0,0) $.} \ end {cases}\] Demostrar que
    a) Las derivadas parciales de primer orden existen y son continuas.
    b) Las derivadas parciales\(\frac{\partial^2 f}{\partial x \partial y}\) y\(\frac{\partial^2 f}{\partial y \partial x}\) existen, pero no son continuas en el origen, y\ (\ frac {\ parcial^2 f} {\ parcial x\ parcial y} (0,0)\ not= \ frac {\ parcial^2 f} {\ parcial y\ parcial x} (0,0)\).

    Supongamos que\(f \colon U \to {\mathbb{R}}\) es una\(C^k\) función para algunos open\ (U\ subset {\ mathbb {R}} ^n\) y\(p \in U\). Supongamos que\(j_1,j_2,\ldots,j_k\) son enteros entre\(1\) y\(n\), y supongamos que\(\sigma=(\sigma_1,\sigma_2,\ldots,\sigma_k)\) es una permutación de\((1,2,\ldots,k)\). Demostrar\ [\ frac {\ parcial^ {k} f} {\ parcial x_ {j_ {k}}\ parcial x_ {j_ {k-1}} \ cdots\ parcial x_ {j_1}} (p) = \ frac {\ parcial^ {k} f} {\ parcial x_ {j_ {\ sigma_k}}\ parcial x_ {j_\ sigma_ {k-1}}} \ cdots\ parcial x_ {j_ {\ sigma_1}}} (p).\]

    Supongamos\(\varphi \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) ser una\(C^k\) función tal que\(\varphi(0,\theta) = \varphi(0,\psi)\) para todos\(\theta,\psi \in {\mathbb{R}}\) y\(\varphi(r,\theta) = \varphi(r,\theta+2\pi)\) para todos\(r,\theta \in {\mathbb{R}}\). Dejar\(F(r,\theta) = \bigl(r \cos(\theta), r \sin(\theta) \bigr)\) de. Mostrar que una función\(g \colon {\mathbb{R}}^2 \to {\mathbb{R}}\), dada\(g(x,y) := \varphi \bigl(F^{-1}(x,y)\bigr)\) está bien definida (aviso que sólo se\(F^{-1}(x,y)\) puede definir localmente), y cuando se restringe a\({\mathbb{R}}^2 \setminus \{ 0 \}\) ella es una\(C^k\) función.

    Integrales unidimensionales en varias variables

    Diferenciación bajo la integral

    Nota: menos de 1 conferencia

    Dejar\(f(x,y)\) ser una función de dos variables y definir\[g(y) := \int_a^b f(x,y) ~dx .\] Supongamos\(f\) es diferenciable en\(y\). La pregunta que hacemos es cuándo podemos “diferenciarnos bajo lo integral”, es decir, cuándo es cierto que\(g\) es diferenciable y su derivada La\[g'(y) \overset{?}{=} \int_a^b \frac{\partial f}{\partial y}(x,y) ~dx .\] diferenciación es un límite y por lo tanto realmente nos estamos preguntando cuándo se desplazan las dos operaciones limitantes de integración y diferenciación. Como hemos visto, esto no siempre es posible, se necesita algún tipo de uniformidad. En particular, la primera pregunta que nos enfrentaríamos es la integrabilidad de\(\frac{\partial f}{\partial y}\), pero la fórmula puede fallar aunque\(\frac{\partial f}{\partial y}\) sea integrable para todos\(y\).

    Demostremos una versión sencilla, pero la más útil de este teorema.

    Supongamos que\(f \colon [a,b] \times [c,d] \to {\mathbb{R}}\) es una función continua, tal que\(\frac{\partial f}{\partial y}\) existe para todos\ ((x, y)\ in [a, b] \ times [c, d]\) y es continua. Definir\[g(y) := \int_a^b f(x,y) ~dx .\] Entonces\(g \colon [c,d] \to {\mathbb{R}}\) es diferenciable y\[g'(y) = \int_a^b \frac{\partial f}{\partial y}(x,y) ~dx .\]

    Los requisitos de continuidad para\(f\) y\(\frac{\partial f}{\partial y}\) pueden debilitarse, pero no bajarse de plano. El punto principal es\(\frac{\partial f}{\partial y}\) que exista y sea continuo por un pequeño intervalo en la\(y\) dirección. En aplicaciones, el\([c,d]\) puede ser un pequeño intervalo alrededor del punto donde se necesita diferenciar.

    Arreglar\(y \in [c,d]\) y dejar que\(\epsilon > 0\) se le dé. Como\(\frac{\partial f}{\partial y}\) es continuo en\([a,b] \times [c,d]\) él es uniformemente continuo. En particular, existe\(\delta > 0\) tal que siempre que\(y_1 \in [c,d]\) con\(\left\lvert {y_1-y} \right\rvert < \delta\) y todos\(x \in [a,b]\) tenemos\[\left\lvert {\frac{\partial f}{\partial y}(x,y_1)-\frac{\partial f}{\partial y}(x,y)} \right\rvert < \epsilon .\]

    Supongamos que\(h\) es tal que\(y+h \in [c,d]\) y\(\left\lvert {h} \right\rvert < \delta\). Fijar\(x\) por un momento y aplicar el teorema del valor medio para encontrar un\(y_1\) entre\(y\) y\(y+h\) tal que\ [\ frac {f (x, y+h) -f (x, y)} {h} = \ frac {\ parcial f} {\ parcial y} (x, y_1).\] Si\(\left\lvert {h} \right\rvert < \delta\), entonces\ [\ left\ lvert { \ frac {f (x, y+h) -f (x, y, y)} {h} - \ frac {\ parcial f} {\ parcial y} (x, y) }\ derecha\ rvert = \ izquierda\ lvert { \ frac {\ parcial f} {\ parcial y} (x, y_1) - \ frac {\ parcial f} {\ parcial y} (x, y) }\ derecha\ rvert <\ épsilon.\] Este argumento funcionó para cada\(x \in [a,b]\). Por lo tanto, en función de\(x\)\ [x\ mapsto\ frac {f (x, y+h) -f (x, y)} {h} \ qquad \ text {converge uniformemente a} \ qquad x\ mapsto\ frac {\ parcial f} {\ parcial y} (x, y) \ qquad \ text {como $h\ a 0$}.\] Solo definimos convergencia uniforme para secuencias aunque la idea es la misma. Si lo deseas puedes reemplazar\(h\)\(\nicefrac{1}{n}\) por arriba y dejar\(n \to \infty\).

    Ahora considera el cociente de diferencia\ [\ frac {g (y+h) -g (y)} {h} = \ frac {\ int_a^b f (x, y+h) ~dx - \ int_a^b f (x, y) ~dx} {h} = \ int_a^b\ frac {f (x, y+h) -f (x, y)} {h} ~dx.\] La convergencia uniforme se puede tomar debajo de la integral y por lo tanto\ [\ lim_ {h\ a 0} \ frac {g (y+h) -g (y)} {h} = \ int_a^ b \ lim_ {h\ a 0} \ frac {f (x, y+h) -f (x, y)} {h} ~dx = \ int_a^b \ frac {\ parcial f} {\ parcial y} (x, y) ~dx. \ qedhere\]

    Vamos\[f(y) = \int_0^1 \sin(x^2-y^2) ~dx .\] Entonces\[f'(y) = \int_0^1 -2y\cos(x^2-y^2) ~dx .\]

    Supongamos que comenzamos con\[\int_0^{1} \frac{x-1}{\ln(x)} ~dx .\] La función bajo la integral se extiende para ser continua en\([0,1]\), y de ahí la integral existe, ver ejercicio a continuación. El problema es encontrarlo. Introducir un parámetro\(y\) y definir una función:\[g(y) := \int_0^{1} \frac{x^y-1}{\ln(x)} ~dx .\] La función\(\frac{x^y-1}{\ln(x)}\) también se extiende a una función continua de\(x\) y\(y\) para\((x,y) \in [0,1] \times [0,1]\). Por lo tanto\(g\) es una función continua de on\([0,1]\). En particular,\(g(0) = 0\). Para cualquiera\(\epsilon > 0\), la\(y\) derivada del integrando\(x^y\), es continua en\([0,1] \times [\epsilon,1]\). Por lo tanto, pues\(y >0\) podemos diferenciar bajo el signo integral\ [g' (y) = \ int_0^ {1}\ frac {\ ln (x) x^y} {\ ln (x)} ~dx = \ int_0^ {1} x^y ~dx = \ frac {1} {y+1}.\] Necesitamos averiguar\(g(1)\), conocer\(g'(y) = \frac{1}{y+1}\) y\ (g (0) = 0\). Por cálculo elemental nos encontramos\(g(1) = \int_0^1 g'(y)~dy = \ln(2)\). Por lo tanto\[\int_0^{1} \frac{x-1}{\ln(x)} ~dx = \ln(2).\]

    Demostrar las dos afirmaciones que se hicieron valer en el ejemplo.
    a) Probar\(\frac{x-1}{\ln(x)}\) se extiende a una función continua de\([0,1]\).
    b) Demostrar\(\frac{x^y-1}{\ln(x)}\) se extiende para ser una función continua en\([0,1] \times [0,1]\).

    Ejercicios

    Supongamos que\(h \colon {\mathbb{R}}\to {\mathbb{R}}\) es una función continua. Supongamos que \ (g\ colon {\ mathbb {R}}\ to {\ mathbb {R}}\) es el cual es continuamente diferenciable y soportado de forma compacta. Eso es que existe alguna\(M > 0\) tal que\(g(x) = 0\) siempre que\(\left\lvert {x} \right\rvert \geq M\). Definir\[f(x) := \int_{-\infty}^\infty h(y)g(x-y)~dy .\] Espectáculo que\(f\) sea diferenciable.

    Supongamos que\(f \colon {\mathbb{R}}\to {\mathbb{R}}\) es una función infinitamente diferenciable (existen todas las derivadas) tal que\(f(0) = 0\). Entonces mostrar que existe otra función infinitamente diferenciable\(g(x)\) tal que\(f(x) = xg(x)\). Por último mostrar que si\(f'(0) \not= 0\), entonces\(g(0) \not= 0\). Pista: primero escribe\(f(x) = \int_0^x f'(s) ds\) y luego reescribe la integral para pasar de\(0\) a 1.

    \(\int_0^1 e^{tx} ~dx\)Cómpiate. Derivar la fórmula para\(\int_0^1 x^n e^{x} ~dx\) no usar integración por partes, sino por diferenciación debajo de la integral.

    Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto y supongamos que\(f(x,y_1,y_2,\ldots,y_n)\) es una función continua definida en\([0,1] \times U \subset {\mathbb{R}}^{n+1}\). Supongamos que\ (\ frac {\ parcial f} {\ parcial y_1}, \ frac {\ parcial f} {\ parcial y_2},\ ldots, \ frac {\ parcial f} {\ parcial y_n}\) existen y son continuos en\([0,1] \times U\). Entonces prueba que\(F \colon U \to {\mathbb{R}}\) definido por\ [F (y_1, y_2,\ ldots, y_n) := \ int_0^1 f (x, y_1, y_2,\ ldots, y_n) \, dx\] es continuamente diferenciable.

    Elaborar el siguiente contraejemplo: Let\ [f (x, y) := \ begin {cases} \ frac {xy^3} {{(x^2+y^2)} ^2} &\ text {if $x\ not=0$ o $y\ not= 0$,}\\ 0 &\ text {if $x=0$ y $y=0$.} \ end {cases}\] a) Demostrar que para cualquier fijo\(y\) la función\(x \mapsto f(x,y)\) es Riemann integrable on\([0,1]\) y\[g(y) = \int_0^1 f(x,y) \, dx = \frac{y}{2y^2+2} .\] Por lo tanto\(g'(y)\) existe y obtenemos la función continua\[g'(y) = \frac{1-y^2}{2{(y^2+1)}^2} .\] b) Demostrar\(\frac{\partial f}{\partial y}\) existe en absoluto\(x\) y\(y\) y computarla.
    c) Demostrar que para todos\(y\)\[\int_0^1 \frac{\partial f}{\partial y} (x,y) \, dx\] existe pero\[g'(0) \not= \int_0^1 \frac{\partial f}{\partial y} (x,0) \, dx .\]

    Elaborar el siguiente contraejemplo: Let\ [f (x, y) := \ begin {cases} xy^2\ sin\ bigl (\ frac {1} {x^3y}\ bigr) &\ text {if $x\ not=0$ y $y\ not= 0$,}\\ 0 &\ text {if $x=0$ o $y=0$.} \ end {cases}\] a)\(f\) La prueba es continua en\([0,1] \times [a,b]\) cualquier intervalo\([a,b]\). Por lo tanto la siguiente función está bien definida en\([a,b]\)\[g(y) = \int_0^1 f(x,y) \, dx .\] b) Probar\(\frac{\partial f}{\partial y}\) existe para todos\((x,y)\) en\([0,1] \times [a,b]\), pero no es continua.
    c) Demostrar que\(\int_0^1 \frac{\partial f}{\partial y}(x,y) \, dx\) no existe si\(y \not= 0\) aunque tomemos integrales inadecuadas.

    Integrales de ruta

    Nota: 2—3 conferencias

    Trayectorias lisas por piezas

    Una función continuamente diferenciable\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) se denomina trayectoria suave o trayectoria continuamente diferenciable 4 si\(\gamma\) es continuamente diferenciable y\(\gamma^{\:\prime}(t) \not= 0\) para todos\(t \in [a,b]\).

    La función\(\gamma\) se denomina trayectoria lisa por tramos o trayectoria continuamente diferenciable por tramos si existen finitamente muchos puntos de\(t_0 = a < t_1 < t_2 < \cdots < t_k = b\) tal manera que la restricción de la función\(\gamma|_{[t_{j-1},t_j]}\) es trayectoria suave.

    Decimos que\(\gamma\) es un camino simple si\(\gamma|_{(a,b)}\) es una función uno a uno. A\(\gamma\) es un camino cerrado si\(\gamma(a) = \gamma(b)\), es decir si el camino comienza y termina en el mismo punto.

    Ya que\(\gamma\) es una función de una variable, hemos visto antes que tratar\(\gamma^{\:\prime}(t)\) como una matriz equivale a tratarla como un vector ya que es una\(n \times 1\) matriz, es decir, un vector de columna. De hecho, por un ejercicio anterior, incluso la norma operadora de\(\gamma^{\:\prime}(t)\) es igual a la norma euclidiana. Por lo tanto, vamos a escribir\(\gamma^{\:\prime}(t)\) como vector como es habitual, y entonces\(\gamma^{\:\prime}(t)\) es solo el vector de las derivadas de sus componentes, así que si\ (\ gamma (t) = \ bigl (\ gamma_1 (t),\ gamma_2 (t),\ ldots,\ gamma_n (t)\ bigr)\), entonces\ (\ gamma^ {\:\ prime} (t) = bigl (\ gamma_1^ {\:\ prime} (t),\ gamma_2^ {\:\ prime} (t) ,\ ldots, \ gamma_n^ {\:\ prime} (t)\ bigr)\).

    A menudo, uno puede arreglárselas solo con rutas suaves, pero para los cálculos, las rutas más simples para escribir suelen ser suaves por partes. Tenga en cuenta que una función suave por partes (o ruta) es automáticamente continua (ejercicio).

    Generalmente, es la imagen directa la\(\gamma\bigl([a,b]\bigr)\) que es lo que nos interesa, aunque también\(\gamma\) es importante hasta cierto punto cómo la parametrizamos con. Hablamos informalmente de una curva, y muchas veces nos referimos realmente al conjunto\(\gamma\bigl([a,b]\bigr)\), igual que antes dependiendo del contexto.

    [mv:ejemplo:unitsquarepath] Dejar\(\gamma \colon [0,4] \to {\mathbb{R}}^2\) ser definido por\ [\ gamma (t) := \ begin {cases} (t,0) &\ text {if $t\ in [0,1] $,}\\ (1, t-1) &\ text {if $t\ in (1,2] $,}\\ (3-t,1) &\ text {si $t\ in (2,3] $,}\\ (0,4-t) &\ texto {si $t\ in (3,4] $.} \ end {cases}\] Entonces el lector puede comprobar que la ruta es la unidad cuadrada atravesada en sentido antihorario. Podemos comprobarlo por ejemplo\(\gamma|_{[1,2]}(t) = (1,t-1)\) y por lo tanto\((\gamma|_{[1,2]})'(t) = (0,1) \not= 0\). Es bueno notar en este punto que\((\gamma|_{[1,2]})'(1) = (0,1)\),\((\gamma|_{[0,1]})'(1) = (1,0)\), y\(\gamma^{\:\prime}(1)\) no existe. Es decir, en las esquinas por supuesto no\(\gamma\) es diferenciable, a pesar de que las restricciones son diferenciables y la derivada depende de qué restricción tomes.

    La condición que\(\gamma^{\:\prime}(t) \not= 0\) significa que la imagen de no\(\gamma\) tiene “esquinas” donde\(\gamma\) es continuamente diferenciable. Por ejemplo, tome la función\ [\ gamma (t) := \ begin {cases} (t^2,0) &\ text {if $t < 0$,}\\ (0, t^2) &\ text {if $t\ geq 0$.} \ end {cases}\] Se deja que el lector compruebe que\(\gamma\) es continuamente diferenciable, sin embargo la imagen\ (\ gamma ({\ mathbb {R}}) =\ {(x, y)\ in {\ mathbb {R}} ^2: (x, y) = (s,0)\ text {o} (x, y) = (0, s)\ text {para algunos\ s 0\(} \}\) tiene una “esquina” en el origen. Y eso es porque\(\gamma^{\:\prime}(0) = (0,0)\). Existen ejemplos más complicados con incluso infinitamente muchos rincones, ver los ejercicios.

    La condición de que\(\gamma^{\:\prime}(t) \not= 0\) incluso en los puntos finales garantice no solo que no haya esquinas, sino que también que el camino termine bien, es decir, pueda extenderse un poco más allá de los puntos finales. Nuevamente, vea los ejercicios.

    Un gráfico de una función continuamente diferenciable\(f \colon [a,b] \to {\mathbb{R}}\) es un camino suave. Es decir, definir\(\gamma \colon [a,b] \to {\mathbb{R}}^2\) por\[\gamma(t) := \bigl(t,f(t)\bigr) .\] Entonces\(\gamma^{\:\prime}(t) = \bigl( 1 , f'(t) \bigr)\), que nunca es cero.

    Hay otras formas de parametrizar el camino. Es decir, tener un camino diferente con la misma imagen. Por ejemplo, la función que lleva\(t\) a\((1-t)a+tb\), toma el intervalo\([0,1]\) a\([a,b]\). Así que\(\alpha \colon [0,1] \to {\mathbb{R}}^2\) déjese definir por\[\alpha(t) := \bigl((1-t)a+tb,f((1-t)a+tb)\bigr) .\] Entonces\(\alpha'(t) = \bigl( b-a , (b-a)f'((1-t)a+tb) \bigr)\), que nunca es cero. Además como conjuntos\ (\ alpha\ bigl ([0,1]\ bigr) =\ gamma\ bigl ([a, b]\ bigr) =\ {(x, y)\ in {\ mathbb {R}} ^2: x\ in [a, b]\ text {y} f (x) = y\}\), que es solo la gráfica de\(f\).

    El último ejemplo nos lleva a una definición.

    Dejar\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) ser un camino suave y\(h \colon [c,d] \to [a,b]\) una función biyectiva continuamente diferenciable tal que\(h'(t) \not= 0\) para todos\(t \in [c,d]\). Entonces la composición\(\gamma \circ h\) se llama una reparametrización suave de\(\gamma\).

    Dejar\(\gamma\) ser un camino liso por partes, y\(h\) ser una función biyectiva lisa por partes. Entonces la composición\(\gamma \circ h\) se llama una reparametrización suave por partes de\(\gamma\).

    Si\(h\) es estrictamente creciente, entonces\(h\) se dice que preserva la orientación. Si\(h\) no conserva la orientación, entonces\(h\) se dice que invierte la orientación.

    Una reparametrización es otro camino para el mismo conjunto. Es decir,\ (\ gamma\ circ h)\ bigl ([c, d]\ bigr) = \ gamma\ bigl ([a, b]\ bigr)\).

    Comentemos que para\(h\), poco a poco suave significa que hay alguna partición\(t_0 = c < t_1 < t_2 < \cdots < t_k = d\), tal que\(h|_{[t_{j-1},t_j]}\) es continuamente diferenciable y\((h|_{[t_{j-1},t_j]})'(t) \not= 0\) para todos\(t \in [t_{j-1},t_j]\). Dado que\(h\) es biyectiva, o bien es estrictamente creciente o estrictamente decreciente. Por lo tanto, ya sea\((h|_{[t_{j-1},t_j]})'(t) > 0\) para todos\(t\) o\((h|_{[t_{j-1},t_j]})'(t) < 0\) para todos\(t\).

    [prop:reparamapiecewisesmooth] Si\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) es un camino liso por partes, y\(\gamma \circ h \colon [c,d] \to {\mathbb{R}}^n\) es una reparametrización suave por partes, entonces\(\gamma \circ h\) es un camino liso por partes.

    Supongamos que\(h\) conserva la orientación, es decir,\(h\) es estrictamente creciente. Si\(h \colon [c,d] \to [a,b]\) da una reparametrización suave por partes, entonces para alguna partición\(r_0 = c < r_1 < r_2 < \cdots < r_\ell = d\), tenemos\(h|_{[t_{j-1},t_j]}\) es continuamente diferenciable con derivado positivo.

    Dejar\(t_0 = a < t_1 < t_2 < \cdots < t_k = b\) ser la partición a partir de la definición de pieza lisa para\(\gamma\) junto con los puntos\(\{ h(r_0), h(r_1), h(r_2), \ldots, h(r_\ell) \}\). Vamos\(s_j := h^{-1}(t_j)\). Entonces\(s_0 = c < s_1 < s_2 < \cdots < s_k = d\). Para\(t \in [s_{j-1},s_j]\) advertir que\(h(t) \in [t_{j-1},t_j]\),\(h|_{[s_{j-1},s_j]}\) es continuamente diferenciable, y también\(\varphi|_{[t_{j-1},t_j]}\) es continuamente diferenciable. Entonces\ [(\ gamma\ circ h) |_ {[s_ {j-1}, s_ {j}]} (t) = \ gamma|_ {[t_ {j-1}, t_ {j}]}\ bigl (h|_ {[s_ {j-1}, s_j]} (t)\ bigr).\] La función\((\gamma \circ h)|_{[s_{j-1},s_{j}]}\) es, por lo tanto, continuamente diferenciable y por el regla de cadena\ [\ bigl ((\ gamma\ circ h) |_ {[s_ {j-1}, s_ {j}]}\ bigr) '(t) = \ bigl (\ gamma|_ {[t_ {j-1}, t_ {j}]}\ bigr) '\ bigl (h (t)\ bigr) (h|_ {[s_ {j-1}, s_j]})' (t)\ not= 0.\] Por lo tanto\(\gamma \circ h\) es un camino liso por partes. El caso de una marcha atrás de orientación\(h\) se deja como ejercicio.

    Si dos caminos son simples y sus imágenes son iguales, se deja como ejercicio que existe una reparametrización.

    Trayectoria integral de una sola forma

    Si\((x_1,x_2,\ldots,x_n) \in {\mathbb{R}}^n\) son nuestras coordenadas, y dadas las funciones continuas de\(n\) valor real\(f_1,f_2,\ldots,f_n\) definidas en algún conjunto\(S \subset {\mathbb{R}}^n\) definimos una llamada de una forma:\[\omega = \omega_1 dx_1 + \omega_2 dx_2 + \cdots \omega_n dx_n .\] Podríamos representar\(\omega\) como una función continua de\(S\) a\({\mathbb{R}}^n\), aunque es mejor pensar de ella como un objeto diferente.

    Por ejemplo,\[\omega(x,y) = \frac{-y}{x^2+y^2} dx + \frac{x}{x^2+y^2} dy\] es una forma única definida en\({\mathbb{R}}^2 \setminus \{ (0,0) \}\).

    Dejar\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) ser un trazado suave y\[\omega = \omega_1 dx_1 + \omega_2 dx_2 + \cdots \omega_n dx_n ,\] una forma única definida en la imagen directa\(\gamma\bigl([a,b]\bigr)\). \(\gamma = (\gamma_1,\gamma_2,\ldots,\gamma_n)\)Dejen ser los componentes de\(\gamma\). Definir:\ [\ begin {split} \ int_ {\ gamma}\ omega &: = \ int_a^b \ Bigl ( \ omega_1\ bigl (\ gamma (t)\ bigr)\ gamma_1^ {\:\ prime} (t) + \ omega_2\ bigl (\ gamma (t)\ bigr)\ gamma_2^ {\: prime\} (t) +\ cdots + \ omega_n\ bigl (\ gamma (t)\ bigr)\ gamma_n^ {\:\ prime} (t)\ Bigr)\, dt \\ &\ fantasma {:} = \ int_a^b \ izquierda ( \ suma_ {j=1} ^n \ omega_j\ bigl (\ gamma (t)\ bigr)\ gamma_j^ {\:\ prime} (t)\ derecha)\, dt. \ end {split}\] Si\(\gamma\) es por partes suave, tomar la partición correspondiente\(t_0 = a < t_1 < t_2 < \ldots < t_k = b\), donde asumimos que la partición es la mínima, es decir no\(\gamma\) es diferenciable en\(t_2,t_3,\ldots,t_{k-1}\). Cada uno\(\gamma|_{[t_{j-1},t_j]}\) es un camino suave y definimos\ [\ int_ {\ gamma}\ omega : = \ int_ {\ gamma|_ {[t_0, t_1]}} \ omega\, + \,\ int_ {\ gamma|_ {[t_1, t_2]}} \ omega\, +\ cdots\, +\, \ int_ {\ gamma|_ {[t_ {n-1}, t_n]}}\ omega.\]

    La notación tiene sentido a partir de la fórmula que recuerdas del cálculo, vamos a expresarla de manera algo informal: si\(x_j(t) = \gamma_j(t)\), entonces\(dx_j = \gamma_j^{\:\prime}(t) dt\).

    Los caminos se pueden cortar o concatenar de la siguiente manera. La prueba es una aplicación directa de la aditividad de la integral Riemann, y se deja como ejercicio. La proposición también justifica por qué definimos la integral sobre un camino suave por partes en la forma en que lo hicimos, y justifica además que bien podríamos haber tomado cualquier partición, no solo la mínima en la definición.

    [mv:prop:pathconcat] Dejar\(\gamma \colon [a,c] \to {\mathbb{R}}^n\) ser un camino liso por partes. Para algunos\(b \in (a,c)\), defina los caminos lisos por tramos\(\alpha = \gamma|_{[a,b]}\) y\(\beta = \gamma|_{[b,c]}\). Para una forma única\(\omega\) definida en la imagen de\(\gamma\) tenemos\ [\ int_ {\ gamma}\ omega = \ int_ {\ alpha}\ omega + \ int_ {\ beta}\ omega.\]

    [example:mv:irrotoneformint] Que la forma única\(\omega\) y la ruta\(\gamma \colon [0,2\pi] \to {\mathbb{R}}^2\) sean definidas por\ [\ omega (x, y) :=\ frac {-y} {x^2+y^2} dx +\ frac {x} {x^2+y^2} dy, \ qquad \ gamma (t) :=\ bigl (\ cos (t),\ sin (t)\ bigr).\] Entonces\ [\ begin {split} \ int_ {\ gamma}\ omega & = \ int_0^ {2\ pi} \ Biggl ( \ frac {-\ sin (t)} {{\ bigl (\ cos (t)\ bigr)} ^2+ {\ bigl (\ sin (t)\ bigr)} ^2} \ bigl (-\ sin (t)\ bigr) + \ frac {\ cos (t)} {{\ bigl (\ cos (t)\ bigr)} ^2+ {\ bigl (\ sin (t)\ bigr)} ^2} \ bigl (\ cos (t)\ bigr)\ Biggr) \ Biggr)\, dt \\ & = \ int_0^ {2\ pi} 1\, dt = 2\ pi. \ end {split}\] A continuación, vamos a parametrizar la misma curva\(\alpha \colon [0,1] \to {\mathbb{R}}^2\) definida por\ (\ alpha (t) :=\ bigl (\ cos (2\ pi t),\ sin (2\ pi t)\ bigr)\),\(\alpha\) es decir una reparametrización suave de\(\gamma\). Entonces\ [\ begin {split} \ int_ {\ alpha}\ omega & = \ int_0^ {1} \ Biggl ( \ frac {-\ sin (2\ pi t)} {{\ bigl (\ cos (2\ pi t)\ bigr)} ^2+ {\ bigl (\ sin (2\ pi t)\ bigr)} ^2} \ bigl (-2\ pi\ sin (2\ pi t)\ bigr) \\ &\ fantasma {=\ int_0^1\ Biggl (~} + \ frac {\ cos (2\ pi t)} {{\ bigl (\ cos (2\ pi t)\ bigr)} ^2+ {\ bigl (\ sin (2\ pi t)\ bigr)} ^2} \ bigl (2\ pi\ cos (2\ pi t)\ bigr) \ Biggr)\, dt \\ & = \ int_0^ {1} 2\ pi\, dt = 2\ pi. \ end {split}\] Ahora vamos a reparametrizar con\(\beta \colon [0,2\pi] \to {\mathbb{R}}^2\) as\(\beta(t) := \bigl(\cos(-t),\sin(-t)\bigr)\). Entonces\ [\ begin {split} \ int_ {\ beta}\ omega & = \ int_0^ {2\ pi} \ Biggl ( \ frac {-\ sin (-t)} {{\ bigl (\ cos (-t)\ bigr)} ^2+ {\ bigl (\ sin (-t)\ bigr)} ^2} \ bigl (\ sin (-t)\ bigr) + \ frac {\ cos (-t)} {{\ bigl (\ cos (-t)\ bigr)} ^2+ {\ bigl (\ sin (-t)\ bigr)} ^2} \ bigl (-\ cos (-t)\ bigr)\ Biggr) \ Biggr)\, dt \\ & = \ int_0^ {2\ pi} (-1)\, dt = -2\ pi. \ end {split}\] Ahora,\(\alpha\) era una orientación preservando la reparametrización de\(\gamma\), y la integral era la misma. Por otro lado\(\beta\) es una orientación que invierte la reparametrización y la integral fue menos la original.

    El ejemplo anterior no es una suerte. La integral de trayectoria no depende de la parametrización de la curva, lo único que importa es la dirección en la que se recorre la curva.

    [mv:prop:pathintrepararam] Dejar\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) ser un camino liso por partes y\(\gamma \circ h \colon [c,d] \to {\mathbb{R}}^n\) una reparametrización suave por partes. Supongamos que\(\omega\) es una forma definida en el conjunto\(\gamma\bigl([a,b]\bigr)\). Entonces\ [\ int_ {\ gamma\ circ h}\ omega = \ begin {cases} \ int_ {\ gamma}\ omega &\ text {si $h$ conserva la orientación,}\\ -\ int_ {\ gamma}\ omega &\ text {si $h$ invierte la orientación.} \ end {casos}\]

    Asumir primero eso\(\gamma\) y ambos\(h\) son suaves. Escribe la forma única como\ (\ omega =\ omega_1 dx_1 +\ omega_2 dx_2 +\ cdots + \ omega_n dx_n\). Supongamos primero que\(h\) es conservar la orientación. Usando la definición de la integral path y la fórmula de cambio de variables para la integral Riemann,\ [\ begin {split} \ int_ {\ gamma}\ omega & = \ int_a^b \ left ( \ sum_ {j=1} ^n \ omega_j\ bigl (\ gamma (t)\ bigr)\ gamma_j^ {\:\ prime} (t) \ right)\, dt %\ left ( %\ omega_1\ bigl (\ gamma (t) \ bigr)\ gamma_1^ {\:\ prime} (t) + %\ omega_2\ bigl (\ gamma (t)\ bigr)\ gamma_2^ {\:\ prime} (t) +\ cdots + %\ omega_n\ bigl (\ gamma (t)\ bigr)\ gamma_n^ {\:\ prime} (t)\ derecha)\, dt \\ & = \ int_c^d \ izquierda ( \ suma_ {j=1} ^n \ omega_j\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr)\ gamma_j^ {\:\ prime}\ bigl (h (\ tau)\ bigr) \ derecha) h' (\ tau)\, d\ tau %\ izquierda ( %\ omega_1\ bigl (\ gamma (h (\ tau))\ bigr)\ gamma_1^ {\:\ prime} (h (\ tau)) + %\ omega_2\ bigl (\ gamma (h (\ tau))\ bigr)\ gamma_2^ {\:\ prime} (h (\ tau)) +\ cdots + %\ omega_n\ bigl (\ gamma (h (\ tau))\ bigr)\ gamma_n^ {\:\ prime} (h (\ tau))\ derecha) h' (\ tau)\, d\ tau \\ & = \ int_c^d \ izquierda ( \ suma_ {j=1} ^n \ omega_j\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr) (\ gamma_j\ circ h) '(\ tau) \ derecha)\, d\ tau %\ izquierda ( %\ omega_1\ bigl (\ gamma (h (\ tau)\ bigr) (\ gamma_1\ circ h)' (\ tau) + %\ omega_2\ bigl (\ gamma (h (\ tau))\ bigr) (\ gamma_2\ circ h) '(\ tau) +\ cdots + %\ omega_n\ bigl (\ gamma (h (\ tau))\ bigr) (\ gamma_n\ circ h) '(\ tau)\ derecha)\, d\ tau %\ %& = = \ int_ {\ gamma\ circ h}\ omega. \ end {split}\] Si\(h\) se invierte la orientación cambiará el orden de los límites en la integral introduciendo un signo menos. Los detalles, junto con el acabado de la prueba para caminos lisos por piezas se deja al lector como.

    Debido a esta proposición (y a los ejercicios), si tenemos un conjunto\ (\ Gamma \ subconjunto {\ mathbb {R}} ^n\) esa es la imagen de un camino sencillo y liso por tramos\(\gamma\bigl([a,b]\bigr)\), entonces si de alguna manera indicamos la orientación, es decir, en qué dirección atravesamos la curva, en otras palabras dónde empezamos y dónde terminamos. Entonces solo escribimos\[\int_{\Gamma} \omega ,\] sin mencionar lo específico\(\gamma\). Además, para un simple camino cerrado, ni siquiera importa dónde iniciemos la parametrización. Ver los ejercicios.

    Recordemos que simple significa que\(\gamma\) restringido a\((a,b)\) es uno a uno, es decir, es uno a uno excepto quizás en los puntos finales. También a menudo relajamos un poco la condición de camino simple. Por ejemplo, siempre y cuando\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) sea uno a uno excepto en finitamente muchos puntos. Es decir, sólo hay finitamente muchos puntos\(p \in {\mathbb{R}}^n\) tal que\(\gamma^{-1}(p)\) es más de un punto. Ver los ejercicios. El tema sobre el problema de la inyectividad se ilustra con el siguiente ejemplo.

    Supongamos que\(\gamma \colon [0,2\pi] \to {\mathbb{R}}^2\) viene dado por\ (\ gamma (t) := \ bigl (\ cos (t),\ sin (t)\ bigr)\) y\(\beta \colon [0,2\pi] \to {\mathbb{R}}^2\) está dado por\ (\ beta (t) := \ bigl (\ cos (2t),\ sin (2t)\ bigr)\). Observe que\(\gamma\bigl([0,2\pi]\bigr) = \beta\bigl([0,2\pi]\bigr)\), y viajamos alrededor de la misma curva, el círculo unitario. Pero\(\gamma\) va alrededor del círculo de la unidad una vez en el sentido contrario a las agujas del reloj, y\(\beta\) va alrededor del círculo de la unidad dos veces (en la misma dirección). Entonces\ [\ comenzar {alineado} &\ int_ {\ gamma} -y\, dx + x\, dy = \ int_0^ {2\ pi} \ bigl (\ bigl (-\ sin (t)\ bigr)\ bigl (-\ sin (t)\ bigr) +\ cos (t)\ cos (t)\ Bigr) dt = 2\ pi,\ &\ int_ {\ beta} -y\, dx + x\, dy = \ int_0^ {2\ pi} \ bigl (\ bigl (-\ sin (2t)\ bigr)\ bigl (-2\ sin (2t)\ bigr) +\ cos (t) \ bigl (2\ cos (t)\ bigr)\ Bigr) dt = 4\ pi. \ end {alineado}\]

    A veces es conveniente definir una integral de ruta sobre\ (\ gamma\ colon [a, b]\ a {\ mathbb {R}} ^n\) que no es una ruta. Definimos\ [\ int_ {\ gamma}\ omega: =\ int_a^b \ left ( \ sum_ {j=1} ^n \ omega_j\ bigl (\ gamma (t)\ bigr)\ gamma_j^ {\:\ prime} (t) \ right)\, dt\] para cualquiera\(\gamma\) que sea continuamente diferenciable. Un caso que surge naturalmente es cuando\(\gamma\) es constante. En este caso\(\gamma^{\:\prime}(t) = 0\) para todos\(t\) y\(\gamma\bigl([a,b]\bigr)\) es un punto único, que consideramos como una “curva” de longitud cero. Entonces,\(\int_{\gamma} \omega = 0\).

    Línea integral de una función

    A veces queremos simplemente integrar una función contra la llamada medida de longitud de arco.

    Supongamos que\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) es un camino suave, y\(f\) es una función continua definida en la imagen\(\gamma\bigl([a,b]\bigr)\). Luego define\ [\ int_ {\ gamma} f\, ds: = \ int_a^b f\ bigl (\ gamma (t)\ bigr)\ lVert {\ gamma^ {\:\ prime} (t)}\ rVert\, dt.\]

    La definición de un camino liso por tramos es similar a la anterior y se deja al lector.

    La idea geométrica de esta integral es encontrar el “área bajo la gráfica de una función” a medida que nos movemos por el camino\(\gamma\). La integral lineal de una función también es independiente de la parametrización, y en este caso, la orientación no importa.

    [mv:prop:lineintrepararam] Dejar\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) ser un camino liso por partes y\(\gamma \circ h \colon [c,d] \to {\mathbb{R}}^n\) una reparametrización suave por partes. Supongamos que\(f\) es una función continua definida en el conjunto\(\gamma\bigl([a,b]\bigr)\). Entonces\[\int_{\gamma \circ h} f\, ds = \int_{\gamma} f\, ds .\]

    Supongamos primero que\(h\) es la orientación conservando\(\gamma\) y y\(h\) son ambos lisos. Entonces como antes\ [\ comenzar {dividir} \ int_ {\ gamma} f\, ds & = \ int_a^b f\ bigl (\ gamma (t)\ bigr)\ lVert {\ gamma^ {\:\ prime} (t)}\ rVert\, dt \ & = \ int_c^d f\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr)\ lVert {\ gamma^ {\:\ prime}\ bigl (h (\ tau)\ bigr)}\ rVert h' (\ tau)\, d\ tau \\ & amp; = \ int_c^d f\ Bigl (\ gamma\ bigl (h (\ tau)\ bigr)\ Bigr)\ lVert {\ gamma^ {\:\ prime}\ bigl (h (\ tau)\ bigr) h' (\ tau)}\ rVert\, d \ tau\ & = \ int_c^d f\ bigl ((\ gamma\ circ h) (\ tau)\ bigr)\ lVert {(\ gamma\ circ h) '(\ tau)}\ rVert\, d \ tau\ & = \ int_ {\ gamma\ circ h} f\, ds. \ end {split}\] Si\(h\) es orientación invirtiendo cambiará el orden de los límites en la integral pero también hay que introducir un signo menos para poder tomar\(h'\) dentro de la norma. Los detalles, junto con el acabado de la prueba para caminos lisos por piezas se deja al lector como.

    Del mismo modo que antes, por esta proposición (y los ejercicios), si\(\gamma\) es simple, no importa qué parametrización usemos. Por lo tanto, si\(\Gamma = \gamma\bigl( [a,b] \bigr)\) podemos simplemente escribir\[\int_\Gamma f\, ds .\] En este caso tampoco necesitamos preocuparnos por la orientación, de cualquier manera obtenemos lo mismo.

    Vamos\(f(x,y) = x\). Dejar\(C \subset {\mathbb{R}}^2\) ser la mitad del círculo unitario para\ (x \ geq 0\). Deseamos computar\[\int_C f \, ds .\] Parametrizar la curva\(C\) vía\ (\ gamma\ colon [\ nicefrac {-\ pi} {2},\ nicefrac {\ pi} {2}]\ a {\ mathbb {R}} ^2\) definido como\(\gamma(t) := \bigl(\cos(t),\sin(t)\bigr)\). Entonces\(\gamma^{\:\prime}(t) = \bigl(-\sin(t),\cos(t)\bigr)\), y\ [\ int_c f\, ds = \ int_\ gamma f\, ds = \ int_ {-\ pi/2} ^ {\ pi/2}\ cos (t)\ sqrt {{\ bigl (-\ sin (t)\ bigr)} ^2 + {\ bigl (\ cos (t)\ bigr)} ^2}\, dt = \ int_ {-\ pi/2} ^ {\ pi/2}\ cos (t)\, dt = 2.\]

    Supongamos que\(\Gamma \subset {\mathbb{R}}^n\) está parametrizado por un simple camino liso por piezas\(\gamma \colon [a,b] \to {\mathbb{R}}^n\), es decir\(\gamma\bigl( [a,b] \bigr) = \Gamma\). El definimos la longitud por\ [\ ell (\ Gamma) :=\ int_ {\ Gamma} ds =\ int_ {\ gamma} ds =\ int_a^b \ lVert {\ gamma^ {\:\ prime} (t)}\ rVert\, dt.\]

    Dejar\(x,y \in {\mathbb{R}}^n\) ser dos puntos y escribir\([x,y]\) como el segmento de línea recta entre los dos puntos\(x\) y\(y\). Parametrizamos\([x,y]\) por\(\gamma(t) := (1-t)x + ty\) para\(t\) correr entre\(0\) y\(1\). Encontramos\(\gamma^{\:\prime}(t) = y-x\) y por lo tanto\ [\ ell\ bigl ([x, y]\ bigr) = \ int_ {[x, y]} ds = \ int_0^1\ lVert {y-x}\ rVert\, dt = \ lVert {y-x}\ rVert.\] Entonces la longitud de\([x,y]\) es la distancia entre\(x\) y\(y\) en la métrica euclidiana.

    Se dice que una ruta lisa simple por partes\(\gamma \colon [0,r] \to {\mathbb{R}}^n\) es una parametrización de longitud de arco si\ [\ ell\ bigl (\ gamma\ bigl ([0, t]\ bigr)\ bigr) =\ int_0^t \ lVert {\ gamma^ {\:\ prime} (\ tau)}\ rVert \, d\ tau = t.\] Puedes pensar en tal parametrización como moverse alrededor de su curva a velocidad 1.

    Ejercicios

    Demostrar que si\(\varphi \colon [a,b] \to {\mathbb{R}}^n\) es por partes suave como lo definimos, entonces\(\varphi\) es una función continua.

    Terminar la prueba de reparametrizaciones de inversión de orientación.

    Demostrar.

    [mv:exercise:pathpiece] Terminar la prueba de a) reparametrizaciones de inversión de orientación, y b) caminos suaves y reparametrizaciones por partes.

    [mv:exercise:lineepiece] Terminar la prueba de a) reparametrizaciones de inversión de orientación, y b) caminos lisos y reparametrizaciones por tramos.

    Supongamos que\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) es un camino suave por partes, y\(f\) es una función continua definida en la imagen\(\gamma\bigl([a,b]\bigr)\). Proporcionar una definición de\(\int_{\gamma} f \,ds\).

    Directamente usando las definiciones computa:
    a) la longitud del arco de la unidad cuadrada a partir del uso de la parametrización dada.
    b) la longitud del arco del círculo unitario utilizando la parametrización\(\gamma \colon [0,1] \to {\mathbb{R}}^2\),\(\gamma(t) := \bigl(\cos(2\pi t),\sin(2\pi t)\bigr)\).
    c) la longitud del arco del círculo unitario utilizando la parametrización\(\beta \colon [0,2\pi] \to {\mathbb{R}}^2\),\(\beta(t) := \bigl(\cos(t),\sin(t)\bigr)\).

    Supongamos que\(\gamma \colon [0,1] \to {\mathbb{R}}^n\) es una trayectoria suave, y\(\omega\) es una forma única definida en la imagen\(\gamma\bigl([a,b]\bigr)\). Para\(r \in [0,1]\),\(\gamma_r \colon [0,r] \to {\mathbb{R}}^n\) déjese definir como simplemente la restricción de\(\gamma\) a\([0,r]\). Demostrar que la función\(h(r) := \int_{\gamma_r} \omega\) es una función continuamente diferenciable en\([0,1]\).

    Supongamos que\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) es un camino suave. Mostrar que existe una\(\epsilon > 0\) y una función suave\(\tilde{\gamma} \colon (a-\epsilon,b+\epsilon) \to {\mathbb{R}}^n\) con\(\tilde{\gamma}(t) = \gamma(t)\) para todos\(t \in [a,b]\) y\(\tilde{\gamma}'(t) \not= 0\) para todos\ (t\ in (a-\ épsilon, b+\ épsilon)\). Es decir, demostrar que un camino suave se extiende una pequeña distancia más allá de los puntos finales.

    Supongamos\(\alpha \colon [a,b] \to {\mathbb{R}}^n\) y\(\beta \colon [c,d] \to {\mathbb{R}}^n\) son caminos lisos por tramos de tal manera que\(\Gamma := \alpha\bigl([a,b]\bigr) = \beta\bigl([c,d]\bigr)\). Mostrar que existen finitamente muchos puntos\(\{ p_1,p_2,\ldots,p_k\} \in \Gamma\), tal que los conjuntos\(\alpha^{-1}\bigl( \{ p_1,p_2,\ldots,p_k\} \bigr)\) y\(\beta^{-1}\bigl( \{ p_1,p_2,\ldots,p_k\} \bigr)\) son particiones de\([a,b]\) y\([c,d]\), tal que en cualquier subintervalo los caminos son suaves (es decir, son particiones como en la definición de camino liso por tramos).

    a) Supongamos\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) y\(\alpha \colon [c,d] \to {\mathbb{R}}^n\) son dos caminos lisos que son uno a uno y\(\gamma\bigl([a,b]\bigr) = \alpha\bigl([c,d]\bigr)\). Entonces existe una reparametrización suave\(h \colon [a,b] \to [c,d]\) tal que\(\gamma = \alpha \circ h\). Pista: No debería ser difícil encontrar algunos\(h\). El truco es demostrar que es continuamente diferenciable con un derivado que no se desvanece. Querrás aplicar el teorema de la función implícita y puede parecer que al principio las dimensiones no parecen funcionar.
    b) Demostrar lo mismo como parte a, pero ahora para caminos simples cerrados con la suposición adicional de que\(\gamma(a) = \gamma(b) = \alpha(c) = \alpha(d)\).
    c) Proprobar las partes a) y b) pero para caminos lisos por tramos, obteniendo reparametrizaciones lisas por tramos. Pista: El truco es encontrar dos particiones de manera que cuando se restringen a un subintervalo de la partición ambas rutas tengan la misma imagen y sean suaves, vea el ejercicio anterior.

    Supongamos\(\alpha \colon [a,b] \to {\mathbb{R}}^n\) y\(\beta \colon [b,c] \to {\mathbb{R}}^n\) son caminos lisos por tramos con\(\alpha(b)=\beta(b)\). \(\gamma \colon [a,c] \to {\mathbb{R}}^n\)Sea definido por\ [\ gamma (t) := \ begin {cases} \ alpha (t) &\ text {if $t\ in [a, b] $,}\ \ beta (t) &\ text {if $t\ in (b, c] $.} \ end {cases}\] Mostrar que\(\gamma\) es un camino liso por partes, y que si\(\omega\) es una forma única definida en la curva dada por\(\gamma\), entonces\ [\ int_ {\ gamma}\ omega = \ int_ {\ alpha}\ omega + \ int_ {\ beta}\ omega.\]

    [mv:ejercicio:cerradocurveintegral] Supongamos\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) y\(\beta \colon [c,d] \to {\mathbb{R}}^n\) son dos simples caminos cerrados lisos por tramos. Eso es\(\gamma(a)=\gamma(b)\) y\(\beta(c) = \beta(d)\) y las restricciones\(\gamma|_{(a,b)}\) y\(\beta|_{(c,d)}\) son uno a uno. Supongamos\(\Gamma = \gamma\bigl([a,b]\bigr) = \beta\bigl([c,d]\bigr)\) y\(\omega\) es una forma única definida en\(\Gamma \subset {\mathbb{R}}^n\). Mostrar que o bien\ [\ int_\ gamma\ omega = \ int_\ beta\ omega, \ qquad\ text {o}\ qquad \ int_\ gamma\ omega = -\ int_\ beta\ omega.\] En particular, la notación tiene\(\int_{\Gamma} \omega\) sentido si indicamos la dirección en la que se evalúa la integral. Pista: ver tres ejercicios anteriores.

    [mv:exercise:curveintegral] Supongamos que\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) y\(\beta \colon [c,d] \to {\mathbb{R}}^n\) son dos caminos suaves por partes que son uno a uno excepto en muchos puntos finitamente. Es decir, hay a lo sumo finitamente muchos puntos\(p \in {\mathbb{R}}^n\) tales que\(\gamma^{-1}(p)\) o\(\beta^{-1}(p)\) contiene más de un punto. Supongamos\(\Gamma = \gamma\bigl([a,b]\bigr) = \beta\bigl([c,d]\bigr)\) y\(\omega\) es una forma única definida en\(\Gamma \subset {\mathbb{R}}^n\). Mostrar que o bien\ [\ int_\ gamma\ omega = \ int_\ beta\ omega, \ qquad\ text {o}\ qquad \ int_\ gamma\ omega = -\ int_\ beta\ omega.\] En particular, la notación tiene\(\int_{\Gamma} \omega\) sentido si indicamos la dirección en la que se evalúa la integral.
    Pista: la misma pista que el último ejercicio.

    Definir\(\gamma \colon [0,1] \to {\mathbb{R}}^2\) por\ (\ gamma (t) :=\ Bigl (t^3\ sin (\ nicefrac {1} {t}), t {\ bigl (3t^2\ sin (\ nicefrac {1} {t}) -t\ cos (\ nicefrac {1} {t})\ bigr)} ^2\ Bigr)\) para\(t \not= 0\) y\(\gamma(0) = (0,0)\). Demostrar que:
    a)\(\gamma\) es continuamente diferenciable en\([0,1]\).
    b) Demostrar que existe una secuencia infinita\(\{ t_n \}\) en\([0,1]\) converger a 0, tal que\(\gamma^{\:\prime}(t_n) = (0,0)\).
    c) Demostrar que los puntos se\(\gamma(t_n)\) encuentran en la línea\(y=0\) y tal que la\(x\) -coordenada de\(\gamma(t_n)\) alterna entre positivo y negativo (si no se alternan solo encontraste una subsecuencia y necesitas encontrarlos todos).
    d) Demostrar que no hay ningún liso por partes\(\alpha\) cuya imagen sea igual\(\gamma\bigl([0,1]\bigr)\). Pista: mira la parte c) y muestra que\(\alpha'\) debe ser cero donde llega al origen.
    e) (Computadora) si conoces un software de trazado que te permita trazar curvas paramétricas, haz una gráfica de la curva, pero solo para\(t\) en el rango de\([0,0.1]\) lo contrario no verás el comportamiento. En particular, debes notar que\(\gamma\bigl([0,1]\bigr)\) tiene infinitamente muchos “rincones” cerca del origen.

    Independencia del camino

    Nota: 2 conferencias

    Integrales independientes de ruta

    Let\(U \subset {\mathbb{R}}^n\) be a set and\(\omega\) a one-form defined on\(U\), The integral of\(\omega\) is said to be path independent if for any two points\(x,y \in U\) and any two piecewise smooth paths\(\gamma \colon [a,b] \to U\) and\(\beta \colon [c,d] \to U\) such that\(\gamma(a) = \beta(c) = x\) and\(\gamma(b) = \beta(d) = y\) we have\[\int_\gamma \omega = \int_\beta \omega .\] In this caso simplemente escribimos\[\int_x^y \omega := \int_\gamma \omega = \int_\beta \omega .\] No todas las formas únicas dan un camino integral independiente. De hecho, la mayoría no.

    Que\(\gamma \colon [0,1] \to {\mathbb{R}}^2\) sea el camino\(\gamma(t) = (t,0)\) que va de\((0,0)\) a\((1,0)\). Que\(\beta \colon [0,1] \to {\mathbb{R}}^2\) sea el camino\(\beta(t) = \bigl(t,(1-t)t\bigr)\) también yendo entre los mismos puntos. Entonces\ [\ comenzar {alineado} &\ int_\ gamma y\, dx = \ int_0^1\ gamma_2 (t)\ gamma_1^ {\:\ prime} (t)\, dt = \ int_0^1 0 (1)\, dt = 0,\\ &\ int_\ beta y\, dx = \ int_0^1\ beta_2 (t)\ beta_1' (t)\, dt = \ int_0^1 (1-t) t (1)\, dt =\ frac {1} {6}. \ end {aligned}\] Así que la integral de no\(y\,dx\) es independiente del camino. En particular,\(\int_{(0,0)}^{(1,0)} y\,dx\) no tiene sentido.

    Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto y\(f \colon U \to {\mathbb{R}}\) una función continuamente diferenciable. Entonces la única forma\ [df: = \ frac {\ parcial f} {\ parcial x_1}\, dx_1 + \ frac {\ parcial f} {\ parcial x_2}\, dx_2 +\ cdots + \ frac {\ parcial f} {\ parcial x_n}\, dx_n\] se llama la derivada total de\(f\).

    Se dice que un conjunto abierto\(U \subset {\mathbb{R}}^n\) es la ruta conectada 5 si por cada dos puntos\(x\) y\(y\) en\(U\), existe una trayectoria suave por tramos que comienza en\(x\) y termina en\(y\).

    Dejaremos como ejercicio que cada conjunto abierto conectado es camino conectado.

    [mv:prop:pathinddf] Let\(U \subset {\mathbb{R}}^n\) ser un path conectado open set y\(\omega\) un one-form definido on\(U\). Entonces\[\int_x^y \omega\] es camino independiente (para todos\(x,y \in U\)) si y sólo si existe un continuamente diferenciable\(f \colon U \to {\mathbb{R}}\) tal que\(\omega = df\).

    De hecho, si tal\(f\) existe, entonces para dos puntos cualesquiera\(x,y \in U\)\[\int_{x}^y \omega = f(y)-f(x) .\]

    En otras palabras, si arreglamos\(p \in U\), entonces\(f(x) = C + \int_{p}^x \omega\).

    Primero supongamos que la integral es camino independiente. Escoja\(p \in U\) y defina\[f(x) := \int_{p}^x \omega .\] Escribir\(\omega = \omega_1 dx_1 + \omega_2 dx_2 + \cdots + \omega_n dx_n\). Deseamos demostrar que para cada\(j = 1,2,\ldots,n\), la derivada parcial\(\frac{\partial f}{\partial x_j}\) existe y es igual a\(\omega_j\).

    Let\(e_j\) Ser un vector base estándar arbitrario. Calcular\ [\ frac {f (x+h e_j) - f (x)} {h} = \ frac {1} {h}\ izquierda (\ int_ {p} ^ {x+he_j}\ omega -\ int_ {p} ^x\ omega\ derecha) = \ frac {1} {h}\ int_ {x} ^ {x+he_j}\ omega,\] que sigue por e indepdendence ruta como\ (\ int_ {p} ^ {x+he_j}\ omega = \ int_ {p} ^ {x}\ omega + \ int_ {x} ^ {x+he_j}\ omega\), porque podríamos han escogido un camino de\(p\) a\(x+he_j\) que también pasa pasar por\(x\), y luego cortar este camino en dos.

    Ya que\(U\) está abierto, supongamos que\(h\) es tan pequeño para que todos los puntos de distancia\(\left\lvert {h} \right\rvert\) o menos de\(x\) estén adentro\(U\). Como la integral es independiente del camino, elija el camino más simple posible de\(x\) a\(x+he_j\), es decir\(\gamma(t) = x+t he_j\) para\(t \in [0,1]\). El camino está en\(U\). Notice\(\gamma^{\:\prime}(t) = h e_j\) tiene solo un componente distinto de cero y ese es el componente\(j\) th, que es\(h\). Por lo tanto\ [\ frac {1} {h}\ int_ {x} ^ {x+he_j}\ omega = \ frac {1} {h}\ int_ {\ gamma}\ omega = \ frac {1} {h}\ int_0^1\ omega_j (x+el_j) h\, dt = \ int_0^1\ omega_j (x+el_j)\, dt.\] Deseamos tomar el límite como\(h \to 0\). La función\(\omega_j\) es continua. Así dado\(\epsilon > 0\),\(h\) puede ser lo suficientemente pequeño como para que\(\left\lvert {\omega(x)-\omega(y)} \right\rvert < \epsilon\), cuando sea\(\lVert {x-y} \rVert \leq \left\lvert {h} \right\rvert\). Por lo tanto\(t \in [0,1]\),\(\left\lvert {\omega_j(x+the_j)-\omega_j(x)} \right\rvert < \epsilon\) para todos, y estimamos\ [\ izquierda\ lvert {\ int_0^1\ omega_j (x+the_j)\, dt -\ omega (x)}\ right\ rvert = \ left\ lvert {\ int_0^1\ bigl (\ omega_j (x+the_j) -\ omega (x)\ bigr)\, dt}\ right\ rvert \ leq \ épsilon.\] Es decir,\[\lim_{h\to 0}\frac{f(x+h e_j) - f(x)}{h} = \omega_j(x) ,\] que es lo que queríamos que es \(df = \omega\). Como\(\omega_j\) son continuos para todos\(j\), encontramos que\(f\) tiene derivadas parciales continuas y por lo tanto es continuamente diferenciable.

    Para la otra dirección supongamos que\(f\) existe tal que\(df = \omega\). Supongamos que tomamos un camino suave\(\gamma \colon [a,b] \to U\) tal que\(\gamma(a) = x\) y\(\gamma(b) = y\), entonces\ [\ begin {split} \ int_\ gamma df & = \ int_a^b \ biggl ( \ frac {\ parcial f} {\ parcial x_1}\ bigl (\ gamma (t)\ bigr)\ gamma_1^ {\:\ prime} (t) + \ frac {\ parcial f} {\ parcial x_2}\ bigl (\ gamma (t)\ bigr)\ gamma_2^ {\:\ prime } (t) +\ cdots + \ frac {\ parcial f} {\ parcial x_n}\ bigl (\ gamma (t)\ bigr)\ gamma_n^ {\:\ prime} (t) \ bigr)\, dt \\ & = \ int_a^b \ frac {d} {dt}\ left [f\ bigl (\ gamma (t)\ bigr)\ derecha]\, dt \\ & = f (y) -f (x). \ end {split}\] El valor de la integral solo depende de\(x\) y\(y\), no del camino tomado. Por lo tanto, la integral es camino independiente. Dejamos verificando esto para un camino suave por partes como ejercicio para el lector.

    Let\(U \subset {\mathbb{R}}^n\) Ser un path conectado conjunto abierto y\(\omega\) un 1-form definido en\(U\). Entonces\(\omega = df\) para algunos continuamente diferenciables\ (f\ colon U\ a {\ mathbb {R}}\) si y solo si\[\int_{\gamma} \omega = 0\] por cada camino cerrado suave por tramos\(\gamma \colon [a,b] \to U\).

    Supongamos primero eso\(\omega = df\) y dejar que\(\gamma\) sea un camino cerrado liso por tramos. Entonces nosotros desde arriba tenemos eso\[\int_{\gamma} \omega = f\bigl(\gamma(b)\bigr) - f\bigl(\gamma(a)\bigr) = 0 ,\] porque\(\gamma(a) = \gamma(b)\) para un camino cerrado.

    Ahora supongamos que por cada camino cerrado liso por tramos\(\gamma\),\(\int_{\gamma} \omega = 0\). Dejar\(x,y\) ser dos puntos adentro\(U\) y dejar\(\alpha \colon [0,1] \to U\) y\(\beta \colon [0,1] \to U\) ser dos caminos lisos por partes con\(\alpha(0) = \beta(0) = x\) y\(\alpha(1) = \beta(1) = y\). Entonces deja\(\gamma \colon [0,2] \to U\) ser definido por\ [\ gamma (t) := \ begin {cases} \ alpha (t) &\ text {if $t\ in [0,1] $,}\\ \ beta (2-t) &\ text {if $t\ in (1,2] $.} \ end {cases}\] Este es un camino cerrado liso por partes y así\[0 = \int_{\gamma} \omega = \int_{\alpha} \omega - \int_{\beta} \omega .\] Esto sigue primero por, y luego notando que la segunda parte se\(\beta\) viaja hacia atrás para que obtengamos menos la\(\beta\) integral. Así, la integral de\(\omega\) on\(U\) es independiente del camino.

    Existe un criterio local, una ecuación diferencial, que garantiza la independencia del camino. Es decir, bajo la condición correcta existe una antiderivada\(f\) cuya derivada total es la monoforma dada\(\omega\). No obstante, dado que el criterio es local, solo obtenemos el resultado localmente. Podemos definir la antiderivada en cualquier dominio llamado simplemente conectado, que informalmente es un dominio donde cualquier camino entre dos puntos puede ser “deformado continuamente” en cualquier otro camino entre esos dos puntos. Para hacer las cosas simples, la forma habitual de probar este resultado es para los llamados dominios en forma de estrella.

    Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto y\(p \in U\). Decimos que\(U\) es un dominio en forma de estrella con respecto a\(p\) si para cualquier otro punto\(x \in U\), el segmento de línea entre\(p\) y\(x\) está en\(U\), es decir, si\((1-t)p + tx \in U\) para todos\(t \in [0,1]\). Si decimos simplemente en forma de estrella, entonces\(U\) tiene forma de estrella con respecto a algunos\(p \in U\).

    Observe la diferencia entre forma de estrella y convexa. Un dominio convexo tiene forma de estrella, pero un dominio en forma de estrella no necesita ser convexo.

    Let\(U \subset {\mathbb{R}}^n\) Ser un dominio en forma de estrella y\(\omega\) una forma continuamente diferenciable definida en\(U\). Es decir, si\ [\ omega = \ omega_1 dx_1 + \ omega_2 dx_2 +\ cdots + \ omega_n dx_n,\] entonces\(\omega_1,\omega_2,\ldots,\omega_n\) son funciones continuamente diferenciables. Supongamos que para cada\(j\) y\(k\)\[\frac{\partial \omega_j}{\partial x_k} = \frac{\partial \omega_k}{\partial x_j} ,\] entonces existe una función dos veces continuamente diferenciable\ (f\ colon U \ to {\ mathbb {R}}\) tal que\(df = \omega\).

    La condición sobre las derivadas de\(\omega\) es precisamente la condición de que las segundas derivadas parciales conmuten. Es decir, si\(df = \omega\), y\(f\) es dos veces continuamente diferenciable, entonces\ [\ frac {\ parcial\ omega_j} {\ parcial x_k} = \ frac {\ parcial^2 f} {\ parcial x_k\ parcial x_j} = \ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_k} = \ frac {\ parcial\ omega_k}\ parcial x_j}.\] La condición es por lo tanto claramente necesario. El lema dice que es suficiente para una estrella en forma de\(U\).

    Supongamos\(U\) que tiene forma de estrella con respecto a\(y=(y_1,y_2,\ldots,y_n) \in U\).

    Dado\(x = (x_1,x_2,\ldots,x_n) \in U\), definir el camino\(\gamma \colon [0,1] \to U\) como\(\gamma(t) := (1-t)y + tx\), así\(\gamma^{\:\prime}(t) = x-y\). Entonces vamos\ [f (x) :=\ int_ {\ gamma}\ omega = \ int_0^1 \ left ( \ sum_ {k=1} ^n \ omega_k\ bigl ((1-t) y + tx\ bigr) (x_k-y_k) \ derecha)\, dt.\] Diferenciamos en\(x_j\) debajo de la integral. Eso podemos hacer ya que todo, incluidos los propios parciales son continuos. \ [\ comenzar {dividir} \ frac {\ parcial f} {\ parcial x_j} (x) & = \ int_0^1 \ izquierda ( \ izquierda ( \ suma_ {k=1} ^n \ frac {\ parcial\ omega_k} {\ parcial x_j}\ bigl ((1-t) y + tx\ bigr) t (x_k-y_k) \ derecha) + \ omega_j\ bigl ((1-t) y + tx\ bigr) \ derecha) \, dt \\ & = \ int_0^1 \ izquierda ( \ izquierda ( \ sum_ {k=1} ^n \ frac {\ parcial\ omega_j} {\ parcial x_k}\ bigl ((1-t) y + tx\ bigr) t (x_k-y_k) \ derecha) + \ omega_j\ bigl ((1-t) y + tx\ bigr) \ derecha)\, dt \\ & = \ int_0^1 \ frac {d} {dt} \ izquierda [ t\ omega_j\ bigl ((1-t) y + tx\ bigr) \ derecha] \, dt \\ &=\ omega_j (x). \ end {split}\] Y esto es precisamente lo que queríamos.

    Sin alguna hipótesis sobre\(U\) el teorema no es cierto. Dejar que\[\omega(x,y) := \frac{-y}{x^2+y^2} dx + \frac{x}{x^2+y^2} dy\] se defina el\({\mathbb{R}}^2 \setminus \{ 0 \}\). Es fácil ver que\ [\ frac {\ parcial} {\ parcial y}\ izquierda [ \ frac {-y} {x^2+y^2}\ derecha] =\ frac { \ parcial} {\ parcial} {\ parcial x}\ izquierda [ \ frac {x} {x^2+y^2}\ derecha].\] Sin embargo, no hay\(f \colon {\mathbb{R}}^2 \setminus \{ 0 \} \to {\mathbb{R}}\) tal que\(df = \omega\). Vimos en si integramos de\((1,0)\) a\((1,0)\) lo largo del círculo unitario, eso es\(\gamma(t) = \bigl(\cos(t),\sin(t)\bigr)\) para que\(t \in [0,2\pi]\) obtuvimos\(2\pi\) y no 0 como debería ser si la integral es camino independiente o en otras palabras si existiría\(f\) tal que\(df = \omega\).

    Campos vectoriales

    Un objeto común a integrar es el llamado campo vectorial. Eso es una asignación de un vector en cada punto de un dominio.

    \(U \subset {\mathbb{R}}^n\)Déjese ser un conjunto. Una función continua\(v \colon U \to {\mathbb{R}}^n\) se llama campo vectorial. Escribir\(v = (v_1,v_2,\ldots,v_n)\).

    Dado un camino suave\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) con\(\gamma\bigl([a,b]\bigr) \subset U\) definimos la ruta integral del vectorfield\(v\) como\ [\ int_ {\ gamma} v\ cdot d\ gamma : = \ int_a^b v\ bigl (\ gamma (t)\ bigr)\ cdot\ gamma^ {\:\ prime} (t)\, dt,\] donde el punto en la definición es el producto punto estándar. Nuevamente, la definición de un camino suave por tramos se realiza integrando sobre cada intervalo suave y agregando el resultado.

    Si desentrañamos la definición nos encontramos con que\ [\ int_ {\ gamma} v\ cdot d\ gamma = \ int_ {\ gamma} v_1 dx_1 + v_2 dx_2 +\ cdots + v_n dx_n.\] Por lo tanto lo que sabemos de integración de formas únicas se traslada a la integración de campos vectoriales. Por ejemplo, la independencia de ruta para la integración de campos vectoriales\[\int_x^y v \cdot d\gamma\] es simplemente eso es independiente de ruta (así para cualquier\(\gamma\)) si y solo si\(v = \nabla f\), ese es el gradiente de una función. A la función\(f\) se le llama entonces el potencial para\(v\).

    Un campo vectorial\(v\) cuyas integrales de ruta son independientes de ruta se denomina campo vectorial conservador. El naming viene del hecho de que tales campos vectoriales surgen en sistemas físicos donde se conserva una cierta cantidad, la energía.

    Ejercicios

    Encuentra un\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) tal que\ (df = xe^ {x^2+y^2} dx + ye^ {x^2+y^2} dy\).

    Encontrar un\(\omega_2 \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) tal que exista un continuamente diferenciable\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) para el cual\(df = e^{xy} dx + \omega_2 dy\).

    Terminar la prueba de, es decir, solo probamos la segunda dirección para un camino suave, no un camino liso por tramos.

    Demuestre que un dominio en forma de estrella\(U \subset {\mathbb{R}}^n\) está conectado por ruta.

    Demuestre\(U := {\mathbb{R}}^2 \setminus \{ (x,y) \in {\mathbb{R}}^2 : x \leq 0, y=0 \}\) que tenga forma de estrella y encuentre todos los puntos\((x_0,y_0) \in U\) tal\(U\) que tenga forma de estrella con respecto a\((x_0,y_0)\).

    Supongamos\(U_1\) y\(U_2\) son dos conjuntos abiertos adentro\({\mathbb{R}}^n\) con\(U_1 \cap U_2\) nonempty y conectados. Supongamos que existe un\(f_1 \colon U_1 \to {\mathbb{R}}\) y\(f_2 \colon U_2 \to {\mathbb{R}}\), ambos dos veces continuamente diferenciables de tal manera que\(d f_1 = d f_2\) en\(U_1 \cap U_2\). Entonces existe una función dos veces diferenciable\ (F\ colon U_1\ copa U_2\ to {\ mathbb {R}}\) tal que\(dF = df_1\) una\(U_1\) y otra\(dF = df_2\) vez\(U_2\).

    Dejar\(\gamma \colon [a,b] \to {\mathbb{R}}^n\) ser un simple camino liso por partes no cerrado (así\(\gamma\) es uno a uno). Supongamos que\(\omega\) es una forma continuamente diferenciable definida en algún conjunto abierto\(V\) con\(\gamma\bigl([a,b]\bigr) \subset V\) y\ (\ frac {\ parcial\ omega_j} {\ parcial x_k} =\ frac {\ parcial\ omega_k} {\ parcial x_j}\) para todos\(j\) y\(k\). Demostrar que existe un conjunto abierto\(U\) con\(\gamma\bigl([a,b]\bigr) \subset U \subset V\) y una función dos veces continuamente diferenciable\(f \colon U \to {\mathbb{R}}\) tal que\(df = \omega\).
    Pista 1:\(\gamma\bigl([a,b]\bigr)\) es compacto.
    Pista 2: Demuestre que puede cubrir la curva por finitamente muchas bolas en secuencia para que la bola\(k\) th solo se cruce con la bola\((k-1)\) th.
    Pista 3: Ver ejercicio anterior.

    a) Mostrar que un conjunto abierto conectado es path connected. Pista: Comience con dos puntos\(x\) y\(y\) en un conjunto conectado\(U\), y let\(U_x \subset U\) es el conjunto de puntos que son alcanzables por un camino desde\(x\) y de manera similar para\(U_y\). Demostrar que ambos conjuntos están abiertos, ya que no están vacíos (\(x \in U_x\)y\(y \in U_y\)) debe ser eso\(U_x = U_y = U\).
    b) Demostrar lo contrario es decir, un conjunto conectado de ruta\(U \subset {\mathbb{R}}^n\) está conectado. Pista: para contradicción supongamos que existen dos conjuntos abiertos abiertos no vacíos abiertos y disjuntos y luego asumir que hay un camino por partes suave (y por lo tanto continuo) entre un punto en uno a un punto en el otro.

    Por lo general, la conexión de ruta se define usando solo caminos continuos en lugar de caminos suaves por tramos. Demostrar que las definiciones son equivalentes, es decir probar la siguiente afirmación:
    Supongamos que\(U \subset {\mathbb{R}}^n\) es tal que para cualquiera\(x,y \in U\), existe una función continua\(\gamma \colon [a,b] \to U\) tal que\(\gamma(a) = x\) y\(\gamma(b) = y\). Entonces\(U\) se conecta el camino (en otras palabras, entonces existe un camino suave por tramos).

    Tomar\[\omega(x,y) = \frac{-y}{x^2+y^2} dx + \frac{x}{x^2+y^2} dy\] definido en\({\mathbb{R}}^2 \setminus \{ (0,0) \}\). Deje que\ (\ gamma\ dos puntos [a, b]\ a {\ mathbb {R}} ^2 \ setmenos\ {(0,0)\}\) sea un camino suave por partes cerrado. Vamos\(R:=\{ (x,y) \in {\mathbb{R}}^2 : x \leq 0 \text{ and } y=0 \}\). Supongamos que\(R \cap \gamma\bigl([a,b]\bigr)\) es un conjunto finito de\(k\) puntos. Entonces\[\int_{\gamma} \omega = 2 \pi \ell\] para algún entero\(\ell\) con\(\left\lvert {\ell} \right\rvert \leq k\).
    Pista 1: Primero prueba que para un camino\(\beta\) que comienza y termina\(R\) pero no lo cruza de otra manera, encuentras que\(\int_{\beta} \omega\) es\(-2\pi\), 0, o\(2\pi\). Pista 2: Demostraste arriba que\({\mathbb{R}}^2 \setminus R\) tiene forma de estrella.
    Nota: El número\(\ell\) se llama el número de bobinado que mide cuántas veces se enrolla alrededor\(\gamma\) del origen en el sentido de las agujas del reloj.

    Integral multivariable

    Riemann integral sobre rectángulos

    Nota: 2—3 conferencias

    Al igual que en, definimos la integral de Riemann utilizando las integrales superior e inferior de Darboux. Las ideas de esta sección son muy similares a la integración en una dimensión. La complicación es mayoritariamente notacional. Las diferencias entre una y varias dimensiones crecerán más pronunciadas en las secciones siguientes.

    Rectángulos y particiones

    Dejar\((a_1,a_2,\ldots,a_n)\) y\((b_1,b_2,\ldots,b_n)\) ser tal que\(a_k \leq b_k\) para todos\(k\). Un conjunto de la forma\ ([a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\) se llama rectángulo cerrado. En esta configuración a veces es útil permitir\(a_k = b_k\), en cuyo caso pensamos\([a_k,b_k] = \{ a_k \}\) como de costumbre. Si\(a_k < b_k\) para todos\(k\), entonces un conjunto de la forma\ ((a_1, b_1)\ times (a_2, b_2)\ times\ cdots\ times (a_n, b_n)\) se llama rectángulo abierto.

    Para un rectángulo abierto o cerrado\ (R: = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\ subconjunto {\ mathbb {R}} ^n\) o\ (R: = (a_1, b_1)\ times (a_2, b_2)\ times\ cdots\ times (a_n, b_n)\ subconjunto {\ mathbb {R}} ^n\), definimos el volumen\(n\) -dimensional por\ [V (R) := (b_1-a _1) (b_2-a_2) \ cdots (b_n-a_n).\]

    Una partición\(P\) del rectángulo cerrado\ (R = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\) es un conjunto finito de particiones\(P_1,P_2,\ldots,P_n\) de los intervalos\([a_1,b_1], [a_2,b_2],\ldots, [a_n,b_n]\). Escribimos\(P=(P_1,P_2,\ldots,P_n)\). Es decir, por cada\(k\) hay un entero\(\ell_k\) y el conjunto finito de números\(P_k = \{ x_{k,0},x_{k,1},x_{k,2},\ldots,x_{k,\ell_k} \}\) tal que\[a_k = x_{k,0} < x_{k,1} < x_{k,2} < \cdots < x_{k,{\ell_k}-1} < x_{k,\ell_k} = b_k .\] Escogiendo un conjunto de\(n\) enteros\(j_1,j_2,\ldots,j_n\) donde\(j_k \in \{ 1,2,\ldots,\ell_k \}\) obtenemos el subrectángulo\ [[x_ {1, j_1-1} ~, ~ x_ {1, j_1}] \ times [x_ {2, j_2-1} ~, ~ x_ {2, j_2}] \ times \ cdots \ times [x_ {n, j_n-1} ~, ~ x_ {n, j_n}].\] Por simplicidad, ordenamos los subrectángulos de alguna manera y decimos\(\{R_1,R_2,\ldots,R_N\}\) son los subrectángulos correspondientes a la partición\(P\) de\(R\). Más simplemente, decimos que son los subrectángulos de\(P\). En otras palabras, subdividimos el rectángulo original en muchos subrectángulos más pequeños. Ver. No es difícil ver que estos subrectángulos cubren nuestro original\(R\), y su volumen se suma al de\(R\). Es decir,\ [R=\ bigcup_ {j=1} ^N R_j,\ qquad\ texto {y}\ qquad V (R) =\ suma_ {j=1} ^N V (R_j).\]

    Cuando\ [r_k = [x_ {1, j_1-1} ~, ~ x_ {1, j_1}] \ veces [x_ {2, j_2-1} ~, ~ x_ {2, j_2}] \ veces \ cdots \ veces [x_ {n, j_n-1} ~, ~ x_ {n, j_n}],\] entonces\ [V (_k) = \ Delta x_ {1, j_1} \ Delta x_ {2, j_2} \ cdots \ Delta x_ {n, j_n} = (x_ {1, j_1} -x_ {1, j_1-1}) (x_ {2, j_2} -x_ {2, j_2-1}) \ cdots (x_ {n, j_n} -x_ {n, j_n-1}).\]

    Dejar\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado y dejar\(f \colon R \to {\mathbb{R}}\) ser una función acotada. Dejar\(P\) ser una partición de\([a,b]\) y supongamos que hay\(N\) subrectángulos\(R_1,R_2,\ldots,R_N\). Definir\ [\ begin {alineado} & m_i: =\ inf\ {f (x): x\ en R_i\},\\ & m_i: =\ sup\ {f (x): x\ in R_i\},\\ & L (P, f) := \ sum_ {i=1} ^N m_i V (R_i),\\ & U (P, f) := \ sum_ {i=1} ^N M_i V (R_i). \ end {aligned}\] Llamamos a\(L(P,f)\) la suma inferior de Darboux y a\(U(P,f)\) la suma superior de Darboux.

    La indexación en la definición puede ser complicada, pero afortunadamente generalmente no necesitamos volver directamente a la definición a menudo. Comenzamos a probar hechos sobre las sumas de Darboux análogas a los resultados de una variable.

    [mv:sumulbound:prop] Supongamos que\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) es una función acotada. Seamos tales\(m, M \in {\mathbb{R}}\) que por todo\(x \in R\) lo que tenemos\(m \leq f(x) \leq M\). Para cualquier partición\(P\) de\(R\) tenemos\ [%\ label {mv:sumulbound:eq} m V (R)\ leq L (P, f)\ leq U (P, f) \ leq M\, V (R).\]

    Dejar\(P\) ser una partición. Entonces por todo\(i\) lo que tenemos\(m \leq m_i\) y\(M_i \leq M\). También\(m_i \leq M_i\) para todos\(i\). Por último\(\sum_{i=1}^N V(R_i) = V(R)\). Por lo tanto,\ [\ comenzar {reunido} m V (R) = m\ izquierda (\ suma_ {i=1} ^N V (R_i)\ derecha) = \ suma_ {i=1} ^N m V (R_i) \ leq\ suma_ {i=1} ^N m_i V (R_i) \ leq \\ leq \ sum_ {i=1} ^N m_i V (R_i) \ leq \ suma_ {i=1} ^N M\, V (R_i) = M\ izquierda (\ suma_ {i=1} ^N V (R_i)\ derecha) = M\, V (R). \ qedhere\ fin {reunidos}\]

    Integrales superiores e inferiores

    Por el conjunto de superior e inferior Darboux las sumas son conjuntos acotados y podemos tomar su infima y suprema. Como antes, ahora hacemos la siguiente definición.

    Si\(f \colon R \to {\mathbb{R}}\) es una función delimitada en un rectángulo cerrado\ (R\ subconjunto {\ mathbb {R}} ^n\). Define\ [\ subrayado {\ int_r} f: =\ sup\ {L (P, f): P\ text {una partición de $R$}\}, \ qquad \ overline {\ int_r} f: =\ inf\ {U (P, f): P\ text {una partición de $R$}\}.\] Llamamos a\(\underline{\int}\) la integral inferior de Darboux y\(\overline{\int}\) la superior Darboux integral.

    Al igual que en una dimensión tenemos refinamientos de particiones.

    Dejar\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado. Dejar\(P = ( P_1, P_2, \ldots, P_n )\) y\(\widetilde{P} = ( \widetilde{P}_1, \widetilde{P}_2, \ldots, \widetilde{P}_n )\) ser particiones de\(R\). Decimos\(\widetilde{P}\) un refinamiento de\(P\) si, como conjuntos,\(P_k \subset \widetilde{P}_k\) para todos\(k = 1,2,\ldots,n\).

    No es difícil ver que si\(\widetilde{P}\) es un refinamiento de\(P\), entonces subrectángulos de\(P\) son uniones de subrectángulos de\(\widetilde{P}\). En pocas palabras, en un refinamiento tomamos los subrectángulos de\(P\), y los cortamos en subrectángulos más pequeños. Ver.

    [mv:prop:refinement] Supongamos que\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado,\(P\) es una partición de\(R\) y\(\widetilde{P}\) es un refinamiento de\(P\). Si es\(f \colon R \to {\mathbb{R}}\) una función acotada, entonces\ [L (P, f)\ leq L (\ Widetilde {P}, f) \ qquad\ text {y}\ qquad U (\ Widetilde {P}, f)\ leq U (P, f).\]

    Demostramos la primera desigualdad, la segunda sigue de manera similar. \(R_1,R_2,\ldots,R_N\)Dejen ser los subrectángulos de\(P\) y\(\widetilde{R}_1,\widetilde{R}_2,\ldots,\widetilde{R}_{\widetilde{N}}\) ser los subrectángulos de\(\widetilde{R}\). \(I_k\)Sea el conjunto de todos los índices\(j\) tales que\(\widetilde{R}_j \subset R_k\). Por ejemplo, usando los ejemplos en las figuras [mv:figrect] y [mv:figrectpart],\(I_4 = \{ 6, 7, 8, 9 \}\) y\ (R_4 = \ Widetilde {R} _6\ cup\ Widetilde {R} _7\ cup \ Widetilde {R} _8\ cup\ Widetilde {R} _9\). Notamos en general que\ [R_k =\ bigcup_ {j\ in i_k}\ Widetilde {R} _j, \ qquad V (R_k) =\ suma_ {j\ in i_k} V (\ Widetilde {R} _j).\]

    Vamos\(m_j := \inf \{ f(x) : x \in R_j \}\), y\(\widetilde{m}_j := \inf \{ f(x) : \in \widetilde{R}_j \}\) como de costumbre. Observe también que si\(j \in I_k\), entonces\(m_k \leq \widetilde{m}_j\). Entonces\ [L (P, f) = \ suma_ {k=1} ^N m_k V (R_k) = \ suma_ {k=1} ^N\ suma_ {j\ en i_k} m_k V (\ Widetilde {R} _j) \ leq \ suma_ {k=1} ^N\ suma_ {j\ en i_k}\ Widetilde {m} _j V (\ Widetilde {R} _j) = \ sum_ {j=1} ^ {\ Widetilde {N}}\ Widetilde {m} _j V (\ Widetilde {R} _j) = L (\ Widetilde {P}, f). \ qedhere\]

    El punto clave de esta proposición siguiente es que la integral inferior de Darboux es menor o igual que la integral superior de Darboux.

    [mv:intulbound:prop] Let\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) una función acotada. Seamos tales\(m, M \in {\mathbb{R}}\) que por todo\(x \in R\) lo que tenemos\(m \leq f(x) \leq M\). Entonces\ [\ label {mv:intulbound:eq} m V (R)\ leq \ subrayado {\ int_r} f\ leq\ overline {\ int_r} f \ leq M\, V (R).\]

    Para cualquier partición\(P\), vía,\[mV(R) \leq L(P,f) \leq U(P,f) \leq M\,V(R).\] Tomando supremum de\(L(P,f)\) e infimum de\(U(P,f)\) sobre todo\(P\), obtenemos la primera y la última desigualdad.

    La desigualdad clave en [mv:intulbound:eq] es la del medio. Dejar\(P=(P_1,P_2,\ldots,P_n)\) y\(Q=(Q_1,Q_2,\ldots,Q_n)\) ser particiones de\(R\). Definir\(\widetilde{P} = ( \widetilde{P}_1,\widetilde{P}_2,\ldots,\widetilde{P}_n )\) dejando\(\widetilde{P}_k = P_k \cup Q_k\). Entonces\(\widetilde{P}\) es una partición de\(R\) como se puede verificar fácilmente, y\(\widetilde{P}\) es un refinamiento de\(P\) y un refinamiento de\(Q\). Por,\(L(P,f) \leq L(\widetilde{P},f)\) y\(U(\widetilde{P},f) \leq U(Q,f)\). Por lo tanto,\[L(P,f) \leq L(\widetilde{P},f) \leq U(\widetilde{P},f) \leq U(Q,f) .\] en otras palabras, para dos particiones arbitrarias\(P\) y\(Q\) tenemos\(L(P,f) \leq U(Q,f)\). Vía la Proposición 1.2.7 del volumen I, obtenemos\ [\ sup\ {L (P, f):\ text {$P$ una partición de $R$}\} \ leq \ inf\ {U (P, f):\ text {$P$ una partición de $R$}\}.\] En otras palabras\(\underline{\int_R} f \leq \overline{\int_R} f\).

    La integral de Riemann

    Tenemos todo lo que necesitamos para definir la integral de Riemann en\(n\) dimensiones sobre rectángulos. Nuevamente, la integral de Riemann solo se define en una cierta clase de funciones, llamadas funciones integrables de Riemann.

    Dejar\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado. Que\(f \colon R \to {\mathbb{R}}\) sea una función acotada tal que\[\underline{\int_R} f(x)~dx = \overline{\int_R} f(x)~dx .\] Entonces\(f\) se dice que es Riemann integrable, y a veces decimos simplemente integrable. El conjunto de funciones integrables de Riemann en\(R\) se denota por\({\mathcal{R}}(R)\). Cuando\(f \in {\mathcal{R}}(R)\) definimos la integral de Riemann\ [\ int_r f: = \ subrayado {\ int_r} f =\ overline {\ int_r} f.\]

    Cuando la variable\(x \in {\mathbb{R}}^n\) necesita ser enfatizada escribimos\ [\ int_r f (x) ~dx, \ qquad \ int_r f (x_1,\ ldots, x_n) ~dx_1\ cdots dx_n, \ qquad \ text {or} \ qquad \ int_r f (x) ~dv.\] Si\(R \subset {\mathbb{R}}^2\), entonces a menudo en lugar de volumen decimos area, y de ahí escribimos\[\int_R f(x)~dA .\]

    implica inmediatamente la siguiente proposición.

    [mv:intbound:prop] Let\(f \colon R \to {\mathbb{R}}\) Ser una función integrable de Riemann en un rectángulo cerrado\(R \subset {\mathbb{R}}^n\). Seamos\(m, M \in {\mathbb{R}}\) tal que\(m \leq f(x) \leq M\) para todos\(x \in R\). Entonces\ [m V (R)\ leq \ int_ {R} f \ leq M\, V (R).\]

    Una función constante es Riemann integrable. Supongamos\(f(x) = c\) para todos\(x\) en\(R\). \[c V(R) \leq \underline{\int_R} f \leq \overline{\int_R} f \leq cV(R) .\]Entonces So\(f\) es integrable, y además\(\int_R f = cV(R)\).

    Las pruebas de linealidad y monotonicidad son casi completamente idénticas a las pruebas de una variable. Por lo tanto, lo dejamos como un ejercicio para probar las dos proposiciones siguientes.

    [mv:intlinearidad:prop] Dejar\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado y dejar\(f\) y\(g\) estar en\({\mathcal{R}}(R)\) y\(\alpha \in {\mathbb{R}}\).

    1. \(\alpha f\)está en\({\mathcal{R}}(R)\) y\[\int_R \alpha f = \alpha \int_R f .\]
    2. \(f+g\)está en\({\mathcal{R}}(R)\) y\ [\ int_r (f+g) = \ int_r f + \ int_r g.\]

    Dejar\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado, dejar\(f\) y\(g\) estar dentro\({\mathcal{R}}(R)\), y supongamos\(f(x) \leq g(x)\) para todos\(x \in R\). Entonces\ [\ int_r f \ leq \ int_r g.\]

    Comprobando la integrabilidad usando la definición a menudo implica la siguiente técnica, como en el caso de una sola variable.

    [mv:prop:upperlowerepsilon] Let\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) una función acotada. Entonces\(f \in {\mathcal{R}}(R)\) si y solo si por cada\(\epsilon > 0\), existe una partición\(P\) de\(R\) tal que\[U(P,f) - L(P,f) < \epsilon .\]

    Primero, si\(f\) es integrable, entonces claramente el supremo de\(L(P,f)\) y el infimum de\(U(P,f)\) deben ser iguales y de ahí el infimum de\(U(P,f)-L(P,f)\) es cero. Por lo tanto para cada debe\(\epsilon > 0\) haber alguna partición\(P\) tal que\(U(P,f) - L(P,f) < \epsilon\).

    Para la otra dirección, dado un\(\epsilon > 0\) hallazgo\(P\) tal que\(U(P,f) - L(P,f) < \epsilon\). \ [\ overline {\ int_r} f - \ subrayado {\ int_r} f \ leq U (P, f) - L (P, f) <\ épsilon.\] Como\(\overline{\int_R} f \geq \underline{\int_R} f\) y lo anterior sostiene para cada\(\epsilon > 0\), concluimos\(\overline{\int_R} f = \underline{\int_R} f\) y\(f \in {\mathcal{R}}(R)\).

    Por simplicidad si\(f \colon S \to {\mathbb{R}}\) es una función y\(R \subset S\) es un rectángulo cerrado, entonces si la restricción\(f|_R\) es integrable decimos que\(f\) es integrable en\(R\), o\(f \in {\mathcal{R}}(R)\) y escribimos\[\int_R f := \int_R f|_R .\]

    [mv:prop:integralsmallerset] Para un rectángulo cerrado\(S \subset {\mathbb{R}}^n\), si\(f \colon S \to {\mathbb{R}}\) es integrable y\(R \subset S\) es un rectángulo cerrado, entonces\(f\) es integrable sobre\(R\).

    Dado\(\epsilon > 0\), nos encontramos con una partición\(P\) de\(S\) tal que\(U(P,f)-L(P,f) < \epsilon\). Al hacer un refinamiento de\(P\) si es necesario, asumimos que los puntos finales de\(R\) están en\(P\). En otras palabras,\(R\) es una unión de subrectángulos de\(P\). Los subrectángulos de se\(P\) dividen en dos colecciones, unas que son subconjuntos de\(R\) y otras cuya intersección con el interior de\(R\) está vacía. Supongamos que\(R_1,R_2\ldots,R_K\) son los subrectángulos que son subconjuntos de\(R\) y dejan\(R_{K+1},\ldots, R_N\) ser el resto. Dejar\(\widetilde{P}\) ser la partición de\(R\) compuesta de esos subrectángulos de\(P\) contenidos en\(R\). Usando la misma notación que antes,\ [\ begin {split} \ epsilon & > U (P, f) -L (P, f) = \ sum_ {k=1} ^K (m_k-m_k) V (R_k) + \ suma_ {k=k+1} ^N (m_k-m_k) V (R_k) \ & \ geq \ sum_ {k=1} ^K (M_K-M_k) V (R_k) = U (\ Widetilde {P}, F|_R) -L (\ Widetilde {P}, F|_R). \ end {split}\] Por lo tanto,\(f|_R\) es integrable.

    Integrales de funciones continuas

    Aunque más adelante demostraremos un resultado mucho más general, es útil comenzar con la integrabilidad de funciones continuas. Primero queremos medir la finura de los tabiques. En una variable medimos la longitud de un subintervalo, en varias variables, de manera similar medimos los lados de un subrectángulo. Decimos un rectángulo\ (R = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\) tiene lado más largo como mucho\(\alpha\) si es\(b_k-a_k \leq \alpha\) para todos\(k=1,2,\ldots,n\).

    [prop:diameterrectangle] Si un rectángulo\(R \subset {\mathbb{R}}^n\) tiene el lado más largo como máximo\(\alpha\). Entonces para cualquier\(x,y \in R\),\[\lVert {x-y} \rVert \leq \sqrt{n} \, \alpha .\]

    \ [\ begin {split} \ lVert {x-y}\ rVert & = \ sqrt {{(x_1-y_1)} ^2 + {(x_2-y_2)} ^2 +\ cdots + {(x_n-y_n)} ^2 } \\ &\ leq \ sqrt {{(b_1-a_1)} ^2 + {(b_2-a_2)} ^2 +\ cdots + {(b_n-a_n)} ^2 } \\ &\ leq \ sqrt { {\ alpha} ^2 + {\ alpha} ^2 +\ cdots + {\ alpha} ^2 } = \ sqrt {n}\,\ alfa. \ qedhere \ fin {dividir}\]

    [mv:thm:contintrect] Let\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) una función continua, entonces\(f \in {\mathcal{R}}(R)\).

    La prueba es análoga a la prueba de una variable con algunas complicaciones. El conjunto\(R\) es un subconjunto cerrado y delimitado de\({\mathbb{R}}^n\), y por lo tanto compacto. Así que no sólo\(f\) es continuo, sino de hecho uniformemente continuo por el Teorema 7.5 del volumen I.\(\epsilon > 0\) Déjese dar. Encontrar un\(\delta > 0\) tal que\(\lVert {x-y} \rVert < \delta\) implique\(\left\lvert {f(x)-f(y)} \right\rvert < \frac{\epsilon}{V(R)}\).

    Dejar\(P\) ser una partición de\(R\), tal que el lado más largo de cualquier subrectángulo es estrictamente menor que\(\frac{\delta}{\sqrt{n}}\). Si\(x, y \in R_k\) por algún subrectángulo\(R_k\) de\(P\) tenemos, por la proposición anterior,\(\lVert {x-y} \rVert < \sqrt{n} \frac{\delta}{\sqrt{n}} = \delta\). Por lo tanto\[f(x)-f(y) \leq \left\lvert {f(x)-f(y)} \right\rvert < \frac{\epsilon}{V(R)} .\] Como\(f\) es continuo en\(R_k\), alcanza un máximo y un mínimo en este subrectángulo. Dejar\(x\) ser un punto\(f\) donde alcance el máximo y\(y\) ser un punto\(f\) donde alcance el mínimo. Entonces\(f(x) = M_k\) y\(f(y) = m_k\) en la notación a partir de la definición de la integral. Por lo tanto,\ [M_i-M_i = f (x) -f (y) < \ frac {\ épsilon} {V (R)}.\] Y así\ [\ begin {split} U (P, f) - L (P, f) & = \ left (\ sum_ {k=1} ^N m_k V (R_k) \ derecha) - \ izquierda ( \ sum_ {k=1} ^N m_k V (R_k) \ derecha) \\ & = \ suma_ {k=1} ^N (m_k-m_k) V (R_k) \\ & < \ frac {\ épsilon} {V (R)} \ suma_ {k=1} ^N V (R_k) =\ épsilon. \ end {split}\] Vía aplicación de encontramos que\ (f\ in {\ mathcal {R}} (R)\).

    Integración de funciones con soporte compacto

    Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto y\(f \colon U \to {\mathbb{R}}\) ser una función. Decimos que el soporte de\(f\) es el conjunto\ [\ operatorname {supp} (f) := \ overline { \ {x\ in U: f (x)\ not= 0\} },\] donde el cierre es con respecto a la topología subespacial en\(U\). Recordemos que tomar el cierre con respecto a la topología subespacial es lo mismo que\ (\ overline { \ {x\ in U: f (x)\ not= 0\ }}\ cap U\), tomando ahora el cierre con respecto al espacio euclídeo ambiental\({\mathbb{R}}^n\). En particular,\(\operatorname{supp} (f) \subset U\). Es decir, el soporte es el cierre (in\(U\)) del conjunto de puntos donde la función es distinta de cero. Su complemento en\(U\) es abierto. Si\(x \in U\) y no\(x\) está en el apoyo de\(f\), entonces\(f\) es constantemente cero en todo un barrio de\(x\).

    \(f\)Se dice que una función tiene soporte compacto si\(\operatorname{supp}(f)\) es un conjunto compacto.

    Supongamos que\(B(0,1) \subset {\mathbb{R}}^2\) es el disco unitario. La función\(f \colon B(0,1) \to {\mathbb{R}}\) definida por\ [f (x, y) := \ begin {cases} 0 &\ text {if $\ sqrt {x^2+y^2} >\ nicefrac {1} {2} $},\ \ nicefrac {1} {2} -\ sqrt {x^2+y^2} &\ text {si $\ sqrt {x^2+y^2}\ leq\ nicefrac {1} {2} $}, \ end {cases}\] es continuo\(B(0,1)\) y su soporte es la bola cerrada más pequeña \(C(0,\nicefrac{1}{2})\). Como ese es un conjunto compacto,\(f\) tiene soporte compacto.

    Similarmente\(g \colon B(0,1) \to {\mathbb{R}}\) definido por\ [g (x, y) := \ begin {cases} 0 &\ text {if $x\ leq 0$},\\ x &\ text {if $x > 0$}, \ end {cases}\] es continuo encendido\(B(0,1)\), pero su soporte es el conjunto\(\{ (x,y) \in B(0,1) : x \geq 0 \}\). En particular, no\(g\) se soporta de forma compacta.

    Consideraremos principalmente el caso cuando\(U={\mathbb{R}}^n\). A la luz del siguiente ejercicio, no se trata de una simplificación exagerada.

    Supongamos que\(U \subset {\mathbb{R}}^n\)\(f \colon U \to {\mathbb{R}}\) es abierto y es continuo y de soporte compacto. Mostrar que la función\(\widetilde{f} \colon {\mathbb{R}}^n \to {\mathbb{R}}\)\ [\ Widetilde {f} (x) := \ begin {cases} f (x) &\ text {if $x\ in U$,}\\ 0 &\ text {de lo contrario,} \ end {cases}\] es continua.

    Por otro lado para el disco unitario\(B(0,1) \subset {\mathbb{R}}^2\), la función continua\(f \colon B(0,1) \to {\mathbb{R}}\) definida por\ (f (x, y) := \ sin\ bigl (\ frac {1} {1-x^2-y^2}\ bigr)\), no tiene soporte compacto; como no\(f\) es constantemente cero en vecindad de cualquier punto en\(B(0,1)\), sabemos que el soporte es todo el disco \(B(0,1)\). La función claramente no se extiende como anteriormente a una función continua. De hecho, no es difícil demostrar que no se puede extender de ninguna manera para que sea continuo en todos\({\mathbb{R}}^2\) (el límite del disco es el problema).

    [mv:prop:rectanglessupp] Supongamos\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}\) que es una función continua con soporte compacto. Si\(R\) y\(S\) son rectángulos cerrados de tal manera que\(\operatorname{supp}(f) \subset R\) y\(\operatorname{supp}(f) \subset S\), entonces\[\int_S f = \int_R f .\]

    Como\(f\) es continuo, es integrable automáticamente en los rectángulos\(R\),\(S\), y\ (R \ cap S\). Entonces dice\(\int_S f = \int_{S \cap R} f = \int_R f\).

    Debido a esta proposición, cuando\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}\) tiene soporte compacto y es integrable sobre un rectángulo\(R\) que contiene el soporte escribimos\ [\ int f: =\ int_r f\ qquad\ text {o}\ qquad \ int_ {{\ mathbb {R}} ^n} f: =\ int_r f.\] Por ejemplo, si\(f\) es continuo y de soporte compacto, entonces \(\int_{{\mathbb{R}}^n} f\)existe.

    Ejercicios

    Demostrar.

    Supongamos que\(R\) es un rectángulo con la longitud de uno de los lados igual a 0. Para cualquier función acotada\(f\), muestra eso\(f \in {\mathcal{R}}(R)\) y\(\int_R f = 0\).

    [mv:zerosiderectangle] Supongamos que\(R\) es un rectángulo con la longitud de uno de los lados igual a 0, y supongamos que\(S\) es un rectángulo con\(R \subset S\). Si\(f\) es una función acotada tal que\(f(x) = 0\) para\(x \in R \setminus S\), mostrar eso\(f \in {\mathcal{R}}(R)\) y\(\int_R f = 0\).

    Supongamos que\(f\colon {\mathbb{R}}^n \to {\mathbb{R}}\) es tal que\(f(x) := 0\) si\(x\not= 0\) y\(f(0) := 1\). Mostrar que\(f\) es integrable en el uso\(R := [-1,1] \times [-1,1] \times \cdots \times [-1,1]\) directo de la definición, y encontrar\(\int_R f\).

    [mv:zeroinside] Supongamos que\(R\) es un rectángulo cerrado y\(h \colon R \to {\mathbb{R}}\) es una función acotada tal que\(h(x) = 0\) if\(x \notin \partial R\) (el límite de\(R\)). Dejar\(S\) ser cualquier rectángulo cerrado. Mostrar eso\(h \in {\mathcal{R}}(S)\) y\[\int_{S} h = 0 .\] Pista: Escribir\(h\) como una suma de funciones como en.

    [mv:ceroexterior] Supongamos\(R\) y\(R'\) son dos rectángulos cerrados con\(R' \subset R\). Supongamos que\(f \colon R \to {\mathbb{R}}\) está en\({\mathcal{R}}(R')\) y\(f(x) = 0\) para\(x \in R \setminus R'\). \[\int_{R'} f = \int_R f .\]Demuéstralo\(f \in {\mathcal{R}}(R)\) y Haz esto en los siguientes pasos.
    a) Primero haga la prueba asumiendo que además\(f(x) = 0\) siempre que\ (x \ in\ overline {R\ setmenos R'}\).
    b) Escribe\(f(x) = g(x) + h(x)\) donde\(g(x) = 0\) siempre que\ (x \ in\ overline {R\ setmenos R'}\), y\(h(x)\) es cero excepto quizás on\(\partial R'\). Después mostrar\(\int_R h = \int_{R'} h = 0\) (ver).
    c) Mostrar\(\int_{R'} f = \int_R f\).

    Supongamos\(R' \subset {\mathbb{R}}^n\) y\(R'' \subset {\mathbb{R}}^n\) son dos rectángulos tal que\(R = R' \cup R''\) es un rectángulo, y\(R' \cap R''\) es rectángulo con uno de los lados teniendo longitud 0 (es decir\(V(R' \cap R'') = 0\)). Que\(f \colon R \to {\mathbb{R}}\) sea una función tal que\(f \in {\mathcal{R}}(R')\) y\(f \in {\mathcal{R}}(R'')\). \[\int_{R} f = \int_{R'} f + \int_{R''} f .\]Demuéstralo\(f \in {\mathcal{R}}(R)\) y Pista: ver ejercicio anterior.

    Demostrar una versión más fuerte de. Supongamos\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}\) ser una función con soporte compacto pero no necesariamente continuo. Demostrar que si\(R\) es un rectángulo cerrado tal que\(\operatorname{supp}(f) \subset R\) y\(f\) es integrable sobre\(R\), entonces para cualquier otro rectángulo cerrado\(S\) con\(\operatorname{supp}(f) \subset S\), la función\(f\) es integrable sobre\(S\) y\(\int_S f = \int_R f\). Pista: Ver.

    Supongamos\(R\) y\(S\) son rectángulos cerrados de\({\mathbb{R}}^n\). Definir\(f \colon {\mathbb{R}}^n \to {\mathbb{R}}\) como\(f(x) := 1\) si\(x \in R\), y de\(f(x) := 0\) otra manera. Prove\(f\) es integrable\(S\) y computar\(\int_S f\). Pista: Considere\(S \cap R\).

    Vamos\(R = [0,1] \times [0,1] \subset {\mathbb{R}}^2\).
    a) Supongamos que\(f \colon R \to {\mathbb{R}}\) está definido por\ [f (x, y) := \ begin {cases} 1 &\ text {if $x = y$,}\\ 0 &\ text {else.} \ end {cases}\] Muéstralo\(f \in {\mathcal{R}}(R)\) y computa\(\int_R f\).
    b) Supongamos que\(f \colon R \to {\mathbb{R}}\) está definido por\ [f (x, y) := \ begin {cases} 1 &\ text {if $x\ in {\ mathbb {Q}} $ o $y\ in {\ mathbb {Q}} $,}\\ 0 &\ text {else.} \ end {cases}\] Demuéstralo\(f \notin {\mathcal{R}}(R)\).

    Supongamos que\(R\) es un rectángulo cerrado, y supongamos que\(S_j\) son rectángulos cerrados tal que\(S_j \subset R\) y\(S_j \subset S_{j+1}\) para todos\(j\). Supongamos que\(f \colon R \to {\mathbb{R}}\) está acotado y\(f \in {\mathcal{R}}(S_j)\) para todos\(j\). Demuestre eso\(f \in {\mathcal{R}}(R)\) y\[\lim_{j\to\infty} \int_{S_j} f = \int_R f .\]

    Supongamos que\(f\colon [-1,1] \times [-1,1] \to {\mathbb{R}}\) es una función integrable Riemann tal\(f(x) = -f(-x)\). Usando la definición probar\[\int_{[-1,1] \times [-1,1]} f = 0 .\]

    Integrales iteradas y teorema de Fubini

    Nota: 1—2 conferencias

    La integral de Riemann en varias variables es difícil de calcular a partir de la definición. Para la integral unidimensional de Riemann tenemos el teorema fundamental del cálculo y podemos calcular muchas integrales sin tener que apelar a la definición de la integral. Reescribiremos una integral de Riemann en varias variables en varias integrales unidimensionales de Riemann iterando. Sin embargo, si\(f \colon [0,1]^2 \to {\mathbb{R}}\) es una función integrable de Riemann, no queda inmediatamente claro si las tres expresiones\ [\ int_ {[0,1] ^2} f, \ qquad \ int_0^1\ int_0^1 f (x, y)\, dx\, dy, \ qquad\ text {y} \ qquad \ int_0^1\ int_0^1 f (x, y)\, dy\, dx\] son iguales, o si los dos últimos están incluso bien definidos.

    Define\ [f (x, y) := \ begin {cases} 1 &\ text {if $x=\ nicefrac {1} {2} $ y $y\ in {\ mathbb {Q}} $,}\\ 0 &\ text {de lo contrario.} \ end {cases}\] Entonces Riemann\(f\) es integrable en\(R := [0,1]^2\) y\(\int_R f = 0\). Además,\(\int_0^1 \int_0^1 f(x,y) \, dx \, dy = 0\). Sin embargo\[\int_0^1 f(\nicefrac{1}{2},y) \, dy\] no existe, así que ni siquiera podemos escribir\ (\ int_0^1\ int_0^1 f (x, y)\, dy\, dx\).

    Prueba: Empecemos con la integrabilidad de\(f\). Simplemente tomamos la partición de\([0,1]^2\) donde está la partición en la\(x\) dirección\ (\ {0,\ nicefrac {1} {2} -\ epsilon, \ nicefrac {1} {2} +\ epsilon,1\}\) y en la\(y\) dirección\(\{ 0, 1 \}\). Los subrectángulos de la partición son\ [R_1: = [0, \ nicefrac {1} {2} -\ epsilon]\ times [0,1], \ qquad R_2: = [\ nicefrac {1} {2} -\ epsilon, \ nicefrac {1} {2} +\ epsilon]\ times [0,1], \ qquad R_3: = [\ nicefrac {1} {2} +\ epsilon,1]\ veces [0,1].\] Tenemos\(m_1 = M_1 = 0\),\(m_2 =0\),\(M_2 = 1\), y \(m_3 = M_3 = 0\). Por lo tanto,\ [L (P, f) = m_1 V (R_1) + m_2 V (R_2) + m_3 V (R_3) = 0 (\ nicefrac {1} {2} -\ épsilon) + 0 (2\ épsilon) + 0 (\ nicefrac {1} {2} -\ épsilon) = 0,\] y\ [U (P, f) = M_1 V (R_1) + M_2 V (R_2) + M_3 V (R_3) = 0 (\ nicefrac {1} {2} -\ épsilon) + 1 (2\ épsilon) + 0 (\ nicefrac {1} {2} -\ épsilon) = 2\ épsilon.\] La suma superior e inferior son arbitrariamente cercanas y la suma inferior siempre es cero, por lo que la función es integrable y\(\int_R f = 0\).

    Para cualquiera\(y\), la función que lleva\(x\) a\(f(x,y)\) es cero excepto quizás en un solo punto\(x=\nicefrac{1}{2}\). Sabemos que tal función es integrable y\(\int_0^1 f(x,y) \, dx = 0\). Por lo tanto,\(\int_0^1 \int_0^1 f(x,y) \, dx \, dy = 0\).

    Sin embargo si\(x=\nicefrac{1}{2}\), la función que lleva\(y\) a\(f(\nicefrac{1}{2},y)\) es la función no integrable que es 1 en los racionales y 0 en los irracionales. Ver Ejemplo 5.1.4 del volumen I.

    Vamos a resolver este problema de integrales indefinidas dentro mediante el uso de las integrales superiores e inferiores, que siempre están definidas.

    Dividimos las coordenadas de\({\mathbb{R}}^{n+m}\) en dos partes. Es decir, escribimos las coordenadas en\({\mathbb{R}}^{n+m} = {\mathbb{R}}^n \times {\mathbb{R}}^m\) como\((x,y)\) dónde\(x \in {\mathbb{R}}^n\) y\(y \in {\mathbb{R}}^m\). Para una función\(f(x,y)\) escribimos\[f_x(y) := f(x,y)\] cuando\(x\) se fija y deseamos hablar de la función en términos de\(y\). Escribimos\[f^y(x) := f(x,y)\] cuando\(y\) se fija y deseamos hablar de la función en términos de\(x\).

    [MV:Fubiniva] Dejar\(R \times S \subset {\mathbb{R}}^n \times {\mathbb{R}}^m\) ser un rectángulo cerrado y\(f \colon R \times S \to {\mathbb{R}}\) ser integrable. Las funciones\(g \colon R \to {\mathbb{R}}\) y\(h \colon R \to {\mathbb{R}}\) definidas por\ [g (x) :=\ subrayado {\ int_s} f_x\ qquad \ text {y}\ qquad h (x) :=\ overline {\ int_s} f_x\] son integrables sobre\(R\) y\[\int_R g = \int_R h = \int_{R \times S} f .\]

    En otras palabras\ [\ int_ {R\ veces S} f = \ int_r\ izquierda ( \ subrayado {\ int_s} f (x, y)\, dy \ derecha)\, dx = \ int_r\ izquierda ( \ overline {\ int_s} f (x, y)\, dy \ derecha)\, dx.\] Si resulta que\(f_x\) es integrable para todos\(x\), para ejemplo cuando\(f\) es continuo, entonces obtenemos el más familiar\ [\ int_ {R\ veces S} f = \ int_r\ int_s f (x, y)\, dy\, dx.\]

    Cualquier partición de\(R \times S\) es una concatenación de una partición de\(R\) y una partición de\(S\). Es decir, escribir una partición de\(R \times S\) as\((P,P') = (P_1,P_2,\ldots,P_n,P'_1,P'_2,\ldots,P'_m)\), dónde\(P = (P_1,P_2,\ldots,P_n)\) y\(P' = (P'_1,P'_2,\ldots,P'_m)\) son particiones de\(R\) y\(S\) respectivamente. \(R_1,R_2,\ldots,R_N\)Dejen ser los subrectángulos de\(P\) y\(R'_1,R'_2,\ldots,R'_K\) ser los subrectángulos de\(P'\). Entonces los subrectángulos de\((P,P')\) son\(R_j \times R'_k\) dónde\(1 \leq j \leq N\) y\(1 \leq k \leq K\).

    Vamos\ [m_ {j, k} := \ inf_ {(x, y)\ en R_j\ veces R'_k} f (x, y).\] Nos damos cuenta de que\(V(R_j \times R'_k) = V(R_j)V(R'_k)\) y por lo tanto\ [L\ bigl ((P, P'), f\ bigr) = \ sum_ {j=1} ^N \ sum_ {k=1} ^K m_ {j, k}\, V (R_j\ veces R'_k) = \ suma_ {j=1} ^N \ izquierda ( \ suma_ {k=1} ^K m_ {j, k}\, V (R'_k)\ derecha) V (R_j).\] Si dejamos\[m_k(x) := \inf_{y \in R'_k} f(x,y) = \inf_{y \in R'_k} f_x(y) ,\] entonces claro si\(x \in R_j\), entonces\(m_{j,k} \leq m_k(x)\). Por lo tanto\ [\ sum_ {k=1} ^K m_ {j, k}\, V (R'_k) \ leq\ sum_ {k=1} ^K m_k (x)\, V (R'_k) = L (P', f_x) \ leq\ subrayamos {\ int_s} f_x = g (x).\] Como tenemos la desigualdad para todos\(x \in R_j\) tenemos\ [\ sum_ {k=1} ^K m_ {j, k}\, V (R'_k) \ leq\ inf_ {x\ in R_j} g (x).\] Así obtenemos\ [L\ bigl ((P, P'), f\ bigr) \ leq \ suma_ {j=1} ^N \ izquierda ( \ inf_ {x\ en R_j} g (x) \ derecha) V (R_j) = L (P, g).\]

    De igual manera\(U\bigl((P,P'),f) \geq U(P,h)\), y la prueba de esta desigualdad se deja como ejercicio.

    Armando esto tenemos\ [L\ bigl ((P, P'), f\ bigr) \ leq L (P, g)\ leq U (P, g)\ leq U (P, h)\ leq U\ bigl ((P, P'), f\ bigr).\] Y como\(f\) es es integrable, debe ser que\(g\) sea integrable como\ [U (P, P, g) - L (P, g) \ leq U\ bigl ((P, P'), f\ bigr) - L\ bigl ((P, P'), f\ bigr),\] y nosotros puede hacer que el lado derecho sea arbitrariamente pequeño. En cuanto a cualquier partición que\(L\bigl((P,P'),f\bigr) \leq L(P,g) \leq U\bigl((P,P'),f\bigr)\) tengamos debemos tener eso\(\int_R g = \int_{R \times S} f\).

    De igual manera tenemos\ [L\ bigl ((P, P'), f\ bigr) \ leq L (P, g)\ leq L (P, h)\ leq U (P, h)\ leq U\ bigl ((P, P'), f\ bigr),\] y por lo tanto\ [U (P, h) - L (P, h) \ leq U\ bigl ((P, P'), f\ bigr) - L\ bigl ((P, P'), f\ bigr).\] Entonces si\(f\) es integrable así es\(h\), y como\(L\bigl((P,P'),f\bigr) \leq L(P,h) \leq U\bigl((P,P'),f\bigr)\) debemos tener eso \(\int_R h = \int_{R \times S} f\).

    También podemos hacer la integración iterada en orden opuesto. La prueba de esta versión es casi idéntica a la versión A, y la dejamos como ejercicio al lector.

    [MV:FubiniVB] Dejar\(R \times S \subset {\mathbb{R}}^n \times {\mathbb{R}}^m\) ser un rectángulo cerrado y\(f \colon R \times S \to {\mathbb{R}}\) ser integrable. Las funciones\(g \colon S \to {\mathbb{R}}\) y\(h \colon S \to {\mathbb{R}}\) definidas por\ [g (y) :=\ subrayado {\ int_r} f^y\ qquad \ text {y}\ qquad h (y) :=\ overline {\ int_r} f^y\] son integrables sobre\(S\) y\[\int_S g = \int_S h = \int_{R \times S} f .\]

    Es decir también tenemos\ [\ int_ {R\ veces S} f = \ int_s\ izquierda ( \ subrayado {\ int_r} f (x, y)\, dx \ derecha)\, dy = \ int_s\ izquierda ( \ overline {\ int_r} f (x, y)\, dx \ derecha)\, dy.\]

    Siguiente supongamos que\(f_x\) y\(f^y\) son integrables por simplicidad. Por ejemplo, supongamos que eso\(f\) es continuo. Entonces juntando las dos versiones obtenemos el familiar\ [\ int_ {R\ times S} f = \ int_r \ int_s f (x, y)\, dy\, dx = \ int_s \ int_r f (x, y)\, dx\, dy.\]

    A menudo el teorema de Fubini se afirma en dos dimensiones para una función continua\ (f\ colon R\ a {\ mathbb {R}}\) sobre un rectángulo\(R = [a,b] \times [c,d]\). Entonces el teorema de Fubini establece que\ [\ int_r f =\ int_a^b\ int_c^d f (x, y)\, dy\, dx = \ int_c^d\ int_a^b f (x, y)\, dx\, dy.\] Y el teorema de Fubini se piensa comúnmente como el teorema que nos permite intercambiar el orden de iterado integrales.

    Aplicando repetidamente el teorema de Fubini nos consigue el siguiente corolario: Vamos\ (R: = [a_1, b_1]\ times [a_2, b_2]\ times\ cdots\ times [a_n, b_n]\ subconjunto {\ mathbb {R}} ^n\) ser un rectángulo cerrado y dejar que\(f \colon R \to {\mathbb{R}}\) sea continuo. Entonces\ [\ int_r f = \ int_ {a_1} ^ {b_1} \ int_ {a_2} ^ {b_2} \ cdots \ int_ {a_n} ^ {b_n} f (x_1, x_2,\ ldots, x_n) \, dx_n \, dx_ {n-1} \ cdots dx_1.\]

    Claramente también podemos cambiar el orden de integración a cualquier orden que nos plazca. También podemos relajar el requisito de continuidad asegurándonos de que todas las funciones intermedias sean integrables, o mediante el uso de integrales superiores o inferiores.

    Ejercicios

    Calcular\(\int_{0}^1 \int_{-1}^1 xe^{xy} \, dx \, dy\) de una manera sencilla.

    Demostrar la aseveración\(U\bigl((P,P'),f\bigr) \geq U(P,h)\) a partir de la prueba de.

    Demostrar.

    Let\(R=[a,b] \times [c,d]\) y\(f(x,y)\) es una función integrable en\(R\) tal que tal que para cualquier fijo\(y\), la función que lleva\(x\) a\(f(x,y)\) es cero excepto en finitamente muchos puntos. Mostrar\[\int_R f = 0 .\]

    Let\(R=[a,b] \times [c,d]\) y\(f(x,y) := g(x)h(y)\) para dos funciones continuas\(g \colon [a,b] \to {\mathbb{R}}\) y\(h \colon [a,b] \to {\mathbb{R}}\). Demostrar\[\int_R f = \left(\int_a^b g\right)\left(\int_c^d h\right) .\]

    Calcular\ [\ int_0^1\ int_0^1\ frac {x^2-y^2} {{(x^2+y^2)} ^2}\, dx\, dy \ qquad\ texto {y}\ qquad \ int_0^1\ int_0^1\ frac {x^2-y^2} {{(x^2+y^2)} ^2}\, dy\, dx.\] Necesitarás interpretar las integrales como impropias, es decir, el límite de\(\int_\epsilon^1\) as\(\epsilon \to 0\).

    Supongamos\(f(x,y) := g(x)\) dónde\(g \colon [a,b] \to {\mathbb{R}}\) es Riemann integrable. Demostrar que\(f\) es Riemann integrable para cualquier\(R = [a,b] \times [c,d]\) y\[\int_R f = (d-c) \int_a^b g .\]

    Definir\(f \colon [-1,1] \times [0,1] \to {\mathbb{R}}\) por\ [f (x, y) := \ begin {cases} x &\ text {if $y\ in {\ mathbb {Q}} $,}\\ 0 &\ text {else.} \ end {cases}\] Mostrar
    a)\(\int_0^1 \int_{-1}^1 f(x,y) \, dx \, dy\) existe, pero no\(\int_{-1}^1 \int_0^1 f(x,y) \, dy \, dx\) lo hace.
    b) Cómputos\(\int_{-1}^1 \overline{\int_0^1} f(x,y) \, dy \, dx\) y\(\int_{-1}^1 \underline{\int_0^1} f(x,y) \, dy \, dx\).
    c) Show no\(f\) es Riemann integrable en\([-1,1] \times [0,1]\) (use Fubini).

    Definir\(f \colon [0,1] \times [0,1] \to {\mathbb{R}}\) por\ [f (x, y) := \ begin {cases} \ nicefrac {1} {q} &\ text {if $x\ in {\ mathbb {Q}} $, $y\ in {\ mathbb {Q}} $, y $y=\ nicefrac {p} {q} $ en términos más bajos,}\\ 0 &\ text {else.} \ end {cases}\] Mostrar
    a) Show\(f\) es Riemann integrable en\([0,1] \times [0,1]\).
    b) Encontrar\(\overline{\int_0^1} f(x,y) \, dx\) y\(\underline{\int_0^1} f(x,y) \, dx\) para todos\(y \in [0,1]\), y demostrar que son desiguales para todos\ (y \ in {\ mathbb {Q}}\).
    c)\(\int_0^1 \int_0^1 f(x,y) \, dy \, dx\) existe, pero\(\int_0^1 \int_0^1 f(x,y) \, dx \, dy\) no lo hace.
    Nota: Por Fubini,\(\int_0^1 \overline{\int_0^1} f(x,y) \, dy \, dx\) y\(\int_0^1 \underline{\int_0^1} f(x,y) \, dy \, dx\) sí existen e igualan la integral de\(f\) on\(R\).

    Conjuntos de medidas externas y nulos

    Nota: 2 conferencias

    Conjuntos de medidas externas y nulos

    Antes de caracterizar todas las funciones integrables de Riemann, necesitamos hacer un ligero desvío. Introducimos una forma de medir el tamaño de los conjuntos en\({\mathbb{R}}^n\).

    Dejar\(S \subset {\mathbb{R}}^n\) ser un subconjunto. Definir la medida externa de\(S\) como\ [m^* (S) : = \ inf\, \ sum_ {j=1} ^\ infty V (R_j),\] donde el infimum se toma sobre todas las secuencias\(\{ R_j \}\) de rectángulos abiertos tal que\(S \subset \bigcup_{j=1}^\infty R_j\). En particular,\(S\) es de medida cero o un conjunto nulo si\(m^*(S) = 0\).

    La teoría de las medidas sobre\({\mathbb{R}}^n\) es un tema muy complicado. Solo requeriremos conjuntos de medida-cero y así nos enfocamos en estos. El conjunto\(S\) es de medida cero si por cada\(\epsilon > 0\) existe una secuencia de rectángulos abiertos\(\{ R_j \}\) tal que\ [\ label {mv:eq:nullr} S\ subconjunto\ bigcup_ {j=1} ^\ infty R_j\ qquad\ text {y}\ qquad \ sum_ {j=1} ^\ infty V (R_j) <\ épsilon.\] Además, si\(S\) es medida cero y \(S' \subset S\), entonces\(S'\) es de medida cero. De hecho podemos usar exactamente los mismos rectángulos.

    A veces es más conveniente usar bolas en lugar de rectángulos. De hecho podemos elegir bolas no mayores que un radio fijo.

    [mv:prop:ballsnull] Dejar\(\delta > 0\) ser dado. Un conjunto\(S \subset {\mathbb{R}}^n\) es medida cero si y solo si por cada\ (\ épsilon > 0\), existe una secuencia de bolas abiertas\(\{ B_j \}\), donde el radio de\(B_j\) es\(r_j < \delta\) tal que\ [S\ subconjunto\ bigcup_ {j=1} ^\ infty b_j\ qquad\ text {y}\ qquad \ sum_ {j=1} ^\ infty r_j^n <\ épsilon.\]

    Tenga en cuenta que el “volumen” de\(B_j\) es proporcional a\(r_j^n\).

    Si\(R\) es un cubo (cerrado o abierto) (rectángulo con todos los lados iguales) de lado\(s\), entonces\(R\) está contenido en una bola cerrada de radio\(\sqrt{n}\, s\) por, y por lo tanto en una bola abierta de tamaño\(2 \sqrt{n}\, s\).

    Dejar\(s\) ser un número que es menor que el lado más pequeño de\(R\) y también para que\(2\sqrt{n} \, s < \delta\). Afirmamos\(R\) está contenido en una unión de cubos cerrados\(C_1, C_2, \ldots, C_k\) de lados\(s\) tal que\[\sum_{j=1}^k V(C_j) \leq 2^n V(R) .\] es claramente cierto (sin el\(2^n\)) si\(R\) tiene lados que son múltiplos enteros de\(s\). Entonces si un lado es de longitud\((\ell+\alpha) s\), para\(\ell \in {\mathbb{N}}\) y\(0 \leq \alpha < 1\), entonces\((\ell+\alpha)s \leq 2\ell s\). Al aumentar el lado a\(2\ell s\) obtenemos un nuevo rectángulo de volumen más grande en la mayoría de las\(2^n\) veces más grande, pero cuyos lados son múltiplos de\(s\).

    Entonces supongamos que existen\(\{ R_j \}\) como en la definición tal que [MV:EQ:NullR] es cierto. Como hemos visto anteriormente, podemos elegir cubos cerrados\(\{ C_k \}\) con\(C_k\) de lado\(s_k\) como arriba que cubran todos los rectángulos\(\{ R_j \}\) y para que\ [\ sum_ {k=1} ^\ infty s_k^n = \ sum_ {k=1} ^\ infty V (C_k)\ leq 2^n\ sum_ {j=1} ^\ infty V (R_k) < 2^n\ epsilon.\] Recubrimiento\(C_k\) con bolas \(B_k\)de radio\(r_k = 2\sqrt{n} \, s_k\) obtenemos\ [\ sum_ {k=1} ^\ infty r_k^n < 2^ {2n} n\ epsilon.\] Y como\ (S\ subconjunto\ bigcup_ {j} R_j\ subconjunto\ bigcup_ {k} c_k\ subconjunto\ bigcup_ {k} b_k\), estamos terminados.

    Supongamos que tenemos la condición de bola arriba para algunos\(\epsilon > 0\). Sin pérdida de generalidad supongamos que todos\(r_j < 1\). Cada uno\(B_j\) está contenido un en un cubo\(R_j\) de lado\(2r_j\). Entonces\(V(R_j) = {(2 r_j)}^n < 2^n r_j\). Por lo tanto\ [S\ subconjunto\ bigcup_ {j=1} ^\ infty R_j\ qquad\ texto {y}\ qquad \ sum_ {j=1} ^\ infty V (R_j) < \ sum_ {j=1} ^\ infty 2^n r_j < 2^n\ epsilon. \ qedhere\]

    La definición de medida exterior podría haberse hecho también con bolas abiertas, no solo conjuntos nulos. Dejamos esta generalización al lector.

    Ejemplos y propiedades básicas

    El conjunto\({\mathbb{Q}}^n \subset {\mathbb{R}}^n\) de puntos con coordenadas racionales es un conjunto de medida cero.

    Prueba: El conjunto\({\mathbb{Q}}^n\) es contable y por lo tanto vamos a escribirlo como una secuencia\(q_1,q_2,\ldots\). Para cada uno\(q_j\) encontrar un rectángulo abierto\(R_j\) con\(q_j \in R_j\) y\(V(R_j) < \epsilon 2^{-j}\). Entonces\ [{\ mathbb {Q}} ^n\ subconjunto\ bigcup_ {j=1} ^\ infty R_j\ qquad\ texto {y}\ qquad \ suma_ {j=1} ^\ infty V (R_j) < \ sum_ {j=1} ^\ infty\ épsilon 2^ {-j} =\ épsilon.\]

    El ejemplo apunta a un resultado más general.

    Una unión contable de conjuntos de cero de medida es de medida cero.

    Supongamos\[S = \bigcup_{j=1}^\infty S_j ,\] donde\(S_j\) están todos los conjuntos de cero de medida. Dejemos\(\epsilon > 0\) que se den. Para cada uno\(j\) existe una secuencia de rectángulos abiertos\(\{ R_{j,k} \}_{k=1}^\infty\) tal que\[S_j \subset \bigcup_{k=1}^\infty R_{j,k}\] y\[\sum_{k=1}^\infty V(R_{j,k}) < 2^{-j} \epsilon .\] Entonces\[S \subset \bigcup_{j=1}^\infty \bigcup_{k=1}^\infty R_{j,k} .\] Como siempre\(V(R_{j,k})\) es positivo, la suma sobre todo\(j\) y se\(k\) puede hacer en cualquier orden. En particular, se puede hacer como\ [\ sum_ {j=1} ^\ infty\ sum_ {k=1} ^\ infty V (R_ {j, k}) < \ sum_ {j=1} ^\ infty 2^ {-j}\ épsilon =\ épsilon. \ qedhere\]

    El siguiente ejemplo no sólo es interesante, será útil más adelante.

    [mv:ejemplo:planenull] Let\(P := \{ x \in {\mathbb{R}}^n : x_k = c \}\) para una constante fija\(k=1,2,\ldots,n\) y una fija\(c \in {\mathbb{R}}\). Entonces\(P\) es de medida cero.

    Prueba: Primero arregla\(s\) y probemos que\[P_s := \{ x \in {\mathbb{R}}^n : x_k = c, \left\lvert {x_j} \right\rvert \leq s \text{ for all $j\not=k$} \}\] es de medida cero. Dado cualquiera\(\epsilon > 0\) define el rectángulo abierto\ [R: =\ {x\ in {\ mathbb {R}} ^n: c-\ epsilon < x_k < c+\ épsilon,\ left\ lvert {x_j}\ right\ rvert < s+1 \ text {para todos $j\ not=k$}\}.\] Es claro que\(P_s \subset R\). Además\[V(R) = 2\epsilon {\bigl(2(s+1)\bigr)}^{n-1} .\] Como\(s\) se fija, podemos hacer\(V(R)\) arbitrariamente pequeños recogiendo lo suficientemente\(\epsilon\) pequeños.

    A continuación observamos que\[P = \bigcup_{j=1}^\infty P_j\] y una unión contable de conjuntos de medidas cero es la medida cero.

    Si\(a < b\), entonces\(m^*([a,b]) = b-a\).

    Prueba: En el caso de\({\mathbb{R}}\), los rectángulos abiertos son intervalos abiertos. Ya que\([a,b] \subset (a-\epsilon,b+\epsilon)\) para todos\(\epsilon > 0\). De ahí,\(m^*([a,b]) \leq b-a\).

    Demostremos la otra desigualdad. Supongamos que\(\{ (a_j,b_j) \}\) son intervalos abiertos de tal manera que\[[a,b] \subset \bigcup_{j=1}^\infty (a_j,b_j) .\] deseamos encuadernar\(\sum (b_j-a_j)\) desde abajo. Dado que\([a,b]\) es compacto, entonces solo hay finitamente muchos intervalos abiertos que aún cubren\([a,b]\). Como tirar algunos de los intervalos solo hace que la suma sea más pequeña, solo necesitamos tomar el número finito de intervalos que aún cubren\([a,b]\). Si\((a_i,b_i) \subset (a_j,b_j)\), entonces podemos tirar\((a_i,b_i)\) también. Por lo tanto tenemos\([a,b] \subset \bigcup_{j=1}^k (a_j,b_j)\) para algunos\(k\), y suponemos que los intervalos están ordenados de tal manera que\ (a_1 < a_2 <\ cdots < a_k\). Tenga en cuenta que ya que no\((a_2,b_2)\) está contenido en eso\((a_1,b_1)\) tenemos\(a_1 < a_2 < b_1 < b_2\). De igual manera\(a_j < a_{j+1} < b_j < b_{j+1}\). Además,\(a_1 < a\) y\(b_k > b\). Así,\ [m^* ([a, b])\ geq \ suma_ {j=1} ^k (b_j-a_j) \ geq \ suma_ {j=1} ^ {k-1} (a_ {j+1} -a_j) + (b_k-a_k) = b_k-a_1 > b-a.\]

    [mv:prop:compactnull] Supongamos que\(E \subset {\mathbb{R}}^n\) es un conjunto compacto de medida cero. Entonces para cada\(\epsilon > 0\), existen finitamente muchos rectángulos abiertos\(R_1,R_2,\ldots,R_k\) tales que\ [E\ subconjunto R_1\ copa R_2\ copa\ cdots\ copa R_k \ qquad\ text {and}\ qquad \ sum_ {j=1} ^k V (R_j) <\ épsilon.\] También para cualquiera\(\delta > 0\), existen finitamente muchas bolas abiertas\(B_1,B_2,\ldots,B_k\) de radios\(r_1,r_2,\ldots,r_k < \delta\) tales que \ [E\ subconjunto B_1\ copa B_2\ copa\ cdots\ copa B_k \ qquad\ texto {y}\ qquad \ sum_ {j=1} ^k r_j^n <\ épsilon.\]

    Encuentra una secuencia de rectángulos abiertos\(\{ R_j \}\) tal que\ [E\ subconjunto\ bigcup_ {j=1} ^\ infty R_j \ qquad\ text {y}\ qquad \ sum_ {j=1} ^\ infty V (R_j) <\ épsilon.\] Por compacidad, hay finitamente muchos de estos rectángulos que aún contienen\(E\). Es decir, hay algunos\(k\) tales que\(E \subset R_1 \cup R_2 \cup \cdots \cup R_k\). De ahí\ [\ sum_ {j=1} ^k V (R_j)\ leq \ suma_ {j=1} ^\ infty V (R_j) <\ épsilon.\]

    La prueba de que podemos elegir bolas en lugar de rectángulos se deja como ejercicio.

    [ejemplo:cantor] Para que el lector no tenga la impresión de que sólo hay muy pocos conjuntos de cero de medida y que estos son simples, demos un subconjunto incontable, compacto, de medida cero en\([0,1]\). Para cualquier\(x \in [0,1]\) escribir la representación en notación ternaria\[x = \sum_{j=1}^\infty d_n 3^{-n} .\] Ver §1.5 en el tomo I, en particular Ejercicio 1.5.4. Definir el conjunto Cantor\(C\) como\ [C: =\ Bigl\ {x\ in [0,1]: x =\ sum_ {j=1} ^\ infty d_n 3^ {-n},\ text {donde $d_j = 0$ o $d_j = 2$ para todos $j$}\ Bigr\}.\] Es decir,\(x\) está adentro\(C\) si tiene una expansión ternaria en only\(0\)'s y\(2\)'s. Si\(x\) tiene dos expansiones, siempre y cuando una de ellas no tenga ninguna\(1\), entonces\(x\) está adentro\(C\). Definir\(C_0 := [0,1]\) y\ [C_k: =\ Bigl\ {x\ in [0,1]: x =\ sum_ {j=1} ^\ infty d_n 3^ {-n},\ text {donde $d_j = 0$ o $d_j = 2$ para todos $j=1,2,\ ldots, k$}\ Bigr\}.\] Claramente,\[C = \bigcap_{k=1}^\infty C_k .\] dejamos como ejercicio para demostrar que:

    1. Cada uno\(C_k\) es una unión finita de intervalos cerrados. Se obtiene tomando\(C_{k-1}\), y de cada intervalo cerrado eliminando el “tercio medio”.
    2. Por lo tanto, cada uno\(C_k\) está cerrado.
    3. Además,\(m^*(C_k) =1 - \sum_{n=1}^k \frac{2^n}{3^{n+1}}\).
    4. De ahí,\(m^*(C) = 0\).
    5. El conjunto\(C\) está en correspondencia uno a uno con\([0,1]\), es decir, incontable.


    Ver.

    Imágenes de null sets

    Antes de mirar imágenes de conjuntos de medida cero, veamos qué le hace una función continuamente diferenciable a una pelota.

    [lemma:ballmapder] Supongamos que\(U \subset {\mathbb{R}}^n\) es un conjunto abierto,\(B \subset U\) es una bola abierta o cerrada de radio a lo sumo\(r\),\(f \colon B \to {\mathbb{R}}^n\) es continuamente diferenciable y supongamos\(\lVert {f'(x)} \rVert \leq M\) para todos\(x \in B\). Entonces\(f(B) \subset B'\), donde\(B'\) está una bola de radio como máximo\(Mr\).

    Sin pérdida de generalidad asuma que\(B\) es una bola cerrada. La bola\(B\) es convexa, y por lo tanto vía, eso\(\lVert {f(x)-f(y)} \rVert \leq M \lVert {x-y} \rVert\) para todos\(x,y\) adentro\(B\). En particular, supongamos\(B = C(y,r)\), entonces\(f(B) \subset C\bigl(f(y),M r \bigr)\).

    La imagen de un conjunto de cero de medida usando un mapa continuo no es necesariamente un conjunto de cero de medida. Sin embargo, si asumimos que el mapeo es continuamente diferenciable, entonces el mapeo no puede “estirar” demasiado el conjunto.

    [prop:imagenull] Supongamos que\(U \subset {\mathbb{R}}^n\) es un conjunto abierto y\(f \colon U \to {\mathbb{R}}^n\) es un mapeo continuamente diferenciable. Si\(E \subset U\) es una medida cero establecida, entonces\(f(E)\) es la medida cero.

    Dejamos la prueba para un conjunto de cero de medida general como ejercicio, y ahora probamos la propuesta de un conjunto de cero de medida compacta. Por lo tanto, supongamos que\(E\) es compacto.

    Primero vamos a reemplazar\(U\) por un conjunto abierto más pequeño para hacer\(\lVert {f'(x)} \rVert\) acotado. En cada punto\ (x\ en E\) recoger una bola abierta de\(B(x,r_x)\) tal manera que la bola cerrada\ (C (x, r_x)\ subconjunto U\). Por compacidad sólo necesitamos tomar finitamente muchos puntos\(x_1,x_2,\ldots,x_q\) para seguir cubriendo\(E\). Definir\ [U': =\ bigcup_ {j=1} ^q B (x_j, r_ {x_j}),\ qquad K: =\ bigcup_ {j=1} ^q C (x_j, r_ {x_j}).\] Tenemos\(E \subset U' \subset K \subset U\). El conjunto\(K\) es compacto. La función que lleva\(x\) a\(\lVert {f'(x)} \rVert\) es continua, y por lo tanto existe\(M > 0\) tal que\(\lVert {f'(x)} \rVert \leq M\) para todos\(x \in K\). Entonces sin pérdida de generalidad podemos sustituir\(U\) por\(U'\) y a partir de ahora supongamos eso\(\lVert {f'(x)} \rVert \leq M\) para todos\(x \in U\).

    En cada punto\(x \in E\) escoge una bola\(B(x,\delta_x)\) de radio máximo para que\(B(x,\delta_x) \subset U\). Vamos\(\delta = \inf_{x\in E} \delta_x\). Toma una secuencia\(\{ x_j \} \subset E\) para que\(\delta_{x_j} \to \delta\). Como\(E\) es compacto, podemos escoger la secuencia para ser convergentes a algunos\ (y\ en E\). Una vez\(\lVert {x_j-y} \rVert < \frac{\delta_y}{2}\), luego\(\delta_{x_j} > \frac{\delta_y}{2}\) por la desigualdad triangular. Por lo tanto\(\delta > 0\).

    Dado\(\epsilon > 0\), existen bolas\(B_1,B_2,\ldots,B_k\) de radios\(r_1,r_2,\ldots,r_k < \delta\) tales que\ [E\ subconjunto B_1\ copa B_2\ copa\ cdots\ copa B_k\ qquad \ text {y}\ qquad \ sum_ {j=1} ^k r_j^n <\ épsilon.\] Supongamos que\(B_1', B_2', \ldots, B_k'\) son las bolas de radio\(Mr_1, Mr_2, \ldots, Mr_k\) desde, tal que\(f(B_j) \subset B_j'\) para todos\(j\). \ [f (E)\ subconjunto f (B_1)\ copa f (B_2)\ copa\ cdots\ copa f (B_k) \ subconjunto B_1'\ copa B_2'\ copa\ cdots\ copa B_k' \ qquad\ texto {y}\ qquad \ sum_ {j=1} ^k mr_j^n %= %M %\ sum_ {j=1} ^k Mr_j^n < M\ épsilon. \ qedhere\]

    Ejercicios

    Terminar la prueba de, es decir, demostrar que se pueden usar bolas en lugar de rectángulos.

    Si\(A \subset B\), entonces\(m^*(A) \leq m^*(B)\).

    Supongamos que\(X \subset {\mathbb{R}}^n\) es un conjunto tal que para cada\(\epsilon > 0\) existe un conjunto\(Y\) tal que\(X \subset Y\) y\(m^*(Y) \leq \epsilon\). Demostrar que\(X\) es un conjunto de medidas cero.

    Mostrar que si\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado, entonces\(m^*(R) = V(R)\).

    El cierre de un conjunto de medidas cero puede ser bastante grande. Encuentra un conjunto de ejemplo\(S \subset {\mathbb{R}}^n\) que sea de medida cero, pero cuyo cierre\(\overline{S} = {\mathbb{R}}^n\).

    Demostrar el caso general de sin usar compacidad:
    a) Imita la prueba para probar primero que la proposición se mantiene si\(E\) es relativamente compacta; un conjunto\(E \subset U\) es relativamente compacto si el cierre de\(E\) en la topología subespacial on\(U\) es compacto, o en otro palabras si existe un conjunto compacto\(K\) con\(K \subset U\) y\(E \subset K\).
    Pista: El límite en el tamaño de la derivada aún se mantiene, pero es necesario usar contablemente muchas bolas en la segunda parte de la prueba. Tenga cuidado ya que el cierre de ya no\(E\) necesita ser medida cero.
    b) Ahora demuéstralo para cualquier conjunto nulo\(E\).
    Pista: Primero muestra que\ (\ {x\ in U: d (x, y)\ geq \ nicefrac {1} {m}\ text {para todos\) y U\(and } d(0,x) \leq m \}\) es un conjunto compacto para cualquiera\(m > 0\).

    Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto y dejar\(f \colon U \to {\mathbb{R}}\) ser una función continuamente diferenciable. \(G := \{ (x,y) \in U \times {\mathbb{R}}: y = f(x) \}\)Déjese ser la gráfica de\(f\). Mostrar que\(f\) es de medida cero.

    Dado un rectángulo cerrado\(R \subset {\mathbb{R}}^n\), mostrar que para cualquiera\(\epsilon > 0\) existe un número\(s > 0\) y finitamente muchos cubos abiertos\(C_1,C_2,\ldots,C_k\) de lado\(s\) tal que\(R \subset C_1 \cup C_2 \cup \cdots \cup C_k\) y\[\sum_{j=1}^k V(C_j) \leq V(R) + \epsilon .\]

    Demostrar que existe un número\(k = k(n,r,\delta)\) dependiendo sólo de\(n\),\(r\) y\(\delta\) tal lo que sigue sostiene. Dado\(B(x,r) \subset {\mathbb{R}}^n\) y\(\delta > 0\), existen bolas\(k\) abiertas\(B_1,B_2,\ldots,B_k\) de radio a lo sumo\(\delta\) tal que\(B(x,r) \subset B_1 \cup B_2 \cup \cdots \cup B_k\). Tenga en cuenta que puede encontrar\(k\) que realmente solo depende de\(n\) y la proporción\(\nicefrac{\delta}{r}\).

    Demostrar las declaraciones de. Es decir, probar:
    a) Cada uno\(C_k\) es una unión finita de intervalos cerrados, y así\(C\) está cerrada.
    b)\(m^*(C_k) =1 - \sum_{n=1}^k \frac{2^n}{3^{n+1}}\).
    c)\(m^*(C) = 0\).
    d) El conjunto\(C\) está en correspondencia uno a uno con\([0,1]\).

    El conjunto de funciones integrables de Riemann

    Nota: 1 conferencia

    Oscilación y continuidad

    Dejar\(S \subset {\mathbb{R}}^n\) ser un conjunto y\(f \colon S \to {\mathbb{R}}\) una función. En lugar de simplemente decir que\(f\) es o no es continuo en un punto\(x \in S\), necesitamos ser capaces de cuantificar cuán discontinuo\(f\) es en una función está en\(x\). Para cualquier\(\delta > 0\) definir la oscilación de\(f\) on the\(\delta\) -ball en la topología de subconjunto que es\(B_S(x,\delta) = B_{{\mathbb{R}}^n}(x,\delta) \cap S\) como\ [o (f, x,\ delta) := {\ sup_ {y\ in B_S (x,\ delta)} f (y)} - {\ inf_ {y\ in B_S (x,\ delta)} f (y)} = \ sup_ {y_1, y_2\ en B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr).\] Es decir, \(o(f,x,\delta)\)es la longitud del intervalo más pequeño que contiene la imagen\(f\bigl(B_S(x,\delta)\bigr)\). Claramente\(o(f,x,\delta) \geq 0\) y aviso\(o(f,x,\delta) \leq o(f,x,\delta')\) cuando sea\(\delta < \delta'\). Por lo tanto, el límite como\(\delta \to 0\) desde la derecha existe y definimos la oscilación de una función\(f\) en\(x\) como\ [o (f, x) := \ lim_ {\ delta\ a 0^+} o (f, x,\ delta) = \ inf_ {\ delta > 0} o (f, x,\ delta).\]

    \(f \colon S \to {\mathbb{R}}\)es continuo en\(x \in S\) si y solo si\(o(f,x) = 0\).

    Primero supongamos que\(f\) es continuo en\(x \in S\). Entonces dado alguno\(\epsilon > 0\), existe\(\delta > 0\) tal que para\(y \in B_S(x,\delta)\) nosotros tenemos\(\left\lvert {f(x)-f(y)} \right\rvert < \epsilon\). Por lo tanto si\ (y_1, y_2\ en B_S (x,\ delta)\), entonces\ [f (y_1) -f (y_2) = f (y_1) -f (x) -\ bigl (f (y_2) -f (x)\ bigr) <\ épsilon +\ épsilon = 2\ épsilon.\] Tomamos la suprema\(y_1\) y\(y_2\)\ [o (f, x,\ delta) = \ sup_ {y_1, y_2\ en B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr) \ leq 2\ épsilon. \] Por lo tanto,\(o(x,f) = 0\).

    Por otro lado supongamos que\(o(x,f) = 0\). Dado alguno\(\epsilon > 0\), encuentra un\(\delta > 0\) tal que\(o(f,x,\delta) < \epsilon\). Si\(y \in B_S(x,\delta)\), entonces\ [\ izquierda\ lvert {f (x) -f (y)}\ derecha\ rvert \ leq \ sup_ {y_1, y_2\ in B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr) = o (f, x,\ delta) <\ épsilon. \ qedhere\]

    [prop:seclosed] Dejar\(S \subset {\mathbb{R}}^n\) ser cerrado,\(f \colon S \to {\mathbb{R}}\), y\(\epsilon > 0\). El conjunto\(\{ x \in S : o(f,x) \geq \epsilon \}\) está cerrado.

    Equivalentemente queremos mostrar que\(G = \{ x \in S : o(f,x) < \epsilon \}\) está abierto en la topología del subconjunto. Como\(\inf_{\delta > 0} o(f,x,\delta) < \epsilon\), encuentra un\(\delta > 0\) tal que\[o(f,x,\delta) < \epsilon\] tome cualquiera\(\xi \in B_S(x,\nicefrac{\delta}{2})\). Observe eso\(B_S(\xi,\nicefrac{\delta}{2}) \subset B_S(x,\delta)\). Por lo tanto,\ [o (f,\ xi,\ nicefrac {\ delta} {2}) = \ sup_ {y_1, y_2\ in B_S (\ xi,\ nicefrac {\ delta} {2})}\ bigl (f (y_1) -f (y_2)\ bigr) \ leq \ sup_ {y_1, y_2\ en B_S (x,\ delta)}\ bigl (f (y_1) -f (y_2)\ bigr) = o (f, x,\ delta) < \ épsilon.\] Así\(o(f,\xi) < \epsilon\) también. Como esto es cierto para todos\ (\ xi\ in B_S (x,\ nicefrac {\ delta} {2})\) obtenemos que\(G\) está abierto en la topología subconjunto y\(S \setminus G\) está cerrado como se reclama.

    El conjunto de funciones integrables de Riemann

    Hemos visto que las funciones continuas son integrables por Riemann, pero también sabemos que se permiten ciertos tipos de discontinuidades. Resulta que mientras las discontinuidades sucedan en un conjunto de medida cero, la función es integrable y viceversa.

    Dejar\(R \subset {\mathbb{R}}^n\) ser un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) una función acotada. Entonces Riemann\(f\) es integrable si y solo si el conjunto de discontinuidades de\(f\) es de medida cero (un conjunto nulo).

    \(S \subset R\)Sea el conjunto de discontinuidades de\(f\). Eso es\(S = \{ x \in R : o(f,x) > 0 \}\). El truco para esta prueba es aislar el mal conjunto en un pequeño conjunto de subrectángulos de una partición. Solo hay finitamente muchos subrectángulos de una partición, por lo que desearemos usar compacidad. Si\(S\) está cerrado, entonces sería compacto y podríamos cubrirlo por pequeños rectángulos ya que es de medida cero. Desafortunadamente, en general no\(S\) está cerrado por lo que necesitamos trabajar un poco más duro.

    Para cada uno\(\epsilon > 0\), define\[S_\epsilon := \{ x \in R : o(f,x) \geq \epsilon \} .\] By\(S_\epsilon\) está cerrado y como es un subconjunto de\(R\), el cual está acotado,\(S_\epsilon\) es compacto. Además,\(S_\epsilon \subset S\) y\(S\) es de medida cero. Vía hay finitamente muchos rectángulos abiertos\(O_1,O_2,\ldots,O_k\) que cubren\(S_\epsilon\) y\(\sum V(O_j) < \epsilon\).

    El conjunto\(T = R \setminus ( O_1 \cup \cdots \cup O_k )\) es cerrado, acotado y, por lo tanto, compacto. Además para\(x \in T\), tenemos\ (o (f, x) < \ épsilon\). De ahí que para cada uno\(x \in T\), existe un pequeño rectángulo cerrado\(T_x\) con\(x\) en el interior de\(T_x\), tal que\[\sup_{y\in T_x} f(y) - \inf_{y\in T_x} f(y) < 2\epsilon.\] Los interiores de los rectángulos\(T_x\) cubren\(T\). Como\(T\) es compacto existen finitamente muchos de esos rectángulos\(T_1, T_2, \ldots, T_m\) que cubren\(T\).

    Toma los rectángulos\(T_1,T_2,\ldots,T_m\)\(O_1,O_2,\ldots,O_k\) y construye una partición a partir de sus puntos finales. Es decir construir una partición\(P\) de\(R\) con subrectángulos\(R_1,R_2,\ldots,R_p\) tales que cada uno\(R_j\) esté contenido en\(T_\ell\) para algunos\(\ell\) o el cierre de\(O_\ell\) para algunos\(\ell\). Ordene los rectángulos para que\(R_1,R_2,\ldots,R_q\) sean los que están contenidos en algunos\(T_\ell\), y\(R_{q+1},R_{q+2},\ldots,R_{p}\) son el resto. En particular,\ [\ sum_ {j=1} ^q V (R_j)\ leq V (R) \ qquad\ text {y}\ qquad \ sum_ {j=q+1} ^p V (R_j)\ leq\ epsilon.\] Dejar\(m_j\) y\(M_j\) ser el inf y sup de\(f\) más\(R_j\) como antes. Si\(R_j \subset T_\ell\) para algunos\(\ell\), entonces\((M_j-m_j) < 2 \epsilon\). \(B \in {\mathbb{R}}\)Sea tal que\(\left\lvert {f(x)} \right\rvert \leq B\) para todos\(x \in R\), así\((M_j-m_j) < 2B\) sobre todos los rectángulos. Entonces\ [\ begin {split} U (P, f) -L (P, f) & = \ suma_ {j=1} ^p (m_J-m_j) V (R_j) \\ & = \ izquierda ( \ suma_ {j=1} ^q (m_j-m_j) V (R_j) \ derecha) + \ izquierda ( \ suma_ {j=q+1} ^p (m_j-m_j) j) V (R_j) \ derecha) \\ &\ leq \ izquierda ( \ suma_ {j=1} ^q 2\ épsilon V (R_j) \ derecha) + \ izquierda ( \ sum_ {j=q+1} ^p 2 B V (R_j) \ derecha) \\ &\ leq 2\ épsilon V (R) + 2B\ épsilon =\ épsilon\ bigl (2V (R) +2B\ bigr). \ end {split}\] Claramente, podemos hacer que el lado derecho sea tan pequeño como queramos y por lo tanto\(f\) sea integrable.

    Para la otra dirección, supongamos que\(f\) es Riemann integrable sobre\(R\). Que vuelva a\(S\) ser el conjunto de discontinuidades y ahora deje\[S_k := \{ x \in R : o(f,x) \geq \nicefrac{1}{k} \}.\] Fijar a\(k \in {\mathbb{N}}\). Dado un\(\epsilon > 0\), encontrar una partición\(P\) con subrectángulos\(R_1,R_2,\ldots,R_p\) tales que\ [U (P, f) -L (P, f) = \ sum_ {j=1} ^p (m_J-m_j) V (R_j) <\ épsilon\] Supongamos que\(R_1,R_2,\ldots,R_p\) están ordenados para que los interiores de se\(R_1,R_2,\ldots,R_{q}\) crucen\(S_k\), mientras que los interiores de\(R_{q+1},R_{q+2},\ldots,R_p\) están disjuntos de \(S_k\). Si\(x \in R_j \cap S_k\) y\(x\) está en el interior de bolas\(R_j\) tan suficientemente pequeñas están completamente dentro\(R_j\), entonces por definición de\(S_k\) tenemos\(M_j-m_j \geq \nicefrac{1}{k}\). Entonces\ [\ épsilon > \ suma_ {j=1} ^p (m_J-m_j) V (R_j) \ geq \ suma_ {j=1} ^q (m_J-m_j) V (R_j) \ geq \ frac {1} {k} \ sum_ {j=1} ^q V (R_j)\] En otras palabras\(\sum_{j=1}^q V(R_j) < k \epsilon\). Dejar\(G\) ser el conjunto de todos los límites de todos los subrectángulos de\(P\). El conjunto\(G\) es de medida cero (ver). Dejar\(R_j^\circ\) denotar el interior de\(R_j\), entonces\[S_k \subset R_1^\circ \cup R_2^\circ \cup \cdots \cup R_q^\circ \cup G .\] As\(G\) puede ser cubierto por rectángulos abiertos arbitrariamente pequeño volumen,\(S_k\) debe ser de medida cero. As\[S = \bigcup_{k=1}^\infty S_k\] y una unión contable de conjuntos de medidas cero es de medida cero,\(S\) es de medida cero.

    Ejercicios

    Supongamos que\(f \colon (a,b) \times (c,d) \to {\mathbb{R}}\) es una función continua acotada. Demostrar que la integral de\(f\) over tiene\(R = [a,b] \times [c,d]\) sentido y se define de manera única. Es decir, configurado\(f\) para ser cualquier cosa en el límite de\(R\) y calcular la integral.

    Supongamos que\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado. Demostrar que\({\mathcal{R}}(R)\), el conjunto de funciones integrables de Riemann, es un álgebra. Es decir, mostrar que si\(f,g \in {\mathcal{R}}(R)\) y\(a \in {\mathbb{R}}\), entonces\(af \in {\mathcal{R}}(R)\),\(f+g \in {\mathcal{R}}(R)\) y\(fg \in {\mathcal{R}}(R)\).

    Supongamos que\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) es una función delimitada que es cero excepto en un conjunto cerrado\ (E \ subconjunto R\) de medida cero. Demuestre que\(\int_R f\) existe y cómplelo.

    Supongamos que\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado\(f \colon R \to {\mathbb{R}}\) y y\(g \colon R \to {\mathbb{R}}\) son dos funciones integrables de Riemann. Supongamos a\(f = g\) excepción de un conjunto cerrado\(E \subset R\) de medida cero. \(\int_R f = \int_R g\)Demuéstralo.

    Supongamos que\(R \subset {\mathbb{R}}^n\) es un rectángulo cerrado y\(f \colon R \to {\mathbb{R}}\) es una función acotada.
    a) Supongamos que existe un conjunto cerrado\(E \subset R\) de medida cero tal que\(f|_{R\setminus E}\) es continuo. Entonces\(f \in {\mathcal{R}}(R)\).
    b) Encontrar am ejemplo donde\(E \subset R\) es un conjunto de medida cero (pero no cerrado) tal que\(f|_{R\setminus E}\) es continuo y\(f \not\in {\mathcal{R}}(R)\).

    Jordania sets medibles

    Nota: 1 conferencia

    Conjuntos medibles de volumen y Jordania

    Dado un conjunto acotado\(S \subset {\mathbb{R}}^n\) su función característica o función indicadora es\ [\ Chi_s (x) := \ begin {cases} 1 &\ text {if $x\ in S$},\\ 0 &\ text {if $x\ notin S$}. \ end {cases}\] Un conjunto acotado\(S\) es Jordan medible si para algún rectángulo cerrado\(R\) tal que\(S \subset R\), la función\(\chi_S\) está en\({\mathcal{R}}(R)\). Tomar dos rectángulos cerrados\(R\) y\(R'\) con\(S \subset R\) y\(S \subset R'\), después\(R \cap R'\) es un rectángulo cerrado que también contiene\(S\). Por y,\(\chi_S \in {\mathcal{R}}(R \cap R')\) y así\(\chi_S \in {\mathcal{R}}(R')\). Por lo tanto,\[\int_R \chi_S = \int_{R'} \chi_S = \int_{R \cap R'} \chi_S.\] definimos el volumen\(n\) -dimensional del conjunto medible de Jordania acotado\(S\) como\[V(S) := \int_R \chi_S ,\] donde\(R\) se encuentra cualquier rectángulo cerrado que contenga\(S\).

    Un conjunto delimitado\(S \subset {\mathbb{R}}^n\) es Jordania medible si y solo si el límite\(\partial S\) es un conjunto de medidas cero.

    Supongamos que\(R\) es un rectángulo cerrado tal que\(S\) está contenido en el interior de\(R\). Si\(x \in \partial S\), entonces para cada\(\delta > 0\), los conjuntos\(S \cap B(x,\delta)\) (donde\(\chi_S\) es 1) y los conjuntos\((R \setminus S) \cap B(x,\delta)\) (donde\(\chi_S\) es 0) son ambos no vacíos. Entonces no\(\chi_S\) es continuo en\(x\). Si\(x\) está en el interior\(S\) o en el complemento del cierre\(\overline{S}\), entonces\(\chi_S\) es idéntico 1 o idénticamente 0 en un vecindario completo de\(x\) y por lo tanto\(\chi_S\) es continuo en\(x\). Por lo tanto, el conjunto de discontinuidades de\(\chi_S\) es precisamente el límite\(\partial S\). A continuación sigue la proposición.

    [prop:jordanmeas] Supongamos\(S\) y\(T\) son conjuntos mensurables de Jordania acotados. Entonces

    1. El cierre\(\overline{S}\) es Jordania medible.
    2. El interior\(S^\circ\) es Jordania medible.
    3. \(S \cup T\)es Jordania medible.
    4. \(S \cap T\)es Jordania medible.
    5. \(S \setminus T\)es Jordania medible.

    La prueba de la proposición se deja como ejercicio. A continuación, encontramos que el volumen que definimos anteriormente coincide con la medida exterior que definimos anteriormente.

    Si Jordania\(S \subset {\mathbb{R}}^n\) es medible, entonces\(V(S) = m^*(S)\).

    Dado\(\epsilon > 0\), deja\(R\) ser un rectángulo cerrado que contiene\(S\). Dejar\(P\) ser una partición de\(R\) tal que\ [U (P,\ Chi_s)\ leq\ int_r\ Chi_s +\ épsilon = V (S) +\ épsilon \ qquad\ text {y}\ qquad L (P,\ Chi_s)\ geq\ int_r\ Chi_s -\ épsilon = V (S) -\ épsilon.\] Vamos\(R_1,\ldots,R_k\) ser todos los subrectángulos de\(P\) tal que no\(\chi_S\) sea idénticamente cero en cada uno\(R_j\). Es decir, hay algún punto\(x \in R_j\) tal que\(x \in S\). Dejar\(O_j\) ser un rectángulo abierto tal que\(R_j \subset O_j\) y\(V(O_j) < V(R_j) + \nicefrac{\epsilon}{k}\). Observe que\ (S\ subconjunto \ bigcup_j o_j\). Entonces\ [U (P,\ Chi_s) =\ suma_ {j=1} ^k V (R_j) > \ left (\ sum_ {j=1} ^k V (o_j)\ derecha) -\ épsilon\ geq m^* (S) -\ épsilon.\] Como\(U(P,\chi_S) \leq V(S) + \epsilon\), entonces\(m^*(S) - \epsilon \leq V(S) + \epsilon\), o en otras palabras\(m^*(S) \leq V(S)\).

    \(R'_1,\ldots,R'_\ell\)Dejen ser todos los subrectángulos de\(P\) tal que\(\chi_S\) sea idénticamente uno en cada uno\(R'_j\). En otras palabras, estos son los subrectángulos contenidos en\(S\). Los interiores de los subrectángulos\(R'^\circ_j\) son disjuntos y\(V(R'^\circ_j) = V(R'_j)\). Es fácil ver por definición que\ [m^*\ Bigl (\ bigcup_ {j=1} ^\ ell R'^\ circ_j\ Bigr) = \ sum_ {j=1} ^\ ell V (R'^\ circ_j).\] De ahí\ [m^* (S)\ geq m^*\ Bigl (\ bigcup_ {j=1} ^\ ell '_j\ Bigr) \ geq m^*\ Bigl (\ bigcup_ {j=1} ^\ ell R'^\ circ_j\ Bigr) %= %\ suma_ {j=1} ^\ ell %m^* (R'^\ circ_j) = \ sum_ {j=1} ^\ ell V (R'^\ circ_j) = \ suma_ {j=1} ^\ ell V (R'_j) = L (P, f)\ geq V (S) -\ épsilon.\] Por tanto también.\] Por\(m^*(S) \geq V(S)\) lo tanto también.

    Integración sobre conjuntos medibles de Jordania

    En una variable realmente solo hay un tipo de conjunto razonable para integrar: un intervalo. En varias variables tenemos muchos tipos comunes de conjuntos sobre los que podríamos querer integrar y estos no se describen tan fácilmente.

    Seamos\(S \subset {\mathbb{R}}^n\) un conjunto mensurable acotado de Jordania. Se dice que una función delimitada\(f \colon S \to {\mathbb{R}}\) es Riemann integrable en\(S\), o\(f \in {\mathcal{R}}(S)\), si para un rectángulo cerrado\(R\) tal que\(S \subset R\), la función\ (\ Widetilde {f}\ colon R \ a {\ mathbb {R}}\) definida por\ [\ Widetilde {f} (x) = \ begin {cases} f (x) &\ text {if $x\ in S$},\\ 0 &\ text {de lo contrario}, \ end {cases}\] está en\({\mathcal{R}}(R)\). En este caso escribimos\[\int_S f := \int_R \widetilde{f}.\]

    Cuando\(f\) se define en un conjunto más grande y deseamos integrar sobre\(S\), entonces aplicamos la definición a la restricción\(f|_S\). En particular, si\(f \colon R \to {\mathbb{R}}\) para un rectángulo cerrado\(R\), y\(S \subset R\) es un subconjunto medible de Jordania, entonces\[\int_S f = \int_R f \chi_S .\]

    Si\(S \subset {\mathbb{R}}^n\) es un conjunto medible de Jordania y\(f \colon S \to {\mathbb{R}}\) es una función continua acotada, entonces\(f\) es integrable en\(S\).

    Defina la función\(\widetilde{f}\) como arriba para algún rectángulo cerrado\(R\) con\ (S \ subconjunto R\). Si\(x \in R \setminus \overline{S}\), entonces\(\widetilde{f}\) es idénticamente cero en un barrio de\(x\). Del mismo modo si\(x\) está en el interior de\(S\), entonces\(\widetilde{f} = f\) en un barrio de\(x\) y\(f\) es continuo en\(x\). Por lo tanto, sólo\(\widetilde{f}\) es posible que sea discontinuo en\(\partial S\), que es un conjunto de medida cero, y estamos acabados.

    Imágenes de Jordan mensurable subsets

    Por último, las imágenes de conjuntos medibles de Jordania son Jordan medibles bajo mapeos lo suficientemente agradables. Por simplicidad, supongamos que el jacobiano nunca desaparece.

    Supongamos que\(S \subset {\mathbb{R}}^n\) es un conjunto medible Jordan delimitado cerrado, y\(S \subset U\) para un conjunto abierto\(U \subset {\mathbb{R}}^n\). Supongamos que\(g \colon U \to {\mathbb{R}}^n\) es un mapeo uno a uno continuamente diferenciable tal que nunca\(J_g\) es cero encendido\(S\). Entonces Jordania\(g(S)\) es mensurable.

    Vamos\(T = g(S)\). Afirmamos que el límite\(\partial T\) está contenido en el conjunto\(g(\partial S)\). Supongamos que se prueba el reclamo. Como\(S\) es medible Jordania, entonces\(\partial S\) es la medida cero. Entonces\(g(\partial S)\) se mide cero por. Como\ (\ parcial T\ subconjunto g (\ parcial S)\), entonces Jordania\(T\) es medible.

    Por lo tanto, queda para acreditar la pretensión. Primero,\(S\) es cerrado y acotado y por lo tanto compacto. Por Lemma 7.5.4 del volumen I, también\(T = g(S)\) es compacto y por lo tanto cerrado. En particular,\(\partial T \subset T\). Supongamos\(y \in \partial T\), entonces debe existir\(x \in S\) tal que\(g(x) = y\), y por hipótesis\(J_g(x) \not= 0\).

    Ahora usamos el teorema de la función inversa. Encontramos un vecindario\(V \subset U\) de\(x\) y un conjunto abierto\(W\) tal que la restricción\(f|_V\) es una función uno-a-uno y onto de\(V\) a\(W\) con una inversa continuamente diferenciable. En particular,\(g(x) = y \in W\). Como\(y \in \partial T\), existe una secuencia\(\{ y_k \}\) en\(W\) con\(\lim y_k = y\) y\(y_k \notin T\). Como\(g|_V\) es invertible y en particular tiene una inversa continua, existe una secuencia\(\{ x_k \}\) en\(V\) tal que\(g(x_k) = y_k\) y\(\lim x_k = x\). Ya que\(y_k \notin T = g(S)\), claramente\(x_k \notin S\). Ya que\(x \in S\), concluimos que\(x \in \partial S\). Se prueba el reclamo,\ (\ T parcial\ subconjunto g (\ S parcial)\).

    Ejercicios

    Demostrar.

    Demostrar que un conjunto convexo acotado es Jordania medible. Pista: inducción en la dimensión.

    [ejercicio:IntoverTypeIset] Dejar\(f \colon [a,b] \to {\mathbb{R}}\) y\(g \colon [a,b] \to {\mathbb{R}}\) ser funciones continuas y tal que para todos\(x \in (a,b)\),\(f(x) < g(x)\). Dejemos\[U := \{ (x,y) \in {\mathbb{R}}^2 : a < x < b \text{ and } f(x) < y < g(x) \} .\] a) Demostrar que\(U\) es Jordania medible.
    b) Si Riemann\(f \colon U \to {\mathbb{R}}\) es integrable en\(U\), entonces\ [\ int_u f = \ int_a^b\ int_ {g (x)} ^ {f (x)} f (x, y)\, dy\, dx.\]

    Construyamos un ejemplo de un conjunto abierto medible no Jordano. Por simplicidad trabajamos primero en una dimensión. \(\{ r_j \}\)Sea una enumeración de todos los números racionales en\((0,1)\). Que\((a_j,b_j)\) sean intervalos abiertos de tal manera que\((a_j,b_j) \subset (0,1)\) para todos\(j\),\(r_j \in (a_j,b_j)\), y\(\sum_{j=1}^\infty (b_j-a_j) < \nicefrac{1}{2}\). Ahora vamos\ (U: = \ bigcup_ {j=1} ^\ infty (a_j, b_j)\). Mostrar que
    a) Los intervalos abiertos\((a_j,b_j)\) como los anteriores realmente existen.
    b)\(\partial U = [0,1] \setminus U\).
    c) no\(\partial U\) es de medida cero, por lo que Jordania no\(U\) es mensurable.
    d) Mostrar que\ (W: =\ bigl ((0,1)\ times (0,2)\ bigr)\ setmenos\ bigl (U \ times [0,1]\ bigr)\ subconjunto {\ mathbb {R}} ^2\) es un conjunto abierto acotado conectado en\({\mathbb{R}}^2\) que no es Jordan medible.

    Teorema de Green

    Nota: 1 conferencia

    Uno de los teoremas de análisis más importantes en varias variables es el denominado teorema generalizado de Stokes, una generalización del teorema fundamental del cálculo. Quizás la versión más utilizada es la versión en dos dimensiones, llamada teorema de Green, que aquí probamos.

    Let\(U \subset {\mathbb{R}}^2\) Ser un conjunto abierto conectado acotado. Supongamos que el límite\(\partial U\) es una unión finita de (las imágenes de) caminos suaves simples por tramos de tal manera que cerca de cada punto\(p \in \partial U\) cada vecindario\(V\) de\(p\) contiene puntos de\({\mathbb{R}}^2 \setminus \overline{U}\). Entonces\(U\) se llama un dominio delimitado con un límite liso por partes en\({\mathbb{R}}^2\).

    La condición sobre los puntos fuera del cierre significa que localmente\({\mathbb{R}}^2\) se\(\partial U\) separa en “dentro” y “afuera”. La condición\(\partial U\) evita que sea solo un “corte” en su interior\(U\). Por lo tanto, a medida que recorremos el camino en cierta orientación, hay una izquierda y una derecha bien definidas, y o bien está\(U\) a la izquierda y el complemento de\(U\) a la derecha, o viceversa. Así, por orientación en\(U\) nos referimos a la dirección por la que viajamos por los caminos. Es fácil cambiar la orientación si es necesario reparametrizando el camino.

    Si\(U \subset {\mathbb{R}}^2\) es un dominio acotado con límite liso por partes,\(\partial U\) déjese orientar y\(\gamma \colon [a,b] \to {\mathbb{R}}^2\) es una parametrización de\(\partial U\) dar la orientación. Escribir\(\gamma(t) = \big(x(t),y(t)\bigr)\). Si el vector\(n(t) := \bigl(-y'(t),x'(t)\bigr)\) apunta al dominio, es decir,\(\epsilon n(t) + \gamma(t)\) está adentro\(U\) para todo lo suficientemente pequeño\(\epsilon > 0\), entonces\(\partial U\) está orientado positivamente. De lo contrario se orienta negativamente.

    El vector\(n(t)\) gira en sentido contrario a\(\gamma^{\:\prime}(t)\) las agujas del reloj\(90^\circ\), es decir, a la izquierda. Un límite está orientado positivamente, si cuando viajamos a lo largo del límite en la dirección de su orientación, el dominio está “a nuestra izquierda”. Por ejemplo, si\(U\) es un dominio delimitado con “sin agujeros”, es decir,\(\partial U\) está conectado, entonces la orientación positiva significa que estamos viajando en sentido contrario a las agujas del reloj\(\partial U\). Si tenemos “agujeros”, entonces viajamos alrededor de ellos en el sentido de las agujas del reloj.

    \(U \subset {\mathbb{R}}^2\)Sea un dominio acotado con un límite liso por partes, entonces\(U\) es Jordania medible.

    Necesitamos que\(\partial U\) sea de medida cero. Al igual\(\partial U\) que una unión finita de caminos lisos simples por piezas, que a su vez son uniones finitas de caminos lisos, solo necesitamos mostrar que un camino suave es de medida cero adentro\({\mathbb{R}}^2\).

    Dejar\(\gamma \colon [a,b] \to {\mathbb{R}}^2\) ser un camino suave. Basta con mostrar que\(\gamma\bigl((a,b)\bigr)\) es de medida cero, ya que sumar dos puntos, es decir los puntos\(\gamma(a)\) y\(\gamma(b)\), a una medida cero conjunto todavía da como resultado una medida cero conjunto. Define\ [f\ dos puntos (a, b)\ veces (-1,1)\ a {\ mathbb {R}} ^2, \ qquad\ text {as}\ qquad f (x, y) :=\ gamma (x).\] El conjunto\((a,b) \times \{ 0 \}\) es de medida cero en\({\mathbb{R}}^2\) y\(\gamma\bigl((a,b)\bigr) = f\bigl( (a,b) \times \{ 0 \} \bigr)\). De ahí por,\(\gamma\bigl((a,b)\bigr)\) es medir cero en\({\mathbb{R}}^2\) y así también lo\(\gamma\bigl([a,b]\bigr)\) es medir cero, y así finalmente también\(\partial U\) se mide cero.

    Supongamos que\(U \subset {\mathbb{R}}^2\) es un dominio limitado con un límite liso por partes con el límite orientado positivamente. Supongamos\(P\) y\(Q\) son funciones continuamente diferenciables definidas en algún conjunto abierto que contiene el cierre\(\overline{U}\). Entonces\ [\ int_ {\ U parcial} P\, dx + Q\, dy = \ int_ {U} \ izquierda (\ frac {\ parcial Q} {\ parcial x} -\ frac {\ parcial P} {\ parcial y}\ derecha) . %dx dy.\]

    Declaramos el teorema de Green en general, aunque sólo vamos a probar una versión especial del mismo. Es decir, sólo lo demostraremos para un tipo especial de dominio. La versión general se desprende del caso especial por aplicación de geometría adicional, y cortando el dominio general en dominios más pequeños sobre los que aplicar el caso especial. No vamos a probar el caso general.

    Dejar\(U \subset {\mathbb{R}}^2\) ser un dominio con límite liso por partes. Decimos\(U\) es de tipo I si existen números\(a < b\), y funciones continuas\(f \colon [a,b] \to {\mathbb{R}}\) y\(g \colon [a,b] \to {\mathbb{R}}\), tal que de\[U := \{ (x,y) \in {\mathbb{R}}^2 : a < x < b \text{ and } f(x) < y < g(x) \} .\] igual manera,\(U\) es de tipo II si existen números\(c < d\), y funciones continuas\(h \colon [c,d] \to {\mathbb{R}}\) y\(k \colon [c,d] \to {\mathbb{R}}\), tal que \[U := \{ (x,y) \in {\mathbb{R}}^2 : c < y < d \text{ and } h(y) < x < k(y) \} .\]Por último,\(U \subset {\mathbb{R}}^2\) es de tipo III si es tanto de tipo I como de tipo II.

    Solo probaremos el teorema de Green para dominios tipo III.

    \(f,g,h,k\)Dejen ser las funciones definidas anteriormente. Por,\(U\) es Jordan medible y como\(U\) es de tipo I, entonces\ [\ comenzar {dividir} \ int_u \ izquierda (-\ frac {\ parcial P} {\ parcial y}\ derecha) & = \ int_a^b\ int_ {g (x)} ^ {f (x)} \ izquierda (-\ frac {\ parcial P} {\ parcial y} (x, y)\ derecha) \, dy\, dx \\ & = \ int_a^b\ Bigl ( - P\ bigl (x, f (x)\ bigr) + P\ bigl (x, g (x)\ bigr) \ Bigr)\, dx \\ & = \ int_a^b P\ bigl (x, g (x)\ bigr)\, dx - \ int_a^b P\ bigl (x, f (x)\ bigr)\, dx. \ end {split}\] Ahora deseamos integrarnos a\(P\,dx\) lo largo del límite. La forma única\(P\,dx\) se integra a cero cuando se integra a lo largo de las líneas verticales rectas en el límite. Por lo tanto solo se integra a lo largo de la parte superior y a lo largo de la Como parámetro,\(x\) se ejecuta de izquierda a derecha. Si usamos las parametrizaciones que llevan\(x\) a\(\bigl(x,f(x)\bigr)\) y a\(\bigl(x,g(x)\bigr)\) reconocemos las integrales de ruta arriba. Sin embargo la segunda integral de camino está en la dirección equivocada, la parte superior debe ir de derecha a izquierda, y así debemos cambiar de orientación. \ [\ int_ {\ U parcial} P\, dx = \ int_a^b P\ bigl (x, g (x)\ bigr)\, dx + \ int_b^a P\ bigl (x, f (x)\ bigr)\, dx = \ int_u \ izquierda (-\ frac {\ P parcial} {\ y parcial}\ derecha).\]

    De igual manera, también\(U\) es de tipo II. La forma\(Q\,dy\) se integra a cero a lo largo de líneas horizontales. Así\ [\ int_u \ frac {\ parcial Q} {\ parcial x} = \ int_c^d\ int_ {k (y)} ^ {h (y)} \ frac {\ parcial Q} {\ parcial x} (x, y) \, dx\, dy = \ int_a^b\ Bigl ( Q\ bigl (y, h (y)\ bigr) - Q\ bigl (y, k (y)\ bigr) \ Bigr)\, dx = \ int_ {\ parcial U} Q\, dy.\] Juntando los dos obtenemos \ [\ int_ {\ U parcial} P\, dx + Q\, dy = \ int_ {\ U parcial} P\, dx +\ int_ {\ U parcial} Q\, dy = \ int_u \ Bigl (-\ frac {\ parcial P} {\ parcial y}\ Bigr) + \ int_U \ frac {\ parcial Q} {\ parcial x} = \ int_U \ Bigl ( \ frac {\ parcial Q} {\ parcial x} -\ frac {\ parcial P} {\ parcial y} \ Bigr). \ qedhere\]

    Ilustremos la utilidad del teorema de Green sobre un resultado fundamental sobre las funciones armónicas.

    Supongamos que\(U \subset {\mathbb{R}}^2\) es un conjunto abierto y\(f \colon U \to {\mathbb{R}}\) es armónico,\(f\) es decir, es dos veces continuamente diferenciable y\ (\ frac {\ parcial^2 f} {\ parcial x^2} + \ frac {\ parcial^2 f} {\ parcial y^2} = 0\). Demostraremos una de las propiedades más fundamentales de las funciones armónicas.

    Dejar que\(D_r = B(p,r)\) se cierre el disco de tal manera que su cierre\(C(p,r) \subset U\). Escribir\(p = (x_0,y_0)\). Orientamos\(\partial D_r\) positivamente. Ver. Entonces\ [\ begin {split} 0 & = \ frac {1} {2\ pi r} \ int_ {d_R} \ left ( \ frac {\ parcial^2 f} {\ parcial x^2} + \ frac {\ parcial^2 f} {\ parcial y^2} \ derecha) \\ & = \ frac {1} {2\ pi r} \ int_ {D_r parcial} -\ frac {\ parcial f} {\ parcial y}\, dx + \ frac {\ parcial f} {\ parcial x}\, dy \\ & = \ frac {1} {2\ pi r} \ int_0^ {2\ pi} \ biggl ( -\ frac {\ parcial f} {\ parcial y}\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\ bigl (-r\ sin (t)\ bigr) \\ &\ hspace {1.2in} +\ frac {\ parcial f} {\ parcial x}\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr) r\ cos (t) \ biggr) \, dt \\ & = \ frac {d} {dr} \ izquierda [ \ frac {1} {2\ pi} \ int_0^ {2\ pi} f\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\, dt \ derecha]. \ end {split}\] Dejar\ (g (r) := \ frac {1} {2\ pi} \ int_0^ {2\ pi} f\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\, dt\). Entonces\(g'(r) = 0\) para todos\(r > 0\). La función es constante\(r >0\) y continua en\(r=0\) (ejercicio). Por lo tanto\(g(0) = g(r)\) para todos\(r > 0\). Por lo tanto,\ [g (r) = g (0) = \ frac {1} {2\ pi} \ int_0^ {2\ pi} f\ bigl (x_0+0\ cos (t), y_0+0\ sin (t)\ bigr)\, dt = f (x_0, y_0).\] Demostramos la propiedad de valor medio de las funciones armónicas:\ [f (x_0, y_0) = \ frac {1} {2 \ pi}\ int_0^ {2\ pi} f\ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\, dt = \ frac {1} {2\ pi r} \ int_ {\ d_R parcial} f\, ds.\] Es decir, el valor at\(p = (x_0,y_0)\) es el promedio sobre un círculo de cualquier radio\(r\) centrado en\((x_0,y_0)\).

    Ejercicios

    [green:balltype3orient] Demostrar que un disco\(B(p,r) \subset {\mathbb{R}}^2\) es un dominio tipo III, y probar que la orientación dada por la parametrización\ (\ gamma (t) = \ bigl (x_0+r\ cos (t), y_0+r\ sin (t)\ bigr)\) donde\(p = (x_0,y_0)\) está la orientación positiva del límite\(\partial B(p,r)\).

    Demostrar que cualquier dominio delimitado con un límite liso por partes que sea convexo es un dominio tipo III.

    Supongamos que\(V \subset {\mathbb{R}}^2\) es un dominio con límite liso por partes que es un dominio de tipo III y supongamos que\(U \subset {\mathbb{R}}^2\) es un dominio tal que\(\overline{V} \subset U\). Supongamos que\(f \colon U \to {\mathbb{R}}\) es una función dos veces diferenciable continuamente. Demostrar que\ (\ int_ {\ parcial V} \ frac {\ parcial f} {\ parcial x} dx + \ frac {\ parcial f} {\ parcial y} dy = 0\).

    Para un disco\(B(p,r) \subset {\mathbb{R}}^2\), orientar el límite\(\partial B(p,r)\) positivamente:
    a) Calcular\(\displaystyle \int_{\partial B(p,r)} -y \, dx\).
    b) Cómputar\(\displaystyle \int_{\partial B(p,r)} x \, dy\).
    c) Cómputar\(\displaystyle \int_{\partial B(p,r)} \frac{-y}{2} \, dy + \frac{x}{2} \, dy\).

    Usando el teorema de Green muestran que el área de un triángulo con vértices\((x_1,y_1)\),\((x_2,y_2)\),\((x_3,y_3)\) es\(\frac{1}{2}\left\lvert {x_1y_2 + x_2 y_3 + x_3 y_1 - y_1x_2 - y_2x_3 - y_3x_1} \right\rvert\). Pista: ver ejercicio anterior.

    El uso de la propiedad value mean prove the maximum principle for harmonic functions: Supongamos que\(U \subset {\mathbb{R}}^2\) es un conjunto abierto conectado y\(f \colon U \to {\mathbb{R}}\) es armónico. Demostrar que si\(f\) alcanza un máximo en\(p \in U\), entonces\(f\) es constante.

    Vamos\(f(x,y) := \ln \sqrt{x^2+y^2}\).
    a)\(f\) El espectáculo es armónico donde se define.
    b) Mostrar\(\lim_{(x,y) \to 0} f(x,y) = -\infty\).
    c) Usando un círculo\(C_r\) de radio\(r\) alrededor del origen, cómpule\(\frac{1}{2\pi r} \int_{\partial C_r} f ds\). ¿Qué pasa como\(r \to 0\)?
    d) ¿Por qué no puedes usar el teorema de Green?


    1. Los subíndices se utilizan para muchos fines, por lo que a veces podemos tener varios vectores que también pueden identificarse por subíndice, como una secuencia finita o infinita de vectores\(y_1,y_2,\ldots\).
    2. Si quieres un espacio vectorial muy funky sobre un campo diferente,\({\mathbb{R}}\) en sí mismo es un espacio vectorial sobre los números racionales.
    3. La matriz de representar a veces\(f'(x)\) se llama la matriz jacobiana.
    4. La palabra “suave” se utiliza a veces para funciones continuamente diferenciables y otras infinitamente diferenciables en la literatura.
    5. Normalmente solo se usa una ruta continua en esta definición, pero para conjuntos abiertos las dos definiciones son equivalentes. Ver los ejercicios.

    10.4: temp is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.