Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

6: Ortogonalidad

( \newcommand{\kernel}{\mathrm{null}\,}\)

Recordemos por última vez la estructura de este libro:

  1. Resolver la ecuación matricialAx=b.
  2. Resuelve la ecuación matricialAx=λx, dondeλ está un número.
  3. Resolver aproximadamente la ecuación matricialAx=b.

Ahora hemos llegado a la tercera parte.

Nota6.1

Resolver aproximadamente la ecuación matricialAx=b.

Encontrar soluciones aproximadas de ecuaciones generalmente requiere calcular el vector más cercano en un subespacio a un vector dado. Esto se convierte en un problema de ortogonalidad: se necesita saber qué vectores son perpendiculares al subespacio.

clipboard_e4c312e06d8c1c7b40ae1ce8dfa3f77e5.png

Figura6.1

Primero definiremos la ortogonalidad y aprenderemos a encontrar complementos ortogonales de subespacios en la Sección 6.1 y Sección 6.2. El núcleo de este capítulo es la Sección 6.3, en la que se discute la proyección ortogonal de un vector sobre un subespacio; este es un método para calcular el vector más cercano en un subespacio a un vector dado. Estos cálculos se vuelven más fáciles ante la presencia de un conjunto ortogonal, como veremos en la Sección 6.4. En la Sección 6.5 presentaremos el método de mínimos cuadrados para resolver aproximadamente sistemas de ecuaciones, y daremos aplicaciones al modelado de datos.

Ejemplo6.1

En el modelado de datos, a menudo se pregunta: “¿en qué línea se supone que mienten mis datos?” Esto se puede resolver usando una simple aplicación del método de mínimos cuadrados.

clipboard_e9c04a2611d7045928bccedd7ad9c0a17.png

Figura6.2

Ejemplo6.2

Gauss inventó el método de mínimos cuadrados para encontrar una elipse que mejor se ajuste: predijo correctamente la órbita (elíptica) del asteroide Ceres al pasar detrás del sol en 1801.

clipboard_e8ec747dcd6cf56fd41cfcac28daede0f.png

Figura6.3

 

  • 6.1: Productos punteados y ortogonalidad
    En este capítulo, será necesario encontrar el punto más cercano en un subespacio a un punto dado. El punto más cercano tiene la propiedad de que la diferencia entre los dos puntos es ortogonal, o perpendicular, al subespacio. Por esta razón, necesitamos desarrollar nociones de ortogonalidad, longitud y distancia.
  • 6.2: Complementos ortogonales
    Será importante calcular el conjunto de todos los vectores que son ortogonales a un conjunto dado de vectores. Resulta que un vector es ortogonal a un conjunto de vectores si y sólo si es ortogonal al lapso de esos vectores, que es un subespacio, por lo que nos limitamos al caso de los subespacios.
  • 6.3: Proyección ortogonal
    Sea W un subespacio de Rn y deje que x sea un vector en Rn. En esta sección, aprenderemos a calcular el vector xW más cercano a x en W. El vector xW se denomina proyección ortogonal de x sobre W. Esto es exactamente lo que usaremos para resolver casi ecuaciones matriciales.
  • 6.4: Conjuntos ortogonales
  • 6.5: El Método de los Mínimos Cuadrados


This page titled 6: Ortogonalidad is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Dan Margalit & Joseph Rabinoff via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?