Saltar al contenido principal
LibreTexts Español

16.1: Operaciones Básicas de Vectores y Matrices

  • Page ID
    87846
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Definiciones

    Primero introduzcamos los objetos primitivos en álgebra lineal: vectores y matrices. Un\(m\) -vector\(v \in \mathbb{R}^{m \times 1}\) consiste en números\(m\) reales\(\stackrel{1}{-}\)\[v=\left(\begin{array}{c} v_{1} \\ v_{2} \\ \vdots \\ v_{m} \end{array}\right) .\] También se llama vector de columna, que es el vector por defecto en álgebra lineal. Así, por convención,\(v \in \mathbb{R}^{m}\) implica que\(v\) es un vector de columna en\(\mathbb{R}^{m \times 1}\). Tenga en cuenta que usamos subíndice\((\cdot)_{i}\) para abordar el\(i\) -ésimo componente de un vector. El otro tipo de vector es un vector de fila\(v \in \mathbb{R}^{1 \times n}\) que consiste en\(n\) entradas\[v=\left(\begin{array}{llll} v_{1} & v_{2} & \cdots & v_{n} \end{array}\right) .\] Consideremos algunos ejemplos de vectores de columna y fila.

    Ejemplo 16.1.1 vectores

    Ejemplos de vectores (columna) en\(\mathbb{R}^{3}\) son\[v=\left(\begin{array}{l} 1 \\ 3 \\ 6 \end{array}\right), \quad u=\left(\begin{array}{c} \sqrt{3} \\ -7 \\ \pi \end{array}\right), \quad \text { and } \quad w=\left(\begin{array}{c} 9.1 \\ 7 / 3 \\ \sqrt{\pi} \end{array}\right) .\]\({ }^{1}\) El concepto de vectores se extiende fácilmente a números complejos, pero solo consideramos vectores reales en nuestra presentación de este capítulo.

    Para abordar un componente específico de los vectores, escribimos, por ejemplo,\(v_{1}=1, u_{1}=\sqrt{3}\), y\(w_{3}=\sqrt{\pi}\). Ejemplos de vectores de fila en\(\mathbb{R}^{1 \times 4}\) son\[v=\left(\begin{array}{llll} 2 & -5 & \sqrt{2} & e \end{array}\right) \text { and } u=\left(\begin{array}{llll} -\sqrt{\pi} & 1 & 1 & 0 \end{array}\right) .\] Algunos de los componentes de estos vectores de fila son\(v_{2}=-5\) y\(u_{4}=0\).

    Una matriz\(A \in \mathbb{R}^{m \times n}\) consta de\(m\) filas y\(n\) columnas para el total de\(m \cdot n\) entradas,\[A=\left(\begin{array}{cccc} A_{11} & A_{12} & \cdots & A_{1 n} \\ A_{21} & A_{22} & \cdots & A_{2 n} \\ \vdots & \vdots & \ddots & \vdots \\ A_{m 1} & A_{m 2} & \cdots & A_{m n} \end{array}\right)\] Extendiendo la convención para abordar una entrada de un vector, usamos subíndice\((\cdot)_{i j}\) para abordar la entrada en el \(i\)-ésima fila y\(j\) -ésima columna. Obsérvese que el orden en que se refieren la fila y la columna sigue al de describir el tamaño de la matriz. Así,\(A \in \mathbb{R}^{m \times n}\) consiste en entradas\[A_{i j}, \quad i=1, \ldots, m, \quad j=1, \ldots, n .\] A veces es conveniente pensar en un vector (columna) como un caso especial de una matriz con una sola columna, es decir,\(n=1\). Del mismo modo, un vector (fila) puede considerarse como un caso especial de una matriz con\(m=1\). Por el contrario, una\(m \times n\) matriz puede verse como\(n\) vectores de\(m\) fila o\(m\) vectores de\(n\) columna, como discutimos más adelante.

    Ejemplo 16.1.2 Matrices

    Ejemplos de matrices son\[A=\left(\begin{array}{cc} 1 & \sqrt{3} \\ -4 & 9 \\ \pi & -3 \end{array}\right) \quad \text { and } \quad B=\left(\begin{array}{ccc} 0 & 0 & 1 \\ -2 & 8 & 1 \\ 0 & 3 & 0 \end{array}\right) \text {. }\] La matriz\(A\) es una\(3 \times 2\) matriz\(\left(A \in \mathbb{R}^{3 \times 2}\right)\) y la matriz\(B\) es una\(3 \times 3\) matriz\(\left(B \in \mathbb{R}^{3 \times 3}\right)\). También podemos abordar entradas específicas como, por ejemplo,\(A_{12}=\sqrt{3}, A_{31}=-4\), y\(B_{32}=3\).

    Si bien los vectores y las matrices pueden aparecer como matrices de números, el álgebra lineal define un conjunto especial de reglas para manipular estos objetos. Una de esas operaciones es la operación de transposición considerada a continuación.

    Operación de transposición

    El primer operador de álgebra lineal que consideramos es el operador de transposición, denotado por superíndice\((\cdot)^{\mathrm{T}}\). El operador de transposición intercambia las filas y columnas de la matriz. Es decir, si\(B=A^{\mathrm{T}}\) con\(A \in \mathbb{R}^{m \times n}\), entonces\[B_{i j}=A_{j i}, \quad 1 \leq i \leq n, \quad 1 \leq j \leq m .\] Debido a que se intercambian las filas y columnas de la matriz, también se intercambian las dimensiones de la matriz, es decir, si\(A \in \mathbb{R}^{m \times n}\) entonces\(B \in \mathbb{R}^{n \times m}\).

    Si intercambiamos las filas y columnas dos veces, entonces volvemos a la matriz original. Así, la transposición de una matriz transpuesta es la matriz original, i.e.\[\left(A^{\mathrm{T}}\right)^{\mathrm{T}}=A\]

    Ejemplo 16.1.3 transposición

    Consideremos algunos ejemplos de operación de transposición. Una matriz\(A\) y su transposición\(B=A^{\mathrm{T}}\) están relacionadas por\[A=\left(\begin{array}{cc} 1 & \sqrt{3} \\ -4 & 9 \\ \pi & -3 \end{array}\right) \quad \text { and } \quad B=\left(\begin{array}{ccc} 1 & -4 & \pi \\ \sqrt{3} & 9 & -3 \end{array}\right)\] Las filas y columnas se intercambian en el sentido de que\(A_{31}=B_{13}=\pi\) y\(A_{12}=B_{21}=\sqrt{3}\). También, porque\(A \in \mathbb{R}^{3 \times 2}, B \in \mathbb{R}^{2 \times 3}\). Interpretando un vector como un caso especial de una matriz con una columna, también podemos aplicar el operador de transposición a un vector de columna para crear un vector de fila, es decir, dado\[v=\left(\begin{array}{c} \sqrt{3} \\ -7 \\ \pi \end{array}\right)\] los rendimientos de la operación de transposición\[u=v^{\mathrm{T}}=\left(\begin{array}{lll} \sqrt{3} & -7 & \pi \end{array}\right) .\] Tenga en cuenta que la transposición de un vector de columna es un vector de fila, y la transposición de una fila vector es un vector de columna.

    Operaciones vectoriales

    La primera operación vectorial que consideramos es la multiplicación de un vector\(v \in \mathbb{R}^{m}\) por un escalar\(\alpha \in \mathbb{R}\). La operación rinde\[u=\alpha v,\] donde cada entrada de\(u \in \mathbb{R}^{m}\) viene dada por\[u_{i}=\alpha v_{i}, \quad i=1, \ldots, m .\] En otras palabras, la multiplicación de un vector por un escalar da como resultado que cada componente del vector sea escalado por el escalar.

    La segunda operación que consideramos es la adición de dos vectores\(v \in \mathbb{R}^{m}\) y\(w \in \mathbb{R}^{m}\). La suma rinde\[u=v+w,\] donde cada entrada de\(u \in \mathbb{R}^{m}\) viene dada por\[u_{i}=v_{i}+w_{i}, \quad i=1, \ldots, m .\] Para que la adición de dos vectores tenga sentido, los vectores deben tener el mismo número de componentes. Cada entrada del vector resultante es simplemente la suma de las entradas correspondientes de los dos vectores.

    Podemos resumir la acción de las operaciones de escalado y adición en una sola operación. Dejar\(v \in \mathbb{R}^{m}, w \in \mathbb{R}^{m}\) y\(\alpha \in \mathbb{R}\). Entonces, la operación\[u=v+\alpha w\]

    Screen Shot 2022-03-27 a las 10.08.54 PM.png

    (a) escalado escalar

    Screen Shot 2022-03-27 a las 10.09.03 PM.png

    b) adición de vectores

    Figura 16.1: Ilustración de escala de vectores y adición de vectores.

    produce un vector\(u \in \mathbb{R}^{m}\) cuyas entradas están dadas por\[u_{i}=v_{i}+\alpha w_{i}, \quad i=1, \ldots, m .\] El resultado no es más que una combinación de las reglas de multiplicación escalar y de adición de vectores.

    Ejemplo 16.1.4 Escalado vectorial y adición en\(\mathbb{R}^{2}\)

    Ilustremos el escalado de un vector por un escalar y la adición de dos vectores en el\(\mathbb{R}^{2}\) uso de\[v=\left(\begin{array}{c} 1 \\ 1 / 3 \end{array}\right) \quad, w=\left(\begin{array}{c} 1 / 2 \\ 1 \end{array}\right), \quad \text { and } \quad \alpha=\frac{3}{2} .\] First, consideremos el escalado del vector\(v\) por el escalar\(\alpha\). Los rendimientos de operación\[u=\alpha v=\frac{3}{2}\left(\begin{array}{c} 1 \\ 1 / 3 \end{array}\right)=\left(\begin{array}{c} 3 / 2 \\ 1 / 2 \end{array}\right) .\] Esta operación se ilustra en la Figura 16.1 (a). El vector simplemente\(v\) se estira por el factor de\(3 / 2\) conservando la dirección.

    Ahora, consideremos la adición de los vectores\(v\) y\(w\). Los rendimientos de adición de vector\[u=v+w=\left(\begin{array}{c} 1 \\ 1 / 3 \end{array}\right)+\left(\begin{array}{c} 1 / 2 \\ 1 \end{array}\right)=\left(\begin{array}{c} 3 / 2 \\ 4 / 3 \end{array}\right) .\] La Figura\(16.1(b)\) ilustra el proceso de adición de vector. Traducimos\(w\) para que parte de la punta de\(v\) para formar un paralelogramo. El vector resultante es precisamente la suma de los dos vectores. Tenga en cuenta que la intuición geométrica para el escalado y la adición proporcionada se extiende\(\mathbb{R}^{2}\) fácilmente a dimensiones más altas.

    Ejemplo 16.1.5 Escalado vectorial y adición en\(\mathbb{R}^{3}\)

    Vamos\(v=\left(\begin{array}{lll}1 & 3 & 6\end{array}\right)^{\mathrm{T}}, w=\left(\begin{array}{ccc}2 & -1 & 0\end{array}\right)^{\mathrm{T}}\), y\(\alpha=3\). Entonces,\[u=v+\alpha w=\left(\begin{array}{l} 1 \\ 3 \\ 6 \end{array}\right)+3 \cdot\left(\begin{array}{c} 2 \\ -1 \\ 0 \end{array}\right)=\left(\begin{array}{l} 1 \\ 3 \\ 6 \end{array}\right)+\left(\begin{array}{c} 6 \\ -3 \\ 0 \end{array}\right)=\left(\begin{array}{l} 7 \\ 0 \\ 6 \end{array}\right)\]

    Producto interno

    Otra operación importante es el producto interno. Esta operación toma dos vectores de la misma dimensión,\(v \in \mathbb{R}^{m}\) y\(w \in \mathbb{R}^{m}\), y produce un escalar\(\beta \in \mathbb{R}\):\[\beta=v^{\mathrm{T}} w \quad \text { where } \quad \beta=\sum_{i=1}^{m} v_{i} w_{i} .\] La apariencia del operador de transposición se volverá obvia una vez que introduzcamos la regla de multiplicación matriz-matriz. El producto interno en un espacio vectorial euclidiano también se llama comúnmente el producto punto y se denota por\(\beta=v \cdot w\). De manera más general, el producto interno de dos elementos de un espacio vectorial se denota por\((\cdot, \cdot)\), es decir,\(\beta=(v, w)\).

    Ejemplo 16.1.6 producto interno

    Consideremos dos vectores en\(\mathbb{R}^{3}, v=\left(\begin{array}{lll}1 & 3 & 6\end{array}\right)^{\mathrm{T}}\) y\(w=\left(\begin{array}{ccc}2 & -1 & 0\end{array}\right)^{\mathrm{T}}\). El producto interno de estos dos vectores es\[\beta=v^{\mathrm{T}} w=\sum_{i=1}^{3} v_{i} w_{i}=1 \cdot 2+3 \cdot(-1)+6 \cdot 0=-1 .\]

    (2-Norma)

    Usando el producto interno, podemos definir naturalmente la norma 2 de un vector. Dado\(v \in \mathbb{R}^{m}\), la norma 2 de\(v\), denotada por\(\|v\|_{2}\), se define por\[\|v\|_{2}=\sqrt{v^{\mathrm{T}} v}=\sqrt{\sum_{i=1}^{m} v_{i}^{2}} .\] Note que la norma de cualquier vector es no negativa, porque es una suma números\(m\) no negativos (valores al cuadrado). La\(\ell_{2}\) norma es la longitud euclidiana habitual; en particular, para\(m=2\), la expresión simplifica al familiar teorema de Pitágoras,\(\|v\|_{2}=\sqrt{v_{1}^{2}+v_{2}^{2}}\). Si bien existen otras normas, utilizamos casi exclusivamente la norma 2 en esta unidad. Así, por conveniencia notacional, bajaremos el subíndice 2 y escribiremos la norma 2 de\(v\) como\(\|v\|\) con la comprensión implícita\(\|\cdot\| \equiv\|\cdot\|_{2}\).

    Por definición, cualquier norma debe satisfacer la desigualdad triangular,\[\|v+w\| \leq\|v\|+\|w\|,\] para cualquiera\(v, w \in \mathbb{R}^{m}\). El teorema establece que la suma de las longitudes de dos segmentos contiguos es mayor que la distancia entre sus extremos no unidos, como se desprende intuitivamente de la Figura\(16.1\) (b). Para las normas definidas por los productos internos, como nuestra norma 2 anterior, la desigualdad triangular se satisface automáticamente.

    Prueba

    Para las normas inducidas por un producto interno, la prueba de la desigualdad triangular se deriva directamente de la definición de la norma y de la desigualdad Cauchy-Schwarz. Primero, ampliamos la expresión como\[\|v+w\|^{2}=(v+w)^{\mathrm{T}}(v+w)=v^{\mathrm{T}} v+2 v^{\mathrm{T}} w+w^{\mathrm{T}} w .\] Los términos medios pueden estar delimitados por la desigualdad Cauchy-Schwarz, que afirma que\[v^{\mathrm{T}} w \leq\left|v^{\mathrm{T}} w\right| \leq\|v\|\|w\| .\] así, podemos atar la norma como\[\|v+w\|^{2} \leq\|v\|^{2}+2\|v\|\|w\|+\|w\|^{2}=(\|v\|+\|w\|)^{2},\] y tomando la raíz cuadrada de ambos lados arroja el resultado deseado.

    Ejemplo 16.1.7 norma de un vector

    Dejar\(v=\left(\begin{array}{ccc}1 & 3 & 6\end{array}\right)^{\mathrm{T}}\) y\(w=\left(\begin{array}{ccc}2 & -1 & 0\end{array}\right)^{\mathrm{T}}\). Las\(\ell_{2}\) normas de estos vectores son\[\begin{gathered} \|v\|=\sqrt{\sum_{i=1}^{3} v_{i}^{2}}=\sqrt{1^{2}+3^{2}+6^{2}}=\sqrt{46} \\ \text { and } \quad\|w\|=\sqrt{\sum_{i=1}^{3} w_{i}^{2}}=\sqrt{2^{2}+(-1)^{2}+0^{2}}=\sqrt{5} . \end{gathered}\]

    Ejemplo 16.1.8 Desigualdad triangular

    Ilustremos la desigualdad del triángulo usando dos vectores\[v=\left(\begin{array}{c} 1 \\ 1 / 3 \end{array}\right) \quad \text { and } \quad w=\left(\begin{array}{c} 1 / 2 \\ 1 \end{array}\right) .\] La longitud (o la norma) de los vectores son\[\|v\|=\sqrt{\frac{10}{9}} \approx 1.054 \text { and }\|w\|=\sqrt{\frac{5}{4}} \approx 1.118 .\] Por otro lado, la suma de los dos vectores es\[v+w=\left(\begin{array}{c} 1 \\ 1 / 3 \end{array}\right)+\left(\begin{array}{c} 1 / 2 \\ 1 \end{array}\right)=\left(\begin{array}{c} 3 / 2 \\ 4 / 3 \end{array}\right)\]

    Screen Shot 2022-03-27 a las 10.13.52 PM.png
    Figura 16.2: Ilustración de la desigualdad triangular.

    y su longitud es\[\|v+w\|=\frac{\sqrt{145}}{6} \approx 2.007 .\] La norma de la suma es más corta que la suma de las normas, que es\[\|v\|+\|w\| \approx 2.172 .\] Esta desigualdad se ilustra en la Figura 16.2. Claramente, la longitud de\(v+w\) es estrictamente menor que la suma de las longitudes de\(v\) y\(w\) (a menos que\(v\) y se\(w\) alineen entre sí, en cuyo caso obtenemos igualdad).

    En dos dimensiones, el producto interno puede interpretarse como\[v^{\mathrm{T}} w=\|v\|\|w\| \cos (\theta),\] dónde\(\theta\) está el ángulo entre\(v\) y\(w\). En otras palabras, el producto interno es una medida de qué tan bien\(v\) y se\(w\) alinean entre sí. Tenga en cuenta que podemos mostrar la desigualdad Cauchy-Schwarz desde la anterior igualdad. Es decir,\(|\cos (\theta)| \leq 1\) implica que\[\left|v^{\mathrm{T}} w\right|=\|v\|\|w\||| \cos (\theta) \mid \leq\|v\|\|w\| .\] En particular, vemos que la desigualdad se sostiene con igualdad si y sólo si\(\theta=0\) o\(\pi\), que corresponde a los casos donde\(v\) y\(w\) alinean. Es fácil demostrar la Ec. (16.1) en dos dimensiones.

    Prueba

    Señalando\(v, w \in \mathbb{R}^{2}\), los expresamos en coordenadas polares\[v=\|v\|\left(\begin{array}{c} \cos \left(\theta_{v}\right) \\ \sin \left(\theta_{v}\right) \end{array}\right) \text { and } w=\|w\|\left(\begin{array}{c} \cos \left(\theta_{w}\right) \\ \sin \left(\theta_{w}\right) \end{array}\right) .\] El producto interno de los dos vectores rinde\[\begin{aligned} \beta &=v^{\mathrm{T}} w=\sum_{i=1}^{2} v_{i} w_{i}=\|v\| \cos \left(\theta_{v}\right)\|w\| \cos \left(\theta_{w}\right)+\|v\| \sin \left(\theta_{v}\right)\|w\| \sin \left(\theta_{w}\right) \\ &=\|v\|\|w\|\left(\cos \left(\theta_{v}\right) \cos \left(\theta_{w}\right)+\sin \left(\theta_{v}\right) \sin \left(\theta_{w}\right)\right) \\ &=\|v\|\|w\|\left(\frac{1}{2}\left(e^{i \theta_{v}}+e^{-i \theta_{v}}\right) \frac{1}{2}\left(e^{i \theta_{w}}+e^{-i \theta_{w}}\right)+\frac{1}{2 i}\left(e^{i \theta_{v}}-e^{-i \theta_{v}}\right) \frac{1}{2 i}\left(e^{i \theta_{w}}-e^{-i \theta_{w}}\right)\right) \\ &=\|v\|\|w\|\left(\frac{1}{4}\left(e^{i\left(\theta_{v}+\theta_{w}\right)}+e^{-i\left(\theta_{v}+\theta_{w}\right)}+e^{i\left(\theta_{v}-\theta_{w}\right)}+e^{-i\left(\theta_{v}-\theta_{w}\right)}\right)\right.\\ &\left.\quad-\frac{1}{4}\left(e^{i\left(\theta_{v}+\theta_{w}\right)}+e^{-i\left(\theta_{v}+\theta_{w}\right)}-e^{i\left(\theta_{v}-\theta_{w}\right)}-e^{-i\left(\theta_{v}-\theta_{w}\right)}\right)\right) \\ &=\|v\|\|w\|\left(\frac{1}{2}\left(e^{i\left(\theta_{v}-\theta_{w}\right)}+e^{-i\left(\theta_{v}-\theta_{w}\right)}\right)\right) \\ &=\|v\|\|w\| \cos \left(\theta_{v}-\theta_{w}\right)=\|v\|\|w\| \cos (\theta), \end{aligned}\] donde la última igualdad se desprende de la definición\(\theta \equiv \theta_{v}-\theta_{w}\).

    Comenzar material avanzado

    Para completitud, introduzcamos una clase de normas más general.

    Ejemplo 16.1.9\(p\) -normas

    La norma 2, que utilizaremos casi exclusivamente, pertenece a una clase más general de normas, llamadas las\(p\) -normas. La\(p\) -norma de un vector\(v \in \mathbb{R}^{m}\) es\[\|v\|_{p}=\left(\sum_{i=1}^{m}\left|v_{i}\right|^{p}\right)^{1 / p}\] donde\(p \geq 1\). Cualquier\(p\) norma satisface el requisito de positividad, el requisito de escalado escalar y la desigualdad triangular. Vemos que 2 -norma es un caso de\(p\) -norma con\(p=2\).

    Otro caso de\(p\) -norma que encontramos frecuentemente es la 1-norma, que es simplemente la suma del valor absoluto de las entradas, es decir\[\|v\|_{1}=\sum_{i=1}^{m}\left|v_{i}\right| .\] La otra es la norma infinita dada por\[\|v\|_{\infty}=\lim _{p \rightarrow \infty}\|v\|_{p}=\max _{i=1, \ldots, m}\left|v_{i}\right| .\] En otras palabras, la norma infinita de un vector es su entrada más grande en valor absoluto.

    Material Avanzado

    Screen Shot 2022-03-27 a las 10.16.25 PM.png
    Figura 16.3: Conjunto de vectores considerados para ilustrar la ortogonalidad.

    Ortogonalidad

    Dos vectores\(v \in \mathbb{R}^{m}\) y\(w \in \mathbb{R}^{m}\) se dice que son ortogonales entre sí si\[v^{\mathrm{T}} w=0\] En dos dimensiones, es fácil ver\[v^{\mathrm{T}} w=\|v\|\|w\| \cos (\theta)=0 \Rightarrow \cos (\theta)=0 \Rightarrow \theta=\pi / 2\] que Es decir, el ángulo entre\(v\) y\(w\) es\(\pi / 2\), que es la definición de ortogonalidad en el sentido geométrico habitual.

    Ejemplo 16.1.10 ortogonalidad

    Consideremos tres vectores en\(\mathbb{R}^{2}\),\[u=\left(\begin{array}{c} -4 \\ 2 \end{array}\right), \quad v=\left(\begin{array}{c} 3 \\ 6 \end{array}\right), \quad \text { and } \quad w=\left(\begin{array}{c} 0 \\ 5 \end{array}\right)\] y calculemos tres productos internos formados por estos vectores:\[\begin{gathered} u^{\mathrm{T}} v=-4 \cdot 3+2 \cdot 6=0 \\ u^{\mathrm{T}} w=-4 \cdot 0+2 \cdot 5=10 \\ v^{\mathrm{T}} w=3 \cdot 0+6 \cdot 5=30 \end{gathered}\] Porque\(u^{\mathrm{T}} v=0\), los vectores\(u\) y\(v\) son ortogonales entre sí. Por otro lado,\(u^{\mathrm{T}} w \neq 0\) y los vectores\(u\) y no\(w\) son ortogonales entre sí. Del mismo modo,\(v\) y no\(w\) son ortogonales entre sí. Estos vectores se trazan en la Figura\(16.3\); la figura lo confirma\(u\) y\(v\) son ortogonales en el sentido geométrico habitual.

    Screen Shot 2022-03-27 a las 10.17.50 PM.png
    Figura 16.4: Un conjunto ortonormal de vectores

    Ortonormalidad

    Dos vectores\(v \in \mathbb{R}^{m}\) y\(w \in \mathbb{R}^{m}\) se dice que son ortonormales entre sí si son ortogonales entre sí y cada uno tiene longitud unitaria, i.e.\[v^{\mathrm{T}} w=0 \quad \text { and } \quad\|v\|=\|w\|=1\]

    Ejemplo 16.1.11 Ortonormalidad

    Dos vectores\[u=\frac{1}{\sqrt{5}}\left(\begin{array}{c} -2 \\ 1 \end{array}\right) \quad \text { and } \quad v=\frac{1}{\sqrt{5}}\left(\begin{array}{l} 1 \\ 2 \end{array}\right)\] son ortonormales entre sí. Es sencillo verificar que son ortogonales entre sí\[u^{\mathrm{T}} v=\frac{1}{\sqrt{5}}\left(\begin{array}{c} -2 \\ 1 \end{array}\right)^{\mathrm{T}} \frac{1}{\sqrt{5}}\left(\begin{array}{l} 1 \\ 2 \end{array}\right)=\frac{1}{5}\left(\begin{array}{c} -2 \\ 1 \end{array}\right)^{\mathrm{T}}\left(\begin{array}{l} 1 \\ 2 \end{array}\right)=0\] y que cada uno de ellos tiene longitud unitaria\[\begin{aligned} &\|u\|=\sqrt{\frac{1}{5}\left((-2)^{2}+1^{2}\right)}=1 \\ &\|v\|=\sqrt{\frac{1}{5}\left((1)^{2}+2^{2}\right)}=1 \end{aligned}\] La figura\(16.4\) muestra que los vectores son ortogonales y tienen longitud unitaria en el sentido geométrico habitual.

    Combinaciones Lineales

    Consideremos un conjunto de\(n m\) -vectores\[v^{1} \in \mathbb{R}^{m}, v^{2} \in \mathbb{R}^{m}, \ldots, v^{n} \in \mathbb{R}^{m}\] Una combinación lineal de los vectores viene dada por\[w=\sum_{j=1}^{n} \alpha^{j} v^{j}\] donde\(\alpha^{1}, \alpha^{2}, \ldots, \alpha^{n}\) es un conjunto de números reales, y cada uno\(v^{j}\) es un\(m\) -vector.

    Ejemplo 16.1.12 combinación lineal de vectores

    Consideremos tres vectores en\(\mathbb{R}^{2}, v^{1}=(-4,2)^{\mathrm{T}}, v^{2}=(36)^{\mathrm{T}}\), y\(v^{3}=(0 \quad 5)\). combinación lineal de los vectores, con\(\alpha^{1}=1, \alpha^{2}=-2\), y\(\alpha^{3}=3\), es\[\begin{aligned} w &=\sum_{j=1}^{3} \alpha^{j} v^{j}=1 \cdot\left(\begin{array}{c} -4 \\ 2 \end{array}\right)+(-2) \cdot\left(\begin{array}{c} 3 \\ 6 \end{array}\right)+3 \cdot\left(\begin{array}{l} 0 \\ 5 \end{array}\right) \\ &=\left(\begin{array}{c} -4 \\ 2 \end{array}\right)+\left(\begin{array}{c} -6 \\ -12 \end{array}\right)+\left(\begin{array}{c} 0 \\ 15 \end{array}\right)=\left(\begin{array}{c} -10 \\ 5 \end{array}\right) \end{aligned}\] Otro ejemplo de combinación lineal, con\(\alpha^{1}=1, \alpha^{2}=0\), y\(\alpha^{3}=0\), es\[w=\sum_{j=1}^{3} \alpha^{j} v^{j}=1 \cdot\left(\begin{array}{c} -4 \\ 2 \end{array}\right)+0 \cdot\left(\begin{array}{l} 3 \\ 6 \end{array}\right)+0 \cdot\left(\begin{array}{c} 0 \\ 5 \end{array}\right)=\left(\begin{array}{c} -4 \\ 2 \end{array}\right)\] Tenga en cuenta que una combinación lineal de un conjunto de vectores es simplemente una suma ponderada de los vectores.

    Independencia Lineal

    Un conjunto de\(n m\) -vectores son linealmente independientes si\[\sum_{j=1}^{n} \alpha^{j} v^{j}=0 \quad \text { only if } \quad \alpha^{1}=\alpha^{2}=\cdots=\alpha^{n}=0\] De lo contrario, los vectores son linealmente dependientes.

    Ejemplo 16.1.13 independencia lineal

    Consideremos cuatro vectores,\[w^{1}=\left(\begin{array}{l} 2 \\ 0 \\ 0 \end{array}\right), \quad w^{2}=\left(\begin{array}{l} 0 \\ 0 \\ 3 \end{array}\right), \quad w^{3}=\left(\begin{array}{c} 0 \\ 1 \\ 0 \end{array}\right), \quad \text { and } \quad w^{4}=\left(\begin{array}{l} 2 \\ 0 \\ 5 \end{array}\right)\] El conjunto de vectores\(\left\{w^{1}, w^{2}, w^{4}\right\}\) es linealmente dependiente porque\[1 \cdot w^{1}+\frac{5}{3} \cdot w^{2}-1 \cdot w^{4}=1 \cdot\left(\begin{array}{l} 2 \\ 0 \\ 0 \end{array}\right)+\frac{5}{3} \cdot\left(\begin{array}{l} 0 \\ 0 \\ 3 \end{array}\right)-1 \cdot\left(\begin{array}{l} 2 \\ 0 \\ 5 \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \\ 0 \end{array}\right)\] la combinación lineal con los pesos\(\{1,5 / 3,-1\}\) produce el vector cero. Tenga en cuenta que la elección de los pesos que logra esto no es única; solo necesitamos encontrar un conjunto de pesos para mostrar que los vectores no son linealmente independientes (es decir, son linealmente dependientes).

    Por otro lado, el conjunto de vectores\(\left\{w^{1}, w^{2}, w^{3}\right\}\) es linealmente independiente. Considerando una combinación lineal,\[\alpha^{1} w^{1}+\alpha^{2} w^{2}+\alpha^{3} w^{3}=\alpha^{1} \cdot\left(\begin{array}{l} 2 \\ 0 \\ 0 \end{array}\right)+\alpha^{2} \cdot\left(\begin{array}{l} 0 \\ 0 \\ 3 \end{array}\right)+\alpha^{3} \cdot\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \\ 0 \end{array}\right)\] vemos que debemos elegir\(\alpha^{1}=0\) establecer el primer componente\(0, \alpha^{2}=0\) para establecer el tercer componente en 0, y\(\alpha^{3}=0\) para establecer el segundo componente en 0. Así, la única manera de satisfacer la ecuación es elegir el conjunto trivial de pesos,\(\{0,0,0\}\). Así, el conjunto de vectores\(\left\{w^{1}, w^{2}, w^{3}\right\}\) es linealmente independiente.

    Comenzar material avanzado

    Espacios vectoriales y bases

    Dado un conjunto de\(n m\) -vectores, podemos construir un espacio vectorial,\(V\), dado por\[V=\operatorname{span}\left(\left\{v^{1}, v^{2}, \ldots, v^{n}\right\}\right),\] donde\[\begin{aligned} \operatorname{span}\left(\left\{v^{1}, v^{2}, \ldots, v^{n}\right\}\right) &=\left\{v \in \mathbb{R}^{m}: v=\sum_{k=1}^{n} \alpha^{k} v^{k}, \alpha^{k} \in \mathbb{R}^{n}\right\} \\ &=\text { space of vectors which are linear combinations of } v^{1}, v^{2}, \ldots, v^{n} . \end{aligned}\] En general no requerimos que\(\left\{v^{1}, \ldots, v^{n}\right\}\) los vectores sean linealmente independientes. Cuando son linealmente independientes, se dice que son una base del espacio. En otras palabras, una base del espacio vectorial\(V\) es un conjunto de vectores linealmente independientes que abarca el espacio. Como veremos en breve en nuestro ejemplo, hay muchas bases para cualquier espacio. Sin embargo, el número de vectores en cualquier base para un espacio dado es único, y ese número se llama la dimensión del espacio. Demostremos la idea en un ejemplo sencillo.

    Ejemplo 16.1.14 Bases para un espacio vectorial en\(\mathbb{R}^{3}\)

    Consideremos un espacio vectorial\(V\) abarcado\[v^{1}=\left(\begin{array}{l} 1 \\ 2 \\ 0 \end{array}\right) \quad v^{2}=\left(\begin{array}{c} 2 \\ 1 \\ 0 \end{array}\right) \quad \text { and } \quad v^{3}=\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right) .\] por vectores Por definición, cualquier vector\(x \in V\) es de la forma\[x=\alpha^{1} v^{1}+\alpha^{2} v^{2}+\alpha^{3} v^{3}=\alpha^{1}\left(\begin{array}{l} 1 \\ 2 \\ 0 \end{array}\right)+\alpha^{2}\left(\begin{array}{l} 2 \\ 1 \\ 0 \end{array}\right)+\alpha^{3}\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right)=\left(\begin{array}{c} \alpha^{1}+2 \alpha^{2} \\ 2 \alpha^{1}+\alpha^{2}+\alpha^{3} \\ 0 \end{array}\right) .\] Claramente, podemos expresar cualquier vector de la forma\(x=\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\) eligiendo los coeficientes\(\alpha^{1}\),\(\alpha^{2}\) , y\(\alpha^{3}\) juiciosamente. Así, nuestro espacio vectorial consiste en vectores de la forma\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\), es decir, todos los vectores en\(\mathbb{R}^{3}\) con cero en la tercera entrada.

    También observamos que la selección de coeficientes que logra no\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\) es única, ya que requiere solución a un sistema de dos ecuaciones lineales con tres incógnitas. La no singularidad de los coeficientes es consecuencia directa de\(\left\{v^{1}, v^{2}, v^{3}\right\}\) no ser linealmente independientes. Podemos verificar fácilmente la dependencia lineal considerando una combinación lineal no trivial como por ejemplo\[2 v^{1}-v^{2}-3 v^{3}=2 \cdot\left(\begin{array}{l} 1 \\ 2 \\ 0 \end{array}\right)-1 \cdot\left(\begin{array}{l} 2 \\ 1 \\ 0 \end{array}\right)-3 \cdot\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \\ 0 \end{array}\right)\] Debido a que los vectores no son linealmente independientes, no forman una base del espacio.

    Para elegir una base para el espacio, primero notamos que los vectores en el espacio\(V\) son de la forma\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\). Observamos que, por ejemplo,\[w^{1}=\left(\begin{array}{l} 1 \\ 0 \\ 0 \end{array}\right) \quad \text { and } \quad w^{2}=\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right)\] abarcaría el espacio porque cualquier vector en\(V\) - un vector de la forma\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\) — se puede expresar como una combinación lineal,\[\left(\begin{array}{c} x_{1} \\ x_{2} \\ 0 \end{array}\right)=\alpha^{1} w^{1}+\alpha^{2} w^{2}=\alpha^{1}\left(\begin{array}{l} 1 \\ 0 \\ 0 \end{array}\right)+\alpha^{2}\left(\begin{array}{c} 0 \\ 0 \\ 1 \end{array}\right)=\left(\begin{array}{c} \alpha^{1} \\ \alpha^{2} \\ 0 \end{array}\right)\] eligiendo\(\alpha^{1}=x^{1}\) y\(\alpha^{2}=x^{2}\). Además,\(w^{1}\) y\(w^{2}\) son linealmente independientes. Así,\(\left\{w^{1}, w^{2}\right\}\) es una base para el espacio\(V\). A diferencia del conjunto\(\left\{v^{1}, v^{2}, v^{3}\right\}\) que no es una base, los coeficientes para\(\left\{w^{1}, w^{2}\right\}\) esos rendimientos\(x \in V\) son únicos. Debido a que la base consta de dos vectores, la dimensión de\(V\) es dos. Esto se escribe sucintamente como\[\operatorname{dim}(V)=2 .\] Porque una base para un espacio dado no es única, podemos escoger un conjunto diferente de vectores. Por ejemplo, también\[z^{1}=\left(\begin{array}{c} 1 \\ 2 \\ 0 \end{array}\right) \quad \text { and } \quad z^{2}=\left(\begin{array}{l} 2 \\ 1 \\ 0 \end{array}\right),\] es una base para\(V\). Ya que no\(z^{1}\) es un múltiplo constante de\(z^{2}\), es claro que son linealmente independientes. Tenemos que verificar que abarcan el espacio\(V\). Podemos verificar esto por un argumento directo,\[\left(\begin{array}{c} x_{1} \\ x_{2} \\ 0 \end{array}\right)=\alpha^{1} z^{1}+\alpha^{2} z^{2}=\alpha^{1}\left(\begin{array}{c} 1 \\ 2 \\ 0 \end{array}\right)+\alpha^{2}\left(\begin{array}{c} 2 \\ 1 \\ 0 \end{array}\right)=\left(\begin{array}{c} \alpha^{1}+2 \alpha^{2} \\ 2 \alpha^{1}+\alpha^{2} \\ 0 \end{array}\right)\] vemos que, para cualquiera\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\), podemos encontrar la combinación lineal de\(z^{1}\) y\(z^{2}\) eligiendo los coeficientes\(\alpha^{1}=\left(-x_{1}+2 x_{2}\right) / 3\) y\(\alpha^{2}=\left(2 x_{1}-x_{2}\right) / 3\). Nuevamente, los coeficientes que representa\(x\) el uso\(\left\{z^{1}, z^{2}\right\}\) son únicos.

    Para el espacio\(V\), y para cualquier base dada, podemos encontrar un conjunto único de dos coeficientes para representar cualquier vector\(x \in V\). En otras palabras, cualquier vector en\(V\) se describe de manera única por dos coeficientes o parámetros. Así, una base proporciona una parametrización del espacio vectorial\(V\). La dimensión del espacio es dos, porque la base tiene dos vectores, es decir, los vectores en el espacio se describen de manera única por dos parámetros.

    Si bien hay muchas bases para cualquier espacio, hay ciertas bases con las que es más conveniente trabajar que otras. Bases ortonormales - las bases que consisten en conjuntos ortonormales de vectores son tal clase de bases. Recordamos que dos conjuntos de vectores son ortogonales entre sí si su producto interno desaparece. Para que un conjunto de vectores\(\left\{v^{1}, \ldots, v^{n}\right\}\) sea ortogonal, los vectores deben satisfacer\[\left(v^{i}\right)^{\mathrm{T}} v^{j}=0, \quad i \neq j .\] En otras palabras, los vectores son mutuamente ortogonales. Un conjunto ortonormal de vectores es un conjunto ortogonal de vectores con cada vector teniendo unidad de norma. Es decir, el conjunto de vectores\(\left\{v^{1}, \ldots, v^{n}\right\}\) es mutuamente ortonormal si\[\begin{aligned} \left(v^{i}\right)^{\mathrm{T}} v^{j} &=0, \quad i \neq j \\ \left\|v^{i}\right\|=\left(v^{i}\right)^{\mathrm{T}} v^{i}=1, & i=1, \ldots, n . \end{aligned}\] Observamos que un conjunto ortonormal de vectores es linealmente independiente por construcción, como ahora demostramos.

    Prueba. Let\(\left\{v^{1}, \ldots, v^{n}\right\}\) Ser un conjunto ortogonal de vectores (distintos de cero). Por definición, el conjunto de vectores es linealmente independiente si la única combinación lineal que produce el vector cero corresponde a todos los coeficientes iguales a cero, es decir,\[\alpha^{1} v^{1}+\cdots+\alpha^{n} v^{n}=0 \quad \Rightarrow \quad \alpha^{1}=\cdots=\alpha^{n}=0 .\] Para verificar que este es el caso de cualquier conjunto ortogonal de vectores, realizamos el producto interno de la combinación lineal con \(v^{1}, \ldots, v^{n}\)para obtener\[\begin{aligned} \left(v^{i}\right)^{\mathrm{T}}\left(\alpha^{1} v^{1}+\cdots+\alpha^{n} v^{n}\right) &=\alpha^{1}\left(v^{i}\right)^{\mathrm{T}} v^{1}+\cdots+\alpha^{i}\left(v^{i}\right)^{\mathrm{T}} v^{i}+\cdots+\alpha^{n}\left(v^{i}\right)^{\mathrm{T}} v^{n} \\ &=\alpha^{i}\left\|v^{i}\right\|^{2}, \quad i=1, \ldots, n . \end{aligned}\] Tenga en cuenta que\(\left(v^{i}\right)^{\mathrm{T}} v^{j}=0, i \neq j\), debido a la ortogonalidad. Así, establecer la combinación lineal igual a cero requiere\[\alpha^{i}\left\|v^{i}\right\|^{2}=0, \quad i=1, \ldots, n .\] En otras palabras,\(\alpha^{i}=0\) o\(\left\|v^{i}\right\|^{2}=0\) para cada uno\(i\). Si nos limitamos a un conjunto de vectores distintos de cero, entonces debemos tener\(\alpha^{i}=0\). Así, una combinación lineal que se desvanece requiere\(\alpha^{1}=\cdots=\alpha^{n}=0\), que es la definición de independencia lineal.

    Debido a que un conjunto ortogonal de vectores es linealmente independiente por construcción, una base ortonormal para un espacio\(V\) es un conjunto ortonormal de vectores que abarca\(V\). Una ventaja de usar una base ortonormal es que encontrar los coeficientes para cualquier vector\(V\) es sencillo. Supongamos que tenemos una base\(\left\{v^{1}, \ldots, v^{n}\right\}\) y deseamos encontrar los coeficientes\(\alpha^{1}, \ldots, \alpha^{n}\) que dan como resultado\(x \in V\). Es decir, estamos buscando los coeficientes tales que\[x=\alpha^{1} v^{1}+\cdots+\alpha^{i} v^{i}+\cdots+\alpha^{n} v^{n} .\] Para encontrar el\(i\) -ésimo coeficiente\(\alpha^{i}\), simplemente consideramos el producto interno con\(v^{i}\), es decir, de\[\begin{aligned} \left(v^{i}\right)^{\mathrm{T}} x &=\left(v^{i}\right)^{\mathrm{T}}\left(\alpha^{1} v^{1}+\cdots+\alpha^{i} v^{i}+\cdots+\alpha^{n} v^{n}\right) \\ &=\alpha^{1}\left(v^{i}\right)^{\mathrm{T}} v^{1}+\cdots+\alpha^{i}\left(v^{i}\right)^{\mathrm{T}} v^{i}+\cdots+\alpha^{n}\left(v^{i}\right)^{\mathrm{T}} v^{n} \\ &=\alpha^{i}\left(v^{i}\right)^{\mathrm{T}} v^{i}=\alpha^{i}\left\|v^{i}\right\|^{2}=\alpha^{i}, \quad i=1, \ldots, n, \end{aligned}\] donde se desprende la última igualdad\(\left\|v^{i}\right\|^{2}=1\). Es decir,\(\alpha^{i}=\left(v^{i}\right)^{\mathrm{T}} x, i=1, \ldots, n\). En particular, para una base ortonormal, simplemente necesitamos realizar productos\(n\) internos para encontrar los\(n\) coeficientes. Esto contrasta con una base arbitraria, que requiere una solución a un sistema\(n \times n\) lineal (que es significativamente más costoso, como veremos más adelante).

    Ejemplo 16.1.15 Bases ortonormales

    Consideremos el espacio vectorial espacial\(V\) abarcado por\[v^{1}=\left(\begin{array}{c} 1 \\ 2 \\ 0 \end{array}\right) \quad v^{2}=\left(\begin{array}{l} 2 \\ 1 \\ 0 \end{array}\right) \quad \text { and } \quad v^{3}=\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right)\] Recordando cada vector en\(V\) es de la forma\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\), un conjunto de vectores\[w^{1}=\left(\begin{array}{l} 1 \\ 0 \\ 0 \end{array}\right) \quad \text { and } \quad w^{2}=\left(\begin{array}{l} 0 \\ 1 \\ 0 \end{array}\right)\] forma una base ortonormal del espacio. Es trivial verificar que son ortonormales, ya que son ortogonales, es decir\(\left(w^{1}\right)^{\mathrm{T}} w^{2}=0\), y cada vector es de longitud unitaria\(\left\|w^{1}\right\|=\left\|w^{2}\right\|=1\). También vemos que podemos expresar cualquier vector de la forma\(\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}}\) eligiendo los coeficientes\(\alpha^{1}=x_{1}\) y\(\alpha^{2}=x_{2}\). Así,\(\left\{w^{1}, w^{2}\right\}\) abarca el espacio. Debido a que el conjunto de vectores abarca el espacio y es ortonormal (y por lo tanto linealmente independiente), es una base ortonormal del espacio\(V\).

    Otro conjunto ortonormal de base está formado por\[w^{1}=\frac{1}{\sqrt{5}}\left(\begin{array}{l} 1 \\ 2 \\ 0 \end{array}\right) \quad \text { and } \quad w^{2}=\frac{1}{\sqrt{5}}\left(\begin{array}{c} 2 \\ -1 \\ 0 \end{array}\right)\] Podemos verificar fácilmente que son ortogonales y cada uno tiene una longitud unitaria. Los coeficientes para un vector arbitrario\(x=\left(x_{1}, x_{2}, 0\right)^{\mathrm{T}} \in V\) representado en la base\(\left\{w^{1}, w^{2}\right\}\) son\[\begin{aligned} &\alpha^{1}=\left(w^{1}\right)^{\mathrm{T}} x=\frac{1}{\sqrt{5}}\left(\begin{array}{lll} 1 & 2 & 0 \end{array}\right)\left(\begin{array}{c} x_{1} \\ x_{2} \\ 0 \end{array}\right)=\frac{1}{\sqrt{5}}\left(x_{1}+2 x_{2}\right) \\ &\alpha^{2}=\left(w^{2}\right)^{\mathrm{T}} x=\frac{1}{\sqrt{5}}\left(\begin{array}{ccc} 2 & -1 & 0 \end{array}\right)\left(\begin{array}{c} x_{1} \\ x_{2} \\ 0 \end{array}\right)=\frac{1}{\sqrt{5}}\left(2 x_{1}-x_{2}\right) . \end{aligned}\]

    Material Avanzado


    This page titled 16.1: Operaciones Básicas de Vectores y Matrices is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Masayuki Yano, James Douglass Penn, George Konidaris, & Anthony T Patera (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.