Recordaremos algunos conceptos de álgebra lineal necesarios para tener una mejor comprensión en los temas posteriores.
Los ángulos pueden ser medidos ya sea en grados o radianes. La medida de
De modo que sí $r=1$, entonces el ángulo $\theta$ es justamente la longitud del arco definida
por el mismo ángulo al cortar el círculo unitario. Por otro lado, usando
Entonces, $360\degree = 2 \pi$ radianes, siendo $$ 180\degree = \pi \, \text{radianes}$$ Por lo que, $$ 1 \ radián = \frac{180}{\pi} \approx 57.3 \text{ grados} \quad \text{y} \quad 1 \ grado = \frac{\pi}{180} \approx 0.017 \ \text{radianes.}$$
Los radianes son la medida más utilizada para realizar cálculos, en particular para llevar acabo funciones trigonométricas. Por último, recordemos que los ángulos positivos se miden en sentido contrario a las manecillas del reloj, a partir del eje $x+$; y para los ángulos negativos es con respecto al sentido de las manecillas.
Veamos las funciones trigonométricas básicas. Para cubrir cualquier tipo de ángulo, trazaremos el ángulo dentro de un círculo de radio $r$, y estará definido por un punto $P = (x,y)$.
$$ \begin{aligned} \mathbf{Seno:} \ \sin\theta = \frac{y}{r} \quad &; \quad \mathbf{Coseno:} \ \cos\theta = \frac{x}{r} \\ \mathbf{Tangente:} \ \tan\theta = \frac{y}{x} \quad &; \quad \mathbf{Cotangente:} \ \cot\theta = \frac{x}{y} \\ \mathbf{Cosecante:} \ \csc\theta = \frac{r}{y} \quad &; \quad \mathbf{Secante:} \ \sec\theta = \frac{r}{x} \end{aligned} $$
Cuando $r=1$ podemos simplificar las igualdades como sigue: $$ \sin\theta = \frac{y}{1} = y \quad ; \quad \cos\theta = \frac{x}{1} = x $$ $$ \tan\theta = \frac{\sin\theta}{\cos\theta} \quad ; \quad \cot\theta = \frac{1}{\tan\theta} $$ $$ \csc\theta = \frac{1}{\sin\theta} \quad ; \quad \sec\theta = \frac{1}{\cos\theta} $$
Las siguientes identidades trigonométricas con dos ángulos arbitrarios $\alpha$ y $\beta$ también son usadas: $$ \sin(\alpha \pm \beta) = \sin\alpha \cos\beta \pm \cos\alpha \sin\beta $$ $$ \cos(\alpha \pm \beta) = \cos\alpha \cos\beta \mp \sin\alpha \sin\beta$$
Los vectores son fundamentales en GC, en especial para los gráficos en 3D. Ya que pueden ser utilizados para representar puntos, direcciones, velocidades, desplazamientos, etc. Aprovechando en su totalidad la definición tanto geométrica como algebráica de un vector.
Comúnmente para contabilizar objetos basta utilizar un solo número, por ejemplo, para medir la temperatura, la altura, el calzado, etc. Éste tipo de medidas son descritas únicamente por su magnitud y son representadas por número reales, llamados escalares, y claro su unidad base. Por otra parte existen fenómenos físicos que necesitan más que un solo número para ser medidos, como serían el movimiento del viento, la fuerza, la velocidad, entre otros. Los cuales poseen magnitud y dirección, éstos son llamados vectores.
En este libro los puntos se denotarán con letras mayúsculas en itálicas.
Podemos definir entonces a un vector como un segmento de recta que tiene una cierta magnitud y dirección. El cual es representado como una flecha que va de un punto inicial $P$ a un punto terminal $Q$, y se denota como: $$ \mathbf{v} = \overset{\rarr}{PQ}$$
Si dos segmentos de recta dirigidos tienen la misma magnitud y dirección, entonces se dice que son equivalentes, esto es, sin importar la posición inicial de cada uno.
Siendo más específicos, podemos ver a un vector como el conjunto de todos los segmentos dirigidos que son equivalentes entre sí.
La magnitud o longitud de un vector se denota como $\lVert \mathbf{v} \rVert$ y es un escalar; más adelante veremos cómo es que se calcula.
Observemos que los vectores $\overset{\rarr}{PQ}$ y $\overset{\rarr}{QP}$ son distintos, puesto que apuntan en direcciones opuestas, sin embargo, éstos siguen teniendo la misma longitud. Por otro lado, si tenemos $\overset{\rarr}{PP}$, entonces el vector tiene longitud cero, es decir, $\lVert \overset{\rarr}{PP} \rVert = 0$, ya que su punto inicial y terminal son el mismo, se dice que tampoco tiene dirección. A este vector, se lo conoce como el vector cero, y es denotado por $\mathbf{0}$.
Cuando multiplicamos a un vector $\mathbf{v}$ por un escalar $k$, se produce un efecto de escalamiento sobre la longitud del vector por un factor de $\mid k \mid$ unidades, obteniendo al vector $k \mathbf{v}$ como resultado, el cual es paralelo a $\mathbf{v}$ y tiene una longitud $k \lVert \mathbf{v} \rVert$.
Aunado a esto, su dirección sigue siendo la misma sí $k > 0$, pero si $k < 0$ entonces resulta tener una dirección opuesta. Finalmente, sí $k = 0$, entonces $k \mathbf{v} = \mathbf{0}$ (Ver )
La suma de dos vectores $\mathbf{u}$ y $\mathbf{v}$, se construye poniendo al vector $\mathbf{u}$ en alguna posición arbitraria, y al vector $\mathbf{v}$ de tal forma que su punto inicial coincida con el punto terminal o cabeza de $\mathbf{u}$. En la se muestra dicha construcción, donde $\mathbf{u + v}$ es la diagonal del paralelogramo formado por $\mathbf{u}$ y $\mathbf{v}$.
Cuando se quiere sumar más de dos vectores, se construye la suma de manera análoga, colocando ahora un vector a continuación del otro (Ver ).
Hasta ahora solo hemos ilustrado la suma en dos dimensiones, sin embargo, las operaciones de los vectores también pueden ser ilustradas en tres dimensiones, como se muestra a continuación.
Ahora bien, ya que hemos hablado de la suma y multiplicación por escalar de vectores, podemos seguir con la resta de vectores.
La resta de dos vectores $\mathbf{u} - \mathbf{v}$ es justamente una simplificación de $$ {\color{#008b8b}\underbrace{\color{black}\mathbf{u} + {\color{#008b8b}\underbrace{\color{black}(-1 \mathbf{v})}_{\color{black}\text{mult. por escalar}}} } _{\color{black}\text{suma}}} = \mathbf{u} + (- \mathbf{v}) = \mathbf{u} - \mathbf{v}$$ (Ver ).
Donde $-\mathbf{v}$ se conoce como el negativo de $\mathbf{v}$ o su inverso aditivo.
Un espacio vectorial $\mathit{V}$ sobre un campo de escalares $\mathit{K}$ se define como un conjunto (no vacío) de objetos, llamados vectores, con dos operaciones binarias: suma de vectores y multiplicación de vectores por un escalar; y que además satisfacen las siguientes propiedades:
Para cualesquiera tres vectores $\mathbf{u}$, $\mathbf{v},\mathbf{w}$ en $\mathit{V}$, y dos escalares $k$ y $l$ en $\mathit{K}$:
| (i) | $\mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}$ | (Conmutatividad) |
| (ii) | $(\mathbf{u} + \mathbf{v}) + \mathbf{w} = \mathbf{v} + (\mathbf{u} + \mathbf{w})$ | (Asociatividad) |
| (iii) | $\mathbf{v} + \mathbf{0} = \mathbf{v}$ | (Existencia del vector cero o neutro aditivo) |
| (iv) | $\mathbf{v} + (-\mathbf{v}) = \mathbf{0}$ | (Existencia del negativo de un vector o inverso aditivo) |
| (v) | $(kl) \mathbf{v} = k(l \mathbf{v})$ | (Asociatividad) |
| (vi) | $k(\mathbf{u} + \mathbf{v}) = k\mathbf{v} + k\mathbf{u}$ | (Distributividad 1) |
| (vii) | $(k+l) \mathbf{v} = k\mathbf{v} + l\mathbf{v}$ | (Distributividad 2) |
| (viii) | $k \mathbf{0} = \mathbf{0}$ | (Multiplicación por vector cero) |
| (ix) | $0 \mathbf{v} = \mathbf{0}$ | (Multiplicación por escalar cero) |
| (x) | $1 \mathbf{v} = \mathbf{v}$ | (Unidad escalar) |
El campo al que nos limitaremos a usar será el conjunto de los números reales $\Reals.$
Los sistemas de coordenadas son utilizados para describir la posición de un objeto dentro de un espacio. El más usado es el sistema de coordenadas cartesianas, el cual consta de dos ejes perpendiculares del mismo tamaño, con el origen en el punto de intersección de éstos.
Podemos definir un sistema de coordenadas sobre cualquier espacio que queramos. Por ejemplo, sobre un mapa como en el siguiente interactivo.
Por otra parte, se dice que un espacio vectorial $\mathit{V}$ es de dimensión $\bm{n}$ finita o $\bm{n-}$dimensional si tiene bases de $n$ elementos. Por ejemplo, el sistema de coordenadas de la es un espacio vectorial de dimensión 2, y se toman los vectores $\mathbf{x}$, y $\mathbf{y}$ como la base del espacio.
Podemos referirnos a un espacio vectorial $n$-dimensional sobre $\Reals$, simplemente como $\Reals^{n}.$
Sea $\mathbf{e}$ un vector distinto al vector cero en un espacio unidimensional sobre $\Reals$, es decir, una línea recta. Se dice que $\mathbf{e}$ es un vector base, si para cualquier vector $\mathbf{v}$ en la línea, existe un único número $x$, tal que $$\mathbf{v} = x \mathbf{e}$$ Siendo $x$ la coordenada de $\mathbf{v}$ con $\{\mathbf{e}\}$ como base. Ver .
Sea $\mathbf{e_1}$ y $\mathbf{e_2}$ dos vectores sobre $\Reals^{2}$, distintos al vector cero y no paralelos entre sí. Se dice que $\mathbf{e_1}$ y $\mathbf{e_2}$ son vectores base, si para cualquier vector $\mathbf{v}$ en el plano, existe una única tupla $(x,y)$, tal que $$\mathbf{v} = x \mathbf{e_1} + y \mathbf{e_2}$$ Siendo $x$ y $y$ las coordenadas de $\mathbf{v}$ con $\{\mathbf{e_1}, \mathbf{e_2}\}$ como base. Ver .
Sea $\mathbf{e_1}, \mathbf{e_2}$ y $\mathbf{e_3}$ tres vectores en $\Reals^{3}$ distintos del vector cero, con los cuales no se forma ningún plano paralelo entre todos ellos. Se dice que $\{\mathbf{e_1}, \mathbf{e_2},\mathbf{e_3}\}$ es una base , si para cualquier vector $\mathbf{v}$ en el espacio tridimensional, existe una única tripleta de coordenadas $(x,y,z)$, tal que $$\mathbf{v} = x \mathbf{e_1} + y \mathbf{e_2} + z \mathbf{e_3}$$
Análogamente, si tenemos al conjunto $S = \{e_1, e_2, ..., e_n\}$ como la base de un espacio $n-dimensional$ sobre $\Reals$, entonces, para cualquier vector $\mathbf{v}$ en $\Reals^{n}$, existe una única tupla de escalares (coordenadas) $(v_1, v_2, ..., v_n)$, tales que $$ \mathbf{v} = \sum_{i = 1}^{n}v_i \mathbf{e_i} $$ y se dice que $\mathbf{v}$ es una combinación lineal de los vectores base.
Por otra parte, los vectores de una base siempre son linealmente independientes entre sí, esto es, que ninguno de los vectores puede ser expresado como múltiplo escalar de otro. De no ser así, se dice que el conjunto de vectores es linealmente dependiente.
Y ya que los vectores pueden ser identificados por sus coordenadas, es que surge la idea de representarlos por medio de las mismas.
Una forma de escribir a un vector es como un vector columna. Por ejemplo, si suponemos que la base que usaremos en un espacio tridimensional es $\{\mathbf{e_1}, \mathbf{e_2}, \mathbf{e_3}\}$, entonces podemos escribir al vector $\mathbf{v}$ como $$ \mathbf{v} = v_x \mathbf{e_1} + v_y \mathbf{e_2} + v_z \mathbf{e_3} = \begin{bmatrix} v_x \\ v_y \\ v_z \end{bmatrix}$$
En este libro, los vectores serán denotados de está manera, o bien, de una manera más compacta como la $n-tupla$ de las $n$ coordenadas del vector, que serán utilizados para representar puntos (posiciones) sobre los planos. En este mismo ejemplo esto sería $\mathbf{v} = (v_x, v_y, v_z)$.
Continuando, un vector renglón por otra parte, se escribe en horizontal $$\mathbf{v} = \begin{bmatrix} v_x & v_y & v_z \end{bmatrix},$$ siendo la traspuesta del vector columna, y viceversa. $$ \mathbf{v} = \begin{bmatrix} v_x \\ v_y \\ v_z \end{bmatrix} \quad ; \quad \mathbf{v}^{T} = \begin{bmatrix} v_x & v_y & v_z \end{bmatrix}$$
Siguiendo esta idea es fácil ver que dados dos puntos en el plano $P$ y $Q$, podemos obtener el vector que describe el desplazamiento de $P$ a $Q$ con la diferencia, es decir, $\overset{\rarr}{PQ} = Q-P$, pues nos interesa la distancia entre cada coordenada del punto de origen al punto destino.
Sean dos vectores $\mathbf{u} = \begin{bmatrix} u_1 \\ u_2 \\ \vdots \\ u_n \end{bmatrix} $ y $\mathbf{v} = \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix}$ con la misma base, y un escalar $k$
la multiplicación $k\mathbf{v}$ está dada por
$$k\mathbf{v}= \begin{bmatrix} kv_1 \\ kv_2 \\ \vdots \\ kv_n \end{bmatrix}$$
Mientras que la suma $\mathbf{u} + \mathbf{v}$ se define como
$$\mathbf{u} + \mathbf{v}= \begin{bmatrix} u_1 + v_1 \\ u_2 + v_2 \\ \vdots \\ u_n + v_n \end{bmatrix}$$
Las bases canónicas o estándar suelen ser definidas como los vectores base $e_i$ con todas sus entradas en $0$, a excepción de su $i$-ésima componente, el cual es 1. Por ejemplo, la base estándar de un espacio 3D sería $\{(1,0,0),(0,1,0),(0,0,1)\}$
Primero, vale la pena recordar que dos vectores son ortogonales, si el ángulo más pequeño que se forma entre ellos, es de $\frac{\pi}{2}$ o $90\degree$, siendo perpendiculares entre sí. Y que si el ángulo es igual a cero, los vectores son colineales, pues comparten la misma línea, siendo paralelos entre sí.
El producto punto de dos vectores $\mathbf{u}$ y $\mathbf{v}$, es denotado como $\mathbf{u} \cdot \mathbf{v}$, y también es conocido como producto escalar, ya que se define como el escalar $$\mathbf{u} \cdot \mathbf{v} = \lVert \mathbf{u} \rVert \lVert \mathbf{v} \rVert \cos \theta $$ donde $\theta$ es el ángulo más pequeño comprendido entre los vectores $\mathbf{u}$ y $\mathbf{v}$.
Por consiguiente podemos deducir que: $$ \mathbf{u} \cdot \mathbf{v} = 0 \Longleftrightarrow \mathbf{u} = \mathbf{0} \text{ o } \mathbf{v} = \mathbf{0} \text{, o } \theta = \frac{\pi}{2} \text{ es decir, } \mathbf{u} \text{ y } \mathbf{v} \text{ son ortogonales.} $$
$$ \begin{aligned} \mathbf{u} \cdot \mathbf{v} > 0 \Longleftrightarrow 0 < \theta < \frac{\pi}{2} \\ \mathbf{u} \cdot \mathbf{v} < 0 \Longleftrightarrow \frac{\pi}{2} < \theta \leq \pi \\ \end{aligned} $$Un vector cuya magnitud es exactamente $1$, es llamado vector unitario, esto es, $\mathbf{v}$ es vector unitario si $\lVert \mathbf{v} \rVert = 1$. Para cualquier vector $\mathbf{v}$ distinto al vector cero, se puede obtener su respectivo vector unitario, es decir, un vector $\mathbf{n}$ de longitud $1$ con la misma dirección de $\mathbf{v}$.
Dicho proceso es conocido como normalización y se efectua cómo sigue
$$ \mathbf{n} = \frac{1}{\lVert \mathbf{v} \rVert} \mathbf{v}$$ Por lo que, al tener dos vectores $\mathbf{v}$ y $\mathbf{u}$ con $\lVert \mathbf{v} \rVert = \lVert \mathbf{u} \rVert = 1$, el cálculo del producto punto se simplifica a $\mathbf{v} \cdot \mathbf{u} = \cos \theta$.
Siendo muy útil en GC, para el computo de los shaders, pues se suele requerir el coseno del ángulo entre dos vectores.
Supongamos que queremos proyectar ortogonalmente al vector $\mathbf{u}$ sobre el vector $\mathbf{v}$, obteniendo un nuevo vector $\mathbf{w}$ como la proyección resultante.
De trigonometría básica, sabemos que dentro de un triángulo rectángulo podemos relacionar al coseno de uno de los ángulos pequeños con la longitud de su respectivo cateto adyacente y la hipotenusa.
Como podemos notar en el siguiente interactivo, se forma un triángulo rectángulo. En este caso, podemos pensar al vector $\mathbf{u}$ como la hipotenusa, y al vector $\mathbf{w}$ como el cateto adyacente al ángulo $\theta$ que se forma entre los vectores $\mathbf{u}$ y $\mathbf{v}$.
Teniendo entonces $\cos\theta = {\large\frac{\lVert \mathbf{w} \rVert}{\lVert \mathbf{u} \rVert}}.$
Con ésto, podemos deducir que $$ \lVert \mathbf{w} \rVert = \lVert \mathbf{u} \rVert \cos\theta $$ De modo que para obtener al vector $\mathbf{w}$, simplemente multiplicamos al vector unitario de $\mathbf{v}$ por $\lVert \mathbf{w} \rVert $, es decir, $$\mathbf{w} = \lVert \mathbf{w} \rVert \frac{ \mathbf{v}}{\lVert \mathbf{v} \rVert} = \frac{\lVert \mathbf{u} \rVert \cos\theta}{\lVert \mathbf{v} \rVert } \mathbf{v} $$ Pues sabemos que la normalización no afecta la dirección del vector, y si multiplicamos por $\frac{\lVert \mathbf{v} \rVert }{\lVert \mathbf{v} \rVert }$ tenemos que $$ \mathbf{w} = \frac{ \lVert \mathbf{u} \rVert \lVert \mathbf{v} \rVert \cos\theta }{{\lVert \mathbf{v} \rVert}^{2}}\mathbf{v}$$ $$ \Rightarrow \mathbf{w} = \frac{\mathbf{u} \cdot \mathbf{v}}{{\lVert \mathbf{v} \rVert}^{2}}\mathbf{v}$$
Entonces si tenemos un vector $\mathbf{v}$ distinto al vector cero, podemos definir la proyección de $\mathbf{u}$ sobre $\mathbf{v}$ como $$ P_{\mathbf{v}}\mathbf{u} = \frac{\mathbf{u} \cdot \mathbf{v}}{{\lVert \mathbf{v} \rVert}^{2}}\mathbf{v} $$
Notemos que sí $\mathbf{v}$ es un vector unitario entonces la fórmula se reduce a solo $ (\mathbf{u} \cdot \mathbf{v}) \mathbf{v} $.
A continuación se listan algunas propiedades útiles del producto punto. Sean $\mathbf{u}, \mathbf{v}$ y $\mathbf{w}$ tres vectores y $k$ un escalar, se satisface lo siguiente
| (i) | $\mathbf{u} \cdot \mathbf{v} = \mathbf{v} \cdot \mathbf{u}$ | (Conmutatividad) |
| (ii) | $ k (\mathbf{u} \cdot \mathbf{v}) = (k \mathbf{u}) \cdot \mathbf{v}$ | (Asociatividad) |
| (iii) | $\mathbf{u} \cdot (\mathbf{v} + \mathbf{w}) = \mathbf{u} \cdot \mathbf{v} + \mathbf{u} \cdot \mathbf{w}$ | (Distributividad) |
| (iv) | $\mathbf{v} \cdot \mathbf{v} = {\lVert \mathbf{v} \rVert}^{2} \leq 0 $ | (Longitud cuadrática) Siendo cero únicamente cuando $\mathbf{v} = \mathbf{0}$ |
Para cualquier base ortonormal $n$-dimensional $\{e_1,e_2,...,e_n\}$ se satisface lo siguiente $$ e_i \cdot e_j = \begin{cases} 1 &\text{si } e_i = e_j \\ 0 &\text{si } e_i \not = e_j \end{cases} $$ y como $e_i \cdot e_i = 1$, quiere decir que la longitud de los vectores base debe ser uno, es decir, están normalizados y son ortogonales entre sí.
Entonces, en cualquier base ortonormal, el producto punto entre dos vectores $n$-dimensionales $\mathbf{u}$ y $\mathbf{v}$, está dado por $$ \mathbf{u} \cdot \mathbf{v} = \sum_{i = 1}^{n}u_{i} v_{i} $$
Por ejemplo, el producto punto en una base de dimensión 3 sería $$ \mathbf{u} \cdot \mathbf{v} = u_x v_x + u_y v_y + u_z v_z$$
De la propiedad (iv) del producto punto tenemos que $\mathbf{v} \cdot \mathbf{v} = {\lVert \mathbf{v} \rVert}^{2} \leq 0 $, esto es, $\mathbf{v} \cdot \mathbf{v} = \lVert \mathbf{v} \rVert \lVert \mathbf{v} \rVert \cos\theta = {\lVert \mathbf{v} \rVert}^{2}$, pues $\theta = 0 \Rightarrow \cos \theta = 1$.
Entonces, si tomamos un vector 2D $\mathbf{v} = (v_x, v_y)$ en una base ortonormal, podemos utilizar (iv) para obtener su longitud, esto es ${\lVert \mathbf{v} \rVert}^{2} = \mathbf{v} \cdot \mathbf{v} = v_x^2 + v_y^2$, por lo que $$ \lVert \mathbf{v} \rVert = \sqrt{v_x^2 + v_y^2}$$ La cual también es una prueba del teorema de Pitágoras (Ver ).
De igual manera, para un vector 3D $\mathbf{v} = (v_x, v_y, v_z)$ en una base ortonormal, su longitud está dada por $$ \lVert \mathbf{v} \rVert = \sqrt{v_x^2 + v_y^2 + v_z^2}.$$
Entonces, la magnitud de un vector de una dimensión arbitraria $\bm{n}$, en una base ortonormal, se calcula como $$ \lVert \mathbf{v} \rVert = \sqrt{ \sum_{i = 1}^{n}v_{i}^2} = \sqrt{v_1^2 + v_2^2 + ... + v_n^2}.$$ satisfaciendo también las siguientes propiedades para cualesquiera dos vectores $\mathbf{u}$ y $\mathbf{v}$ en $\mathit{V}$, y un escalar $k$ en $\mathit{K}$:
| (i) | $ \lVert \mathbf{v} \rVert \ge 0$ |
| (ii) | $\lVert \mathbf{v} \rVert = 0 \iff \mathbf{v} = \mathbf{0} $ |
| (iii) | Los vectores $\lVert k \mathbf{v} \rVert = |k| \lVert \mathbf{v} \rVert $ |
El producto cruz de dos vectores tridimensionales, ya que solo está definido en $\Reals^{3}$, es definido como un nuevo vector $\mathbf{u} \times \mathbf{v}$ que cumple las siguientes propiedades:
Entonces, por (ii) tenemos que $\mathbf{u} \times \mathbf{v} = \mathbf{0}$, si $\mathbf{u} = \mathbf{0}$ o $\mathbf{v} = \mathbf{0}$, Así también si el ángulo $\theta$ es igual a cero, es decir, si $\mathbf{u}$ y $\mathbf{v}$ son paralelos entre sí.
Por otro lado, un método muy utilizado para conocer la dirección de $\mathbf{u} \times \mathbf{v}$ es el de la regla de la mano derecha, donde se posiciona la mano derecha de modo que el dedo índice apunte a la misma dirección que el vector $\mathbf{u}$ y el dedo medio a la de $\mathbf{v}$, entonces, el pulgar apuntará en dirección del vector $\mathbf{u} \times \mathbf{v}$.
Notemos también que la longitud del producto cruz puede ser interpretada geométricamente como el área del paralelogramo formado por ambos vectores, pues $\lVert \mathbf{v} \rVert \sin\theta$ es la altura del triángulo formado por $\mathbf{u}$ y $\mathbf{v}$, que es también la altura del paralelogramo, entonces $$ a = bh = \lVert \mathbf{u} \rVert \lVert \mathbf{v} \rVert \sin\theta = \lVert \mathbf{u} \times \mathbf{v} \rVert $$
El cálculo del producto cruz suele ser muy utilizado para gráficos 3D en particular, la propiedad (i) nos permite calcular la normal de una superficie en un punto en específico al utilizar dos vectores tangentes.
| (i) | $\mathbf{u} \times \mathbf{v} = -\mathbf{v} \times \mathbf{u}$ | (Conmutatividad) |
| (ii) | $\mathbf{u} \times (\mathbf{v} + \mathbf{w}) = \mathbf{u} \times \mathbf{v} + \mathbf{u} \times \mathbf{w}$ | (Distributividad) |
| (iii) | $(\mathbf{u} + \mathbf{v}) \times \mathbf{w} = \mathbf{u} \times \mathbf{w} + \mathbf{v} \times \mathbf{w}$ | (Distributividad) |
| (iv) | $ k (\mathbf{u} \times \mathbf{v}) = (k \mathbf{u}) \times \mathbf{v} = \mathbf{u} \times (k \mathbf{v})$ | (Asociatividad) |
Sean dos vectores $\mathbf{u}$ y $\mathbf{v}$ en $\Reals^{3}$, el producto cruz está dado por $$ \mathbf{u} \times \mathbf{v} = (u_y v_z - u_z v_y, u_z v_x - u_x v_z, u_x v_y - u_y v_x) $$
Una forma de recordar esta fórmula es utilizando el pseudodeterminante $$ \mathbf{u} \times \mathbf{v} = \begin{vmatrix} e_1 & e_2 & e_3 \\ u_x & u_y & u_z \\ v_x & v_y & v_z \\ \end{vmatrix} = e_1 \begin{vmatrix} u_y & u_z \\ v_y & v_z \\ \end{vmatrix} - e_2 \begin{vmatrix} u_x & u_z \\ v_x & v_z \\ \end{vmatrix} + e_3 \begin{vmatrix} u_x & u_y \\ v_x & v_y \\ \end{vmatrix} $$ $$ = (u_y v_z - u_z v_y)e_1 + (u_z v_x - u_x v_z)e_2 + (u_x v_y - u_y v_x)e_3 $$ Se dice que es pseudodeterminante ya que el primer renglón consta de vectores, considerando que las entradas deberían de ser solo escalares.
Otra forma de expresar el producto cruz es con la transformación lineal $$ \mathbf{u} \times \mathbf{v} = \begin{bmatrix} 0 & -u_z & u_y \\ u_z & 0 & -u_x \\ -u_y & u_x & 0 \\ \end{bmatrix} \begin{bmatrix} v_x \\ v_y \\ v_z \end{bmatrix} $$ Los temas de determinantes, matrices y transformaciones lineales serán tratados con más detenimiento en los siguientes subtemas.
Las matrices son una herramienta muy poderosa para manipular datos, y es por esta razón que son fundamentales en GC.
Una matriz $\mathbf{A}$ de dimensión $r \times c$ se define como un arreglo rectangular de $rc$ escalares $a_{ij}$ distribuidos en un orden de $r$ reglones y $c$ columnas, representada de la siguiente forma: $$ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1c} \\ a_{21} & a_{22} & \cdots & a_{2c} \\ \vdots & \vdots & \ddots & \vdots \\ a_{r1} & a_{r2} & \cdots & a_{rc} \end{bmatrix} $$ Siendo $a_{ij}$ el número que aparece en el renglón $i$ y en la columna $j$, también llamado como $ij-ésima$ componente o elemento de $\mathbf{A}$.
Notemos que en una matriz de $r \times c$ hay $r$ diferentes vectores renglón y $c$ diferentes vectores columna, los primeros compuestos por $c$ escalares y los segundos por $r$.
Y a su vez, una matriz con una sola columna es una matriz de dimensión $r \times 1$ o vector columna, asimismo, para una matriz con un solo renglón, se dice que es una matriz de dimensión $1 \times c$ o vector renglón.
Por otro lado, si $\mathbf{A}$ es una matriz con $r = c$ se dice que es una matriz cuadrada, y éstas son el tipo de matrices con las que se suele trabajar en GC.
Una matriz identidad $\mathbf{I}$ es una matriz cuadrada cuyos elementos de la diagonal principal son iguales a $1$ y todos los demás son $0$. Por ejemplo la matriz identidad de $3 \times 3$ sería $$ \mathbf{I} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}$$
Se puede multiplicar una matriz $\mathbf{A}$ por un escalar $k$, obteniendo una matriz $S = k \mathbf{A}$ con las mismas dimensiones que $\mathbf{A}$, donde cada elemento está dado por $ka_{ij}$. $$ k \mathbf{A} = \begin{bmatrix} ka_{11} & ka_{12} & \cdots & ka_{1c} \\ ka_{21} & ka_{22} & \cdots & ka_{2c} \\ \vdots & \vdots & \ddots & \vdots \\ ka_{r1} & ka_{r2} & \cdots & ka_{rc} \end{bmatrix} $$
Si dos matrices $\mathbf{A}$ y $\mathbf{B}$ tienen las mismas dimensiones, entonces pueden sumarse, obteniendo una nueva matriz $\mathbf{A} + \mathbf{B}$, donde cada elemento está dado por $a_{ij} + b_{ij}$. $$ \mathbf{A+B} = \begin{bmatrix} a_{11} + b_{11} & a_{12} + b_{12} & \cdots & a_{1c} + b_{1c} \\ a_{21} + b_{21} & a_{22} + b_{22} & \cdots & a_{2c} + b_{2c} \\ \vdots & \vdots & \ddots & \vdots \\ a_{r1} + b_{r1} & a_{r2} + b_{r2} & \cdots & a_{rc} + b_{rc} \end{bmatrix}$$
Con las dos operaciones previas podemos definir la resta de dos matrices con la misma dimensión como $$ \mathbf{A-B} = \mathbf{A} + (-1) \mathbf{B} $$
Sí $\mathbf{A}$ es una matriz de $r \times s$ y $\mathbf{B}$ una matriz de $s \times t$, es decir, el número de columnas de la primera matriz es el mismo que el número de renglones que la segunda, entonces se pueden multiplicar, obteniendo la matriz $\mathbf{P = AB}$ de tamaño $r \times t$, donde cada elemento $$p_{ij} = \sum_{k = 1}^{s}a_{ik} b_{kj} = a_{i1}b_{1j} + a_{i2}b_{2j} + ... + a_{is}b_{sj}$$
Por ejemplo, al multiplicar una matrix $\mathbf{A}$ de $3\times2$ por una matriz $\mathbf{B}$ de $2\times3$
Teniendo como resultado una matriz de dimensión $(3\times\cancel{2})(\cancel{2}\times3) = 3\times3$.
Nótese que al utilizar matrices cuadradas de orden $n$ podemos realizar todas estas operaciones sin ningún problema, obteniendo nuevamente una matriz de $n \times n$ como resultado.
La matriz inversa de $\mathbf{A}$ se denota como $\mathbf{A^{-1}}$ y es aquella que nos asegura $\mathbf{A}\mathbf{A^{-1}} = \mathbf{A^{-1}}\mathbf{A} = \mathbf{I}$. No todas las matrices son invertibles.
En particular, una matriz cuadrada que no es invertible se denomina singular. Por otra parte, la inversa del producto de dos matrices es el producto de las inversas en orden contrario $$ (\mathbf{A}\mathbf{B})^{-1} = \mathbf{B}^{-1}\mathbf{A}^{-1} $$
La traspuesta de una matriz $\mathbf{A}$ de $r \times c$ se denota como $\mathbf{A}^{T}$, y es la matriz de $c \times r$ que se obtiene de intercambiar los renglones por columnas, es decir, donde cada entrada $a_{ij}$ de $A$ corresponde a la entrada $a'_{ji}$ de $A^T$. $$ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1c} \\ a_{21} & a_{22} & \cdots & a_{2c} \\ \vdots & \vdots & \ddots & \vdots \\ a_{r1} & a_{r2} & \cdots & a_{rc} \end{bmatrix} ; \mathbf{A^{T}} = \begin{bmatrix} a_{11} & a_{21} & \cdots & a_{r1} \\ a_{12} & a_{22} & \cdots & a_{r2} \\ \vdots & \vdots & \ddots & \vdots \\ a_{1c} & a_{2c} & \cdots & a_{rc} \end{bmatrix} $$
En otras palabras, el renglón $i$ de $\mathbf{A}$ se escribe como la columna $i$ de $\mathbf{A^{T}}$, y la columna $j$ de $\mathbf{A}$ como el renglón $j$ de $\mathbf{A^{T}}$.
Y visto que un vector puede ser representado como una matriz de una sola columna (o renglón), entonces podemos obtener la multiplicación de dos matrices, o bien, vectores, con el producto punto, pues
$$ \mathbf{u} \cdot \mathbf{v} = \mathbf{u}^T \mathbf{v} = \begin{bmatrix} u_1 & u_2 & \dots & u_n \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix} = \sum_{i = 1}^{n}u_{i} v_{i} $$
Además, se dice que una matriz $\mathbf{A}$ es simétrica si es una matriz cuadrada y se tiene que $\mathbf{A} = \mathbf{A}^T$.
Del manera similar que con la inversa del producto de dos matrices pasa con la traspuesta, es decir $$(\mathbf{A}\mathbf{B})^{T} = \mathbf{B}^{T}\mathbf{A}^{T}$$
Por último, un conjunto especial de matrices son las llamadas matrices ortogonales, donde una matriz ortogonal $\mathbf{B}$ es una matriz cuadrada conformada por vectores columna (o renglón) los cuales constituyen una base ortonormal. Por lo que se satisface que $$\mathbf{B^{-1}} = \mathbf{B^T} \quad \text{pues} \quad \mathbf{B}\mathbf{B^T} = \mathbf{I}$$ ya que por definición de base ortonormal tenemos que $b_i \cdot b_i = 1$ y $b_i \cdot b_j = 0$, sí $i \not = j$.
Esta propiedad suele ser muy conveniente en GC ya que se suelen usar frecuentemente este tipo de
matrices, por ejemplo, la matriz de rotación descrita en el
Se tiene también que $\lVert \mathbf{Bv} \rVert = \lVert \mathbf{v} \rVert $ y de ahí que $(\mathbf{Bu})\cdot(\mathbf{Bv}) = \mathbf{u} \cdot \mathbf{v}$. Finalmente, si multiplicamos dos matrices ortogonales $\mathbf{A}$ y $\mathbf{B}$, entonces $\mathbf{AB}$ también será ortogonal.
| (i) | $\mathbf{A} + \mathbf{B} = \mathbf{B} + \mathbf{A}$ | (Conmutatividad) |
| (ii) | $(\mathbf{A} + \mathbf{B}) + \mathbf{C} = \mathbf{A} + (\mathbf{B} + \mathbf{C})$ | (Asociatividad) |
| (iii) | $\mathbf{I} \mathbf{A} = \mathbf{A}$ | (Identidad multiplicativa) |
| (iv) | $(kl) \mathbf{A} = k(l \mathbf{A})$ | (Asociatividad) |
| (v) | $k(\mathbf{A} + \mathbf{B}) = k\mathbf{A} + k\mathbf{B}$ | (Distributividad) |
| (vi) | $(k+l) \mathbf{A} = k\mathbf{A} + l\mathbf{A}$ | (Distributividad) |
| (vii) | $ \mathbf{A} + (-1) \mathbf{A} = \mathbf{O}$ | (Inverso aditivo. Nótese que la matriz de la derecha se trata de la matriz cero) |
| (viii) | $\mathbf{A} (\mathbf{B} + \mathbf{C}) = \mathbf{A} \mathbf{B} + \mathbf{A} \mathbf{C}$ | (Distributividad) |
| (ix) | $(\mathbf{A}+\mathbf{B}) \mathbf{C} = \mathbf{A}\mathbf{C} + \mathbf{B}\mathbf{C}$ | (Distributividad) |
| (x) | $(\mathbf{A} \mathbf{B}) \mathbf{C} = \mathbf{A} (\mathbf{B} \mathbf{C})$ | (Asociatividad) |
| (xi) | $(k \mathbf{A})^{T} = k(\mathbf{A})^{T}$ | (Traspuesta 1) |
| (xii) | $(\mathbf{A}^{T})^{T} = \mathbf{A}$ | (Traspuesta 2) |
| (xiii) | $(\mathbf{A} + \mathbf{B})^{T} = \mathbf{A}^{T} + \mathbf{B}^{T}$ | (Traspuesta 3) |
| (xiv) | $(\mathbf{A} \mathbf{B})^{T} = \mathbf{B} \mathbf{A}$ | (Traspuesta 4) |
Las matrices nos proporcionan una forma compacta de expresar sistemas de ecuaciones lineales, por ejemplo, el siguiente sistema $$ {\color{#89c9c8}\begin{cases} \color{black} 2x_1 + 4x_2 + 6x_3 = 18 \\ \color{black}4x_1 + 5x_2 + 6x_3 = 24 \\ \color{black}3x_1 + x_2 - 2x_3 = 4 \end{cases}} $$ puede ser representado como $$ {\color{#89c9c8} \underbrace{ \color{black} \begin{bmatrix} 2 & 4 & 6 \\ 4 & 5 & 6 \\ 3 & 1 & -2 \end{bmatrix} }_{\color{black}\mathbf{A}} \underbrace{ \color{black} \begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} }_{\color{black}\mathbf{x}} = \underbrace{ \color{black} \begin{bmatrix} 18 \\ 24 \\ 4 \end{bmatrix} }_{\color{black}b} } \\ \iff \\ \mathbf{Ax} = \mathbf{b}$$ donde cada columna de $\mathbf{A}$ corresponde a los coeficientes de las variables del sistema, $\mathbf{x}$ el vector columna con las variables o incógnitas y $\mathbf{b}$ el vector columna de los términos independientes.
Existen varias formas de resolver este tipo de sistemas, por mencionar algunos, el método de eliminación Gausiana el cual es uno de los más conocidos y la regla de Cramer, el cual suele ser un método apropiado ya que en GC se suele trabajar con matrices cuadradas de dimensión menor o igual a 4.
En el método de eliminación de Gaussiana se obtiene las soluciones mediante la reducción del sistema de ecuaciones dado utilizando operaciones elementales, dichas operaciones se aplican a los renglones de la matriz aumentada, transformando la matriz de coeficientes en una matriz triangular superior (o sistema triangular) para así realizar las sustituciones adecuadas y obtener las soluciones.
Las operaciones elementales son las siguientes:
Por ejemplo, utilizando el sistema de ecuaciones anterior su matriz aumentada sería $$ \begin{bmatrix} 2 & 4 & 6 & | & 18\\ 4 & 5 & 6 & | & 24\\ 3 & 1 & -2 & | & 4 \end{bmatrix} $$ Y utilizando las operaciones elementales, podemos resolver el sistema de la siguiente forma
Mientras que con la regla de Cramer se calcula el valor de cada incógnita utilizando determinates. Es decir, considerado el sistema de ecuaciones $\mathbf{Ax} = \mathbf{b}$, podemos obtener las soluciones con $$ x_j = \frac{\text{det}(\mathbf{A}_j)}{\text{det}(\mathbf{A})}$$ donde $\mathbf{A}_j$ es la matriz resultante de reemplazar la $j$-ésima columna de $\mathbf{A}$ por el vector columna $\mathbf{b}$. Vale la pena mencionar que el sistema tendrá una solución única si y solo si $\text{det}(\mathbf{A}) \not = 0$.
Entonces la solución del sistema de ecuaciones anterior estaría dada por $$ x_1 = \frac{ \begin{vmatrix} \color{#00CED1}18 & 4 & 6 \\ \color{#00CED1}24 & 5 & 6 \\ \color{#00CED1}4 & 1 & -2 \end{vmatrix} } { \begin{vmatrix} 2 & 4 & 6 \\ 4 & 5 & 6 \\ 3 & 1 & -2 \end{vmatrix} } \quad x_2 = \frac{ \begin{vmatrix} 2 & \color{#00CED1}18 & 6 \\ 4 & \color{#00CED1}24 & 6 \\ 3 & \color{#00CED1}4 & -2 \end{vmatrix} } { \begin{vmatrix} 2 & 5 & 6 \\ 4 & 5 & 6 \\ 3 & 1 & -2 \end{vmatrix} } \quad x_3 = \frac{ \begin{vmatrix} 2 & 4 & \color{#00CED1}18 \\ 4 & 5 & \color{#00CED1}24 \\ 3 & 1 & \color{#00CED1}4 \end{vmatrix} } { \begin{vmatrix} 2 & 4 & 6 \\ 4 & 5 & 6 \\ 3 & 1 & -2 \end{vmatrix} } $$
Los sistemas lineales como el que hemos visto, es decir, en los que su vector $\mathbf{b}$ es distinto de cero se le denomina no homogéneos. Para este tipo de sistemas, existen tres posibilidades, que tenga:
Por el contrario, cuando todas las constantes que constituyen a su vector $\mathbf{b}$ son iguales a cero, se le denominan homogéneos. Y son un caso especial ya que solo tiene la posibilidad de tener una única solución, que es la trivial, donde todas las variables son cero, o bien, tiene un número infinito de soluciones.
En la se observa que se puede describir geométricamente un sistema de dos ecuaciones con dos incógnitas mediante dos líneas rectas en $\Reals^2$. Si las líneas tienen un punto de intersección entonces tiene una solución única; si coinciden tienen un número infinito de soluciones y si son paralelas no se tiene ninguna solución. Algo similar se puede observar en el segundo interactivo (), donde cada ecuación corresponde a un plano en $\Reals^3$.
El determinante de una matriz $n$-cuadrada $\mathbf{A}$ es un escalar especial derivado de las entradas de dicha matriz y se denota como $\text{det}(\mathbf{A})$ o $$ \begin{vmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{vmatrix} $$
El determinante para matrices de 1 y 2 dimensiones $$ \begin{vmatrix} a_{11} \end{vmatrix} = a_{11} \quad \text{ y } \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{vmatrix} = a_{11}a_{22} - a_{12}a_{21} $$
Y si pensamos las dos columnas de la matriz como dos vectores columna en el plano, como vimos en el producto cruz, el determinante es el área (con signo) del paralelogramo formado por dichos vectores.
Consideremos ahora una matriz de dimensión 3, el determinante está dado por $$ \begin{vmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{vmatrix} = a_{11} \begin{vmatrix} a_{22} & a_{23} \\ a_{32} & a_{33} \end{vmatrix} - a_{12} \begin{vmatrix} a_{21} & a_{23} \\ a_{31} & a_{33} \end{vmatrix} + a_{13} \begin{vmatrix} a_{21} & a_{22} \\ a_{31} & a_{32} \end{vmatrix} $$ $$ = a_{11}a_{22}a_{33} + a_{12}a_{23}a_{31} + a_{13}a_{21}a_{32} - a_{13}a_{22}a_{31} - a_{12}a_{21}a_{33} - a_{11}a_{23}a_{32} $$
Y análogamnte si pensamos las tres columnas de la matriz como tres vectores columna el determinante nos da el volumen del paralelepípedo formado por los tres vectores (interactivo de la página anterior).
Como podemos notar el determinate está dado por una fórmula recursiva. De hecho, el desarrollo de Laplace, el cual nos permite calcular el determinante de matrices de elevadas dimensiones, consiste en descomponer al determinante en una suma de determinates menores, veamos cómo.
Consideremos a la matriz $\mathbf{A}$ de $n\times n$ y a la matriz $\mathbf{A}_{ij}$ de $(n-1)\times(n-1)$ que se obtiene de $\mathbf{A}$ al eliminar el $i$-ésimo renglón y la $j$-ésima columna, llamada menor $ij$ de $\mathbf{A}$.
Ahora bien, definamos al cofactor $ij$ de $\mathbf{A}$ como $$C(\mathbf{A})_{ij} = (-1)^{i+j} \text{det}(\mathbf{A}_{ij})$$ es decir, se toma al determinate del menor $ij$ y multiplicándolo por $(-1)^{i+j}$. Observese que $(-1)^{i+j}$ es $1$ cuando $i+j$ es par, y $-1$ en otro caso.
Entonces el determinante de $\mathbf{A}$ se calcula como $$ \text{det}(\mathbf{A}) = \sum_{k = 1}^{n} a_{ik} C(\mathbf{A})_{ik} \text{ sobre el renglón } i$$ O bien como $$ \sum_{k = 1}^{n} a_{kj} C(\mathbf{A})_{kj} \text{ sobre la colúmna } j$$
Podemos ver este proceso, en particular, sobre el primer renglón, en el cálculo de los determinates de dos y tres dimensiónes descritos previamente. En términos de la fórmula, esto es $$ \sum_{k = 1}^{n} a_{1k} C(\mathbf{A})_{1k} = \sum_{k = 1}^{n} (-1)^{1+k} a_{1k} \text{ det}(\mathbf{A}_{1k}).$$
Como podemos notar, a medida que $n$ incremente, los cálculos se vuelven astronómicos y el algoritmo ineficiente. No obstante, se suelen utilizan algunas de las propiedades que se enlistan a continuación para reducir los cálculos. Por otra parte, como mencionábamos antes, esto no suele ser un problema en graficación porque las matrices que se utilizan tienen en su mayoría no más de cuatro dimensiones.
| (i) | $\text{det}(\mathbf{I}) = 1$ | |
| (ii) | $\small|\cdots \mathbf{a}_i \dots \mathbf{a}_j \dots | = 0$ | es cero si dos columnas son múltiplos |
| (iii) | $\small| \dots k_1\mathbf{a}_1 + k_2\mathbf{a}_2 \dots | \\ = k_1| \dots \mathbf{a}_1 \dots | + k_2|\dots \mathbf{a}_2 \dots|$ | |
| (iv) | $\small| \cdots \mathbf{0} \dots | = 0$ | es cero si alguna columna es cero $\mathbf{0}$ |
| (v) | $\small| \dots \mathbf{a}_i \dots \mathbf{a}_j \dots | = - | \dots \mathbf{a}_j \dots \mathbf{a}_i \dots |$ | intercambio de columnas (o renglones) |
| (vi) | $\small | \cdots \mathbf{a}_i \dots \mathbf{a}_j \dots | = | \cdots \mathbf{a}_i + k\mathbf{a}_j \dots \mathbf{a}_j \dots |$ | suma del múltiplo de una columna a otra |
| (vii) | $\text{det}(\mathbf{A}) = \text{det}(\mathbf{A}^T)$ | |
| (vii) | $\text{det}(\mathbf{AB}) = \text{det}(\mathbf{A})\text{det}(\mathbf{B})$ | |
| (ix) | $\text{det}(\mathbf{A^{-1}}) = \frac{1}{\text{det}(\mathbf{A})}$ |
Para calcular la matriz inversa primero necesitamos definir a la matriz adjunta de una matriz cuadrada $\mathbf{A}$.
Sea $\mathbf{C}$ la matriz de cofactores de $\mathbf{A}$, es decir, cada elemento $(i,j)$ de $\mathbf{C}$ corresponde al cofactor $C(\mathbf{A})_{ij} = (-1)^{i+j} \text{det}(\mathbf{A}_{ij})$. Entonces, podemos definir a la matriz adjunta como la traspuesta de $\mathbf{C}$.
Esto es $$ \text{adj}\mathbf{A} = \begin{bmatrix} \mathbf{C}(\mathbf{A}_{11}) & \mathbf{C}(\mathbf{A}_{21}) & \cdots & \mathbf{C}(\mathbf{A}_{n1}) \\ \mathbf{C}(\mathbf{A}_{12}) & \mathbf{C}(\mathbf{A}_{22}) & \cdots & \mathbf{C}(\mathbf{A}_{n2}) \\ \vdots & \vdots & \ddots & \vdots \\ \mathbf{C}(\mathbf{A}_{1n}) & \mathbf{C}(\mathbf{A}_{2n}) & \cdots & \mathbf{C}(\mathbf{A}_{nn}) \end{bmatrix}$$ Ahora, como
$$ \mathbf{A}(\text{adj}\mathbf{A}) = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{bmatrix} \begin{bmatrix} \mathbf{C}(\mathbf{A}_{11}) & \mathbf{C}(\mathbf{A}_{21}) & \cdots & \mathbf{C}(\mathbf{A}_{n1}) \\ \mathbf{C}(\mathbf{A}_{12}) & \mathbf{C}(\mathbf{A}_{22}) & \cdots & \mathbf{C}(\mathbf{A}_{n2}) \\ \vdots & \vdots & \ddots & \vdots \\ \mathbf{C}(\mathbf{A}_{1n}) & \mathbf{C}(\mathbf{A}_{2n}) & \cdots & \mathbf{C}(\mathbf{A}_{nn}) \end{bmatrix} $$ $$ = \begin{bmatrix} \text{det}(\mathbf{A}) & 0 & \cdots & 0 \\ 0 & \text{det}(\mathbf{A}) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \text{det}(\mathbf{A}) \end{bmatrix} = \text{det}(\mathbf{A})\mathbf{I} $$
Pues es fácil ver que al multiplicar el renglón $i$ de $\mathbf{A}$ por la columna $j$ de $\text{adj}\mathbf{A}$ se tiene la suma $\sum_{k = 1}^{n} a_{ik} C(\mathbf{A})_{jk}$, por lo que sí $i = j$ nos queda la expansión de $\text{det}(\mathbf{A})$ sobre el rengón $i$ de $\mathbf{A}$, por otro lado, sí $i \not = j$ la suma es igual a $0$. Ánalogamente para $(\text{adj}\mathbf{A})\mathbf{A} = \text{det}(\mathbf{A})\mathbf{I}.$
Por consiguiente, sí $\text{det} \not = 0$, entonces podemos calcular su invesa con $$\mathbf{A}^{-1} = \frac{1}{\text{det}(\mathbf{A})} \text{adj}\mathbf{A}.$$
Ya que $$ \mathbf{A} \Big ( \frac{1}{\text{det}(\mathbf{A})} \text{adj}\mathbf{A} \Big ) = \frac{1}{\text{det}(\mathbf{A})} [\mathbf{A}(\text{adj}\mathbf{A})] = \frac{1}{\text{det}(\mathbf{A})} \text{det}(\mathbf{A})\mathbf{I} = \mathbf{I} $$ Y como por definición tenemos que $\mathbf{A}\mathbf{B} = \mathbf{I} \Rightarrow \mathbf{B} = \mathbf{A}^{-1}$. Entonces $\dfrac{1}{\text{det}(\mathbf{A})} \text{adj}\mathbf{A} = \mathbf{A}^{-1}$.
En particular, calcular la matriz inversa de una matriz $2\times2$ es muy sencillo. Consideremos la matriz $\mathbf{A}$ de $2\times2$ y con $\text{det}(\mathbf{A}) \not = 0$, entonces su matriz adjunta es $$ \text{adj}\mathbf{A} = \begin{bmatrix} \mathbf{C}(\mathbf{A}_{11}) & \mathbf{C}(\mathbf{A}_{21}) \\ \mathbf{C}(\mathbf{A}_{12}) & \mathbf{C}(\mathbf{A}_{22}) \end{bmatrix} = \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{bmatrix} $$
por lo que se tiene $$ \mathbf{A}^{-1} = \frac{1}{\text{det}(\mathbf{A})} \text{adj}(\mathbf{A}) = \frac{1}{a_{11}a_{22} - a_{12}a_{21}} \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{bmatrix}. $$
A continuación se muestra un ejemplo del cálculo de la inversa de una matriz.
Existen un número infinito de bases con las que podemos trabajar, ya que como vimos en el tema de Espacios vectoriales, bases y coordenadas, dentro de un espacio vectorial de dimensión $n$, cualesquiera $n$ vectores linealmente independientes pueden formar una base.
Consideremos a los conjuntos de vectores $S_1 = \{\mathbf{e}_{1}, \mathbf{e}_{2}, ..., \mathbf{e}_{n}\}$ y $S_2 = \{\mathbf{\widehat{e}}_{1}, \mathbf{\widehat{e}}_{2}, ..., \mathbf{\widehat{e}}_{n}\}$ como dos bases del espacio vectorial $V$ $n$-dimensional.
Entonces podemos tomar a un vector cualquiera $\mathbf{u} \in V$, el cual puede ser descrito en términos de los vectores de la base $S_1$ como
$$ \mathbf{u}_{S_1} = \begin{bmatrix} u_1 \\ u_2 \\ \vdots \\ u_n \end{bmatrix} ; \quad \text{es decir, } \mathbf{u} = u_{1}e_{1} + u_{2}e_{2} + ... + u_{n}e_{n} $$
De manera similar, ese mismo vector puede ser expresado usando la base $S_2$ como $$ \mathbf{u}_{S_2} = \begin{bmatrix} \widehat{u}_1\\ \widehat{u}_2 \\ \vdots \\ \widehat{u}_n \end{bmatrix} ; \quad \text{es decir, } \mathbf{u} = \widehat{u}_{1}\widehat{e}_{1} + \widehat{u}_{2}\widehat{e}_{2} + ... + \widehat{u}_{n}\widehat{e}_{n} $$
Ahora, dependiendo de lo que se busque podemos construir la matriz de cambio de base. Llamaremos a $S_1$ como la base "original" y a $S_2$ como la base "nueva".
Definimos la matriz de cambio de base $\mathbf{P}$ como la matriz que transforma las coordenadas de $\mathbf{u}_{S_2}$ a coordenadas de la base original, esto es $$ \mathbf{P}\mathbf{u}_{S_2} = \mathbf{u}_{S_1} $$
Para ello, escribimos a cada vector $\mathbf{\widehat{e}}_i$ de la base nueva $S_2$ en términos de la base original $S_1$, es decir
$$ \mathbf{\widehat{e}}_1 = b_{11}\mathbf{e}_1 + b_{21}\mathbf{e}_2 + ... + b_{n1}\mathbf{e}_n \\ \mathbf{\widehat{e}}_2 = b_{12}\mathbf{e}_1 + b_{22}\mathbf{e}_2 + ... + b_{n2}\mathbf{e}_n \\ \vdots \\ \mathbf{\widehat{e}}_n = b_{1n}\mathbf{e}_1 + b_{2n}\mathbf{e}_2 + ... + b_{nn}\mathbf{e}_n $$
Por lo que si sustituímos en $\mathbf{u}_{S_2}$, tenemos $$ \mathbf{u} = \widehat{u}_{1}(b_{11}\mathbf{e}_1 + b_{21}\mathbf{e}_2 + ... + b_{n1}\mathbf{e}_n) \\ + \widehat{u}_{2}(b_{12}\mathbf{e}_1 + b_{22}\mathbf{e}_2 + ... + b_{n2}\mathbf{e}_n) + \\ \qquad \vdots \qquad \\ + \widehat{u}_{n}(b_{1n}\mathbf{e}_1 + b_{2n}\mathbf{e}_2 + ... + b_{nn}\mathbf{e}_n) $$
Entonces $$ \mathbf{P} = \begin{bmatrix} b_{11} & b_{12} & \cdots & b_{1n} \\ b_{21} & b_{22} & \cdots & b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ b_{n1} & b_{n2} & \cdots & b_{nn} \end{bmatrix} $$
Así $$ \mathbf{P}\mathbf{u}_{S_2} = \begin{bmatrix} b_{11} & b_{12} & \cdots & b_{1n} \\ b_{21} & b_{22} & \cdots & b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ b_{n1} & b_{n2} & \cdots & b_{nn} \end{bmatrix} \begin{bmatrix} \widehat{u}_1\\ \widehat{u}_2 \\ \vdots \\ \widehat{u}_n \end{bmatrix} = \mathbf{u}_{S_1} $$
Análogamente, definimos como matriz de transición $\mathbf{Q}$ como la matriz que transforma las coordenadas de $\mathbf{u}$ descrito con la base original $S_1$, a coordenadas de la nueva base, es decir, $$ \mathbf{Q}\mathbf{u}_{S_1} = \mathbf{u}_{S_2} $$
Escribiendo ahora a los vectores $\mathbf{e}_i$ como combinación lineal de la base nueva $$ \mathbf{e}_j = b_{1j}\mathbf{\widehat{e}}_1 + b_{2j}\mathbf{\widehat{e}}_2 + ... + b_{nj}\mathbf{\widehat{e}}_n $$ Podemos entonces obtener a $\mathbf{Q}$, siendo las columnas de la matriz iguales a las coordendas dadas por los vectores columna $\mathbf{\widehat{e}}_j$.
Nótese que $\mathbf{Q} = \mathbf{P}^{-1}$ y del mismo modo $\mathbf{P} = \mathbf{Q}^{-1}$, pues si multiplicamos $\mathbf{u}_{S_1} = \mathbf{P}\mathbf{u}_{S_2}$ por $\mathbf{P}^{-1}$ tenemos $$ \mathbf{P}^{-1}\mathbf{u}_{S_1} = \mathbf{P}^{-1}\mathbf{P}\mathbf{u}_{S_2} = \mathbf{I}\mathbf{u}_{S_2} =\mathbf{u}_{S_2}$$
Una línea recta puede ser definida por un punto inicial $S$ y una dirección $\mathbf{d}$. Por consiguiente, si tomamos un punto $P$, y éste se encuentra sobre la línea, entonces el vector $\overset{\rarr}{SP}$ es paralelo a $\mathbf{d}$, y además, podemos asegurar que existe un escalar $t$ tal que $$\overset{\rarr}{SP} = t \mathbf{d}$$ Por lo que cualquier punto en la línea puede ser descrito con un $t \in \Reals$ único, lo cual suele ser muy útil. Denotemos entonces como $P(t)$ a la función paramétrica que nos devuelve el punto $P$ sobre la línea dado un escalar $t$, la cual puede ser expresada como $$ \overset{\rarr}{SP(t)} = t \mathbf{d} \\ \iff \\ P(t) - S = t \mathbf{d} \\ \iff \\ P(t) = S + t \mathbf{d} $$
Observemos en la que si $P$ está sobre la línea y se encuentra posicionado en la misma dirección que $\mathbf{d}$, entonces $t > 0$, de lo contrario, quiere decir que se encuentra en dirección opuesta a $\mathbf{d}$ y $t < 0$. De este modo, podemos obtener cualquier punto sobre una línea que se extiende hacia el infinito en ambas direcciones, al variar $t$ entre $(-\infin, \infin)$.
Por otro lado, si se quiere describir un rayo que va desde el punto inicial $S$ y se extiende hacia el infinito en dirección de $\mathbf{d}$, basta delimitar a $t$ con un valor mayor o igual a $0$. Se puede ver un ejemplo en la como la línea azul.
Podemos definir también a la línea recta o segmento de línea que pasa entre dos puntos $P_0$ y $P_1$, al simplemente reemplazar a $S$ por $P_0$ y a $\mathbf{d}$ por el vector $P_1 - P_0$, quedando nuestra ecuación como sigue $$ P(t) = (1-t) P_0 + t P_1 \ \text{con } t \in [0,1].$$
Notemos que si tomamos la longitud de ambos lados de la ecuación $P(t) - S = t \mathbf{d}$, tenemos que $ \lVert P(t) - S \rVert = \lVert t \mathbf{d} \rVert $, pero si normalizamos a nuestro vector de dirección, entonces nos queda como $\lVert P(t) - S \rVert = \lVert t \rVert$, simplificando la búsqueda de $t$, es decir, el punto $P(t)$ está situado a $t$ unidades de $S$.
Vale la pena mencionar que las líneas en un espacio de dimensión 2 pueden ser representadas por un punto inicial $S$ y su respectivo vector normal $\mathbf{n}$. Donde si un punto $P$ se encuentra sobre la línea se cumple que $$ e(P) = \mathbf{n} \cdot (P - S) = 0$$ con $\mathbf{n} = (d_y, -d_x), \text{pues } \mathbf{n} \cdot \mathbf{d} = d_y d_x - d_x d_y = 0.$ (Ver )
Esta función es conocida como edge equation, y ya que utliza el producto punto podemos ver que si $e(P) > 0$, entonces el ángulo más pequeño $\theta$ formado entre $\mathbf{n}$ y $(P - S)$ es menor que $\frac{\pi}{2}$, cayendo en el lado o mitad positiva de la línea, análogamente si $e(P) > 0$, entonces el ángulo es mayor que $\frac{\pi}{2}$, y cae en el lado o mitad negativa de la línea.
Por último, si normalizamos a $\mathbf{n}$, vemos que $e(P) = \lVert (P - S) \rVert \cos \theta$, siendo ahora la distancia exacta (con signo) de la proyección ortogonal de $P$ sobre la línea.
Un plano en tres o más dimensiones puede ser definido de manera similar que una línea bidimensional, esto es, con un punto inical $S$, y dos vectores de dirección no colineares entre sí $\mathbf{d1}$ y $\mathbf{d2}$, los cuales estarán sobre el plano. Por lo que si un punto $P$ se encuentra en el plano, entonces existen dos escalares $t_1, t_2 \in \Reals$ tales que $$\overrightarrow{SP} = t_1 \mathbf{d_1} + t_2 \mathbf{d_2}$$ De modo que, podemos encontrar todos los puntos sobre el plano con la función paramétrica $P(t_1, t_2)$, donde $$ \overrightarrow{SP(t_1, t_2)} = t_1 \mathbf{d_1} + t_2 \mathbf{d_2} \\ \iff \\ P(t_1, t_2) - S = t_1 \mathbf{d_1} + t_2 \mathbf{d_2} \\ \iff \\ P(t_1, t_2) = S + t_1 \mathbf{d_1} + t_2 \mathbf{d_2} $$
Notemos que sí alguno de los vectores de dirección es $\mathbf{0}$, o bien, $\mathbf{d1} = k\mathbf{d2}$ con $k \in \Reals$, la ecuación se reduce a la ecuación paramétrica de la línea.
Por otra parte, también podemos representar un plano con su punto incial $S$ y su respectivo vector normal $\mathbf{n}$. Entonces, para todos los puntos $P$ en el plano se cumple que $$ \mathbf{n} \cdot ( P - S) = 0$$
Y ya que al igual que con las líneas, el plano divide el espacio de dominio en dos mitades, podemos crear del mismo modo la función de distancia $e(P) = \mathbf{n} \cdot (P - S)$.
Por lo tanto, si $e(P) = 0$ entonces $P$ se encuentra sobre el plano. Ahora bien, si $e(P) > 0$ entonces $P$ está del mismo lado que el punto $S + \mathbf{n}$ siendo la mitad positiva del espacio. Asimismo, si $e(P) < 0$ entonces $P$ se encuentra del mismo lado que el punto $S - \mathbf{n}$, correspondiendo a la mitad negativa del espacio.
Otro aspecto útil en graficación es cómo obtenemos la proyección ortogonal de un punto $P$ sobre un plano, el cual está definido por una normal $\mathbf{n}$. Para ello basta calcular el punto de proyección $Q$ de la siguiente forma $$ Q = P - P_{\mathbf{n}} (P-S) \\ \iff \\ Q = P - P_{\mathbf{n}} \overset{\rarr}{SP} $$ siendo $S$ el punto incial. Este proceso se muestra en la .