Notas para el curso de
Animación por Computadora

Notas para el curso de Animación por Computadora


Joel Espinosa Longi
Universidad Nacional Autónoma de México

Fondo Editorial RED Descartes

Córdoba (España)
2024

Título de la obra:
Notas para el curso de Animación por Computadora


Autor:
Joel Espinosa Longi



Código JavaScript para el libro: Joel Espinosa Longi, IMATE,
UNAM.
Imagen de portada: Joel Espinosa Longi
Tipografía: WorkSans, Aleo y UbuntuMono
Fórmulas matemáticas: $\KaTeX$


Red Educativa Digital Descartes
Córdoba (España)
descartes@proyectodescartes.org
https://proyectodescartes.org

Proyecto iCartesiLibri
https://proyectodescartes.org/iCartesiLibri/index.htm
https://prometeo.matem.unam.mx/recursos/VariosNiveles/iCartesiLibri/

ISBN: 978-84-18834-98-1

El contenido de esta obra esta bajo una licencia Creative Commons (Atribución-NoComercial-CompartirIgual).

Tabla de contenido









Prefacio

Estas notas surgen con la finalidad de proporcionar un soporte al contenido de un curso “Animación por Computadora”, y presentan de manera general e integrada los temas más relevantes que un estudiante debe conocer sobre la Animación por Computadora. Esta obra aborda la parte teórica del curso y se excluye de este documento gran parte de la información de implementación y prácticas sobre software de modelado y animación, para evitar que la obra se vuelva más extensa de lo debido. Además, la implementación y el software a utilizar puede variar dependiendo del profesor que imparta el curso, por lo que partiendo de la libertad de cátedra no se pretende imponer ninguna metodología para impartir el curso.

Los temas expuestos en estas notas se encuentran ordenados siguiendo en gran medida el pipeline de producción de una animación en 3D, conjuntando conceptos de narración, diseño y computación.

Capítulo I
Qué es la animación por computadora
y dónde puede encontrarse

La animación por computadora es omnipresente en el mundo actual y se emplea en numerosos contextos y situaciones. Este fenómeno se atribuye principalmente a la importancia que han adquirido los sistemas informáticos en la vida moderna, lo que ha permitido la creación de animaciones más complejas y realistas. Para comenzar a entender qué es la animación por computadora, es importante definirla y examinar los diferentes tipos y medios en los que se puede encontrar.


¿Qué es la animación por computadora?

La palabra animación (https://dle.rae.es/animación) según la RAE se define como la acción y efecto de animar. El verbo animar (https://dle.rae.es/animar) se deriva del verbo latino animāre que significa: vivificar, reanimar, alegrar, infundir o dar ánimo. Entonces, el término animación se refiere a la acción de otorgar o infundir vida, por lo general, a objetos inanimados que no la poseen de forma natural.

El objetivo de la animación por computadora es crear la ilusión de vida para objetos y personajes que existen en un mundo virtual o digital. Para lograr esto, se llevan a cabo cambios en los atributos de los objetos animados, siendo estos atributos los encargados de definir diversas características como la posición, rotación, escala, color, texturas, visibilidad, entre otras más.

La animación por computadora, también conocida como animación digital, es una subárea de la graficación por computadora que se enfoca en estudiar los algoritmos y técnicas para crear objetos y personajes virtuales que se muevan e interactúen, dando la ilusión de vida. Así mismo la animación se trata del arte de crear imágenes en movimiento mediante el uso de una computadora, y como tal, la computadora es una herramienta esencial en este proceso, ya que facilita y acelera tareas que de otra manera serían monótonas y tediosas para un animador. Algunas de estas tareas incluyen la creación de objetos en dos y tres dimensiones, la simulación de fenómenos físicos, la creación de imágenes para el enriquecimiento visual, la interpolación de valores y la generación de las imágenes finales que componen la animación.

Existen tres formas principales de controlar el movimiento o los cambios que pueden presentar los objetos animados en la animación por computadora: animación artística, animación basada en datos y animación procedural.

Animación artística

La animación artística es la forma más artesanal o manual de realizar una animación, ya que aquí el animador controla y coordina directamente el movimiento de los objetos animados. En este proceso, el animador decide la apariencia de los objetos, su movimiento e interacción con otros elementos, todo con el fin de expresar una idea.

Para lograr este objetivo existen programas de modelado y animación como: Blender, 3ds Max, Maya, entre otros más; los cuales son aplicaciones muy sofisticadas que ofrecen diversas herramientas que permiten al artista manipular, controlar y modificar diferentes atributos de los objetos animados. En la se pueden observar algunas de las herramientas que proporciona Blender para este fin, como la línea de tiempo (parte inferior) y el editor de curvas (a la derecha).

Algunas herramientas que ofrece Blender para la animación.

Animación basada en datos

La animación basada en datos (data-driven animation) es un proceso en el que se utilizan datos de movimiento para animar los objetos virtuales. Para ello se emplean diversos sensores que recopilan información del mundo real, con la que se construye una representación computacional de dicha información. Aquí, no se requiere la interacción directa de un animador, ya que los datos de movimiento provienen del mundo real, solo es necesario que intervenga un animador en caso de que los datos requieran algún tipo de ajuste, depuración o modificación particular.

Esta forma de realizar una animación es útil para observar y estudiar fenómenos naturales, por ejemplo, si se tiene un arreglo de boyas en el mar que detectan diversos parámetros, como la temperatura del agua a diferentes profundidades, es posible crear una animación para visualizar los cambios en la temperatura del océano y tener una idea más clara de lo que sucede (ver ). Las animaciones de este estilo se utilizan ampliamente en el campo de la Visualización científica a veces llamada Visualización por Computadora.

Greg Shirah, Antonio Busalacchi, NASA/Goddard Space Flight Center Scientific Visualization Studio, https://svs.gsfc.nasa.gov/280

Otro uso común de la animación basada en datos es la captura de movimiento (motion capture), donde se registra el movimiento de una persona o animal mediante un traje o marcadores especiales para copiar o replicar dicho movimiento dentro de una animación ().

Ejemplo de captura de movimiento.
“Dog Motion Capture Breakdown”, YouTube, subido por Catherine Henriques, 16 nov 2015. https://youtu.be/6zKxIShlVNk

Animación procedural

La animación procedural se basa en un modelo físico que controla los movimientos y cambios de los objetos. Este tipo de animación se utiliza ampliamente en motores de física de videojuegos para simular partículas, trayectorias balísticas, colisiones, reacciones entre objetos, fluidos y otros efectos más. Las animaciones procedurales por lo general se basan en modelos físicos como las leyes de mecánica de Newton, que dotan a los objetos de atributos como masa, velocidad, aceleración y densidad, así como las diversas fuerzas que interactúan con ellos.

Debido a que estas animaciones están basadas en reglas físicas, los animadores tienen poca participación en su creación, solo intervienen definiendo las condiciones iniciales del sistema y las propiedades de los elementos que serán parte de la simulación.

Ejemplo de simulaciones físicas.
“NVIDIA Omniverse Physics Showcase”, YouTube, subido por NVIDIA, 13 abr 2021. https://youtu.be/7ozs5EsvVGE

Estas tres formas de controlar los cambios en el tiempo no son excluyentes y pueden utilizarse conjuntamente para diferentes objetos o momentos dentro de una animación. Por ejemplo, es posible tener un personaje que realiza sus movimientos gracias a información de captura de movimiento (animación basada en datos), mientras que su ropa se mueve por medio de un motor de física que determina cómo las prendas deben comportarse (animación procedural), y para movimientos complicados que no son realizables por un actor, un animador puede realizar dichos movimientos de forma manual (animación artística), creando así una animación completa.

¿Dónde se utiliza la animación por computadora?

Actualmente, la animación por computadora se utiliza en diversos ámbitos y medios, siendo la ciencia y el entretenimiento los principales exponentes y usuarios de estas técnicas. Aún así existen otros campos que también exploran el uso de la animación por computadora para presentar información de manera creativa y atractiva. En general, la animación por computadora se emplea en cualquier situación en la que se requiere transmitir información de manera visual y mostrar cambios a lo largo del tiempo. Los objetivos de las animaciones pueden variar desde entretener hasta comprender los cambios que ocurren en algún fenómeno natural.

Entretenimiento

El entretenimiento es una actividad que las personas realizan para disfrutar del tiempo libre, a lo largo del tiempo, esta actividad ha evolucionado, adaptándose a las tendencias y tecnologías de la época. La animación por computadora se ha convertido en un medio importante para el entretenimiento, debido a que aprovecha los avances tecnológicos modernos para contar historias cada vez más diversas e interesantes.

Películas

Las películas u obras cinematográficas son un medio de entretenimiento que narra una historia a través de actores, escenarios y las acciones que se desarrollan. La animación por computadora ha ganado importancia en la producción de películas, ya que su uso facilita la creación de imágenes para componer la obra, permitiendo crear escenarios y personajes fantásticos que no pueden ser creados fácilmente en la vida real.

Hay dos categorías principales de películas creadas mediante la animación por computadora: las completamente animadas y las que utilizan efectos especiales generados por computadora.


Películas totalmente animadas

Las películas totalmente animadas son un ejemplo claro de lo qué es la animación por computadora, ya que combinan de forma integral técnicas y conceptos de cine, animación tradicional y graficación por computadora. En este tipo de películas, todas las imágenes que componen la obra son generadas enteramente por una computadora.

Es importante destacar que las películas totalmente animadas han ganado una gran popularidad en la industria del cine, ya que al no depender de actores o escenarios reales, se pueden crear mundos y personajes fantásticos que no serían posibles de otra manera. Además, la animación por computadora permite alcanzar un nivel de detalle y precisión que sería muy difícil de lograr con métodos tradicionales.

Actualmente, hay numerosas películas totalmente animadas, y muchos estudios de animación se dedican a su creación. Algunos ejemplos de películas totalmente animadas incluyen:

“#Elementos de Disney y Pixar | Tráiler Oficial | Doblado”, YouTube, subido por Disney Latinoamérica, 29 mar 2023. https://youtu.be/h6LrYQnDd3U
“The Super Mario Bros. Movie | Official Trailer”, YouTube, subido por Illumination, 29 nov 2022. https://youtu.be/TnGl01FkMMo

“Puss In Boots: The Last Wish - Official Trailer 2”, YouTube, subido por Universal Pictures, 15 jun 2022. https://youtu.be/RqrXhwS33yc
“SPIDER-MAN: ACROSS THE SPIDER-VERSE - Official Trailer (HD)”, YouTube, subido por Sony Pictures Entertainment, 13 dic 2022. https://youtu.be/cqGjhVJWtEg

Los ejemplos anteriores vienen por parte de estudios Hollywoodenses, que son de los más conocidos a nivel mundial, aún así existen diversos estudios de animación en todo el mundo que desarrollan animaciones generadas por computadora.

Por ejemplo, la fundación Blender con sede en Amsterdam, a través de Blender Studio ha creado varios cortos animados para probar las características y necesidades de la herramienta Blender. Algunas de las animaciones que han realizado son:

“WING IT! - Blender Open Movie”, YouTube, subido por Blender Studio, 12 sept 2023. https://youtu.be/PVGeM40dABA
“CHARGE - Blender Open Movie”, YouTube, subido por Blender Studio, 15 dic 2022. https://youtu.be/UXqq0ZvbOnk
“Sprite Fright - Open Movie del Blender Studio”, YouTube, subido por Blender Studio, 29 oct 2021. https://youtu.be/_cMxraX_5RE
“Coffee Run - Blender Open Movie”, YouTube, subido por Blender Studio, 29 may 2020. https://youtu.be/PVGeM40dABA
“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY
“Agent 327: Operation Barbershop”, YouTube, subido por Blender Studio, 15 may 2017. https://youtu.be/mN0zPOpADL4

México cuenta con algunos estudios de animación, como Ánima Estudios y Huevocartoon, que comenzaron desarrollando animaciones en 2D, pero actualmente también desarrollan animaciones en 3D. Algunos ejemplos de sus producciones en 3D son:


“¡La mejor película de la saga! ¡CHÉCALA! Trailer de Huevitos Congelados”, YouTube, subido por huevocartoon, 7 dic 2022. https://youtu.be/utfftMq9G6A
“Escuela de MIEDO (Tráiler oficial) | Ánima | PRÓXIMAMENTE EN CINES”, YouTube, subido por Ánima Estudios, 22 abr 2020. https://youtu.be/nvsEeTXPBjw

Otras películas completamente animadas por computadora, desarrolladas en otras partes del mundo, incluyen:

“nWave | Chickenhare and the Hamster of Darkness (2022) | Trailer”, YouTube, subido por nWave Studios, 30 nov 2021. https://youtu.be/0WpES_bo4mE
“ASTERIX: THE SECRET OF THE MAGIC POTION | Official Australian Trailer”, YouTube, subido por Icon Film Distribution ANZ, 2 sept 2019. https://youtu.be/xSzgv6aft3g
“Condorito la película | Primer trailer | Próximamente - Solo en cines”, YouTube, subido por 20th Century Studios LA, 11 jul 2017. https://youtu.be/qM99-971rfg
“METEGOL (Trailer)”, YouTube, subido por Metegol Pelicula, 16 ago 2012. https://youtu.be/l9Mkqqa8ilU
“Earwig and the Witch | Official Trailer | Max”, YouTube, subido por Max, 13 ene 2021. https://youtu.be/_PfhotgXEeQ
“The Amazing Maurice | Official Trailer | Sky Cinema”, YouTube, subido por Sky Cinema, 17 may 2022. https://youtu.be/fotvV-Ty9rU
“How 'Wolfwalkers' Animated Its Wolf Vision Scenes | Movies Insider”, YouTube, subido por Insider, 25 feb 2021. https://youtu.be/rOU4K4cV-Dk
“【予告】『しん次元!クレヨンしんちゃんTHE MOVIE 超能力大決戦 ~とべとべ手巻き寿司~』8月4日(金)公開”, YouTube, subido por 東宝MOVIEチャンネル, 22 feb 2023. https://youtu.be/w4qOU2nl7tE
Películas que utilizan efectos especiales generados por computadora.

Las películas que utilizan efectos especiales generados por computadora son aquellas en las que se filman actores o escenarios en el mundo real y se agregan elementos generados por computadora, como fondos, personajes u otros elementos. El término “efectos especiales” es muy amplio y puede incluir cualquier elemento visual agregado a una grabación del mundo real mediante una computadora. En estas películas, las gráficas y animaciones generadas por computadora siempre se combinan con elementos producidos y grabados en la vida real.

Un ejemplo clásico de película que utiliza la animación por computadora como efectos especiales es: Tron de 1982 producida por “Walt Disney Productions” (); que se considera la primera película que mezcla imágenes generadas por computadora o CGI (Computer Generated Imagery) con acción en vivo, y es un buen ejemplo de una película que utiliza la animación por computadora como efectos especiales.

“TRON | Original Trailer | Disney+”, YouTube, subido por Disney Plus, 8 nov 2019. https://youtu.be/EtyHX7z8fi8

Otros ejemplos de películas que utilizan efectos especiales:

“Lord of the Rings: The Two Towers - Original Theatrical Trailer”, YouTube, subido por Warner Bros., 8 jul 2014. https://youtu.be/Y4neBR0h39c
“Marvel Studios' Doctor Strange in the Multiverse of Madness | Official Trailer”, YouTube, subido por Marvel Entertainment, 13 feb 2022. https://youtu.be/aWzlQ2N6qqg
“Jurassic Park - Original Trailer, YouTube, subido por Universal Pictures All-Access, 26 ene 2011. https://youtu.be/g24fYA3pXKI
“Jurassic World Dominion - Official Trailer [HD]”, YouTube, subido por Universal Pictures, 10 feb 2022. https://youtu.be/fb5ELWi-ekk
“POKÉMON Detective Pikachu - Official Trailer #1”, YouTube, subido por Warner Bros. Pictures, 12 nov 2018. https://youtu.be/1roy4o4tqQM
“Sonic the Hedgehog 2 (2022) - "Official Trailer" - Paramount Pictures”, YouTube, subido por Paramount Pictures, 9 dic 2021. https://youtu.be/G5kzUpWAusI

La animación por computadora en películas que la utilizan como efectos especiales ofrece la posibilidad de crear elementos difíciles de construir o crear en la vida real, enriqueciendo las posibilidades narrativas del medio permitiendo explorar ideas fuera de la realidad y presentarlas en una pantalla de una manera más realista y convincente.

Televisión

La televisión es un medio de entretenimiento que presenta obras audiovisuales en horarios predeterminados, que a menudo incluyen pausas para comerciales. Se pueden ver en la televisión, muchos años después, películas que fueron estrenadas en cines; así como programas específicos para este medio, como series televisivas, que cuentan historias largas divididas en varios episodios.

Los servicios de streaming han cambiado algunas cosas de la televisión tradicional, como la forma en que se accede al contenido, lo que permite ver programas sin pausas comerciales en el momento y horario que el espectador desee. Aunque la forma de acceder al contenido ha cambiado, el concepto de serie televisiva sigue siendo popular en los medios de streaming actuales ya que permite dosificar el contenido de una historia en diversos episodios o capítulos.

En cuanto al uso de la animación por computadora en la televisión, se encuentran las mismas dos categorías que en el cine: completamente generadas por computadora y como efectos especiales. Hay que mencionar que las producciones televisivas o de streaming suelen tener más restricciones de presupuesto, tiempo y alcance, que las producciones cinematográficas, lo que se puede observar en la reducción de la calidad visual de las producciones televisivas. Algunos ejemplos de animación en la televisión generada completamente por computadora son:

“Pirata et Capitano en français ! Générique ! Chanson ! | 4 et + , Plus”, YouTube, subido por Pirata & Capitano, 7 ago 2017. https://youtu.be/dyg9lMr3sqg
“POCOYÓ en ESPAÑOL - Vacaciones [4x01] | CARICATURAS y DIBUJOS ANIMADOS para niños”, YouTube, subido por Pocoyó 🇪🇸 Español - Canal Oficial, 25 nov 2016. https://youtu.be/427r-dWkbQw
“Arcane | Tráiler final | Netflix”, YouTube, subido por Netflix Latinoamérica, 31 oct 2021. https://youtu.be/xPKN7MxS8TU
“MURDER DRONES Season 1 (TRAILER)”, YouTube, subido por GLITCH, 28 oct 2022. https://youtu.be/tAh67F9azNU

“THE AMAZING DIGITAL CIRCUS [OFFICIAL TRAILER]”, YouTube, subido por GLITCH, 22 sept 2023. https://youtu.be/iuaRQ5NQFq8
“HELLUVA BOSS: SEASON TWO TRAILER (LVL UP 2024)”, YouTube, subido por Vivziepop, 27 abr 2024. https://youtu.be/BZTI5OWypAg

También es posible encontrar producciones donde se utilizan diversos medios para generar la animación, como es el caso del “El asombroso mundo de Gumball”, donde se pueden observar animación 2D tradicional, animación 3D y elementos de acción en vivo, todo mezclado de forma coherente y que le imprime vida propia a la producción.

“The Amazing World of Gumball | Launch Trailer | Cartoon Network”, YouTube, subido por Cartoon Network UK, 27 abr 2011. https://youtu.be/Icq2LLOPoTo

Ejemplos de animación en la televisión (o streaming) donde se utiliza la animación por computadora como efectos especiales:

“The Boys - Tráiler final | Amazon Prime Video”, YouTube, subido por Prime Video México, 23 jul 2019. https://youtu.be/eshJeoaDmtY
“The Last of Us | Tráiler oficial | Español subtitulado | HBO Max”, YouTube, subido por Max Latinoamérica, 3 dic 2022. https://youtu.be/yyGetSp7CIc
“One Piece | Tráiler Oficial | Netflix”, YouTube, subido por Netflix Latinoamérica, 21 jun 2022. https://youtu.be/JoO7TGG2Kms
“Obi-Wan Kenobi | Tráiler Oficial Subtitulado | Disney+”, YouTube, subido por Star Wars Latinoamérica, 4 may 2022. https://youtu.be/DPHtPfaEbUQ

Videojuegos

Un videojuego es un sistema electrónico que permite la interacción de un jugador con un mundo virtual, principalmente a través de elementos gráficos como textos, menús, modelos 3D e imágenes. La animación por computadora se utiliza en los videojuegos para presentar el estado del juego a través de gráficas interactivas, como la animación del personaje principal y las interacciones con otros objetos, y para videos pregrabados que cuentan la historia del juego.

La animación por computadora se utiliza en los videojuegos con dos propósitos principales:

  • En primer lugar, se utiliza para las gráficas interactivas del juego, es decir, aquello que el jugador controla y que debe producir una interacción en tiempo real. Por ejemplo, se utiliza para animar el personaje principal y las interacciones que tiene con otros objetos en el mundo virtual.
  • En segundo lugar, se utiliza para los videos pregrabados o cinemáticas (cinematics) que se utilizan para contar parte de la historia del juego, y no son controlados por el jugador.

Hace muchos años atrás, se apreciaba una gran diferencia en la calidad visual entre las gráficas interactivas y las cinemáticas, ya que las cinemáticas solían utilizar animaciones generadas previamente u offline (como en una película), mientras que las gráficas interactivas se generan en tiempo real por lo que su calidad depende del poder de cómputo de la máquina que ejecuta el videojuego. Sin embargo, con el avance de la tecnología la distinción se ha vuelto cada vez menor, haciendo que en la actualidad muchas de las animaciones presentadas en las cinemáticas utilicen las mismas gráficas de la parte interactiva, limitando solo la interacción del jugador y ecualizando su presentación.

Videojuegos 2D

Los videojuegos clásicos como Pong, Space Invaders, Pac Man, entre otros muchos más, a pesar de su apariencia simple en comparación con los videojuegos modernos, utilizan elementos esenciales de la animación por computadora para presentar los cambios e interacciones entre los objetos. La animación de personajes y objetos, detección de colisiones, programación de inteligencia artificial y física del juego que se desarrollaron en estos juegos sentaron las bases para muchos videojuegos modernos, siendo pioneros en el desarrollo de videojuegos al proporcionar las bases de muchos de los elementos que se utilizan actualmente.

Debido a las limitaciones tecnológicas de la época en la que fueron desarrollados, estos juegos no podían hacer uso de gráficos avanzados en 3D o animaciones complejas. En su lugar, se valieron de animaciones simples pero efectivas para mejorar la interacción y la presentación del juego. Por ejemplo, en el caso de Pong, la animación del movimiento de la pelota y las paletas, la detección de colisiones y el cambio de dirección de la pelota se realiza mediante técnicas de simulación, graficación y animación por computadora.

“PONG - First documented Video Ping-Pong game - 1969”, YouTube, subido por pongmuseum, 14 feb 2009. https://youtu.be/XNRx5hc4gYc
“Space Invaders 1978 - Arcade Gameplay”, YouTube, subido por Game Archive - No Commentary Gameplay, 17 jun 2015. https://youtu.be/MU4psw3ccUI
“Pac-Man Original (Arcade 1980)”, YouTube, subido por bobamaluma, 30 abr 2012. https://youtu.be/-CbyAk3Sn9I
“Atari 2600 Game: Pitfall (1982 Activision)”, YouTube, subido por Old Classic Retro Gaming, 9 feb 2015. https://youtu.be/aAJzamWAFOE

Con el avance de la tecnología, los videojuegos han experimentado un cambio significativo logrando representaciones visuales más ricas y atractivas. Un elemento fundamental en esta evolución ha sido el uso de imágenes conocidas como sprites, que son gráficos en 2D empleados para representar personajes, objetos y elementos del escenario dentro del juego. Los sprites han estado presentes desde las etapas iniciales del desarrollo de videojuegos, siendo un recurso esencial para la presentación visual de los mismos. Estos gráficos se han vuelto cada vez más complejos y detallados; y en la actualidad, los desarrolladores pueden crear sprites de alta resolución y detalles diseñados minuciosamente, permitiendo una representación atractiva de los elementos del juego.

Además de su uso para representar elementos del juego, los sprites pueden ser manipulados de diferentes maneras para crear efectos visuales interesantes. Por ejemplo, se puede hacer que un sprite cambie de tamaño o se desvanezca en la pantalla para crear una sensación de profundidad y movimiento, así mismo se pueden crear capas de sprites para crear un efecto de paralaje, que da la sensación de que los elementos del juego se mueven a diferentes velocidades.

Algunos ejemplos de juegos que utilizan sprites se muestran a continuación:

“Longplay of Earthworm Jim”, YouTube, subido por LongplayArchive, 25 feb 2019. https://youtu.be/xhNv476tAs8
“Scott Pilgrim vs. The World: The Game Complete Edition Trailer | Ubisoft Forward 2020 | Ubisoft [NA]”, YouTube, subido por Ubisoft North America, 10 sept 2020. https://youtu.be/wUU_wRjdi2I
“Mina the Hollower - Official Announcement Trailer”, YouTube, subido por IGN, 1 feb 2022. https://youtu.be/a3p3Yf0cink
“Teenage Mutant Ninja Turtles: Shredder's Revenge - Official Reveal Trailer”, YouTube, subido por IGN, 10 mar 2021. https://youtu.be/86JYR7bK6RU
“River City Girls 2 - Official Launch Trailer”, YouTube, subido por WayForward, 15 dic 2022. https://youtu.be/DMxzG-z_qDw
“Pizza Tower Steam Trailer”, YouTube, subido por Pizza Tower, 2 dic 2022. https://youtu.be/Wlq6fFOqI28
Videojuegos 2.5D

Existen juegos que combinan imágenes en 2D (sprites) con mundos tridimensionales, donde se conjuntan las técnicas de animación 2D con las 3D, a este tipo de mezcla se le conoce como 2.5D haciendo referencia a algo intermedio entre dos y tres dimensiones. En este tipo de videojuegos, aunque los mundos y a veces los personajes sean tridimensionales, el movimiento está restringido a dos dimensiones, es decir, a diferencia de los juegos completamente en 3D, el movimiento está limitado a un plano de acción o a una cámara que generalmente se encuentra fija durante el movimiento del personaje, por lo que no es posible manipular libremente la cámara para explorar el entorno. Algunos ejemplos serían:

“Rayman Legends: Definitive Edition - Gameplay trailer”, YouTube, subido por Ubisoft, 13 abr 2017. https://youtu.be/1GjRVLQJrX0
“Sonic Generations Launch Trailer”, YouTube, subido por GameSpot, 1 nov 2011. https://youtu.be/L1SzeWaJa94

Una de las ventajas de los juegos en 2.5D es que pueden utilizar sprites detallados con los que se ofrecen mundos visualmente atractivos, sin la necesidad de tener una computadora muy potente, como se requeriría para un juego completamente en 3D.


“Paper Mario: The Thousand-Year Door – Overview Trailer – Nintendo Switch”, YouTube, subido por Nintendo of America, 25 abr 2024. https://youtu.be/gCV-uTRULn8
“Metroid Dread - Trailer 2 - Nintendo Switch”, YouTube, subido por Nintendo of America, 27 ago 2021. https://youtu.be/V_XnbTayTH4

Videojuegos 3D

El aumento en el poder de cómputo ha permitido la representación de mundos virtuales cada vez más complejos, estas mejoras en las capacidades computacionales ha dado lugar a la creación de nuevos algoritmos que representan la realidad de manera más fiel y proporcionan herramientas más sofisticadas para la creación y animación de estos mundos.

Los avances en la tecnología de motores de videojuegos y herramientas de creación han permitido a los desarrolladores diseñar entornos virtuales más detallados y realistas que nunca, lo cual contribuye a experiencias de juego más inmersivas y atractivas. Las grandes producciones de videojuegos suelen utilizar gráficos en 3D para ofrecer una representación del juego lo más realista o estilizada posible.

Con los avances tecnológicos en motores de videojuegos como Unreal Engine y Unity, y en herramientas para la creación de modelos, texturas y animaciones como MetaHuman o Blender, el realismo en los videojuegos se ha convertido en un factor que los jugadores valoran y buscan. Gracias a esto, los desarrolladores pueden crear mundos virtuales cada vez más detallados y realistas, lo que permite a los jugadores sumergirse en experiencias de juego cada vez más estimulantes e inmersivas. Además, los motores de videojuegos modernos ofrecen una amplia gama de herramientas para crear efectos visuales impresionantes, como iluminación dinámica, sombras y efectos climáticos, lo que contribuye aún más a la sensación de realismo.

“Unreal Engine 5 | Sizzle Reel”, YouTube, subido por Unreal Engine, 20 mar 2024. https://youtu.be/bJPxq6QogKE
“Cinematic Lighting for MetaHumans | Inside Unreal”, YouTube, subido por Unreal Engine, 20 ene 2022. https://youtu.be/aDwDdw_Ne3E
“Made With Unity games sizzle reel - Spring 2024 | Unity”, YouTube, subido por Unity, 18 mar 2024. https://youtu.be/09XGap8QiL8
“Blender 4.0 - Reel”, YouTube, subido por Blender, 14 nov 2023. https://youtu.be/eoY1Mc70uTo

Algunos ejemplos de juegos en 3D que buscan el fotorrealismo:

“God Of War Ragnarok - Reveal Trailer - Voces en Español | PS5”, YouTube, subido por PlayStation Latinoamérica, 30 sept 2021. https://youtu.be/vtFhDrMIZjE
“Halo Infinite | Campaign Gameplay Trailer”, YouTube, subido por HALO, 23 jul 2020. https://youtu.be/rFh2i4AlPD4
“Gran Turismo 7 - PlayStation Showcase 2021 Trailer | PS5”, YouTube, subido por PlayStation, 9 sept 2021. https://youtu.be/1tBUsXIkG1A
“Baldur's Gate 3 - Official Announcement Trailer”, YouTube, subido por Larian Studios, 6 jun 2019. https://youtu.be/OcP0WdH7rTs

En los videojuegos, se busca tanto la representación realista en 3D como la emulación de diferentes estilos artísticos. Por ejemplo, los juegos con estilo anime o caricaturesco utilizan técnicas como texturas y sombras, colores saturados y formas simplificadas para lograr una apariencia estilizada y artística. Estos estilos pueden ser atractivos para los jugadores en busca de una experiencia visualmente única y creativa.

Ejemplos de juegos 3D que intentan parecer 2D:

“Disgaea 7: Vows of the Virtueless - Announcement Trailer (Nintendo Switch, PS4, PS5, PC)”, YouTube, subido por NIS America, 30 ene 2023. https://youtu.be/aLlk74apf2Q
“Genshin Impact Announcement Trailer: The Outlander Who Caught The Wind”, YouTube, subido por Genshin Impact, 7 jun 2019. https://youtu.be/lMdsrZ1otlA
“Hi-Fi RUSH | Official Launch Trailer”, YouTube, subido por Bethesda Softworks, 25 ene 2023. https://youtu.be/pgd4aU56Kig
“Demon Slayer: The Hinokami Chronicles - Rui Teaser Trailer”, YouTube, subido por IGN, 25 ago 2021. https://youtu.be/BtEg9Fr1epk

A continuación se presentan un par de videos y , donde se pueden ver las gráficas utilizadas en el juego Final Fantasy VII original de 1997 y su remake lanzado en 2020. Al observar los videos se puede apreciar cómo la tecnología ha permitido a los desarrolladores crear gráficas más avanzadas y realistas en el remake, lo que refleja la evolución de la industria de los videojuegos en los últimos años. Además, el remake realiza una reinterpretación del estilo artístico del juego original para adaptarse a las expectativas de los consumidores y su capacidad para crear gráficas más detalladas y realistas.

“Final Fantasy VII - Legacy Trailer”, YouTube, subido por GameSpot, 16 ago 2012. https://youtu.be/4XkvRNu3oyU
“Final Fantasy VII Remake - Opening Movie | PS4”, YouTube, subido por PlayStation, 14 feb 2020. https://youtu.be/xOA5GwRcBks

La principal diferencia entre la animación utilizada en cine y televisión con la empleada en videojuegos, radica en el grado de interacción que tiene el usuario (o espectador). En el cine y la televisión, el espectador es un mero receptor pasivo que observa un contenido pregrabado, mientras que en los videojuegos, el usuario se convierte en un actor que controla las acciones de un personaje y se vuelve un elemento fundamental de la experiencia. Aunque es cierto que algunos videojuegos utilizan cinemáticas para narrar partes de la historia, esto no es una característica presente en todos ellos y, en cualquier caso, no constituye la totalidad del videojuego.

Publicidad

La publicidad tiene tres objetivos fundamentales:

  • Informar, donde se describen las principales características de un producto.
  • Persuadir, en el cual se intenta influir en la percepción de las personas mostrando los aspectos principales que hacen destacar un producto.
  • Recordar, con el fin de que las personas recuerden el producto y estén más inclinadas a consumirlo.

Siguiendo estos tres objetivos, la animación publicitaria se enfoca en presentar un producto o servicio de forma concisa, creativa y dinámica, con la intención de fomentar su consumo. Los anuncios publicitarios, también conocidos como comerciales o spots, suelen ser animaciones breves y claras que buscan atraer la atención de los posibles clientes y vender un producto o servicio de la manera más rápida y eficiente posible.

La animación por computadora ofrece una serie de ventajas para la creación de anuncios publicitarios. Una de las más importantes es que permite a los publicistas crear escenas que serían imposibles de filmar en la vida real, lo que proporciona una gran libertad creativa para diseñar anuncios que sean memorables y que capten la atención de los consumidores. Otra ventaja es que los publicistas pueden hacer cambios y ajustes fácilmente a lo largo del proceso de producción, lo que es muy útil para cumplir con plazos y presupuestos ajustados, y así mismo permite a los publicistas explorar diferentes opciones creativas antes de decidir cuál es la mejor para su anuncio.

Ejemplos de publicidad:

“Cheetos Poffets - Comercial HD”, YouTube, subido por Andrés, 15 mar 2016. https://youtu.be/H3zkiXVK3zA
“Conoce A Chonchito Chedraui”, YouTube, subido por Francisco Javier Madrigal Fuentes, 13 oct 2016. https://youtu.be/I6JD30u1vX8
“CREST Anticaries 'Disfraz de Halloween' (2018)”, YouTube, subido por Comerciales en Like México, 3 oct 2018. https://youtu.be/neyG7ruE5Mw
“Brawl Stars Animation: Piper's Sugar & Spice!”, YouTube, subido por Brawl Stars, 10 jul 2020. https://youtu.be/0cOsLTM5l9c

Ciencia

La animación desempeña un papel vital en el ámbito científico al facilitar la explicación y comprensión de fenómenos físicos, químicos o biológicos. Su objetivo principal es proporcionar una visualización clara que permita estudiar e interpretar las características fundamentales de dichos procesos.

Desde una perspectiva educativa, la animación ha adquirido un rol crucial en la ciencia, al ofrecer una herramienta invaluable para presentar procedimientos médicos y biológicos difíciles de observar directamente. Esto no solo facilita la enseñanza del conocimiento, sino que también hace que la comprensión de estos conceptos sea más accesible para los estudiantes.

En el contexto de las animaciones científicas, se enfatiza la transmisión de información precisa y efectiva sobre un fenómeno en particular. Muchas representaciones basadas en datos reales permiten replicar procesos naturales con una alta grado de precisión, no obstante, es igualmente posible emplear técnicas más artísticas siempre que se pueda transmitir la información de manera clara y eficiente.

Medicina

La animación 3D es ampliamente utilizada en el campo de la medicina para visualizar y exponer procesos biológicos complejos y diversas enfermedades. También desempeña un papel fundamental en la comunicación de procedimientos clínicos, proporcionando una representación detallada que facilita la comprensión del paciente y del personal médico, principalmente en situaciones donde las grabaciones reales no son posibles.

Ejemplos de procesos biológicos:

“Hypertension - High Blood Pressure, Animation”, YouTube, subido por Alila Medical Media, 13 feb 2018. https://youtu.be/JtBtk00EiVM
“Journey of Sound to the Brain”, YouTube, subido por National Institutes of Health (NIH), 21 nov 2018. https://youtu.be/eQEaiZ2j9oc

Ejemplos de procedimientos médicos:

“Device Animation And Surgical Procedure Animation Demo | Ghost Medical”, YouTube, subido por Medical Animation & VR Surgery - Ghost Medical, 28 ago 2019. https://youtu.be/f0Kvu7duQKE
“Medical Animation | Rhinoplasty”, YouTube, subido por Halo Media Works, 13 ago 2015. https://youtu.be/8vpUUyYn058

Análisis forense

La animación también se utiliza en el análisis forense, especialmente para recrear escenas de crímenes, esto proporciona una visión más clara de los sucesos que tuvieron lugar en diferentes tipos de delitos y facilita una comprensión más completa de los hechos.

Para recrear las circunstancias en las que ocurrió un delito, se aplican técnicas de simulación y animación, que incluye la localización de los objetos e individuos involucrados, así como la trayectoria de las balas y otros datos obtenidos en el lugar del crimen. La animación forense se ha convertido en una herramienta esencial para los criminalistas, ya que proporciona información relevante en situaciones donde los testigos son limitados o poco confiables.

Además, es posible analizar estos elementos desde múltiples perspectivas, lo cual permite obtener una comprensión más completa y precisa de los hechos, de esta manera la animación forense puede aportar información vital en el desarrollo de pruebas sólidas que contribuyen a resolver los delitos.

Algunos ejemplos de animación en el análisis forense:

“Forensic Animation | Forensic Computer Animation | 212-789-9077”, YouTube, subido por TMBA, Inc. - Animation Studio, 12 ene 2011. https://youtu.be/b2HvKyx48Qw
“3D Analysis of Cast Off Stains”, YouTube, subido por 3D Forensics, 28 jun 2019. https://youtu.be/d6ECuC9Uvf0
“Forensic Animation video Analysis”, YouTube, subido por Fernando Ferro, 4 oct 2010. https://youtu.be/-fGXafodUEY
“3D Animation - Analysis of Ballistic Trajectories.wmv”, YouTube, subido por PrecisionSimulations, 6 dic 2011. https://youtu.be/d4vsIicLAx8

Arquitectura

La utilización del software de diseño asistido por computadora (Computer-Aided Design, CAD) se remonta prácticamente al inicio de la graficación por computadora, ofreciendo la posibilidad de simplificar y mejorar el proceso de creación y diseño de planos arquitectónicos.

“A Walk Through the History of CAD”, YouTube, subido por Team D3, 7 dic 2016. https://youtu.be/mcwIMsh_g3o

La animación por computadora se ha convertido en una herramienta útil para los arquitectos, ya que les permite mostrar la construcción de estructuras arquitectónicas como parte del proceso de diseño y planificación. De esta forma, pueden manipular y visualizar la construcción antes de comenzar con el trabajo en el mundo real, lo que facilita la exploración de diferentes tipos de materiales y acabados, así como de diversas técnicas de construcción.

Algunos ejemplos de animación en la arquitectura:

“3D House Animation”, YouTube, subido por Will Morris, 29 ene 2013. https://youtu.be/1hLBCOlptq8
“Watch a fly-through animation of Notre-Dame rebuilt with a reconstructed spire and glass roof”, YouTube, subido por Dezeen, 17 may 2019. https://youtu.be/LM09Zgm0SYg

Además, la animación por computadora ofrece la posibilidad de realizar reconstrucciones virtuales para visualizar áreas dañadas o lugares que ya no existen en la actualidad, lo que permite preservar y estudiar el patrimonio arqueológico de forma no destructiva, brindando una visión tridimensional del pasado. A este uso de la animación se le conoce como arqueología virtual.

Algunos ejemplos se muestran a continuación:

“RECORRIENDO EL RECINTO SAGRADO DE TENOCHTITLÁN ▪️Maravillas del México Antiguo - advestudio.com”, YouTube, subido por Maravillas del México Antiguo / Santiago Ferreyra, 19 may 2020. https://youtu.be/X9i6iF-6C9U
“The Seven Wonders of the Ancient World: Reconstructed in 3D”, YouTube, subido por World History Encyclopedia, 25 nov 2019. https://youtu.be/MIjmvjDOySA

Visualización de productos y prototipos

Los sistemas CAD también se utilizan para el diseño y visualización de productos, y en este caso la animación permite mostrar el procedimiento de ensamblado de los diversos componentes que forman un producto. Esta técnica ayuda en la manufactura y construcción, permitiendo probar el procedimiento más efectivo para desarrollar y producir un producto antes de llevarlo a las líneas de producción.

Ejemplos de productos y prototipos:

“3D Prototyping - From an idea or sketch to a 3D animated model”, YouTube, subido por Pixelon3D, 6 jul 2014. https://youtu.be/1DqEfgLHgSk
“BMW i3 Electric Car Animation”, YouTube, subido por Evans Electric, 29 may 2016. https://youtu.be/cSEY3fNJNU4
“3D modeling a computer mouse | Shapr3D tutorial”, YouTube, subido por Shapr3D, 28 jun 2022. https://youtu.be/OjVjifH-Pkg
“Reimagine product design and development”, YouTube, subido por Unity, 11 jun 2021. https://youtu.be/j_bQf0InYHM

Otros lugares donde se puede encontrar la animación por computadora

La animación por computadora no solo es una herramienta utilizada en la industria del entretenimiento o en la ciencia, sino que también desempeña un papel relevante en diversos campos como el arte, los medios experimentales y las plataformas de interacción social.

Arte

En el arte, la animación va más allá del cine (también conocido como el séptimo arte), ya que se han explorando nuevas formas de utilizar la animación por computadora para enriquecer, para mejorar y potenciar diferentes tipos de expresiones artísticas.

Una técnica que se ha utilizado en los últimos años es el projection mapping o video mapping, la cual se encarga de proyectar imágenes generadas por computadora dentro de espacios físicos reales, como galerías de arte, museos o construcciones urbanas; con la finalidad de hacer la experiencia más lúdica, interesante y entretenida para el público.

Algunos ejemplos:

“Urban Safari”, YouTube, subido por Skullmapping, 21 feb 2018. https://youtu.be/XygaTgV30Pw
“Van Gogh: The Immersive Experience | Fever”, YouTube, subido por Fever, 24 feb 2021. https://youtu.be/dZkQSjZYsgc
“ING All-Star 2020 Opening Show | Projection Mapping”, YouTube, subido por Illusionist Digital Arts Studio, 18 nov 2020. https://youtu.be/qzR0HEjCrrI

Se han realizado diversos experimentos para usar la animación por computadora y complementar o mejorar las experiencias musicales, desde la creación de artistas virtuales y vídeos musicales animados, así como la integración de tecnologías de realidad virtual y aumentada. Estos desarrollos no solo enriquecen la experiencia musical, sino que también abren nuevas oportunidades para la creatividad y la innovación en la industria de la música. Con el avance constante de la tecnología, se espera que aparezcan más formas innovadoras de combinar música y animación, llevando la experiencia auditiva y visual a nuevos niveles.

“Live Music Visuals demo reel v3.0”, YouTube, subido por Matthew Bain, 19 may 2019. https://youtu.be/-D35nX3-5b8
“Post Malone - Pokémon 25 Virtual Concert”, YouTube, subido por Post Malone, 25 mar 2021. https://youtu.be/G-kGzeZbEV4
“【MIKU EXPO REWIND 2022】Ten Thousand Stars ft. Hatsune Miku”, YouTube, subido por Woochop, 2 jul 2022. https://youtu.be/K9F4UsyqTs4
“The rise of the virtual singer: the making of Fox’s 'Alter Ego' | Spotlight | Unreal Engine”, YouTube, subido por Unreal Engine, 14 dic 2021. https://youtu.be/rGL61F_cXWE

Realidad aumentada y virtual

Dado el progreso tecnológico, la realidad aumentada y la realidad virtual se han convertido en herramientas cada vez más populares y accesibles para una amplia variedad de personas, desde los usuarios de dispositivos móviles hasta los desarrolladores de juegos y aplicaciones.

La realidad aumentada superpone información virtual en el mundo real, mejorando la experiencia del usuario en sectores como la educación, el turismo, comercio electrónico, entre otros.

Ejemplos de realidad aumentada:

“Augmented Reality Zoo”, YouTube, subido por Go to Magic, 21 jun 2015. https://youtu.be/Xmpe1uYTDgI
“Augmented Reality Samples”, YouTube, subido por Illusionar LLC, 25 abr 2015. https://youtu.be/GBGahn0cACI

Por otro lado, la realidad virtual crea entornos virtuales completamente inmersivos que pueden ser experimentados a través de dispositivos como visores de realidad virtual o controladores de movimiento. Esto puede generar experiencias emocionantes y realistas en áreas como el entretenimiento, el entrenamiento o terapias de rehabilitación.

Algunos ejemplos de realidad virtual:


“Facebook Horizon - A Metaverse For Rift and Quest”, YouTube, subido por UploadVR, 25 sept 2019. https://youtu.be/lmrozxDGtVU
“Inspark: el nuevo parque de realidad virtual en CDMX (Plaza Carso)”, YouTube, subido por DÓNDE IR, 26 jul 2018. https://youtu.be/oGjcsNEZLWA

En ambos tipos de realidades (virtual y aumentada) la creación de personajes y escenarios generados por computadora es esencial para crear experiencias convincentes y realistas. Los personajes virtuales pueden interactuar con el usuario en tiempo real y proporcionar información útil, mientras que los escenarios pueden ser diseñados para ser detallados y realistas, permitiendo al usuario sentir que están realmente dentro del mundo virtual. La capacidad de crear mundos virtuales también permite a los desarrolladores de software experimentar con diseños y escenarios que serían imposibles o demasiado peligrosos de probar en la vida real.

Motion graphics

Motion graphics es una técnica de animación que se utiliza para presentar información de manera visualmente atractiva y comprensible, donde por medio del movimiento de texto y gráficos, se busca comunicar de manera efectiva un mensaje o idea. Esta técnica es utilizada en diversos campos, como el diseño gráfico, la publicidad, el cine y la televisión, y ha ganado gran popularidad en los últimos años debido a su capacidad para capturar la atención del espectador y comunicar información compleja de manera clara y concisa.

“Motion Graphics Infographic - Ahrefs 2D”, YouTube, subido por Logic Motion Graphics, 3 nov 2016. https://youtu.be/t5wbuS9Wek4
“Blender Motion Graphics”, YouTube, subido por Blender Cloud, 4 abr 2017. https://youtu.be/6jP1MLWU358

Avatares

Los avances en la animación por computadora permite crear avatares cada vez más realistas y personalizados, lo que contribuye a mejorar la experiencia del usuario en las interacciones virtuales. Los avatares se utilizan en diversas aplicaciones, desde juegos en línea hasta reuniones virtuales de trabajo, permitiendo a los usuarios interactuar en un entorno virtual de manera natural y efectiva.

En los videojuegos, por ejemplo, los avatares se utilizan para crear personajes personalizados que los jugadores pueden controlar para explorar un mundo virtual. Los avatares también se utilizan en redes sociales y aplicaciones de mensajería, permitiendo a los usuarios comunicarse y compartir información en un entorno virtual personalizado.

En el ámbito educativo el uso de avatares ha ganando popularidad, ya que se utilizan para representar a los estudiantes en entornos virtuales de aprendizaje, permitiendo a los educadores crear experiencias de aprendizaje más interactivas y personalizadas; permitiendo que los estudiantes puedan participar en discusiones en línea, realizar tareas y experimentos virtuales, así como participar en actividades de aprendizaje colaborativo.

“VRChat - Create, Share, Play”, YouTube, subido por VRChat, 13 dic 2018. https://youtu.be/PWLPw4RE9Ig
“LoomieLive - Express your avatar self in Zoom & Video - https://www.loomielive.com/”, YouTube, subido por Loom.ai, 15 sept 2020. https://youtu.be/UnzU3q7NzYI
“[DEBUT STREAM] SHAAAAAARK”, YouTube, subido por Gawr Gura Ch. hololive-EN, 2021. https://youtu.be/dBK0gKW61NU
“東大生も無理!?世界の言語当てクイズ!”, YouTube, subido por A.I.Channel, 18 sept 2020. https://youtu.be/bTRmGYKwUGs

Existen distintos tipos de animación por computadora y su uso dependerá principalmente de los siguientes factores:

  • El costo de producción: este factor se refiere al presupuesto asignado al proyecto, al tiempo disponible para realizarlo y al costo necesario para obtener el resultado deseado.
  • La calidad de la imagen final: en este factor se considera si se busca una imagen que replique la realidad (fotorrealismo) o si se desea un estilo artístico estilizado.
  • El tipo y cantidad de interacción requerida: si el medio final será estático, como una película o serie, no se requerirá interacción. Sin embargo, si el espectador participa activamente mediante la interacción con el contenido, como en un videojuego, es necesario incluir los controles para permitir las interacciones requeridas.

En conclusión, la animación por computadora se utiliza en diversos contextos como películas, videojuegos, publicidad y presentaciones virtuales. Su uso está influenciado por el presupuesto, la calidad de la imagen y el tipo de interacción requerida. La capacidad de la animación por computadora para mejorar la experiencia del usuario hace que su uso sea cada vez más común y diverso en la industria del entretenimiento y la ciencia.

Mecanismos visuales utilizados en la animación

¿Cómo se percibe una imagen?

El sistema visual de muchos seres vivos ha evolucionado para percibir e interpretar el movimiento con el fin de sobrevivir en entornos peligrosos y en constante cambio.

La animación se basa en una ilusión óptica que se produce cuando se presenta una serie de imágenes con pequeñas variaciones, a una velocidad lo suficientemente alta para que el espectador interprete las diversas imágenes como una única imagen en movimiento. Este efecto se logra gracias al complejo mecanismo ojo-cerebro que permite ver e interpretar el mundo.

Los ojos humanos tienen diversas partes con funciones muy específicas que permiten observar y percibir imágenes. En la se muestran las diferentes partes que componen el ojo humano. Y a continuación, se describe brevemente cómo se percibe una imagen.

Lo primero que se necesita para percibir una imagen es una fuente de iluminación, ya que sin ella no sería posible ver nada. En un entorno, la luz procedente de una fuente de iluminación llega a diversos objetos y al interactuar con el material que los compone, una parte de dicha luz se refleja hasta llegar al ojo.

Para ingresar en el ojo la luz pasa a través de la córnea, que es una membrana transparente situada en el exterior del ojo y que sirve como protección contra elementos dañinos.

Una vez que la luz ha pasado a través de la córnea, llega a la pupila, que es el centro del iris y la entrada por donde accede la luz al interior del ojo.

Imagen del ojo diseñada por brgfx (www.freepik.com).

El iris es un músculo que regula la cantidad de luz que entra en el ojo, relajándose o contrayéndose en función de la cantidad de luz presente en el ambiente. Esto provoca que la pupila se dilate en condiciones de poca luz para permitir que entre más luz en el ojo, lo que permite ver en ambientes con poca iluminación. O que se contraiga en ambientes muy iluminados, con la finalidad de prevenir daños en las estructuras internas del ojo.

La luz que pasa por la pupila llega al cristalino, un pequeño lente dentro del ojo que es flexible y puede cambiar su forma para que la luz llegue a la retina o fondo de ojo, enfocando o desenfocando objetos a diferentes distancias.

Finalmente, la luz llega al fondo del ojo donde se encuentra la retina, una estructura que contiene dos tipos de células fotosensibles: los conos y los bastones; los cuales se encargan de enviar impulsos eléctricos a través del nervio óptico hacía el cerebro. Los conos y los bastones toman su nombre de su forma y tienen diferentes funciones.

Imagen de conos y bastones ((a) esquema, (b) imagen real).
Fuente: MargaritaFlores10. Conos y bastones. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Conos-y-bastones-ayb.jpg

Los bastones son responsables de la percepción visual fuera de la zona de atención, también conocida como la visión periférica. Así mismo son las encargadas de la visión nocturna, ya que son sensibles a los cambios de iluminación.

Los conos por su parte se encargan de la agudeza visual, permitiendo percibir detalles finos, así como la percepción de los colores.

Dentro de la retina existe una pequeña área llamada fovea, que contiene una gran cantidad de conos y es la zona donde las imágenes se ven con mayor nitidez y definición.

En el ojo humano existen tres tipos de conos especializados en percibir diferentes longitudes de onda de la luz:

  • Conos rojos también llamados conos L, que constituyen alrededor del 64% de los conos totales.
  • conos verdes también llamados conos M, que representan alrededor del 32% de los conos totales.
  • y conos azules también llamados conos S, que constituyen alrededor del 2% al 7% de los conos totales.
Longitudes de onda de los colores percibidos por los diferentes tipos de conos
Fuente: Vanessaezekowitz. Simplified human cone response curves. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Cones_SMJ2_E.svg

Entonces, una vez que la luz interactúa con los objetos y se refleja hasta entrar en el ojo, se estimulan los conos y los bastones en la retina (y la fovea) creando señales eléctricas que pasan por el nervio óptico hasta llegar al cerebro, donde finalmente se interpreta la información y se crea una imagen.

Para convertir la luz en una señal eléctrica, los conos y los bastones realizan un proceso químico que toma aproximadamente 25 milisegundos en ocurrir. Además, cuando los fotorreceptores son estimulados, requieren de un breve periodo para relajarse y regresar a su estado original para continuar procesando la información lumínica recibida.


Persistencia de la visión

La persistencia de la visión es un fenómeno que ocurre en el sistema visual humano y que permite que una imagen se mantenga durante un breve período de tiempo en el sistema de visión, incluso después de que el estímulo visual haya desaparecido. Este efecto se produce gracias a la capacidad del cerebro para retener la información visual que ha sido percibida y para integrarla con la nueva información visual que se está recibiendo en tiempo real.

Este efecto se debe al hecho de que las células fotosensibles del ojo necesitan un cierto tiempo para recuperarse después de haber sido estimuladas por la luz. Durante este breve período de recuperación, que dura aproximadamente una quinceava parte de segundo, la imagen anterior que se ha percibido se mantiene en la memoria visual a corto plazo.

Si se muestra una secuencia de imágenes a una velocidad similar o mayor a la del tiempo de recuperación de las células fotosensibles, el cerebro es capaz de integrar estas imágenes en una sola imagen en movimiento o en una secuencia de imágenes que parecen estar en movimiento.

La persistencia de la visión es un fenómeno que ha sido ampliamente estudiado en el campo de la psicología visual y la neurociencia, y es un efecto fundamental para entender cómo funciona el sistema de visión humano y cómo se percibe el mundo.

Es importante mencionar que la persistencia de la visión es clave en el funcionamiento de muchas tecnologías y formas de entretenimiento, como el cine, la televisión, los videojuegos y la animación; permitiendo crear la ilusión de movimiento y haciendo que una secuencia de imágenes parezca cobrar vida.

Parpadeo (flicker)

El parpadeo o flicker ocurre cuando las imágenes no se muestran a una velocidad adecuada y no logran crear la ilusión de movimiento, lo que provoca una secuencia intermitente de imágenes. Esto puede ser molesto y cansado para algunos espectadores debido a los continuos cambios visuales, sin embargo, es utilizado intencionalmente en técnicas de animación y producción de efectos visuales. El parpadeo ocurre cuando la velocidad de presentación de las imágenes es demasiado lenta en comparación con el tiempo que las células fotosensibles del ojo necesitan para recuperarse, lo que crea una brecha temporal entre la información visual procesada y la siguiente, interrumpiendo así el flujo de información visual.

Cuadros por segundo (Frame rate)

Los cuadros por segundo también conocidos como fotogramas por segundo (fps), es un término utilizado en la animación por computadora y otros medios audiovisuales para medir la cantidad de imágenes que se muestran durante un segundo (). Esta métrica es importante ya que determina la fluidez y la calidad del movimiento en la animación.

Para crear la ilusión de movimiento, es necesario presentar una secuencia de imágenes que cambian ligeramente en cada cuadro o fotograma. Cuanto mayor sea la cantidad de cuadros por segundo, más suave y natural será el movimiento percibido por el espectador. Por otro lado, si la velocidad de los cuadros es demasiado baja, el movimiento se percibirá como entrecortado y poco natural.

Es importante tener en cuenta que la cantidad de cuadros por segundo también puede afectar el tiempo y el costo de producción de una animación, ya que cuantos más cuadros se utilicen, mayor será el esfuerzo necesario para crear y renderizar cada imagen. Por lo tanto, los animadores deben encontrar un equilibrio entre la calidad de la animación, el tiempo y el costo de producción.


Representación de diferente cantidad de cuadros utilizados durante un segundo de animación.

Los seres humanos pueden percibir una sucesión de imágenes como movimiento a partir de los 10 cuadros por segundo, aunque el efecto mejora al presentar más fotogramas. Por ejemplo, en la animación tradicional se utilizan 24 fotogramas por segundo y, por lo general, se repite una misma imagen durante dos cuadros consecutivos, lo que se conoce como dibujar en dos.

Durante la época de la televisión analógica, la mayoría de los países en Norte y Centro América, así como Japón, utilizaban el sistema de televisión NTSC (National Television System Committee), que tenía una tasa de cuadros de 29.97fps. Por otro lado, en Europa y África se utilizaba el sistema PAL (Phase Alternating Line), que tenía una tasa de cuadros de 25fps.

Con la llegada de la televisión digital, se han ampliado las posibilidades de tasa de cuadros, ya que ahora se pueden transmitir entre 23.976fps hasta 60fps. Las tasas de cuadros que se utilizan en la televisión digital dependen de la televisora y del tipo de contenido que se está transmitiendo. Una mayor tasa de cuadros permite una imagen más fluida y suave, especialmente en escenas de acción o movimiento rápido. En los videojuegos, una tasa de cuadros más alta también puede mejorar la jugabilidad al hacer que los movimientos del jugador se sientan más responsivos y precisos. Por otro lado, una tasa de cuadros más baja puede ser suficiente para la transmisión de ciertos tipos de contenido, como programas de televisión con un ritmo más lento o películas con escenas estáticas.

La película El hobbit: un viaje inesperado fue pionera al ser filmada y proyectada en 48fps, el doble de la tasa de cuadros de las películas tradicionales. Este aumento en la cantidad de cuadros por segundo permitió mostrar tomas más suaves y definidas, sin embargo, algunos espectadores expresaron que esta técnica hace que la película se sienta diferente a lo que están acostumbrados con los 24fps, lo que afecta la experiencia del cine tradicional.

“The Hobbit: An Unexpected Journey - Official Trailer 2 [HD]”, YouTube, subido por Warner Bros. Pictures, 19 sept 2012. https://www.youtube.com/embed/SDnYMbYB-nU

En lo que respecta a los fotogramas por segundo, se ha argumentado que no es posible ver o distinguir más de 30 cuadros en un segundo, algunos dicen que el límite es 60fps; sin embargo, la capacidad de percibir una gran cantidad de cuadros por segundo depende de factores fisiológicos como la edad y la estructura ocular del espectador, ya que como se mencionó anteriormente las células fotosensibles necesitan de un breve periodo de tiempo para que perciban nueva información y esto varía de persona en persona y se vuelve más lento con la edad.

Es importante tener en cuenta que incluso si no es posible distinguir más de 30 fotogramas por segundo, tener una mayor cantidad de fotogramas puede ayudar a reducir el efecto de parpadeo (o flicker) y hacer que la animación se sienta más fluida y realista para la mayoría de los espectadores.

Desenfoque de movimiento (motion blur)

El desenfoque de movimiento o motion blur es un efecto visual que ocurre cuando se observan objetos que se mueven a una velocidad mayor a la que el sistema visual puede procesar. En otras palabras, el cerebro no puede construir una imagen nítida de lo que se observa debido a la velocidad del movimiento, lo que da lugar a una imagen borrosa. Este efecto es algo muy común en la vida cotidiana, por ejemplo, cuando se observa un coche que pasa a gran velocidad, o cuando se mueve la cabeza rápidamente mientras se mira un objeto.

En la animación por computadora, el desenfoque de movimiento es una técnica muy importante para conseguir un resultado más realista y natural en las escenas que involucran movimiento. En las películas que utilizan animación por computadora, replicar el efecto de desenfoque es esencial para que la animación parezca más natural y se acerque a la realidad.

“Master Motion Blur in Blender!”, YouTube, subido por blenderisms, 4 may 2023. https://youtu.be/kthTGkpvGJw

El desenfoque de movimiento también se puede producir debido al movimiento propio del ojo. A pesar de que los ojos parecen rígidos, en realidad son un objeto gelatinoso que presenta cierta inercia en su estructura al moverse. Esto puede causar un ligero desenfoque de movimiento en la imagen que se percibe, especialmente si se mueve la cabeza o los ojos rápidamente.

“SLOW MOTION / HUMAN EYES #2”, YouTube, subido por chaos observation, 9 dic 2017. https://youtu.be/-CzMZgDH484
Capítulo II
Historia de la animación

La animación es una forma de arte que ha existido durante siglos y que ha evolucionado significativamente a lo largo del tiempo. Desde los dibujos animados tradicionales hasta la animación por computadora, esta forma de arte ha sido una herramienta poderosa para contar historias y transmitir mensajes a través de imágenes en movimiento.

La animación por computadora, ha surgido gracias a una serie de avances tecnológicos que se han producido en los últimos años. Sin embargo, para entender completamente la historia de la animación por computadora, es importante mirar en conjunto los diversos desarrollos tecnológicos y considerar el contexto en el que se han producido. La fotografía, el cine y la computación han sido elementos clave en el surgimiento de la animación por computadora, y cada uno de ellos ha tenido un papel significativo en su evolución.

En este capítulo, se exploran algunos de los eventos más significativos de la historia de la animación por computadora, desde sus orígenes hasta su posición actual en la industria del entretenimiento. También se presenta cómo los avances tecnológicos y las innovaciones creativas han impulsado el desarrollo de la animación por computadora y cómo esta forma de arte ha transformado la manera en que se crean producciones audiovisuales.

Taumátropo - John Ayrton Paris (1825)

El taumátropo es un dispositivo mecánico que consta de un disco plano unido por una cuerda en sus bordes, con imágenes diferentes en cada lado, de tal manera que al girarlo rápidamente se observa una superposición de las imágenes, dando la impresión de una sola imagen compuesta.

Este dispositivo demuestra cómo la velocidad de presentación de las imágenes puede engañar al cerebro y crear una ilusión visual, lo que se conoce como la persistencia de visión. Este fenómeno es fundamental para el desarrollo de la animación y otros medios de entretenimiento visual. A pesar de que el taumátropo es un juguete sencillo, su valor radica en su capacidad para mostrar de forma simplificada cómo la mezcla de imágenes puede crear una ilusión visual.

“Bird and Cage Thaumatrope”, YouTube, subido por MrHenrysVids, 2 sept 2012. https://youtu.be/46Mlr4hvW-E

La primera fotografía - Nicéphore Niépce (1826)

En el siglo XIX, Joseph Nicéphore Niépce (), un inventor francés, estaba obsesionado con la idea de capturar imágenes de la realidad y almacenarlas de forma permanente. Para ello, trabajó en la creación de un material fotosensible que permitiera fijar una imagen de manera más eficiente y permanente que los métodos utilizados hasta ese momento.

Después de varios años de experimentación, en 1826 Niépce logró capturar lo que se considera la primera imagen fotográfica de la historia. Para ello, utilizó una cámara oscura y un material fotosensible conocido como betún de Judea, que se aplicaba sobre una placa de metal pulido. La imagen que capturó Niépce fue una vista desde el balcón de su casa en Le Gras, Francia (). La exposición de la placa de metal a la luz de la cámara oscura duró alrededor de ocho horas, tiempo durante el cual la luz fue proyectando la imagen en la placa y el betún fue fijando los detalles.

Aunque la imagen resultante era poco clara y tenía una resolución baja, la fotografía de Niépce fue un hito en la historia de la fotografía, ya que demostró que era posible fijar de manera permanente una imagen capturada por una cámara oscura. Además, sentó las bases para el desarrollo de la fotografía tal como se conoce hoy en día.

La fotografía de Niépce es considerada una obra maestra de la técnica y la persistencia, ya que para conseguirla tuvo que superar múltiples dificultades técnicas y trabajar durante años en el desarrollo de su método. Su legado ha sido fundamental para el avance de la fotografía y ha permitido a la humanidad capturar momentos únicos y preciosos para la posteridad.

Retrato de Joseph Nicéphore Niépce.
Fuente: Joseph Nicéphore Niépce. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Joseph_Nicéphore_Niépce.jpg
Una de las primeras fotografías capturadas por Joseph Nicéphore.
Fuente: Joseph Nicéphore Niépce. Point de vue du Gras. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:View_from_the_Window_at_Le_Gras,_Joseph_Nicéphore_Niépce.jpg

Folioscopio o flip book (1832)

El folioscopio o flip book es un dispositivo que consiste en un conjunto de páginas dispuestas en forma de libro, en las cuales se encuentran una serie de imágenes que varían ligeramente de una página a otra. Al pasar rápidamente las páginas con el pulgar, las imágenes parecen moverse y crear una animación. Es otro mecanismo en el que se puede explorar la persistencia de visión de forma sencilla.

El folioscopio es una forma popular de entretenimiento, ya que permite a las personas crear sus propias animaciones de forma sencilla y sin necesidad de equipos especializados. La importancia del folioscopio radica en que permitió la creación y difusión de la animación de forma accesible y económica, sentando las bases para la posterior evolución de la animación como medio artístico y de entretenimiento.

“Japanese Flip Books”, YouTube, subido por Luna, 15 nov 2014. https://youtu.be/1e1GKG-Gmjk

En la actualidad, el folioscopio sigue siendo utilizado por animadores y artistas para crear animaciones de estilo tradicional, y su formato ha sido adaptado a las nuevas tecnologías, como la animación digital. Además, sigue siendo una forma de entretenimiento popular entre niños y adultos por su simplicidad y efectividad en crear animaciones caseras. Algunos ejemplos modernos se puede observar en los siguientes vídeos:

“YOUR Flipbooks - 2020 Compilation and Contest Winners”, YouTube, subido por Andymation, 15 ene 2021. https://youtu.be/H6dDCpt2COE
“My BIGGEST Flipbook EVER - The RETURN of Grumpy Cloud”, YouTube, subido por Andymation, 29 may 2019. https://youtu.be/jIR9RPlWWsg

Fenaquistoscopio - Joseph-Antoine Ferdinand Plateau (1833)

El fenaquistoscopio es un juguete óptico que consiste en un disco plano que tiene varias imágenes ligeramente diferentes entre sí distribuidas en forma radial. Cuando el disco se gira rápidamente y se observa una posición fija dentro del disco, se puede ver cómo las imágenes se combinan para formar una animación. En otras palabras, cada imagen se superpone a la anterior de forma suave y continua, creando una ilusión de movimiento o cambio. La razón por la que el fenaquistoscopio es tan efectivo es porque la rotación del disco permite que las imágenes cambien a una velocidad y estable, de esta manera, la animación se muestra de forma más fluida y sin saltos o interrupciones en el movimiento.

Este juguete óptico fue un gran avance en su época, ya que permitió a las personas experimentar con la animación de una forma mucho más sencilla que antes. Además ayudó a sentar las bases para el desarrollo de tecnologías más avanzadas en el futuro.

“1833 Friedrich Voigtländer - Magic Disk / Disques Magiques (pirating Stampfer)”, YouTube, subido por magical media museum, 28 mar 2018. https://youtu.be/oEbe9Gy9LB8

Zoótropo (1866)

El zoótropo o máquina estroboscópica es un dispositivo que consta de un cilindro con cortes verticales a través de los cuales se puede ver hacia su interior. Dentro del cilindro, se coloca una tira con una secuencia de imágenes, y al girar el cilindro y mirar por uno de los cortes, se percibe el cambio de las imágenes. Este juguete al igual que el fenaquistoscopio utiliza la rotación para mostrar de forma estable las diferentes imágenes que componen una animación.

“Zoetrope Replica Optical Toy Ancient Magic Toys”, YouTube, subido por LUCIDArt, 23 nov 2012. https://youtu.be/-hE_fA9M580

El efecto que se logra con las imágenes al interior del cilindro del zoótropo también se puede obtener con objetos tridimensionales.

“3D Zoetrope: Fish eating Fish”, YouTube, subido por Kevin Holmes, 26 oct 2017. https://youtu.be/CaI3ZFs_oEc

Praxinoscopio - Émile Reynaud (1877)

El praxinoscopio consiste en un tambor con espejos colocados alrededor de su borde interior, y una serie de imágenes dibujadas en una tira de papel o cartón que se coloca en el centro del tambor. Cuando el tambor gira, las imágenes se reflejan en los espejos y parecen moverse, creando la ilusión de una animación. Este dispositivo representó un avance sobre los dispositivos previos, ya que al usar espejos en su interior las imágenes se ven con mayor claridad y nitidez, lo que permite apreciar la animación desde diferentes ángulos sin perder calidad.

“The Praxinoscope Pre-Cinema Optical Animation Toy”, YouTube, subido por LUCIDArt, 4 dic 2018. https://youtu.be/eJqp7Dlq66k

Todos estos dispositivos se utilizaron como entretenimiento o simples curiosidades, pero en el fondo incorporan y emplean los conceptos fundamentales en los que se basa la animación. Gracias a estos artefactos, posteriormente fue posible idear y construir mecanismos más sofisticados, que dieron lugar al cine y, en particular, a la animación.

Fonógrafo - Thomas Alva Edison (1877)

El fonógrafo fue uno de los primeros dispositivos mecánicos capaces de grabar y reproducir sonido. Su funcionamiento se basaba en el uso de cilindros de cera, que se grababan mediante la vibración de un diafragma que se conectaba a un punzón o aguja. El punzón era el encargado de dejar una huella en la cera, que posteriormente podía ser reproducida mediante un proceso inverso.

“El Fonógrafo”, YouTube, subido por Teleco UPV, 14 nov 2014. https://youtu.be/uZDwA6_tPps

El fonógrafo fue un gran avance en su época, ya que permitió la grabación y reproducción de sonidos de forma mecánica, lo que representó una revolución en el mundo de la música y la comunicación. Además, el fonógrafo sentó las bases para la incorporación del sonido al cine, ya que los mecanismos utilizados para grabar y reproducir el sonido en los cilindros de cera, posteriormente se adaptaron para ser utilizados en las películas sonoras.

Eadweard Muybridge

Eadweard Muybridge fue un fotógrafo e investigador del siglo XIX que realizó importantes experimentos fotográficos que serían fundamentales para el desarrollo del cine. Una de sus principales contribuciones fue el desarrollo de técnicas para capturar imágenes consecutivas de alta velocidad, lo que le permitió fotografiar el movimiento de objetos en movimiento, como caballos, personas y otros animales.

En uno de sus trabajo más conocidos, Muybridge colocó múltiples cámaras a lo largo de una pista de carreras y utilizó estas cámaras para capturar imágenes consecutivas de un caballo en movimiento. Al analizar estas imágenes en secuencia, Muybridge pudo observar que los cuatro cascos de un caballo están en el aire al mismo tiempo durante ciertas fases del galope, lo que contradecía la creencia común en la época de que los cascos delanteros y traseros nunca estaban en el aire al mismo tiempo ().

Imágenes del galope de un caballo tomadas por Eadweard Muybridge
Fuente: Eadweard Muybridge. Animal Locomotion. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Muybridge_race_horse_animated.gif

Muybridge también realizó fotografías de personas y animales en diferentes actividades, utilizando la técnica de la fotografía estroboscópica para capturar el movimiento de los sujetos en una secuencia de imágenes fijas. Estos experimentos fueron muy importantes para el desarrollo del cine, ya que demostraron que era posible crear la ilusión de movimiento a partir de una serie de fotografías, lo que fue una de las bases para el futuro cinematógrafo.

Además de las técnicas para capturar las imágenes Muybridge desarrollo un dispositivo para la presentación y proyección de dichas imágenes, el zoopraxiscopio.

Zoopraxiscopio - Eadweard Muybridge (1879)

El zoopraxiscopio es un dispositivo de proyección que utiliza un disco de cristal para almacenar las imágenes a proyectar, de manera similar al fenaquistoscopio. Las imágenes que se presentan son dibujadas o pintadas a mano en el disco, de manera distorsionada para permitir su posterior proyección.

“Muybridge's Zoopraxiscope”, YouTube, subido por SheDirX, 30 sept 2014. https://youtu.be/aG5erS2GNG0

Quinetoscopio - William Kennedy Laurie Dickson (1891)

El quinetoscopio fue un dispositivo que consistía en una caja de madera con un visor en la parte superior y un carrete de película en su interior. Al mirar a través del visor, se podían ver películas cortas que eran creadas por una serie de fotografías presentadas rápidamente.

“Edison's Kinetoscope. Museu del Cinema”, YouTube, subido por Museudelcinema, 10 nov 2009. https://youtu.be/SRIjUYh3MEs

Aunque el quinetoscopio solo podía ser usado por un espectador a la vez, fue un gran avance para su época ya que a diferencia de sus predecesores, permitió visualizar una mayor cantidad de imágenes, sentando el precedente en la manera en que se almacenarían las imágenes de las películas, ya que al utilizar una tira perforada se abrió la posibilidad de mover y presentar un conjunto de imágenes mediante engranajes para mantener una velocidad constante y adecuada para aprovechar la persistencia de la visión.

El quinetoscopio fue un paso importante hacia lo que actualmente se conoce como el cine, proporcionando una experiencia que se centraba en un solo espectador donde era posible ver una película corta por una moneda. Además, el quinetoscopio fue uno de los primeros dispositivos en incorporar el uso del fonógrafo para presentar películas con sonido, lo que también lo convierte en el precursor del cine sonoro. Esta innovación permitió agregar una dimensión adicional a la experiencia cinematográfica.

Cinematógrafo - Auguste Marie Louis Nicolas Lumière y Louis Jean Lumière (1895)

El cinematógrafo fue un invento desarrollado por los hermanos Lumière en 1895 y consistía en una cámara y un proyector de cine portátil, con el cual es posible filmar imágenes que se almacenan en una tira de película y además se pueden proyectar en una habitación oscura para ser vistas por el público.

“Cinematographe Lumière. Museu del Cinema”, YouTube, subido por Museudelcinema, 11 nov 2009. https://youtu.be/7Q_SgMvTO-o

En 1895 se presento la primera película de los hermanos Lumière, “La sortie de l'usine Lumière à Lyon” (); donde se muestra la salida de los trabajadores de la fábrica Lumière. Estos 46 segundos marcaron un punto de inflexión, dando origen a lo que en la actualidad se conoce como el séptimo arte y es considerada como la primera película documental de la historia del cine.

“LUMIÈRE Salida de los obreros de la fábrica”, YouTube, subido por lgarab, 17 jun 2008. https://youtu.be/xxLGDF_121U

The Humpty Dumpty Circus - J. Stuart Blackton and Albert E. Smith (1898)

The Humpty Dumpty Circus fue la primera película en utilizar la técnica de animación cuadro a cuadro (stop motion) para crear la ilusión de movimiento en objetos reales inanimados. Aunque desafortunadamente no se dispone de una copia de The Humpty Dumpty Circus, se sabe que la película mostraba una serie de actos circenses realizados por juguetes, que incluían malabarismos, equilibrios y trapecios.

La técnica de animación cuadro a cuadro consiste en tomar una serie de fotografías de un objeto inanimado en diferentes posiciones, y luego reproducir esas fotografías en secuencia para crear la ilusión de movimiento.

Fuente: J. Stuart Blackton. The Humpty Dumpty Circus. www.imdb.com. https://www.imdb.com/title/tt0000704/?ref_=tt_mv_close

Georges Méliès

Una vez que el cinematógrafo se popularizó y el concepto de película se hizo conocido, al igual que con cualquier nueva tecnología, surgió una etapa de experimentación en la que se puso a prueba cuán lejos se podía llevar dicha tecnología. En el cine, varias personas comenzaron a realizar experimentos en torno a las películas, tratando de aprovechar de forma efectiva todas las cualidades que ofrecía.

Georges Méliès fue un ilusionista y cineasta francés que vivió a finales del siglo XIX y principios del siglo XX. Es conocido por haber sido un pionero en la realización de efectos especiales en el cine, así como en el uso de técnicas de producción y narrativas que revolucionaron la forma en que se hacían las películas en su época.

Entre sus contribuciones más importantes al cine se encuentra el uso de la exposición múltiple, la cámara rápida, la disolución de imágenes y otras técnicas innovadoras para crear efectos especiales. Méliès también fue uno de los primeros cineastas en utilizar guiones gráficos, un método para planificar una película en el que se dibujan los escenarios y los movimientos de cámara antes de filmarlos.

A través de sus películas, Méliès logró contar historias fantásticas y mágicas, utilizando la técnica de la ilusión cinematográfica para crear mundos imaginarios y transportar al espectador a lugares nunca antes vistos. Sus innovaciones técnicas y narrativas abrieron el camino para el desarrollo del cine como una forma de arte y entretenimiento, y su legado continúa influyendo en la industria del cine hasta el día de hoy. En el se presenta una animación en un video de 360º que ofrece un tributo a las diversas películas y aportes de Georges Méliès.


“360 Google Doodles/Spotlight Stories: Back to the Moon”, YouTube, subido por Google Spotlight Stories, 2 may 2018. https://youtu.be/BEePFpC9qG8

Viaje a la Luna (Le Voyage dans la Lune) - Georges Méliès (1902)

Le Voyage dans la Lune, también conocida como El viaje a la luna, es una película muda francesa realizada en 1902 por el cineasta Georges Méliès. Se inspiró en la novela “De la tierra a la luna” de Julio Verne y en otras obras de ficción científica de la época.

La película sigue las aventuras de un grupo de astrónomos que construyen un cohete para viajar a la luna. Una vez allí, los astronautas exploran el terreno lunar, encuentran una tribu de alienígenas hostiles y finalmente regresan a la Tierra. Esta película es considerada como la primera película de ciencia ficción.


“Le Voyage dans la Lune (1902) - Georges Méliès - (HQ) - Music by David Short - Billi Brass Quintet”, YouTube, subido por Billi Brass Quintet, 9 abr 2018. https://youtu.be/ZNAHcMMOHE8

Humorous Phases of Funny Faces - J. Stuart Blackton (1906)

Humorous Phases of Funny Faces es una caricatura animada muda, en la que cada imagen de la animación fue dibujada a mano en un pizarrón y luego fotografiada con una cámara.

Esta animación no cuenta con una trama estructurada, sino que se enfoca en explorar las posibilidades creativas que ofrece la técnica de animación de dibujo cuadro a cuadro, donde el animador dibuja y borra imágenes sobre el pizarrón para crear efectos cómicos y mostrar diferentes expresiones faciales.


“Humorous phases of funny faces”, YouTube, subido por Library of Congress, 8 oct 2009. https://youtu.be/wGh6maN4l2I

The Haunted Hotel - J. Stuart Blackton (1907)

The Haunted Hotel es una película muda de terror y comedia que se estrenó en 1907. La trama sigue a un viajero que decide pasar la noche en un hotel embrujado y se enfrenta a diversas escenas espeluznantes y divertidas. Es considerada una de las primeras películas de terror y se destacó por el uso de técnicas innovadoras de efectos especiales, las cuales impresionaron a los espectadores de la época. Además, la película fue pionera en el uso de la comedia como género complementario al terror, sentando un precedente para futuras producciones.

El cortometraje tenía como objetivo representar una casa encantada y para ello se utilizaron técnicas de animación de stop motion para animar los objetos “embrujados” que se mueven por sí solos.

“The Haunted Hotel (1907) Vitagraph”, YouTube, subido por Films by the Year, 3 mar 2021. https://youtu.be/rO8vfO4iYnk

Fantasmagorie - Émile Cohl (1908)

Fantasmagories es una obra pionera en el cine de animación que utilizó la idea de Humorous Phases of Funny Faces, consistente en dibujar y fotografiar imágenes para crear una animación.

La trama de la película es sencilla pero muy imaginativa, y sigue a un personaje que se transforma y se mueve a través de diversos escenarios surrealistas y fantásticos, enfrentando obstáculos y aventuras en su camino. En esta pequeña animación, se pueden apreciar movimientos más sofisticados de animación, con personajes que realizan una variedad de acciones e interacciones. Se considera que Fantasmagorie es la primera caricatura animada en la historia del cine.


“Fantasmagorie Émile Cohl, 1908”, YouTube, subido por phantascience, 2 nov 2009. https://youtu.be/o1d28X0lkJ4

Winsor McCay

Winsor McCay fue un caricaturista estadounidense, reconocido por ser uno de los primeros en introducir historias narrativas en las tiras cómicas. Además, se destacó como un pionero en el ámbito de la animación, siendo uno de los primeros en crear películas animadas populares.

McCay experimentó con técnicas avanzadas para su época, como el uso del color en las animaciones, así como la interacción de personajes animados con personas reales en las películas. La importancia de Winsor McCay en la historia del cine de animación radica en que abrió un camino para el desarrollo del género, al demostrar las posibilidades narrativas y estéticas de la animación y al inspirar a otros animadores a experimentar con nuevas técnicas y estilos.

Fotografía de Winsor McCay
Fuente: Winsor McCay. Portrait of Winsor McCay in 1906. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Winsor_McCay_1906.jpg

Little Nemo - Winsor McCay (1911)

La animación Little Nemo de Winsor McCay se basa en el personaje homónimo de sus tiras cómicas, y fue su primer intento de crear una película animada con un argumento y personajes expresivos. En la película, Nemo tiene una serie de aventuras oníricas y surrealistas en un mundo imaginario, que es una representación de su propia mente. Este pequeño corto dura alrededor de 11 minutos y fue presentado con una orquesta en vivo que ambientaba la animación.

En esta animación es posible observar una evolución en comparación con los experimentos anteriores, ya que poco a poco las animaciones se vuelven más expresivas y detalladas.


“Little Nemo (1911) Winsor McCay”, YouTube, subido por silentfilmhouse, 15 oct 2012. https://youtu.be/K8qow7jTyoM

Gertie el Dinosaurio - Winsor McCay (1914)

La animación de Gertie el Dinosaurio es una obra destacada por presentar una interesante interacción entre personas del mundo real y un dinosaurio dibujado (en hojas de tamaño de 6.5 por 8.5 pulgadas), pero animado de manera magistral. Gertie logra transmitir una personalidad muy definida, gracias a las simples pero muy atractivas animaciones que la caracterizan; logrando una gran expresividad y demostrando el potencial que puede alcanzar una animación bien hecha.

McCay introdujo técnicas de animación innovadoras, como el uso de fotogramas clave o keyframes, así como la reutilización de dibujos, siendo técnicas que influenciaron la forma en la que se crean las animaciones.


“Gertie The Dinosaur (1914)”, YouTube, subido por A/V Geeks 16mm Films, 9 jun 2017. https://youtu.be/-PsmLDFaHEI

Rotoscopio - Max Fleischer (1915)

A medida que la animación se consolidaba como una forma de expresión, se desarrollaron tecnologías que permitían mejorar y optimizar la creación de animaciones. Una de estas tecnologías es el rotoscopio, un dispositivo que proyecta imágenes en una pantalla para que los animadores puedan utilizarlas como referencia para los cuadros de una animación. El rotoscopio fue inventado por Max Fleischer en 1915 y se utilizó por primera vez en los cortos The Out of the Inkwell de Fleischer.

Esquema del rotoscopio
Fuente: Max Fleischer. Patent drawing for Fleischer's original rotoscope. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:US_patent_1242674_figure_3.png

Al utilizar el rotoscopio, los animadores pueden reproducir movimientos del mundo real en personajes animados, lo que permite crear animaciones con acciones más detalladas y realistas. De hecho, se puede considerar al rotoscopio como el precursor de la tecnología de captura de movimiento moderna, ya que permite ambos se basan en replicar movimientos del mundo real.

“The Amazing Rotoscope”, YouTube, subido por Fleischer Studios, 8 oct 2017. https://youtu.be/0lQEXbRcLRs

Felix el gato - Pat Sullivan y Otto Messmer (1919)

Felix el gato es un personaje de animación creado en 1919 por el caricaturista Pat Sullivan y animado por Otto Messmer. Es considerado como uno de los primeros personajes de dibujos animados con personalidad propia y con animaciones que presentaban una trama más elaborada. Siendo la caricatura muda más popular y lucrativa de mediados de 1920.

Felix el gato fue importante para la animación por varias razones. Primero, su popularidad ayudó a consolidar la animación como una forma de entretenimiento en la cultura popular. Además, Felix fue un precursor de los personajes animados con características humanas y con personalidades distintivas. Su diseño simple pero icónico lo convirtió en un símbolo reconocible para la audiencia, lo que inspiró la creación de otros personajes de animación con características similares.

“Felix The Cat - Feline Follies (1919) First Felix Film”, YouTube, subido por silentfilmhouse, 7 mar 2012. https://youtu.be/7HskWL82GeQ

The Lost World - Willis O'Brien (1925)

The Lost World es una película estadounidense de aventuras y ciencia ficción, dirigida por Harry O. Hoyt y estrenada en 1925. La película está basada en la novela homónima de Arthur Conan Doyle y cuenta la historia de un grupo de exploradores que viajan a una meseta aislada en Sudamérica donde descubren una tierra perdida en el tiempo habitada por dinosaurios y otros animales prehistóricos.

Uno de los mayores aportes de The Lost World fue su uso pionero de técnicas de animación cuadro a cuadro o stop motion para crear las animaciones de los dinosaurios y otros animales prehistóricos. El animador Willis O'Brien (quien posteriormente trabajó en la película “King Kong”), fue el encargado de crear los modelos animados de los dinosaurios y logró que estos se mezclaran con los actores reales en las escenas de la película. El uso de la técnica de stop motion fue un gran logro técnico en su época y permitió crear animaciones impresionantes.

Esta película ha sido seleccionada para su preservación en el Registro Nacional de Películas (National Film Registry) debido a su gran importancia cultural, histórica y estética. Puede ser vista a través del siguiente enlace:
https://upload.wikimedia.org/wikipedia/commons/2/2e/The_Lost_World_(1925).webm

“The Lost World”, Wikimedia, 24 Oct 2021. https://upload.wikimedia.org/wikipedia/commons/2/2e/The_Lost_World_(1925).webm

The Jazz Singer - (1927)

The Jazz Singer es una película estadounidense de 1927, dirigida por Alan Crosland, que cuenta la historia de un joven llamado Jakie Rabinowitz (interpretado por Al Jolson) que quiere convertirse en cantante de jazz, pero su padre, un rabino ortodoxo, quiere que siga la tradición familiar y se convierta en cantor en la sinagoga. La película explora los conflictos entre el deseo de Jakie de seguir su pasión y su lealtad a su familia y su herencia cultural.

Lo que hace que The Jazz Singer sea una película históricamente importante es que se considera el primer largometraje comercial con sonido sincronizado. Antes de esta producción, el sonido en las películas era incorporado de forma separada, por ejemplo, con orquestas tocando en vivo durante la proyección de la película.

“The Jazz Singer | "Ain't Heard Nothin' Yet" Scene | Warner Bros. Entertainment”, YouTube, subido por Warner Bros. Entertainment, 4 ene 2013. https://youtu.be/22NQuPrwbHA

Con The Jazz Singer se utilizó el sistema Vitaphone desarrollado por la compañía Warner Bros. (), que permitía grabar el sonido en discos para ser reproducidos de forma sincronizada con la proyección de la película. El sistema Vitaphone se convirtió en un importante avance en la tecnología del cine sonoro, al permitir la sincronización precisa de la música y el diálogo con la imagen en la pantalla. A partir de aquí, las películas sonoras se fueron convirtiendo poco a poco en la norma de la industria del cine y rápidamente fueron desplazando a las películas mudas.

Sistema de registro disco a disco Vitaphone
Fuente: History Department at the University of San Diego. Reproduction of 1926 photograph of Western Electric engineer E. B. Craft (on the left) demonstrating Vitaphone sound film system. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:VitaphoneDemo.jpg

Steamboat Willie (1928)

Steamboat Willie es un corto animado dirigido por Walt Disney y Ub Iwerks, que cuenta la historia de Mickey Mouse, quien trabaja como timonel en un barco de vapor y se enfrenta a situaciones cómicas mientras trata de realizar sus tareas.

Este cortometraje es significativo porque fue el primer corto animado en tener sonido sincronizado, lo que significa que los efectos de sonido y la música se ajustan perfectamente a la animación. En ese momento, la tecnología de sonido en el cine aún estaba en sus primeras etapas, por lo que esta innovación allanó el camino para la incorporación de sonido en las animaciones. La técnica de sincronización de sonido se logró utilizando el sistema de grabación y reproducción de sonido llamado Powers Cinephone, desarrollado por la empresa británica DeForest Phonofilm.


“Walt Disney Animation Studios' Steamboat Willie”, YouTube, subido por Walt Disney Animation Studios, 27 ago 2009. https://youtu.be/BBgghnQF6E4

A pesar de ser la tercera animación de Mickey Mouse, se considera su verdadero debut ya que fue la primera vez que se presentó al público con las características que acompañarían al ratón animado en el futuro. Además, fue el primer cortometraje distribuido por Disney que tuvo gran popularidad, lo que ayudó al éxito futuro de la compañía.

En la actualidad, los primeros segundos de este corto se han convertido en parte de la animación de introducción de algunas películas de Disney, como un pequeño guiño a las raíces de la compañía. Y desde el 1 de enero de 2024, después de más de 95 años de su debut, Steamboat Willie entró en el dominio público.


Skeleton Dance (1929)

Skeleton Dance es un cortometraje animado producido y dirigido por Walt Disney en el que cuatro esqueletos se levantan de sus tumbas para bailar y jugar en un cementerio. La música y los efectos de sonido, junto con los movimientos divertidos y rítmicos de los personajes, crean una atmósfera alegre y característica del estilo de Disney.

Uno de los aspectos más importantes de Skeleton Dance es que se destacó por ser una de las primeras animaciones que presentó la idea de que la personalidad del personaje es lo que impulsa sus acciones y movimientos. Es decir, más allá de mostrar las capacidades de la tecnología, se enfocó en crear personajes con una personalidad única que conectara con el público.

Skeleton Dance fue el primer corto animado de la serie Silly Symphonies, que fue una colección de cortometrajes musicales producidos por Disney durante los años 30.

“Silly Symphonies - The Skeleton Dance”, YouTube, subido por Walt Disney Animation Studios, 15 oct 2015. https://youtu.be/vOGhAV-84iI

Technicolor (1932)

El proceso utilizado por Technicolor, de forma simplificada, se basa en la separación de los colores de una imagen por medio de prismas para grabarlos en películas en blanco y negro, que luego pasando por filtros se proyectan de forma simultánea en el cine para obtener una imagen a todo color. Esta técnica revolucionó la producción y consumo de películas al ser la primera en producir imágenes a todo color, y su utilización transformó la industria cinematográfica.

Con el tiempo, las películas en blanco y negro fueron reemplazadas gradualmente por las nuevas películas a todo color, lo que supuso un gran avance tecnológico en el cine. La capacidad de Technicolor para crear películas en color fue crucial para este cambio, y su legado se puede apreciar en las películas actuales que usan tecnologías similares para crear imágenes más vibrantes y realistas.

“How Technicolor changed movies”, YouTube, subido por Vox, 1 dic 2017. https://youtu.be/Mqaobr6w6_I

Flowers and Trees (1932)

Con la intención de mantenerse a la vanguardia de la tecnología en la industria cinematográfica, Disney no solo aprovechó la tecnología sonora, sino que también exploró las posibilidades inherentes a las tecnologías emergentes, como fue el uso del color en producciones animadas.

En 1932, Walt Disney Productions produjo Flowers and Trees, un cortometraje animado que se convirtió en la primera película animada en color de la serie Silly Symphonies. Este cortometraje utilizó el proceso Technicolor de tres colores y relata la competencia entre árboles y flores por la atención de una hermosa dama. Es importante mencionar que, Flowers and Trees ganó el primer Premio de la Academia otorgado a un cortometraje animado en color.

“1932 Silly Symphony Flowers and Trees July 30, 1932”, YouTube, subido por It's a laugh Firth, 28 mar 2016. https://youtu.be/_NKcsg8vE_U

Cámara multiplano (1933)

El estudio de animación de Disney no sólo utilizaba las tecnologías desarrolladas por otros, sino que también desarrollaron sus propias innovaciones tecnológicas para mejorar sus animaciones y destacar frente a otros estudios de animación.

La cámara multiplano es un mecanismo creado por Disney que permite separar un cuadro de una animación en múltiples planos o capas, lo que proporciona una mayor sensación de profundidad en las tomas y simplifica la producción de composiciones complejas. La importancia de la cámara multiplano radica en que permitió a los animadores de Disney crear escenas más complejas y detalladas que eran visualmente impresionantes y únicas.

Con la cámara multiplano, los animadores podían separar diferentes elementos de una escena en diferentes capas y controlar su movimiento y velocidad individualmente para crear una sensación de profundidad y perspectiva. Además, esta técnica permitió a los animadores agregar detalles más realistas a las escenas, lo que hizo que las animaciones de Disney se destacaran por su belleza y realismo.


“Walt Disney Introduces the Multiplane Camera”, YouTube, subido por Disney Family, 4 feb 2011. https://youtu.be/kN-eCBAOw60

Actualmente los programas de dibujo digital, edición de imágenes y de video utilizan este concepto y separan los elementos visuales en diversas capas virtuales, logrando de esta manera aislar los diferentes elementos que componen una imagen y así permitir su edición de forma independiente.

King Kong - Willis O’Brien (1933)

La película King Kong cuenta la historia de un gorila gigante que vive en una isla remota y que es capturado y llevado a la ciudad de Nueva York, donde se libera y comienza a causar destrozos subiendo al Empire State llevando a ser atacado para que al final caiga del edificio y muera. Es considerada un hito en la historia del cine debido a que los efectos especiales realizados por O'Brien fueron innovadoras para la animación e influyeron en la industria durante varias décadas.

“King Kong (1933) Official 1938 Re-Release Trailer - King Kong Movie”, YouTube, subido por Rotten Tomatoes Classic Trailers, 7 oct 2013. https://youtu.be/PbrikL8IjXM

Los escenarios de la isla de Kong se crearon utilizando modelos en miniatura y proyecciones en pantalla, mientras que los efectos especiales de los animales de la isla se crearon por medio de animación stop motion. Para las escenas en las que King Kong interactuaba con actores humanos, estas se filmaron por separado y luego se combinaron en postproducción. La película fue filmada en blanco y negro y se utilizó música y efectos de sonido para aumentar el drama.

La creación de King Kong fue un gran logro técnico y artístico y ha dejado un legado en la historia del cine, ya que en gran medida, determinó diversas técnicas que se siguen utilizando hoy en día en la animación hecha por stop motion, como por ejemplo, el uso de marionetas con un esqueleto metálico con el que se logran diversas poses de los personajes, así como la combinación de imágenes del mundo real con los personajes animados.


La computadora Z1, diseñada por Konrad Zuse (1938)

La computadora Z1, diseñada por el ingeniero alemán Konrad Zuse, fue una de las primeras computadoras electromecánicas programables en el mundo. A pesar de su diseño mecánico la Z1 incluía muchos componentes que se encuentran en las computadoras modernas, como memoria, operaciones de punto flotante, dispositivos de entrada y salida, así como una unidad central de procesamiento o unidad de control. Además, la Z1 utilizaba una cinta de película perforada para proporcionar instrucciones al sistema, lo que la convierte en una de las primeras computadoras programables. En esencia, esta máquina permitía realizar cálculos complejos y estaba diseñada para ejecutar cálculos estadísticos, así como funciones de matemáticas e ingeniería.

Desafortunadamente, la computadora Z1 no se construyó completamente antes del inicio de la Segunda Guerra Mundial y fue dañada durante un ataque aéreo en 1943. A pesar de esto, se continuó trabajando en el diseño de computadoras y eventualmente Zuse creó otras máquinas, como la Z2 y la Z3, que fueron versiones mejoradas de la Z1 y utilizadas en aplicaciones militares durante la guerra.

“Z1 Computer Montage”, YouTube, subido por OniTenchi84, 4 may 2012. https://youtu.be/zE-HtMsJnBI

La computadora Colossus (1943)

Durante la Segunda Guerra Mundial, la máquina de cifrado Lorenz era utilizada por las fuerzas alemanas para comunicarse con sus fuerzas en el campo de batalla. El cifrado era tan complejo que los expertos en criptografía de los aliados no podían descifrar los mensajes. Para enfrentar este desafío, un equipo de ingenieros liderado por el matemático y científico de la computación Alan Turing, en la base secreta de Bletchley Park, Inglaterra, desarrolló la primera computadora digital electrónica programable de propósito especial del mundo: la computadora Colossus.

La Colossus se basó en la tecnología de tubos de vacío y su capacidad de procesamiento superó con creces a las máquinas electromecánicas anteriores utilizadas para la criptografía. Fue capaz de procesar grandes cantidades de información y descifrar mensajes en minutos, lo que antes llevaba días o incluso semanas.

A través de su innovadora tecnología de computación digital, Colossus pudo resolver problemas matemáticos y lógicos extremadamente complejos de manera más rápida y eficiente que cualquier otra máquina anterior.

El uso de la computadora Colossus se mantuvo en secreto durante muchos años después del fin de la Segunda Guerra Mundial, pero finalmente se reveló al público. La creación y uso de Colossus en la guerra ha sido acreditada como una contribución significativa a la victoria de los aliados, ya que permitió descifrar mensajes enemigos y anticipar sus movimientos, permitiendo que los aliados tomarán medidas para frustrar los planes del enemigo y ganar ventaja en el campo de batalla.

La computadora Colossus
Fuente: A Colossus Mark 2 codebreaking computer being operated by Dorothy Du Boisson (left) and Elsie Booker (right). Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Colossus.jpg
“Colossus - First Electronic Computer”, YouTube, subido por Greg Winther, 5 ene 2016. https://youtu.be/PVzNyBnHxcE

“Colossus - The Greatest Secret in the History of Computing”, YouTube, subido por The Centre for Computing History, 4 may 2020. https://youtu.be/g2tMcMQqSbA

Tennis for Two (1958)

Tennis for two es un videojuego pionero creado por el físico estadounidense William Higinbotham en 1958.

El juego se considera una de las primeras incursiones en la creación de videojuegos y es conocido por utilizar un osciloscopio para dibujar sus gráficos. Un osciloscopio es una pantalla que se utiliza para medir la amplitud de las señales eléctricas, y en este caso se utilizó para mostrar una vista lateral de una cancha de tenis en la que los jugadores interactuaban con una pelota de luz mediante un control mecánico sencillo.

“Tennis for Two - The Original Video Game”, YouTube, subido por The Dot Eaters, 10 sept 2007. https://youtu.be/6PG2mdU_i8k
“First Video Game?”, YouTube, subido por Brookhaven Lab, 21 oct 2008. https://youtu.be/u6mu5B-YZU8

Los créditos de la película Vértigo - Alfred Hitchcock (1958)

La secuencia de créditos de la película Vértigo es una animación icónica en la historia del cine y la animación por computadora. Fue creada por John Whitney utilizando una computadora antiaérea de la Segunda Guerra Mundial y una plataforma giratoria con un péndulo colgando sobre ella ().


Equipo utilizado para crear los créditos de la película Vértigo
http://media.rhizome.org/blog/8983/Whitney-Studio.jpg
https://media.rhizome.org/blog/8983/Whitney-Pendulum.jpg

Para crear los elementos en espiral que aparecen en la secuencia, Whitney programó la computadora para generar patrones matemáticos y geométricos que se combinaron para crear la animación. Estos patrones incluyen formas en espiral, líneas curvas y círculos concéntricos.

La secuencia se considera la primera animación por computadora utilizada en un largometraje.

“Vertigo (1958) - First computer animation ever! (HD)”, YouTube, subido por Ultimate History of CGI, 1 feb 2018. https://youtu.be/GQwp6M2q1NE

William Fetter acuña el término Computer Graphics (1960)

William Fetter fue un diseñador gráfico e industrial, pionero en el campo de la graficación por computadora. Durante la década de 1960, trabajó en la compañía de aviones Boeing, donde creó el primer modelo 3D de una persona: el Boeing man. Este modelo se utilizó para diseñar cabinas de aviones y mejorar la ergonomía de los asientos.

Fuente: William Fetter. Boeing Man. Wikimedia Commons. https://digitalartarchive.siggraph.org/artwork/william-fetter-h32569/

Fetter es reconocido por haber acuñado el término “Computer Graphics” el cual utilizó para referirse a su trabajo.


Catalog - John Whitney (1961)

Catalog es una animación experimental generada por computadora, creada por John Whitney, el mismo que estuvo a cargo de los créditos de la película Vértigo. La animación presenta patrones abstractos que cambian y se mueven al ritmo de la música, todo ello realizado mediante el uso de la computadora analógica mecánica que construyó.

“Catalog (1961) - First experimental computer animated film”, YouTube, subido por Ultimate History of CGI, 1 feb 2018. https://youtu.be/Nie3DAilv8Y

Es importante destacar que Catalog fue una recopilación (o catalogo) de los efectos visuales que Whitney había generado previamente.

Spacewar! - Steve Russell (1962)

Spacewar! es un videojuego de acción espacial en 2D desarrollado por Steve Russell en colaboración con Martin Graetz, Wayne Wiitanen, Bob Saunders, Steve Piner y otros, para el Programa de Modelado Avanzado del Massachusetts Institute of Technology (MIT).

El juego enfrenta a dos jugadores, cada uno controlando una nave espacial, con el objetivo de destruir la nave del oponente mientras se evita colisionar con los planetas y estrellas del fondo. Spacewar! es considerado por muchos como el primer videojuego de la historia.


“Spacewar by Steve Russell 1962”, YouTube, subido por Enzo_Testarossa96, 9 feb 2016. https://youtu.be/eePWlLKm_Bg

Sensorama - Morton Heiling (1962)

Sensorama fue el primer sistema de realidad virtual inmersivo, imaginado y descrito en papel en 1956 por Morton Heiling (). No fue hasta 1962 que se desarrolló un prototipo en el que se exhibían 6 películas cortas. El objetivo de Sensorama era crear una experiencia de cine completamente inmersiva, que incluyera no solo imágenes en movimiento, sino también sonido, olor, vibraciones y simulación de viento. El dispositivo tenía una pantalla estereoscópica que mostraba imágenes en 3D, altavoces, ventiladores, dispositivos de olor y vibración para estimular todos los sentidos, y un asiento con movimiento para crear una experiencia aún más inmersiva ().


Fuente: Morton Heilig. Illustration of Morton Heilig's Sensorama device, precursor to later virtual reality systems. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Sensorama_patent_fig5.png
Fuente: Morton Heilig. Sensorama. http://www.medienkunstnetz.de/. http://www.medienkunstnetz.de/works/sensorama/

Heiling creía que su sistema Sensorama sería el futuro del cine y que eventualmente se convertiría en una forma popular de entretenimiento. A pesar de que la tecnología fue revolucionaria para su época, no tuvo éxito comercial y nunca llegó a ser adoptada por el público en general, por lo que solo se construyeron unas pocas unidades.

En gran manera Sensorama fue el precursor de los sistemas de realidad virtual actuales y ejerció una influencia positiva en el desarrollo de los ambientes virtuales y las experiencias multisensoriales inmersivas.


“The Sensorama - The Precursor to Virtual Reality Technoliogy”, YouTube, subido por Unsung History, 14 ene 2021. https://youtu.be/zf61nlyBC3M

Sketchpad - Ivan Sutherland (1963)

Sketchpad es un programa de computadora desarrollado por Ivan Sutherland en el Laboratorio Lincoln del Massachusetts Institute of Technology (MIT). Es considerado un programa pionero en la interacción humano computadora (Human Computer Interaction, HCI) y el ancestro de los sistemas de diseño asistido por computadora (Computer Aided Design, CAD). Permitió a los usuarios crear dibujos y diseños mediante una pantalla de computadora y un lápiz óptico (común en esa época), y presentaba innovaciones técnicas como la manipulación y visualización de objetos en 3D en tiempo real.

El programa fue diseñado como tesis doctoral de Sutherland y proporcionó diversos conceptos útiles para la interacción con las computadoras mediante elementos figurativos interactivos. Además, este trabajo ha sido reconocido con varios premios y honores, incluido el Premio Turing en 1988, considerado el equivalente al Premio Nobel de la informática.

“Computer Sketchpad (1963) - First 3D wireframe animation”, YouTube, subido por Ultimate History of CGI, 1 feb 2018. https://youtu.be/Yb66RzGj8TI

Primer ratón de computadora - Douglas C. Engelbart (1964)

El primer ratón de computadora fue creado por Douglas C. Engelbart y se trata de un dispositivo rudimentario con una estructura principal de madera y dos ruedas metálicas en la parte inferior que se movían perpendicularmente y que se conectaba a la computadora mediante un cable. Engelbart buscaba una forma más eficiente de interactuar con la computadora, ya que los métodos previos, como los joysticks o los lápices de luz, resultaban poco precisos o incómodos.

Inicialmente, este dispositivo no gozó de gran popularidad, pero su creación sentó las bases para una nueva manera de interactuar con la computadora. Con la introducción de las interfaces gráficas en la computación, el ratón de computadora se convirtió en un dispositivo fundamental para la navegación en pantalla, permitiendo una interacción mucho más sencilla, precisa y eficiente.

“The First Computer Mouse”, YouTube, subido por chillicothekid, 19 nov 2007. https://youtu.be/EXieYPSqGDc

Hummingbird - Chuck Csuri (1967)

Hummingbird es una animación digital creada por Chuck Csuri utilizando un programa de gráficos por computadora que él mismo desarrolló.

La animación presenta la imagen de un colibrí doblando y separándose, y fue realizada mediante la técnica de interpolación de movimiento y el uso de keyframes. Sorprendentemente, esta animación está compuesta por más de 30,000 imágenes individuales, lo cual son muchos elementos gráficos para la época en la que se desarrollo.


“Hummingbird (1967) - First digital morphing”, YouTube, subido por Ultimate History of CGI, 3 feb 2018. https://youtu.be/j-oX4duiFNs

Sombreado Gouraud - Henri Gouraud (1971)

El sombreado de Gouraud es un método de iluminación utilizado en gráficos 3D que fue desarrollado por Henri Gouraud en 1971. Este método permite representar superficies curvas de una manera más suave y realista. Básicamente, lo que hace es calcular la intensidad de la luz en cada vértice de un objeto 3D y luego interpolar esos valores suavemente en toda la superficie del objeto, logrando una apariencia más homogénea.

Antes del sombreado de Gouraud, los objetos en gráficos 3D se representaban utilizando modelos dibujados por líneas (wireframe) o con colores completamente sólidos mediante el sombreado plano (flat shading), sin embargo, estos métodos no lograban representar de manera realista la apariencia de objetos curvos, ya que en las superficies se notaban los polígonos planos que las componían.

Esta técnica de sombreado fue un avance significativo en el campo de la generación de gráficos 3D por computadora, ya que permitió la creación de imágenes más realistas y detalladas en comparación con las técnicas anteriores.

Comparación entre el sombreado plano y de Gouraud.

Pong - Nolan Bushnell (1972)

Pong es uno de los primeros videojuegos de arcade, fue creado por el ingeniero y empresario Nolan Bushnell, y el diseñador de videojuegos Allan Alcorn para su compañía Atari.

El juego recrea el tenis de mesa en un plano cenital (visto desde arriba), con dos paletas que se mueven hacia arriba y hacia abajo en la pantalla, y una pelota que rebota al golpear las paredes superior e inferior y las paletas. El objetivo del juego es que cada jugador trate de hacer pasar la pelota por detrás de la paleta del oponente para anotar un punto, y el jugador con más puntos al final del juego gana.

Pong fue un éxito inmediato y se considera el primer videojuego comercial exitoso, y su popularidad ayudó a establecer la industria de los videojuegos tal como la conocemos hoy en día.


“Original Atari PONG (1972) arcade machine gameplay video”, YouTube, subido por andys-arcade, 11 dic 2014. https://youtu.be/fiShX2pTz9A

A Computer Animated Hand - Ed Catmull (1972)

A Computer Animated Hand es un cortometraje creado por Ed Catmull en 1972, quien fue un pionero en la animación generada por computadora y uno de los fundadores de Pixar. Catmull hizo este cortometraje mientras estudiaba su posgrado en la Universidad de Utah. El corto tiene una duración de un minuto y muestra una mano humana tridimensional que se mueve y dobla de manera realista.

Para hacer el cortometraje, Catmull y sus colegas desarrollaron un sistema para crear el modelo de la mano y luego programar el movimiento de los dedos y la articulación. Este corto representa el primer intento exitoso de animar una mano humana en 3D.


“Computer Animated Hand (1972) - First polygonal 3D animation”, YouTube, subido por Ultimate History of CGI, 5 feb 2018. https://youtu.be/fAhyBfLFyNA

Modelo de reflexión de Phong - Bui Tuong Phong (1973)

El modelo de reflexión de Phong es un modelo de iluminación que se utiliza para dar apariencia realista a objetos con superficies reflectantes. Este modelo fue creado por el científico de la computación Bui Tuong Phong, mientras estudiaba su posgrado en la Universidad de Utah.

El modelo de Phong se basa en tres tipos de reflexión de la luz, a saber: la reflexión ambiental, la reflexión difusa y la reflexión especular. Siendo la reflexión ambiental la luz indirecta que se dispersa por toda la escena; la reflexión difusa es la luz que se refleja uniformemente en todas las direcciones al interactuar con una superficie rugosa; y la reflexión especular es la luz que se refleja ordenadamente en una dirección privilegiada al interactuar con una superficie lisa. Para calcular el color final de un píxel en la pantalla, el modelo de reflexión de Phong utiliza una fórmula matemática que combina estos tres tipos de reflexiones.


Comparación entre el sombreado plano y Phong.

Talking face - Fred Parke (1974)

Talking face es un cortometraje de animación de un minuto de duración, que fue creado en 1974 por Frederic Parke, un artista y animador. Es una de las primeras animaciones en 3D que presenta una cabeza humana hablando y sincronizando los movimientos de la boca con el habla. El cortometraje utiliza un modelo paramétrico de una cabeza humana que muestra varias expresiones faciales y sincronización de labios, lo que se conoce como lipsync.


“Faces and Body Parts (1974) - First talking polygonal human”, YouTube, subido por Ultimate History of CGI, 7 feb 2018. https://youtu.be/_kElpJjW8Yk

Parke además de crear esta animación, continuó haciendo contribuciones importantes en el campo de la graficación y animación por computadora, y se convirtió en profesor de la Universidad de Texas en Austin.

Búfer de profundidad (Z-buffer) - Ed Catmull (1974)

El búfer de profundidad o Z-buffer es una técnica utilizada en graficación por computadora que permite determinar qué elementos de una escena 3D son visibles por la cámara o espectador. Fue creado en 1974 por Ed Catmull mientras trabajaba en la Universidad de Utah.

El búfer de profundidad utiliza una área en memoria en el que se asigna un valor de profundidad (también llamado valor Z) a cada píxel que se va a dibujar en la pantalla. Este valor indica la distancia que hay entre el espectador y el píxel que se quiere dibujar, y se utiliza para determinar qué objetos están en primer plano y cuáles están detrás, permitiendo descartar píxeles que no son visibles (). Al utilizar el búfer de profundidad es posible dibujar escenas 3D complejas de forma rápida y eficiente, sin tener que realizar cálculos como la intersección o el ordenamiento de los objetos que componen una escena.

Esta técnica tuvo una influencia significativa en el desarrollo posterior de las tarjetas de video, así como en las técnicas para dibujar mallas poligonales de forma eficiente mediante la aceleración gráfica, que de hecho, determinó en gran medida la forma en que evolucionó la tecnología de las tarjetas de video, ya que su uso permite paralelizar el procesamiento de cada polígono que se dibuja, sin importar el orden en que aparezcan en la imagen final, lo que se utiliza ampliamente en las unidades de procesamiento gráfico de las tarjetas de video actuales.

En la parte superior de la imagen se puede ver el render final de la catedral. Mientras que en la parte inferior se muestra el búfer de profundidad, el cual se presenta en escala de grises ya que indica la distancia entre la cámara y los objetos representados; los objetos cercanos aparecen en tonos oscuros, mientras que los objetos lejanos aparecen en tonos claros.
Modelo de la catedral obtenido de https://sketchfab.com/ y renderizado con Blender.

Mapeo de texturas - Ed Catmull (1974)

El mapeo de texturas es una técnica utilizada en gráficos por computadora para dar mayor detalle y realismo a superficies tridimensionales. Fue desarrollada por Ed Catmull mientras trabajaba en la Universidad de Utah.

La técnica consiste en aplicar una imagen bidimensional (una textura) a una superficie tridimensional en una escena 3D, lo que permite crear superficies con una apariencia más detallada y realista sin aumentar la cantidad de información geometría. Esto se logra al asignar coordenadas de textura a cada vértice del objeto 3D, lo que permite mapear cada punto en una superficie a un punto correspondiente en una imagen 2D ().


Ejemplo de mapeo de texturas en un tetraedro.

Actualmente, el mapeo de texturas se combina con materiales realistas y texturas de gran calidad, lo que permite crear objetos tridimensionales con un realismo sin precedentes. Esto ha sido especialmente importante en el campo de los videojuegos y el cine, donde se busca crear mundos y personajes que parezcan reales para el espectador.

En el sitio web del Museo Smithsoniano de Arte Americano se pueden encontrar diversos objetos tridimensionales, que fueron creados a partir del escaneo de objetos reales, y presentan texturas realistas y con los que se puede interactuar directamente en un navegador de internet, por ejemplo, en la se muestra el traje espacial de Neil Armstrong.


Traje espacial de Neil Armstrong tomado del repositorio de objetos 3D del Museo Smithsoniano https://3d.si.edu/explore. En esta imagen se puede observar el nivel de realismo que pueden tener los objetos tridimensionales haciendo uso de texturas de alta calidad.

Antialiasing o antiescalonamiento - Ed Catmull (1974)

El antialiasing también conocido como antiescalonamiento, es una técnica utilizada para suavizar los bordes dentados o escalonados que aparecen en las imágenes generadas por computadora. Fue creado por Ed Catmull en 1974, mientras trabajaba en la Universidad de Utah.

La técnica funciona generando píxeles de colores intermedios cerca de los bordes de los objetos mediante el muestreo de múltiples puntos en un área pequeña alrededor de cada píxel. De esta manera, se obtiene una apariencia suavizada en los bordes, reduciendo los escalones o dientes que se forman en las líneas diagonales o curvas.

Ejemplo de antiescalonamiento (Antialiasing) utilizado para dibujar la letra S.

Tetera de Utah - Martin Newell (1975)

La tetera de Utah es un modelo tridimensional creado para probar técnicas de iluminación, sombras, color y texturas. Este modelo fue generado por Martin Newell a partir del mapeo de las coordenadas de una tetera real, lo que permitió crear un modelo de alambre tridimensional con gran fidelidad.

Boceto en papel de la tetera de Utah
Fuente: Martin Newell. Martin Newell’s drawing of the Utah Teapot. www.computerhistory.org. Courtesy of Martin Newell and the School of Computing at the University of Utah. https://www.computerhistory.org/revolution/computer-graphics-music-and-art/15/206
Modelo tridimensional de la Tetera de Utah.

Fundación de Microsoft - Bill Gates y Paul Allen (1975)

El año 1975 marcó la fundación de la empresa Microsoft, cuyo objetivo principal era desarrollar y comercializar software para computadoras personales.

En sus inicios, la compañía se centró en el desarrollo del lenguaje de programación Basic.

La imagen muestra a Paul Allen a la izquierda y a Bill Gates a la derecha, fundadores de Microsoft
Fuente: Bill Gates y Paul Allen en 1975.. news.microsoft.com. https://news.microsoft.com/es-es/2015/04/06/historia-microsoft-40-aniversario/

Futureworld (1976)

La película Futureworld es una obra de ciencia ficción estrenada en 1976 y dirigida por Richard T. Heffron, esta cinta es una secuela de la película Westworld estrenada en 1973, y sigue a dos periodistas que investigan un parque temático futurista y los percances que ocurren en él.

Lo importante de esta película para la animación por computadora es que en unas breves escenas se muestran los modelos 3D de la mano y la cabeza, que fueron creados por Ed Catmull y Fred Parke, lo que le dió visibilidad a su trabajo.


“1976, Futureworld - World's first 3D animation in a movie”, YouTube, subido por corvax79, 30 sept 2011. https://youtu.be/QfRAfsK5cvU

Apple I - Steve Wozniak y Steve Jobs (1976)

En 1976, Steve Wozniak diseñó y construyó la primera computadora personal de Apple, conocida como Apple I. La máquina fue construida en su garaje, con la ayuda de Steve Jobs, quien fue responsable de la comercialización y venta de la computadora.

La Apple I es considerada una de las primeras computadoras personales asequibles para el consumidor promedio. Contaba con una memoria RAM estándar de 4 KB, que podía ser actualizada a 8 KB o 48 KB, un procesador MOS Technology 6502 de 1 MHz, y una ROM de 256 bytes que alojaba el programa de control para la interfaz de video. Gracias a esta última, los usuarios podían conectar la computadora a una televisión. Aunque en comparación con las computadoras modernas no era muy potente, la Apple I fue un gran éxito y se vendieron alrededor de 200 unidades.


Computadora Apple I
Fuente: Ed Uthman. Apple 1 On display at the Smithsonian. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Apple_I_Computer.jpg

Procesadores 8086 y 8088 de Intel (1978)

Los procesadores 8086 y 8088 fueron de los primeros microprocesadores de 16 bits creados por Intel. El procesador 8088 fue utilizado por IBM en su primera computadora, ya que era una versión del 8086 con un bus de datos reducido a 8 bits.

Estos procesadores son los fundadores de la arquitectura x86, y el conjunto de instrucciones definido en ellos todavía se utiliza hoy en día en diversos sistemas, aunque cada vez se encuentra más en desuso. La importancia de estos procesadores radica en que ofrecían una buena potencia a un precio asequible, lo que impulsó el auge de las computadoras personales de IBM, llegando a hogares y escuelas.

Procesador 8086
Fuente: Thomas Nguyen. A processor Intel C8086, 5 MHz. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Intel_C8086.jpg

Mapeado topológico (Bump mapping) - James “Jim” Blinn (1978)

El mapeado topológico o bump mapping es una técnica de renderizado que permite crear la ilusión de texturas rugosas o con relieve en una superficie, esto sin tener que especificar cada detalle individualmente.

La idea detrás del bump mapping consiste en utilizar una textura, usualmente en escala de grises, para simular los relieves y detalles de la superficie, lo que a su vez crea sombras y reflejos que dan la ilusión de profundidad. Los tonos grises de la textura corresponden a desplazamientos en la altura de la superficie, lo que se utiliza para simular las perturbaciones de los vértices y las normales de un objeto 3D.


Mapeado topológico o Bump mapping.

Trazado de rayos (Raytracing) - Turner Whitted (1980)

El trazado de rayos o raytracing es una técnica que simula en una computadora el comportamiento de la luz en el mundo real. Funciona enviando un rayo de luz virtual desde la cámara a través de cada píxel de la imagen, y rastreando su camino a medida que interactúa con los objetos de la escena, de esta forma, el rayo se refleja y refracta al encontrarse con diferentes materiales y superficies. Cada rayo de luz virtual calcula el color y la intensidad de la luz en el punto donde impacta con los objetos de la escena, lo que permite crear sombras, reflejos y refracciones precisos y realistas.

Imagen creada con trazado de rayos en Blender.

Aunque con el trazado de rayos se pueden generar imágenes realistas, hay que mencionar que el proceso puede ser muy costoso en términos de tiempo y recursos computacionales, ya que se requiere el cálculo de un gran número de rayos de luz para generar una imagen de alta resolución.

MS-DOS (1981)

MS-DOS (MicroSoft Disk Operating System) es un sistema operativo desarrollado por Microsoft Corporation y lanzado en 1981. Fue uno de los primeros sistemas operativos populares para computadoras personales IBM y compatibles, y se convirtió en el sistema operativo dominante para PC durante gran parte de la década de 1980 y principios de la década de 1990. Aunque MS-DOS carecía de muchas de las características modernas de los sistemas operativos, como una interfaz gráfica de usuario (GUI), soporte de red y multitarea, fue un sistema operativo muy eficiente y confiable que proporcionaba un control total sobre el hardware de la computadora.

MS-DOS utilizaba una interfaz de usuario basada en texto o línea de comandos y fue diseñado para ser utilizado en computadoras con procesadores Intel x86. Cabe destacar que posteriormente fue la base del sistema operativo Windows, ya que las primeras versiones de Windows se ejecutaban como un programa sobre MS-DOS. Windows 95 y posteriores versiones incluyeron una interfaz gráfica de usuario completa y características de red y multitarea, lo que hizo que MS-DOS se volviera obsoleto. Sin embargo, aún es posible encontrar vestigios de este sistema en la línea de comandos de Windows (CMD, ).

Línea de comandos de Windows.

Silicon Graphics (SGI) (1982)

Silicon Graphics Inc. (SGI) fue una compañía de tecnología estadounidense fundada en 1982 que se especializó en la fabricación de computadoras y software para gráficos y visualización en 3D; y fue una de las empresas líderes durante las décadas de 1980 y 1990.

La compañía fue fundada por Jim Clark y otros miembros de la Universidad de Stanford. En 1984, SGI lanzó su primera estación de trabajo gráfica, conocida como IRIS, diseñada para el mercado de la animación y el diseño asistido por computadora; este equipo utilizó una arquitectura de procesamiento de gráficos altamente avanzada para su época, lo que permitió a los usuarios generar visualizaciones en 3D en tiempo real. SGI también desarrolló la biblioteca IrisGL (Integrated Raster Imaging System Graphics Library), que proporcionaba un API para la creación de gráficos 3D de alto rendimiento en su plataforma de estaciones de trabajo IRIS. IrisGL se convirtió en un estándar para el desarrollo de aplicaciones gráficas en 3D y fue muy influyente en el desarrollo de la industria de la animación y los efectos visuales, además es la precursora de OpenGL, siendo esta última todavía utilizada en la actualidad.

Sin embargo, a medida que la competencia en el mercado de la computación gráfica se intensificó en la década de 1990, SGI comenzó a tener dificultades financieras y perdió su posición dominante en la industria. La compañía finalmente se declaró en bancarrota en 2009 y vendió sus activos a diferentes compradores. A pesar de su eventual caída, SGI dejó una huella importante en la historia de la computación gráfica y la visualización en 3D. Sus innovaciones y tecnologías de vanguardia sentaron las bases para la evolución continua de la industria, y su legado sigue influyendo en los campos de la animación, los efectos visuales, la visualización y los videojuegos.

Computadora SGI Personal Iris
Fuente: Andy Diller. SGI Personal Iris running IRIX. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:SGI_Personal_Iris_(1).jpg

Autodesk y AutoCAD (1982)

Autodesk es una empresa de software estadounidense fundada en 1982 por John Walker y otros programadores, con el objetivo de desarrollar software de diseño y gráficos asistido por computadora (CAD).

Uno de sus primeros productos fue AutoCAD, un programa de diseño que se convirtió en el estándar de facto en la industria de la arquitectura, ingeniería y construcción. Lanzado en 1982, revolucionó la forma en que se realizaba el diseño asistido por computadora en la industria de la construcción y la arquitectura. Antes de AutoCAD, el diseño de planos y dibujos técnicos se realizaba con papel y tinta, pero con AutoCAD, los usuarios podían crear y editar diseños en una computadora utilizando herramientas de dibujo y comandos de texto. Su facilidad de uso, potencia y versatilidad hicieron que el programa fuera muy popular y permitió a los usuarios crear dibujos precisos y detallados en 2D y 3D, así como generar documentos de alta calidad para la construcción y la fabricación.

Fuente: Fotografía tomada por Dick Cruver of Star Productions. From a 1987 advertisement from Puget Sound ComputerUser for the PowerPak 286 IBM PC compatible, as sold by Evergreen Systems.. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:PowerPak_286_running_AutoCAD_on_MS-DOS_(1987).jpg

Actualmente, Autodesk es una de las empresas más influyentes y fuertes en el ámbito de las herramientas para la creación de gráficos y animación por computadora en todo el mundo.

Tron (1982)

Con el desarrollo de la tecnología y la mejora en las técnicas de renderizado, la animación por computadora se fue convirtiendo en una herramienta ampliamente utilizada en las producciones cinematográficas.

Uno de los primeros largometrajes que se destacó por su uso de gráficos generados por computadora fue Tron. Esta película, estrenada en 1982, utilizó tecnología de punta para crear un universo virtual completamente nuevo, lleno de efectos visuales y un estilo de animación singular. Tron combina gráficos generados por computadora con escenas de acción en vivo, lo que la convierte en una experiencia cinematográfica única. Además, es conocida por presentar al primer personaje generado por computadora que habla: el icónico villano de la historia, el Master Control Program.

“TRON | Original Trailer | Disney+”, YouTube, subido por Disney Plus, 8 nov 2019. https://youtu.be/EtyHX7z8fi8

Wavefront Technologies (1984)

Wavefront Technologies fue una empresa estadounidense de software de animación y efectos visuales fundada en 1984 en Santa Bárbara, California. Fue una de las primeras empresas en desarrollar software especializado para la creación de gráficas y animaciones en 3D, convirtiéndose en líder en la industria de efectos visuales para cine y televisión. Su primer producto Advanced Visualizer lanzado en 1985, permitió a los animadores crear y renderizar animaciones en 3D con una calidad visual impresionante para su época, lo que la convirtió en una herramienta popular para la producción de efectos visuales en películas y series de televisión.

Wavefront Technologies también fue pionera en el desarrollo de técnicas de animación basadas en física y simulación, como la simulación de partículas y dinámica de fluidos, lo que ofreció a los animadores la posibilidad de crear efectos como explosiones, fuego y agua, de forma realista. Además, fue la responsable de la creación del software de animación Maya, ampliamente utilizado en la industria cinematográfica.

“Wavefront, Demo Reel, 1986”, YouTube, subido por CGI Stories, 6 jun 2024. https://youtu.be/rmBg2CJUkWY

The Adventures of André and Wally B. - Lucasfilm (1984)

The Adventures of André and Wally B. es un cortometraje desarrollado por el grupo gráfico de Lucasfilm en 1984. La animación muestra a un personaje llamado André, quien al despertar en el bosque se encuentra con un abejorro llamado Wally B. que lo persigue.

Es importante destacar que los responsables del desarrollo de esta animación fundaron la compañía Pixar en 1986, después de separarse de Lucasfilm. Por esta razón algunos consideran que este cortometraje es el primer corto animado creado por Pixar.


“Adventures of Andre and Wally B - CGI making of (1984) (HD)”, YouTube, subido por Ultimate History of CGI, 9 may 2019. https://youtu.be/LT3c0ZYvBCY

Primera versión de Windows (1985)

La primera versión de Microsoft Windows, conocida como Windows 1.0, fue lanzada en noviembre de 1985. Este sistema operativo de 16 bits utilizaba interfaces gráficas similares a las del sistema operativo Macintosh de Apple y estaba diseñado para funcionar con los procesadores Intel 8086 y 8088.

Hay que mencionar que esta primera versión tenía algunas limitaciones, como la capacidad de tener solo una ventana abierta a la vez, lo que limitaba su capacidad multitarea, aún así el sistema operativo incluía una serie de aplicaciones básicas preinstaladas, como un editor de texto, una calculadora, un calendario, entre otras, que lo volvían un sistema útil.


The Great Mouse Detective - Disney (1986)

La película The Great Mouse Detective de Disney presenta una escena de persecución en el Big Ben de Londres, en la cual se utilizaron modelos tridimensionales y una técnica conocida como cel shading o toon shading para mezclar las imágenes generadas por computadora con los dibujos hechos a mano. Los animadores Phil Nibbelink y Tad Gielow invirtieron meses en diseñar el interior del Big Ben, creando cada engranaje mediante gráficos en alambre (wireframe) en una computadora. Luego, imprimieron y dibujaron estos diseños en células de animación, a las que se les agregaron los colores y los personajes principales.

Esta escena de alrededor de dos minutos presenta imágenes generadas por computadora mezcladas con dibujos, lo que la convierte en la primera película de Disney en utilizar esta tecnología; logro que fue utilizado para promocionar la película durante su lanzamiento.

“The Great Mouse Detective - CGI making of (1986)”, YouTube, subido por Ultimate History of CGI, 5 may 2019. https://youtu.be/etv9xBEiv6k

Luxo Jr. - Pixar (1986)

El cortometraje Luxo Jr. es uno de los primeros trabajos de Pixar Animation Studios, y es conocido por ser el cortometraje que presentó a la mascota de Pixar, la lámpara llamada Luxo Jr. Este cortometraje, dirigido por John Lasseter, fue lanzado en 1986 y fue el primer trabajo de animación por computadora en ser nominado al premio Óscar en la categoría de mejor cortometraje animado. Aunque no logró ganar, sí recibió el premio a la animación asistida por computadora de la World Animation Celebration.

La trama del cortometraje es sencilla: se presentan dos lámparas, una grande y otra pequeña, y la lámpara pequeña juega con una pelota como si fuera un niño, mientras se muestran las reacciones de la lámpara grande.

“Luxo Jr. - CGI making of (1986) (HD)”, YouTube, subido por Ultimate History of CGI, 10 may 2019. https://youtu.be/MJQRVKtwr70

Tin Toy - Pixar (1988)

Tin Toy es un corto de animación por computadora producido por Pixar en 1988 y dirigido por John Lasseter, quien también dirigió Luxo Jr. el año anterior, donde se puso a prueba el software de renderizado Renderman para la generación de las imágenes del corto.

La trama de Tin Toy se centra en un pequeño juguete musical hecho de hojalata que trata de escapar de las manos de un bebé humano que lo persigue para jugar con él. Cabe mencionar que fue el primer trabajo de animación por computadora en ganar un premio Óscar en la categoría de mejor cortometraje animado; además, sirvió como inspiración para la película Toy Story y estableció la animación por computadora como un medio artístico legítimo.

“Tin Toy - CGI making of (1988) (HD)”, YouTube, subido por Ultimate History of CGI, 12 may 2019. https://youtu.be/bS2TXeXcx1I

Knick Knack - Pixar (1989)

Knick Knack es otra producción de Pixar que ganó el premio al mejor corto en el festival internacional de Seattle. La trama se centra en un muñeco de nieve que está atrapado dentro de una esfera de cristal y quiere escapar para ir a un ambiente con objetos y alegorías del verano.

La versión original de la animación fue presentada en 3D en SIGGRAPH (Special Interest Group on Computer Graphics and Interactive Techniques), que es el grupo de estudio y desarrollo de gráficas por computadora más importante a nivel mundial, y así mismo apareció en los cines durante el inicio de la película Buscando a Nemo en el 2003.

“Knick Knack - Original Version (1989)”, YouTube, subido por FB3 Network, 4 ene 2018. https://youtu.be/u3rgXLNi7Xo

3D Studio (1990)

La primera versión de 3D Studio se creó para la plataforma DOS por el equipo Yost, y posteriormente fue publicada por Autodesk. Este software fue diseñado con el objetivo de facilitar la producción de películas y efectos especiales mediante la generación de animaciones y gráficos tridimensionales. Ofrecía herramientas fundamentales para la creación de modelos 3D, como la posibilidad de crear y editar polígonos, aplicar texturas y materiales a los mismos, además de permitir la creación e edición de animaciones, cámaras y luces.

Con el paso del tiempo, 3D Studio fue renombrado como 3D Studio Max y en la actualidad se le conoce simplemente como 3ds Max, siendo una herramienta ampliamente utilizada en el desarrollo de videojuegos, la creación de anuncios televisivos, arquitectura y películas.

“3D Studio Max Version History”, YouTube, subido por InspirationTuts, 19 feb 2019. https://youtu.be/XiYMftMMcCo
“3ds Max 2021”, YouTube, subido por Autodesk, 25 mar 2020. https://youtu.be/vMFr1xDDBNM

Terminator 2 (1991)

Terminator 2 es una película de acción y ciencia ficción dirigida por James Cameron y estrenada en 1991. Destacó por sus efectos fotorrealistas avanzados, en especial por el personaje del T-1000, un androide interpretado por Robert Patrick hecho de metal líquido capaz de transformarse en cualquier forma u objeto. Para crear los efectos de transformación, la compañía de efectos especiales Industrial Light and Magic (ILM) de George Lucas, utilizó una combinación de técnicas de modelado en 3D, animación por computadora y captura de movimiento. Los animadores emplearon modelos físicos como referencia para crear animaciones precisas del personaje, incluyendo los efectos de deformación y transformación.

Durante este período de tiempo, la graficación por computadora es capaz de representar de manera realista elementos como el metal o el plástico, pero aún no es completamente confiable en la creación de materiales más orgánicos o naturales. Aún así, con el paso del tiempo, las técnicas de generación de imágenes por computadora comienzan a desplazar el uso de los efectos especiales físicos (o prácticos), como maquetas o marionetas, que se empleaban en el pasado.

“T2: Liquid Metal”, YouTube, subido por bethn93, 23 nov 2011. https://youtu.be/u8h8d2XLWKY
“Asi se hizo terminator 2 ( Terminator 2: Judgment Day )”, YouTube, subido por Fusionlearningfx, 28 may 2018. https://youtu.be/pMox7EEihRw

Jurassic Park (1993)

Jurassic Park es una película de ciencia ficción y aventuras dirigida por Steven Spielberg que se estreno en 1993.

La película utilizó una combinación de técnicas de animación por computadora y efectos prácticos, como marionetas y robots animatrónicos, para crear los dinosaurios de la película. Los animadores de la compañía Industrial Light & Magic (ILM) de George Lucas crearon modelos en 3D de los dinosaurios utilizando software de animación por computadora como Softimage y RenderMan. Estos modelos se integraron con las tomas de acción en vivo utilizando técnicas de composición digital, lo que resultó en una serie de escenas realistas que mostraban dinosaurios con una calidad y un detalle nunca antes vistos en una película.

Hay que mencionar que aunque muchos de los dinosaurios fueron creados por medio de animación por computadora, para primeros planos donde los dinosaurios se mostraban a detalle en la pantalla, se utilizaban dinosaurios animatrónicos para que se vieran más reales.

“T-Rex Ambush Scene - Jurassic Park (1993) Movie Clip HD”, YouTube, subido por BestClips, 15 jul 2018. https://youtu.be/8hjB6UJ2kMU
“How They Made Jurassic Park's T-Rex - Sculpting a Full-Size Dinosaur”, YouTube, subido por Stan Winston School, 15 dic 2012. https://youtu.be/TEXpKda61dg

ReBoot (1994)

ReBoot es una serie animada por computadora que se emitió desde 1994 hasta 2001. Fue producida por Mainframe Entertainment y creada por Gavin Blair, Ian Pearson, Phil Mitchell y John Grace; los gráficos fueron diseñados por Brendan McCarthy.

La trama tiene lugar en Mainframe, un mundo de computadora en el que los personajes principales son guardianes que protegen el mundo de los virus y otros peligros. La serie se caracterizó por tener una narrativa compleja y un diseño de producción innovador para la época, con personajes detallados y escenarios vívidos generados por computadora; así mismo se destacó por ser una de las primeras en ser generadas completamente por computadora.

Cabe mencionar que la idea y el concepto de la serie surgieron diez años antes de su lanzamiento en 1984, pero la producción no comenzó hasta 1990 debido a que la tecnología detrás de la animación por computadora no era lo suficientemente avanzada en ese momento.

“ReBoot - CGI making of (1994)”, YouTube, subido por Ultimate History of CGI, 17 may 2019. https://youtu.be/AwsfEh374u4
“The Crazy Story of ReBoot & Its Multiple Cancellations”, YouTube, subido por Secret Galaxy, 11 jul 2019. https://youtu.be/9uGRUXGzUS4


Sony PlayStation (1994)

El Sony PlayStation fue una consola de videojuegos lanzada en 1994 y la primera de Sony. Antes de esto, la compañía se había asociado con Nintendo para crear una unidad de CD-ROM para la consola Super Nintendo Entertainment System (SNES), pero la colaboración entre ambas empresas fracasó.

La PlayStation fue una de las primeras consolas de videojuegos en utilizar discos ópticos en lugar de cartuchos, lo que permitió una mayor capacidad de almacenamiento y la inclusión de secuencias de video y audio de alta calidad en los juegos. Además, presentó un procesador de 32 bits, lo que permitió una mayor capacidad de procesamiento y gráficos más avanzados que las consolas de la generación anterior. También popularizó el uso de gráficos 3D en los videojuegos caseros, a pesar de que en ese momento todavía eran rudimentarios, utilizando diversas técnicas logró presentar mundos tridimensionales complejos, en una sociedad donde los videojuegos consumidos consistían principalmente en juegos 2D en consolas y algunos juegos en 3D en arcades.

“The Story of the Playstation (Complete Series) [feat. Drunk Metroid]”, YouTube, subido por Double Dog, 10 oct 2021. https://youtu.be/53yK3giVO1Y
“Top 10 PlayStation Games (PS1) of All Time”, YouTube, subido por IGN, 28 may 2020. https://youtu.be/QSDwUkHW0_Q

Toy Story (1995)

Toy Story es la primera película generada por computadora desarrollada por Pixar Animation Studios. La producción de la película tomó alrededor de 4 años, durante los cuales se utilizaron cerca de 300 procesadores para generar las 112,000 imágenes que la conforman. Para crear las imágenes de la película, se utilizó la herramienta RenderMan (https://renderman.pixar.com/), un motor de renderizado desarrollado por Pixar que se utiliza para crear gráficos en 3D en películas, animación y efectos especiales. Este software utiliza principalmente la técnica de renderizado por raytracing y algoritmos avanzados para simular la interacción de la luz con los objetos en una escena en 3D, lo que permitió a los artistas crear imágenes de alta calidad con sombras, reflejos, texturas y efectos de luz complejos. Actualmente, RenderMan sigue siendo utilizado en las diversas producciones animadas de Pixar.

De forma general, la historia gira en torno a Woody, un juguete que es el favorito de un humano llamado Andy, pero tiene que enfrentarse al desafío de perder su posición y ser reemplazado por un nuevo juguete, Buzz Lightyear.

“Toy Story - CGI making of (1995) HD”, YouTube, subido por Ultimate History of CGI, 23 may 2019. https://youtu.be/6W_HL3nULMM

OpenGL (1992)

OpenGL es una biblioteca de gráficos 3D multiplataforma y de código abierto, desarrollada por Silicon Graphics en 1992. Debido a su compatibilidad con múltiples sistemas operativos y tarjetas gráficas, OpenGL se ha convertido en una de las bibliotecas de gráficos más populares en la industria de los videojuegos, la animación y los efectos visuales.

Esta biblioteca proporciona una API de bajo nivel para el desarrollo de aplicaciones gráficas en 3D, lo que permite un control preciso sobre el hardware de la computadora y ofrece una gran flexibilidad en el desarrollo de aplicaciones. En 1992, se creó el OpenGL Architecture Review Board (OpenGL ARB), un conjunto de compañías encargadas de definir y mantener la especificación de OpenGL. Sin embargo, en julio de 2006, la OpenGL ARB transfirió el control de la especificación de OpenGL al grupo Khronos (https://www.khronos.org/opengl/), que es el encargado de mantener la API.

Doom - Id Software (1993)

Doom es un videojuego de disparos en primera persona lanzado en 1993 por la compañía Id Software. Es considerado uno de los videojuegos más influyentes de la historia gracias a sus gráficos detallados, efectos de iluminación dinámicos y mundos virtuales en 3D que, aunque simples, ayudaron a popularizar la idea de que el 3D sería el futuro de los videojuegos.

En Doom, el jugador asume el papel de un marine espacial que debe luchar contra hordas de demonios y criaturas alienígenas en una base de investigación en Marte. El juego se desarrolla en una serie de niveles que incluyen pasillos, habitaciones y áreas exteriores, todos creados con gráficos por computadora y efectos de iluminación.

En 1997 su código fuente fue liberado, lo que permitió a muchos estudios de desarrollo de videojuegos revisarlo y generar juegos similares, lo que abrió el camino al desarrollo de videojuegos en primera persona. Se dice en internet que Doom puede ser ejecutado en prácticamente cualquier dispositivo, gracias a que fue desarrollado en el lenguaje de programación C lo que facilita la portabilidad del código a diferentes plataformas.


“Doom 1 (1993)”, YouTube, subido por Stormspirit 86, 13 ago 2010. https://youtu.be/jP2jI0BVG0w
“But can it run Doom? A brief history of installing DOOM on everything.”, YouTube, subido por Daisy Universe, 21 mar 2017. https://youtu.be/VIaLzT016Rc

Windows 95 y DirectX (1995)

Windows 95 fue un sistema operativo desarrollado por Microsoft y lanzado en 1995. Se trató del primer sistema operativo de Microsoft en utilizar una interfaz gráfica de usuario integrada y fácil de usar, que permitía a los usuarios acceder a los programas y archivos mediante el uso del mouse y de ventanas gráficas.


Logo de DirectX 9
Fuente: Microsoft. Logo for DirectX. Wikimedia Commons. https://en.wikipedia.org/wiki/File:Directx9.png

Este sistema operativo incluyó la primera versión de DirectX, una colección de APIs de programación que ofrecían funciones para la creación de gráficos en 2D y 3D, sonido y entrada de dispositivos, lo que permitía a los desarrolladores crear juegos que podían aprovechar al máximo los recursos del hardware de la computadora.

Es importante mencionar que el API de DirectX fue la base de la consola de videojuegos de Microsoft, que originalmente se llamaba DirectXbox y luego se comercializó con el nombre de Xbox. Gracias a esto, los desarrolladores pudieron crear juegos para la Xbox utilizando las mismas herramientas y APIs que ya conocían de la plataforma Windows, lo que les permitió desarrollar juegos de alta calidad de manera más eficiente.

Blender - Ton Roosendaal (1995)

Blender es un software de código abierto para la creación de gráficos en 3D, animación y efectos visuales. Fue creado originalmente en 1995 como parte de un proyecto interno en la compañía de animación holandesa NeoGeo, donde Ton Roosendaal trabajaba en ese momento. Después de que NeoGeo cerrara sus puertas en 1997, Roosendaal decidió continuar el desarrollo de Blender de manera independiente y en 1998, fundó la organización sin fines de lucro Fundación Blender, dedicada a la promoción y el desarrollo de Blender como una herramienta de software de código abierto.

Desde entonces, Blender ha evolucionado para convertirse en una herramienta de software de renombre mundial para la generación de gráficos en 3D y animación, utilizada por profesionales y entusiastas de todo el mundo en una amplia variedad de proyectos, como películas, videojuegos, animación de personajes, efectos especiales, visualización arquitectónica, entre otros.


“NeoGeo - ComeAndSee”, YouTube, subido por 10YearsOfBlenderArt, 26 oct 2011. https://youtu.be/Ks1qXAk-wx8
“Money doesn't interest me - Ton Roosendaal interview”, YouTube, subido por Blender Guru, 26 feb 2018. https://youtu.be/qJEWOTZnFeg

Tarjeta de video Voodoo de 3DFX (1996)

En 1996, la empresa 3DFX lanzó la tarjeta de video Voodoo, que se considera una de las primeras tarjetas de video dedicadas al procesamiento de gráficos en 3D para computadoras personales. La Voodoo fue innovadora en su tiempo gracias a su capacidad de procesamiento de gráficos en 3D en tiempo real, lo que la hizo muy popular entre jugadores de videojuegos y entusiastas de la tecnología.

La Voodoo marcó un hito en la historia de las tarjetas de video, ya que fue la primera tarjeta de consumo general a un precio razonable que ofrecía aceleración por hardware para gráficos 3D. Gracias a esta tarjeta, el consumo y la creación de gráficos 3D se popularizó en ambientes de escritorio caseros, revolucionando la industria de los videojuegos y abriendo el camino para el desarrollo de tecnologías de gráficos en 3D más avanzadas en las décadas siguientes.


Tarjeta de video Voodoo de 3DFX.
Fuente: Voodoo 1 3DX5000 TV. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Voodoo_1_3DX5000TV.jpg
“3dfx Commercials (3dfx Interactive) (Promotional Ad / Anuncio Promocional) [TV]”, YouTube, subido por La Mazmorra Abandon, 26 abr 2020. https://youtu.be/1NWUqIhB04I

Maya (1998)

En 1998 se lanzó al mercado Maya, un paquete de software comercial diseñado para la creación de gráficos 3D, animación y efectos especiales en cine y televisión. Fue desarrollado por Alias|Wavefront, una empresa canadiense que posteriormente fue adquirida por Autodesk en 2005.

Maya fue concebido principalmente para estudios de cine y televisión, así como para profesionales de la industria de efectos visuales. En el año 2000, se utilizó en colaboración con Disney para la realización de la película Dinosaurio y rápidamente se convirtió en una herramienta popular entre los profesionales debido a su capacidad para manejar grandes cantidades de datos y a su habilidad para crear animaciones y efectos visuales complejos, tales como la simulación de ropa y cabello, lo que permitió a los artistas crear animaciones más realistas y detalladas.


“Maya 1 0 Alias Wavefront 3d software 1998 demo 1”, YouTube, subido por AnalogSynthMuseum, 7 jun 2014. https://youtu.be/C1VZXyAkLVU
“Introducing Maya 2020”, YouTube, subido por Autodesk, 10 dic 2019. https://youtu.be/TCkOS4F51MI

Nvidia GeForce 256 (1999)

La tarjeta gráfica Nvidia GeForce 256, lanzada en 1999, fue pionera en el uso de la arquitectura GeForce para procesamiento de gráficos en 3D. Supuso un gran avance tecnológico al ofrecer un rendimiento superior a las tarjetas existentes en su momento y se convirtió en la primera GPU comercializada por Nvidia. Destacó por su nivel gráfico sin igual en la época, ayudando a diversificar el uso y consumo de gráficas 3D.

Imagen del chip Nvidia GeForce 256.
Fuente: Konstantin Lanzet. GPU NVidia Geforce 256, NV10. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:KL_NVIDIA_Geforce_256.jpg
“Evolution of NVIDIA GeForce 1999-2018 (GeForce 256-RTX 2080Ti)”, YouTube, subido por GameForest, 11 ene 2019. https://youtu.be/tmdv_ySSnEI

Dos mil en adelante

Desde los años 2000 hasta la actualidad, los gráficos por computadora en películas y videojuegos han experimentado un avance progresivo hacia el realismo, generando una carrera entre las necesidades de la industria y el desarrollo tecnológico que las satisface.

En esta época, la mayoría de las computadoras personales son capaces de soportar paquetes comerciales para la creación de 3D. Los videojuegos desarrollados con gráficas 3D han ido forjando la industria de los videojuegos que existe actualmente, mientras que las consolas presentan cada vez un mejor hardware gráfico.

Nvidia a raíz del éxito de su tarjeta GeForce 256, continuó creciendo hasta convertirse en líder en el desarrollo y comercialización de tarjetas gráficas.

También se hizo cada vez más común la presencia de animaciones 3D de alta calidad y efectos visuales realistas en el mundo del entretenimiento. Surgiendo estudios de animación como BlueSky, DreamWorks y Pixar, que comenzaron a dominar la taquilla; así como consolas de videojuegos cada vez más poderosas. La asimilación de la tecnología 3D ha sido tan gradual que actualmente se considera su uso como algo natural en diversos medios de entretenimiento, investigación y educación.

Más información sobre la historia de la animación

Para conocer más momentos importantes de la historia de la animación por computadora, la siguiente página ofrece una amplia cantidad de información complementaria:
https://computeranimationhistory-cgi.jimdo.com/

Capítulo III
   El pipeline de producción
de una animación

Durante el proceso de desarrollo de una animación, el producto final se divide en una jerarquía de cuatro niveles ().

Nivel jerárquico del desarrollo de una animación.

El producto final, es decir, la animación completa, se denomina como la producción.

Una secuencia (o escena) es un episodio completo, que abarca todos los acontecimientos que ocurren dentro de un mismo escenario o ambiente.

Una toma corresponde a una acción observada desde un punto de vista único, es decir, durante una toma se utiliza la misma cámara para capturar una acción ininterrumpida.

Por último, en el nivel más bajo, se encuentran los cuadros o fotogramas, que corresponden a una de las múltiples imágenes que componen una toma.

El desarrollo de una animación sigue una serie de pasos flexibles pero bien definidos para su desarrollo, los cuales se conocen como el pipeline de desarrollo de una animación. Seguir estos pasos permite un desarrollo más efectivo de una animación, permitiendo dividir el proceso en etapas que cimientan cada paso de la producción.

A grandes rasgos las etapas del proceso de desarrollo de una animación 3D son las siguientes:

  • Preproducción: en esta etapa se generan las ideas para la historia que se quiere contar. Se describen y desarrollan a los personajes, los lugares y las situaciones que se suscitan, así como el estilo visual que se utilizará durante la producción. En esta etapa se definen todos los cimientos sobre los que se basa el proyecto de animación.
  • Producción: durante esta etapa se toma toda la información generada en la etapa de preproducción y se comienza el proceso de creación de la animación. Como resultado se obtiene una serie de imágenes.
  • Postproducción: en esta etapa, a partir del conjunto de imágenes generadas durante la producción, se mezclan y se agregan efectos especiales, correcciones de color y se obtiene el producto final, generalmente en forma de video.

Preproducción

La preproducción es una fase crucial que garantiza que una idea pueda materializarse a través de la definición de las bases que componen un proyecto de animación. Esta etapa se divide en diversas subetapas que se desarrollan de forma secuencial para asegurar unos cimientos sólidos para la producción.

Idea

El primer paso de un proyecto de animación es el planteamiento de una idea, la cual determina el concepto o tema que va a tratar la animación. La idea ofrece una síntesis breve sobre lo que ocurrirá durante la animación, pero no presenta detalles, solo el concepto general.

Historia

Una vez definida la idea, se comienza a desarrollar la historia, en la que se define la forma más efectiva de expresar y transmitir la idea, dándole una forma más concreta y definida.

Durante esta etapa, se plantean preguntas como: ¿quiénes son los personajes y qué tipo de conflicto tienen? ¿dónde y cuándo se desarrolla la historia? ¿a qué tipo de público va dirigida? ¿cuál es la apariencia final esperada? ¿cuánto tiempo, presupuesto y esfuerzo se van a invertir en el desarrollo?

Guión (script o screenplay)

Para formalizar y definir los detalles finos de la historia se utiliza un documento escrito llamado guión, script o screenplay (), donde se describe de manera textual las secuencias y tomas que ocurren durante la historia.

El guión se crea para asentar y precisar las decisiones tomadas, y concretar dicha información en un documento escrito, donde se especifican puntualmente las características de los personajes y sus acciones, el entorno y escenarios donde ocurre la animación, los diálogos, y todo lo que sea relevante para la producción.

Ejemplo de guión.
Fuente: Pelotica. Guía de formato de para un guión cinematográfico.. Wikimedia Commons. vinculo https://commons.wikimedia.org/wiki/File:Formato_de_guion.jpg

Un guión se suele dividir en escenas, donde cada escena cuenta con un encabezado que indica de qué trata la escena, dónde y cuándo transcurre la acción.

Después del encabezado viene la descripción de la acción, que consiste de párrafos que especifican de forma concisa lo que ve y escucha la cámara (o el espectador). Se suele escribir en tercera persona con verbos en presente y se utilizan mayúsculas cuando: los nombres de los personajes aparecen por primera vez; se describen sonidos; con transiciones de la cámara.

Se tienen bloques de diálogo donde primero se muestra el nombre del personaje y a continuación sus líneas en el diálogo, entre paréntesis se suelen indicar acotaciones que son información sobre la actuación como sentimientos o énfasis en diversas partes del diálogo.

Los guiones describen las escenas de la producción y también especifican el tipo de transición que ocurre cuando se cambia de secuencia o toma. En caso de existir una transición, se suele indicar antes del encabezado de la escena para dar la pauta de cómo se entra a la escena.

Para conocer más información sobre la realización de un guión se recomienda revisar los siguientes vínculos:

Guión gráfico (storyboard)

El guión gráfico o storyboard es la herramienta visual que se utiliza para plasmar las ideas del guión en imágenes. Este proceso es fundamental para la creación de una animación, ya que permite planificar y previsualizar cada secuencia antes de ser producida.

El guión gráfico está compuesto por una serie de viñetas que muestran momentos específicos de las escenas del guión, y que incluyen detalles como el encuadre y la posición de la cámara, la disposición y las poses de los personajes, los diálogos y las interacciones que se desarrollan, así como los posibles efectos especiales y visuales.

Este documento suele presentarse a todo el equipo involucrado en el proyecto de animación para refinar y discutir las ideas, y así crear una base sólida para los siguientes pasos de la preproducción. Cabe mencionar que en algunas producciones, se pasa directamente del planteamiento de la idea al guión gráfico, sin pasar por la fase de escritura de un guión detallado, esto dependiendo del estudio o tipo de obra que se pretende animar.


“Intro to Storyboarding”, YouTube, subido por RocketJump Film School, 24 mar 2016. https://youtu.be/RQsvhq28sOI
“STORYBOARD - ¿Qué es y cómo se hace?”, YouTube, subido por Soy de cine, 28 jun 2018. https://youtu.be/8_N3-gap2Sc

Previsualización (animatic o story reel)

La fase de previsualización o animatic se refiere a una versión en movimiento del guión gráfico. Para crear la previsualización se utilizan las imágenes del guión gráfico y se les añade diálogo, sincronización e información de tiempo, con el fin de determinar de manera precisa las características de la animación.

“Gorillaz - 19-2000 (Storyboard)”, YouTube, subido por Gorillaz, 15 ene 2010. https://youtu.be/_z7YWIshHtE
“Woody's Nightmare Storyboard Pitch - Toy Story 2 Behind the Scenes”, YouTube, subido por Many Jony, 15 nov 2017. https://youtu.be/1wjk4_otc-o

El animatic es una herramienta importante ya que permite estimar la duración de cada secuencia y toma, facilitando el ajuste de los tiempos en caso de ser necesario, lo que determina la duración final de la animación.

“Up "Married Life" | Pixar Side by Side”, YouTube, subido por Pixar, 14 feb 2019. https://youtu.be/XoyZmu0IOKc
“Luca and Alberto Join Guilia and Massimo for Dinner | Pixar Side-By-Side | Pixar”, YouTube, subido por Pixar, 16 jul 2021. https://youtu.be/k0UfsBFleMU

Diseño

Tomando como referencia el guión y las propuestas visuales desarrolladas en el guión gráfico y la previsualización, se comienza a trabajar en el diseño y características visuales de la animación. Esto incluye el diseño de personajes, incorporando expresiones faciales, vestimenta, accesorios, escenarios, paletas de colores y el estado de ánimo que se desea transmitir en la animación.

Es importante tener en cuenta que los diseños desarrollados no son definitivos y durante la producción se pueden realizar cambios, iterando y definiendo de mejor forma las características visuales de los personajes y los escenarios. Además, en animaciones 3D, la fase de diseño generalmente se realiza con imágenes, por lo que durante la producción la traducción de estas imágenes a modelos tridimensionales puede modificar o ajustar el diseño final.


Diseño de expresiones faciales del personaje principal de Spring
Fuente: David Revoy. Spring open-movie: character design and concept-art. www.davidrevoy.com. https://www.davidrevoy.com/article712/spring-open-movie-character-design-and-concept-art
Progresión en el diseño de personajes del corto Sprite Fright
Fuente: Blender Studio. Sprite Fright - Blender Open Movie Showreel. https://studio.blender.org/blog/sprite-fright-showreel/
“Sprite Fright - Blender Open Movie Showreel”, YouTube, subido por Blender Studio, 30 nov 2021. https://youtu.be/X4MXWcx4jUA
Progresión en el diseño de personajes del corto Sprite Fright (cont.)
Fuente: Blender Studio. Sprite Fright - Blender Open Movie Showreel. https://studio.blender.org/blog/sprite-fright-showreel/
“Sprite Fright - Blender Open Movie Showreel”, YouTube, subido por Blender Studio, 30 nov 2021. https://youtu.be/X4MXWcx4jUA

Producción

La producción es donde se concentra la mayor cantidad de trabajo y toma todo lo creado en la etapa de preproducción como base para el desarrollo del proyecto de animación.


Disposición de los elementos (layout)

A partir de la previsualización (animatic), los artistas 3D se encargan de reproducir la posición de la cámara, los personajes y el ambiente, realizando la etapa de disposición de elementos o layout de tal forma que se comienza con la traducción del animatic a elementos tridimensionales, definiendo claramente las dimensiones espaciales y temporales de la producción.


“What is Layout? - Toy Story Behind the Scenes”, YouTube, subido por Many Jony, 15 oct 2017. https://youtu.be/dzGS3IviyxM
“ENCANTO | 3D Layout on Encanto | Tyler Kupferer | @3DAnimationInternships”, YouTube, subido por 3D Animation Internships, 2 feb 2022. https://youtu.be/i4L7xiQ9RB0

Durante la etapa de disposición de elementos es posible incluir animaciones, aunque por lo general suelen ser simples y rudimentarias, basadas principalmente en transformaciones básicas como rotaciones, traslaciones y escalamientos. Esto depende de que tan avanzado se encuentre el desarrollo de los modelos.

Es importante considerar que lo principal de la etapa de disposición de elementos es replicar en un espacio tridimensional las diversas tomas representadas durante el guión gráfico y, al mismo tiempo, representar el tiempo de duración de las escenas que fueron definidos durante el animatic.


Investigación y desarrollo (Research and development)

Investigación y desarrollo son componentes clave en la animación, ya que se utilizan para resolver los retos técnicos necesarios durante el desarrollo del proyecto. En muchas ocasiones, la historia que se quiere contar requiere la presentación de elementos visuales específicos para los cuales no existen técnicas de animación o graficación por computadora previamente desarrolladas, por lo que es necesario inventar nuevos métodos o innovar en el uso de lo que ya existe.

Grandes estudios de animación como Disney () y Pixar (), cuentan con divisiones encargadas de realizar investigaciones sobre diversas técnicas y algoritmos en graficación y animación por computadora.

https://studios.disneyresearch.com/publications/
https://graphics.pixar.com/library/

“How Pixar created its most complex character yet for 'Finding Dory' (CNET News)”, YouTube, subido por CNET, 8 jun 2016. https://youtu.be/Nn0S2vmSCU0
“How Pixar's Movement Animation Became So Realistic | Movies Insider”, YouTube, subido por Insider, 11 mar 2021. https://youtu.be/QbhsMLD9Hb0
“How Pixar Changed 3D Animation With Every Movie (Part 1, 'Toy Story' to 'Cars 2') | Movies Insider”, YouTube, subido por Insider, 29 jul 2021. https://youtu.be/n1xAYik1g-w
“How Every Single Pixar Movie Advanced 3D Animation (Part Two: 'Brave' To 'Luca') | Movies Insider”, YouTube, subido por Insider, 5 ago 2021. https://youtu.be/K_BNaUmVulo
“How 'The Lion King' Remake Was Animated | Movies Insider”, YouTube, subido por Insider, 29 ago 2019. https://youtu.be/DlJkEe315mM
“How Pixar Animation Evolved Over 28 Years | Movies Insider | Insider”, YouTube, subido por Insider, 14 jun 2023. https://youtu.be/h4WBP6ikjLo

Además de algunos estudios de animación que publican sus desarrollos, el lugar académico más prestigioso en cuanto a investigación en el mundo de la graficación y animación por computadora es el grupo de interés especial en gráficas por computadora y técnicas interactivas, SIGGRAPH, (Special Interest Group on Computer Graphics and Interactive Techniques, https://www.siggraph.org/), sitio donde se pueden encontrar miles de artículos académicos en el área del computo gráfico.


Modelado

Para realizar una animación 3D es necesario crear objetos que representen los elementos visuales de la animación, es decir, los personajes y escenarios que conforman la producción. En el contexto de la animación por computadora en 3D, un modelo es una representación geométrica de la superficie de un objeto.

A lo largo del tiempo, se han desarrollado diversas formas de crear y representar modelos tridimensionales, desde curvas y superficies paramétricas hasta mallas poligonales, que es la representación más usadas en la actualidad.

“3D modeling Charmander With Blender (timelapse)”, YouTube, subido por Arturs Luksis, 5 ene 2018. https://youtu.be/g49wAkJkV4A
“Poly Modeling Bodies NO SCULPT REQUIRED”, YouTube, subido por Dikko, 21 dic 2021. https://youtu.be/6ztn-S0o1DE
“Chair Modeling Tutorial in Blender 2.91 | Polygon Runway”, YouTube, subido por Polygon Runway, 14 ene 2021. https://youtu.be/gTVNmafi68I
“Stylized Low poly Vtuber 3D Modeling Time-lapse”, YouTube, subido por Priichu, 29 jun 2021. https://youtu.be/lZiZ1FDRTnU

La escultura digital se han convertido en la forma preferida de los artistas para crear modelos tridimensionales, debido a la versatilidad y cantidad de detalles que se pueden lograr. Detrás de la escultura digital, se encuentra un trabajo por reproducir de forma computacional las técnicas utilizadas en la escultura tradicional en arcilla, donde el artista agrega, remueve, alisa y texturiza, por medio de diversas herramientas, hasta conseguir la representación deseada.

Es importante mencionar que por lo general, para realizar escultura digital de forma efectiva, es necesario el uso de tabletas digitalizadoras (o gráficas), que son dispositivos especiales que cuentan con una pluma que permite capturar diferentes niveles de presión sobre su superficie.

“Blender sculpt timelapse Croco-Roco”, YouTube, subido por Sebastian Cavazzoli, 6 mar 2018. https://youtu.be/iGFK0sl1_cc
“Digital Sculpting is AMAZING! Modeling Vi in Blender - Arcane”, YouTube, subido por YanSculpts, 2 ene 2022. https://youtu.be/o-lHNy0DoiQ

“Sculpting a HUGE DONKEY KONG from the Super Mario Bros Movie”, YouTube, subido por Sculpture_Geek, 27 abr 2023. https://youtu.be/E9zV6QhxGPw
“Pokémon Figures Making - Charmander Line!!(Charmeleon, Charizard) | Clay Art”, YouTube, subido por Squash Clay, 31 ene 2021. https://youtu.be/F7zA_AcC-fE

Texturizado y materiales

Durante la fase de texturizado y materiales, se agregan los colores, propiedades de los materiales y texturas que conforman la apariencia de las superficies de los modelos geométricos. Esto se realiza para representar adecuadamente las características visuales propuestas durante la fase de diseño de la preproducción.

Aquí se definen los materiales que tendrán cada objeto mediante shaders, que son pequeños programas que se ejecutan en la GPU. Además, se crean múltiples imágenes, también conocidas como texturas, para mejorar la apariencia de los modelos, estas texturas pueden ser creadas de manera artística en medios físicos o en programas de edición de imágenes, de forma procedural con ayuda de algún software o pueden ser fotografías de objetos reales.

“What are Texture Maps in Blender? Maps explained in 30 seconds”, YouTube, subido por CG Cookie, 22 jul 2019. https://youtu.be/LwYywDaE36g
“Hard Surface Texture Painting - Pt. 1 QuickStart”, YouTube, subido por Sean Kennedy, 11 dic 2020. https://youtu.be/GxUsg4x3iz8

Rigging

El rigging es un proceso fundamental en la animación en 3D, y consiste en la creación de una estructura de controles que se utiliza para manipular los modelos tridimensionales de manera más sencilla y eficiente.

Estos controles conocidos usualmente como huesos, se conectan a la información geométrica del modelo y actúan como una especie de esqueleto virtual que proporciona una estructura articulada sobre la cual se realiza la animación.

El objetivo principal del rigging es proporcionar a los artistas de animación la capacidad de crear movimientos naturales y realistas en los personajes 3D. Al crear un rig, se asignan pesos y restricciones a cada uno de los huesos para que puedan moverse de forma coherente, intentando imitar los movimientos de las articulaciones humanas o animales. Esto permite simular acciones como caminar, correr, saltar, flexionar los músculos y realizar todo tipo de movimientos corporales.


“Welcome to rigging | Rigging | Computer animation | Khan Academy”, YouTube, subido por Khan Academy Labs, 11 feb 2016. https://youtu.be/QOc8PMB7GWU
“Blender - Completely Rigging A Character (5 MINUTES!)”, YouTube, subido por Royal Skies, 22 mar 2022. https://youtu.be/X590IZeyT1s

La animación

La fase de animación es donde se crean los movimientos y acciones de los personajes y objetos. Aquí se utiliza la información desarrollada durante el layout y los controles creados durante el rigging para construir las acciones y secuencias de movimientos necesarias para representar cada toma de la producción.

“Human Body Rig in Blender”, YouTube, subido por Chris Jones, 24 abr 2019. https://youtu.be/MAM7mF2v7dE
“Introducing Snow - Free Blender rig”, YouTube, subido por Blender Studio, 10 mar 2022. https://youtu.be/X7tNZNV2GBQ
“Hotel Transylvania 2 - Animation”, YouTube, subido por Sony Pictures Animation, 27 ene 2016. https://youtu.be/wGDCh1rtFFU
“Workflow Animation 2.5D in blender 2.90 #01”, YouTube, subido por AnimeXD channel, 10 jun 2021. https://youtu.be/Y_r4B61F7MQ

Efectos visuales 3D

Los efectos visuales 3D se encargan de animar elementos secundarios como el pelaje, el cabello, la ropa, el fuego, el agua, la nieve, el polvo, etcétera. El objetivo de estos efectos es mejorar la apariencia final de las escenas agregando realismo a la animación y haciendo que los elementos secundarios interactúen con los objetos tridimensionales de la animación. Para realizar estos efectos visuales usualmente se utilizan soluciones basadas en motores de física, para aportar de realismo a su comportamiento.

“Mantaflow, Rigid Bodies, Smoke! - Blender Physics”, YouTube, subido por blazraidr, 25 dic 2017. https://youtu.be/aYSbGLJwyg4
“Hotel Transylvania 2 - Cloth Simulation”, YouTube, subido por Sony Pictures Animation, 20 ene 2016. https://youtu.be/HADov1B66us
“How Disney's Animated Hair Became So Realistic, From 'Tangled' To 'Encanto' | Movies Insider”, YouTube, subido por Insider, 28 abr 2022. https://youtu.be/cvTchBdrqdw
“Blender FLIP Fluids Addon”, YouTube, subido por Pavel Blend, 7 may 2018. https://youtu.be/8hpqwfZah08

Iluminación

Durante el proceso de iluminación se agregan todas las fuentes de luz necesarias para dar el aspecto y el estado de ánimo a cada toma de la animación.

La iluminación junto con los materiales, es una de las etapas que más impactan en la representación visual y calidad final de las imágenes que componen la animación, por lo que debe prestarse mucha atención en su realización.

“Hotel Transylvania 2: Inside Look at the Lighting Animation Created for the Movie”, YouTube, subido por Leticia Barr, 21 ene 2016. https://youtu.be/5y4PtqUpiJ0
“Why Lighting Animated Movies Is So Complicated | Movies Insider | Insider”, YouTube, subido por Insider, 5 nov 2020. https://youtu.be/bcT0w8jEESw
“Pixar in a Box: The Art of Lighting”, YouTube, subido por Khan Academy Labs, 1 oct 2018. https://youtu.be/pOeaflcMlVU
“CGMA | The Art of Lighting for Games | Promo Video”, YouTube, subido por CGMA | CG Master Academy, 25 may 2018. https://youtu.be/694QYBWXExc

Renderizado o rendering

El renderizado o rendering es donde se crean todos los cuadros (o fotogramas) que componen la producción, es decir, se generan imágenes a partir de la información digital desarrollada durante todo el proceso de producción. Este es el último paso del proceso de producción y dependiendo del objetivo final de la animación, puede ser la última etapa que se desarrolla, antes de dar por concluida la producción, por ejemplo, en animaciones cortas como las publicitarias no se suele llegar a la postproducción.

“Introduction to rendering | Rendering | Computer animation | Khan Academy”, YouTube, subido por Khan Academy Labs, 27 ago 2015. https://youtu.be/Ej2fFjxAJFY

Postproducción

En esta fase se lleva a cabo la combinación de las imágenes generadas durante la producción, junto con la adición de efectos especiales y correcciones de color. Este proceso tiene como resultado la obtención del producto final de la animación, es decir el video final correspondiente a la animación.

Composición

Durante la etapa de postproducción se trabaja con las imágenes obtenidas en el renderizado (la última etapa de la producción). Estas imágenes, de forma similar a la cámara multiplano, pueden representar diferentes profundidades de una escena. El proceso de composición involucra combinar las imágenes renderizadas para generar la secuencia final.

“Introduction to Compositing in Blender”, YouTube, subido por CG Boost, 7 oct 2021. https://youtu.be/bIZrTXtyQkY

Efectos especiales 2D y motion graphics

Durante los efectos especiales en 2D se agregan diversos tipos de sistemas de partículas (como polvo o gotas de lluvia sobre la cámara), se realiza el reemplazo de la pantalla verde (si es que se usó), se agregan los textos de los créditos, y en caso de ser necesario se incluyen movimientos a la imagen para simular sacudidas en las tomas. Todos estos efectos se agregan para mejorar el producto final y añadir detalles que embellezcan la animación.

“Blender in professional movie production & VFX”, YouTube, subido por VFX Geek, 9 dic 2018. https://youtu.be/JRtzMIxbmcQ

Corrección de color

En la corrección de color se ajustan todas las imágenes de la producción para que tengan un color consistente.

Esto es importante, ya que en general las grandes producciones de animación se dividen en equipos de trabajo que realizan de manera independiente las secuencias o tomas, por lo que pueden presentarse ligeras variaciones en los tonos de los colores de las imágenes renderizadas. Además de que ofrece la posibilidad de ajustar el color de las imágenes y lograr transmitir y enfatizar un sentimiento particular.


“Color Grading Example (Adobe After Effects)”, YouTube, subido por Jacob Ferguson, 9 jun 2014. https://youtu.be/BhGV75Yh5JQ
“Color Correction vs Color Grading Explained | Cinecom.net”, YouTube, subido por Cinecom.net, 26 abr 2016. https://youtu.be/4VxHskBLpCY

Producto final

En esta última fase se toman todas las imágenes postprocesadas y se juntan para generar el formato final en el que se distribuye la animación, por ejemplo, un gif animado, un video 4k listo para ser proyectado en el cine, o un video en Full HD para YouTube. Aquí se da por finalizada la producción.

Sonido

Los efectos de sonido como las voces en los diálogos y en off o de narración, así como la música, añaden un gran impacto y emoción a la animación. La incorporación del sonido en la producción de una animación puede ubicarse en diferentes momentos: puede ser que la animación sea originada por alguna pista musical como un video musical, o que la animación esté fuertemente ligada con los diálogos, o una vez realizada la producción se complemente con composiciones musicales para mejorar la ambientación.

El sonido es un elemento muy importante en las animaciones, pero no siempre es fácil de realizar. La mayoría de los efectos de sonido que se escuchan en películas o series son creados y su creación es todo un arte. Utilizar diferentes sonidos en una misma producción puede cambiar dramáticamente la forma en que se perciben las diversas escenas que la componen.


“See With Your Ears: Spielberg And Sound Design”, YouTube, subido por Nerdwriter1, 17 ene 2018. https://youtu.be/kavxsXhzD48
“The Magic of Making Sound”, YouTube, subido por Great Big Story, 12 ene 2017. https://youtu.be/UO3N_PRIgX0
“Foley Artists: How Movie Sound Effects Are Made”, YouTube, subido por Academy Originals, 13 jun 2016. https://youtu.be/U_tqB4IZvMk
“How Animal Sounds Are Made For Movies And TV | Movies Insider”, YouTube, subido por Insider, 26 mar 2020. https://youtu.be/l2WCrXc7J-I
Capítulo IV
Narración de la historia

Una historia es un relato de los acontecimientos que les suceden a uno o varios personajes, los cuales se encuentran en un tiempo y lugar bien definidos. Los cuentos y relatos han sido una parte intrínseca de la humanidad, ya que contar y escuchar historias ha sido una parte fundamental de la transmisión de conocimiento.

Para mantener a la audiencia entretenida, las historias suelen incluir personajes interesantes, conflictos que superar y conclusiones satisfactorias. La creación de buenas historias se basa en estructuras y conceptos desarrollados en la literatura, el teatro y el cine, como por ejemplo, la estructura en tres actos, los arcos narrativos, el monomito, entre otras más.

Estructura narrativa en tres actos

Al analizar algún cuento, relato o historia es posible notar que se presenta una estructura general muy similar. Esto se debe a que desde tiempos antiguos, se ha utilizado una estructura básica de tres tiempos o actos () para contar los sucesos de una historia, estos momentos o actos son:

  • planteamiento (inicio o primer acto),
  • nudo (mitad o segundo acto) y
  • desenlace (final o tercer acto).
Estructura de tres actos para contar una historia.
Primer acto

El primer acto (inicio o planteamiento) es la parte de la historia donde se presentan a los personajes, así como sus necesidades, fortalezas y debilidades. Además se presenta el lugar y el tiempo en que suceden las acciones para determinar el contexto de la historia. Todos los elementos presentados deben respaldar de forma consistente el planteamiento de la historia, mientras se genera interés en el espectador.

Al término del primer acto se localiza el primer punto de giro (o punto de inflexión), aquí se plantea el conflicto principal que desencadena la mayoría de las acciones subsecuentes de la narración. En principio, algo fuera de lo ordinario ocurre y este evento detona todos los acontecimientos importantes para el desarrollo de la historia.

Segundo acto

En el segundo acto (mitad o nudo) se desenvuelven todos los acontecimientos en torno a la nueva situación en la que se encuentra el personaje principal. Se le denomina nudo debido a que durante esta parte se van entrelazando los diversos acontecimientos que complican el progreso de la historia, es decir, se desarrolla la trama de la narración.

Durante la primera parte del segundo acto, se observa al personaje principal intentando adaptarse a la nueva situación en la que se encuentra, presentando una actitud pasiva al intentar comprender lo que ocurre a su alrededor.

En el punto medio del segundo acto ocurre un cambio que hace que el personaje se adapte a la nueva situación, haciendo que pase de ser un espectador a un protagonista activo, es decir, el personaje por fin entiende (o cree entender) la situación en la que se encuentra y actúa acorde a ella.

Al término del segundo acto ocurre el segundo punto de giro, que es el último momento en donde se presenta nueva información relevante para la historia, e indica que se encuentra cerca de la resolución final del conflicto. Esto quiere decir que el personaje principal ya logró alcanzar el estado en donde puede afrontar el desafío final y que ya no va a adquirir más conocimientos o habilidades para enfrentarlo.

Tercer acto

El tercer acto (final o desenlace) es donde se resuelven las situaciones planteadas a lo largo del relato, llevando la narrativa a su culminación, dando conclusión a los eventos desarrollados durante la historia. Aquí deben atarse todos los cabos sueltos y llevar al espectador a un punto de resolución donde la historia concluye con la narración.


De forma general, una estructura narrativa en tres actos presenta un comienzo donde el personaje principal se encuentra en su cotidianidad. Después, un evento inesperado crea un cambio en la vida del personaje, y a partir de ese momento ocurren situaciones de tensión y relajación, mientras la historia va avanzando. Por último, se presenta la confrontación final y se llega al desenlace de la historia dando resolución al conflicto planteado.

Los personajes, la meta y el conflicto

Una historia suele presentar tres elementos básicos para su narración: personajes, metas (u objetivos), y conflictos.

Personajes

Por lo general los personajes son seres humanos, animales o imaginarios, que forman parte de una narrativa. Los personajes suelen ser el recurso que se utiliza para mostrar y guiar los eventos de una historia, ya que son las entidades que experimentan los diferentes acontecimientos que se suscitan a lo largo de la narración.

La meta

La meta u objetivo puede ser cualquier cosa que un personaje desee (o cree que desea) y se encuentre dispuesto a conseguir sin importar lo que cueste. Puede ser un objeto, un evento, una persona o un logro que anhela alcanzar.

El conflicto

Mientras el personaje intenta cumplir la meta, por lo general existen fuerzas opuestas que dificultan su realización, esto con la finalidad de volver más interesante la historia, ya que los conflictos agregan una capa de drama a la historia y así puede volverse más atractiva para el espectador.

Los conflictos pueden ocurrir:

  • de personajes contra otros personajes;
  • personajes contra la naturaleza;
  • personajes contra la sociedad; o
  • de un personaje contra sí mismo.

Concepto central

El concepto central es la premisa que sustenta la narración de la historia, por ejemplo: el cambio nunca es fácil; aprender a dejar ir; nunca darse por vencido; siempre aspirar a ser el mejor; el día se repite una y otra vez; los muñecos tienen vida pero se quedan inmóviles cuando hay gente cerca.

Este simple concepto debe estar soportado por todas las ideas y acciones de la historia; y por consistencia, siempre hay que procurar no generar ideas que entren en conflicto con el concepto central, esto es lo que hace a la narrativa creíble. Para una animación el concepto central se define durante la preproducción en las fases de la idea y la historia, y es lo que da la pauta que sustenta la gran mayoría de las decisiones para el desarrollo de la animación.

Arco argumental o narrativo

Un arco argumental o narrativo se refiere a la estructura o forma de una historia; es decir, cuál es la consecución o progresión de acontecimientos que ocurren dentro de la narrativa. Esta estructura es importante para determinar el tipo de acontecimientos que se cuentan dentro de una historia y se construye por encima de la estructura de tres actos para organizar la forma en la que ocurren los eventos narrativos.

En el 2016, The Computational Story Lab de Vermont, publicó el artículo: “The emotional arcs of stories are dominated by six basic shapes”, donde se presentan los resultados obtenidos de analizar un conjunto de 1327 historias de ficción. Lo que se encontró en el estudio fue que todas las historias analizadas pueden ser catalogadas en 6 arcos narrativos básicos. Si se grafica el tipo de eventos que suceden en estos arcos narrativos, es más sencillo observar la estructura subyacente en la forma en la que se cuentan los acontecimientos de una historia.

De harapos a riqueza (ascenso)

De harapos a riqueza (ascenso), la historia avanza constantemente siempre hacia un final feliz; la progresión de eventos que ocurren siempre logran que el personaje se encuentre en una mejor situación.

Tragedia o de riqueza a harapos (descenso)

Tragedia o de riqueza a harapos (descenso), en contraposición al arco anterior, las cosas que le suceden al personaje solo empeoran llevándolo a un desenlace trágico.

Persona en el agujero (descenso y ascenso)

Persona en el agujero (descenso y ascenso), aquí al inicio ocurren eventos desafortunados o trágicos, pero mientras avanza la trama la situación poco a poco comienza a mejorar, dando como resultado que el personaje alcance un final feliz.

Ícaro (ascenso y descenso)

Ícaro (ascenso y descenso), este arco narrativo hace referencia a los acontecimiento que ocurren en el mito de Ícaro, donde se comienza con una situación prometedora, pero poco a poco ocurren acontecimientos que empeoran todo hasta culminar en un final trágico.

Cenicienta (ascenso, descenso y ascenso)

Cenicienta (ascenso, descenso y ascenso), aquí se hace referencia a la historia de la Cenicienta, donde el personaje inicia con situaciones agradable y felices, pero rápidamente ocurren acontecimientos negativos que dan indicios de tragedia, para que finalmente se logre terminar con un buen final.

Edipo (descenso, ascenso y descenso)

Edipo (descenso, ascenso y descenso), este arco narrativo se asemeja al mito de Edipo, donde se presentan inicialmente situaciones muy desfavorables para el personaje, seguidas de momentos que indican un final feliz, para culminar con eventos trágicos para el desenlace.

El viaje del héroe

Joseph Campbell fue un mitólogo, escritor y conferencista estadounidense, que después de años de estudio en mitología comparativa, descubrió que a lo largo de diferentes culturas y períodos de tiempo, las narraciones de historias mitológicas (o heroicas) utilizaban en esencia la misma estructura narrativa.

“The Hero's Journey and the Monomyth: Crash Course World Mythology #25”, YouTube, subido por CrashCourse, 2 sept 2017. https://youtu.be/XevCvCLdKCU

Campbell nombro a esta estructura el viaje del héroe o el monomito, la cual divide a una historia en tres partes fundamentales:

  1. La salida, donde el héroe comienza su aventura dejando atrás el mundo que conoce.
  2. La iniciación, donde el héroe al superar una serie de pruebas presenta cambios para convertirse en la persona que está destinada a ser.
  3. El regreso, donde el héroe después de haber superado las diversas pruebas y conseguir el objetivo que desencadeno la aventura, inicia el viaje de regreso a casa.

Las tres partes fundamentales a su vez se dividen en 17 subpartes o etapas con una estructura bien definida. Hay que aclarar que no todas las historias usan todos los elementos del monomito; y algunas incluso se centran en solo unas cuantas partes, pero de una forma u otra la gran mayoría de las 17 subpartes se encuentran en las historias mitológicas o heroicas. También es importante indicar que varias historias no mitológicas utilizan las diversas partes que componen al monomito como parte de su estructura narrativa. Las 17 subpartes del monomito son:

Parte 1. La salida

(1) La llamada de la aventura

Se presenta al héroe dentro de su cotidianidad realizando sus actividades, cuando algo lleva al héroe fuera de lo habitual hacia lo desconocido. Aquí se presenta al protagonista, mostrando sus orígenes y sentando las expectativas y características iniciales que lo definen.

(2) El rechazo de la llamada

Dentro de la cotidianidad del héroe surge algún acontecimiento que lo lleva o llama hacia la acción, pero la reacción inicial del héroe es rechazar el llamado a la acción prefiriendo seguir en su zona de confort, pero al final las circunstancias lo obligan a iniciar la aventura.

(3) La ayuda sobrenatural

Una vez que el héroe ha aceptado la llamada a la acción, el guía o mentor del héroe (generalmente aquel que lo llama a la aventura) le presenta u obsequia algún tipo de objeto o conocimiento que lo ayudará durante su aventura.

(4) El cruce del primer umbral

Aquí el héroe está comenzando oficialmente su viaje y ha pasado el umbral de su zona de confort, teniendo que enfrentarse a diversas situaciones que por lo general en condiciones normales no enfrentaría.

(5) El estómago de la ballena

Este es el punto del viaje en el que el héroe está totalmente dispuesto a cambiar para convertirse en quien necesita ser.

Por lo general, el deseo de cambio se ve detonado por un acontecimiento que marca fuertemente al protagonista.


Parte 2. La iniciación

(6) Las pruebas

Durante su viaje el héroe se enfrenta a diversas pruebas y comúnmente falla una o más de ellas en su primer intento.

No todas las pruebas se presentan al mismo tiempo, por lo general se dosifica la realización de las pruebas, para permitirle al héroe crecer a un ritmo adecuado.

(7) El encuentro con la diosa

En esta subetapa el héroe se encuentra con algo o alguien que se vuelve de suma importancia para él.

En el contexto de las historias heroicas, generalmente esta etapa se presenta cuando el héroe encuentra a alguien a quien amará o que debe defender y proteger.

(8) La tentación

Durante los acontecimientos que se desarrollan, el héroe se ve tentado para desviarse del objetivo principal de la aventura. Esta tentación puede ser cualquier situación, idea o persona que ocasione que el héroe tenga dudas sobre cómo debe proceder o qué camino tomar en su aventura.

(9) La consagración

En la consagración, el héroe realiza un gran esfuerzo y sacrificios para conseguir el final de la aventura, por lo general se ve forzado a confrontar sus mayores temores para salir triunfante. Al igual que la tentación, esta confrontación puede ser una situación, idea o persona.

(10) Apoteosis (o encuentro con los dioses)

En la apoteosis o el encuentro con los dioses, se presenta un acontecimiento en el que algún personaje (usualmente el mentor del héroe) trasciende más allá de su estado físico, presentado directamente a seres supremos.

Por lo general esta parte se representa con la muerte de algún personaje para salvar al héroe o para que pueda descansar en paz después de lograr su propio objetivo.

(11) El don final

El llamado a la aventura por lo general lleva consigo el cumplimiento de una meta u objetivo, en este sentido, el don final representa la culminación del viaje del héroe, ya que es el momento de la historia en que se consigue el objetivo por el cual comenzó todo.

Parte 3. El regreso

(12) La negativa a regresar

Habiendo obtenido el don final, después de las diversas experiencias que el héroe experimentó, por lo general hay un rechazo a regresar a su mundo, que ahora se ve como ordinario. Pero al igual que en el comienzo de la aventura, se desarrollan diversos acontecimientos que lo convences u obligan a regresar.

(13) El vuelo mágico

Una vez que el héroe se resigna y acepta su regreso, en esta etapa se produce un escape épico, ya que regresar no suele ser sencillo. Y por lo general, es uno de los momentos en el que el héroe utiliza todo lo que aprendió durante su viaje así como el don final para poder regresar. Este escape puede ser tan peligroso como el viaje principal del héroe.

(14) El rescate externo

El héroe al regresar suele requerir ayuda para volver a incorporarse al ambiente que dejó atrás, particularmente necesita de alguien externo que le proporcione ayuda u orientación para volver a su vida cotidiana.

(15) El cruce del umbral de retorno

En esta etapa, valiéndose de todo lo que aprendió durante su viaje el héroe intenta adaptarlo a su vida cotidiana, tratando de mejorar su nueva experiencia de vida.

(16) Maestro de dos mundos

Poco a poco el héroe aprende a equilibrar el viejo mundo y el nuevo mundo, experimentando situaciones que anteriormente no hubiera vivido y siendo por lo general un mejor individuo.

(17) Libertad para vivir

Al ser un maestro de sus viejas y nuevas habilidades, el héroe crece y aprende a no temer a la muerte ni a arrepentirse por el pasado.

En este punto, la historia del héroe concluye y se da por terminado su viaje.


Ejemplo del viaje del héroe: Star Wars Episode IV - A New Hope

A continuación se presenta una breve descripción de como se utiliza el viaje del héroe, en la película: “Star Wars Episode IV - A New Hope”. En caso de no conocer la película en los siguientes vídeos se puede ver un resumen al respecto.


“Star Wars, Episodios 4, 5 y 6”, YouTube, subido por Te lo resumo, 14 dic 2015. https://youtu.be/IeGSHwM3bws
“Star Wars (Trilogia Clásica Episodios 4, 5 y 6) : La Historia en 1 Video”, YouTube, subido por El FedeWolf, 7 dic 2019. https://youtu.be/ZrkXeqjHrjI

(1) La llamada de la aventura

Luke Skywalker vive su vida normal como un granjero junto con sus tíos en el planeta Tatooine. De repente Luke es llamado a la aventura por la aparición de R2-D2, C-3PO y el mensaje de ayuda enviado por la princesa Leia dirigido a Obi Wan Kenobi. Obi Wan invita a Luke a ir al planeta Alderaan para iniciar el rescate.

(2) El rechazo de la llamada

Luke rechaza la invitación de Obi Wan, argumentando principalmente que no podría dejar a sus tíos para irse en una aventura espacial.

(3) La ayuda sobrenatural

Durante su charla con Obi Wan, este le habla sobre su herencia Jedi, y le da a Luke el sable de luz de su padre.

(4) El cruce del primer umbral y (5) El estómago de la ballena

Luke descubre que el Imperio está buscando a los androides enviados por la princesa Leia, y regresa a la granja de sus tíos para advertirles del peligro, pero llega tarde y sus tíos habían sido asesinados por el Imperio. Entonces Luke le pide a Obi Wan ir con él y que le enseñe cómo ser un caballero Jedi.

(6) Las pruebas

La primera prueba con la que se encuentra Luke es escapar de Tattoine, y para lograrlo contratan los servicios de Han Solo y Chewbacca para salir del planeta y llegar hasta Alderaan. Dentro de la nave Luke comienza con su (breve y cuestionable) entrenamiento Jedi.

(7) El encuentro con la diosa y (8) La tentación

Luke y compañía logran llegar a Alderaan, o lo que quedó del planeta, ya que fue destruido por la estrella de la muerte, que para su desgracia se encontraba cerca y son capturados. Dentro de la estrella de la muerte descubren que ahí se encuentra capturada la princesa Leia y van a su rescate e intentan huir del lugar. La princesa Leia les presta ayuda a sus salvadores, por eso se considera como el encuentro con la diosa, pero al mismo tiempo se vuelve una distracción (tentación) para algunos miembros de la tripulación.

(9) La consagración y (10) Apoteosis

Dentro de la estrella de la muerte se encuentra Darth Vader (el villano de la película), y para lograr escapar es necesario hacerse cargo de él. Así que Obi Wan es el encargado de realizar esta tarea. En esta etapa, es Obi Wan el que se consagra enfrentando a Darth Vader, cerrando de cierta forma asuntos pendientes, al mismo tiempo es Obi Wan el que trasciende al dejar su forma física y morir.

(11) El don final

El objetivo inicial de la aventura de Luke consiste en rescatar a la Princesa Leia junto con los planos de la estrella de la muerte que ella posee. Esto lo consiguen gracias al sacrificio realizado por Obi Wan, siendo este acto lo que les permite escapar de la estrella de la muerte.

(12) La negativa a regresar

Obtenido el don final, el rescate de Leia y los planos de la estrella de la muerte, Luke decide unirse a los rebeldes para destruir la estrella de muerte y evitar que otros planetas sean destruidos.

(13) El vuelo mágico

Aquí el vuelo mágico es literal, ya que Luke vuela en una nave espacial (X-Wing) para atacar y destruir la estrella de la muerte.

(14) El rescate externo

Durante la misión, Luke y los rebeldes deben enfrentarse a las naves del Imperio y en particular a la nave piloteada por Darth Vader. Dentro del contraataque realizado por el Imperio, Luke está apunto de ser destruido por Darth Vader, pero en el momento justo, Han Solo y Chewbacca lo salvan.

(15) El cruce del umbral de retorno

Valiéndose de la información de los planos (don final) y las habilidades aprendidas durante su aventura, Luke dispara un misil que con la ayuda de la fuerza, logra impactar el punto débil de la estrella de la muerte y con esto logra destruirla, de una vez y para siempre.

(16) Maestro de dos mundos y (17) Libertad para vivir

Después de la destrucción de la estrella de la muerte, Luke y compañía regresan a la base rebelde, donde reciben medallas por sus logros heroicos. Y ahora la galaxia se encuentra en paz - al menos por ahora...


Resumen del viaje del héroe

Existen algunas simplificaciones del viaje del héroe, donde se eliminan o combinan algunas de las subpartes para simplificar la estructura narrativa. Pero sin importar las simplificaciones, el viaje del héroe tiene una estructura subyacente muy bien definida.

Esta estructura puede observarse en la siguiente imagen:

Estructura del viaje del héroe o monomito

El círculo de la historia

Dan Harmon, escribió que:

la narración de historias es algo natural para los seres humanos, pero como vivimos en un mundo antinatural, a veces necesitamos un poco de ayuda para hacer lo que naturalmente haríamos.

El círculo de la historia propone una simplificación al viaje del héroe, utilizando un círculo dividido en 8 partes donde se distribuyen las diversas etapas de la narración.

  1. Un personaje está en su zona de confort.
  2. Pero desea o necesita algo.
  3. Intentando obtener lo que necesita, entra en una situación desconocida.
  4. Busca y se adapta a la nueva situación.
  5. El personaje encuentra y consigue lo que deseaba.
  6. Al conseguir y tomar lo que desea, normalmente paga un precio por ello.
  7. Regresa a una situación familiar.
  8. Al final del viaje el personaje ha cambiado.
Las ocho etapas del círculo de la historia

Como se puede notar, el círculo de la historia remueve muchas de las partes heroicas y sobrenaturales del viaje del héroe, permitiendo utilizar la estructura del círculo de la historia para una variedad de historias, no solo las basadas en héroes.

“La MEJOR ESTRUCTURA para TU HISTORIA: El Círculo de DAN HARMON”, YouTube, subido por Lautaro Cordomi, 28 jul 2021. https://youtu.be/ee6zYNoEhHw
“El círculo de la historia de Dan Harmon - Explicado en Rick y Morty”, YouTube, subido por SCA - Entretenimiento, 9 jul 2020. https://youtu.be/A9huzYqJNrE

Kishōtenketsu

Kishōtenketsu (起承転結) es un término en japonés que describe la estructura y desarrollo de narrativas en la literatura china coreana y japonesa. Originalmente utilizado en la poesía china como una composición de cuatro líneas, pasando por Corea y llegando a Japón donde adquiere su significado actual, como una estructura narrativa desprovista de conflicto, en contraposición a las estructuras narrativas occidentales. Cada uno de los cuatro caracteres que componen el término tiene un significado específico y describen la estructura narrativa:

  • Ki (起): Representa el planteamiento, inicio o introducción. Aquí se presentan los personajes, la situación, el contexto temporal y toda la información necesaria para iniciar la historia.
  • Shō (承): Es el desarrollo, el cual continúa desde la introducción y describe los eventos que llevan al giro de la historia. Aquí se cuenta sobre los personajes y las situaciones en las que se encuentran, proporcionando más detalles para profundizar en la historia.
  • Ten (転): Es el giro, donde se introduce un tema o subtema nuevo o desconocido, siendo un elemento ajeno al mundo presentado con anterioridad y que contrasta con el establecimiento previo. Aquí se presenta el clímax de la historia, siendo la parte más intensa e importante dentro de la narración.
  • Ketsu (結): Representa la conclusión o el desenlace y da por terminada la narración mostrando el resultado del personaje viviendo la nueva situación que le fue presentada e integrando esta nueva experiencia a su cotidianidad.

Similar a la estructura de tres actos, el Kishōtenketsu divide una historia en partes bien determinadas que simplifican la construcción de una historia, aunque en contraposición a una estructura de tres actos aquí la historia se divide en 4 partes principales.

Esta estructura de “cuatro” actos se enfoca en la exposición y el contraste, ya que en el inicio se presentan a los personajes y el contexto de la historia, durante el desarrollo se ofrece la información necesaria para conocer a los personajes y la situación en la que se encuentran; siendo estos dos primeros actos la exposición o al establecimiento de la situación que se quiere contar. Durante el giro se presenta algo que modifica drásticamente lo que se ha establecido en los dos actos anteriores, generando un contraste en la información presentada y planteando una nueva situación que el personaje debe enfrentar. Y por último en la conclusión se da a conocer el resultado de exponer al personaje al giro.

Las cuatro partes del Kishōtenketsu (起承転結).

Algo importante que hay que mencionar es que el Kishōtenketsu se enfoca en cómo un personaje vive, experimenta y reacciona ante alguna situación, sin importar si la conclusión es positiva o negativa. Por lo que en el giro no necesariamente se tiene un problema o conflicto que el personaje deba resolver, sino que simplemente es una situación diferente que experimenta. Esto contrasta con la forma en la que desarrollan las historias con la estructura de tres actos donde, por lo general, el personaje entra al segundo acto al iniciar un conflicto y sale del segundo acto al resolver o enfrentar dicho conflicto. Mientras que bajo la estructura narrativa Kishōtenketsu el giro no necesita ser un conflicto, solo necesita ser algo contrapuesto con lo presentado en el Ki y Shō, siendo por lo general algo que ni el personaje ni el público esperaban.

“Cómo crear la historia de tu manga (en 4 pasos)”, YouTube, subido por Edgardoodles, 6 mar 2024. https://youtu.be/nN33v9k6gx4
“Kishotenketsu, una forma de narrar - De Ozu a Miyazaki”, YouTube, subido por Síncresis, 17 feb 2021. https://youtu.be/8Onb1zjDTHs

Algunas ideas adicionales

Además de la historia y narración de la misma, es bueno conocer algunos conceptos adicionales que se utilizan sobre las estructuras básicas que permiten ayudar a contar una historia de manera más efectiva.


Comedia visual

En la comedia, por lo general, se presenta una situación y se genera un estado de tensión, para luego mostrar de forma súbita algo completamente inesperado. Básicamente, se juega con las expectativas que el público tiene sobre una situación dada, y se revela un desenlace que va en contra de su intuición.

De forma simplificada, la comedia suele ser un contraste entre dos marcos de referencia incompatibles, vinculados de manera inesperada y repentina.


“Una elección difícil | Cartoon-Box 61”, YouTube, subido por Frame Order, 16 nov 2017. https://youtu.be/x5lJ92XXYwI
“The Park - Cyanide & Happiness Shorts”, YouTube, subido por ExplosmEntertainment, 3 abr 2019. https://youtu.be/FY5Iq-yOQ1Q
“Buster Keaton's Impossible Stunts & Gags”, YouTube, subido por CineFacts, 1 feb 2017. https://youtu.be/mf6Lz1cT2Lo
“Chuck Jones - The Evolution of an Artist”, YouTube, subido por Every Frame a Painting, 16 jul 2015. https://youtu.be/kHpXle4NqWI

Usar empatía más que simpatía

La empatía es la capacidad de comprender los sentimientos de otra persona y ponerse en su lugar. La simpatía, por otro lado, es solo contemplar los acontecimientos que le ocurren a la persona, sin comprender profundamente su situación.

Es recomendable crear historias y personajes con los que el público pueda generar empatía, ya que esta conexión emocional permite que la audiencia se relacione directamente con la historia, en lugar de simplemente entender lo que sucede.

Ejemplo de empatía
“Favorite Pixar's Up scene ever - Ellie and Carl's relationship through time, Sad scene”, YouTube, subido por xXJEashXx, 23 mar 2010. https://youtu.be/F2bk_9T482g
Ejemplo de simpatía
“The Simpsons Up Parody”, YouTube, subido por jackgrant75, 21 nov 2011. https://youtu.be/7xsweq2i4js
Capítulo V
Técnicas de previsualización

Como se mencionó previamente, durante la fase de preproducción se crea una previsualización (animatic o story reel) con el objetivo de mostrar la historia haciendo hincapié en los tiempos, acciones, tomas y cambios de cámara que componen las secuencias de una animación.

La previsualización es un proceso de bajo costo que permite tomar decisiones sobre qué tipo de tomas usar durante la producción y ajustar diversas ideas y formas de presentación antes de comenzar la producción.

Existen tres áreas principales de las técnicas de previsualización:

  • Planos cinematográficos
  • Movimiento de cámara
  • Edición

La audiencia solo puede ver lo que se le presenta, por lo que es importante decidir qué información se muestra en cada toma y así evitar que el público se pierda de información relevante para la comprensión de la historia. Algunos aspectos a considerar al presentar información son: la relación de aspecto de las imágenes, los planos cinematográficos utilizados para mostrar la información, las reglas de composición y cómo dirigir la atención del público hacia la información importante.

Relación de aspecto

La relación de aspecto se define como la razón o proporción que existe entre el ancho y el alto de una imagen o pantalla. En la producción de películas y animaciones, es importante establecer las dimensiones de las imágenes que se van a crear, de manera similar a cómo un pintor elige el tamaño de su lienzo para comenzar a crear su obra.

William Kennedy Dickson empleado del laboratorio de Thomas Edison, ideó el concepto de relación de aspecto mientras buscaba el tamaño más adecuado para la película utilizada en el quinetoscopio. Finalmente, se decidió un prototipo de película de 35 mm en el que cada imagen tenía una altura de cuatro perforaciones, lo que resultó en unas dimensiones aproximadas de 2.4cm de ancho por 1.8cm de alto, es decir, en una relación de aspecto de 4:3. Esta proporción se convirtió en el estándar de la industria cinematográfica de su época.

Interior del Quinetoscopio
Fuente: Gaston Tissandier. Illustration of the rear interior of a Kinetoscope machine. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Kinetoscope.jpg

La estandarización del cine sonoro a finales de la década de 1920 provocó el primer cambio en la relación de aspecto, haciendo que la distribución del espacio en la película de 35 mm se modificará por la inclusión de información de sonido directamente en la cinta, lo que redujo el ancho de la imagen. Este cambio ocurrió por la necesidad de sincronizar de manera efectiva el audio con las imágenes, colocando la información sonora en un costado de la película (). Y para evitar el cambio de los proyectores existentes en los cines, se decidió reducir el área final de las imágenes.

Ejemplo de adición de sonido al costado de la película
Fuente: Iainf. Two methods of recording sound onto film. Variable density (left) and Variable width (right). Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Optical-film-soundtrack.svg

Con esta modificación se redujo el ancho de las imágenes, modificando la relación de aspecto a 1.37 : 1, denominada relación académica (Academy ratio), y reemplazando en 1937 el estándar previo de 4 : 3.

En sus comienzos, la televisión adoptó el formato de las películas mudas (con una relación de aspecto de 4 : 3) y, al volverse popular, la industria cinematográfica comenzó a preocuparse ya que la gente prefería ver películas en su hogar.

Así, durante la década de 1950, el cine intentó ofrecer algo novedoso para la audiencia: el formato panorámico. Es así como surge Cinerama (la fusión entre cine y panorama, ), un tipo de proyección que utilizaba tres cámaras de 35mm para proyectar sus imágenes hacia un lente de 27mm sobre una pantalla curva, dando una relación de aspecto de 2.59 : 1.

Ejemplo de una película en Cinerama
Fuente: Scene from the film "This is Cinerama" (public domain) from 3 projectors. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:This_Is_Cinerama_03.jpg

La producción de películas en Cinerama era costosa y complicada, por lo que Paramount Pictures decidió apostar por su propio formato panorámico, realizando pruebas con la película “Shane” de 1953, la cual fue filmada en el formato académico (1.37 : 1), pero se proyectó utilizando una relación de aspecto de 1.66 : 1, lo que requería que la imagen fuera recortada en los extremos superior e inferior y ajustando ligeramente el ancho. En general este método no era ideal ya que al mutilar la imagen se perdía información visual de la película.

La Twentieth Century Fox también creó su propio formato panorámico, el CinemaScope, utilizando inicialmente la proporción 2.60 : 1, pero ajustando y probando con el tiempo las relaciones 2.35 : 1 y 2.39 : 1 (o 12 : 5), siendo esta última utilizada en el cine en la actualidad.

Después de que su formato Cinerama no tuvo éxito, Paramount Pictures decidió cambiar su enfoque de filmación de horizontal a vertical, lo que resultó en imágenes más largas con una relación de aspecto de 1.85 : 1. Este sistema se conoció como VistaVision (), y su relación de aspecto se convirtió en un estándar en la industria cinematográfica.

Formato de imagen en VistaVision
Fuente: Max Smith. A VistaVision 8 perforation film frame. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:VistaVision_8_perf_35_mm_film.png

En la actualidad, las relaciones de aspecto más comunes son:

  • 4 : 3 (o 12 : 9 o 1.33 : 1), que se utiliza en pantallas cuadradas de televisión y iPads.
  • 16 : 9 (o 1.77 : 1), que se utiliza en pantallas y monitores de alta definición.
  • 17 : 9 (o 1.85 : 1), que se utiliza en la mayoría de las películas norteamericanas.
  • 12 : 5 (o 2.39 : 1), que se utiliza para películas de pantalla ancha.

Una sugerencia para elegir la relación de aspecto adecuada es considerar el tipo de contenido que se quiere presentar.

Si el contenido presenta paisajes o acciones que involucran a grandes grupos de personas con la misma importancia, entonces se debe optar por una relación de aspecto más ancha que alta.

Si el contenido presenta elementos más personales o lugares pequeños y cerrados, como una habitación, entonces se debe optar por una relación de aspecto más alta que ancha.

Por supuesto, siempre hay excepciones y es válido cambiar la relación de aspecto durante diferentes escenas de una producción, como se muestra en el siguiente video.

“Proporciones de Imagen: ¿Cuál deberías elegir?”, YouTube, subido por Now You See It, 5 sept 2015. https://youtu.be/R26_F7pecqo

Planos cinematográficos

Los planos cinematográficos son el lenguaje que se utiliza para describir una toma antes de encuadrarla. Esencialmente, son conceptos que permiten definir qué elementos se muestran dentro de una toma o cuánto de esos elementos se presentan, sin tener en cuenta la composición final.

Existen varios planos cinematográficos relacionados con la distancia relativa que existe entre la cámara y el sujeto, ya que al variar está distancia el tamaño final del sujeto en la imagen cambia. Algunos de estos planos son:

  • Gran plano general (extreme wide shot), .
  • Plano general (wide shot), .
  • Plano entero (full shot), .
  • Plano medio (medium shot), .
  • Plano medio corto (medium close-up), .
  • Primer plano (close-up), .
  • Primerísimo primer plano (very close-up), .
  • Plano detalle (extreme close-up), .

A continuación, se presentan algunos ejemplos de estos planos cinematográficos mediante el análisis del cortometraje Spring de Blender Animation Studio (https://blender.studio).


“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Gran plano general (extreme wide shot)

Un gran plano general, también conocido como plano de establecimiento, es un tipo de toma que busca presentar una idea general sobre la ubicación de todos los elementos narrativos, diluyendo los detalles específicos de la acción. Este tipo de plano cinematográfico muestra una vista muy amplia de la escena, incluyendo una gran cantidad de espacio en el encuadre. El sujeto de la escena a menudo aparece como un pequeño elemento en relación con el entorno que lo rodea. Se utiliza al principio de una escena o película para establecer el lugar y el ambiente, o para dar una visión general del paisaje o del entorno en el que se desarrolla la historia. También puede utilizarse para mostrar la relación entre los personajes y el entorno, o para enfatizar la distancia emocional o física entre los personajes.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano general (wide shot)

El plano general es un tipo de toma que muestra al sujeto de la escena en su totalidad, desde la cabeza hasta los pies, y una cantidad significativa del espacio alrededor del sujeto. Se utiliza para establecer la relación espacial entre los personajes y su entorno, así como para mostrar la acción y el movimiento en una escena. Por ejemplo, en una película de acción, un plano general podría ser utilizado para mostrar la lucha entre dos personajes y para dar una idea del entorno en el que se lleva a cabo la lucha. Además, el plano general establece la localización de la escena, dando una idea general del lugar donde se encuentra el sujeto y el ambiente a su alrededor. También se utiliza para dar un toque de dramatismo a la escena, por ejemplo, mostrando a un personaje solo y empequeñecido en un entorno grande y vacío.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano entero (full shot)

El plano entero, también conocido como plano figura, es un tipo de toma que muestra al sujeto completo desde la cabeza hasta los pies, ocupando la mayor parte del encuadre, sin dejar demasiado espacio a su alrededor. Este tipo de plano se utiliza para mostrar al personaje en su totalidad, ofreciendo una idea clara de su apariencia y vestimenta. También es útil para mostrar el movimiento y la acción en una escena, y para establecer la relación espacial entre los personajes y el entorno de la escena. El plano entero puede enfatizar la expresión y el lenguaje corporal de los personajes, y dar una sensación de presencia física en la pantalla.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano medio (medium shot)

El plano medio es un tipo de toma que muestra al personaje desde la cintura o la cadera hacia arriba, permitiendo observar más detalles de su figura. Es especialmente adecuado para conversaciones entre dos individuos, ya que permite mostrar a los dos interlocutores simultáneamente. En este tipo de plano, se enfatiza la interacción entre los personajes, mostrando sus expresiones faciales y lenguaje corporal. También se utiliza para resaltar el movimiento y la acción en una escena, y para establecer la relación espacial entre los personajes y el entorno. Además, el plano medio puede enfatizar los detalles y gestos sutiles del personaje, y contribuir a establecer la atmósfera emocional de la escena.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano medio corto (medium close-up)

Un plano medio corto muestra al sujeto desde los hombros o el pecho hacia arriba, enfatizando principalmente la cabeza y el rostro al dejar poco espacio alrededor del sujeto. Este tipo de plano cinematográfico se utiliza a menudo para mostrar las emociones y expresiones faciales del personaje con más detalle, y para resaltar la importancia de un diálogo o una expresión facial específica. Además, puede utilizarse para destacar ciertos detalles del personaje, como su maquillaje, cicatrices o tatuajes. El plano medio corto también puede crear una mayor conexión emocional entre el personaje y el espectador, así como un mayor sentido de intimidad en la escena, al aislar la figura del sujeto y descontextualizarla de su entorno con el fin de llamar la atención hacia algún aspecto particular del sujeto.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Primer plano (close-up)

El primer plano es un recurso cinematográfico que consiste en enfocar al sujeto en gran detalle, enfatizando su rostro y, en el caso de cuerpos humanos o animales, también parte de los hombros. Este tipo de toma se utiliza frecuentemente para resaltar la importancia de un detalle específico, como una expresión facial, un objeto o una acción. Además, es una técnica efectiva para generar empatía y conexión emocional con el espectador, ya que permite mostrar los ojos del personaje, y así transmitir con mayor detalle la emoción que experimenta y establecer una conexión más directa y emocional con él.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Primerísimo primer plano (very close-up)

Un primerísimo primer plano es un plano cinematográfico que muestra un detalle extremadamente cercano del sujeto, como una parte específica del rostro, ocupando casi todo el encuadre y dejando muy poco espacio alrededor del objeto. En el caso del rostro, este plano suele capturar desde la altura de la frente hasta debajo de la barbilla. Este tipo de plano se utiliza para enfatizar detalles específicos, como los ojos del personaje, una mano sosteniendo un objeto, una gota de sudor en la frente, entre otros. También puede generar una sensación de incomodidad o tensión en el espectador debido al encuadre estrecho y la falta de espacio alrededor del objeto. El primerísimo primer plano se utiliza en gran medida para agregar dramatismo o intensidad a una escena y destacar un objeto o detalle relevante.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano detalle (extreme close-up)

Un plano detalle muestra un objeto extremadamente cerca, ocupando todo el encuadre de la toma. Se utiliza para enfatizar un detalle particular que es importante para el espectador y que no debe perderse; puede mostrar detalles muy específicos de un objeto o parte del cuerpo, como los ojos, una herida, un reloj, un arma, texto, etc. Es especialmente útil para enfatizar elementos que tienen una importancia significativa para la trama o que proporcionan información importante al espectador. Por ejemplo, en una película de suspenso se puede utilizar un plano detalle para mostrar una mano que sostiene un arma, enfatizando el peligro y la tensión en la escena. También se puede utilizar como una herramienta de transición, mostrando un objeto en primer plano que luego se convierte en el objeto principal de la siguiente escena.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Existen varios planos cinematográficos que se basan en el ángulo que se forma entre la cámara y el sujeto, por ejemplo:

  • Plano cenital (zenith shot),
  • Plano picado (high angle),
  • Plano a la altura de los ojos (eye level),
  • Plano contrapicado (low angle),
  • Plano nadir (nadir shot),

Y también hay algunos planos cinematográficos que muestran el supuesto punto de vista del sujeto.

  • Punto de vista (point-of-view, POV),
  • Plano sobre el hombro o con escorzo (over the shoulder shot),
  • Vista aérea (birds eye view),

Plano cenital (zenith shot)

Un plano cenital es un recurso cinematográfico en el que la cámara se sitúa exactamente encima y de forma perpendicular al suelo, capturando una escena desde un ángulo elevado. Este tipo de plano es comúnmente utilizado para mostrar una vista panorámica de un paisaje, una multitud o un evento, con el objetivo de presentar una visión clara y global del conjunto, también puede ser utilizado para transmitir una sensación de poder o autoridad sobre los personajes, como en una escena de interrogatorio donde el uso de un plano cenital muestra la posición elevada de la policía sobre el sospechoso, sugiriendo que tienen el control de la situación.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano picado (high angle)

Un plano picado es un recurso cinematográfico en el que la cámara se ubica en una posición elevada, apuntando hacia abajo para capturar una escena desde un ángulo inclinado. Este plano se utiliza para mostrar la posición de la cámara en relación a los personajes u objetos en la escena, y a menudo se emplea para transmitir una sensación de inferioridad o vulnerabilidad en los personajes. Por ejemplo, si la cámara está ubicada en un punto elevado para filmar a un personaje que está en el suelo, el plano picado puede hacer que el personaje parezca pequeño y vulnerable, lo que sugiere situaciones de peligro o incertidumbre.

También se utiliza para mostrar la perspectiva de un personaje en particular, con la finalidad de crear una sensación de separación o distancia emocional. Si la cámara se encuentra en una posición elevada durante una escena en la que un personaje está siendo rechazado o marginado, el plano picado puede enfatizar la distancia emocional entre ese personaje y los demás.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano a la altura de los ojos o ángulo a nivel (eye level)

Un plano a la altura de los ojos se realiza con la cámara a una altura aproximada a la de los personajes o sujetos en la escena, lo que busca generar una imagen natural para la audiencia.

Este tipo de plano se utiliza con frecuencia en cine y televisión para crear una sensación de realidad y conexión con los personajes. Al estar a la altura de los ojos, el espectador se siente como si estuviera en la misma posición que el personaje, lo que permite una mayor empatía y conexión emocional. Además, el plano a la altura de los ojos se utiliza para mostrar a los personajes de manera equilibrada, evitando una sensación de superioridad o inferioridad, lo cual es especialmente importante en diálogos o interacciones entre personajes. Usar un plano demasiado elevado o demasiado bajo puede influir en la percepción de los personajes y su relación entre ellos. Es importante mencionar que en general, en este tipo de toma, las líneas verticales no convergen en el horizonte.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano contrapicado (low angle)

En contraposición al plano picado, un plano contrapicado se realiza desde una posición baja de la cámara apuntando hacia arriba para capturar al sujeto desde una dirección inclinada también hacia arriba. Se utiliza comúnmente para conferir poder o superioridad al personaje u objeto que se está filmando, ya que el ángulo bajo puede hacer que estos parezcan más grandes y dominantes, creando así una sensación de autoridad, fuerza o intimidación. El plano contrapicado también puede generar admiración o incluso temor, como cuando se utiliza para mostrar a un personaje siendo admirado por otro, donde la posición baja de la cámara puede hacer que el primer personaje parezca más grande y poderoso, intensificando así la admiración del segundo personaje.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Plano nadir (nadir shot)

Un plano nadir es una toma cinematográfica en la que la cámara se sitúa justo debajo del sujeto o escena, apuntando hacia arriba de forma perpendicular al suelo. Usualmente, este tipo de plano se realiza desde una posición en el suelo mirando hacia el cielo, lo que resulta en una perspectiva única y dramática. El objetivo es capturar una vista desde el punto más bajo posible, lo que da la sensación de grandeza y elevación en el objeto o sujeto capturado. El plano nadir se utiliza comúnmente en la cinematografía para dar un efecto dramático a la escena, y también puede utilizarse para mostrar la majestuosidad de un edificio alto o la altura de un árbol gigante. De igual manera, se utiliza en películas de acción y aventura para enfatizar la posición y el poder de un personaje, presentándolos a menudo como grandes y poderosos.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Punto de vista (point-of-view, POV)

El punto de vista es un recurso cinematográfico que presenta una escena desde la perspectiva del personaje, mostrando lo que esté puede observar. Es ampliamente utilizado en los videojuegos de primera persona y en escenas de acción o suspenso para que el espectador sienta la misma tensión y anticipación que el personaje.

“CHARGE - Blender Open Movie”, YouTube, subido por Blender Studio, 15 dic 2022. https://youtu.be/UXqq0ZvbOnk

Plano sobre el hombro o con escorzo (over the shoulder shot)

El plano sobre el hombro es una técnica comúnmente utilizada en cine y televisión para mostrar la interacción entre dos personajes. Se trata de una toma en la que la cámara se coloca detrás de uno de los personajes y mira por encima de su hombro hacia la escena o hacia otro personaje. Este encuadre se utiliza comúnmente en diálogos para enfocar la atención del espectador en la persona que habla, mientras que proporciona una perspectiva visual de la reacción del otro personaje.

Además, el plano sobre el hombro puede crear una sensación de profundidad en la escena cuando se combina con otros planos de diferentes distancias focales.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Vista aérea (birds eye view)

Una vista aérea es una técnica en la que la cámara se sitúa en una posición elevada y lejana al sujeto, mostrando todos los elementos del escenario y simulan la perspectiva que tendría un ave sobrevolando el lugar. En otras palabras, es una toma realizada desde una altura elevada, como un avión, un dron, una grúa o incluso un ave, que ofrece una perspectiva panorámica y completa del sujeto o escena. Este tipo de plano se utiliza para mostrar la extensión o amplitud de una escena o paisaje, así como para resaltar patrones y simetrías en la escena, crear una sensación de distancia y perspectiva, y mostrar el movimiento de personajes u objetos en un espacio determinado. Además, se utiliza en la planificación urbana y la cartografía para estudiar el paisaje y la topografía. La vista aérea también es comúnmente utilizada en documentales y películas de acción.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Reglas básicas de composición visual

La composición es una herramienta utilizada para estructurar los elementos visuales y transmitir un mensaje de forma efectiva. Una composición visual es la forma de encuadrar (rodear algo con un marco) un objeto o grupo de objetos, de tal manera que todos ellos se encuentren colocados en una posición visualmente significativa para el espectador.

La composición visual es una herramienta esencial para la creación de imágenes impactantes y efectivas en la transmisión de mensajes visuales. A través de la composición, se pueden organizar los elementos expositivos y estructurarlos de manera que se logre una armonía visual que capte la atención del espectador, ya que implica la selección cuidadosa de los elementos visuales a incluir en la imagen, así como la disposición de estos elementos dentro del encuadre. Al encuadrar un objeto o grupo de objetos, es importante considerar la posición y la relación entre ellos para crear una imagen visualmente coherente y atractiva.

Razón áurea (golden ratio)

La razón áurea, también conocida como proporción áurea o proporción divina, es una relación matemática que ha sido utilizada desde la antigüedad en el arte y la arquitectura debido a su estética agradable y armoniosa. Esta relación se expresa mediante un número irracional phi ($φ$), siendo aproximadamente 1.6180339887..., valor que se obtiene dividiendo un segmento en dos partes, de tal manera que la razón entre el segmento más grande ($A$) y el más pequeño ($B$) sea igual a la razón entre la suma de ambos ($A + B$) y el segmento más grande ($A$), es decir, $\frac{A}{B} = \frac{(A + B)}{A} = φ$, .

Relación de segmentos para determinar la razón áurea

La razón áurea se encuentra presente en muchos aspectos de la naturaleza, como por ejemplo en la disposición de las hojas en una planta, en algunas proporciones del cuerpo humano y en la estructura de muchas formas geométricas. En la arquitectura y el arte, la razón áurea se ha utilizado para diseñar composiciones visualmente atractivas y armoniosas. Una forma común de utilizar la razón áurea en el diseño es a través del llamado rectángulo áureo.

Rectángulo dorado

El rectángulo dorado o rectángulo áureo es una construcción que inicia con un cuadrado, del cual se marca la mitad para obtener el radio de un círculo que al ser trazado e intersectado con la extensión del lado del cuadrado, se encuentra una prolongación del lado, de tal manera que el lado junto con la prolongación y el lado original del cuadrado, presentan la razón áurea ().

Animación que muestra la construcción de un rectángulo áureo.

En el diseño visual, el rectángulo dorado se utiliza como una guía para definir la posición de los elementos de una composición.

Al colocar los elementos de una imagen en relación con el rectángulo dorado, se puede crear una composición equilibrada y armónica que atraiga la atención del espectador hacia un punto focal determinado. De esta manera, se consigue una imagen agradable y placentera de observar ().

Espiral dorada o espiral áurea dentro de una composición
Fuente: Mabit1. Goldene Spirale im Gemälde Mona Lisa von Leonardo da Vinci. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Mona_Lisa_Goldene_Spirale.png

Regla de los tercios

La regla de los tercios es una técnica muy popular en la composición visual que consiste en dividir mediante rectas el área de una imagen en tercios, tanto vertical como horizontalmente. Los puntos donde se intersectan las líneas corresponden a lugares visualmente atractivos y naturales para colocar los elementos importantes de la imagen, ya que dirigen la atención del espectador hacia ellos ().


Uso de la regla de los tercios en una escena de Sprite Fright para ubicar elementos importantes dentro de la composición.
“Sprite Fright - Blender Open Movie”, YouTube, subido por Blender Studio, 29 oct 2021. https://youtu.be/_cMxraX_5RE

Esta regla se considera una simplificación de la composición utilizando el rectángulo dorado, ya que los puntos de intersección se encuentran muy cerca a los puntos de interés indicados en el rectángulo áureo. Y en la actualidad, muchas aplicaciones fotográficas permiten mostrar estas líneas para tomar fotografías utilizando esta regla.

Head Room

El Head Room es un método de encuadre que se refiere al espacio libre que hay por encima de la cabeza de un sujeto en una imagen. Es importante considerar el head room al componer una imagen para asegurarse de que la cabeza no quede demasiado cerca del borde superior del encuadre, ya que esto puede afectar la percepción y el equilibrio de la imagen.

Si hay demasiado espacio sobre la cabeza del personaje, puede hacer que la imagen parezca desequilibrada o que la cabeza parezca pequeña. Por otro lado, si no hay suficiente espacio sobre la cabeza, puede parecer que la persona está demasiado cerca del borde superior del encuadre y que la imagen está incompleta. La cantidad adecuada de espacio dependerá del sujeto y del propósito de la imagen, por ejemplo, en un retrato formal de una persona, puede ser apropiado incluir un poco más de espacio para crear una imagen más equilibrada, mientras que en una escena con mucho movimiento o acción, puede ser apropiado tener menos espacio para enfatizar el dinamismo de las acciones.

“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Nose Room

El nose room (también conocido como leading room o espacio de dirección) es el espacio libre que hay delante de la cara de un sujeto en un encuadre. En otras palabras, se refiere al espacio libre que hay frente a la dirección hacia la cual el sujeto está mirando en la imagen. Es importante considerar el nose room al componer una imagen, ya que puede afectar la percepción y el equilibrio de la misma. Si no hay suficiente espacio libre, puede hacer que la imagen parezca desequilibrada y que la dirección del movimiento no sea clara. Por otro lado, si hay demasiado espacio libre frente a la dirección hacia la cual el sujeto está mirando, puede hacer que la imagen parezca vacía causando que se desvié la atención de la acción principal.


“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Al igual que con el head room la cantidad de espacio necesario depende del sujeto, la acción y el propósito de la imagen, por ejemplo, en un encuadre donde un personaje mira hacia un objeto o persona en la imagen, es apropiado incluir más espacio para que la dirección del movimiento sea clara y la atención del espectador se dirija hacia el objeto o persona en cuestión.

En cambio, en una imagen en la que el sujeto está inmóvil o no mira hacia ningún objeto en particular, puede ser apropiado incluir menos espacio para crear una imagen más equilibrada. En general, es importante que los personajes tengan suficiente espacio para realizar sus acciones y mostrar adecuadamente sus interacciones en la imagen.


Otras técnicas de composición visual

La composición visual es un proceso creativo cuyo objetivo principal es guiar la atención del espectador hacia los elementos más importantes de una imagen. Además de las técnicas ya mencionadas, se pueden emplear otros recursos para lograr este fin, como el uso de luz y sombras, colores, el encuadre de un objeto dentro de otro, las líneas de la escena y también la profundidad de campo (depth of field).

Dirigir la mirada por medio de luz y sombra

Para dirigir la mirada a través de luz y sombra, es importante crear contraste en la imagen. Esto significa ajustar la diferencia entre las áreas más claras y las más oscuras de la imagen. Por lo general, las áreas más claras tienden a atraer más la atención del espectador que las áreas más oscuras. Iluminar un objeto de manera deliberada es una forma de dirigir la atención del espectador hacia él, ya que los objetos que se encuentran en las sombras tienden a perder protagonismo en la composición.

Esta técnica proviene del manejo de luces en producciones teatrales, donde se utilizan luces y reflectores para resaltar los elementos importantes de la obra y dirigir la atención del público hacia ellos.

Uso deliberado de la luz para dirigir la atención del público.
“Sprite Fright - Blender Open Movie”, YouTube, subido por Blender Studio, 29 oct 2021. https://youtu.be/_cMxraX_5RE

Dirigir la mirada por medio de líneas dentro del escenario

El cerebro humano es capaz de encontrar patrones y formas incluso donde no los hay. En este sentido, naturalmente es posible encontrar y seguir líneas en una composición visual. Las líneas son elementos muy útiles ya que pueden crear un efecto de profundidad y perspectiva en la imagen, así como guiar la mirada del espectador hacia el punto focal o de interés, permitiendo dirigir la mirada del espectador hacia regiones donde se desarrollan las acciones importantes.

Este recurso se puede observar en pinturas donde las líneas de perspectiva sutilmente indican la dirección hacia donde el espectador debe dirigir su atención. Es importante recordar que las líneas deben ser utilizadas de manera sutil y no demasiado evidente, ya que si se utilizan líneas demasiado obvias o fuertes pueden distraer al espectador en lugar de guiarlo hacia el punto focal. Las líneas debe estar integradas con el resto de los elementos visuales de la composición para que mantengan la inmersión en la composición

Líneas ocultas para dirigir la atención.
“Sprite Fright - Blender Open Movie”, YouTube, subido por Blender Studio, 29 oct 2021. https://youtu.be/_cMxraX_5RE

Dirigir la mirada mediante el encuadre dentro de la misma toma

El encuadre es la forma en que el fotógrafo o el cineasta decide qué elementos incluir y excluir en la imagen, y cómo organizarlos dentro del área de la imagen que se compone. Dentro de una toma es posible utilizar rectángulos sutiles, a veces ocultos, para enmarcar partes importantes y resaltarlas dentro de la misma composición.

Por ejemplo, se pueden utilizar marcos de ventanas, espejos o puertas para cubrir (encuadrar) y resaltar localmente los elementos de interés, con esto es posible insinuarle al público cuales son los elementos de interés dentro de la composición, logrando así dirigir la mirada del espectador hacia las regiones de la composición que presentan información importante.

Encuadre dentro de otro encuadre.
“CHARGE - Blender Open Movie”, YouTube, subido por Blender Studio, 15 dic 2022. https://youtu.be/UXqq0ZvbOnk

Dirigir la mirada a través de la profundidad de campo (depth of field)

La profundidad de campo (depth of field, DOF), se refiere a la zona de la imagen que aparece nítida y en foco. En otras palabras, es la distancia a la que se encuentra el sujeto enfocado, el cual aparece con nitidez en una toma. Este efecto surge gracias al uso de lentes en cámaras fotográficas, que permiten enfocar elementos a distancias determinadas mediante la modificación de la distancia focal de los propios lentes.

La técnica es efectiva para dirigir la atención, ya que permite una clara separación entre el fondo y el sujeto (o región de interés). En este sentido, por lo general el fondo aparece desenfocado y borroso, indicando claramente que las áreas nítidas son donde ocurre la acción relevante en una toma. Además, gracias a este efecto es posible cambiar la atención entre el fondo y sujeto de forma dinámica, cambiando sutilmente los elementos importantes dentro de la composición.

En la imagen superior se muestra el enfoque a la planta congelada que se encuentra en el primer plano, y en la imagen inferior se muestra el personaje del fondo enfocado. Al utilizar la profundidad de campo se puede cambiar el punto de atención.
“Spring - Blender Open Movie”, YouTube, subido por Blender Studio, 4 abr 2019. https://youtu.be/WhWc3b3KhnY

Movimientos de cámara

En la vida real, una cámara tiene ciertas limitaciones físicas en su manejo y operación, como su posición, distancia y movimientos durante una toma. En cambio, una cámara en el mundo de la graficación o animación por computadora no tiene restricciones físicas innatas, lo que la convierte en una ventaja para la realización de tomas complicadas o costosas, como aquellas que involucran acción riesgosa. Sin embargo, esta libertad también puede ser un problema, ya que si los movimientos de cámara no se realizan correctamente, pueden parecer antinaturales y generar aversión en el público. Por lo tanto, es necesario restringir ligeramente la libertad de una cámara virtual para que se comporte de manera similar a una cámara real.

En el cine, se utilizan diferentes movimientos de cámara para filmar una escena con el fin de crear efectos visuales, emocionales y narrativos. Es útil conocer los movimientos para utilizarlos en cámaras para animación por computadora, siendo los más comunes:

  • Roll,
  • Paneo (panning),
  • Tilt,
  • Dolly,
  • Pedestal,
  • Pista (Track),
  • Zoom,
  • Movimiento manual,
  • Rack focus,

Roll

El movimiento de cámara Roll se refiere a la rotación de la cámara alrededor de su eje longitudinal, es decir, consiste en girar la cámara sobre el eje que se forma entre la lente y el sujeto, lo que provoca que la cámara gire sobre sí misma en sentido horario o antihorario.

Este movimiento se utiliza comúnmente para crear una sensación de desorientación o confusión en el espectador, o para establecer una transición entre dos escenas.

Ejemplo de movimiento de cámara en roll.
Modelo 3D de la cámara obtenido de: https://sketchfab.com y la animación fue creada en Blender.

Paneo (panning)

El movimiento de cámara Paneo o Panning se refiere al movimiento horizontal de la cámara sobre su eje vertical, y consiste en rotar la cámara de un lado a otro por medio de un movimiento horizontal, manteniendo su posición en el eje horizontal.

Este movimiento se utiliza comúnmente para seguir a un personaje u objeto en movimiento, o para mostrar un paisaje amplio o panorámico.

Ejemplo de movimiento de cámara en paneo.
Modelo 3D de la cámara obtenido de: https://sketchfab.com y la animación fue creada en Blender.

Tilt

El movimiento de cámara Tilt se refiere al movimiento vertical de la cámara sobre su eje horizontal, y consiste en que la cámara se mueve hacia arriba o hacia abajo, manteniendo su posición en el eje vertical.

Este movimiento se utiliza comúnmente para mostrar la altura o profundidad de una escena, o para seguir a un objeto que realiza un movimiento vertical, como un personaje que salta o un objeto que cae.

Ejemplo de movimiento de cámara en tilt.
Modelo 3D de la cámara obtenido de: https://sketchfab.com y la animación fue creada en Blender.

Dolly

El movimiento de cámara dolly se refiere al movimiento físico de la cámara hacia adelante o hacia atrás, acercándose o alejándose respecto al sujeto, a menudo este movimiento se realiza sobre un carril para controlar y restringir el movimiento.

Por lo general, este tipo de movimiento de cámara se utiliza para seguir a un personaje que se desplaza por el escenario, con la finalidad de crear una sensación de avance o retroceso en la acción o para destacar un objeto en particular.

Ejemplo de movimiento de cámara en dolly.
Modelo 3D de la cámara obtenido de: https://sketchfab.com y la animación fue creada en Blender.

Pedestal

El movimiento de cámara pedestal se refiere al movimiento físico de la cámara hacia arriba o hacia abajo, a menudo con la ayuda de un pedestal o grúa. Se utiliza para mostrar la altura de una escena, o para enfatizar un objeto en particular en la toma mediante un recorrido vertical que sigue su altura.

Ejemplo de movimiento de cámara en pedestal.
Modelo 3D de la cámara obtenido de: https://sketchfab.com y la animación fue creada en Blender.

Pista (Track)

El movimiento de cámara pista o track se refiere al movimiento físico de la cámara a lo largo de un carril o pista fija, con la cámara observando la escena de manera lateral respecto a la pista.

Este movimiento se utiliza a menudo para seguir a un personaje o para capturar una escena en movimiento, y puede realizarse en el suelo o en el aire.

Ejemplo de movimiento de cámara en pista.
Modelo 3D de la cámara obtenido de: https://sketchfab.com y la animación fue creada en Blender.

Zoom

El Zoom se refiere al ajuste del enfoque de la cámara para acercar o alejar la imagen sin cambiar la posición física de la cámara. Esto se logra mediante la variación de la longitud focal del lente, lo que permite que el objeto parezca más grande o más pequeño en la toma.

El movimiento se utiliza a menudo para destacar un objeto o detalle específico en la toma, o para cambiar el enfoque de atención del espectador. Sin embargo, el uso excesivo del zoom puede generar distorsión o pérdida de calidad en la imagen, y en algunas ocasiones puede desorientar al público.

Movimiento manual

El movimiento manual implica mover la cámara de manera libre en cualquier dirección, sin la ayuda de equipo especializado. Se utiliza en películas de acción y terror para sumergir al público en los eventos, presentándolos de forma más natural y similar a lo que se vería en la realidad. Este tipo de movimiento puede incluir paneos, tilts y dollies, pero realizados con la cámara sostenida a mano en lugar de montada en un trípode u otro soporte. Sin embargo, es importante no abusar de este tipo de movimientos ya que pueden desorientar y cansar al público.

Rack focus

El rack focus, también conocido como roll focus, se refiere al cambio intencional del enfoque de la cámara durante una toma para desplazar la atención del espectador de un objeto (o personaje) a otro. Esta técnica se basa en la manipulación de la profundidad de campo y se utiliza a menudo en películas y series de televisión para crear un efecto dramático y destacar elementos importantes de la escena.

Ejemplo de rack focus.
Modelos 3D de los gatos obtenido de https://sketchfab.com y renderizados con Blender.

La regla de 180 grados

La regla de los 180 grados es una técnica fundamental en el cine para mantener la coherencia espacial durante la filmación de escenas. Indica que la cámara debe situarse siempre en un lado de un eje imaginario que atraviesa a los personajes, conocido como línea de acción.

Esta regla asegura que los personajes no cambien de posición relativa de forma arbitraria, manteniendo un ángulo de filmación de 180 grados, ya que sí la cámara cambia de lado de la línea de acción, los personajes parecerán invertidos, lo que puede confundir al espectador y dificultar el seguimiento de la narrativa.

“5 Tips for Nailing the 180° Degree Rule!”, YouTube, subido por The Film Look, 2 dic 2018. https://youtu.be/Fs24DBoT-C8

Edición - Cortes y transiciones

Durante la etapa de edición, se produce la unión de todos los elementos que se han creado durante la producción, dando como resultado el producto final. En esta fase, se lleva a cabo la integración de todas las secuencias y tomas por medio de cortes y transiciones que permiten enlazar lógicamente los diferentes acontecimientos de la producción.

Un corte se define como un cambio, usualmente abrupto, en las imágenes que sirve para crear una progresión entre las distintas tomas y secuencias de una producción. Existen varios tipos de cortes que se pueden utilizar, entre los cuales se incluyen:

  • Corte sobre la acción (cutting on action),
  • Corte con inserto (cut away),
  • Montaje cruzado o en paralelo (cross cut),
  • Jump cut,
  • Continuidad cinematográfica (match cut),
  • Smash cut,
  • Fundido (dissolve),
  • Fundido de entrada (fade in/fade out),
  • Transición Iris,
  • Corte invisible (invisible cut),
  • L-Cut,
  • J-Cut,

Corte sobre la acción (cutting on action)

Un corte sobre la acción se produce cuando se cambia de plano durante una misma acción. Esta técnica de edición implica cortar en un punto en el que la acción está en movimiento, pero sin interrumpirla. De esta manera, se pueden capturar diferentes perspectivas de la misma acción utilizando diversas cámaras, lo que resulta útil para enfatizar diferentes elementos de la misma.

Por ejemplo, si un personaje está corriendo y se corta la acción en un momento específico, el siguiente plano mostrará al mismo personaje corriendo desde un ángulo diferente, lo que crea una sensación de continuidad y fluidez en la acción. El punto clave es que la acción se presenta de forma continua y sólo cambia el punto de vista desde donde se muestra.

“Ejemplo Cutting On Action”, YouTube, subido por àlex senent, 23 nov 2020. https://youtu.be/HFrQfRfT7RA

Corte con inserto (cut away)

En el cine, la televisión y otras formas de medios audiovisuales, se utiliza la técnica de corte con inserto para enfatizar la acción principal de una escena. Este corte consiste en interrumpir temporalmente la acción principal insertando otras tomas o escenas relacionadas con ella, sin detener por completo la escena principal. Por lo general, las tomas complementarias no ocurren en el mismo escenario que la acción principal y se utilizan para proporcionar contexto adicional o destacar elementos importantes de la historia.

El corte con inserto implica cambiar a un plano que no está directamente relacionado con la acción principal de la escena. Por ejemplo, en una escena de una conversación, se puede cortar a un plano del reloj para mostrar el paso del tiempo o a un plano de un objeto para enfatizar su importancia en la historia.

“Cutaway Shot”, YouTube, subido por Mark Rounds, 16 abr 2014. https://youtu.be/0Hqa34dZp-E

Montaje cruzado o en paralelo (cross cut)

El montaje cruzado o en paralelo es una técnica de edición en la que se muestran dos o más acciones que ocurren simultáneamente, por lo general en lugares diferentes, con el objetivo de presentar de manera consecutiva estas acciones que suceden al mismo tiempo. El montaje cruzado tiene como finalidad unir estas diferentes acciones para que el espectador pueda percibir una secuencia coherente de eventos simultáneos.

Esta técnica se utiliza para aumentar la tensión y la emoción en la narrativa, especialmente en escenas de acción o suspenso. Por ejemplo, si un personaje está en peligro y otro personaje está intentando salvarlo, se pueden mostrar ambas acciones en paralelo para aumentar la tensión y crear una sensación de urgencia. Al utilizar el montaje cruzado, se logra que las diferentes tomas parezcan ocurrir simultáneamente, aunque en realidad se hayan filmado por separado y en diferentes lugares.

“Cross cut example”, YouTube, subido por Tammie Patman, 28 nov 2016. https://youtu.be/W8nSjoxEP8E

Jump cut

Un Jump cut es un tipo de corte que implica saltar abruptamente de un plano a otro sin una transición suave. Durante un jump cut, se utilizan dos o más secuencias de tomas sobre el mismo sujeto, mostrando una acción desde diferentes puntos de vista. Generalmente, las tomas son realizadas con posiciones de cámara ligeramente diferentes, y la acción principal suele cortarse brevemente.

Este tipo de corte, en comparación al corte sobre la acción, permite interrumpir la acción que se está presentando de tal manera que no se muestra de forma continua, aunque se mantiene la coherencia de la acción que se quiere presentar. Esto es útil para economizar el tiempo requerido para mostrar una acción sin perder la coherencia en la presentación. Además, este efecto puede ser utilizado para crear un efecto disonante o para mostrar la falta de coherencia o continuidad en una escena.

“Jump Cut Example”, YouTube, subido por Shawn Gilgore, 28 feb 2017. https://youtu.be/SfyN_bG-H9c

Continuidad cinematográfica (match cut)

La técnica de continuidad cinematográfica, también conocida como match cut, consiste en cortar de una escena a otra que tiene una relación visual o temática. Esta técnica utiliza tomas diferentes para empatar o relacionar la acción de una escena con la siguiente a través de elementos gráficos, de continuación en el movimiento o con sonido.

Los cortes de este tipo permiten unir secuencias y tomas con acciones o eventos desconectados, evitando cortes abruptos entre las escenas. Por ejemplo, al pasar de una escena en la que una persona cierra una puerta a otra en la que una persona diferente abre una puerta distinta, se puede utilizar esta técnica para unir las escenas o resaltar un tema o simbolismo.

“Match Cuts”, YouTube, subido por 72HORAS RIO, 1 nov 2017. https://youtu.be/BPumZgU_-p4

Smash cut

La transición smash cut presenta de manera abrupta una toma que reemplaza sin una transición suave la toma anterior. Este tipo de transición se utiliza para enfatizar alguna acción particular y ligar las escenas de tal manera que el corte, aunque súbito, no genere desconcierto en el espectador.

A diferencia de la continuidad cinematográfica (o match cut), la transición de una toma a la siguiente suele ser más cruda y menos elaborada, y a menudo se utiliza para crear un efecto sorpresa o para enfatizar un momento dramático. Por ejemplo, si una escena establece una atmósfera pacífica y tranquila, se puede utilizar un smash cut para mostrar repentinamente una escena de acción intensa.

“WHAT IS A SMASH CUT? | 48Hours Film Festival”, YouTube, subido por Tama-toa-muka, 20 mar 2018. https://youtu.be/J9ZMvxc962U

Fundido (dissolve)

El fundido o disolución consiste en reducir gradualmente dos tomas diferentes, mezclando las imágenes en una sola, lo que permite encadenar diferentes secuencias simplemente pasando suavemente de una a otra. En otras palabras, esta técnica implica superponer gradualmente dos planos para crear una transición suave entre ellos.

Esta técnica suele utilizarse para mostrar cómo cambia algún escenario o personaje con el paso del tiempo. Al igual que el match cut, la transición de fundido permite unir secuencias y tomas desconectadas de forma suave y gradual.

“Dissolve examples”, YouTube, subido por Tammie Patman, 28 nov 2016. https://youtu.be/3Lg-JZzWQuc

Fundido a negro (fade in/fade out)

El fundido a negro es una técnica cinematográfica que consiste en desvanecer gradualmente un plano desde la oscuridad al inicio de una escena (fade in) o hacia la oscuridad al final de una escena (fade out), pasando de las imágenes nítidas a un color negro o viceversa. Esta técnica es similar al fundido (dissolve), pero en lugar de pasar directamente a la siguiente secuencia, primero se muestra un color sólido antes de presentar la siguiente toma. El fundido a negro puede ser utilizado para establecer la atmósfera o indicar el paso del tiempo en la narrativa.

Esta transición sencilla permite suavizar los cambios abruptos entre escenas con diferentes locaciones o acciones. Al igual que con el fundido o disolución, el fundido a negro puede ayudar a encadenar diferentes secuencias simplemente pasando suavemente de una a otra. Esta técnica de transición también es una manera efectiva de cerrar una escena y preparar al espectador para la siguiente.

“fades and dissolves.wmv”, YouTube, subido por Debbi Richard, 8 dic 2009. https://youtu.be/rpuwCrplaC0

Transición iris

Una transición iris es una técnica en la que se muestra una figura (usualmente un círculo) que se va abriendo para mostrar la siguiente escena o se va cerrando para ocultar la escena actual. Esta técnica implica desvanecer gradualmente un plano hacia un círculo negro, creando una transición suave entre los planos.

Esta transición simula el efecto del obturador de una cámara al cerrarse o abrirse. Se utiliza para concluir o iniciar una escena dirigiendo la atención del espectador hacia algún elemento importante para la narración.

Hay que considerar que la figura puede tener cualquier forma, no solamente un círculo. Incluso puede ser un elemento que ya se encuentra en la escena y desde el cual se genera la transición.

“iris shot”, YouTube, subido por briizzo, 29 abr 2015. https://youtu.be/Kz-tPpzMhMw

Transición de cortina (wipe)

La transición de cortina consiste en reemplazar una toma o secuencia haciendo un barrido a través del cuadro de la composición. Con el barrido se intenta dirigir la atención del espectador hacia una dirección específica con el objetivo de ayudar a identificar los elementos importantes de la siguiente escena. Es posible realizar el barrido en varias direcciones o formas, no solamente en una única dirección. Lo importante de esta transición es que se produce una superposición de la escena actual con la siguiente, donde ambas escenas se complementan. Por ejemplo, una transición de cortina vertical podría mostrar una escena que se desvanece gradualmente hacia arriba, mientras que la siguiente escena aparece gradualmente a medida que se desliza hacia abajo. Esta transición puede tener un efecto dramático, ya que puede simbolizar un cambio de tiempo, lugar o tema en la narrativa.

“Every Wipe Transition in Star Wars Ep. IV - A New Hope”, YouTube, subido por Take Me To Your Cinema, 20 dic 2015. https://youtu.be/cGqAu9gj_F0

Corte invisible (invisible cut)

El corte invisible es una técnica en la que dos escenas se combinan para crear una apariencia de continuidad visual sin utilizar una transición aparente. Su objetivo es pasar desapercibido por el público y encadenar diferentes tomas para dar la sensación de continuidad en las acciones presentadas. Este tipo de corte no detiene ni interrumpe la narrativa, y aunque se cambie de ambientes o escenarios, se presenta un conjunto de acciones de forma ininterrumpida, dando la sensación de que ocurren en un mismo ambiente. Normalmente, este corte se logra utilizando una misma cámara para tomar todas las acciones de forma ininterrumpida.

Aunque se utiliza para hacer que un movimiento fluya sin interrupciones, el corte invisible difiere del corte en acción porque se pueden utilizar escenas que tienen una posición diferente en el espacio, el tiempo o incluso una diferencia de cámara. El objetivo es hacer que la edición parezca natural y fluida, como si no tuviera cortes en absoluto.

“invisible cutting example”, YouTube, subido por Mehmet Duru, 18 feb 2018. https://youtu.be/MrUY642j4bs

Corte J (J-Cut) y corte L (L-Cut)

Estos cortes se relacionan principalmente con el audio y toman su nombre de los marcadores utilizados en los programas de edición de video para determinar si el audio sigue de la escena actual a la siguiente, o si se usa el audio de la siguiente escena durante la escena actual.

Un corte J implica superponer el audio de la siguiente escena al final de la escena anterior, es decir, es una transición de audio en la que los sonidos de la siguiente toma comienzan antes y se sobrepone a la toma actual. En contraste, un corte L implica superponer el audio de una escena al inicio o al final de la siguiente escena, creando una transición suave entre ambas, es decir, es una transición de audio en la que el sonido de la toma anterior continúa en la siguiente toma. Este tipo de cortes se utilizan comúnmente en conversaciones alternando los personajes involucrados durante el diálogo para mostrar a los interlocutores.

“SFX Secrets: The J Cut & The L Cut”, YouTube, subido por Fandor, 8 feb 2018. https://youtu.be/eyH-a964kAs
Capítulo VI
Imagen y teoría del color

Imagen

Recordando la jerarquía de cuatro niveles del desarrollo de una animación que se presentó con anterioridad ().


Nivel jerárquico del desarrollo de una animación.

En el nivel más bajo se encuentra un cuadro o fotograma de la animación, que corresponde simplemente a una imagen. Comúnmente en una computadora, una imagen se almacena y representa mediante un conjunto de píxeles, aunque existen otros tipos de mecanismos para almacenar imágenes. La representación más común y la que se utiliza para dibujar en una pantalla es a través de un arreglo de píxeles.

¿Qué es un píxel?

La palabra píxel proviene del acrónimo en inglés picture element, que significa elemento de imagen. Un píxel es el componente más pequeño que se puede representar en una imagen digital o en una pantalla. Los píxeles físicos en una pantalla pueden tener diferentes formas, como pequeños rectángulos o círculos que cubren toda la superficie ().

Algunas formas utilizadas en píxeles físicos de diferentes tipos de pantallas.
Fuente: Pengo. Pixel geometries. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Pixel_geometry_01_Pengo.jpg

Resolución de la pantalla

Debido a que los píxeles se han estandarizado y hay una gran cantidad de dispositivos con pantalla, es posible hablar de la resolución o número de píxeles en una pantalla.

La resolución corresponde al número máximo de píxeles que una pantalla puede mostrar, es decir, el número de píxeles físicos que la componen. Es normal escuchar hablar de resoluciones como 720 o 1080, o actualmente 4K u 8K, ¿pero qué significan estos números?

Los números de una resolución indican la cantidad de píxeles que se encuentran verticalmente, por ejemplo una resolución de 480, significa que la pantalla cuenta con 480 píxeles en la vertical o 480 píxeles de alto.

Las resoluciones de pantalla más comunes en la actualidad son:

  • 480 con 720×480 píxeles.
  • 720 con 1280×720 píxeles, también conocida como HD.
  • 1080 con 1920×1080 píxeles, también conocida como FullHD.
  • 4K con 3840×2160 para las pantallas y 4096×2160 para las imágenes del cine, también llamada UHD.
  • 8K con 7680×4320 píxeles.

Densidad de los píxeles en la pantalla

Además de la resolución, es importante considerar la densidad de píxeles en la pantalla, que se refiere al número de píxeles por unidad de área, generalmente medida en pulgadas. La densidad de píxeles afecta la apariencia de la imagen y es especialmente relevante en pantallas de diferentes tamaños.

Por ejemplo, una pantalla FullHD (1920×1080) con un tamaño de 32 pulgadas tendrá píxeles más pequeños y densamente distribuidos que una pantalla FullHD de 65 pulgadas, aunque ambas tengan la misma resolución de 1080 píxeles en vertical.

¿Y porqué es importante para la animación?

La resolución es un factor clave en la producción de animaciones, ya que el medio final es una secuencia de imágenes que se compilan en un archivo de video. La resolución determina el tamaño de las imágenes generadas y afecta el detalle de la animación. Una resolución mayor permite un mayor nivel de detalle, pero también aumenta el tiempo necesario para calcular cada uno de los píxeles en la imagen, lo que puede repercutir en el tiempo total de producción. Por lo tanto, la elección de la resolución debe equilibrar la calidad deseada con la eficiencia en la producción.

Tipos de imágenes

Hay dos formas comunes de almacenar imágenes en una computadora: mapas de bits (o imágenes raster) e imágenes vectoriales.

Imágenes de mapas de bits

Un mapa de bits (o imagen raster) es una estructura de datos en forma de matriz que almacena los píxeles que representan la imagen (). Estas imágenes almacenan información como valores numéricos discretos en posiciones fijas dentro de la matriz. De cierta forma, estas imágenes reflejan la manera en que los píxeles físicos están ubicados en una pantalla, y se puede hablar también de la resolución de una imagen.

Los mapas de bits se utilizan ampliamente para almacenar fotografías y gráficos que contienen gran cantidad de detalle. Y son eficientes para visualizarse en una pantalla, debido a la especialización del hardware gráfico. La principal desventaja de los mapas de bits es que se necesitan resoluciones altas para mostrar elementos con mayor calidad visual, de lo contrario, pueden aparecer artefactos o defectos visuales.

LucasVB. A TV in Pixel Art - Isometric version. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Pixelart-tv-iso.svg

Imágenes vectoriales

Una imagen vectorial es una imagen cuya representación interna está dada por descripciones basadas en constructores geométricos, como puntos, líneas y curvas. Estos constructores definen los elementos que componen la imagen y, al ser descripciones matemáticas, son independientes de la resolución de la pantalla donde se muestran.

Ghostscript authors. Tiger from the Ghostscript examples. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Ghostscript_Tiger.svg

Las imágenes vectoriales permiten mostrar una gran calidad visual y adaptarse a diversas resoluciones de pantalla, lo que las hace versátiles al momento de crear representaciones visuales que puedan utilizarse en dispositivos de diferentes tamaños.

La desventaja de las imágenes vectoriales es que son más costosas de dibujar, ya que la descripción matemática que las define debe ser interpretada para determinar qué píxeles deben dibujarse en la pantalla, y entre más objetos tenga la imagen vectorial, más tiempo tardará en dibujarse.

¿Qué tipo de imagen usar?

En general, el tipo de imagen que se debe utilizar dependerá del uso y del medio de presentación.

Si se desea utilizar imágenes en diversos dispositivos, como en páginas web, aplicaciones o videojuegos 2D, hay una tendencia creciente en el uso de imágenes vectoriales (con un estilo de diseño plano o flat design), ya que permiten crear gráficos de alta calidad que se adaptan a diversas resoluciones y densidades de pantalla, lo que hace que su creación sea más económica y eficiente.

Por otro lado, para videos, fotografías y texturas de modelos 3D, se utilizan de mapa de bits, ya que permiten almacenar una gran cantidad de información y se aproximan más a la forma en que funciona el hardware gráfico, lo que las hace más eficientes en su uso y visualización.


Pixel Art

Haciendo un pequeño paréntesis, dentro de la categoría de imágenes de mapas de bits, se encuentra el pixel art, una forma de arte digital que se centra en representar información gráfica utilizando la mínima cantidad de píxeles y colores. En otras palabras, es una técnica de creación de imágenes digitales que utiliza píxeles individuales y una paleta específica para recrear una estética retro que evoca los videojuegos y la tecnología de los años 80 y 90.

Este estilo tiene sus orígenes en los videojuegos clásicos, donde la baja resolución de los sistemas obligaba a los creadores a utilizar la cantidad justa de memoria necesaria para representar los elementos gráficos del juego, intentando construir personajes y mundos visualmente atractivos.

En la actualidad, el pixel art va más allá de la simple creación de gráficos de juegos y se ha convertido en un medio de expresión creativa por derecho propio. Esta técnica se utiliza en videojuegos, animaciones, diseño de personajes, arte digital y otros medios.

Aunque la tecnología ha avanzado considerablemente y es posible crear imágenes de alta resolución, el pixel art sigue siendo popular debido a que ofrece una estética distintiva y retro, lo que permite crear imágenes con un estilo artístico único. Además, el pixel art es importante porque permite a los artistas trabajar con restricciones creativas, como una paleta de colores limitada y un número reducido de píxeles para representar la información visual, por lo que fomenta la creatividad en los artistas, principalmente para encontrar formas de transmitir información visual utilizando una cantidad limitada de elementos.


“Rick and Morty 8-Bit Intro | Adult Swim”, YouTube, subido por Adult Swim, 11 ene 2017. https://youtu.be/uqn0UGAt6oc
“Super Dino Boys 1 to 4 (COMPLETE) (created by Paul Robertson)”, YouTube, subido por SuperSZ, 7 may 2015. https://youtu.be/x3vr6u9yjJY

Este estilo puede resultar en un arte más simple pero si se hace bien también suele ser más efectivo, ya que puede ser fácilmente reconocido y apreciado por los espectadores.

Cómo se almacenan las imágenes de mapas de bits

Recordando un poco lo presentado en la sección “¿Cómo se percibe una imagen?”, se sabe que los ojos humanos cuentan con dos tipos de células fotorreceptoras: los conos y los bastones. Los primeros son los encargados de la percepción del color y existen tres tipos de ellos, cada uno especializado en percibir una longitud de onda particular, con los que se pueden diferenciar los colores rojo, verde y azul. No es casualidad que las pantallas utilicen estos tres colores como los componentes primarios para representar todos los demás colores.


Canales de color

Por lo general, la representación de un color en un píxel se divide en sus componentes principales, es decir, la cantidad de rojo, verde o azul que lo conforman. A cada una de estas cantidades se les conoce como canales de color, lo que significa que hay un canal rojo, uno verde y uno azul para cada píxel de una imagen. Además de la información de color, también se suele tener la transparencia u opacidad de un píxel en un canal conocido como el canal alfa.


Profundidad de color (color depth o bit depth)

La cantidad de bits que se utilizan para representar los canales de color de una imagen se conoce como la profundidad de color de la imagen. Esto es importante ya que determina el número total de colores diferentes que una imagen puede representar y almacenar.

Es común escuchar hablar de gráficos de 8 bits, 16 bits o 24 bits, esto significa que para almacenar la información de color de un píxel se utiliza el número de bits indicado, distribuidos entre sus diferentes canales de color. Por ejemplo, para una imagen de 32 bits con transparencia, se tienen tres componentes de color junto con el canal alfa, cada uno de ellos con 8 bits para almacenar su información, lo que da un total de 4 canales × 8 bits = 32 bits.


Teoría del color

La teoría del color es un conjunto de principios y directrices que explican cómo los colores interactúan entre sí y cómo son percibidos por el ojo humano, es esencial en campos como el arte, el diseño gráfico, la moda, la publicidad y la decoración de interiores, ya que ayuda a los profesionales a crear combinaciones de colores efectivas y atractivas. Para hablar de estas reglas, se considera la forma en la que se representan o almacenan los colores, existiendo diversos modelos para hacerlo.


Modelo RYB

El modelo tradicional de color también conocido como modelo RYB (Red, Yellow, Blue, ), se utiliza en el arte y la pintura. Este modelo se basa en tres colores primarios: rojo, amarillo y azul; y es un modelo sustractivo basado en pigmentos. Se ha utilizado ampliamente en la educación artística elemental y en las artes plásticas, como la pintura. Según este modelo, todos los colores se pueden crear mezclando los tres colores primarios de pigmentos. Por ejemplo, la mezcla de rojo y amarillo crea naranja, la mezcla de rojo y azul crea morado y la mezcla de amarillo y azul crea verde, los colores secundarios (naranja, morado y verde) se encuentran entre los colores primarios en el círculo cromático.

Modelo de color RYB

El modelo RYB se basa en la absorción de la luz en lugar de su emisión, es decir, es un modelo sustractivo, donde los pigmentos de color se mezclan físicamente en la superficie de un soporte, como el papel o la tela, y los colores resultantes que se perciben son los que se reflejan del material hacia los ojos. Este modelo presenta algunas limitaciones en los colores que puede representar, ya que por ejemplo, no puede reproducir con precisión algunos colores, como el magenta y el cian, que se utilizan por lo general en la impresión en cuatro colores.

A pesar de sus limitaciones, el modelo RYB sigue siendo importante en la educación artística y en la práctica de la pintura, ya que permite a los artistas crear una amplia gama de colores utilizando una paleta limitada de pigmentos.

Modelo CMYK

El modelo CMYK (Cyan, Magent, Yellow, Key, ) también es un modelo de colores sustractivo que se utiliza principalmente en la impresión de medios como revistas, periódicos, folletos y carteles. Una hoja blanca se percibe de este color ya que todas las longitudes de onda de la luz son reflejadas al tocar su superficie, sin embargo, cuando se le aplica algún pigmento este absorbe longitudes de ondas especificas a su color.

Idealmente utilizando los colores cian, magenta y amarillo, sería suficiente para representar cualquier color en un medio impreso, pero en la práctica, al combinar estos tres colores lo que se obtiene es un color gris muy oscuro en lugar del color negro esperado. Por esta razón, las impresoras incorpora un color adicional (key), usualmente el negro, para lograr presentar correctamente todos los colores.

Modelo de color CMYK
Modelo RGB

El modelo de color RGB (Red, Green, Blue, ) se utiliza en la tecnología digital para mostrar colores en pantallas electrónicas como monitores, proyectores, teléfonos móviles y otros dispositivos electrónicos. Este modelo representa la composición de colores en términos de la intensidad de los colores primarios de la luz, es decir, el rojo, verde y azul. Se le llama modelo aditivo de colores ya que las diversas longitudes de onda de los colores se suman o mezclan para obtener el color final que se percibe.

El modelo RGB se utiliza en una amplia variedad de aplicaciones, desde la edición de fotos y videos hasta la creación de gráficos y animaciones. Es importante mencionar que los colores que se ven en una pantalla de computadora o dispositivo móvil pueden verse diferentes cuando se imprimen en papel, debido a las limitaciones de la gama de colores del modelo RGB y a las diferencias en la calibración de los monitores y las impresoras.

Modelo de color RGB
Modelos HSV, HSB y HSL

Existen otros modelos que buscan simplificar la forma en que una persona especifica los colores. El modelo HSV, que significa tonalidad (Hue), saturación (Saturation) y valor (Value), así como el HSB, que se refiere a tonalidad (Hue), saturación (Saturation) y brillo (Brightness), o el HSL, que se basa en tonalidad (Hue), saturación (Saturation) y luminosidad (Lightness), son modelos de color que se enfocan en la percepción subjetiva que tienen los seres humanos sobre los colores, en lugar de solo descomponerlos en colores básicos o primarios.

El término tonalidad (hue) se refiere a la percepción subjetiva del color, es decir, a la forma en que los humanos perciben diferentes longitudes de onda de la luz. Usualmente este valor se especifica por medio del círculo cromático, donde se mide en grados que van de 0 a 360, y cada valor representa el color en sí mismo.

La saturación (saturation), por su parte, se refiere a la pureza o intensidad del color. Una saturación alta indica que el color es más vibrante e intenso, mientras que una saturación baja indica que el color es más apagado o desaturado. La saturación se mide por lo general con porcentajes, que van desde 0% (grisáceo) hasta 100% (color puro). Entonces la saturación especifica la intensidad del color y su pureza.

Por último, la tercera componente correspondiente al valor (value), el brillo (brightness) o la luminosidad (lightness), se refiere a la cantidad de luz presente en un color La diferencia principal entre los diferentes modelos (HSV, HSB y HSL) se encuentra en la forma de calcular esta tercera componente, pero en el fondo intentan representar la información que proporciona la intensidad de luz del propio color.

Un brillo alto indica que el color es más claro o luminoso, mientras que un brillo bajo indica que el color es más oscuro o apagado. El brillo se mide en porcentaje, desde 0% (negro) hasta 100% (blanco) indicando si el color es claro u oscuro, es decir, la intensidad luminosa del color.


Armonía del color

La armonía del color se refiere a la combinación de colores que resulta agradable a la vista y que funcionan bien al usarlos en conjunto dentro de una composición. En diseño gráfico, esta técnica se utiliza para crear diseños visualmente atractivos y coherentes, debido a que el color es un aspecto fundamental del diseño, y puede influir en la emoción, el estado de ánimo y la percepción de una obra.

La armonía del color se basa en el uso adecuado de tonalidad, saturación y brillo para crear una sensación visual equilibrada y agradable en una composición. Existen diversas reglas para crear paletas de colores armónicas, las cuales se fundamentan en el uso del círculo cromático para construir sus combinaciones.

El círculo cromático es una distribución circular de los colores según su matiz o tonalidad, en donde se representan los colores primarios y sus derivados (secundarios y terciarios). Existen dos tipos de círculos cromáticos que se utilizan ampliamente en la actualidad, uno utiliza los colores primarios de pigmentos, es decir, el rojo, el amarillo y el azul (), y es utilizado por artistas que utilizan medios físicos, como la pintura, ya que facilita la combinación de colores en estas disciplinas.

Círculo cromático RYB

Por otro lado también existe el círculo cromático que utiliza los colores primarios de la luz, es decir, el rojo, el verde y el azul (), siendo ampliamente utilizado en el diseño electrónico, como el que se muestra directamente en una pantalla.

Círculo cromático RGB

Hay que mencionar que los colores utilizados para construir el círculo cromático pueden variar dependiendo del medio para el que se utilice, particularmente se pueden construir utilizando colores que no colores puros, es decir, tiene valores en la saturación o el brillo, que alteran el color.

El círculo cromático es una herramienta importante para entender y aplicar la armonía del color, permitiendo elegir la combinación de colores adecuada para un diseño, formando paletas de colores las cuales son llamadas armonías cromáticas.

Paleta monocromática

Una paleta monocromática se compone de un solo color en diferentes saturaciones para generar otros colores variando el brillo del color base. Por ejemplo, si se elige el color azul como base, se pueden incluir tonos más claros como el celeste y tonos más oscuros como el azul marino. Esta paleta es fácil de crear y suele ser muy armoniosa, pero puede resultar monótona si se utiliza en exceso, ya que todos los colores son de la misma familia cromática (o misma tonalidad).


Paleta de colores análogos

Una paleta de colores análogos se compone de colores adyacentes en el círculo cromático, lo que genera una sensación de armonía y cohesión. Por ejemplo, se puede utilizar una paleta que incluya el amarillo, el amarillo-verde y el verde, esta de combinación de colores puede ser muy efectiva para crear diseños naturales y relajantes. Por lo general este tipo de paleta funciona bien, ya que los colores son bastante parecidos entre sí, debido a su cercanía en el círculo cromático, por lo que a veces carecen de contraste para resaltar elementos.

Paleta de colores complementarios

Una paleta de colores complementarios se compone de colores opuestos en el círculo cromático, lo que genera un alto contraste y una sensación de dinamismo. Por ejemplo, se podría utilizar una paleta que incluya el rojo y el verde, o el azul y el naranja. Esta paleta puede ser muy efectiva para llamar la atención y crear diseños impactantes, ya que utiliza colores opuestos para generar un contraste visual. Hay que considerar que es posible incluir el color complementario en una paleta de colores análogos, justamente para proporcionar contraste.

Paleta de colores complementarios divididos

La paleta de colores complementarios divididos utiliza dos colores adyacentes al color opuesto en el círculo cromático. Por ejemplo, se puede utilizar una paleta que incluya el azul, el naranja y el amarillo-verde, con lo que se obtiene una paleta que crea una sensación de equilibrio y armonía, con un poco más de variedad que la paleta complementaria básica, aunque el contraste aquí es más sutil.

Paleta tríada

Una paleta tríada se construye a partir de un triángulo equilátero en el círculo cromático, tomando los colores en los vértices para obtener una tripleta de colores que se complementan entre sí. Es decir, se utilizan tres colores equidistantes en el círculo cromático. Por ejemplo, se puede utilizar una paleta que incluya el rojo, el amarillo y el azul, esta combinación de colores crea una sensación de equilibrio y puede resultar muy dinámica si se utilizan tonos brillantes y saturados.

Paleta tetraédrica

Una paleta tetraédrica utiliza cuatro colores equidistantes en el círculo cromático, lo que crea una sensación de equilibrio y variedad. Se construye a partir de un rectángulo sobre el círculo cromático y tomando los colores en los vértices. Por ejemplo, al usar el rojo, el amarillo, el verde y el morado, se tiene una paleta de colores que permite crear diseños vibrantes y coloridos.

Temperatura del color

La teoría del color incluye el concepto de temperatura del color (), que se refiere a la sensación que evoca un color en el espectador. Los colores cálidos, como el rojo y el amarillo, se asocian con la energía, la emoción y el movimiento, mientras que los colores fríos, como el azul y el verde, se asocian con la calma, la serenidad y la estabilidad. La temperatura del color describe la apariencia cálida o fría de un color en particular y se relaciona con la luz visible, esta apariencia se determina por la longitud de onda de la luz que se emite y se mide en grados Kelvin ($K$). Los colores se pueden clasificar en dos grupos principales en términos de temperatura: cálidos y fríos. Los colores cálidos tienen una apariencia de fuego o sol, como el rojo, el naranja y el amarillo, mientras que los colores fríos tienen una apariencia de hielo o agua, como el azul, el verde y el violeta.

Temperatura del color en el círculo cromático.

La temperatura del color puede afectar la percepción emocional de un diseño, ya que los colores cálidos tienden a evocar emociones pasionales (o fuertes) mientras que los colores fríos generan una sensación de serenidad. Por ejemplo, en fotografía, la temperatura del color puede afectar la apariencia de una imagen, si se utiliza una luz fría, la imagen puede tener un tono azul o verde, mientras que si se utiliza una luz cálida, la imagen puede tener un tono amarillo o naranja. Además, la temperatura del color puede influir en la percepción de la piel de una persona, una iluminación cálida puede hacer que la piel parezca más cálida y suave, mientras que una iluminación fría puede hacer que la piel parezca más dura y fría.

En diseño gráfico, la temperatura del color se puede utilizar para crear una sensación de profundidad y espacio. Por ejemplo, si se utiliza un esquema de colores cálidos en un diseño, se puede generar la sensación de que el diseño se acerca al espectador, mientras que si se utiliza un esquema de colores fríos, se puede crear la sensación de que el diseño se aleja. En resumen, la temperatura del color es un concepto importante que se relaciona con la apariencia de un color, la percepción emocional y la creación de profundidad y espacio en el diseño gráfico.

Teoría de la Gestalt

En el diseño se trabaja con la percepción, las emociones y las necesidades de los usuarios, por lo que es útil conocer los principios que disciplinas como la psicología puede ofrecer para desarrollar diseños más efectivos. La teoría de la Gestalt a veces llamada la psicología de la forma, es una teoría que se enfoca en la percepción humana y su capacidad para crear imágenes mentales coherentes de sí mismos y del mundo que les rodea. Esta corriente psicológica coloca al individuo y su percepción de la realidad como el epicentro en la toma de decisiones y surgió en Alemania a principios del siglo XX de la mano de Max Wertheimer, Wolfgang Köhler, Kurt Koffka y Kurt Lewin.

Gestalt es una palabra en alemán que significa patrón, figura o forma. La teoría de la Gestalt se resume en la frase:

“el todo es más que la suma de sus partes”

Esto significa que la percepción humana involucra un proceso mucho más amplio y complejo que simplemente la recepción individual de información por parte de los sentidos.

La teoría de la Gestalt ha dado lugar a principios conocidos como las leyes de la Gestalt, que se utilizan como guía para crear un diseño efectivo, donde para que un diseño sea funcional, no basta con considerar los elementos visuales de forma individual, sino que es necesario construir el diseño teniendo en cuenta la totalidad de sus partes de forma integral. Estas leyes intentan explicar por qué el cerebro percibe los patrones de una manera determinada, ya que el cerebro organiza los datos captados por los sentidos para crear internamente un orden en la percepción de las cosas, de esta manera se intenta dar sentido a lo que se percibe mediante atajos y heurísticas mentales, obteniendo información relevante de la manera más rápida posible. A continuación se enlistan las leyes de la Gestalt asociadas al diseño:

  1. Ley de similitud o semejanza, .
  2. Ley de continuidad, .
  3. Ley de cierre, .
  4. Ley de proximidad, .
  5. Ley de figura y fondo, .
  6. Ley de simetría y orden, .
  7. Ley de simplicidad, .
  8. Ley de dirección común, .
  9. Ley de la experiencia, .

Ley de similitud o semejanza

La ley de semejanza establece que los elementos que comparten similitudes son agrupados y se consideran como una unidad o conjunto. Específicamente, se refiere a la tendencia que se tiene de agrupar elementos visuales que comparten características similares, como colores, formas o tamaños, dando como consecuencia, que los elementos que presentan rasgos semejantes sean percibidos como un grupo o conjunto homogéneo.


Como los pentágonos son figuras similares se pueden percibir como un mismo objeto que forma una flecha.

Ley de continuidad

La ley de continuidad establece que la vista es guiada por la sucesión de elementos que siguen una línea (recta o curva), incluso cuando la línea presenta interrupciones en su continuidad. Esto significa que se tiende a percibir como una unidad aquellos elementos visuales que están alineados, aunque presenten interrupciones, lo que se interpreta como una sola entidad.


Aunque los “círculos” no aparecen completos (la mayoría son medias lunas), se perciben como elementos que forman una figura continua.

Ley de cierre

La ley de cierre establece que cuando se observa una figura incompleta, el cerebro tiende a completarla para obtener una forma completa. Es decir, se tiende a completar visualmente las formas o patrones que no están completamente cerrados, lo que provoca la tendencia a incluir información para cerrar las figuras abiertas y completar su forma.


Los objetos incompletos se terminan de cerrar, permitiendo percibir los elementos que componen la figura, por ejemplo, tres círculos y un triángulo.

Ley de proximidad

La ley de proximidad establece que los objetos cercanos se perciben como un solo objeto, mientras que objetos alejados o separados se perciben de forma individual. En este sentido, se indica que se tiende a agrupar elementos visuales que están cerca entre sí, lo que permite percibir entidades más complejas formadas por elementos cercanos.


Al tener una colección de figuras muy próximas o agrupadas, estás se perciben como una unidad más compleja.

Ley de figura y fondo

La ley de figura y fondo establece que la percepción de un objeto puede variar dependiendo del interés y la atención del observador, lo que permite una mayor participación del espectador en la interpretación y recepción del mensaje transmitido por la composición visual. En gran medida, esta ley establece la tendencia a percibir un objeto como una figura que se destaca del fondo, siendo la figura el objeto principal y el fondo el espacio en blanco que lo rodea.


La clásica imagen que juega entre la silueta de dos personas de perfil frente a frente, y una copa.

Ley de simetría y orden

La ley de simetría y orden establece que se tiende a percibir como más atractivos y organizados aquellos elementos visuales que son simétricos o están bien ordenados. Esto significa que estos elementos se perciben como parte de un mismo bloque de información y son más fáciles de interpretar.


Las figuras ordenadas y simétricas simplifican su apreciación y se vuelven más fáciles de interpretar.

Ley de simplicidad

La ley de simplicidad, también conocida como ley de la buena forma o ley de la pregnancia, establece que el cerebro reduce o simplifica lo que percibe para quedarse con las formas esenciales que lo componen, optimizando así el reconocimiento de formas y patrones visuales. En este sentido, se observa que la mente humana tiende a percibir más fácilmente las formas simples y organizadas que las complejas y caóticas, con el objetivo de buscar una forma de organización eficiente y sencilla para procesar y comprender la información visual.

A la izquierda se observa una fotografía del sol proporcionando una representación realista, mientras que a la derecha se presenta una simplificación iconográfica del sol; hay que notar que al simplificar la representación de una imagen es más fácil su interpretación.
Fuente: NASA/SDO (AIA). The Sun photographed at 304 angstroms by the Atmospheric Imaging Assembly (AIA 304) of NASA's Solar Dynamics Observatory (SDO). Wikimedia Commons. https://en.wikipedia.org/wiki/File:The_Sun_by_the_Atmospheric_Imaging_Assembly_of_NASA%27s_Solar_Dynamics_Observatory_-_20100819.jpg

Ley de dirección común

La ley de dirección común explica que los objetos que forman un patrón en una misma dirección son percibidos como un solo ente. En esencia, la dirección de los objetos proporciona cohesión entre ellos, agrupándolos como un único elemento.


Como los círculos forman un patrón, es posible observar que generan líneas espirales, aunque no hay ningún tipo de línea que relaciona las figuras.

Ley de la experiencia

La ley de la experiencia se basa en la idea de que la percepción del mundo varía y depende de las vivencias y experiencias previas de cada individuo. Esta ley establece que la percepción visual está influenciada por las experiencias previas y la memoria, ya que el cerebro utiliza estos conocimientos previos para interpretar la información visual y darle sentido.


Conjunto de carácteres que son interpretados como un León por medio de la experiencia.
Fuente: Giragus. León creado con arte ascii. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Le%C3%B3n_ASCII.JPG

En los siguientes videos se puede encontrar información adicional sobre la teoría de la Gestalt aplicado a la percepción visual.

“TEORÍA de la GESTALT aplicada al DISEÑO GRÁFICO (o Psicología de la Gestalt)”, YouTube, subido por Hey Jaime, 8 feb 2021. https://youtu.be/UnenlTAGuFg
“Las Leyes de Gestalt vistas por una diseñadora gráfica - Con ejemplos aplicados al Diseño Gráfico”, YouTube, subido por Anasaci. Diseño Web en Zaragoza. Marketing Online, 14 may 2021. https://youtu.be/ff6Bk7KC90Y
“The Gestalt Principles | Basics for Beginners”, YouTube, subido por TipTut, 8 ago 2018. https://youtu.be/ff6Bk7KC90Y
“Gestalt Psychology and Why It's Essential for Good Design”, YouTube, subido por HubSpot Marketing, 7 sept 2017. https://youtu.be/dk7cXdjX2Ys

Es importante mencionar que estas leyes se presentan ligadas al contexto psicológico que estudia la teoría de la Gestalt, y que en el área del diseño han sido sintetizadas y destiladas para crear un conjunto de principios que ayudan al desarrollo de diseños visuales efectivos, estos se conocen como los principios básicos del diseño.

Los 6 principios básicos del diseño

El diseño se encarga de combinar adecuadamente los elementos visuales, como el texto, las imágenes y los símbolos, para presentar la información de manera efectiva. Para ello, se utilizan pautas específicas que se conocen como los seis principios del diseño: balance, proximidad, alineación, repetición, contraste y espacio en blanco. Estos principios son herramientas esenciales que todo diseñador debe conocer y utilizar para crear diseños efectivos y atractivos. Cada principio se puede utilizar con un propósito específico, y trabajan en conjunto para crear una composición visualmente equilibrada y cohesiva. Estos principios de diseño tienen en sus cimientos las leyes de la Gestalt, y surgen al destilar y concentrar los elementos importantes aplicados en el contexto del diseño gráfico.


Balance

El balance o equilibrio se refiere a la distribución visual de los elementos en una composición, y se logra mediante la compensación entre dos o más elementos. El objetivo de este principio es crear una sensación de equilibrio y armonía en el diseño. Existen dos tipos de balance: simétrico y asimétrico. En el balance simétrico, los elementos se distribuyen de manera equitativa a ambos lados de un eje central, lo que transmite una sensación de estabilidad. Por otro lado, en el balance asimétrico se distribuyen elementos de diferentes tamaños y formas de tal manera que logran equilibrar el diseño visualmente.

Por ejemplo, un diseñador puede utilizar un balance simétrico al distribuir las imágenes de los productos de manera uniforme a ambos lados del eje central de un folleto para una empresa, o bien utilizar un balance asimétrico al inclinar y superponer algunas de las imágenes para lograr un enfoque más creativo.

Balance simétrico de objetos idénticos
Balance simétrico de objetos visualmente diferentes
Balance asimétrico de objetos visualmente diferentes
Balance asimétrico de objetos con un tamaño diferente

Proximidad

La proximidad en diseño se refiere a la agrupación de elementos relacionados para organizar su posición dentro de la composición. Este principio crea una relación entre un conjunto de elementos, proporcionando un sentido de unión o lejanía, dependiendo de qué tan cerca o lejos se encuentren los elementos. La proximidad ayuda a organizar la información y guía la mirada del espectador a través del diseño.

Por ejemplo, en un diseño de página web para una tienda, el diseñador puede agrupar productos de una misma categoría en secciones cercanas en la página, lo que permite al usuario navegar de manera más eficiente y encontrar información relevante rápidamente.

La proximidad entre objetos idénticos genera dos grupos visuales
La proximidad logra crear orden en un conjunto de objetos idénticos

Alineación

La alineación es un principio que permite construir orden o caos al crear conexiones visuales entre los distintos elementos gráficos. Ayuda a unificar los elementos en una composición, incluso cuando estos no se encuentran cerca entre sí, mediante la creación de líneas invisibles que generan conexiones. Este principio se refiere a la forma en que se colocan los elementos en relación con otros elementos del diseño. La alineación ayuda a que el diseño se vea limpio y organizado, evitando la sensación de caos y falta de estructura.

Por ejemplo, en el diseño de una revista, se pueden alinear todos los elementos de texto a la izquierda o a la derecha para crear una sensación de orden y estructura en la página, haciendo que los bloques de texto sean más fáciles de identificar.

Alineaciones usuales utilizadas en composiciones visuales
Una figura no alineada sobresale de las demás


Repetición

La repetición consiste en utilizar elementos similares en todo el diseño para crear una sensación de cohesión y reforzar la relación y consistencia entre ellos. Este principio de diseño se utiliza ampliamente para dar congruencia a un conjunto diverso de elementos, como la imagen empresarial o corporativa de una empresa, todos los materiales educativos de un curso o las portadas de una misma colección de libros. La repetición ayuda a que el diseño sea más memorable y a unir sus elementos.

Por ejemplo, un diseñador puede emplear el mismo color de fondo y fuente en todas las páginas de un sitio web para crear una sensación de unidad y cohesión en todo el sitio. Los iconos de un paquete de software de oficina como LibreOffice, son un buen ejemplo donde se repiten algunas características (como las formas), para mantener la cohesión entre ellos.

Repetición de objetos que generar unidad entre ellos
Repetición de colores y formas que acentúan la unidad entre los diversos elementos visuales dentro de un mismo producto o paquete de producto.
Fuente: Fabián Alexis. Iconos por LibreOffice. Wikimedia Commons. https://commons.wikimedia.org/wiki/Category:LibreOffice_icons

Contraste

El principio de contraste se refiere a la diferencia visual entre los elementos del diseño. Su finalidad es diferenciar, destacar o separar elementos visuales, ya sea entre ellos o del fondo, acentuando las diferencias que existen entre los objetos de la composición para crear interés visual. El objetivo principal es llamar la atención sobre los elementos importantes y para conseguirlo, se pueden utilizar diferentes recursos, como el uso de distintos tamaños, colores, formas, texturas y tipografías, así como la elección de colores opuestos en el círculo cromático. En definitiva, el principio de contraste se basa en la creación de diferencias visuales para llamar la atención y enfatizar elementos de interés.

Por ejemplo, en una página web o en la cabecera de un artículo, el diseñador puede utilizar un color llamativo y vibrante para el título con la finalidad de resaltar un mensaje importante.

Contraste por color
Contraste por forma
Contraste por tamaño
Contraste por orientación

Espacio

El espacio negativo o espacio en blanco se refiere a la ausencia de elementos visuales entre los integrantes de una composición, aunque no necesariamente debe ser de color blanco. Su uso estratégico permite equilibrar y organizar los elementos visuales en un diseño, evitando la sobrecarga visual y destacando los elementos importantes. Además, el espacio negativo puede crear una sensación de respiración y claridad en la composición, proporcionando sólo la información necesaria para una presentación efectiva.

Por ejemplo, en una tarjeta de presentación se puede emplear espacio en blanco alrededor del logotipo y los datos de contacto para crear un diseño minimalista y elegante que destaque los elementos informativos esenciales.

Espacio negativo
Espacio entre elementos

Como se puede observar los principios de diseño tienen muchas similitudes con las leyes de la Gestalt, ya que los principios de diseño son simplificaciones ajustadas a los conceptos de diseño. Aún así, hay que recordar que ambos se enfocan en cómo las personas perciben y organizan visualmente la información, particularmente: en como se agrupan elementos cercanos; como se crea equilibrio visual mediante simetría; como se destacan diferencias y establecen un foco visual claro; así como la manera de usar elementos repetidos y similares para crear cohesión; y como se organizan los elementos en líneas para facilitar el flujo visual de la información.


Para complementar lo presentado en el capítulo se puede visitar el siguiente sitio: https://chrisbrejon.com/cg-cinematography/ donde se ofrece información sobre principios de cinematografía para animaciones generadas por computadora, desde un enfoque de color e iluminación.

Capítulo VII
   Principios de Graficación
por Computadora

La animación por computadora utiliza los principios del computo gráfico (o la graficación por computadora), para generar imágenes a partir de modelos geométricos que representan los diversos elementos de una escena. Tanto en la graficación como en la animación por computadora, se involucra la transformación de información geométrica, ya que se modifica la definición de los objetos de un espacio de representación a otro para construir y presentar un ambiente sintético. Asimismo, se transforma la información como función del tiempo para lograr movimientos y cambios en la animación, y finalmente, se convierte la información en una representación visual para obtener las imágenes que se muestra en pantalla.

Las matrices desempeñan un papel fundamental en las transformaciones, en particular, las matrices de $4×4$ son especialmente importantes, ya que forman la base para todas las transformaciones realizadas en la graficación y animación por computadora. Estas matrices permiten especificar una amplia gama de transformaciones, incluyendo rotaciones, traslaciones, escalamientos y proyecciones, de manera unificada y eficiente.

Así como el desarrollo de una animación sigue una serie de pasos para su desarrollo, conocido como el pipeline de producción de una animación, la graficación por computadora también divide las acciones necesarias para construir una imagen en una serie de etapas que se conocen como: el pipeline gráfico.

El pipeline gráfico

En computación un pipeline o línea de ensamblado, corresponde a una secuencia de operaciones que procesan información de forma secuencial, donde la salida de una operación es utilizada como la entrada de la siguiente operación. El pipeline gráfico o pipeline de render es la secuencia de pasos que a partir de una escena 3D construida por medio de modelos geométricos (usualmente polígonos), convierten dicha escena en una representación geométrica bidimensional, para posteriormente obtener los píxeles que componen las regiones cubiertas por los objetos geométricos y con esta información se crea una imagen que representa una vista de la escena.

Cuando se utiliza el hardware gráfico (GPU) como apoyo para generar imágenes por computadora, el pipeline gráfico cuenta con un conjunto general de etapas que son: el procesamiento geométrico, la rasterización, el procesamiento de fragmentos y el mezclado. Aunque la arquitectura del hardware ha evolucionado, estas cuatro etapas han permanecido como componentes fundamentales dentro del pipeline gráfico. Cada una de las etapas principales por lo general se descomponen en subetapas que realizan tareas más especializadas, algo así como pequeños pipelines dentro de cada etapa, esto con la finalidad de simplificar las operaciones complejas en tareas más manejables.

Es importante mencionar que en la actualidad las etapas del procesamiento geométrico (o de vértices) y de procesamiento de fragmentos son programables, es decir, se pueden crear programas que se ejecutan en la tarjeta de video (GPU) y que permiten controlar la forma en la que se procesa la información. A estos programas se les conoce como shaders. Por otra parte las etapas de rasterización y mezclado, no son programables pero si son configurables, es decir, su funcionalidad es parte de la GPU y no se puede cambiar, pero por medio de parámetros es posible alterar su comportamiento.

Procesamiento geométrico

La etapa del procesamiento geométrico también llamada procesamiento de vértices, consiste en un conjunto de operaciones que operan sobre los vértices que definen los objetos geométricos de una escena; estas operaciones por lo general involucran un conjunto de transformaciones que permiten cambiar la información geométrica de los vértices a diferentes espacios de representación, obteniendo al final vértices ubicados dentro del volumen de visión determinado por la cámara que observa la escena. En esta etapa se tiene un conjunto de transformaciones entre diversos espacios de representación: Espacio del objeto → Espacio del mundo → Espacio de la vista.

Al hablar de un espacio de representación se hace referencia a un sistema de coordenadas en las que se especifica la información geométrica de un modelo. Un espacio de dos dimensiones (2D), generalmente se representa mediante dos ejes coordenados principales; el eje $X$ se ubica usualmente en la dirección de izquierda a derecha y el eje $Y$ en la dirección de abajo hacia arriba ().

Espacio 2D.

En espacios de tres dimensiones, la forma en la que se especifican los ejes coordenados puede variar. Por ejemplo, en el contexto del computo gráfico se considera que la pantalla representa un espacio 2D y el eje $Z$ representa un eje que sale (o entra) de la pantalla, lo que da profundidad a los elementos bidimensionales ().

Espacio 3D con el eje $Y$ apuntando hacia arriba.

También se puede pensar en una situación del mundo real donde los ejes $X$ y $Y$ representan el suelo y el eje $Z$ es la altura o elevación de los diversos objetos respecto al suelo ().

Espacio 3D con el eje $Z$ apuntando hacia arriba.

La mayoría de los modelos que componen un escena tridimensional están formados por vértices y caras que relacionan dichos vértices para formar una aproximación a la superficie de un objeto.

El espacio del objeto

El espacio del objeto (object space) es donde se define la información geométrica de cada modelo 3D, de tal manera que dicho objeto se encuentra determinado por el origen del espacio y sus puntos o vértices que se especifican respecto a dicho origen. Es importante recordar que cada modelo 3D cuenta con su propio espacio del mundo, usualmente asociado con el centro del modelo.

Representación del espacio del objeto por medio de espacios de referencia (sistemas de coordenadas) para cada uno de los objetos 3D.

El espacio del mundo

El espacio del mundo (world space) es un espacio de representación donde se ubican todos los objetos para construir ambientes y escenarios en una escena 3D. Aquí es donde se utilizan transformaciones como traslaciones, rotaciones y escalamientos, para ensamblar colocar y orientar los objetos que conforman la escena. Además, en este espacio es donde se ubican y configuran las diversas luces y las cámaras.

Representación del espacio del mundo, donde se observan algunos objetos geométricos y además se observa la cámara y la luz. Los pequeños puntos que se observan dentro de los modelos corresponden al centro u origen del espacio del modelo de cada objeto.

El espacio de la vista, del ojo, o de la cámara

En una escena 3D la cámara u observador es un objeto que cuenta con una posición y una orientación, por medio de la cual se construye un nuevo espacio o sistema de referencia a partir del cual se observan los diversos objetos de una escena.

Representación de una cámara en un espacio 3D.

El espacio de referencia de la cámara se define al construir un conjunto de vectores ortonormales que determinan una nueva base del espacio 3D. Para su construcción se tiene en cuenta la dirección de la vista (view direction) que es un vector que apunta en la dirección en que observa la cámara, aunque a veces la dirección de la vista se construye con el vector formado entre la posición de la cámara y un punto o centro de interés (center of interest, COI) hacia donde observa.

También se considera un vector hacia arriba (up vector) que corresponde al vector perpendicular a la dirección de la vista y se encuentra en el plano definido por el vector de dirección de la vista y el eje hacia arriba global (usualmente el eje $Y$). Siendo los vectores $u$, $v$ y $w$ los elementos de la nueva base:

$$\begin{align*} w &= COI − EYE \\ u &= w × UP \\ v &= u × w \end{align*}$$

El espacio de la vista o del ojo o de la cámara (eye space) es la representación que se obtiene al transformar las coordenadas de un modelo que ya se encuentra en el espacio del mundo a través de la información proporcionada por la cámara (o el observador). Al aplicar esta transformación, el observador termina ubicado en el origen mirando en la dirección negativa del eje $Z$, esto con la finalidad de que la profundidad de un vértice se determine simplemente por el valor de su coordenada en $Z$. Además de la información anterior, se considera el campo de visión (field of view, fov), para especificar el volumen visible del espacio del mundo. Para esto se utiliza un ángulo de visión (angle of view), la distancia de recorte cercana (near clipping distance) y la distancia de recorte lejana (far clipping distance), para construir una pirámide truncada que corresponde al campo de visión de la cámara, la pirámide truncada se conoce como view frustum ().

Hay que considerar que los objetos que se encuentra fuera del volumen visible, es decir, fuera del view frustum, no contribuyen para la imagen final, ya que la cámara no los ve. Debido a esto se suelen implementar algoritmos que descartan geometrías completas que se encuentran fuera del volumen visible, lo que se conoce como el view-frustum culling, para garantizar que solo los objetos visibles sean procesados por la tarjeta gráfica.

Pirámide truncada (view frustum) que determina el volumen de visión del espacio de la cámara.

El espacio de la imagen

Aplicando una transformación de proyección, los vértices se convierten del espacio de la vista al espacio de la imagen (image space). Básicamente se realiza una transformación que convierte la pirámide truncada en un prisma rectangular y de ahí se obtiene la nueva información de los vértices. El objetivo de la transformación de proyección es calcular las posiciones bidimensionales de los vértices para ser representados en el plano de la imagen, lo que posteriormente se traduce en la imagen en la pantalla.

Conversión del espacio de la vista (parte superior) al espacio de la imagen (parte inferior).

Rasterización

La rasterización es la etapa encargada de tomar los vértices transformados en la etapa anterior y con ellos ensambla primitivas geométricas (por lo general triángulos) y las convierte en fragmentos; siendo un fragmento un conjunto de información asociada a los posibles píxeles que cubre la primitiva geométrica. En aplicaciones gráficas sencillas, se pueden pensar a los fragmentos como píxeles, pero hay que considerar que un fragmento contiene más información que solamente un color, por ejemplo, puede tener información de la normal de la superficie, coordenadas de textura, así como cualquier otra información que sea relevante para determinar el verdadero color de la primitiva geométrica.

En la rasterización se tienen las subetapas: El ensamblado de primitivas → El recorte o clipping → La división de perspectiva → Eliminación de caras posteriores (Back-face culling) → Transformación de la ventana o viewportScan conversion.

El ensamblado de primitivas

A partir de la etapa anterior se tienen un conjunto de vértices que fueron proyectados sobre el plano de la imagen. Y estos vértices se ensamblan en primitivas, las cuales pueden ser puntos, segmentos o triángulos, que son por lo general las primitivas que soportan los APIs gráficos actuales.

Primitivas geométricas

El recorte o clipping

En esta etapa las primitivas se recortan utilizando los 6 planos que definen el volumen cúbico de la vista, con esto se eliminan objetos o parte de ellos que se encuentran fuera del volumen de la vista y por lo tanto no son visibles.

Recorte de la geometría.

La división de perspectiva

Durante la construcción y procesamiento geométrico, los vértices que definen los objetos de una escena se especifican por medio de coordenadas homogéneas (lo que se explica en la sección Coordenadas homogéneas), y en la construcción de la matriz de proyección de perspectiva se utiliza el hecho de la normalización o división por $w$ de las coordenadas de un vértice (lo que se explica en la sección Transformación de proyección). La división de perspectiva se realiza durante esta etapa y de forma efectiva es la encargada de convertir el volumen de visión de un frustum (o pirámide truncada) al volumen canónico, obteniendo con esto coordenadas conocidas como coordenadas normalizadas del dispositivo o NDC (Normalized Device Coordinates).

Conversión del volumen de visión al volumen canónico.

Eliminación de caras posteriores o backface culling

En graficación, culling se refiere a eliminar partes de una escena que no son visibles por la cámara, en este sentido la operación de backface culling se encarga de descartar los polígonos que se encuentran de espaldas al punto de vista de la cámara.

Para determinar si un triángulo se encuentra de frente o de espaldas a la cámara se utiliza el orden o winding de los vértices que definen el polígono, siendo por lo general que un orden en sentido de las manecillas del reloj determina un triángulo de espaldas y un orden en contra del sentido de las manecillas del reloj corresponde a un polígono de frente a la cámara.

Esta etapa es configurable y puede desactivarse lo que causa que no se descarte ningún polígono, lo cual es útil si se quieren dibujar objetos semitransparentes u objetos con orificios que muestren su interior; en caso de activar el back-face culling es posible configurar si se quieren descartar los polígonos de espalda o de frente a la cámara, así como determinar cual es el sentido de giro utilizado para determinar la dirección (horaria o antihoraria) respecto a la cámara del polígono.

Transformación de la ventana o viewport

Cada ventana que se dibuja en la pantalla de una computadora tiene asignado su propio espacio, conocido como espacio de pantalla, el cual no necesariamente cubre la totalidad de la pantalla. En este espacio los vértices proyectados en el plano de la imagen se transforman para calcular las coordenadas de píxel, las cuales son dependientes de la pantalla o el área de la visualización donde se muestran las imágenes.

Espacio de pantalla.
Image by redgreystock on Freepik.

Scan conversion

Una vez que cada primitiva se encuentra definida en el espacio de pantalla la subetapa de scan conversion se encarga de construir los fragmentos correspondientes. De forma más específica, se determina la posición de los píxeles cubiertos por la primitiva y se interpola cualquier información asociada a los vértices de la primitiva para asociar los valores interpolados a cada fragmento.

Scan conversion de un conjunto de triángulos
Fuente: Drummyfish. This is a two-frame animation I made with Inkscape and GIMP showing how triangles are rasterized into pixels using the top-left rule. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Top-left_triangle_rasterization_rule.gif


Procesamiento de fragmentos

La etapa de procesamiento de fragmentos se encarga de tomar la información almacenada en los fragmentos obtenidos en la etapa anterior y con dicha información se realizan cálculos que determinan el color final del píxel correspondiente.

Esta etapa inicia con un conjunto de fragmentos que poseen información interpolada, la cual puede incluir información sobre la profundidad, la normal de la superficie, colores, coordenadas de texturas, etc. Utilizando toda la información proporcionada el shader de fragmentos calcula el color correspondiente.

Existen varias formas para producir el color de los píxeles; una de ellas es por medio de los modelos de iluminación, los cuales por medio de ecuaciones intentan replicar el comportamiento de la luz sobre superficies hechas de diversos materiales; otra forma es por medio del mapeo de texturas, donde los colores de los píxeles se obtienen al leer la información de color de una o varias imágenes. En la actualidad para lograr representaciones realistas y detalladas de modelos tridimensionales, por lo general se utiliza una combinación de modelos de iluminación y texturas, donde las imágenes asociadas a las texturas proporcionan información sobre los materiales del objeto que se utilizan en un modelo de iluminación para producir el color del píxel de cada fragmento.

La salida de esta etapa a veces se llama fragmento RGBAZ, ya que no solo se devuelve un color (en RGB), si no que además se incorpora la opacidad (A) o alfa, así como la profundidad de dicho fragmento (coordenada Z).


Mezclado

En la etapa del mezclado se toman los “píxeles” obtenidos en la etapa anterior y se combinan en el búfer de color (que es una área de memoria en la tarjeta de video que permite mostrar una imagen) para construir píxel a píxel la imagen final. Aquí se usa la transparencia y la profundidad para determinar la forma en la que se mezclan o combinan los píxeles almacenados en el búfer de color y el fragmento que se está procesando.

Búfer de profundidad o Z-buffer

El búfer de profundidad o Z-buffer es un área en memoria en la GPU, usualmente con la misma resolución que el búfer de color, en donde se almacena la profundidad o Z de los píxeles que se encuentran almacenados en el búfer de color.

Al procesar un fragmento RGBAZ se utiliza el búfer de profundidad para determinar si la profundidad (Z) del nuevo fragmento a dibujar es menor que la profundidad almacenada previamente. En caso de que sea menor, se actualiza el búfer de profundidad con la nueva Z y el búfer de color con los valores del fragmento. En caso contrario se considera que el fragmento se encuentra detrás o son cubiertos por el fragmento actual y por lo tanto su valor es descartado.

Composición alfa o alpha blending

Lo descrito anteriormente correspondiente al búfer de profundidad es válido si se considera que los píxeles son completamente opacos, es decir, su valor A o alpha es igual a $1$, pero si se tienen objetos traslúcidos donde su valor de A es menor que $1$, entonces no se puede descartar el fragmento directamente. En este caso se realiza un proceso conocido como composición alfa o alpha blending, donde el color almacenado en el búfer de color se mezcla con el color del fragmento que se esta dibujando, esto por medio de una ecuación de mezcla, usualmente de la forma:

$$c = αc_f + (1 − α)c_p$$

Donde $c$ corresponde al color mezclado, $α$ es la opacidad del fragmento, $c_f$ es el color del fragmento y $c_p$ es el color del píxel almacenado en el búfer de color.

Por lo general los APIs gráficos permiten configurar la forma de la ecuación de composición alfa para obtener diferentes resultados.

Prueba de plantilla o stencil test

La prueba de plantilla o stencil test es una subetapa en el mezclado que sirve para descartar grandes regiones de píxeles y que así no se escriban en el búfer de profundidad ni en el de color. Esto se logra creando un búfer para la plantilla que simplemente corresponde a una máscara o valores entre $0$ y $1$, que determinan si en alguna región se debe o no actualizar la información del búfer de profundidad y de color.


Prueba de plantilla o stencil test.

Transformaciones

En graficación por computadora se tienen tres transformaciones básicas, que son: el escalamiento, la rotación y la traslación; las cuales pueden ser expresadas como un sistema de ecuaciones y justo esta propiedad es la que permite expresar las transformaciones como los coeficientes de una matriz.

Un escalamiento en 2D esta dado por:

$$\begin{align*} x' &= x \cdot sx \\ y' &= y \cdot sy \end{align*}$$

Una rotación en 2D es:

$$\begin{align*} x' &= x \cdot cos(θ) − y \cdot sen(θ) \\ y' &= x \cdot sen(θ) + y \cdot cos(θ) \end{align*}$$

Para obtener la transformación de rotación hay que recordar lo que ocurre con las funciones trigonométricas seno y coseno de una suma de ángulos:

$$\begin{align*} sen(α+β) &= sen(α) \cdot cos(β) + cos(α) \cdot sen(β) \\ cos(α+β) &= cos(α) \cdot cos(β) − sen(α) \cdot sen(β) \end{align*}$$

La transformación de traslación en 2D es:

$$\begin{align*} x' &= x + tx \\ y' &= y + ty \end{align*}$$

Es posible cambiar las expresiones anteriores por una representación matricial que exprese de forma más compacta una transformación.

Una transformación de escalamiento en 2D usando matrices es:

$$\begin{align*} x' &= x \cdot sx \\ y' &= y \cdot sy \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \end{pmatrix} = \begin{bmatrix} sx & 0 \\ 0 & sy \end{bmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$

Rotación en 2D usando matrices:

$$\begin{align*} x' &= x \cdot cos(θ) − y \cdot sen(θ) \\ y' &= x \cdot sen(θ) + y \cdot cos(θ) \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \end{pmatrix} = \begin{bmatrix} cos(θ) & -sen(θ) \\ sen(θ) & cos(θ) \end{bmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$

Traslación en 2D usando matrices

$$\begin{align*} x' &= x + tx \\ y' &= y + ty \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \end{pmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} tx \\ ty \end{pmatrix}$$

Como no se puede codificar de forma directa una traslación en 2D utilizando los coeficientes de una matriz de $2×2$ entonces se necesita utilizar una dimensión adicional, es decir una matriz de $3×3$ de la siguiente manera:

$$\begin{pmatrix} x' \\ y' \\ 1 \end{pmatrix} = \begin{bmatrix} 1 & 0 & tx \\ 0 & 1 & ty \\ 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ 1 \end{pmatrix}$$

Si se utilizan matrices de $3×3$ para codificar las transformaciones en espacios tridimensionales se obtiene lo siguiente.

Escalamiento en 3D:

$$\begin{align*} x' = x \cdot sx \\ y' = y \cdot sy \\ z' = z \cdot sz \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \\ z' \end{pmatrix} = \begin{bmatrix} sx & 0 & 0 \\ 0 & sy & 0 \\ 0 & 0 & sz \end{bmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}$$

Las rotaciones en tres dimensiones se convierten en tres matrices diferentes, una para cada eje del espacio 3D.

Rotación en 3D respecto al eje $X$:

$$\begin{align*} x' &= x \\ y' &= y \cdot cos(θ) − z \cdot sen(θ) \\ z' &= y \cdot sen(θ) + z \cdot cos(θ) \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \\ z' \end{pmatrix} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & cos(θ) & -sen(θ) \\ 0 & sen(θ) & cos(θ) \end{bmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}$$

Rotación en 3D respecto al eje $Y$:

$$\begin{align*} x' &= x \cdot cos(θ) + z \cdot sen(θ) \\ y' &= y \\ z' &= −x \cdot sen(θ) + z \cdot cos(θ) \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \\ z' \end{pmatrix} = \begin{bmatrix} cos(θ) & 0 & sen(θ) \\ 0 & 1 & 0 \\ -sen(θ) & 0 & cos(θ) \end{bmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}$$

Rotación en 3D, respecto al eje $Z$

$$\begin{align*} x' &= x \cdot cos(θ) − y \cdot sen(θ) \\ y' &= x \cdot sen(θ) + y \cdot cos(θ) \\ z' &= z \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \\ z' \end{pmatrix} = \begin{bmatrix} cos(θ) & -sen(θ) & 0 \\ sen(θ) & cos(θ) & 0 \\ 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}$$

De forma similar a la traslación en 2D, no es posible expresar una traslación en 3D con matrices de la misma dimension que el espacio ($3×3$), por ende se vuelve necesario utilizar una dimensión adicional para expresar correctamente una traslación.

$$\begin{align*} x' = x + t \\ y' = y + t \\ z' = z + t \end{align*}$$ $$⇒$$ $$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} 1 & 0 & 0 & tx \\ 0 & 1 & 0 & ty \\ 0 & 0 & 1 & tz \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Coordenadas homogéneas

Las coordenadas homogéneas son un concepto importante en la geometría proyectiva y se utilizan en la graficación por computadora para realizar transformaciones en un espacio 3D. La notación matricial homogénea es un método eficiente y conveniente para realizar operaciones lineales en vectores de coordenadas homogéneas.

En esencia, las coordenadas homogéneas agregan una dimensión adicional a las coordenadas cartesianas de un espacio. Por lo tanto, un punto o un vector $(x, y, z)$ en coordenadas cartesianas tridimensionales, se representa mediante un vector de cuatro elementos $(x, y, z, w)$ expresado en coordenadas homogéneas. La componente adicional $w$ se utiliza para homogeneizar las transformaciones. Si la componente $w$ es igual a $1$, entonces el vector $(x, y, z, w)$ representa un punto en el espacio 3D. Si $w$ es diferente de $1$, entonces se utiliza la división homogénea (o división de perspectiva en el contexto del computo gráfico) para obtener las coordenadas cartesianas $(x/w, y/w, z/w)$ correspondientes al punto en el espacio 3D. Por otro lado, si la componente $w$ es igual a cero, entonces el vector $(x, y, z, w)$ representa un vector en el espacio 3D, y no se realiza ninguna división.

Utilizando coordenadas homogéneas se pueden expresar las transformaciones 3D básicas (rotación, escalamiento y traslación) utilizando matrices de $4×4$, ofreciendo un mismo marco de trabajo para realizar las operaciones y con esto permitiendo que componentes de hardware como el GPU se especialicen en una unica operación, la multiplicación de matrices, lo que permite transformar los vértices de un objeto geométrico de forma paralela haciendo más eficiente su procesamiento.

Escalamiento:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} sx & 0 & 0 & 0 \\ 0 & sy & 0 & 0 \\ 0 & 0 & sz & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Traslación:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} 1 & 0 & 0 & tx \\ 0 & 1 & 0 & ty \\ 0 & 0 & 1 & tz \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Rotación en $X$:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & cos(θ) & -sen(θ) & 0 \\ 0 & sen(θ) & cos(θ) & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Rotación en $Y$:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} cos(θ) & 0 & sen(θ) & 0 \\ 0 & 1 & 0 & 0 \\ -sen(θ) & 0 & cos(θ) & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Rotación en $Z$:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} cos(θ) & -sen(θ) & 0 & 0 \\ sen(θ) & cos(θ) & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Transformación de la vista

El espacio del mundo está construido con la base ortonormal $(1, 0, 0)$, $(0, 1, 0)$ y $(0, 0, 1)$, para realizar la transformación de la vista, se debe realizar un cambio de base utilizando los datos de la cámara. Suponiendo que la cámara se encuentra en la posición $(cx, cy, cz)$, con una base definida por los vectores $(ux, uy, uz)$, $(vx, vy, vz)$ y $(wx, wy, wz)$, como se definió previamente:

$$\begin{align*} w &= EYE - COI \\ u &= UP × w \\ v &= u × w \end{align*}$$

Al garantizar que estos vectores estén normalizados, para forma una base ortonormal.

$$\begin{align*} w &= \frac{(EYE - COI)}{||EYE - COI||} \\ u &= \frac{(UP × w)}{||(UP × w)||} \\ v &= \frac{(w × u)}{||(w × u)||} \end{align*}$$

Entonces se puede construir la matriz de transformación de la vista como la concatenación de una traslación para colocar la cámara en el origen y una matriz de cambio de base usando los vectores $u$, $v$ y $w$.

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} ux & uy & uz & 0 \\ vx & vy & vz & 0 \\ wx & wy & wz & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} 1 & 0 & 0 & -cx \\ 0 & 1 & 0 & -cy \\ 0 & 0 & 1 & -cz \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Transformación de proyección

Proyección ortogonal

La transformación de proyección ortogonal construye un prisma rectangular determinado por $l$ (left) el plano izquierdo, $r$ (right) el plano derecho, $b$ (bottom) el plano del abajo, $t$ (top) el plano de arriba, $n$ (near) el plano cercano y $f$ (far) el plano lejano. Estos planos delimitan el volumen de visión y permiten controlar qué partes de la escena son visibles en la imagen 2D resultante.

Matriz de proyección ortogonal.

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} \dfrac{2}{r-l} & 0 & 0 & -\dfrac{r+l}{r-l} \\ 0 & \dfrac{2}{t-b} & 0 & -\dfrac{t+b}{t-b} \\ 0 & 0 & \dfrac{2}{n-f} & -\dfrac{f+n}{f-n} \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$
Proyección de perspectiva

La clave de una proyección en perspectiva radica en que el tamaño de un objeto en la pantalla es proporcional a $1/z$ cuando es observado desde el origen.


$$y_s=\frac{d}{z} y,$$

En la sección sobre coordenadas homogéneas se mencionó que la posición $(x, y, z, w)$ corresponde a las coordenadas cartesianas $(x/w, y/w, z/w)$. En todas las transformaciones previas, la componente $w$ ha sido igual a $1$, lo que ha hecho innecesario realizar la división por $w$. Sin embargo, para realizar la transformación de perspectiva, es necesario dividir las componentes por un valor específico.

Si se considera un plano cercano $n$ y un plano lejano $f$, la proyección debe seguir las pautas mencionadas anteriormente, es decir, $ys = -(n/z) \cdot y$ y $xs = -(n/z) \cdot x$, lo que se logra utilizando la siguiente matriz de transformación:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} n & 0 & 0 & 0 \\ 0 & n & 0 & 0 \\ 0 & 0 & n+f & f \cdot n \\ 0 & 0 & -1 & 0 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Desarrollando la multiplicación anterior se obtiene:

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{pmatrix} n \cdot x \\ n \cdot y \\ z \cdot (n+f) + f \cdot n \\ -z \end{pmatrix} = \begin{pmatrix} -\cfrac{n \cdot x}{z} \\ -\cfrac{n \cdot y}{z} \\ -(n + f) - \cfrac{f \cdot n}{z} \\ 1 \end{pmatrix}$$

Las nuevas posiciones $x'$, $y'$ y $z'$ corresponden a la transformación en perspectiva, donde las posiciones son proporcionales a $1/z$. De forma intuitiva, esta transformación convierte el view frustum en el volumen canónico utilizado en la proyección ortogonal (). Una vez convertido el volumen de visión, basta con realizar una proyección ortogonal para completar la proyección en perspectiva.

Conversión del view frustum al volumen canónico.
$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} \cfrac{2}{r-l} & 0 & 0 & -\cfrac{r+l}{r-l} \\ 0 & \cfrac{2}{t-n} & 0 & -\cfrac{t+b}{t-b} \\ 0 & 0 &\cfrac{2}{n-f} & -\cfrac{f+n}{f-n} \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} n & 0 & 0 & 0 \\ 0 & n & 0 & 0 \\ 0 & 0 & n+f & f \cdot n \\ 0 & 0 & -1 & 0 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$
$$\begin{bmatrix} \cfrac{2}{r-l} & 0 & 0 & -\cfrac{r+l}{r-l} \\ 0 & \cfrac{2}{t-b} & 0 & -\cfrac{t+b}{t-b} \\ 0 & 0 & \cfrac{2}{n-f} & -\cfrac{f+n}{f-n} \\ 0 & 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} n & 0 & 0 & 0 \\ 0 & n & 0 & 0 \\ 0 & 0 & n+f & f \cdot n \\ 0 & 0 & -1 & 0 \end{bmatrix}$$ $$= \begin{bmatrix} \cfrac{2n}{r-l} & 0 & \cfrac{r+l}{r-l} & 0 \\ 0 & \cfrac{2n}{t-b} & \cfrac{t+b}{t-b} & 0 \\ 0 & 0 & \cfrac{n+f}{n-f} & \cfrac{2f \cdot n}{n-f} \\ 0 & 0 & -1 & 0 \end{bmatrix}$$

Otra forma de ver la proyección de perspectiva, es utilizando el ángulo de visión en lugar de los planos: $l$ (el plano izquierdo), $r$ (el plano derecho), $b$ (el plano del abajo) y $t$ (el plano de arriba).

La tangente es el cateto opuesto entre el cateto adyacente, lo que da lo siguiente: $tan \left(\dfrac{fovY}{2}\right) = \dfrac{y}{z}$

Multiplicando ambos lados por $z$ se obtiene: $y = z \cdot tan \left(\dfrac{fovY}{2}\right)$

Definiendo: $ftan = \dfrac{1}{tan} \left(\dfrac{fovY}{2}\right)$

Se tiene: $y = \dfrac{z}{ftan}$

Entonces para obtener la nueva coordenada en $Y$, $y'$ se debe dividir entre $\dfrac{z}{ftan}$.

$$\begin{align*} y' &= y / (z / ftan) \\ y' &= y \cdot ftan / z \end{align*}$$

Para la $x'$ el cálculo es análogo, sólo hay que dividir el tamaño respecto a la relación de aspecto de la ventana.

$$x' = (x \cdot ftan / z) / aspect$$

Si tenemos: $ftan = 1 / tan(fovY / 2)$

entonces

$$\begin{pmatrix} x' \\ y' \\ z' \\ 1 \end{pmatrix} = \begin{bmatrix} \cfrac{ftan}{aspect} & 0 & 0 & 0 \\ 0 & ftan & 0 & 0 \\ 0 & 0 & \cfrac{n+f}{n-f} & \cfrac{2n \cdot f}{n-f} \\ 0 & 0 & -1 & 0 \end{bmatrix} \begin{pmatrix} x \\ y \\ z \\ 1 \end{pmatrix}$$

Fotogramas

Un fotograma también conocido como cuadro o frame, es la unidad visual básica que se utiliza para medir el tiempo en una animación. Se trata de una imagen individual que forma parte de una secuencia animada.

Un fotograma clave o keyframe es una acción que se produce en un punto específico en el tiempo, y se representa mediante un fotograma especial, que contiene información esencial creada por el animador para dar vida a los movimientos de la animación.


Cuatro fotogramas clave en un ciclo de caminata.
Fuente: Ajay Karat. www.devilsgarage.com. https://commons.wikimedia.org/wiki/File:4-frame-walk-cycle.gif, https://en.wikipedia.org/wiki/File:Walk-cycle-poses.jpg

En la animación tradicional, que se realiza principalmente con dibujos hechos a mano, el animador es responsable de crear los keyframes para definir las acciones que tendrán lugar durante la animación. Luego, un grupo de dibujantes se encarga de generar los cuadros faltantes para completar la secuencia de imágenes entre los keyframes.

Por otro lado, en la animación por computadora, los animadores crean keyframes para definir las acciones de los personajes, y luego el software calcula automáticamente los fotogramas intermedios (conocidos como in-between) para completar la animación.

“Why Old Games Still Look Great!”, YouTube, subido por Video Game Animation Study, 23 mar 2018. https://youtu.be/fJosaT1sCfs

Interpolación

La interpolación es un método matemático que permite obtener nueva información a partir de datos conocidos. Su principal uso consiste en obtener nuevos datos a partir de un conjunto de datos discretos dados, mediante la construcción de una función que aproxime la información conocida de una cierta manera.

En términos matemáticos, si se tiene una pareja de $n$ puntos de la forma $(x_k, y_k)$, una interpolación es una función $f$ que cumple la siguiente propiedad:

$f(x_k) = y_k$, para toda $k = 1, ..., n$

Las funciones de interpolación tienen la característica de pasar o tomar valores siempre en el conjunto de datos conocidos. Cuando la función no pasa directamente por estos datos entonces lo que se tiene es una función de aproximación.

La idea detrás de la interpolación es que los puntos iniciales se encuentran sobre una curva desconocida, y hay que definir una función que permita estimar la forma de la curva para cualquier punto que esté entre dos puntos conocidos.


Interpolación a la izquierda; aproximación a la derecha.

En animación por computadora, la interpolación es un componente fundamental para la creación automática de los fotogramas intermedios. Por lo general, el tipo de interpolación utilizado en animación se basa en la parametrización de valores a través del tiempo. Es decir, los valores que se buscan son valores desconocidos entre dos puntos en el tiempo.


Interpolación lineal

La interpolación lineal, también conocida como LERP, es uno de los métodos más sencillos y comúnmente utilizados para aproximar nuevos valores a partir de un conjunto de datos conocidos. Este método utiliza una función lineal para interpolar los valores entre un par de puntos y obtener nuevos valores entre ellos.

Aunque la interpolación lineal es una opción rápida y sencilla para la obtención de nuevos valores, su precisión puede ser limitada en algunos casos. Esto se debe a que se asume una relación lineal entre los valores conocidos, lo que puede resultar en valores demasiado burdos e imprecisos en escenarios en los que la relación entre los valores no es lineal o en los que la función lineal no es suficiente para representar la complejidad de los datos.

Ejemplo de interpolación lineal.

Una interpolación lineal entre una pareja de puntos consecutivos $P_0$ y $P_1$ se expresa de la siguiente forma:

$$lerp(P_0, P_1, t) = P_0 + t (P_1 − P_0) = (1 − t) P_0 + t P_1$$

Interpolación polinomial

Siempre es posible construir un polinomio de primer grado (un segmento) que pase por dos cualesquiera dos puntos.

Esta idea puede generalizarse para $n$ puntos $(x_k, y_k)$ con $k = 1, ..., n$, buscando un único polinomio en $x$ de grado menor que $n$ que pase por todos ellos. A este polinomio se le llama polinomio de interpolación.

Existen varios métodos para construir un polinomio de interpolación, siendo el método de Lagrange o la forma Lagrangiana uno de los más utilizados:

$$\mathcal{L}(x) = \sum_{j=0}^{k} y_j \ell_j(x)$$ $$\ell(x) = \prod_{i=0,i≠j}^{k} \frac{x-x_i}{x_j-x_i} = \frac{x-x_0}{x_j-x_0} ... \frac{x-x_{j-1}}{x_j-x_{j-1}} \frac{x-x_{j+1}}{x_j-x_{j+1}} ... \frac{x-x_k}{x_j-x_k}$$

Para todo $i ≠ j$, $\ell_j(x)$ incluye el término $(x - x_i)$ por lo que el producto es cero en $x = x_i$.

$$\forall(j≠i) : \ell_j(x_i) = \prod_{m≠j} \frac{x_i-x_m}{x_j-x_m} = $$ $$= \frac{(x_i-x_0)}{(x_j-x_0)} ... \frac{(x_i-x_i)}{(x_j-x_i)} ... \frac{(x_i-x_k)}{(x_j-x_k)} = 0$$

Por otro lado, cuando $x = x_j$, el término vale $1$, lo que da como resultado $y_j$.

$$\ell_j(x_j) = \prod_{m≠j} \frac{x_j-x_m}{x_j-x_m} = 1$$

La ventaja de la interpolación polinomial es que construye una curva diferenciable y continua que pasa por todos los puntos dados. No obstante, la interpolación polinomial tiene el problema de que a medida que aumenta el número de puntos, también lo hace el grado del polinomio, lo que ocasiona que los cálculos sean más costosos en su evaluación, además aumentar el grado del polinomio suelen ocurrir oscilaciones alrededor de los puntos conocidos.

Interpolación a trozos

Por un lado, se tiene que la interpolación lineal es un método que utiliza únicamente información local, es decir, depende solamente de parejas de puntos para obtener nueva información. Y la interpolación polinomial es un método que requiere información global, utilizando todos los puntos. Ambos métodos presentan ventajas y desventajas. En aplicaciones gráficas interactivas, es común utilizar una interpolación a trozos o interpolación polinómica segmentaria. En este método, el conjunto de puntos de control se divide en intervalos más pequeños y se calcula un polinomio de interpolación entre parejas contiguas de puntos.

Interpolación de Hermite

La interpolación de Hermite genera un polinomio cúbico entre dos puntos conocidos, utilizando información local. Para calcularlo, es necesario especificar los puntos $P_i$ (punto incial) y $P_{i+1}$ (punto final) por los que pasa el polinomio, así como los vectores tangentes para el punto inicial $P'i$ y final $P'{i+1}$.

La interpolación se construye con:

$$P(u) = U^T \, M \, B$$
$$ P(u) = \begin{bmatrix} u^3 & u^2 & u & 1 \end{bmatrix} \begin{bmatrix} 2 & -2 & 1 & 1 \\ -3 & 3 & -2 & -1 \\ 0 & 0 & 1 & 0 \\ 1 & 0 & 0 & 0 \end{bmatrix} \begin{bmatrix} P_i \\ P_{i+1} \\ P'_i \\ P'_{i+1} \end{bmatrix} $$
$$ P(u) = \begin{bmatrix} \textcolor{#c04138}{2u^3 - 3u^2 + 1} \\ \textcolor{#3484b9}{-2u^3 + 3u^2} \\ \textcolor{#3bd177}{u^3 - 2u^2 + u} \\ \textcolor{#ffa72f}{u^3 - u^2} \end{bmatrix} \begin{bmatrix} P_i \\ P_{i+1} \\ P'_i \\ P'_{i+1} \end{bmatrix} $$

Para garantizar la continuidad entre los puntos conectados, se utiliza la misma información de la tangente en el punto final de una pareja, como la tangente en el punto inicial en una nueva secuencia. Este método tiene la desventaja de que las tangentes en los puntos deben ser calculadas manualmente, lo que no siempre es conveniente.

Interpolación con splines

Las funciones polinómicas a trozos, también conocidas como splines, se utilizan ampliamente en la computación gráfica. El término spline proviene de la construcción de barcos, donde un spline corresponde a una pieza delgada de metal o madera que se ajusta a una ranura en el borde de una tabla.

Existen diferentes tipos de splines, como los lineales, cuadráticos, cúbicos, etc., así como la interpolación o aproximación con splines. El tipo de spline que se utiliza depende del tipo de aplicación, sin embargo, todos los splines aproximan una curva de la forma más suave y continua posible, utilizando los puntos conocidos para su definición.

Se dice que una función $s(x)$ es un spline en el intervalo $[a, b]$ si existe una partición del intervalo $[a, b]$,

$$P = \{ a = x_1 < x_2 ... < x_n = b \}$$

de tal forma que $s(x)$ es un polinomio en $[x_i , x_{i+1}]$, con $i = 1, ..., n.$

Uso de los splines para la construcción del perfil de un barco.
Fuente: Peter Isotalo. A model of Vasa's hull profile, taken at the Vasa Museum. Wikimedia Commons. http://alatown.com.s30748.gridserver.com/wp-content/uploads/2015/01/02-shipbodyplan.jpg
Construcción de un spline físico.
Fuente: Archives of Pearson Scott Foresman, donated to the Wikimedia Foundation. Line-art drawing of a spline. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Spline_(PSF).png

Los puntos $x_i$ con $i = 1, ..., n$ son comúnmente llamados como nodos o nudos del spline.

Los splines de Catmull-Rom pertenecen a una familia de curvas de interpolación ampliamente utilizadas en la graficación y animación por computadora. Estos splines se calculan de tal manera que la tangente a la curva en cada punto $p_i$ se basa en información de los puntos adyacentes, es decir, el punto anterior $p_{i−1}$ y el siguiente $p_{i+1}$, siendo la tangente la mitad del vector entre $p_{i−1}$ y $p_{i+1}$.

$$P'_i = \frac{1}{2} (P_{i+1} − P_{i−1})$$
Spline de Catmull-Rom para un conjunto de puntos.

La interpolación se construye con:

$$P(u) = U^T \, M \, B$$ $$ P(u) = \begin{bmatrix} u^3 & u^2 & u & 1 \end{bmatrix} \frac{1}{2} \begin{bmatrix} -1 & 3 & -3 & 1 \\ 2 & -5 & 4 & -1 \\ -1 & 0 & 1 & 0 \\ 0 & 2 & 0 & 0 \end{bmatrix} \begin{bmatrix} P_{i-1} \\ P_i \\ P_{i+1} \\ P_{i+2} \end{bmatrix} $$
$$ P(u) = \begin{bmatrix} \textcolor{#c04138}{-u^3 + 2u^2 - u} \\ \textcolor{#3484b9}{3u^3 - 5u^2 + 2} \\ \textcolor{#3bd177}{-3u^3 + 4u^2 + u} \\ \textcolor{#ffa72f}{u^3 - u^2} \end{bmatrix} \begin{bmatrix} P_{i-1} \\ P_i \\ P_{i+1} \\ P_{i+2} \end{bmatrix} $$

Una de las ventajas que tiene las splines de Catmull-Rom es que el cálculo de la tangente resulta automático y simple. Sin embargo, una desventaja es que las tangentes son independientes de la posición del punto por donde la curva atraviesa, ya que solo dependen del punto anterior y siguiente. Por este motivo, se han desarrollado algunas variaciones de los splines de Catmull-Rom en las que se modifica el cálculo de la tangente, para proporcionar más control sobre la curva generada.

Curvas de Bézier

Otras curvas spline ampliamente utilizadas son las curvas de Bézier, que se emplean en el diseño industrial. Estas curvas fueron desarrolladas por James Ferguson (Boeing), Pierre Bézier (Renault) y Paul de Faget de Casteljau (Citroën) para la industria de la aviación y la automotriz.

En particular, una curva de Bézier es un spline de interpolación y aproximación, esto significa que la curva siempre atraviesa dos puntos extremos dados, mientras intenta aproximarse a otros puntos llamados puntos de control o auxiliares, que definen la dirección de la tangente de la curva en los puntos extremos.

La forma más sencilla de una curva de Bézier es una curva de grado $1$, en este caso, solo se tiene la información de los puntos extremos ($P_0$ y $P_1$) y no se especifican puntos de control. Esta curva está determinada de la misma manera que la interpolación lineal (vista anteriormente):

$$B(t) = P_0 + t (P_1 − P_0) = (1 − t) P_0 + t P_1$$
Curva de Bézier de grado $1$.

Una curva de Bézier cuadrática está determinada por tres puntos, dos puntos extremos ($P_0$ y $P_2$) y un punto de control ($P_1$).

$$B(t) = (1 − t)^2 P_0 + 2t (1 − t) P_1 + t^2 P_2$$
Curva de Bézier de grado $2$.

Una curva de Bézier cúbica está determinada por cuatro puntos, dos puntos extremos ($P_0$ y $P_3$) y dos puntos de control ($P_1$ y $P_2$).

$$B(t) = (1 − t)^3 P_0 + 3t (1 − t)^2 P_1 + 3t^2 (1 − t) P_2 + t^3 P_3$$
Curva de Bézier de grado $3$.

Todas estas expresiones paramétricas:

$$\begin{align*} B_1(t) &= (1 − t) P_0 + t P_1 \\ B_2(t) &= (1 − t)^2 P_0 + 2t (1 − t) P_1 + t^2 P_2 \\ B_3(t) &= (1 − t)^3 P_0 + 3t (1 − t)^2 P_1 + 3t^2 (1 − t) P_2 + t^3 P_3 \end{align*}$$

Son casos particulares de la fórmula general:

$$\begin{align*} B_n(t) &= (1 − t)^n P_0 + n (1 − t)^{n−1} t P_1 + n(n − 1)/2 (1 − t)^{n−2} t^2 P_2 + \\ &... + C_{n,k} (1 − t)^{n−k} t^k P_k + ... + t^n P_n \end{align*}$$

donde $C_{n,k}$ es el coeficiente binomial $\dfrac{n!}{k!(n − k)!}$.

La fórmula general es conocida como polinomios de Bernstein, nombrados en honor al matemático ucraniano Sergei Natanovich Bernstein que los utilizó para estudiar la conexión entre las propiedades de suavidad de una función y sus aproximaciones mediante polinomios. Los polinomios de Bernstein son herramientas útiles para aproximar funciones de manera numéricamente estable.


Es importante mencionar, que las curva de Bézier de grado $3$ suelen ser las más utilizadas en la graficación y animación por computadora.

Al observar la ecuación paramétrica:

$$B(t) = (1 − t)^3 P_0 + 3t (1 − t)^2 P_1 + 3t^2 (1 − t) P_2 + t^3 P_3$$

se puede deducir que, al igual que en los ejemplos anteriores de splines, la curva está conformada por cuatro curvas base.

$$\begin{align*} B(t) &= \textcolor{#c04138}{(1 − t)^3 P_0} \\ &+ \textcolor{#3484b9}{3t (1 − t)^2 P_1} \\ &+ \textcolor{#3bd177}{3t^2 (1 − t) P_2} \\ &+ \textcolor{#ffa72f}{t^3 P_3} \end{align*}$$

Adicionalmente a los polinomios de Bernstein, las curvas de Bézier se pueden construir de manera geométrica utilizando el algoritmo de Casteljau, el cual es un método recursivo que se utiliza en el campo del análisis numérico y particularmente en el diseño de curvas de Bézier. Lleva el nombre del ingeniero Paul de Faget de Casteljau, ya que lo desarrolló durante su trabajo en Citroën con la finalidad de abordar matemáticamente las formas de la carrocería de los automóviles. Y aunque es un método lento, en comparación por ejemplo con la evaluación de los polinomios de Bernstein, el algoritmo de Casteljau es numéricamente más estable.

Escena interactiva donde se presentan las curvas de Bézier. Si se activa la opción de “Mostrar construcción de Casteljau” se pueden observar las líneas de soporte utilizadas para realizar dicha construcción.

Aceleración (easing)

En la naturaleza, los movimientos de la mayoría de los objetos no son lineales, sino que tienden a acelerar o desacelerar. Cuando un objeto comienza a moverse lentamente y su velocidad aumenta gradualmente, se utiliza el término aceleración para referirse al cambio en la velocidad. Por otro lado, si un objeto en movimiento disminuye gradualmente su velocidad, se utiliza el término desaceleración.

En animación, la aceleración se conoce como ease-in, mientras que la desaceleración se conoce como ease-out. En muchas ocasiones, se combinan ambos tipos de cambio de velocidad para crear un movimiento conocido como ease-in-out, donde un objeto acelera y desacelera. Considerar los cambios de aceleración en el movimiento de los objetos permiten la creación de animaciones más naturales y menos robóticas.


Sincronización (timing)

La sincronización en animación, se refiere al tiempo que tarda una acción en completarse, por ejemplo, si dos pelotas se mueven de arriba a abajo en un segundo, ambas tienen la misma sincronización ya que su movimiento ocurre en el mismo periodo de tiempo.


Espaciado (spacing)

El espaciado en animación se refiere al tiempo que transcurre entre dos cuadros o momentos de una acción. La variación en el tiempo entre estos momentos es lo que determina la forma en que se expresa la aceleración (easing). Dos objetos pueden tener la misma sincronización, es decir, realizar una acción al mismo tiempo, pero al espaciar sus cambios de forma diferente el movimiento se percibe de forma diferente.



Una correcta sincronización y espaciado son necesarias para crear una animación realista y profesional.

Capítulo VIII
Modelado y materiales

Modelado

El modelado es un aspecto fundamental de la animación por computadora, ya que es el proceso mediante el cual se crean, construyen y definen los objetos tridimensionales que serán utilizados en la animación. El proceso de modelado puede implicar la creación de formas simples o complejas, desde objetos cotidianos hasta personajes y escenarios detallados. Existen diversas técnicas para representar la geometría de los modelos, entre las que se incluyen: B-splines racionales no uniformes (non-uniform rational B-splines, NURBS); polígonos; superficies de subdivisión y voxeles.


NURBS

Los B-splines, también conocidos como líneas polinómicas suaves básicas, splines básicos o basis spline, son una generalización de los splines cúbicos que determinan curvas suaves y diferenciables que se definen mediante polinomios en trozos. Estas curvas se construyen a partir de puntos por donde pasa la curva (raíces de los polinomios) y puntos en los que se aproxima la curva (puntos de control). Siendo las curvas de Bézier un caso especial de los B-splines.

Los B-splines racionales no uniformes o Non-Uniform Rational B-Splines (NURBS) son un modelo matemático que se utiliza para definir superficies suaves mediante el uso de curvas como guía. Las curvas y superficies NURBS son una extensión avanzada de los B-splines que ofrecen mayor flexibilidad y precisión en el modelado de curvas y superficies geométricas. Los NURBS combinan las ventajas de los B-splines no uniformes con la capacidad de utilizar pesos racionales, permitiendo la representación exacta de una variedad de formas geométricas.

Ejemplo de curva creada con NURBS.
Ejemplo de superficie creada con NURBS.
Ejemplo de superficie creada con NURBS.
Ejemplo de un modelo complejo creado con NURBS.
Fuente: Greg A L. Animation of a NURBS surface. Modeled and rendered in Cobalt. Wikimedia Commons. https://en.wikipedia.org/wiki/File:NURBS_3-D_surface.gif

En las etapas tempranas de la graficación por computadora las NURBS eran la representación preferida para mostrar superficies debido a su suavidad y curvatura. En comparación, el uso de polígonos no producía la misma suavidad, resultando en la visualización de caras planas que componían la malla poligonal. Sin embargo, con la mejora del hardware, hoy en día es posible utilizar una gran cantidad de polígonos para aproximar superficies, lo que ha convertido a los polígonos en la opción preferida para el modelado.

Hay que mencionar que en productos de visualización y arquitectura (CAD), las NURBS se siguen utilizando debido a que los sistemas CAD requieren la capacidad de modelar formas geométricas complejas y precisas que van más allá de las capacidades de las primitivas geométricas básicas (como puntos, líneas y triángulos). Aunque en muchos casos, para realizar el render final, las superficies NURBS se transforman en polígonos para que la GPU pueda generar la imagen correspondiente.


Polígonos

Un polígono () es una figura geométrica formada por tres o más puntos en el espacio, conocidos como vértices. Las aristas son segmentos que unen a los vértices, y las caras son el área delimitada por las aristas del polígono. Cada uno de estos componentes puede ser transformado, es decir, rotado, trasladado y escalado.

El polígono más básico que se puede representar es el triángulo, y se utiliza ampliamente en la creación de gráficos en 3D. Diversos programas de modelado 3D, como Blender, Maya, 3D Studio Max, utilizan polígonos de cuatro caras (quads) como el polígono básico de construcción. Esto se debe a que los quads facilitan el proceso de modelado de objetos 3D, sin embargo, internamente los quads se convierten en un par de triángulos para que la GPU pueda manejarlos y dibujarlos.

Elementos que conforman un polígono.

Es importante mencionar que por lo general, se evita construir polígonos con más de tres vértices, porque pueden comportarse de forma inestable. Esto se debe a que no siempre se puede garantizar que los $n$ vértices que conforman al polígono sean coplanares, lo que afecta el cálculo de las normales, lo que es fundamental para diversos modelos de iluminación.

Ejemplo de un polígono con 8 caras, donde se observa que es posible que sus vértices dejen de ser coplanares, lo que puede causar un problema en su dibujado.

Una malla poligonal es una colección de polígonos que pueden ser transformados conjuntamente, lo que ofrece una mayor versatilidad en el proceso de modelado y creación de gráficos en 3D, ya que una malla poligonal puede representar la superficie de un objeto completo.

Ejemplo de malla poligonal que aproxima la superficie de una jirafa de caricatura.

Flujo de las aristas

El flujo de las aristas indica la forma en que las aristas de un modelo tridimensional se mueven o fluyen, tal como su nombre lo sugiere. Un flujo adecuado de las aristas garantiza que éstas sigan la curvatura y características del modelo, lo que permite minimizar las deformaciones en las zonas externas a las caras que están siendo animadas.

“CGC Classic: Female Character Modeling Pt. 7 - Head Topology (Blender 2.6)”, YouTube, subido por CG Cookie, 17 mar 2018. https://youtu.be/Yk_kTuH1b_8

Por lo general cuando se construye un modelo 3D con fines de animación, se suelen construir ciclos de quads al rededor de las zonas que se deforman, esto con la finalidad de aislar lo mejor posible los cambios en la topología de toda la malla. Hay que mencionar que un flujo de aristas correcto solo se vuelve visualmente importante en modelos animados, ya que son estos los que modifican la posición de sus vértices, por lo que es particularmente importante que en las articulaciones y rostros de los personajes animados se cuente con un flujo de aristas adecuado, y así evitar deformaciones.


Normales

El término normal se deriva de la palabra en latín norma, que hace referencia a una escuadra de carpintero que siempre se encuentra en ángulo recto con una línea o superficie ().

Escuadra de carpintero.
Fuente: Shakespeare at English Wikipedia. A steel square. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:Steel_Square-1.jpg

En matemáticas, la normal a una curva o superficie corresponde a un vector que es perpendicular a esa curva o superficie en un punto dado.

Cuando se modela un objeto tridimensional, es importante considerar las normales de las superficies poligonales, ya que la mayoría de los algoritmos de coloreado utilizan las normales para calcular el color de los píxeles de la superficie.

En la mayoría de los casos, si las normales se invierten, el color que se muestra en la superficie del objeto puede ser incorrecto o no visible, dependiendo del tipo de material o algoritmo de renderizado que se esté utilizando.

El coloreado plano (flat shading) se produce al considerar las normales en cada vértice de forma individual y con esta información se determina la iluminación de cada cara, lo que resulta en una apariencia de caras planas en la malla.

Por otro lado, si se consideran las normales en los vértices como una normal asociada a todas las caras a las que pertenece cada vértice, entonces se produce un coloreado suave sobre la superficie lo que mejora la apariencia de objetos curvos. Este tipo de coloreado se conoce generalmente como coloreado de Gouraud (Gouraud shading).

Resolución de la topología

La cantidad de polígonos utilizados para representar una malla se conoce como la resolución de la topología, y es importante ya que existen diferentes requisitos y restricciones según el sector al que se destine el modelo.

En el caso de los videojuegos, se espera que la resolución sea óptima (con solo los triángulos necesarios) para presentar e interactuar con los modelos tridimensionales en tiempo real. Por lo general, la resolución de los modelos en videojuegos se ajusta a las capacidades mínimas de un equipo de computo particular, lo que se conoce como los requisitos mínimos del sistema.

En el cine y la televisión se suelen permitir más polígonos, ya que no se requiere una interacción en tiempo real con los modelos, aquí por lo general la resolución se encuentra limitada por los recursos de cómputo, como la memoria, el procesador, etc.

Ejemplo de diferentes resoluciones de la topología en un objeto que aproxima una esfera.

Superficies de subdivisión

Las superficies de subdivisión son una forma de representar superficies suaves y detalladas mediante una malla poligonal (con poca resolución topológica) y agregando detalles por medio de subdivisiones en múltiples niveles sobre la malla original. En esencia, una superficie de subdivisión es una malla poligonal a la que se le aplica recursivamente una operación de división y suavizado de sus caras.

Generalmente, las caras que se calculan en los diferentes niveles de subdivisión no son accesibles para su edición, ya que se busca simplificar la manipulación de objetos con muchos detalles. La principal ventaja que ofrecen las superficies de subdivisión es que con la manipulación de pocos vértices se pueden crear objetos complejos con una apariencia suave.

Ejemplo de una mano modelada como superficie de subdivisión.

Además, las superficies de subdivisión permiten utilizar las mismas herramientas que se utilizan para modelar con polígonos. Anteriormente, cuando se requería modelar objetos orgánicos, es decir, objetos con una apariencia suave y redondeada, se utilizaban las NURBS, sin embargo, esto requería el uso y dominio de un conjunto de herramientas diferentes a las utilizadas para modelar con polígonos. En la actualidad, el uso de NURBS para modelar objetos orgánicos ha sido desplazado por el uso de superficies de subdivisión, ya que se pueden obtener resultados muy similares y suelen ser más eficientes.


“Subdivision Surfaces: Overview”, YouTube, subido por GuerrillaCG, 27 dic 2008. https://youtu.be/ckOTl2GcS-E
“Blender 2.8 Subdivision Surface Modeling Tutorial”, YouTube, subido por Jayanam, 26 feb 2019. https://youtu.be/AeMz9aPXpa4

OpenSubdiv es una biblioteca de código abierto que implementa los algoritmos para manejar superficies de subdivisión en CPU paralelos así como en la GPU. Para más información sobre superficies de subdivisión se puede consultar el siguiente vínculo: https://graphics.pixar.com/opensubdiv/docs/subdivision_surfaces.html.

El modificador de subdivisión utilizado en Blender emplea la biblioteca OpenSubdiv para su funcionamiento, según lo indica su documentación: https://docs.blender.org/manual/en/4.1/modeling/modifiers/generate/subdivision_surface.html

Voxels

El vóxel, también conocido como volumetric pixel, es una unidad gráfica definida en tres dimensiones que se asemeja al píxel. Estos elementos, que se corresponden con un cubo unitario, se utilizan para representar información volumétrica en imágenes digitales. A diferencia de los píxeles, que representan información en dos dimensiones, los voxeles representan información en tres dimensiones.

Los voxeles son ampliamente utilizados en diversas aplicaciones, como en la medicina y la ciencia, para la representación de información volumétrica como las obtenidas por medio de tomografías, resonancias o en reconstrucciones de tejidos.


“Anders Ynnerman: Visualizing the medical data explosion”, YouTube, subido por TED, 21 ene 2011. https://youtu.be/pqTkuaAykBw

Así mismo, en el ámbito de los videojuegos y la animación, los voxeles se han vuelto populares para el modelado de objetos tridimensionales con un estilo pixelado en tres dimensiones, à la Minecraft.

“Hilda - 3D Model”, Sketchfab, subido por William Santacruz, 28 ago 2019. https://sketchfab.com/3d-models/hilda-e46edc75b530432cb5a5f1537848b0fb

Para estos modelos à la Minecraft se pueden utilizar paquetes de modelado generales, como: Blender, Maya, 3D Studio Max, etc., pero por lo general se recomienda el uso de editores especializados para este tipo de modelos, ya que ofrecen herramientas particulares que agilizan la creación de modelos. Algunos de estos editores son:

Flujo de modelado

El flujo de modelado se refiere al proceso de creación de modelos tridimensionales mediante el uso de un software de modelado 3D. Este proceso depende del tipo de objeto tridimensional que se esté modelando y del tipo de proyecto en el que se esté trabajando. Algunos de los proceso de modelado más comunes son:

  • modelado desde cero (from-scratch modeling), ;
  • modelado con primitivas (primitive modeling), ;
  • modelado basado en cajas (box modeling), ;
  • modelado con operaciones booleanas (boolean modeling), ;
  • escaneo láser (laser scanning), y
  • escultura digital (digital sculpting), .

Modelado desde cero

En el modelado desde cero, cada vértice y polígono se colocan individualmente para completar el objeto. Se utiliza herramientas de modelado, como la extrusión, creación de formas básicas y modelado poligonal, para crear un modelo 3D desde cero. Este método es popular para la creación de personajes y objetos personalizados, ya que proporciona un alto nivel de control y precisión en la creación del modelo.

Aunque es una técnica popular, a causa de los avances en las herramientas de modelado y edición de los programas de modelado tridimensional, esta técnica se utiliza menos en la actualidad, y en lugar de mover vértice por vértice, se editan grupos de vértices o caras para hacer el proceso de modelado más eficiente.

Construcción de una cabeza humana por medio del modelado desde cero, avanzando poco a poco en la construcción de un modelo completo. Modelo obtenido de https://sketchfab.com/3d-models/male-head-0247a25a04ba46b99629130277fe39b7

Modelado con primitivas

El modelado con primitivas implica crear un modelo 3D a partir de formas predefinidas, como cubos, esferas y cilindros, que son proporcionadas por el software, estas formas básicas se combinan y modifican para crear modelos más complejos. Este método es rápido y eficiente para crear modelos simples, y es útil para crear superficies rígidas como mesas, sillas, robots o armas; también sirve como base para otros procesos de modelado, como el modelado con arcilla digital, ya que permite determinar el volumen inicial que ocuparán los objetos.

Construcción de una mesa por medio del modelado con primitivas. Modelo obtenido de https://sketchfab.com/3d-models/wooden-table-acd1cef307b94803846d624b251a4e63

Modelado basado en cajas

El modelado basado en cajas construye un modelo 3D a partir de un cubo, que poco a poco se va moldeando y modificando para crear la forma deseada. Este método se utiliza para crear personajes y objetos orgánicos, ya que permite una gran cantidad de flexibilidad y control, para ello, se extruyen diferentes partes (como las extremidades de una persona o partes de un mueble) que conforman el modelo, y se realizan cortes y subdivisiones para agregar más detalles.

Este método de modelado es popular, ya que brinda una noción del volumen del objeto durante la construcción inicial y, al mismo tiempo, permite un control fino sobre las características finales. Así mismo, como el proceso utiliza una serie de pasos repetitivos para llegar al producto final, permite un modelado más eficiente y controlado.

“| PigArt | BLENDER Timelapse: Low poly Wolf”, YouTube, subido por PigArt, 23 ene 2014. https://youtu.be/4rIEUv_Tiv4
“[Blender Low poly] Cute Villager Girl”, YouTube, subido por Cherylynn Lima, 31 mar 2018. https://youtu.be/AK56ehoMVRo
“Lista de reproducción | Crear Personaje Low Poly #1 - Configurar Vistas de Referencia (Para Principiantes en Blender)”, YouTube, subido por José Mario Pérez Cotes, 28 jul 2016. https://youtu.be/LpXiqE_dSfU&list=PLvtKUmuXbMrsblPyvz_hta6LZVO5ilR3k
“Character modeling for beginners - Blender”, YouTube, subido por Joey Carlino, 28 jul 2016. https://youtu.be/O6HQhs-gk50
“6 key principles for 3D modeling”, YouTube, subido por CG Cookie, 4 jun 2019. https://youtu.be/OVbIOHAI3iY
“Tutorial Blender en español | Modelado LOW POLY en Blender”, YouTube, subido por Mariana Martínez 3D, 11 nov 2022. https://youtu.be/T5EOVEB-syA

Modelado con operaciones booleanas

En el modelado con operaciones booleanas se combinan formas básicas utilizando operaciones booleanas como unión, intersección y diferencia para crear modelos complejos a partir de objetos más sencillos. Este enfoque es popular en el diseño mecánico y arquitectónico, donde se requieren formas geométricas con bordes bien definidos, sin embargo, uno de los principales desafíos de este método es que los algoritmos utilizados para realizar las operaciones booleanas pueden generar muchos polígonos con múltiples vértices, lo que puede complicar la topología del modelo.

“Blender Boolean Modifier Tutorial”, YouTube, subido por Jayanam, 22 ene 2018. https://youtu.be/RDKt_lNAHss
“Blender Secrets - 6 Minutes of Boolean Basics”, YouTube, subido por Blender Secrets, 19 jul 2022. https://youtu.be/_S3D8djM5bE

Escaneo láser

El modelado por escaneo láser consiste en digitalizar objetos reales utilizando un sensor, generalmente un láser. Una vez escaneado el objeto físico, se importa la información a un software de modelado 3D para su posterior edición y refinamiento. Este método es útil para la creación de modelos precisos de objetos existentes y puede ahorrar tiempo en el proceso de modelado, aunque se debe considerar que la información obtenida a través del escaneo láser suele ser una nube de puntos densa y poco usable de primera instancia, lo que requiere limpiar y adecuar la geometría para su uso en un proyecto específico.

“Stars & Stones 2010: Fly Through - 3D laser scanning and reconstruction of Christ Church, Oxford”, YouTube, subido por starsandstonesprojec, 31 ene 2011. https://youtu.be/qhgyV1n7iv4
“3D Scanning Process Explained In Less Than 90 Seconds”, YouTube, subido por Surface Scan, 15 jun 2023. ¿Cómo funciona un escáner 3D?
https://youtu.be/RgQXPTJzROc

Escultura digital

La escultura digital es una técnica de modelado que ha crecido en popularidad en los últimos años, ya que permite crear modelos 3D complejos y detallados. Esta técnica implica el uso de herramientas de escultura digital (como empujar, jalar, suavizar, entre otras) para crear modelos a partir de una malla de polígonos, evitando operaciones puntuales sobre vértices, aristas o caras.

Al igual que los objetos escaneados por láser, las esculturas digitales pueden generar modelos con grandes cantidades de caras, lo que puede ser un problema para su uso en algunos medios finales (como los videojuegos). Para abordar este problema, se utiliza un proceso llamado retopología (retopology), que implica la recreación o reconstrucción de una malla 3D de alta resolución en una malla 3D de baja resolución y con una topología limpia y optimizada. El objetivo de este proceso es crear una malla adecuada para animación y renderizado en tiempo real, asegurándose de que el flujo de aristas sea correcto y que no haya triángulos o cuadriláteros deformados. Aunque la retopología puede ser una tarea tediosa, es esencial para crear modelos 3D limpios y bien estructurados.

“My Hero Academia, Uraraka Ochako - Sculpting, Texturing and EEVEE (Blender Timelapse)”, YouTube, subido por YanSculpts, 26 jul 2018. https://youtu.be/UuWlBAGXMo8
“3 Tips to Easily Learn Digital Sculpting (Beginners)”, YouTube, subido por Follygon, 18 dic 2023. https://youtu.be/6uyYtf-F7PQ
“Sculpt Appealing Characters in Blender Time Lapse”, YouTube, subido por Danny Mac 3D, 23 jun 2023. https://youtu.be/SNHBFtdGWhg
“Blender Tutorial - Retopology, Modeling and Character Concept”, YouTube, subido por YanSculpts, 10 may 2018. https://youtu.be/MirvVl9QFPw
“Retopology A Detailed Guide - What is Retopology & Why Do We Need It?”, YouTube, subido por Grant Abbitt, 29 abr 2021. https://youtu.be/S4YNiImIgPs
“Retopology in Blender Tutorial - a guide to retopologize everything”, YouTube, subido por in2vert, 24 nov 2022. https://youtu.be/ZycsVBejZN4

Materiales

Como se mencionó en el funcionamiento del sistema de visión humano, para percibir un objeto es necesario que exista una fuente de iluminación, y los rayos de luz que se reflejan al interactuar con un objeto y llegan hasta los ojos, son los que estimulan los conos y los bastones formando la imagen correspondiente.

Entonces es necesario comprender el tipo de interacciones que pueden tener la luz con los objetos, y con esto construir modelos computacionales que pueden aproximar el efecto causado por estás interacciones. En la se observa que las interacciones son: la reflexión difusa, la reflexión especular, la absorción, la transmisión, la refracción y la dispersión.

Diferentes formas en que puede interactuar la luz sobre un material.
Reflexión difusa

Cuando la luz incide sobre la superficie de un objeto, una parte de esa luz se dispersa uniformemente en todas las direcciones, un fenómeno conocido como reflexión difusa. Este tipo de reflexión ocurre debido a la capacidad del material para reflejar la luz uniformemente en todas las direcciones, lo cual resulta de la interacción de la luz con una superficie rugosa, y es característica de materiales opacos y con superficies mate, como la madera, las piedras o el papel, que tienen un alto nivel de reflexión difusa.

Reflexión especular

Cuando un material refleja la luz en una dirección específica que depende directamente de la dirección de la luz incidente, se produce una reflexión especular. Este tipo de reflexión esta determinada por la capacidad de un material para reflejar la luz en una dirección concreta, y se puede observar en metales, plásticos y superficies brillantes, que poseen una alta cantidad de reflejo especular.

Absorción

La luz puede ser absorbida por un objeto, dependiendo del material del que está hecho, cuando esto sucede, la energía de la luz se transforma en energía interna del objeto, lo que por lo general produce calor. En gran medida todos los objetos de colores, absorben ciertas longitudes de onda y permiten que se reflejen otras, las que al llegar a los ojos son las que se perciben como el color del objeto.

Luz transmitida

Al llegar la luz a un objeto, una cantidad de luz puede propagarse hacia su interior, lo que se conoce como luz transmitida. La transmisión es la capacidad de un material para permitir el paso de la luz a través de su superficie; los materiales transparentes suelen tener una alta cantidad de transmisión de la luz.

Luz refractada

Parte de la luz transmitida puede salir del objeto por el lado opuesto al que entró y a está luz se le llama luz refractada. Lo que se refiere a la desviación de la luz que ocurre cuando pasa a través de un material con un índice de refracción diferente al del medio circundante. Los materiales con alta refracción se utilizan en lentes, prismas y otros objetos ópticos.

Dispersión

Otra parte de la luz transmitida puede dispersarse en direcciones aleatorias debido a la composición interna del material, y a esta luz se le conoce como luz dispersa. La luz dispersa se refiere a la difusión de la luz en todas las direcciones al pasar a través de un medio, lo que puede dar la apariencia de neblina o polvo en suspensión, los materiales con alta cantidad de luz dispersa presentan este efecto.

En ocasiones, parte de la luz dispersada puede salir del material en puntos alejados de donde entra la luz en la superficie, lo que se conoce como dispersión por debajo de la superficie o dispersión subsuperficial (subsurface scattering), essto provoca que el objeto parezca tener luz suspendida en su interior dando una apariencia translúcida, como ocurre por ejemplo en la piel o la leche.


Fuentes de luz

En una escena la luz generalmente no proviene de un solo punto de iluminación, sino de múltiples fuentes de iluminación alrededor de los objetos. La luz se dispersa y se refleja en múltiples direcciones, no solo en lugares directamente frente a la fuente de iluminación, sino que también se refleja en superficies y alcanza otros objetos para ilumnarlos indirectamente.

Los algoritmos que tienen en cuenta la mayor cantidad de interacciones de luz con el ambiente y los materiales de los objetos se conocen como algoritmos o modelos de iluminación global, y suelen ser computacionalmente complejos y costosos, ya que tienen en cuenta muchos cálculos para simular las diversas interacciones de la luz.

Para simplificar la complejidad de la interacción de la luz en gráficas interactivas, o gráficas que se generan en tiempo real, se utilizan comúnmente modelos de iluminación local, los cuales simplifican los cálculos complejos para general imágenes con una apariencia aceptable, pero descartando o simulando muchas de las interacciones de la luz con los objetos. En estos modelos por lo general se da énfasis en la reflexión de la luz sobre la superficie de los objetos.

En graficación por computadora, para la representación y creación de escenas se utilizan algunos tipos básicos de fuentes de iluminación, como son: luz ambiental, luz puntual, luz de reflector o spotlight, luz direccional y luz aérea. Cada tipo de luz ilumina los objetos de una escena de manera diferente, con distintos niveles de carga y complejidad en los cálculos.

Luz ambiental

La luz ambiental es una técnica que permite simular la luz indirecta, es decir, la cantidad de luz que un objeto recibe a través de las reflexiones de la luz en objetos cercanos, esto permite que los objetos de una escena sean visibles aunque no haya una fuente de iluminación directa. Se trata por lo general de un color que se multiplica por el color de los objetos de la escena y puede ser atenuado o amplificado por un factor de intensidad, y dado que la luz ambiental está compuesta por tres canales (rojo, verde y azul), se puede ajustar cada uno de ellos para conseguir el efecto deseado. Una consecuencia que se obtiene al utilizar la luz ambiental, es que las sombras atenúan su oscuridad, haciendo que no sean completamente negras.

Luz puntual

Para representar una luz puntual se utiliza un objeto con un color y posición determinados, el cual emite luz en todas direcciones. Por lo general, las luces puntuales iluminan un modelo con información asociada a sus vértices, y su intensidad puede mantenerse constante o para lograr un efecto más realista, variar proporcionalmente a la inversa de la distancia entre la luz y la superficie al cuadrado.

Durante el cálculo de la iluminación, se utiliza la posición de la luz en el espacio del mundo y las coordenadas del vértice que se desea iluminar para determinar la dirección y la distancia de la luz, que junto con la normal asignada al vértice se calcula la contribución de la luz a la iluminación de la superficie. Un ejemplo común de luz puntual es un foco.

Luz puntual
Lus de reflector

La luz de reflector, también conocida como spotlight, tiene un rango de acción estrecho que limita el ángulo en el que se emite la luz. Para construir una luz de reflector se puede utilizar una luz puntual y limitar su ángulo de emisión. Este tipo de luces se caracteriza por tener una posición, un color y una dirección en la que emiten luz.

La luz emitida por una luz de reflector está compuesta por un cono interior brillante y uno exterior ligeramente más grande, con la intensidad de la luz disminuyendo entre los dos, estas luces están sujetas a factores como la atenuación y el alcance.

Luz de reflector
Lus direccional

La luz direccional es una fuente de luz que solo consta de una dirección, un color y una intensidad, sin tener en cuenta su posición. La luz que emite esta fuente de iluminación viaja a través de una escena siguiendo siempre la misma dirección.

Es posible imaginar una luz direccional como si se tratara de una fuente de luz puntual colocada a una distancia muy lejana, donde la intensidad de la luz se mantiene constante y no se ve atenuada por la distancia, por ejemplo la luz que llega del sol hacia la tierra puede considerarse como una luz direccional.

Luz direccional
Luz aérea

La luz aérea o de área corresponde a un objeto 3D que emite luz, es decir, son fuentes de iluminación que tiene una forma, usualmente un rectángulo, en lugar de ser simplemente un punto o una dirección.

Este tipo de luz produce sombras suaves y una iluminación más realista que las luces anteriores. Aún así, es importante mencionar que este tipo de fuentes de iluminación son más costosas de calcular, y tener muchas fuentes de este tipo puede ralentizar el render de una escena.

Luz aérea

Materiales y shaders

En el mundo real un material corresponde a los componentes que conforman un objeto, es decir, los elementos de los que está hecho. Estos materiales determinan las diversas características que un objeto posee, entre ellas determina su apariencia.

En el contexto de la graficación y animación por computadora, los materiales definen las cualidades visuales de un modelo 3D y determinan cómo interactúan con la luz del entorno, por lo que son fundamentales para representar correctamente la apariencia de la superficie de un modelo.

Para generar una imagen a partir de una escena tridimensional, es necesario proyectar los modelos de la escena en el plano de la vista (viewing plane), siendo este plano análogo a una película de cine, los conos y bastones en los ojos, o los sensores CMOS de una cámara digital, con la diferencia de que se utiliza luz simulada en lugar de luz real para determinar los colores de los píxeles de los objetos virtuales. Los shaders son un conjunto de instrucciones que se utilizan para calcular las propiedades visuales de los modelos en gráficos por computadora, es decir, son programas con los que se obtienen los píxeles que conforman una imagen. Los materiales de los modelos pueden tener una gran variedad de propiedades o parámetros que los shaders deben considerar en sus cálculos para su presentación, algunas de las propiedades más comunes son: el color, el color del ambiente, la transparencia, la reflectividad, la refracción, la translucidez, los reflejos especulares, la incandescencia y el brillo. Estas propiedades permiten al shader determinar la apariencia final de los objetos en la escena renderizada, y pueden ser ajustadas para lograr diferentes efectos visuales.

De forma simplificada un material en graficación y animación por computadora, es un conjunto de parámetros utilizados por los shaders para determinar la apariencia de un objeto.

El color es el atributo más básico de los materiales y proporciona información esencial sobre su apariencia visual. Este atributo puede corresponder a un color directo o a uno obtenido mediante una textura (que consiste en muestrear los píxeles de una imagen para aplicarlos al objeto).

El color del ambiente es un color que afecta de forma general a todas las superficies de una escena, y se refiere a la luz indirecta que se genera en el entorno en el que se encuentra el objeto. Suele ser el valor mínimo que puede tener una sombra dentro de la escena.


La transparencia es un atributo que indica cuánta luz puede atravesar un objeto. Este atributo es fundamental para objetos como cristales o líquidos, ya que determina cuánta luz se refleja y cuánta se transmite a través del objeto.


La reflectividad especifica cómo se refleja la luz cuando colisiona con la superficie de un objeto. Esta propiedad se puede determinar mediante técnicas de trazado de rayos (ray tracing) o mediante mapas de reflexión, donde se muestran los objetos cercanos que se reflejan en la superficie del objeto.

La refracción es el cambio de dirección que experimenta la luz cuando pasa a través de un objeto. Esto puede causar una distorsión de los objetos que se encuentran detrás del objeto que refracta.


La translucidez se refiere a la cantidad de luz que puede atravesar un objeto opaco, como el papel o la piel. Este atributo es importante para simular objetos que permiten que la luz los atraviese, dando un aspecto translúcido.


Los reflejos especulares son zonas brillantes en la superficie de un objeto que reflejan intensamente las fuentes de luz. Estos reflejos se utilizan a menudo para simular objetos con superficies altamente reflectantes, como el metal, el vidrio o el plástico.


La incandescencia es el atributo que se utiliza a menudo para simular la emisión de luz por objetos que están calientes, como las brasas de un fuego. El brillo se refiere a la iluminación propia del objeto, y se utiliza para simular objetos que no son afectados por luces externas dando una apariencia plana al objeto.

Modelo de iluminación de Phong

La iluminación en el mundo real es un fenómeno complejo que depende de múltiples factores, que en la mayoría de los casos no se pueden calcular con exactitud o que toman mucho tiempo para calcularlos. Cuando la luz incide en una superficie, parte de la luz puede ser absorbida, otra parte puede ser reflejada de forma difusa y otra puede ser reflejada de forma especular. La cantidad de luz reflejada puede variar para diferentes longitudes de onda y la forma en que un material refleja la luz de diferentes longitudes de onda determina su color.

En gráficos por computadora se definen modelos matemáticos que simulan o aproximan la interacción de las luces con los materiales de los objetos, utilizando cálculos simplificados que aproximan la realidad, estos modelos matemáticos se conocen como modelos de iluminación.

Uno de los modelos de iluminación locales más conocidos es el modelo de iluminación de Phong, el cual se utiliza para describir la forma en la que la luz se refleja al interactuar con la superficie de un objeto. Para ello se consideran tres componentes básicos: la luz ambiental, la luz difusa y la luz especular.

Es importante mencionar que el modelo de iluminación de Phong solo considera la luz reflejada por la superficie de un objeto, descartando cosas como la transmisión, refracción o translucidez del material. Esto con la finalidad de presentar una modelo simplificado que pueda calcularse en tiempo real. La cantidad de luz reflejada que llega al observador o a la cámara virtual se expresa como la combinación de la luz ambiental, la luz difusa y la luz especular:

$$L_{\textsf{reflejada}} = L_{\textsf{ambiental}} + L_{\textsf{difusa}} + L_{\textsf{especular}}$$

Luz ambiental (arriba izquierda), luz difusa (arriba centro), luz especular (arriba derecha) y el resultado final (abajo centro).

Luz ambiental

En la mayoría de los entornos naturales hay presencia de luz aunque parezca oscuro, esta luz puede ser proporcionada por fuentes lumínicas lejanas, como la luna, o filtrarse desde fuentes cercanas. La luz ambiental es aquella que no proviene directamente de una fuente de luz particular, sino que es la luz que se refleja y difunde en todas direcciones, esto ocasiona que las sombras no sean completamente negras. Aunque la luz ambiental es una aproximación de la luz indirecta, es decir aquella reflejada múltiples veces, es importante considerarla en lugar de ignorarla por completo, ya que tiene un efecto significativo en la iluminación de los objetos. En graficación por computadora, se utiliza el componente de luz ambiental para simular este efecto, proporcionando un valor constante para iluminar las superficies de los objetos.

Luz difusa

Para simular la iluminación directa que proporciona el color a un objeto, se utiliza el componente de luz difusa, que es el más importante del modelo de iluminación. Esta propiedad del material representa la proporción de luz incidente que se refleja difusamente en la superficie. Los colores más brillantes y saturados se muestran en las caras que están orientadas directamente hacia la fuente de iluminación. Las superficies rugosas tienden a reflejar más luz de forma difusa que las superficies suaves, ya que tienen una mayor cantidad de ángulos de reflexión disponibles, en cambio, las superficies suaves tienen menos ángulos de reflexión disponibles.

Entonces la reflexión difusa es el componente direccionalmente independiente de la luz reflejada, lo que significa que la luz que incide en la superficie es reflejada de forma independiente de la dirección de incidencia.

Johann Heinrich Lambert (1728-1777) fue un matemático, físico y astrónomo suizo que publicó trabajos sobre la reflexión de la luz, entre ellos, destaca la ley de Beer-Lambert, que establece la ley de absorción de la luz, donde se dice que un material puramente difuso es aquel que exhibe una reflexión lambertiana. En este modelo, la cantidad de luz reflejada depende únicamente de la dirección de incidencia de la luz. En efecto, una superficie difusa refleja más luz cuando la dirección incidente es perpendicular a la superficie, mientras que la reflexión disminuye a medida que se incrementa el ángulo de inclinación de la dirección de la luz incidente respecto a la normal de la superficie.

Para modelar este fenómeno, se utiliza el coseno del ángulo entre la normal de la superficie y la dirección de incidencia de la luz. La cantidad de luz reflejada $L_{\textsf{difusa}}$ para una superficie se puede expresar mediante la siguiente ecuación:

$$L_{\textsf{difusa}} = L_{\textsf{incidente}} K_{\textsf{difuso}} cos(θ)$$

Aquí, $L_{\textsf{incidente}}$ representa la cantidad de luz incidente y $θ$ corresponde al ángulo de inclinación del vector de la luz incidente, es decir, el ángulo formado entre la normal de la superficie y la dirección de la luz. $K_{\textsf{difuso}}$ es una constante que indica que tan difusiva es la superficie.

Modelo difuso

El término coseno en la ecuación anterior se puede expresar mediante la relación del producto escalar de dos vectores normalizados y el coseno del ángulo entre ellos, de la siguiente forma:

$$cos(θ) = N \cdot L_{\textsf{incidente}}$$

De esta manera se obtiene la expresión estándar para la reflexión lambertiana:

$$L_{\textsf{difusa}} = L_{\textsf{incidente}} K_{\textsf{difuso}} (N \cdot L_{\textsf{incidente}})$$
Luz especular

La luz especular muestra los puntos brillantes en objetos reflectantes, determinando la intensidad de sus reflejos según la dirección de luz incidente y el coeficiente de reflexión de la superficie. Aunque es más intensa que la luz difusa, su brillo disminuye rápidamente sobre la superficie del objeto, además calcular la iluminación especular es más costoso que calcular la iluminación difusa, pero hay que considerar que añade detalles significativos a la apariencia de una superficie.

La reflexión especular es el componente de la luz reflejada que depende de la dirección de incidencia de la luz y de la dirección en la que se refleja.

En una superficie especular ideal, como un espejo, la luz se refleja con un ángulo de incidencia igual al ángulo de reflexión.

Modelo especular en el caso ideal.

En superficies no ideales, la luz se dispersa alrededor de la dirección del reflejo, considerando un cierto ángulo a su alrededor.

Modelo especular en el caso no ideal.

Para expresar la dirección de reflexión de una superficie especular, se emplea el álgebra vectorial, utilizando la siguiente fórmula:

$$R = 2N(N \cdot L) − L$$

Donde $N$ es el vector normal a la superficie, $L$ es el vector de la dirección de la luz incidente y $R$ es el vector de la dirección de la reflexión ().

Calculo del vector de reflexión para la reflexión especular.
“Specular and diffuse reflection | Geometric optics | Physics | Khan Academy”, YouTube, subido por Khan Academy, 8 dic 2010. https://youtu.be/sd0BOnN6aNY
“Specular and diffuse reflection 2 | Geometric optics | Physics | Khan Academy”, YouTube, subido por Khan Academy, 8 dic 2010. https://youtu.be/XR52dXLyz-M

Renderizado basado en física (Physically Based Rendering)

El enfoque del renderizado basado en física (Physically Based Rendering, PBR) consiste en producir gráficos con una mayor precisión en el tratamiento de la luz en el mundo real. Este enfoque se basa en la idea de que todo en el mundo refleja en menor o mayor medida la luz. Para lograr este objetivo, se utiliza la fotogrametría, que consiste en medir las características de los materiales del mundo real a través de fotografías y replicar los rangos de color, brillo y reflexión. El PBR también se enfoca en las microfacetas o microcaras, que son características muy pequeñas del material que proporcionan información adicional y simulan detalles microscópicos. En el renderizado basado en física por lo general se utiliza una de las siguientes funciones matemáticas: la función de distribución de reflectancia bidireccional (BRDF) y la función de distribución de dispersión bidireccional (BSDF), las cuales aproximan de manera cercana las propiedades físicas y ópticas de un material, y son eficientes para su cálculo.

La BRDF describe cómo la luz se refleja en una superficie y se utiliza para simular el comportamiento de la luz en la superficie de un objeto, tomando como entrada la dirección de la luz incidente y la dirección desde la cual se está viendo la superficie (conocida como ángulo de visión o de vista) y devuelve la cantidad de luz reflejada en cada dirección. Esta función esencialmente define cómo la luz es reflejada por un objeto.

Por otro lado, la BSDF tiene en cuenta la dispersión de la luz que ocurre cuando la luz se refleja o refracta en una superficie y se difunde en varias direcciones, tomando como entrada la dirección de la luz incidente y la dirección de vista, similar a la BRDF, pero también incluye información sobre la dirección de dispersión de la luz. Esta función se utiliza principalmente para simular materiales que difunden la luz en múltiples direcciones, como la piel humana o la tela.

La principal diferencia entre la BRDF y la BSDF es que la primera describe la reflexión de la luz en superficies opacas, mientras que la segunda describe tanto la reflexión como la transmisión de la luz en materiales, incluyendo los translúcidos y transparentes. En general, la BSDF suele ser más compleja que la BRDF pero permite una simulación más realista de materiales que difunden la luz en múltiples direcciones.

“Naked Truth about Physically Based Shading”, YouTube, subido por Blender, 17 nov 2016. https://youtu.be/rg0pQ1eCLQY
“Physics and Math of Shading | SIGGRAPH Courses”, YouTube, subido por ACMSIGGRAPH, 15 jul 2016. https://youtu.be/j-A0mwsJRmk

El renderizado basado en física es un tema avanzado en el campo de la graficación por computadora y para conocer más sobre el tema, se recomienda el libro: “Physically Based Rendering from Theory to Implementation”, actualmente en su cuarta edición que está disponible de forma gratuita para su lectura en el siguiente enlace: https://www.pbrt.org/.

Mapeo de texturas

El mapeo de texturas es una técnica comúnmente empleada en la graficación por computadora para otorgar una apariencia más realista y detallada a los modelos 3D. Esta técnica consiste en aplicar una imagen, también conocida como textura, sobre una superficie tridimensional, para ello, se utiliza el proceso de mapeo de texturas donde a cada vértice de un modelo 3D se le asigna un punto de la imagen. Los píxeles de una imagen utilizada como textura se denominan téxeles (texture element).

En la graficación por computadora, las coordenadas de textura o coordenadas UV son un conjunto de valores que se utilizan para asignar una sección específica de una textura a una superficie 3D o un polígono. Generalmente estas coordenadas se especifican en un rango de $0$ a $1$, y se ubican en un sistema de referencia en el que el origen se encuentra en la esquina inferior izquierda de la imagen, y la esquina superior derecha está en la coordenada $(1, 1).$ A esta región se le conoce como espacio de textura y en este espacio cada punto se representa mediante un par de coordenadas $(u, v)$, siendo $u$ la coordenada horizontal y $v$ la coordenada vertical.

Espacio de textura.

¿Qué sucede si se utiliza una coordenada fuera del espacio de textura? En este caso se realiza un mapeo completo de $-∞$ a $∞$ en ambas direcciones llamado envoltura de textura (texture wrapping) y usualmente se puede especificar de dos formas: restringir (clamp) y repetir (repeat).

En el modo de restricción (clamp) las coordenadas de textura se limitan al rango de $0$ a $1$, y si alguna coordenada se encuentra fuera de ese rango, se ajusta al valor más cercano dentro del rango. Por ejemplo, una coordenada de textura de $-0.1$ se ajustaría al valor en $0$, y una coordenada de textura de $1.2$ se ajustaría al valor en $1.$ Esto significa que los píxeles fuera del rango $0$ a $1$ no se repetirán ni se extenderán más allá del límite de la textura.

Envoltura de textura restringida

En cambio, en el modo de repetición (repeat) la textura se replica a lo largo del eje horizontal y/o vertical para rellenar el espacio que está fuera del rango $0$ a $1$ y si una coordenada de textura se encuentra fuera del rango de $[0,1]$ se descarta la parte entera, lo que ocasiona que las coordenadas siempre se encuentren acotadas, dando del efecto de que la textura se repite múltiples veces. Por ejemplo, si una textura se define para repetirse en el eje horizontal y se tiene una coordenada $u$ de $1.2$, el valor que realmente se usa es el de $0.2$, es decir, descartar la parte entera de la coordenada. Este modo es especialmente útil para crear patrones y texturas que se repiten en diversas direcciones.


Envoltura de textura repetida

Mapas UV

Los mapas UV son representaciones en dos dimensiones de los polígonos que conforman un objeto tridimensional, se utilizan para asignar coordenadas de textura a cada vértice de la superficie tridimensional, lo que permite mapear una imagen a las caras del modelo. El proceso de mapeo de texturas generalmente implica la creación del mapa UV, la aplicación de la textura al mapa y la posterior asignación del mapa UV a la superficie tridimensional.

Los programas de modelado 3D cuentan con herramientas, como el desenvolvimiento de la malla (unwrap), para crear mapas UV a partir de los polígonos del modelo. También se pueden crear mapas UV mediante funciones de proyección, como la plana, cilíndrica o esférica.


Del lado izquierdo se presenta un modelo 3D de una media esfera o domo; y del lado derecho se muestra el mapa UV correspondiente.

Texturas

Las texturas se pueden entender como información almacenada en matrices uni, bi y tridimensionales, aunque por lo general se utilizan imágenes para su representación, es decir, texturas bidimensionales. Las texturas pueden ser generadas de forma procedural a partir de funciones que producen patrones variados; o pueden ser mapas de bits que contengan fotografías; o imágenes generadas por editores especializados.

Las texturas procedurales son creadas a través de algoritmos que generan patrones como celdas, gradientes, ondas, fractales, tableros, entre otros (). Estas texturas se crean de forma matemática en lugar de ser creadas manualmente, esto significa que no están basadas en ninguna imagen o fotografía existente y se pueden crear de forma dinámica durante el proceso de renderizado. Las texturas procedurales pueden simular efectos como el ruido, el patrón de madera o el patrón de mármol, lo que las hace muy útiles para crear materiales complejos y orgánicos. Además, al ser generadas en tiempo real, pueden ser muy eficientes en cuanto a la memoria y la velocidad de procesamiento.

Las texturas procedurales tienen la ventaja de ser independientes de la resolución, no presentar patrones repetitivos al cubrir las superficies y ser proyectables, es decir, se pueden mapearse a la superficie sin la necesidad de utilizar mapas UV explícitos.

Sin embargo, la desventaja de las texturas procedurales radica en la dificultad para controlar con precisión la ubicación de los detalles en el modelo. Por ejemplo, si se desea crear una pequeña mancha en una parte específica del modelo, con una textura procedural la mancha aparecerá en todo el modelo ya que no se tiene un control fino para su colocación.

Algunos ejemplos de texturas procedurales.

En cuanto a la creación de texturas, existe otro tipo conocido como texturas basadas en mapas de bits. En este caso, estas texturas se generan a partir de una imagen o fotografía existente y se aplican a una superficie 3D mediante la utilización de coordenadas de textura asignadas a los vértices de la superficie 3D. La principal ventaja de las texturas basadas en mapas de bits es que pueden ser muy detalladas y realistas, lo que las hace ideales para la creación de materiales como madera, piedra y metal. A pesar de ello, su uso puede ser menos eficiente en términos de memoria y rendimiento, especialmente si se utilizan imágenes de alta resolución. Además, estas texturas son dependientes de la resolución en la que fueron creadas, lo que puede causar efectos de pixelado y distorsión al ampliar su tamaño.

Ambos tipos de texturas se utilizan para especificar diversos mapeos de información en los shaders y por ello son conocidos como mapas de texturas. Es importante entender que las texturas no solo permiten representar información de color, sino que también pueden representar atributos como: el relieve, el valor especular, la transparencia, el desplazamiento, las normales, la reflexión, entre otros más.


Mapa de color

Un mapa de color es una textura básica que proporciona información sobre los colores de la geometría del modelo. Este tipo de mapa de textura es comúnmente utilizado para agregar detalles de color y apariencia a una superficie 3D.

Mapa de relieve

Un mapa de relieve (bump map) utiliza una imagen en escala de grises para crear la ilusión de profundidad en la superficie de un modelo. Los tonos claros y oscuros de la imagen determinan qué áreas parecen más levantadas o profundas, respectivamente. Este mapa de textura es útil para simular la profundidad y textura de una superficie sin necesidad de agregar geometría adicional, ya que al aplicar este mapa de textura se desplazan los píxeles de la superficie 3D en función de las variaciones de luz y sombra presentes en la textura.

Mapa especular

Un mapa especular afecta la forma en que se muestran los brillos especulares en la superficie, añadiendo ruido y detalles al modelo. Se utiliza para controlar la cantidad y posición del brillo de la reflexión especular en una superficie simulando el reflejo de la luz, lo que es particularmente útil para representar el brillo de un objeto metálico o la luz que refleja una superficie húmeda.

Mapa de transparencia

Los mapas de transparencia controlan la opacidad de una superficie 3D, siendo útiles para agregar color o suciedad a objetos de cristal, como vidrio o agua.

Mapa de desplazamiento

Los mapas de desplazamiento se utilizan para agregar detalles y complejidad a la superficie de un modelo 3D mediante el desplazamiento de los vértices de la geometría. Son imágenes en escala de grises que se aplican durante los cálculos realizados en los shader de vértices; de esta forma se puede crear la ilusión de una superficie con profundidad y rugosidad.

Mapa de normales

Los mapas de normales proporcionan información sobre las normales de las caras del modelo, utilizando los componentes RGB de la imagen para representar las coordenadas $X$, $Y$ y $Z$ de los vectores normales. Estos mapas de textura permiten modificar la dirección de las normales de la superficie 3D, lo que ayuda a mejorar la iluminación de la superficie y simular la rugosidad, ya que una textura puede contener mucha información fina sobre las normales de una superficie.

Capítulo IX
Rigging y animación

Rigging

Para lograr una animación efectiva de objetos 3D, se requiere un sistema que permita a los animadores controlar y ajustar la posición de la geometría con flexibilidad. Todos los objetos 3D destinados a ser animados necesitan contar con algún tipo de mecanismo que permita a los animadores mover la geometría en la posición deseada.

A este sistema se le conoce comúnmente como rig y es esencial para animar personajes articulados. De hecho, el rig es el mecanismo más utilizado para animar este tipo de personajes.

“Training a DINOSAUR!!!”, YouTube, subido por barnabydixon, 25 dic 2015. https://youtu.be/nza5G8TFfOA
“Awesome Paper CAT Puppet”, YouTube, subido por barnabydixon, 7 nov 2021. https://youtu.be/Pj2xOHyLN1E

El rigging es una técnica que tiene como objetivo facilitar el trabajo del animador, permitiéndole transformar la geometría de los modelos 3D a través de un número limitado de elementos de control. Los rigs son sistemas de control que se crean y aplican a los objetos 3D para permitir un movimiento natural y realista de los personajes y otros objetos en una animación. Existen varios tipos de rigs que se adaptan a diferentes necesidades y requisitos de animación. Por ejemplo, los rigs para personajes humanoides tienen una estructura similar a la del esqueleto humano y presentan articulaciones en los hombros, codos, muñecas, caderas, rodillas y tobillos. El rigging es un proceso complejo que requiere una comprensión detallada de la anatomía y la física del movimiento, por lo que es importante que los riggers (las personas encargadas de construir los rigs) trabajen en estrecha colaboración con los animadores para garantizar que el rig se adapte a las necesidades específicas de la producción.

Una vez que se tiene el rigging, se utiliza una herramienta conocida como skinning para conectar la geometría del modelo 3D al sistema de articulaciones (o huesos) y que el modelo siga los cambios y transformaciones del rigging. El skinning es un proceso importante para la animación de personajes y criaturas, ya que permite que el modelo siga los movimientos del esqueleto de manera realista.

En el rigging, se utiliza una jerarquía de sistemas y controles que funcionan secuencialmente para crear la articulación de un objeto. La jerarquía básica consiste en una relación padre-hijo, donde el proceso de emparentamiento crea esta relación. Cuando se emparentan dos o más objetos, se crea un grupo, y cualquier objeto hijo puede transformarse independientemente de su padre, mientras que los hijos siguen la cadena de transformaciones del padre.

La posición de pivote o punto de pivote es crucial para establecer la posición correcta de manipulación del objeto, ya que determina la posición alrededor de la cual rota y desde la cual otros manipuladores transforman el objeto. Normalmente, el pivote se establece en el origen del sistema de referencia del modelo, es decir, el espacio del modelo.

El esqueleto, también conocido como armature en Blender, es un sistema jerárquico de huesos que se configura para utilizar diferentes deformadores en la malla. Se utiliza para cualquier tipo de modelo, ya sean objetos orgánicos o no orgánicos, y su función principal es facilitar la manipulación y animación del modelo 3D.

Existen dos categorías para crear el movimiento de los huesos (o articulaciones): cinemática directa o hacia adelante (forward kinematics, FK) y cinemática inversa o hacia atrás (inverse kinematics, IK). Ambos tipos de movimiento ofrecen al animador diferentes formas de abordar tareas específicas de animación.

La cinemática directa implica la transformación de los huesos en el orden jerárquico establecido, expresando explícitamente las transformaciones de cada hueso para conseguir una configuración determinada. Este método se utiliza para animar modelos 3D moviendo sus articulaciones, desde la raíz hasta las extremidades, en una dirección hacia adelante. El movimiento se logra moviendo los huesos del esqueleto, lo que a su vez mueve el modelo.

La cinemática inversa se refiere a la transformación de los huesos en el orden inverso de su jerarquía original, donde se expresa la configuración final dentro del espacio deseado, y se calcula automáticamente la secuencia de transformaciones de los huesos necesarias para llegar a dicha configuración. El animador establece la posición y orientación de la extremidad final (como la mano o el pie), y el software de animación calcula automáticamente los movimientos necesarios de los huesos del esqueleto para llegar a esa posición. La cinemática inversa es una técnica que simplifica la creación de poses y animaciones, pero en algunos casos es necesario ajustar manualmente algunos huesos, por lo que un sistema robusto de animación debe permitir utilizar ambos enfoques.

“Animación de los Brazos (FK versus IK)”, YouTube, subido por Doodley, 7 oct 2022. https://youtu.be/JnkAlwMjalc

Una vez creado un sistema de esqueleto para un personaje, se aplican deformadores para que la geometría siga al esqueleto. Los deformadores permiten vincular el rigging con los componentes de la geometría, como los vértices, aristas y caras que componen la malla poligonal.

Entre los deformadores más utilizados se encuentran el skinning o envoltura, la jaula (o red o lattice) y los blendshapes.

Un deformador de skinning permite asignar pesos a los vértices que indican el nivel de influencia que cada hueso tiene sobre cada vértice en particular. Se utiliza para vincular la “piel” de un modelo a su esqueleto, permitiendo que la piel se deforme y se mueva de manera realista con los movimientos del esqueleto. Para ello, se utiliza la herramienta de pintado de pesos (weight painting, ).


“Blender 2.8 Weight Painting In 5 Minutes!”, YouTube, subido por Royal Skies, 30 mar 2019. https://youtu.be/rG82fogtuCg

Un deformador de lattice es una jaula de vértices que envuelve a la malla original, y al modificar los vértices que la componen se modifica la geometría del modelo envuelto. Con este deformador, es posible modificar la forma de un modelo 3D entero o en partes, mediante la modificación de un conjunto reducido de vértices que conforman la lattice.


“Lattice modifier | BLENDER 2.8”, YouTube, subido por Design Sync - Blender, 20 jul 2019. https://youtu.be/1Qn7TGagmxc

Otra forma de deformadores que usualmente se utiliza para crear animaciones faciales son los blendshapes o shapekeys. En este tipo de deformador, se crean una serie de formas faciales predefinidas y luego se animan en diferentes proporciones para crear una variedad de expresiones faciales. Es necesario definir una malla en su configuración inicial (o base), y a partir de esta configuración inicial se modifican los vértices, aristas o caras para crear nuevas formas utilizando la misma geometría. De esta forma, se obtienen variaciones de la misma malla base.



Además de utilizarse para la creación de expresiones faciales, también se emplea para corregir problemas que puedan surgir en zonas donde la malla se doble de forma incorrecta durante la animación. Asimismo, es posible utilizar este tipo de deformador para crear la transición suave entre diferentes modelos tridimensionales mediante el morphing.

“Blender Character Animation: Shape Keys”, YouTube, subido por SouthernShotty, 19 sept 2019. https://youtu.be/YDu6y_2jFg0

En resumen, el flujo de trabajo de rigging es el siguiente:

  1. Modelado del personaje: se crea un modelo 3D del personaje y se consideran los tipos de movimientos que puede realizar, lo que permitirá determinar la complejidad y los requerimientos del rig.
  2. Creación del esqueleto: se construye un esqueleto para el personaje, asegurándose de que se ajuste a las características anatómicas del modelo.
  3. Agregar controles de cinemática inversa: si es necesario, se crean controles de IK para permitir movimientos complejos de las extremidades.
  4. Crear controles generales: se crean controles generales para mover y rotar el personaje, lo que facilita la animación.
  1. Realizar el skinning: se asocian los vértices del modelo a los huesos del esqueleto.
  2. Asignar pesos de influencia: se ajustan los pesos de influencia de los huesos sobre los vértices, para realizar correctamente las deformaciones deseadas.
  3. Agregar otros deformadores: se pueden agregar otros deformadores, como lattices, para permitir una mayor flexibilidad en la deformación del modelo.
  4. Probar la configuración: se prueba el rig y se corrige cualquier problema que pueda surgir.
  5. Crear controladores de expresiones faciales: si se requiere, se crean controladores de blendshapes para permitir movimientos faciales.
  6. Crear controles personalizados: se pueden crear controles personalizados para permitir movimientos específicos, como el movimiento de una cola o alas.
  7. Animación y ajustes finales: se realiza la animación del modelo y se ajustan los errores que puedan ocurrir durante la prueba.

“Blender 2.8 Tutorial : Rig ANY Character for Animation in 10 Minutes!”, YouTube, subido por CG Geek, 18 oct 2019. https://youtu.be/SBYb1YmaOMY
“Rigging a Low Poly Person | Blender 2.8 | Beginners”, YouTube, subido por Grant Abbitt, 14 nov 2019. https://youtu.be/srpOeu9UUBU
“Cute Character In Blender 2.83 [Part 1, Modelling And Rigging]”, YouTube, subido por PIXXO 3D, 25 ene 2020. https://youtu.be/gdnf-DDwS3U
“Cute Character In Blender 2.83 [Part 2, Lighting and Materials]”, YouTube, subido por PIXXO 3D, 25 ene 2020. https://youtu.be/zIHxDy_G4os


Animación

Un animador es responsable de dar vida a los personajes en la pantalla, logrando que los modelos 3D cambien de forma adecuada cuadro a cuadro para que se genere la ilusión de movimiento y se presente una animación. En la creación de una animación, por ejemplo, en la industria de los videojuegos, hay dos tipos de enfoques: la animación durante el juego (in-game animation) y la animación de las escenas cinemáticas (cut-scene animation), ambos tipos buscan presentar movimientos creíbles de los personajes. En la animación durante el juego se desarrollan movimientos generales para que el usuario pueda interactuar con el videojuego, mientras que en las escenas cinemáticas se crean movimientos y actuaciones coreografiadas para comunicar una historia.

En la industria del cine también se distingue entre dos tipos de animación: la animación de criaturas que se enfoca en movimientos realistas de seres vivos (reales o ficticios), y la animación actuada que utiliza acciones dirigidas y coreografiadas para comunicar una historia.

Estas diferencias sutiles en el enfoque de la animación requieren habilidades ligeramente distintas por parte del animador para construir los movimientos adecuados y lograr presentar de forma creíble los diferentes tipos de animación. A pesar de estas diferencias, los animadores utilizan las mismas herramientas para llevar a cabo su trabajo.


Herramientas generales para la animación

La mayoría de las aplicaciones de modelado y animación (como Blender, Maya, 3D Studio Max, entre otros) así como motores de videojuegos modernos (como Unreal, Unity, Godot, etc.) ofrecen un conjunto de herramientas para crear, modificar y controlar las animaciones.

Línea de tiempo (Timeline)

En los editores de animación, se suele incluir una línea de tiempo (timeline) que muestra todos los fotogramas que conforman una animación. Es posible crear, editar y borrar fotogramas clave en esta línea de tiempo para construir secuencias de animación, es esencial en la animación, ya que permite controlar la duración de una animación y la ubicación de cada fotograma clave en el tiempo. Cada cuadro se muestra en una escala de tiempo horizontal, lo que permite ajustar el tiempo de forma individual para crear una animación suave y realista. Además, se pueden añadir capas y ajustar su opacidad para superponer diferentes elementos animados. El acto de moverse a través de la línea de tiempo se conoce como scrubbing.


Línea de tiempo de Blender.

Editor de gráficas (Graph editor)

En la mayoría de los programas de animación se incluye una herramienta conocida como editor de gráficos (graph editor) que permite manipular la interpolación utilizada para generar los fotogramas intermedios. Esta herramienta de animación permite ajustar los valores de una animación de manera más precisa y visual, y muestra las curvas de animación de los diferentes parámetros en función del tiempo, lo que permite modificar la velocidad y la aceleración de la animación en cualquier momento. También permite ajustar la amplitud y la escala de los valores de animación para asegurar una transición suave entre los diferentes fotogramas clave.


Editor de gráficos de Blender.

Las funciones de curva también conocidas como FCurves son representaciones visuales del método de interpolación utilizado entre los fotogramas clave. Corresponden a las curvas que se utilizan en el editor de gráficos para representar los valores de animación a lo largo del tiempo. Se suelen presentar tres tipos básicos de curvas: las curvas escalonadas, las curvas lineales y las curvas spline.

Curvas escalonadas

Las curvas escalonadas mantienen un valor constante hasta la aparición del siguiente fotograma clave, generando cambios abruptos y súbitos en la animación. Se pueden utilizar para controlar con precisión la posición en la que aparece un objeto o para animar el cambio de una textura que representa expresiones faciales en personajes caricaturescos.

Las curvas lineales cambian el valor de un objeto a una velocidad constante y homogénea, creando fotogramas intermedios a través de interpolación lineal. Este tipo de curvas se utiliza para controlar movimientos rápidos y mecánicos.

Las curvas spline usualmente usan curvas de Bézier, permiten una interpolación más suave y natural entre los fotogramas intermedios, lo que genera movimientos de aceleración o desaceleración (easing). Estas curvas suaves se ajustan a los puntos de control definidos en el editor de gráficas, y los valores de la curva entre cada par de puntos se calculan automáticamente para crear una animación más fluida y natural.

Una vez que se definen los keyframes así como el tipo y rango de movimiento, siempre es bueno ajustar las FCurves para conseguir mayor control en la animación final.

Hoja de información (Dope sheet)

La hoja de información (dope sheet) es una herramienta de animación derivada de las hojas de exposición (exposure sheet) utilizadas en el mundo del cine y la animación tradicional. Su función es mostrar todos los cuadros clave de una animación en una tabla, lo que permite una vista detallada y precisa de los movimientos de los personajes. Permite ajustar fácilmente el tiempo de los cuadros clave y la velocidad de la animación. Además, es posible seleccionar varios cuadros clave para moverlos, escalarlos o copiarlos en bloques, lo que permite una animación más eficiente.

En la versión para animación por computadora la hoja de información muestra todos los keyframes de todos los objetos y controles, lo que permite manipular el tiempo en el que ocurren dichos fotogramas en la línea de tiempo.

Hoja de información en Blender.
“Dope Sheet - Blender 2.80 Fundamentals”, YouTube, subido por Blender, 30 jul 2019. https://youtu.be/LHdh8p37yM8

Los doce principios de animación

Los doce principios de animación son un conjunto de técnicas y conceptos desarrollados por animadores de Disney en los años 30, específicamente por Frank Thomas y Ollie Johnston en su libro “The illusion of life: Disney Animation”. Estos principios continúan siendo considerados fundamentales para crear animaciones atractivas y creíbles, proporcionando criterios para realizar mejores animaciones.

Las técnicas de animación derivadas de estos principios permiten a los animadores crear movimientos más suaves y creíbles, lo que ayuda a crear animaciones más fluidas y realistas. Al seguir estos principios, los animadores pueden crear personajes con vida propia, capaces de transmitir emociones y sentimientos. Además, los principios de animación proporcionan una guía clara y concisa para los animadores, lo que les permite estructurar y planificar su trabajo, asegurándose de que están creando una animación coherente y atractiva.

Estos principios son una base sólida para el aprendizaje de la animación y son utilizados por muchos programas educativos en animación. Son fundamentales para la creación de animaciones de alta calidad y son aplicables a cualquier tipo de animación, desde la tradicional hasta la generada por computadora, esto debido a que se basan en observaciones de la vida real y los movimientos de los seres vivos, lo que los convierte en principios generales

En 1987, se publicó un artículo titulado “Principles of traditional animation applied to 3D computer animation” por John Lasseter. En él, se presentaron los doce principios de la animación tradicional y se explica cómo aplicarlos a la animación generada por computadora en 3D. La importancia de estos principios radica en que permiten producir animaciones de calidad en diferentes medios, incluyendo 2D, stop motion y animación por computadora, por lo tanto, estos principios son esenciales para producir animaciones de alta calidad en cualquier medio. Este artículo fue fundamental en el desarrollo de la animación en 3D, y John Lasseter, quien es uno de los fundadores de Pixar Animation Studios, fue uno de los primeros en aplicar estos principios en la producción de animaciones de alta calidad, como se evidencia en la película Toy Story.

Los doce principios son:

  1. Compresión y extensión (Squash and stretch)
  2. Anticipación (Anticipation)
  3. Puesta en Escena (Staging)
  4. Animación directa y Pose a pose (Straight ahead action and pose to pose)
  5. Acción complementaria y acción superpuesta (Follow through and overlapping action)
  6. Acelerar y desacelerar (Slow in and slow out)
  7. Arcos (Arc)
  8. Acción Secundaria (Secondary action)
  9. Sincronización (Timing)
  10. Exageración (Exaggeration)
  11. Dibujo Sólido (Solid drawing)
  12. Atractivo (Appeal)

Compresión y extensión (squash and stretch)

El principio de compresión y extensión (squash and stretch) se utiliza en la animación para proporcionar la ilusión de peso y volumen a personajes en movimiento.

Este principio se refiere a la deformación que experimentan los objetos cuando realizan una acción, ya sea comprimiéndose o estirándose. La aplicación de esta técnica ayuda a enfatizar el peso, la velocidad y la dirección del movimiento de un objeto. Por ejemplo, al saltar, un personaje se estira en el aire y se comprime al caer al suelo.


Principio de compresión y extensión (squash and stretch)
“12 Principles of Animation: Squash and Stretch”, YouTube, subido por TipTut, 5 jul 2021. https://youtu.be/3UiAeCwTWT4

Anticipación (anticipation)

La anticipación (anticipation) es un principio de animación que consiste en preparar al público para una acción próxima mediante la presentación de los movimientos previos necesarios para su realización.

Este principio se refiere a la preparación que realiza un personaje antes de llevar a cabo una acción significativa. Por ejemplo, si un personaje va a lanzar una pelota, primero hará un movimiento hacia atrás para cargar su brazo antes del lanzamiento. De esta manera, la anticipación ayuda a que la acción principal sea más clara y efectiva para el espectador.


Principio de anticipación (anticipation)
“12 Principles of Animation: Anticipation”, YouTube, subido por TipTut, 12 jul 2021. https://youtu.be/Ua2hRgciIzY

Puesta en escena (staging)

La puesta en escena (staging) es el principio que se encarga de presentar una idea de manera clara para el espectador.

Se utilizan técnicas de composición visual para lograr una presentación efectiva de la información. Esto incluye la composición de los elementos de la animación, la iluminación y la cámara, con el fin de garantizar que la acción sea fácil de entender.


Principio de puesta en escena (staging)
“12 Principles of Animation: Staging”, YouTube, subido por TipTut, 19 jul 2021. https://youtu.be/5bIhuWrRFoQ

Animación directa y pose a pose (straight ahead action y pose to pose)

La animación directa (straight ahead action) y la animación pose a pose (pose to pose) son dos técnicas básicas de animación. En la animación directa, el animador dibuja cada cuadro de forma secuencial, generando una sensación de movimiento fluido. Por otro lado, en la técnica pose a pose, el animador crea una serie de poses clave que definen los momentos importantes de la acción, y luego completa los espacios intermedios con dibujos adicionales.

Principios de animación directa (straight ahead action) y animación pose a pose (pose to pose)
“12 Principles of Animation: Straight Ahead & Pose to Pose”, YouTube, subido por TipTut, 26 jul 2021. https://youtu.be/Dx0z3k1kNGU

Acciones complementarias y superpuestas (follow through and overlapping action)

Las acciones complementarias y superpuestas (follow through and overlapping action) son los movimientos que permiten expresar la inercia en una animación. Se refieren a los movimientos que se producen después de que un objeto o personaje haya completado su movimiento principal.

Una acción complementaria hace referencia a los movimientos adicionales que un objeto realiza después de haber completado su movimiento principal, mientras que la acción superpuesta se refiere a los movimientos adicionales que se producen mientras un objeto está en movimiento.


Principio de acciones complementarias y superpuestas (follow through and overlapping action)
“12 Principles of Animation: Follow Through and Overlapping Action”, YouTube, subido por TipTut, 3 ago 2021. https://youtu.be/7cmmjmGsg2I

Acelerar y desacelerar (slow in and slow out)

Acelerar y desacelerar (slow in and slow out) es un principio que indica que los objetos necesitan tiempo para acelerar al iniciar una acción y desacelerar al finalizarla, para dar una apariencia más natural a la animación.

El principio se refiere a la forma en que los objetos en el mundo real aceleran y desaceleran durante su movimiento; ya que los objetos no inician ni terminan un movimiento de forma abrupta, sino que lo hacen de forma gradual. Este principio ayuda a crear una sensación de peso y de inercia en los objetos animados.


Principio de acelerar y desacelerar (slow in and slow out)
“12 Principles of Animation: Slow In and Slow Out”, YouTube, subido por TipTut, 9 ago 2021. https://youtu.be/jGw9Gme7n1M

Arcos (arcs)

Los arcos (arcs) son la forma natural en la que se realizan la mayoría de los movimientos. Esto se refiere a que los objetos se mueven a través del espacio siguiendo trayectorias curvas suaves, lo que los hace parecer más naturales y realistas que si se movieran en línea recta.

Los movimientos en línea recta por lo general se utilizan para representar movimientos mecánicos (robotizados).


Principio de arcos (arcs)
“12 Principles of Animation: Arcs”, YouTube, subido por TipTut, 16 ago 2021. https://youtu.be/vkCQYDE6VzM

Acción secundaria (secondary action)

La acción secundaria (secondary action) es una acción adicional que complementa a la acción principal, lo que da mayor profundidad al movimiento.

Se refiere a los movimientos adicionales que se agregan a una acción para enfatizar sus características y mejorar su interpretación.


Principio de acción secundaria (secondary action)
“12 Principles of Animation: Secondary Action”, YouTube, subido por TipTut, 23 ago 2021. https://youtu.be/_YHsj7WeQUQ

Sincronización (timing)

La sincronización (timing) es el tiempo que toma completar una acción, lo que se refiere a la duración y velocidad de los movimientos en una animación.

Controlar el timing es importante para mantener un ritmo adecuado y coherente con la situación que se representa. Por ejemplo, un personaje que corre debe tener un timing rápido, mientras que un personaje que camina debe tener un timing más lento y fluido.


Principio de sincronización (timing)
“12 Principles of Animation: Timing”, YouTube, subido por TipTut, 30 ago 2021. https://youtu.be/DNWLbYTCGAg

Exageración (exaggeration)

La exageración (exaggeration) consiste en amplificar los movimientos y expresiones de los personajes para crear una mayor sensación de energía y emoción.

La exageración puede utilizarse para hacer que una escena sea más interesante y enfatizar la personalidad, acciones y características del personaje.


Principio de exageración (exaggeration)
“12 Principles of Animation: Exaggeration”, YouTube, subido por TipTut, 6 sept 2021. https://youtu.be/DmfT2CiqLD0

Dibujo sólido (solid drawing)

El dibujo sólido (solid drawing) se refiere a la habilidad para crear personajes y objetos con una sensación de peso, volumen y profundidad.

Es importante tener en cuenta la perspectiva, la luz y las sombras para dar una sensación de tridimensionalidad a la animación y evitar que los objetos se vean planos.


Principio de dibujo sólido (solid drawing)
“12 Principles of Animation: Solid Drawing”, YouTube, subido por TipTut, 13 sept 2021. https://youtu.be/GoDRT4epLrc

Atractivo (appeal)

El atractivo (appeal) se refiere a la capacidad de un personaje para ser interesante y atractivo para el público. Un personaje atractivo tiene un diseño visual interesante y una personalidad única y distintiva, lo que es importante para que el público se sienta identificado con el personaje y se interese en la historia que se está contando.


Principio de atractivo (appeal)
“12 Principles of Animation: Appeal”, YouTube, subido por TipTut, 20 sept 2021. https://youtu.be/Ggu0zQ9ENxk

A continuación se presentan algunos ejemplos que ilustran los doce principios de animación, es importante destacar que el dominio de estos principios requiere no solo su comprensión, sino también mucha práctica y atención al detalle en su aplicación.


“The 12 basic principles of animation. Animation Principles.”, YouTube, subido por MIX Tuts After Effect Tutorials, 17 feb 2020. https://youtu.be/G5kJC_rdmO0
“The 12 principles of animation (explained through the Carlton Dance)”, YouTube, subido por Pepe Gomez, 20 sept 2018. https://youtu.be/gmW2IPRUepk

“Disney - The Magic of Animation”, YouTube, subido por kaptainkristian, 3 oct 2018. https://youtu.be/EVQflnGcx4k
“2D Animation for Games: A Primer”, YouTube, subido por GDC, 19 ene 2022. https://youtu.be/PKZJmHrG4Yw

Animación limitada

Las películas de Disney suelen presentar animaciones que intentan representar lo mejor posible la realidad, lo que implica un alto costo y tiempo de producción; en este sentido, los 12 principios de animación surgieron como una guía para lograr animaciones de alta calidad. Pero para multiples estudios de animación los costos que generaba la creación de animaciones tan detalladas no eran sostenibles, por lo que se buscaron nuevos métodos para optimizar el proceso de creación de una animación, intentando no perder la calidad ni la esencia en el camino.

El término animación limitada o limited animation se refiere a una técnica de animación que se popularizó en las décadas de 1950 y 1960 como respuesta a los altos costos y las restricciones de tiempo que se enfrentaban en la producción de animaciones para televisión. Esta técnica consiste en reducir la cantidad de movimiento y detalle en los personajes y fondos, para lograr una animación más rápida y económica, sin redibujar toos los cuadros por completo y recreando solo aquellas partes que cambian entre cuadros. En particular, se utilizan técnicas como la repetición del fondo de manera cíclica; el enfoque dramático en la expresión de los personajes; o la reducción en el número de cuadros por segundo utilizados para representar diferentes secuencias animadas.

A pesar de que algunos animadores tradicionales criticaron la técnica de animación limitada por su aparente falta de calidad y detalle, esta técnica se convirtió en una herramienta importante para la producción en masa de animaciones para televisión. La animación limitada permitió la producción de animaciones de manera más rápida y a menor costo, abriendo la puerta a nuevas formas de contenido animado que de otra forma no habrían sido posibles.

La animación limitada tiene un estilo visual característico que se utiliza principalmente en animaciones 2D para simplificar la creación de los diferentes cuadros que componen la animación. Estas animaciones hacen un amplio uso de los diálogos y la narración para contar la historia.

Hay que mencionar que, aunque la animación limitada surge principalmente en los estudios de animación estadounidenses, la técnica se popularizó en Asia, particularmente en Japón, donde gracias a la creación de nuevas formas de aprovechar la animación limitada crearon el boom en el Anime.


“Why Do Most Hanna-Barbera Characters Wear Ties? | Art in Motion”, YouTube, subido por Totally Awesome Geeks, 26 abr 2018. https://youtu.be/RuszO_7rAXU
“Principles of Animation: Limited Animation”, YouTube, subido por Crunchyroll: Inside Anime, 20 ago 2018. https://youtu.be/4FpNiysG1_0

En el apartado correspondiente a los fotogramas, se habla sobre los fotogramas clave y su importancia para determinar la información principal de una acción; y se menciona el uso adecuado de las técnicas de interpolación en la animación por computadora. En este sentido, se puede considerar que muchas animaciones de videojuegos clásicos o retro (donde se utilizan sprites) son un claro ejemplo del uso práctico de la animación limitada, ya que se utilizan solo keyframes (o un número muy reducido de fotogramas) y no se realiza una interpolación suave entre dichos fotogramas.

En las animaciones en 3D, se pueden utilizar varias estrategias de la animación limitada, aunque el estilo de la animación suele ser menos fluido y más “caricaturesco”, lo que no se recomienda para animaciones con representaciones realistas.

Si se desea emular completamente el aspecto artístico de una animación 2D en una animación 3D, lo que incluye su representación visual y la forma en que se anima, se requiere un esfuerzo adicional, es decir, es necesario evitar que la computadora interpole suavemente la información entre los diferentes cuadros de la animación, lo que implica definir muchos más fotogramas clave de los que se utilizan normalmente en una animación 3D. A pesar de esto, diversos estudios de animación (y videojuegos) han logrado recrear satisfactoriamente este estilo visual tan característico ().


“The Animation of Guilty Gear Xrd & Dragon Ball FighterZ”, YouTube, subido por New Frame Plus, 30 jul 2019. https://youtu.be/kZsboyfs-L4

Captura de movimiento

La captura de movimiento, también conocida como motion capture o simplemente mocap, es una técnica utilizada en la animación por computadora que consiste en registrar el movimiento de un actor o un objeto en el mundo real y aplicarlo a un modelo 3D en la computadora. Se utiliza para animar personajes y objetos de manera realista y detallada, y es particularmente útil para animaciones que requieren movimientos complejos y naturales de humanos o animales.

La rotoscopia es una de las primeras técnicas para reproducir movimientos de personas reales y utilizar esa información para copiar los movimientos en personajes animados, lo que se considera una forma primitiva de captura de movimiento.

Esquema del rotoscopio
Fuente: Max Fleischer. Patent drawing for Fleischer's original rotoscope. Wikimedia Commons. https://commons.wikimedia.org/wiki/File:US_patent_1242674_figure_3.png

La técnica conocida como captura de actuación (performance capture) consiste en registrar no solo el movimiento físico de un actor, sino también sus expresiones faciales, voz e interpretación emocional, permitiendo crear una grabación completa de la actuación que puede utilizarse para animar personajes en 3D de manera realista y detallada. Es una técnica avanzada que resulta muy útil en la animación de personajes en 3D, ya que permite crear personajes que se parezcan y actúen de manera similar a los actores reales, así como animaciones que incluyan emociones y expresiones faciales complejas, difíciles de lograr mediante técnicas de animación tradicionales.

“Alice In Wonderland test footage - Unbirthday Mad Tea Party - Disney”, YouTube, subido por Broadway Classixs, 19 may 2011. https://youtu.be/ROqlhMEWA70

Actualmente existen algunos métodos para realizar la captura de movimiento, que se pueden clasificar en dos grandes tipos: captura de movimiento óptica y captura de movimiento no óptica.

Captura de movimiento óptica

Los sistemas de captura de movimiento óptica registran el movimiento de objetos o actores por medio de marcadores físicos, tales como luces LED, reflectores, pelotas adheridas o marcas sobre la piel o ropa, colocados en lugares clave como las articulaciones. Estos sistemas utilizan cámaras especiales para registrar los marcadores y, mediante técnicas de procesamiento digital de imágenes, identificarlos y triangular sus posiciones.

La principal ventaja de estos sistemas es su comodidad, ya que no requieren un traje pesado y son menos costosos que los sistemas no ópticos. Sin embargo, una de sus desventajas es la baja precisión en la captura de algunos movimientos debido a factores como una iluminación deficiente o falta de contraste, lo que puede impedir el procesamiento adecuado de las imágenes capturadas para extraer información de movimiento.

“OptiTrack - Mocap session with the OSU dance team”, YouTube, subido por OptiTrack, 9 ene 2013. https://youtu.be/tBAvjU0ScuI

Captura de movimiento no óptica

Los sistemas de captura de movimiento no ópticos utilizan trajes mecánicos o exoesqueletos para capturar el movimiento directamente, así como sensores magnéticos para detectar las variaciones en el movimiento sobre un campo magnético. Estos sistemas utilizan dispositivos como acelerómetros, giroscopios y magnetómetros para medir la aceleración, rotación y orientación del sujeto en tiempo real, sin necesidad de marcadores adicionales colocados en el cuerpo.

La principal ventaja de los sistemas de captura de movimiento no ópticos es la gran precisión que ofrecen en comparación con los métodos ópticos, ya que los sensores permiten obtener información más precisa durante el movimiento. No obstante, su mayor desventaja es el elevado costo, debido a que los sensores son componentes especializados que tienen un precio más alto que los marcadores ópticos. Además, los sensores suelen ser más grandes o, en el caso de los exoesqueletos, más incómodos para el actor, lo que puede limitar la libertad de movimientos.

“Introducing Smartsuit Pro II: New Features Walkthrough”, YouTube, subido por Rokoko, 27 oct 2021. https://youtu.be/KmCQsYqGi3g

Algunos ejemplos de captura de movimiento

Sinbad: Beyond the Veil of Mists (2000) narra la historia del legendario marinero Sinbad, quien ayuda a una hermosa princesa a salvar a su padre y su reino costero de las garras de un mago malvado. Es notable por ser la primera película utilizo únicamente la técnica de captura de movimiento para la animación de sus personajes.


“Sinbad: Beyond the Veil - Clip”, YouTube, subido por Películas de YouTube. https://youtu.be/qR8V_g0eeo0

Uno de los personajes más icónicos y un ejemplo destacado de la captura de movimiento es Sméagol/Gollum en las trilogías cinematográficas de El Señor de los Anillos y El Hobbit. Andy Serkis, como actor, fue responsable de proporcionar la voz y los movimientos a este emblemático personaje, lo que enriqueció enormemente la caracterización del personaje.

“Creating Gollum”, YouTube, subido por nature video, 11 dic 2013. https://youtu.be/w_Z7YUyCEGE

En la actualidad, se pueden encontrar numerosas películas que emplean la captura de movimiento en su animación. Avengers: Endgame (2019), por ejemplo, utiliza sofisticadas técnicas de captura de movimiento y actuación para dar vida a diversos personajes animados.

“Avengers Endgame -Hulk -VFX Motion Capture Breakdown”, YouTube, subido por vfx express, 29 feb 2020. https://youtu.be/MG4TPmZE024

En el ámbito de los videojuegos, varios títulos han utilizado la técnica de rotoscopia para generar los movimientos de sus personajes.

Prince of Persia creado en 1989 por Jordan Mechner, fue uno de los primeros videojuegos en utilizar la captura de movimiento para animar a sus personajes. Para ello, Mechner contrató a su hermano para que realizara las acrobacias necesarias para los movimientos del personaje principal del juego, fotografiando cada acción y posteriormente digitalizando las fotografías. De esta forma, se logró que los movimientos del personaje fueran muy realistas y fluidos, lo que ayudó a dar vida al Principe y aumentando con esto la inmersión del jugador en el juego.


“The Making of Prince of Persia Trailer - 2012 e-book”, YouTube, subido por Jordan Mechner, 12 oct 2011. https://youtu.be/gC3WEwSJoHs

El primer videojuego en 3D que aprovechó las técnicas modernas de captura de movimiento óptica fue Virtua Fighter 2, lanzado en 1994. En este juego, se capturaron los movimientos de los luchadores para transferirlos a los modelos 3D del juego, logrando movimientos de pelea realistas que proporcionaban un mayor detalle. Gracias a las innovadoras gráficas 3D, los personajes se movían con una gracia y fluidez impresionantes convirtiéndose en todo un éxito.


“Virtua Fighter 3 motion capture sessions”, YouTube, subido por Rando Archive, 31 mar 2012. https://youtu.be/HpVwQHnXWSo

En el mundo de los videojuegos, al igual que en el cine, se pueden encontrar numerosos ejemplos en los que se utiliza la captura de movimiento. Devil May Cry 4 (2008) y Devil May Cry 5 (2019) son ejemplos de títulos que emplean diversas técnicas de captura de movimiento y actuación para dotar a sus personajes de animaciones fluidas y realistas.

“DMC4 Nero”, YouTube, subido por Reuben Langdon, 3 jul 2012. https://youtu.be/N8ySzx_fmjk
“Behind the Scenes - Devil May Cry 5 [Live Action Cutscenes side-by-side Comparison]”, YouTube, subido por NeoGamer - The Video Game Archive, 20 mar 2019. https://youtu.be/bK8m6PZC-7U

La captura de movimiento también tiene aplicaciones en el deporte, en particular en la biomecánica, que es el estudio de los movimientos humanos y su impacto en la anatomía del cuerpo. En este campo, se utiliza la captura de movimiento para recopilar datos sobre los movimientos humanos, analizar la mecánica propia del movimiento y mejorar la técnica y el rendimiento del atleta. Esto permite la evaluación de actividades deportivas con el objetivo de mejorar los movimientos específicos del deporte y prevenir lesiones, así como analizar de manera precisa las destrezas motoras, evaluar la técnica y corregir cualquier falla detectada.


“Sport Motion Capture”, YouTube, subido por crtIrseem, 21 abr 2012. https://youtu.be/PW5F1Iy_gw4
“Vicon Shōgun - Real Time Mocap in under 5 Minutes”, YouTube, subido por Vicon, 2 may 2017. https://youtu.be/HcE33atZF6Y

Hay sitios web que ofrecen archivos de captura de movimiento en formato BVH de forma gratuita, como por ejemplo http://mocap.cs.sfu.ca/ y http://mocap.cs.cmu.edu/. Sin embargo, estos archivos gratuitos a menudo tienen un conjunto de movimientos muy específicos que pueden resultar difíciles de adaptar a las necesidades particulares de una producción, y también pueden complicar su incorporación en animaciones ya existentes debido a la complejidad de trasladar la información de movimiento a esqueletos o rigs previamente creados.

En 2022 Bandai-Namco libero un conjunto de archivos de captura de movimiento que se pueden acceder a través de https://github.com/BandaiNamcoResearchInc/Bandai-Namco-Research-Motiondataset; y pueden ser utilizados de manera no comercial.

En la actualidad han comenzado a proliferar diversos servicios de captura de movimiento ya sea ofreciendo hardware y aplicaciones especializadas como: https://www.rokoko.com/; o por medio de la inteligencia artificial, como: https://plask.ai/.

Capítulo X
Efectos visuales,
iluminación y rendering

Los efectos visuales 3D, las luces y el rendering son parte fundamental de las etapas finales de la fase de producción de una animación.

Efectos visuales 3D

Los efectos visuales 3D permiten la creación y animación de procesos naturales que, en muchos casos, resultarían demasiado complejos para ser creados manualmente.

“Wren from Corridor gives VFX advice”, YouTube, subido por Blender Guru, 15 may 2018. https://youtu.be/XOXeRNw9XX4

En términos generales, los efectos visuales 3D se pueden clasificar en cinco categorías principales: sistemas de partículas; cabello y pelo; fluidos; cuerpos rígidos y cuerpos suaves.


Sistemas de partículas

El término sistemas de partículas fue acuñado en torno al trabajo de William T. Reeves, investigador de Lucasfilm, mientas realizaba la película Star Trek II: The Wrath of Khan en 1982. En dicha película, gran parte de la trama gira en torno al dispositivo Génesis, un torpedo que puede terraformar (es decir, transformarlo en un planeta habitable) un planeta muerto; y durante la secuencia en que se activa el dispositivo, se presenta un muro de fuego ondeando sobre el planeta mientras éste está siendo terraformado. Actualmente los sistemas de partículas son muy común en graficación y animación por computadora.

“What Is the Genesis Device”, YouTube, subido por April 5, 2063, 18 nov 2020. https://youtu.be/5AmORMupApU

La simulación de sistemas de partículas es una técnica ampliamente utilizada en la animación por computadora para representar el comportamiento de una gran cantidad de objetos pequeños y discretos (partículas) que se encuentran en un sistema dinámico.

Desde principios de la década de 1980, los sistemas de partículas han sido empleados en videojuegos, animaciones, piezas de arte digital, así como en el modelado y simulación de fenómenos naturales como fuego, humo, cascadas, niebla, pasto, burbujas, entre otros. El primer sistema de partículas en animación por computadora se utilizó en la serie de televisión de 1980 Cosmos: A Personal Voyage de Carl Sagan.


“Cosmos: A Personal Voyage (1979) - First particle system computer animation”, YouTube, subido por Ultimate History of CGI, 12 feb 2018. https://youtu.be/uWhsLmFFhTI

En una simulación de sistemas de partículas, cada partícula se modela como un objeto independiente con sus propias propiedades físicas, como la masa, la velocidad, la posición y la dirección del movimiento. Se aplican fuerzas a cada partícula para simular la interacción entre ellas y con su entorno, como la gravedad, la fricción, la fuerza del viento, la atracción magnética o eléctrica, entre otras.

Las partículas suelen ser representadas por puntos u objetos simples y son generadas por un emisor. Estas partículas se animan mediante campos o fuerzas que actúan sobre ellas. Para representar visualmente las partículas, se utilizan shaders que determinan su apariencia, de manera similar a los materiales que se aplican a objetos geométricos formados por polígonos. Es importante destacar que los puntos pueden representar solamente una posición y tener asociada una geometría o imagen externa, lo que permite representar diferentes tipos de partículas, como polvo, fuego, lluvia, nieve, parvadas de aves, enjambres de insectos, entre otros.

El emisor por su parte, puede ser cualquier objeto geométrico, desde un único punto hasta una malla poligonal, y tiene la propiedad de crear y emitir partículas desde él. Durante una simulación, el emisor es el elemento encargado de determinar las propiedades de cada partícula del sistema y también indica cuántas partículas se emiten por unidad de tiempo. Los emisores, por lo general, no tienen una representación visual, por lo que durante la simulación no son renderizados y solo se observa su efecto al crear nuevas partículas. Asimismo, es posible animar el emisor de forma individual, realizando transformaciones que afectan el estado inicial en el que se emiten las partículas.

Los campos y fuerzas que se aplican a las partículas son elementos que simulan el comportamiento de la naturaleza, tales como un campo de gravedad, viento o fricción, así como cualquier otra fuerza física que pueda mover o manipular las partículas.

A nivel de implementación, cada partícula en un sistema presenta los siguientes atributos:

  • posición, donde se almacena la ubicación de la partícula en el espacio;
  • velocidad, que indica que tanto se mueve la partícula por unidad de tiempo;
  • aceleración, que determina la tasa de cambio de la velocidad;
  • tamaño, que define las dimensiones de la partícula;
  • material, que establece la apariencia visual de la partícula; en el caso de que la partícula no se represente como un punto, la geometría asociada también es un atributo y es la información que se utiliza para dibujar la partícula;
  • tiempo de vida, que limita la duración o existencia de la partícula; y
  • edad, que indica el tiempo que lleva viva la partícula.

El funcionamiento general de un sistema de partículas se basa en que cada partícula nace en un cuadro determinado y a partir de ahí modifica su edad en cada cuadro de la animación. Considerando su posición inicial, velocidad, aceleración y las fuerzas que se encuentren en su entorno, la partícula modifica su posición en cada cuadro. Una vez que una partícula alcanza el tiempo de vida máximo asignado por el emisor, está deja de actualizarse y desaparece del sistema.

Para crear un sistema de partículas en un programa de animación o simulación, es necesario realizar los siguientes pasos:

  • Crear un emisor, definiendo su forma y posición.
  • Configurar el emisor, definiendo las propiedades del sistema de partículas, como el número, la velocidad y el tiempo de vida de las partículas.
  • Crear los campos y fuerzas de la simulación, para determinar los elementos que modificaran a las partículas.
  • Asignar la apariencia de las partículas, creando los materiales adecuados para obtener la apariencia requerida.
“5 MINUTE PARTICLE SYSTEM IN BLENDER 2.81 FOR BEGINNERS!”, YouTube, subido por bla tadej, 28 ene 2020. https://youtu.be/bV7RnZguToo
“Blender - Sci-Fi Particle Simulation in Eevee Blender 2.8”, YouTube, subido por Ducky 3D, 24 ago 2019. https://youtu.be/2bv973aqx-w
“4.1: Particle System Simulation - The Nature of Code”, YouTube, subido por The Coding Train, 9 mar 2021. https://youtu.be/syR0klfncCk
“4.3: Particle Systems with Inheritance - The Nature of Code”, YouTube, subido por The Coding Train, 1 abr 2021. https://youtu.be/44RSr49m6LU

La segunda ley de Newton es una de las leyes fundamentales de la mecánica clásica, y establece la relación entre la fuerza, la masa y la aceleración de un objeto. Esta ley es de gran importancia en la física, ya que permite predecir el movimiento de un objeto al aplicarle una fuerza conocida.

La fórmula $f = ma$ ó $a = \dfrac{f}{m}$ indica que la aceleración es directamente proporcional a la fuerza e inversamente proporcional a la masa. Es decir, mientras más fuerza se aplique a un objeto, mayor será su velocidad; mientras que entre objetos de diferentes masas, aquellos más grandes se moverán más lentamente si se les aplica la misma fuerza que a objetos más pequeños.

En los sistemas de partículas, la segunda ley de Newton se usa para calcular la aceleración individual de cada partícula, en respuesta a las distintas fuerzas que actúan sobre ella. Para ello, se deben sumar todas las fuerzas que actúan sobre la partícula y calcular su aceleración resultante. A partir de esta información se puede actualizar su posición y velocidad en función del tiempo transcurrido en el sistema, mediante las ecuaciones de movimiento de la cinemática. Este proceso se repite en pequeños intervalos de tiempo para simular el movimiento de las partículas a lo largo del tiempo.

Es importante tener en cuenta que la segunda ley de Newton se aplica a cada partícula del sistema de forma individual, lo que implica que para simular el comportamiento del sistema, es necesario calcular la aceleración y posición de cada una de las partículas que lo conforman, y luego combinarlas para obtener el movimiento del sistema completo.

Cuando se configura un sistema de partículas, normalmente el animador especifica todas las posibles fuerzas que actúan sobre el ambiente, y con esta información se calcula cada cuadro de la animación. Una vez que se determinan las fuerzas que actúan sobre las partículas, se calcula la aceleración y con ello la velocidad y la posición.

Dada la velocidad actual de una partícula ($v$) y la nueva aceleración calculada (con $a = \frac{f}{m}$) se calcula la nueva velocidad $v'$ por medio de: $$v' = v + a Δt$$

La nueva posición $p'$ se obtiene a través de la posición anterior $p$, y el promedio entre la velocidad actual y la siguiente:

$$p' = p + \frac{1}{2} (v + v')Δt$$

Una forma sencilla de representar estos cambios en código sería de la siguiente manera:

// se actualiza la aceleración de una partícula, 
// considerando que es un vector de la dimensión de 
// los objetos con los que se trabaja, es decir, 2, 3 
// o más dimensiones
Aceleración = Fuerza / Masa;

// se actualiza la velocidad utilizando el valor de 
// la aceleración, considerando que la velocidad del 
// objeto aumenta respecto a la aceleración
Velocidad = Velocidad + Aceleración;

// por último se actualiza la posición de la partícula 
//utilizando la velocidad
Posición = Posición + Velocidad;

En el libro interactivo “Nature of Code” de Daniel Shiffman (https://natureofcode.com/book/) se presenta la teoría y ejemplos de implementación de sistemas físicos. Este libro se centra en la exploración de cómo los principios de la física pueden aplicarse en la creación de arte, diseño y programación de sistemas complejos. Está dirigido a programadores, diseñadores y artistas interesados en la creación de sistemas dinámicos que imiten el comportamiento de la naturaleza, y es especialmente útil para aquellos que desean aprender a crear simulaciones de fenómenos naturales como el movimiento de partículas, la gravedad, la fricción, la oscilación y la ondulación, entre otros.

A lo largo del libro, se aborda la teoría detrás de los sistemas físicos y se presentan ejemplos prácticos de cómo implementar estos sistemas. Cada capítulo del libro contiene un conjunto de conceptos clave, ejemplos de código y actividades prácticas que permiten a los lectores experimentar con los conceptos presentados. Los temas cubiertos en el libro incluyen el movimiento de partículas, la simulación de sistemas de resortes y masas, la creación de sistemas de partículas y la simulación de sistemas de fluidos, así como también se exploran temas como la inteligencia artificial y la simulación de sistemas complejos.

https://natureofcode.com/book/

Simulación de cabello y pelo

En animación por computadora, la creación realista de cabello o pelo en personajes 3D es un desafío importante. Es posible crear cabello o pelo, a partir de modelos poligonales; lo cual es útil para crear personajes estilizados o caricaturescos, simplificando en gran medida la representación para gráficos en tiempo real, pero no permite una representación realista en la apariencia ni movimiento del cabello.


“Character Creation Timelapse part 2 " Hair Modeling"”, YouTube, subido por Andri Viyono, 17 ago 2015. https://youtu.be/evLSRCY4Fu0
“Easiest Way To Create Hair in Blender - 5 Minute Tutorial”, YouTube, subido por YanSculpts, 21 mar 2020. https://youtu.be/BqWYgrXw7Jk

“Crear Personaje Low Poly #12 Modelar CabelloPara Principiantes en Blender”, YouTube, subido por José Mario Pérez Cotes, 9 ene 2018. https://youtu.be/-fkghrB-n1M
“Modeling for Animation 07 - Modeling Polygon Hair!”, YouTube, subido por Dikko, 6 jul 2020. https://youtu.be/bUV0-kiplbM

Para lograr una representación más realista y menos caricaturesca del cabello y el pelo, es necesario pensar en ellos como un conjunto de elementos individuales que interactúan con campos y fuerzas, teniendo en cuenta su comportamiento individual y en grupo. Para esto, la técnica de los sistemas de partículas es útil, representando cada pelo como una partícula única que interactúa con campos y fuerzas. En lugar de modelos poligonales, se utilizan segmentos o curvas para representar cada pelo o conjunto de pelos, y cada partícula se genera una sola vez al inicio de la simulación y se mantiene en el sistema durante toda la animación.

“Blender 2.8 Hair Beginner Tutorial”, YouTube, subido por Jayanam, 12 feb 2020. https://youtu.be/Oq0q8AmTnDU
“Blender 3D - Create a Fur Ball in 2 Minutes | Beginner Tutorial”, YouTube, subido por 3DGreenhorn, 2 dic 2019. https://youtu.be/C4eFQVUHz3Y
“Blender Fur tutorial and Behind the scenes of "llama drama" (beginner level)”, YouTube, subido por Nita Ravalji, 18 sept 2019. https://youtu.be/c1xKA4itqow
“Grooming and Shading in Blender 2.8X (New!!!)”, YouTube, subido por Luwizart, 11 feb 2020. https://youtu.be/_xPcywpK6yg

Esta misma técnica se puede utilizar para crear otros elementos de la naturaleza, como pasto, flores y árboles en un terreno, donde se representa cada planta o elemento individual como una partícula única y se define su comportamiento físico utilizando campos y fuerzas.

“Create Realistic Grass in Blender 2.8 in 15 minutes”, YouTube, subido por CG Geek, 15 feb 2019. https://youtu.be/-GAm-7_3N6g

También es posible colocar elementos similares (o idénticos) sobre superficies, como chispas de chocolate en una dona, o gotas de agua sobre una manzana.

“Part 1, Level 2: Particles - Blender Beginner Tutorial”, YouTube, subido por Blender Guru, 10 sept 2019. https://youtu.be/jNmnPXY9UQA
“Blender 2.8 Beginner Tutorial - Part 11: Particles”, YouTube, subido por CG Boost, 24 sept 2019. https://youtu.be/DOm2K9jOZLI

Simulación de fluidos

La simulación de fluidos se emplea en gráficos por computadora para generar animaciones de fluidos en movimiento, incluyendo agua, aire, lava, y otros fenómenos descritos como fluidos newtonianos (fluidos cuya viscosidad se considera constante). Esta técnica es ampliamente utilizada en la creación de efectos visuales para la industria del cine y los videojuegos, y se basa en la resolución de las ecuaciones de Navier-Stokes, que son ecuaciones diferenciales parciales con las que se describe el movimiento de un fluido en términos de su velocidad, presión, densidad, viscosidad y temperatura. Su solución permite predecir el movimiento del fluido en el espacio y en el tiempo. Las ecuaciones son:

$$\begin{align} \frac{\partial \overrightarrow{u}}{\partial t} + \overrightarrow{u} \cdot \nabla \overrightarrow{u} + \frac{1}{\rho} \nabla p &= \overrightarrow{g} + \nu \nabla \cdot \nabla \overrightarrow{u} \\ \nabla \cdot \overrightarrow{u} &= 0 \end{align}$$

Donde la variable $u$ representa la velocidad del fluido.

La variable $ρ$ representa la densidad del fluido, para el agua se considera un valor de $1000kg/m^3$, y para el aire un valor de $1.3kg/m^3$.

La variable $p$ corresponde a la presión, es decir, la fuerza por unidad de área que el fluido ejerce sobre todo lo que está a su alrededor.

La variable $g$ es la aceleración causada por la gravedad, que suele tener el valor de $(0, −9.81, 0) m/s^2$.

La letra griega $ν$ representa la viscosidad cinemática, que es una propiedad que indica qué tan viscoso es el fluido y cuánto se resiste a la deformación mientras fluye.

La primera ecuación de Navier-Stokes surge de la segunda ley de Newton y relaciona los campos de velocidad y presión con la conservación del momento. Gracias a esta relación, se puede entender cómo la viscosidad, la gravedad y la presión están vinculadas con la aceleración que se ejerce sobre cada punto del fluido.

Por su parte, la segunda ecuación indica que el gradiente de la velocidad del fluido debe ser igual a $0$, lo que garantiza que la masa siempre se conserve, es decir, que el fluido sea incompresible.

Al realizar una simulación de fluidos, es común tomar en cuenta ciertas consideraciones debido al alto costo de resolución de las ecuaciones diferenciales. Para modelar el movimiento del fluido en un espacio tridimensional, se define un volumen que delimita el área de cálculo, el cual a su vez se divide en pequeñas celdas, donde se colocan las partículas a las que se les aplica las ecuaciones Navier-Stokes para determinar su movimiento dentro del volumen; el número de celdas y de partículas determina la resolución de la simulación.


“Let's Make Coffee: Blender Fluid Sim (Manta Flow) For Beginners”, YouTube, subido por CG Cookie, 22 abr 2021. https://youtu.be/6B0QM4Cft5c
“Learn Blender's Water Physics in 10 Minutes! (Blender 2.8)”, YouTube, subido por 3D Tinkerer, 25 may 2019. https://youtu.be/wVuoKJRsJTY
“Blender Tutorial - Fluid Simulation & Float Particles in Eevee”, YouTube, subido por Blender Made Easy, 5 nov 2019. https://youtu.be/370Q4COgMqo
“[2.80] Quick Water Simulation Tutorial in Blender”, YouTube, subido por Olav3D Tutorials, 12 jun 2019. https://youtu.be/_ECgy5hawyY

Cuerpos rígidos

La simulación de cuerpos rígidos es una técnica empleada para generar animaciones de objetos sólidos en un espacio tridimensional, que se comportan como cuerpos rígidos. Un cuerpo rígido es un objeto sólido que mantiene su forma y tamaño, y no se deforma ante fuerzas externas. En este tipo de simulación, se modela cada cuerpo rígido como un objeto con un centro de masa, una orientación y una velocidad, al cual se le aplican fuerzas y momentos para simular su movimiento y colisión con otros objetos. Dichas fuerzas y momentos se calculan utilizando las leyes de la mecánica de Newton y la ley de conservación del momento angular.

Por lo general, los cuerpos rígidos se incorporan en la animación por computadora mediante motores de física que utilizan las leyes de la mecánica clásica para simular el efecto de diversas fuerzas sobre los cuerpos. Estas simulaciones tienen aplicaciones en una amplia variedad de campos, como la animación de objetos en videojuegos y películas, la simulación de robots y maquinaria, la simulación de colisiones en ingeniería y física, así como en la creación de efectos visuales realistas, como la destrucción de objetos, el movimiento de vehículos y maquinaria, entre otros.

“Blender 2.8 Beginner Tutorial - Part 12: Rigid Body Simulation”, YouTube, subido por CG Boost, 27 sept 2019. https://youtu.be/2C7lRSPVvHI
“[2.8] Blender Tutorial: Simple Gravity Simulation”, YouTube, subido por Olav3D Tutorials, 3 feb 2019. https://youtu.be/-4uFt0m5I-U
“Physics in Blender 2.8 for Absolute Beginners”, YouTube, subido por Surfaced Studio, 15 jun 2019. https://youtu.be/KtjJfWlQ8oE
“Balls on escalator | Blender Rigid body simulation”, YouTube, subido por Ball Simulations, 6 abr 2022. https://youtu.be/BJVuK3Ck4vQ

Cuerpos suaves

La simulación de cuerpos suaves se utiliza para simular objetos deformables como gomas, globos y otros materiales no rígidos. A diferencia de los cuerpos rígidos, los cuerpos suaves sí se deforman ante fuerzas externas y no mantienen por completo su forma y tamaño original mientras estén sometidos a ellas. En esta técnica cada objeto se modela como un sistema de partículas conectadas por resortes elásticos, donde se aplican fuerzas a cada partícula para simular la deformación y la tensión del objeto, tratando de preservar en la medida de lo posible su estructura inicial.

La simulación de cuerpos suaves se utiliza en diversas aplicaciones, tales como la animación de telas y ropa, la simulación de globos y juguetes blandos, así como en la simulación de órganos y tejidos biológicos.

“How To Use Soft Body Physics In Blender (Blender 2.8)”, YouTube, subido por 3D Tinkerer, 20 may 2019. https://youtu.be/I1deuLC0QDc
“Simple and Fun Soft Body Physics in Blender!”, YouTube, subido por Remington Creative, 19 abr 2017. https://youtu.be/4gYsxqNJyu8

Otras simulaciones físicas

Los sistemas de partículas, cuerpos rígidos y cuerpos suaves son herramientas muy versátiles en la creación de efectos visuales en la animación, simulación y graficación por computadora. A continuación, se presenta información adicional sobre cómo se pueden utilizar para crear diferentes efectos:

Humo y fuego

La simulación de humo y fuego se puede lograr mediante la generación de partículas pequeñas que se asemejan a la forma y el movimiento de las llamas y el humo. Estas partículas se pueden animar para simular la propagación del fuego y el humo en la escena. Además, se pueden utilizar técnicas de renderizado avanzadas, como el ray tracing y la iluminación volumétrica, para crear un efecto de representación realista de las partículas que componen la simulación de fuego y humo.

“[2.8] Tutorial: Advanced Heavy Smoke Simulation in Blender, Easy”, YouTube, subido por Olav3D Tutorials, 20 ago 2019. https://youtu.be/H5oRZonI7a0
“How to Create a Smoke Simulation in Eevee”, YouTube, subido por Blender Made Easy, 6 mar 2019. https://youtu.be/_IDBfQnttiE

“Blender 2.8 - Procedural Fire In Under 9 Minutes”, YouTube, subido por mx2, 20 mar 2019. https://youtu.be/gQRC_O8hEaI
“Volumetric Rendering in Blender for Absolute Beginners”, YouTube, subido por Surfaced Studio, 27 oct 2018. https://youtu.be/xP5MuZOjfew

Explosión

La combinación de sistemas de partículas con cuerpos rígidos y/o suaves puede crear efectos de explosión realistas. Por ejemplo, se puede simular la detonación de una bomba mediante la creación de partículas que representen los fragmentos de la explosión y el polvo que se produce. También se pueden utilizar sistemas de partículas para simular la onda expansiva de la explosión y su impacto en los objetos circundantes.

“Blender 2.8 explosion using Evee”, YouTube, subido por Ae Edits, 18 oct 2019. https://youtu.be/-p3wR7PnSS8
“Blender 2.8 Tutorial - Cell Fracture Explosion”, YouTube, subido por BlenderMania, 29 ene 2020. https://youtu.be/ZG_ZMnKzVTQ

Simulación de objetos fracturándose

Los sistemas de partículas se pueden utilizar para simular la fractura de objetos en una escena. Por ejemplo, se puede crear una bola de cristal y simular su rotura en varias piezas utilizando partículas que representen los fragmentos. Además, se pueden utilizar sistemas de partículas para simular la dinámica de los objetos fracturados, como la forma en que rebotan o caen en la escena.

“How to Fracture Anything with Blender 3.0 and Geometrynodes!”, YouTube, subido por Cartesian Caramel, 15 mar 2022. https://youtu.be/keKDABQfxQU
“Realistic destruction effects in blender”, YouTube, subido por FxForge, 5 feb 2022. https://youtu.be/xKiv6dKupoE

Simulación de ropa

La simulación de ropa se realiza de forma similar a la simulación de cuerpos suaves, a través del modelo masa-resorte (mass-spring model) donde básicamente en cada vértice del modelo que simula la tela se asigna una masa y se agregan resortes como aristas que unen los vértices, de tal manera que variando la masa de cada nodo y la resistencia o elasticidad de los resortes, se pueden simular diferentes tipos de telas.


“[2.8] Easy Cloth Simulation Tutorial in Blender”, YouTube, subido por Olav3D Tutorials, 25 jun 2019. https://youtu.be/-vVoQ-1U0SY
“[2.8] Blender Tutorial: Cloth Animation in EEVEE”, YouTube, subido por Olav3D Tutorials, 28 dic 2018. https://youtu.be/j7TdEzRwgzs

“Better Cloth Simulation for Beginners - Quick & Easy - Blender 2.8”, YouTube, subido por Wasiq Wiqar, 5 abr 2019. https://youtu.be/mQauIJGTPyA
“Cloth simulation for animation in blender 2.8X”, YouTube, subido por Luwizart, 9 feb 2020. https://youtu.be/3YNEn5UdGSw

Rendering e iluminación

El rendering o síntesis de imágenes es un proceso crucial en la producción audiovisual, especialmente en la animación y los efectos visuales. Una vez creados los modelos 3D, rigs, animaciones, shaders, texturas, efectos especiales 3D y luces, es necesario convertir toda esta información en una imagen o serie de imágenes que puedan ser mostradas en un pantalla.

Para llevar a cabo este proceso se requiere de un motor de render (render engine), un software especializado que utiliza técnicas y algoritmos para calcular cómo se verá la escena en 3D, es decir, utiliza los principios de graficación presentados en secciones anteriores. El motor de render toma todos los datos y parámetros proporcionados por el artista 3D y genera las imágenes finales. Existen varios tipos de motores de render, siendo los más comunes los que se basan en dos métodos principales: rasterización y raytracing.


Rasterización

El método de rasterización es ampliamente utilizado en la industria del CGI debido a su velocidad y eficiencia para renderizar escenas complejas. Este proceso funciona mediante la división de la escena en pequeños triángulos que se procesan y dibujan individualmente, y que luego se combinan para formar la imagen final. Es ideal para escenas con muchos objetos y geometrías, ya que puede renderizar grandes cantidades de polígonos rápidamente. Además, se utiliza comúnmente para previsualizar escenas y realizar pruebas rápidas debido a su capacidad para producir resultados casi inmediatos.

“3D Graphics: Crash Course Computer Science #27”, YouTube, subido por CrashCourse, 6 sept 2017. https://youtu.be/TEAtmCYYKZA

No obstante, el método de rasterización presenta algunas limitaciones, ya que no proporciona un alto nivel de realismo en términos de efectos de iluminación y sombras, ya que se enfoca principalmente en la geometría y la textura de la escena, sin tener en cuenta la interacción compleja de la luz con los objetos. Además, este método no puede calcular efectos de iluminación global realistas, como la iluminación indirecta y las reflexiones/refracciones complejas. Para obtener resultados más realistas en términos de iluminación, se utilizan otros métodos de renderizado, como el raytracing o el path tracing.

A pesar de estas limitaciones, el método de rasterización sigue siendo muy útil en la industria de la animación y la graficación por computadora, especialmente para la generación de imágenes con modelos de iluminación simplificados o locales. Cabe destacar que la mayoría de las tarjetas de video (GPU) modernas utilizan el método de rasterización para la renderización en tiempo real de videojuegos y aplicaciones interactivas.

Raytracing

El método de raytracing se ha consolidado como un estándar en la industria de la animación y graficación por computadora debido a que ofrece resultados más realistas y detallados en comparación con el método de rasterización. El raytracing permite simular de manera precisa la interacción de la luz con los objetos de la escena, lo que se traduce en una mayor calidad visual y la creación de efectos de iluminación complejos, como sombras suaves, iluminación global y reflejos, que son difíciles de lograr con el método de rasterización. La forma en la que funciona es siguiendo la trayectoria de los rayos de luz para calcular cómo se reflejan y refractan dichos rayos a medida que atraviesan los objetos de la escena, lo que permite generar sombras precisas y detalladas, contribuyendo significativamente a la percepción de profundidad y realismo de la escena. El raytracing también es adecuado para la simulación de materiales complejos, como vidrios, metales, líquidos y superficies reflectantes, con lo que se pueden crear escenas mucho más realistas. Sin embargo, debido a que el raytracing es más preciso y complejo que el método de rasterización, requiere más recursos de hardware y tiempo para generar la una imagen, y es necesario ajustar cuidadosamente los parámetros de la escena y de los materiales utilizados en la misma para obtener resultados óptimos.

“The Science of Rendering Photorealistic CGI”, YouTube, subido por Filmmaker IQ, 20 abr 2016. https://youtu.be/Qx_AmlZxzVk
“Disney's Practical Guide to Path Tracing”, YouTube, subido por Walt Disney Animation Studios, 9 ago 2016. https://youtu.be/frLwRLS_ZR0

Iluminación global

La iluminación global es una técnica empleada para simular la interacción de la luz con los objetos en una escena tridimensional. Su objetivo es crear efectos de iluminación realistas, como la luz reflejada, refractada y difusa en los objetos de la escena. Entre los métodos más conocidos, se encuentran el mapeado de fotones photon mapping e iluminación basada en imágenes.

Mapeo de fotones (Photon mapping)

El mapeado de fotones (Photon mapping) es un algoritmo de iluminación global que simula la propagación de partículas de luz, llamadas fotones, a través de la escena. Estos fotones son enviados desde las fuentes de luz y dejan marcas de brillo que después son muestreadas para determinar la intensidad final de la iluminación. Esta técnica es particularmente útil para simular la iluminación en escenas con superficies reflectantes y refractivas, como vidrio, agua y metal. Más información en: Real-Time Global Illumination with Photon Mapping.

“Photon Mapping”, YouTube, subido por UC Davis, 24 sept 2012. https://youtu.be/4BBkjzwqMSU

La iluminación basada en imágenes (Image based lighting)

La iluminación basada en imágenes (image based lighting) permite crear una esfera (o domo) alrededor de la escena con una imagen asignada, de tal manera que la imagen proporciona la información de iluminación. En esta técnica, se utiliza una imagen de alto rango dinámico (High-dynamic-range imaging, HDRI) para simular la iluminación ambiental en la escena. Esta imagen contiene información sobre la intensidad y el color de la luz en diferentes partes de la escena, y se utiliza para iluminar los objetos de la misma. Esta técnica es particularmente útil para simular la iluminación en escenas exteriores, donde la iluminación ambiental es la fuente principal de iluminación.

En la técnica de iluminación basada en imágenes, desde la cámara se muestrean rayos en la escena, y para cada uno de ellos se generan nuevos rayos de forma aleatoria. Estos nuevos rayos recolectan información de iluminación de todas aquellas superficies que alcanzan, normalmente la esfera que contiene la escena y la HDRI, y por último regresan la información de luz al punto que generó el rayo original.

Imagen obtenida de: https://polyhaven.com

Una imagen de alto rango dinámico es una imagen que utiliza un rango de valores mayor a las imágenes tradicionales, por ejemplo, en una imagen regular de 8 bits, los valores entre el negro y el blanco se encuentran en el intervalo $[0, 1]$. Sin embargo, en una HDRI se utilizan 32 bits de información, lo que da un rango $[0, 4 294 967 295]$. Esto permite que se pueda representar de mejor forma la información lumínica del entorno.

Hay algunos sitios que ofrecen de forma gratuita HDRIs, por ejemplo:


“Blender 2.8 Cómo configurar un fondo de entorno hdri”, YouTube, subido por CGMatter, 9 feb 2019. https://youtu.be/6VBkj_I-ONk
Bibliografía
Rick Parent. Computer Animation Algorithms & Techniques. 3era Edición. Morgan Kaufmann. 2012. Andy Beane. 3D Animation Essentials. 1era Edición. Sybex; John Wiley & Sons, Inc. 2012. Ami Chopine. 3D Art Essentials the Fundamentals of 3D Modeling, Texturing and Animation. 1era Edición. Focal Press. 2011. Peter Shirley y Steve Marschner. Fundamentals of Computer Graphics. 3era Edición. CRC Press. 2009. Tomas Akenine-Möller, Eric Haines, Naty Hoffman, Angelo Pesce, Michal Iwanicki y Sébastien Hillaire. Real-Time Rendering. 4a Edición. CRC Press. 2018. Richard Williams. The Animator's Survival Kit. 1era Edición. Faber & Faber. 2009. Jeremy Birn. Digital Lighting and Rendering. 2nda Edición. New Riders. 2006. Ollie Johnston, Frank Thomas. The Illusion of Life: Disney Animation. 1era edición. Disney Editions. 1995. Harold Whitaker, John Halas. Timing for Animation. 3era edición. CRC Press. 2021.
Joseph Gilland. Elemental Magic: The Art of Special Effects Animation. 1era edición. Routledge. 2012. Liz Blazer. Animated Storytelling. 1era edición. Peachpit Press. 2015. Isaac Kerlow. The Art of 3D Computer Animation and Effects. 4ta edición. Wiley. 2009. Paul Steed. Animating Real-Time Game Characters. 1era edición. Charles River Media. 2002. David Freeman. Creating Emotion in Games: The Craft and Art of Emotioneering. 1era edición. New Riders Pub. 2003. David J. Eck, Hobart and William Smith Colleges. Introduction to Computer Graphics. Publisher: David J. Eck. 2016. George Mather. Foundations of Perception. 1era edición. Psychology Press, Taylor Francis Group. 2006.