16.6. Bases de datos y archivos icónicos

Una base de datos no es más que un gran archivo que contiene información clasificada, archivo que se maneja gracias a un "sistema de administración". En los sistemas comunes de administración de bases de datos, la interacción entre el usuario y la máquina se efectúa a través del teclado y de la pantalla. Originalmente, los datos almacenados en bases de datos eran exclusivamente alfanuméricos. Estas condiciones han cambiando velozmente, al punto que los computadores personales ya ofrecen sistemas de bases de datos orientados específicamente a imágenes (como el Fetch de Adobe, ver Ilustración) o sistemas mixtos (que permiten insertar una imagen junto a los campos de texto).

Muchas novedades se deben al concepto de "gestión espacial de datos" ("Spatial Data Management System" o SDMS), desarrollado por el Instituto Tecnológico de Massachusetts a partir de los mismos conceptos que fueron recogidos por los ingenieros de Apple para el manejo de los "Macintosh" y el software de hipertexto "HyperCard" que acompañaba a éstos a fines de los años 80 y principio de los 90. El hipertexto de hoy sólo ha superado el HyperCard desde la aparición de un complemento: el Flash, que permite interacción gráfica.

Dice Richard Bolt, ingeniero del M.I.T.:
"El sistema SDMS se basa en nuestra aptitud de localizar rápidamente y de modo preciso los objetos en el espacio. Toda nuestra actividad mental descansa sobre el principio de la organización espacial, cuya eficacia no es preciso demostrar. De ahí que una persona sea tan hábil para el hallazgo de objetos en su mesa de trabajo. Y es así porque es ella misma quien los ha depositado allí: el calendario al lado del cuaderno de citas, el bloc de notas cerca del teléfono, etc. Un trabajo cotidiano en la oficina favorece la localización de los distintos detalles en la memoria visual y motriz del individuo. Incluso las oficinas aparentemente desordenadas tienen su propio orden, de todo punto lógico para su usuario. Si alguien ajeno lo arregla, sobreviene el caos, ya que la nueva disposición destruye el acuerdo entre el modelo mental del usuario y el ordenamiento de los objetos. Incluso si un individuo no ha dispuesto por sí mismo un material determinado, como es el caso de los productos expuestos en la tienda de comestibles donde habitualmente hace sus compras, es gracias a la representación espacial que podrá hallar lo que busca." (Bolt, p.759).

Partiendo de este enfoque, el M.I.T. creó -ya en los años '70- un banco de datos interactivo con contenidos textuales, icónicos y acústicos, controlado desde una "sala de medios" que construyó de tal modo que se logre una verdadera interacción "conversacional" (e.d. que utilice simultáneamente medios visuales y acústicos, como en el diálogo interpersonal).

Bolt describía esta sala de la siguiente manera (Ilustración precedente):
"Esta pieza especial mide 4,9 m. de longitud, 3,4 m. de anchura y 2,5 m. de altura bajo el techo. Una de las paredes está completamente revestida por una pantalla formada por una placa de cristal "deslustrado", de manera que sobre él se pueda retroproyectar desde una pieza contigua por medio de un sistema de televisión en color. Durante las experiencias, el usuario se sienta en un sillón instalado en el centro de la sala, a unos 2,5 m. de la pantalla. Este sillón no tiene nada de particular, excepto que lleva dos pequeñas palancas de 2cm de altura montadas en cada uno de los brazos. Contigua a cada palanca, hay una tecla sensible cuadrada de unos 5 cm de lado. El usuario tiene a ambos lados y al alcance de la mano un aparato de televisión en color. La pantalla de estos "monitores" está recubierta con una película plástica transparente, sensible al contacto del dedo, que proporciona al sistema las coordenadas del punto tocado por el usuario. En las paredes hay empotrados cuatro altavoces, cerca de los cuatro ángulos de la pantalla grande; otros cuatro están fijados en la pared detrás del sillón. El conjunto permite sumergir al usuario en un ambiente sonoro tridimensional. Los mensajes orales emitidos por el usuario a un micrófono provisto de un filtro son tratados por un sistema de reconocimiento de la palabra "continua", es decir, producida naturalmente, sin períodos intercalados. El dispositivo, fabricado por la Nippon Electronic Company (NEC), posee en su memoria activa un diccionario de unas 100 expresiones corrientes y puede tratar hasta 2,5 segundos de palabra continua que contenga cinco de tales expresiones."
Este sistema está hoy sobrepasado (a nivel experimental al menos)
pero lo describimos detalladamente por su importancia histórica
y conceptual.

Mientras la información visual principal (texto o imágen) aparece en la pantalla gigante, el control o selección se hace a partir de los dos monitores pequeños. El primero representa el "escritorio" del usuario, o sea todas las tareas que puede efectuar y los archivos disponibles. Se representa cada posibilidad mediante un ícono, apareciendo de modo claramente reconocible cubiertas de libros, pantallas de televisores, mapas, calendario, teléfono, calculadora, etc.

Sea manejando una palanca, sea apuntando con el dedo o formulando una orden verbal, el usuario selecciona lo que desea y la imagen inicial correspondiente aparece en la pantalla gigante y en el segundo monitor. Presionando otra palanca se puede lograr un efecto de zoom, viendo con mayor ampliación alguna parte de la imagen original. Manipulando ahora los controles (palanca o dedo) del segundo monitor, se puede elegir alguna de las alternativas que muestra. Si estaba visualizando un libro, el usuario verá el índice y podrá elegir un capítulo. Luego, presionando la tecla sensible al tacto, puede hacer desfilar las páginas, con mayor o menor velocidad. Si está viendo una imagen -por ejemplo una vista aérea de una ciudad- puede accionar el zoom y luego flechas de dirección, para efectuar un recorrido visual por ella. Si eligió el teléfono, puede marcar o dictar un número y obtener así una comunicación con el exterior. Si seleccionó la calculadora, puede digitar o dictar operaciones, obteniendo el resultado en la pantalla grande o enunciada por el sintetizador de voz. Elegir los televisores permite tener en la pantalla gigante distintos programas de televisión, grabados o incluso en directo, visualizándolos simultáneamente (con sonido mezclado). Se puede elegir alguno para que ocupe toda la pantalla, o seleccionar exclusivamente su sonido.

Para mejorar aún más la calidad de la interacción, se han añadido un par de cubos magnéticos fijados uno a una pata del sillón y el otro a la muñeca del usuario: con ellos se calcula hacia donde apunta la mano. También se han previsto lentes especiales gracias a los cuales se puede determinar hacia donde se orienta la mirada. Se estudiaba además otro sistema, de detección a distancia de los movimiento oculares, para eliminar estos molestos lentes. Estos recursos, combinados con los ya señalados, permiten órdenes verbales tan comunes y ambigüos como "Pon esta figura aquí", lo cual viene a cumplir el objetivo de "interacción conversacional" que se había fijado el M.I.T.

Las principales aplicaciones desarrolladas para esta "sala de medios" fueron los "planos-películas", para "visitar" ciudades, y los "manuales-películas" para el aprendizaje interactivo. Para tales realizaciones se requieren evidentemente memorias de alta capacidad y especialmente aptas para la conservación y reproducción de imágenes (como los CD-ROM). No se esperó sin embargo a que todos los adelantos previstos en el experimento estén simultáneamente desarrollados y disponibles. Cinco años después de las primeras experiencias los conceptos que la orientaron ya se habían difundido ampliamente y estaban disponibles para computadores personales de 1Mb de RAM y disco duro de 20 Mb gracias al HyperCard de Apple y al Guide para PC-DOS. A diez años del lanzamiento del HyperCard, el auge de las redes había hecho que los archivos visuales y las funciones anexas imaginadas en la "sala de medios" del MIT estuvieran disponibles a distancia: la World Wide Web ponía gran parte de estos recursos al alcance de cualquier profesional.


Fuente: R.Bolt, "Las imágenes interactivas", en Mundo Científico nº 27, 1983.

16.5. Fotografía digital

(16. La gráfica digital)

El desarrollo de los hipertextos e hipermedios, y especialmente la World Wide Web , han acelerado la producción y la difusión de cámaras fotográficas que reemplazan la película química por un sistema electrónico de captación de los fotones que llegan a través del lente (sistema llamado "dispositivo de detección por acoplamiento de carga" o "CCD").


Los CCD (Charge Coupled Device) son chips capaces de transformar la luz en señales eléctricas. La superficie es una especie de rejilla muy fina en que cada punto donde se cruzan los alambres es sensible a la luz. Esta rejilla de electrodos, como se puede ver en el gráfico, divide la superficie en pixeles (que corresponden a los "puntos" de color, igual que los conos en nuestra retina). A mayor cantidad de alambres por lado, mayor es la nitidez obtenida. Cada electrodo está conectado a dos polos encargados de medir el voltaje. Delante del electrodo hay un filtro de color que determina cual de los colores primarios (rojo, verde o azul) será registrado. Cuando un fotón pasa por el filtro, libera electrones en el sustrato de silicio que está detrás del electrodo. Una carga eléctrica aplicada a los polos reúne estos electrones, a través de un "elemento de captura". El sistema mide su cantidad y la anota en el formato digital que requiere el computador.


Fue en 1969, en los laboratorios Bell (AT&T), cuando se demostró el potencial del chip por primera vez. Cinco años más tarde, la Oficina de Acceso y Tecnología Espacial (OSAT), auspició un programa para incrementar el tamaño de los CCD que entonces era de 100 x 100 pixeles. Los avances han permitido una calidad de imagen muchísimo mayor y que telescopios espaciales, como el Hubble, los utilicen en la recolección de información.

Existen tres tipos de cámaras: las profesionales de captación lineal (que "barren" la imagen que penetra, como lo hace un scanner), las profesionales de captación de área (que reciben toda la imagen sobre una superficie completa de detectores) y las cámaras "domésticas" (de captación de área), más económicas pero en su mayoría suficientes para producir excelentes fotos para monitores de computación. Las cámaras profesionales son hoy capaces de producir originales para la realización de catálogos impresos de alta calidad (y eventualmente de posters medianos, no así tamaños mayores, que sólo el proceso fotoquímico es capaz de producir hasta ahora).

Así, la Big Shot de Dicomed ya era capaz de capturar más de 50 Mb con un disparo de flash en 1996. Expertos fotográficos dicen que una buena cámara analógica, con un buen objetivo, un buen negativo y un buen revelado equivaldría a unos 40 Megapixeles. Hoy en día (año 2008) las cámaras digitales han alcanzado los 160 Megapixeles, por ejemplo la cámara digital "Seitz Phototechnik AG 6x17". Los resultados son muchas veces mejores que los obtenidos con película; no hay problemas de grano y la nitidez y el manejo de la luminosidad son notables. Esta calidad es otra de las ventajas de tomar una foto digitalmente en vez de recurrir a un escáner. No hay pérdida ya que se obtiene una imagen de primera generación.

En el diario "El Mercurio", se recalcaba ya en 1996 la ventaja de la cámara digital para el reporteo: "Las exigencias de los diarios son distintas a las de un fotógrafo aficionado o de publicidad -indica Fernando Pastene, fotógrafo de El Mercurio que trabaja con una Nikon NC2000e, con respaldo Kodak y lanzada al mercado por Associated Press. Esta cámara se usa especialmente para fotografías tomadas en la tarde, cercano al cierre del plazo de entrega del material, ya que no hay pérdida de tiempo en revelado. También resulta práctica durante los viajes. Una tarjeta PCMCIA almacena alrededor de 120 fotos digitalizadas con una calidad de 1.280 x 1.024 pixeles. La información se puede leer en un Mac o un PC, e incluso es posible traspasarla a otro computador. Práctico en la labor periodística."
La capacidad de las tarjetas de memoria es hoy, evidentemente, también mucho mayor (hasta 12Gb y varios centenares de fotos). Y las fotos pueden ser enviadas por e-mail, publicadas en la web, unidas en albumes en CDs (que, incluso pueden ser vistos en un televisor con lector de DVD).

Para los aficionados, la resolución máxima de las primeras cámaras iba de los 480 x 240 pixeles a los 756 x 504 para superar hoy los 3.000x2.000 en cámaras de 8 Mpixeles.
Hacer álbumes familiares, agregar fotografías a una presentación o incluso imprimir un currículo con fotografía incluida, son sólo algunas de las posibilidades.

Aplicación de filtros
Una de las grandes novedades de la fotografía digital es la facilidad para alterar los fotos mediante software de edición, en particular aplicando filtros.Los filtros que aportan las aplicaciones de edición de fotografías permiten numerosos efectos que pueden transformar totalmente una fotografía. No pretendemos enumerar aquí estos filtros, que son numerosos y cuyas combinaciones pueden generar los efectos más diversos. Se pueden ver multiples ejemplos finales en nuestro album "Transfotos" de Picasa.

Un solo ejemplo aquí, con sus diferentes etapas: primero la foto original, luego una primera etapa aplicando el efecto "Ripple". A este resultado se aplicó el efecto "Rotating Mirror" y finalmente el "Kaleidoscope" (4 "pétalos" y 1 órbita) acompañado de una "negativación".



Fuentes:
Revista "Macworld" en español de abril 1996.
Revista "Siglo XXI" de "El Mercurio", Santiago, 3 de octubre 1996.
Aplicación Paint Shop Pro 7.0

16.4. La gráfica y los juegos de computación

(16. Gráfica digital)

16.4.1. La primera gráfica vectorial (en los años `70)

Mientras los gráficos vectoriales estuvieron una vez en el corazón de la industria de los videojuegos de galería, al principio del decenio de los '80, es muy posible que la mayoría de los jugadores más jóvenes de hoy, y la mayoría de los diseñadores de juegos, probablemente nunca han visto una imagen vectorial tal como se utilizadaba en los juegos de esa época. (Es aún común en programas de diseño tipográfico como "FreeHand" y también se utiliza en gráfica tridimensional).



Las imágenes vectoriales -a diferencia de las imágenes más realistas que acostumbramos ver hoy- no se basan en el mapeo de memoria del computador, sino que consisten en líneas proyectadas directamente en la pantalla. Se controla el haz de electrones del tubo catódico (pantalla), el que se puede encender, apagar o disminuir y con el cual se puede trazar líneas (vectores); mover hacia o desde el centro de la pantalla; cambiar la escala de los vectores; y, mediante el programa, saltar a una subrutina de vectores a dibujar y luego regresar a la secuencia inicial.

Todos los dibujos se hacían tirando líneas (en parte apagadas, hasta llegar donde debían aparecer) desde el centro de la pantalla, lo cual -a la larga- quemaba el monitor en ese punto, y frenaba la presentación de múltiples figuras. Éstas desaparecían solas, al terminar la emisión del rayo, y debían ser redibujadas, eventualmente en otra posición, lo cual facilitaba la representación del movimiento pero hacía difícil crear escenas complejas (no había "memoria de pantalla" que permitiera mantener la imagen y renovarlas a intervalos regulares). Se podían utilizar 16 colores, que se definían en memoria RAM.

Los gráficos vectoriales -a veces llamados gráficas XY- eran buenos para los juegos de video porque proveían una muy alta resolución, imágenes como "cortadas a navaja", en una época en que 200x180 pixeles se consideraron "hi-res" (alta resolución).

Una gran ventaja de los vectores para los juegos era la capacidad para aplicar un factor de escala al dibujo. Un objeto podría aparecer volando hacia fuera en la distancia, pero todavía realmente usar la misma subrutina de definición vectorial. En el juego "Major Havoc", por ejemplo, hay un pequeño mapa del laberinto entero en la esquina de la pantalla. Usa las mismas rutinas de dibujo que el laberinto grande, pero es reducido matemáticamente de escala. Y las escenas del espacio aparecen en una perspectiva 3D, aúnque se dibujan de un plano XY de rejilla estándar. Cambiando el factor de escala sobre la marcha, las gráficas parecen desaparecer en un punto que desvanece, haciéndose cada vez menor hacia la cima de la pantalla, lo cual da una impresión de 3D.

El sistema vectorial sin embargo tenía otro defecto: para lograr una buena imagen en los bordes de la pantalla, había que hacer que el rayo de electrones completara parte de la imagen fuera de la pantalla, lo cual -a la larga- alteraba los monitores.

La gráfica vectorial fue utilizada en los primeros Atari (procesador 6502), siendo el primer juego de este tipo el "Lunar Lander", lanzado en agosto de 1979. El último (El Imperio Contraataca) salió en 1985. Otra tecnología -con menores problemas de pantalla- estaba ganando la batalla. Traducido de "Memories of a Vector World", de Owen R.Rubin (uno de los primeros ingenieros diseñadores de juegos de Atari)

La gráfica vectorial y sus algoritmos -cada vez más sofisticados- siguió teniendo mucha importancia para el desarrollo de las imágenes de tres dimensiones (3D) presentadas en el plano (2D). Así, por ejemplo, la creación de algoritmos que permitieran esconder correctamente las aristas y los planos traseros de los objetos ha sido fundamental.

16.4.2. Los primeros juegos "bit-map" (1982-1990)
En 1980 se cruza un importante umbral: se admite que una gráfica de tipo realista es factible, cosa que no se aceptaba fácilmente antes. Los gráficos vectoriales fueron reemplazados por los gráficos en mapas de bits (definiendo colores de los diferentes pixeles que componen la pantalla, por filas, como en la generación de las imágenes de televisión). Los computadores "de 8 bits" (la "frase" admitida por el procesador) de mayor éxito y uso en la época fueron los Sinclair (Spectrum), Atari 400/800, Apple II y Commodore 64.
Nótese que en 1985 ya se lograba una gráfica tridimensional y que el Atari llegó a permitir 128 colores (dependiendo de la pericia del programador), los otros estando limitados a 16 colores.
Los mejores juegos en 8bits fueron, según S.Collins: Encounter (a) , Tornado Low Level (b), Elite (c), Lords of Midnight (d), Stunt Car Racer (e), The Hobbit (f), Ant Attack (g), KnightLore (h), y Head over Heels (i).

La base del diseño eran los "sprites" (ver ilustración). Los sprites son pequeños elementos gráficos de altura y anchura fija que pueden ubicarse independientemente en la pantalla principal y se utilizan para representar y mover los "caracteres" (actores) en los juegos. Este sistema fomentó una gran experimentación, y una generación entera de programadores se familiarizó con su arquitectura y comenzó a empujar el linde de lo que era posible.

Uno de los primeros -y más famosos- juegos que utilizaban sprites fue el "Pacman", juego de "actores" que comían -o eran comidos- al desplazarse por un laberinto. (Foto de pantalla del Pacman en un Apple II)



Escala ampliada del "sprite" (Cada cuadrado básico equivale a un pixel.)



La paleta de color muy restrictiva hizo difícil equilibrar las gráficas. Era particularmente duro conseguir que los caracteres (objetos o personajes) permanecieran destacados ante fondos detallados, porque todos los colores eran casi igualmente nítidos.
En la era de oro de los "8 bits", los programadores eran los héroes. Todo el mundo esperaba la próxima producción de los más famosos como el Sr. Braybrook, o Jeff Minter, Tony Crowther, Paul Noakes, Geoff Crammond, David Braben, Steve de Tornero, John Phillips y tantos otros.
Fuentes: Steven Collins y Maurice Molyneaux

Nintendo
En 1974, la compañía japonesa Nintendo introdujo los primeros juegos de galería, basados en proyecciones de películas de 16mm. El año siguiente, en cooperación con Mitsubishi, introdujo el sistema de video y el primer microprocesador especializado. En 1977 fabricó el primer videojuego para la casa y el año siguiente lanzó los videojuegos computarizados operados con monedas, para galerías, obteniendo su primer gran éxito con "Donkey Kong" en 1981. En 1983 lanzó la primera consola casera computarizada de videojuego, con CPU especializada, y en 1995 lanzó el primer sistema de inmersión virtual ("Virtual Boy").
Fuente: Nintendo.com

Superando los 8bits

Pero el verdadero auge de la gráfica se vincula más bien a la capacidad de manejar imágenes de estilo fotográfico, para lo cual ha sido clave contar con procesadores de 16 bits (y luego de 32) y contar con aplicaciones como el Photoshop y After Effects, y la técnica del "rastering" (lectura/escritura de los puntos de la pantalla, como en la imagen de televisión). Las imágenes "rasterizadas" se han transformado rápidamente en el sistema dominante.

Pero hoy la distinción entre rastering y sistemas vectoriales tiende a desaparecer y las nuevas aplicaciones mezclan ambas técnicas (ver el software Bryce y otros). Y la investigación recurre cada vez más a trabajos interdisciplinarios que hacen intervenir la física, la fisiología (visión y procesamiento cerebral de imágenes), las ciencias cognitivas, etc.

16.4.3. La revolución 3D del 92

Una revolución se produjo en 1992: apareció el juego "Wolfenstein 3D", con una versión de 3 niveles distribuída como "shareware" (libre distribución; otros 27 niveles se podían comprar). El diseño era simplista, la rutina de juego guardada en una forma bruta de memoria. Era el scrolling suave, la textura, la vista en primera persona que causaban el deslumbramiento. Nada igual se había visto antes en un PC. Y la mayoría de los desarrolladores de juegos se preguntaba cómo era esto posible: ¿Sobre un 80286 con gráfica VGA estándar, nada menos?

Popularizaba la técnica del "ray casting", un algoritmo de dibujo originalmente usado para gráfica lineal que, como se mostraba, daba estupendos resultados al aplicarse a superficies. El ray-casting, inspirado en el sistema vectorial, ya había sido usado en Atari desde 1987, pero la técnica sólo se difundió con el exitoso Wolfenstein y los comentarios que provocó en los newsgroups expecializados de la época.

El ray-casting es una forma limitada (no recursiva) de "ray tracing", un método que sigue los rayos de luz desde el objeto iluminado hacia la fuente de iluminación para determinar el color que debe tener dicho objeto (y las sombras de objetos interpuestos). En el ray tracing completo, la recursividad permite tener en cuenta la reflección de la luz en objetos brillantes.
Fuente: James Hague


El auge de la gráfica realista

Con los procesadores de 16 bits y más, una nueva era empezaba: la del dominio de los artistas, dado que, por fin, la máquina permitía una gráfica más realista. Y el público la esperaba.
Al mismo tiempo, en el cine, los efectos especiales empiezan a realizarse mediante computadores, y los programadores de tales efectos también son requeridos por los creadores de juegos. Empieza el reino destacado de "Lucas Art", la empresa creada por George Lucas, después del éxito de "La Guerra de las Galaxias", la que produce la serie de juegos "Rebel Assault", famosa por su introducción de la calidad de video.
El arte era evidentemente más fácil de desarrollar en "novelas" gráficas (especies de historietas o "comics" llevadas al computador), en lo cual, a nuestro juicio, el producto más logrado ha sido "Sinkha", del destacado diseñador italiano Marco Patrito (Ed. Mojave, 1995).



La combinación novela-juego ha sido una óptima solución para combinar el arte con el ingenio. Se considera "de antología" en esta categoría el juego "MYST", de 1993, que tuvo un éxito que superó ampliamente el de cualquier otro juego.

16.3. La gráfica tridimensional

(16. Gráfica digital)


Existen distintos modos de entender lo que es una "gráfica tridimensional", aunque todos se refieren a ilustraciones que -en realidad- son solo bidimensionales. La forma más conocida -y antigua- es la estereoscópica, que se basa en la diferente visión de los dos ojos y produce el efecto de profundidad mediante lentes con filtros rojo y verde (uno para cada ojo). Otra estuvo en pleno auge hace un par de años y se conoce como "autoestereograma": son los "puntitos" que no parecen representar nada pero, con buenos ojos, paciencia, esfuerzo para desenfocar la vista (...y posteriores posibles dolores de cabeza) permiten ver figuras con "profundidad".
Ambas técnicas se benefician hoy del computador para su producción. Pero ninguna de éstas permite obtener varias vistas de un mismo objeto o de un mismo paisaje. La técnica para esto es otra: es la que usan arquitectos e ingenieros para diseñar edificios, muebles y máquinas. En otras palabras, se necesitan planos o, más precisamente, juegos de coordenadas de todos los vértices, ecuaciones que representen los vectores (aristas rectas o curvas) y muchos, muchos cálculos para hacer aparecer un objeto en cierta posición y luego en otra. Y aún más instrucciones y cálculos para posicionar fuentes de luz, proyectar sombras, ajustar colores en función de la distancia, etc. Esto es lo que hicieron las aplicaciones profesionales de CAD (diseño asistido por computador) primero en grandes computadores o en máquinas especializadas (estaciones gráficas) y hoy se están popularizando como aplicaciones de 3D al alcance de cualquier aficionado. Por cierto se necesita siempre cierto "poder de cómputo" y no cualquier Macintosh o PC sirve.

Modelamiento ("modeling")


Lo primero, en la creación 3D, consiste en crear un objeto: es el "modelamiento". Esto puede hacerse de diversas maneras. Lo más simple es hacer un dibujo en dos dimensiones y luego "moverlo" para generar un volumen. La extrusión consiste en desplazar el dibujo inicial siguiendo una línea recta (en aplicaciones básicas) o una trayectoria tridimensional prediseñada (en aplicaciones avanzadas), dejando un "rastro" de sus posiciones anteriores (Orden "Extrude" en inglés). Así, un rectángulo forma un paralelipípedo, un círculo forma un cilindro o un helicóide, etc.: un ejemplo son las letras "3D" del título de este artículo. Otra herramienta para modelar es la revolución ("Lathe"): se desplaza el dibujo inicial siguiendo un círculo, alrededor de un eje preelegido. Así, medio círculo genera una esfera y el simple perfil de la ilustración superior produce el volúmen que la sigue. Además de proponer objetos simples prediseñados, un buen modelador permite unir varios volúmenes entre sí y el más avanzado permite operaciones booleanas (que añaden o sustraen volúmenes unos a otros, permitiendo crear huecos de variadas formas).


Otra función importante del modelador consiste en dividir todas las superficies en elementos menores ("facets", preferentemente triángulos), lo cual es especialmente importante para facilitar el sombreado y la creación de reflejos sobre superficies curvas: es el "splitting" o "gridding". Además, existen funciones que permiten deformar (inflar, torcer, separar...) una o varias caras o facetas de cada volumen creado.


Todas las etapas de modelamiento se hacen utilizando una visualización de malla de alambre (sólo líneas), lo cual permite trabajar con mayor rapidez. Una vez terminado el modelo de malla, se define la consistencia y el color de los planos y se pasa a la producción.


Producción ("rendering")

Una vez creado el objeto, hay que realizar la imagen final, lo cual implica escoger un punto de vista -como lo haría un fotógrafo- y colocar fuentes de iluminación (una o varias). También se puede agregar un decorado: un fondo de cierto color y eventualmente un primer plano, que puede esconder cierta parte del objeto. Ciertas aplicaciones permiten usar como fondo una ilustración 2D preexistente y, por cierto, se pueden cortar y pegar otros objetos tridimensionales desde otras realizaciones. Es posible trabajar con un mínimo de elementos de iluminación, pero también con espejos y reflejos de un objeto sobre otro: todo depende de la aplicación, del poder de cálculo...y de la paciencia, porque esta etapa es la que toma más tiempo.


También es posible prefijar una "trayectoria de cámara" para pasar de una vista a otra en forma automática, generando cuadros que podrán formar parte, después, de una secuencia QuickTime o de VCR. De nuevo, depende de la aplicación y del procesador...y de mucha paciencia.

(Si no ve la animación siguiente, haga un "reload" con la imagen a la vista o ábrala en otra ventana.)


Algunas aplicaciones tienen módulos complementarios para crear decorados, como generadores de árboles o plantas, de texturas para el fondo o las facetas, etc. Pero también existen programas especializados para generar paisajes tridimensionales.

Para principiantes y profesionales, las aplicaciones comerciales de generación 3D son numerosas. Entre las profesionales mejor referenciadas está Maya de Autodesk que se uso incluo en el cine. Para la creación de paisajes es famoso Bryce. Pero frente a estos programas relativamente caros y exigentes en disponibilidad de memoria RAM, también existen sharewares de buena calidad y bastante más compactos como Blender 3D. (Se pueden conocer y comparar las aplicaciones actuales en http://www.tdt3d.be/articles_viewer.php?art_id=99)


En las ilustraciones de esta página hemos usado Vision-3D en las primeras, DesignerWorkShop en la animación, y Bryce en la ilustración final.