La primera "imagen" producida en una pantalla a partir de un computador ha sido la que corresponde al sistema de defensa aérea SAGE de los Estados Unidos, que operó entre 1949 y 1958. Un radar seguía la trayectoria de los aviones, mientras el computador analizaba los resultados y mostraba la posición del avión en un monitor.
La gráfica requiere ingentes cantidades de memoria y velocidad de proceso, por lo cual quedó limitada, durante muchos años, a computadores de alto poder y costo y a tareas que sólo algunas industrias podían financiar. La "visualización industrial" es el origen de los sistemas de diseño por computador o "CAD" (computer-aided design) que, además, permitían dirigir los procesos de fabricación correspondientes ("CAM": computer-aided manufacturing). Los sistemas CAD-CAM son los que han tenido el mayor crecimiento en los últimos 20 años.El CAD ha pasado rápidamente del diseño estrictamente industrial al diseño arquitectónico y es muy usado hoy por los arquitectos. De modo parecido se han desarrollado aplicaciones especializadas para la confección de mapas geográficos y el modelamiento molecular.
Los computadores reemplazaron el dibujo sobre transparencias en la animación cinematográfica (como en "ToyStory", al lado), la que se está dividiendo en dos corrientes: la de los dibujos animados (2D) y la de la realidad virtual (3D), gracias al desarrollo de diversas aplicaciones de diseño tridimensional hoy familiares para los diseñadores gráficos.
Con el aumento de velocidad de los procesadores, el abaratamiento y el aumento de capacidad de los chips de memoria, el procesamiento gráfico ha podido llegar a los equipos de escritorio e incluso a microsistemas orientados exclusivamente al juego ("playstations").
Con el aumento de velocidad de los procesadores, el abaratamiento y el aumento de capacidad de los chips de memoria, el procesamiento gráfico ha podido llegar a los equipos de escritorio e incluso a microsistemas orientados exclusivamente al juego ("playstations").
Películas como la serie sobre "La Guerra de las Galaxias" incluyen numerosos ambientes artificiales y efectos especialesproducto de la gráfica digital. Algunas incluso -como "Tron" y "Toy Story"- son casi integralmente productos de la computación, mientras otras -como "El Hombre del Jardín" o "Matrix"- ilustran las nuevas posibilidades de creación computacional de mundos reales o irreales, o la mezcla de ambos.
"Tron" ha sido la primera película en combinar personajes humanos con realidad virtual, en 1982 (foto de la izquierda).
"Tron" ha sido la primera película en combinar personajes humanos con realidad virtual, en 1982 (foto de la izquierda).
"Toy Story", primera película de dibujos animados totalmente tridimensionales ha sido creada, años más tarde, por sólo 27 dibujantes, utilizando 70 computadores Indigo 2 Extreme de Silicon Graphics para la modelación, animación, iluminación y composición, más servidores Silicon Graphics Challenge para almacenar los datos y 117 estaciones SparcStation 20 de Sun Microsystems para el "rendering" (generar el aspecto final, una vez definidos todos los trazados).
Pero la gráfica tridimensional (3D) progresa velozmente y, hoy, el realismo es tal que se hace en algunos casos imposible distinguir la verdad de la ficción virtual. En "Titanic", muchos "extras" fueron virtuales y, trás la muerte de Brandon Lee durante la filmación de "El Cuervo", fue reemplazado por un "doble" virtual para terminar la película.Lo mejor de lo producido hasta mediados del 2001, ha sido sin duda "Fantasía Final", donde "actúa" la modelo virtual Aki Ross (foto al lado).
Weta Digital, el estudio que está detrás de los asombrosos efectos de la película "El señor de los Anillos", tuvo que crear numerosos personajes virtuales para "Las dos torres", como Gollum y muchos otros. Esto no habría sido posible sin aplicaciones de alto nivel, entre las que se incluyen Maya de Alias Wavefront, Shake de Apple y RenderMap y Alfred de Pixar, software que distribuye las tareas de producción entre cientos de procesadores que trabajan con el sistema operativo Linux.
Lo más avanzado, (desde julio 2003), es lo que ofrece el último chip diseñado por nVidia, que permite representar con mayor aspecto de realidad a seres humanos con todos aquellos pequeños detalles que los caracterizan. "Normalmente, cuánto más te acercas a un carácter en tiempo real, la calidad de la imagen empeora.
Pero cuánto más te acercas a Aurora, mejor se ve ella. Así, si se mira su piel, ella tiene lunares, si se mira a sus ojos, ella tiene retina, una córnea y vasos capilares.", dijo Andrew Humbar, de nVidia. Aurora el hada que nVidia creó para demostrar las nuevas posibilidades de su nueva tarjeta de video (imágenes al lado; pinche en la segunda para ver los detalles).
Otro tipo de trabajo puede observarse en la trilogía "Matrix".
Otro tipo de trabajo puede observarse en la trilogía "Matrix".
En 1987, la Fundación Nacional de Ciencias (NSF) de los Estados Unidos publicó un informe subrayando la importancia estratégica -para la ciencia- del desarrollo de medios de visualización de datos. Desde entonces se han ido creando múltiples aplicaciones que permiten explorar conjuntos de datos de diferentes tipos y magnitudes y obtener de ellos, gracias a la imagen, nuevos conocimientos de enorme valor. Es lo que, desde entonces, se ha llamado la "visualización científica" (Se abordará más adelante).