Fundamentos tecnológicos

PID_00150761
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

1.Tecnología gráfica

Esta área se refiere a la tecnología electrónica que hace posible generar los estímulos gráficos en el ordenador: tanto tarjetas de gráficos 2D como las llamadas aceleradoras 3D. Esta tecnología empezó a desarrollarse a partir de las necesidades de la visualización científica de datos y se ha beneficiado enormemente de la gran cantidad de investigación realizada en el ámbito de los gráficos por ordenador. El incremento en capacidad de cálculo de las CPU ha colaborado a su rapidísima reducción de precio y aumento de prestaciones, de forma que hoy día, un ordenador doméstico o aún más una vídeo consola, tienen unas capacidades gráficas que hace tan solo 5 años estaban restringidas a equipos de precios desorbitados y que sólo se podían encontrar en empresas o laboratorios de gran formato.

1.1.Utilización

Su utilización está claramente definida en la salida de estímulos visuales de los sistemas de realidad virtual. Usualmente se piensa sólo en las tarjetas aceleradoras 3D para las aplicaciones, pero cabe recordar que esto es un tópico y que las tarjetas 2D de altas prestaciones también resultan vitales en muchas aplicaciones.

1.2.Características

En las tarjetas de generación 2D las características principales son:
Característica
Detalle
Llenado de píxeles
Hace referencia a la cantidad de píxeles que la tarjeta puede pintar por segundo. Cuanto mayor, tanto mejor. Hoy día se mide en millonesde píxeles por segundo: Mpixels/s
Resolución
Hace referencia a la cantidad de píxeles horizontales por píxeles verticales que puede mostrar en una pantalla. En este caso, cuanta más diversidad tenga, mejor. También se valora el hecho de que pueda llegar a resoluciones altas, pero entonces habrá más píxeles por llenar.
Profundidad del color
Se refiere a la cantidad de bits que se utilizan para codificar el color de un píxel. Hoy día se espera que como mínimo se utilicen 16, pero lo normal es utilizar 24 y los sistemas más completos dan 32. Estas codificaciones dan 65.535 colores, 16.777.215 colores y 4.294.967.295 colores respectivamente.
En el caso de las tarjetas aceleradoras 3D, se mantienen como importantes las características de las 2D, pero además se deben tener en cuenta las siguientes:
Característica
Detalle
Polígonos por segundo
La forma en que se generan los gráficos en 3D es a partir de polígonos. Estos polígonos, usualmente triángulos, se unen, colorean, texturan, etc., para formar objetos complejos. Cuanto más compleja sea una escena, más polígonos tendrá. Por esta razón, es importante que el generador pueda hacer muchos polígonos por segundo.
Es realmente complejo poder comparar las diferentes tarjetas existentes entre ellas, debido a que cada una tiene una filosofía de medida de polígonos por segundo distinta. No obstante, hay un cierto acuerdo de que un polígono es en realidad un triángulo de 25 píxeles. Esto quiere decir que si nuestra aplicación requiere hacer muchos triángulos de más de 25 píxeles, entonces obtendremos un rendimiento menor al especificado. También resultan problemáticos los triángulos muy largos y delgados.
Profundidad del Z-buffer
La forma en que se pintan los polígonos 3D es a partir de mirar, por cada píxel que lo compone, su profundidad en el entorno 3D con respecto al punto de vista. Es decir, se calcula la coordenada Z del píxel. Esta coordenada Z se compara con la coordenada Z del píxel de pantalla, donde iría pintadoel píxel del polígono. Si la Z del píxel del polígono es menor que la del píxel de pantalla, entonces se pinta; si no, no se pinta y se deja el que ya habíaen pantalla.
La precisión de esta comparación depende de la cantidad de bits utilizados para almacenar la coordenada Z de cada píxel de pantalla. Hoy día, es habitual que los Z-buffers utilice 24 bits por píxel.
Memoria de texturas
Hace referencia a la cantidad de RAM de que dispone la tarjeta para almacenar texturas. Cuanta más tenga la tarjeta, menos deberá utilizar la RAM del ordenador y más rápido irá (NOTA: Esto hay quien lo discute debido a ciertas características técnicas específicas, pero se puede dar por correctoen la mayoría de los casos)
Filtrado bilineal o trilineal
Se refiere a la forma en que se calcula el texturado de los triángulos para que las texturas no produzcan el efecto de que flotan y tengan una apariencia más nítida. El filtrado trilineal es mucho más costoso en cálculos y tiempo que el bilineal.
Antialiasing
Se refiere al efecto de disimular los efectos de escalera o dientes de sierraque se produce en las aristas o líneas diagonales. Al ser un proceso costosoen cálculo y tiempo, al mismo tiempo que complejo de implementar en hardware, no todas las tarjetas lo ofrecen.
Hay que distinguir entre antialiasing de líneas, antialiasing de aristasy antialiasing de pantalla completa. Cada tipo es más complejo y más completo respectivamente que el anterior.

1.3.Ejemplos

Es arriesgado dar ejemplos concretos de tarjetas e incluso de marcas, ya que su evolución es tan rápida y se realizan tantas fusiones y absorciones entre empresas, que si damos una lista, ésta resultará obsoleta en muy pocos meses. Por esta razón tan sólo daremos referencia de las marcas históricamente importantes:
  • SGI (antes Silicon Graphics, Inc): Aunque hoy día ya no es diseñador de hardware gráfico especializado, sí sigue siendo un fabricante (a partir de componentes de otras marcas) importante y de referencia obligada. Silicon Graphics fue de las primeras marcas especializadas en gráficos 3D y lideró el mercado de forma importante.

  • Evans&Sutherland: La empresa del pionero Ivan Sutherland es también uno de los monstruos históricos y aún sigue aportando importantes productos e innovaciones.

2.Sistemas de posicionamiento espacial

El posicionamiento espacial es básico para poder interactuar con los sistemas de realidad virtual.
El objetivo de estos sistemas es el de permitir al usuario establecer el posicionamiento y/o la orientación del elemento de interacción: sea un objeto o el sujeto virtual.

2.1.Utilización

Su utilización depende de sus característica y de la aplicación concreta, pero, en general, son las interfaces físicas de entrada a la aplicación.

2.2.Características

Las características genéricas se ven a continuación, mientras que en las subcategorías se verán las características concretas de cada tipo.
Característica
Detalle
Dimensión
Se refiere a si el sistema está pensado para trabajar en el plano (2D)o en el espacio 3D.
Grados de libertad
Se refiere a cuántos tipos posibles de medidas puede realizar el sistema dentro de su dimensión.
Por ejemplo, en el plano se pueden medir los desplazamientos en Xy en Y (horizontal y vertical). Esto se dice que son dos grados de libertad de traslación. También se puede medir el ángulo de rotación respectode un punto, y por lo tanto se dice que es un grado de libertad. Un sistema que pudiera hacer los tres tipos de medidas sería un sistema con tres grados de libertad.
Cuando se trabaja en el espacio 3D, se tienen tres grados de libertad para las traslaciones (X, Y y Z; horizontal, vertical y profundidad), y tres también para las rotaciones (respecto al eje X, al Y y al Z; o pitch, yaw y roll). Un sistema 3D que lo pueda medir todo será un sistema con seis grados de libertad.
También se consideran grados de libertad la posibilidad de pulsar un botón,o girar un potenciómetro.
Conexión al ordenador
Se refiere a si se conectan mediante un cable, o bien si disponen de algún sistema inalámbrico.
Medición relativa o absoluta
Se refiere a si las medidas que realiza el sistema son medidas de incrementoo decremento respecto a las anteriores (medidas relativas), o bien si son medidas que hacen referencia a un sistema coordenado físico fijado (medidas absolutas).
No es que un sistema sea mejor que otro, simplemente hay aplicacionesen las que uno resulta más conveniente.
Lag o delay
Se refiere al tiempo que necesita el sistema para hacer la medida y notificarla al ordenador. Cuanto menor sea el retardo mejor será el sistema.
Precisión o resolución
Se refiere a la medida de menor tamaño que puede realizar el sistema.
Repetitividad de medición
Se refiere a la precisión con que un sistema de medición absoluta puede volver a detectar la misma posición u orientación.
Interferencias
Se refiere a fenómenos o elementos que puedan causar interferenciasen las mediciones. Por ejemplo, los sistemas de ultrasonidos pueden ser interferidos por el golpeteo de las llaves en un llavero, ya que el choque entre metal genera altas frecuencias.

2.3.Subcategorías

De entre las diferentes subcategorías de sistemas de posicionamiento espacial, veremos con detalle dos de ellas.
2.3.1.Sistemas manuales o de sobremesa
Son sistemas que acostumbran a ser de sobremesa, los cuales mediante algún sistema controlado por la mano permiten dar órdenes a la aplicación. En general se basan en sistemas tipo ratón o tipo joystick con mayor o menor grado de sofisticación. Estos sistemas acostumbran a ser de tipo medición relativa aunque existen algunas excepciones.
Subtipos y ejemplos
Tabla de subtipos y ejemplos
Sistema
Detalle
Ratones 2D
Todos los ratones estándar son sistemas de posicionamiento espacial de dos grados de libertad (miden las traslaciones en el plano) máslos grados de libertad de sus botones (según modelo, entre 1 y 3). Todos son de medición relativa y su precisión es bastante baja.
Joysticks estándares
Todos los joysticks estándar son sistemas de posicionamiento espacial de dos grados de libertad (miden las traslaciones en el plano) máslos grados de libertad de sus botones (según modelo). Algunos miden también la rotación en el plano y por lo tanto tienen un grado de libertad más. Todos son de medición relativa y su precisión es bastante baja.
Ratones 3D
Son ratones basados en tecnologías diversas que acostumbran a dar los seis grados de libertad del espacio 3D (más botones que puedan tener) y todos ellos son sistemas de medición relativa.
Ejemplos
  • Spaceball: Esfera basada en sensores de tensión y torsión

  • Magellan: Cilindro basado en sistema óptico

  • Logitech 3D Mouse: Ratón aéreo basado en sistema de ultrasonido

Sistemas robóticos
Son sistemas de tipo brazo robótico o joystick modificado, con diversos grados de libertad, algunos con medición relativa y algunos con absoluta,y que por lo general van asociados a los sistemas de Force Feedback (ver más adelante).
2.3.2.Sistemas de medio y largo alcance
Estos sistemas permiten detectar cambios de posición y/o orientación en el espacio en un rango mucho mayor que los anteriores. Estos sensores con diversos grados de libertad pueden ser adaptados a diversas partes del cuerpo del usuario o a objetos físicos con los que el usuario interactúe. De este modo, lo que los sensores detectan sirve de datos de entrada a la aplicación, los cuales son mapeados en acciones directas sobre la experiencia.
Subtipos y ejemplos
Tabla de subtipos y ejemplos
Sistema
Detalle
Sensores de posición y/o orientación por ultrasonido
Se basan en una central emisora de pulsos de ultrasonido captados por un elemento receptor. Estos sistemas suelen ser de medición absoluta aunque algunos también permiten el modo de medición relativa. Estos sensores se pueden ver afectados o interferidos por fuentes sonoras de muy diverso tipo. También presentan un retardo considerable, ya que están restringidos por la velocidad del sonido.
Existen sistemas que detectan tanto posición como orientación, mientras que otros únicamente miden la posición. Los primeros se basan en que la emisión se realiza mediante tres pequeños altavoces situados en forma de triángulo formando un plano de emisión. El elemento receptor es un conjunto de tres pequeños micrófonos que detectan los retardos de los pulsos provenientes de los altavoces y mediante unos cálculos matemáticos, se puede saber la posición y orientación del conjunto receptor respecto al emisor. Un ejemplo histórico de estos sistemas es el famoso Flock of Birds de la empresa Ascensión; un sistema ya no utilizado por Ascensión pero que tuvo una gran aceptación.
Los del segundo tipo, que sólo miden la posición, se basan en cuatro altavoces situados sobre los vértices de un rectángulo que rodeael área a ser detectada, que emiten pulsos de ultrasonido a tiempos regulares. El elemento receptor es un único micrófono de pequeñas dimensiones que capta el retardo de los pulsos de cada altavoz. Estos retardos son enviados por radiofrecuencia al ordenador, que calcula la posición (x, y, z) del micrófono. Un ejemplo de este tipo sonlos sensores MLD (GAMS) de la empresa APR.
Sensores de posición y/o orientación por cámaras de vídeo
Existen diversos subtipos, pero en general la idea es que una o varias cámaras de vídeo captan imágenes del usuario u objeto a detectar y mediante unos complejos algoritmos se puede calcular la posición de extremidades, cabeza, etc. Estos sistemas tienen la gran ventaja de ser totalmente inalámbricos.
Por un lado existen los sistemas que captan posición en 2D como el que diseñó Myron Krueger. Éstos utilizan una cámara frontal al usuario que capta la imagen del mismo. El sistema extrae la silueta del usuario respecto del fondo e intenta deducir la posición de pies, manos y cabeza.
Ejemplo:
Mandala de Vivid Group (Canadá)
Otros, que calculan posiciones en 3D, se basan en poner unos marcadores sobre el cuerpo del usuario o sobre los objetos a detectar. Estos marcadores pueden ser pequeñas esferas fosforescentes, etiquetas de colores vivos o pequeñas luces. Unas cámaras situadas alrededor del área de detección captan las imágenes de los marcadores. La cantidad de cámaras puede variar mucho, desde 3ó 4 hasta más de 20. La razón de utilizar tantas cámaras esla de intentar reducir al máximo las posibles ocultacionesde los marcadores y generar suficiente redundancia de medidas para poder tener un cálculo fiable de la posición de cada marcador. La orientación se calcula a partir de dos o más marcadores segúnsus posiciones relativas.
Ejemplo:
Vicon8i de la empresa Vicon
Sensores de posición y/o orientación por campo magnético
Existen dos tipos básicos, los basados en el campo magnéticode la tierra y los basados en un campo generado propio.
Los que utilizan el campo magnético de la tierra son los más simples, pero también son muy imprecisos. Éstos funcionan sobre el mismo principio que una brújula, la cual se orienta hacia el norte. Porlo tanto, son sensores de tan solo un grado de libertad, ya que únicamente determinan la rotación en el plano horizontal. No obstante, son muy útiles para detectar rotaciones que no requieren de gran precisión y son muy económicos. Su tipo de medidas es absoluto.
Los otros sistemas tienen un generador de campo magnético propio. Este campo es de una intensidad considerable para que tenga una buena precisión. El alcance de este campo varía según modelo, pero va desde una esfera de 100 cm de diámetro hasta un espaciode 20 x 20 x 10 metros aproximadamente. El funcionamiento se basa en unos pequeños receptores formados por tres bobinas de cobre situadas perpendicularmente unas de otras. El receptor se puede colocar en cualquier parte del cuerpo u objeto. Cuando el receptorse mueve dentro del campo magnético, éste induce una corriente eléctrica de distinta intensidad en cada una de las bobinas, dependiendo de cómo se encuentran orientadas respecto al campo magnético. A partir de estas intensidades, mediante algoritmos matemáticos se puede deducir la orientación y posición del receptor con respecto al emisor. Estos sistemas son de medida absoluta, aunque se les puede hacer trabajar en modo relativo.
Ejemplos:
Los dos sistemas más conocidos por antigüedad y por fiabilidad y precisión son los de Ascensión (después de abandonar los de ultrasonido) y los de Polhemus (empresa pionera de este campo).
Estos sistemas tienen una precisión bastante buena, un retardode respuesta tolerable y actualmente existen diversas opciones inalámbricas.
Sensores de posición y/o orientación por giróscopos
Estos sistemas se basan en la propiedad física llamada efecto giroscópico, que hace que un cuerpo que gira a alta velocidad tiende a mantenerse estable sobre el plano en el que gira. Esto permiteque cualquier cambio en el plano de giro se pueda detectar y de esta forma poder obtener los cambios de posición y orientación (seis grados de libertad). Estos sensores son muy rápidos y muestran muy poco retardo, además de que son bastante precisos. No obstante tienden a descalibrarse y por esta razón acostumbran a incluir un subsistema por ultrasonidos que los recalibra cada cierto tiempo.
Ejemplo:
Los más destacados en esta tecnología son los sistemas Intersense.
Sensores orientación por cápsulas de mercurio
Estos sensores tienen una precisión muy baja y unas prestaciones muy limitadas pero son realmente muy económicos y por lo tanto muy accesibles. Éstos se basan en una cápsula de vidrio que contiene mercurio. Unos cátodos en los extremos detectan el desplazamiento del mercurio al rotar la cápsula, por el cambio de conductividad. Sólo tienen un grado de libertad, ya que tan sólo detectan la rotación en un eje. Además, tienen un rango de rotación muy limitado que vade –45° a +45°. Habitualmente se combinan con los sensores magnéticos basados en el campo magnético de la tierra, para obtener un sistema de tres grados de libertad en rotaciones de muy bajo coste.
Sensores orientación por acelerómetro
Los acelerómetros son unos elementos electrónicos que detectanel cambio de fuerzas G (gravitatorias). A partir de esto pueden detectar su cambio de orientación debido al cambio de aceleración de la fuerzas. Sólo pueden medir un ángulo de rotación y sóloen el rango ±90°, pero tienen una respuesta y una precisión bastante buenas.
Ejemplo:
Uno de los fabricantes principales es Crossbow Technology.

3.Sistemas de visualización

Éstos no son los sistemas generadores de imágenes, sino los sistemas mediante los cuales se pueden presentar y experimentar los estímulos visuales generados por las tarjetas gráficas. Estos sistemas son muy diversos y cada uno tiene unas características muy distintas a los demás.

3.1.Utilización

La utilización de estos sistemas depende enormemente del tipo de aplicación, pero en todo caso siempre son utilizados por el/los usuario/s para poder experimentar los estímulos visuales las aplicaciones de realidad virtual.

3.2.Características

Las siguientes son las características globales:
Característica
Detalle
Aislamiento del usuario
Se refiere al grado de aislamiento respecto al entorno físico inmediato del usuario que provoca la morfología, estructura y utilización de estos sistemas.
Número de usuarios
Se refiere a si el sistema es monousuario o permite la visualizacióna más de un usuario simultáneamente.

3.3.Subcategorías

3.3.1.Monitor
La utilización de un monitor en aplicaciones de realidad virtual da lugar a la variante llamada realidad virtual de sobremesa (o Desktop VR). A este sistema no se le puede llamar multiusuario aunque no es estrictamente monousuario.
Sus características aquí no las recogeremos debido a que son ya muy conocidas.
3.3.2.Proyección
Los proyectores para sistemas informáticos cada vez son más accesibles y resultan un excelente sistema multiusuario para experiencias de realidad virtual tipo instalación o para grandes auditorios. No obstante, con estos tipos de sistemas, habitualmente sólo un usuario es quien manda y puede interactuar, aunque hay excepciones.
Sus características principales son:
Característica
Detalle
Resolución
Se refiere, de modo análogo a los monitores, a la cantidad de píxeles horizontales y verticales de la imagen.
Frecuencia vertical
Se refiere a la velocidad con que renueva la imagen. Cuanto más grande sea la frecuencia, menor será el parpadeo. Además, si se quiere realizar visualización estereoscópica con gafas de LCD (ver más abajo) el proyector debe dar una frecuencia mínima de 96Hz, aunque la óptima debe ser de 120Hz.
Luminosidad
Se refiere a la intensidad de la imagen y habitualmente se mide en ANSI Lumens. Hoy día las luminosidades van desde los 800 lumensen proyectores sencillos a los 10.000 lumens en proyectores de altas prestaciones, siendo habitual en la gama media encontrar 2.000 lumens.
Lente on axis u off axis
Se refiere a si la imagen queda centrada respecto al eje de la lente (sistema on axis (1) ),
sistema on axis
sistema on axis
sistema off axis
sistema off axis
o bien si la imagen queda descentrada hacia arriba respecto al eje (sistema off axis (2) ).
No es que uno sea mejor que el otro, hay situaciones o montajesen que es más conveniente una u otra.
Apertura de la lenteo alternativamente ratio distancia de proyección: tamaño de imagen
Se refiere a la distancia necesaria para poder proyectar una imagen de cierto tamaño. Habitualmente se da el ratio (o proporción) dela distancia con respecto al tamaño de la diagonal de la imagen. Así pues, una lente muy estándar tendría un ratio de 1'6:1 , es decir,que para hacer una imagen de 1 metro de diagonal se necesita una distancia de proyección de 1'6 metros. Las lentes de mayor apertura que se pueden encontrar tienen un ratio de 0'8:1, pero son rarasy las más habituales en apertura grande son las de 1'2:1 o 1:1
sistema on axis
sistema on axis
sistema off axis
sistema off axis
3.3.3.El Cyberscope
Aunque hoy día ya no se fabrica, es interesante saber que este artilugio existió. Es un sistema de espejos y prismas montados dentro una especie de pirámide truncada, la cual se adaptaba a un monitor normal para poder ver las imágenes en estereoscopia.
La forma en que funcionaba era generando la imagen para cada ojo sobre el monitor, dividiéndolo en dos mitades (como se ilustra en la figura). Los espejos y prismas del cyberscope corregían la posición y orientación de las imágenes de forma que cada ojo viese sólo la que le correspondía. Así, el sistema visual del usuario hacía la fusión de ambas imágenes para percibir el efecto de profundidad por estereoscopia.
m6e3_rec3.gif
3.3.4.Gafas de cristal líquido o LCD
Mediante estas gafas y un monitor o un proyector se pueden visualizar imágenes en estereoscopia. Son un sistema relativamente accesible y sencillo de utilizar.
m6e3_rec4.gif
Estas gafas tienen, en vez de lentes, unas pantallas de cristal líquido o LCD que pueden quedar totalmente translúcidas o totalmente opacas según sea necesario. Su funcionamiento se basa en que las imágenes presentadas en el monitor o en la proyección deben alternar las del ojo derecho y las del ojo izquierdo. El ordenador, mediante un emisor de infrarrojos, avisa a las gafas cuándo está mostrando la imagen dirigida al ojo derecho y cuándo la del ojo izquierdo. En el momento en que el ordenador presenta la del ojo derecho y avisa a las gafas, éstas dejan totalmente translúcida la pantalla derecha y totalmente opaca la izquierda. De esta forma, sólo el ojo derecho ve la imagen. Cuando el ordenador pasa a mostrar la imagen del ojo izquierdo y avisa a las gafas, éstas invierten la opacidad de las pantallas de forma que ahora sólo el ojo izquierdo verá la imagen. Alternando las imágenes y las pantallas de las gafas 120 veces por segundo, el usuario no percibe ningún tipo de parpadeo y en cambio tiene la sensación de que está viendo las imágenes de forma simultánea con cada ojo. De esta forma su sistema de visión fusiona las dos imágenes y así percibe la sensación de profundidad por estereoscopia.
Es importante tener en cuenta que los requisitos que estas gafas imponen sobre el soporte de las imágenes hacen que no se pueda utilizar cualquier monitor o proyector. Sólo aquellos que puedan refrescar las imágenes a 120Hz lo podrán hacer y esto hace que no sean los sistemas más asequibles. No obstante, este sistema de visualización es muy flexible y muy utilizado.
Las gafas más conocidas de este tipo, por ser las primeras que aparecieron, son la CrystalEyes de la empresa StereoGraphics Inc.
3.3.5.Sistemas tipo mesa de trabajo o de dibujo
Estos sistemas de visualización se basan en el uso de gafas estéreo y el uso de proyecciones de formato pequeño. La idea es generar un espacio de trabajo para la visualización 3D de datos de una o dos personas, aunque sólo una es la que manda en la interacción.
Subtipos y ejemplos
Sistema
Detalle
Responsive Workbench (3)
Responsive Workbench
Responsive Workbench
Este sistema diseñado en Alemania en el GMD (1995) fue el primero de este tipo de tecnologías que se desarrolló. Se basa en una mesa de trabajo paralela al suelo. Esta mesa es en realidad una pantalla de retroproyección sobre la cual se proyectan las imágenes de la experiencia.
Los usuarios deben llevar unas gafas de LCD para ver el efecto estereoscópico. Debido a que los usuarios pueden moverse alrededor de la mesa para verel entorno virtual desde el punto de vista que mejor les vaya, la proyección perspectiva de los gráficos 3D se debe ir adaptando a la nueva posición de los usuarios. Por esta razón, uno de ellos debe llevar encima un sensor de posición y orientación, de forma que el ordenador sepa en todo momento dónde está. Debido a restricciones técnicas, tan sólo se puede hacerla proyección correcta para un solo usuario y por eso sólo uno lleva sensor. El otro (u otros) deben permanecer lo más cerca posible a este usuario principal para que su punto de vista coincida tanto como sea posible y así vean las imágenes correctamente.
La única limitación de este sistema es que sus aplicaciones están restringidasa aquéllas cuyos datos se prestan a presentarse vistos desde arriba. Por ejemplo, maquetas arquitectónicas, aplicaciones de entrenamiento de cirugía con cadáveres virtuales como si la mesa fuese la mesa de operaciones, etc.
La gran ventaja que presentan es que diversos usuarios pueden ver, señalary comentar la experiencia.
Immersa Desk (4)
Immersa Desk
Immersa Desk
El segundo sistema de este tipo en aparecer fue diseñado en la Universidad de Illinois en Chicago. Éste, a diferencia del anterior, es parecido a una mesa de dibujo situada a 45° de inclinación respecto del suelo. De este modo, aunque los usuarios no pueden moverse a todo su alrededor, tienen un ángulo de visión mucho mayor y el tipo de aplicaciones no se restringea tan solo aquellas que presenten datos vistos desde encima.
Otras
Han aparecido muchas otras parecidas como la VersaBench de Fakespace, Inc. Pero todas son una variante de las anteriores.
Responsive Workbench
Responsive Workbench
Immersa Desk
Immersa Desk
3.3.6.Cascos de visualización
Los cascos o HMD (headmounted displays o helmetmounted displays) son los sistemas de visualización más asociados a la realidad virtual. Existe una enorme diversidad de cascos y de tecnologías, pero todos ellos se basan sobre unos principios similares. En primer lugar, están basados en un casco o unas gafas que están dotados de unas pequeñas pantallas que se sitúan delante de cada ojo. La idea es aislar al usuario de su entorno físico y que sólo vea las imágenes generadas por el ordenador.
m6e3_rec6.gif
Si el usuario sólo viese las pantallas, que por lo general tienen un tamaño de entre 1,5 cm y 3 cm, el usuario tan sólo vería unas pequeñas imágenes flotando delante de él. Por esta razón, siempre se sitúan unas lentes que amplían las imágenes de forma que abarquen un rango visual mayor y el usuario pierda la referencia del marco de dichas imágenes.
Estas lentes también contribuyen a que el ojo pueda enfocar las imágenes como si estuviesen más lejos, de otra forma el ojo tendría que estar forzando en enfoque a una distancia muy cercana y se cansaría muy pronto. La idea es que la posición de enfoque del ojo sea lo más relajada posible.
Utilización
Un casco por sí solo no se acostumbra a utilizar, a menos que únicamente desee aprovecharse su cualidad de aislar al usuario del entorno físico. Habitualmente, todos los cascos se utilizan en combinación con algún sensor de orientación (y a veces también de posición). Esto es lo que aporta la gran potencia de interfaz de visualización, ya que gracias al sensor de orientación el usuario puede explorar el entorno virtual a todo su alrededor con sólo girar la cabeza.
Aunque se considera que el primer casco fue el de la Espada de Damocles de Ivan Sutherland, como ya hemos visto, éste quedó aparcado hasta que años más tarde la tecnología permitió sistemas más completos:
Casco de Sutherland en 1967
Casco de Sutherland en 1967
Los primeros cascos fueron desarrollados por la NASA y por VPL, Inc.:
1) El primero, desarrollado en 1984 por Scott Fisher en NASA Ames, tenía todo el sistema de visualización adaptado a un casco de motocicleta común y corriente.
2) El segundo, derivado del primero y aunque menos agobiante, tenía todo el peso concentrado al frente y generaba incomodidad al usuario tras unos minutos de uso. Ambos utilizaban tecnología de LCD pasiva de muy baja resolución.
Izquierda: Primer casco de la NASA. Derecha: Uno de los primeros modelos de VPL
Izquierda: Primer casco de la NASA. Derecha: Uno de los primeros modelos de VPL
Características
Las principales características a tener en cuenta cuando se quiere utilizar un casco en una aplicación son:
Tabla de características
Característica
Detalle
Rango de visión o ángulo de apertura
Se refiere al ángulo de apertura de las lentes y por lo tanto al rango de visión del usuario que ocupan las imágenes. Cuanto mayor seael ángulo, mayor será la pérdida del marco de las imágenes por partedel usuario, pero también se genera más pixelado de las imágenes. Debido a esto, los cascos con una baja resolución tienden a tenerun ángulo relativamente pequeño: entre 25° y 35°. Los ángulos que se consideran medios están entre 40° y 65°. Los cascos con mayor ángulo están alrededor de los 120°. No obstante, se debe tener precaución, ya que algunos fabricantes dan el ángulo de la diagonal y otros la horizontal.
Definición / resolución
La resolución de las pantallas del casco varía de forma ostensiblede un casco a otro. Además, algunos fabricantes no dan la resolución de píxeles, sino la resolución de puntos RGB, con lo cual pareceque el casco tiene una mejor resolución de la que tiene en realidad. También ocurre que algunos fabricantes, en vez de la resolución horizontal y vertical, dan el total de píxeles de la pantalla (por ejemplo, dicen 172.800 píxeles, en vez de 480 x 360).
Estereoscopia
Esto se refiere a si el casco permite generar el par estereoscópico. Aunque la mayoría de los cascos tienen efectivamente una pantalla para cada ojo, muchos no permiten la entrada de una señal distinta para cada unay muestran la misma imagen en las dos pantallas.
Distorsión
Se refiere a la distorsión producida por las lentes. Si éstas son gran angular, seguramente provocarán una distorsión que hará que las líneas rectas de la imagen parezcan curvadas. Esto se debe tener en cuenta y si es necesario se deberá compensar aplicando la distorsión inversa sobre la imagen antes de presentarla.
Ajustes
La morfología de los usuarios puede variar de forma notoria y por eso es importante que el casco tenga unos buenos ajustes y se adapte biena cada uno. Algunos de los ajustes que se pueden encontrar son: tamaño de cabeza, distancia entre ojos (o distancia interpupilar), enfoquede las imágenes si el casco no permite llevar gafas a los usuariosque sufren miopía.
Peso y equilibrio
Los cascos cada vez son más compactos y ligeros y cada vez se parecen más a unas gafas que a un casco. No obstante, dependiendo de la tecnología que usen, aún pueden resultar pesados de la parte frontal. Si es así, se debe tener en cuenta si el peso está bien repartido y equilibrado para no sufrir dolores de cervicales o espalda tras largos períodos de uso.
Robustez
Si el casco se usa en un entorno de laboratorio, entonces su robustez no resulta demasiado importante. Pero si se ha de utilizar en una instalación pública, entonces será deseable que sea suficientemente resistente como para que aguante un uso intensivo, golpes, manipulación por niños, etc.
Higiene
Esta característica se plantea en el mismo supuesto que la anterior.Si el casco se ha de utilizar en un entorno público, debe cumplirunas mínimas garantías higiénicas. Se debe estudiar entonces, qué partes tocan la cara y el pelo del usuario, qué partes pueden esconder suciedad, mirar si tiene una buena ventilación, etc.
Facilidad de uso
De nuevo, si los usuarios que utilizarán el casco son el público general,el casco no puede presentar dificultades de uso (poner, quitar, ajustar, etc.). Esto, además de problemático y generar la necesidad de un ayudante permanente en la instalación, provocaría una tasa de pasopor la instalación muy baja y podría no hacer rentable la experiencia.
Subtipos y ejemplos
Existen muchas tecnologías distintas de pantallas que producen diferencias importantes entre cascos. A continuación se tabulan las tecnologías con respecto a una serie de propiedades que las distinguen:
Propiedad
Tubos de rayos catódicoso CRT (1)
Cristal líquido o LCD (2)
Microespejos de silicio o DLP (3)
Láser (4)
Antigüedad aproximada
1968 (Espadade Damocles de Sutherland)
1984 aparece el primero (NASA Ames).
La tecnología es de finales de los 1990, pero aún no se ha aplicado a cascos, sólo a proyectores. La promesa de estos cascos aún no se ha hecho realidad.
Finales de 1990 y aún en fase experimental
Resolución
Bastante buena: alrededor de 1024 × 768 (en casos puntuales 1280 × 1024)
En el pasado muy baja: del orden de 320 × 240. Hoy día han mejorado: entre 640 × 480 y 800 × 600
Bastante buena: del orden de 1024 × 768 y 1280 × 1024
Máxima resolución: del orden de 1600 × 1200
Nitidez
Buena
Bastante buena
Excelente
Máxima
Contraste
Muy bueno
Antes muy bajo (con las LDC pasivas). Hoy día con las LCD activas es bastante bueno
Muy bueno
Excelente
Peso
Muy pesadas
Bastante ligeras
Muy ligeras
Muy ligeras
Tensión / Voltaje
Muy alta tensión necesaria y se encuentra muy cerca de la cabeza del usuario
Baja tensión
Muy baja tensión
Muy alta tensión pero lejos de la cabeza del usuario
Color
Por lo general las pantallas son en blanco y negro (y gris) para reducir el peso. El color se consigue mediante disco de filtros RGB (5)
Si (excepto casos muy extraños)
Es un sistema nativo de blanco y negro.
Se obtiene color mediante disco de filtros RGB.
El prototipo inicial utilizaba sólo láser rojo. Hoy día se puede obtener láser blanco. Con esto se obtienen imágenes en ByN y el color se obtiene mediante disco de filtros RGB.
Precio
Medio
Bajo
Alto
Muy alto
Ejemplos
Datavisor de n-Vision (casco de CRT en color).
Datavisor80 de n-Vision (casco de altas prestaciones CRT color 1240 × 1024).
VR4 de Virtual Research (antiguo casco de LDC).
Virtual Boy de Nintendo (antiguo casco de LCD rojas).
i-glasses de Virtual i-O (casco/gafas de LCD).
VFX3D de IIS Products (casco de gama media LDC).
ProView XL40 de Keiser Electro-Optics (casco de alta resolución LDC).
Aunque la promesa de aplicar esta tecnología a los cascos se lleva haciendo desde hace algunos años, aún no se ha desarrollado ninguno, pese a que existen artículos que hablan dela posibilidad.
Virtual Retinal Display del Human Interface Technology Lab (HITL) de la Univ. de Washington (gafas en fase de prototipo).
Aclaraciones
(1) CRT: La tecnología de CRT es la misma de los monitores y televisores, pero en versión reducida. Es decir, un cañón de electrones es desviado para barrer una superficie de vidrio con una capa de material fosforescente, la cual brilla al ser activada por el flujo de electrones.
(2) LCD: Se basa en una capa de cristal líquido atrapada entre dos capas de plástico. Mediante la aplicación de tensiones, el cristal líquido se distribuye formando la imagen.
(3) Microespejos o DLP: Esta tecnología desarrollada por Texas Instruments se basa en una pequeña placa de silicio en la cual se ha construido una matriz de microespejos. Estos espejos basculan de forma que pueden orientarse en dos posiciones. Una fuente de luz se proyecta sobre los microespejos. Lo espejos que están en una cierta posición reflejan la luz hacia el ojo del usuario (generando un punto blanco). Los espejos que están en la posición opuesta no dirigen la luz hacia el usuario (generando un punto negro). Para conseguir los grises intermedios se hace pasar cada espejo de blanco a negro a diferentes frecuencias.
(4) Láser: Esta tecnología se basa en hacer llegar un haz de láser directamente a la retina del usuario. Inicialmente, debido a restricciones tecnológicas, sólo se podía trabajar con láser rojo o verde. El láser azul no se pudo conseguir hasta muy recientemente, pero requiere temperaturas extremadamente bajas. Más recientemente se ha conseguido obtener láser blanco a temperaturas más razonables (aunque aún no se pueden obtener sistemas fácilmente comercializables).
(5) Disco de filtros RGB: La idea es que cuando se tiene una tecnología en blanco y negro (y grises), y se quiere obtener imágenes en color, se adapta un filtro en forma de disco o cilindro con los tres colores básicos de luz: R (red o rojo), G (green o verde) y B (blue o azul). Este filtro va pasando de R a G a B a R, etc., a muy alta frecuencia. El cambio de color se sincroniza con el dispositivo, el cual genera el patrón de imagen que corresponde a una componente de la imagen final. Al poner el filtro rojo se genera la componente de rojo, después la de verde y finalmente la de azul. Esto ocurre en tan poco tiempo, que la retina del usuario suma las tres componentes y equivale a ver la imagen a todo color.
Para una buena comparativa de cascos ver: http://www.stereo3d.com/hmd.htm
3.3.7.Sistema Boom
Aunque no son cascos, a menudo se les confunde, ya que guardan algunas similitudes. Se basan en sistemas de tecnología CRT, con dos pantallas pequeñas acopladas en una única carcasa. Debido a su gran peso se montan colgando de un brazo articulado que permite todo tipo de rotaciones y desplazamientos, y a su vez hace de contrapeso.
Dos vistas del Boom de Fakespace, Inc.
Dos vistas del Boom de Fakespace, Inc.
El brazo, a su vez, sirve de sensor de posicionamiento y orientación, en parte parecido al sistema de Sutherland.
Estos sistemas tienen muy buena resolución y contraste (ver características de la tecnología CRT en subsección anterior), y también dan muy buen color debido a que las CRT son a color (de aquí su peso).
3.3.8.Sistemas tipo CAVE
El sistema original llamado CAVE (Cave Automatic Virtual Environment) desarrollado por Carolina Cruz-Neira (1992) como resultado de su tesis doctoral y dirigida por los pioneros Dan Sandin, Thomas De Fanti, fue uno de los sistemas de visualización, que consiguieron cambiar el tópico del casco en las aplicaciones de realidad virtual.
Este sistema se basa en un espacio de 3 × 3 × 3 metros, construido por tres paredes que son pantallas de retroproyección. Tres proyectores mandan sus imágenes a cada pantalla desde el exterior del espacio. Un cuarto proyector situado en el techo proyecta sobre el suelo del espacio. De esta forma, los usuarios que se sitúan dentro ven imágenes en tres paredes y el suelo.
Configuración del CAVE.
Configuración del CAVE.
Las proyecciones son estereoscópicas y por lo tanto los usuarios deben utilizar las gafas de cristal líquido. De esta forma, las paredes "desaparecen" y el usuario se ve rodeado por completo por el entorno virtual, con plena sensación de profundidad.
De la misma forma que en el responsive workbench, los usuarios pueden moverse. Esto hace que aquí la perspectiva de las proyecciones también varíe según la posición de los usuarios. Y también aquí sólo un usuario es quien manda, portando un sensor de posición y orientación. De este modo, los demás usuarios deben mantenerse cerca del usuario principal e intentar mirar en la misma dirección. El usuario principal también lleva una especie de joystick aéreo llamado wand con el cual interactúa con el sistema.
Usuario navegando por un entorno dentro del CAVE.
Usuario navegando por un entorno dentro del CAVE.
Estos sistemas son extremadamente caros, ya que se necesita un potente sistema de generación gráfica (4 proyecciones en estéreo = 8 imágenes a generar cada vez), unos proyectores de alta resolución, luminosidad y frecuencia vertical, y unos espejos de muy alta calidad para reducir el recorrido de proyección.
También son sistemas de muy costoso montaje, ya que resulta difícil calibrar las imágenes para que coincidan en las aristas de unión y además se necesita una habitación con paredes pintadas de negro, de una dimensiones considerables y unas condiciones de temperatura controladas, para que no se vean alterados los proyectores y las pantallas.
En el Ars Electronica Center de Linz, Austria, existe el único CAVE accesible al gran público. El CAVE hoy día se distribuye a través de la empresa Fakespace Systems. También existen versiones parecidas al CAVE de otras empresas, e incluso existen sistema de 5 y 6 superficies de proyección, lo cual dificulta aún más el montaje y la calibración.
Estos sistemas tienen las siguientes características destacables:
Característica
Detalle
Multiusuario
Hasta cinco usuarios pueden estar dentro de la experiencia simultáneamente de forma cómoda y útil.
Profundidad por estereoscopia
La estereoscopia en este caso no sólo hace que las dimensiones físicas del CAVE se vean sobrepasadas, sino que también consigue que se experimenten objetos flotando dentro. Esto permite explorar los objetos desde muchos puntos de vista distintos.
No aislamiento del usuario
El hecho de que los usuarios no estén aislados permite que puedan comentar aquello que están viendo.
De este modo, los sistemas tipo CAVE tienen muchas aplicaciones interesantes, como por ejemplo el proceso de diseño de un vehículo, desde su conceptualización, pasando por la integración de piezas, la evaluación de espacios interiores, etc.
3.3.9.Sistemas tipo domo o cúpula
De este tipo de sistemas se encuentran dos que son grandes sistemas: el EVE y los de proyección esférica.
El EVE (Extended Virtual Environment) es un sistema multiusuario diseñado por Jeffrey Shaw, artista y director del departamento de medios digitales del ZKM (Zentrum fur Kunst und Medientecnologie) de Karlsruhe, Alemania. Se trata de una enorme semiesfera hinchable de nueve metros de altura y doce de ancho, con una entrada con puerta giratoria para mantener constante la presión de aire en su interior.
Vista exterior de EVE.
Vista exterior de EVE.
Todo el interior de la semiesfera está preparado como superficie de proyección. En el centro de la semiesfera se encuentra un brazo robótico industrial que sostiene dos proyectores. Estos proyectores generan una imagen estereoscópica sobre la superficie de la semiesfera mediante polarización de las dos fuentes. De este modo los usuarios deberán llevar unas gafas polarizadas para poder captar el efecto de estereoscopia.
Vista interior de EVE.
Vista interior de EVE.
La imagen proyectada funciona a modo de ventana, de unos 3x2 metros, a través de la cual se puede observar el entorno virtual. Para ver todo el entorno que se desarrolla alrededor, se debe dar la orden al ordenador de que modifique la posición y orientación del brazo robótico y genere las imágenes correspondientes a otro punto de vista. Estas órdenes las da un usuario principal que lleva un sensor de orientación en la cabeza. Allí donde su cabeza apunte, el ordenador mandará al brazo robótico que proyecte las imágenes. El usuario principal también dispone de un wand de interacción de forma similar al CAVE. Los demás usuarios, hasta veinte simultáneos, tan sólo pueden ver aquello que el usuario principal decide ver.
Los sistemas de proyección esférica difieren de EVE en que la proyección abarca la totalidad de la bóveda o semiesfera de proyección. Uno de los principales fabricantes de este tipo de sistemas es Elumens. Existen sistemas de muy diversos tamaños dando un amplio abanico de situaciones y aplicaciones. El sistema más pequeño, la Visionstation, es para una o dos personas:
Visionstation de Elumens.
Visionstation de Elumens.
La forma en que se proyecta la imagen es mediante una lente especial de muy gran angular. Proyector y lente se sitúan en el centro de proyección (debajo de la repisa de interacción). Debido a la deformación que sufre la imagen al proyectarse en la pantalla esférica con la lente angular, las imágenes deben ser distorsionadas mediante una distorsión inversa a la esférica, para que la visualización final sea correcta. Existen sistemas mucho mayores que pueden contener hasta unas veinte personas.
Izquierda: Ensphered grande con una cuarta parte extraída para ver su interior; derecha: Ensphered móvil para un usuario.
Izquierda: Ensphered grande con una cuarta parte extraída para ver su interior; derecha: Ensphered móvil para un usuario.
Otro sistema es el EnspheredVision de la Universidad de Tsukuba, el cual se basa en un domo casi totalmente esférico que envuelve al usuario. Hay diversos tipos.

4.Sistemas de audio

Los sistemas de audio para experiencias de realidad virtual son los que se encargan de gestionar los estímulos sonoros. Estos se pueden dividir en dos subcategorías principales.

4.1.Utilización

Aunque su utilización parece evidente, es importante tener en cuenta que los estímulos sonoros pueden suplir en muchos casos a los estímulos táctiles. Por un lado está la utilización de frecuencias bajas que generan sensaciones vibrátiles. Por otro lado se pueden utilizar en la percepción acción – reacción. Es decir, que si en una experiencia de realidad virtual el usuario sólo ve que en su tránsito ha chocado con una pared, puede no haberse dado cuenta, ya que a veces es difícil hacer una estimación de las distancias. En cambio, si este choque se refuerza con un sonido el usuario puede llegar a percibir la sensación del "golpe".

4.2.Subcategorías

4.2.1.Audio generado
Por audio generado se entiende aquel audio que el sistema genera para que el usuario lo capte como estímulo de salida de la aplicación.
Subtipos
Los dos subtipos de audio generado son el audio no espacializado y el audio espacializado:
Sistema
Detalle
Audio no espacializado
Este tipo de audio es el más común. Puede utilizar cualquier tipo de equipo de sonido y cualquier número de altavoces o bien unos auriculares, y habitualmente utiliza el modo estéreo. Este sistema no tiene en cuenta la posición del sujeto virtual dentro del entorno.
Audio espacializado
Este tipo de audio tiene en cuenta la posición del sujeto virtual dentro del entorno. De este modo el sistema genera los sonidos de forma que el usuario perciba la dirección, intensidad y tiempo en que se generó ese sonido desde la fuente sonora virtual en relación al sujeto virtual. La salida de los estímulos sonoros hacia el usuario puede ser mediante unos auriculares, o bien medianteun sistema de cuatro u ocho altavoces.
Si se hace mediante altavoces, el sistema debe saber la posición y orientación física del usuario con respecto a los altavoces y por esta razón el usuario deberá llevar un sensor de posicionamiento espacial que informe al sistema. Debidoa esto, estos sistemas son monousuario.
Audio espacializado
Los primeros sistemas que aparecieron que calculaban la transformación del sonido para espacializarlo fueron los Convolvotron de Cristal River Engineering.
Se está trabajando en sistemas multiusuario a partir de altavoces a travésde métodos llamados holofónicos. Estos métodos generan un patrón de interferencias de sonido inundando un espacio concreto, de forma queun usuario, vaya donde vaya y sin necesidad de ser detectado por un sensorde posicionamiento espacial, oirá correctamente la espacialización de las fuentes sonoras virtuales. Así, al no depender de la detección del usuario, pueden circular un número indefinido de usuarios por ese espacio y todos oirán correctamentelos sonidos.
Todos estos sistemas espacializados, por el hecho de utilizar el modelo de morfología de audición de los seres humanos, se utilizan mayoritariamenteen aplicaciones de simulación.
4.2.2.Audio captado
Por audio captado se entiende aquel audio que el sistema captura como estímulo de entrada, de forma que pueda servir al usuario como elemento de interacción.
Subtipos
Los dos subtipos de audio generado son el audio no espacializado y el audio espacializado:
Sistema
Detalle
Reconocimiento del habla
Este tipo de audio captado es el que más a menudo se utiliza, ya que la tecnología asociada se encuentra bastante avanzada. Se trata de reconocerlas palabras que pronuncia el usuario. Primero se captura el audio y se extraen los fonemas. A partir de los fonemas se intentan reconstruir las palabras.Una vez se tienen las palabras, el sistema puede utilizarlas por separadocomo órdenes imperativas a realizar. Por ejemplo: abrir, subir, correr, etc.
Si por el contrario las palabras deben unirse para encontrar frases, el sistema aplica técnicas de inteligencia artificial, conocidas como técnicas de lenguaje natural, para encontrar el sujeto de la frase, el predicado con su accióna realizar, etc.
De este modo se establece un potente sistema de interacción para el usuario.
Procesado de señal
Este otro tipo de audio captado, en principio no tiene diferencia con el anterior a nivel de captura del sonido. En lo que difiere es en el modoen que se procesa ese sonido. Existen muchas técnicas y efectos que se pueden aplicar a un sonido captado para después darle salida. Por ejemplo:se pueden cambiar las cualidades del sonido como timbre, tono, textura, velocidad, etc., de forma que incluso se puede convertir una voz femeninaen masculina y viceversa. También se pueden aplicar morphings del sonido;es decir, hacer una fusión o interpolación del sonido original y un sonido de referencia, de forma que las palabras de un usuario pueden oírsecon sonido de un animal, o de un tren, o de un instrumento musical, etc.

5.Sistemas de sensores de articulaciones

Las tecnologías de sensores de articulaciones son de las más características de la realidad virtual, ya que todas ellas se han desarrollado como consecuencia de aplicaciones de realidad virtual. Estos sensores detectan con gran precisión el movimiento de alguna o algunas articulaciones del cuerpo del usuario dando un tipo de interfaz física muy útil.

5.1.Utilización

Su utilización es muy diversa y depende mucho del tipo de articulación que se detecte. Así pues, las aplicaciones que las utilizan van desde rehabilitación de una parte del cuerpo, hasta el control de un personaje virtual, pasando por la interacción manual de objetos virtuales.

5.2.Características

Como características comunes a todos los tipos de tecnologías se encuentran las siguientes, las cuales son muy parecidas a las de los sensores de posicionamiento espacial:
Característica
Detalle
Dimensión
Se refiere a si el sistema está pensado para trabajar en el plano (2D)o en el espacio 3D.
Grados de libertad
Se refiere a cuántos tipos posibles de medidas puede realizar el sistema dentro de su dimensión.
Por ejemplo, hay sensores que detectan más de una medida por articulación (por ejemplo rotación en dos ejes) o bien el movimiento de másde una articulación.
Conexión al ordenador
Se refiere a si se conectan mediante un cable, o bien si disponen de algún sistema inalámbrico.
Medición relativa o absoluta
Se refiere a si las medidas que realiza el sistema son medidas de incrementoo decremento respecto a las anteriores (medidas relativas), o bien si son medidas que hacen referencia a un sistema coordenado físico fijado (medidas absolutas).
Las rotaciones acostumbran a medirse de forma absoluta, en cambiolos desplazamientos de forma relativa.
Lag o delay (retardo de respuesta)
Se refiere al tiempo que necesita el sistema para hacer la medida y notificarla al ordenador. Cuanto menor sea el retardo mejor será el sistema.
Precisión o resolución
Se refiere a la medida de menor tamaño que puede realizar el sistema.
Repetitividad de medición.
Se refiere a la precisión con que un sistema de medición absoluta puede volver a detectar la misma posición u orientación.

5.3.Subcategorías

Las cuatro subcategorías existentes hacen referencia a los cuatro tipos principales de tecnologías que se han desarrollado:
Tabla de subcategorías
Subcategoría
Detalle
Tecnología de fibra óptica
Éstos están basados en unos hilos de fibra óptica que se sitúana lo largo de la articulación que se desea medir. La fibra óptica salede un módulo de control, va hasta la articulación y vuelve al módulo. Este módulo de control emite un haz de luz y lo envía por la fibra. Este haz de luz tarda un tiempo distinto en ir y volver, y llega conuna intensidad menor dependiendo del grado en que la fibra se ha doblado. Con esto el módulo puede calcular el ángulo de doblado de la articulación.
Ésta fue la tecnología utilizada en el primer sensor de articulaciones, el Dataglove inicialmente diseñado en NASA Ames y posteriormente fabricado y distribuido por VPL.
Un tiempo después apareció el Datasuit, también de VPL, el cual medía las articulaciones principales del cuerpo.
Actualmente hay algunos guantes y sensores que utilizanuna tecnología muy similar.
Tecnología de exoesqueleto
Esta tecnología se basa en construir una estructura mecánicade articulaciones que se sitúa sobre la articulación del usuario.Las articulaciones mecánicas están dotadas de unos sistemasque miden directamente el ángulo de ésta y por relación directa,la articulación del usuario.
Los primeros sistemas que aparecieron de esta tecnología fueron los de la empresa Exos (desaparecida). Por ejemplo el Exos para mano:
y el Waldo para los gestos faciales:
Tecnología de elementosde flexión
Esta tecnología se basa en las propiedades tensioeléctricas de unos elementos que varían su resistencia en función de su flexión. De esta forma, situados a lo largo de la articulación y mediante un sistema que detecte las variaciones de tensión eléctrica que pasa porel elemento, se puede calcular el ángulo.
Esto se utiliza sobre todo en elementos pequeños como la mano. Immersion fabrica actualmente el CyberGlove.
Tecnología prensil
Aunque se incluye en esta sección, esta tecnología en realidad no mide flexión de las articulaciones. Esta tecnología utilizada en guantes mide, de forma binaria, si el dedo pulgar toca alguno de los otros dedos. Esto se consigue mediante unos circuitos que quedan abiertos hasta que el pulgar hace contacto con otro dedo.
Los guantes de esta tecnología se llaman PichGloves por el hecho de que se detecta el "pinzado" con dos dedos, y los fabrica Fakespace:

6.Sistemas táctiles

Los sistemas táctiles se dividen en dos grandes áreas. Por un lado, los llamados sistemas de force feedback (o de respuesta de fuerza), los cuales están ya bastante desarrollados y existen en muchos productos comerciales. Por otro lado están los sistemas que gestionan aquellas propiedades que más asociamos al tacto como textura, temperatura, etc. La mayoría de estos sistemas táctiles están aún en fase de desarrollo y es difícil encontrar productos comerciales.

6.1.Utilización

Su utilización responde claramente a la intención de dar una estimulación lo más completa posible al usuario, añadiendo los estímulos táctiles a los visuales y sonoros. No obstante, su utilización es más compleja que los estímulos visuales y sonoros, debido a que su codificación no está unificada y hay muchas formas posibles de hacerlo.

6.2.Subcategorías

6.2.1.Sistemas de force feedback
Estos sistemas, mediante diversos tipos de tecnologías, intentan dar al usuario una serie de sensaciones de fuerza y resistencia. La complejidad de la generación en tiempo real de estímulos de force feedback radica en el hecho de que estos sistemas deben ser actualizados a 1000Hz (es decir 1000 veces por segundo). Si esto no se cumple, las sensaciones de fuerza y resistencia presentan interferencias de tipo vibración o bien pueden causar una lesión al usuario.
Los sistemas informáticos más habituales no pueden cumplir esta restricción tan exigente y por esta razón, habitualmente, los sistemas de force feedback llevan su propio procesador incorporado. Este procesador genera en tiempo real ciertas sensaciones ciñéndose a la actualización de 1000Hz. Esto significa que la aplicación de realidad virtual se descarga de esta responsabilidad, pero por contrapartida pierde el control total de estas sensaciones y debe adaptarse al repertorio que le ofrece el sistema táctil.
Subtipos
Existen diversas tecnologías que se aplican a este tipo de estímulos:
Tabla de subtipos
Subtipos
Detalle
Tecnología de joysctick
Estos sistemas dan sensaciones de tipo vibrátil o de resistenciaal desplazamiento y a la torsión. La sensación está pensada básicamentepara mano y brazo.
Por ejemplo, existen ya muchos joysticks para videoconsolas que dan un repertorio de sensaciones vibrátiles del tipo: estar pilotando un helicóptero, estar disparando una ametralladora, etc. Algunos de estos sistemas comerciales son: la Sidewinder Force Feedback Pro Joystick de Microsofto la Wingman Force de Logitech.
En el caso de la resistencia al desplazamiento o torsión, las palancas de la empresa Immersion, dan un repertorio de respuestas de fuerza muy interesantes, como por ejemplo en aplicaciones de cirugía laparoscópica (ver aplicaciones de entrenamiento).
Tecnología de brazo robótico
Estos sistemas están pensados para dar sensación de resistenciaal desplazamiento. Básicamente, la sensación se da a nivel de brazo enlos sistemas grandes, a nivel de mano en los intermedios y a nivel de dedoen los pequeños. Por ejemplo, si se necesita que el usuario tenga la sensación de que ya no puede empujar un objeto porque ha chocado con otro, o bien sensaciones de elasticidad o fricción.
El brazo desarrollado por la Universidad de North Carolina es un buen ejemplo experimental. Hallaréis más información en el material web.
Tecnología de exoesqueleto
Esta tecnología es parecida a la que se presentó como sensoresde articulaciones, excepto que en este caso, en lugar de detectarel movimiento lo limita. En efecto, la estructura de exoesqueleto está dotada de un sistema que fuerza un cierto movimiento. Existen dos tipos principales, el que utiliza unos pequeños motores en las articulaciones y los que tienenun sistema de cables de acero que pasan por unas guías hasta llegar a un módulo de control (como si fuese una tecnomarioneta). Este tipo de sistemas aplicados a la mano sirven para que el usuario tenga la sensación de estar cogiendo un objeto en su mano, y puede percibir su solidez y, hasta cierto punto, su forma. Hallaréis más información en el material web.
Debido a la enorme diversidad de sensaciones táctiles de fuerza que se pueden generar, también existen una serie de tecnologías secundarias que no se describirán aquí por razones de brevedad, pero también por cuestiones de consolidación de estas tecnologías.
6.2.2.Sistemas de sensaciones táctiles
Estos sistemas están pensados para dar sensaciones de rugosidad, textura, fluidez, etc., es decir, aquellas sensaciones que habitualmente pensamos como táctiles. Como se ha dicho, hay muy pocos sistemas consolidados en esta área y aún se está en fase de laboratorio.
Subtipos
Aquí se muestran algunas de las tecnologías utilizadas aunque no se estén comercializando aún:
Tabla de subtipos
Subtipos
Detalle
Tecnología por motores vibradores
Esta tecnología se basa en unos motores que producen una vibración de frecuencia controlable. Existen diversos estudios perceptuales que describen como una vibración de una cierta frecuencia aplicada en una parte del cuerpo es interpretada por el sistema perceptual táctil del cuerpo como otro tipo de sensación. Por ejemplo, unos pequeños motores adaptados a los dedos de un guante y otro en la palma, dan un repertorio de sensaciones de textura, fluidez, tensión, etc. En concreto Immersion fabrica su guante CyberTouch. Hallaréis más información en el material web.
Otro ejemplo es el Interactor feedback vest de Aura Systems Co.Éste es un chaleco que lleva incorporado un motor que puede daral usuario la sensación de haber recibido un golpe en el pecho. Este producto se utiliza en videojuegos de acción.
Tecnología por burbujas de aire
Esta tecnología se basa en adaptar unas pequeñas bolsas hinchables, sobre todo a guantes (aunque existen también versiones en vestidos de cuerpo completo), que se controlan por un módulo que decide si hincharlas o deshincharlas. De este modo, se puede dar la sensación de presión sobre un objeto y de su elasticidad. Un ejemplo de esto era el Teletact glove de la Universidad de Salford.
Tecnología por terminales térmicas
La Universidad de Salford desarrolló el Termal feedback glove, un guante con unas terminales térmicas que pueden ser calentadaso enfriadas desde un módulo de control. Esto permite al usuario saber si se está interactuando con un objeto virtual caliente o frío.
Tecnología por pequeñas agujas o pequeñas tensiones eléctricas
A nivel experimental se están realizando pruebas con ristras de pequeñas agujas adaptadas a la yema del dedo de un usuario. Mediante esta ristra de agujas se puede dar la sensación de aristas de objetos virtuales o rugosidades de texturas. Como alternativaa la agujas también se está experimentando con una ristrade terminales eléctricos que dan una pequeñísima tensión eléctrica para proporcionar unas sensaciones similares a las de las agujas,pero sin las dificultades mecánicas de miniaturización.

7.Sistemas de refuerzo de situación y cinéticos

El refuerzo de situación se refiere a una serie de sistemas que dan al usuario sensaciones cinéticas de todo el cuerpo. Es decir, sistemas que dan sensaciones de velocidad, gravedad, aceleración, dirección, rotación, etc., a nivel de todo el cuerpo. Por lo tanto, son sistemas que estimulan el sistema de equilibrio del oído interno, así como el sistema nervioso y motriz del usuario.
Esto es muy importante, ya que buena parte de los problemas de náuseas y mareos asociados a la realidad virtual provienen de la falta de consistencia en los estímulos que reciben los sistemas sensoriales del usuario. Es decir, cuando al usuario se le están dando unos estímulos visuales de movimiento, por ejemplo a bordo de un avión, y este movimiento no se ve correspondido en su sistema de equilibrio, esta falta de consistencia provoca una incomodidad al sistema perceptual que resulta en la aparición de mareo y náuseas.

7.1.Utilización

Su utilización está totalmente ligada a aplicaciones que necesiten de un refuerzo cinético a los estímulos visuales y sonoros. Por ejemplo, es altamente importante en simuladores de vuelo, donde la aportación de estímulos que ayuden al usuario a entender las fuerzas que actúan sobre el avión son vitales para que este pueda decidir qué tipo de maniobra es el adecuado en ese instante.

7.2.Subcategorías

Las dos subcategorías en que vamos a dividir estos sistemas son:
  • plataformas móviles

  • sistemas motrices.

7.2.1.Plataformas móviles
Éstas se basan en sistemas diversos de movilidad llamados actuators (o actuadores). Éstos pueden ser pistones pneumáticos, hidráulicos, electromagnéticos, etc. También pueden variar mucho en tamaño, habiendo sistemas pequeños para una plataforma que sostenga una sola persona, hasta plataformas que pueden sostener toda una cabina de simulador de vuelo que pesa toneladas.
Algunas características comunes son:
Característica
Detalle
Grados de libertad
Esto se refiere a si la plataforma puede hacer todas las traslaciones y rotaciones del espacio 3D. Muchas de ellas no pueden hacerlo.Por ejemplo, muchas plataformas utilizadas para videojuegostan sólo tienen rotación adelante-atrás, rotación derecha–izquierda y desplazamientos arriba–abajo.
Velocidad de respuestao inercia del sistema
Esto se refiere a la velocidad con que el sistema puede cambiar de tipo de estímulo.
Carga máxima
Esto se refiere al peso máximo que puede manipular la plataforma.
Fuerzas gravitatorias
Esto se refiere a las fuerzas que se pueden ejercer sobre el usuario de forma que se puedan simular fuerzas centrípetas, ingravidez, etc. Se miden en Gs, lo cual significa que estas fuerzas se remitena la fuerza de gravedad de la tierra como referente unitario.
Ejemplos
A. Simulador de vuelo en plataforma de actuadores hidráulicos de 6 grados de libertad. B. Plataforma de actuadores electromagnéticos de 6 grados de libertad. C. Plataforma de actuadores hidráulicos de 3 grados de libertad. D. Cabina SEGA 360 de 3 grados de libertad en rotación.
A. Simulador de vuelo en plataforma de actuadores hidráulicos de 6 grados de libertad. B. Plataforma de actuadores electromagnéticos de 6 grados de libertad. C. Plataforma de actuadores hidráulicos de 3 grados de libertad. D. Cabina SEGA 360 de 3 grados de libertad en rotación.
7.2.2.Sistemas motrices
Los sistemas motrices son sistemas mecánicos que ayudan al usuario a entender unos estímulos de movilidad dentro de una experiencia de realidad virtual. Así, dentro de la gran variedad que existe, se pueden encontrar sistemas tipo bicicleta estática, caminadores de diversos tipos, sistemas de generación de terrenos, etc.
De éstos es muy difícil dar unas características globales y por lo tanto siempre se tendrá que analizar cada caso cuando se necesite utilizar un sistema de estos.
Ejemplos
A. Bicicleta estática con aplicación de ciclismo y efecto de viento. B. El Cybertron que da 3 grados de libertad de rotación. C. Omni-Directional Treadmill de Virtual Space Devices, Inc. D. Caminador en forma de "steps" para aplicaciones de entrenamiento militar.
A. Bicicleta estática con aplicación de ciclismo y efecto de viento. B. El Cybertron que da 3 grados de libertad de rotación. C. Omni-Directional Treadmill de Virtual Space Devices, Inc. D. Caminador en forma de "steps" para aplicaciones de entrenamiento militar.

8.Misceláneos

Aquí se reúnen una serie de tecnologías y sistemas que no entran en ninguna de las categorías dadas antes. Son sistemas o bien hechos a medida o bien que explotan unos estímulos o detectan ciertas propiedades del usuario tan particulares que no tienen una aplicación amplia.
Se pueden encontrar desde simples células fotoeléctricas hasta complejos aparatos para medir el movimiento muscular de los ojos para saber dónde está mirando el usuario. A continuación se listan algunos ejemplos:
  • Detección del movimiento de los ojos

    Para hacer el seguimiento de la mirada del usuario. Existen dos tecnologías: una por detección de la actividad muscular alrededor del ojo y otra mediante un sistema de cámara de vídeo que detecta la posición de la pupila.

  • Detectores de presión sanguínea

    Miden los cambios de tensión en el usuario y dan un valor entre 0 y 255. Existen algunas aplicaciones que lo utilizan para conseguir que una persona estresada adquiera un autocontrol que le permita relajarse.

  • Sensores de temperatura

    Normalmente para detectar la temperatura del cuerpo del usuario.

  • Sensores de respiración

    Hay dos tipos, unos miden el ritmo de respiración y otros miden la expansión o contracción torácica.

9.Sistemas software

Los sistemas software son aquellos que permiten el desarrollo de alguna parte de la experiencia de realidad virtual. Debido a la gran interdisciplinariedad que presentan las aplicaciones de realidad virtual, todo su desarrollo se hace a partir del trabajo de distintos expertos en ámbitos muy diversos. Desde diseñadores gráficos, hasta ingenieros en electrónica, pasando por modeladores, programadores, etc. Esto da lugar a una gran variedad de herramientas especializadas, muchas de las cuales no son exclusivas del ámbito de la realidad virtual. Así pues, no existe un sistema software que permita hacerlo todo, y por lo tanto a continuación se describen los tipos más utilizados.
Las diversas subcategorías que se describen a continuación tienen relación con las fases de desarrollo de una aplicación de realidad virtual.

9.1.Herramientas de programación

Estas herramientas en general, no son exclusivas de la realidad virtual, aunque los lenguajes de programación tipo C/C++ dan total control sobre los algoritmos, gestión de entradas y salidas, comportamientos, etc., y por lo tanto son muy útiles.
No obstante, existe lo que se conoce por librerías de programación que sí son específicas del ámbito de la realidad virtual. Estas librerías aportan una funcionalidad de más alto nivel a lenguajes como el C/C++ de forma que el equipo desarrollador no tiene que preocuparse de desarrollar todo desde el principio cada vez. En toda aplicación de realidad virtual hay ciertos elementos que siempre aparecen y por lo tanto no tiene sentido programarlos una y otra vez. Es aquí donde radica el interés de estas librerías. Evidentemente estas librerías son sólo recomendables para equipos de desarrollo expertos ya que no son herramientas amigables de usar, en el sentido que no disponen de un entorno gráfico de usuario que facilite la visualización de lo que se va desarrollando.
Existen bastantes herramientas de este tipo de las cuales se destacan dos: el WorldToolKit (WTK) de la empresa Sense8 y el DIVE del Swedish Institute of Computer Science (SICS). El WTK fue la primera herramienta en aparecer de este tipo.
Las características principales de este tipo se herramientas son:
Característica
Detalle
Estructuración del entorno en una jerarquía de objetos
Se libera al programador de la tarea de gestionar los objetos del entorno como elementos geométricos aislados.
Gestión de la alimentación de los objetos a la máquina gráfica
Se libera al programador de las tareas asociadas con el tratamiento de los objetos a nivel de polígonos, materiales y texturas,y de su alimentación optimizada al sistema gráfico del ordenador.
Gestión de alto nivel de las transformaciones geométricas
Se libera al usuario de las tareas asociadas con las transformaciones geométricas sobre polígonos de los objetos y con la propagación de transformaciones en estructuras jerárquicas de objetos.
Gestión del bucle principal de la aplicación
Se libera al programador de realizar la gestión del bucle principalde la aplicación que debe mantener actualizadas las lecturas delas interfaces de entrada, los comportamientos de los objetos, la situación del sujeto virtual, la generación de los estímulos de salida, etc.
Gestión de drivers de las interfaces físicas
Libera al programador de desarrollar sistemas gestoresde la comunicación entre el ordenador y las interfaces físicas, aportando un amplio abanico de drivers.
Gestión de comportamientos asociados a objetos
Permite asociar comportamientos programados a objetos sin tener que realizar un seguimiento específico una vez se han asociado y puesto en marcha.
Gestión de las transformaciones del punto de vista virtual
Libera al programador de la gestión específica del punto de vista virtual asociado al sujeto virtual y de todas las transformaciones involucradas.
Importación de un amplio abanico de formatos de geometrías
Libera al programador de tener que programar la lectura de archivos de geometrías 3D, de las cuales existen una gran diversidad.
Existen otras herramientas de programación de experiencias de realidad virtual que no forman parte de otro lenguaje, sino que ellas mismas son el lenguaje completo. Por ejemplo el VRML (Virtual Reality Modelling Language). Este lenguaje se destaca por las siguientes cualidades:
  • Permite definir experiencias distribuibles a través de Internet

  • Ha sido definido por un consorcio democrático formado por universidades, empresas, individuos independientes, desarrolladores, usuarios, etc. Por lo tanto, su definición no obedece a unos intereses comerciales concretos.

  • Su filosofía multiplataforma lo hace utilizable en prácticamente cualquier tipo de sistema informático.

Este lenguaje hoy día está evolucionando hacia su nueva versión llamada X3D, la cual aún se está acabando de definir.

9.2.Entornos de desarrollo

Estas herramientas son, en cierto modo, las opuestas a las anteriores. Opuestas en el sentido que ofrecen un entorno de desarrollo mediante una interfaz gráfica de usuario que permite, además de ir visualizando el resultado del desarrollo, olvidarse en gran medida de la programación, aporta comportamientos predefinidos para los objetos, interfaces predefinidas, etc.
Las características principales de este tipo de entornos son:
Característica
Detalle
Visualización de la jerarquíade objetos del entornoy de las transformaciones
Así como las librerías específicas de realidad virtual gestionan estas jerarquías para liberar al programador, los entornosde desarrollos ofrecen, además, una visualización en forma de árbol de esta jerarquía para poder gestionarla sin necesidad de programar. Además se dan funcionalidades del tipo añadir objeto a la jerarquía.
Importación de un amplio abanico de formatos de geometrías
Permite importar geometrías de objetos directamentea la escena y situarlos mediante una interfaz gráfica.
Visualización del posicionamiento y organización de objetos en el entorno
Aportan una ventana de visualización (o previsualización)del entorno para poder organizar y situar los objetos sin tener que dar las transformaciones geométricas involucradas de forma numérica.
Repertorio de comportamientos asignables a objetos
Aportan un amplio abanico de algoritmosde comportamientos que se pueden asociar a los objetos de forma transparente al desarrollador. Es decir, sin que deba preocuparse por entender los procesos que hay por debajo.
Repertorio de interfaces utilizables en la definición de la interacción del usuario con la experiencia
Aportan un amplio abanico de interfaces de interacción prediseñadas para que se definan como basede la experiencia sin que el desarrollador deba entenderlos procesos y algoritmos involucrados.
Gestión de interfaces físicas
Se libera al desarrollador, no sólo de programar los drivers de las interfaces físicas, sino también de la forma en que se mapean sobre las acciones de los objetos, del sujeto virtualo de las acciones globales de la experiencia.
Esto resulta en un entorno de desarrollo muy accesible a desarrolladores noveles o no expertos y que permite un desarrollo mucho más rápido. La contrapartida es que se pierde mucho control sobre aquello que se quiere llevar a cabo, ya que no se puede entrar a modificar en detalle. Para esto es necesario bajar a nivel de programación, y por esta razón muchos entornos aportan un lenguaje de scripting que permite una cierta programación a medida.
Ejemplos de estos entornos son el WorldUp de Sense8, el Alice del investigador Randy Pausch y su equipo del User Interface Group (Computer Science Department, Universidad de Virginia), el Motivate, especializado en definir y describir comportamientos de personajes virtuales, de la empresa Motion Factory, el VRT5 de Superscape, etc.

9.3.Herramientas de modelado

Las herramientas de modelado son aquellas que permiten definir la geometría de aquellos objetos que intervienen en una experiencia de realidad virtual. Esto es necesario cuando los objetos no son generados de forma algorítmica en la aplicación.
Para modelar objetos en 3D, las herramientas acostumbran a ser las estándar de modelado para animaciones por ordenador como son el 3D Studio MAX de Kinetix, el Maya de Alias|Wavefront, el Softimage de la casa del mismo nombre, etc. Éstas son potentes herramientas que han evolucionado mucho a lo largo de los años y que hoy día dan un enorme abanico de funcionalidades.
No obstante, para el modelado de objetos 3D para aplicaciones de realidad virtual se necesitan una serie de funciones y herramientas que las estándar de modelado 3D no dan. Estas características importantes son:
Característica
Detalle
Control de cantidad de polígonos
Debido a que la generación en tiempo real de las imágenes en una aplicación de realidad virtual se hace a partir de los polígonos de los objetos, y debido a que las tarjetas aceleradoras 3D tienen una cierta limitación de polígonos por segundo, es extremadamente importante optimizar los objetos de forma que tengan los polígonos estrictamente necesarios para darles forma. Así pues, cuando se modela un objeto es muy útil disponer de herramientas que, además de informarnos constantemente de cuantos polígonos tiene nuestro objeto, nos haga simplificaciones automatizadas, uniendo polígonos superfluos o eliminando polígonos que seguramente no se verían.
Definición de niveles de detalle
Del mismo modo, es muy útil tener varias versiones de un mismo objeto. Cada versión tendrá una cantidad de polígonos distinta y por lo tanto estará más o menos detallado. Los objetos más detallados serán presentados cuando sean vistos de cerca, que es cuando realmente se aprecia el detalle. Los menos detallados servirán para cuando son vistos de lejos y el detalle igualmente no se vería. A esto se le llama definición de niveles de detalle o LOD (Levels of Detail).
Control de texturas
Las texturas en muchos casos son muy importantes para dar detalle pero sin cargar la geometría, es decir, ahorrar cantidad de polígonos. Por esta razón es importante tener un buen control de aplicación de texturas y poder hacer que las uniones en las aristas de los polígonos no tengan discontinuidades.
También es muy importante poder tratar las texturas de formaque podamos utilizar la resolución estrictamente necesaria. La gestión de texturas en las tarjetas gráficas también está limitada y por eso es importante no sobrecargarlo.
Finalmente también es conveniente definir LOD de texturasen función de la distancia del objeto al punto de vista.
Optimización de objetos en tiras de triángulos
Aunque los objetos ya tengan la cantidad estrictamente necesariade polígonos y de texturas, las tarjetas gráficas prefieren que las geometrías de los objetos esté formada por triángulos. Y aún más, prefieren que estos triángulos estén organizados en strips. Estos strips son tiras de triángulos consecutivos, que se definen a partirde los vértices que comparten. De esta forma la tarjeta gráfica podrá pintarlos de forma mucho más rápida. Por esta razón, sila herramienta de modelado nos realiza esta triangulación y organización en strips, nuestra aplicación tendrá un rendimiento visual mucho mejor.
Optimización de escenas por BSP
Muchos núcleos de visualización gráfica se beneficiande una organización de los objetos de una escena en lo que se conoce por BSP (Binary Space Partition). Esto es una organización recursiva en forma de árbol, de los objetos de la escena, los cualesva siendo separados en conjuntos de pertenencia a un octante del espacio global, después en un octante de un octante, y así de forma recursiva hasta llegar a un cierto nivel mínimo. Con esta organización, el núcleo de visualización puede saber con facilidad qué objetos se han de visualizar y cuáles no, con respecto del punto de vista.
Jerarquización de objetos en estructuras
Los objetos complejos, especialmente aquellos que tendrán algún tipo de movimiento de sus partes, deben organizarse en estructuras jerárquicas de transformaciones. De este modo la animación de estos objetos es mucho más sencilla.
Existen pues herramientas especializadas en hacer este tipo de optimizaciones. Por ejemplo toda la gama de software Multigen de la empresa Multigen-Paradigm.

10.Falsas tecnologías

Existen tecnologías que se han ido calificando de realidad virtual de forma errónea o malintencionada, debido al interés que capta este ámbito en la sociedad. De esta forma se ha favorecido la promoción y explotación de estas tecnologías y de sus productos derivados. Una de las áreas que más ha explotado el interés de la realidad virtual es la industria del cine y en especial Hollywood. Desde los efectos especiales que se utilizan en las películas, hasta los llamados cines 3d, pasando por las películas de animación por ordenador, todo se ha venido "vendiendo" como realidad virtual.
En este punto de la asignatura el alumno seguramente ya es capaz de ver que ninguna de estas tecnologías puede ser calificada de realidad virtual, ya que no cumple ni el hecho de ser interactivo, ni el de ser generado en tiempo real.
Otra tecnología erróneamente asociada a la realidad virtual es la conocida por QTVR (QuickTime Virtual Reality). Esta tecnología, extensión del QuickTime de Apple, se basa en una imagen panorámica de 360°, ya sea fotografiada del entorno físico o generada por ordenador. Esta imagen es visualizada como si estuviese mapeada sobre el interior de un cilindro o una esfera, con el punto de vista situado en el centro. Esto permite al usuario explorar la imagen rotando el punto de vista a derecha, izquierda, arriba o abajo. La visualización es efectivamente interactiva, pero no es generada en tiempo real. La imagen panorámica se define previamente y después es inalterable. Esto produce el efecto de que ninguno de los objetos en la imagen puede moverse. Por lo tanto se definen entornos totalmente estáticos. Por otro lado, si el usuario decide acercarse a una zona del entorno para verlo con más detalle, el resultado es una pixelación de la imagen, ya que el sistema no puede dar un detalle que no tiene (la imagen ha sido pregrabada) y su única opción es hacer un zoom digital. Si lo que el usuario quiere es cambiar su punto de vista, previamente se debe haber generado y grabado ese otro punto de vista en forma de imagen panorámica; de otro modo el sistema no le podrá ofrecer ese otro punto de vista.
De esta forma se puede ver que el QTVR no tiene, en realidad, la cualificación de VR que ostenta. Esto no significa que deje de ser una excelente herramienta o sistema multimedia. Tan solo quiere decir que no es realidad virtual.
Existen otras tecnologías y productos que se venden como realidad virtual. Aunque no se listarán aquí, se anima a los estudiantes a analizar todo aquello que encuentren con el calificativo de realidad virtual y decidan si lo es o no.

Bibliografía

Ames, A.; Nadeau, D.; Moreland, J. (1997). VRML2.0 Sourcebook, Second Edition. Londres: John Wiley & Sons Inc.
Barfield, W.; Danas, E. (1996). "Comments on the use of Olfactory Displays for Virtual Environments" (vol. 5, núm. 1, pág. 109-121). En:Presence: Teleoperators and Virtual Environments. Cambridge M.A.: MIT Press.
Begault, D.R. (1994). 3D Sound for Virtual Reality and Multimedia. Londres: Academic Press Inc.
Bergamasco, S.R.; Alessi, A.A.; Calcara, M. (1997). "Thermal Feedback in Virtual Environments" (vol. 6, núm. 6, pág. 617-629). En:Presence: Teleoperators and Virtual Environments. Cambridge M.A.: MIT Press.
Burdea, G.C. (1996). Force and Touch Feedback for Virtual Reality. Londres: John Wiley & Sons Inc.
Burdea, G.C.; Coiffet, P. (1994). Virtual Reality Technology. Nueva York: John Wiley & Sons Inc.
Cruz-Neira, C.; Sandin, D.J.; Defanti, T.A.(julio, 1993). "Surround-Screen Projection-Based Virtual Reality: The Design and Implementation of the CAVE". En:ACM SIGGRAPH'93 Conference Proceedings. Anaheim, CA.
Cruz-Neira, C.(mayo, 1995).Virtual Reality Based on Multiple Projection Screens: The CAVE and its Applications to Computational Science and Engineering. University of Illinois at Chicago.
Earnshaw, R.A.; Gigante, M.A.; Jones H.(ed.) (1993). Virtual Reality Systems. Londres: Academic Press Ltd.
Fisher, S.y otros (1986). "Virtual Environment Display System". En:ACM 1986 Workshop on 3D Interactive Graphics. Chapel Hill, NC: ACM.
Foley, J.y otros. (1990). Computer Graphics Principles and Practice(2.ª ed.). Reading, MA: Addison-Wesley.
Frécon, E.; Stenius, M. (1998). "DIVE: A Scaleable network architecture for distributed virtual environments" (vol. 5, núm. 3, pág. 91-100). En:Distributed Systems Engineering Journal (special issue on Distributed Virtual Environments)Londres: The British Computer Society, The Institution of Electrical Engineers, The Institute of Physics Publishing.
Fröhlich, B.; Wesche, G.; Strauss, W.(enero, 1995).Responsive Workbench. German National Research Center for Computer Science (GMD). [Información del Proyecto en HTML]http://viswiz.gmd.de/IMF/rw.html
Fröhlich, B.; Grunst, G.; Krüger, W.; Wesche, G. (1995). "The Responsive Workbench: A Virtual Working Environment for Physicians" (vol. 25, núm. 2, pág. 301-308). En:Elevier Science, Computers in Biology and Medicine.
Glassner, A.S. (1990). Graphics Gems. Londres: Academic Press.
Janko, S.; Leopoldseder, H; Stocker, G. (1996). Ars Electronica Center Linz. Museum of the Future. Linz: Ars Electronica Center Linz.
Kalawsky, R.S. (1993). The Science of Virtual Reality and Virtual Environments. Reading, MA: Adison-Wesley Ltd.
Krueger, M.(abril, 1985). "Videoplace - an artificial reality". En:ACM Conference on Human Factors in Computing Systems.
McCauley, M.E.; Sharkey, T.J. (1992). "Cybersickness: perception of self-motion in virtual environments" (vol 1, núm. 3, pág. 311). En:Presence: Teleoperators and Virtual Environments. Cambridge MA: MIT Press.
Menache, A. (2000). Understanding Motion Capture for Computer Animation and Video Games. Nueva York: Morgan-Kaufmann.
Motion Factory.Motivate Intelligent Digital Actor System.http://www.motion-factory.com/[Softwarede diseño de comportamientos].
Multigen-Paradigm, Inc.MultiGen[Softwarede modelado y optimización de objetos virtuales].http://www.multigen.com/
Noser, H.; Thalmann, D.(junio, 1996). "The Animation of Autonomous Actors Based on Production Rules". En:Proceedings Computer Animation '96. IEEE Computer Society Press.
Parés, N.Tutorial de VRML97. Barcelona:http://www.iua.upf.es/~npares/docencia/vrml/tutorial.htm, 1997. [Format HTML y VRML].
Pausch, R.y otros (mayo, 1995). "A brief Architechtural Overview of Alice, a Rapid Prototyping System for Virtual Reality". En:IEEE Computer Graphics and Applications.
Pyramid Systems Inc.ImmersaDesk. [Sistema de visualización].
Rockeby, D. (1994). "Very Nervous System" (pág. 7-9). En: Loeffler, C.E.; Anderson, T. (ed.)The Virtual Reality Casebook. Nova York: Van Nostrand Reinhold.
Roehl, B.y otros (1997). Late Night VRML 2.0 with Java. Nueva York: Macmillan Computer Publishing.
Rogers, D.F.; Adams, J.A. (1990). Mathematical Elements for Computer Graphics(2.ª ed.). Singapur: McGraw-Hill.
Rosenberg, L. (1997). A Force Feedback Programming Primer. San Jose, CA: Immersion Corp.
Rowley, T.W. (1993). "Virtual Reality Products". En:Earnshaw, R.A.; Gigante, M.A.; Jones, H. (ed.).Virtual Reality Systems. Londres: Academic Press Ltd.
Sense8 Inc.WorldToolKit[Empresa desoftwarede RV].
Shaw, J. (1993). "EVE: Extended Virtual Environment" (pág. 60-61). En: ZKM.Multimediale 3. Karlsruhe: ZKM.http://www.mediamatic.nl/Doors/Doors2/Shaw/Shaw-Doors2-E3.html
Sutherland, I. (1965). "The Ultimate Display".Proceedings IFIP Congress(pág. 506-508).
Sutherland, I. (1968). "A Head-Mounted Three-Dimensional Display" (vol. 33, parte I, pág. 757-764). En:AFIPS Conference Proceedings.
Transom Technologies.Transom Jack. [Softwarede pruebas ergonométricas].
Viewpoint Digital. 3D Geometries.http://www.viewpoint.com/[Empresa de objetos 3D].
Vince, J. (1995). Virtual Reality Systems. Londres: Addison-Wesley.