Diseño sonoro en videojuegos

Índice
- Introducción
- Objetivos
- 1.Efectos sonoros en un juego 2D
- 1.1.Análisis de los sonidos necesarios
- 1.2.Diseño sonoro con SFXR
- 1.2.1.Sonido de inicio
- 1.2.2.Sonido de la nave protagonista
- 1.2.3.Movimiento de los enemigos
- 1.2.4.Proyectiles
- 1.2.5.Daños menores
- 1.2.6.Explosiones de los enemigos
- 1.2.7.Explosión de la nave protagonista
- 1.2.8.Sonido de finalización
- 1.3.Diseño sonoro con DIN
- 1.3.1.Sonido de inicio con escala blues
- 1.3.2.Sonido final con escala cromática
- 1.3.3.Sonidos musicales y de ambientación con otras escalas y recursos
- 1.3.4.Otros sonidos de ambientación con DIN
- 1.3.5.Drones en movimiento
- 1.3.6.Secuencias temporales pseudoaelatorias con DIN
- 1.3.7.Sonoridades musicales adicionales: modos
- 2.Diseño sonoro en entornos 3D
- 2.1.Obtención de material sonoro: diálogos y atmósfera sonora
- 2.2.Integración en Unity
- 2.2.1.Jerarquia espacial
- 2.2.2.Validación y modificación de sonidos
- 2.2.3.Volumen
- 2.2.4.Testing
- 2.3.Optimización
- 2.3.1.Formatos de archivo
- 2.3.2.Archivos musicales
- 2.3.3.Música adaptativa
- 2.4.Diseño sonoro dinámico
- Bibliografía
Introducción
-
Efectos sonoros. Constituyen en los sonidos cortos que asociamos directamente a objetos presentes en la escena o en efectos subjetivos que incorporamos a la misma. Por ejemplo el sonido de una botella de vidrio que cae al suelo y se rompe o un sonido de alarma que avisa al jugador de que se está acabando el tiempo en un nivel.
-
Sonido ambiente. Consiste en un sonido relativamente neutro, fruto de la suma muchos elementos indefinidos, que asociamos a un ambiente en particular. Por ejemplo el rumor de coches y conversaciones indefinidas que nos rodean en una gran vía urbana. Especialmente en caso de que un juego o escena no tenga música, es importante tener en cuenta que todos los espacios pueden tener un sonido ambiente asociado, por silenciosos que parezcan de entrada.
-
Narración. Consiste en el conjunto de voces inteligibles y relevantes, que tendrían que ser traducidas en caso de distribuir el producto en países con otro idioma, por lo tanto es importante mantenerlos separados del resto también desde un punto de vista práctico. Incluimos en esta categoría tanto los diálogos de los personajes en escena como las voces en off.
-
Música. Se trata en general de sonidos pregenerados que no existen en el interior de la escena original (no diegéticos), pero que ayudan muchísimo a modular el estado de ánimo del jugador o espectador. En algunos casos puede reemplazar por completo al sonido ambiente, aunque también se puede eliminar en una parte del juego o en la totalidad del mismo si se hace un buen trabajo en las otras esferas sonoras.
Objetivos
-
Concienciarse de la complejidad e importancia de un buen diseño sonoro durante el desarrollo de videojuegos.
-
Aprender las bases de un diseño sonoro eficiente.
-
Conocer una batería de herramientas básicas para generar autónomamente el diseño sonoro completo de pequeñas producciones.
-
Optimizar el material sonoro de origen para su integración en el motor de juego de Unity.
1.Efectos sonoros en un juego 2D
1.1.Análisis de los sonidos necesarios
-
Sonido de inicio: este juego en concreto tiene una ventana espacial bastante larga entre que se pulsa Start y se comienza la partida. Así pues, sería recomendable diseñar una canción o un efecto sonoro complejo para llenar el vacío.
-
Movimiento de la nave protagonista: nos acompañará durante toda la partida. Se puede crear un sonido constante para el movimiento constante, así como un segundo sonido para reforzar los desplazamientos a derecha e izquierda. De momento crearemos solo uno.
-
Movimientos de los enemigos: ayudará a aumentar la tensión en los momentos que estos se acumulan en la pantalla. Se pueden crear dos, uno para las naves ligeras y otro para las naves pesadas.
-
Proyectiles: aunque en este juego los proyectiles son disparados automáticamente, se les pueden asociar sonidos para aumentar la ambientación.
-
Daños menores: cada vez que recibimos un impacto de un enemigo podemos reproducir un sonido para dar feedback al jugador.
-
Explosiones de los enemigos: igual que en el caso de los movimientos, es recomendable hacer un por las naves ligeras y otro para las naves pesadas.
-
Explosión de la nave protagonista: aparte de ser el último efecto sonoro, también puede tener la función de indicar que se acaba la partida.
-
Sonido de finalización: al ser un juego que sólo puede acabar con la destrucción de la propia nave debe ser un sonido implícitamente de tipo game over, pero que al mismo tiempo debe ser válido si conseguimos un nuevo récord.
1.2.Diseño sonoro con SFXR
1.2.1.Sonido de inicio
-
Forma de onda: SFXR nos deja elegir entre cuatro tipos de onda que luego podremos modificar: Squarewave, Sawtooth, Sinewave y Noise. Comenzaremos eligiendo Sinewave, que a nivel sonoro es la más simple ya que consiste en un solo armónico fundamental (de forma sinusoidal, como su nombre indica). Más adelante explicaremos las características del resto de ondas.
-
Attack time: controla la dureza del inicio del sonido. Si su valor es cero, el sonido empezará de golpe al máximo volumen. Si es ligeramente superior, el inicio será más suave, lo que nos puede interesar para rebajar el impacto de sonidos demasiado duros como explosiones o guitarras distorsionadas. Un valor muy alto creará un efecto de fundido de entrada o fade in. En este caso nos interesa que el sonido empiece de golpe, así que lo dejaremos a cero.
-
Sustain time: controla la duración del sonido a volumen máximo. En el caso de SFXR es el único modo que tenemos de modificarla, a parte del attack y el decay. También es importante por ejemplo en caso de utilizar instrumentos midi como pianos, ya que un valor demasiado corto de sustain puede crear un vacío al tocar notas largas, mientras que un valor demasiado largo puede crear colas sonoras no deseadas. En este caso nos interesa un sonido muy largo, así que le daremos un valor alto o máximo.
-
Sustain punch: nos da un volumen extra en la primera parte del sustain, útil por ejemplo en explosiones. En el ejemplo lo dejaremos a cero.
-
Decay time: determina la velocidad en la que el sonido se atenuará después del tiempo de sustain, por tanto un valor cero lo hará acabar de golpe, mientras que un valor positivo tendrá como efecto un suavizado o fade out. Lo dejaremos a cero o casi para que termine abruptamente, aunque en attack y en decay a veces hay que vigilar, ya que si la onda sonora empieza o se corta en un punto diferente al eje x puede crear artefactos sonoros en los altavoces.
-
Start Frequency: determina la frecuencia base del sonido, que se mantendrá o se modificará según indiquemos en otros parámetros. Un valor más bajo dará como resultado un sonido más grave, mientras que un valor más elevado dará como resultado un sonido más agudo. En este caso nos interesa un valor medio, indiferentemente de qué frecuencia tenga exactamente.
-
Valor mínimo: Min frequency, Vibrato depth, Vibrato speed, Change speed, Repeat speed, LP filter resonance, HP filter cutoff.
-
Valor 1/2: Slide, Delta slide, Change amount, Phaser offset, Phaser sweep, LP filter cutoff sweep, HP filter cutoff sweep.
-
Valor máximo: FP filter cutoff.

1.2.2.Sonido de la nave protagonista


1.2.3.Movimiento de los enemigos


1.2.4.Proyectiles

1.2.5.Daños menores

1.2.6.Explosiones de los enemigos
1.2.7.Explosión de la nave protagonista

1.2.8.Sonido de finalización

1.3.Diseño sonoro con DIN
1.3.1.Sonido de inicio con escala blues



-
Voices: determinará el volumen de cada nota introducida con el teclado qwerty, en función del número máximo de voces que pensamos utilizar. Un valor 1 dará el volumen máximo por nota, pero distorsionará el sonido si apretamos dos teclas a la vez o más. Es preferible dejarlo a 8 tal y como viene por defecto.
-
Attack Time: igual que en el SFXR determina el attack o fade in. A no ser que queramos un valor diferente, de momento no es necesario cambiarlo.
-
Decay Time: también lo conocemos, determina el fade out. El valor por defecto de decay en DIN es bastante largo. Seguramente nos interesará darle un valor más bajo, por ejemplo 1.
-
Pitch Bend: nos permite cambiar el pitch o afinación moviendo el ratón. A no ser que sepamos que queremos utilizarlo, es recomendable darle un valor 0 para desactivarlo.
-
Waveform: nos permite elegir una forma de onda predeterminada, aunque el sintetizador permite crear ondas mucho más complejas a partir de una curva de Bézier. Para el ejemplo aconsejamos elegir una onda cuadrada.
-
OctaveShift: nos permite cambiar la octava del teclado, es decir, asociar las mismas teclas a un sonido más grave o más agudo. Lo podemos modificar libremente según nos interese, aunque el valor por defecto ya nos sirve.
1.3.2.Sonido final con escala cromática

1.3.3.Sonidos musicales y de ambientación con otras escalas y recursos






1.3.4.Otros sonidos de ambientación con DIN





1.3.5.Drones en movimiento


1.3.6.Secuencias temporales pseudoaelatorias con DIN


1.3.7.Sonoridades musicales adicionales: modos

-
Iónico: el más utilizado de los mayores. Tiene una sonoridad que podríamos describir como «decidida», en contraposición al resto de modos. Es el modo mayor más utilizado en música popular occidental.
-
Dórico: modo menor, aunque relativamente más decidido que los otros modos menores, como por ejemplo el eólico, ya que más de las relaciones entre sus notas son parecidas a las de los modos mayores.
Dos ejemplos de dórico. En la parte superior, re dórico (con do como nota fundamental). En la parte inferior, do dórico (con sib como nota fundamental). Es importante prestar atención al hecho que, aunque las relaciones entre las notas de las dos son las mismas, las notas utilizadas en cada una de ellas corresponden a las de la escala iónica de la respectiva fundamental.
-
Frigio: modo menor, a medio camino entre el eólico y el locrio, que transmite cierta desesperación o rabia. Es muy utilizado en músicas como el flamenco.
-
Lidio: modo mayor, con un sonido un poco fantástico debido a la cuarta aumentada (algo que lo aproxima a la sonoridad de la escala de tonos enteros). Como curiosidad, es el modo utilizado en la conocida sintonía de entrada de la serie The Simpsons, y el que le da su peculiar sonoridad.
-
Mixolidio: modo mayor, característico por la séptima disminuida, algo que lo sitúa en sonoridad entre el jónico y el dórico. Es muy utilizado en músicas como el funk.
-
Eólico: es el másestable entre los modos «tristes», y por consecuencia el más utilizado de los menores diatónicos.La música popular suele escogerlo como modo principal junto al jónico.
-
Locrio: su sonoridad es opuesta a la del modo lidio. Se trata de un modo menos utilizado en música occidental, ya que es el único modo disminuido de la escala diatónica y en consecuencia su sonoridad es mucho más inestable que la del resto.
2.Diseño sonoro en entornos 3D
2.1.Obtención de material sonoro: diálogos y atmósfera sonora
-
Espacio acústico: si se utiliza un buen equipo de grabación, las condiciones acústicas del espacio pueden ser las limitantes. Es importante que el espacio de grabación no tenga interferencias sonoras, como chirridos de parqué, ventiladores internos del ordenador, o incluso zumbido eléctrico debido a interferencias con la corriente alterna. El material de las paredes y otros objetos presentes en la sala puede resonar e interferir en el audio que grabamos; por norma general, es preferible que el espacio de grabación sea “seco”, por ejemplo revistiendo las paredes con espuma acústica.
Espuma acústica piramidal típica de un estudio de sonido.
Fuente: By Guillaume Paumier - Own work, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=16533839 -
Micrófono: el micrófono que utilizamos determinará muchas características de la grabación. Más allá de la calidad del mismo, cada micrófono tiene diferentes características que lo hacen adecuado a uno u otro uso. Los micrófonos dinámicos son muy sensibles a la distancia, por lo que filtran los sonidos lejanos fácilmente. Por el contrario, micrófonos como los de cinta dan una coloración particular al sonido que nos puede interesar, pero son mucho más sensibles a la velocidad que a la presión. Por otro lado los micrófonos subcardioides y omnidireccionales nos permiten captar mejor el sonido ambiente, mientras que los direccionales (shotgun, supercardioides, bidireccionales) permiten aislar los sonidos que nos interesan de las interferencias que provienen de otras direcciones. Para voces humanas, por ejemplo, es recomendable utilizar micrófonos de condensador de patrón cardioide.
Micrófono de condensador Neumann, muy utilizado para registrar voces. A la izquierda se aprecia un filtro pop, que ayuda a grabar mejor sonidos como los de las letras s y p.
Fuente: By Andi mueller 77 - Own work, CC BY-SA 3.0,https://commons.wikimedia.org/w/index.php?curid=19967745 -
Preamplificador: a parte del micrófono, es el elemento que más influye en la calidad de sonido. En general el preamplificador se encuentra integrado dentro de los convertidores analógico-digital (DAC) o incluso dentro del mismo micrófono si funciona con conector usb, por lo que pasa desapercibido. En estudios de sonido, sin embargo, suele ser un módulo separado dada su importancia.
-
DAC: en caso de ser un elemento independiente del preamplificador, suele ser mucho menos importante, ya que se limita a convertir en formato digital la frecuencia y profundidad de las ondas analógicas. En general nos interesará grabar a por lo menos 44,1KHz y 16 bit. 48kHz y 24bit es una resolución habitual para generar los másters finales de audio, aunque algunos DAC llegan a digitalizar a 192kHz y 32bit floating point.
-
Software de grabación: aunque en general no tiene un impacto importante sobre el sonido, algunos programas permiten grabar y tratar varias pistas simultáneamente (DAW, de Digital Audio Workstation) o monitorizar el clip de vídeo que nos interese para sincronizar el audio. Más allá de utilizar o no un sistema de grabación multipista, es importante grabar los sonidos en stereo siempre que sea posible, en especial el sonido ambiente, por ejemplo posicionando dos micrófonos iguales en posición perpendicular (formando una X). Esto nos facilitará mucho la recreación de sonido 3D en Unity.
2.2.Integración en Unity
2.2.1.Jerarquia espacial
-
Efectos sonoros: para todos los efectos sonoros “reales”, nos interesará vincular el audiosource directamente con la fuente, es decir, con el objeto o individuo que los emite. Esto nos permitirá una localización precisa y dinámica del sonido en un entorno 3D. Los sonidos subjetivos, en cambio, suelen ser independientes de la escena y por lo tanto pueden ser 2D. Por norma general, los efectos sonoros objetivos serán mono, mientras que los subjetivos pueden sacar más ventaja del stereo.
-
Sonido ambiental: el sonido ambiental no está ligado directamente a ningún objeto, pero no por ello pierde la posibilidad de ser 3D. El audiosource debería de tener una distancia mínima que abarcase toda la zona ambiental, por lo tanto la acción se desarrolla en su interior hasta que no se sale de él. Si tenemos la suerte de poder grabar un sonido ambiente con dos micrófonos bidireccionales, como hemos visto en el apartado anterior (o si por lo menos disponemos de clips en stereo real) es interesante modificar los parámetros spread y pan para que los dos ejes sonoros, fijos en el espacio, se muevan respecto al audiolistener y el sonido sea completamente envolvente. Si lo hacemos correctamente, conseguiremos que haya sutiles diferencias en rotar el audiolistener en la escena, como pasa en la realidad con todos los sonidos aunque no sepamos de donde vengan.
-
Diálogo: Dependiendo de si el diálogo proviene de los personajes presentes en la escena o no, los podemos implementar igual que el resto de efectos sonoros o como sonido 2D. De todos modos a menudo es interesante que el volumen mínimo sea siempre alto, para que el jugador no se pierda ninguna parte importante del diálogo. Si son diálogos fuera de campo, también nos puede interesar modificar ligeramente pan para dar más espacio al sonido 2D.
-
Música: en general la música es un sonido 2D completamente independiente de la escena. Seguramente nos interesará activar también las opciones de bypass para que ni los filtros ni las zonas de reverb la afecten.
2.2.2.Validación y modificación de sonidos
-
Ecualización: modifica el timbre del clip potenciando ciertas bandas de frecuencias. Es útil tanto para uniformizar sonidos de orígenes diferentes como para hacer destacar los unos sobre los otros, potenciando en cada caso bandas diferentes (por ejemplo, recortando la franja de 2 a 4KHz de los otros clips para dejar estas frecuencias libres para los diálogos)
-
Compresión: reduce el rango dinámico del clip, normalmente aplicando una reducción de volumen progresiva (ratio) sólo a partir de un cierto volumen establecido (treshold) para no aumentar el ruido de fondo. Las herramientas de compresión normalmente permiten seleccionar los tiempos de reacción en respuesta (attack) y retroceso a la normalidad (release). Aunque de entrada ese procedimiento reduce el volumen máximo del clip, el rango dinámico extra que se gana se puede aprovechar para subir el volumen final del clip (gain).
-
Compresión multibanda: es una herramienta que combina técnicas de EQ y de compresión simultáneamente. En concreto, comprime las bandas de frecuencias por separado. Es muy útil para dar cuerpo a sonidos que, pese a tener un volumen alto en alguna de sus bandas, es pobre en otras frecuencias (cosa que sucede a menudo con la voz humana).
-
Pitch Switch: estrictamente, consiste en acelerar o ralentizar el clip, lo que prueba respectivamente aumento o disminución de las frecuencias. A través de métodos como la transformada discreta de Fourier es posible cambiar la frecuencia sin cambiar la velocidad y viceversa con una pérdida de calidad relativamente baja.
-
Reverb: simula el rebote natural del sonido sobre diferentes espacios y materiales, añadiendo una “cola” al sonido original con cierto retraso variable. Colas más largas simularán materiales más resonantes, como las paredes de una cueva. Retrasos mayores servirán también para simular espacios más grandes, donde el sonido tarda más a rebotar y volver atrás. La mezcla entre sonido directo y sonido reverberado (dry / wet, respectivamente) también ayuda a posicionar los objetos en el espacio, ya que en caso de encontrarse cerca del oyente llegarán a este sobre todo por vía directa (dry), mientras que a mayor distancia más peso relativo tendrá la reverberación sobre el sonido directo (wet).
-
Delay: genera efectos de eco a través de repetir una copia del sonido con retraso y a menudo con modificaciones. A parte de los evidentes efectos de eco que se pueden conseguir con ello, también ayudan a dar más cuerpo a los sonidos. Si las repeticiones son muy cortas o con oscilaciones temporales puede producir modificación del timbre, dando lugar a lo que se consideran efectos por sí solos, como el phaser que ya conocemos, el chorus o el flanger. En realidad la reverberación también es un caso particular de delay, aunque a efectos prácticos se suelen tratar todos como efectos separados.
2.2.3.Volumen
-
Volumen de origen: el volumen del archivo original, que puede variar de un archivo a otro. En general es útil mantener activada la opción normalize del inspector para hacer coincidir el volumen máximo del clip con el máximo del rango dinámico (aunque en sonidos que se deben mantener siempre flojos, tales como ruido ambiente, nos puede interesar desactivarlo).
-
Volumen del AudioSource: permite dar un volumen entre 0 y 1 (el volumen máximo pues coincide con el volumen original). Será útil para nivelar los volúmenes entre diferentes AudioSource de una misma categoría, como veremos después.
-
Posicionamiento 3D: en el caso de sonidos 3D, la distancia del AudioSource respecto al AudioListener afecta el volumen. Podemos modificar el perfil de respuesta a través de la opción 3D Sound Settings del inspector. En especial, hay que indicar la distancia mínima a partir del cual el volumen será máximo (1) y la distancia máxima a partir de la cual el mismo se dejará de oír totalmente (0). Hay especificar también la curva de respuesta; en general nos interesará la curva original (¡hay que recordar que la percepción del sonido es logarítmica!).
-
AudioGroup: nos permite regular el volumen de varios AudioSource simultáneamente o, por extensión, de otros AudioGroups contenidos en el mismo. Aunque en proyectos muy pequeños no son necesarios, es recomendable estructurar siempre una jerarquía clara y detallada de Audiogroups, empezando por los de las esferas sonoras. A la hora de mezclar proyectos complejos nos será mucho más fácil modificar los volúmenes si empezamos nivelando cada grupo individualmente y luego los nivelamos entre ellos. Hay que tener en cuenta que el volumen de los Audiogroups no trabaja como los anteriores, de 0 a 1, sino que lo hace en decibelios. Aunque podemos llegar a dar a cada grupo una ganancia de + 20dB, hay que vigilar porque cualquier aumento de volumen puede llevar fácilmente a distorsionar la mezcla final.
-
AudioMixer: es la mezcla principal, de la que dependen todos los demás Audiogroups y Audiosources. Es lo que tenemos que controlar durante todo el proceso de mezcla y testeo para controlar que el volumen final no sature el rango dinámico del que disponemos.


2.2.4.Testing
2.3.Optimización
2.3.1.Formatos de archivo
-
.WAV → el formato PCM no comprimido de Windows por excelencia. Prácticamente idéntico al AIFF.
-
AIFF → el formato PCM no comprimido de Mac. Prácticamente idéntico al WAV.
-
.MP3 → formato propietario con pérdida.
-
.ogg → formato libre con pérdida.
-
.mod → El archivo utilizado originalmente por el Ultimate Soundtrack (soft propietario). Está diseñado específicamente para el chipset original de Amiga.
-
.S3M → Utilizado originalmente en ScreamTracker (propietario). Es una modificación extendida del MOD original.
-
.XM → Utilizado originalmente por FastTrack 2 (propietario, aunque a la hora de cerrar los materiales se está desarrollando el clon FastTrackerII bajo una licencia indefinida). Otra modificación popular del MOD original.
-
.IT → El archivo utilizado originalmente por Impulse Tracker (bajo licencia BSD). Todavía es relativamente utilizado en algunos de los juegos actuales de más renombre.
2.3.2.Archivos musicales

-
Introducción (I): es el primer archivo que invocaremos, y en general sonará una sola vez por nivel. La mayoría de las veces nos interesa que sea corto y conduzca rápidamente hacia el loop principal.
-
Loop principal (L): es la parte principal de la música, que se repite indefinidamente en un loop. Puede ser corta, pero en general interesa que sea relativamente larga y variada, en especial si prevemos que el usuario la escuche durante mucho rato. También podemos programar triggers para hacer saltar la música de un loop a otro a partir de checkpoints específicos, consiguiendo que la atmósfera musical se adapte mejor a cada parte del nivel.
-
Eventos (E) y Transiciones (T): son clips que interrumpen el loop principal. En el caso de los eventos, devolverán al loop principal (el punto donde la habían dejado o reiniciándolo). En el caso de las transiciones, en cambio, llevarán a un nuevo loop o a la finalización.
-
Finalizaciones (Failure, Success): son los clips que interrumpirán el loop y finalizarán el nivel. Normalmente tendremos uno en caso de éxito y otro en caso de fracaso.
A la hora de invocar los archivos, sólo tendremos que indicar a Unity por qué archivo empezar y qué hacer cuando termina de reproducir un bloque o cuando se desencadena un evento concreto. De esta manera conseguiremos un alto grado de dinamismo en la música sin tener que recurrir a otras técnicas más complejas, como las que veremos a continuación.
2.3.3.Música adaptativa
-
Seleccionar las canciones de la playlist según tags: a pesar de ser bastante rudimentario, si se utilizan canciones externas, especialmente en un open world, se pueden categorizar los ficheros en sí y crear una playlist que elija la siguiente canción relacionando marcadores de la zona o nivel del juego con tags asociados a cada canción. También se puede utilizar la misma técnica para ajustar la afinación de los efectos sonoros según la afinación de la canción que esté sonando en cada momento, en tal caso los metadatos de la canción tienen que contener el tono y a través de un script deberemos modificar el pitch de los efectos sonoros.
-
Vincular el tempo o la afinación de los sonidos a la velocidad o posición del protagonista: ayuda a intensificar fácilmente la experiencia de juego según la intensidad de cada momento. en caso de trabajar con audio en formato PCM, la solución más fácil es vincular directamente la velocidad de la cámara principal con el parámetro de pitchshift. En caso de utilizar módulos tracker es posible modificar la velocidad y la afinación por separado, vinculante por ejemplo la primera con la velocidad horizontal y la segunda con la posición vertical.
-
Alternar entre loops similares: si se crean dos o más clips con estructura y ritmo similar, se pueden sincronizar para cambiar de uno a otro según convenga. Los usos son muchos, en especial ayuda a acentuar la adquisición de poderes especiales, los estado de salud críticos, etc. Para hacer la transición entre uno y otro, en general, basta con hacer que los volúmenes se releven en un crossfade (fade in y fade out simultáneos). Las diferencias entre las distintas versiones de los loops pueden incluir cambios en la intensidad, en la orquestación, en el modo musical, o incluso consistir en músicas aparentemente diferentes unidas entre ellas por pequeñas transiciones. Monkey Island 2 es un buen ejemplo clásico de implementación de esta técnica.
-
Activar y desactivar capas sonoras: llevando al límite el caso anterior, se puede diseñar la música por capas que funcionen independientemente y se añadan o desaparezcan según nos convenga en función de diversos triggers. Por ejemplo, podemos crear un loop musical donde sólo haya las capas de bajo y batería en caso de pausar el juego, aparezca un arreglo normal cuando la acción es tranquila, se añadan capas adicionales según ciertos triggers de intensidad, y una orquestación completa cuando la tensión es máxima, como cuando la pantalla está llena de enemigos.
-
Vincular diferentes espacios con diferentes instrumentos: otra alternativa del arreglo por capas consiste en sustituir una a una las capas por otras equivalentes y compatibles. Por ejemplo, hacer que la capa rítmica cambie de percusión caribeña a secuencias de drum'n'bass, que el acompañamiento rítmico cambio de piano a guitarra eléctrica, que la melodía pase a estar interpretada de un violín a una marimba, etc.
-
Modificación de parámetros de los instrumentos: esta técnica, para aplicarla como tal, sólo se puede hacer en caso de utilizar instrumentos virtuales, aunque se puede emular generando los clips por adelantado y aplicando la técnica que hemos comentado antes. Consiste en modificar en tiempo real los parámetros de los sintetizadores, a fin de modificar el sonido fácilmente al activar ciertos triggers. Portal 2 es un buen ejemplo de aplicación de esta técnica.
-
Programar música pseudo-aleatoria: con suficiente conocimiento y paciencia, la música se puede deconstruir en unidades mínimas de cada instrumento (riffs, liks) y programar la canción a través de métodos de generación por procedimientos, para que la música de cada partida sea siempre única. Un ejemplo magnífico de esta técnica combinada con muchas de las anteriores la podemos encontrar en Legend of Dungeon de Calvin Goble.
-
Adaptar la animación a la música: como el sonido suele tener un patrón temporal bastante rígido, a veces la mejor solución será programar las animaciones para que se sincronicen con estos y no al revés. Sólo necesitamos mantener un contador de la estructura rítmica de la canción (probablemente por muestras) y sincronizar los puntos claves de las animaciones con las mismas. Así podemos hacer por ejemplo que los pasos de los personajes sigan el tempo de la música, lo que en general será una solución más natural que no modificar el ritmo de la canción para que se adapte a animaciones que pueden empezar en cualquier momento.
2.4.Diseño sonoro dinámico
-
Cuevas y otros espacios con reverberación: Unity dispone de zonas de reverb que se pueden ajustar para simular las condiciones de acústicas de cada espacio. Ciertos espacios, como iglesias o mazmorras, son evidentes. Pero se pueden aplicar más sutilmente a cambios de espacio. Si el juego se desarrolla en diferentes espacios es interesante que todos los interiores tengan un punto de reverberación propio, en general más agresivo como más grande y vacío sea el espacio.
-
Efecto Doppler: como ya hemos ido comentando a lo largo del módulo, Unity permite modificar los sonidos según el efecto doppler, es decir, aumentando la frecuencia de los sonidos que se acercan al audiolistener y disminuyendo la de los que se alejan de él. Es evidentemente interesante para sonidos que percibimos naturalmente con este efecto, tales como ambulancias, trenes, o proyectiles. Pero también puede tener un efecto interesante aplicado como efecto subjetivo en objetos que normalmente no lo tendrían, como otros personajes u objetos que simplemente cambian de velocidad respecto a la cámara principal, en especial para recrear estados oníricos o de percepción alterada.
-
Ambientes subacuáticos: si parte de la acción pasa bajo agua, es interesante aplicar a todos los sonidos un filtro de paso bajo y un chorus acompañado de ruido marrón, que combinados recrean bastante bien el efecto acústico de inmersión.
-
Radios y megáfonos: si nos interesa simular por ejemplo un megáfono en tiempo real, sólo le tenemos que aplicar distorsión al clip de la voz. De todas maneras es recomendable añadir filtros de paso, ecualizaciones y posiblemente delay para hacer una recreación más cuidada.
-
Explosiones cercanas y golpes en la cabeza: especialmente en los FPS, es habitual que algunas armas generen efectos negativos sobre la percepción del personaje. En el caso de la vista, suelen cegar y dejar la pantalla en blanco por unos segundos. En el caso del sonido, lo más efectivo es aplicar un filtro de paso bajo acompañado de un sonido fuera de rango, en forma de onda sinusoidal muy aguda (unos 10KHz) para simular tinnitus.
-
Espacios abiertos: de la misma manera que los espacios cerrados presentan reverberación, los espacios abiertos no acostumbran a presentarla. Se pueden utilizar delays para generar ecos o reverberaciones cortas de frecuencias altas para modificar el ruido del motor en los laterales de la carretera. En caso de espacios nevados o de terrenos muy planos nos puede interesar aplicar un filtro de paso alto para crear un contraste aún mayor con el resto de espacios.