Principios de tecnología audiovisual

  • Jordi Arqués Martí

  • José Martínez Abadía

     José Martínez Abadía

    Profesor de Procesos y Medios de Comunicación. Profesional de la producción audiovisual y experto en las relaciones entre tecnología y comunicación. Habitualmente imparte clases en varios niveles educativos. Ha participado en la elaboración del currículum de la rama profesional de Comunicación, Imagen y Sonido en el Ministerio de Educación y Ciencia, asimismo es autor de varias publicaciones relacionadas con la televisión y el cine.

  • Ramon Millà i Bruch

  • Natàlia Prats Buendía

  • Ramon Sangrà i Selvas

  • Pere Vila i Fumàs

     Pere Vila i Fumàs

    Doctor ingeniero en Telecomunicaciones por la Universidad Politécnica de Cataluña, UPC; máster en Economía y dirección de empresas (MBA) por ESADE Barcelona; posgrado en Gestión de empresas audiovisuales, UPC. Director técnico de la Corporación Catalana de Radio y Televisión (ente público de la Generalitat de Cataluña), con un equipo humano superior a las 600 personas de elevada cualificación profesional (en seis empresas del grupo) a su cargo. Miembro del Consejo de Administración del Centro de Telecomunicaciones y Tecnologías de la Información de la Generalitat de Cataluña y del Consejo de Administración de Catalana de Telecomunicacions, Societat Operadora de Xarxes, S. A. Publica con regularidad en revistas del sector audiovisual español y es autor también del libro La televisión hertziana en Europa occidental (Ediciones UPC, 1995) sobre el sector televisivo europeo visto como sector industrial. Colaborador de las universidades Politécnica de Cataluña, Oberta de Catalunya y Autónoma de Barcelona, del Departamento de Enseñanza y de la Agencia para la Calidad del Sistema Universitario en Cataluña. Miembro del Consejo Científico Asesor de la Fundación Catalana para la Investigación. Miembro del Consejo Asesor de las Telecomunicaciones del Ministerio de Ciencia y Tecnología. Miembro del Consejo Asesor del Servicio de Meteorología de Cataluña. Miembro del grupo Infraestructuras y Servicios Básicos de la Secretaría para la Sociedad de la Información de la Generalitat de Cataluña. Jurado de los premios Salvà i Campillo de Telecomunicaciones.

  • Alba Vila González

PID_00189091
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

Índice

Objetivos

Los objetivos principales de este módulo son:
  1. Identificar los elementos que concurren en la percepción visual relacionada con el espectro visible y las características de los colores desde la perspectiva audiovisual.

  2. Identificar los elementos que concurren en la percepción sonora relacionada con las características fisiológicas y definitorias del sonido.

  3. Describir los elementos básicos que configuran el fenómeno televisivo en blanco y negro y en color en sus variantes analógica y digital.

  4. Identificar los elementos básicos que configuran los amplificadores, mesas de mezclas y equipos de efectos de sonido, así como los formatos de sonido digital más habituales.

  5. Mostrar conocimiento sobre el funcionamiento básico de las lentes y objetivos y sobre sus aplicaciones prácticas en la realización de programas audiovisuales.

  6. Describir los procesos de transformación de la luz en corriente eléctrica producidos en la cámara, así como los tipos de cámaras más habituales y sus soportes.

  7. Describir los procesos de transformación del sonido en corriente eléctrica e identificar los tipos de micrófonos más empleados en la captación del sonido.

1.La percepción de la imagen

1.1.La percepción de la imagen: el sistema visual

El objetivo de la percepción es la captación de la realidad y su interpretación según la suma de todas las sensaciones. También intervienen en el proceso perceptivo las asociaciones significativas que establecemos con estas sensaciones según las experiencias acumuladas en la memoria.
La percepción es siempre selectiva. El ser humano recibe un exceso de información que el cerebro no puede procesar. La mayoría de los estímulos sensoriales se mantienen en un plano difuso y solo somos conscientes de los que merecen nuestra atención.
Los sentidos permiten al ser humano ponerse en contacto con el mundo exterior, puesto que aportan la información necesaria para conocer el entorno y posibilitan, por lo tanto, la adaptación a él.
Desde un punto de vista cuantitativo y cualitativo, el sistema visual es el más utilizado para obtener informaciones de la realidad y, a continuación, se sitúa el sistema auditivo. Los medios audiovisuales afectan a estos dos sentidos porque están basados en la combinación de imágenes y sonidos.
En la vida real, estamos sometidos a millones de estímulos sensoriales que no podemos procesar. En los medios audiovisuales, se seleccionan unos elementos escasos que se colocan estratégicamente para lograr cumplir los objetivos del programa.
La transmisión de los objetivos comunicativos de un programa depende, en buena medida, de la selección estratégica de los estímulos sensoriales que concentren nuestra atención.
1.1.1.La estructura del ojo
El sistema visual está formado por el ojo, el nervio óptico y determinadas zonas de la corteza cerebral.
La función del ojo es captar la máxima cantidad de información posible del mundo exterior. Los datos recogidos por el ojo son transmitidos por el nervio óptico a determinadas zonas del cerebro, cuya función es la de interpretar las imágenes recibidas.
Fisiología de la visión
El ojo humano es un órgano complejo constituido por tres capas de tejido o membranas, que forman una esfera llena de fluido. Las capas son la externa, la media o úvea y la interna o retina. Los fluidos son el humor acuoso, el cristalino y el vítreo.
  • La capa externa está compuesta por un gran número de fibras de colágeno dispuestas estrechamente. Es el soporte exterior del globo ocular y ayuda a mantener la forma esférica del ojo. Esta membrana externa también recibe el nombre de esclerótica y cumple con una función protectora. En la porción anterior de la esclerótica, la membrana esférica cambia el radio de curvatura y se hace más convexa; las fibras colágenas adoptan una distribución que hace que entre ellas se mantenga una distancia algo inferior a la longitud de onda de las radiaciones luminosas, lo que convierte a esta porción en un casquete esférico transparente denominado córnea, que es la lente más potente del ojo. La córnea acaba en una zona de la membrana que se ha vuelto opaca y se denomina esclerótica. La zona de unión entre las dos se denomina limbo y contiene las estructuras responsables del humor acuoso.

  • La capa media, también llamada úvea, contiene vasos sanguíneos. Su porción anterior se modifica para formar el iris, el cuerpo ciliar y el ligamento suspensorio. El iris es una membrana circular con una apertura central que varía de tamaño, llamada pupila. Se puede definir como un diafragma que regula la cantidad de luz que entra en el globo ocular. El iris constituye la parte del ojo que tiene color, ya que contiene células pigmentadas. El cuerpo ciliar, situado entre el coroides y el iris, es un círculo de músculo liso que posibilita la acomodación del cristalino y también está formado por una porción epitelial, responsable de la producción del humor acuoso. La coroides es la porción más posterior. Es una membrana muy vascular que tiene la función de nutrir las capas de la membrana interna o retina, así como de mantener una temperatura estable en el globo ocular.

  • La capa interna o retina contiene las células fotorreceptoras: los bastones y los conos. Su misión es recibir el estímulo luminoso y transformarlo en estímulo nervioso. La fóvea, cerca del centro de la retina, es la zona de máxima agudeza visual.

Estructura del ojo humano
Estructura del ojo humano
La cantidad de luz que penetra en el ojo es regulada por la pupila del iris y tiene que pasar por la córnea, el humor acuoso, el cristalino y el humor vítreo antes de alcanzar los fotorreceptores de la retina, es decir, los bastones y los conos. Ahí tiene lugar una transformación de estímulos luminosos en estímulos nerviosos, gracias a una reacción química.
Para la transmisión de los estímulos nerviosos, se usa un haz de fibras nerviosas del llamado nervio óptico, integrado por casi 800.000 fibras.
La fase de interpretación empieza cuando las imágenes llegan al cerebro, donde se vuelve a componer la sensación visual captada por la pupila y formada en la retina con los datos que envía cada fibra.
A partir de ahí, se desconocen los mecanismos que intervienen en el proceso de interpretación de la información visual en el cerebro. Se supone que existe una conexión con las zonas del cerebro que almacenan los datos acumulados por la experiencia.

1.2.El espectro electromagnético

Maswell estableció, en 1885, las primeras características de las ondas electromagnéticas al afirmar que las oscilaciones eléctricas de alta frecuencia se podían propagar por el espacio. Aseguró que la luz era una manifestación visible de unas oscilaciones electromagnéticas que se desplazaban a una velocidad aproximada de 300.000 kilómetros por segundo.
En 1887, Hertz pudo confirmar, en la práctica, las teorías de Maswell. Desde entonces, las ondas electromagnéticas se conocen como ondas hercianas y, universalmente, se denomina hercio a la unidad básica para medir la frecuencia. En 1894, Marconi logró, tras numerosos experimentos, transmitir y recibir a distancia informaciones con el alfabeto telegráfico. Así nacía lo que pasó a denominarse telegrafía inalámbrica, base de múltiples avances posteriores en el campo de las telecomunicaciones.
Para establecer un acercamiento histórico a las personas que contribuyeron al descubrimiento y al conocimiento del espectro electromagnético –en el que las ondas de radio son tan solo una pequeña parte de una extensa familia–, tendríamos que considerar toda una pléyade de científicos y técnicos que se especializaron en otros campos de aplicación, como la utilización de los rayos X en la medicina y la industria, los rayos gamma y cósmicos en la astronomía, los rayos ultravioletas, infrarrojos y, en cuanto al tema objeto de este volumen, los que investigaron sobre el espectro de luz visible, apoyo de toda nuestra cultura visual.
El estudio del espectro electromagnético ha permitido conocer las características de la luz y ha posibilitado la transmisión y recepción de imágenes y sonidos.
1.2.1.Las ondas electromagnéticas
Muy a menudo se recurre al fenómeno oscilatorio para explicar las ondas electromagnéticas. Se ha comprobado que tanto los rayos X como la luz, las ondas de radio y los rayos infrarrojos son oscilaciones de diversa frecuencia. El escalonamiento en la manifestación de las oscilaciones permite establecer y situar las diferentes clases de ondas electromagnéticas que componen el espectro objeto de estudio.
Las ondas electromagnéticas tienen componentes eléctricos y magnéticos y se generan a partir de sistemas fundamentalmente eléctricos. La física todavía no ha definido con exactitud su naturaleza. Algunas teorías les atribuyen un comportamiento ondulatorio, aunque también son consideradas como partículas radiantes de materia.
A pesar del relativo desconocimiento científico sobre la naturaleza de las ondas electromagnéticas, se conocen algunas características de su comportamiento:
  • En ocasiones se denominan energía radiante porque pueden ser irradiadas desde una fuente energética como el sol, una lámpara o un transmisor.

  • Su velocidad de desplazamiento es enorme: 300.000 kilómetros por segundo en el vacío. Al atravesar materias, su velocidad disminuye en relación con la densidad de estas materias.

  • A diferencia de las ondas sonoras que, por su naturaleza mecánica, necesitan una sustancia portadora para poder transmitir la vibración, las ondas electromagnéticas se pueden desplazar en el vacío. También pueden atravesar sustancias según la frecuencia.

  • La forma de propagación es virtualmente recta desde la fuente de radiación y sin tomar en consideración magnitudes astronómicas.

  • Finalmente, el desplazamiento admite el símil de la piedra lanzada a un estanque tranquilo. Es decir, se desplazan en forma de ondas que se expanden desde el centro hacia la periferia.

Las ondas electromagnéticas tienen comportamientos muy diferentes de las ondas sonoras.
1.2.2.Longitud de onda y frecuencia
Para entender algunas de las características y parámetros fundamentales de las ondas, y a pesar del hecho de que se trata de un fenómeno complejo, nos ayudará mucho pensar en las ondas como fenómenos oscilatorios. Una consecuencia de esta idea es que nos lleva a una conclusión importantísima: una oscilación se repite de forma periódica.
m1_01b.gif
Si observamos una forma de onda sencilla (en concreto, una onda sinusoidal) en la que se muestre la amplitud (la cantidad de energía que contiene, independientemente de que se trate de ondas acústicas o electromagnéticas), a lo largo del tiempo obtendremos un gráfico como el siguiente:
Onda sinusoidal
Onda sinusoidal
Como se trata de un gráfico que nos muestra la evolución de la onda en el tiempo, podemos marcar el tiempo que la onda tarda en repetirse. Este tiempo es el que se denomina periodo (T).
Onda sinusoidal con indicación del periodo
Onda sinusoidal con indicación del periodo
Si nos imaginamos lo que sucede en el espacio (es fácil si pensáis en las ondas que se generan al lanzar una piedra a un estanque), veremos que las ondas pueden ocupar más o menos espacio antes de repetirse o, como diríamos coloquialmente, pueden ser más cortas o más largas. La distancia que recorre una onda antes de repetirse recibe el evidente nombre de longitud de onda (λ).
Unidades de medida
La medición de las longitudes de onda exige el uso de magnitudes de medida que se extienden desde el kilómetro hasta las diez millonésimas de milímetro. A continuación, exponemos las unidades de medida utilizadas para las medidas mínimas:
  • El milímetro o milésima parte del metro.

  • La micra (representada por la letra griega μ), cuyo valor es el de una milésima de milímetro.

  • La milimicra (mμ) o nanómetro (nm), que equivale a una milésima de micra, es decir, a una millonésima de milímetro.

  • El angstrom (Â), cuyo valor es el de una décima de milimicra o una diezmillonésima de milímetro.

  • kilohercio (kHz) = 1.000 Hz

  • megahercio (MHz) = 1.000.000 Hz

  • gigahercio (GHz) = 1.000.000.000 Hz

Para medir frecuencias, además del hercio, se usan las unidades siguientes:
¿Existe algún tipo de proporción entre la longitud de onda y el periodo?
En la definición de las magnitudes relacionadas con las ondas y los fenómenos oscilatorios resulta muy importante la medida del número de oscilaciones que se producen por segundo. Esta magnitud recibe el nombre de frecuencia y se mide en hercios (Hz). 1 hercio = 1 oscilación/segundo.
¿Existe algún tipo de relación entre la frecuencia y el periodo?
¿Existe algún tipo de proporción entre la longitud de onda y la frecuencia?
Sin duda, existe una relación de proporción inversa. Esto quiere decir que, cuanta más frecuencia, menos longitud de onda. En radiodifusión, por ejemplo, se suele utilizar la expresión onda corta para referirse a la transmisión de ondas de alta frecuencia y la de onda larga para referirse a ondas de baja frecuencia (y, sin duda, onda media como punto de equilibrio entre frecuencias altas y bajas).
Se puede formular con un sencilla expresión matemática:
m1_53.gif
1.2.3.Representación del espectro electromagnético
Todas las radiaciones conocidas pueden ser ordenadas según la frecuencia y longitud de onda.
m1_02.gif
Denominamos espectro electromagnético a la representación gráfica de las ondas electromagnéticas ordenadas según la longitud de onda.

de 3 a 30 kHz

VLF

muy baja frecuencia (ondas miriamétricas)

de 30 a 300 kHz

LF

baja frecuencia (ondas kilométricas)

de 300 a 3000 kHz

MF

media frecuencia (ondas hectométricas)

de 3 a 30 MHz

HF

alta frecuencia (ondas decamétricas)

de 30 a 300 MHz

VHF

muy alta frecuencia (ondas métricas)

De 300 a 3000 MHz

UHF

ultra alta frecuencia (ondas decimétricas)

de 3 a 30 GHz

SHF

frecuencia superalta (ondas centimétricas)

de 30 a 300 GHz

EHF

extremadamente alta frecuencia (ondas milimétricas)

de 300 a 3000 GHz

---

(ondas decimilimétricas)

Espectro electromagnético y clasificación de las ondas hercianas

En la figura aparece representado, sin voluntad de proporcionalidad, el espectro electromagnético que está limitado por las ondas hercianas, en el extremo de las longitudes de onda largas, y por los rayos cósmicos, en el extremo de las longitudes de onda cortas. Tanto las ondas hercianas (utilizadas en las transmisiones de radio y televisión) como el calor (infrarroja) y la luz visible son manifestaciones de diferentes radiaciones que podríamos calificar de beneficiosas o inocuas, mientras que las ondas cortas, como las ultravioletas, los rayos X, los gamma y los cósmicos son perjudiciales y mortales incluso para el desarrollo de la vida humana.
El espectro electromagnético incluye todo tipo de radiaciones que son aprovechadas con finalidades varias para la emisión y la recepción de imágenes y sonidos. Algunas de estas radiaciones tienen efectos positivos y también negativos sobre la vida vegetal y animal.
1.2.4.El espectro visible
La luz es una radiación electromagnética de la misma naturaleza que las ondas de radio con la particularidad, desde el punto de vista humano, de que el sentido de la vista es el que la puede captar e interpretar. Si, partiendo del espectro electromagnético, ampliamos la porción correspondiente a la luz visible, apreciaremos, en primer lugar, que la longitud de onda de la luz es mucho más pequeña que la de las radiaciones de radio y televisión. Según la longitud de onda de la radiación emitida, el cerebro percibe una sensación variable que denominamos color.
Ejemplo
Para entender el espectro de luz visible, imaginemos un generador de radiaciones de diferente longitud de onda. A partir de la generación de radiaciones de longitud de onda de entre 7.500 y 7.000 Â, veríamos un color rojo oscuro que se iría aclarando progresivamente hasta que, al llegar a los 6.500 Â, se transformaría en color anaranjado. Continuando la generación de radiaciones, apreciaríamos que a una longitud de onda de aproximadamente 6.000 Â, el color anaranjado se volvería amarillo y adquiriría un máximo grado de pureza hasta convertirse en verde cuando la radiación fuera de una longitud de onda de unos 5.800 Â. De manera gradual, el verde cambiaría a cian, el cian a azul y, a partir de los 4.500 Â de longitud de onda, el azul se oscurecería gradualmente hasta convertirse en un violeta claro que dejaría de percibirse a una longitud de onda próxima a los 4.000 Â. A partir de entonces, entraríamos dentro del dominio de los rayos ultravioletas de una longitud de onda más pequeña y de una frecuencia mayor. Debe quedar claro que todos estos cambios en la coloración se producen de manera gradual y que resulta sumamente difícil establecer, con precisión, límites entre unos colores y otros.
Fijémonos en la exquisita sensibilidad del ojo humano para discriminar y reconocer como colores diferentes radiaciones electromagnéticas diferenciadas en menos de cincuenta nanómetros. El ojo reacciona a las variaciones más mínimas, hecho que contrasta con la incapacidad para distinguir otras radiaciones que se extiendan más allá del infrarrojo, por un lado, o del ultravioleta, por el otro.
El espectro visible
El espectro visible
Efectos del sol
El sol emite prácticamente todas las ondas que componen el espectro electromagnético y nuestro planeta recoge todas las radiaciones emitidas por el astro. Ya hemos hablado sobre cuáles son los efectos que ejercen sobre la vida las radiaciones según la longitud de onda (beneficiosas o inocuas las largas y perjudiciales o mortales las cortas). Pues bien, aunque la práctica totalidad de las ondas electromagnéticas llega a nuestro planeta, no todas las radiaciones atraviesan la atmósfera, que se comporta como un verdadero filtro que impide el paso de las radiaciones de onda corta. Los rayos cósmicos, los rayos gamma, los rayos X y una parte importante de los rayos ultravioleta son absorbidos por la atmósfera, que transforma esta absorción en calor. Si no fuera así, estas radiaciones provocarían la destrucción de los tejidos y harían inhabitable la vida en la Tierra. Las radiaciones que componen el espectro visible también se ven afectadas por este fenómeno. El azul y parte del verde, que son los colores con una longitud de onda más corta, no atraviesan la atmósfera intactos, sino que son reflejados en todas las direcciones. A esta dispersión contra las partículas de aire atmosférico, el cielo debe de su color azulado-cian característico (el cian proviene de la suma del verde y el azul).
La sensibilidad extrema del sistema visual nos permite distinguir como colores varias radiaciones electromagnéticas diferenciadas tan solo en unos cincuenta nanómetros de longitud de onda.

1.3.Los colores y sus características

Cualquier estudio de la teoría del color exige el conocimiento del comportamiento del ojo humano ante las radiaciones luminosas. Los sistemas audiovisuales electrónicos imitan, en cierta medida, este comportamiento.
El sistema óptico del ojo humano produce una imagen de la realidad reducida e invertida en la retina. A partir de esta imagen, los mecanismos perceptores de la visión transforman los estímulos luminosos en impulsos eléctricos, que se envían al cerebro y constituyen la información de lo que perciben los ojos.
Conos sensibles al color
Incluso cuando, como ya hemos mencionado, no existe una constatación científica precisa sobre el mecanismo de la visión humana, hay tres clases de conos sensibles al color: los que se excitan cuando reciben radiaciones luminosas de longitud de onda correspondiente a un rojo de aproximadamente 6.000 Â; los que son excitados y, por lo tanto, envían impulsos eléctricos al cerebro cuando reciben luz de color verde de unos 5.400 Â, y los que reaccionan a las radiaciones en torno a los 4.500 Â, que corresponde a la luz azul. Los colores excitan un tipo de conos u otros según su propio componente cromático. Así pues, un color magenta (compuesto de rojo y azul) excitaría dos tipos de conos, los sensibles al rojo y los sensibles al azul.
En la retina, hay dos tipos de células sensibles a la luz: los conos y los bastones. Cada uno de estos tipos de células cumple una misión diferente. Los bastones se ocupan de registrar la intensidad o la cantidad de luz, mientras que los conos son sensibles a diferentes longitudes de onda.
El estudio del comportamiento de la visión ha permitido asegurar la denominación de colores primarios o simples para los colores rojo, verde y azul en las longitudes de onda mencionadas antes. El ojo aprecia todos los demás colores según el grado de excitación de las tres clases de conos que hay.
Los colores primarios son el rojo, el verde y el azul.
1.3.1.Colores secundarios o compuestos
La totalidad de los colores del espectro visible se puede obtener a partir de la suma de los colores primarios. Sumar colores significa proyectar luces de color sobre una pantalla de forma que, en la superposición de los colores proyectados, se obtienen nuevas tonalidades. Los colores secundarios o compuestos se obtienen a partir de la suma de los colores primarios o simples tomados de dos en dos.
Hay tres posibilidades de suma y, por lo tanto, tres colores compuestos:
  • sumando verde y rojo obtenemos amarillo,

  • sumando rojo y azul obtenemos magenta,

  • sumando azul y verde obtenemos cian.

Por lo tanto, el amarillo, el magenta y el cian son los colores secundarios o compuestos.
Los colores secundarios no se pueden obtener de manera independiente, sino a partir de combinaciones de los colores primarios. Los colores compuestos excitan siempre, en la retina, dos tipos de conos.
La estrella de los colores
Los colores secundarios son el amarillo, el magenta y el cian.
1.3.2.Las cualidades del color
Los colores se analizan en términos de tono, brillo y saturación.
El tono es la sensación que nos produce un color, su matiz, el atributo que permite denominarlo como rojo, verde o cian, por ejemplo. Es la más vistosa de las características.
El brillo o luminosidad de un color es la cantidad de luz que el ojo percibe al verlo. Esta cualidad se apreciaría si fotografiáramos en blanco y negro el color observado. Entonces veríamos que hay colores muy luminosos que aparecerían muy claros en la copia y colores poco luminosos que aparecerían muy oscuros. En la figura, se expone una escala de brillo.
Escala de brillo
Escala de brillo
Un color es saturado o puro si no está mezclado con luz blanca. La saturación es el grado de pureza de un color. Un color verde, por ejemplo, puede ser verde intenso o verde pálido. En ambos casos, el brillo sería el correspondiente al verde. Desaturando al máximo, se perdería el tono y se convertiría en un gris.
1.3.3.Sistemas de obtención de colores
Hay dos técnicas básicas para obtener luces de cualquier color: el sistema aditivo y el sistema sustractivo.
El sistema aditivo consiste en la obtención de luces de color a partir de sumas (adiciones) de colores primarios. Recordemos que suma de colores quiere decir proyectar luces de color sobre una pantalla. Los colores protagonistas de este sistema son el rojo, el verde y el azul. El ojo humano actúa de manera similar porque, como ya hemos dicho, analiza el cromatismo de las escenas en términos de rojo, verde y azul. La televisión en color, como veremos más adelante, también hace uso del procedimiento aditivo al analizar y reproducir los colores tomando como base los colores primarios.
El sistema sustractivo consiste en la obtención de luces de cualquier color por el procedimiento de restar (sustraer) componentes cromáticos a la luz blanca (no olvidemos que la luz blanca está compuesta por rojo, verde y azul). Este sistema utiliza filtros que interfieren el paso de la luz blanca y se usan, exclusivamente, los colores secundarios o compuestos: amarillo, magenta y cian. El uso de filtros de colores secundarios posibilita la superposición de filtros. Al superponer un filtro amarillo y un magenta puros solo lo traspasa el rojo. El color verde pasa por un filtro cian y un filtro amarillo superpuestos, por su parte el azul atraviesa la superposición de un filtro magenta y uno cian. Cualquier color del espectro visible se puede obtener interfiriendo el paso de la luz blanca con filtros de colores secundarios de diferentes gradaciones de densidad.
A pesar de las diferencias entre el sistema aditivo (que se usa en la televisión) y el sistema sustractivo (más utilizado en la toma de imagen con filtros y en la fotografía), con ambos sistemas se pueden obtener todos los colores posibles.
1.3.4.La representación de la imagen: el píxel
En los medios audiovisuales, las imágenes en general se perciben al final en una pantalla. Todos los medios técnicos de la captación y manipulación de la imagen se tendrían que poner al servicio de mantener siempre la máxima calidad. Mientras que en los monitores y las pantallas de televisión la calidad de imagen se asocia normalmente al número de líneas de resolución, en las pantallas de ordenador, receptores cada vez más frecuentes de programas audiovisuales, la unidad es el píxel. Un píxel es cada uno de los puntos de una pantalla del ordenador cuyo color se puede modificar de manera individual. El nombre proviene de la abreviatura de la expresión inglesa picture element (elemento de imagen). El número de píxeles dentro de una pantalla depende de la resolución de la tarjeta gráfica y del tipo de monitor que tenga el equipo informático. La resolución de una pantalla se describe con un número que indica el número de píxeles horizontales por el número de verticales. Los estándares más comunes son 640 × 480; 800 × 600; 1.024 × 768 y 1.280 × 1.024.
Un píxel presenta un grado de libertad adicional, que los informáticos denominan profundidad, que indica el número de bits de color que puede tener, o sea, la cantidad de información sobre el color que la tarjeta gráfica del ordenador hace llegar a cada píxel. Cuando la profundidad es de un bit (los valores posibles de un bit son únicamente cero y uno), la pantalla del ordenador solo puede ser monocroma. Con dos bits, se pueden conseguir cuatro colores (blanco, negro y dos tonos de grises); con cuatro bits, dieciséis colores y así sucesivamente.
Como se puede deducir del párrafo anterior, cuanta más resolución y profundidad tengamos, más calidad de imagen, pero nos exigirá una tarjeta gráfica con más memoria. La tabla siguiente sirve de ejemplo de las necesidades de memoria dependiente de estos dos parámetros (se ha optado por mostrar la memoria en cantidades que se encuentran en el mercado, es decir, configuraciones reales de memoria):
N.º de colores
Resolución
640 × 480
800 × 600
1.024 × 768
1.280 × 1.024
1.600 × 1.200

16

256 Kb

256 Kb

512 Kb

1.024 Kb

(1 Mb)

1 Mb

256

512 Kb

1 Mb

2.048 Kb

(2 Mb)

512 Kb

2 Mb

32.768

1 Mb

1 Mb

2 Mb

3.072 Kb

(3 Mb)

4.096 Kb

(4 Mb) >

65.536

1 Mb

1 Mb

2 Mb

3 Mb

4 Mb

16,7 × 106

1 Mb

2 Mb

3 Mb

4 Mb

6.144 Kb

(6 Mb) >

Cada uno de estos píxeles puede variar el color dentro de las capacidades de memoria de la tarjeta gráfica. Por ejemplo, una tarjeta que admita 640 × 480 × 256 colores requiere 300 Kb de memoria.
Cuando aumenta la resolución y el número de colores, también incrementa la necesidad de memoria de la tarjeta gráfica.

1.4.Cuestionario

Tras una lectura atenta del tema, responded al cuestionario siguiente. A continuación, contrastad vuestras respuestas con el contenido.
1. ¿Para qué sirven los sentidos?
2. ¿Cuáles son las células fotorreceptoras presentes en la retina?
3. ¿Dónde tiene lugar la fase de interpretación de la visión?
4. ¿Las ondas electromagnéticas se pueden desplazar en el vacío?
5. ¿Por qué es posible conocer la frecuencia de una onda electromagnética si conocemos la frecuencia?
6. A una longitud de onda larga le corresponde una frecuencia...
7. ¿Cuál es el valor de un angstrom?
8. ¿Cuántas oscilaciones por segundo se producen en una radiación de 10 MHz?
9. Ordenad de la frecuencia mayor a la menor los colores que componen el espectro visible.
10. ¿La atmósfera permite el paso en nuestro planeta de todas las radiaciones electromagnéticas?
11. ¿Cuál es la función de los bastones y de los conos en el sistema visual?
12. ¿Qué significa la expresión sumar colores?
13. ¿Cuál es el procedimiento de obtención de colores que más se usa en la televisión?
14. ¿Cómo afecta el aumento en la resolución y el incremento del número de colores en una pantalla respecto de la memoria de la tarjeta gráfica?

2.La percepción del sonido

2.1.La percepción del sonido. El sistema auditivo

La captación e interpretación que el ser humano hace de la realidad con los sentidos es posible gracias a la existencia dentro del individuo de unos 260 millones de células visuales que llegan al sistema nervioso central; 50.000 células están disponibles para la información auditiva y el resto de los sentidos dispone de un total aproximado de 80.000 células receptoras. La cantidad potencial de estímulos que recibe el cerebro es tan alta que en conjunto no los puede procesar.
El proceso perceptivo se lleva a cabo gracias a una selección de esta numerosa cantidad de estímulos sensoriales que, en su mayoría, se mantienen en un plano difuso, mientras que prestamos atención únicamente a los que, en un momento determinado, lo merecen.
En los medios audiovisuales, se conjugan básicamente aspectos de imagen y de sonido para componer programas cargados de objetivos comunicativos que se dirigirán a un público que dispone de elementos perceptivos visuales y auditivos para comprenderlos e interpretarlos. El conocimiento de los órganos encargados de la percepción, así como de los fenómenos físicos y fisiológicos que hacen posible la percepción y la transmisión de información, será tratado en este módulo para que su conocimiento represente una ventaja añadida para los creadores de productos y programas audiovisuales.
El conocimiento de los sistemas perceptivos del ser humano ayuda decisivamente a la construcción de mensajes audiovisuales.
La percepción del sonido se estructura en torno a dos grandes sistemas:
  • La oreja

  • El aparato fonador

Estructura de la oreja
El órgano auditivo se puede dividir en tres zonas muy diferenciadas:
La oreja humana
La oreja humana puede llegar a percibir variaciones de presión con frecuencias comprendidas entre los 1.620 Hz y los 20.000 Hz. No todas las orejas logran esta extensión, sobre todo hacia las frecuencias altas. A medida que la edad avanza, la sensibilidad auditiva decrece de forma considerable en dos sentidos: en la dificultad para apreciar vibraciones acústicas débiles y en la limitación del rango de frecuencias audibles.
El órgano auditivo tiene una característica muy peculiar, que es la de presentar un cierto aislamiento acústico en cuanto a los sonidos generados desde el interior del cuerpo humano, incluyendo la propia voz. Se tiene que destacar que el órgano auditivo capta la energía acústica por dos vías. Una es la vía aérea, descrita antes, y la otra es la transmisión de la vibración por los huesos del cráneo que, a pesar de tener menos incidencia, no se pueden despreciar en algunos casos patológicos. También hay que destacar el carácter biaural (dos orejas) de la audición, que es el que nos permite conocer la ubicación de la fuente sonora, tanto en el plano vertical como en el horizontal.
La oreja humana no es capaz de detectar el volumen de todos los sonidos con la misma facilidad: es más sensible a los cambios de volumen en la gama media y alta de frecuencias que en las frecuencias graves. Esta particularidad queda muy reflejada en las curvas de sonoridad (Fletcher-Munson). Estas curvas representan los niveles necesarios para obtener la misma sensación sonora a lo largo de todas las frecuencias. La curva inferior corresponde al llamado umbral de audición y la curva superior corresponde al umbral del dolor. Si bien estas curvas se construyeron haciendo mediciones sobre una población bastante representativa, hay que decir que no es habitual que nuestra audición particular (reflejada en las mediciones o audiometrías) siga exactamente estas trayectorias. Lo que sí es cierto es que se aproximarán de manera notable y tendrán un cierto parecido. El comportamiento auditivo de los seres humanos va variando a lo largo del tiempo, de forma que cada vez nos adaptamos al ambiente que nos rodea. Las discotecas, el tráfico rodado o las aglomeraciones han sido una de las causas de pérdida de agudeza auditiva de muchas personas.
Curvas isofónicas
Curvas isofónicas
El aparato fonador
La voz es una energía modulada que se sirve de los músculos pulmonares para empujar el aire hacia la cavidad bucal.
El aire proveniente de los pulmones pasa por la laringe y atraviesa las cuerdas vocales, constituidas por una membrana con dos bandas que dejan una apertura en el centro. Cuando esta membrana se abre, se cierra y vibra, produce una modulación en velocidad y presión del aire que la atraviesa y da la frecuencia fundamental del sonido emitido.
Tras pasar por las cuerdas vocales, la onda de sonido pasa por una serie de cavidades resonantes como el cuello, la nariz y la boca, que modifican y forman el sonido emitido.
Aparte de estas cavidades, tenemos otros órganos que modifican el sonido y que, además, podemos controlar a voluntad. Son la lengua y los labios. En efecto, modificando su posición podemos configurar los diferentes sonidos.
Sin embargo, hay una serie de sonidos que se producen sin la intervención de las cuerdas vocales (f, s, p, t, k). Se generan por la modulación del aire en la lengua, los dientes y los labios. Estos sonidos tienen un espectro de frecuencias que cubre la zona superior de la banda audible.
El aparato fonador
El aparato fonador
Cada una de las partes constituyentes de la oreja (externa, media e interna) cumple funciones específicas de recepción, transmisión e interpretación que integran finalmente el sistema auditivo humano.
Nuestra voz es una energía codificada: aire generado en los pulmones, modulado en las cuerdas vocales y afectado por cavidades resonantes y por otros órganos modificadores del sonido.

2.2.El sonido y sus características

El sonido se puede definir como la sensación causada en la oreja humana por el movimiento vibratorio de los cuerpos transmitido por los medios elásticos que lo propagan. Para su estudio, se puede considerar una doble vertiente: el sonido entendido como fenómeno físico o como fenómeno fisiológico. Para un físico, el sonido no es más que el resultado de la propagación de una energía vibratoria por un medio elástico. Desde la perspectiva fisiológica, se trata de una sensación desencadenada en el sistema receptor humano por el nervio acústico debido a la recepción y propagación de la energía acústica.
El sonido como fenómeno físico
Para que se produzca un sonido, es necesario que haya un choque o una compresión que haga vibrar las moléculas de forma que esta vibración (según la elasticidad del medio propagador), se transmita a las moléculas vecinas que, sucesivamente, propagarán la vibración, es decir, el sonido. Según la potencia y la frecuencia de la vibración, la oreja humana media experimenta una sensación sonora.
El aire es un medio isótropo, es decir, presenta propiedades iguales en todas direcciones y sus moléculas se mantienen en equilibrio hasta que no experimentan perturbaciones. Cuando se ejerce presión sobre una molécula de aire, esta molécula empujará a las de alrededor y así sucesivamente, de este modo la perturbación de la primera molécula se propagará a todas las demás hasta que, de manera natural, se extinga el movimiento.
Para explicar la propagación del sonido sirve (como en las ondas electromagnéticas) el símil de la piedra lanzada al estanque. El comportamiento en cuanto a longitud de onda y frecuencia de las ondas sonoras es el mismo que el de las ondas electromagnéticas. Veamos, a continuación, las diferencias entre las ondas electromagnéticas y las ondas sonoras.
m1_07.gif
Mientras que las ondas electromagnéticas están formadas por componentes eléctricos y magnéticos, y su generación solo se puede llevar a cabo con sistemas de naturaleza esencialmente eléctrica, las ondas sonoras se basan en la vibración transmitida de moléculas y su generación es eminentemente mecánica.
Ante la elevada velocidad del desplazamiento de las ondas electromagnéticas (300.000 km por segundo en el vacío), las ondas sonoras se desplazan a velocidades muy inferiores, y varían la velocidad, como las ondas electromagnéticas, según las características del medio de propagación. Así pues, en el aire las ondas sonoras se propagan a una velocidad media de 340 m/s, mientras que en el agua del mar la velocidad de propagación es de unos 1.504 m/s.
Debido a su naturaleza mecánica (vibración de moléculas), el sonido no se puede propagar en el vacío, ya que no hay moléculas que transmitan la vibración. Esta es una característica diferencial fundamental respecto de las ondas electromagnéticas.
2.2.1.Intensidad, tono y timbre
Se trata de tres características básicas de los sonidos.
La intensidad da idea de la cantidad de energía acústica que contiene un sonido. Las vibraciones de amplitud más grandes producen presiones y depresiones más elevadas sobre la membrana timpánica de la oreja, por eso la sensación sonora es de una intensidad mayor.
El oído humano no responde de manera lineal a los estímulos sonoros, sino de manera logarítmica. Con esto queremos decir que percibimos con más claridad las variaciones de presión sonora y de intensidad cuando esta es baja que cuando es alta. Por este motivo, la unidad más extendida para medir el nivel sonoro es una unidad relativa que tiene en cuenta este comportamiento subjetivo del oído. Se trata del decibelio (dB).
dB
 

140

Batería a 3 centímetros

130

Cerca de un reactor elevándose

120

Amplificador de guitarra a 30 centímetros

110

Umbral del dolor

100

Cantante a volumen alto

90

Cerca de un martillo neumático

80

Guitarra acústica tocada con una púa a 40 centímetros

70

Guitarra acústica tocada con los dedos a 40 centímetros

60

Ambiente de oficina

50

Conversación normal a un metro

40

Ruido de fondo en una habitación

30

Ruido de fondo en un paraje tranquilo

20

Sonido ambiente en un estudio de grabación

10

Ruido en el interior de una cámara

0

Umbral de audición

En cuanto a la intensidad sonora, conviene aclarar dos conceptos:
  • Umbral de audición: es el mínimo de intensidad necesaria para que el sonido sea percibido por la oreja humana. Este valor varía según la frecuencia del sonido y su valor se sitúa a 0 decibelios.

  • Umbral de intensidad dolorosa: hace referencia a la potencia a partir de la cual el sonido produce una sensación de dolor en la oreja. Su persistencia puede producir audiotraumas de carácter irreversible. Tiene un valor medio que se sitúa en torno a los 130 decibelios y puede variar según la frecuencia de la onda sonora.

La sensación sonora no depende solo de la intensidad sino también de la frecuencia (somos más sensibles a unas frecuencias que a otras). La unidad de medida más conocida, el decibelio, no tiene en cuenta esta característica, así, para poder comparar las sensaciones de dos sonidos de diversa intensidad y frecuencia, se define el fono: un sonido tiene una sonoridad de un fono cuando la sensación que produce es la misma que la producida por un sonido de 1 dB a 1.000 Hz. El rango de audición medio se encuentra entre 0 fonos y 120 fonos. Por encima de este nivel, la audición es dolorosa.
A continuación, se dan ejemplos de sonoridad en todo el rango:

Sensación umbral

0 fonos

Conversación en voz baja

20 fonos

Radio a volumen medio

40 fonos

Conversación en voz alta

60 fonos

Martillo neumático

95 fonos

Avión despegando

100-120 fonos

Vibraciones de igual longitud de onda y frecuencia, pero con distinta amplitud
Vibraciones de igual longitud de onda y frecuencia, pero con distinta amplitud
El tono es la calidad de los sonidos que permite distinguirlos entre agudos y graves. El tono está determinado por la frecuencia.
De forma experimental (ved el ejemplo anterior), se desprende que la gama de frecuencias audibles se extiende entre los 1.620 Hz y los 20.000 Hz, donde se comprenden los registros graves, medios y agudos, es decir, los tonos. Fuera de estas frecuencias (infrasonidos o ultrasonidos) no hay reacción auditiva humana. Los tonos agudos (longitud de onda pequeña) son muy direccionales, puesto que corresponden a las vibraciones más rápidas de las moléculas y proyectan una sombra que es una zona donde el sonido no penetra, mientras que los tonos graves (longitud de onda larga) corresponden a las vibraciones más lentas y tienden a rodear los obstáculos.
La gama completa de sonidos se compone de algo más de diez octavas y, por octava, se entiende un intervalo donde las frecuencias fundamentales están en la relación 2:1.
El timbre es la calidad que caracteriza de manera particular la fuente sonora. Es la característica del sonido que hace que, por ejemplo, los instrumentos musicales que interpretan una misma nota (una misma frecuencia) produzcan una impresión diferente en la oreja.
El timbre está determinado por el número y la intensidad de los armónicos que acompañan a un sonido fundamental y es peculiar para cada fuente sonora. Los armónicos de una frecuencia fundamental (que tiene siempre la máxima amplitud o potencia acústica) son las ondas que acompañan a esta frecuencia (con menos intensidad) y son siempre múltiples de la fundamental; en el caso de que no fueran múltiples enteros, los sonidos serían ruidos (vibraciones aperiódicas).
Lo que permite la distinción de un instrumento respecto a otro es la riqueza de armónicos, tanto en cuanto a la amplitud como al número.
No hay sonido puro, desprovisto de armónicos. Todos los sonidos van acompañados de estos armónicos, que son los que dan características diferentes a los sonidos emitidos por las diversas fuentes sonoras.
2.2.2.Fenómenos de propagación de las ondas sonoras
Las ondas sonoras, por su característica oscilatoria, se ven afectadas por ciertos fenómenos a lo largo de su propagación. El más importante de ellos es el fenómeno de la reflexión. Cuando una onda sonora incide sobre una superficie, es reflejada, es decir, devuelta hacia otro lugar. El ángulo de reflexión es igual al ángulo de incidencia. Si la onda sonora incide perpendicularmente en la superficie, la onda reflejada vuelve sobre el mismo camino. La reflexión sonora es un fenómeno de gran importancia para entender la propagación del sonido en espacios cerrados como teatros y salas de cine.
Reflexión
Reflexión
Otros fenómenos de propagación del sonido son los siguientes:
  • la refracción

  • la difracción

La refracción
La refracción de los sonidos está regulada por las leyes de Svell. El fenómeno consiste en el hecho de que, cuando una onda sonora pasa de un medio donde se propaga con una determinada velocidad a otro, se produce un cambio en la dirección de propagación de la onda sonora. La ley de Svell se traduce en la relación siguiente:
m1_09.gif
Refracción
Refracción
La difracción
La difracción sonora es una propiedad que permite al sonido rodear obstáculos y propagarse por el ambiente a través de un orificio. Se basa en el principio de Huygens, que afirma que, en la propagación de todo movimiento vibratorio, cada punto de un frente de ondas genera una nueva onda y el envoltorio de todas las ondas secundarias constituye un nuevo frente de ondas.
Los diferentes frentes de onda se convierten en centros emisores en los puntos que resultan interceptados por el obstáculo y, por lo tanto, se ciñen al obstáculo y lo envuelven, por lo que generan nuevos frentes de onda.
La difracción también tiene lugar cuando una onda sonora tropieza con un obstáculo que se interpone en su trayectoria. Entonces, la onda rodea al objeto. Las frecuencias bajas rodean los obstáculos con más facilidad que las frecuencias altas.
Difracción
Difracción
2.2.3.Estereofonía
La oreja puede localizar la dirección de una fuente sonora. Esto es posible gracias a las diferencias de percepción de cada oreja, ya que el sonido, al propagarse, pierde intensidad. Además, cada oreja capta varias fases del sonido. Los pabellones auriculares son como antenas direccionales que captan mejor los sonidos procedentes de la parte anterior del oyente que los de la parte posterior.
La diferencia de fase respecto de la captación del sonido por la oreja está relacionada con la longitud de onda del sonido y con la distancia entre las dos orejas (separadas unos 15 cm). Las longitudes de onda de los sonidos audibles se extienden desde unos 17 mm hasta unos 17 m (de 20.000 Hz a 20 Hz), por eso los sonidos que tengan una longitud de onda sensiblemente inferior a la distancia de separación entre las dos orejas se percibirán con notables diferencias de fase y proporcionarán, de este modo, información sobre la procedencia del sonido.
Como a las bajas frecuencias les corresponden longitudes de onda largas, la diferencia de fase apenas influye en la recepción de los sonidos. Por esta razón, es difícil localizar la procedencia de un sonido grave. Los sonidos agudos, de alta frecuencia, son fácilmente localizables, puesto que para tener una longitud de onda menor llegarán a los oídos con diferencias de fase bastante apreciables.
El registro del sonido es, en esencia, monofónico o estereofónico (también puede ser tetrafónico o cuadrafónico). Es monofónico cuando es captado solo por un micrófono, cosa que es asimilable a la escucha por un solo oído. La estereofonía requiere la captación del sonido por dos micrófonos que representan las dos orejas del ser humano. Esta separación se tiene que mantener durante todo el proceso hasta llegar a la reproducción por altavoces independientes.
Respecto de la monofonía, la estereofonía añade un plus de realismo a la percepción de un sonido reproducido por cualquier fuente sonora.
2.2.4.Eco y reverberación
El eco es una consecuencia de la reflexión del sonido. La oreja humana tiene una persistencia acústica (memoria auditiva) que oscila entre 1/15 s para los sonidos secos y 1/10 s para los sonidos musicales o pastosos. Pues bien, si se capta un sonido directo y seguidamente es reflejado, apreciaremos el efecto eco cuando el tiempo entre directo y reflejado sea superior al tiempo de persistencia, puesto que, cuando percibimos el sonido reflejado, el sonido directo ya se habrá extinguido.
Si tomamos la velocidad del sonido como de 340 m/s, para que no se produzca eco la diferencia límite de camino recorrido por el sonido directo y el reflejado tiene que ser la siguiente:
340/15 = 22 metros para sonidos secos
340/10 = 43 metros para sonidos musicales
Si la distancia entre sonido directo y sonido reflejado es superior a estas, hay eco.
Al contrario, si la distancia es más pequeña que estas, el sonido reflejado se oirá dentro del tiempo de persistencia y se superpondrán las dos audiciones, cosa que se traducirá en un tipo de prolongación del sonido. En este caso, se dice que hay reverberación.
Una de las características de todos los locales es el llamado tiempo de reverberación. Este tiempo y su ajuste es una de las tareas más complejas a las que se enfrenta un técnico a la hora de acondicionar acústicamente una sala. Se define el tiempo de reverberación como el tiempo que tiene que pasar para que la intensidad del sonido se vea reducida a una millonésima de la intensidad inicial, es decir, el tiempo que el sonido tarda en atenuarse 60 dB. Hay numerosas fórmulas para determinarlo y cada una es aplicable a casos concretos y según el nivel de exactitud que requiera el cálculo.
La acústica de las salas estudia el comportamiento del sonido en la propagación por un determinado recinto. Normalmente, se persigue la optimización del rendimiento sonoro.

2.3.Cuestionario

Tras una lectura atenta del tema, responded al cuestionario siguiente. A continuación, contrastad vuestras respuestas con el contenido.
1. ¿Cuál es la función de la oreja externa?
2. ¿Qué fenómeno explica la capacidad del ser humano para distinguir timbres diferentes?
3. ¿Cuál es el rango de frecuencias al que es sensible la oreja humana?
4. ¿Cuáles son los sonidos que se producen sin la intervención de las cuerdas vocales?
5. ¿Qué quiere decir que el aire es un medio isótropo?
6. ¿Las ondas sonoras se pueden desplazar en el vacío?
7. ¿Qué diferencia existe entre un tono grave y uno agudo?
8. ¿Qué calidad del sonido caracteriza de manera particular la fuente emisora?
9. ¿Cuál es la velocidad de propagación del sonido en el aire?
10. ¿De cuántas octavas consta la gama completa de sonidos?
11. ¿Existe un sonido puro, desprovisto de armónicos?
12. El ángulo de reflexión de una onda sonora es igual al ángulo de...
13. Si una onda sonora tropieza con un obstáculo, se produce un fenómeno de...
14. ¿Qué proporciona una sensación mayor de realismo: la monofonía o la estereofonía? ¿Por qué?
15. ¿Qué diferencia existe entre el eco y la reverberación?

3.Principios tecnológicos de la televisión

3.1.Fundamentos de la televisión

La televisión y el cine crean la ilusión de movimiento al presentar ante el ojo una sucesión rápida de imágenes. En el caso de la televisión, distinguimos las imágenes porque el ojo es incapaz de apreciar el movimiento a gran velocidad de un punto brillante sobre la superficie de una pantalla. Esta ilusión es posible gracias a la persistencia de la visión, que hace que el ojo no aprecie el desplazamiento del punto sino que vea simplemente imágenes completas. Cuando el ojo mira un punto que se mueve rápidamente, este fenómeno hace que la imagen persista en el cerebro una fracción de segundo después de que el punto ya se haya desplazado a otro lugar.
La persistencia de la visión, también llamada persistencia en la retina, es el tiempo que el cerebro tarda en eliminar la información suministrada por la retina. Aun así, hay unos límites dentro de los cuales el ojo aprecia este engaño, lo que se traduce en un pestañeo de la imagen que se percibe. El ojo aprecia las imágenes formadas por un punto brillante con sensación de continuidad cuando la frecuencia con la que se repiten las imágenes completas es de aproximadamente dieciséis veces por segundo (16 hercios). A esta frecuencia, el pestañeo al que hacíamos referencia es notorio y desaparece por completo en la frecuencia de repetición de unos 48 hercios.
La persistencia de la visión es el fundamento fisiológico que posibilita la existencia de la televisión. Las imágenes, en este medio excepcional, están formadas por el desplazamiento zigzagueante, de izquierda a derecha y de arriba abajo, de un punto que las forma, tanto en la cámara como en el televisor.
Gracias al fenómeno fisiológico de la persistencia de la visión, el ojo es capaz de percibir como imágenes completas a las formadas, en realidad, por un punto luminoso que se desplaza a gran velocidad.
3.1.1.Descripción básica del sistema
La televisión es la transmisión y recepción a distancia de imágenes en movimiento. El sistema se fundamenta en el fenómeno fotoeléctrico, que permite transformar las radiaciones luminosas en corriente eléctrica. A partir de esa transformación, se hace posible la codificación y el transporte de la señal hasta un receptor, donde tiene lugar la descodificación y nueva transformación de la corriente eléctrica en imagen visible.
Esquema básico
Esquema básico
Transformación de la luz
La transformación de la luz en energía eléctrica es posible gracias a la existencia de sustancias como el cesio, el litio, el selenio y otros que se caracterizan por desprender electrones en cantidad proporcional a la luz que reciben. Son las sustancias base de las llamadas células fotoeléctricas. Se producen, principalmente, dos tipos de reacciones a la luz por parte de estos materiales fotosensibles: la generación de una tensión eléctrica o la variación de la resistencia de un circuito previo (esto presupone la existencia de una fuente de alimentación eléctrica), todo esto según la intensidad luminosa que reciben.
Un sistema típico de televisión empieza por la imagen óptica de la escena encuadrada, que es captada por el objetivo de la cámara y que se proyecta contra un mosaico fotosensible. Este desprende electrones de forma proporcional a la intensidad de luz recibida. La imagen óptica, constituida por pequeñas áreas de luz y de sombra o elementos de imagen, tendrá su correspondencia en centenares de miles de cargas eléctricas muy pequeñas con un valor que se corresponderá con la luminosidad de la imagen. La definición final será mayor cuanto más diminutos y numerosos sean estos elementos que forman la imagen.
A partir de la imagen proyectada sobre el mosaico fotosensible tiene lugar, en el tubo de cámara, la transformación de la imagen en impulsos eléctricos mediante la exploración de un haz de electrones proveniente del cañón de electrones.
Desde el cañón de electrones se lanza un rayo de electrones contra cada uno de los diminutos elementos de imagen que componen la cara posterior del mosaico fotosensible. El movimiento del haz es ordenado y repetitivo, y lee, en forma de líneas, de izquierda a derecha y de arriba abajo.
De este modo, las intensidades luminosas de la imagen óptica transformadas en diferencias de valores eléctricos son analizadas, punto por punto, y se da una transformación en impulsos eléctricos que seguirán el camino marcado en la figura anterior hasta su descodificación en el televisor doméstico.
La base principal de la televisión ha sido y es la posibilidad de transformar la luz en energía eléctrica.
3.1.2.Exploración entrelazada
El proceso de exploración y análisis de los elementos de imagen presentes en el mosaico fotosensible se lleva a cabo en los tubos de cámara de la manera siguiente: un haz electrónico proveniente del cañón de electrones barre los elementos de imagen siguiendo un orden de izquierda a derecha y de arriba abajo, tal como se leen las páginas de un libro. Cuando el haz acaba la exploración de una línea, vuelve rápidamente a la siguiente hasta completar todas las líneas de una imagen. Una vez ha acabado de leer la última línea, vuelve de abajo hacia arriba para volver a empezar en la primera línea. Este es el principio de la exploración sucesiva.
Al hablar del fenómeno de la persistencia de la visión, vimos que la sensación de pestañeo de las imágenes sucesivas desaparecía a partir de unas 48 imágenes por segundo (por lo tanto, a una frecuencia de repetición de 48 Hz).
En el caso del cine, esto se consigue exponiendo cada imagen completa dos veces. En el de la televisión, las cosas son ligeramente diferentes. Al hacer una exploración sucesiva de la imagen, descomponiéndola en líneas, aparecen una serie de limitaciones físicas que impiden que la velocidad con la que se lleva a cabo esta exploración sea bastante elevada para leer una imagen completa al ritmo necesario para que se pueda apreciar la imagen resultante sin pestañeo. Por ejemplo, los sistemas de televisión europeos pueden mostrar 25 imágenes completas por segundo y explorar un número de líneas limitado, concretamente 625, que proporcionan una definición de calidad aceptable. Entonces, ¿cómo se consigue evitar el pestañeo? La solución es simple, pero ingeniosa. En lugar de explorar de una vez la imagen completa, se explora una semiimagen. Para entender este proceso, partimos de la idea de numerar cada línea de exploración de la 1 hasta la 625. Si se explorara la imagen completa (que ya sabemos que no se puede hacer a la frecuencia de repetición necesaria), leeríamos primero la 1, a continuación la 2 y así sucesivamente. Lo que en realidad se hace es explorar la imagen en dos partes, primero las líneas impares (se crea una primera semiimagen) y a continuación las pares (segunda semiimagen). El efecto final es como si viéramos cincuenta imágenes por segundo, aunque realmente vemos cincuenta semiimágeness por segundo y solo veinticinco imágenes por segundo. La pérdida de calidad es mínima y el efecto de pestañeo desaparece. Esta técnica de exploración recibe el nombre de exploración entrelazada. En el entorno de la tecnología audiovisual, la imagen completa se denomina cuadro (en inglés frame) y la semiimagen recibe el nombre de campo (en inglés field).
Elementos de un sistema de televisión
Todos los elementos que forman un sistema de televisión tienen que estar perfectamente sincronizados entre sí para que haya una correspondencia exacta en el tiempo entre lo que capta la cámara y lo que reproduce el tubo del televisor. Esta correspondencia se obtiene gracias a la incorporación a la señal de vídeo de una serie de sincronismos. Básicamente, existen cinco tipos de sincronismos.
La lectura de una línea empieza generando previamente un impulso de sincronismo horizontal que marca el inicio de lectura de cada línea horizontal. Cuando se acaba de leer un campo (312,5 líneas en la norma CCIR, Comité Consultivo Internacional de Radiocomunicaciones) actúan unos impulsos de sincronismo ecualizadores o igualadores, cuya misión es homogeneizar las condiciones que preceden y siguen los impulsos de sincronismo vertical para lograr una perfección en el entrelazado.
Los impulsos de sincronismo vertical marcan el comienzo de cada periodo de exploración vertical y también se denominan impulsos de campo, por el hecho de que ordenan el comienzo de cada semicuadro. Todavía quedan dos tipos de impulsos: los de borrado horizontal y los de borrado vertical, que tienen la misión de hacer desaparecer la imagen de retorno de una línea a la siguiente y de un campo al siguiente, respectivamente, con lo que se evita la transmisión de este retorno que aparecería como señal espuria en la recepción.

Impulsos de sincronismo horizontal

Marcan el comienzo de cada línea.

Impulsos de sincronismo vertical

Marcan el comienzo de cada campo.

Impulsos de borrado horizontal

Extinguen el haz en el retorno de final de línea hasta el comienzo de una nueva línea.

Impulsos de borrado vertical

Extinguen el haz en el regreso de final de campo hasta el comienzo de un nuevo campo.

Impulsos de ecualización

Homogeneizan las condiciones que preceden y siguen la generación de impulsos de sincronismo vertical.

Los impulsos de sincronismo son generados por complejos circuitos relacionados con la frecuencia de la red eléctrica (50 Hz en Europa, 60 Hz en América). La coincidencia entre la frecuencia de la red y la frecuencia de campo facilita el control del oscilador local que incorpora cada receptor de televisión (base de la generación de frecuencias necesaria para la descodificación de la señal). La frecuencia de línea es de 15.625 Hz en los sistemas de 625 líneas (625 líneas × 25 cuadros por segundo). La frecuencia de campo es de 50 Hz (50 campos en un segundo).
En los sistemas de televisión, la imagen se explora descomponiéndola en líneas. Cuantas más líneas, más definición. Para evitar el pestañeo de la señal de televisión, se hace una exploración entrelazada, de forma que se leen cincuenta campos (semiimágenes) por segundo, es decir, veinticinco cuadros (imágenes completas) por segundo.
Entrelazado
Entrelazado
¿Por qué en televisión se ha adoptado una frecuencia de repetición de 50 Hz cuando en el cine es de 48?
La razón es sobre todo práctica. La señal proporcionada por la red eléctrica europea tiene una frecuencia de 50 Hz, que es una buena referencia para generar los impulsos de sincronismo necesarios en el proceso de descodificación de la señal de televisión. En el caso estadounidense, la red eléctrica tiene otra frecuencia, 60 Hz, y esta es otra de las razones por las que los sistemas PAL y NTSC son tan diferentes, puesto que, en el caso del NTSC, se exploran treinta cuadros por segundo y sesenta campos por segundo, que vuelve a estar en sintonía con la frecuencia de la red eléctrica.
Nota
Entre quienes se introducen en el medio televisivo surge, a menudo, la duda sobre por qué hay que entrelazar las líneas de dos campos sucesivos para obtener una imagen completa cuando se podría conseguir, con todas las líneas, a partir de un solo barrido, doblando, simplemente, la frecuencia. ¿Por qué se tiene que recurrir a la exploración entrelazada y leer primero las líneas impares y luego las líneas pares de los elementos de imagen? La respuesta es que cualquier aumento en la velocidad de deflexión horizontal exige un aumento en el ancho de banda, así como más complejidad en los circuitos del sistema. El espacio de radiofrecuencia es limitado y cualquier cambio que aumente el ancho de banda suele ser rechazado. Además, hay que recordar que la televisión del presente está establecida sobre los principios tecnológicos de la década de 1940. En aquellos momentos, fue todo un éxito la consecución del sistema con las frecuencias en las que se trabaja. Es lógico, y así sucede con la televisión de alta definición, que una televisión diseñada con las tecnologías actuales aumente la frecuencia de análisis y mejore, ostensiblemente, la definición.
En definitiva, aprovechamos la frecuencia de la red eléctrica para tomarla como referencia a cambio de acelerar un poco el paso de imágenes en el televisor. Una consecuencia curiosa es que las películas proyectadas originalmente en las salas a veinticuatro imágenes por segundo se pasan por televisión a veinticinco cuadros por segundo, con lo que las vemos ligeramente más rápidas. A pesar de que no podemos percibir esta diferencia, las películas exhibidas en televisión duran menos (en concreto un 4% menos).
Un cuadro de televisión es el resultado de la exploración completa de todos los elementos de imagen que componen el mosaico fotosensible sobre el que se enfoca la escena. Por lo tanto, es la imagen completa que resulta de la exploración de todas las líneas pares e impares. La frecuencia de repetición de cuadro es de 25 Hz y tiene lugar en 1/25 segundo (norma CCIR).
Un campo es cada una de las dos exploraciones parciales (tanto si son líneas impares como líneas pares) que componen un cuadro. Cada campo consta de la mitad de líneas de un cuadro (312,5 líneas en los sistemas de 625 líneas). Dos campos constituyen un cuadro. La frecuencia de repetición de campo es de 50 Hz y tiene lugar en 1/50 segundos (norma CCIR).
Gracias a la exploración entrelazada, se pueden transmitir veinticinco cuadros completos por cada segundo. Se elimina el pestañeo y, a la vez, se mantiene un ancho de banda compatible con el espacio de radiofrecuencia disponible para la transmisión y el tratamiento de la señal de vídeo.
3.1.3.La señal de televisión en blanco y negro
El tubo de cámara o el que se usa más en la actualidad, el CCD, obtiene unos valores de tensión que se corresponden con los valores de luminosidad de la escena original. Estos valores de tensión son producto de la transformación de la luz en energía eléctrica y para su transmisión se codifican conjuntamente con los impulsos de sincronismo y los impulsos de borrado a los que nos hemos referido antes.
Señal de vídeo
La señal de vídeo procedente de la cámara está afectada por la llamada corrección gamma, que tiene por objeto proporcionar linealidad y amplificar la señal. Tras esta corrección, la señal se dirige a un separador de mezcla que la inhibe durante los periodos de sincronización. Después, se añaden los impulsos de sincronismo en el mezclador de sincronismos. Finalmente, la señal recibe suficiente amplificación para lograr el nivel requerido por el modulador de vídeo del transmisor, que modula la información televisada y la deja lista para emitirla por la antena transmisora.
La señal de televisión en blanco y negro está compuesto por la luminancia, los impulsos de sincronismo y los impulsos de borrado.
3.1.4.Tratamiento del sonido
A pesar de que no hay diferencias sustanciales entre la captación y transmisión del sonido en televisión y en radio, vamos a destacar ciertas diferencias entre las señales de vídeo y de audio.
La cámara de televisión y el micrófono utilizan técnicas radicalmente diferentes, a pesar de que la salida de los dos se mida en valores de tensión eléctrica.
El margen de frecuencias que comprende el sonido es muy inferior al que necesita la señal de vídeo. Mientras que la señal acústica incluye las frecuencias que van desde los 15 Hz hasta los 15.000 o 20.000 Hz (15 o 20 kHz), la señal de televisión comprende frecuencias que se extienden entre unos cuantos hercios y cuatro o cinco millones de hercios (4 o 5 MHz). Los circuitos electrónicos necesarios son muy diferentes.
Las señales de vídeo y de audio son radiadas por varias emisoras. La transmisión del sonido se lleva a cabo en una portadora totalmente separada de la portadora de vídeo. Las portadoras se generan y se modulan en transmisores independientes.
Finalmente, las señales de audio y de vídeo son captadas por la antena receptora, pero los circuitos del televisor separan las dos señales y, a partir de entonces, siguen tratamientos y caminos independientes y diferentes.
La señal de audio ocupa un ancho de banda muy inferior a la señal de vídeo en un canal de televisión. Por lo tanto, tiene un tratamiento más sencillo.

3.2.La televisión en color

La historia de la televisión de base electrónica empieza, en la década de 1930, con transmisiones en blanco y negro, hasta que en 1953 se introduce la televisión en color en los Estados Unidos. A partir de esa fecha, la televisión en color empezó a expandirse, siempre compartiendo su existencia con la televisión en blanco y negro. Desde sus orígenes, la televisión en color nació con un condicionante: la compatibilidad.
La emisión de un programa de televisión en color tiene que asegurar la recepción por los televisores en blanco y negro. Las cadenas de televisión emiten, además, programas tanto en color como en blanco y negro, y estos últimos deben poder ser descodificados por los receptores en color.
La exigencia de la compatibilidad hizo que los sistemas de televisión en color tuvieran que tomar necesariamente como base la transmisión en blanco y negro. La información de color (crominancia) se tiene que transmitir de forma que los receptores de color la puedan descodificar, a pesar de que, obviamente, los receptores monocromos no puedan hacer lo mismo, por la carencia de circuitos para tratar la crominancia.
Las cámaras de color usan el sistema aditivo de color para el análisis de las escenas. Por lo tanto, toman como referencia los colores rojo, verde y azul. En la descodificación en el receptor también se usa este sistema.
A continuación, vamos a describir los elementos constitutivos de una cámara profesional de tres tubos o CCD. La luz que procede de la escena atraviesa el objetivo y, tras unos filtrados, es enfocada en la superficie fotosensible de cada uno de los tres tubos o CCD, correspondientes, cada uno, a uno de los colores primarios, rojo, verde y azul.
En el interior de la cámara, se alojan los dispositivos que descomponen la luz de la escena en los colores primarios. Esta descomposición es posible gracias a la interposición en el trayecto de los rayos luminosos de unos espejos o prismas dicroicos, que tienen la particularidad de reflejar uno de los colores primarios mientras que dejan pasar los otros dos.
Cámara de color
Cámara de color
En la escena enfocada por el sistema óptico se interpone, en primer lugar, un espejo dicroico que refleja la luz azul y deja pasar los componentes verde y rojo de la escena. El componente azul es reflejado hacia el tubo o CCD que analizará el azul. En la trayectoria de la luz verde y roja que ha atravesado el primer espejo se interpone otro espejo dicroico que, en este caso, refleja el rojo y lo envía hacia el tubo o CCD que analizará este color, mientras que permite el paso del componente verde de la escena, que irá directamente al tubo o CCD encargado de analizar la luz verde. Antes de que cada componente cromático incida sobre el tubo o CCD correspondiente, se hace un filtrado de purificación del color mediante filtros que se corresponden con el color que analiza cada tubo. Finalmente, el haz de luz se concentra en el tubo o CCD y, antes, pasa por una lente convergente.
Para que la compatibilidad sea posible y los receptores monocromos puedan reproducir en blanco y negro la señal proveniente de una cámara de color, es necesario obtener la señal de luminancia (blanco y negro). Esto exige, una vez más, buscar una solución, y se consigue partiendo del principio de que la luminancia tiene una relación directa con la información de color y que, por lo tanto, podemos recuperar la señal con una cierta combinación de los tres colores primarios, rojo (R), verde (G) y azul (B). La señal de luminancia se obtiene en las cámaras de color restando parte de la señal de la salida de señal de cada uno de los tubos.
Toda la televisión en color convencional está basada en la compatibilidad con las primeras emisiones de televisión en blanco y negro. La información monocroma o de luminancia se obtiene a partir de restos de los valores de tensión obtenidos por cada uno de los tubos o CCD que analizan la escena en términos de rojo, verde y azul.
3.2.1.Señal completa de televisión en color
Una vez más, ante la necesidad de respetar la compatibilidad entre blanco y negro y color, las señales de crominancia y de luminancia se transmiten de forma que un televisor en blanco y negro pueda descodificar solo la señal de luminancia sin tener interferencias debido a la de crominancia. Para lograr este objetivo, la señal de crominancia se modula de forma que se desplaza a una frecuencia elevada dentro del ancho de banda reservado a la señal de televisión. En una zona falta de información de imagen se añade a la señal final de televisión una pequeña señal de referencia que permite a los televisores en color descodificar adecuadamente la información de color. Esta señal de referencia se denomina burst o salva de color. El burst o salva de color es un elemento de sincronización que permite, en el televisor doméstico, restaurar una frecuencia imprescindible para que se produzca la descodificación de la señal de color.
La señal completa de televisión contiene numerosos componentes: luminancia, crominancia, sincronismos, borrado horizontal y vertical y burst o salva de color.
La señal de televisión en color es la suma modulada de las señales siguientes:
  • luminancia

  • crominancia

  • sincronismos

  • borrado horizontal y borrado vertical

  • burst o salva de color.

3.2.2.Normas de televisión
Hay organismos nacionales y supranacionales que dictan y aconsejan el seguimiento de normas que rigen las condiciones de transmisión y recepción de los programas de televisión.
Por lo general, las normas hacen referencia a valores como, por ejemplo, la emisión en la banda de VHF o en UHF, el número de líneas por imagen, la frecuencia de cuadro, la frecuencia de línea, el ancho de banda, la modulación de vídeo o la modulación de sonido. Estos organismos son muy estrictos en cuanto a la regulación de las características de transmisión y recepción de las emisiones televisivas.
Exponemos un cuadro resumen de algunas de las características de los diferentes estándares de televisión tomando como referencia valores monocromáticos.
Estándares
Características
americano
europeo

Número de líneas por imagen

525

625

Frecuencia de campo. Número de campos por segundo (se utiliza la frecuencia de la red eléctrica, que en América es de 60 Hz y en Europa es de 50 Hz)

60

50

Frecuencia de línea. Número de líneas por segundo (es el resultado de multiplicar el número de líneas de un cuadro por los cuadros o imágenes completas que tienen lugar en un segundo, por ejemplo: 625 × 25 = 15.625)

15.750

15.625

Número de cuadros o imágenes completas por segundo

30

25

Relación de aspecto (hace referencia a las dimensiones normalizadas de la pantalla de un televisor. Un televisor con una pantalla de 40 cm en sentido horizontal tendría 30 cm en sentido vertical)

4:3

4:3

Desde que en el año 1953 se introdujo en los Estados Unidos el primer sistema de televisión, el NTSC (National Television System Commitee), han aparecido dos sistemas nuevos, con algunas variantes, que han complicado todavía más el panorama televisivo, al ser incompatibles entre sí. En 1967, se implantó en Francia el sistema SECAM (séquentiel couleur avec mémoire), que fue adoptado por muchos países de la Europa del Este y del África francófona. Los laboratorios Telefunken (RFA) desarrollaron el sistema PAL (phase alternation line) como un refinamiento en la reproducción del color del primitivo sistema NTSC. El PAL ha gozado de una amplia implantación.
En 1962, la UER (Unión Europea de Radiodifusión) creó una comisión encargada de elegir un sistema de color para Europa. Desde el punto de vista de la calidad técnica, se podría haber adoptado cualquier sistema de los tres existentes (el PAL a partir de 1963) pero, finalmente, la cuestión se convirtió en un asunto político. Hoy en día, Francia y los países de la Europa del Este utilizan el sistema SECAM, mientras que el resto de países europeos, incluyendo la antigua Yugoslavia, han adoptado el sistema PAL.
Ante el reparto mundial desigual de los diferentes estándares y sistemas de televisión, es muy frecuente la recurrencia a la conversión de normas en el intercambio de programas entre países. La conversión comporta una cierta degradación de la señal.
La existencia de varias normas de televisión es un inconveniente añadido al intercambio de programas entre organismos de producción y difusión de todo el mundo.
3.2.3.Estándar PAL-plus de televisión
El PAL es una variante del sistema americano de televisión en color NTSC y se creó para reducir los efectos de distorsión de fase de la señal de color del estándar NTSC. Fue adoptado en muchos países como norma para la transmisión y recepción de la televisión en color y en Europa goza de una amplia implantación.
Una característica común a todos los sistemas de alta definición es el cambio de la actual relación de aspecto o de formato 4:3 por la más panorámica y cómoda 16:9, relación que ha sido reconocida óptica y fisiológicamente como excelente.
Aparte de la ausencia de claridad sobre las normas tecnológicas y sobre la aplicación final de los sistemas de alta definición, tienen el inconveniente de que su excesivo ancho de banda les imposibilita para ser transmitidos por vía terrestre convencional (no sucede así en las plataformas digitales terrestres) y son más factibles para el satélite o para redes de cable avanzadas. El nuevo estándar PAL-plus, compatible de manera descendente con el actual sistema PAL (es decir, las emisiones en este nuevo estándar pueden ser recibidas por los televisores convencionales, a pesar de que no tienen sus ventajas), ha sido desarrollado por algunas corporaciones televisivas europeas, así como por los principales representantes de la industria europea de televisión. En relación con el sistema PAL, el sistema PAL-plus consigue (manteniendo en la emisión una compatibilidad con el parque de receptores PAL) mejorar significativamente la definición, mejorar la reproducción del color y aumentar la relación de aspecto o de formato, que pasa a ser de 16:9. Todo esto se resuelve de modo muy ingenioso, puesto que puede ser difundido por las emisoras actuales, dado que se mantiene el mismo ancho de banda que usan los canales convencionales.
Teniendo en cuenta que en la perspectiva europea la televisión de alta definición no deja de considerarse muchas veces como una posibilidad que todavía tardará en materializarse y en hacerse asequible al gran público, el estándar PAL-plus permite una mejora sustancial de la definición del presente, una mejora en el color y un aumento panorámico del formato compatible con la televisión actual. A favor de esta innovación está la historia del mismo sistema PAL, que ha permitido la incorporación de novedades tecnológicas sucesivas (sonido estéreo/doble, teletexto) sin que los usuarios de los antiguos aparatos se hayan visto afectados ni perjudicados por las mejoras introducidas y sí, al contrario, beneficiados cuando tienen que cambiar de televisor y adquieren un aparato que incorpore estas novedades.

3.3.La televisión digital

Los avances de la electrónica han tenido siempre reflejo en el mundo de la televisión. Desde principios de la década de 1980, se ha estudiado la aplicación de la televisión digital, que ha sido posible gracias al desarrollo de estándares de codificación y transmisión.
La televisión digital comporta, entre otros, ventajas como por ejemplo las que se exponen a continuación:
  • Hay un incremento importante de los programas ofrecidos.

  • El pago por visión (PPV) será cada vez más habitual.

  • Se mejora la calidad de imagen y del sonido, puesto que desaparecen algunos de los problemas que afectan a la televisión analógica.

  • El espectador será interactivo, ya que podrá escoger el programa que quiere ver y en qué momento.

Desde el punto de vista técnico:
  • Se aumenta la eficiencia espectral en un factor de cuatro a seis. Es decir, donde antes teníamos un programa, ahora podemos tener cuatro o seis.

  • Se obtiene una compatibilidad entre sistemas de todo el mundo, gracias a la estandarización de la compresión MPEG-2 (utilizado por ejemplo en el DVD).

  • La calidad de la imagen es muy superior a la de la señal analógica, debido a que la señal digital es más inmune al ruido que la analógica.

La televisión digital introduce ventajas de tipo técnico y de incremento del número de programas respecto a la televisión convencional.
3.3.1.Compresión y tratamiento digital de la imagen
En los actuales procesos de producción de programas para televisión se recurre a menudo a las imágenes y los sonidos digitalizados. En un porcentaje de casos elevado se parte de imágenes y sonidos analógicos, es decir, convencionales, que son sometidos a un proceso de digitalización que posibilita la incorporación y el tratamiento en sistemas de producción de carácter digital.
El proceso de conversión analógico-digital de cualquier señal comprende tres fases:
1) Muestreo: se obtiene un trozo muy pequeño de la señal en unos instantes concretos, determinados por la frecuencia de muestreo. Para la señal de vídeo, antes de muestrear se aplica un filtrado que evita tener la señal falseada a la salida del muestreador.
2) Cuantificación: una vez muestreada la señal, se otorga un valor determinado a cada valor muestreado. Lo tenemos que cuantificar. La señal de vídeo se cuantifica con ocho o diez bits. Un bit es un impulso eléctrico representado por un 1 o un 0, según el valor de tensión eléctrica del impulso. Al cuantificar la señal de vídeo en ocho o diez bits, estos bits forman una palabra. Al usar el sistema binario, podemos obtener 2 8 (256) o 2 10 (1.024) niveles. Se trata de varios valores para cada parte de la señal muestreada.
3) Codificación: cuando ya se han asignado los diferentes niveles a la señal muestreada, basta con pasarlos a señal eléctrica mediante cualquiera de las codificaciones que existen hoy en día.
Muchas veces se incorporan imágenes fijas, fotográficas. Otras, más habituales en televisión, se trabaja con la imagen móvil. A continuación, vamos a presentar los sistemas más habituales de trabajo, primero con referencia a la imagen fija y luego a la imagen móvil.
Compresión de la imagen fija, estándares, tipos de archivos y características
Podemos agrupar las técnicas de compresión utilizadas en imágenes fijas en dos categorías: el primer grupo es el de compresión sin pérdidas, con las que no se pierde nada de información. Es decir, el archivo descomprimido es completamente igual al archivo comprimido. El segundo grupo corresponde a las técnicas de compresión con pérdidas, que eliminan cantidades pequeñas de información para poder generar archivos más reducidos. Es evidente que, cuanto más se reduce el tamaño del archivo, más calidad se pierde. Las técnicas de compresión se diferencian en la eliminación o no de los detalles y el color de la imagen.
La mayoría de programas informáticos de tratamiento de imágenes fijas tienen dos maneras básicas de manipular este tipo de archivos. Una es la que denominamos mapa de bits, que se basa en el tratamiento de la imagen como una retícula de píxeles. Este método es apropiado para fotografías.
La segunda manera se denomina orientada a objetos. En este caso, el dibujo es una colección de objetos geométricos: curvas, líneas y círculos, entre otros. Este tipo de tratamiento es válido para trabajar con dibujos técnicos o mapas.
Los formatos de archivo más habituales, asociados en algunos casos con sus correspondientes técnicas de compresión, son los siguientes:
  • Archivos TIFF: formato de archivo de imagen marcada de mapa de bits. Prácticamente todas las aplicaciones que tratan imágenes son capaces de escribir y leer en este formato, de forma que es lo más próximo a un formato universal.

    Este tipo de archivos lleva a cabo la compresión sin pérdidas y admite el cambio de plataforma (por ejemplo de Macintosh a PC). Este formato admite los modos de color CMYK, RGB, Lab y de color indexado. TIFF admite también compresión LZW.

  • Archivos GIF: formato de intercambio gráfico, creado para facilitar la transmisión de archivos de mapa de bits. Reduce el tamaño de los archivos por dos vías: en primer lugar, solo admite color indexado (reduce el tamaño de la imagen en una tercera o cuarta parte); en segundo lugar, hace una compresión sin pérdidas LZW. Es un formato que no se tiene que usar nunca para impresiones o publicaciones, debido al uso del modelo de color indexado, aunque es de uso común en Internet.

  • Archivos JPEG: la compresión de JPEG (joint photographic expert group) funciona con pérdidas. Utiliza una técnica de compresión muy compleja que prescinde de sutilezas del color que pasan casi desapercibidas y reduce al mínimo la pérdida de contraste y luminosidad, a la que el ojo humano es muy sensible. Resulta una pequeña degradación de la imagen, en general poco apreciable. Evidentemente, cuanto más se comprima la imagen, más se degradará. También se usa mucho en Internet. Admite los modos de color CMYK, RGB y escala de grises.

  • Archivos Photoshop: formato que se tiene que usar mientras se trabaje en el extendido programa de tratamiento de imágenes fijas Photoshop. Es incompatible con casi todos los demás programas de tratamiento de la imagen, pero admite características de este programa que no se pueden conservar de ninguna otra manera.

  • Archivos PICT: es el formato normal de archivos orientados a objetos en el sistema Macintosh. No es el formato idóneo para guardar mapas de bits, pero se puede utilizar para intercambiar imágenes entre diferentes aplicaciones para Macintosh. Admite archivos RGB, de color indexado, escala de grises y mapa de bits. También es efectivo para comprimir imágenes con grandes áreas de color sólido.

  • Archivos EPS: es el formato PostScript encapsulado y es muy versátil, puesto que acepta tanto mapa de bits como objetos gráficos, y lo admiten prácticamente todos los programas de gráficos.

    El formato EPS admite modos de color Lab, CMYK, RGB, color indexado, duoto, escala de grises y mapa de bits. Se usa mucho con fotografía digital para exportar imágenes en programas de autoedición, así como para la impresión en color.

  • PDF: es el formato de documento portátil y se utiliza en Adobe Acrobat, software de publicación electrónica de la firma Adobe para Windows, Mac OS, UNIX y DOS. Puede visualizar archivos PDF que usen el software Acrobat Reader. Como las páginas PostScript, los archivos PDF representan tanto objetos gráficos como de mapa de bits y contienen enlaces electrónicos, útiles para la búsqueda de documentos electrónicos. El formato PDF de Photoshop admite los modos de color RGB, color indexado, CMYK, mapa de bits, escala de grises y Lab. El formato admite compresión JPEG y ZIP.

En el tratamiento de la imagen fija, hay diferentes normas de compresión y formatos de archivo con más o menos grado de uso y de estandarización.
Compresión de la imagen de vídeo, estándares y características
El estándar de compresión adoptado internacionalmente es el sistema MPEG-2. Este sistema no define un sistema específico de compresión ni los detalles del codificador, sino que especifica los formatos que presentarán los datos en el descodificador. Por lo tanto, los fabricantes pueden hacer codificadores de varias prestaciones y el consumidor sabrá con toda seguridad que su descodificador es totalmente compatible con señales MPEG-2.
La compresión está basada en la eliminación sucesiva de elementos redundantes que aparecen en la señal de vídeo y, si se eliminan en el codificador, es posible reconstruirlos en el descodificador. Estos elementos redundantes son tres: la redundancia temporal, espacial y estadística.
La redundancia temporal está basada en el hecho de que un mismo valor de un píxel se repite temporalmente en una secuencia de imágenes (un píxel es la unidad mínima de información de imagen).
Este es el proceso que comprimirá más la secuencia de vídeo. Utilizará muestras de la imagen anterior y, mediante técnicas predictivas, se puede deducir de manera aproximada cuál es la situación de los píxeles de la imagen actual. La técnica más utilizada para hacer esta compresión es la DPCM.
La redundancia espacial tiene en cuenta el hecho de que un píxel y sus vecinos adyacentes tienen una gran similitud entre ellos. El objetivo de la eliminación de esta redundancia es doble: por un lado, se tiene que obtener un número de bits para transmitir más pequeño que la imagen original, y además hay que conseguir que cada coeficiente se pueda cuantificar de manera independiente de los demás para poder aplicar una cuantificación respecto a la curva de sensibilidad del ojo humano.
La redundancia estadística consiste en determinar cuántos valores de bits se repiten más en una secuencia de bits. La base de la eliminación de la redundancia estadística recae en el hecho de que hay palabras (agrupaciones de bits) que se repiten constantemente. Por lo tanto, la idea es enviar estas palabras que se repiten con menos bits.
De estos tres tipos de compresión, los dos primeros son compresiones con pérdidas, es decir, no se recupera exactamente la señal original. Se obtiene una aproximación que será más o menos parecida al original, según el factor de compresión que apliquemos. Exactamente igual a lo que pasa con las imágenes fijas, cuanto mayor sea el factor de compresión, menos calidad tiene la imagen comprimida.
Respecto a la redundancia estadística, se trata de una compresión sin pérdidas, es decir, la señal descodificada es idéntica a la original.
El sistema MPEG-2 permite la representación de imágenes entrelazadas o progresivas, una relación de aspecto 4:3 o 16:9 y una mejora en la resolución de la imagen. Todos estos aspectos forman los llamados niveles y perfiles del sistema MPEG-2.
Según estos niveles y perfiles, se determinan las velocidades de transmisión (bits/s) y el número de muestras consideradas por la normativa MPEG-2.
Hasta ahora solo hemos hablado de la compresión de vídeo, pero en el audio asociado al vídeo también se hace una compresión. Cuando lo digitalizamos requiere una velocidad de transmisión muy elevada, que se traduce en un gran ancho de banda (margen de frecuencias necesarias para la transmisión), que hace necesaria la compresión para conseguir un sonido de calidad.
El MPEG-2 está especialmente diseñado para emisión por satélite, cable y terrestre digital. También se usa en los DVD (digital versatil disc).
El streaming
Cada vez es más habitual la transmisión de vídeo por Internet. El ordenador que transmite la señal de vídeo parte el fichero en paquetes para que se puedan transportar por la Red. El ordenador que recibe estos paquetes tiene que reconstruir todo el fichero para que el usuario pueda ver la señal de vídeo recibido. Este proceso se hace con las arquitecturas de streaming. Estas arquitecturas están basadas en los códecs. Los códecs son la abreviatura de codificador-descodificador y se trata de fórmulas matemáticas que tienen la función de comprimir la señal de vídeo antes de enviarla a la Red, puesto que la información que contiene es de un ancho de banda demasiado extenso para transmitirse e inviable para un usuario doméstico. Por eso, se comprime justo para reducir el ancho de banda. En la recepción, los códecs llevan a cabo el proceso inverso, la descompresión de la imagen para poderla visualizar. Los códecs facilitan este proceso de la manera más eficiente posible.
Actividad
1. Si tenéis un escáner, escanead una fotografía y, con un programa de tratamiento de imágenes de tipo Photoshop, Paint Shop Pro u otro, guardadla en los diferentes tipos de archivos disponibles (TIFF, GIF, JPEG, PDF). A continuación, mirad qué diferencias hay en la dimensión de los archivos que se han creado para la misma fotografía.
2. Entrad en la página de Internet www.conganat.org/iicongreso/comunic/008/video.htm y podréis profundizar sobre los formatos de archivo que más se usan en imagen fija y móvil.

3.4.Cuestionario

Tras una lectura atenta del tema, responded al cuestionario siguiente. A continuación, contrastad vuestras respuestas con el contenido.
1. Explicad el fenómeno de la persistencia en la retina.
2. ¿Qué relación mantienen los elementos o las sustancias fotosensibles respecto a la transformación de la luz en energía eléctrica?
3. ¿Cuál es la función de los impulsos de borrado vertical?
4. ¿En qué consiste la exploración entrelazada?
5. ¿Cuántos campos de televisión hay en un segundo?
6. ¿Qué requiere más ancho de banda, el sonido o la imagen?
7. ¿Podéis explicar en qué consiste la idea de compatibilidad aplicada a la existencia de la televisión en color respecto de la televisión monocroma?
8. ¿Por qué se interponen prismas dicroicos en la trayectoria de los rayos luminosos captados por el objetivo antes de ser analizados por el tubo o CCD?
9. ¿Qué proporciones de rojo, verde y azul componen la señal de luminancia?
10. ¿Qué es y para qué sirve el burst o salva de color, propio de la señal de televisión en color?
11. ¿Cuáles son las tres normas de televisión implantadas en el ámbito internacional?
12. ¿Cuál es la relación de aspecto o de formato del estándar PAL-plus de televisión?
13. ¿Qué ventajas aporta la televisión digital desde un punto de vista técnico?
14. ¿Por qué se recurre a la compresión en los sistemas de imagen fija y en los de imagen móvil?
15. ¿Dónde se usa fundamentalmente el sistema MPEG-2?
16. ¿En qué se diferencian la compresión con pérdidas y la compresión sin pérdidas?
17. ¿Qué es el streaming?

4.Equipos básicos de sonido

4.1.El amplificador

Durante el proceso entre la captación de un sonido hasta que finalmente se reproduce bajo las condiciones adecuadas intervienen una serie de equipos de sonido que tienen como objetivo principal conseguir la máxima fidelidad entre la fuente original y el sonido reproducido. Los obstáculos que hay que superar son numerosos, aunque también lo son las posibilidades de procesar e incluso de manipular el sonido original para conseguir determinados efectos o integrarlos en un todo más amplio.
En sí, la cadena de sonido empieza normalmente en el momento en el que intentamos captar una fuente de sonido natural con un micrófono en un espacio físico de características determinadas (un estudio, al aire libre, una calle transitada, el salón de casa, por ejemplo). A continuación, se amplifica y se ecualiza este sonido captado para, con posterioridad, mezclarlo con otros sonidos, o se procesa para grabarlo o retransmitirlo. Por último, tarde o temprano, este sonido se acabará reproduciendo con un altavoz para un individuo o un público en un espacio determinado (como un estudio acondicionado, al aire libre, una calle transitada, el salón de casa).
Las fuentes de sonido proporcionan un nivel de señal de salida muy bajo. Así pues, los micrófonos y las cápsulas tienen una tensión de salida de pocos milivoltios (mV), mientras que las casetes, los sintonizadores y los discos compactos suministran aproximadamente 100 mV.
Estas fuentes son incapaces de excitar los altavoces por sí solas, y se hace necesario elevar las señales. Esto se lleva a cabo mediante el amplificador.
El amplificador cumple una serie de funciones, aparte de la que hemos mencionado, ya que prepara, ajusta y corrige las diferentes señales según las normas internacionales establecidas y también teniendo en cuenta nuestros gustos y necesidades auditivas.
Se puede considerar que todo amplificador está formado por dos grandes bloques, que se muestran en la figura:
Caraterísticas del preamplificador
El preamplificador es un elemento que podemos subdividir en varios bloques, que exponemos a continuación:
  • Selector de entradas/corrector: adecua todos los niveles de las diferentes fuentes de sonido, los amplifica y los corrige en frecuencia y amplitud de acuerdo con las condiciones en las que fueron grabados.

  • Control de tonos: permite modificar las señales según el gusto del usuario y corregir las posibles deficiencias de la sala de audición. En los preamplificadores, se pueden encontrar desde dos hasta veinte controles de tono. A partir de cinco controles, se habla de ecualizadores. Lo más frecuente es disponer de dos o tres controles (graves, medios y agudos). La variación de nivel introducida por cada control en su banda de frecuencias específica se expresa en dB. Son típicos valores de +/-10.

    Los controles de tono, si se utilizan con discreción y de manera correcta, permiten compensar los desequilibrios que pueda haber entre los diversos componentes del equipo de sonido, así como las deficiencias acústicas del local y, en definitiva, ajustar el sonido al gusto del oyente.

  • Filtros: son una parte complementaria del control de tonos. Están destinados a suprimir altas o bajas frecuencias no deseadas con el fin de eliminar ruidos. En esta sección, hay un control llamado compensador/loudness/contour, que refuerza las frecuencias altas y bajas en niveles de escucha bajos.

  • Control de volumen: mediante este control, obtenemos el nivel de escucha que queremos. Adecua el nivel de salida de la fuente de programa al nivel de entrada del amplificador propiamente dicho. La actuación de este control puede ser continua o por saltos. Se suele calibrar de 0 a 10 o de ¥ a 0. No es recomendable situar el mando de volumen al máximo, puesto que se pueden producir saturaciones y oscilaciones que dañarían los altavoces de manera irreversible.

    Para solucionar este posible inconveniente, algunos preamplificadores disponen de un limitador de volumen (limiter), que actúa recortando el nivel de salida para salvaguardar la integridad de los altavoces.

    La manera más sencilla y más universalmente utilizada consiste en dosificar la señal que se entrega en la etapa de potencia: cuanto menos tensión se entregue, menos potencia de salida.

    Normalmente, el control de volumen consiste en un divisor de tensión, que puede estar constituido por un simple potenciómetro o por un conmutador que introduzca una relación variable en cada caso.

    Cuando interesa reducir notablemente el volumen del equipo de audio, dispone de un botón llamado muting que atenúa la señal de salida en 20 dB.

  • Equilibrio o balance: un equipo estereofónico se caracteriza por entregar en cada canal de altavoz un nivel de señal determinado que, además, no suele contener la misma información. Determinadas situaciones, entre ellas la disposición de los altavoces en la sala de escucha o bien las mismas características del material grabado, hacen que se escuche más intensamente un canal que otro. Mediante el balance, se restituye en cada canal el nivel deseado. Lo que realmente hace es lateralizar el sonido y, por lo tanto, nuestra percepción es más equilibrada.

    En la práctica, el control de balance es un potenciómetro similar al de los demás controles (volumen, tono). Con el mando en posición central, los dos canales presentan el mismo grado de amplificación.

    Cuando el mando se desplaza hacia uno de los lados, se mantiene la misma ganancia en uno de los canales y se atenúa el otro canal. En la posición extrema, el canal que se atenúa se puede anular completamente o bien introducirse una atenuación elevada, por ejemplo de 20 dB respecto al otro, hecho que supone diez veces menos amplificación.

  • Etapa de salida o etapa de potencia: en la salida del previo o preamplificador, tenemos una señal ajustada según las necesidades de la fuente de sonido y del usuario del equipo, sensiblemente amplificada pero con un nivel comprendido entre 0,5 y 1 V de tensión eficaz, que todavía resulta insuficiente para excitar a los altavoces e, incluso, los auriculares, puesto que la intensidad de la corriente que suministra el previo es muy pequeña. La etapa de salida, llamada etapa de potencia, resuelve este inconveniente.

    La etapa de potencia tiene como misión modificar el contenido energético de la señal, sin variar el ancho de banda, y mantiene el nivel de distorsión y de ruido lo más bajo posible. Este cometido se lleva a cabo con un amplificador de tensión y un amplificador de intensidad.

La baja tensión de salida que proporcionan las fuentes de sonido es insuficiente para excitar los altavoces. Esta tarea se lleva a cabo mediante la intermediación del amplificador.
Características técnicas de los amplificadores
A continuación, exponemos algunas de las características más relevantes de los amplificadores.
  • Input sensitivity (sensibilidad de entrada): la sensibilidad de entrada de un previo es la tensión que se debe aplicar para que pueda funcionar correctamente. Cuanto más baja sea la cifra de sensibilidad, la entrada se considera de mayor sensibilidad. Se puede decir que es el mínimo nivel de entrada capaz de excitar al amplificador a la máxima potencia. Hay tres niveles:

  • Input impedance (impedancia de entrada): el valor de la sensibilidad siempre tiene que ir acompañado de la impedancia de entrada, que es la resistencia eléctrica que presenta la entrada correspondiente.

    La importancia del dato de la impedancia de entrada proviene del hecho de que, para hacer una transferencia óptima de la señal del aparato en el previo, la impedancia tiene que ser igual a la de entrada del previo.

    La desadaptación de impedancias no representa ningún peligro para la integridad física de los equipos, sino únicamente el hecho de que no se les saca el máximo rendimiento posible. Si se envía al previo una tensión menor de la especificada como sensibilidad, no se conseguirá extraer la máxima potencia de salida del amplificador final. Si, al contrario, la tensión de entrada es muy superior a la de sensibilidad, se corre el peligro de que el previo distorsione la señal, aunque sin peligro físico para los circuitos.

  • Output impedance (impedancia de salida): esta característica es de mucha importancia para poder conectar los altavoces y obtener el máximo rendimiento del amplificador. Son habituales las salidas en las que solo se dispone de una impedancia, pero también hay amplificadores que ofrecen la posibilidad de varias salidas. Son valores típicos:

  • Overload voltage (tensión de saturación): en las especificaciones de entrada de los previos se da muchas veces el llamado nivel o tensión de saturación, que es el valor por encima del cual el previo se satura y la distorsión aumenta muy rápido. Por lo tanto, el nivel de saturación es el máximo valor que se puede aplicar a una entrada sin que desmejore la respuesta del previo.

    Muchos equipos acostumbran a admitir en las entradas niveles de hasta diez veces (y en ocasiones mucho más) el valor de la sensibilidad especificada, de forma que si una entrada auxiliar tiene una sensibilidad de 100 mV, la señal no se distorsiona hasta que no se supere el nivel de 1 V en la entrada.

  • Output voltage (tensión de salida): hace referencia al nivel de tensión de salida del previo (entre 1 y 2 V) y a la tensión de salida de grabación. Hay dos normas, la DIN y la RCA.

nivel muy bajo

cápsulas MC

» 170 mV

nivel bajo

cápsulas y micrófonos

» 2,5 mV

nivel alto

sintonizadores, casetes y CD, entre otros

150-170 mV

Las etapas de potencia tienen un nivel de entrada único de 1,5 V.
2 ohmios (Ω), 4 Ω, 8 Ω, 16 Ω
La función del previo o preamplificador es elevar la señal de la fuente de sonido a un nivel suficiente para poder atacar la etapa de potencia mientras se permite la manipulación y el tratamiento de la señal.
El estudio comparativo de las diversas características técnicas de los amplificadores permite situarlos y elegirlos según las necesidades profesionales.

4.2.La mesa de mezclas

La mesa de mezclas es un equipo de importancia capital en la grabación, la reproducción y la posproducción del sonido que incorpora un sistema capaz de proporcionar, a partir de varias señales eléctricas presentes en sus entradas, diferentes señales de salida según las necesidades del programa que estamos elaborando.
m1_15a.gif
Las señales introducidas por las entradas suelen provenir de varias fuentes (como micrófonos, instrumentos musicales o magnetófonos) y no tienen el mismo nivel. Mediante los controles de la mesa, se consigue uniformar estos niveles y elevarlos o reducirlos para que puedan ser manipulados con posterioridad, grabados o reproducidos en condiciones de distorsiones y ruidos mínimos.
Mesa de mezclas
Mesa de mezclas
4.2.1.Descripción de una mesa de mezclas
Una mesa de mezclas debe reunir unos requisitos mínimos para poder ser validada como tal para operaciones profesionales. Así pues, debe disponer de ecualización independiente para cada canal de entrada y así poder compensar las deficiencias de las fuentes sonoras y poder dejar el sonido al gusto del técnico de sonido. También debe tener capacidad para poder dirigir las señales de entrada hacia las salidas (buses), agrupadas o combinadas del máximo número de maneras posible (cuantas más posibilidades de combinación, mejor). Debe tener un sistema de monitorización anterior y posterior a la mezcla. Para poder hacer grabaciones estereofónicas, tiene que disponer de un control independiente para cada canal que permita situar la señal correspondiente en un canal u otro (L o R). Además de salidas generales, la mesa tiene que disponer de otras salidas independientes para efectos y monitores, entre otros.
Bloque de entrada
Le llegan las señales procedentes de las fuentes de sonido.
Niveles de las señales
Las señales pueden tener diferente nivel y, por eso, se hace imprescindible disponer de un control de ganancia, que regula la sensibilidad de la entrada convenientemente y evita que se llegue a la saturación o que la señal sea tan débil que se diluya con el ruido propio de la mesa. Esta sección suele tener asociado un LED (diodo luminiscente) que se ilumina en caso de sobrecarga. Es habitual disponer, en este bloque, de un conmutador denominado PAD, que no es más que un atenuador fijo de 20 o 30 dB.
Dentro de la sección de entradas hay un conmutador de selección: línea, micro, cinta y también un conector jack llamado insert, que se suele ubicar en la parte posterior de la mesa y cuya función es la de insertar cualquier tipo de efecto en el canal concreto. En el momento en el que conectamos el cable insert, la señal del canal se deriva hacia una unidad de efectos y vuelve con el efecto incorporado por el mismo conector. Para ejercer esa función, el cable insert es estéreo por el lado que se conecta a la mesa y cada canal va a parar a un conector mono independiente, que corresponde a la entrada y la salida del efecto, respectivamente.
Sección de entrada de la mesa
Sección de entrada de la mesa
La señal, tras pasar por el bloque descrito, se introduce en el módulo de ecualización, que puede estar constituido por tres controles de tonos (grados, medios y agudos) o bien por un sofisticado ecualizador paramétrico de hasta cinco vías. Una mesa de calidad media suele tener un control para graves, otro para agudos y el control de medios de tipo paramétrico, puesto que es la gama de frecuencias más conflictiva. Normalmente, el bloque de ecualización dispone de un interruptor de anulación (bypass) para poder comparar auditivamente la acción de la ecualización. En esta sección, se pueden encontrar filtros fijos para frecuencias altas o bajas que eliminan ruidos o zumbidos en las entradas.
Sección de ecualización de la mesa
Sección de ecualización de la mesa
A continuación, la señal pasa por el bloque de envíos, que está constituido por unos controles (auxiliar, fold-back y efectos, entre otros) que dosifican la cantidad de señal del canal que se envía hacia los monitores de escenario, a unidades de eco, reverberación, delays, etc. Estos envíos se pueden hacer de dos maneras: pre y post fader cuando el fader es el atenuador general de la mezcla. En el caso del prefader, el nivel de la señal enviada es independiente del volumen del fader y, sin duda, en el postfader el nivel depende de la posición. Esta sección permite enviar a diferentes sistemas señales mezcladas varias y de diferente nivel.
Sección de envíos de la mesa
Sección de envíos de la mesa
Si seguimos bajando por el módulo de entrada, nos encontramos con un bloque llamado panorámico (PA) y de asignaciones. El control panorámico es un potenciómetro que envía la señal del canal hacia uno u otro de los canales de salida de la mesa o hacia los dos en determinada proporción. En las mesas de más de dos canales de salida hay, además, unos conmutadores, con los que se selecciona en cuál de las salidas actúa el panorámico. Así pues, si la mesa tiene ocho salidas, se puede hacer que el panorámico reparta la señal entre los canales 1 y 2 o 1 y 3, o 2 y 3 o 1, 2, 3, etc. dependiendo de la posición del potenciómetro (en los extremos da paso a una sola salida y en la parte central da paso al 50% para cada canal de salida seleccionado).
A continuación, la mesa dispone de un botón de preescucha, también llamado CUE o PFL, que permite escuchar el contenido del canal antes de insertarlo en la mezcla general.
Panorámico
Panorámico
Finalmente, nos encontramos con el atenuador general de mezcla o fader. Es un potenciómetro deslizante, en la mayoría de casos, que se encarga de regular el nivel del canal. En las mesas portátiles, suelen ser rotativos para ahorrar espacio y así disminuir el tamaño global de la mesa. En esta sección, la señal ya modificada se inyecta, con el nivel adecuado, en los buses de salida para que se una con las señales procedentes otros canales de entrada.
Fader de canal
Fader de canal
Bloque de salida o master
El punto de unión entre los canales de entrada y el módulo de salida son los llamados buses. Son las líneas encargadas de recoger de cada una de las entradas las señales que tienen un destino común, como el envío de efectos o el envío de monitores. Al final de cada bus, en el módulo master, hay un circuito sumador de todas las señales que transporta. Una vez sumadas las diferentes señales, se pueden enviar a su destino (por ejemplo efectos o monitores).
En el módulo master, hay un control para ajustar el nivel general de cada envío de efectos, línea de monitores y salida de programa. En caso de que se haya enviado una determinada mezcla a un efecto, tiene que volver a la mesa para reincorporarse a la mezcla general. Por eso, en esta sección hay un control que actúa sobre el nivel de la señal de retorno, y también como asignación de salida.
Es frecuente disponer de entradas auxiliares para magnetófonos u otras fuentes, con su control de nivel y ecualización correspondiente.
Bloque de monitores
El módulo de monitores acostumbra a incorporar una función llamada talkback, que consiste en un micrófono incorporado en la misma mesa que permite al técnico dar las órdenes necesarias a los intérpretes o dobladores. En esta sección, también encontramos todos los controles para los auriculares. Por medio de un selector se puede escuchar, por los auriculares, la señal que va a los altavoces del estudio, la señal que llega a los monitores de escenario o la de cada canal antes de la mezcla.
Sección master y de monitores de la mesa
Sección master y de monitores de la mesa
Todo mezclador o mesa de mezclas profesional tiene perfectamente delimitados los diferentes bloques: de entrada, de salida o master y el de monitores.
4.2.2.La mezcla
El proceso se abre con la grabación de las diversas fuentes en el magnetófono multipista. La única pretensión de esta fase es grabar la mejor señal posible, sin más ni más. Posteriormente, se procede a mezclarla. En ese momento, es cuando se añaden los efectos en los puntos en los que sean necesarios, es cuando se comprimen o se limitan las señales que pueden presentar problemas de dinámica, se ecualizan los diferentes sonidos o se regula el nivel de cada pista, entre otros.
Ejemplo
Para los sistemas de reproducción de sonido o en los trabajos de sonorización de productos audiovisuales que no tienen mucha complejidad se acostumbra a llevar a cabo la mezcla manualmente. Esto quiere decir que el técnico manipula la mesa según su criterio y teniendo en cuenta las condiciones de escucha, en directo.
Con esta técnica, el operador no se puede equivocar y, si lo hace y el programa no es directo, tiene que volver a empezar la tarea desde el principio. En los sistemas de grabación de sonido más complejos, el proceso es más complicado, puesto que se pretende conseguir un programa sonoro equilibrado, con los planes sonoros coincidentes con las imágenes que acompañarán.
Todo esto se puede llevar a cabo manualmente, de acuerdo con el productor, el realizador y mediante anotaciones de guión. Esta tarea resulta bastante complicada y excesivamente lenta, en los casos en los que se tiene que repetir alguna función.
Este problema se resuelve llevando a cabo la mezcla por medio de sistemas automáticos, que sustituyen, hasta cierto punto, el elemento humano. Sin duda, es el técnico de posproducción que programa cada uno de los movimientos o procesos que tiene quien realizar el equipo de la mesa de mezclas.
En esencia, las funciones necesarias durante el proceso de mezcla consisten en la regulación de los diversos niveles de los canales correspondientes a cada pista (atenuadores de tensión) y en la variación de la frecuencia de respuesta de cada canal en el momento de la ecualización (atenuadores de frecuencias).
Variaciones de frecuencia
Esto se lleva a cabo por medio de amplificadores (VCA), cuya ganancia es variable por medio de una información de control (tensión de corriente continua aplicada a la entrada), y del mismo modo en el caso de los ecualizadores, si lo que se controla es la respuesta en frecuencia del amplificador. Un amplificador ecualizador (VCE) actúa sobre su linealidad de respuesta.
Así pues, vemos que los amplificadores VCA suplen las funciones de los faders y los VCE sustituyen los potenciómetros de ecualización.
La ventaja de operar con sistemas automáticos de mezcla es la libertad de la que se dispone para ir estableciendo las correcciones de tono y niveles sin tener que reiniciar la mezcla cada vez que se quiere variar algo.
Las acciones de los atenuadores, tanto de tensión como de frecuencias, se almacenan en memorias con objeto de actuar en el momento preciso, sincrónicamente, es decir, el control de la mesa se lleva a cabo de modo informático.
Las funciones necesarias durante el proceso de mezcla consisten básicamente en la regulación de los diversos niveles de los canales correspondientes a cada pista y en la variación de la frecuencia de respuesta de cada canal en el momento de la ecualización.

4.3.Otros equipos y efectos

En los procesos de reproducción de sonido, pero en especial en los procesos de posproducción de sonido, se necesitan algunos equipos, a los que consideramos oportuno hacer referencia. Los más importantes son los ecualizadores, los reductores de ruido y los modificadores de dinámica.
4.3.1.Ecualizadores
Sirven para modificar la linealidad de la señal que tratan. Se pueden encontrar como equipos completos o bien formando parte de un equipo de amplificación o en una mesa de mezclas. Según la zona de frecuencias que tratan, los ecualizadores se pueden dividir en ecualizadores de baja, media y alta frecuencia.
Los ecualizadores se utilizan básicamente para adaptar el sonido a nuestro gusto, eliminar frecuencias molestas y evitar ruidos, recuperar grabaciones antiguas y también para eliminar el efecto de realimentación acústica en una sala.
El ecualizador está formado por unos elementos llamados filtros, que comportan amplificación (positiva y negativa). Son filtros activos denominados de paso de banda.
Filtro de paso de banda
Filtro de paso de banda
Estos ecualizadores producen el máximo refuerzo/atenuación en un determinado punto de frecuencia denominado frecuencia central. El ancho de banda modificado se conoce como factor de calidad del filtro.
Los equipos de ecualización se pueden clasificar en dos grandes grupos: ecualizadores gráficos y ecualizadores paramétricos.
Los ecualizadores gráficos reciben este nombre por la facilidad de visualizar la actuación. Son filtros de paso de banda con las frecuencias centrales fijas. Se presentan en varias variantes, desde muy simples, con pocos puntos de control de frecuencia, normalmente una por octava, hasta los más completos, con 27, 34 o más puntos de control de frecuencia, que reciben el nombre de ecualizadores de tercios de octava.
Los ecualizadores paramétricos tienen la particularidad de que se puede seleccionar la frecuencia central, se puede variar el factor de calidad y también se tiene un control sobre su refuerzo/atenuación. De este modo, se puede hacer más ancha o más estrecha la banda de frecuencias sobre la que actúa. Con este tipo de ecualizador, se tiene un control total sobre las frecuencias de una banda determinada.
Para obtener buenos resultados del equipo de ecualización es imprescindible conocer las frecuencias que comprende el sonido que se tiene que manipular. Los técnicos de sonido tienen una división del espectro de frecuencias que puede resultar útil en una primera aproximación. Operan con la clasificación siguiente:

zona de bajas bajas frecuencias

16 - 60 Hz

zona de bajas altas frecuencias

60 - 250 Hz

banda media

250 Hz - 2 kHz

banda media alta

2 kHz - 4 kHz

banda alta baja

4 kHz - 6 kHz

banda alta alta

6 kHz - 16 kHz

La mejor manera de ecualizar siempre es comparar la señal natural con la ecualizada, sin olvidar nunca la diferencia de nivel que comportan ciertos tipos de ecualización exagerados. También es interesante tener en cuenta las limitaciones que la señal tendrá con posterioridad. No tiene sentido ecualizar en una banda que después, por limitaciones del medio al que se destina la obra, no estará presente.
Los ecualizadores se usan sobre todo para adaptar el sonido a nuestro gusto, eliminar frecuencias molestas y evitar ruidos. Pueden ser de dos tipos: gráficos y paramétricos.
4.3.2.Sistemas reductores de ruido
Los sistemas reductores de ruido se usan básicamente en los procesos de grabación magnética del sonido, dado que los ruidos propios de la cinta son inevitables y, si grabamos en determinados niveles, no podremos evitar distorsiones producidas por la carencia de linealidad del sistema grabador, tanto si son excesivamente elevados como si son débiles. Además, hay otros ruidos de fondo provocados por corrientes parásitas o por campos eléctricos externos. Los problemas de ruidos siempre están presentes en cualquier grabación, pero se hacen más evidentes cuando grabamos señales de bajo nivel. Esto se debe al hecho de que en los pasajes de alto nivel la oreja humana tiene la propiedad de discriminarlos, ante los de nivel más bajo. Así pues, el ruido, que siempre se mantiene por debajo de la señal principal, queda enmascarado. Al contrario, cuando se trata de grabar pianísimo o señales de nivel muy bajo, el ruido puede acabar enmascarando la señal principal.
Reductores de ruido
Existen dos tipos de sistemas de reducción de ruido: los conocidos como no complementarios y los complementarios.
Los reductores de ruido no complementarios se aplican a grabaciones que ya se han hecho antes, por ejemplo grabaciones antiguas.
La señal se trata en reproducción, por lo que se puede afirmar que la grabación resulta modificada sustancialmente respecto al original. Este sistema adopta una respuesta plana del circuito en los pasajes de máximo nivel, en los que el ruido queda enmascarado, y se comporta como una serie de filtros automáticos de paso bajo a medida que el nivel de la señal va decayendo. El sistema reductor de ruido no complementario más conocido es el DNL. Fue diseñado por la casa Philips en 1971.
Los reductores de ruido complementarios tratan la señal tanto en el proceso de grabación como en el de reproducción. Hay muchos sistemas complementarios, entre los que encontramos el Dolby, el DBX y el Telcom.
Todos fundamentan su funcionamiento en el fenómeno de camuflaje de las señales, según el nivel.
En la figura (a), se representan los diversos niveles de margen dinámico que se pueden presentar en una grabación. En la figura (b), se ha representado el nivel de ruido existente en medio (como cinta, transmisión, película o línea) y, en la figura (c), se ve el resultado final de la grabación. Se ve que en los pasajes de bajo nivel la señal queda completamente enmascarada por el ruido.
Principio de los reductores de ruido complementarios
Principio de los reductores de ruido complementarios
En la figura (d), se ve que la señal, antes de ser grabada, es tratada de forma que se ejerce una variación de la dinámica y aumenta el nivel de las señales más débiles, es decir, se reduce la dinámica del programa.
En la figura (i), la señal se graba o se transmite y se puede ver en el dibujo que el ruido siempre queda por debajo de la señal útil.
Finalmente, en la figura (f), se aplica la descodificación, es decir, el proceso inverso aplicado antes de la grabación, con el que la dinámica recupera la dimensión original de la figura (a). Podemos observar que el ruido, en este proceso, también ha variado. En los niveles altos de señal, el ruido se mantiene intacto, enmascarado, y en los niveles bajos de señal se ha reducido hasta permitir la audición de la señal útil.
Todos los reductores de ruido complementarios funcionan de este modo y la diferencia entre uno y otro está en el sistema de llevar a cabo los procesos de compresión y de expansión posterior. La firma Dolby tiene una gran variedad de tipo de reductores y continuamente incorpora innovaciones en este campo. Un detalle que debemos tener en cuenta es que en los sistemas reductores de ruido complementarios se debe tener activado el reductor en grabación y en reproducción, puesto que, si lo desactivamos en reproducción, lo que oímos es un sonido con una dinámica muy recortada.
Los sistemas reductores de ruido minimizan el ruido de fondo que siempre hay, pero que es más fácilmente perceptible en los pasajes de bajo nivel sonoro.
4.3.3.Modificadores de la dinámica
Son equipos que controlan la dinámica de los programas sonoros de manera automática, solo estableciendo unas condiciones de actuación por parte del técnico de sonido. Básicamente, se habla de modificadores de la dinámica cuando se trata de compresores y de expansores, pero también se incluye en este tipo de equipos el llamado limitador que, aunque no modifica la dinámica, sí la recorta durante un breve periodo de tiempo. Normalmente un solo aparato incluye todos los dispositivos.
El limitador
Es un equipo destinado a evitar que la señal sobrepase un cierto valor preestablecido para que no quede saturado ni se distorsione.
El compresor
Es un equipo que introduce una ganancia adicional en una determinada gama de frecuencias cuando el nivel baja por debajo de un valor preestablecido. Esta función implica el incremento de las señales de valor más bajo.
El expansor
Lleva a cabo la función inversa del compresor, es decir, atenúa las señales que han sido amplificados en compresión.
Los modificadores de la dinámica tienen tres parámetros básicos sobre los que se puede actuar para que ejecuten su función concreta: attack o tiempo de ataque, release o tiempo de recuperación y thresold o umbral de actuación.
Parámetros básicos
El tiempo de ataque es el tiempo que tarda el equipo en reaccionar ante una señal. Se debe tener en cuenta que, por ejemplo, en el caso de un limitador, si pretendemos limitar el nivel de un transitorio de corta duración, tendremos que poner un tiempo de ataque inferior al del transitorio, ya que si es superior el equipo no habrá reaccionado ni cuando ya haya pasado y, por lo tanto, no actuará.
El tiempo de recuperación es el tiempo que tarda el equipo para restituir el margen dinámico después de su actuación. Conviene que sea largo con objeto de evitar un efecto parecido a un bombeo.
El umbral corresponde a un valor de nivel a partir del cual el equipo se pone en funcionamiento, tanto limitando como comprimiendo o expandiendo.
La determinación del umbral, el tiempo de ataque y el tiempo de recuperación en un modificador de la dinámica es esencial para que funcione correctamente y para que los inconvenientes no superen las ventajas que representan.

4.4.La compresión en formatos digitales

Cuando hablamos de compresión en audio digital nos referimos, como en vídeo, a la reducción de la información original. Los beneficios inmediatos de esta reducción son más capacidad de almacenamiento y la posibilidad de obtener más canales de reproducción. Evidentemente, lo que se consigue mediante la compresión es reducir el ancho de banda de la transmisión de audio. Esta compresión se puede llevar a cabo mediante métodos estadísticos que logran una compresión sin pérdidas, con la que se obtiene una reducción de la información de entre un 30% y un 50%. Otros métodos son la aplicación de criterios psicoacústicos que hacen una compresión y reducen la información entre un 40% y un 80%.
La codificación sin pérdidas es posible para aplicaciones que no sean en tiempo real y la reconstrucción de la señal es perfecta.
Toda compresión se hace con un encoder, que es un programa informático que codifica los datos según el formato al que queremos transformar la señal original. Las características principales de un programa encoder son la rapidez y la alta calidad de producción de archivos.
Para dar el paso contrario al anterior, se tienen que utilizar los decoders (descompresores). Estos programas transforman el archivo comprimido en el archivo original. Se debe tener en cuenta que, si la compresión previa ha sido con pérdidas, el archivo descomprimido no será idéntico al original.
La compresión de la señal de audio puede ser con o sin pérdidas. Si la compresión ha sido con pérdidas, el archivo descomprimido nunca puede ser idéntico al original.
4.4.1.Formatos de audio comprimido
A continuación, exponemos los formatos digitales de audio más comunes. Son los siguientes:
WAV
Fue el primer formato para PC y no está comprimido. Es el resultado de transferir un archivo de audio (formato CD audio) a la memoria o disco duro del ordenador. Las diferencias fundamentales de este formato con el conocido MP3 son el tamaño de los archivos, dado que el formato WAV ocupa doce veces más que el MP3. Una consecuencia lógica de esta reducción de tamaño es la mejor calidad sonora de los ficheros WAV respecto al formato MP3.
MP3
Es el formato de compresión de audio que se utiliza más en la actualidad. Surge de la conversión de una señal acústica de audio mediante una compresión con pérdidas, es decir, tendremos menos calidad sonora.
La característica principal de este sistema es que aprovecha las limitaciones del oído humano para eliminar toda la información que no es perceptible, aunque la eliminación de esta información provoca una disminución de la calidad sonora.
A pesar de que tengamos esta degradación de la señal acústica, se pueden ver dos ventajas claras. La primera es la reducción del espacio de memoria, hecho que nos da la posibilidad de tener grandes cantidades de archivos sonoros en el PC. Por ejemplo, en un CD-ROM se pueden grabar aproximadamente 150 canciones en formato MP3 en lugar de diez o doce en formato WAV.
La segunda ventaja es la gran velocidad a la que se pueden transmitir y recibir a través de la Red.
MP3 Pro
Formato diseñado por Thomson Multimedia. Es un nuevo algoritmo que codifica las señales de audio y se basa en un aumento de la compresión superior a la del formato MP3 tradicional. Este formato es totalmente compatible con todos los aparatos reproductores de audio MP3.
AAC (advanced audio code)
Es un formato de compresión de audio que aumenta la calidad del MP3 y reduce su tamaño de manera considerable.
Se consigue una calidad inferior a la del CD, pero utiliza bastante menos espacio de memoria que el MP3, aproximadamente un 30% menos.
El mecanismo básico de este sistema es prácticamente igual al del sistema MP3.
Liquid audio
Más que un formato de audio, se trata de un sistema de distribución de señales musicales digitalizadas por Internet a escala mundial. Permite la distribución y la venta de música de manera segura a través de la Red.
Representa una alternativa al formato MP3 debido a la seguridad que garantizan las compañías discográficas.
El reproductor de liquid audio se puede obtener de manera gratuita en todas las páginas web que utilizan este sistema.
OGG Vorbis
Este formato es un posible sustituto del formato MP3 e incorpora algunas ventajas. Por ejemplo, logra un sonido más natural y de más calidad, del mismo modo soporta audio de varios canales.
WMA
Es un formato de compresión de audio de Microsoft. Es la evolución del formato ASF y está pensado para el reproductor Windows Media Player. Permite escuchar música en línea, es decir, mediante streaming, y con gran calidad sonora.
Los diversos formatos de compresión de audio establecen incompatibilidades entre los sistemas equivalentes a las que se dan en la compresión de la imagen fija y la imagen móvil.

4.5.Cuestionario

Tras una lectura atenta del tema, responded al cuestionario siguiente. A continuación, contrastad vuestras respuestas con el contenido.
1. ¿Por qué partes está constituido un amplificador?
2. ¿Qué justifica la existencia del previo o preamplificador?
3. ¿Qué quiere decir la expresión lateralizar el sonido, conseguida con el control de balance?
4. ¿Cuál es la función principal de la etapa de salida o etapa de potencia de un amplificador?
5. ¿Cuáles son los bloques principales de una mesa de mezclas?
6. ¿Cuáles son las funciones básicas de una mesa de mezclas?
7. ¿Cuáles son los bloques principales de una mesa de mezclas?
8. ¿Para qué sirve el micrófono que cumple la función talkback en una mesa de mezclas?
9. ¿Para qué sirven los ecualizadores?
10. ¿Cuál es la característica principal de los ecualizadores paramétricos?
11. ¿Para qué se usan los reductores de ruido?
12. ¿Cuál es la función de un limitador?
13. ¿Cuál es la función de un compresor?
14. ¿Cuál es la función de un expansor?
15. ¿Qué ventajas aportan los formatos digitales de audio?
16. ¿El MP3 es un formato comprimido con o sin pérdidas?

5.Principios de óptica

5.1.Fundamentos de las lentes y los objetivos

Los objetivos son dispositivos ópticos que sirven para formar imágenes de objetos. En los medios audiovisuales y fotográficos, las lentes consisten en una porción de un medio transparente de tipo plástico, o mejor de vidrio, que está limitada por dos superficies curvas o bien por una superficie curva y otra plana.
El fenómeno que posibilita la formación de imágenes es la refracción de la luz. Los rayos de luz se desplazan en un medio homogéneo siguiendo una línea recta. Cuando un rayo pasa a otro medio de intensidad diferente, la recta que sigue no es una prolongación del anterior, puesto que el rayo es refractado o desviado. La línea perpendicular a la superficie de separación de los dos medios en un punto se denomina normal. Al pasar de un medio menos denso a otro más denso, el rayo de luz se desvía hacia la normal y, si pasa de un medio más denso a otro menos denso, se aleja.
m1_09a.gif
La base de funcionamiento de los objetivos es la refracción, es decir, el cambio de dirección que experimentan los rayos de luz cuando pasan de un medio a otro de densidad diferente.
5.1.1.Lente simple
Una lente es un disco de cristal que, cuando es atravesado por los rayos procedentes de un objeto puntual situado a un lado, produce una desviación de los rayos hacia un punto común situado al otro lado de la lente, como si procedieran de un lugar más próximo a la lente que el objeto. Para lograr este efecto, se da una forma esférica en una de las superficies del disco o en las dos.
Si las superficies curvas se sitúan de forma que la lente es más gruesa en el centro que en los bordes, los rayos de luz paralelos que incidan convergen sobre un punto del lado opuesto y recibe el nombre de lente convergente.
Foco de una lente convergente
Foco de una lente convergente
En cambio, si la lente es más delgada en el centro que en los bordes, los rayos de luz paralelos que incidan, vistos desde el otro lado, aparecerán como procedentes de un punto. Estas lentes reciben el nombre de divergentes.
Foco de una lente divergente
Foco de una lente divergente
Como cualquier objeto puede ser considerado como una reunión de puntos, una lente convergente que produce puntos imagen de todos los puntos objeto forma una imagen similar de todo el objeto. Si colocamos en el plano de los puntos imagen una superficie reflectora, se formará una imagen visible del objeto. Se trata, en realidad, del tipo de imagen que se forma sobre la pantalla de enfoque de las cámaras fotográficas o cinematográficas y que se recoge como imagen latente sobre el material sensible durante la exposición o sobre el target o mosaico fotosensible de una cámara de vídeo. Este tipo de imágenes se denominan imágenes reales.
Al contrario, las lentes divergentes no forman imágenes reales, puesto que los rayos luminosos procedentes del objeto no convergen después de la refracción, sino que se separan de forma que aparecen como procedentes de un punto más próximo que el objeto. Se trata de puntos solo aparentes, no existentes en la realidad. Por eso, la imagen formada por todos los puntos del objeto recibe el nombre de imagen virtual. Estas imágenes no se pueden hacer visibles sobre una superficie reflectora como imágenes reales.
Podemos resumir afirmando que las lentes convergentes hacen que los rayos de luz incidentes converjan en un punto y las lentes divergentes hacen que los rayos se dispersen. Los objetivos compuestos están formados por agrupaciones de lentes convergentes y divergentes, pero el efecto total es el de una lente convergente.
Objetivo compuesto
Objetivo compuesto
Las lentes convergentes forman imágenes reales, mientras que las divergentes forman imágenes virtuales.
5.1.2.Varias formas de lentes
El comportamiento de las lentes varía según el número de superficies curvas y la dirección de la curvatura. Si las dos superficies son convexas o una es convexa y la otra plana, la lente es siempre de tipo convergente.
Cuando las dos superficies son cóncavas o una es cóncava y la otra plana, la lente es siempre de tipo divergente. Cuando una es cóncava y la otra convexa, la lente puede ser convergente o divergente, según la curvatura relativa. Si los dos lados tienen el mismo tipo de curvatura, la lente no es ni convergente ni divergente. En la práctica, cada tipo de lente no tiene aplicaciones especiales ni un nombre que la diferencie.
En sus aplicaciones se usan las lentes simples (un cristal sencillo) o compuestas (conjunto de cristales con características determinadas para compensar ciertas desventajas intrínsecas de los componentes sencillos).
Formas de lentes
Formas de lentes
plana
convexa
cóncava
denominación
grueso máximo en
efecto

1

1

---

planoconvexa

centro

convergente

1

---

1

planocóncava

bordes

divergente

---

2

---

biconvexa

centro

convergente

---

---

2

bicóncava

bordes

divergente

---

1

1

concavoconvexa

centro

convergente

---

1

1

concavoconvexa

bordes

divergente

5.1.3.Foco principal de una lente
La línea recta sobre la que la lente es simétrica se denomina eje y en ella se sitúan los centros de curvatura de todas las caras curvadas de la lente.
Cuando los rayos de luz atraviesan una lente convergente, de manera paralela al eje, como si procedieran de un punto muy alejado (lo que en términos fotográficos se denomina el infinito ¥), se desvían hacia dentro y, finalmente, se encuentran en un punto sobre el eje. Este punto recibe el nombre de foco principal de la lente.
El foco principal de una lente convergente es un punto real y la imagen formada por la lente es también una imagen real que se puede enfocar sobre una pantalla. El foco principal de una lente divergente, en cambio, no es un punto real en el mismo sentido anterior y la imagen no se puede hacer visible proyectándola sobre una pantalla, por eso el nombre que ya hemos mencionado de imagen virtual.
m1_28.gif
Las imágenes tomadas con lentes convergentes se pueden enfocar sobre una pantalla, a diferencia de las imágenes tomadas con lentes divergentes.
5.1.4.Distancia focal
La distancia desde el centro de la lente hasta el foco principal recibe el nombre de distancia focal de la lente. Es la distancia a la que todos los rayos de luz paralelos (es decir, los que provienen de un objeto muy distante, del llamado infinito fotográfico) convergen para formar una imagen nítida sobre la película. Hay que señalar que si el objeto no está alejado, sino más próximo, en este caso la imagen se forma más alejada de la lente.
Cuando el objeto está en el infinito fotográfico, la distancia lente-plano focal que da la máxima imagen de nitidez o enfoque máximo es igual a la distancia focal de la lente. Cuando el objeto esté más próximo, la distancia siempre es más elevada que la distancia focal. La operación de encontrar la distancia exacta (alejando o acercando las lentes del objetivo mediante el desplazamiento controlado) que da la imagen más nítida de un objeto determinado se conoce como enfoque de la lente.
El enfoque es la operación de encontrar la distancia exacta (desplazando las lentes del objetivo) que produce la imagen más nítida de un objeto determinado.
5.1.5.Concepto de foco equivalente
Del mismo modo que en las lentes sencillas, en las lentes compuestas (formadas por varios componentes) se determinan los focos principales a partir de la posición del punto imagen de un objeto situado a distancia tomando como referencia el eje de la lente.
Las lentes simples se consideran sin tener en cuenta el espesor y suponiendo que las distancias objeto-lente y lente-imagen se miden desde el centro de la lente. Las lentes compuestas no pueden ser consideradas del mismo modo y, en los cálculos, la distancia hasta el objeto se mide desde un determinado punto de la lente, mientras que la distancia a la imagen se hace desde otro. Estos puntos reciben el nombre de puntos nodales y los planos que los atraviesan en ángulo recto con el eje reciben el nombre de planos principales. La distancia desde el segundo punto nodal (o punto nodal posterior) hasta el foco principal posterior es la distancia focal equivalente de la lente. La distancia desde el primer punto nodal (o punto nodal anterior) hasta el foco principal frontal también es la distancia focal equivalente de la lente. Por eso, es necesario que los rayos luminosos provengan desde un punto paralelo a la lente, es decir, desde el infinito fotográfico.
La distancia focal equivalente gobierna el tamaño y la posición de la imagen formada, del mismo modo que la distancia focal gobierna el tamaño y la posición de la imagen formada por una lente simple.
La distancia focal de un objetivo compuesto es la que intercede desde el punto nodal posterior hasta el foco principal posterior, siempre que los rayos luminosos provengan desde un punto paralelo a la lente, es decir, desde el infinito fotográfico.

5.2.El diafragma

El diafragma permite regular la intensidad del haz de luz que pasa por el objetivo hacia el target o mosaico fotosensible, o la película fotográfica o de cine.
Se trata de un mecanismo similar al iris del ojo humano, un músculo que se dilata o se contrae según la intensidad de la luz para regular el diámetro de la pupila y, al mismo tiempo, la intensidad de la luz que llega a la retina.
Su interés en la captación de imágenes está relacionado con el hecho de que el diámetro de un haz de rayos luminosos que atraviese un objetivo determina la luminosidad de la imagen que se forma. El diámetro máximo de este haz depende del diámetro óptico del objetivo. Si le situamos una combinación de pequeñas láminas metálicas que forman un orificio graduable, es posible graduar el diámetro de este haz luminoso y, por lo tanto, la intensidad de iluminación de la imagen. El dispositivo que tiene este orificio se conoce con el nombre de diafragma. Un orificio pequeño deja pasar menos luz que otro grande y, por eso, el diámetro del orificio puede servir para alterar o regular la exposición.
Aun así, la variación del diámetro de este orificio tiene otros efectos. El primero es que el orificio del diafragma regula el ángulo del cono de rayos luminosos que forma la imagen.
Cuando el objetivo está enfocado nítidamente sobre el plano focal (donde se sitúa la película para impresionar), el extremo del cono de rayos luminosos procedente de la imagen se reproduce como un punto-imagen. Si el sujeto o la película (por desplazamiento de las lentes del objetivo mediante el mecanismo de enfoque) cambian de posición, el extremo del cono ya no coincide con la superficie de la película y el punto-imagen llega a formar una mancha circular. El tamaño o diámetro de la mancha depende del ángulo del cono y de la distancia a la que se haya desplazado el extremo hacia atrás o hacia delante del lugar donde se ha ubicado la película.
A medida que se reduce el tamaño del orificio del diafragma, el ángulo del cono de rayos se va haciendo más estrecho y un cambio en la distancia desde el tema hasta el objetivo produce un cambio más pequeño en el diámetro de la imagen. De este modo, una pequeña apertura del diafragma aumenta la profundidad de campo que se cubre nítidamente, asimismo aumenta el intervalo de movimientos hacia delante y hacia atrás de la película (la profundidad de foco), entre los que el objetivo producirá una imagen nítida de un sujeto determinado. Es decir, el enfoque es más sencillo cuando la apertura del diafragma es más pequeña.
El diafragmado contribuye a mejorar la calidad de la imagen, dado que los objetivos presentan más aberraciones en los extremos o la periferia de la lente que en el centro. Incluso en la máxima apertura del diafragma de un objetivo, la luz no atraviesa la totalidad de la lente, por lo que se consigue no usar los bordes de la lente proclives a la formación de aberraciones que desvirtuarían la calidad de la imagen captada.
El tipo de diafragma ajustable utilizado universalmente para controlar la apertura de los objetivos es el diafragma de iris. El orificio ajustable se forma por una serie de pequeñas láminas delgadas de metal, montadas en anillos alrededor del objetivo. Una palanca de mando situada en el exterior de la lente (o un dispositivo electrónico que las regula en la función automática) cierra o abre las hojas y hace el orificio más grande o más pequeño, a la vez que indica el número f de la apertura en una escala situada junto al mando; esta escala está regulada según el llamado núcleo F de apertura. Cuanto mayor sea el número de láminas en este tipo de diafragma, más se aproxima la apertura a una forma perfectamente circular.
El diafragma regula el haz de luz que atraviesa el objetivo para impresionar el mosaico fotosensible de las cámaras de vídeo o la película en fotografía y cine.
5.2.1.Efectos del diafragmado
Además de regular la cantidad de luz que pasa por el objetivo y de determinar la profundidad de campo, la modificación de la apertura del objetivo tiene otros efectos.
Tal como ya hemos avanzado, el diafragmado ayuda a mejorar la definición. Esto se debe al hecho de que la corrección del objetivo para los rayos centrales suele ser mejor que para los rayos marginales. En este caso, el diafragmado elimina una parte de los rayos marginales y determina una mejor calidad de la imagen.
Efectos del diafragma
En los objetivos actuales, normalmente muy luminosos, la corrección es un punto medio entre los rayos centrales y los marginales. Cierta cantidad de diafragmado sigue mejorando la definición, pero pasado el punto de definición óptima ya no se obtiene una mejora. Incluso puede suceder lo contrario, al alterarse el equilibrio de corrección entre los rayos centrales y los marginales.
En aperturas pequeñas, la definición de la imagen se altera por efecto de la difracción. Las ondas luminosas se curvan ligeramente cerca del borde de la apertura del diafragma y provocan la dispersión de una cierta cantidad de luz, hecho que determina una carencia de nitidez. Con una apertura del diafragma muy reducida, estos rayos desviados constituyen una proporción importante de los rayos luminosos que atraviesan el diafragma y, por eso, perjudican la nitidez de la imagen.
m1_29.gif
En general, el diafragmado tiene repercusiones positivas sobre la calidad de la imagen captada por el objetivo.
5.2.2.Número f o apertura relativa
El diámetro efectivo del diafragma decide la cantidad de luz que puede pasar por el objetivo para formar la imagen. Sin embargo, la misma cantidad de luz se puede extender sobre una imagen reducida (por ejemplo, si utilizamos un objetivo gran angular, de corta distancia focal) o sobre una imagen de grandes dimensiones (si usamos un teleobjetivo de distancia focal larga).
Por eso, lo que es importante para decidir la intensidad de la imagen no es simplemente el tamaño de la apertura efectiva del diafragma, sino el tamaño que tiene en relación con la distancia focal del objetivo. Por esta razón, el tamaño de la apertura se da siempre como una fracción de la distancia focal, es decir, f/D, donde f es la distancia focal y D el diámetro efectivo de apertura del diafragma. Esta fracción recibe el nombre de apertura relativa del objetivo.
Todos los objetivos con una misma apertura relativa forman, en teoría, imágenes de un mismo sujeto con la misma luminosidad, y esta es la base de la normalización internacional de los objetivos.
Por ejemplo, un objetivo de distancia focal 50 mm que, en un momento dado, use una apertura efectiva de 3,1 mm, tendrá una apertura relativa aproximada de 16, es decir, 50/3,1. Del mismo modo, un objetivo de 80 mm y una apertura efectiva de 5 mm también tendría una apertura relativa de 16. Los dos objetivos producirían una imagen del mismo sujeto con la misma luminosidad.
La comodidad de este sistema de indicar el tamaño del diafragma es obvia. Quiere decir que el cámara no tiene ninguna necesidad de conocer el verdadero diámetro al ajustar la exposición independientemente del tipo de cámara, objetivo o formato que use, dado que el mismo número de apertura relativa (o número f) le proporcionará la misma exposición.
m1_60.gif
El número que indica la apertura relativa dada por un diafragma particular se denomina número f y su valor se expresa por la letra f seguida del número, por ejemplo f: 5,6, que indica que el diámetro efectivo del diafragma es 1/5,6 veces más pequeño que la distancia focal del objetivo. Todos los objetivos con el mismo número f dejan pasar en cuanto a la exposición la misma cantidad de luz, independientemente de la distancia focal del objetivo o diámetro de apertura efectiva del diafragma. A medida que la apertura aumenta, el número f se hace más pequeño. Estos números se encuentran grabados en una escala a lo largo del mando del diafragma.
La normalización en los números f hace que nos podamos despreocupar del tipo de objetivo que usamos para la exposición.
5.2.3.Escalas de apertura
Cuanto mayor es el número f, más pequeño es el haz luminoso que penetra en el objetivo y menos luminosa la imagen que se forma. Hay que disponer de una serie útil de números f de trabajo con los que indicar el control de la apertura, además conviene que el cambio de un diafragma al otro represente un paso progresivo de la luz, en términos de dejar pasar el doble de luz al abrir un punto de diafragma o limitar la luz a la mitad cuando cerramos un punto. La solución está en la escala siguiente, admitida y establecida internacionalmente:
f: 1 / 1,4 / 2 / 2,8 / 4 / 5,6 / 8 / 11 / 16 / 22 / 32/ 45 / 64, etc.

5.3.La profundidad de campo

Cuando se enfoca el objetivo de la cámara para que dé una imagen nítida de un objeto determinado, los demás objetos situados a una distancia más grande o más pequeña no salen igual de nítidos. La pérdida de nitidez es gradual y hay una zona, delante y detrás de la distancia a la que se ha enfocado, poco borrosa para que el ojo la aprecie y que se puede considerar nítida. Esta zona nítida se corresponde con la profundidad de campo del objetivo.
La extensión de la profundidad de campo depende, entre otras cosas, del grado de borrosidad que se esté dispuesto a considerar como nítido; es decir, depende del tamaño del llamado círculo de confusión. Cuanto más exigentes seamos con la nitidez, más pequeño será el círculo de confusión permisible y más reducida será la profundidad de campo.
Para entender mejor el concepto, podemos representar la trayectoria del haz de luz que constituye la imagen de un punto como una serie de conos. Los rayos de luz procedentes de un punto de la imagen captada por el objetivo forman un cono con base en el objetivo y vértice en el punto. Las lentes del objetivo modifican la trayectoria de la luz y hacen converger los rayos hacia un mismo punto donde se ubica la película, pero, más allá de este punto, los rayos vuelven a divergir. Los rayos convergentes forman, por lo tanto, un cono con la base situada en la lente posterior del objetivo y con vértice en la imagen que es, a su vez, el vértice del cono que forman los rayos divergentes detrás de la película.
Círculos de confusión
Círculos de confusión
El mecanismo de enfoque de un objetivo se encarga, mediante el desplazamiento de las lentes, de situar el plano del target fotosensible o la película de foto o cine exactamente en el plano en el que se forma la imagen del objeto que se quiere registrar con la máxima nitidez. Realmente, se puede considerar el mecanismo de enfoque como un plano con el que cortamos los conos que forman la imagen. Cuando el plano de enfoque no coincide con el vértice del cono, el punto no aparece como tal, sino como un círculo de confusión que se corresponde exactamente con la sección del cono en el plano donde se sitúa la película. Cuanto mayor sea la distancia entre el plano de enfoque y el vértice del cono, más grande es el diámetro del círculo de confusión.
El ojo humano tiene un poder de resolución limitado, es incapaz de distinguir un punto de un círculo cuando es bastante pequeño, dado que percibe como puntos cualquier círculo de un diámetro inferior a 0,25 mm.
La profundidad de campo también depende de la apertura y de la distancia focal del objetivo, así como de la distancia del objetivo al sujeto (distancia de enfoque).
m1_30.gif
5.3.1.Relación de la profundidad de campo con la apertura del diafragma
La posición del plano de enfoque respecto al vértice del cono (donde se forma la imagen nítida del punto después del enfoque) influye de manera determinante en el diámetro del círculo de confusión, aunque se tiene que añadir que también depende de la amplitud del ángulo que forma el cono. Este diámetro del haz, como se puede apreciar en la figura siguiente, está determinado por la apertura del diafragma. A un diafragma más cerrado le corresponde un cono mucho más estrecho que a un diafragma abierto, es decir, un cono estrecho produce, a la misma distancia, un círculo de confusión mucho más pequeño que un cono amplio. Por eso, objetos que a una determinada distancia y apertura pudieran estar desenfocados, pueden quedar perfectamente enfocados cuando se cierra el diafragma por el efecto de reducción del círculo de confusión consiguiente.
Apertura y profundidad de campo
Apertura y profundidad de campo
5.3.2.Relación de la profundidad de campo con la distancia focal
Cuanto mayor sea la distancia focal, más pequeña es la profundidad de campo y viceversa.
Apreciaremos que, cuanto más pequeña sea la distancia focal, más próximos entre sí estarán los planos de enfoque nítidos de las diversas distancias. Por eso, podemos afirmar que, cuanto más pequeña sea la distancia focal, el círculo de confusión de un punto desenfocado será menor.
Distancia focal y profundidad de campo
Distancia focal y profundidad de campo
5.3.3.Relación entre la profundidad de campo y la distancia de enfoque
Para una determinada apertura, la profundidad de campo de un objetivo es más pequeña en distancias cortas y más grande en distancias importantes. No existe una relación lineal entre la distancia del objeto al objetivo y los planos de enfoque. De hecho, los planos de enfoque nítido están muy agrupados para distancias superiores a cien veces la distancia focal, pero se separan en forma geométricamente progresiva a medida que disminuye la distancia de enfoque. La conclusión es que, cuando trabajemos a distancias cortas, tendremos que tener mucho más cuidado con el enfoque que si trabajamos a distancias más grandes para obtener imágenes nítidas.
Distancia de enfoque y profundidad de campo
Distancia de enfoque y profundidad de campo
La profundidad de campo se ve afectada por la distancia focal del objetivo, por el diafragma que se usa y por la distancia de enfoque.
5.3.4.Distancia hiperfocal
Para el cámara, un concepto de gran utilidad es el conocimiento de la distancia hiperfocal, que se explica si se tiene en cuenta que, para cualquier distancia focal y apertura del objetivo, hay un punto a partir del cual la profundidad de campo es infinita. Este punto marca la distancia hiperfocal y se corresponde siempre con el límite más próximo a la cámara de la profundidad de campo, cuando el objetivo está enfocado al infinito. Si el objetivo se enfoca a esta distancia (hiperfocal) y no al infinito, lo que se puede hacer mediante la escala graduada en metros del anillo de enfoque, la profundidad de campo se extiende desde el infinito hasta la mitad de la distancia que intercede entre el punto de la distancia hiperfocal y el objetivo de la cámara. Así pues, si se enfoca a esta distancia, se obtiene una profundidad de campo más extensa que facilita al cámara la toma de imágenes sin prestar atención al enfoque, siempre que se tenga cuidado de no acercar excesivamente la cámara al objeto enfocado.
La distancia hiperfocal depende de los mismos factores que la profundidad de campo: grado de nitidez (círculo de confusión), apertura del diafragma y distancia focal del objetivo.
El conocimiento y la aplicación del concepto de distancia hiperfocal por parte del cámara permite ganar profundidad de campo y un control del enfoque mayor.

5.4.Tipos de objetivos

Los objetivos se caracterizan, entre otras diferencias, por el ángulo visual que alcanzan, es decir, por el ángulo entre los dos puntos más separados del encuadre: la diagonal. En la práctica, tan solo interesa el ángulo alcanzado en sentido horizontal. Pueden ser de distancia focal fija o variable.
5.4.1.Objetivos de distancia focal fija
Son los que pueden trabajar exclusivamente con una única distancia focal. Esta exclusividad les confiere la posibilidad de ser diseñados para dar el máximo rendimiento y calidad de imagen. Sin embargo, se usan muy poco en el mundo del vídeo y de la televisión. Su dominio está más vinculado a la fotografía y al cine.
Objetivo normal
Entre los objetivos de focal fija está el objetivo normal que, en los medios de imagen móvil, se corresponde con la distancia focal que, para un formato determinado, proporciona un ángulo de captación horizontal de unos veinte o veinticinco grados.
m1_34a.gif
m1_34b.gif
Objetivo angular
El objetivo angular tiene, para un mismo formato, una distancia focal más corta que el objetivo normal e incluye un ángulo de imagen más grande. Por eso, permite trabajar en espacios reducidos donde no se podría hacer con un objetivo normal. El inconveniente es que origina distorsión en los primeros planos (efecto de agrandamiento en las protuberancias próximas al objetivo), además de crear ciertas distorsiones geométricas, particularmente exageradas en los extremos del encuadre. El objetivo angular aumenta la perspectiva y produce la sensación de que los objetos están más distantes de lo que están en realidad. La distorsión se acentúa a medida que se acorta la distancia focal. Proporciona una gran profundidad de campo.
Teleobjetivo
El teleobjetivo u objetivo de ángulo estrecho se caracteriza por la larga distancia focal. Tiene un efecto de magnificación del tema que facilita la toma de imágenes cuando el cámara no se puede acercar al motivo. También posibilita los primeros planos sin necesidad de un acercamiento excesivo al sujeto. Las imágenes captadas por este objetivo producen la sensación de compresión de la profundidad o aplanamiento de la perspectiva. La larga distancia focal les confiere una escasa profundidad de campo y el estrecho ángulo de captación obliga a sujetar firmemente la cámara o, incluso mejor, a colocarla sobre un trípode o soporte estable, ya que cualquier movimiento brusco origina grandes zarandeos de imagen.
5.4.2.Objetivo de distancia focal variable o zoom
El zoom es un objetivo de focal variable que tiene la particularidad de que permite cambiar la focal sin que por eso se modifique, en absoluto, la posición del plano de imagen, que queda enfocado de forma permanente. Están compuestos por grupos de lentes (por lo general dos grupos ópticos principales), que varían la distancia entre sí. Su ventaja está en la disposición, muy práctica para el usuario, de un elevado número de objetivos (angular, normal y tele) en solo uno, ya que al modificar la posición del anillo del zoom también se modifica el campo visual y, por lo tanto, el tamaño de la imagen del objeto encuadrado. De este modo, se producen efectos de acercamiento y alejamiento (travelling óptico). Los objetivos zoom se identifican según las longitudes focales que pueden cubrir. Así, un zoom con un rango de longitudes focales de 10 mm a 120 mm tiene una potencia de doce. Algunas potencias típicas de los objetivos zoom son 6:1, 10:1, 14:1 y 18:1. En las cámaras de vídeo, el cambio de focal se hace con la ayuda de un motor que desplaza las lentes. El zoom tiene un coste, un peso y un volumen mayor que un objetivo de focal fija. Además, introduce algunas distorsiones de imagen, junto con una cierta pérdida de luminosidad respecto a los objetivos de focal fija. Como las ventajas que tiene superan ampliamente sus inconvenientes, estos objetivos han desplazado, en la práctica, los de focal fija.
En los objetivos de focal variable o zoom podemos cambiar continuamente la distancia focal del objetivo, hecho que representa una variación del enfoque constante. Para que estas variaciones no se produzcan, cuando operamos con una cámara desde un punto determinado encuadrando un motivo que se mantiene fijo, el procedimiento de enfoque es el siguiente:
En primer lugar, seleccionaremos el objeto que queremos tener en el foco y lo acercaremos con el zoom hasta el máximo (máxima distancia focal o teleobjetivo), entonces movemos el mecanismo de enfoque hasta que apreciamos la máxima nitidez y resolución de la imagen en el visor de la cámara o su monitor asociado. A partir de ese momento, dispondremos del sujeto enfocado en todas las distancias focales que usemos, siempre que no desplacemos la cámara y el sujeto u objeto se mantenga inmóvil.
El conocimiento de las características de los varios objetivos permite escoger el más adecuado a las características expresivas, de calidad, de limitaciones de espacio o de posibilidades de acercamiento al tema.
5.4.3.Accesorios ópticos
En todos los objetivos, se pueden incorporar una serie de complementos y accesorios que modifiquen total o parcialmente las características. Un accesorio óptico muy extendido son las lentes suplementarias que, superpuestas al objetivo, cambian la distancia focal.
Las lentes suplementarias positivas o lentes de aproximación acortan la distancia focal del objetivo, lo que obliga a acercar la cámara al objeto para obtener una imagen nítida. Permiten hacer tomas magnificadas del tema y se diferencian por el número de dioptrías.
Aun así, hoy en día la mayoría de los objetivos zoom disponibles van provistos de sistemas de lente que hacen posibles las tomas de acercamiento (macro).
Sin ser propiamente un complemento óptico, el parasol es una armadura adaptada al objetivo que impide que los rayos de luz ajenos al área del encuadre incidan. Estos rayos producirían reflexiones internas que alterarían la nitidez de la imagen y que afectarían al contraste. El parasol más común es una pieza de plástico o metal negro opaco, en forma de tubo, que se enrosca sobre el objetivo de la cámara.

5.5.Cuestionario

Tras una lectura atenta del tema, responded al cuestionario siguiente. A continuación, contrastad vuestras respuestas con el contenido.
1. Desde el punto de vista de la óptica, ¿cómo afecta la refracción al comportamiento de los objetivos?
2. ¿Una lente divergente puede formar imágenes sobre un target o mosaico fotosensible de una cámara de vídeo?
3. ¿Cuáles son las diferencias de construcción y de comportamiento de las lentes convergentes respecto a las lentes divergentes?
4. ¿Qué diferencias existen entre las lentes simples y los objetivos compuestos?
5. Definid el concepto de distancia focal de una lente simple.
6. La fórmula que nos permite conocer el número f o apertura relativa de un objetivo relaciona la apertura efectiva con...
7. Enumerad las ventajas del diafragmado.
8. ¿Qué diferencias de paso de luminosidad se establecen entre un número f determinado respecto a su anterior o posterior?
9. ¿Cuál es el objetivo del enfoque de una imagen?
10. ¿De qué depende, para un mismo formato o mosaico fotosensible de una cámara, la profundidad de campo de una escena?
11. ¿Qué utilidad tiene para un cámara la aplicación de la distancia hiperfocal en una situación determinada?
12. La distancia focal de un gran angular, ¿es mayor o menor que la de un teleobjetivo?
13. ¿Qué quiere decir que un objetivo de distancia focal variable tiene una potencia x 10?
14. ¿Cómo se enfoca con el zoom?
15. ¿Para qué sirve un parasol?

6.La cámara de vídeo

6.1.Componentes de la cámara de vídeo

La función de la cámara de vídeo es la de captar la luminosidad de la escena y transformar las imágenes recogidas en los valores eléctricos correspondientes.
Básicamente, los elementos que integran una cámara de televisión son los siguientes:
  • El sistema óptico que capta la escena que tiene que ser analizada por el sistema. Se compone de un objetivo de focal fija o, lo más normal, de un objetivo de focal variable (zoom) que permite alcanzar varios ángulos de imagen.

  • El tubo de cámara o el CCD (charge cuppled devices) se encargan de transformar la luz en valores de tensión. Las cámaras de color disponen normalmente de uno a tres tubos o CCD para llevar a cabo esta conversión de forma conveniente.

  • Los circuitos amplificadores que aseguren la preamplificación de la señal de vídeo proporcionada por el tubo o CCD.

  • El monitor de imagen, que es como un televisor de dimensiones muy reducidas que tiene la función de proporcionar al operador de cámara la imagen que analiza la cámara.

  • También se puede incluir el soporte de la cámara.

6.1.1.Tubos de cámara
En el tubo de cámara, tiene lugar la transformación de la imagen óptica de la escena encuadrada en una señal eléctrica. La evolución continua que la televisión ha logrado hasta ahora ha sido posible por la aparición de tubos de cámara mejorados sucesivamente. Se podría escribir una historia de la tecnología televisiva tomando como referencia la transformación desde el primitivo iconoscopio hasta las más modernas cámaras del tipo CCD, cuya característica destacable es, precisamente, la eliminación del tubo convencional. La tecnología del tubo o CCD que se usa influye, de modo decisivo, en la calidad del sistema de televisión.
En principio existen dos tipos de tubos, los que proporcionan una tensión eléctrica cuando inciden sobre su pantalla sensible los rayos luminosos (tubos fotoemisores) y los que modifican la resistencia eléctrica según la intensidad luminosa que reciben (tubos fotoconductores).
Los tubos de cámara tienen en común la característica de proyectar la imagen por medio del objetivo sobre un mosaico fotosensible (también denominado target), transformando las diferencias luminosas en señal eléctrica proporcional.
Ejemplo
Para comprender mejor el fenómeno de la transformación de la luz en energía eléctrica (base principal de la televisión) vamos a analizar el funcionamiento de un tubo fotoconductor. Uno de los representantes de este tipo de tubos más genuinos es el plumbicón. Es un tubo del tipo fotoconductivo, es decir, que modifica la resistencia al paso de la corriente eléctrica según la intensidad luminosa que recibe. Una de las características que hay que resaltar en este tubo es el tamaño, mucho más pequeño que el del orticón, que permitió adoptarlo para las cámaras de color de tres tubos.
El target o mosaico fotosensible, donde el objetivo proyecta la imagen luminosa captada, está constituido por una fina lámina transparente de dióxido de estaño, llamada placa de señal, sobre la que incide la luz procedente de la escena enfocada por el objetivo y donde, además, se recoge la señal eléctrica resultante del proceso de exploración.
Sobre esta placa se deposita el material semiconductor que forma el mosaico, compuesto de monóxido de plomo impurificado con sulfuro de plomo.
Target
Target
Al incidir la luz en el mosaico, tras atravesar la placa de señal, se produce una corriente de electrones del interior al exterior que es proporcional, en cada punto, a la cantidad de luz que incide. De este modo, en cada punto de la cara externa del target aparece una acumulación de cargas negativas y, en los puntos de la cara interna, una acumulación de cargas positivas.
Seguidamente, un haz de electrones barre la cara interna del target. Así pues, cada punto toma tantos electrones del haz como cargas positivas tiene, de forma que queda eléctricamente neutro.
Cargas en el target
Cargas en el target
De este modo, los electrones de cada punto de la cara externa del target fluyen a través de la placa de señal y son recogidos por una resistencia de carga, de forma que se dispone de una corriente eléctrica que se corresponde proporcionalmente con la luminosidad de la imagen incidente sobre el target.
Este proceso se puede interpretar como la carga y descarga de un condensador elemental para cada punto o elemento de imagen. La capa fotoconductiva se puede considerar compuesta por un gran número de elementos resistivos (más de 400.000) a través de los cuales se produce una capacidad al tomar, por un lado, el material fotoconductor y, por el otro, la película fotoconductora. El mosaico se puede considerar como un conjunto de resistencias con un condensador en paralelo con cada una de estas resistencias. Un extremo de todo este conjunto es el electrodo común del mosaico (que tiene una carga positiva) y el otro extremo es un circuito abierto que se cerrará cuando incida el haz de electrones (carga negativa) sobre cada punto.
Configuración básica de un tubo fotoconductor
Configuración básica de un tubo fotoconductor
Desde el primitivo vidicón (primer tubo comercializado de base fotoconductora), ha habido una enorme evolución. Han aparecido tubos más perfeccionados, como el vidicón de diodo de silicio, el plumbicón o vidicón de óxido de plomo, el saticón, el newvicón, el chalnicón y otros.
El tubo de cámara tiene la misión de transformar las diferencias de luminosidad de la imagen proyectada por el objetivo sobre el target o mosaico fotosensible, en una señal eléctrica de características proporcionales a la luminosidad de la escena.
6.1.2.Características técnicas de los tubos de cámara
Las características técnicas básicas de los tubos de cámara son las siguientes:
  • Su tamaño. Son frecuentes los que tienen un diámetro del tubo de una pulgada para utilización en estudios y de 2/3 de pulgada para equipos más ligeros. También los hay de 1/2 pulgada para cámaras domésticas y de una pulgada y 1/4 para las grandes cámaras de estudio.

  • El arrastre fotoconductivo o persistencia. En los materiales fotoconductores sucede algo similar al caso del ojo humano, en el que se da la persistencia en la retina por el hecho de que las imágenes vistas se mantienen grabadas un instante tras haber sido retiradas. En estos materiales, las imágenes tardan un tiempo en volver al estado inicial una vez ha desaparecido el estímulo luminoso. Este fenómeno origina una superposición de la imagen anterior con la posterior, efecto especialmente molesto si las imágenes están en movimiento. Los tubos más modernos han logrado minimizar este efecto hasta valores casi despreciables.

  • Poder resolutivo. Es la capacidad de un tubo para discriminar y reproducir detalles hasta de la imagen y está relacionado con la distribución en partículas lo más diminutas posibles del material que compone el mosaico fotosensible.

  • Sensibilidad. Es la característica que permite trabajar con condiciones de baja luminosidad. En este terreno, los avances han sido espectaculares y en la actualidad hay tubos con los que es posible trabajar en valores de lux (unidad fotométrica) muy escasos.

  • Respuesta al espectro. Es la relación entre la señal de vídeo de salida y la radiación luminosa de entrada medida en longitud de onda. Lo ideal es que la respuesta espectral se asemeje lo máximo posible a la respuesta del ojo humano.

  • Arrastre de haz. Cuando sobre el tubo inciden niveles de luz elevados o, al contrario, niveles luminosos muy bajos, pueden quedar, tras el paso explorador del haz lanzado por el cañón de electrones, zonas con carga positiva no neutralizada que tienen el efecto de provocar una alteración sobre la imagen real que toma el objetivo.

  • Corriente de oscuridad. Cuando el tubo analiza una imagen negra, no tendría que haber ninguna corriente de salida. La realidad es que siempre hay, aunque mínimos, unos valores de salida.

  • Flare. Las reflexiones de la luz en la cara frontal del tubo pueden provocar una elevación del nivel de negros de la señal, según el brillo de la escena. Esto se traduce en un incremento de la relación de contraste que en televisión ya es, de por sí, bastante elevada. El flare hace perder matices de la escena, acentúa la claridad de las escenas luminosas y ennegrece exageradamente las escenas oscuras.

  • Característica de transferencia. Demuestra la linealidad o no linealidad de la señal de salida del tubo respecto a la cantidad de luz presente en la escena. La tendencia es favorecer la linealidad, es decir, se procura que la señal de salida suba de manera escalonada a medida que se incrementa la luz de la escena encuadrada.

Los avances en los diseños y las configuraciones de los tubos de cámara se han producido siempre en la dirección de minimizar los errores y buscar el máximo parecido posible con el funcionamiento del ojo humano.
6.1.3.Los sensores CCD
Los sensores de transferencia de carga, conocidos popularmente como CCD (charge coupled device), se están introduciendo progresivamente en los diversos ámbitos de la producción profesional y están sustituyendo ventajosamente y despacio los tubos de cámara, en todas las aplicaciones.
El rasgo diferencial de esta tecnología es la supresión de las bobinas deflectoras o de desviación, hecho que permite una simplificación de los ajustes de cámara.
El CCD es un dispositivo de componente sólido, que tiene un vigor y una resistencia ante golpes y vibraciones muy superior a los tubos de cámara. Su tamaño, mucho menor que el de los tubos convencionales, ha posibilitado el diseño de cámaras pequeñas y compactas, de poco peso, y ha sido un factor decisivo para el desarrollo de nuevos formatos de vídeo ligero, puesto que su tecnología también necesita una energía menor que los tubos de cámara convencionales. Esto hace crecer la ligereza, por la reducción consiguiente de la fuente de alimentación. Además, dispone de muy buena sensibilidad, tiene una vida prácticamente ilimitada, no tiene arrastres, es insensible a campos magnéticos externos y no se necesitan tiempos de precalentamiento, entre otros. Todas estas ventajas hacen comprensible su implantación progresiva.
En la tecnología CCD, la imagen captada por el objetivo de la cámara es enfocada sobre un material semiconductor. Sobre cada punto de esta lámina semiconductora se deposita una cantidad de carga proporcional a la cantidad de luz que incide y se mantiene fija en cada punto. El chip de silicio lo forman dos secciones diferentes: la mitad superior se usa para obtener las cargas producidas por la luminosidad de la imagen enfocada, mientras que la inferior está enmascarada a la luz y se usa como almacén. De esta última capa se extraen secuencialmente, por varios procedimientos, las cargas que constituyen la traducción eléctrica de las luminosidades de la escena encuadrada.
CCD como sensores de imagen
Los CCD que se usan como sensores de imagen consisten en una matriz superficial de diodos (como si se tratara de un tablero de ajedrez minúsculo, en el que cada casilla es un fotodiodo de silicio). Para convertir la imagen de una escena en una señal eléctrica equivalente, un sistema de lente proyecta sobre la matriz de diodos la imagen que cada fotodiodo convierte en una carga eléctrica, equivalente a los fotones que inciden sobre su superficie. Una solución es sacar la carga al exterior de cada fotodiodo por un conductor, lo que es viable cuando el número total de fotodiodos no excede de algunas decenas, pero si se trata, por ejemplo, del elemento sensible de una cámara de vídeo, su matriz sensible puede estar formada por 480.000 elementos (600 × 800), resulta imposible disponer de 480.000 conexiones externas. Aquí es donde entra la tecnología CCD.
Cada fotodiodo carga un pequeño condensador que almacena la carga durante el tiempo de exposición. Un reloj y un sistema de codificación activan, secuencialmente, la transferencia de carga desde cada uno de los condensadores hasta un terminal único común, por el que sale secuencialmente la carga de los condensadores de manera cíclica e ininterrumpida. Unas señales de sincronismo permiten identificar la señal eléctrica que corresponde a cada uno de los puntos de la imagen. En estos CCD, la transferencia de cargas entre cada uno de los elementos fotosensibles se organiza en filas y columnas.
La carga es transferida desde la lámina semiconductora hasta un amplificador de carga o circuito, que genera una tensión proporcional a la carga. Una vez ha tenido lugar la transferencia de carga, el punto explorado (descargado) queda dispuesto para recibir la luminosidad proveniente de una nueva imagen.
Descarga del CCD
Descarga del CCD
Los CCD son sensibles únicamente en la cantidad de fotones recibidos, es decir, por sí mismos no son capaces de identificar colores, razón por la que, al querer digitalizar una imagen en color, es necesario recurrir a algunos trucos. Normalmente, en las cámaras profesionales se usa un prisma que separa la imagen en sus tres componentes, rojo, azul y verde, cada uno de los cuales se digitaliza de forma individual por un CCD. La salida de estos tres CCD, que tienen que estar perfectamente alineados, se combina para obtener una señal en color mediante circuitos externos.
Las cámaras de vídeo domésticas solo disponen de un CCD. Para poder lograr la información de color, se coloca encima de la superficie sensible una máscara, de forma que tres puntos contiguos están filtrados sucesivamente por el rojo, el verde y el azul. Combinando las señales entre los tres puntos se puede obtener, por un lado, un valor correspondiente a la luminancia y, por el otro, la información de color, aunque con mucha menos resolución.
Las características más importantes que definen la calidad (y el precio) de un sensor CCD destinado a obtener imágenes son el número de píxeles o el número de superficies en los que se divide la superficie sensible, la sensibilidad o capacidad de proporcionar imágenes nítidas con baja iluminación y la velocidad o el tiempo necesario para que el CCD pueda extraer al exterior la señal de imagen obtenida.
Los CCD profesionales pueden llegar a disponer de hasta seis millones de puntos (matriz de 2.000 × 3.000). Los intentos para lograr más puntos y, por lo tanto, mejor definición, chocan con la posibilidad de que una mancha de polvo muy fino o un error de fabricación produzcan puntos ciegos que los hagan inservibles.
Las cámaras de vídeo profesionales usan resoluciones de 480.000 píxeles (600 × 800) en formatos o chips de 2/3 de pulgada. Otra característica importante es el rango dinámico, es decir, la gama de intensidad luminosa con la que puede trabajar el CCD, y se considera el umbral de intensidad mínima (muy relacionada con el ruido) y la iluminación máxima que puede soportar sin saturarse.
El vigor y la resistencia de los CCD, el consumo de energía más bajo, la sensibilidad, la durabilidad y la insensibilidad ante campos magnéticos externos, entre otras ventajas, han contribuido a expandirlos hasta la práctica desaparición de los tubos en las cámaras de vídeo.

6.2.Controles de la cámara

La tecnología de las cámaras de televisión en color se corresponde con sus niveles de utilización práctica. Hay cámaras domésticas, industriales y profesionales, diferenciadas entre sí tanto por las características electrónicas como por el tamaño. Las cámaras profesionales de estudio son voluminosas y siempre se usan sobre soportes compactos y grúas. Las cámaras industriales son más ligeras y en las cámaras domésticas se busca, por encima de todo, la reducción al mínimo.
Como ya hemos indicado, las cámaras actuales están sustituyendo los tradicionales tubos de cámara (vidicón, saticón, plumbicón, ledicón o saticón, entre otros) por los CCD, de mantenimiento mucho más sencillo. En general, las cámaras industriales o profesionales suelen tener tres tubos o CCD, mientras que en el ámbito doméstico se usan en su mayoría cámaras dotadas de solo un CCD, del que se extrae la información de luminancia y crominancia propia de la escena encuadrada.
Dimensión del target
Uno de los parámetros que tienen influencia sobre la calidad de la imagen obtenida es la dimensión del target o mosaico fotosensible. En general, cuanto mayor es, mejor es la calidad de la imagen captada. A continuación, exponemos un cuadro que relaciona la medida de los tubos o CCD con las aplicaciones típicas:
Diámetro (mm)
Tamaño de imagen (mm)
Diagonal de imagen (mm)
Aplicaciones típicas

30 (1 1/4 pulgada)

17,1 × 12,8

21,4

cámaras de estudio

25 (1 pulgada)

12,8 × 9,6

16

cámaras de estudio

cámaras EFP

18 (2/3 pulgada)

8,8 × 6,6

11

cámaras ENG

cámaras de estudio

cámaras EFP

12,5 (1/2 pulgada

6,4 × 4,8

8

cámaras domésticas

El sistema óptico utilizado por las cámaras de televisión es de vital interés en cuanto a la calidad de la imagen captada. Normalmente, las cámaras de vídeo incorporan un objetivo de focal variable, el zoom, que posibilita varios ángulos de encuadre. En los formatos domésticos, la óptica no suele ser intercambiable, como es norma en los formatos industriales. Estos últimos utilizan varias monturas y entre las más usuales encontramos la C, la S y la de bayoneta.
Una de las exigencias fundamentales sobre las características de las cámaras industriales y profesionales es la que hace referencia al desembrague de los automatismos. Uno de los automatismos que más conviene desembragar es el del diafragma. El diafragma regula el paso de los rayos luminosos hasta el mosaico fotosensible y suele actuar automáticamente regulado por un exposímetro. La automatización del sistema puede dar lugar a reproducciones de imagen defectuosas por sobreexposición o por subexposición en temas difíciles como es el caso de los contraluces (cuando el sujeto se enmarca en un fondo muy luminoso) o de los contranegros (cuando el sujeto se enmarca en un fondo muy oscuro). Para una exposición correcta, es aconsejable la regulación manual del diafragma. La mayor parte de cámaras industriales, profesionales y domésticas disponen de esta posibilidad.
En condiciones de poca luminosidad, las cámaras de vídeo pueden incrementar, de manera electrónica, su ganancia. Así pues, la grabación es posible, aunque esta elevación de la sensibilidad comporta un empeoramiento de la relación señal/ruido. Para esta indeseable consecuencia solo se tiene que aumentar la ganancia del amplificador de vídeo cuando sea absolutamente indispensable. La ganancia se mide en decibelios y se encuentra graduada, normalmente, en una escala de 3, 6, 9 y 12 decibelios.
La reproducción cromática de un objeto depende del color espectral de la fuente luminosa que lo ilumine. Esta afirmación es fácilmente comprensible cuando se utilizan fuentes luminosas de colores muy saturados. El problema se plantea, en la práctica, porque la mayoría de fuentes luminosas utilizadas, como la luz del día, las lámparas de tungsteno, las lámparas halógenas o los tubos fluorescentes, proporcionan un espectro cromático de características diferenciadas y la cámara de color es sumamente sensible a estas diferencias. En definitiva, varía la temperatura de color o calidad de las fuentes de luz. Para llegar a una solución de equilibrio cromático cuando se trabaja con varios iluminantes, se tiene que ajustar manual o automáticamente el balance del blanco (white balance). El equilibrio de la temperatura de color se consigue, en vídeo, ajustando automáticamente la ganancia de los amplificadores de las vías roja y azul, de forma que las tres señales (rojo, verde y azul) sean idénticas cuando la cámara encuadra un objeto blanco. Este ajuste se tiene que volver a repetir cada vez que se cambia de fuente luminosa.
Algunas cámaras industriales y la práctica totalidad de las profesionales tienen que permitir la posibilidad de sincronizarse entre sí cuando son gobernadas desde una sala de control. Si no hubiera una sincronización perfecta no sería posible la mezcla de señales entre varias cámaras. En los estudios de televisión se acostumbra a usar un generador máster de sincronismos que reparte los sincronismos entre las cámaras del plató. Otra forma de sincronización es hacer uso del gen-lock, que permite la sincronización de todas las cámaras a partir de una sola. En cualquiera de los dos procedimientos, se garantiza la mezcla de imágenes que provienen de varias cámaras.
Nota
Recordemos que la televisión en color requiere procedimientos de exploración que proporcionen las tres señales primarias correspondientes al rojo, el verde y el azul, a partir de las cuales se obtienen:
  • La señal de luminancia (Y), obtenida gracias a la resta de una porción de rojo verde y azul.

  • Las señales denominadas diferencia de color RY (rojo menos luminancia) y BY (azul, blue, menos luminancia); no interesa obtener la señal correspondiente al verde menos luminancia. Así pues, el proceso de codificación y transmisión se simplifica y se puede volver a recuperar esta señal, que corresponde al verde, en el receptor, gracias a un proceso de sumas y restas con la luminancia y las señales de diferencia de color transmitidas de forma efectiva.

Las cámaras de tres tubos (o tres CCD) son las que se usan de modo más profesional. Utilizan un tubo para el procesamiento de cada color primario y se obtiene la luminancia por el procedimiento de restar una parte de la señal de salida de cada tubo.
Las cámaras de solo un tubo (o un CCD) usan unas retículas coloreadas situadas en el recorrido de la luz procedente de la escena. Alternando bandas amarillas y cian obtienen las señales correspondientes a los colores primarios y la señal de luminancia.
Por último, hay que mencionar que, ante la futura perspectiva de un televisor de pantalla panorámica (16:9 frente a la actual relación de aspecto 4:3), ya empieza a ser habitual que las cámaras que presentan los fabricantes dispongan de la posibilidad de captar imágenes con la relación de aspecto de 16:9.
Una de las principales diferencias entre las cámaras domésticas y las profesionales es la posibilidad de estas últimas de desembragar los automatismos; es decir, de imponer los criterios del operador de cámara sobre los que la cámara determina (en muchos casos con éxito) de manera automática.
6.2.1.Periodismo electrónico. Sistemas ENG
Hasta el final de la década de 1980, la mayor parte de las noticias emitidas por televisión tenían soporte fílmico. Los hechos noticiosos eran filmados con cámaras cinematográficas de 16 mm. Las películas se sometían al proceso de revelado, montaje y sonorización hasta que, finalmente, eran reproducidas por el telecine o sistema convertidor de la imagen fotográfica o cinematográfica en señal de televisión. Entonces, los magnetoscopios eran voluminosos y pesaban, mientras que las cámaras cinematográficas utilizadas para estas ocupaciones se caracterizaban por la ligereza.
Desde comienzos de la década de 1980, se ha popularizado, a escala mundial, el uso de los llamados equipos ENG (electronics news gathering) o sistemas de toma electrónica de noticias, cuya principal ventaja es la inmediatez en la revisión de la señal grabada, la reproducción instantánea y la facilidad para emitir en directo mediante el uso de enlaces hercianos. Todo esto ha sido posible gracias a la reducción de peso y volumen de los equipos, así como por la mejora de la señal obtenida (en especial desde la aparición del formato de vídeo U-MATIC-HB).
Los equipos autónomos de toma de noticias se suelen transportar en furgonetas ligeras y constan, en la configuración más sencilla, de un camcorder alimentado por baterías que acentúan la autonomía. Algunos de estos vehículos ligeros están equipados con un radioenlace, lo que hace posible la emisión directa en los estudios de televisión (suele ser necesario disponer de un enlace intermedio, como un helicóptero o edificio elevado). Con el enlace herciano, se evita el desplazamiento hasta los estudios para entregar la cinta grabada, al mismo tiempo que se libera el equipo de toma para poder desplazarlo a otro escenario.
Las cámaras de ENG deben cumplir una serie de requisitos fundamentados en el mínimo peso y tamaño posibles, una alimentación autónoma, un diseño ergonómico con manejo sobre el hombro, la automatización de los ajustes con posibilidad de desembrague, un visor electrónico pequeño (máximo dos pulgadas) con indicación interna de los datos de operación y un ajuste del blanco rápido, entre otros.
Algunas cámaras ENG pueden ser utilizadas en estudios mediante unas adaptaciones muy simples que les posibiliten el control desde la unidad de control de imagen ubicada en la sala de control del estudio; adaptaciones como la incorporación de un visor de estudio de hasta siete pulgadas, la admisión de impulsos provenientes de un generador máster o desde el gen-lock de una cámara, entre otros. Esta transformación es muy interesante, desde el punto de vista económico, para las pequeñas y medianas productoras de vídeo que necesitan aprovechar al máximo el material del que disponen.
Actividad
1. Conseguid catálogos de cámaras de vídeo domésticas, industriales y profesionales (podéis obtener esta información en Internet, consultando las firmas más conocidas, por ejemplo Sony, JVC, Panasonic o Canon). Comparad las características de captación y tratamiento de la imagen, los diseños, las posibilidades de entrada y salida de la información, la ergonomía y los precios de coste. Analizad los datos y extraed vuestras propias conclusiones.
2. Podéis encontrar catálogos de cámaras domésticas e industriales de vídeo y sus posibilidades operativas en la dirección de Internet www.ibertronica.es/video.htm.
La principal exigencia de los sistemas ENG es lograr la máxima movilidad, operatividad y ligereza posibles de la cámara.

6.3.Soportes de cámara

Para conseguir imágenes estables, hay que disponer de un buen trípode o soporte de cámara adecuado. Sin estos soportes, excepto en las circunstancias propias del ámbito del reportaje en las que prevalece la consecución de la imagen sobre la calidad, la imagen obtenida difícilmente podrá ser aprovechable para una producción convencional.
Tanto para lograr imágenes estáticas como imágenes en movimiento (del motivo o referente, de la cámara o de ambos), hay que tener los soportes que garanticen la obtención de una imagen reconocedora, estable y sin saltos.
6.3.1.El trípode
El trípode es un accesorio de la cámara imprescindible en la gran mayoría de los casos. Es el soporte más habitual de la cámara cuando no está en movimiento e, incluso, se usa cuando se mueve.
El trípode consta esencialmente de dos partes:
  • La cabeza: plataforma donde descansa la cámara, que permite llevar a cabo varios movimientos.

  • Los pies: tres pies, que en su origen eran de madera y en la actualidad son de metal (acero inoxidable o titanio, por ejemplo).

Las características principales de un buen trípode son básicamente tres: que sea estable, manejable y adaptable al tipo de cámara que soportará. Estas calidades generan que el trípode sea bastante pesado, en especial si va a soportar cámaras de televisión de estudio.
Para elegir el trípode se tiene que tener en cuenta:
  • el tipo de cámara: peso y tamaño,

  • el movimiento que se va a ejecutar,

  • las condiciones del lugar de la toma de imagen.

Pies de trípode
Pies de trípode
Básicamente, existen tres tipos de cabeza de trípode:
  • Cabeza de fricción

    Es el tipo más simple de cabeza. Incorpora un nivel de burbuja y funciona muy bien para movimientos de cámara muy rápidos.

Cabeza de fricción
Cabeza de fricción
  • Cabeza hidráulica

    Muy similar a la de fricción, pero incorpora aceite mineral o silicona líquida, que permite unos movimientos más suaves y continuos. Es el trípode más popular para usos generales.

Cabeza hidráulica
Cabeza hidráulica
  • Cabeza mecánica

    Se utiliza con cámaras de grandes dimensiones y para movimientos más bien lentos, aunque los ejecuta de manera muy suave y precisa gracias a dos ruedas (en forma de volante) que controlan el movimiento vertical y horizontal. El operador necesita mucha habilidad y práctica para manejar este tipo de cabeza.

Cabeza mecánica
Cabeza mecánica
6.3.2.Pedestal de estudio y trípode ligero
Según la forma, tamaño y prestaciones, se tiene que distinguir entre el soporte pensado principalmente para el plató o el estudio y los trípodes más ligeros, diseñados para exteriores.
  • Pedestal de estudio

    Uno de los más populares es el crab dolly. La cámara va colocada sobre una columna telescópica (que se mueve hidráulica o eléctricamente) montada sobre una base con ruedas. Permite todo tipo de movimientos y desplazamientos. Este tipo de soporte se utiliza en el cine y también en estudios de televisión.

  • Trípode ligero

    Es el trípode clásico, con tres pies de madera o metálicos. No dispone de columna telescópica, pero las patas son extensibles. Para más seguridad, los trípodes se tienen que usar con una araña o un tensor que evite que se puedan abrir los pies. En cuanto a la longitud, no existen unos tamaños estándares, pero podemos disponer de trípodes desde los cincuenta centímetros hasta los dos metros de altura.

Accesorios
En tomas de ciertas características especiales se usan algunos accesorios, entre los que destacan:
  • Hit-hat o low boy: modelo de trípode especial para emplazamientos de cámara extremadamente bajos.

  • Columna elevadora: son elevadores de altura fija que se componen de una base, una columna y una cabeza donde se apoya la cámara. Se usan cuando hay poco espacio para moverse y hay que ajustar la altura de la cámara.

  • Araña o cangrejo: es una especie de triángulo que se fija en los extremos de los pies del trípode y evita que se abran.

Accesorios del trípode
Accesorios del trípode
6.3.3.La dolly
La dolly es uno de los accesorios casi indispensables en los rodajes de ficción o en estudios de televisión. Es un soporte de cámara que consta esencialmente de una especie de carro que permite el movimiento de la cámara sin necesidad de raíles y una pequeña grúa o columna telescópica que permite la toma desde puntos de vista bastante elevados. Existen varios modelos, cada uno con características específicas para adaptarse a varias situaciones.
La dolly puede lograr algo más de altura utilizando elevaciones como brazos extensibles. Según los modelos, pueden adaptar unas ruedas para las vías del travelling. Otros accesorios pueden ser los brazos cortos basculantes, los brazos de grúa o los brazos araña para tomas de puntos de vista muy bajos.
Tipos de dolly
Tipos de dolly
Existen algunos sistemas de grúas de grandes dimensiones, como la louma, capaz de ganar bastante altura gracias a un gran brazo extensible; o la scorpio, grúa en la que la cámara está colocada en la punta de un gran brazo telescópico que el operador controla a distancia gracias a un sistema de manecilla de juegos.
Grúas de grandes dimensiones
Grúas de grandes dimensiones
6.3.4.El travelling
Denominamos travelling al movimiento de la cámara cuando se desplaza físicamente de un lugar a otro del decorado, en contraposición con la panorámica, que es un movimiento de la cámara sobre su propio eje. El travelling se puede ejecutar de varias maneras, a pesar de que la más habitual es con la ayuda de unas vías, llamadas vías de travelling, que son unos tubos circulares diseñados como vías sobre los que circula un carro que soporta la cámara. Según el modelo de grúa que se coloca en las vías de travelling, puede soportar, además de una cámara de estudio y al operador, a otros técnicos.
El montaje del travelling puede resultar bastante complejo dependiendo del terreno y del movimiento de cámara. Cuando se hace el travelling, el movimiento tiene que mantener un ritmo y una velocidad constantes y precisos, así como una puesta en marcha y una parada suaves.
Cámara montada sobre las vías de travelling
Cámara montada sobre las vías de travelling
6.3.5.Sistemas antivibratorios
Existen varios sistemas que evitan la vibración por desplazamientos de la cámara sin las vías de travelling. Muchas veces es imposible disponer de ellos, tanto por la orografía del terreno, por movimientos muy bruscos o muy especiales, como cuando se tienen que bajar y subir escaleras, así como en helicópteros o aviones. Los sistemas antivibratorios más a corrientes son los siguientes:
  • Steadycam: es un sistema de cámara en mano flotante. Ideal para subir y bajar escaleras y, por lo general, para cualquier situación en la que se requieran muchos movimientos de cámara en terrenos desiguales.

    Consta de un tipo de faja o chaqueta que se pone el operador de cámara, con un brazo articulado montado sobre un soporte estabilizador y antivibratorio. En la actualidad, es un sistema muy utilizado que facilita el rodaje y evita tener que montar las vías de travelling en muchas situaciones. Requiere un operador especialista.

Sistemas de cámara flotante steadycam
Sistemas de cámara flotante steadycam
  • Wescam: es un soporte antivibratorio para helicópteros. Mantiene estable la cámara gracias a un sistema de control giroscópico, montado en una esfera en el exterior del aparato. Se controla a distancia desde el interior del helicóptero con la ayuda de un monitor.

Sistema wescam
Sistema wescam
  • Skicam: cámara con control a distancia sujeta con cuatro cables de acero. Enrollando y desenrollando los cables se consigue el movimiento lateral y vertical de la cámara mientras se mantiene suspendida sobre un objeto.

  • Soportes para embarcaciones: se trata de una plataforma de control giroscópico y estabilización electrohidráulica que mantiene la cámara siempre nivelada de forma horizontal.

Soporte para embarcaciones
Soporte para embarcaciones

7.La captación del sonido

7.1.Los micrófonos

Los micrófonos son transductores electroacústicos, es decir, elementos que transforman la energía acústica en energía eléctrica y que mantienen al máximo la proporcionalidad entre la intensidad del sonido captado y la tensión eléctrica de salida. Se tienen que asemejar, tanto como sea posible, a la oreja humana. Son uno de los elementos más críticos y a los que se tiene que prestar especial atención a la hora de seleccionar los equipos para la captación y posterior grabación del sonido. No sirve de nada tener un grabador de última tecnología si no disponemos de un micrófono adecuado para cada situación concreta.
La misión de los micrófonos es básicamente la de convertir la energía acústica en energía eléctrica. Para obtener esta conversión se suelen basar en el fenómeno de la inducción electromagnética. Este fenómeno se pone de manifiesto cuando introducimos un cable conductor de corriente en forma perpendicular en las líneas de fuerza de un campo magnético. Entonces se observa que por el cable empieza a circular una corriente eléctrica débil inducida por el campo magnético. Este fenómeno también se manifiesta en el sentido inverso.
En el proceso de conversión energética llevado a cabo por los micrófonos, siempre hay unas pérdidas de señal y adición de distorsiones no deseadas que tienen una incidencia definitiva en el resultado final. Por este motivo, en la elección de un micrófono para una captación determinada se deben tener en cuenta numerosos factores, entre los que hay que destacar sus propias características técnicas, las características acústicas de los locales y las particularidades de las fuentes que se tienen que captar.
La función de los micrófonos es la de traducir las variaciones de presión acústica en una señal eléctrica variable, lo que es posible gracias al fenómeno de la inducción electromagnética.
7.1.1.Características de los micrófonos
Podemos distinguir cinco características principales:
Sensibilidad
La sensibilidad de un micrófono se define como la relación entre la tensión que medimos en bornes del micrófono en circuito abierto y la presión sonora que actúa sobre la membrana, a la frecuencia de 1.000 Hz. La sensibilidad nos da idea de la cantidad de señal de salida (tensión) que proporciona el micrófono según la presión sonora recibida. Se mide siempre para un valor de presión normalizado, ya que así se pueden establecer comparaciones de unos modelos con los demás.
Esta característica nos da una idea de la eficiencia de la conversión acusticoeléctrica. Los valores de los micrófonos actuales se suelen situar entre -50 y -80 decibelios (dB).
Los valores son siempre negativos, por lo que será más sensible uno de -60 dB que uno de -75 dB, por ejemplo.
Cuanto mayor es el valor de la sensibilidad (en nuestro caso menos negativo su valor en decibelios), más sensible es el micrófono.
Los micrófonos más sensibles son los de condensador y los menos sensibles son los de cinta, mientras que los de bobina son de sensibilidad media.
Sensibilidad del micrófono
Sensibilidad del micrófono
Directividad
La directividad es la variación del nivel de sensibilidad según el ángulo de incidencia de las ondas sonoras sobre la membrana del micrófono. Se trata de una característica sumamente importante a la hora de ubicar los elementos captores, puesto que, según la orientación, podemos hacer variar la relación entre sonido directo y sonido reflejado, de forma que nos variará la distancia aparente entre el micrófono y la fuente. Se aprovecha la característica de directividad para paliar problemas acústicos de los locales y para llevar a cabo grabaciones estereofónicas.
A veces, pueden ser necesarios micrófonos que capten todo el sonido del entorno si, por ejemplo, necesitamos grabar el ruido general de un determinado ambiente. Aun así, en otras ocasiones nos puede interesar la captación de sonidos limpios provenientes de una determinada fuente productora, como una persona que habla o un instrumento de una orquesta. En cada uno de estos casos, necesitaremos varios tipos de micrófonos.
Según el principio de funcionamiento y su construcción, los micrófonos son más o menos sensibles a los sonidos procedentes de determinadas direcciones.
Se denominan omnidireccionales los micrófonos que captan prácticamente con el mismo nivel los sonidos generados delante de ellos y los producidos detrás. Los micrófonos que, al contrario, son sensibles fundamentalmente a los sonidos que se originan en su eje frontal se denominan unidireccionales. Hay modalidades intermedias entre estos dos polos, entre las que destacan los cardioides y los bidireccionales.
Normalmente, los fabricantes suministran las características de directividad sobre diagramas polares. Se muestra el nivel de la señal de salida a 360 grados en torno al micrófono. La referencia 0 grados se sitúa en el eje frontal.
m1_37.gif
Impedancia
La impedancia de un micrófono depende básicamente de la técnica que se ha usado al fabricarlo. Define la relación entre la tensión en bornes del micrófono y la corriente que suministra. Hay muchos modelos de micrófonos que ofrecen la posibilidad de disponer de varias impedancias de salida, dado que incorporan un transformador de impedancia. En cualquier caso, esta característica es muy importante a la hora de acoplar el micrófono al equipo grabador. Para evitar pérdidas y distorsiones, se tiene que cumplir que la impedancia de salida del micrófono coincida con la impedancia de entrada del equipo.
Los micrófonos se pueden clasificar según la impedancia como:
  • de baja impedancia: 25-600 Ω (ohmios)

  • de impedancia de línea: 600 Ω

  • de alta impedancia: 50 KΩ

Los micrófonos de baja impedancia presentan la ventaja de poder ser utilizados con largas tiras de cable (hasta aproximadamente cien metros). El principal inconveniente es que suelen tener una sensibilidad muy baja.
Los micrófonos de alta impedancia tienen una sensibilidad superior, pero la longitud del cable que se puede utilizar es muy limitada (entre siete y ocho metros). El cable de estos micrófonos es muy delgado y actúa a modo de condensador, con lo que puede generar numerosos problemas. Para resolver esta limitación, cuando el cable es superior a los ocho metros, se balancea la línea mediante unos transformadores.
Conexiones entre varios aparatos: relación de impedancia
Conexiones entre varios aparatos: relación de impedancia
Ruido de fondo
El ruido de fondo es una señal de carácter aleatorio que se genera en el mismo micrófono y reduce la calidad de la señal útil. Esta es una característica intrínseca a toda fuente de señal. Para medirla, se utilizan unos filtros ponderadores para atenuar las frecuencias altas y bajas, puesto que para estas frecuencias la oreja tiene poca sensibilidad.
A la hora de valorar el ruido de un micrófono, debemos tener en cuenta el grado de incidencia respecto al ruido de la entrada del equipo (a menudo el ruido de la entrada es muy superior al ruido del mismo micrófono).
Fidelidad
La fidelidad es la respuesta en frecuencia del micrófono (variación del nivel de sensibilidad con la frecuencia). Se dice que un micrófono tiene un alto grado de fidelidad cuando la gama de respuesta es amplia, cuando no presenta excesivas cumbres ni valles en la relación nivel de sensibilidad-frecuencia y cuando la tensión de salida es proporcional a la presión que incide en la membrana.
Un micrófono tiene que ser capaz de responder, al menos, al margen de frecuencias adecuado en la aplicación a la que está sometido. Para un micrófono que solo se utilizara para telefonía, habría bastante con que transfiriera señales desde los 300 Hz hasta los 4 kHz, ya que es la banda utilizada y transmitida por toda la red. En cambio, si se trata de llevar a cabo una grabación en alta fidelidad de un grupo musical, es necesario que responda desde los 20 Hz hasta los 20 kHz (es decir, todo el espectro completo de audio).
Cuando tengamos que escoger un micrófono, valoraremos la respuesta en frecuencia, representada en forma de gráfica como una curva que refleja el valor de la señal de salida para las diversas frecuencias sonoras. Por lo general, es aproximadamente plana en la zona central y presenta caídas (pérdida) en los extremos de la banda y, posiblemente, alguna cumbre de resonancia.
Respuesta en frecuencia
Respuesta en frecuencia
El conocimiento de las características de los micrófonos, de la sensibilidad, directividad, impedancia, ruido de fondo y fidelidad nos permite elegir en cada circunstancia el micrófono más adecuado para llevar a cabo la captación de sonido más ajustada a nuestras necesidades.

7.2.Tipos de micrófonos y usos

Podríamos llevar a cabo varias clasificaciones de los micrófonos, atendiendo, por ejemplo, a cada una de sus características, pero lo más habitual es clasificarlos según el principio de funcionamiento (electrodinámicos, electroestáticos) o también según el patrón de captación o directividad (omnidireccionales, bidireccionales, unidireccionales). Por último, haremos una referencia a los micrófonos inalámbricos.
Con cualquier tipo de micrófono se puede conseguir un patrón de directividad específico; es totalmente independiente del principio de funcionamiento, por eso no se ha indicado ningún ejemplo específico. Hay micrófonos unidireccionales de condensador, de bobina, de cinta y, también, omnidireccionales de bobina o de condensador.
7.2.1.Micrófonos inalámbricos
Un sistema de microfonía inalámbrico consta de un micrófono normal, un transmisor de frecuencia modulada (que puede estar dentro o fuera del cuerpo del micrófono), una antena de transmisión y un aparato receptor diseñado para recibir la señal de un determinado transmisor. Cada receptor es capaz de recibir una sola frecuencia.
Diagrama de bloques de microfonía inalámbrico
Diagrama de bloques de microfonía inalámbrico
El transmisor es del tipo FM. En un sistema FM, el transmisor radia la frecuencia portadora modulada por la amplitud de la señal de audio. El semicírculo positivo de la señal moduladora produce un aumento de la frecuencia de la portadora y el semicírculo negativo produce una disminución de la frecuencia de la portadora.
En el receptor, se desmodula la señal portadora y se transforman las variaciones de frecuencia en variaciones de amplitud, es decir, se reconstruye la señal de audio original.
Los micrófonos inalámbricos logran dar al portador del micrófono una total libertad de movimientos, dado que no necesita depender de un cable conectado a un lugar fijo. Normalmente, si no queremos que el transmisor sea muy pesado, tiene que ser poco voluminoso, hecho que, al mismo tiempo, implica una potencia de transmisión baja y un alcance corto.
Las ventajas de los micrófonos inalámbricos se centran sobre todo en la movilidad que permiten, por lo que se han instalado definitivamente en el mundo del espectáculo y de las representaciones artísticas.
7.2.2.Accesorios de micrófonos
Existen una infinidad de accesorios para los micrófonos, diseñados para facilitar su manipulación y para obtener el máximo rendimiento. Cabe mencionar los pies de sobremesa y trípodes de tierra, los soportes, las luces articuladas, las jirafas, las perchas telescópicas, los adaptadores, las pinzas antivibratorias con amortiguación mecánica, los filtros para evitar que el micrófono capte el sonido del aire en exteriores o los filtros antipop, que corrigen el problema causado al articular la letra pe muy cerca del diafragma.
Accesorios
Accesorios
7.2.3.Cómo obtener mejores grabaciones
Las consideraciones que debemos tener en cuenta a la hora de captar sonido directo son varias. En primer lugar, se debe analizar el tipo de grabación, por ejemplo si se trata de voz, música o efectos ambientales. En segundo lugar, tendremos en cuenta las características acústicas de los espacios de grabación. Según estos dos factores, se puede seleccionar el tipo de micrófono más adecuado en cada caso.
Los fabricantes de micrófonos ofrecen una amplia gama para cubrir todas las situaciones que podamos imaginar: para cantantes, entrevistas y para cada tipo de instrumento musical.
  • Uno de los principales inconvenientes que podemos encontrar en la captación de sonido es el ruido, que puede ser producido por un ambiente ruidoso, por un cableado inadecuado o por la acción del viento, entre otros. En cualquier caso, tenga el origen que tenga, el ruido se debe mantener como mínimo 20 dB por debajo de la señal útil.

  • Debemos tener en cuenta la sensibilidad del micrófono y, si el nuestro tiene una sensibilidad de hasta -55 dBm, solo lo podemos utilizar muy cerca de la fuente de sonido. A partir de -55 dBm lo podremos utilizar para la captación de ambientes o más alejado de la fuente sonora.

  • Otro fenómeno que suele aparecer cuando grabamos en la misma sala donde tiene lugar la acción es el de la realimentación acústica, puesto que el micrófono recoge el sonido de la fuente y también el del sistema de monitorización, por lo que se produce un pito intolerable. A menudo, este problema se soluciona simplemente variando la posición del micrófono, pero en el caso de que persista conviene utilizar un micrófono con un patrón de captación hipercardioide, puesto que su área efectiva es bastante reducida e introduce una atenuación de 10 dB fuera de la zona útil. Este tipo de micrófono es el más utilizado en grabaciones de ficción en vídeo.

  • Cuando se hagan grabaciones de palabra, con un micrófono próximo, se debe tener en cuenta que nos aparecerá el fenómeno llamado popping, que consiste en un tipo de explosión en la letra pe, por un golpe de aire fuerte. Este problema se resuelve interponiendo un filtro pop.

  • En la actualidad, está muy extendido el uso de micrófonos inalámbricos y, sin ningún género de duda, requieren un trato especial en la colocación, ya que no basta con que no se vean, sino que, además, no tienen que ocasionar ruidos por fricciones ni por corrientes estáticas, además deben poder captar la voz de la manera más correcta posible. Por ejemplo, si lo situamos muy cerca del cuello del actor, el sonido resulta engolado, sin agudos, por eso estos micrófonos corrigen la respuesta en una zona próxima a los 10 kHz. En esta frecuencia, se produce un realce de 6 a 8 dB.

  • Para grabar sonido, tenemos que tomar una serie de precauciones con objeto de evitar que el resultado final tenga un alto contenido de ruido de fondo, propio del sistema electrónico de grabación u otras procedencias y, además, para grabar sonido de productos audiovisuales, debemos tener cuidado con otros aspectos que hacen referencia a la imagen:

    • Tenemos que situar el micrófono lo más próximo posible a la fuente de sonido y, en el caso de programas de ficción en vídeo o cine, lo situaremos en perpendicular a la línea imaginaria del campo de cámara. Normalmente va suspendido en una percha, hecho que permite mucha movilidad para el seguimiento de los actores.

    • Tenemos que evitar que el micrófono, si es direccional, quede demasiado cerca de una pared o del techo, puesto que pierde la propiedad de la direccionalidad, dado que el aire que penetra por las ranuras laterales recorre caminos incorrectos y pierde congruencia al rebotar en paredes o techos.

    • Siempre tenemos que dirigir el micrófono de arriba hacia abajo.

    • Si grabamos en exteriores, nos tenemos que proveer de unos auriculares que admitan mucho volumen con objeto de no confundir si el ruido que oímos es de la grabación o de la calle.

    • Siempre conviene grabar sonidos de ambiente, como mínimo 30 segundos, para poder llenar posibles silencios o vacíos en la edición posterior.

    • Para no introducir sombras en la toma de imagen y sonido, siempre se tiene que situar el micrófono con la percha cuanto más arriba mejor. Si la iluminación de la escena proviene de un solo punto de luz, hay que introducir la percha por el lado opuesto, siempre teniendo en cuenta las sombras.

La toma de sonido es, desde el principio del sonido aplicado a los medios audiovisuales o sonoros, una compleja especialidad que compite con los profesionales de la toma directa, verdaderos magos expertos en la captación de la parte sonora del audiovisual en condiciones casi siempre difíciles.

7.3.Cuestionario

Tras una lectura atenta del tema, responded al cuestionario siguiente. A continuación, contrastad vuestras respuestas con el contenido.
1. ¿Qué quiere decir que un micrófono es un transductor electroacústico?
2. Explicad en qué consiste el fenómeno de la inducción electromagnética.
3. ¿Qué problemas origina la desadaptación de impedancias entre un micrófono y el equipo grabador?
4. ¿Es compatible el uso de un micrófono de alta impedancia con largas tiras de cable?
5. ¿Necesitan alimentación externa los micrófonos de bobina móvil?
6. ¿Qué diferencia existe entre un micrófono de condensador y un electreto?
7. ¿Por qué no utilizaríamos un micrófono de cinta para tomas de sonido de exteriores?
8. Si requerimos una calidad muy elevada y una respuesta plana en toda la banda audible, ¿qué tipo de micrófono nos puede interesar?
9. Los micrófonos con un diagrama de directividad en forma de ocho se denominan...
10. Los micrófonos cardioides también se denominan...
11. Cuando un micrófono capta todo el sonido que le rodea, se dice que tiene un diagrama de directividad o patrón de captación de tipo...
12. ¿Cuál es la principal ventaja de los micrófonos inalámbricos?
13. ¿Qué produce el fenómeno denominado de realimentación acústica? Para evitarlo, ¿qué tipo de micrófono usaremos?
14. ¿Por qué conviene proveerse de auriculares cuando grabamos en la calle o en ambientes ruidosos?
15. ¿Qué problemas puede originar en la grabación de imágenes la percha en cuyo extremo se ubica el micrófono? ¿Cómo se puede evitar?