lunes, 29 de octubre de 2012

Sonido en las salas de cine

En esta entrada hablaremos sobre la historia del audio en las salas de cine, desde los sistemas analógicos más primitivos hasta los sistemas digitales utilizados en la actualidad.

1927-1928: se realizan las primeras pruebas de sonido en las salas de cine con películas sin dialogo, solo música. El sistema (llamado MovieTone) era muy primitivo, consistía en un tocadiscos coordinado con el proyector de cine y a menudo se producían errores de sincronismo. No llegó a Europa.

1930: se inventa el Westrex, el primer sistema de sonido óptico. Aprovechando el invento de la célula fotoeléctrica por Edisson (1929) se incorpora una banda de sonido consistente en la impresión que dejaba un obturador al abrirse y cerrarse cuando recibía sonido. Esa banda esra leída por la célula fotoeléctrica que se incorpora en los proyectores.

1954: se empiezan a utilizar las bandas magnéticas de sonido. Se inventan los grandes formatos: Scope y Todd-AO. La banda magnética admite mayor número de pistas, con el Scope se consigue un 3.1 (izquierdo, central, derecho y subwoffer) y con el Todd-AO 6 canales (izquierdo frontal y trasero, central frontal y trasero y derecho frontal y trasero). Ya que estos sistemas requerían una reconversión complicada, sustituir el tradicional  lector óptico por uno magnético, no todos los cines quisieron hacerla. Finalmente este sistema murió ya que el sonido terminaba muy deteriorado a los pocos meses de ser proyectadas.

1976: debido a la mejora en los sistemas domésticos de sonido surgió la necesidad de ofrecer mayor calidad de audio en las salas de cine, apareció así el Dolby Stereo. Este sistema incorporaba una segunda pista óptica (no fue necesaria la adaptación de los proyectores mono, que sólo leían una de las bandas).



1981: se crea el Dolby Surround, el cual aprovecha los dos canales del stereo para sacar un canal central y uno de subwoffer.

1988: se pasa al soporte óptico digital: Dolby Digital. Se trató que fuera compatible con el sistema analógico, por lo que las dos bandas ópticas continuaban en la parte derecha de la película mientras que se incorporó una serie de números binarios en la parte izquierda, que era leída sólo por los proyectores digitales. Con una buena compresión se conseguían muchos canales. En sus comienzos fue un 5.1 (izquierdo frontal y trasero, central, derecho frontal y trasero y subwoffer), cada uno independiente. Actualmente ofrece sonido 7.1 e incluso 9.1



1991: se inventa el DTS (Digital Theaters Sound), creado para competir con el Dolby Digital. Sigue siendo compatible con el sistema analógico. Es una versión digital del Movietone: en la película sólo aparecen unas líneas de sincronía que son leídas por el proyector que está conectado a un lector de discos parecidos a los CDs domésticos. Puede contener una gran información sonora al estar separada del rollo de película. Ofrece 5.1 al igual que el sistema Dolby Digital.Actualmente tambén ofrece 7.1 Los puntos de sincronía se sitúan en la parte izquierda de la película donde están los agujeros que utiliza el proyector para hacerla avanzar.

1993: cuando Sony compra Columbia Pictures crea el sistema SDDS (Sound Digital Dynamic System). Se basa en la idea del DTS pero no son compatibles. Utilizan el lado contrario que el DTS para situar sus puntos de sincronía, también en la parte de los agujeros. Ofrece una gran calida de sonido con el 7.2 (izquierdo frontal, lateral y trasero, central, derecho frontal, lateral y trasero y subwoffer izquierdo y derecho). Este sistema está muy extendido en EE.UU. y Japón. En Europa no ha tenido apenas éxito.

THX: se piensa erróneamente que el THX es un sistema de sonido. En realidad es un estudio de la acústica de las salas de proyección. Lo crea George Lucas. Un técnico de THX visita una sala de cine cuando se le solicita y la estudia para sacarle el máximo provecho con materiales y altavoces específicos. Siempre trabajan con Dolby.


ENTRADA GRUPAL

sábado, 27 de octubre de 2012

Historia de la distorsión en los amplificadores

Antes de que existiera un pedal analógico que reprodujera el efecto e incluso antes de que se usara más de un equipo, los músicos solían romper los conos de sus parlantes para que sonara sucio. Hendrix lo hizo (antes del fuzz) y también Jefferson Airplane y Fleetwood Mac en su primera etapa blusera. 

Cuenta la historia que el primer 'fuzz' se utilizó de forma accidental en el año '61 en los estudios Quonset Hut de Nashville. El guitarrista de estudio Grady Martin se disponía a grabar un "solo" con una Danelectro para el tema "Don't Worry" de Marty Robbins cuando un canal de la mesa de grabación a válvulas empezó a distorsionar. Lo normal hubiera sido parar la grabación y reparar la avería de la mesa, pero a alguien le gustó el sonido y se grabó tal cual. El resultado fue el primer solo con 'fuzz' grabado en Nashville. Algo que podía haber quedado en pura anécdota, iba a dar que hablar. Muchos artistas de la época que escucharon aquel "solo" quisieron utilizar el efecto 'mágico' de aquellos afamados estudios. Pero claro, la avería ya estaba reparada. Algunos clientes no se creían la historia que les contaban en el estudio y pensaron que reservaban aquel 'misterioso' efecto para los artistas del propio estudio de grabación. Harto de quejas, el ingeniero del estudio Glen Snotty decidió reproducir aquel sonido con un circuito a transistores. Más tarde, Glen le pasó el circuito a un amigo que trabajaba en Gibson y acabó convirtiéndose en el citado 'Maestro Fuzz-Tone' (Maestro era una subsidiaria de CMI, la propietaria de Gibson en aquella época). 
Robbie Krieger (guitarrista de The Doors), Steve Howe (guitarrista de Yes) o incluso Keith Richards eran usuarios habituales del Maestro Fuzz-Tone. También Billy Gibbons (de ZZ Top) era un fan absoluto de este pedal por aquellos tiempos, hasta el punto de que hizo instalar el circuito de un Maestro Fuzz-Tone en el interior de su Fender Jaguar. 
Muchos guitarristas han reivindicado a lo largo de la historia la utilización por vez primera de una distorsión en alguna de sus grabaciones. Durante los años cincuenta los músicos se vieron obligados a buscar constantemente diferentes trucos para obtener peculiares sonidos. Muchas veces llegaban a ellos por casualidad y otras por un simple accidente fortuito, como la rotura del cono de un altavoz. El guitarrista Roy Buchanan rajaba literalmente sus altavoces para obtener 'fuzz'. Link Wray, creador de clásicos instrumentales de los sesenta como "Comanche" o "Rumble" y uno de los 'gurus' del sonido grunge actual, dejó el altavoz de su amplificador Premier como un queso Gruyere, lleno de agujeros hechos con un simple lápiz. Decía que todo valía con tal de obtener un 'buen' sonido. El guitarrista Paul Burlison descubrió la distorsión de forma accidental. Justo antes de empezar una sesión de estudio, se le cayó el amplificador al suelo y no se dio cuenta de que una de las válvulas de potencia se había aflojado con el golpe, lo justo para no funcionar. Le gustó el sonido distorsionado del amplificador funcionando con una sola válvula y lo utilizó en la grabación de dos de sus temas clásicos de 1956: "Train Kept A-Rollin" y "Honey Hush". 
El guitarrista Reggie Young, una leyenda de los estudios de Nashville y Memphis, quitaba habitualmente una de las válvulas de la etapa de potencia para distorsionar el sonido del amplificador. También utilizaba técnicas como conectar la salida de altavoz de un amplificador a la entrada de otro para hacerlo saturar. Incluso llegó a utilizar un aparato a válvulas hecho en Canadá y llamado 'Herzog' que servía para saturar la entrada de un amplificador de guitarra. Era algo más pequeño que un cabezal Fender y tan ruidoso que tenía que utilizarlo con un pedal de volumen para evitar el ruido hasta el momento de hacerlo sonar. 
Chet Atkins es otro de los guitarristas clásicos que reivindica haber utilizado un 'overdrive' antes de la grabación de "Don't Worry". A mediados de los años cincuenta un técnico electrónico le hizo un pequeño previo a transistores, del tamaño de una cajetilla de tabaco, que utilizaba para saturar la entrada de su amplificador a válvulas. 
Como podemos observar, por aquellos entonces los músicos tenían que buscarse la vida para añadir algo de originalidad y frescura a sus grabaciones. Hoy en día disponemos de decenas de pedales que reproducen aquellos sonidos vintage y otros más contemporáneos. Muchas de aquellas viejas cajas de 'fuzz' se han reeditado y nuevos fabricantes han aportado multitud de distorsiones al mundo de la música.

lunes, 22 de octubre de 2012

Radio en directo y la importancia de redes RDSI


Para realizar programas en directo de radio con corresponsales en distintas partes del mundo (como podrían ser los noticiarios o retransmisiones de deportes) es necesario establecer comunicaciones entre distintos orígenes hasta las emisoras donde se realizará la mezcla de audio previa a la radiodifusión sobre los receptores FM.
Dado el alto grado de avance de las tecnologías, cada vez se hace mas exigente la calidad del audio en cualquier tipo de comunicaciones radiofónicas, intentando conseguir en toda la cadena de edición de audio al menos la calidad que se pueda conseguir en un estudio.
En la actualidad, las emisoras comerciales de FM tienen una calidad de 15KHz estéreo en el audio que se recibe, lo cual es mucho mejor que una emisión de audio en AM (aproximadamente la mitad). En contra, AM permite obtener cobertura sobre una mayor parte del terreno aprovechando las características de las señales moduladas en amplitud, donde la degradación de la señal transmitida es menor con la distancia. En FM el radio de cobertura puede establecerse a unos 100Km aproximadamente desde el punto de emisión.
En este sentido, para conseguir transmitir a los oyentes la máxima calidad de audio es necesario disponer de equipos dentro de los estudios que permitan el tratamiento de audio en al menos esa calidad, evitando la degradación de la señal en cualquier momento. Por eso, la parte mas frágil de la radio suele ser las comunicaciones exteriores.
Cuando en algunos programas se realizan intervenciones telefónicas tradicionales suele notarse una importante diferencia, la calidad de los teléfonos es bastante inferior a la producida en el estudio, pudiendo ser hasta molesta esa diferencia si se mantiene durante mucho tiempo.
Con el fin de poder mantener durante largos periodos de tiempo comunicaciones exteriores se introdujeron en los estudios de radio equipos de RDSI (ISDN, Red Digital de Servicios Integrados), líneas de comunicación que pueden ser usadas para la transmisión de datos y de voz. Se basa en las líneas de comunicaciones telefónicas de cobre (red de conmutación de circuitos), por lo cual destaca su facilidad de instalación y explotación con escaso impacto económico, facilitando conexiones digitales extremo a extremo.
Existen varios tipos de RDSI dependiendo principalmente de la localización geográfica, las mas importantes la de acceso básico (BRI, Basic Rate Interface) y la de acceso primario (PRI, Primary Rate Interface). Así en Europa están mas extendidas las RDSI básicas, donde la línea está formada por dos canales de 64kbit/s cada uno además de un canal de señalización de 16kbit/s. Puede existir la posibilidad de realizar la unión de los dos canales para obtener un ancho de banda de 128kbit/s.
Los accesos primarios disponen de mayor cantidad de canales de datos, hasta 23 en América y Japón y hasta 30 en Europa ademas del canal de señalización.
En la telefonía tradicional la calidad se extiende hasta los 3,1Khz; en RDSI cada canal puede ofrecer hasta 7,5Khz.
ENTRADA GRUPAL

sábado, 20 de octubre de 2012

Efecto Doppler

¿Alguna vez te has parado a pensar porque se escucha diferente cuando en la calle se aproxima una ambulancia o un coche de policía hacia ti y cuando ya se está alejando?
Pues bien, esto es debido al un fenómeno llamado efecto Doppler.
Veamos qué es y cómo se produce 


El efecto Doppler es así conocido por Christian Doppler, al que primero se le ocurrió la idea en 1842. Él determinó que las ondas de sonido tendrían una frecuencia más alta si la fuente del sonido se movía en dirección al receptor y una frecuencia más baja si la fuente del sonido se alejaba del receptor.

Una manera de visualizar el efecto Doppler es pensar en las ondas como pulsaciones que se emiten a intervalos regulares. Imagina que caminas hacia adelante. Cada vez que das un paso, emites una pulsación. Cada pulsación frente a tí estará un paso más cercano, mientras que cada pulsación detrás tuyo, estará un paso más alejada. un paso que te aleja. Las pulsaciones frente a tí son de mayor frecuencia y las pulsaciones detrás tuyo tienen menor frecuencia.

Además este efecto tiene muchas aplicaciones:

 -Edwin Hubble usó el efecto Doppler para determinar que el universo se está expandiendo
-Los radares Doppler ayudan a los meteorólogos a detectar posibles tornados.

-El efecto Doppler ha adquirido en los últimos años una extraordinaria importancia en el estudio morfológico y funcional cardíaco tanto en sujetos sanos como en aquellos con enfermedades cardíacas. Esto se debe a que esta técnica, que está basada en la emisión y recepción de ultrasonidos, presenta considerables ventajas respecto a otros procedimientos diagnósticos.

Todo esto queda muy bien reflejado en este vídeo explicativo.

Susana Sagredo Arnaiz

jueves, 18 de octubre de 2012

Hombre orquesta

A partir de la clase del martes, tras la idea de poder hacer varios sonidos con un mismo instrumento como si de varios se tratase, me he encontrado cosas muy curiosas como las siguientes (aunque la idea de una partita no sea igual, pero sigue siendo curioso)

En este vídeo podemos ver a Andy tocando la guitarra, haciendo sus propios bajos y percusión, todo con el mismo instrumento y a la vez:



En el siguiente vídeo podemos ver muchos casos de lo conocido como BeatBox (múltiples sonidos con la boca al mismo tiempo):


lunes, 15 de octubre de 2012

Eco,eco,eco,eco...


Muchas veces al subir a una montaña seguro que todos hemos gritado para oír el eco de nuestra voz. Pero.... ¿Cómo se produce el eco? Empecemos por lo básico:
El eco es un fenómeno acústico que se produce cuando una onda sonora se topa con una superficie dura en su trayectoria y se refleja regresando hacia su emisor. Para que se produzca el eco, la superficie sobre la que se reflejan las ondas debe estar a una distancia mínima del emisor del sonido. Teniendo en cuenta que el sonido se mueve a una velocidad de 343 m/s, en el caso de los sonidos secos esta distancia sería de alrededor de 11,34 metros, y en los sonidos musicales de 17 metros.
Por otro lado, para que los humanos podamos percibir el eco, es necesario que el sonido supere la persistencia acústica, fenómeno que provoca que nuestro cerebro interprete un sonido como dos distintos en un espacio corto de tiempo. Para que se dé esta ilusión acústica, el retardo mínimo entre el primer y segundo sonido debe ser de al menos 70m/s ,para sonidos secos como las palabras, y de 100m/s para sonidos más complejos, como puede ser la música.
Una curiosidad: El término "eco" es de origen griego. En la mitología griega, Eco fue el nombre de una ninfa que fue condenada por la diosa Hera a repetir la última palabra que dijera la persona con la que conversara. Un día Eco se enamoró de Narciso, y al intentar hablar con él, éste la rechazó. Su tristeza fue tan grande, que la ninfa se refugió en una cueva en la que permaneció hasta finalmente desaparecer en el olvido.
Para finalizar, otra curiosidad muy interesante y misteriosa, el efecto acústico que se produce al dar una palmada delante de la pirámide de Kukulkán (perdonadme por la calidad del video :) )


ENTRADA GRUPAL

jueves, 4 de octubre de 2012

Un clasico

Para esta entrada se recomienda ponerse unos cascos, cerrar los ojos y escuchar este audio (ya un poco viejo, pero no por ello menos curioso) en el que sentiremos que estamos realmente en una barbería, con todos los movimientos del barbero por ambos oidos y un ambiente muy logrado.


http://www.youtube.com/watch?v=IUDTlvagjJA

Aplicación móvil

El objetivo de esta entrada de blog es mostrar y explicar el funcionamiento de una aplicación para móvil que reconoce una canción mientras ésta está sonando. Esto es de mucha utilidad cuando en la calle, en una discoteca, en la radio… escuchas una canción que te gusta pero desgraciadamente no conoces el título ni el autor de ésta y por tanto, no puedes conseguirla. Pues con esta aplicación este problema está solucionado!

Existen dos aplicaciones de este tipo. Una se llama Shazam y la otra SoundHound. Ambas al reconocer la canción muestran el título de la canción, el artista, la cubierta del álbum y fecha de lanzamiento del álbum.

En el caso de Shazam, el método exacto y detallado de su sistema de identificación de canciones es un secreto comercial. Pero el equipo de Shazam ha puesto de manifiesto algunos aspectos del sistema, y algunos han explicado el algoritmo básico.
http://everythingelsematterstoo.blogspot.com/2010/11/how-shazam-works.html
Shazam contiene una amplia base de datos las canciones. Esas canciones son separadas y analizadas por sus características acústicas, en concreto las "frecuencias de pico" en varios puntos. Cuando se capturan 10 segundos de audio y se envían a Shazam, también se están grabando las frecuencias: las notas de los instrumentos, armonías únicas, y similares. Otras personas pueden estar hablando, la calefacción o el aire acondicionado del coche puede estar encendido, pero si esas notas y tonos pueden venir a través, deberían (en teoría) coincidir con ciertas combinaciones de frecuencias que se encuentran en la base de datos de Shazam.



La explicación del funcionamiento de Soundhound es un poco más vago. La tecnología de apoyo, Sound2Sound, también permite tararear o cantar canciones para su identificación a través de consultas por el zumbido (QBH). Sugiere un sistema probablemente similar en el contorno de Shazam, pero con características únicas.
http://www.soundhound.com/index.php?action=s.sound2sound

Audífono digital

En esta entrada hablamos sobre los audífonos digitales y hacemos mención a un audífono digital desarrollado por investigadores de la Universidad de Alcalá.

El audífono digital consta de tres componentes principales: un micrófono, que recoge los sonidos del ambiente; un dispositivo para el tratamiento de la señal, que amplifica y procesa la señal sonora; y un altavoz, que reproduce la señal amplificada y procesada. 

Como vimos en clase, en los audífonos digitales la amplificación no es lineal, es decir, se aplica una ganancia distinta para cada nivel de entrada en cada frecuencia. De este modo, a diferencia de los audífonos analógicos donde se aplica la misma ganancia a todos los niveles, se permite amplificar los sonidos suaves y comprimir los fuertes para que no sean molestos para el usuario.

Además de la amplificación no lineal y el uso de compresores podemos destacar los complejos algoritmos y avances técnicos de este tipo de audífonos.  

Para realizar un ajuste fino y óptimo del audífono en cada  frecuencia, se realiza una división de las frecuencias en canales y bandas. Los canales permiten asignar un mismo procesamiento de la señal para un conjunto de frecuencias, mientras que las bandas permiten asignar dentro de un canal  un nivel de ganancia independiente a los diferentes puntos frecuenciales.

Para reducir el ruido se pueden encontrar los micrófonos direccionales, que según la programación del audífono pueden captar el sonido en un ángulo de 360º,180º o  en la dirección de la voz sonora. Esto favorece la detección de la voz dejando más bajo el ruido ambiente.


Un audífono digital que mejora la calidad del sonido recibido


Por último, hablamos sobre un proyecto desarrollado hace unos años por el Grupo de Procesado de Señales Sonoras del departamento de Teoría de la Señal y Comunicaciones de la Universidad de Alcalá.   Este permitió lograr que el audífono sea capaz de reconocer automáticamente el entorno acústico donde se encuentra el usuario, para modificar los parámetros de funcionamiento del aparato y mejorar así la calidad del sonido recibido. Con esto se facilita el uso para personas mayores, ya que no requiere que el usuario ajuste manualmente el nivel de audición dependiendo de si se encuentra en un entorno ruidoso, tranquilo o escuchando música. 



lunes, 1 de octubre de 2012

Presentación

Somos Ángela García, Susana Sagredo y Guillermo Ramos, alumnos de la asignatura de Introducción al audio digital.

Comenzamos nuestro blog con un vídeo sobre cómo analizar los ultrasonidos de los murciélago para identificar a qué especie y género pertenecen.


Informandonos sobre el tema, hemos encontrado los siguientes datos:

Los micromurciélagos generan el ultrasonido en la laringe y lo emiten a través de la nariz o por la boca abierta. La llamada del murciélago utiliza una gama de frecuencias comprendida entre 14 000 y 100 000 Hz, frecuencias la mayoría por encima de la capacidad auditiva del oído humano (de 20 Hz a 20 000 Hz).
Hay especies concretas de murciélagos que utilizan rangos de frecuencia específicos para adaptarse a su entorno o por sus técnicas de caza. A veces esto ha sido usado por los investigadores para identificar el tipo de murciélagos en una zona grabando sus llamadas con grabadores ultrasónicos, también conocidos como detectores de murciélago. Sin embargo las llamadas ecolocadoras no son específicas de cada especie, por lo que hay murciélagos que solapan sus tipos de llamada. Por este motivo estas grabaciones no sirven para identificar todos los tipos de murciélago. En los últimos años desarrolladores en distintos países han desarrollado una librería de llamadas de murciélago, que contiene grabaciones de referencia de las llamadas de las especies locales para ayudar con la identificación.